Inteligência Artificial: manifesto para pausar já

Inteligência Artificial: manifesto de pausa imediata, via Future of Life.

Divulgado em 29 de março de 2023

Pausar experiências gigantes de IA: uma carta aberta

Convidamos todos os laboratórios de IA a fazer uma pausa imediata por pelo menos 6 meses no treinamento de sistemas de IA mais poderosos que o GPT-4.

Os sistemas de IA com inteligência humano-competitiva podem representar riscos profundos para a sociedade e a humanidade, como mostra uma extensa pesquisa [1] e reconhecida pelos principais laboratórios de IA.[2]

Conforme declarado nos Princípios de IA da Asilomar, amplamente endossados, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais.

Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora nos últimos meses tenha visto laboratórios de IA travados em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar com segurança.

Os sistemas contemporâneos de IA estão agora se tornando competitivos em humanos nas tarefas gerais, [3] e devemos nos perguntar:

  • Devemos deixar as máquinas inundarem nossos canais de informação com propaganda e mentira?
  • Devemos automatizar todos os trabalhos, incluindo os que cumprem?
  • Devemos desenvolver mentes não humanas que possam eventualmente superar, ser mais espertas, obsoletas e nos substituir?
  • Devemos arriscar a perda de controle de nossa civilização?

Tais decisões não devem ser delegadas a líderes técnicos não eleitos.

Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e que seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema.

A recente declaração da OpenAI sobre inteligência geral artificial afirma que “em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e os esforços mais avançados para concordar em limitar a taxa de crescimento da computação usada para criar novos modelos.”

Nós concordamos. Esse ponto é agora.

Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4.

Essa pausa deve ser pública e verificável e incluir todos os principais atores.

Se tal pausa não puder ser promulgada rapidamente, os governos devem intervir e instituir uma moratória.

Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para o projeto e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes.

Esses protocolos devem garantir que os sistemas que os aderem estejam seguros além de uma dúvida razoável.[4]

Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um passo atrás da corrida perigosa para modelos de caixa preta imprevisíveis cada vez maiores, com recursos emergentes.

A pesquisa e o desenvolvimento da IA devem ser reorientados para tornar os sistemas poderosos e de ponta de hoje mais

PRECISOS, SEGUROS, INTERPRETÁVEIS, TRANSPARENTES, ROBUSTOS, ALINHADOS, CONFIÁVEIS E LEAIS.

Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA.

No mínimo, eles devem incluir:

  • Autoridades reguladoras novas e capazes dedicadas à IA;
  • Supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional;
  • Sistemas de proveniência e marcas d’água para ajudar a distinguir vazamentos reais e sintéticos de modelos;
  • Um ecossistema robusto de auditoria e certificação;
  • Responsabilidade por danos causados pela IA;
  • Financiamento público robusto para pesquisa técnica de segurança de IA;
  • E instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (ESPECIALMENTE PARA A DEMOCRACIA) essa IA causará.

A humanidade pode desfrutar de um futuro florescente com a IA.

Tendo conseguido criar sistemas de IA poderosos, agora podemos desfrutar de um “verão da IA” no qual colhemos as recompensas, projetamos esses sistemas para o benefício claro de todos e damos à sociedade a chance de se adaptar.

A sociedade atingiu uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade.[5]

Podemos fazer isso aqui.

Vamos aproveitar um longo verão de IA, se não nos apressarmos despreparados para o outono.

Notes and references

[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.

Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.

[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Minhas sensações:

Precisamos, enquanto Seres Humanos, dotados de inteligência – Capital Intelectual – superior (razão temperada com emoção), mesmo sabendo que somos apenas 3% mais inteligentes do que os símios, segundo afirmam as pesquisas em neurociência, compreender e assumir esse manifesto, por mais difícil que seja.

Faz 36 meses que passamos por um tsunami mundial alucinado, com a Pandemia da Covid-19. Se você, aqueles que aí estão em seu círculo de relacionamento e eu, cá estamos a ler esse manifesto, é hora de novamente ENFIAR O PÉ NO BREQUE das aplicações geradas pelos sistemas de IA, mais poderosas que as do GPT-4.

Quem acompanha a TIC – Tecnologia da Informação e da Comunicação – já sabe e leu, no mínimo nesses mesmos 36 meses atrás, que os efeitos da adoção de IA, serão violentos em todos os sentidos e direções de nossa Vida, nessa terceira dimensão. E, já aceleraram, desde janeiro desse ano 2023.

A era da cibernÉTICA chegou. E agora?

Principal nome por trás do projeto, a OpenAI apresentou a primeira versão do GPT em 2018.

Se vai ser fácil? Acredito que nem um pouco, será dificílimo.

Porém, se não fizermos alguma ação concreta já … talvez amanhã este artigo suma, eu idem, você também e será um APOCALIPSE DIGITAL. Eu assinei, não sei se aceitarão meu voto. Peço que reflita, releia, se informe. Se quiser, entre em contato e trocamos ideias. 1E843E

Esse Universo Digital, movido a Bits&Bytes, é fabuloso. E, pode nos ajudar ou … nos matar, syn!

ShineYourNature!

SYN!

#futureoflife #manifesto #pausaIA #tecnologia #OpenAI #desafiogigante #shineyournature

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *