Inteligência Artificial: manifesto de pausa imediata, via Future of Life.
Divulgado em 29 de março de 2023
Pausar experiências gigantes de IA: uma carta aberta
Convidamos todos os laboratórios de IA a fazer uma pausa imediata por pelo menos 6 meses no treinamento de sistemas de IA mais poderosos que o GPT-4.
Os sistemas de IA com inteligência humano-competitiva podem representar riscos profundos para a sociedade e a humanidade, como mostra uma extensa pesquisa [1] e reconhecida pelos principais laboratórios de IA.[2]
Conforme declarado nos Princípios de IA da Asilomar, amplamente endossados, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais.
Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora nos últimos meses tenha visto laboratórios de IA travados em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar com segurança.
Os sistemas contemporâneos de IA estão agora se tornando competitivos em humanos nas tarefas gerais, [3] e devemos nos perguntar:
- Devemos deixar as máquinas inundarem nossos canais de informação com propaganda e mentira?
- Devemos automatizar todos os trabalhos, incluindo os que cumprem?
- Devemos desenvolver mentes não humanas que possam eventualmente superar, ser mais espertas, obsoletas e nos substituir?
- Devemos arriscar a perda de controle de nossa civilização?
Tais decisões não devem ser delegadas a líderes técnicos não eleitos.
Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e que seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema.
A recente declaração da OpenAI sobre inteligência geral artificial afirma que “em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e os esforços mais avançados para concordar em limitar a taxa de crescimento da computação usada para criar novos modelos.”
Nós concordamos. Esse ponto é agora.
Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4.
Essa pausa deve ser pública e verificável e incluir todos os principais atores.
Se tal pausa não puder ser promulgada rapidamente, os governos devem intervir e instituir uma moratória.
Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para o projeto e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes.
Esses protocolos devem garantir que os sistemas que os aderem estejam seguros além de uma dúvida razoável.[4]
Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um passo atrás da corrida perigosa para modelos de caixa preta imprevisíveis cada vez maiores, com recursos emergentes.
A pesquisa e o desenvolvimento da IA devem ser reorientados para tornar os sistemas poderosos e de ponta de hoje mais
PRECISOS, SEGUROS, INTERPRETÁVEIS, TRANSPARENTES, ROBUSTOS, ALINHADOS, CONFIÁVEIS E LEAIS.
Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA.
No mínimo, eles devem incluir:
- Autoridades reguladoras novas e capazes dedicadas à IA;
- Supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional;
- Sistemas de proveniência e marcas d’água para ajudar a distinguir vazamentos reais e sintéticos de modelos;
- Um ecossistema robusto de auditoria e certificação;
- Responsabilidade por danos causados pela IA;
- Financiamento público robusto para pesquisa técnica de segurança de IA;
- E instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (ESPECIALMENTE PARA A DEMOCRACIA) essa IA causará.
A humanidade pode desfrutar de um futuro florescente com a IA.
Tendo conseguido criar sistemas de IA poderosos, agora podemos desfrutar de um “verão da IA” no qual colhemos as recompensas, projetamos esses sistemas para o benefício claro de todos e damos à sociedade a chance de se adaptar.
A sociedade atingiu uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade.[5]
Podemos fazer isso aqui.
Vamos aproveitar um longo verão de IA, se não nos apressarmos despreparados para o outono.
Notes and references
[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.
[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
Minhas sensações:
Precisamos, enquanto Seres Humanos, dotados de inteligência – Capital Intelectual – superior (razão temperada com emoção), mesmo sabendo que somos apenas 3% mais inteligentes do que os símios, segundo afirmam as pesquisas em neurociência, compreender e assumir esse manifesto, por mais difícil que seja.
Faz 36 meses que passamos por um tsunami mundial alucinado, com a Pandemia da Covid-19. Se você, aqueles que aí estão em seu círculo de relacionamento e eu, cá estamos a ler esse manifesto, é hora de novamente ENFIAR O PÉ NO BREQUE das aplicações geradas pelos sistemas de IA, mais poderosas que as do GPT-4.
Quem acompanha a TIC – Tecnologia da Informação e da Comunicação – já sabe e leu, no mínimo nesses mesmos 36 meses atrás, que os efeitos da adoção de IA, serão violentos em todos os sentidos e direções de nossa Vida, nessa terceira dimensão. E, já aceleraram, desde janeiro desse ano 2023.
A era da cibernÉTICA chegou. E agora?
Principal nome por trás do projeto, a OpenAI apresentou a primeira versão do GPT em 2018.
Se vai ser fácil? Acredito que nem um pouco, será dificílimo.
Porém, se não fizermos alguma ação concreta já … talvez amanhã este artigo suma, eu idem, você também e será um APOCALIPSE DIGITAL. Eu assinei, não sei se aceitarão meu voto. Peço que reflita, releia, se informe. Se quiser, entre em contato e trocamos ideias. 1E843E