Ontem (29/03/2023) um grupo enorme de especialistas e grandões do mercado pediram em uma carta aberta para pausar os avanços e experimentos de Ai por um tempo até os governos e entidades jurídicas conseguirem acompanhar o que está acontecendo. Isso tudo para garantir que o desenvolvimento da inteligência artificial ocorra de forma mais segura e ética. Segundo a carta, o objetivo é evitar possíveis consequências negativas e garantir que a Ai seja benéfica para a humanidade.
Pessoalmente estou em um conflito de emoções. Se por um lado concordo que é assustador o que vem acontecendo desde novembro do ano passado, por outro lado estou tentando entender qual o interesse real dessa galera. Porque muita gente que tá lá não costuma da ponto sem nó. Uma coisa é certa, as mais de 1300 pessoas que estão na lista de assinaturas são muito influentes, quem mais chama atenção é o 3º da lista, o próprio Lex Lu… não, pera… Elon Musk. Sim ele mesmo, que há uma semana estava em uma live da Open Ai entusiasmadíssimo com os anúncios do que o ChatGPT-4 já é capaz de fazer, dentre outras ferramentas.
Detalhe, são 10h40 da manhã do dia seguinte a publicação da carta e enquanto revia a ela pra escrever o que você está lendo, as assinaturas foram pausadas por alta demanda.

Mas voltando pra carta. Começamos pelo título: Pausar Experimentos Gigantes de IA: Uma Carta Aberta. Pedimos que todos os laboratórios de IA interrompam imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos do que o GPT-4 (**Pause Giant AI Experiments: An Open Letter** We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4).
Eu achei dramático, não foi? Acredito que necessário, do contrário quem daria atenção? Mas continuando, vou colar a carta aqui em português (que o Notion Ai traduziu, diga-se de passagem), tudo o que estiver em itálico é da carta, o que for em negrito é observação minha, cominado? Ok, então vamos lá:
Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, como demonstrado por extensas pesquisas [1] e reconhecido pelos principais laboratórios de IA [2]. Como afirmado nos amplamente endossados Princípios de AI de Asilomar, “A IA avançada poderia representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com o mesmo cuidado e recursos correspondentes”. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora nos últimos meses os laboratórios de IA tenham se envolvido em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – podem entender, prever ou controlar de forma confiável.
Ou seja, era o que temia. Estou vendo ferramentas que simulam voz e rosto das pessoas com um desempenho excelente. Inclusive na live que mencionei anteriormente da OpenAi, o Elon se deliciava usando isso pra falar com a voz de várias pessoas. Mas a pergunta é: como impedir que se use isso em crimes? Do jeito que as coisas estão. Veja, governos pouco investem em treinamentos e tecnologia, pelo menos aqui no Brasil sempre foi assim. Não conseguimos resolver ainda o problemas de pessoas sendo presa injustamente porque foi confundido por uma foto borrada de câmeras de segurança. Com esse nível avançado de Ai sem um alto nível de planejamento e gerenciamento como fala na carta, quem vai saber quem é quem? Certo, seguimos.
Os sistemas de IA contemporâneos estão se tornando competitivos em tarefas gerais da humanidade [3], e devemos nos perguntar: Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e mentiras? — Pois né, olha onde paramos com a galera acreditando em tudo o que vê e ouve no zap — Devemos automatizar todos os empregos, incluindo os satisfatórios? Devemos desenvolver mentes não humanas que eventualmente possam superar, obsoletas e substituir nós? Devemos arriscar a perda de controle de nossa civilização? — aqui a carta descreve tudo o que acontece sempre que uma tecnologia avança, taí a revolução industrial nos livros de história pra não me deixar mentir — Tais decisões não devem ser delegadas a líderes de tecnologia não eleitos. Sistemas de IA poderosos devem ser desenvolvidos somente quando tivermos a confiança de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema. A declaração recente do OpenAI sobre inteligência geral artificial afirma que “em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento do computador usado para criar novos modelos”. Nós concordamos. Esse ponto é agora. — Tah, concordo também. E vem o ponto alto da carta:
Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se essa pausa não puder ser promulgada rapidamente, os governos devem intervir e instituir uma moratória. — Queria ser uma mosquinha nos times das empresas e laboratórios pra saber como os funcionários e criadores reagiram a isso. Seguimos.
Os laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar conjuntamente um conjunto de protocolos de segurança compartilhados para o design e desenvolvimento de IA avançada que sejam rigorosamente auditados e supervisionados por especialistas independentes externos. Esses protocolos devem garantir que os sistemas que os seguem sejam seguros além de qualquer dúvida razoável [4]. Isso não significa uma pausa no desenvolvimento de AI em geral, — Atenção aqui com a ponderação — apenas um passo atrás da perigosa corrida para modelos de caixa preta imprevisíveis e emergentes cada vez maiores.
Corrida, taí uma palavra bem implantada que quero destacar. Gente esse mês parei de contar os anúncios de empresas e suas ferramentas de Ai porque eu tinha que dar conta da minha própria vida. Ainda hoje vou tentar fazer um resumo sobre isso, mas foi um mês insano. Parecia que todo mundo entrou em uma corrida desesperada pra lucrar com isso. Não culpo ninguém, vivemos numa realidade capitalista e eu mesma estou estudando pra implementar essas tecnologias nos meus projetos de UX design, mas assim, que loucura é essa? Ficou quase impossível de acompanhar tudo, o que não é bom pra ninguém, porque quando todo mundo está gritando, ninguém ouve nada. Posso dizer que a essa altura da coisa, também acredito que puxar o freio de mão é uma boa ideia.
A pesquisa e desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados de última geração mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
Em paralelo, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Esses devem incluir, no mínimo: novas autoridades regulatórias capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de procedência e marca-d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisas técnicas de segurança de IA; e instituições bem financiadas para lidar com as dramáticas interrupções econômicas e políticas (especialmente para a democracia) que a IA causará. — Também sou obrigada a concordar, pelo que ja argumentei no começo dessa analise.
A humanidade pode desfrutar de um futuro florescente com IA. Tendo conseguido criar sistemas de IA poderosos, agora podemos desfrutar de um “verão da IA” em que colhemos os benefícios, projetamos esses sistemas para o benefício claro de todos e damos à sociedade uma chance de se adaptar. A sociedade pausou outras tecnologias com efeitos potencialmente catastróficos sobre a sociedade. — Menos armas nucleares, né?! — Podemos fazer o mesmo aqui. Vamos aproveitar um longo verão de IA, não correr despreparados para uma queda.
Ehhh, gatah… Babado. Olha em geral eu assinaria essa carta se ainda estivesse aberta e fosse alguém na fila do pão. Porque acredito que estamos em um ponto preocupante. Empolgante. Sim, muito. Até porque, já não gosto de pensar no tempo que perdia antes de usar o Notion Ai e o ChatGPT pra otimizar a vida. Essas duas ferramentas estão me ajudando muito e acelerando meus estudos de programação. Mas assim, na velocidade que estamos indo, com trocentos anúncios por dia de uma coisa nova de Ai sendo lançada ou melhorada, eu não tenho noção de onde iriamos para.
Bom essa foi uma humilde opinião de uma pessoa e usuária entusiasta de Ai que ainda acredita muito no potencial dessas ferramentas para otimizar e melhorar nossa produtividade. Colocando em negrito porque é como vejo os benefícios. Não sei bem em que usar a voz do Morgan Freeman (ou qualquer outra pessoa) pra narrar coisas que ele não falou, por exemplo, podem ajudar as pessoas e a humanidade em geral.
Sei lá. Partindo de um exemplo. Imagina isso com nós mulheres? Gente, sério. O que gente mal intencionada e pervertidos nesse mundo pode acabar com a vida de uma mulher usando a imagem e a voz dela com Ai, sendo que as autoridades não tem a menor ideia de como lidar com isso? Imagina uma autoridade com a Nancy Pelosi, que uma dia desses teve a casa invadida e o marido mantido em cárcere privado por radicais de direita. O que não se pode fazer com a imagem dessa mulher usando Ai pra destruir com a vida dela? Sério, por mais que ame tecnologia e veja o potencial dela, isso me da nos nervos, porque parece um trem desgovernado. E depois dessa carta, afirmam ser um foguete desgovernado.
Enfim, o que você acha.
Um abraço,
Anna.
Notas e referencias citadas na carta:
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.