Salve SkyNet! Que venha o Terminator: Musk e Wozniak pediram a suspensão do treinamento do sistema de IA mais poderoso que o GPT-4
- Gerar link
- X
- Outros aplicativos
A Future of Life, uma organização sem fins lucrativos, publicou uma carta na qual o CEO da SpaceX, Elon Musk, o cofundador da Apple, Steve Wozniak, o filantropo Andrew Yang e cerca de mil outros pesquisadores de inteligência artificial pedem uma “suspensão imediata” do treinamento de Sistemas de IA “mais poderosos que o GPT-4”.
A carta afirma que os sistemas de inteligência artificial com “inteligência humana competitiva” podem trazer “sérios riscos para a sociedade e a humanidade”. Ela pede que os laboratórios suspendam os treinamentos por seis meses.
___________
“Sistemas poderosos de inteligência artificial só devem ser desenvolvidos quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, enfatizam os autores da carta.
Mais de 1.125 pessoas assinaram a petição, incluindo o cofundador do Pinterest, Evan Sharp, o cofundador da Ripple, Chris Larsen, o CEO da Stability AI, Emad Mostak, e pesquisadores da DeepMind, Harvard, Oxford e Cambridge. A carta também foi assinada pelos pesos pesados da IA Yoshua Bengio e Stuart Russell. Este último também pediu que o desenvolvimento de IA avançada seja suspenso até que especialistas independentes desenvolvam, implementem e testem protocolos de segurança comuns para esses sistemas de IA.
A carta detalha os riscos potenciais para a sociedade e a civilização de sistemas de IA competitivos na forma de convulsões econômicas e políticas.
Eis a íntegra da carta:
“Sistemas de inteligência artificial que competem com humanos podem representar um sério perigo para a sociedade e a humanidade, como uma extensa pesquisa mostrou e reconhecida pelos principais laboratórios de inteligência artificial. Conforme declarado nos princípios amplamente endossados da Asilomar AI, a IA avançada pode desencadear mudanças profundas na história da vida na Terra e deve ser projetada e gerenciada com cuidado e recursos adequados. Infelizmente, esse nível de planejamento e gerenciamento não existe, embora nos últimos meses os laboratórios de IA tenham estado atolados em uma corrida descontrolada para desenvolver e implantar “mentes digitais” cada vez mais poderosas, cujo desempenho não pode ser previsto ou controlado com segurança, que ninguém – nem mesmo seus criadores – podem entender.
Os sistemas modernos de inteligência artificial estão se tornando competitivos na solução de problemas comuns, e devemos nos perguntar: devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsificações? Devemos automatizar todos os trabalhos, incluindo aqueles que estão sendo potencialmente substituídos por IA? Deveríamos desenvolver “mentes não humanas” que poderiam eventualmente nos superar em número, nos enganar e nos substituir? Devemos arriscar perder o controle de nossa civilização?
Tais decisões não devem ser delegadas a líderes de tecnologia não eleitos. Sistemas poderosos de inteligência artificial só devem ser desenvolvidos quando estivermos confiantes de que seus efeitos serão positivos e os riscos administráveis. Essa confiança deve ser bem fundamentada e só crescer com a ampliação dos efeitos potenciais de tais sistemas. Uma declaração recente da OpenAI sobre inteligência artificial geral afirma que “em algum momento, pode ser importante obter uma avaliação independente antes de embarcar no treinamento de sistemas futuros e, para os esforços mais avançados, concordar em limitar a taxa de crescimento dos cálculos usados para criar novos modelos." Nós concordamos. Esse momento chegou agora.
Portanto, pedimos a todos os laboratórios de IA que suspendam imediatamente o treinamento em sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses. Essa pausa deve ser universal e controlada, e todos os principais participantes devem estar envolvidos nela. Se tal pausa não puder ser estabelecida rapidamente, os governos devem intervir e impor uma moratória.
AI Labs e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança comuns para design e desenvolvimento avançados de IA que serão cuidadosamente revisados e monitorados por especialistas externos independentes. Esses protocolos são para garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA em geral, mas simplesmente um passo atrás de uma corrida perigosa em direção a modelos cada vez maiores e imprevisíveis de “caixa preta” com mais recursos.
A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os poderosos sistemas de IA de última geração mais precisos, seguros, interpretáveis, transparentes, confiáveis, consistentes, confiáveis e leais.
Paralelamente, os desenvolvedores de IA devem trabalhar com políticas para acelerar bastante o desenvolvimento de sistemas robustos de controle de IA. Esses esforços devem incluir, no mínimo: reguladores de IA novos e capazes; supervisão e monitoramento de sistemas de inteligência artificial de alto desempenho e grandes pools de poder de computação; sistemas de verificação e marca d'água que ajudam a distinguir o conteúdo real do conteúdo gerado e rastreiam vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados por IA; forte financiamento público para pesquisa técnica em segurança de IA; instituições com bons recursos para lidar com as graves convulsões econômicas e políticas (especialmente nas democracias) que a IA causará.
A humanidade poderá desfrutar de um futuro próspero com a IA. Tendo conseguido criar sistemas poderosos, chegaremos ao “verão da IA” quando colheremos os benefícios, desenvolveremos esses sistemas para o benefício de todos e daremos à sociedade a oportunidade de se adaptar a eles. A sociedade suspendeu o uso de outras tecnologias, com consequências potencialmente catastróficas. Podemos aplicar essa medida aqui também.”
Os principais laboratórios de inteligência artificial, como o OpenAI, ainda não responderam à carta.
___________
“A carta não é perfeita, mas seu espírito está certo: precisamos desacelerar até entender melhor todos os riscos”, disse Gary Marcus, professor emérito da Universidade de Nova York, que assinou a carta. “Os sistemas de IA podem causar sérios danos… Os grandes jogadores estão se tornando cada vez mais reservados sobre o que estão fazendo.”
A OpenAI introduziu o GPT-4 em 14 de março. O modelo é capaz de interpretar não apenas texto, mas também imagens. Ela agora também reconhece imagens esboçadas, incluindo as desenhadas à mão.
Após o anúncio do novo modelo de linguagem, a OpenAI se recusou a publicar os materiais de pesquisa subjacentes a ele. Membros da comunidade de IA criticaram a decisão, observando que ela prejudica o espírito da empresa como organização de pesquisa e dificulta a replicação de seu trabalho por outras pessoas. Ao mesmo tempo, isso dificulta o desenvolvimento de meios de proteção contra ameaças representadas por sistemas de IA.
Salve SkyNet! Que venha o Exterminador do Futuro!
E não esqueça: nossa página principal é atualizada diariamente, com novos artigos podendo ser publicados ao longo do dia. Clique aqui.
PARTICIPE DOS COMENTÁRIOS MAIS ABAIXO…
fronteiraxoficial@gmail.com
https://www.youtube.com/channel/UCxv4QmG_elAo7eiKJAOW7Jg
ÁREA DE COMENTÁRIOS
Atenção:
- Os comentários são de responsabilidade única e exclusiva de cada pessoa que comenta. FRONTEIRAS X não se responsabiliza por transtornos, rixas ou quaisquer outras indisposições causadas pelos comentários.
- Comente educadamente e com ética, sempre tratando seu colega de comentários como você mesmo/a queira ser tratado/a.
- Gerar link
- X
- Outros aplicativos
Comentários
Postar um comentário
CONTE-NOS SEU RELATO!