No meio do furor Bate-papo GPT 4 e o poder da inteligência artificial em todo o mundo, um grupo de especialistas de diferentes ramos chamados a interromper o progresso por pelo menos seis meses, alertados para os riscos que isso pode gerar.

através do site futureoflife.orgos signatários pedem que sejam estabelecidos sistemas de segurança com novas autoridades reguladoras, técnicas que ajudem a distinguir entre o real e o artificial, instituições capazes de lidar com o “dramática ruptura econômica e política (especialmente para a democracia) que a IA causará” e vigilância dos sistemas que o compõem.

Até o criador do ChatGPT, sam altmanEle expressou que sua empresa “precisa de tempo” para se adaptar às novas tecnologias e levantou “um pouco de medo” por “desinformação ou ataques cibernéticos em grande escala” que podem ser gerados a partir de experimentos com IA.

O bilionário Elon Musk recebe o prêmio Axel Springer
Elon Musk pediu para interromper os avanços da IA.

No despacho assinado por especialistas como Elon Muskproprietário do Twitter e do Space X, o cofundador da Apple, Steve Wozniak, os membros do laboratório DeepMind AI do Google, o diretor da Stability AI, Emad Mostaque, os engenheiros executivos e historiadores da Microsoft, Yuval Noah Harari, entre outros, colocam na lupa a capacidade de energia que a IA pode ter.

“Nos últimos meses, vimos como os laboratórios de IA se lançaram em uma corrida descontrolada para desenvolver e implantar cérebros digitais cada vez mais poderosos que ninguém, nem mesmo seus criadores, pode entender, prever ou controlar de forma confiável”, eles expressam em um fragmento.

Eles também explicaram que tais sistemas “só devem ser desenvolvidos quando tivermos certeza de que seus efeitos serão positivos e seus riscos serão administráveis”.

Inteligência Artificial: heroína ou vilã no combate à desinformação?

Além de pedir que a pausa de vários meses seja “pública e verificável”, eles disseram que em outros momentos da história “outras tecnologias com efeitos potencialmente catastróficos na sociedade” também desaceleraram seu desenvolvimento.

O que diz a carta completa contra a inteligência artificial

Pausando Experimentos Gigantes de IA: Uma Carta Aberta

Pedimos a todos os laboratórios de IA que interrompam imediatamente o treinamento em sistemas de IA mais poderosos que o GPT-4 por pelo menos 6 meses.

Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, mostram pesquisas extensas [1] e reconhecido pelos principais laboratórios de IA. [2] Conforme estabelecido nos amplamente endossados ​​Princípios de IA de Asilomar, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos.

Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, apesar do fato de que nos últimos meses os laboratórios de IA entraram em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas do que qualquer um, nem mesmo seus criadores, eles podem entender. . prever ou controlar de forma confiável.

Inteligência artificial 20230128
Inteligência artificial na lupa.

Os sistemas contemporâneos de IA estão se tornando competitivos com os humanos em tarefas gerais, [3] E devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo conformidade? Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertos e nos substituir? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes de tecnologia não eleitos.

Sistemas poderosos de IA devem ser desenvolvidos somente depois que tivermos certeza de que seus efeitos serão positivos e que seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema. A recente declaração da OpenAI sobre inteligência artificial geral afirma que “em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e para esforços mais avançados concordar em limitar a taxa de crescimento da computação”. usado para criar novos modelos”. Nós concordamos. Esse ponto é agora.

Portanto, pedimos a todos os laboratórios de IA que interrompam imediatamente o treinamento em sistemas de IA mais poderosos que o GPT-4 por pelo menos 6 meses. Essa pausa deve ser pública e verificável e incluir todas as principais partes interessadas. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.

Inteligência artificial da Microsoft ameaça usuários que a causam

Laboratórios de IA e especialistas independentes devem aproveitar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e monitorados por especialistas terceirizados independentes. Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. [4] Isso não significa uma pausa no desenvolvimento da IA ​​em geral, apenas um passo atrás na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes.

A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos de próxima geração mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis ​​e leais.

Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Isso deve incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; monitoramento e monitoramento de sistemas de IA de alta capacidade e grandes conjuntos de poder de computação; sistemas de proveniência e marcas d’água para ajudar a distinguir vazamentos e padrões de traços reais de sintéticos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados ​​pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições bem equipadas para lidar com as dramáticas perturbações econômicas e políticas (especialmente na democracia) que a IA causará.

A humanidade pode desfrutar de um futuro próspero com IA. Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um “verão de IA”, onde colhemos os frutos, projetamos esses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade. [5] Podemos fazer isso aqui. Vamos aproveitar um longo verão de IA, não vamos nos apressar para cair despreparados.

gi/ff

você pode gostar