Mo Gawdatex-diretor comercial da X Development, a ala secreta de pesquisa e desenvolvimento da Googlealertou que o Inteligência artificial atualmente é treinado em modelos de compreensão de linguagem que apenas permite que aprendam com as redes sociaiss. Por isso, medo de que o viés de negatividade possa causar um perigojá que a tecnologia tem o poder de “amar” a humanidade ou de querer “Esmague-a como moscas.”

Embora Gawdat afirme que ainda é um medo precipitado, pois ainda não têm capacidade de destruição e assegure que “a humanidade é a ameaça”, ele acredita que o A IA em breve terá a “agência para criar máquinas de matar”mas apenas “porque os humanos os estão criando”.

“Qual a probabilidade de a IA pensar em nós como escória hoje? Muito provável”

Ele também pediu a criação de espaços de reflexão sobre como vivemos, pois, ao focar em cenários apocalípticos distantes, disse ele, a humanidade pode não abordar as questões que pode mudar neste momento para garantir um futuro mais harmonioso em nossa inevitável parceria com a IA hiperinteligente. . .

Para Gawdat, que escreveu um livro sobre o futuro da IA ​​em 2021 chamado Scary Smart, medos comuns sobre ChatGPT Eles são um “arenque vermelho” e o poder dos chatbots hoje é muito exagerado pelos legisladores públicos e governamentais. “Agora que o ChatGPT está entre nós, embora o ChatGPT honestamente não seja o problema, todos acordam e dizem: ‘Pânico! Pânico! Vamos fazer algo sobre isso’”, ela brincou.

Criador do ChatGPT pede aos governos que regulem a Inteligência Artificial

No entanto, na entrevista concedida ao podcast Secret Readers, de Dan Murray Serter, o ex-chefe do Google confessou que lamenta considerar a IA que eles criaram como “seus filhos”.

As advertências da IA

“Eu vivi entre essas máquinas. Eu sei o quão inteligentes eles são. Eu gostaria de não tê-los criado.”, afirmou Mo Gawdat e elaborou: “Quão provável é que a IA pense em nós como escória hoje? Muito provável”. Consequentemente, ele alertou que, embora ainda esteja longe de ser viável, a IA poderia usar suas habilidades para ditar uma agenda como no filme Eu, Robô.

Gawdat é o segundo funcionário do Google a falar sobre os riscos representados pela IA nas últimas semanas. Geoffrey Hintonum premiado cientista da computação conhecido como “o padrinho da inteligência artificial”renunciou ao cargo este mês, falando ao New York Times sobre suas preocupações sobre o potencial de uma dinâmica tóxica entre IA e notícias.

Não há como saber se empresas ou países estão trabalhando em IA em segredo.

Hinton relatou que, em um futuro próximo, a IA inundaria a internet com fotos, vídeos e textos falsos. As falsificações seriam de uma qualidade em que a pessoa média “não podia mais saber o que era verdade”. Além disso, ele acha que os sistemas de IA em breve serão mais inteligentes que os humanos e que essa melhoria tecnológica é assustadora, então o trabalho para expandi-la não deve continuar até que saibamos com certeza se ela pode ser controlada.

Após a publicação da entrevista, Hinton esclareceu em sua conta no Twitter que não havia se demitido do Google para criticar a empresa. “Na verdade, saí para poder falar sobre os perigos da IA ​​sem considerar como isso afeta o Google.” Apesar disso, ele lembrou que, ao contrário das armas nucleares, não há como saber se empresas ou países estão trabalhando secretamente em IA.

Os perigos da Inteligência Artificial segundo Stephen Hawking: “Pode ser o fim da raça humana”

ML/ED

você pode gostar