A Alphabet, a empresa controladora da gigante da tecnologia Google, não promete mais que nunca usará a inteligência artificial (IA) para fins, como o desenvolvimento de armas e ferramentas de vigilância.
A empresa reescreveu os princípios que orientam o uso da IA, abandonando uma seção que descartou os usos que “provavelmente causariam danos”.
Em uma postagem no blog O vice -presidente sênior do Google, James Manyika, e Demis Hassabis, que lidera o laboratório da AI Google DeepMind, defenderam a mudança.
Eles argumentam que as empresas e os governos democratas precisam trabalhar juntos na IA que “apóiam a segurança nacional”.
Há um debate entre especialistas e profissionais da IA sobre como a poderosa nova tecnologia deve ser governada em termos amplos, até que ponto os ganhos comerciais devem ser permitidos para determinar sua direção e qual a melhor forma de se proteger contra os riscos para a humanidade em geral.
Há também controvérsia em torno do uso de IA no campo de batalha e em tecnologias de vigilância.
O blog disse que os princípios originais da AI da empresa publicados em 2018 precisavam ser atualizados à medida que a tecnologia evoluiu.
“Bilhões de pessoas estão usando a IA em suas vidas cotidianas. A IA se tornou uma tecnologia de uso geral e uma plataforma que inúmeras organizações e indivíduos usam para criar aplicativos.
“Ele passou de um tópico de pesquisa de nicho no laboratório para uma tecnologia que está se tornando tão difundida quanto os telefones celulares e a própria Internet”, disse o post do blog.
Como resultado, os princípios basais da IA também estavam sendo desenvolvidos, o que poderia orientar estratégias comuns, afirmou.
No entanto, Hassabis e Manyika disseram que a paisagem geopolítica estava se tornando cada vez mais complexa.
“Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores essenciais como liberdade, igualdade e respeito pelos direitos humanos”, disse o post do blog.
“E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar IA que proteja as pessoas, promove o crescimento global e apoia a segurança nacional”.
A postagem do blog foi publicada logo antes do relatório financeiro do final do ano do Alphabet, mostrando resultados mais fracos que as expectativas do mercado e recuando o preço das ações.
Isso apesar de um aumento de 10% na receita da publicidade digital, seu maior ganhador, impulsionado pelos gastos das eleições dos EUA.
Em seu relatório de ganhos, a empresa disse que gastaria US $ 75 bilhões (US $ 60 bilhões) em projetos de IA este ano, 29% a mais do que os analistas de Wall Street esperavam.
A empresa está investindo na infraestrutura para executar a IA, a IA Research e aplicativos como a pesquisa movida a IA.
A plataforma de AI do Google Gemini agora aparece no topo dos resultados da pesquisa do Google, oferecendo um resumo escrito da IA e aparece nos telefones do Google Pixel.
Originalmente, muito antes da atual onda de interesse na ética da IA, os fundadores do Google, Sergei Brin e Larry Page, disseram que seu lema para a empresa era “Não seja mau”. Quando a empresa foi reestruturada sob o nome Alphabet Inc em 2015, a empresa controladora mudou para “fazer a coisa certa”.
Desde então, a equipe do Google às vezes recua contra a abordagem adotada por seus executivos. Em 2018 A empresa não renovou um contrato para o trabalho de IA com o Pentágono dos EUA Após uma demissão e uma petição assinada por milhares de funcionários.
Eles temiam que o “Project Maven” fosse o primeiro passo para o uso de inteligência artificial para fins letais.