Voltar

"As empresas não podem criar novas tecnologias e deixar que as forças de mercado decidam como vão ser utilizadas."

Sundar Pichai, CEO da Alphabet e Google, publicou no Financial Times um artigo de opinião onde expressa a sua convicção de que a inteligência artificial deverá ser regulada. Partilhamos abaixo a tradução integral.

Porque motivo a Google pensa que devemos regular a inteligência artificial

Tendo crescido na Índia, a tecnologia sempre me fascinou. Cada nova invenção mudava a vida da minha família de forma significativa. O telefone poupou longas viagens ao hospital para saber resultados de análises. O frigorífico significou que podíamos passar menos tempo a cozinhar refeições e a televisão permitiu-nos ver as notícias do mundo e os jogos de críquete que até então apenas imaginávamos enquanto ouvíamos os relatos através do rádio de ondas curtas.

Hoje, é meu privilégio ajudar a dar forma às novas tecnologias que, esperamos, mudarão a vida de todas as pessoas em todo o mundo. Uma das mais prometedoras é a inteligência artificial (AI): só neste mês, tivemos três exemplos de como a Alphabet e a Google estão a explorar o potencial da AI. A revista Nature publicou um estudo nosso que mostra como a AI pode ajudar médicos a detetar com maior precisão cancro da mama em mamografia; estamos a utilizar AI para fazer previsões hiperlocais e imediatas da precipitação mais rápidas e precisas do que as feitas utilizando modelos existentes. Estas ferramentas fazem parte de um conjunto mais alargado de iniciativas para o combate às alterações climáticas; e o Lufthansa Group está a trabalhar com o nosso departamento de cloud para testar a utilização de AI na redução dos atrasos nos voos.

A história está, no entanto, repleta de exemplos de como as virtudes da tecnologia não foram garantidas. Os motores de combustão interna permitiram às pessoas viajarem para além das suas áreas locais, mas também originaram muitos mais acidentes. A internet tornou possível a conexão com todos e a procura de informação de qualquer localização, mas também facilita a dispersão de desinformação.

Estas lições ensinam-nos que devemos ter consciência plena do que pode correr mal.

Existem preocupações reais quanto às potenciais consequências negativas da AI, desde deepfakes à utilização nefasta do reconhecimento facial. Embora já tenha sido feito algum trabalho para dar respostas a estas preocupações, surgirão inevitavelmente novos desafios que nenhuma empresa ou indústria conseguirão ultrapassar sozinhos.

Os Estados Unidos e a União Europeia já iniciaram o desenvolvimento de propostas regulatórias. O alinhamento internacional será crítico para o funcionamento de padrões globais. Para o conseguir, precisamos de um acordo quanto aos valores fundamentais. Empresas como a nossa não podem simplesmente criar tecnologias prometedoras e permitir que as forças de mercado decidam como vai ser utilizada. Cabe-nos também a nós assegurarmos que a tecnologia será canalizada para o bem e que estará à disposição de todos.

Não tenho qualquer dúvida na minha mente que a inteligência artificial precisa de ser regulada. É demasiado importante para que não o façamos.

A única questão é como devemos abordar este assunto.

Por este motivo, a Google publicou em 2018 os nossos próprios princípios AI para ajudar a guiar o desenvolvimento e a utilizações éticos da tecnologia. Estas linhas de orientação ajudam-nos a evitar vieses, a fazer testes rigorosos de segurança, ter a privacidade como prioridade e fazer com que a tecnologia seja responsável perante as pessoas. Especificam também as áreas onde não criaremos ou aplicaremos AI, tais como vigilância de massas ou na violação de direitos humanos.

No entanto, os princípios que ficam no papel são inúteis. Por isso, desenvolvemos ferramentas para os pôr em prática, tais como testar decisões de AI quanto à sua justiça e levar a cabo avaliações de direitos humanos independentes de novos produtos. Fomos ainda mais além e tornamos estas ferramentas e os códigos open source relacionados totalmente disponíveis, o que habilitará outros a utilizar AI para o bem. Estamos convictos que qualquer empresa que desenvolva novas ferramentas AI deverá adotar também princípios de orientação e rigorosos processos de revisão.

A regulação governamental também desempenhará um papel importante. Não temos que começar do zero. Regras existentes tais como o Regulamento de Proteção de Dados europeu poderão ser sólidos alicerces. Estruturas regulamentares sólidas levarão em conta a segurança, simplicidade, justiça e responsabilidade que garantem que desenvolvemos as ferramentas certas da forma correta. Regulação sensata deverá também ter uma abordagem proporcional, contrabalançando prejuízos potenciais, especialmente em áreas de alto risco, com oportunidades sociais.

A regulação pode oferecer uma orientação enquanto que, simultaneamente, permite a implementação customizada em diferentes sectores. Para algumas utilizações de AI, tais como dispositivos médicos regulados incluindo monitores cardíacos assistidos por AI, os enquadramentos legais existentes são bons pontos de partida. Para áreas mais recentes tais como veículos autónomos, os governos terão necessidade de estabelecer novas regras que considerem todos os custos e benefícios.

O papel da Google começa com o reconhecimento da necessidade de uma abordagem regulada e com princípios na implementação da AI, mas não acaba aí. Queremos ser um parceiro comprometido e útil dos reguladores, que se debaterão com tensões e compromissos inevitáveis. Oferecemos o nosso conhecimento, experiência e ferramentas enquanto navegamos estas questões em conjunto.

A inteligência artificial tem o potencial de melhorar biliões de vidas e o maior risco poderá ser falhar esse potencial.

Ao assegurarmos que AI é desenvolvida responsavelmente de forma a que beneficie todos, poderemos inspirar as gerações futuras a acreditar no poder da tecnologia, tanto quanto eu.