Anúncio fechado

O campo da tecnologia está ameaçado por vários fatores. Os usuários temem, por exemplo, malware ou perda de privacidade. Mas segundo personalidades influentes da indústria tecnológica, não devemos nos preocupar tanto com o fator humano em si, mas sim com a sua ligação com a inteligência artificial. No Fórum Económico Mundial deste ano, em Davos, executivos de uma série de grandes empresas tecnológicas apelaram à regulamentação legislativa da indústria. Quais são as razões para isso?

“A inteligência artificial é uma das coisas mais profundas em que nós, como humanidade, estamos trabalhando. Tem mais profundidade que fogo ou eletricidade”, disse o CEO da Alphabet Inc. na última quarta-feira no Fórum Econômico Mundial. Sundar Pichai, acrescentando que a regulamentação da inteligência artificial requer uma estrutura de processamento global. O diretor da Microsoft, Satya Nadella, e a diretora da IBM, Ginni Rometty, também pedem a padronização das regras relativas ao uso de inteligência artificial. Segundo Nadella, hoje, há mais de trinta anos, é necessário que os Estados Unidos, a China e a União Europeia estabeleçam regras que determinem a importância da inteligência artificial para a nossa sociedade e para o mundo.

As tentativas de empresas individuais de estabelecer as suas próprias regras de ética para a inteligência artificial depararam-se no passado com protestos não apenas por parte dos funcionários destas empresas. Por exemplo, a Google teve de se retirar em 2018 do programa governamental secreto Project Maven, que utilizava tecnologia para analisar imagens de drones militares, após uma reação massiva. Stefan Heumann, do think tank Stiftung Neue Verantwortung, com sede em Berlim, em relação às controvérsias éticas em torno da inteligência artificial, afirma que as regras devem ser definidas pelas organizações políticas, e não pelas próprias empresas.

O alto-falante inteligente Google Home usa inteligência artificial

A atual onda de protestos contra a inteligência artificial tem uma razão clara para este momento. Em apenas algumas semanas, a União Europeia terá de alterar os seus planos para a legislação relevante. Isto poderia incluir, por exemplo, regulamentos relativos ao desenvolvimento da inteligência artificial nos chamados sectores de alto risco, como os cuidados de saúde ou os transportes. De acordo com as novas regras, por exemplo, as empresas teriam de documentar, no quadro da transparência, a forma como constroem os seus sistemas de IA.

Em relação à inteligência artificial, vários escândalos já surgiram no passado – um deles é, por exemplo, o caso Cambridge Analytica. Na empresa Amazon, os funcionários espionavam os usuários por meio da assistente digital Alexa e, no verão do ano passado, um escândalo eclodiu novamente devido ao fato de a empresa Google - ou a plataforma YouTube - coletar dados de crianças menores de treze anos. sem consentimento dos pais.

Embora algumas empresas permaneçam omissas sobre este tema, de acordo com a declaração do seu vice-presidente Nicola Mendelsohn, o Facebook estabeleceu recentemente as suas próprias regras, semelhantes ao regulamento europeu GDPR. Mendelsohn disse em comunicado que isso foi o resultado da pressão do Facebook por uma regulamentação global. Keith Enright, responsável pela privacidade do Google, disse numa conferência recente em Bruxelas que a empresa está atualmente à procura de formas de minimizar a quantidade de dados dos utilizadores que precisam de ser recolhidos. “Mas a afirmação popular generalizada é que empresas como a nossa estão tentando coletar o máximo de dados possível”. afirmou ainda, acrescentando que é arriscado manter dados que não trazem nenhum valor aos usuários.

Os reguladores não parecem subestimar a proteção dos dados dos utilizadores em qualquer caso. Os Estados Unidos estão atualmente trabalhando em legislação federal semelhante ao GDPR. Com base neles, as empresas teriam que obter consentimento de seus clientes para fornecerem seus dados a terceiros.

Siri Facebook

Zdroj: Bloomberg

.