Skip to content

Observatório das Empresas

Inteligência Artifical

A Europa está agora a criar regras para a IA de forma a evitar uma nova crise tecnológica

Ivana Kottasová, CNN Business

Londres (CNN Business) - As redes sociais enfrentam uma crise de confiança. A Europa quer garantir que a inteligência artificial não segue o mesmo caminho.

A Comissão Europeia revelou, a 8 de abril, diretrizes éticas que estão concebidas para influenciar o desenvolvimento de sistemas de inteligência artificial, antes que as mesmas estejam profundamente enraizadas na sociedade.

A intervenção poderia ajudar a alterar a situação em que os reguladores são forçados a tentarem manter-se a par das tecnologias emergentes, o que acarreta consequências negativas imprevistas.

A sua importância foi sublinhada na dia 8 de abril, quando o Reino Unido propôs novas regras que tornariam as empresas de internet legalmente responsáveis por garantirem a não existência de conteúdo nocivo nas suas plataformas.

"É como colocar as fundações antes de construir uma casa... agora é a hora de o fazer", afirmou Liam Benham, vice-presidente de assuntos regulatórios na Europa da IBM, envolvido na elaboração das diretrizes da IA.

A União Europeia assumiu a liderança global na regulamentação tecnológica, introduzindo uma lei de privacidade de dados no ano passado, ao investigar simultaneamente as grandes empresas de tecnologia por comportamento anticoncorrencial e impostos não pagos.

A IA, que conquistou a imaginação do público e produziu alertas alarmantes sobre o potencial do uso indevido, é a mais recente frente regulatória do bloco. Não é um tema simples.

A Google por exemplo, fechou o seu novo conselho de ética em inteligência artificial na semana passada, após um grupo de funcionários ter exigido a saída do presidente de um grupo de reflexão conservador.

A Comissão Europeia elaborou sete princípios para orientar o desenvolvimento da IA e criar confiança. Embora as diretrizes não sejam vinculativas, podem formar a base de novas ações nos próximos anos.

A transparência é a chave

Mariya Gabriel, a principal autoridade da Europa em economia digital, afirmou que as empresas que usam sistemas de IA devem ser transparentes com o público.

"As pessoas precisam de ser informadas quando estão em contacto com um algoritmo e não com outro ser humano", afirmou Gabriel. "Qualquer decisão tomada por um algoritmo deve ser verificável e explicada.”

Uma companhia de seguros que rejeita uma reivindicação baseada num algoritmo, por exemplo, deve garantir que o cliente saiba como e por que razão foi tomada a decisão. Um ser humano deve ser capaz de intervir e de reverter a decisão.

A Comissão Europeia afirmou que os futuros sistemas de inteligência artificial precisam de ser seguros e fiáveis durante todo o seu ciclo de vida. Também afirmou que a proteção de dados deve ser uma prioridade, com os utilizadores a controlarem as suas próprias informações.

As diretrizes atribuem responsabilidade aos que criam e implementam os sistemas de IA.

Se uma empresa estabelece um sistema de IA, essa empresa é responsável por tal. Isto é muito importante se houver algum acidente

Mariya Gabriel, alto responsável da Europa em economia digital.

Evitando a discriminação

Mariya Gabriel também afirmou que as empresas precisam de garantir que os seus sistemas de IA são justos. Disse, por exemplo, que um algoritmo usado no processo de contratação que tenha sido produzido usando dados de uma empresa que empregava apenas homens, provavelmente rejeitaria candidaturas de mulheres.

"Se possuir dados de entrada tendenciosos, isso pode realmente ser um problema", afirmou Gabriel.

O AlgorithmWatch, um grupo sem fins lucrativos, disse que, embora seja uma boa ideia estabelecer diretrizes, há problemas com a abordagem europeia.

"As diretrizes centram-se na ideia de 'IA fiável' e isso é problemático porque não é um termo bem definido", disse Matthias Spielkamp, cofundador do grupo. "Quem deve confiar e quem é fiável?", acrescentou. Também referiu que ainda não está clara a forma como a supervisão será tratada no futuro.

Thomas Metzinger, filósofo e professor da Universidade de Mainz, ajudou a redigir as diretrizes, mas criticou-as por não proibirem o uso da IA no desenvolvimento de armas.

Outros estão preocupados com o impacto que as diretrizes terão na inovação.

"Estamos preocupados que a granularidade das diretrizes torne difícil para muitas empresas, particularmente pequenas e médias empresas, a implementação da IA," afirmou Antony Walker, vice-presidente da TechUK, um grupo industrial.

A União Europeia tentará agora trabalhar com essas questões e outras num programa piloto com as empresas Big Tech.

Em associação com

cnn-business