Skip to content

Segurança

Inteligência Artificial

A IA deve ser usada para apanhar ladrões?

Nell Lewis, CNN Business

Londres (CNN Business) - Um novo software de inteligência artificial está a ser usado no Japão para monitorizar a linguagem corporal dos consumidores e procurar sinais de que planeiam furtar.

O  software, que está a ser desenvolvido pela Vaak, uma startup de Tóquio, é diferente dos produtos semelhantes que combinam reconhecimento facial com registos criminais. Em vez disso, o VaakEye usa o comportamento para prever ações criminosas.

O fundador da empresa, Ryo Tanaka, disse que a sua equipa forneceu ao algoritmo 100 000 horas de dados de vigilância para o treinar a monitorizar tudo, desde as expressões faciais dos consumidores até aos seus movimentos e roupas.

Desde que o VaakEye foi lançado no mês passado, já foi implementado em 50 lojas no Japão.

A Vaak afirma que as perdas com furtos caíram 77% durante um período de teste em lojas de conveniência locais. Isso poderia ajudar a reduzir os custos globais de retalho decorrentes de furtos em lojas, que atingiram 34 mil milhões US$ em 2017, de acordo com o índice Global Shrink Index.

Questões éticas

Usar a IA para capturar ladrões levanta todo o tipo de questões éticas.

"Embora o incentivo seja evitar o roubo, é legal ou mesmo moral impedir alguém de entrar numa loja com base nesse software?" indagou a analista de retalho da Euromonitor, Michelle Grant.

Isso não deve depender do programador de software, diz Tanaka. "O que fornecemos é a informação da imagem suspeita e detetada. Não decidimos quem é criminoso, essa é uma decisão dos responsáveis da loja", afirmou.

No entanto, é precisamente isso que preocupa a organização de direitos humanos Liberty, que está a fazer campanha para proibir a tecnologia de reconhecimento facial no Reino Unido.

"Um ambiente de retalho - um órgão privado - está a começar a executar algo semelhante a uma função policial", afirmou Hannah Couchman, representante e diretora de políticas da Liberty.

A Liberty também está preocupada com o potencial da IA para aumentar a discriminação. Um estudo de 2018, realizado pelo MIT e pela Stanford University, encontrou vários programas comerciais de análise facial que demonstravam preconceitos de tipo de pele e sexo.

Tanaka explica que, como o software Vaak está baseado em comportamento e não em raça ou sexo, isso não deve ser um problema. Mas Couchman continua cético.

"Com tecnologias que dependem de algoritmos - particularmente em relação ao comportamento humano - o potencial para a discriminação está sempre presente," afirmou. "Os humanos têm que ensinar ao algoritmo o que deve tratar de forma suspeita.”

Consentimento do cliente

Depois, há a questão da transparência.

"As pessoas estão cientes do que está a acontecer?" perguntou Couchman. "Consentem? É um consentimento significativo? O que acontece com os dados? Como são protegidos? Podem ser partilhados?"

Grant afirma que os consumidores estão dispostos a sacrificar um pouco de privacidade por conveniência - como o uso de reconhecimento facial para autenticação de pagamento - mas apenas quando sabem que a tecnologia está a ser usada.

Tanaka não contesta isso. "Deve haver um aviso antes que eles [clientes] entrem na loja para que possam recusar", afirmou.

"Os governos devem ter regras que obriguem as lojas a divulgarem informações - onde e o que analisam, como o usam, quanto tempo o usam", afirmou.

Christopher Eastham, um especialista em IA no escritório de advocacia Fieldfisher, disse que a estrutura para regulamentar a tecnologia ainda não está em vigor.

"Há uma necessidade de clareza dos legisladores e orientação dos reguladores, que terão que decidir em que circunstâncias o uso desta tecnologia será apropriado ou desejável como uma questão de política pública," afirmou.

Em associação com

cnn-business