Regulação da inteligência artificial deve assegurar direitos humanos
A Comissão de Juristas responsável por auxiliar na elaboração de um marco legal para a aplicação da inteligência artificial no Brasil recebeu especialistas para debater os riscos que a automação pode gerar aos direitos humanos, liberdades individuais e relações trabalhistas. Os debatedores mostraram preocupação quanto à perda de empregos pela automação, ao uso de reconhecimento facial e robôs armados.
Transcrição
DEBATE DA COMISSÃO DE JURISTAS PARA COLABORAR COM MARCO REGULATÓRIO DA INTELIGÊNCIA ARTIFICIAL ABORDOU OS RISCOS QUE A TECNOLOGIA PODE CAUSAR AOS DIREITOS FUNDAMENTAIS, HUMANOS E TRABALHISTAS.
PARA ESPECIALISTAS, É PRECISO REGULAR USO DE RECONHECIMENTO FACIAL, ROBÔS ARMADOS E PREVENIR A PERDA DE EMPREGOS PELA AUTOMAÇÃO. REPORTAGEM DE REGINA PINHEIRO
A Comissão de Juristas que assessora a produção de um marco regulatório para a Inteligência Artificial no Brasil discutiu os riscos que ela pode causar a questões éticas, liberdades fundamentais e direitos humanos. A Professora da Data Privacy Brasil, Maria Cecília Oliveira Gomes, acredita que as normas devam definir que durante os desenvolvimento do sistemas haja a avaliação de riscos para os seres humanos.
É necessário que fique claro que essa avaliação precisa ser feita no momento do desenvolvimento da IA, em que os riscos precisam ser avaliados e prevenidos, antes de se concretizarem.
Já a Advogada e Pesquisadora da Sapienza Università di Roma/USP, Priscila Lauande Rodrigues, alertou para os riscos que a automação pela Inteligência Artificial podem causar nas relações de trabalho, resultando na perda de emprego.
Estudo da OCDE de 2019 estima que empregos de média qualificação são crescentemente expostos a riscos. 14% dos empregos existentes podem vir a desaparecer como resultado da automação, nos próximos 15, 20 anos. E o que começa a se observar é um debate já crescente sobre uma taxação em razão da automação como uma forma de diminuir os impactos sociais dessas demissões em massa e perda de postos de trabalho.
A Professora da Fundaçã Getúlio Vargas, Heloísa Estellita, mostrou preocupação quanto ao uso de robôs com armamento e do reconhecimento facial de forma racista.
Um dos grandes problemas que esses armamentos colocam, é que esses algorítmos de inteligência artificial têm dificuldade justamente de lidar com os conceitos mais fundamentais de direito humanitário, como, por exemplo, distinguir alvo militar de alvo civil. Em uma população majoritariamente negra ou parda, um programa de reconhecimento facial que não consegue lidar com isso, não deveria nunca ser utilizado. Ponto e acabou.
O pesquisador do Instituto de Pesquisa em Direito e Tecnologia do Recife, André Lucas Fernandes e o Professor do Centro de Inteligência Artificial da USP, João Paulo Veiga, defenderam uma regulação cautelosa do reconhecimento facial e do uso de robôs com armas. Da Rádio Senado, Regina Pinheiro