Regulação da inteligência artificial: como proteger o futuro no presente?

Por Gabriel Schulman

image_pdfimage_print

A Inteligência Artificial (IA) representa um grande salto tecnológico na medida em que, com diferentes graus de autonomia, permite a um sistema aprender e, com isso, gerar previsões, tomar decisões ou fazer recomendações cada vez mais precisas.

Por seu incrível potencial, tem sido empregada nos mais variados setores e, há tempos, está presente de modo visível – e muitas vezes invisível – em nossa rotina. A tecnologia capaz de aprender ao longo do tempo e personalizar a experiência auxilia, por exemplo, a verificar divergências no padrão de compras de cartão de crédito de acordo com o histórico de compra, e observar padrões de direção para certificar que um motorista de aplicativo corresponde com o cadastrado. Está presente em setores tão variados como agricultura, segurança e aviação. Por aprender com o tempo, revela também um alto grau de personalização, observado em assistentes virtuais como Alexa, Siri e Assistente Google.

As novas tecnologias oferecem inúmeras oportunidades, no entanto, ao mesmo tempo, exigem mecanismos efetivos para mitigar riscos. No Brasil, tem obtido bastante atenção. Ao final de 2022, uma comissão de juristas, instituída pelo Senado Federal para preparar um texto legislativo sobre o tema, elaborou um relatório com mais de 900 páginas que apresenta uma interessante proposta regulatória, que inclui medidas de governança, proteção aos direitos fundamentais, exigência de transparência e não discriminação, a proteção de direitos autorais, assim como responsabilização por infração à lei.

Segundo o The Collective Intelligence Project, na regulação da inteligência artificial é preciso buscar um equilíbrio entre participação, progresso e segurança. Em harmonia com essa leitura, o relatório da comissão de juristas, presidida pelo ministro do STJ, Ricardo Villas Bôas Cueva, propõe uma regulação que se intensifique de acordo com o risco. Assim, dedica uma atenção mais elevada para um sistema que possa realizar a identificação biométrica a distância, por ter um risco mais acentuado.

Em que pese o louvável esforço da comissão, o cuidado com esse tema não se resolverá apenas com a criação de uma legislação específica. É preciso agregar uma participação social intensa, assim como do Estado. Ao mesmo tempo, não se pode negar os desafios que a inteligência artificial apresenta, afinal, é uma tecnologia com caráter dinâmico, com rápida capacidade de se transformar, marcada por opacidade, ou seja, é difícil olhar para dentro do sistema e entender como funciona, assim como apresenta um enorme potencial de danos. A adequada proteção dos direitos humanos e fundamentais, portanto, demandará um esforço real, amplo e indispensável.

Além disso, a governança da IA é igualmente importante para garantir que a tecnologia seja usada de forma responsável e eticamente correta. Isso inclui a criação de normas e padrões éticos para o desenvolvimento e uso da IA, bem como a implementação de mecanismos de supervisão e monitoramento para garantir o cumprimento desses padrões. É importante envolver a sociedade como um todo na discussão sobre a regulamentação da IA, para garantir que a tecnologia atenda às necessidades e aos valores da sociedade. Em tempo, até aqui o texto deste último parágrafo foi inteiramente escrito por uma inteligência artificial (ChatGPT), quando solicitei que apontasse cuidados com governança na inteligência artificial. 

 

Gabriel Schulman é advogado, doutor em Direito e professor do Mestrado em Direito da Universidade Positivo, na área Direito, Tecnologia e Desenvolvimento. 

Botão Voltar ao topo