O Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) prorrogou por mais um mês o período de participação, que será encerrado no dia 2 de março
A consulta pública aberta pelo governo federal para construir a Estratégia Nacional de Inteligência Artificial (IA) recebeu 138 contribuições de 33 autores, dos quais apenas quatro assinam como entidades: Centre For Information Policy Leadership (CIPL); IEA/OIC/USP; Centro de Pesquisa em Direito, Tecnologia e Inovação (DTIBR); Clínica de Práticas e Pesquisa em Direito e Novas Tecnologias da UFMG. É uma participação pequena se considerada a importância do tema e o fato de o documento disponibilizado pelo governo ser composto por nove eixos de trabalho com dezenas de perguntas, muitas das quais ficaram sem resposta. Os números foram levantados na manhã desta sexta-feira, 31, quando se encerraria o prazo original de contribuição. O Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), contudo, prorrogou por mais um mês o período de participação, que será encerrado no dia 2 de março. Especialistas entrevistados por Mobile Time no começo deste mês já haviam alertado para o risco de baixa participação popular em razão do período de férias, dentre outros motivos.
Dentre os participantes, há muitos professores, pesquisadores e doutores com projetos relacionados a inteligência artificial. A participação de representantes do setor privado até agora é tímida, ou pelo menos poucos se apresentaram como tal – a maioria assina como pessoa física, sem informar onde trabalha. Embora a participação popular seja baixa, cabe ressaltar que a discussão acontece em alto nível, diferentemente do que se vê nos debates políticos das redes sociais.
Os temas que despertaram maior interesse do público até o momento são: “Qualificações para um futuro digital”, que recebeu 52 contribuições, e “Governança de IA”, com 26 comentários.
Nota-se em algumas contribuições a demanda por políticas públicas e maior apoio do governo para o desenvolvimento de aplicações de IA no País. Em uma das suas participações, representantes do DTIBR escrevem: “Talvez seja o caso de se pensar em alguma medida de estímulo à indústria nacional, para que o Brasil algum dia alcance posição de destaque no cenário mundial de IA, ao invés de ser simplesmente consumidor de tecnologias desenvolvidas em outros Estados, tal como ocorre hoje, em inúmeras áreas. Evitando, com isso, o chamado colonialismo digital”. Há quem sugira evitar a importação de soluções com código fechado e também um pedido direto por subsídio por parte do governo para a indústria nacional de IA, “como a China está fazendo”.
Cristina Godoy de Oliveira, docente da USP e Líder do Grupo registrado no CNPq “Direito, Ética e Inteligência Artificial”, faz um alerta sobre a posse de dados dos cidadãos brasileiros, matéria-prima essencial para sistemas de IA: “(…) verificamos, atualmente, que, no Brasil, os dados referentes ao comportamento dos cidadãos, à participação em redes sociais, à pesquisa feita em buscadores da internet etc. não estão nas mãos de empresas brasileiras, logo, temos pouquíssimos dados para desenvolvermos uma política de aplicação e desenvolvimento da IA.”
Sobre a necessidade de uma legislação especial sobre IA, as contribuições divergem. Há quem alerte para o risco de engessamento da inovação, enquanto outros julgam necessária a criação de leis para reger o tema, ou pelo menos controlar algumas das aplicações da tecnologia. “Em âmbito cível e consumerista, a doutrina majoritária caminha no sentido de estabelecer o regime objetivo de responsabilidade civil, ou seja, independentemente de culpa, para os agentes responsáveis. Outro ponto de convergência é o estabelecimento de seguros obrigatórios de responsabilidade civil para determinadas aplicações, como para os carros autônomos”, escreve Chiara Antônia de Teffé, professora de Direito Civil e Tecnologia no IBMEC
A respeito de governança, demanda-se mais responsabilidade por parte de empresas e entidades que atuem com IA. “Empresas de porte, universidades públicas ou privadas, com ou sem fins lucrativos, e as empresas ou órgãos públicos que desenvolvem ou utilizam IA não podem operar sem um específico Código de Conduta Ético, que esclareça o público e também seus funcionários, pesquisadores e desenvolvedores. Essas mesmas instituições precisam criar mecanismos especiais, a exemplo de um ombudsperson, apto a receber denúncias ou críticas, internas e externas, e que possam dar seguimento sem constrangimentos do corpo dirigente ou gerencial”, sugerem Glauco Arbix e Rodrigo Brandão, respectivamente diretor e pesquisador do IEA/OIC/USP.
Para ler todos os comentários da consulta pública e participar dela até o da 2 de março, clique aqui.
Fonte: FNE