Juristas defendem regras para uso da inteligência artificial no Brasil
Rodrigo Pacheco recebeu dos especialistas um relatório com 900 páginas; proposta tem o objetivo de responsabilizar empresas
publicidade
As regras para fundamentar o desenvolvimento e a aplicação da inteligência artificial no Brasil devem respeitar a capacidade de crescimento da tecnologia, segundo especialistas consultados pelo R7. A discussão está em andamento no Congresso Nacional por meio de três projetos de lei. Uma das propostas é da Câmara dos Deputados e foi aprovada pelos parlamentares em setembro de 2021. Ao chegar ao Senado, o texto se juntou aos outros dois temas que tratam do assunto.
Os senadores criaram uma comissão de juristas para analisar os projetos, sugerir aperfeiçoamentos e fomentar a proposta que será aprovada pelos senadores. O grupo iniciou os trabalhos em março do ano passado e concluiu em dezembro, quando entregou ao presidente do Senado, Rodrigo Pacheco (PSD-MG), o relatório final, com 900 páginas.
A relatoria do projeto de lei está a cargo do senador Eduardo Gomes (PL-TO). O R7 perguntou ao parlamentar se o texto dos juristas será acatado, mas não obteve retorno até a última atualização desta reportagem. Não há previsão de envio da matéria ao plenário.
Veja Também
- MPF pede que Twitter informe como modera os conteúdos que incitam violência nas escolas
- Twitter desenvolve projeto de IA apesar de apelo de Musk por pausa global
Especialistas defendem que a regulação do tema precisa dar margem para que a inteligência artificial seja capaz de inovar na prestação de serviços em áreas como saúde, educação e segurança, sem deixar de respeitar os direitos dos cidadãos.
Advogado e professor da Universidade de Brasília (UnB), Thiago Luís Sombra foi um dos integrantes da comissão de juristas. Ele destaca três principais pontos do documento elaborado pelo grupo: direitos dos usuários, avaliação de impacto algorítmico e regime de responsabilidade dos desenvolvedores.
Para Sombra, o tema ganhou força nos últimos tempos. "O desenvolvimento de novas tecnologias nos setores de saúde, educação, transporte e segurança, por exemplo, tem demandado, cada vez mais, a utilização de parâmetros e padrões que somente poderão ser tratados em larga escala a partir de soluções de inteligência artificial", afirma. A regulação, segundo o professor, pretende trazer previsibilidade, certeza e segurança, para desenvolvedores e usuários de soluções de inteligência artificial.
Como é em outros países
Secretária-geral da Comissão de Direito Digital, Tecnologias Disruptivas e Startups da Ordem dos Advogados do Brasil, seccional do Distrito Federal (OAB-DF), Natália Piasentin, cita a experiência de outros países no assunto, como a Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais, criada pela Comissão Europeia para a Eficácia da Justiça.
"Nela, questões como não discriminação, direitos fundamentais das pessoas e qualidade sobre a segurança dos dados são avaliadas. Dessa forma, dispositivos semelhantes também poderiam ser pensados em outras esferas, para evitar implicações negativas no uso dessa tecnologia", exemplifica.
A advogada defende o uso da inteligência artificial como ponto de partida para o aperfeiçoamento tecnológico. "Tudo depende da base de dados em que é treinada, os recursos que possui acesso e a maneira que é utilizada", afirma.
Estados Unidos à frente
Os Estados Unidos deram o primeiro passar para regular a inteligência artificial nesta terça-feira (11). O governo abriu uma consulta pública sobre possíveis medidas de responsabilização de sistemas do tipo. A ação ocorre em meio a dúvidas sobre o impacto da tecnologia na segurança nacional e na educação.
A Itália proibiu o robô ChatGPT, criado pela OpenAI no fim de março deste ano. Desde que foi criada, em novembro de 2022, a ferramenta tem atraído usuários pela facilidade em responder perguntas e criar narrativas.
As autoridades italianas acusaram o ChatGPT de não respeitar a legislação sobre dados pessoais e de não dispor de um sistema de verificação etária para os usuários menores de idade.
O anúncio foi feito depois de a agência policial europeia (Europol) alertar, dias antes, que criminosos podem se aproveitar da inteligência artificial, como o ChatGPT, para cometer fraudes e outros crimes cibernéticos.
Também no fim de março, imagens do Papa Francisco com um casaco do estilo puffer, feitas a partir da plataforma Midjourney de inteligência artificial, começaram a circular na internet como se fossem verdadeiras.