A Inteligência Artificial (IA) está preocupando parlamentares europeus

Entenda os impactos dessa tecnologia na sociedade

Imagem de capa - A Inteligência Artificial (IA) está preocupando parlamentares europeus

A preocupação com relação à Inteligência Artificial (IA) entre os governos está aumentando. Na União Europeia, dois comitês parlamentares estão trabalhando na implementação de regras para o uso da tecnologia.

O que está acontecendo:

Sistemas como o ChatGPT estão na mira das autoridades europeias. Durante o “Comitê do Mercado Interno e o Comitê de Liberdades Cívicas” foi realizada uma votação em favor de um projeto de lei para restringir o uso da tecnologia na Europa.

  • No documento “AI Act: um passo mais perto das primeiras regras sobre Inteligência Artificial“, o Parlamento informou: “Em suas emendas à proposta da Comissão, os deputados visam garantir que os sistemas de IA sejam supervisionados por pessoas, sejam seguros, transparentes, rastreáveis, não discriminatórios e ecologicamente corretos. Eles também querem ter uma definição uniforme para IA projetada para ser tecnologicamente neutra, de modo que possa ser aplicada aos sistemas de IA de hoje e de amanhã”.
  • Um caso ganhou destaque na mídia recentemente: em março deste ano, um homem que conversava frequentemente com um sistema de IA cometeu suicídio, na Bélgica.
  • Assim, os deputados categorizaram os “tipos” de IA. Por exemplo: “IA de alto risco” ou “IA de uso geral”.
  • O projeto de lei entrará em votação no mês de junho.

O que notar:

Gary Marcus, professor da Universidade de Nova York, passou a imagem de ser um “louco” e “alarmista” quando afirmou em seus posicionamentos sobre o tema que os sistemas de IA são muito perigosos. Entretanto, ele “previu” casos como o ocorrido na Bélgica e acabou acertando nas projeções. Para ele, a IA pode ser utilizada por más pessoas ou inventar algo para o usuário. E quanto mais as pessoas utilizam os sistemas de IA, mais eles poderão ser perigosos.

  • Gary relembrou que, em março, uma pessoa interagiu com o ChatGPT e o sistema contou a história de um professor que foi acusado de assédio sexual. Porém, a “notícia” era completamente inventada. Não bastasse isso, o ChatGPT ainda usou o nome de um jornal famoso para apoiar a sua afirmação. Entretanto, o professor era uma pessoa real, o que piora ainda mais a situação, porque pessoas reais podem ser acusadas de crimes que não cometeram e terem essa fake news espalhada por aí por meio da internet.
  • Desse modo, Gary enfatiza que os sistemas de IA são imprevisíveis e nada confiáveis. Pense nos possíveis estragos sociais que aplicações de IA produtoras de imagens e vídeos podem fazer, por exemplo.
imagem do author
Colaborador

Da Redação / Foto: iStock