Início » Quanto mais delegarmos à IA, mais perderemos nossas habilidades humanas, diz autor da lei europeia

Warning: Undefined variable $post in /home/u651074387/domains/contec.org.br/public_html/wp-content/themes/soledad/single.php on line 161

Warning: Attempt to read property "ID" on null in /home/u651074387/domains/contec.org.br/public_html/wp-content/themes/soledad/single.php on line 161

Quanto mais delegarmos à IA, mais perderemos nossas habilidades humanas, diz autor da lei europeia

postado Assessoria

Ex-servidor na Corte de Justiça e no Parlamento Europeu, o italiano Gabriele Mazzini é o coordenador da Comissão Europeia que editou a Lei de Inteligência Artificial aprovada recentemente pela União Europeia. Na semana passada, Mazzini participou de um debate em Brasília (DF) promovido pelo ITS Brasil e a Abranet (Associação Brasileira de Internet). Ele nunca tinha vindo ao Brasil antes e disse ter vivido aqui uma de suas experiências mais marcantes: um almoço na churrascaria.

O Brasil deveria copiar a Lei de Inteligência Artificial da Europa?

Depende. Posso imaginar que em países como o Brasil há muitas pessoas que precisam de crédito e elas lutam para ter acesso pelos canais tradicionais. Será que a IA e os dados disponíveis dessas pessoas permitirão o acesso ao crédito a quem não têm histórico de crédito [e menos renda]? Então, se você pensar em sistemas tradicionais, talvez nosso modelo não funcione no Brasil. É importante avaliar se uma determinada abordagem regulatória faz sentido no contexto de cada país.

Leis como a que foi aprovada na Europa nos protegem do poder excessivo da inteligência artificial?

O poder da tecnologia dificilmente pode ser resolvido por um único regulamento. Na Europa, quando pensamos em lidar com a concentração de poder, temos, por um lado, a lei da concorrência, e, de outro, regulamentações em torno das plataformas [propriamente ditas], como a Lei de Serviços Digitais e Lei dos Mercados Digitais, que regula o acesso a certas atividades ou serviços essenciais.

A lei de inteligência artificial foi criada com o propósito de coibir o poder das techs?

A lei concentrou-se em garantir que os sistemas de inteligência artificial na Europa, independentemente de quem o faz, se grandes ou pequenas corporações, sejam de confiança, respeitem a saúde, a segurança e os direitos fundamentais das pessoas. A lei não distingue o ator.

Mas, ao final, a lei englobou funcionalidades oferecidas por certas plataformas, como o ChatGPT.

A legislação foi alargada para regular também modelos de uso geral, como aqueles por trás do ChatGPT. No entanto, seja de uso geral ou não, todos os modelos estão sujeitos a certas regras. A preocupação foi manter o mercado aberto. Se esses modelos estão ligados à utilização de uma determinada quantidade de computação, o que significa que apenas determinados players conseguirão utilizá-la, então estarão sujeitos a regras adicionais.

Quais são os maiores riscos da inteligência artificial?

Estamos realmente focados em garantir que a IA seja integrada em produtos ou processos existentes para ajudar os humanos na tomada de decisões. Queríamos ter certeza de que a IA se comportará corretamente, sem prejudicar a saúde ou a segurança das pessoas, e não cause danos. Esse é o risco sobre o qual nos concentramos. Penso no impacto da IA, por exemplo, na nossa força de trabalho ou na nossa capacidade de, como humanos, garantir a palavra final sobre as coisas.

O senhor está dizendo que a preocupação foi garantir que a IA não substitua habilidades humanas?

Quanto mais delegarmos à IA, mais perderemos certas habilidades. Penso que, quanto mais a IA se torna avançada, mais nos estimula a substituir certas atividades de forma mais eficiente. Isso significa que podemos perder certas capacidades cognitivas. Não acho que isso seja um risco agora. Mas se continuarmos a desenvolver a IA e a integrá-la descuidadamente na nossa sociedade, talvez [seja um risco].

Deixar que o Google funcione como nossa memória, por exemplo?

Exatamente. Hoje, a gente não faz mais cálculos de cabeça. A IA está movendo essa fronteira mais rápido. Então, acho importante usá-la sem permitir que não sejamos mais capazes de fazer coisas que a IA está fazendo por nós.

Se as máquinas não funcionarem no futuro, estaríamos perdendo nossa capacidade de calcular?

Engenheiros faziam cálculos manuais sobre as forças nos edifícios, nas grandes infraestruturas. Esses são cálculos complexos. Em algum momento, um software foi usado para isso. Mas, ao final, é preciso ser um bom engenheiro para entender se os cálculos [da IA] estão corretos. Quanto mais delegarmos à IA, mais poderemos entrar na lacuna cognitiva.

Existe o risco de a inteligência artificial nos levar a perder a noção do que é real e do que é simulação?

Está ficando claro que a IA tem a capacidade de realmente retratar como reais coisas que não são. As ferramentas de deepfake estão se tornando mais fáceis de usar. E vejo que isso cria um problema para a democracia. Você pode ter deepfakes, mas precisamos criar ferramentas que permitam às pessoas identificar se algo é verdadeiro ou não. É por isso que, na lei de IA, estabelecemos a obrigação de rotular conteúdos sintéticos quando existe risco de engano.

Fonte:Folha de São Paulo

www.contec.org.br

Deixe um Comentário

Notícias Relacionadas