Relação entre seres humanos e inteligência artificial deve ser baseada na Responsible IA

Por Cássio Pantaleoni, Head of AI Solutions and Strategy da Quality Digital

Divulgação Cássio Pantaleoni, Head of AI Solutions and Strategy da Quality Digital

Com a inteligência artificial (IA) cada vez mais presente na rotina das pessoas, principalmente nas empresas, é preciso se atentar não só a implementação desta tecnologia, mas a sua responsabilidade e compromisso ético.

A IA surgiu para nos ajudar, mas pode acabar gerando riscos e ser distópica se não tivermos cuidados. Devemos lembrar que esta tecnologia não cria nada por si só, ela é alimentada por dados.

Como as IAs têm viés, por conta do ser humano por trás dela, é preciso ter cautela para esses dados não serem mal-entendidos, fazendo com que as máquinas tomem decisões enviesadas e questionáveis, sendo prejudiciais tanto para as companhias quanto para a sociedade.

A relação entre os seres humanos e as máquinas, considerando aquelas que tenham qualquer tipo de inteligência artificial embarcada, precisa estar pautada por um critério fundamental, em que estas ferramentas precisam servir aos propósitos humanos e não aos propósitos adjacentes.

As nossas aplicações precisamos incluir algumas questões, como o ESG, para que a sustentabilidade, ambiente, questões climáticas e ecológicas, e governança sejam consideradas.

Não podemos imaginar uma sociedade que vá a qualquer momento exigir que nós, cidadãos, servimos as máquinas, quando elas deverão nos servir e ajudar, nesse sentido a relação entre humanos e inteligência artificial deve ser pautada por princípios éticos e morais muito claros.

Dentro da questão de Responsible IA podemos contar com diversas entidades, como a sustentabilidade, já citada, além de segurança, para que haja uma maior preocupação com a proteção de dados e siga todas as normas da LGPD (Lei Geral de Proteção de Dados).

Upskilling, para quando a tecnologia for implementada em uma empresa, não causar um grande impacto entre os trabalhadores, fazendo com que eles se adaptem a IA e colaborem de outras maneiras, podendo até mesmo ocorrer a criação de novos cargos.

Algo muito importante, também, é a governança de dados, que na minha opinião é uma subdisciplina de governança de IA podendo também estar ligada a governança dos algoritmos e dos usuários, que faz com que as empresas tenham um controle maior sobre possíveis problemas e o que pode ser feito para resolvê-los.

Podemos perceber que a Responsible IA e GRC é o caminho para o futuro das companhias, este é justamente o tema que abordei no RPA & AI Congress 2024, considerada a maior feira de automação robótica de processos e inteligência artificial do Brasil.

E abordarei o tema no Integrity Forum 2024, evento tradicional no calendário do mercado de Tecnologia, Auditoria e Compliance, que acontece no dia 21 de maio, em São Paulo.

Onde apresentarei os impactos e possibilidades desta tecnologia, mostrando que ao incorporar princípios de transparência, equidade e prestação de contas na implementação de sistemas de IA, as empresas podem mitigar riscos e maximizar oportunidades, fortalecendo a confiança dos stakeholders, mas também impulsionando a inovação responsável, considerando não apenas os aspectos técnicos, mas também os impactos sociais e éticos.

Para participar de forma gratuita do Integrity Forum, basta se inscrever na landing page do evento.

Perfil do autor

Cássio Pantaleoni, Head of AI Solutions and Strategy na Quality Digital e autor premiado em 2023 com o Prêmio Jabuti da Câmara Brasileira de Livros (CBL) com o livro Humanamente Digital: Inteligência artificial centrada no humano.

DEIXE UMA RESPOSTA

Por favor, digite seu comentário!
Por favor, digite seu nome aqui