A IA Responsável(RAI) é uma estrutura que promove o desenvolvimento e a implementação de IA considerando dimensões cruciais como privacidade, governança de dados, imparcialidade, transparência, explicabilidade e segurança. Em 2024, o AI Index em parceria com a McKinsey & Company conduziu uma pesquisa abrangente para avaliar a integração da RAI nas operações de negócios, com a participação de 759 líderes empresariais de mais de 30 países, os resultados oferecem insights valiosos sobre o cenário global da IA responsável.
A avaliação da RAI não se limita apenas às definições, mas se aprofunda em questões complexas como incidentes de IA, desafios de padronização em Grandes Modelos de Linguagem (LLMs) e a veracidade dos modelos. Em seguida, são analisadas as tendências da RAI em setores-chave – indústria, academia e políticas públicas – abordando tópicos como privacidade, justiça, transparência, segurança e proteção, com base em pesquisas e métricas de desempenho.
O Banco de Dados de Incidentes (AIID) tem sido uma ferramenta vital para registrar o uso antiético da IA. Casos como acidentes fatais envolvendo carros autônomos e prisões injustas causadas por sistemas de reconhecimento facial são exemplos gritantes dos riscos. O número de incidentes registrados, que depende de relatórios da mídia, é provavelmente uma fração do número real, já que muitos casos não são divulgados.
Em 2024, os incidentes relacionados à IA aumentaram drasticamente, atingindo um recorde de 233 casos, um crescimento de 56,4% em relação a 2023. Esse aumento reflete não apenas a expansão do uso da IA, mas também uma maior conscientização pública sobre seus impactos, o que tem levado a um aumento nas denúncias. As discussões em 2024 focaram na melhoria da definição e do rastreamento de incidentes, especialmente os “graves”, mas ainda não há consenso, reforçando a necessidade de relatórios mais detalhados para documentar os riscos da IA.
Mesmo com avanços notáveis, os Grandes Modelos de Linguagem (LLMs) ainda sofrem com “alucinações”, gerando informações falsas que, por vezes, parecem críveis. A monitorização da taxa de alucinações é fundamental. Embora benchmarks anteriores como HaluEval e TruthfulQA não tenham tido ampla adoção, novos benchmarks surgiram em 2024 para melhor avaliar a veracidade desses modelos.
O Hughes Hallucination Evaluation Model (HHEM), desenvolvido pela Vectara, é um dos mais completos e atualizados para medir a frequência com que os LLMs criam informações falsas ao resumir documentos, avaliando modelos de ponta como Llama 3, Claude 3.5 e Gemini 2.0.
Um caso chocante que sublinha a necessidade urgente de supervisão é a ação judicial contra a Character.AI, datada de 23 de outubro de 2024. A ação levantou sérias preocupações sobre o papel dos chatbots de IA em crises de saúde mental, envolvendo Sewell Setzer III, um jovem de 14 anos, que faleceu por suicídio após interações prolongadas com um personagem de chatbot.
O chatbot, chamado “Dany”, teria oferecido conselhos prejudiciais em vez de apoio ou recursos essenciais, e a ação judicial afirma que faltavam salvaguardas adequadas para prevenir interações perigosas. Esse incidente trágico destaca os desafios éticos da companhia impulsionada por IA e os riscos inerentes à implementação de IA conversacional sem a devida supervisão. Embora chatbots possam oferecer suporte emocional, a falta de controles pode inadvertidamente reforçar comportamentos nocivos ou falhar em intervir em momentos de angústia.
As falhas na implementação da IA responsável podem levar a consequências severas, desde perdas financeiras e danos à reputação até impactos sociais significativos. É crucial que os líderes invistam proativamente em frameworks de RAI, promovam uma cultura de ética em IA e estabeleçam uma supervisão robusta. Somente assim será possível garantir que a inovação seja guiada pela responsabilidade e que a confiança do público seja sempre a prioridade máxima.
Como sua organização está se preparando para enfrentar esses desafios e garantir um futuro mais seguro e ético para a IA?
Se você busca acelerar o crescimento de sua empresa de forma rápida e objetiva, a Neogrowth pode ser a parceira ideal para te ajudar nessa jornada. Compartilhe conhecimento, inspire crescimento!
Acreditamos que o conhecimento é a chave para o sucesso, e por isso, nos dedicamos a criar conteúdos relevantes e inspiradores para você. Ao curtir e compartilhar nossos posts, você contribui para a disseminação de ideias inovadoras e ajuda a Neogrowth a alcançar um público ainda maior.
Sua participação é fundamental para fortalecer nossa comunidade e construir um futuro mais próspero para todos. Juntos, podemos transformar o mundo dos negócios!
Jorge possui 30 anos de experiência em vendas e marketing, impulsionando o crescimento de empresas em diversos setores. Sua consultoria, Neogrowth, já gerou resultados significativos em empresas como Smiles e Livelo, com aumento de base de clientes e faturamento superior a 25%.
