haldar32_iSTock Getty ImagesPlus_ai legal iStock Getty Images Plus

A IA consegue aprender a obedecer à lei?

CAMBRIDGE – Se o trabalho do cientista da computação britânico Alan Turing sobre “máquinas pensantes” foi o prelúdio do que chamamos hoje de inteligência artificial, o best-seller Rápido e Devagar: Duas Formas de Pensar, do falecido psicólogo Daniel Kahneman, pode ser a continuação, dadas suas ideias sobre como nós mesmos pensamos. Entender o “nós” será crucial para regulamentar a “eles”.

Esse esforço está rapidamente passando para o topo da agenda dos formuladores de políticas. Em 21 de março, as Nações Unidas adotaram por unanimidade uma resolução histórica (liderada pelos Estados Unidos) pedindo à comunidade internacional para “governar essa tecnologia em vez de deixá-la nos governar”. E isso veio na esteira da Lei de IA da União Europeia e da Declaração de Bletchley sobre segurança da IA, que mais de 20 países (a maioria deles economias desenvolvidas) assinaram em novembro passado. Além disso, os esforços nacionais estão em andamento, inclusive nos EUA, onde o presidente Joe Biden emitiu um decreto sobre o “desenvolvimento e uso seguros e confiáveis” da IA.

Esses esforços são uma resposta à corrida armamentista da IA que começou com o lançamento público do ChatGPT pela OpenAI no final de 2022. A preocupação fundamental é o cada vez mais conhecido “problema do alinhamento”: o fato de que os objetivos de uma IA e os meios escolhidos para persegui-los podem não ser respeitosos ou mesmo compatíveis com os dos humanos. As novas ferramentas de IA também têm o potencial de ser mal utilizadas por maus atores (de golpistas a propagandistas) para aprofundar e amplificar formas preexistentes de discriminação e preconceito, violar a privacidade e deslocar trabalhadores.

https://prosyn.org/H1I1hAGpt