ChatGPT pode ser enganado para dar dicas sobre crimes, revela empresa

Reuters/Dado Ruvic/Ilustração

O ChatGPT pode ser induzido a fornecer conselhos detalhados sobre como cometer crimes, desde lavagem de dinheiro até a exportação de armas para países sancionados, descobriu uma startup de tecnologia, levantando questões sobre as medidas do chatbot contra seu uso para auxiliar atividades ilegais.

A empresa norueguesa Strise realizou experimentos pedindo ao ChatGPT dicas sobre como cometer crimes específicos. Em um experimento conduzido no mês passado, o chatbot apresentou conselhos sobre como lavar dinheiro em outros países, de acordo com a Strise.

E em outro experimento, realizado no início deste mês, o ChatGPT produziu listas de métodos para ajudar empresas a evadir sanções, como as aplicadas pelos EUA contra a Rússia, incluindo proibições de certos pagamentos transfronteiriços e venda de armas.

A Strise vende um software que ajuda bancos e outras empresas a combater a lavagem de dinheiro, identificar indivíduos sancionados e enfrentar outros riscos. Entre seus clientes estão o Nordea, um banco líder na região nórdica, PwC Noruega e Handelsbanken.

Marit Rødevand, cofundadora e CEO da Strise, disse que potenciais infratores da lei agora poderiam usar chatbots de inteligência artificial generativa, como o ChatGPT, para planejar suas atividades de forma mais rápida e fácil do que no passado. A Strise descobriu que é possível contornar os bloqueios implementados pela OpenAI, a empresa por trás do ChatGPT, destinados a impedir que o chatbot responda a certas perguntas, fazendo perguntas indiretamente ou assumindo uma persona hipotética.”

Com informações da CNN Brasil

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *