23 Dezembro 2024

Escrever ao contrário pode enganar uma IA e fazê-la fornecer uma receita de bomba

1 min read

ChatGPT pode ser falsificado com as instruções corretas

trickyamir/Shutterstock

Modelos sofisticados de IA generativa, como o ChatGPT, podem ser induzidos a fornecer instruções sobre como construir bombas, alertam os pesquisadores.

Grandes modelos de linguagem (LLMs), como o ChatGPT, são treinados em grandes quantidades de dados da Internet e podem produzir muitos resultados – alguns dos quais os seus criadores prefeririam não redistribuir. Amarrados, eles poderão fornecer uma receita de bolo decente, como saber fazer explosivos com produtos químicos domésticos.

Source link