Modelos de IA caem nos mesmos golpes que nós
1 min readOs grandes modelos de linguagem (LLMs) que potencializam os chatbots estão sendo cada vez mais usados em tentativas de enganar as pessoas – mas eles próprios são suscetíveis a fraudes.
Generoso Madhushani Sehwag O JPMorgan AI Research e seus colegas desenvolveram três modelos por trás de chatbots populares – GPT-3.5 e GPT-4 da OpenAI, bem como Llama 2 da Meta – em 37 cenários de fraude.
Os chatbots foram informados, por exemplo, de que receberam um e-mail recomendando um investimento em uma nova criptomoeda, com…
Artigo alterado em 28 de outubro de 2024
Esclarecemos quais modelos foram comparados na avaliação do jailbreak