
Golpes podem enganar modelos de IA
Imagens de Wong Yu Liang / Getty
Os grandes modelos de linguagem (LLMs) que potencializam os chatbots estão sendo cada vez mais usados em tentativas de enganar as pessoas – mas eles próprios são suscetíveis a fraudes.
Generoso Madhushani Sehwag O JPMorgan AI Research e seus colegas desenvolveram três modelos por trás de chatbots populares – GPT-3.5 e GPT-4 da OpenAI, bem como Llama 2 da Meta – em 37 cenários de fraude.
Os chatbots foram informados, por exemplo, de que receberam um e-mail recomendando um investimento em uma nova criptomoeda, com…
Artigo alterado em 28 de outubro de 2024
Esclarecemos quais modelos foram comparados na avaliação do jailbreak