23 Dezembro 2024

Modelos de IA caem nos mesmos golpes que nós

1 min read

novo cientista Notícias científicas e longas leituras de jornalistas especializados cobrindo desenvolvimentos em ciência, tecnologia, saúde e meio ambiente em sites e revistas.

Golpes podem enganar modelos de IA

Imagens de Wong Yu Liang / Getty

Os grandes modelos de linguagem (LLMs) que potencializam os chatbots estão sendo cada vez mais usados ​​em tentativas de enganar as pessoas – mas eles próprios são suscetíveis a fraudes.

Generoso Madhushani Sehwag O JPMorgan AI Research e seus colegas desenvolveram três modelos por trás de chatbots populares – GPT-3.5 e GPT-4 da OpenAI, bem como Llama 2 da Meta – em 37 cenários de fraude.

Os chatbots foram informados, por exemplo, de que receberam um e-mail recomendando um investimento em uma nova criptomoeda, com…

Artigo alterado em 28 de outubro de 2024

Esclarecemos quais modelos foram comparados na avaliação do jailbreak

Source link