As IAs são mais propensas a enganar as pessoas quando treinadas nas reações humanas
1 min readFornecer feedback humano aos chatbots de IA sobre suas respostas parece torná-los melhores em fornecer respostas confiáveis, mas imprecisas.
A produção bruta de grandes modelos de linguagem (LLMs), que alimentam chatbots como o ChatGPT, pode conter informações tendenciosas, prejudiciais ou irrelevantes, e seu estilo de interação pode parecer pouco natural para os humanos. Para contornar isso, os desenvolvedores geralmente pedem às pessoas que avaliem o feedback sobre um modelo e depois o ajustem com base nesse feedback.