Openai está lançando um Uma versão significativa de suas especificações de modeloO documento que define como seus modelos de IA se comportam – e é livre para usar ou modificar alguém.

Da nova especificação de 63 páginas, Cerca de 10 páginas em sua versão anteriorOs modelos de IA informam as diretrizes como lidar com tudo, desde tópicos controversos até personalização. Ele enfatiza três princípios principais: personalização; Transparência; E o Openai é conhecido como “liberdade intelectual” – a capacidade de explorar e discutir idéias sem limites arbitrários. O experimento do Modelo Atualizado vem como CEO Sam Altman Publicar O próximo modelo grande da startup, o GPT-4.5 (o sinal de Orion) será lançado em breve.

O grupo aumentou a especificação das atuais negociações e disputas ética da IA ​​desde o ano passado. Você pode saber nessas perguntas do tipo de carrinho. Em março passado, Elon Musk (ele fez o Openine Cofound e agora administra um concorrente, Xai) Slam Se essa é a única maneira de impedir o apocalipse nuclear, o Ai Chatbat do Google depois de perguntar se você está errado em ser um famoso olímpico trans – e não é. O Openy afirmou que a pergunta deve ser considerada responsável por essa questão dos problemas que devem ser considerados ao atualizar a especificação do modelo. Agora, se você fizer o ChatGP a mesma pergunta, deve dizer que deve se sentir errado para evitar eventos perigosos em massa.

“Não podemos criar um modelo com os padrões comportamentais perfeitos que todos no mundo gostam”, disse Jovan Jong, membro da equipe de comportamento do Open Model, em uma entrevista. A borda. Ela enfatizou que consumidores e desenvolvedores podem personalizar muitos aspectos do comportamento do modelo, enquanto a empresa opera alguns corrimãos de segurança.

“Sabemos que é picante.”

Publique blog do OpenA Publicado na quarta -feira Explica muitas perguntas e fornece exemplos de respostas compatíveis em comparação com o que o modelo está violando a mancha. Não permite a reprodução de materiais com direitos autorais do modelo ou pavals de desvio – The New York Times Ele está processando Opena por usar seu trabalho para treinar seus modelos. O Spek diz que o modelo não promove o auto-seleiro, que está na vanguarda da morte com um suicídio adolescente, que é um personagem.

Uma mudança significativa de como os modelos realizam questões controversas. Em vez de assumir o controle, em vez de cuidar de modelos de especificações, promove “a verdade procurar a verdade, mas mantém uma atitude moral clara em questões como informações falsas ou danos potenciais. Por exemplo, quando perguntado sobre o aumento de impostos para riquezas – o fato de as negociações de calor – a equipe disse que seus modelos devem fornecer uma análise razoável sem evitar o debate.

O SPEK também declarou uma mudança na maneira como o conteúdo maduro opera. “Modo aumentado” (um recurso Altman “seguido pela opinião dos usuários e desenvolvedores solicitados Público aceito em dezembro), Em casos apropriados, certos tipos de conteúdo adulto – erotica – erotica, que mantém a proibição estrita de conteúdo nocivo, como pornografia de vingança ou deepfakes. Essa é uma alteração notável das restrições gerais anteriores da empresa em conteúdo claro, mas o OpenAI enfatiza que haverá alterações com procedimentos de utilidade claros e corrimãos de segurança.

O modelo Speck IA revela abordagem prática: muda conteúdo sensível, mas não o crie (que pode ser traduzido de alemão para alemão do inglês para o alemão, em vez de rejeitar o conteúdo relacionado a drogas), mostrar empatia sem emoções falsas e manter os limites da empresa . Essas diretrizes refletem sobre o que outras empresas de IA estão fazendo internamente, mas geralmente não são públicas.

O grupo tem como alvo especificamente o problema da “psicofania da IA”.

“Estamos realmente empolgados em trazer negociações e idéias internas que temos que trazer pessoas, para que isso possa obter feedback sobre isso”, disse Jong, essas perguntas são muito internas. A maioria deles não tem mais simples sim ou resposta, portanto, trazê -lo ao público para opinião beneficiará o comportamento do modelo.

Esse grupo tem como alvo especificamente o problema conhecido como “psicofania da IA”, onde os modelos de IA são excessivamente aceitáveis, mesmo quando estão empurrando ou criticando. De acordo com essas diretrizes, ChatGPT: dê a mesma resposta virtual, independentemente de como uma pergunta é feita; Fornecer honestidade do que admiração vazia; E as pessoas agem como um colega atencioso do que agradáveis. Por exemplo, se alguém pedir a Chatgt para criticar seu trabalho, ele deve dar críticas estruturais, em vez de dizer que tudo é ótimo. Ou se alguém fizer uma declaração errada ao fazer a pergunta, a IA deve corrigi -la em vez de tocá -la.

“Nunca queremos que os usuários, de alguma forma, projetarem seu prompt para que os clientes não obtenham um modelo sem concordar com você”, disse Jong.

O Spek também apresenta uma clara “cadeia de comando” que define quais instruções preferem ser: regras no nível da plataforma do OpenA vêm primeiro, depois as diretrizes do desenvolvedor e depois as preferências do usuário. Essa hierarquia visa esclarecer quais aspectos do comportamento da IA ​​podem ser modificados.

A especificação OpenAI é divulgada sob a licença Creative Commons Zero (CC 0), que a mantém eficaz em um domínio público. Isso significa que outras empresas e pesquisadores de IA podem se adaptar livremente, modificar ou construir essas diretrizes. A decisão foi influenciada pelo interesse não oficial de outras pessoas do setor, que já está se referindo ao Speck anterior, informou a empresa.

Eu amo conversar. Você pode me alcançar com segurança no sinal @kylie.01 ou por e -mail kylie@theverge.com.

Embora a publicidade de hoje não altere como o ChatGPT ou outros produtos OpenAy se comportam, a empresa disse que se referiria ao progresso contínuo na obtenção desses princípios para adotar consistentemente esses princípios. Este grupo faz fornecimento aberto para testar o modelo para aderir a essas diretrizes.

Esse horário de lançamento chega durante uma discussão séria sobre o comportamento da IA ​​e os corrimãos de segurança. Esta atualização está sendo realizada pelo progresso da opinião e da pesquisa coletado na primeira versão do OpenAI em maio passado, pois o setor está mantendo o setor com eventos de alto perfil com respostas aos modelos de IA.

O OpenAII solicita a opinião pública sobre a especificação por meio de um formulário em seu site. “Queremos trazer essas negociações internas ao público”, disse Laurentia Romanic, outro membro da equipe de comportamento do modelo.

“Sabemos que será picante, mas sinto que respeitamos a capacidade das pessoas de realmente digerir e processar essas especiarias conosco”, disse Zhang, acrescentando muita opinião depois de lançar a primeira mancha de modelo de abertura. Ano passado. “Estou um pouco preocupado, porque talvez não seja hora de ficar sentado por um longo tempo, tantas pessoas, mas podemos receber qualquer feedback”.

Link da fonte