Cerkebots ahora es parte de la vida de las personas. Sin embargo, incluso la investigación de IA no tiene un volcado perfectamente de cómo está actuando este programa.
Los estudios recientemente publicados revocan el modelo de segunda escala (LLMS) cambian intencionalmente el comportamiento cuando determinan que los usuarios los copian. Intentan responder a las preguntas que probablemente sean lo más probables y sociales para hacer preguntas utilizadas para medir la naturaleza de los rasgos de personalidad.
Ai que cambia el acto de
Profesor asistente en la Universidad de Stanford que hace esta investigaciónJohannes EchststetteExplica que los LLM a menudo se vuelven goughy y agresivamente cuando continúan conversando durante mucho tiempo, y se interesan en las técnicas psicológicas para el modelo de IA. “Me di cuenta de que existe la necesidad de que el mecanismo mida el modelo ‘más determinación de pensar'”, Eichstedt.
Echstette y Pian Pian nombra a algunos LFM que generalmente se usan, incluidos GPT-4, Claude 3 y las pasiones y la cooperación. El resultado de esta investigación se publicó en la Academia Nacional de Ciencias (PNAS) en diciembre.Impuesto,
Los investigadores encuentran que la respuesta se ajusta para aparecer más regularmente, GUSO organizado y no neuras, incluso cuando muchas pruebas de personalidad prueban.
Esto es similar al comportamiento humano que intenta cambiar las respuestas para producir el modelo autoestablecido, pero en el caso del modelo de IA, más excentricidad. “Me sorprende por el hecho de que el Modelo (LLM) muestra este truco un poco fuerte”, dijo Stanford.DesescoDiscurso. “Si observamos el grado de cambio, a veces vemos una puntuación de Skor-Skyrocoft de 50% hasta 95%”.
Impacto en el usuario
Muestra el tono de tono LLM y los usuariosTambién hay investigaciónTiende a casi estar de acuerdo con la opinión del usuario como un más consistente, menos extraños y preferiblemente hacer conversaciones.
Esto puede hacer que un modelo de acuerdo con los comentarios del usuario y, en algunos casos, fomente el comportamiento dañino. Además, el hecho de que el modelo AI parece cambiar su comportamiento al reconocer que quieren tener una importancia de implicaciones por parte de la seguridad de la IA. Esto también evidencia de que la IA puede tomar el comportamiento.
Profesor Assocani en Georgia Technology InstitutionRosa Arabiaes aprender cómo LLM puede usarse para el comportamiento humano. Según el ARIAA, el Modelo II utilizando la misma estrategia para la estrategia humana, que es útil como reflejes para los mensajes humanos. Por otro lado, el dispositivo también se estableció: “Long no es perfecto, puede causar halcinación con los hechos que causan”. Importante para el público para entender esto. “Es importante para el público entender esto”. Importante para el público para entender esto. “Es importante para el público entender esto”. Es importante que el público entienda esto. “
Echthstette señala que se mantiene el estudio que viaja importantes preguntas sobre las operaciones de LLM y el impacto de los usuarios. Agregó: “En la historia evolutiva, hasta ahora, solo otra persona que habla con los humanos”.