CHATGPT: CHAT DE INTELIGENCIA ARTIFICIAL

NoticiasAprendizajeTendencias3 years ago95 Views

La empresa OpenAI se dedica a la investigación e implementación de IA (Inteligencia Artificial).

Uno de los desarrollos de inteligencia artificial de OpenAI es ChatGPT (modelo similar a InstructGPT) interactúa de forma conversacional. El formato de diálogo hace posible que ChatGPT responda preguntas de seguimiento, admita sus errores, premisas incorrectas y rechace de solicitudes inapropiadas.

Para acceder a la inteligencia artificial, puede realizarlo a través del siguiente enlace https://chat.openai.com/chat

Entrenan ChatGPT usando Aprendizaje por refuerzo a partir de retroalimentación humana (RLHF), usando los mismos métodos que InstructGPT, pero con ligeras diferencias en la configuración de recopilación de datos. Entrenamos un modelo inicial mediante un ajuste fino supervisado: los entrenadores humanos de IA proporcionaron conversaciones en las que jugaron en ambos lados: el usuario y un asistente de IA. Les dimos a los capacitadores acceso a sugerencias escritas en modelos para ayudarlos a redactar sus respuestas.

Debajo le dejamos un breve video con una consulta que realizamos desde OSINT.

Ejemplo de consulta en ChatGPT

Si bien es una excelente experiencia interactuar con ChatGPT, desde OpenAI nos cuentan las limitaciones de la Inteligencia Artificial.

Limitaciones

  • ChatGPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido. Resolver este problema es un desafío, ya que: (1) durante el entrenamiento de RL, actualmente no hay una fuente de verdad; (2) entrenar al modelo para que sea más cauteloso hace que rechace preguntas que puede responder correctamente; y (3) el entrenamiento supervisado engaña al modelo porque la respuesta ideal depende de lo que sabe el modelo , en lugar de lo que sabe el demostrador humano.
  • ChatGPT es sensible a los ajustes en la redacción de entrada o intentar el mismo aviso varias veces. Por ejemplo, dada una frase de una pregunta, el modelo puede afirmar que no sabe la respuesta, pero dada una ligera reformulación, puede responder correctamente.
  • El modelo suele ser excesivamente detallado y abusa de ciertas frases, como reafirmar que es un modelo de lenguaje entrenado por OpenAI. Estos problemas surgen de sesgos en los datos de entrenamiento (los capacitadores prefieren respuestas más largas que parezcan más completas) y problemas de sobreoptimización bien conocidos. 2
  • Idealmente, el modelo haría preguntas aclaratorias cuando el usuario proporcionara una consulta ambigua. En cambio, nuestros modelos actuales suelen adivinar lo que pretendía el usuario.
  • Si bien nos hemos esforzado para que el modelo rechace solicitudes inapropiadas, a veces responderá a instrucciones dañinas o exhibirá un comportamiento sesgado. Estamos utilizando la API de moderación para advertir o bloquear ciertos tipos de contenido no seguro, pero esperamos que tenga algunos falsos negativos y positivos por ahora. Estamos ansiosos por recopilar comentarios de los usuarios para ayudar en nuestro trabajo continuo para mejorar este sistema.

Esperemos utilicen y recomienden la plataforma, así como también este post si les gustó.

Previous Post

Next Post

Cargando siguiente publicación...
Síguenos
Sidebar Buscar
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...