
ExtraHop lanzó una nueva herramienta llamada “Reveal(x)” que ayuda a las organizaciones a comprender su posible exposición al riesgo por el uso de OpenAI ChatGPT por parte de los empleados al proporcionar visibilidad de los dispositivos y usuarios en sus redes que se conectan a los dominios de OpenAI.

ChatGPT se ha vuelto muy familiar debido a su uso potencial en todas las organizaciones.
ChatGPT solo tardó 2 meses en llegar a mil millones de clientes, mientras que tik tok tardó ocho años.
Una encuesta realizada por Gartner en 2023 reveló que 9 de cada 10 encuestados eligieron la implementación de ChatGPT en su organización para 2025.
Aunque tiene una capacidad muy alta que puede ayudar a las organizaciones a acelerar su progreso, aún existen riesgos de propiedad intelectual al usar herramientas AIaaS dentro de las organizaciones.
Recientemente, ha habido muchas filtraciones de datos asociadas con ChatGPT . Los usuarios que usan ChatGPT para revisiones de código o cualquier descubrimiento o investigación comparten información patentada con ChatGPT, lo que pone en riesgo los datos confidenciales.
Además, ChatGPT almacena los datos en dominios públicos y utiliza esta información para responder a las solicitudes de otros usuarios.
ChatGPT es una IA como servicio (AIaaS) que se puede utilizar ampliamente en la productividad, el desarrollo de software y la investigación.
Para superar este riesgo, los expertos de ExtraHop lanzaron Reveal (x), que mostrará la visibilidad de los dispositivos y usuarios dentro de la red que están conectados a los dominios de OpenAI.
Esto puede ayudar a las organizaciones a implementar modelos de lenguaje de IA y herramientas de IA generativa con mucho control sobre sus datos.
Esta información es crucial para que las organizaciones identifiquen la cantidad de datos enviados a los dominios de OpenAI, lo que puede ayudar a evaluar el riesgo relacionado con el uso de los servicios de IA.
El personal de seguridad puede validar el rango de riesgos aceptables y disminuir la pérdida potencial de propiedad intelectual.
Reveal(x) utiliza paquetes de red como fuente de datos principal para el monitoreo y análisis durante la detección en tiempo real.
Reveal(x) puede proporcionar esta visibilidad profunda y detección en tiempo real porque usamos paquetes de red como la fuente de datos principal para el monitoreo y análisis, dijo Extrahop.
Elimina el contenido y la carga útil enviados desde las capas OSI 2-7 (capa de enlace de datos a capa de aplicación) para una visibilidad completa de los datos.
Aunque ha habido varias reglas, regulaciones y políticas sobre cómo la IA debe almacenar y usar los datos, sigue siendo esencial que las organizaciones entiendan cómo usar estos servicios.
ExtraHop declaró que “ExtraHop cree que los beneficios de productividad de estas herramientas superan los riesgos de exposición de datos, siempre que las organizaciones entiendan cómo estos servicios utilizarán sus datos (y cuánto tiempo los conservarán), y siempre que las organizaciones no solo implementen políticas que rijan el uso de estos servicios, pero también cuentan con un control como Reveal(x) que les permite evaluar el cumplimiento de las políticas y detectar riesgos en tiempo real . ”
Todavía no se ha determinado hasta dónde puede llegar una IA en función de sus capacidades y los riesgos que plantea para la exposición de datos.
frenify: Thank you for your kind words! We’re glad you enjoyed the post. Stay tuned for more content – we’ve got plenty more coming your way.
frenify: I really enjoyed reading this. The content is informative, and the layout makes it so easy to follow. Looking forward to more posts like this! Keep up the great work!