La privacidad es uno de los valores más importantes. Sin embargo, no siempre resulta sencillo protegerla, incluso cuando hablamos de herramientas desarrolladas por grandes empresas tecnológicas. Un ejemplo claro de esto es la reciente decisión de OpenAI de retirar una función experimental de ChatGPT que permitía compartir conversaciones de manera pública en internet.
En TecnetOne creemos que es fundamental que conozcas qué pasó, cuáles fueron los riesgos detectados y qué lecciones puedes aplicar para proteger tu información personal y la de tu empresa.
Hasta hace unos días, ChatGPT ofrecía una función que te permitía compartir tus conversaciones públicamente. Solo tenías que seleccionar un chat, activar una casilla y crear un enlace que luego podía aparecer indexado en motores de búsqueda como Google o Bing.
En teoría, la idea parecía positiva: compartir ejemplos útiles de interacción con el chatbot para que otros usuarios pudieran inspirarse o aprender nuevas formas de aprovechar la herramienta.
De hecho, OpenAI la presentó como un “experimento breve”, con la intención de ayudar a más personas a descubrir conversaciones prácticas y casos de uso reales.
El problema surgió cuando se descubrió que muchas personas estaban compartiendo, sin darse cuenta, información privada o sensible en esas conversaciones.
Según explicó Dane Stuckey, director de Seguridad de la Información de OpenAI, la compañía detectó que la función ofrecía “demasiadas oportunidades para que la gente compartiera información no deseada sin querer”.
Esto significa que, aunque compartir un chat era opcional, muchos usuarios desconocían que, al generar un enlace, este podía ser encontrado fácilmente con una búsqueda en internet.
El resultado fue preocupante: se hallaron conversaciones sobre temas personales, como solicitudes para remodelar un baño, y también información laboral sensible, por ejemplo, la reescritura de currículums para conseguir empleo.
Ante esta situación, OpenAI decidió eliminar la función por completo. Además, anunció que ya está trabajando para retirar de los buscadores el contenido que fue indexado.
La medida entrará en vigor de inmediato, y el mensaje es claro:
“La seguridad y la privacidad son primordiales para nosotros y seguiremos trabajando para reflejarlas al máximo en nuestros productos y funciones”.
De esta forma, la empresa busca reforzar su compromiso con la protección de datos personales, evitando que más usuarios se expongan de manera accidental.
Aunque la función no publicaba chats de manera automática —era necesario que cada usuario activara la opción y generara un enlace—, lo cierto es que muchos no eran conscientes de las implicaciones.
Al indexarse en buscadores, cualquier persona podía encontrar conversaciones simplemente escribiendo en Google el filtro site:chatgpt.com/share.
Esto abrió la puerta a que datos privados quedaran accesibles para terceros:
Función para compartir conversaciones de ChatGPT (Fuente: OpenAI)
También podría interesarte: Privacidad Digital: ¿Qué es y Cómo Potenciarla en tu Empresa?
Desde TecnetOne queremos que lo veas como una lección de ciberseguridad práctica. Este episodio confirma algo que repetimos constantemente: no toda función nueva en internet es tan inocente como parece.
Hay tres puntos clave que puedes extraer de lo ocurrido:
Compartir contenido puede parecer inofensivo, pero incluso un ejemplo simple puede incluir información más sensible de lo que imaginas.
Aunque el proceso de compartir requería pasos conscientes, el diseño de la función facilitaba que las personas activaran la opción sin comprender las consecuencias.
Todo lo que llega a Google o Bing es prácticamente público para siempre. Incluso si eliminas un enlace, las copias en caché pueden permanecer accesibles.
Si eres profesional independiente, empresario o trabajas en una organización, este tipo de incidentes puede tener un impacto aún más serio:
Por eso, desde TecnetOne insistimos en que la concientización sobre el manejo de información es igual de importante que las soluciones tecnológicas que implementes.
Aunque esta función ya no está disponible, hay varias acciones que puedes adoptar para reducir el riesgo de incidentes similares:
Antes de publicar o compartir algo, pregúntate:
Existen herramientas de monitorización de reputación digital que te notifican si tu información aparece en sitios públicos.
Cada vez que una aplicación o servicio lanza una nueva función, tómate el tiempo de leer qué hace y cómo puede afectar tu privacidad.
En TecnetOne, recomendamos contar con soluciones de detección y respuesta (EDR) que ayuden a identificar actividades inusuales y proteger tus dispositivos.
El error humano es uno de los principales riesgos. Una formación básica en conciencia de ciberseguridad puede marcar la diferencia.
Lee más: Inteligencia Artificial en E-commerce: Seguridad Avanzada
Aunque la noticia puede sonar alarmante, hay un aspecto positivo: cada vez más empresas tecnológicas están reconociendo los riesgos y actuando rápido para proteger a los usuarios.
El hecho de que OpenAI haya decidido retirar esta función demuestra que la privacidad empieza a ocupar un lugar central en el diseño de las herramientas digitales.
Para ti, como usuario o empresa, esto es una llamada a la acción: exige siempre transparencia y seguridad de los proveedores de tecnología que usas en tu día a día.
La retirada de esta función de ChatGPT es un recordatorio poderoso: la privacidad no se negocia. Aunque la intención inicial era positiva, el riesgo superaba los beneficios.
En TecnetOne te animamos a ser proactivo:
La tecnología puede ser una aliada increíble, pero solo si la usas con precaución y cuentas con el apoyo adecuado. Tu información es valiosa, y protegerla es una inversión que nunca deberías posponer.