• Desde la creación de contenido hasta la asistencia en tareas complejas, estas tecnologías nos ofrecen un sinfín de posibilidades. Sin embargo, surge una preocupación: la privacidad y seguridad de la información que compartimos.
  • Es crucial ser conscientes de los riesgos inherentes a revelar datos personales o confidenciales a estos sistemas, ya que lo que una vez se compartió, rara vez se puede retractar por completo.

Santiago, 7 de noviembre de 2025.- Las empresas y las personas a menudo no consideran ni dimensionan que la información compartida en plataformas de inteligencia artificial generativa se utiliza para entrenar modelos. Si bien subir información pública no presenta problemas, la situación cambia drásticamente cuando se trata de información sensible. Compartir contratos confidenciales, nóminas de colaboradores o datos sensibles, especialmente bajo la Ley de Protección de Datos Personales, podría acarrear graves infracciones normativas y legales.

“Sí, la IA es una herramienta poderosa que impulsa la productividad, la innovación y la creatividad en diversas industrias y para millones de personas, pero también entraña riesgos. En las versiones de pago, es posible desactivar la opción que permite entrenar el modelo, pero esta configuración no viene activada por defecto”, explica André Goujon, experto en ciberseguridad.

El riesgo para la seguridad de la información es considerable. Las empresas, en particular, deben implementar políticas claras y capacitar a sus colaboradores sobre el uso responsable de esta herramienta, enfatizando en la prohibición de introducir información confidencial y priorizando versiones que aseguren un control sobre el uso de los datos.

“En el caso de las personas, precisamente en un momento donde utilizan estas plataformas para recibir consejos en áreas sensibles como la psiquiatría, el derecho o la nutrición, hay que estar atentos. La IA puede ofrecer información útil, pero carece de la protección legal inherente a la consulta con un profesional. Cuando se interactúa con un psiquiatra, un abogado o un nutricionista, existe una relación de secreto profesional que garantiza la confidencialidad de la información compartida. Esta protección legal, fundamental para la confianza y la seguridad del paciente o cliente, no existe en el contexto de la IA”, recalca Goujon.

Esta ausencia de un marco de protección legal representa un vacío significativo que los países deberán abordar en el futuro. “Es imperativo que se desarrollen y se implementen leyes que regulen la responsabilidad y la protección de la información proporcionada por los sistemas de IA, especialmente en contextos donde la privacidad y la confidencialidad son críticas. Esto incluirá definir claramente quién es responsable en caso de que la información generada por la IA sea inexacta o perjudicial, y cómo se salvaguardarán los datos sensibles introducidos por los usuarios”, sentencia el especialista.

Share.
Exit mobile version