Apple prohíbe a sus empleados el uso de ChatGPT por temor a la filtración de datos

En la era de la inteligencia artificial, el uso de modelos de lenguaje generativos ha ganado popularidad en diversas industrias. Sin embargo, también ha surgido una preocupación creciente en torno a las fugas de información y la seguridad de los datos confidenciales. Recientemente, tanto Samsung como Apple han prohibido a sus empleados utilizar ChatGPT de OpenAI, debido a incidentes en los que información privada fue filtrada. En este artículo, exploraremos las razones detrás de estas prohibiciones y las medidas que las empresas están tomando para abordar este desafío.

Preocupaciones sobre fugas de información en ChatGPT

OpenAI, la compañía detrás de ChatGPT, se vio obligada a desconectar brevemente su chatbot en marzo debido a la revelación accidental de conversaciones de usuarios. Esto generó inquietudes en varias empresas, incluyendo Samsung y Apple, sobre la posibilidad de que información confidencial pudiera filtrarse a través de estas plataformas de lenguaje generativo. La filtración de datos puede tener consecuencias graves, como la revelación de secretos comerciales, estrategias de negocio y otros datos confidenciales.

La reacción de Samsung: prohibición del uso de ChatGPT

En el caso de Samsung, se descubrió que algunos empleados de la compañía proporcionaron información privada a OpenAI, que luego fue utilizada para entrenar a ChatGPT. Como resultado, Samsung prohibió a sus empleados utilizar ChatGPT, con el fin de salvaguardar la información confidencial de la empresa y prevenir posibles fugas de datos.

Apple toma medidas para proteger la información confidencial

Apple también ha adoptado medidas para evitar fugas de información confidencial. Según un documento revisado por The Wall Street Journal, Apple ha emitido una advertencia a sus empleados, instándolos a no utilizar ChatGPT ni Copiloto de GitHub, otra herramienta de generación de código desarrollada por OpenAI. La preocupación de Apple radica en evitar la revelación accidental de información sensible que pueda afectar a la empresa.

El desarrollo de modelos de lenguaje propios por parte de Apple

En medio de estas preocupaciones, se ha revelado que Apple está desarrollando su propio modelo de lenguaje generativo. Aunque no se han proporcionado detalles sobre si este modelo será utilizado internamente o si se lanzará públicamente, esta iniciativa muestra el interés de Apple en tener un mayor control sobre la generación y el manejo de datos sensibles en sus propias plataformas.

¡Síguenos en Google News, Facebook y Twitter para mantenerte informado con las mejores noticias!

Google news - somosfan

Leave a Reply

Your email address will not be published. Required fields are marked *