Compartir

Agencias

Samsung Electronics Co. prohibió a su personal el uso de populares herramientas de inteligencia artificial generativa como ChatGPT después de descubrir que empleados subieron un código confidencial a la plataforma, lo que supuso un revés para la difusión de dicha tecnología en el lugar de trabajo.

La compañía con sede en Suwon, Corea del Sur, notificó el lunes al personal de una de sus divisiones más grandes sobre la nueva política a través de un memorando al que Bloomberg News tuvo acceso. A la empresa le preocupa que los datos transmitidos a dichas plataformas de inteligencia artificial, como Google Bard y Bing, se almacenen en servidores externos, lo que dificulta su recuperación y eliminación, y que puedan terminar siendo divulgados a otros usuarios, según el documento.

La compañía realizó una encuesta el mes pasado sobre el uso interno de herramientas de IA y dijo que el 65% de los encuestados cree que dichos servicios representan un riesgo para la seguridad. En abril, ingenieros de Samsung filtraron accidentalmente el un código fuente interno al subirlo a ChatGPT, según el memorando. No está claro qué información se vio afectada.

Un representante de Samsung confirmó que la semana pasada se envió un memorando informando que se prohibía el uso de servicios generativos de IA.

“El interés en plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente”, dijo Samsung al personal. “Si bien este interés se centra en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa”.

Samsung es solo la última de una serie de grandes empresas que han expresado su preocupación por la tecnología. En febrero, solo un par de meses después de que el servicio de chatbot de OpenAI provocara una ola de interés en la tecnología, algunos bancos de Wall Street, como JPMorgan Chase & Co., Bank of America Corp y Citigroup Inc., prohibieron o restringieron su uso. Italia también prohibió el uso de ChatGPT por temor a poner en riesgo la privacidad, aunque revirtió su postura en los últimos días.

Las nuevas normativas de Samsung prohíben el uso de sistemas de inteligencia artificial generativa en computadoras, tabletas y teléfonos propiedad de la empresa, así como en sus redes internas. No afectan los dispositivos de la empresa que se venden a los consumidores, como los teléfonos inteligentes con Android y las computadoras portátiles con Windows.

Samsung pidió a los empleados que usan ChatGPT y otras herramientas en dispositivos personales que no envíen ningún tipo de información relacionada con la empresa ni datos personales que puedan revelar su propiedad intelectual. Advirtió que la violación de las nuevas políticas podría tener como consecuencia el despido.

“Les pedimos que se adhieran diligentemente a nuestra directriz de seguridad. No hacerlo podría provocar una violación o compromiso de información de la compañía que resulte en una acción disciplinaria que pueda incluir la terminación del empleo”, señaló Samsung en el memorando.

Mientras tanto, la empresa está creando sus propias herramientas internas de IA para traducir y resumir documentos, así como para el desarrollo de software. También está trabajando en formas de impedir que se suba información confidencial de la empresa a servicios externos. El mes pasado, ChatGPT agregó un modo “incógnito” que permite a los usuarios impedir que sus chats se utilicen para el entrenamiento de modelos de IA.

“La sede está revisando las medidas de seguridad para crear un entorno seguro en el uso de IA generativa para mejorar la productividad y la eficiencia de los empleados”, dice el memorando. “Sin embargo, hasta que se preparen estas medidas, restringiremos temporalmente el uso de la IA generativa”.

Fuente: Bloomberg

Compartir