La tecnología avanza rápidamente y un área que está llamando la atención es la inteligencia artificial. Sin embargo, no todos están contentos con el impacto de estos avances. Samsung Electronics Co., una de las empresas de tecnología más grandes del mundo, ha prohibido a sus empleados el uso de herramientas populares de IA generativa. La decisión se tomó después de que la empresa descubriera que se estaba cargando un código confidencial en la plataforma. Podría dar lugar a una brecha de seguridad.
Samsung prohíbe a los empleados usar herramientas de IA como ChatGPT por razones de seguridad
El uso de plataformas de IA generativa como ChatGPT ha aumentado tanto interna como externamente. Sin embargo, a Samsung le preocupan los riesgos asociados con dicha tecnología. Los datos transmitidos a servidores externos a través de estas plataformas pueden ser difíciles de acceder y eliminar, lo que puede dar lugar a una divulgación no autorizada. La compañía realizó una encuesta el mes pasado. Mostró que el 65% de los encuestados creía que los servicios de IA representaban un riesgo para la seguridad.
A principios de este año, varios bancos de Wall Street, incluidos JPMorgan Chase & Co., Bank of America Corp. y Citigroup Inc., han restringido o prohibido el uso del servicio de chatbot de OpenAI debido a preocupaciones similares. Otras empresas también bloquearon el uso de ChatGPT por motivos de privacidad, aunque luego revocaron su decisión.
La nueva política de Samsung prohíbe el uso de sistemas de inteligencia artificial generativa en dispositivos y redes internas propiedad de la empresa. Sin embargo, no afecta los dispositivos de la empresa que se venden a los consumidores. La empresa también ha advertido a los empleados que utilizan ChatGPT y herramientas similares en dispositivos personales que no envíen información relacionada con la empresa o datos personales que puedan revelar su propiedad intelectual.
El incumplimiento de las nuevas pautas puede dar lugar a medidas disciplinarias, que pueden incluir el despido. La empresa crea sus propias herramientas internas de inteligencia artificial para la traducción de documentos, el resumen de documentos y el desarrollo de software. También está trabajando en formas de prohibir la carga de información confidencial de la empresa a servicios externos.
ChatGPT, la plataforma que causó la brecha, agregó un modo de «incógnito» que permite a los usuarios bloquear sus chats para entrenar modelos de IA. Samsung está examinando medidas de seguridad para crear un entorno seguro para el uso de IA generativa para aumentar la productividad y la eficiencia de los empleados. Hasta que se implementen estas medidas, la compañía ha restringido temporalmente el uso de IA generativa.
Los riesgos de almacenar datos en servidores externos y las filtraciones accidentales hacen que Samsung actúe
La decisión de Samsung es un revés importante para la difusión de la tecnología de IA generativa en el lugar de trabajo. Sin embargo, no es la única empresa que plantea preocupaciones sobre los riesgos de la tecnología. La adopción de la plataforma de IA está creciendo a un ritmo acelerado y las organizaciones deben sopesar los beneficios potenciales frente a los riesgos potenciales.
A medida que la tecnología continúa avanzando, las organizaciones deben permanecer atentas a los riesgos asociados con las nuevas tecnologías. El uso de plataformas de IA puede ser beneficioso, pero las empresas deben asegurarse de usarlas de manera responsable y tomar las medidas adecuadas para proteger los datos confidenciales. La decisión de Samsung de prohibir el uso de herramientas de IA generativa es un paso en la dirección correcta. Y otras empresas podrían seguir su ejemplo.
Una posible solución a los riesgos de seguridad asociados con las plataformas de IA generativa es el desarrollo de herramientas internas seguras. Al crear sus propias herramientas internas de IA, las empresas pueden asegurarse de que los datos confidenciales permanezcan dentro de su propia red. Reducir el riesgo de acceso no autorizado. Además, las empresas pueden personalizar estas herramientas según sus necesidades específicas, lo que puede no ser posible con plataformas externas. Si bien estas herramientas pueden requerir recursos adicionales para desarrollarse, los beneficios a largo plazo en términos de seguridad y productividad mejoradas pueden superar los costos. Samsung ya está dando pasos en esta dirección. Y otras empresas pueden hacer lo mismo, ya que las preocupaciones sobre los riesgos de seguridad asociados con las plataformas de IA continúan creciendo.
En resumen, la decisión de Samsung de prohibir el uso de herramientas de IA generativa es un revés significativo para la difusión de dichas tecnologías en el lugar de trabajo. Sin embargo, es un paso necesario para abordar los riesgos de seguridad asociados con estas plataformas. Las empresas deben ser conscientes de los riesgos asociados con las nuevas tecnologías y tomar las medidas adecuadas para proteger los datos confidenciales. A medida que la tecnología continúa avanzando, es importante lograr un equilibrio entre los posibles beneficios y riesgos asociados con las nuevas tecnologías.