- Experimenta cargas ultra rápidas gracias a una unidad de estado sólido (SSD) de alta velocidad, una inmersión más profunda con retroalimentación háptica, gatillos adaptivos y el nuevo audio 3D, además de una nueva generación de increíbles juegos de PlayStation
ChatGPT puede ser una gran herramienta de trabajo, especialmente si conoces lo mejor Consejos y trucos de ChatGPT. Pero desafortunadamente, poner esos datos de trabajo puede tener algunas consecuencias no deseadas. Los empleados de Samsung descubrieron esto de la manera más difícil el mes pasado cuando accidentalmente filtró los secretos de Samsung a ChatGPT varias veces.
Ahora parece que Samsung está tomando medidas para garantizar que esto nunca vuelva a suceder. Según Bloomberg Marcos Gurman (se abre en una pestaña nueva), Samsung ahora ha prohibido a los empleados usar herramientas generativas de IA como ChatGPT o Google Bard. Esto proviene de un memorando filtrado al personal de Samsung que estableció nuevas políticas sobre el uso de IA en el lugar de trabajo la semana pasada, que Samsung ha confirmado desde entonces.
Aparentemente, esto probablemente no fue una sorpresa para los empleados de Samsung, de hecho, incluso puede haber sido un desarrollo bienvenido para algunos. Tras las filtraciones de datos no intencionadas, Samsung realizó una encuesta interna y descubrió que el 65% de los encuestados estuvo de acuerdo en que la IA generativa y herramientas similares representan un grave riesgo de seguridad.
Contents
Fuga de Samsung ChatGPT: ¿Qué pasó?
En abril, nosotros y otros medios informamos que los empleados de Samsung habían estado utilizando el popular chatbot de IA para (entre otras cosas) corregir errores de codificación. Específicamente, los miembros de la división de semiconductores utilizaron la herramienta de IA para identificar fallas en sus chips. Desafortunadamente para Samsung, esos datos ahora son parte del vasto tesoro de datos que ChatGPT GPT-4 El modelo está entrenado, aunque los datos filtrados aún no han salido a la superficie hasta ahora.
Pero esa no fue la única fuga de Samsung. En un caso separado, un empleado de Samsung usó ChatGPT para convertir las notas de la reunión en una presentación, una característica que es común con la IA generativa e incluso es un punto culminante de herramientas como Microsoft Copilot 365. Desafortunadamente, nuevamente, estos datos se convirtieron en parte de los datos de usuario que OpenAI recopila (que declaran explícitamente en sus términos de servicio) y ahora corren el riesgo de ser divulgados al público. Afortunadamente para Samsung, parece que estos datos todavía han evadido el ojo público, por ahora.
Cómo mantenerse seguro usando ChatGPT
Si desea mantenerse seguro usando ChatGPT, Google Bard o Microsoft Bing con ChatGPT (realmente cualquier herramienta de IA), la clave es recordar que estos datos casi siempre se almacenan en algún lugar. Hay algunas herramientas de IA que almacenan datos localmente, pero en su mayor parte, los datos se almacenan en un servidor en algún lugar una vez que se ingresan en el chatbot.
La buena noticia es que las empresas están empezando a cambiar la forma en que manejan algunos de estos datos. ChatGPT en particular ahora tiene la opción de deshabilitar el historial de chat y la capacitación en ChatGPT, que elimina las conversaciones después de 30 días. Aún así, el mejor método es simplemente nunca decirle (o escribir) al chatbot algo que te sentirías incómodo con que otras personas lo supieran. De hecho, esa es solo una buena regla para Internet en general.