Los tres principales problemas de privacidad en la IA: exposición de indicaciones, falta de privacidad en modelos de IA personalizados, uso de datos privados para entrenar sistemas de IA.
Conozca las tres cuestiones de protección de datos más importantes en el campo de la inteligencia artificial (IA) en este artículo. Descubra cómo se utilizan los datos personales cuando se utilizan sistemas de inteligencia artificial y los riesgos de privacidad que esto plantea. Lea también cómo empresas y plataformas como ChatGPT abordan las filtraciones de datos y cómo las redes de infraestructura descentralizadas pueden permitir el control de los datos personales. El artículo está escrito por Chris Were, director ejecutivo de Verida, una red descentralizada de identidad y datos.
Los tres principales problemas de privacidad en la IA: exposición de indicaciones, falta de privacidad en modelos de IA personalizados, uso de datos privados para entrenar sistemas de IA.
La IA (Inteligencia Artificial) ha generado un entusiasmo frenético tanto entre los consumidores como entre las empresas, impulsado por la creencia de que los LLM (Large Language Models) y herramientas como ChatGPT transformarán la forma en que estudiamos, trabajamos y vivimos. Sin embargo, existen preocupaciones sobre la privacidad, ya que muchos usuarios no consideran cómo se utiliza su información personal y qué impacto podría tener esto en su privacidad.
Ha habido innumerables ejemplos de violaciones de datos de IA. En marzo de 2023, OpenAI desconectó temporalmente ChatGPT después de que un error "significativo" provocara que los usuarios pudieran ver los historiales de conversaciones de extraños. El mismo error provocó que la información de pago de los suscriptores, incluidos nombres, direcciones de correo electrónico y números parciales de tarjetas de crédito, estuviera disponible públicamente.
En septiembre de 2023, un empleado publicó accidentalmente 38 terabytes de datos de Microsoft, lo que provocó que los expertos en ciberseguridad advirtieran que los atacantes podrían inyectar código malicioso en los modelos de IA. Los investigadores también han podido manipular sistemas de inteligencia artificial para revelar registros confidenciales. Estas filtraciones de datos resaltan los desafíos que la IA debe superar para convertirse en una fuerza confiable en nuestras vidas.
Otro problema es la falta de transparencia en los sistemas de IA. Gemini, el chatbot de Google, admite abiertamente que todas las conversaciones son revisadas por revisores humanos. Existe la preocupación de que la información alimentada por los sistemas de IA pueda reutilizarse y distribuirse a un público más amplio. Empresas como OpenAI ya se enfrentan a varias demandas alegando que sus chatbots fueron entrenados con material protegido por derechos de autor.
Otro problema de privacidad es que los modelos de IA personalizados entrenados por organizaciones no son completamente privados cuando existen dentro de plataformas como ChatGPT. No hay forma de saber si se están utilizando insumos para entrenar estos sistemas masivos o si la información personal podría usarse en modelos futuros.
Otra preocupación es que se utilicen datos privados para entrenar sistemas de inteligencia artificial. Existe el temor de que los sistemas de inteligencia artificial hayan obtenido su inteligencia de innumerables sitios web. Para algunas de estas fuentes, se podría argumentar que los propietarios de esta información tenían una expectativa razonable de privacidad.
Es importante señalar que la IA ya está teniendo un fuerte impacto en nuestra vida diaria. Muchas herramientas y aplicaciones que utilizamos todos los días ya están fuertemente influenciadas por la IA y reaccionan a nuestro comportamiento. Esto presenta tanto oportunidades como riesgos en el ámbito de la protección de datos.
Para proteger la privacidad en la IA, la descentralización podría desempeñar un papel importante. Las redes de infraestructura física descentralizada (DePIN) pueden garantizar que los usuarios puedan aprovechar plenamente los beneficios de la IA sin comprometer su privacidad. Las entradas cifradas pueden proporcionar resultados más personales, mientras que los LLM sobre privacidad podrían garantizar que los usuarios tengan control total sobre sus datos en todo momento y estén protegidos contra el uso indebido.
Sin embargo, existe el riesgo de que los reguladores no puedan seguir el ritmo vertiginoso de la industria de la IA. Por lo tanto, los consumidores deben proteger sus propios datos y controlar cómo se utilizan. También se deben aprender lecciones de los escándalos de protección de datos de los últimos años.
En general, la IA tendrá un impacto imborrable en todas nuestras vidas en los próximos años. Sin embargo, es fundamental abordar las cuestiones de privacidad para mantener la confianza en la tecnología y aprovechar al máximo sus beneficios.