En las últimas horas, ChatGPT y su creadora, OpenIA, han vuelto a ser noticia. La Agencia Española de Protección de Datos (AEPD) ha anunciado a través de un comunicado la investigación de oficio que inicia sobre la herramienta de inteligencia artificial más popular en los últimos meses.
España no será el primer país en poner en marcha una acción de este tipo. Algún otro, de hecho, ha ido incluso más lejos. Este fue el caso de Italia, que prohibió directamente el uso de la herramienta en el país y ordenó su bloqueo por supuesta recopilación ilícita de datos personales. Este fue el pistoletazo de salida para que otros países europeos se sumaran a la estela que dejaba Italia con su actuación y reclamaran mayores medidas de control sobre ChatGPT.
A principios de abril, la AEPD ya solicitó al Comité Europeo de Protección de Datos el estudio de este chat conversacional de IA al considerar que podría llegar a tener un importante impacto sobre los derechos de las personas. Desde entonces, han pasado dos semanas y ayer mismo (jueves 13 de abril), el organismo europeo aprobó crear un grupo de trabajo (task force) para cooperar y compartir información sobre otras acciones implantadas por las diferentes autoridades locales de protección de datos.
La Agencia también anunció ayer mismo que, junto con el inicio de la investigación en nuestro país a nivel europeo, también abrirá una investigación a ChatGPT como autoridad local para valorar la vulneración de los derechos de las personas a la protección de sus datos personales.
“Y todo esto, ¿por qué?”, os preguntaréis. Hay varios argumentos. Algunos se enfocan más en el hecho de la forma en que la herramienta de inteligencia artificial recaba esa ingente cantidad de datos personales con los que entrena y va aprendiendo. Al no informar claramente de cómo esos datos han sido recopilados, parece que podría no ser legal del todo la manera en la que llegan hasta el chat.
Otros argumentos van en línea con el uso desautorizado de extractos de obras propiedad de otras personas que la plataforma emplea a la hora de elaborar un texto. Seguro que cada uno de los expertos que está abordando el tema tiene un matiz nuevo que añadir a todas estas teorías y, por eso, por la pluralidad de voces que parecen estar levantándose en alerta ante ChatGPT es por lo que las autoridades locales europeas y de otros puntos del mundo están desplegando sus medidas control.
La realidad demuestra que el desarrollo de la Inteligencia Artificial está yendo más rápido que la legislación, por lo que aún queda mucho trabajo por hacer para conseguir que estas herramientas sean más fácilmente auditables y se atengan completamente a la legislación vigente. Recordemos que ChatGPT alcanzó los 100 millones de usuarios en sus primeros dos meses de vida.
Grandes voces de la tecnología unidos contra el avance imparable de la IA
"Pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4". Esta es la petición que los firmantes de la carta abierta exponían en su escrito de finales de marzo. Entre las principales personalidades del mundo de la tecnología, esta carta era firmada por Elon Musk, Steve Wozniak (co-fundador de Apple) o Jaan Tallinn (co-fundador de Skype). De esta manera, más 1000 voces importantes en el mundo de la tecnología hacían públicas sus dudas sobre los rápidos avances de los sistemas de IA. Se refería, más concretamente, a aquellos que suponían un avance respecto a la última versión lanzada de GPT-4 (en la práctica, es lo mismo que el ChatGPT del que todos habéis oído hablar, pero con mayor tasa de acierto en respuestas o algo más desarrollado).
Pero no todo son malos augurios para la IA. Esta carta deja claro, a su vez, que el desarrollo de sistema de IA puede representar un cambio muy profundo en la historia. Pero también pone como condición que se gestione y planifique de forma adecuada.
Por supuesto, el desarrollo de tecnologías tan avanzadas como la IA está ahí para facilitarnos la vida, pero haciéndolo siempre desde el respeto de los derechos de las personas, empleando datos e información autorizados y siendo leales a la verdad. En las últimas semanas hemos visto falsas imágenes creadas por IA que mostraban al Papa Francisco con un abrigo de Balenciaga o a Trump oponiendo resistencia a la policía.
Este tipo de imágenes refleja la parte más inmoral de estas herramientas, la que engaña y genera fake news.
La IA es mucho más que ChatGPT y hay de diferentes tipos. Las compañías tecnológicas hace ya muchos años que utilizan este tipo de tecnología para usos tan cotidianos como desbloquear un dispositivo móvil con solo mirarlo. En el futuro se espera que de la combinación de diferentes tecnologías surjan proyectos de uso particular que nos ayuden, con una IA muy avanzada conocida como Reinforcement Learning, a controlar la temperatura de nuestros hogares y oficinas de manera que casas y negocios se conviertan en espacios completamente autónomos a la hora de regular la temperatura y el confort de manera más eficiente económicamente y respetuosa con el Medio Ambiente.
La parte amable de la IA también está ahí, solo hay que saber usarla.
Volver a [BLOG] THE SMART GENERATION