Índice
La inteligencia artificial se ha convertido en un tema candente con el paso de los años, desde que ChatGPT se dio a conocer para el gran público, las polémicas IA, han monopolizado temas de conversación en diferentes rincones del globo. Tanto detractores como defensores de las IA, todos parecen haber coincidido en la necesidad de regulación de lo que una IA puede y no puede hacer: protección de datos, transparencia en los algoritmos, responsabilidad por las consecuencias de la IA, etc….
Es fundamental abordar la cuestión de las IA desde un punto de vista ético y moral, conseguir la regulación necesaria para el correcto uso de la tecnología.
Protección de datos con las inteligencias artificiales
En abril, el consejo general Europeo adopto la ley de la inteligencia artificial. Algunos puntos relevantes:
- Los proveedores de IA deberán garantizar que el usuario sepa que está interactuando con una IA, salvó que resulte obvio.
- Los sistemas de identificación biométrica a distancia se utilizarán únicamente con fines policiales y sujetos a la aprobación judicial o administrativa del país miembro.
- Prohibición de los sistemas de IA con alta probabilidad de dañar física o psicológicamente a los ciudadanos.
- Se clasificaran todas las IA en función del riesgo de su existencia para os ciudadanos: Riesgo inaceptable (1), Riesgo alto (2) o Riesgo bajo (3). Por supuesto, las de riesgo inaceptable están prohibidas. Ahí se clasificarán las que contravengan valores de la unión.
Teniendo presentes estos puntos, es necesario comentar que son herramientas que necesitan una gran cantidad de datos para operar, la mayoría personales, por lo tanto, está utilización de los datos personales, se hace mediante el <<Reglamento General de Protección de Datos>>. Como máquinas capaces de elaborar perfiles, la RGPD contempla su aplicación cuando por consecuencia de la elaboración de perfiles automática, un tercero se vea afectado.
¿A que tengo derecho si soy ese tercero?
Cuando ese tercero del que hablábamos se vea afectado, tendrá derecho a oponerse al tratamiento de su información por parte de la IA, y conocer los datos personales concretos que la IA estuviera intentando tratar.
Transparencia en el algoritmo
La transparencia de datos algorítmico consiste en saber qué datos se utilizan y para qué, quiénes los utilizan, etc… El usuario debería de ser consciente de como se han manipulado sus datos. En un caso práctico: si a ti te rechazan un préstamo de un banco, tienes derecho a saber por qué y qué datos han sido los que han llevado al banco a tomar dicha decisión.
Esto afecta a la IA puesto que, aunque el código de estas se abra y los programadores puedan verlo, para supuestamente entender como está siendo procesada la información, muchas veces, debido a la evolución en el pensamiento de la propia IA, no se consigue entender este código. Incluso si se entendiese el código sería complicado determinar qué razonamiento ha seguido para determinar esa resolución final.
Haz clic aquí para comprobar que el concepto de razonamiento en la IA funciona de forma diferente. En el vídeo se ve como una IA es capaz de determinar que mancha de la piel es un melanoma y cual no, mejor que médicos dermatólogos especializados, pero al no entender el proceso de pensamiento de una IA no se sabe en que parámetros ha fijado para determinarlo.
Esta serie de sucesos hacen que sea prácticamente imposible que los datos se procesen de forma transparente.
Riesgos en cuanto a propiedad intelectual
Este es un riesgo sobre todo relacionado con las IA de imagen. En ArtStation, la mayor plataforma de artistas a nivel internacional, donde artistas amateurs y profesionales confeccionan sus portfolios, en enero de este año se genero una gran protesta por culpa de la inteligencia artificial de imagen. Muchos artistas en la plataforma pusieron la imagen que ponemos a continuación en sus portfolios:
«NO A LAS IMÁGENES GENERADAS POR IA» eso es lo que los artistas reclamaban en ArtStation, su mayor plataforma de difusión.
¿Pero qué razones tenían estos artistas para reclamar tal cosa? Pues, las inteligencias artificiales de imagen, igual que todas las demás, necesitan de un entrenamiento para generar las imágenes de las que luego van a disponer los usuarios. Pero, las imágenes con las que se entrenan las IA son imágenes con derechos de autor, hechas por esos artistas, los cuales, no solo no han recibido ninguna compensación económica por las imágenes utilizadas, sino que ahora todo el mundo puede disfrutar de imágenes que ellos han hecho e incluso generar imágenes similares a las suyas sin que ellos puedan evitarlo.
Si bien es cierto que, gracias a esta protesta o por algún motivo más relacionado con no recibir denuncias, afortunadamente algunas empresas de IA han empezado a entrenarlas con imágenes libres de derechos de autor. Aún así, el problema persiste en la actualidad.
Si quieres aprender la información necesaria para hacer tus páginas web, aprovecha nuestros cursos en Front End y Back End. Para un aprendizaje completo, tendrás nuestro máster en desarrollo web.
Sesgos algorítmicos y discriminación
El problema de los sesgos y la discriminación ha ido adquiriendo mayor atención con los años. Estos sesgos pueden surgir cuando los algoritmos de IA se entrenan con conjuntos de datos que reflejan o contienen prejuicios presentes en la sociedad. A medida que la IA se utiliza en aplicaciones cada vez más importantes, como la contratación, la evaluación crediticia, la justicia penal y la atención médica, los sesgos pueden tener consecuencias significativas para individuos que pertenezcan a minorías éticas, géneros o personas con discapacidad.
Los sesgos de entrenamiento se pueden manifestar de diferentes maneras:
- Sesgo demográfico: Los algoritmos de IA pueden aprender a tomar decisiones basadas en características demográficas, como raza, género o edad; en lugar de evaluar de manera justa las habilidades, capacidades o necesidades de una persona.
- Sesgo histórico: Los datos históricos a menudo reflejan discriminación y desigualdad previas. Si estos datos se utilizan para entrenar modelos de IA, es probable que se perpetúen y amplifiquen los sesgos del pasado, lo que resulta en un círculo vicioso de discriminación.
- Sesgo contextual: Los resultados de la IA pueden variar según el contexto en el que se implementen. Un modelo de IA que es justo en una región o industria puede ser sesgado en otra, lo que complica aún más el problema.
- Sesgo de representación: Si ciertos grupos están subrepresentados en el conjunto de datos de entrenamiento, los modelos de IA pueden tener un rendimiento deficiente para esos grupos o incluso ignorarlos.
El impacto de los sesgos y la discriminación en la IA puede ser perjudicial. Para garantizar la tecnología justa e inclusiva, se deben tomar medidas como recopilar datos representativos y equitativos, realizar pruebas de equidad y auditorías, involucrar expertos en ética e inclusión, y promover la investigación continua sobre este tema.
Responsabilidad por las consecuencias de la inteligencia artificial
La IA puede ser, como hemos visto anteriormente, una gran generadora de problemas. Nuestra legalidad vigente y en concreto, nuestro código penal, es para dirimir responsabilidades. Empezemos citando los problemas principales que pueden surgir cuando se trata de la inteligencia artificial, además de los de mayor gravedad que hemos comentado anteriormente:
- Seguridad y privacidad: Los sistemas de IA pueden estar expuestos a vulnerabilidades y ataques malintencionados.
- Riesgo ético y social: La IA puede desencadenar cambios significativos en la sociedad, como la pérdida de empleos, el sesgo en la toma de decisiones importantes y la manipulación de información a gran escala.
- Dependencia tecnológica: Confiar demasiado en la IA puede hacer que las personas dependan de manera excesiva de la tecnología, lo que puede tener efectos negativos. Por ejemplo, que los sistemas fallen, o los humanos pierdan capacidad para pensar por si mismos sin ellos.
¿Quién es el responsable de esto?
- Responsabilidad del desarrollador o fabricante: En muchos casos, los desarrolladores, fabricantes o proveedores de sistemas de IA pueden ser considerados responsables si se demuestra que el problema se debe a un defecto en el diseño o desarrollo del sistema. Esto se aplica especialmente si el problema se origina en el código proporcionado por el dearrollador.
- Responsabilidad del usuario o implementador: Si los problemas surgieron debido a una mala implementación, uso indebido o negligencia por parte del usuario.
- Responsabilidad del propietario o explotador del sistema: Si la IA se utiliza en el contexto de una empresa o entidad, el propietario o explotador del sistema también puede ser considerado responsable de los daños causados por el uso de la IA.
- Responsabilidad del regulador o entidad supervisora: En ciertas jurisdicciones, los reguladores o entidades gubernamentales pueden tener cierta responsabilidad para garantizar que se cumplan las regulaciones y estándares aplicables en el desarrollo y uso de la IA.
La realidad es que la IA es una tema que a nivel jurídico, ha tenido un tratamiento escaso, por lo que dirimir un responsable se puede volver una tarea de gran complejidad. Espacialmente si hay empresas de por medio, se puede volver un autentico infierno. La realidad es que cada proceso es un mundo, depende del caso particular y el problema al que nos enfrentemos.
En última instancia...
El desarrollo y la adopción responsable de la inteligencia artificial requiere un enfoque colaborativo entre la industria, los legisladores, los expertos en ética y los ciudadanos. Solo mediante la combinación de esfuerzos y la creación de marcos éticos sólidos, podremos aprovechar todo el potencial positivo de la IA mientras minimizamos sus posibles riesgos y consecuencias negativas. Así, podremos avanzar hacia un futuro donde la inteligencia artificial sea una herramienta poderosa y ética para el beneficio de toda la humanidad.