Escrito por Rosario Álvarez Jiménez
Cada vez de forma más reciente encontramos en las noticias de actualidad artículos relacionados con la intrusión de la Inteligencia Artificial (IA) en todos los sectores. Y, como el Derecho se encarga de regularlos, necesariamente, el Derecho a de ir evolucionando.
En prensa reciente (de hace escasos días) se puede leer, entre otros ejemplos, como el gigante Telefónica crea una comisión de seguimiento ético de la AI, como empiezan a marcar tendencia los seguros digitales conectados e impulsados por IA, como el prompting -entendido como técnica para proporcionar una entrada inicial o un ejemplo para un modelo de lenguaje o de aprendizaje automático, con el fin de guiar su predicción o generación de respuesta o incluso la generación de texto creativo- se ha convertido en una técnica con potencial impacto en el sector legal e incluso se cuela en las mentes más abiertas de la Administración de Justicia de cara a su aplicación en el proceso judicial. Surgen nuevos y relevantes conceptos como “trustworthy” (confiable) y nuevas formas de delincuencia.
Un sinfín de aplicaciones y noticias de actualidad que mucho tienen que ver con el empeño y labor realizada por la Unión Europea (UE) desde hace más tiempo del que se piensa, en orden a ponerse a la altura de los avances de esta nueva -y cada vez más cercana- realidad.
En este orden de cosas el pasado diciembre de 2023 el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el primer Reglamento de IA como texto que sería el primer marco regulador de la UE para la IA.
Un paso más en la materialización es la Decisión de la Comisión, de 24 de enero de 2024, por la que se crea la Oficina Europea de Inteligencia Artificial y que culmina con la aprobación de dicho Reglamento el pasado mes de marzo, si bien, será publicado en el Diario Oficial de la Unión Europea y entrará en vigor 20 días después, siendo plenamente aplicable a los dos años (aunque con ciertas excepciones en función del riesgo asociado a los sistemas de IA).
Este Reglamento, dicho sea en líneas muy básicas, define lo que es un sistema inteligente, marca objetivos como el de mejorar el funcionamiento del mercado interior, hacer confiables los sistemas de IA centrándose en asegurar la protección del os derechos humanos estableciendo diferentes obligaciones en función del riesgo y también sistemas prohibidos. Por supuesto, también se encarga de establecer un régimen sancionador con sanciones por incumplimiento de hasta los 35 millones de euros o el 7% del volumen de negocio global del ejercicio anterior.
Resulta relevante, además, aclarar que el Reglamento, su ámbito de aplicación, se extiende más allá de la UE, alcanzando también a organizaciones y empresas que utilicen IA en el mercado europeo, lo que supone un importante esfuerzo por parte de numerosas multinacionales, con presencia, negocios o interacciones comerciales en la UE y que se verán compelidas a auditar sus sistemas para delimitar los riesgos de sus sistemas de IA y determinar qué obligaciones y exigencias les son requeridas. Y dada la dificultad de la materia, no podrán hacerlo solos, sino que necesitarán de abogados cada vez más versados en cuestiones tecnológicas.
Por su parte, en España se ha dado un “pequeño gran paso” para la adaptación a las nuevas tecnologías. Decimos “pequeño” pues tan solo merece ser un comienzo pero “grande” por que ya era hora de acometerlo. Hablo del el Real Decreto Ley 6/23 de 19 de diciembre que, si bien, dedica pocas normas al uso de técnicas o sistemas de IA, si que podría decirse que sienta bases de un posible sistema de generación automática y sin intervención humana de las resoluciones de trámite que tanto obstaculizan el normal desarrollo de los procedimientos judiciales.
Por ejemplo, el artículo 56 del Real Decreto Ley recoge la posibilidad de que el sistema informático genere automáticamente una serie de resoluciones de trámite como declaraciones de firmeza, copias, certificaciones, que no requieren validación humana. O también el artículo 57 recoge la posibilidad de que la IA genere automáticamente escritos de mayor relevancia (sin enumerar los mismos) pero necesitando que el profesional correspondiente (juez o letrado) valide el escrito.
Y otra problemática fundamental y que va a incidir ya no solo en el campo empresarial sino sobre todo en el día a día de los ciudadanos, es la encrucijada de la evolución tecnológica y el desarrollo jurídico y la integración cada vez más profunda de la IA en nuestras vidas, es el ámbito de la responsabilidad civil.
Desde la atención médica hasta la conducción autónoma, surge la necesidad de clarificar y establecer las responsabilidades legales en caso de daño o perjuicio causado por sistemas autónomos o algoritmos.
En el contexto de la responsabilidad civil, tradicionalmente se ha centrado en la atribución de responsabilidad a individuos o entidades por acciones u omisiones que causan daño a otros. Sin embargo, con la introducción de la IA, surge una complejidad adicional. La naturaleza autónoma de los sistemas de IA plantea interrogantes sobre quién debería ser considerado responsable en caso de un resultado dañino.
La teoría de la responsabilidad civil en el contexto de la IA abarca varias perspectivas. Una de ellas es la responsabilidad por diseño, que sostiene que los desarrolladores y fabricantes de sistemas de IA deben asumir la responsabilidad por los posibles daños que puedan surgir debido a defectos en el diseño o la implementación de los sistemas. Esta perspectiva pone énfasis en la importancia de la ética y la seguridad desde las primeras etapas del desarrollo de la IA.
Otra perspectiva es la responsabilidad por uso, que sugiere que los usuarios finales de los sistemas de IA deberían ser responsables de supervisar y controlar adecuadamente el funcionamiento de estos sistemas para evitar resultados dañinos. Sin embargo, esta visión plantea desafíos en casos donde la complejidad de la IA supera la comprensión humana o cuando el usuario no tiene el control completo sobre el sistema.
Para dar cumplida respuesta a lo anterior, el papel de legislación y la jurisprudencia resulta crucial en la determinación de la responsabilidad civil en el ámbito de la IA. Los marcos legales deben adaptarse para abordar los desafíos únicos planteados por la IA, como la necesidad de normas de seguridad y responsabilidad específicas para los sistemas autónomos.
La jurisprudencia también juega un papel importante en la evolución de la responsabilidad civil en el contexto de la IA, ya que los tribunales enfrentan casos que implican cuestiones novedosas y complejas relacionadas con la responsabilidad por daños causados por sistemas de IA sin que, aún haya normativa al efecto más allá de las propuestas, como la relativa a la adaptación de las normas de responsabilidad civil extracontractual a la AI, que más pronto que tarde se harán realidad y que al menos poder servir como guía para los primeros enfrentamientos que puedan seguir.
Tal y como están las cosas, parecemos olvidar que incluso hace un año, pisaba España un prototipo de taxi autónomo se publicó una noticia taxi autónomo y ya son varias las empresas que se presentan sus vehículos con sistemas de AI, incluso la industria tiene la mirada puesta en los cielos, y se ha llegado a presentar el aerotaxi (con apoyos nada más y nada menos que de Boeing).
Pero, ¿estamos preparados para ello?
Lo cierto es que la AI está más desarrollada de lo que pensamos y, sobre todo, de lo que la mente humana y la normativa lo está.
La intersección entre la AI y la responsabilidad civil plantea desafíos significativos para el derecho. A medida que la IA continúa avanzando y penetrando en diversos aspectos de la sociedad, es crucial desarrollar marcos legales claros y equitativos que establezcan responsabilidades claras y justas para todas las partes involucradas. La colaboración entre legisladores, profesionales del derecho y expertos en IA será fundamental para abordar estos desafíos de manera efectiva y garantizar un futuro justo y seguro en la era de la AI.