%0 Book Section %T Taxonomía de los modelos de IA de uso general. Probabilidad de generar riesgos de alto impacto y la necesidad de identificarlos publisher Dykinson %D 24 %U 978-84-1070-708-5 %@ https://hdl.handle.net/20.500.14352/118924 %X Tras publicaciones varias de la autora en 2024, en las que se ocupa de los novedosos "modelos de IA de uso general", en publicaciones dirigidas por Moisés Barrio: (i) El Reglamento Europeo de Inteligencia Artificial, Tirant (2024); y (ii) en los Comentarios del Reglamento Europeo de IA, a través del estudio y análisis de los 6 artículos que regulan esta herramienta, Dykinson (2024)),  que fueron introducidos en el Reglamento de Inteligencia Artificial en unos meses previos al texto definitivo, había que seguir estructurando y armonizando una materia hasta entonces desconocida, al menos, en el ámbito jurídico. Estando próxima su fecha de entrada en vigor del Reglamento (el 1 de agosto de 2024), había que proceder a un estudio exhaustivo de esta poderosa herramienta disruptica, opaca y compleja, partiendo de la exégesis del capítulo V del Reglamento que integrado por 6 artículos presenta gran complejidad, tanto desde una perspectiva teórica cómo práctica, técnica y jurídica. La autora se adentra en una taxonomía de los modelos de IA de uso general a través de la inteligencia artificial generativa (ejemplo tipo de estos modelos), y más concretamente por la vía del caso de uso más generalizado y globalizado, ChatGPT, que con más de 200 millones de visitas semanales en los primeros meses, se ha convertido en una herramienta universal, ampliamente beneficiosa, pero también, con relevantes riesgos para la persona y el status quo del Derecho. Salvaguardar la libertad contractual y el principio de la autonomía de la voluntad, la intimidad, la discriminación y otros derechos fundamentales son algunos de los retos principales. Y de fondo, el deber de transparencia que se incorpora al Derecho positivo a través del artículo 50 del RIA que precede a estos modelos. Profundizar en la clasificación de estos modelos, consolidada en el Reglamento, y vincular esta herramienta a los incidentes y peligros de la IA, así cómo a riesgos probables que pueden derivarse de los avances de la tecnología, es otro de los objetivos en esta publicación para encauzar la hipotética responsabilidad por daños. %~