Derecho Jurisdiccional Disciplinario
Derecho jurisdiccional disciplinario, desde un enfoque ético, deontológico y preventivo 145 manipulados por ciberataques, pueden ser sesgados o simplemente estar equivocados. Apli- car de forma irreflexiva la tecnología a medida que se desarrolla produciría, por tanto, re- sultados problemáticos, así como la renuencia de los ciudadanos a aceptarla o utilizarla” 10 . De otro lado, Comisión Europea ha desarrollado las directrices para lograr una «IA fiable», incluyendo tres componentes: 1) debe ser conforme a la ley, 2) debe respetar los principios éticos y 3) debe ser sólida. Las directrices señalan siete requisitos esenciales que deben respetar las aplicaciones de IA para ser consideradas fiables. Los siete requi- sitos esenciales son los siguientes: a. Intervención y supervisión humanas. b. Solidez y seguridad técnicas. c. Privacidad y gestión de datos. d. Transparencia. e. Diversidad, no discriminación y equidad. f. Bienestar social y medioambiental. g. Rendición de cuentas. Estos requisitos están pensados para ser aplicados a todos los sistemas de IA en diferentes entornos y sectores, el contexto específico en el que se apliquen debe tenerse en cuenta para su implementación concreta y proporcionada, adoptando un enfoque basado en el impacto. Las directrices no son vinculantes y, como tales, no crean nuevas obligaciones legales 11 . Estas directrices pueden considerarse como unos marcos indispensables en la incorporación de la Inteligencia Artificial al Derecho penal, puesto que su aporte está limitado por la observancia de los derechos y garantías de los individuos, empresas y la búsqueda del bien común como pilares del Estado de Derecho 12 . 2. La inteligencia artificial y las responsabilidades derivadas de su aplicación ¿Pueden las máquinas pensantes estar sujetas al Derecho? En 1981, un empleado japo- nés de 37 años de una fábrica de motocicletas fue asesinado por un robot de inteligencia artificial trabajando cerca de él. El robot erróneamente identificó al empleado como una 10. Comisión Europea (2019), en la “Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité́ Económico y Social Europeo y al Comité́ de las Regiones. Generar confianza en la inteligencia artificial centrada en el ser humano “, op. cit., pág. 2. 11. Vid. Comisión Europea (2019), en la “Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité́ Económico y Social Europeo y al Comité́ de las Regiones. Generar confianza en la inteligencia artificial centrada en el ser humano “, op. cit., págs. 1 y ss. 12. La Comisión Europea ha resaltado. “Las conversaciones internacionales sobre la ética enmateria de IA se han intensificado después de que la presidencia japonesa del G7 diera gran importancia al tema en la agenda de 2016. Dadas las interrelaciones internacionales en el desarrollo de la IA en cuanto a circulación de datos, desarrollo de algoritmos e inversiones en investigación, la Comisión seguirá́ esforzándose por llevar el enfoque de la Unión a la escena mundial y establecer un consenso sobre una IA centrada en el ser humano. En Comisión Europea (2019), en la “Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité́ Económico y Social Europeo y al Comité́ de las Regiones. Generar confianza en la inteligencia artificial centrada en el ser humano “, op. cit., pág. 9.
Made with FlippingBook
RkJQdWJsaXNoZXIy NzAxMjQz