Revista CJD Final
como las redes neuronales profundas, son conocidos por ser cajas negras, lo que significa que es difícil comprender cómo llegan a sus conclusiones. Si un juez se basa en una decisión tomada por un sis- tema de inteligencia artificial sin enten- der completamente cómo se llegó a esa conclusión, podría socavar el principio de transparencia y rendición de cuentas en el sistema judicial. • Responsabilidad y Delegación de Tareas: un juez tiene la responsabilidad de tomar decisiones justas y fundamentadas en el derecho vigente. Si se delega en gran me- dida la toma de decisiones a un sistema ar- tificial, esto es, sin cuestionar activamente sus resultados, el juez podría ser conside- rado responsable de decisiones injustas o incorrectas. • Falta de Contexto y Humanidad: la inteli- gencia artificial puede carecer de empatía y comprensión humana. Algunas decisio- nes judiciales pueden requerir considera- ciones complejas que involucran aspectos emocionales y sociales que la tecnología simplemente no puede captar. Si un juez se basa únicamente en las conclusiones de un sistema sin considerar el contexto humano, podría ignorar aspectos esenciales en la re- solución de casos. • Privacidad y Seguridad de Datos: el uso de la inteligencia artificial también puede im- plicar el manejo de grandes cantidades de datos sensibles y personales. Si no se to- man las medidas adecuadas para proteger Sala Plena Comisión Nacional de Disciplina Judicial. Magistrados Comisión Nacional de Disciplina Judicial. De Izquierda a derecha; Dr. Carlos Arturo Ramírez Vásquez, Dr. Juan Carlos Granados Becerra, Dr. Alfonso Cajiao Cabrera, Dra. Magda Victoria Acosta Walteros, Dra. Diana Marina Vélez Vásquez, Dr. Julio Andrés Sampedro Arrubla y Dr. Mauricio Fernando Rodríguez Tamayo. 88
Made with FlippingBook
RkJQdWJsaXNoZXIy NzAxMjQz