Estrategias de Cumplimiento para Inteligencia Artificial

Certifcación Artificial Intelligence Compliance Strategist

El despliegue de la inteligencia artificial, constituye una prioridad para todo tipo de empresas y organizaciones. Esta materia resulta relevante desde el punto de vista de aquellas empresas innovadoras que se planteen el desarrollo de sistemas de inteligencia artificial de carácter propietario, ya sea porque ello constituye su objeto de negocio, ya sea porque la entidad requiere de desarrollos bajo su estricto control.

Por otra parte, cada vez va a resultar más común la contratación de servicios de inteligencia artificial destinados a mejorar las capacidades de las organizaciones del mismo modo que en su momento ya ocurriera con el Cloud Computing. Y esto va a resultar independiente del tamaño de la entidad o empresa, va a alcanzar a todas por igual. Desde este segundo punto de vista, será necesario disponer de las herramientas que nos permitan tanto preparar a nuestra organización para la incorporación de este tipo de sistemas como ser capaces de verificar, en el mercado cuales pudieran ser aquellas ofertas que resultan confiables.

Objetivos

    Este curso persigue como finalidad esencial proporcionar conocimientos adecuados y suficientes para adquirir las siguientes competencias:

    1. Ser capaz de entender el marco jurídico regulador que garantiza que nuestra organización realiza un correcto y adecuado tratamiento de los datos bajo su control, con la finalidad de asegurar una adecuada integración futura de los sistemas de inteligencia artificial.

    2. Identificar los requisitos y procedimientos que regirán el futuro desarrollo de este tipo de sistemas de información. En particular, ser capaces de catalogar de acuerdo con el nivel de riesgo los sistemas de inteligencia artificial objeto de desarrollo, así como de implementar las metodologías de cumplimiento normativo desde el diseño que integran las evaluaciones de impacto en la protección de datos, el análisis de riesgos para los derechos fundamentales y los análisis de riesgos específicamente relacionados con la inteligencia artificial.

    3. Ser capaces de identificar los requerimientos de confiabilidad en los proveedores de aplicaciones de inteligencia artificial.

    4. Proporcionar a los empleados de la compañía un marco de conocimiento suficiente para promover el cambio cultural y de conocimientos que les prepare para el despliegue de sistemas de inteligencia artificial.

Contenido

    Para conseguir estos objetivos se abordarán los siguientes elementos temáticos:

    1. Estrategias de la Unión Europea en materia de inteligencia artificial: los espacios europeos de datos y los digital innovation hubs como escenarios para el diseño, desarrollo e implementación de sistemas de inteligencia artificial.

    2. Cumplimiento normativo y ético desde el diseño. El cambio de cultura empresarial en el diseño y/o uso de aplicaciones de inteligencia artificial.

    3. La garantía del cumplimiento normativo en protección de datos. Principios básicos de cumplimiento. El desarrollo de evaluaciones de impacto en la protección de datos. La seguridad de la información. La garantía en la prestación de servicios: el encargado del tratamiento.

    4. Fuentes de datos en la legislación europea. El reglamento de gobernanza de datos. Servicios de intermediación y fuentes de acceso a datos. La creación de organizaciones de altruismo de datos.

    5. Fuentes de datos en la legislación europea. El acceso a datos directamente proporcionados por la persona interesada a través de mecanismos de portabilidad: el Reglamento de Datos.

    6. Fuentes de datos en la legislación europea. El acceso a datos para fines secundarios admisibles en la Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre el Espacio Europeo de Datos Sanitarios.

    7. El marco regulador de la del Reglamento de Inteligencia Artificial. Prácticas prohibidas. Catalogación de los sistemas de inteligencia artificial, de acuerdo con su nivel de riesgo: especial consideración sobre el desarrollo de los sistemas de alto riesgo. Requerimientos de diseño. Evaluación de impacto en los derechos fundamentales, y evaluaciones de impacto ético: el modelo de controles ALTAI. Formación del personal en materia de inteligencia artificial.

    8. La posición de los reguladores. Análisis de las Guías de la Agencia Española de Protección de Datos y la Agencia Europea de Ciberseguridad-ENISA.

    9. Casos de uso en materia de inteligencia artificial. Desarrollo de sistemas de inteligencia artificial, basados en monitorización del Internet de los objetos. Analítica de datos, inteligencia artificial aplicada a la gestión de recursos humanos. Nuevos modelos de negocio basados en inteligencia artificial.

    10. Consideraciones sobre el riesgo reputacional y regulatorio. El marco sancionador en los distintos marcos en los distintos reglamentos de la Unión Europea. Gestión de la comunicación corporativa y riesgo reputacional.


Remoto en Directo o Virtual con Tutoría

Formato Directo en Remoto

✅ Estrategias de Cumplimiento para la Implementación de Sistemas de Inteligencia Artificial
🔝 Curso de Certificación: AI Compliance Strategist
💰 Importe Matricula: 995,00 €
🏅 Tasas del Examen de Certificación Incluida
🎓 Asignatura del Plan de Estudios del Máster en Gobierno y Gestión de Sistemas de Información MGEIT®

Convocatoria Enero 2025 (Martes tarde y Jueves tarde)
Primera Sesión: martes 21 de enero de 2025 de 16:00 a 21:00 horas
Segunda Sesión: jueves 23 de enero de 2025 de 16:00 a 21:00 horas
Tercera Sesión: martes 28 de enero de 2025 de 16:00 a 21:00 horas
Cuarta Sesión: jueves 30 de enero de 2025 de 16:00 a 21:00 horas

Solicita tu admisión en admisiones@escueladegobierno.es o en el teléfono +34 960 442 442

Reserva de Plaza







Ricard  Martínez  Martínez

Profesor de Derecho Constitucional de la Universitat de València y director de la Cátedra de privacidad y Transformación Digital Microsoft-Universitat de Valencia profesor de Derecho Constitucional de la Universitat de València y director de la Cátedra de privacidad y Transformación Digital Microsoft-Universitat de Valencia.

Doctor en Derecho por la Universitat de València, ha dedicado su investigación al estudio del derecho fundamental a la protección de datos y a distintas cuestiones relacionadas con las repercusiones de las tecnologías de la información y las comunicaciones en la vida privada.

En el marco de sus actividades de transferencia y servicio público ha formado parte sucesivamente del Grupo de Trabajo sobre Derechos Digitales de los Ciudadanos del Ministerio de Energía, Turismo y Agenda Digital y del Grupo de Trabajo sobre Derechos Digitales de la Secretaría de Estado de Digitalización e Inteligencia Artificial. En este segundo grupo fue una de las cinco personas ponentes de la Carta de Derechos Digitales. 

Dedica actualmente su investigación al estudio de las condiciones para la generación de repositorios masivos de datos con fines de investigación, particularmente en el ámbito de la salud, y al cumplimiento normativo en el ámbito de la Inteligencia Artificial. Ha participado o participa en Proyectos de Investigación como BigMedilytics, WellBased o Chaimeleon y en el despliegue de la infraestructura de imágne médica de cáncer EUCAIM. El resultado de su investigación básica en esta materia transferido al proyecto Playbook and HealthData 29 de Fundación 29 mereció el Premio a la Proactividad y Buenas Prácticas de la Agencia Española de Protección de Datos en 2021. 

Ha sido técnico de control de bases de datos de la Universitat de Valencia. Presidente de la Asociación Profesional Española de la Privacidad. Ha sido responsable del Área de Estudios de la Agencia Española de Protección de Datos.

Miembro del Miembro del Healthcare Data Innovation Council. Y del Consejo Académico de Fide y codirector de su Foro de Protección de Datos.

Linkedin