top of page

Colección de Políticas y Regulaciones sobre Inteligencia Artificial (IA):

Aquí puedes encontrar una colección de los recursos más útiles para profesionales del negocio de la IA, emprendedores de IA y empresas, sobre políticas de IA, leyes relacionadas con la IA y regulaciones de IA, para estar siempre al día en este tema sensible y en constante evolución.

Las políticas y leyes sobre IA son fundamentales para establecer directrices y regulaciones claras para el uso responsable de la inteligencia artificial, protegiendo los derechos individuales, la privacidad y los intereses sociales en un entorno de IA en rápida transformación.

AI for Humanity – French AI Strategy

France's national AI strategy focusing on research, data, and ethics to position the country as a leader in AI.

Italian Strategy for Artificial Intelligence 2024–2026

Italy's national strategy outlining initiatives to support the development of a national AI ecosystem, emphasizing transparency, accountability, and reliability.

Singapore – Model AI Governance Framework

Singapore’s Model AI Governance Framework (first released 2019, 2nd edition 2020) provides detailed, implementable guidance for organizations to address ethical and governance issues when deploying AIpdpc.gov.sg. By encouraging transparency, accountability, and stakeholder communication about AI systems, the framework aims to build public trust and ensure responsible AI innovation in the private sectorpdpc.gov.sg.

United States – AI.gov (National AI Initiative)

AI.gov is the official U.S. government portal for AI policies, research initiatives, and governance strategy. It is aimed at ensuring the United States leads in safe, secure, and trustworthy AI innovation while mitigating the risks of AI technologiesdigital.gov.

UNESCO – Recommendation on the Ethics of AI (2021)

<!--td {border: 1px solid #cccccc;}br {mso-data-placement:same-cell;}-->UNESCO’s Recommendation on the Ethics of Artificial Intelligence is the first global standard on AI ethics, adopted by 193 UNESCO member states in 2021unesco.org. It establishes common values and principles to ensure that AI development and use respect human rights, human dignity, and environmental sustainabilityunesco.org.

National AI policies & strategies

This section provides a live repository of over 1000 AI policy initiatives from 69 countries, territories and the EU. Click on a country/territory, a policy instrument or a group targeted by the policy. 

Brazilian Artificial Intelligence Plan 2024–2028

Comprehensive strategy aiming to position Brazil as a global leader in AI by promoting sustainable and socially-oriented technologies.

India – National Strategy for AI “AI for All” (2018)

India’s National Strategy for Artificial Intelligence (NSAI), dubbed “AI for All,” is a comprehensive roadmap for leveraging AI for inclusive growth and social goodindiaai.gov.in. Released in 2018 by NITI Aayog, it identifies priority sectors for AI adoption (healthcare, agriculture, education, smart cities, smart mobility) and addresses cross-cutting issues like privacy, security, ethics, fairness, transparency, and accountability in AI developmentindiaai.gov.in.

China – National AI Regulations (2021–2023)

China has implemented some of the world’s earliest detailed AI regulations, including rules on recommendation algorithms (2021), “deep synthesis” (deepfake content) services (2022), and generative AI services (2023)carnegieendowment.org. These measures require algorithmic transparency (e.g. filing algorithms in a registry), clear labeling of AI-generated content, and security assessments for high-risk AI, reflecting an emphasis on controlling risks and misinformationcarnegieendowment.org.

European Union – AI Act (2024)

The EU’s Artificial Intelligence Act (Regulation (EU) 2024/1689) is a comprehensive legal framework for AI, using a proportionate, risk-based approach to govern AI systemsdigital-strategy.ec.europa.eu. It sets harmonized rules for AI developers and deployers, aiming to ensure trustworthy, human-centric AI in Europe while fostering innovation and investment across the EUdigital-strategy.ec.europa.eu.

The AI Act Explorer

AI Act Explorer enables you to explore the contents of the proposed Act in an intuitive way, or search for parts that are most relevant to you. It contains the full Final Draft of the Artificial Intelligence Act as of 21st January 2024. It will continue to be updated with newer versions of the text. 

AI Policy Framework

A suggested framework from the Anthology Education and Research Center guides institutions in creating overarching and department-specific AI policies.


Spain 2024 Artificial Intelligence Strategy

Spain's updated AI strategy focusing on regulatory convergence, building on the Madrid Declaration, and promoting ethical AI development.

Canada – Artificial Intelligence and Data Act (proposed)

Canada’s proposed Artificial Intelligence and Data Act (AIDA, introduced 2022 in Bill C-27) would establish common requirements for the design, development, and use of AI systems and impose measures to mitigate risks of harm and biased outputcanada.ca. It also would create an AI and Data Commissioner to monitor compliance and enforce rules, and would prohibit harmful AI practices (such as using illegally obtained data or deploying AI recklessly causing serious harm) with penalties for violationscanada.cacanada.ca.

United Kingdom – AI Regulation White Paper (2023)

The UK’s A Pro-Innovation Approach to AI Regulation (White Paper, March 2023) outlines a context-driven, principles-based framework for AI governancegov.uk. It empowers sector regulators with flexibility to tailor AI rules, under five cross-cutting principles (such as safety, transparency, fairness, accountability, and contestability), to support innovation while building public trust in AIgov.uk.

Council of Europe – Framework Convention on AI (2024)

<!--td {border: 1px solid #cccccc;}br {mso-data-placement:same-cell;}-->The Council of Europe Framework Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law (adopted May 2024) is the first international legally binding treaty on AIcoe.int. Open for global signatories, it aims to ensure AI systems are developed and used in line with human rights, democracy, and the rule of law, while supporting technological innovationcoe.int.

AI National Conference of State Legislatures

This webpage covers key legislation related to AI issues generally. Legislation related solely to specific AI technologies, such as facial recognition or autonomous cars, is being tracked separately. 

OECD Digital Toolkit

The Going Digital Toolkit helps countries assess their state of digital development and formulate policies in response. Data exploration and visualisation are key features of the Toolkit.

Hoctagon AI Strategy framework  

Crafting Ethical, Future-Proof Strategies

Developing an AI strategy that endures the next wave of innovation means doing more than ticking a compliance box. It requires understanding the emerging global rule-book, mapping concrete risks to real-world uses, and embedding governance that can flex as technology evolves.

Why Regulating AI Became Urgent

Artificial intelligence is already diagnosing patients, screening job candidates, and shaping the news feeds that influence elections. When badly designed or poorly governed, those same systems can:

  • Amplify inequality – biased training data can lock disadvantaged groups out of opportunities.

  • Undermine democracy – deepfakes and micro-targeted disinformation erode trust in institutions.

  • Jeopardise safety – a self-optimising trading bot or autonomous vehicle can cause physical or financial harm at scale.

Existing laws on consumer protection or data privacy cover parts of the problem but leave dangerous gaps. Clear, consistent AI rules therefore serve three goals at once:

  1. Protect citizens by ensuring systems are safe, fair, and rights-respecting.

  2. Build public confidence so that people actually adopt helpful AI tools.

  3. Give businesses certainty to invest in responsible innovation instead of guessing what regulators might prohibit later.

 

Four Global Approaches to AI Governance

1. Risk-Based Frameworks

  • European Union – AI Act: classifies AI into unacceptable, high, limited-transparency, and minimal risk. Unacceptable uses (e.g., social scoring, exploitative manipulation) are banned outright; high-risk systems face strict design, testing, and monitoring duties.

  • Canada – AIDA Bill: mirrors the EU logic, scaling safety obligations to the danger a system poses.

  • National strategies in Spain and Italy slot neatly under the EU umbrella, ensuring alignment across member states.

2. Principles-First Models

  • United Kingdom: five non-statutory principles—Safety, Transparency, Fairness, Accountability, Contestability—are interpreted by existing sector regulators (health, finance, transport, etc.).

  • India adopts the FAT pillars (Fairness, Accountability, Transparency) inside its “Responsible AI” vision.

  • Singapore promotes its Model AI Governance Framework as a practical ethics playbook for companies.

3. Context-Specific Regulation

Instead of policing “AI” in the abstract, some regimes focus on outcomes within each application area. The UK, for example, lets the medical device regulator handle diagnostic algorithms while the transport authority oversees self-driving cars, ensuring expertise is applied where the risks materialise.

4. Technology-Specific Rules

China has issued granular regulations for recommendation algorithms, deep-synthesis content, and generative AI services, including mandatory watermarking and algorithm registration. This direct, tech-targeted style co-exists with broader ethical guidelines.

 

Key Risk Themes and the Principles That Counter Them

Safety, Security & Robustness

AI systems must perform reliably from design through deployment—and stay resilient to adversarial attacks or data drift. High-risk EU-classified systems demand documented risk assessments, cybersecurity safeguards, and accuracy testing. The UK’s National Cyber Security Centre offers machine-learning security guidelines that regulators encourage companies to adopt.

Transparency & Explainability

Users, regulators, and impacted individuals should understand when they are dealing with AI and how critical decisions are reached. Requirements range from chatbot disclosure banners to explainability reports for credit-scoring models. The EU’s AI Act also obliges providers to label AI-generated images and deepfakes.

Fairness & Non-Discrimination

To reduce algorithmic bias, high-risk EU systems must use high-quality, representative datasets. Many jurisdictions call for bias audits and fairness impact assessments.

Accountability & Governance

Clear lines of responsibility are vital in a supply chain where a data supplier, model developer, cloud host, and downstream deployer all play a role. The EU splits duties between “providers” (who build or fine-tune models) and “users” (who integrate them). Canada’s AIDA similarly mandates governance programs and senior accountability.

Contestability & Redress

When AI decisions affect housing, employment, or credit, individuals need a route to challenge errors. Regulators urge companies to create human review processes and publish appeals channels.

Human Rights & Societal Values

Many frameworks explicitly reference privacy, dignity, freedom of expression, and democratic integrity. Spain’s new AI agency (AESIA) has a remit to guard these values as it enforces rules and issues certifications.

 

From Principle to Practice: Who Does What?

Governments

  • Set the legal architecture, define risk tiers, and coordinate national AI strategies.

  • Run horizon-scanning units to spot novel risks (e.g., bio-threat design via large models).

  • Fund sandboxes and testbeds where companies can trial cutting-edge systems under supervisory oversight.

Regulators

  • Translate broad principles into sector rules (e.g., medical AI must meet clinical safety standards).

  • Issue joint guidance to avoid conflicting demands across industries.

  • Monitor compliance and levy penalties when duties are breached.

Businesses

  • Embed AI governance frameworks—appoint accountable executives, document model lifecycles, and track post-deployment performance.

  • Conduct risk assessments and bias audits before launch, repeating them when data or context changes.

  • Use assurance tools: model cards, model interpretability tests, red-team exercises, and third-party audits.

The Toolkit for Trustworthy AI

  • International technical standards (ISO/IEC, IEEE) offer benchmark controls for quality, safety, and security.

  • Impact assessments evaluate legal, ethical, and societal consequences.

  • Certification labels signal compliance to customers and regulators.

 

Designing Strategies That Survive the Next Tech Wave

  1. Regulate functions, not buzzwords
    Define covered systems by features such as autonomy and adaptivity rather than naming specific algorithms that could be obsolete in a year.

  2. Stay adaptable
    Build periodic reviews and sunset clauses into legislation so that obligations can update as capabilities leap forward.

  3. Invest in horizon scanning
    Dedicated foresight teams (like Spain’s AESIA) watch emerging trends—quantum-accelerated training, agentic AI, neuro-symbolic models—and propose policy tweaks before risks crystallise.

  4. Lean on principles when prescriptions lag
    High-level values (safety, fairness, accountability) give regulators and companies a compass when novel use cases fall outside existing checklists.

  5. Encourage international interoperability
    Aligning with EU, OECD, and ISO standards reduces fragmentation, lowers compliance costs, and prevents a race to the bottom.

 

Putting It All Together

A robust, future-proof AI strategy blends risk-tiered rules with principle-driven guidance. It allocates accountability along the supply chain, arms regulators with domain expertise, and equips businesses with practical assurance tools. Critically, it remains living policy—updated through continual monitoring and global collaboration—to keep pace with AI’s relentless evolution while safeguarding human rights, societal values, and public trust.

Navegando el Panorama Global de Políticas y Regulaciones sobre la IA

La Inteligencia Artificial (IA) está transformando economías, gobiernos y sociedades a una velocidad sin precedentes. A medida que crece su influencia, también lo hace la urgencia de una gobernanza que equilibre la innovación con el interés público. En todo el mundo, los gobiernos están diseñando marcos normativos que reflejan sus prioridades, tradiciones jurídicas y valores sociales. Estos enfoques varían ampliamente, desde estrategias basadas en principios hasta regulaciones detalladas y vinculantes. Comprender estas aproximaciones es clave para navegar el futuro del desarrollo y despliegue de la IA.

Exploremos algunos de los esfuerzos regulatorios y estratégicos más destacados a nivel mundial.

 

🇺🇸 Estados Unidos: Liderazgo impulsado por la innovación y gobernanza en evolución

Estados Unidos es líder global en innovación, investigación y comercialización de IA, situándose constantemente entre los primeros puestos del Global AI Index junto a China y el Reino Unido. Su estrategia está moldeada por un fuerte sector privado, instituciones académicas de primer nivel y un ecosistema digital centrado en hubs de innovación como Silicon Valley, Seattle, Boston y Nueva York.

A diferencia del enfoque regulatorio integral de la UE, EE. UU. ha adoptado históricamente una postura más descentralizada y orientada al mercado. Sin embargo, los cambios recientes indican un impulso creciente hacia la formalización de estructuras de supervisión.

Fundamentos Estratégicos

El país publicó su primer documento estratégico sobre IA en 2016, identificando prioridades nacionales como:

  • Competitividad económica y generación de empleo,

  • Ampliación del acceso a la educación,

  • Mejora de la calidad de vida, y

  • Refuerzo de la seguridad nacional y doméstica.

Las agencias federales han tenido un papel activo en el desarrollo de la IA. Por ejemplo, el Departamento de Defensa invirtió más de $2.4 mil millones en tecnologías de IA en 2017, el doble que en 2015. Otros organismos como los Departamentos de Agricultura, Asuntos de Veteranos y Seguridad Nacional también han contribuido.

Dominio del sector privado y la investigación

El sector privado lidera gran parte del avance en IA, con gigantes tecnológicos como Google, Microsoft, Amazon e IBM encabezando la investigación y la implementación empresarial. Esto se complementa con universidades que han desarrollado herramientas y datasets fundamentales como ImageNet (Princeton) y SQuAD (Stanford).

El National Science and Technology Council supervisa la planificación nacional de la IA, y las inversiones federales en educación STEM y desarrollo de talento incluyen una subvención pública propuesta de $200 millones, igualada por $300 millones en apoyo del sector privado.

Perspectiva regulatoria y participación internacional

Aunque EE. UU. ha ido por detrás de la UE en legislación formal, comienza a abordar la gobernanza de manera más directa. Una reciente Orden Ejecutiva establece objetivos para garantizar que los sistemas de IA sean seguros, confiables y transparentes, marcando un giro hacia una supervisión estructurada.

A nivel internacional, participa activamente en foros multilaterales como la OCDE y el G7, y colabora en iniciativas de seguridad de IA, incluidas alianzas con el UK AI Safety Institute.

Desafíos y trayectoria

Pese a su liderazgo tecnológico, EE. UU. ha sido criticado por su lentitud en establecer marcos regulatorios, dejando espacio a países como China para adoptar políticas más agresivas. Sin embargo, esto también refleja su preferencia por una gobernanza impulsada por la innovación y un ecosistema competitivo y descentralizado.

A medida que aumentan los debates sobre una IA responsable, se espera que EE. UU. desempeñe un papel central en la definición de normas globales, especialmente en ciencia abierta, valores democráticos y estándares técnicos.

 

🇬🇧 Reino Unido: Un enfoque pro-innovación basado en principios

El Reino Unido se ha posicionado como una futura potencia en IA mediante un modelo regulatorio flexible, centrado en la innovación. Liberado de las obligaciones normativas de la UE, el país busca construir un marco no vinculante, específico al contexto, basado en cinco principios clave: seguridad, transparencia, equidad, responsabilidad y posibilidad de impugnación.

En lugar de imponer legislación amplia, el Reino Unido prioriza directrices para reguladores sectoriales. La retroalimentación de las partes interesadas ha refinado el marco, integrando temas como robustez y fusión entre seguridad y protección. Aunque los derechos humanos y la sostenibilidad no son principios explícitos, se espera el cumplimiento de la legislación nacional e internacional existente.

El gobierno planea establecer funciones transversales como vigilancia prospectiva, monitoreo de riesgos de IA y espacios de prueba regulatorios para fomentar la innovación, especialmente en startups y pymes. La alineación internacional es una prioridad para garantizar la interoperabilidad y la influencia global.

 

🇪🇺 Unión Europea: Regulación vinculante basada en riesgos

La UE ha dado un paso histórico con la AI Act, la primera regulación integral de IA en el mundo. Este marco legal utiliza un enfoque por niveles de riesgo, clasificando los sistemas de IA como de riesgo inaceptable, alto, limitado o mínimo, con obligaciones correspondientes.

Los sistemas de alto riesgo—como los que afectan la identificación biométrica o el acceso a la educación—deben cumplir estrictos requisitos en transparencia, gobernanza de datos y supervisión humana. Las aplicaciones prohibidas incluyen el scoring social y ciertos tipos de vigilancia.

La fase de implementación contempla la creación de sandboxes regulatorios nacionales y la operativización de la nueva Oficina de IA de la UE, encargada de la coordinación transfronteriza y el cumplimiento. Esta ley marca un cambio radical en la gobernanza digital, buscando equilibrar el liderazgo tecnológico con la protección de los derechos fundamentales.

 

🇨🇳 China: Control específico y orientado a la aplicación

China ha liderado la regulación de aplicaciones concretas de la IA, enfocándose en áreas como algoritmos de recomendación, síntesis profunda (deepfakes) e IA generativa. En lugar de principios generales, aplica mandatos técnicos y operativos específicos.

Requisitos clave incluyen:

  • Registro obligatorio de algoritmos,

  • Etiquetado de contenido sintético,

  • Registro de usuarios con nombre real,

  • Veracidad y precisión de los datasets,

  • Alineación con los "valores predominantes".

Estas normas reflejan prioridades como la estabilidad social, el control del contenido y la soberanía tecnológica. El enfoque es vertical, de rápida evolución y orientado a resultados, en marcado contraste con los modelos liberales-democráticos de Occidente.

 

🇪🇸 España: Institucionalizando la confianza a través de AESIA

La Estrategia de IA 2024 de España destaca por crear AESIA, la primera agencia europea dedicada exclusivamente a la supervisión de la IA. AESIA actúa como regulador e impulsor de la innovación—monitoreando tendencias, evaluando sistemas y guiando el desarrollo responsable.

Prioridades clave incluyen:

  • Fomentar una IA confiable, sostenible y transparente,

  • Desarrollar modelos fundacionales en español (ALIA),

  • Apoyar a las pymes en la adopción de IA,

  • Abordar la huella energética de la IA,

  • Lanzar iniciativas políticas como una posible ley de ciberseguridad para IA.

Con esta institucionalización, España busca convertirse en un referente global en gobernanza ética y centrada en las personas.

 

🇮🇹 Italia: Estrategia multidimensional para el liderazgo nacional

La Estrategia de IA 2024–2026 de Italia apunta a fortalecer su rol internacional integrando la IA en cuatro pilares: investigación, administración pública, industria y educación.

Aspectos destacados:

  • Ampliar programas de investigación básica y aplicada,

  • Usar IA para modernizar servicios públicos, mejorar datos y reducir sesgos,

  • Apoyar a las pymes para innovar con IA de forma sostenible,

  • Lanzar programas de alfabetización en IA y mejora de competencias laborales.

La estrategia se alinea con la AI Act de la UE e introduce herramientas como un registro nacional de datasets y modelos. Su implementación estará a cargo de una Fundación para la IA que garantizará coherencia estratégica y seguimiento a largo plazo.

 

🇮🇳 India: #AIforAll e innovación inclusiva

La estrategia #AIforAll de India refleja su compromiso con una IA inclusiva y socialmente beneficiosa. Con una visión de "ventaja del rezagado", el país adapta la IA a prioridades nacionales como agricultura, salud, educación y diversidad lingüística—para luego escalar estos modelos al Sur Global.

Pilares estratégicos:

  • Crear Centros de Excelencia en Investigación (COREs),

  • Establecer marcos de privacidad y acceso a datos,

  • Lanzar el National AI Marketplace (NAIM) para compartir datos y modelos,

  • Promover una IA explicable y responsable.

India busca equilibrar crecimiento económico con ética digital, posicionándose como un hub global de desarrollo responsable de IA en economías emergentes.

 

Otros esfuerzos destacados

🇸🇬 Singapur: Ofrece un detallado Marco de Gobernanza de IA con énfasis en gestión de riesgos, equidad y explicabilidad.

🇫🇷 Francia: Se centra en el desarrollo soberano de IA y una gobernanza ética, con fuerte apoyo a la investigación pública y las startups.

🌐 OCDE y UNESCO: Proveen marcos globales y repositorios (como OECD.AI y la Recomendación de Ética de la IA de la UNESCO) para coordinar políticas y alinear valores éticos.

 

Conclusiones clave sobre la regulación global de la IA

Se destacan varias ideas comunes entre las estrategias nacionales y regionales:

  • Equilibrio entre innovación y confianza: La mayoría de los países buscan fomentar la innovación sin descuidar las garantías para generar confianza pública.

  • Los datos como piedra angular: El acceso justo, seguro y abierto a datos es fundamental en todos los modelos regulatorios.

  • Importancia de los estándares técnicos: Son clave para convertir principios abstractos en normas aplicables sobre transparencia, equidad y gobernanza.

  • Experimentación mediante sandboxes: Permiten probar aplicaciones de IA en entornos controlados, favoreciendo la innovación responsable.

  • Capacidad institucional: Muchos países refuerzan la coordinación interinstitucional e invierten en habilidades técnicas para la supervisión pública.

  • Participación pública y alfabetización en IA: Educar a ciudadanos y actores clave es esencial para una adopción amplia y ética.

 

Conclusión

El panorama global de gobernanza de la IA es dinámico y multifacético. Desde el modelo flexible del Reino Unido, pasando por la regulación vinculante de la UE, el control aplicado de China, la supervisión institucional de España, la estrategia integral de Italia y la visión inclusiva de India, cada enfoque ofrece lecciones valiosas.

A medida que la IA se integra en todos los sectores, la colaboración internacional y el intercambio de buenas prácticas serán fundamentales. El futuro de la gobernanza de la IA debe ser cooperativo, adaptativo y guiado por un compromiso compartido con la innovación, la seguridad y la equidad.

bottom of page