top of page

Collection sur les Politiques et Réglementations de l’IA

Vous trouverez ici une collection des ressources les plus utiles pour les professionnels du business en IA, les entrepreneurs en intelligence artificielle et les entreprises, portant sur les politiques publiques, les lois liées à l’IA et les réglementations, afin de rester constamment informés sur ce sujet sensible et en constante évolution.

Importance des politiques et lois en matière d’IA

Les politiques et les lois sur l’IA sont essentielles pour établir des lignes directrices et des cadres réglementaires clairs en vue d’un usage responsable de l’intelligence artificielle, tout en protégeant les droits individuels, la vie privée et les intérêts de la société dans un contexte technologique en rapide transformation.

AI for Humanity – French AI Strategy

France's national AI strategy focusing on research, data, and ethics to position the country as a leader in AI.

Italian Strategy for Artificial Intelligence 2024–2026

Italy's national strategy outlining initiatives to support the development of a national AI ecosystem, emphasizing transparency, accountability, and reliability.

Singapore – Model AI Governance Framework

Singapore’s Model AI Governance Framework (first released 2019, 2nd edition 2020) provides detailed, implementable guidance for organizations to address ethical and governance issues when deploying AIpdpc.gov.sg. By encouraging transparency, accountability, and stakeholder communication about AI systems, the framework aims to build public trust and ensure responsible AI innovation in the private sectorpdpc.gov.sg.

United States – AI.gov (National AI Initiative)

AI.gov is the official U.S. government portal for AI policies, research initiatives, and governance strategy. It is aimed at ensuring the United States leads in safe, secure, and trustworthy AI innovation while mitigating the risks of AI technologiesdigital.gov.

UNESCO – Recommendation on the Ethics of AI (2021)

<!--td {border: 1px solid #cccccc;}br {mso-data-placement:same-cell;}-->UNESCO’s Recommendation on the Ethics of Artificial Intelligence is the first global standard on AI ethics, adopted by 193 UNESCO member states in 2021unesco.org. It establishes common values and principles to ensure that AI development and use respect human rights, human dignity, and environmental sustainabilityunesco.org.

National AI policies & strategies

This section provides a live repository of over 1000 AI policy initiatives from 69 countries, territories and the EU. Click on a country/territory, a policy instrument or a group targeted by the policy. 

Brazilian Artificial Intelligence Plan 2024–2028

Comprehensive strategy aiming to position Brazil as a global leader in AI by promoting sustainable and socially-oriented technologies.

India – National Strategy for AI “AI for All” (2018)

India’s National Strategy for Artificial Intelligence (NSAI), dubbed “AI for All,” is a comprehensive roadmap for leveraging AI for inclusive growth and social goodindiaai.gov.in. Released in 2018 by NITI Aayog, it identifies priority sectors for AI adoption (healthcare, agriculture, education, smart cities, smart mobility) and addresses cross-cutting issues like privacy, security, ethics, fairness, transparency, and accountability in AI developmentindiaai.gov.in.

China – National AI Regulations (2021–2023)

China has implemented some of the world’s earliest detailed AI regulations, including rules on recommendation algorithms (2021), “deep synthesis” (deepfake content) services (2022), and generative AI services (2023)carnegieendowment.org. These measures require algorithmic transparency (e.g. filing algorithms in a registry), clear labeling of AI-generated content, and security assessments for high-risk AI, reflecting an emphasis on controlling risks and misinformationcarnegieendowment.org.

European Union – AI Act (2024)

The EU’s Artificial Intelligence Act (Regulation (EU) 2024/1689) is a comprehensive legal framework for AI, using a proportionate, risk-based approach to govern AI systemsdigital-strategy.ec.europa.eu. It sets harmonized rules for AI developers and deployers, aiming to ensure trustworthy, human-centric AI in Europe while fostering innovation and investment across the EUdigital-strategy.ec.europa.eu.

The AI Act Explorer

AI Act Explorer enables you to explore the contents of the proposed Act in an intuitive way, or search for parts that are most relevant to you. It contains the full Final Draft of the Artificial Intelligence Act as of 21st January 2024. It will continue to be updated with newer versions of the text. 

AI Policy Framework

A suggested framework from the Anthology Education and Research Center guides institutions in creating overarching and department-specific AI policies.


Spain 2024 Artificial Intelligence Strategy

Spain's updated AI strategy focusing on regulatory convergence, building on the Madrid Declaration, and promoting ethical AI development.

Canada – Artificial Intelligence and Data Act (proposed)

Canada’s proposed Artificial Intelligence and Data Act (AIDA, introduced 2022 in Bill C-27) would establish common requirements for the design, development, and use of AI systems and impose measures to mitigate risks of harm and biased outputcanada.ca. It also would create an AI and Data Commissioner to monitor compliance and enforce rules, and would prohibit harmful AI practices (such as using illegally obtained data or deploying AI recklessly causing serious harm) with penalties for violationscanada.cacanada.ca.

United Kingdom – AI Regulation White Paper (2023)

The UK’s A Pro-Innovation Approach to AI Regulation (White Paper, March 2023) outlines a context-driven, principles-based framework for AI governancegov.uk. It empowers sector regulators with flexibility to tailor AI rules, under five cross-cutting principles (such as safety, transparency, fairness, accountability, and contestability), to support innovation while building public trust in AIgov.uk.

Council of Europe – Framework Convention on AI (2024)

<!--td {border: 1px solid #cccccc;}br {mso-data-placement:same-cell;}-->The Council of Europe Framework Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law (adopted May 2024) is the first international legally binding treaty on AIcoe.int. Open for global signatories, it aims to ensure AI systems are developed and used in line with human rights, democracy, and the rule of law, while supporting technological innovationcoe.int.

AI National Conference of State Legislatures

This webpage covers key legislation related to AI issues generally. Legislation related solely to specific AI technologies, such as facial recognition or autonomous cars, is being tracked separately. 

OECD Digital Toolkit

The Going Digital Toolkit helps countries assess their state of digital development and formulate policies in response. Data exploration and visualisation are key features of the Toolkit.

Crafting Ethical, Future-Proof Strategies

Developing an AI strategy that endures the next wave of innovation means doing more than ticking a compliance box. It requires understanding the emerging global rule-book, mapping concrete risks to real-world uses, and embedding governance that can flex as technology evolves.

Why Regulating AI Became Urgent

Artificial intelligence is already diagnosing patients, screening job candidates, and shaping the news feeds that influence elections. When badly designed or poorly governed, those same systems can:

  • Amplify inequality – biased training data can lock disadvantaged groups out of opportunities.

  • Undermine democracy – deepfakes and micro-targeted disinformation erode trust in institutions.

  • Jeopardise safety – a self-optimising trading bot or autonomous vehicle can cause physical or financial harm at scale.

Existing laws on consumer protection or data privacy cover parts of the problem but leave dangerous gaps. Clear, consistent AI rules therefore serve three goals at once:

  1. Protect citizens by ensuring systems are safe, fair, and rights-respecting.

  2. Build public confidence so that people actually adopt helpful AI tools.

  3. Give businesses certainty to invest in responsible innovation instead of guessing what regulators might prohibit later.

 

Four Global Approaches to AI Governance

1. Risk-Based Frameworks

  • European Union – AI Act: classifies AI into unacceptable, high, limited-transparency, and minimal risk. Unacceptable uses (e.g., social scoring, exploitative manipulation) are banned outright; high-risk systems face strict design, testing, and monitoring duties.

  • Canada – AIDA Bill: mirrors the EU logic, scaling safety obligations to the danger a system poses.

  • National strategies in Spain and Italy slot neatly under the EU umbrella, ensuring alignment across member states.

2. Principles-First Models

  • United Kingdom: five non-statutory principles—Safety, Transparency, Fairness, Accountability, Contestability—are interpreted by existing sector regulators (health, finance, transport, etc.).

  • India adopts the FAT pillars (Fairness, Accountability, Transparency) inside its “Responsible AI” vision.

  • Singapore promotes its Model AI Governance Framework as a practical ethics playbook for companies.

3. Context-Specific Regulation

Instead of policing “AI” in the abstract, some regimes focus on outcomes within each application area. The UK, for example, lets the medical device regulator handle diagnostic algorithms while the transport authority oversees self-driving cars, ensuring expertise is applied where the risks materialise.

4. Technology-Specific Rules

China has issued granular regulations for recommendation algorithms, deep-synthesis content, and generative AI services, including mandatory watermarking and algorithm registration. This direct, tech-targeted style co-exists with broader ethical guidelines.

 

Key Risk Themes and the Principles That Counter Them

Safety, Security & Robustness

AI systems must perform reliably from design through deployment—and stay resilient to adversarial attacks or data drift. High-risk EU-classified systems demand documented risk assessments, cybersecurity safeguards, and accuracy testing. The UK’s National Cyber Security Centre offers machine-learning security guidelines that regulators encourage companies to adopt.

Transparency & Explainability

Users, regulators, and impacted individuals should understand when they are dealing with AI and how critical decisions are reached. Requirements range from chatbot disclosure banners to explainability reports for credit-scoring models. The EU’s AI Act also obliges providers to label AI-generated images and deepfakes.

Fairness & Non-Discrimination

To reduce algorithmic bias, high-risk EU systems must use high-quality, representative datasets. Many jurisdictions call for bias audits and fairness impact assessments.

Accountability & Governance

Clear lines of responsibility are vital in a supply chain where a data supplier, model developer, cloud host, and downstream deployer all play a role. The EU splits duties between “providers” (who build or fine-tune models) and “users” (who integrate them). Canada’s AIDA similarly mandates governance programs and senior accountability.

Contestability & Redress

When AI decisions affect housing, employment, or credit, individuals need a route to challenge errors. Regulators urge companies to create human review processes and publish appeals channels.

Human Rights & Societal Values

Many frameworks explicitly reference privacy, dignity, freedom of expression, and democratic integrity. Spain’s new AI agency (AESIA) has a remit to guard these values as it enforces rules and issues certifications.

 

From Principle to Practice: Who Does What?

Governments

  • Set the legal architecture, define risk tiers, and coordinate national AI strategies.

  • Run horizon-scanning units to spot novel risks (e.g., bio-threat design via large models).

  • Fund sandboxes and testbeds where companies can trial cutting-edge systems under supervisory oversight.

Regulators

  • Translate broad principles into sector rules (e.g., medical AI must meet clinical safety standards).

  • Issue joint guidance to avoid conflicting demands across industries.

  • Monitor compliance and levy penalties when duties are breached.

Businesses

  • Embed AI governance frameworks—appoint accountable executives, document model lifecycles, and track post-deployment performance.

  • Conduct risk assessments and bias audits before launch, repeating them when data or context changes.

  • Use assurance tools: model cards, model interpretability tests, red-team exercises, and third-party audits.

Hoctagon 8-Point AI Strategy Framework Every Company Can Adopt

1. Anchor Your AI Vision to Ethical Principles

Define a clear purpose for AI that serves people, profit and planet. Ground it in universal values—human rights, fairness, transparency, and sustainability—and ensure the board formally endorses these principles.

Key actions

  • Publish an AI Code of Conduct that echoes global norms (OECD, EU AI Act, NIST RMF) and your core brand values.

  • Create an executive-level AI Steering Committee with authority to veto any initiative that violates the code.

2. Implement Risk-Tiered Governance & Compliance

Catalogue every AI system, classify it by impact (minimal, limited, high, critical) and match controls to risk.

Key actions

  • Maintain an enterprise AI inventory with owner, use case, data sources, and risk tier.

  • Embed legal checkpoints—privacy, IP, safety—and map them to ISO/IEC 42001 or equivalent certification pathways.

  • Require third-party audits for high-risk or safety-critical models.

3. Champion Data Stewardship & Privacy-by-Design

Trustworthy AI begins with trustworthy data.

Key actions

  • Establish data-governance councils covering quality, lineage, minimisation, and consent.

  • Adopt differential privacy, federated learning, or synthetic data where raw data use threatens privacy.

  • Give users clear, revocable data-control options and publish data-handling transparency reports.

4. Design Human-Centric & Inclusive Systems

Build AI that extends human capability and works for everyone.

Key actions

  • Run inclusive design workshops and bias-impact assessments before writing code.

  • Invite diverse user groups for participatory testing; document remediations.

  • Embed “human-in-the-loop” or “human-on-the-loop” controls for any high-stakes decision.

5. Engineer for Robustness, Security & Safety

Resilience must be baked into models, pipelines and infrastructure.

Key actions

  • Stress-test models against adversarial, out-of-distribution and poisoning attacks.

  • Implement real-time monitoring for data drift and anomalous outputs; trigger automatic rollback or safe-mode.

  • Maintain incident-response playbooks with defined escalation paths and 24/7 availability.

6. Commit to Transparency & Explainability

People deserve to understand how AI affects them.

Key actions

  • Produce model cards, data sheets and system logs for every deployed solution.

  • Display clear AI disclosures (“You are interacting with an AI system…”) and explain decisions in plain language when rights are at stake.

  • Share annual AI impact reports covering accuracy, bias metrics, incidents, and corrective actions.

7. Cultivate Talent, Culture & Continuous Learning

A responsible AI programme hinges on skilled, ethically minded people.

Key actions

  • Integrate AI-ethics modules into onboarding and leadership courses.

  • Offer cross-functional upskilling (engineers learn ethics; compliance teams learn ML basics).

  • Reward teams for surfacing risks early and for shipping inclusive, sustainable solutions—not just speed.

8. Monitor, Iterate & Future-Proof

AI strategies must evolve as technology and regulation change.

Key actions

  • Schedule quarterly model-performance and risk-register reviews.

  • Run annual horizon-scanning workshops to spot new threats (e.g., agentic AI, quantum attacks).

  • Build a sunset/upgrade roadmap so legacy models are retired or retrained before they drift out of compliance.

Adopting this eight-point framework ensures your organisation’s AI efforts remain ethical, resilient and future-ready—turning intelligent technology into a lasting competitive and societal advantage.

n logo simple 2_edited_edited_edited_edi
n logo simple 2_edited_edited_edited_edi
n logo simple 2_edited_edited_edited_edi

Naviguer dans le paysage mondial des politiques et réglementations en matière d’IA

L’intelligence artificielle (IA) transforme les économies, les gouvernements et les sociétés à un rythme sans précédent. À mesure que son influence s’accroît, le besoin de gouvernance capable d’équilibrer innovation et intérêt public devient plus pressant. Partout dans le monde, les gouvernements élaborent des cadres politiques qui reflètent leurs priorités, traditions juridiques et valeurs sociétales. Ces approches varient considérablement, allant de stratégies basées sur des principes à des réglementations détaillées et contraignantes. Comprendre ces modèles est essentiel pour anticiper l’avenir du développement et du déploiement de l’IA.

Explorons quelques-unes des initiatives réglementaires et stratégiques les plus marquantes à l’échelle mondiale.

 

🇺🇸 États-Unis : Un leadership axé sur l’innovation et une gouvernance en évolution

Les États-Unis sont un leader mondial en matière d’innovation, de recherche et de commercialisation de l’IA, figurant régulièrement parmi les premières nations de l’Indice mondial de l’IA aux côtés de la Chine et du Royaume-Uni. Leur stratégie en IA repose sur un secteur privé dynamique, des institutions de recherche de renommée mondiale et un écosystème numérique centré sur des pôles d’innovation comme la Silicon Valley, Seattle, Boston et New York.

Contrairement à l’approche réglementaire exhaustive de l’UE, les États-Unis ont historiquement adopté une gouvernance de l’IA davantage axée sur le marché et décentralisée. Cependant, des évolutions récentes indiquent une volonté croissante de formaliser des structures de supervision.

Fondements stratégiques

Les États-Unis ont publié leur première stratégie nationale sur l’IA en 2016, identifiant les priorités suivantes :

  • Compétitivité économique et création d’emplois

  • Amélioration de l’accès à l’éducation

  • Qualité de vie

  • Sécurité nationale et intérieure

Des agences fédérales telles que le Département de la Défense (DoD) ont fortement investi dans l’IA (plus de 2,4 milliards $ en 2017, soit le double de 2015), aux côtés des départements de l’Agriculture, des Anciens Combattants et de la Sécurité intérieure.

Recherche et domination du secteur privé

Le secteur privé américain joue un rôle moteur dans le développement de l’IA, avec des acteurs majeurs comme Google, Microsoft, Amazon et IBM en tête de la recherche et de l’implémentation à l’échelle mondiale. Les institutions académiques complètent cet effort avec des contributions fondamentales comme ImageNet (Princeton) et SQuAD (Stanford).

Le National Science and Technology Council supervise la planification nationale de l’IA. Des investissements fédéraux dans l’éducation STEM et la formation des talents incluent une subvention publique de 200 millions $, complétée par 300 millions $ du secteur privé.

Perspective réglementaire et engagement international

Bien que les États-Unis aient été plus lents que l’UE à adopter des lois formelles sur l’IA, ils commencent à aborder la gouvernance de manière plus structurée. Un récent décret présidentiel définit des objectifs pour garantir la sécurité, la fiabilité et la transparence des systèmes d’IA.

Sur le plan international, les États-Unis participent activement à des forums comme l’OCDE et le G7, et collaborent à des initiatives de sécurité, notamment avec le UK AI Safety Institute.

Défis et trajectoire

Malgré leur avance technologique, les États-Unis sont critiqués pour leur lenteur à mettre en place un cadre réglementaire, laissant un vide comblé par des pays comme la Chine. Cela reflète toutefois une préférence pour une gouvernance favorisant l’innovation dans un écosystème concurrentiel et décentralisé.

À mesure que les débats sur une IA responsable progressent, les États-Unis devraient jouer un rôle central dans l’élaboration des normes mondiales, notamment en matière de science ouverte, de valeurs démocratiques et de standards techniques.

 

🇬🇧 Royaume-Uni : Une approche fondée sur les principes et l’innovation

Le Royaume-Uni s’est positionné comme une future puissance de l’IA grâce à un modèle réglementaire souple et favorable à l’innovation. Libéré des obligations réglementaires de l’UE, il développe un cadre non contraignant et spécifique au contexte, fondé sur cinq principes clés : sécurité, transparence, équité, responsabilité et contestabilité.

Plutôt que d’imposer une législation uniforme, le Royaume-Uni mise sur des recommandations sectorielles. Les retours des parties prenantes ont permis d’enrichir le cadre en intégrant des thématiques comme la robustesse et la convergence entre sécurité et cybersécurité.

Le gouvernement prévoit de mettre en place des fonctions transversales comme la veille stratégique, la surveillance des risques liés à l’IA et les regulatory sandboxes pour favoriser l’innovation, en particulier pour les startups et PME. L’alignement international est une priorité pour assurer l’interopérabilité et l’influence globale.

 

🇪🇺 Union européenne : Une régulation contraignante fondée sur les risques

L’UE a franchi une étape historique avec l’AI Act, première régulation complète de l’IA dans le monde. Ce cadre juridique repose sur une classification par niveau de risque : inacceptable, élevé, limité ou minimal, avec des obligations adaptées.

Les systèmes à haut risque—comme ceux utilisés pour l’identification biométrique ou l’accès à l’éducation—doivent répondre à des exigences strictes en matière de transparence, de gouvernance des données et de supervision humaine. Certaines applications, comme le scoring social, sont interdites.

La mise en œuvre inclut la création de sandboxes nationaux et le déploiement de l’Office européen de l’IA, chargé de la coordination transfrontalière. Cette législation marque une évolution majeure de la gouvernance numérique, visant à concilier leadership technologique et protection des droits fondamentaux.

 

🇨🇳 Chine : Contrôle ciblé et spécifique aux applications

La Chine est pionnière dans la régulation ciblée d’applications précises de l’IA, telles que les algorithmes de recommandation, les deepfakes et l’IA générative. Contrairement aux approches fondées sur des principes, elle impose des exigences techniques et opérationnelles concrètes.

Parmi les obligations principales :

  • Enregistrement des algorithmes dans un registre national

  • Étiquetage du contenu synthétique

  • Inscription des utilisateurs sous leur vrai nom

  • Exactitude et véracité des jeux de données

  • Conformité aux « valeurs dominantes » officielles

Ces règles reflètent les priorités chinoises en matière de stabilité sociale, de contrôle de contenu et de souveraineté technologique. L’approche est centralisée, rapide et axée sur les résultats, contrastant fortement avec les modèles démocratiques occidentaux.

 

🇪🇸 Espagne : Institutionnaliser la confiance grâce à l’AESIA

La stratégie espagnole en matière d’IA pour 2024 se distingue par la création de l’AESIA, première agence européenne dédiée à la supervision de l’IA. Elle agit comme organe de régulation et moteur d’innovation, en surveillant les tendances, en évaluant les systèmes et en guidant un développement responsable.

Les priorités incluent :

  • Promouvoir une IA fiable, durable et transparente

  • Développer des modèles fondamentaux en espagnol (ALIA)

  • Soutenir l’adoption de l’IA par les PME

  • Réduire l’empreinte énergétique de l’IA

  • Lancer des politiques telles qu’une potentielle loi sur la cybersécurité de l’IA

Avec une gouvernance dédiée, l’Espagne affirme son ambition de devenir un modèle mondial en matière de supervision éthique et centrée sur l’humain.

 

🇮🇹 Italie : Une stratégie multidimensionnelle pour le leadership national

La stratégie italienne pour l’IA (2024–2026) vise à renforcer son rôle international à travers quatre piliers : la recherche, l’administration publique, l’industrie et l’éducation.

Les mesures clés comprennent :

  • Le renforcement des programmes de recherche fondamentale et appliquée

  • L’usage de l’IA pour moderniser les services publics, améliorer la qualité des données et réduire les biais

  • Le soutien à l’adoption de l’IA par les PME pour favoriser innovation et durabilité

  • Le lancement de programmes d’alphabétisation à l’IA et de formation des compétences

Alignée avec l’AI Act européen, la stratégie introduit des outils comme un registre national des jeux de données et des modèles. Elle sera pilotée par une Fondation dédiée à l’IA assurant cohérence stratégique et suivi à long terme.

 

🇮🇳 Inde : #AIforAll et innovation inclusive

La stratégie indienne #AIforAll reflète un engagement en faveur d’une IA inclusive et socialement bénéfique. Présentée comme une « opportunité du retardataire », l’approche vise à adapter l’IA aux priorités nationales—agriculture, santé, éducation, diversité linguistique—avant de l’étendre au Sud global.

Ses piliers stratégiques comprennent :

  • La création de Centres d’Excellence en Recherche (COREs)

  • La mise en place de cadres d’accès aux données et de protection de la vie privée

  • Le lancement du National AI Marketplace (NAIM) pour le partage de données et de modèles

  • La promotion d’une IA explicable et responsable

L’Inde cherche à concilier croissance économique et éthique numérique, en visant un rôle de référence mondiale pour le développement responsable dans les économies émergentes.

 

Autres initiatives notables

🇸🇬 Singapour : Propose un cadre détaillé de gouvernance de l’IA avec un accent sur la gestion des risques, l’équité et la transparence.

🇫🇷 France : Met l’accent sur le développement souverain de l’IA et la gouvernance éthique, avec un fort soutien à la recherche publique et aux startups.

🌐 OCDE et UNESCO : Fournissent des cadres internationaux et des plateformes (comme OECD.AI ou la Recommandation sur l’éthique de l’IA de l’UNESCO) pour la coordination des politiques et l’harmonisation des principes éthiques.

 

Enseignements clés des approches internationales en matière d’IA

Plusieurs points transversaux se dégagent des stratégies nationales et régionales :

  • Équilibrer innovation et confiance : La plupart des pays cherchent à encourager l’innovation tout en assurant la protection du public.

  • Les données comme fondement : L’accès équitable, sécurisé et fiable aux données est essentiel dans tous les modèles.

  • Importance des standards techniques : Ils permettent de traduire les principes généraux en normes applicables.

  • Innovation contrôlée grâce aux sandboxes : Les regulatory sandboxes permettent de tester l’IA dans des environnements contrôlés.

  • Renforcement des capacités institutionnelles : Coordination inter-agences et montée en compétences techniques sont prioritaires.

  • Engagement public et culture de l’IA : L’éducation et la sensibilisation des citoyens sont au cœur d’une adoption responsable.

 

Conclusion

Le paysage mondial de la gouvernance de l’IA est dynamique et complexe. Du modèle souple du Royaume-Uni à la régulation contraignante de l’UE, en passant par le contrôle ciblé de la Chine, la supervision institutionnelle de l’Espagne, la stratégie intégrée de l’Italie et la vision inclusive de l’Inde, chaque approche offre des leçons précieuses.

À mesure que l’IA s’intègre dans tous les secteurs, la collaboration internationale et le partage de bonnes pratiques seront essentiels. L’avenir de la gouvernance de l’IA devra être coopératif, adaptatif et fondé sur un engagement commun pour l’innovation, la sécurité et l’équité.

n logo simple 2_edited_edited_edited_edi
n logo simple 2_edited_edited_edited_edi
n logo simple 2_edited_edited_edited_edi
n logo simple 2_edited_edited_edited_edi
bottom of page