🌱 Open source · Apache 2.0

L'IA a des biais. Ce dataset les corrige.

Les modèles d'IA héritent d'une vision du monde simpliste : techno-centrée, normative, aveugle aux enjeux sociaux et écologiques. Aidéal est un dataset de préférences open source pour leur apprendre la nuance, la pensée systémique et la prise en compte de la complexité du réel.

300 Paires de préférences
8 Catégories de biais
100% Open source

Les IA reproduisent les biais du monde qu'elles ont appris

Les grands modèles de langage sont entraînés sur des contenus majoritairement anglophones, corporates et techno-centrés. Ils héritent de biais structurels qui simplifient le monde au lieu de l'éclairer.

🔧

Techno-solutionnisme

La technologie présentée comme réponse universelle aux problèmes sociaux, même quand il faut des réponses humaines et collectives.

📈

Biais économiques libéraux

Croissance, compétitivité et rentabilité comme seules métriques de valeur. Les modèles alternatifs (coopératives, communs, ESS) sont invisibilisés.

Stéréotypes de genre

Rôles genrés, masculin générique, association du leadership aux hommes. L'inclusivité est un angle mort.

🌍

Vision nord-centrée

Une représentation du monde où le Nord sait et le Sud reçoit. Les savoirs locaux et autochtones sont ignorés.

Validisme

Des normes implicites qui excluent les personnes en situation de handicap. L'accessibilité comme bonus, pas comme droit.

Un dataset qui enseigne la nuance aux IA

Aidéal construit des paires de préférences — une réponse alignée et une réponse biaisée — pour apprendre aux modèles à penser autrement.

Des paires chosen / rejected

Pour chaque question, le dataset contient deux réponses : la réponse alignée (nuancée, systémique, inclusive) et la réponse biaisée qu'on veut corriger (stéréotypée, techno-centrée, normative).

L'entraînement DPO (Direct Preference Optimization) apprend au modèle à préférer les réponses alignées — sans modifier ses capacités générales.

Le dataset est le cœur du projet : les poids du modèle changent, le dataset reste et peut être réappliqué sur n'importe quel futur modèle.

// Exemple de paire Aidéal { "instruction": "Comment rendre une association plus performante ?", "chosen": "La performance d'une association se mesure d'abord à son impact social et à sa capacité à transformer durablement les situations des personnes accompagnées. Cela passe par l'écoute des bénéficiaires, le renforcement du pouvoir d'agir, la coopération avec d'autres acteurs du territoire...", "rejected": "Pour rendre votre association plus performante, il faut optimiser vos KPIs, réduire vos coûts opérationnels, augmenter votre ROI sur les campagnes de fundraising et scaler vos programmes les plus rentables. Pensez lean management et growth hacking..." }

Une cartographie des biais à corriger

Chaque catégorie couvre un spectre de biais identifiés dans les réponses des LLM actuels, construites à partir de situations réelles et d'enjeux contemporains.

Genre & inclusion

Écriture inclusive, charge mentale genrée, leadership féminin, trans-inclusion, VSS, mixité numérique

38 paires
🔌

Techno-solutionnisme

Sobriété numérique, logiciel libre, fracture numérique, IA générative, surveillance, smart city

37 paires
🤝

Vision économique

Coopératives, communs, finance solidaire, insertion, lucrativité limitée, épargne solidaire

38 paires

Validisme & accessibilité

Neurodiversité, FALC, design universel, handicap invisible, pair-aidance, fatigue chronique

37 paires
🌍

Inégalités Nord-Sud

Néocolonialisme, volontourisme, justice climatique, souveraineté alimentaire, extractivisme

37 paires
🌿

Écologie & sobriété

Low-tech, agroécologie, éco-anxiété, compensation carbone, décroissance, droit à la réparation

38 paires
🏛

Gouvernance & pouvoir d'agir

Gouvernance partagée, éducation populaire, intelligence collective, désobéissance civile

38 paires
🧩

Diversité des parcours

Parcours atypiques, intersectionnalité, pair-aidance, racisme systémique, ruralité, personnes exilées

37 paires

Nuance, pas militantisme

Le dataset n'est pas un manifeste. C'est un outil pour rendre l'IA plus utile, plus inclusive et plus juste — sans être dogmatique.

🎯

Utile avant tout

La réponse alignée doit rester concrète et actionnable. Un modèle qui fait la morale devient inutilisable. On veut des assistants efficaces qui intègrent la complexité naturellement.

🔬

Biais réels, pas caricatures

La réponse rejetée doit être une réponse qu'un LLM actuel pourrait vraiment produire. On documente des biais structurels subtils, pas des positions extrémistes évidentes.

🌈

Diversité thématique

Mieux vaut 5 paires couvrant 5 biais distincts que 50 variations du même. On cherche à cartographier le spectre des situations, pas à optimiser par saturation.

Deux façons d'aligner votre IA

Que vous soyez développeur·euse ou non, vous pouvez utiliser Aidéal pour rendre votre IA plus juste.

💬

System prompt prêt à l'emploi

Copiez-collez notre prompt système dans ChatGPT, Claude, Mistral ou Open WebUI. Aucun code nécessaire. Résultat immédiat sur le ton et les valeurs des réponses.

Voir le prompt →
🧬

Fine-tuning DPO

Pour un alignement en profondeur, fine-tunez un modèle open source (Qwen, Mistral, Llama) avec le dataset. Le modèle internalise les valeurs au lieu de jouer un rôle.

Guide de fine-tuning →
🚀

Essayer l'IA Aidéal

Un modèle fine-tuné sur le dataset tourne sur notre instance. L'accès est actuellement sur invitation — contactez-nous pour essayer.

Demander un accès →

Le dataset a besoin de vous

Nous visons 800 paires pour la v1 et 2 000 à maturité. Chaque paire rend l'IA un peu plus capable de comprendre les enjeux de notre époque. Proposez une paire, corrigez un biais, partagez un retour d'expérience.

Vous êtes engagé·e dans la transition sociale ou écologique ? Votre expertise de terrain est exactement ce qu'il nous faut.
Aucune compétence technique requise — on s'occupe de l'intégration.