« The Paris AI Conference 2025 : retour sur un événement intimiste et professionnel »
- Arnaud Huet
- 23 juin
- 4 min de lecture

« The Paris AI Conference 2025 » organisée par Startup Network Europe
Intervenants :
- Gilles Babinet, Entrepreneur et coprésident du Conseil national du numérique
- Karim Jouini, Chief Product & Technology Officer chez Medius
- Wassim Jouini, CTO & Head of AI chez LegalPlace
- Bianca Ximenes, Chief Data Officer chez PUR
Synthèse commentée : reprise des thèmes abordés et apports de compléments
1. Régulation VS innovation : « Il est important de trouver et de conserver un équilibre renouvelé entre le cadre réglementaire à respecter par l’IA et le rythme d'innovation »
- Trop ou pas assez : trop de réglementaire peut ralentir la créativité, freiner les startups IA et limiter l'adoption de la technologie, pas assez de réglementaire ouvre la porte à des dérives éthiques, des biais algorithmiques et de potentielles atteintes à la vie privée. Le manque de cadre réglementaire peut avoir des effets néfastes sur la confiance des utilisateurs et ralentir l’adoption,
- Quid de l’IA Act ? Il constitue un cadre de référence favorable à une innovation responsable. Il fixe un cadre de réponse graduée en fonction du niveau de risques : plus un système d’IA présente de risques pour les droits et la sécurité des personnes, plus les exigences sont strictes (gouvernance des données, documentation technique, supervision humaine, sécurité, explicabilité), voire coercitives (interdiction).
2. Qualité logicielle via l’IA générative : « Notons le potentiel prometteur des agents IA pour automatiser les tests logiciels et réduire les coûts »
- Redistribution des tâches homme / machine : Pour corriger des bugs, des agents de test peuvent détecter, corriger le code et suggérer des patchs. En confiant des tâches routinières à l'IA, les devs peuvent se concentrer sur la supervision et l’architecture. De nouveaux rôles se développent tels que « software composer » ou « AI‑native developer »,
- Transparence : Notons qu’il faut conserver la compréhension du code pour éviter l’effet « black box » et pour répondre à l’enjeu d’explicabilité.
3. Valorisation des données : « La structuration, l'enrichissement et l'exploitation des données sont essentiels pour leur valorisation »
- Bénéfices attendus : réduction du gaspillage computationnel, fiabilisation des résultats,
- Bonnes pratiques : catalogue de données répertoriant et qualifiant les datasets, gouvernance et rôles clairement définis (CDO, Data Steward, Data Owners), évaluation de la qualité (taux de complétude, profilage), audits réguliers pour conformité et sécurité.
4. Adoption de l’IA : « L’IA doit être acceptée et comprise par les équipes techniques et non techniques (Ventes, Marketing, Opérations, RH, Finance, Juridique…) »
- Facteur humain : il est au cœur de l’adoption et repose surtout sur la communication et la formation,
- Formation-action : L’apprentissage se fait par les démonstrations, l’usage de l’IA et par les retours d’expérience. La formation est l’occasion de tester des cas d’usage et de lancer le déploiement de ceux qui sont validés.
- Dynamique collective : Elle s’appuie sur des champions internes, des référents IA qui, formés et en maîtrise des bonnes pratiques, guident les collaborateurs au quotidien.
- Boucle de feedback : les utilisateurs remontent les incompréhensions et contribuent à l’amélioration continue.
The Paris AI Conference 2025 organized by Startup Network Europe: A Look Back at an Intimate and Professional Event
Speakers:
- Gilles Babinet, Entrepreneur and Co-President of the French National Digital Council
- Karim Jouini, Chief Product & Technology Officer at Medium
- Wassim Jouini, CTO & Head of AI at LegalPlace
- Bianca Ximenes, Chief Data Officer at PUR
Commented Summary: Recap of Discussed Topics and Additional Insights
1. Regulation vs Innovation: "It is important to find and maintain a renewed balance between the regulatory framework required for AI and the pace of innovation."
- Too much or too little? Excessive regulation can stifle creativity, hinder AI startups, and limit technology adoption. On the other hand, insufficient regulation opens the door to ethical misconduct, algorithmic bias, and potential privacy violations. A lack of regulation can also erode user trust and slow down adoption.
- What about the AI Act? It serves as a reference framework that fosters responsible innovation. It introduces a risk-based approach: the higher the risk posed by an AI system to people’s rights and safety, the stricter the requirements (e.g., data governance, technical documentation, human oversight, safety, explainability), and in some cases, outright bans.
2. Software Quality through Generative AI: "Let’s highlight the promising potential of AI agents in automating software testing and reducing costs."
- Redistribution of human/machine tasks: To fix bugs, test agents can detect issues, correct code, and suggest patches. By offloading routine tasks to AI, developers can focus on oversight and system architecture. New roles are emerging, such as software composer or AI-native developer.
- Transparency: It is crucial to maintain code understanding to avoid “black box” effects and to meet explainability requirements.
3. Data Valorization: "Structuring, enriching, and exploiting data are essential to unlocking its value."
- Expected benefits: Reduced computational waste, improved result reliability.
- Best practices: Implement a data catalog to inventory and qualify datasets, define clear governance roles (CDO, Data Steward, Data Owners), assess data quality (completeness rate, profiling), and conduct regular audits to ensure compliance and security.
4. AI Adoption: "AI must be accepted and understood by both technical and non-technical teams (Sales, Marketing, Operations, HR, Finance, Legal, etc.)."
- The human factor: It lies at the heart of adoption and relies heavily on communication and training.
- Learning by doing: Learning occurs through demos, actual AI usage, and feedback. Training provides an opportunity to test use cases and begin deploying those that are validated.
- Collective dynamics: Adoption is driven by internal champions—AI referents who are trained, knowledgeable about best practices, and able to support colleagues daily.
- Feedback loop: Users share their misunderstandings and contribute to continuous improvement.
Comments