Les talks de la conférence
2
Changing Large Tables Keynote
Tout change et rien ne reste pareil. Pourtant, lorsqu’il s’agit de gérer un Dataset, nous considérons souvent le changement comme une réflexion secondaire. Cependant, le monde évolue rapidement, et le Dataset doit suivre le rythme pour rester utile. Des lignes doivent être insérées, supprimées ou mises à jour. Dans un environnement de gestion des données, gérer le changement n’est donc pas optionnel. Cependant, bien le faire est difficile. Il est trop courant de voir des collections éparses de fichiers CSV et Parquet qui sont d’une manière ou d’une autre dérivés les uns des autres. Nous pouvons faire mieux.
Des avancées récentes, comme les formats de type Lakehouse et diverses initiatives de gestion de schémas, visent à améliorer cet état de choses, mais la direction exacte de cette évolution reste incertaine. Dans ma présentation, je discuterai des avantages et des défis de l’intégration des sémantiques transactionnelles traditionnelles dans des flux de travail d’analyse de données à grande échelle. Nous verrons en action des changements de données et de schémas, et même de véritables voyages dans le temps.
3
Mixed Model Arts - The Convergence of Data Modeling Across Apps, Analytics, and AI
Pendant des décennies, la modélisation des données a été fragmentée par les cas d’utilisation : applications, analytique, et ML/IA. Avec l’émergence de l’IA, des flux de données en continu, et l'anticipation de la modélisation des données, ces approches cloisonnées créant des silos ne suffisent désormais plus dans le monde diversifié des cas d’utilisation des données.
Les praticiens d’aujourd’hui doivent maîtriser de bout en bout les nombreuses techniques de modélisation des données tout au long de leur cycle de vie.
Cette présentation porte sur les 'Mixed Model Arts', qui préconisent de faire converger différentes méthodes de modélisation des données et d'innover avec de nouvelles approches.
4
(Gen)AI at the Heart of Mirakl's Product: From Inception to Deployment of the Mirakl Catalog Transformer
Mirakl a été fondé en 2012 avec l'idée de permettre à tout détaillant de proposer les meilleures offres à ses clients en développant une activité de marketplace. Depuis 2020, l'équipe Data Science a introduit des fonctionnalités IA pour améliorer l'expérience utilisateur en enrichissant les fonctionnalités du produit avec de l'IA (recatégorisation automatique, détection des anomalies de prix, etc.), et en 2023, après l'avènement de ChatGPT, avec l'enrichissement des descriptions de produits.
Avec l'arrivée de GenAI, nous avons vu l'opportunité de repenser l'ingénierie de nos produits en les reconstruisant avec l'IA au cœur. Cela nous a amenés à passer d'un mode projet Data Science à une approche produit IA avec des équipes IA.
Dans cette présentation, nous décomposerons les étapes qui nous ont permis de passer de trois fonctionnalités dans le produit à un 'One Click Transformer' en seulement six mois :
1) La phase de découverte/recherche produit,
2) Comment atteindre une version bêta avec une fonctionnalité d'IA générative entre les mains de nos clients,
3) L'itération et l'amélioration continue basée sur les problèmes des utilisateurs,
4) La phase de mise à l'échelle avec superposition et réglage pour améliorer la qualité tout en contrôlant les coûts à grande échelle. Ainsi que l'extension à une approche produit IA pour toute l'équipe.
Pause
Rechargez vos batteries, prenez un café, échangez quelques idées et, si la curiosité vous en dit, laissez-vous tenter par une visite des stands de la cofnérence.
Pause
Rechargez vos batteries, prenez un café, échangez quelques idées et, si la curiosité vous en dit, laissez-vous tenter par une visite des stands de la cofnérence.
Comment le département du Gard conjugue Modern Data Stack et Géomatique ?
Le Département du Gard est une collectivité territoriale qui emploie près de 3000 agents. Chaque jour, ceux-ci servent l'intérêt général dans des domaines variés : l'action sanitaire et sociale, la voirie départementale, les collèges, le très haut débit, ...
Par cette action, le Gard consomme et produit au quotidien de grandes quantités de données que le Département, par le biais de sa Direction de l'Innovation et des Systèmes d'Information, souhaite valoriser. Dans cette optique, une étude a été menée auprès des confrères territoriaux et plus largement de l'écosystème data pour tenter d'identifier l'état de l'art et définir une marche à suivre.
Cette étude a montré que la Modern Data Stack se diffuse largement aussi bien dans de grands groupes que dans de plus petites sociétés. Sites dédiés, podcasts, communautés et conférences vantent ses mérites. Pourtant, si cette approche semble faire l'unanimité, on trouve peu d'implémentations dans les collectivités : la Modern Data Stack ne serait-elle pas adaptée aux enjeux de la fonction publique territoriale ?
Une collectivité c'est avant tout un territoire. A ce titre, les données que nous manipulons sont en grande partie géolocalisées :
existe-t-il des zones accidentogènes qui nécessiteraient une évolution du tracé routier ? où se trouvent les populations qui ont le plus besoin d'aide et comment répartir nos effectifs sur le territoire ? quel est le lieu le plus pertinent pour construire le futur collège au regard de la localisation des élèves ? Dès lors, la stack se doit d'être géographique ! Cette contrainte étant établie, quels outils retenir pour constituer notre Modern Data Stack ?
Ce talk présentera la stack mise en place au Département du Gard et les raisons qui ont menées à faire ces choix. Nous verrons notamment que si certaines briques de référence, dont DBT, s'en sortent bien avec les données géographiques, d'autres peinent à suivre faisant la part belle à des outils moins connus en data-science mais largement utilisés par les géomaticiens. Nous verrons également quelques cas d'usage qui illustreront l'apport de la géographie pour l'analyse de données et l'aide à la décision. Enfin, nous conclurons sur les perspectives d'évolutions de notre stack et de notre organisation.
Comment construire une vision et une stratégie Data & IA impactantes ?
Workshop en reservation-only pour partager des conseils et des exemples concrets de vision et stratégie Data & IA provenant de différentes tailles et contextes d'entreprises. Le but est de donner des exemples de stratégies et visions documentées, mais aussi (et surtout) le process pour créer une vision et stratégie Data parlante et inspirante.
5
Pause
Rechargez vos batteries, prenez un café, échangez quelques idées et, si la curiosité vous en dit, laissez-vous tenter par une visite des stands de la cofnérence.
6
Building a Robust Data Platform on the Road to Self-Service Analytics
Chez Malt, notre équipe Data centrale est au cœur des demandes de données des parties prenantes, devenant souvent un goulot d'étranglement. Permettre le self-service est crucial pour éliminer ce goulot et pour évoluer en fournissant les bons outils aux bonnes personnes et pour les bons usages.
Pour y parvenir, nous avons construit des bases solides et propres dans notre data warehouse, organisées en couches avec une couche d'exposition claire. Cela nécessite une collaboration entre les data engineers et les analytics engineers.
Nous avons abordé le self-service en prenant en compte différents profils et besoins :
- Une couche de self-service pour les utilisateurs métier dans Looker via une application d'IA générative.
- Des outils pour l'équipe Data afin de débloquer des analyses ad hoc et le partage.
- Une couche de self-service pour les utilisateurs de données via un assistant IA dédié pour aider à naviguer dans le Data warehouse.
L'objectif est de partager notre parcours et nos défis. Nous détaillerons comment nous avons abordé les défis d'un point de vue organisationnel et les outils que nous avons mis en œuvre. Cela devrait fournir des clés et des idées pour quiconque se dirige vers le self-service.
How to create a GDPR-compliant Iceberg Lakehouse
Avant que les formats de tables ouverts ne deviennent populaires, les entreprises technologiques européennes avaient deux options pour mettre en œuvre la conformité au RGPD sur leurs données : déplacer toutes les données vers l'entrepôt pour en supprimer certaines si nécessaire ou mettre en place une politique de conservation des données dans le data lake en utilisant le cycle de vie pour supprimer toutes les données après un certain délai.
Dans cette présentation, je vais introduire l'architecture Lakehouse et expliquer comment concevoir et mettre en œuvre un Lakehouse Iceberg pour vos données afin de réduire les coûts et d'augmenter le débit tout en maintenant la conformité au RGPD
7
The Intrinsic Limitations of Large Language Models: Understanding Hallucinations and Their Impact on Data Workflows
Les modèles de langage large (LLMs) ont révolutionné le traitement du langage naturel et ouvert de nouvelles perspectives dans les applications de données. Cependant, ils ne sont pas sans limitations.
Cette présentation explorera les principales contraintes des LLMs, en se concentrant sur le phénomène des hallucinations—des cas où les modèles génèrent des informations incorrectes ou absurdes. Contrairement à la perception commune, ces hallucinations ne sont pas de simples bugs, mais une caractéristique inhérente à la manière dont les LLMs sont conçus et entraînés : en d'autres termes, les hallucinations ne disparaîtront jamais des LLMs, même dans 10 ans. De plus, les hallucinations sont, par conception des LLMs, très convaincantes et parfois difficiles à détecter ! Nous explorerons les raisons sous-jacentes de ces limitations, enracinées dans la nature probabiliste et auto-régressive des LLMs.
Comprendre pourquoi les hallucinations se produisent est crucial pour reconnaître qu'elles ne peuvent pas être complètement éliminées. Elles doivent plutôt être gérées efficacement, notamment lors de l'intégration des LLMs dans les pipelines de données. La présentation abordera les implications concrètes des limitations des LLMs pour les Data engineers, les Data analysts et les utilisateurs business.
Nous examinerons des scénarios où les hallucinations peuvent conduire à une mauvaise interprétation des données, à une analyse défectueuse et à des décisions business erronées.
En outre, des stratégies pratiques pour atténuer l'impact de ces limitations seront discutées, y compris le model fine-tuning, l'intégration d'approches human-in-the-loop, et l'utilisation de technologies complémentaires pour améliorer la fiabilité.
Rencontres d'équipes #1
Rencontres d'équipes #1
8
Maman, j’ai raté la mise en production de mon algo d’IA!
C’est une statistique connue dans le milieu: la grande majorité des projets IA échouent. Mais les échecs les plus décourageants, et au plus fort impact métier, sont ceux qui adviennent une fois que le modèle est en production: un mauvais modèle de recommendation brise la confiance de l’utilisateur en l’algorithme, un mauvais modèle de reconnaissance faciale ne permet pas de débloquer son téléphone, un mauvais modèle de détection de piéton peut créer un accident mortel…
Sur les 4 dernières années, j’ai mis en production plusieurs algorithmes d’IA dans différents contextes: chacun a présenté des difficultés, et des apprentissages qui ont contribué à forger mes convictions sur le comment bien déployer des algorithmes d’IA (MLOps). Je vous en partage les plus intéressants dans ce talk :
1) De l’importance des tests de charge
2) Attention, ma data drift !
3) Comment savoir si mon modèle marche dans la vraie vie ?
4) (Re)-découvrons ensemble à travers ces expériences les fondamentaux du monitoring ML!
9
Why LLMs can’t do analytics ?
Dans ce talk, nous verrons pourquoi les modèles de langage (LLMs) ne sont pas vraiment faits pour l’analyse de données. Même s’ils promettent des réponses rapides grâce à l’IA, ils manquent souvent de précision et de fiabilité pour prendre de bonnes décisions. On parlera des limites des LLMs pour faire des analyses complètes, et on vous montrera une meilleure option : les utiliser pour rechercher et exploiter des analyses déjà existantes. Vous verrez pourquoi s’appuyer sur des données fiables est la meilleure façon d’obtenir des insights utiles.
10
Le Domain-Driven Design : Une approche révolutionnaire pour l'ingénierie des données
Dans un monde où les données sont au cœur des décisions stratégiques, il est crucial de s'assurer que les modèles de données reflètent fidèlement les réalités du domaine métier. Le Domain-Driven Design (DDD) propose une approche novatrice pour résoudre les problèmes courants tels que les silos de données, les incompréhensions entre équipes techniques et métiers, et la complexité croissante des systèmes.
Dans ce talk de 5 minutes, nous explorerons comment le DDD peut transformer l'ingénierie des données en améliorant la qualité des données, la maintenabilité des systèmes, et l'efficacité des processus. À travers des exemples concrets, nous démontrerons les bénéfices tangibles de cette approche et offrirons des clés pour son adoption. Rejoignez-nous pour découvrir comment le DDD peut révolutionner vos projets data et maximiser leur impact.
11
Unlock new SQL capabilities with BigFunctions !
Explorez un framework permettant de créer et d'utiliser plus de 100 fonctions BigQuery puissantes pour dynamiser votre analyse de données. Apprenez à collecter des données sans effort, à effectuer des transformations avancées et à les activer sans quitter SQL.
12
Déjeuner
Profitez d'une pause déjeuner conviviale et gourmande pour recharger vos batteries. Le repas sera préparé par Meet My Mama, un traiteur engagé mettant en lumière les cuisines du monde à travers le talent des "Mamas", cheffes entrepreneures qui partagent leur passion culinaire tout en promouvant une société plus inclusive et durable. Une offre végétarienne et végétalienne sera proposée, régalant vos papilles et l'environnement.
Cette pause est également une opportunité parfaite pour échanger avec les autres participants, élargir votre réseau ou encore visiter les stands des organisateurs et sponsors.
Déjeuner
Profitez d'une pause déjeuner conviviale et gourmande pour recharger vos batteries. Le repas sera préparé par Meet My Mama, un traiteur engagé mettant en lumière les cuisines du monde à travers le talent des "Mamas", cheffes entrepreneures qui partagent leur passion culinaire tout en promouvant une société plus inclusive et durable. Une offre végétarienne et végétalienne sera proposée, régalant vos papilles et l'environnement.
Cette pause est également une opportunité parfaite pour échanger avec les autres participants, élargir votre réseau ou encore visiter les stands des organisateurs et sponsors.
Déjeuner
Profitez d'une pause déjeuner conviviale et gourmande pour recharger vos batteries. Le repas sera préparé par Meet My Mama, un traiteur engagé mettant en lumière les cuisines du monde à travers le talent des "Mamas", cheffes entrepreneures qui partagent leur passion culinaire tout en promouvant une société plus inclusive et durable. Une offre végétarienne et végétalienne sera proposée, régalant vos papilles et l'environnement.
Cette pause est également une opportunité parfaite pour échanger avec les autres participants, élargir votre réseau ou encore visiter les stands des organisateurs et sponsors.
13
Product Analytics : making sense from unreliable data
Dans l'environnement numérique actuel en constante évolution, l'analyse produit est incontournable pour optimiser l'expérience utilisateur et stimuler les revenus.
Cependant, les données sont souvent accompagnées de problèmes de fiabilité, tels que des incohérences, des lacunes et du bruit.
Cette présentation détaillera les défis auxquels fait face l'analyse produit et proposera plusieurs stratégies pour extraire des informations précieuses, malgré la qualité des données.
Rencontres d'équipes #2
Rencontres d'équipes #2
14
Reducing Production Incidents with Data Contracts
Chez BlaBlaCar, les équipes de données bakcend et frontend consomment 1 milliard d'événements par jour via Kafka. Pour améliorer la fiabilité de nos pipelines de données, nous utilisons des Data Contracts afin de fournir une structure standardisée à nos données. Cela a permis de boucler la boucle de rétroaction entre les producteurs et les consommateurs de données, améliorant massivement la qualité des flux de données entrants.
Cette présentation expliquera comment nous avons mis en place cette organisation chez BlaBlaCar et les problèmes que nous avons pu résoudre. Technologies utilisées : Kafka, Avro, BigQuery, OpenAPI, Java.
15
Analytics for All: Creating a Self-Service Culture in a Scaling Organization
L’équipe Data de Brevo était submergée de demandes d'insights, ce qui ralentissait souvent les processus de prise de décision. En s’appuyant sur une Modern Data Stack, l'entreprise est passée à un modèle en self-service qui permet à chaque employé, quelle que soit son expertise technique, d'explorer et d'analyser les données de manière autonome. Taha abordera les stratégies clés mises en place pour faciliter cette transformation, y compris l’intégration de l’IA, qui simplifie l’interprétation des données et améliore l’expérience utilisateur.
Les différents mode de synchronisation des Data platforms chez Carrefour
Les plus grandes entreprises, composées de plusieurs pays et/ou filiales, ont plusieurs Data Platforms locales. Chez Carrefour, nous avons un modèle fédéré où chaque pays a sa propre plateforme
Tant que les Data Platforms sont utilisées localement, il n'y a pas de problème. Cependant, lorsque le siège souhaite consolider et agréger les données des différentes Data Platforms pour créer des applications globales, des dashboard d'analyse ou des opérations centralisées, de nombreux problèmes sont à résoudre. Au-delà de la gouvernance et de la documentation des données, la synchronisation des données est un véritable challenge.
Quand faut-il récupérer les données de chaque Data Platform pour les croiser et les agréger ?
De nombreuses solutions sont possibles : utiliser un ordonnanceur, utiliser un orchestrateur, utiliser une architecture événementielle... Nous passerons en revue ces solutions, leurs avantages et leurs inconvénients en fonction des cas d'utilisation et des exigences.
Une démo et des interactions avec les participants sont prévues pour cette session
16
Une stack légère pour suivre la standardisation de l'Analytics à l'échelle : dbt + duckdb + Observable Framework
Nous sommes passé chez Decathlon d'une organisation Analytics centralisée à décentralisée en domaine métier cette année.Pour autant, nous avions l'ambition l'année dernière de réduire le nombre de repositories DBT sur notre Github de 250 à 15 repositories (1 par domaine), afin de permettre une gouvernance plus simple et de pouvoir faire converger les architectures DBT.
Pour continuer notre travail de standardisation à l'échelle et suivre l'évolution de ses 15 repositories, nous avons choisi d'appliquer les métriques DORA sur chacun des repositories.Nous avons développé une stack analytics qui est entièrement embarquée dans Github.
Nous utilisons :
- duckdb comme moteur d'exécution, qui supporte depuis peu la lecture de table
- Deltadbt-duckdb pour orchestrer la modélisation
- Observable Framework pour construire une application de dataviz, déployée statiquement sur Github Pages
Quand la culture Produit rencontre l’IA Générative
Voilà plusieurs années que l'IA est au service du produit pour répondre aux besoins utilisateurs. Avec l’essor de l’IA Générative, l’émergence de ces nouveaux modèles aurait pu être totalement transparente et fluide dans la démarche Produit. Nombreux sont ceux qui pensaient que l’IAG était simplement un « nouvel outil » de la révolution technologique qu’est l’IA. Et bien non, cela n'est pas si simple et immédiat ! Force est de constater que l’IAG est une révolution en soit, qui chamboule nos réalisations, mais aussi nos convictions, nos habitudes et nos process.
Comment le monde du Product Management s’adapte à cette disruption pour continuer à fournir des produits toujours utiles, utilisables et utilisés ? Les équipes de SNCF Connect & Tech vous raconteront en détail le lancement de son premier cas d’usage exploitant les capacités de l’IA Générative.
Au-delà de la mise en place technique de notre RAG pour les équipes de la Relation Client, nous vous raconterons le chemin que nous avons choisi d’emprunter pour construire un outil sur-mesure. Notre ambition : allier le meilleur des technologies disponibles à nos expertises humaines, tout en concevant une expérience utilisateur pertinente, rapide et intégrée.
Dans ce talk, nous verrons ensemble ce qui ne change pas, ce qui a dû changer, et ce qui devra changer pour arriver à la production sereinement.
17
Le futur du CDO et des équipes Data & IA
Rejoignez-nous pour une table ronde exclusive sur l'évolution des rôles de Chief Data Officer (CDO) et des équipes Data & IA, animée par Robin Conquet, créateur de DataGen. Virginie Cornu (MyFenix, ex-Jellysmack) et Claire Lebarz (Malt, ex-AirBnB) partageront leurs perspectives sur l'avenir des rôles stratégiques dans les domaines du produit, de la technologie et de la data.Nous explorerons l'évolution du rôle de CDO, son impact sur le rôle de CPO, les compétences clés pour les futurs leaders Data & IA, ainsi que les nouvelles dynamiques organisationnelles des équipes Data au sein des entreprises matures.
18
Et après SQL ?
Et après SQL ? Cela peut sembler une affirmation audacieuse. Mais un langage créé il y a plus de 30 ans est-il encore pertinent pour nos besoins en analyse ?
SQL a été conçu pour le OLTP (Online Transaction Processing), pour les opérations CRUD (Create, Read, Update, Delete).
À l'ère de l'analyse de données, nous utilisons désormais SQL pour transformer les données, créer des analyses ad hoc, et élaborer des dashboards de business intelligence.
Nous avons créé des outils (comme dbt) pour rationaliser ce processus et introduire les 'meilleures pratiques en matière de logiciels'. Nous avons fait de SQL notre lingua franca pour tout ce qui est lié à l'analyse.
SQL n'a pas besoin de changer. Il fonctionne très bien depuis des décennies. C'est la pierre angulaire de la plupart de nos bases de données modernes. Ce sont les données et ce que nous en faisons qui ont changé. Pourtant, nous nous reposons toujours sur des frameworks assez basiques (Spark avec Hadoop/MapReduce) et avons construit notre sémantique analytique au-dessus de SQL pour gérer des données qui ne sont plus rectangulaires.
Manquons-nous quelque chose ? Quelle est la suite après SQL ?
En revenant sur mes expériences en tant qu'ingénieur Data Ops, soutenant les équipes de données dans des entreprises telles que Deezer, Olympique de Marseille, Maisons du Monde, etc., cette présentation examinera le défaut négligé introduit par SQL dans le monde de l'analyse, comment il peut être géré et comment de nouveaux frameworks ouvrent la voie dans ce domaine.
How to scale Machine Learning Operations with Feature Stores ?
Un Feature Store est un composant central du Machine Learning à grande échelle pour les organisations matures, offrant une efficacité opérationnelle accrue, une cohérence et une évolutivité.
De plus en plus d'organisations atteignent un niveau de maturité plus élevé en ce qui concerne le ML en production. Nous avons discuté de ce sujet avec de nombreuses organisations et observé une tendance : beaucoup se demandent comment un Feature Store pourrait les aider à surmonter des défis critiques.
Cette présentation vise à améliorer la compréhension des Feature Stores en offrant une vue d'ensemble de leur anatomie, de leurs principaux avantages et pièges, de leur fonctionnement interne, et des différentes architectures possibles. En plus du contenu théorique, des exemples pratiques d'applications réelles seront donnés au fil de la présentation.
Pause
Rechargez vos batteries, prenez un café, échangez quelques idées et, si la curiosité vous en dit, laissez-vous tenter par une visite des stands de la cofnérence.
Pause
Rechargez vos batteries, prenez un café, échangez quelques idées et, si la curiosité vous en dit, laissez-vous tenter par une visite des stands de la conférence.
One Thousands and One dbt Models: How BlaBlaCar Moved to dbt in 12 months
En l'espace de 12 mois, nous avons migré 1 000 modèles dbt. Nous avons introduit un nouveau paradigme et un nouvel outil dans notre stack. Cela a nécessité des formations, de nouveaux cadres, des tests, une collaboration transversale, la mise en place de squads, etc. Nous souhaitons partager notre parcours de migration, en nous adressant aux entreprises qui envisagent une telle démarche et qui souhaitent définir leur stratégie et les outils de support.
19
Pause
Rechargez vos batteries, prenez un café, échangez quelques idées et, si la curiosité vous en dit, laissez-vous tenter par une visite des stands de la cofnérence.
20
Back to the future, forward to the past: how the lessons of yesterday shape the data PM role to move forward
Dans cette présentation, nous dévoilerons le rôle essentiel des Data Product Managers (DPM) dans la concrétisation de votre stratégie data.
Nous commencerons par aborder l'approche "data as a product", en insistant sur son orientation centrée sur l'utilisateur. Ensuite, nous explorerons comment cette méthode peut apporter des avantages significatifs même sans adopter entièrement le datamesh.
Nous plongerons ensuite dans les responsabilités spécifiques des DPM, depuis la gestion des produits data jusqu'à l'alignement des objectifs data avec les objectifs business. Vous découvrirez également des conseils pratiques pour intégrer harmonieusement les DPM dans votre organisation, ainsi que des stratégies de formation et de recrutement.
21
Closing the Loop: Alerting your Stakeholders on Data Quality
La qualité des données est l'une des plus grandes priorités, qu'il s'agisse d'assurer l'exactitude de nos dashboards ou la fiabilité des modèles d'IA/GenAI. C'est également une responsabilité de l'équipe Data, alors que les producteurs de données sont généralement des squads métiers et techniques.
Comment pouvons-nous les alerter automatiquement sur la qualité, avec plus de 5 équipes différentes dans 3 pays différents ? Comment bouclons-nous cette boucle ?
Nous proposons des solutions pour vous montrer comment les implémenter dans leur contexte, ainsi que les possibilités que nous avons débloquées.
Gérer les carrières dans la data : Comment ne plus jamais avoir peur de l’évaluation annuelle !
Tout ceci vous semble-t'il familier ? « Cela fait six mois que je travaille ici, et je me sens bloqué.e – je n’apprends plus rien, et je sens que je stagne. »Ou peut-être : « Quand vais-je avoir ma prochaine augmentation ? X vient d’en avoir une, et moi ? D’ailleurs, Concurrent 1 me paierait le double. »Si cela résonne en vous, participez à l'atelier "Gérer les carrières dans la data : Comment ne plus jamais stresser pour l’évaluation annuelle !", un atelier collaboratif où nous allons construire ensemble un cadre de compétences en utilisant une méthodologie qui a fait ses preuves dans des entreprises de 200 comme de 20 personnes, spécialement conçu pour les équipes data. Ce cadre vous offrira un guide clair pour aider les professionnels de la data à évoluer tout au long de leur carrière, assurer des promotions justes et rationaliser les décisions salariales – sans pour autant vous transformer en un robot appliquant une grille rigide et inadaptée.
Help ! Mes calculs sur GPU semblent non déterministes
La généralisation des approches basées sur du deep learning et plus récemment l’explosion des usages liés à l’IA générative ont consacré les GPUs Nvidia comme accélérateurs de premiers choix pour ces usages. Le modèle de programmation que propose l’API CUDA implique néanmoins des concessions sur la reproductibilité de certains calculs.Ce talk vous plongera dans le monde des GPUs Nvidia en abordant ce qu’ils sont, comment ils se programment et pourquoi certains calculs ne donnent pas toujours le même résultat via un exemple concret.
Modelling your Business in a Spreadsheet in Just 30 Minutes
Since 2023, as software businesses aim for profitability and growth at all costs is no longer viable, there is a pressing need to ruthlessly prioritise and identify the most promising revenue-generating opportunities.
Data Analysts play a crucial role in helping business leaders identify and evaluate the best opportunities. They are now expected to develop tools that facilitate informed business and product tradeoff decisions.
Given these macro-economic changes, Data Analysts must adapt their skills to align closely with business value. They must now support business leaders by identifying and sizing the best opportunities, and one key competency they need to develop is linking any initiative to business outcomes. This includes performing "what if" scenarios and sensitivity analyses to enable effective business and product tradeoff decisions.In this presentation, we will walk through the step-by-step process of building a “Growth Model,” a powerful tool for understanding business mechanics and determining where to allocate resources for growth. We will demonstrate an example model for a B2B SaaS business, sharing lessons from our experience at Dashlane.
We will emphasise that the process of building the tool is as important as the final output. It involves figuring out how all metrics interconnect to produce sensible results, tracking down baseline rates for each assumption, and applying excellent business judgment. To develop this tool, one must have an intuitive sense of the company’s strategy, be an unbiased observer, understand the business at a molecular level, and be capable of obtaining accurate data for each input.For analysts, developing this tool will deepen their understanding of the business at a granular level, positioning them as a top strategic resource within their company.
By the end of the presentation, Data Analysts will have a clear vision of the type of data products they should learn to build to advance their analytics career, transitioning from a tactical role to a strategic advisor with data expertise.
22
Comment le sport de haut niveau s’est emparé des données pour les Jeux de Paris et après
Comment à l’aune de l’obtention des Jeux Olympiques et Paralympiques de Paris l’écosystème sportifs français s’est organisé pour que les données offrent un avantage concurrentiel aux athlètes français.Cette conférence évoquera les étapes constitutives du Sport Data Hub jusqu’aux exemples concrets de l’utilisation des données pour estimer des potentiels, prédire des niveaux de performance, analyser la concurrence…
23
AI on Data - snake oil or actually useful?
De nombreuses solutions Text-to-SQL récentes prétendent remplacer les Data Engineers, mais elles aboutissent souvent à des résultats non fiables avec des requêtes inexactes sur des Datasets complexes. En réalité, la Data Engineering reste essentielle : les pipelines, la transformation et la modélisation des données doivent être en place pour que l’IA fonctionne efficacement. Les LLM, formés principalement au langage, peuvent aider à interpréter les requêtes, mais des systèmes déterministes sont nécessaires pour les convertir en SQL à l'aide de modèles de données bien définis construits par les Data Engineers. Cet talk explorera pourquoi lla data Engineering reste essentielle à la réussite des mises en œuvre de l’IA.
Q&A about (data) freelancing
24
Humanizing Data Strategy
Les personnes sont émotionnelles, irrationnelles et imprévisibles – et pourtant, elles constituent l'aspect le plus important de toute Data Strategy. Tiankai présente son cadre des 5C : compétence, collaboration, communication, créativité et conscience, avec des exemples concrets pour vous aider à placer réellement l'humain au cœur de vos efforts, et à transformer vos collaborateurs et employés en défenseurs actifs de votre stratégie Data.