Data Lake ou Data Warehouse ? Le premier offre souplesse et volume, le second structure et performance. Le bon choix dépend de vos données, de vos usages… et de votre maturité data.
10 ans de stat4decision : une aventure data et humaine !
Stat4Decision fête ses 10 ans le 17 mars 2025. Ce projet, né d’une ambition de rendre la data accessible, a grandi avec l’essor du Big Data, de l’IA et de Python. Nous avons eu la chance d’accompagner des institutions comme La Banque Postale, la Banque de France, l’ANSR et bien d’autres.
Grâce à une équipe passionnée et engagée, nous avons formé des milliers de professionnels et soutenu la communauté open source. L’avenir nous pousse à innover encore, en développant des formations immersives et en accompagnant les entreprises dans l’adoption de l’IA.
Merci à tous ceux qui ont contribué à cette aventure. Ce n’est que le début !
Comment créer un logger structuré et efficace dans un projet Python
Dans un projet python, la gestion des logs est essentielle pour assurer le suivi, le débogage et la maintenabilité du code, surtout dans les projets data. Un bon logger doit être centralisé, réutilisable, structurant et capable d’écrire dans des fichiers. Dans cet article, nous vous montrons comment mettre en place un logger adapté à un projet Python organisé en plusieurs …
Marre du VBA ? Passez à python !
Vous avez forcément entendu parler du box-plot que l’on appelle aussi boîte à moustache pour sa forme originale.
Ce graphique tout simple permet de résumer une variable de manière simple et visuel, d’identifier les valeurs extrêmes et de comprendre la répartition des observations.
Gouvernance des données : principes, approches et rôles clés
La gouvernance des données assure la fiabilité, la sécurité et la qualité de l’information.
Elle s’appuie sur des rôles dédiés (CDO, Data Steward) et des cadres (COBIT, DAMA-DMBOK, DCAM).
Chacun accède aux bonnes données au bon moment.
L’entreprise développe ainsi une culture data favorisant l’innovation.
Utiliser Git et la CI/CD pour les projets Data : guide complet
Git est un système de gestion de versions distribué essentiel pour vos projets data. Il vous permet de suivre chaque modification de scripts, notebooks et fichiers de configuration, tout en facilitant la collaboration via des branches et des pull requests. Couplé à des outils de CI/CD (Intégration et Livraison Continues), vous pouvez automatiser les tests et le déploiement de vos pipelines data, garantissant un code toujours fonctionnel et fiable.
Construire un nuage de points (scatter plot) avec Python
Les nuages de points, ou scatter plots, permettent d’analyser les relations entre deux variables numériques. Cet article explique comment générer des données, utiliser Matplotlib pour tracer ces graphes, et personnaliser les visualisations avec Seaborn. Il aborde également des techniques pour représenter des catégories, ajouter des lignes de régression, et annoter les points.
Lexique de la data science
Ce lexique de la data science fournit des définitions essentielles sur divers termes tels que les algorithmes, l’apprentissage automatique, le big data, et les modèles d’intelligence artificielle. Il s’adresse à ceux qui cherchent à comprendre ces concepts techniques et leur impact sur l’analyse des données et les affaires.
Essayez de coder en Python
JupyterLite est une version légère de Jupyter, permettant d’exécuter du code Python directement dans le navigateur, sans aucune installation nécessaire. Elle utilise Pyodide et WebAssembly pour exécuter Python localement. Bien que pratique pour partager des notebooks et réaliser des démos, ses fonctionnalités Python sont parfois limitées.
KNIME : une plateforme data science 100 % open source et évolutive
KNIME est une plateforme open source leader en data science, lancée en 2004 et gratuite depuis 2006. Elle permet de préparer, analyser, et automatiser des workflows de données via une interface intuitive basée sur des nœuds. Ses capacités s’étendent à l’IA, le big data, et le NLP, tout en bénéficiant d’une communauté active.