Tous les articles de Cédric Le Penmelen
[Data Rider] Booster Mario Kart à l'IoT et à l'IA – Étape 1 : collecter les données IoT en temps réel
Imaginez un projet qui combine la vélocité de l'IOT, la fluidité du streaming de données, la robustesse de la conteneurisation et la puissance de l'IA. Ce projet utilise notre expertise...
Certification Databricks Certified Associate Developer for Apache Spark : comment la passer avec brio ?
Dans ce guide, je vous partage mon expérience personnelle sur la préparation et le passage de la certification Databricks Certified Associate Developer for Apache Spark, ainsi que mes conseils pour...
Les Data Lake / Warehouse / Lakehouse / Mesh expliqués à mes grands-parents
Si vous baignez dans l'univers de la Data depuis un certain temps, vous avez sûrement croisé ces termes énigmatiques : Data Lake, Data Warehouse, Data Lakehouse et Data Mesh. Vous...
Cas d'usage : créer un accélérateur de migration Data As Code
Dans le cadre d’une migration/standardisation d’un patrimoine applicatif de Cloudera v6 vers Cloudera Data Platform v7, et au vu du nombre de projets (~70) écrits en Spark-Scala ou PySpark-Python à...
EL, ELT et ETL : savez-vous différencier ces processus de traitement de données ?
Dans le monde de la Data, on rencontre régulièrement les termes EL, ELT et ETL. Ce sont 3 acronymes qui se ressemblent, et signifient : Extract and Load (EL), Extract, Load,...
Supervision opérationnelle d'une plateforme Big Data Hadoop : les 5 étapes du processus
Dans ce nouvel article dédié à la question du monitoring technique et opérationnel d’une plateforme Big Data Hadoop, sous Horton Works (HDP) ou Cloudera (CDH), et désormais avec Cloudera Data...
Supervision opérationnelle d'une plateforme Big Data Hadoop : périmètres et grands principes
Dans cet article, nous allons aborder la question du monitoring technique et opérationnel d’une plateforme Big Data Hadoop, sous Hortonworks (HDP) ou Cloudera (CDH), et désormais avec Cloudera Data Platform...
Apache Kafka expliqué à mes grands-parents
Quand on travaille dans le secteur des nouvelles technologies (souvent abstraites et complexes), ce n'est pas toujours simple d'expliquer le travail que nous réalisons ou encore le fonctionnement d'un programme....
Java / Scala / Spark : avez-vous subi la casse de l’année ?
Les dates et l’encodage (ANSI, UTF-8, UTF-16) ont toujours été et restent des épines dans le pied des développeurs. Le bug de l’an 2000 est passé, mais nous avons tout...
Pourquoi je développe en Spark-Scala pour mes projets Big Data ?
Spark est aujourd'hui un incontournable en Big Data pour préparer, traiter, agréger et modéliser de la donnée. En effet, ce framework open source est principalement utilisé pour faire du Data...