🚀 Ingénieur Solutions Techniques et Data Analytics | Python | SQL | Gouvernance des Données | Automatisation
Formation Éducative: Je suis titulaire d'un Diplôme de Licence en Génie Mécanique et d'un Master en Ingénierie Industrielle, ce qui m'a fourni une base solide en résolution de problèmes complexes et en réflexion analytique. Au fil des ans, j'ai affiné mon expertise grâce à des certifications en Science des Données, Apprentissage Automatique et Finance, ce qui m'a permis de me spécialiser dans l'ingénierie de solutions techniques et analytiques.
Apprentissage Continu: Je m'engage à rester à la pointe des tendances de l'industrie, apprenant constamment de nouveaux outils et méthodologies pour améliorer mon analyse. Que ce soit en suivant des blogs de l'industrie, en assistant à des webinaires ou en obtenant de nouvelles certifications, je m'assure que mes compétences restent affûtées et pertinentes dans le paysage des données en constante évolution.
Motivation: Mon parcours est animé par une forte curiosité et la volonté de résoudre des défis technologiques complexes. Ayant un profond intérêt pour l'automatisation des processus et l'architecture des données, je suis passionné par la création de systèmes qui apportent des changements significatifs au sein de l'entreprise. Ce qui me motive le plus, c'est l'opportunité de remplacer les inefficacités par des solutions technologiques évolutives et automatisées ayant un impact mesurable.
Compétences de Base: J'ai développé un ensemble de compétences diversifiées, incluant Python, SQL, PostgreSQL, et des outils modernes de Business Intelligence. J'ai évolué dans des environnements de haute technologie tels que Thales Alenia Space et Leonardo Helicopters. Dans mon rôle actuel chez Leonardo, je pilote des initiatives de Gouvernance des Données et de Suivi des Performances. En développant des solutions sur mesure en Python et SQL, j'ai automatisé des processus de reporting complexes, améliorant considérablement la précision des données et l'efficacité opérationnelle du département.
Compétences Douces: Je combine mes compétences techniques avec un esprit logique orienté vers la résolution de problèmes. J'excelle dans l'analyse de processus défaillants pour concevoir des solutions robustes, optimisées et faciles à utiliser.
Intérêts Personnels: Je suis un coureur enthousiaste et un amoureux de la montagne, toujours à la recherche de nouveaux défis et aventures. Ma dévotion pour la course à pied reflète mon engagement et ma persévérance dans tous les aspects de la vie. De plus, je suis un passionné supporter de la Fiorentina et je ne manque jamais un match.
Explorez certains des projets clés sur lesquels j'ai travaillé. Cliquez sur les titres des projets pour voir les détails et accéder aux dépôts GitHub de chaque projet.
Description: Une application de bureau robuste construite avec Python et Tkinter qui a remplacé avec succès un logiciel externe défaillant. J'ai développé cet outil interne de A à Z pour gérer et simplifier des flux de travail complexes. Résultat : optimisation des opérations de bureau, meilleure précision des données et réduction drastique des temps de traitement.
Description: Un système CRM entièrement intégré construit en utilisant PostgreSQL, Python et Power BI. Le système gère les données des clients, suit les opportunités de vente et surveille les interactions, fournissant des informations précieuses pour améliorer les relations avec les clients et les stratégies commerciales.
Description: Ce projet se concentre sur l'analyse des ventes des magasins Walmart et la prévision des ventes futures en utilisant des techniques de machine learning. En utilisant le jeu de données "Walmart Recruiting - Store Sales Forecasting" disponible sur Kaggle, j'explore les tendances des ventes, identifie les facteurs clés influençant les ventes et construis des modèles prédictifs pour améliorer la prise de décision commerciale.
Description: Ce projet analyse le comportement d'achat des clients en utilisant le jeu de données Online Retail (UCI Machine Learning). Nous mettons en œuvre une analyse RFM (Récence, Fréquence, Monétaire) et utilisons le clustering K-Means pour segmenter les clients. Les résultats sont affichés dans un tableau de bord interactif Streamlit.
Description: Ce projet se concentre sur l'optimisation des portefeuilles d'investissement en utilisant la Théorie Moderne du Portefeuille (MPT). L'objectif est de construire un outil web qui permet aux utilisateurs de saisir des symboles boursiers et de recevoir une allocation de portefeuille optimisée. Le modèle calcule la Frontière Efficiente, le Portefeuille à Variance Minimale (MVP) et le Portefeuille à Ratio de Sharpe Maximal (MSR) pour aider les investisseurs à équilibrer efficacement le risque et le rendement.
Description: Un site web de portfolio réactif pour un artiste, construit avec HTML, CSS et JavaScript. Il présente le travail de l'artiste dans un design épuré et moderne, et il est facile à naviguer.
Voici quelques exercices que j'ai réalisés pour diverses certifications, chaque projet mettant en avant des compétences spécifiques et des connaissances développées en utilisant R et Python :
Description: Optimisation des portefeuilles d'investissement en utilisant la frontière efficiente, le portefeuille à variance minimale (MVP) et le portefeuille à ratio de Sharpe maximal (MSR) pour équilibrer le risque et le rendement pour une prise de décision éclairée.
Description: Développement d'une application web interactive pour démontrer les concepts de test d'hypothèses en utilisant R. Utilisation de Shiny et ggplot2 pour créer des visualisations dynamiques qui améliorent la compréhension des méthodes statistiques par les utilisateurs.
Description: Réalisation d'une analyse de régression linéaire en utilisant R et RStudio. Analyse d'un jeu de données réel pour identifier les tendances et faire des prédictions, mettant en avant l'application pratique des techniques de modélisation statistique.
Description: Création d'un modèle de machine learning en utilisant R pour classer les types d'entraînement en fonction des données des capteurs. Mise en œuvre d'un algorithme de Random Forest avec validation croisée pour obtenir une haute précision dans les prédictions.
Description: Développement d'un modèle prédictif en R pour identifier la langue maternelle d'un utilisateur en fonction de son texte saisi. Utilisation de techniques de traitement du langage naturel (NLP) et de bibliothèques telles que tm et caret pour construire et évaluer le modèle.