4 Algorithmes : Random Forest, SVM, XGBoost & Decision Tree
Validation croisée | Optimisation hyperparamètres | Sélection modèle
Cet algorithme entraîne et compare plusieurs modèles de machine learning pour la classification des cultures agricoles. Il utilise les échantillons préparés précédemment, applique une validation croisée et optimise les hyperparamètres pour sélectionner le meilleur modèle.
Évaluation robuste des performances avec k-fold cross-validation
Recherche automatique des meilleures configurations pour chaque algorithme
Évaluation comparative de 4 algorithmes différents
Identification et sauvegarde du modèle aux meilleures performances
Points d'échantillonnage avec valeurs spectrales et labels
Format : Shapefile ou GeoPackage
Attributs requis : Bandes spectrales + champ culture
Attribut contenant les types de cultures
Type : Texte
Exemples : "culture", "type_culture", "label"
Sélection des algorithmes à entraîner et comparer
Options :
Activation/désactivation de l'optimisation des hyperparamètres
Options : Oui/Non
Défaut : Oui
Désactiver pour un entraînement plus rapide mais moins performant
Meilleur modèle sauvegardé au format pickle
Format : .pkl
Contenu : Modèle + métadonnées (noms des features, classes)
Objets de prétraitement nécessaires pour la prédiction
Format : .pkl
Contenu : Scaler et encodeur de labels
Rapports détaillés des performances de tous les modèles
Format : Fichiers texte
Contenu : Métriques, matrices de confusion, importance des variables
Lecture des échantillons et extraction des features/labels
Nettoyage, imputation des valeurs manquantes et normalisation
Division des données selon le champ "Train" des échantillons
Entraînement de chaque algorithme sélectionné
Recherche des meilleures configurations (si activé)
Comparaison des performances et sélection du meilleur modèle
Pourcentage de prédictions correctes
Objectif : > 85%
Moyenne harmonique entre précision et rappel
Objectif : > 0.8
Métriques par classe (précision, rappel, f1-score)
Format : Tableau et valeurs agrégées
Assurez-vous d'avoir suffisamment d'échantillons pour chaque classe
Vérifiez l'importance des variables et supprimez les moins importantes
Utilisez toujours la validation croisée pour une évaluation robuste
Pour de grands jeux de données, désactivez l'optimisation hyperparamètres