Différence entre la classification et la régression

Anonim

La classification et la régression sont des techniques d'apprentissage pour créer des modèles de prédiction à partir des données recueillies. Les deux techniques sont présentées graphiquement comme des arbres de classification et de régression, ou plutôt des organigrammes avec des divisions de données après chaque étape, ou plutôt, des «branches» dans l'arbre. Ce processus est appelé partitionnement récursif.

Classification

La classification est une technique utilisée pour arriver à un schéma qui montre l'organisation des données à partir d'une variable précurseur. Les variables dépendantes sont ce qui classe les données en groupes. L'arbre de classification commence par la variable indépendante, qui se divise en deux groupes déterminés par les variables dépendantes existantes. Il est destiné à élucider les réponses sous la forme de catégorisation provoquée par les variables dépendantes.

Régression

La régression est une méthode de prédiction basée sur une valeur de sortie numérique supposée ou connue. Cette valeur de sortie est le résultat d'une série de partitions récursives, chaque étape ayant une valeur numérique et un autre groupe de variables dépendantes qui se ramifient à une autre paire comme celle-ci. L'arbre de régression commence par une ou plusieurs variables précurseurs et se termine par une dernière variable de sortie. Les variables dépendantes sont des variables numériques continues ou discrètes.

Quelle est la différence entre la classification et la régression

La principale différence entre l'arbre de classification et l'arbre de régression est leur variable dépendante. Pour l'arbre de classification, les variables dépendantes sont catégoriques, tandis que l'arbre de régression a des variables dépendantes numériques. Ceux de l'arbre de classification ont également une quantité définie de valeurs non ordonnées, tandis que ceux de l'arbre de régression ont des valeurs discrètes mais ordonnées ou des valeurs indiscrètes. Un arbre de régression est construit dans le but d'adapter un système de régression à chaque branche déterminante de manière à ce que la valeur de sortie attendue soit élevée. D'autre part, un arbre de classification se ramifie comme déterminé par une variable dépendante dérivée du nœud précédent.

Les arbres de régression et de classification sont des techniques utiles pour cartographier le processus qui pointe vers un résultat étudié, que ce soit en classification ou en une seule valeur numérique.

En bref:

• Les arbres de classification ont des variables dépendantes qui sont catégorielles et non ordonnées.

• Les arbres de régression ont des variables dépendantes qui sont des valeurs continues ou des valeurs entières ordonnées.