Test Mustererkennung

Obwohl die Mustererkennung manchmal als eine andere Form der Statistik betrachtet wird, gibt es wichtige konzeptionelle Unterschiede (Hogeweg, 1976a): In der Statistik werden Abweichungen von der Zufälligkeit im Datensatz gesucht, während bei der Mustererkennung die Struktur im Datensatz gesucht wird. Beachten Sie, dass ein zufälliger Datensatz auch Struktur haben kann! Dieser Artikel konzentriert sich auf Machine Learning-Ansätze zur Mustererkennung. Mustererkennungssysteme werden in vielen Fällen aus beschrifteten “Trainingsdaten” (überwachtes Lernen) trainiert, aber wenn keine beschrifteten Daten verfügbar sind, können andere Algorithmen verwendet werden, um bisher unbekannte Muster zu entdecken (unbeaufsichtigtes Lernen). Maschinelles Lernen steht in enemtoler bezogen auf die Mustererkennung und stammt aus künstlicher Intelligenz. KDD und Data Mining konzentrieren sich stärker auf unbeaufsichtigte Methoden und eine stärkere Verbindung zur geschäftlichen Nutzung. Die Mustererkennung konzentriert sich mehr auf das Signal und berücksichtigt auch Die Erfassung und Signalverarbeitung. Es stammt aus dem Ingenieurwesen, und der Begriff ist im Kontext der Computer Vision beliebt: eine führende Computer Vision Konferenz heißt Konferenz über Computer Vision und Mustererkennung. Bei der Mustererkennung kann ein höheres Interesse an der Formalisierung, Erklärung und Visualisierung des Musters bestehen, während maschinelles Lernen sich traditionell auf die Maximierung der Erkennungsraten konzentriert. Doch all diese Bereiche haben sich wesentlich von ihren Wurzeln in künstlicher Intelligenz, Technik und Statistik entwickelt, und sie sind sich immer ähnlicher geworden, indem sie Entwicklungen und Ideen voneinander integrieren.

Viele gängige Mustererkennungsalgorithmen sind probabilistisch, da sie statistische Schlussfolgerungen verwenden, um die beste Bezeichnung für eine bestimmte Instanz zu finden. Im Gegensatz zu anderen Algorithmen, die einfach eine “beste” Bezeichnung ausgeben, geben oft auch probabilistische Algorithmen eine Wahrscheinlichkeit aus, dass die Instanz durch die angegebene Bezeichnung beschrieben wird. Darüber hinaus geben viele probabilistische Algorithmen eine Liste der N-besten Labels mit zugehörigen Wahrscheinlichkeiten für einen bestimmten Wert von N aus, anstatt einfach nur ein einziges bestes Label. Wenn die Anzahl der möglichen Etiketten relativ gering ist (z. B. bei der Klassifizierung), kann N so eingestellt werden, dass die Wahrscheinlichkeit aller möglichen Etiketten ausgegeben wird. Probabilistische Algorithmen haben viele Vorteile gegenüber nicht-probabilistischen Algorithmen: In Statistiken werden Gruppen (und eine zugrunde liegende Verteilung) vorab angenommen und Tests durchgeführt, um festzustellen, ob sich diese Gruppen signifikant voneinander unterscheiden (d.h. mehr als allein aufgrund zufälliger Schwankungen zu erwarten ist), während bei der Mustererkennung Gruppen per se generiert werden.

This entry was posted in Uncategorized by admin. Bookmark the permalink.

Comments are closed.