Maschinelles Lernen - eine Einführung

Durch "Maschinelles Lernen" treffen "Big Data" und "Künstliche Intelligenz" auf einander. Wohingegen Datenanalysten in den letzten Jahren einige spektakuläre Erfolge bei der innovativen Interpretation großer Datenmengen gezeigt haben, entgehen subtile Korrelationen / schwache Signale oft dem menschlichen Auge. Wenn interessante Ergebnisse mit einer großen Anzahl von Datenströmen korrelieren, von denen einige mit gegenläufigen Effekten, wird es notwendig, automatisierte Analysetechniken anzuwenden um diese Korrelationen zu identifizieren und zu bewerten. "Überwachte (Supervised)" Maschinelle Lernsysteme verlassen sich auf eine große Anzahl von "Beispielen", um "zu lernen", solche Korrelationen zu erkennen. Moderne Programmiersprachen wie Python haben es ermöglicht, solche Modelle relativ einfach zu erstellen. Die in Python geschriebenen Analysen und die geschwindigkeitskritischen Codebibliotheken in C / C ++ bieten dem Datenwissenschaftler eine optimale Kombination von Codierungs- und Ausführungsgeschwindigkeit.

Anhand eines Beispiels, das viele aus Schul- und / oder Arbeitszeiten wieder erkennen werden, zeigt die folgende Abbildung von Alter und Höhe (die X-Markierungen / Datenpunkte) für Bäume. Diese wachsen im Allgemeinen mit dem Alter, so dass es möglich ist, eine aufwärts geneigte Gerade zu zeichnen, die eng mit dem gesamten Satz von Datenpunkten übereinstimmt. Diese Methode ist als lineare Regression bekannt.
An example of a linear regression where the points representing a tree's
              age and height are approximated by a line.
Im Ergebniss ist es jetzt möglich, auf Grundlage des Alters eine zutreffende Prognose für die Höhe eines Baumes zu machen. Wenn eine Maschine die Höhe bestimmt, indem sie zuerst die bestpassende Linie durch die Eingangsdaten berechnet, kann dies als ein sehr einfaches Beispiel für maschinelles Lernen betrachtet werden. Durch Hinzufügen weiterer Parameter, wie z.B. Die Fruchtbarkeit des Bodens zur genaueren Bestimmung der Höhe, führen wir eine multivariable Regression durch. Viele maschinelle Lernmodelle verwenden genau diese Technik.

Maschinelles Lernen - Herausforderungen an die Geschäftsführung

Aufgrund einer stark gesteigerten Leistungsfähigkeit moderner Rechnersysteme wurden lernende Systeme neulich praktisch anwendbar und haben sich zuletzt sehr verbreitet. Dabei sieht man unterschiedliche Anwendungsmodelle. Einerseits gibt es mittlerweile eine Großzahl an Cloud- basierten Anbietern, die es Geschäftskunden ermöglichen (fast) ohne eigene Investierung Datenanalysen durchführen zu lassen. Allerdings werden dadurch die entsprechenden Kompetenzen nahezu ausschließlich beim Anbieter aufgebaut. Langfristig können sich ein sicheres Abhängigkeitsverhältnis zum Anbieter sowie eine Herausforderung, sich vom Wettbewerber zu differenzieren, ergeben. Andererseits kann man sich in-house Kompetenzen aufbauen. Das erfordert eine sichere Investitionsbereitschaft bei nicht immer vorhersagbaren Ergebnissen. Generell sieht man hier das Risiko, Projekte außerhalb der Kernaktivitäten der Firma zu realisieren bzw. dass "Inselprojekte" in der IT bzw. Fachabteilungen entstehen. Eingehende Studien haben gezeigt, dass ein Kommunikationsabriß zwischen Management und Technologie generell zu den größten Risiken für die erfolgreiche Durchführung solcher Projekte gehören Somit sieht die Firmenleitung sich mit der zwingenden Notwendigkeit konfrontiert, eine Entscheidung welche Bereiche zu den Kernkompetenzen gehören bzw. wo eine eigene strategische Positionierung notwendig ist, zu treffen. Mehr dazu unter: Machine Learning aus Manager Sicht

Deep Learning / Neural Networks

Eine spezielle Art der M.L. Systeme sind neuronale Netze , die die Funktionsweise des Gehirns nachahmen. Sie sind besser geeignet, nicht-lineare Beziehungen zu identifitps:zieren als die eher traditionellen maschinellen Lerntechniken. Die jüngste Konstruktion von mehrschichtigen neuronalen Netzen ist als deep Learning bekannt geworden.

Data Science / Big Data

"Big Data" ist ein generischer Ausdruck, der sich auf große Mengen unstrukturierter und halbstrukturierter Daten bezieht, die mit hoher Geschwindigkeit erzeugt werden. Moderne Massendaten-Handhabungstechnologien wie "Hadoop" ermöglichen es Unternehmen und Institutionen, alle Daten die entweder im eigenen Haus oder im Umgang mit der Umwelt produziert werden, zu erfassen.

Mit der Digitalisierung von nahezu allen Geschäftsprozessen haben viele dieser begonnen, eigene Daten zu generieren. Wichtige Geschäftsmöglichkeiten können in diesen Daten versteckt liegen. Individuelle Kundengeschäfte generieren einen Überblick über die Umsatzentwicklung für einzelne Kunden. Dadurch kann die Notwendigkeit von Stichproben und Statistiken ("n = all") vermieden werden. Dies kann wichtige Erkenntnisse für das Verbessern der Marketingstrategie und / oder eine genauere Produktionsplanung liefern. Die Beachtung von Produktionsparametern für das einmalige Produkt und die Analyse solcher Parameter kann Ursachen für Fehlerkenntlich machen.

Nicht alle diese Daten sind leicht zugänglich für eine Analyse. Ein Großteil davon liegt in Firmen-ERP-Systemen, Systemprotokollen oder sogar geräte-intern versteckt. Außerdem ist nur ein kleiner Teil der Daten sofort nützlich. Die Suche nach Wert in der Analyse dieser Daten ist die Domäne des Datenwissenschaftlers / Analytikers . Die Gewinning von Erkenntnissen aus solchen Daten wird als Data Mining bezeichnet Die Unternehmensleitung muss große Datenprojekte sorgfältig in ihrer Unternehmensstrategie einbetten und überwachen, um deren Erfolg zu ermöglichen. Die bisherigen Erfahrungen haben gezeigt, dass diese Projekte in der Regel ohne Top-Management-Buy-in scheitern oder weit unter ihrem Potenzial bleiben. Typischerweise können Störfälle wie irrelevante Ergebnisse, Abteilungsdaten-Egoismus, geschäftliche / IT-Sprachbarrieren nur durch Management-Kontrolle und Brückenbau zwischen Unternehmensführung und Strategie einerseits und IT andererseits vermieden werden.

Künstliche Intelligenz

"Künstliche Intelligenz" (A.I.) ist jede Form von Intelligenz, die von Computersystemen ausgeht. Das Konzept ist etwas schlecht definiert, was durch den sogenannten Turing-Test für künstliche Intelligenz llustriert werden kann. Dieser wird verwendet, um die Fähigkeit einer Maschine zu erkennen sich so intelligent zu verhalten, dass ihre Intelligeny der menschlichen Intelligenz entspricht oder nicht von ihr unterscheidbar ist. Schon in den 1960er Jahren waren das ELIZA System, das schriftliche Aussagen von Testpersonen u.a. in Fragen umwandelte, von vielen als intelligent eingestuft worden.

Derzeit ist A.I. Ist durch ihre Hauptentwicklungsbereiche am besten zu definieren. Diese umfassen:
  • Mustererkennung einschließlich Verarbeitung menschlicher Sprache (Natural Language Processing, NLP) und fortgeschrittene Formen der Business Intelligence
  • Teilnahme an Spielen (z.B. Chess/Go)
  • Lenkung und Bedienung von Geräten und Maschinen in z.B. Produktion und Haushalt (Roboter), Verkehr (selbstfahrende Autos) usw.
  • "Allgemeines A.I.", d.h. die Fähigkeit einer Maschine, jegliche intellektuelle Aufgabe zu bewältigen, die ein Mensch lösen kann (derzeit noch Jahrzehnte entfernt).
Viele dieser Anwendungen nutzen das "maschinelle Lernen" und / oder "tiefes Lernen" (siehe folgenden Abschnitt) aus und werden bereits geschäftlich eingesetzt. NLP hilft, die von Benutzern wahrgenommene Service von Call-Centern zu menschlichen Schnittstellen zu verbessern. Spiellösungsstrategien untermauern moderne Navigationssysteme usw. Führende Anwaltskanzleien haben angefangen, Texte mit Mustererkennungssystemen zu analysieren, um relevante rechtliche Präzedenzfälle zu ermitteln.

Autonome Fahrzeuge

Vielleicht ist die spektakulärste Anwendung der maschinellen Lerntechnologie die laufende F & E an "autonomen Fahrzeugen". Hierbei handelt es sich um Motorfahrzeuge, deren Steuerung von Machine Learning Systemen übernommen wird. Sie benutzen Eingangsdaten von Kameras, LIDAR und anderen Sensoren. Durch das "Training" während vieler Stunden menschlich gesteuerten Fahrens identifizieren sie den Zusammenhang zwischen der Situation auf der Straße und dem zuzuordnenden Handeln. Dazu gehören die Einstellung der richtigen Richtung, Bremsen, Beschleunigung usw. Ähnliche Systeme sind für Schiffe und Flugzeuge in der Entwicklung. Die Marktreife dieser Systeme wird kontrovers diskutiert. Vermutlich werden sie Anfang der 2020er Jahre eine erhebliche Marktwirkung entfalten. Die Einführung autonomer Fahrzeuge erzeugt grundsätzliche Fragen zur Straßenverkehrsgesetzgebung, zur Dimensionierung von Verkehrssystemen, und zu Städte- und Wohnungsbau.

Erfahrung / Projekte
Predictive Maintenance
Vorausschauende Wartung - Machbarkeitsstudie
Köln 2017
Big Data
Konzern Ausgabenanalyse inkl. PO-Portfolio- & Vertragsanalyse
SOE 2016
Machine Learning
Sales für selbstlernendes Churn-Reduzierungs System
Bonn 2012
Data Analytics
Erstellung eines mathematischen Models für die Bestimmung einer Marktgröße
Frankfurt 2008
Weiter lesen:
Auf die aktuelle und zukünftige Gestaltung von verlinkten Drittseiten kann ich keinen Einfluss ausüben. Deswegen kann ich für diese keine Verantwortung übernehmen.
© 2017 Dr. Eduard H. van Kleef