Fachthemen

Künstliche Intelligenz und Machine Learning

Künstliche Intelligenz/Machine Learning: Turn Big Data into Smart Data

Künstliche Intelligenz (KI) und Maschinelles Lernen (Machine Learning, ML) – Hype oder Realität? Während viele Experten und Marktbeobachter noch darüber philosophieren und fachsimpeln, wie in Zukunft das Verhältnis zwischen Mensch und Maschine im Allgemeinen und menschlicher und künstlicher Intelligenz im Speziellen aussehen wird, zeigen immer mehr konkrete Anwendungsbeispiele aus der Praxis, dass es um diese Frage eigentlich schon lange gar nicht mehr geht. In vielen Bereichen hat die Maschine schon längst das Denken übernommen, die Frage die sich heute stellt, lautet viel mehr: Auf der Grundlage welcher Datenbasis hat die Maschine gelernt, zu „denken“. Bevor wir uns mit dieser Frage konkreter beschäftigen, soll nochmals kurz auf die wichtigsten Daten und Fakten zum Thema KI/Machine Learning eingegangen werden.

Künstliche Intelligenz / Machine Learning – was ist das?

Der Begriff Künstliche Intelligenz beschreibt im Allgemeinen ein Teilgebiet der Informatik, das sich mit der Erforschung und Simulation intelligenten menschlichen Verhaltens durch IT-gestützte Systeme (Roboter) und Programme (Algorithmen) beschäftigt.

Machine Learning (deutsch: maschinelles Lernen) ist wiederum ein Bestandteil künstlicher Intelligenz. Computerprogramme, die auf Machine Learning basieren, können mit Hilfe von Algorithmen eigenständig Lösungen für neue und unbekannte Probleme finden. Allerdings müssen sie dazu vorher ein entsprechendes „Trainingsprogramm“ durchlaufen. Beim „Supervised Learning“ lernt der Algorithmus beispielsweise anhand vorgegebener Lösungsbeispiele, durch Generalisierung Lösungen für weitere ähnliche Probleme zu finden.

KI und ML in der Praxis

In der Praxis gibt es schon jetzt eine Reihe konkreter Anwendungsbereiche für Künstliche Intelligenz/ Machine Learning. Die sicher derzeit der breiten Öffentlichkeit bekanntesten Anwendungsfälle fallen in den Bereich des „Cognitive Computing“. Darunter wird der Ansatz in der IT verstanden, Computertechnik wie ein menschliches Gehirn handeln zu lassen. Grundlage bieten dafür in die Regel die über Big-Data-Methoden erhobenen Datenmengen. Die bekanntesten Praxisbeispiele in diesem Bereich sind sicher der Supercomputer IBM Watson oder Spracherkennungssysteme wie Siri, Cortana oder Alexa. Aber auch der Google Suchalgorithmus setzt mittlerweile auf Künstliche Intelligenz. Unter dem Namen RankBrain wurde KI erstmals 2015 im Rahmen des Hummingbird-Updates in die Google Suche integriert.

Darüber hinaus gibt es auch im Unternehmensumfeld mittlerweile eine ganze Reihe von Anwendungsszenarien. Für die Telekom erledigt zum Beispiel mittlerweile eine entsprechende Software zuvor manuell ausgeführte Arbeiten bei Vertragsänderungen und Rückbuchungen. Und bei der Lufthansa hilft ein Chatbot Kunden dabei, den niedrigsten Flugtarif zu finden.

Darüber hinaus setzen Unternehmen immer häufiger auf Verfahren, die unter den Oberbegriff prädiktive Analysen (Predictive Analytics) fallen. Algorithmen erstellen dabei auf der Grundlage historischer Daten Prognosen für die zukünftige Entwicklung von Geschäftsprozessen oder Kundenbeziehungen. Dies hilft beispielsweise dem Finanzsektor beim Schadensmanagement und dem Erkennen betrügerischer Aktivitäten (z.B. Geldwäsche). Smart-Factory-Konzepte in Produktion und Fertigung nutzen diese Technologie heute bereits im Bereich Wartung (Predictive Maintenance). Dabei berechnen Algorithmen Ort und Zeit für die nächsten Wartungs- oder Instandhaltungsarbeiten bzw. alarmieren proaktiv vor dem Ausfall einer bestimmten Maschine oder Anlage.

In Marketing und Vertrieb unterstützen Predictive-Analytics-Verfahren heute bereits bei der Planung von Marketing- und Vertriebskampagnen.

Künstliche Intelligenz / Machine Learning in Vertrieb und Marketing: Schon heute wissen, was der Kunde morgen kauft

Dabei geht es insbesondere darum, schon heute Prognosen für das zukünftige Kunden- und Kaufverhalten zu treffen. Die Grundlage dafür bilden die im Unternehmen verfügbaren Kundendaten. Im Rahmen des bereits eingangs kurz beschriebenen „Supervised Learning“ lernt ein Algorithmus anhand dieser Daten, wer wo wann welches Produkt kaufen wird.

So kann es beispielsweise für den Betreiber eines Online-Shops für Fahrräder sinnvoll sein, mit dieser Technologie Trends darüber abzuleiten, in welchen Regionen welcher Typ der von ihm angebotenen Fahrräder am besten ankommt. Generell kann er zwar annehmen, dass Mountain Bikes in den Bergen und City Bikes in der Stadt „der Renner“ sind, der Algorithmus wird ihm aber für diese Annahmen valide Datenanalysen als Entscheidungsgrundlage liefern und ihm darüber hinaus noch weitere Indizien liefern, welche Fahrradtypen regional am meisten nachgefragt werden.

Darüber hinaus kann sich der Online-Shop-Betreiber verfügbare Informationen über die demographische Struktur und Verteilung seiner Kunden zu Nutze machen. Weiß er beispielsweise, wer von seinen Kunden in jüngster Vergangenheit ein Kinderfahrrad erworben hat, kann er davon ausgehen, dass es sich dabei um Familien mit Kindern handelt. Diese Kinder werden älter und größer und benötigen deshalb sicher in Zukunft regelmäßig ein neues Fahrrad. Damit ist ihm eine gezielte Kundenansprache möglich, er kann seine Marketing- und Vertriebskampagnen entsprechend ausrichten und positioniert sich so als kompetenter Begleiter seiner Kunden auf deren „Customer Journey“, weil er ihre spezifischen Bedürfnisse, Wünsche und Interessen kennt.

Dies gilt natürlich auch für die Wahl der richtigen Kommunikationskanäle. Gerade der digitale Kunde hinterlässt heute überall seine digitalen Spuren: im Internet, in den sozialen Medien, etc. Gelingt es dem Anbieter, diese Spuren zu „lesen“ und in die Daten einfließen zu lassen, die der Algorithmus für seine Analysen und die darauf basierenden Prognosen nutzt, verfügt er über einen unschätzbaren Vorteil gegenüber dem Wettbewerb.

Bevor der der Betreiber des Online-Shops in unserem Beispiel allerdings auf die Prognosen des Algorithmus zurückgreifen kann, muss dieser entsprechend trainiert werden. Dies geschieht in der Praxis in der Regel auf der Grundlage einer Datenbasis von ca. zehn Prozent der verfügbaren historischen Daten im Unternehmen. Anhand eines Training Sets „lernt“ der Algorithmus, welche Objekte er anhand welcher Kriterien erkennen soll, in einem Test Set wendet er das Gelernte dann entsprechend an. Der Trainingserfolg hängt dabei maßgeblich von der Qualität der im Training verwendeten Daten ab. Ein mit „guten“ Daten trainierter Algorithmus ordnet zwischen 70 und 80 Prozent der Objekte korrekt zu.

Schlechte Daten führen zu schlechten Prognosen

Sind die Daten, mit denen der Algorithmus trainiert wird, allerdings schlecht, fällt das Lernergebnis – und damit auch die Prognose natürlich auch dementsprechend schlecht aus. In der Regel werden dann nur noch maximal 50 Prozent der Objekte richtig zugeordnet.

Eine weitaus fatalere Folge schlechter Trainingsdaten ist allerdings, dass der Algorithmus falsch Gelerntes auch falsch anwendet, der Betreiber des Online-Shops dies allerdings überhaupt nicht merkt, da ihm falsche Ergebnisse als richtig angezeigt werden. Er wird einfach getäuscht. Fazit: Eine möglichst hohe Datenqualität ist entscheidender Erfolgsfaktor für die Präzision der Lernergebnisse des Algorithmus und – was noch wichtiger ist - für die Vertrauenswürdigkeit dieser Ergebnisse. Passt man da nicht auf, lernt der Algorithmus schnell auch etwas Falsches.

In einem gemeinsamen Projekt der Hochschule der Medien und der Firma Uniserv konnte der Zusammenhang zwischen der Datenqualität und den Ergebnissen von Prognosen aus Predictive Analytics auch empirisch nachgewiesen werden. Dabei wurde mit Hilfe verschiedener Testszenarien, in denen Datenanalysen mit Hilfe von Stammdaten von verschiedener Qualität durchgeführt wurden, der Zusammenhang zwischen qualitativ hochwertigen Stammdaten und den Ergebnissen der Analyse via Supervised Machine Learning überprüft. Ergebnis: Vor allem beim Supervised Learning, bei dem die Stammdaten die Grundlage für das Lernen des Algorithmus bilden, konnten mit einer durch Stammdatenmanagement qualitativ hochwertig aufbereiteten Datengrundlage deutlich bessere Vorhersagen erzielt werden als beim Machine Learning mit einem unbehandelten Datenset.

KI/ML: „Alle blicken zur Spitze des Wolkenkratzers und vergessen häufig die Bedeutung des Fundaments…“

"It's like when you see a skyscraper: You're impressed by the height, but nobody is impressed by the foundation. But make no mistake, it's important. You have to have good data management to take advantage of AI." Mit dieser Aussage bestätigt Akshay Tandon, Vice President und Head of Strategy and Analytics bei der Firma LendingTree Inc., einem amerikanischen Online-Finanzdienstleister, die zentrale Bedeutung qualitativ hochwertiger Kundendaten, wenn es für Unternehmen darum geht, die Vorteile von Künstlicher Intelligenz voll auszuschöpfen. Für die Bereiche Marketing und Vertrieb bedeutet dies, dass ein erfolgreicher Einsatz von KI/ML für die Planung zukünftiger Kampagnen erst möglich ist, wenn es gelingt, sich einen 360-Grad-Blick über den Kunden zu verschaffen und die im Unternehmen verfügbaren „Big Data“ in „Smart Data“ zu verwandeln.

Mit Ground Truth hat die Firma Uniserv eine Lösungs- und Prozess-Methodik entwickelt, die Unternehmen entsprechend dabei unterstützt, in einem mehrstufigen Vorgehen letztendlich das Golden Profile eines jeden Kunden zu erstellen, das dessen Adressdaten, sein Kaufverhalten, seine Interessen und Vorlieben, aber auch seine Kommunikation und Interaktion mit dem Unternehmen zu einem zentralen Datensatz aggregiert. Darüber hinaus werden in den Golden Profiles die bereits erwähnten „Spuren“ integriert, die der Kunde im Internet und den sozialen Netzwerken hinterlässt. Sprich, die Stammdaten eines jeden Kunden (Golden Record) sowie die Bewegungsdaten (Transaktions- und Interaktionsdaten) werden zusammengeführt (Golden Profile). Ground Truth sorgt darüber hinaus für eine kontinuierliche Aktualisierung dieser Daten sowie eine Synchronisierung der Daten über die unterschiedlichen Datenquellen hinweg.

Ground Truth wird damit in der digitalen Welt endgültig zur zentralen Komponente für eine optimale und nachhaltige Datenqualität im Unternehmen.

Fazit: Künstliche Intelligenz und Maschinelles Lernen sind schon lange keine „Zukunftsmusik“ mehr, sondern haben sich in vielen Unternehmensbereichen bereits als Grundlage zur Automatisierung und Digitalisierung von Geschäftsprozessen etabliert. Im Marketing- und Vertriebsbereich sind diese neuen Technologien ein wichtiges Tool, das über den Erfolg und Misserfolg zukünftiger Kampagnen – und damit über den zukünftigen Geschäftserfolg der entsprechenden Unternehmen entscheidet. Doch nur wenn die für diese Verfahren verwendeten Daten eine hohe Qualität (Präzision, Aktualität, Vollständigkeit) besitzen, wird der Einsatz dieser Verfahren von Erfolg gekrönt sein.