2023-01-11 | Florian Erhard | 5 min read
5 wichtige AI & Data Science Trends für 2023
Das Data-Science-Team der Scandio identifiziert fünf wesentliche Technologietrends für 2023 und darüber hinaus. Erfahren Sie, was Entwicklungen wie Scalable AI, Foundation Model und Data Sharing bedeuten – und warum die Datenkompetenz aller Mitarbeitenden für den zukünftigen Unternehmenserfolg entscheidend ist.
Data Science (DS) und verwandte Bereiche gehören zu den aktuell vielversprechendsten Technologiedisziplinen. Viele wegweisende Entwicklungen wurden durch DS, künstliche Intelligenz (KI) und maschinelles Lernen (ML) ermöglicht. Das Potenzial ist nach wie vor enorm.
Für 2023 (und darüber hinaus) haben meine Kolleg:innen und ich fünf Trends identifiziert – basierend auf unseren Erfahrungen aus Kundenprojekten, wissenschaftlichen Arbeiten und dem Austausch mit anderen Expert:innen in der Community.
KI & Data Science Trends 2023:
- Scalable AI
- Foundation Models
- Trustworthy AI
- Data Sharing
- Governmental Regulation
Was bedeuten diese Schlagworte und warum sollten sich Unternehmen dafür interessieren? Die Antwort beginnt genau hier.
Scalable AI – skalierbare künstliche Intelligenz
Aus rechentechnischer Sicht bedeutet skalierbare KI, dass Arbeitslasten, die auf maschinellem Lernen basieren, je nach aktueller Systembelastung hoch oder herunter skaliert werden können.
Skalierbarkeit umfasst aber auch die Frage, wie die Daten, die die KI-Modelle benötigen, gespeichert und organisiert werden können. Ziel ist einerseits, dass der Zugriff auf die Daten schnell, sicher und zuverlässig über eine Vielzahl von Datenquellen hinweg erfolgen kann. Da KI-Modelle immer ausgefeilter und leistungsfähiger werden, nehmen sie in der Regel andererseits auch an Größe zu und erfordern immer mehr Rechenleistung und eine entsprechende IT-Infrastruktur, die es wiederum zu warten gilt. Diese Infrastruktur stetig zu erweitern, ist dabei aber keine wirklich nachhaltige Lösung.
In diesem Zusammenhang sind Data Fabric und Data Mesh zwei Ansätze zur Verwaltung, Verteilung sowie Nutzung von Daten in einem Architektur-Framework. Um diese Ziele zu erreichen, verändern Unternehmen ihre Organisationsstruktur und ermöglichen bzw. erleichtern die bestmögliche Nutzung von Daten, um deren Mehrwert zu maximieren. Noch wichtiger ist, dass Unternehmen alle ihre Mitarbeiter:innen (und nicht nur Data Scientists und andere Expert:innen) dazu ermutigen und entsprechend fördern, die eigenen Fähigkeiten bezüglich Arbeit und Umgang mit Daten zu verbessern.
Daten werden in Zukunft in noch größerem Umfang zur Verfügung stehen. Entsprechend wichtig ist es, dass jede:r Mitarbeitende die Fähigkeiten und Kompetenzen zum Umgang damit aufbaut.
Foundation Models – Grundlagen-Modelle
Die erste Welle der auf neuronalen Netzen basierten KI-Modelle hat aufgabenspezifische Modelle (task specific models) hervorgebracht. Diese Modelle waren es, die in den letzten Jahren bei der Lösung von Problemen mittels Deep Learning primär zum Einsatz gekommen sind. Um die Modelle zu trainieren, benötigt man jedoch große Mengen an gelabelten Daten für die jeweilige Aufgabe. Wenn kein Datensatz verfügbar ist, ist das Sammeln und manuelle Labeln der Daten ein ressourcenintensives und aufwändiges Unterfangen. Außerdem belastet das Trainieren großer Modelle auf riesigen Datenmengen für jede neue Aufgabe die Umwelt nicht unerheblich, da die für die notwendigen Berechnungen erforderlichen Rechenkapazitäten sehr viel Energie verbrauchen.
Aktuell erleben wir eine zweite Entwicklungswelle an KIs (engl. AI: Artificial Intelligence), und mit ihr das Aufkommen von Grundlagen-Modellen (foundation models) wie Florence, DALL-E-2, oder Flamingo. Diese Art von KI-Modellen benötigt ebenfalls eine große Menge an Daten – allerdings ungelabelte Daten. Das ist ein großer Vorteil: Ein so trainiertes Grundlagenmodell kann im Vergleich mit weniger zusätzlicher Feinabstimmung für eine ganz bestimmte Aufgabe verwendet werden. So kann man zum Beispiel zunächst ein Computer-Vision-Modell auf Basis der riesigen Anzahl von Bildern im Internet trainieren, und dieses Modell später für den speziellen Zweck des Fahrens eines Autos feinabstimmen.
Das Scandio Data-Science-Team besteht derzeit aus 20 Expert:innen mit unterschiedlichen fachlichen Hintergründen – von Data Scientists und Data Engineers über Software Engineers bis hin zu MLOps Engineers.
Lerne unser Team kennen und lies den Scandio Report: Data Science Edition.
Trustworthy AI – Vertrauen in die KI
Vertrauenswürdige KI bedeutet, Vertrauen in die Entscheidungsfindung von AI-Modellen zu schaffen und aufzubauen. KI-Modelle werden oft als eine Art "Black Box" betrachtet, in die man Daten einspeist (z. B. ein Bild, das eine Scandio-Kaffeetasse zeigt) und ein Ergebnis erhält (eine Kaffeetasse, die durch Begrenzungskästchen auf dem Bild markiert ist). Dabei weiß man nicht immer wirklich, wie genau das KI-Modell zu seiner Entscheidung gekommen ist.
So trivial das im Falle der Erkennung von Kaffeebechern erscheinen mag, so schnell gewinnt das Thema an Bedeutung, wenn KI-Modelle bei medizinischen Diagnosen oder der Bewertung von Lebensläufen bei Bewerbungen mitwirken. In diesem Umfeld nicht zu verstehen, wie das Modell zu seiner Schlussfolgerung kommt, kann schwerwiegende Folgen haben.
Aufgrund dieser Blackbox-Eigenschaft arbeiten Unternehmen und Wissenschaft an der Erforschung von Methoden, die Einblicke in die Entscheidungsprozesse von KI-Modellen geben. Das ist ein wesentliches Element, damit Kund:innen und Nutzer:innen Anwendungen mit künstlicher Intelligenz umfänglich vertrauen können und möchten.
Data Sharing – Daten gemeinsam nutzen
Mit stetig zunehmender Menge an produzierten und verfügbaren Daten gewinnt deren gemeinsame Nutzung immer mehr an Relevanz.
In den letzten Jahren bedeutete das Teilen von Daten dabei letztlich das Kopieren eines Datensatzes und das Versenden an die/den jeweiligen Empfänger:in. Mit wachsendenden Datenmengen wird dieses Verfahren jedoch wegen der überflüssigen Vervielfachung der Daten, und dem damit verbundenen steigenden Speicherbedarf immer weniger praktikabel. Außerdem ist das Eigentum an den Daten nicht immer eindeutig und rechtlich abgesichert, was die gemeinsame Nutzung von Daten von vornherein erschwert.
Da die Menge der produzierten und verfügbaren Daten auch in Zukunft stetig zunehmen wird, gewinnt die gemeinsame Nutzung von Daten immer mehr an Bedeutung.
Unternehmen haben die Herausforderung erkannt und Initiativen zur Lösung durch unternehmensübergreifende Kooperation gestartet. So arbeiten beispielsweise mehrere deutsche Automobilunternehmen und unter anderem die Deutsche Telekom am Aufbau eines offenen, skalierbaren Netzwerks für den unternehmensübergreifenden und sicheren Informations- und Datenaustausch in der Fahrzeugindustrie.
Governmental Regulation – ein gesetzlicher Rahmen
Die im April 2021 vorgeschlagene europäische Verordnung über künstliche Intelligenz könnte der weltweit erste Rechtsrahmen für KI sein, der von einem bedeutenden staatlichen Regulierer erlassen wird. Es stuft Anwendungen künstlicher Intelligenz in vier Risikokategorien ein, wobei Anwendungen der höchste Risikokategorie "unannehmbares Risiko" (z.B. soziales Scoring durch eine Regierung), per Gesetz verboten sind. Allerdings beinhaltet der Gesetzesvorschlag auch mehrere Unklarheiten und Ausnahmen.
Derzeit versuchen vor allem große Unternehmen herauszufinden, welche Auswirkungen die KI-Verordnung auf ihr Geschäft haben wird, wenn es um das Aufeinandertreffen von europäischem mit deutschem Recht und der gängigen Praxis geht. Es scheint, dass kleine und mittlere Unternehmen – ohne eigene Rechtsabteilung zur Analyse der vorgeschlagenen Regelung – hingegen eher die endgültige Fassung des Gesetzes abwarten.
Zukünftige Datenrelevanz
Man schätzt, dass die heutigen Daten nur zwei Prozent der Menge ausmachen, die im Jahr 2035 vorhanden sein werden. Allein diese Zahlen verdeutlichen die Dimension der Datenentwicklung und die Relevanz für die Zukunft. Sich jetzt mit Daten und ihrer sinnstiftenden Auswertung zu befassen, ist unerlässlich für zukünftigen Erfolg.
Dieser datenzentrierte Wandel ähnelt dem Übergang vom traditionellen zum agilen Projektmanagement. Ein Wandel, den Unternehmen und Mitarbeitende verinnerlichen und leben müssen, um ihn erfolgreich umzusetzen.
Das Data-Science-Team der Scandio berät Sie gerne bei Ihren Fragen.
- beginnend mit einer Anforderungsanalyse
- weiterführend mit einem kleinen, fokussierten Team zur Etablierung eines Proof of Concept
- bis hin zur Skalierung des Teams auf volle Größe, mit dem Ziel ein produktives Minimum Viable Product (MVP) zu erreichen.
Lassen Sie uns darüber sprechen, wie wir Sie unterstützen können. Jetzt Kontakt aufnehmen.
Scandiolife auf Instagram.
Connecte dich auf LinkedIn mit uns.
Hier zwitschert die Scandio auf Twitter.