Wir machen Ihre Daten zu Ihrem Erfolg.

Durch den Einsatz von AI, Machine Learning und Data Analytics.

Heutzutage steckt alles in Daten – auch Ihr Erfolg. Es ist keine triviale Aufgabe, Daten in Erfolg zu wandeln. Doch wir haben das Wissen und die Erfahrung, Ihnen genau dabei zu helfen. Sei es, dass Sie wissen möchten, welches Potenzial Ihre Daten beinhalten, welche wichtigen Hinweise sie verbergen oder welche Chancen daraus entstehen können. Wir decken den kompletten Lifecycle Ihres Vorhabens ab:

  • Data Analytics

    Jedes datengetriebene Projekt basiert darauf, Ihre Anwendungen, aber auch deren entsprechende Daten, genau zu verstehen. Wir gehen mit Ihnen diesen ersten großen Schritt und analysieren diesen Zusammenhang.

  • Data Processing

    Für die langfristige Speicherung und weiterführende Analyse Ihrer Daten bauen wir cloudbasierte Datenverarbeitungs-Pipelines auf.

  • Modelling

    Mit maschinellen Lernverfahren und Modellen optimieren wir Ihre Prozesse und schaffen einen datenbasierten Service, der Ihnen hilft, fundierte Analysen Ihrer Daten zu erstellen.

  • Training

    Wir schaffen passende Cloud-Umgebungen für das Trainieren des Modells und die Versionierung der Modelldateien.

  • Deployment

    Wir richten nicht nur die Continuous-Delivery-Pipeline ein, sondern entwerfen auch das Modell, um die Skalierbarkeit und die kontinuierliche Evaluierung des Modells zu gewährleisten.

Ganz gleich, ob Sie Ihre ersten Schritte im Bereich Data Science gehen oder bereits umfassende Machine-Learning-Projekte nutzen: Wir helfen Ihnen auf dem gesamten Weg!

  • 🚀

    Analyse der Herausforderungen als Startpunkt

  • 🚀

    Anschließende Arbeit eines kleinen Teams an einem Proof of Concept

  • 🚀

    Erweiterung des Teams auf die volle Größe, mit dem Ziel eines produktiven MVPs, einschließlich produktiven Betriebs

Machine Learning Data Science

Success Stories

Erfolgreiche Projekte, die unsere Fähigkeiten besser aufzeigen als alles andere. Objekterkennung in Kühlschränken

Herausforderung

Neue Kühlschränke eines deutschen Haushaltsgeräteherstellers sind mit Kameras ausgestattet, die jedes Mal ein Bild aufnimmt, wenn die Kühlschranktür geschlossen wird. Darauf aufbauend sollen Benutzer:innen benachrichtigt werden, wenn der Vorrat an gängigen Lebensmitteln wie z. B. Milch zur Neige geht.

Lösung

Die Scandio entwickelte State-of-the-Art-Algorithmen zur Objekterkennung. Außerdem halfen wir bei der Sammlung und dem Labelling von Daten, der Einrichtung von Data Pipelines sowie der Bereitstellung und Überwachen der Modelle in der Produktivumgebung.

Ergebnis

Ein Anwendungsfall des maschinellen Lernens wurde von Grund auf entwickelt und konnte vom Kunden erfolgreich auf den Markt gebracht werden.

Eingesetzte Technologien

TensorFlow, Python, Labelbox, MLflow, AWS

Vorhersage der Backzeit

Herausforderung

Smarte Backöfen erhalten Prognosen über die verbleibende Backdauer von AI-Modellen, die in der Cloud bereitgestellt werden. Ein erneutes Trainieren dieser Modelle basierend auf sehr großen Datenmengen sollte die Benutzererfahrung optimieren.

Lösung

Wir ermöglichten das Re-Training durch die Bereitstellung hochwertiger Trainingsdaten, die aus sehr großen Datensätzen (>10 TB) mittels hochskalierbarer Data-Querying-Pipelines extrahiert wurden. Seit der Bereitstellung werden die neuen Modelle ausgiebig überwacht.

Ergebnis

Die allgemeine Leistung des Machine Learning wurde erheblich verbessert und die Benutzererlebnis entsprechend optimiert.

Eingesetzte Technologien

TensorFlow, Python, pandas, MLflow, AWS

Analyse von Tracker-Daten

Herausforderung

"Tracker"-Photovoltaiksysteme sind aufgrund ihrer beweglichen Solarmodule anfälliger für fehlerhafte Montage und Verschleiß von Komponenten. Komponentenverschleiß. Die Daten, die innerhalb dieser Systeme gesammelt werden, müssen erfasst werden, um diese Risiken frühzeitig zu erkennen.

Lösung

Eine Grafana-Instanz visualisiert vorhandene Parameter und leitet Anomalien an die zuständigen Mitarbeitenden weiter.

Ergebnis

Das Projekt bietet eine klar strukturierte Oberfläche, die einen Überblick über das Verhalten aller Tracker-Anlagen gibt. So erhält der Kunde Schletter schnelle Einblicke und wird bei Auffälligkeiten sofort benachrichtigt.

Eingesetzte Technologien

Go, AWS, Grafana, Python, InfluxDB

Hyperion Machine Learning Dienstleistungen

Herausforderung

2019 suchte ein großer Haushaltsgerätehersteller nach einer Möglichkeit, Machine-Learning-Dienste für den produktiven Einsatz bereitzustellen. Die Dienste mussten hoch skalierbar sein und in eine umfangreiche Geschäftslogik integriert werden.

Lösung

Unsere Expert:innen haben einen Kubernetes-Cluster unter Verwendung von Amazon EKS und Seldon Core aufgebaut und Machine-Learning-Modelle mit der Business Logic verbunden.

Ergebnis

Aufbau einer Infrastruktur, die eine skalierbare und stabile Bereitstellung von Modellen in der Produktionsumgebung ermöglicht.

Eingesetzte Technologien

AWS, Kubernetes, Python, Seldon Core, Terraform, Amazon EKS, Apache Flink, Grafana

Ihnen fehlt eine Industrie? Hier geht es zu einigen typischen Anwendungsszenarien für die Branchen Automotive, Pharma und Halbleiter!

Herausforderung

Neue Kühlschränke eines deutschen Haushaltsgeräteherstellers sind mit Kameras ausgestattet, die jedes Mal ein Bild aufnimmt, wenn die Kühlschranktür geschlossen wird. Darauf aufbauend sollen Benutzer:innen benachrichtigt werden, wenn der Vorrat an gängigen Lebensmitteln wie z. B. Milch zur Neige geht.

Lösung

Die Scandio entwickelte State-of-the-Art-Algorithmen zur Objekterkennung. Außerdem halfen wir bei der Sammlung und dem Labelling von Daten, der Einrichtung von Data Pipelines sowie der Bereitstellung und Überwachen der Modelle in der Produktivumgebung.

Ergebnis

Ein Anwendungsfall des maschinellen Lernens wurde von Grund auf entwickelt und konnte vom Kunden erfolgreich auf den Markt gebracht werden.

Eingesetzte Technologien

TensorFlow, Python, Labelbox, MLflow, AWS

Herausforderung

Smarte Backöfen erhalten Prognosen über die verbleibende Backdauer von AI-Modellen, die in der Cloud bereitgestellt werden. Ein erneutes Trainieren dieser Modelle basierend auf sehr großen Datenmengen sollte die Benutzererfahrung optimieren.

Lösung

Wir ermöglichten das Re-Training durch die Bereitstellung hochwertiger Trainingsdaten, die aus sehr großen Datensätzen (>10 TB) mittels hochskalierbarer Data-Querying-Pipelines extrahiert wurden. Seit der Bereitstellung werden die neuen Modelle ausgiebig überwacht.

Vorteile

Die allgemeine Leistung des Machine Learning wurde erheblich verbessert und die Benutzererlebnis entsprechend optimiert.

Eingesetzte Technologien

TensorFlow, Python, Labelbox, MLflow, AWS

Herausforderung

"Tracker"-Photovoltaiksysteme sind aufgrund ihrer beweglichen Solarmodule anfälliger für fehlerhafte Montage und Verschleiß von Komponenten. Komponentenverschleiß. Die Daten, die innerhalb dieser Systeme gesammelt werden, müssen erfasst werden, um diese Risiken frühzeitig zu erkennen.

Lösung

Eine Grafana-Instanz visualisiert vorhandene Parameter und leitet Anomalien an die zuständigen Mitarbeitenden weiter.

Ergebnis

Das Projekt bietet eine klar strukturierte Oberfläche, die einen Überblick über das Verhalten aller Tracker-Anlagen gibt. So erhält der Kunde Schletter schnelle Einblicke und wird bei Auffälligkeiten sofort benachrichtigt.

Eingesetzte Technologien

Go, AWS, Grafana, Python, InfluxDB

Herausforderung

2019 suchte ein großer Haushaltsgerätehersteller nach einer Möglichkeit, Machine-Learning-Dienste für den produktiven Einsatz bereitzustellen. Die Dienste mussten hoch skalierbar sein und in eine umfangreiche Geschäftslogik integriert werden.

Lösung

Unsere Expert:innen haben einen Kubernetes-Cluster unter Verwendung von Amazon EKS und Seldon Core aufgebaut und Machine-Learning-Modelle mit der Business Logic verbunden.

Ergebnis

Aufbau einer Infrastruktur, die eine skalierbare und stabile Bereitstellung von Modellen in der Produktionsumgebung ermöglicht.

Eingesetzte Technologien

AWS, Kubernetes, Python, Seldon Core, Terraform, Amazon EKS, Apache Flink, Grafana

Unsere Leistungen im Detail

  • Big Data in der Cloud
    • Entwicklung von Pipelines zur Datenverarbeitung
    • Data Fusion (Zusammenführung mehrerer Datenquellen)
    • Speichern von Daten in Datenbanken und Data Lakes (Unterstützung von Unternehmen bei der Ablage von Daten)
    • Datenauswertung (Unterstützung der Kunden bei der sinnvollen Nutzung ihrer Daten)
    • Datentransformation (Ideen in die Praxis umsetzen)
  • Explorative Datenanalyse
    • Analysieren der Daten
    • Aufstellen von Hypothesen für eine mögliche Modellentwicklung
  • Entwicklung von Modellen für maschinelles Lernen
    • Einrichtung der erforderlichen Tools und Services für die Modellentwicklung
    • Entwurf eines Machine-Learning-Modells (Entwicklung einer Idee, die funktionieren könnte)
    • Trainieren von ML-Modellen (Ausführen eben dieser Idee)
    • Bewertung von ML-Modellen (um zu sehen, ob sie wie gewünscht funktioniert)
  • Bereitstellen von Modellen in der Cloud
    • Entwicklung von Diensten zur Verbindung der Datenquellen mit dem Modell
    • Aufbau der Cloud-Infrastruktur
    • Einrichten von Deployment-Pipelines
    • Sicherstellung der Skalierbarkeit
  • Monitoring von Modellen
    • Entwurf von Lösungen zum Machine-Learning-Monitoring
    • Beratung bei der Auswahl von Lösungen von Drittanbietern, die für den Einsatz in Unternehmen geeignet sind
    • Beratung in statistischen Fragen
Unsere Expert:innen klären in unserem Glossar die gängigsten Begriffe zu AI und Data Science. Auch für Nicht-Techies verständlich. 😄

Kontakt

Sie sagen Daten, wir sagen Erfolg. Zögern Sie nicht und starten Sie den Dialog mit unserem Data Science Team.