Heutzutage steckt alles in Daten – auch dein Erfolg. Es ist keine triviale Aufgabe, Daten in Erfolg zu wandeln. Doch wir haben das Wissen und die Erfahrung, dir genau dabei zu helfen. Sei es, dass du wissen möchtest, welches Potenzial deine Daten beinhalten, welche wichtigen Hinweise sie verbergen oder welche Chancen daraus entstehen können. Wir decken den kompletten Lifecycle deines Vorhabens ab:
-
Data Analytics
Jedes datengetriebene Projekt basiert darauf, deine Anwendungen, aber auch deren entsprechende Daten, genau zu verstehen. Wir gehen mit dir diesen ersten großen Schritt und analysieren diesen Zusammenhang.
-
Data Processing
Für die langfristige Speicherung und weiterführende Analyse deiner Daten bauen wir cloudbasierte Datenverarbeitungs-Pipelines auf.
-
Modelling
Mit maschinellen Lernverfahren und Modellen optimieren wir deine Prozesse und schaffen einen datenbasierten Service, der dir hilft, fundierte Analysen deine Daten zu erstellen.
-
Training
Wir schaffen passende Cloud-Umgebungen für das Trainieren des Modells und die Versionierung der Modelldateien.
-
Deployment
Wir richten nicht nur die Continuous-Delivery-Pipeline ein, sondern entwerfen auch das Modell, um die Skalierbarkeit und die kontinuierliche Evaluierung des Modells zu gewährleisten.
Ganz gleich, ob du deine ersten Schritte im Bereich Data Science gehst oder bereits umfassende Machine-Learning-Projekte nutzt: Wir helfen dir auf dem gesamten Weg!
- 🔎
Analyse der Herausforderungen als Startpunkt
- 💡
Anschließende Arbeit eines kleinen Teams an einem Proof of Concept
- 🚀
Erweiterung des Teams auf die volle Größe, mit dem Ziel eines produktiven MVPs, einschließlich produktiven Betriebs
Success Stories
Erfolgreiche Projekte, die unsere Fähigkeiten besser aufzeigen als alles andere. Objekterkennung in KühlschränkenHerausforderung
Neue Kühlschränke eines deutschen Haushaltsgeräteherstellers sind mit Kameras ausgestattet, die jedes Mal ein Bild aufnimmt, wenn die Kühlschranktür geschlossen wird. Darauf aufbauend sollen Benutzer:innen benachrichtigt werden, wenn der Vorrat an gängigen Lebensmitteln wie z. B. Milch zur Neige geht.
Lösung
Die Scandio entwickelte State-of-the-Art-Algorithmen zur Objekterkennung. Außerdem halfen wir bei der Sammlung und dem Labelling von Daten, der Einrichtung von Data Pipelines sowie der Bereitstellung und Überwachen der Modelle in der Produktivumgebung.
Ergebnis
Ein Anwendungsfall des maschinellen Lernens wurde von Grund auf entwickelt und konnte vom Kunden erfolgreich auf den Markt gebracht werden.
Eingesetzte Technologien
TensorFlow, Python, Labelbox, MLflow, AWS
Herausforderung
Smarte Backöfen erhalten Prognosen über die verbleibende Backdauer von AI-Modellen, die in der Cloud bereitgestellt werden. Ein erneutes Trainieren dieser Modelle basierend auf sehr großen Datenmengen sollte die Benutzererfahrung optimieren.
Lösung
Wir ermöglichten das Re-Training durch die Bereitstellung hochwertiger Trainingsdaten, die aus sehr großen Datensätzen (>10 TB) mittels hochskalierbarer Data-Querying-Pipelines extrahiert wurden. Seit der Bereitstellung werden die neuen Modelle ausgiebig überwacht.
Ergebnis
Die allgemeine Leistung des Machine Learning wurde erheblich verbessert und die Benutzererlebnis entsprechend optimiert.
Eingesetzte Technologien
TensorFlow, Python, pandas, MLflow, AWS
Herausforderung
"Tracker"-Photovoltaiksysteme sind aufgrund ihrer beweglichen Solarmodule anfälliger für fehlerhafte Montage und Verschleiß von Komponenten. Komponentenverschleiß. Die Daten, die innerhalb dieser Systeme gesammelt werden, müssen erfasst werden, um diese Risiken frühzeitig zu erkennen.
Lösung
Eine Grafana-Instanz visualisiert vorhandene Parameter und leitet Anomalien an die zuständigen Mitarbeitenden weiter.
Ergebnis
Das Projekt bietet eine klar strukturierte Oberfläche, die einen Überblick über das Verhalten aller Tracker-Anlagen gibt. So erhält der Kunde Schletter schnelle Einblicke und wird bei Auffälligkeiten sofort benachrichtigt.
Eingesetzte Technologien
Go, AWS, Grafana, Python, InfluxDB
Herausforderung
2019 suchte ein großer Haushaltsgerätehersteller nach einer Möglichkeit, Machine-Learning-Dienste für den produktiven Einsatz bereitzustellen. Die Dienste mussten hoch skalierbar sein und in eine umfangreiche Geschäftslogik integriert werden.
Lösung
Unsere Expert:innen haben einen Kubernetes-Cluster unter Verwendung von Amazon EKS und Seldon Core aufgebaut und Machine-Learning-Modelle mit der Business Logic verbunden.
Ergebnis
Aufbau einer Infrastruktur, die eine skalierbare und stabile Bereitstellung von Modellen in der Produktionsumgebung ermöglicht.
Eingesetzte Technologien
AWS, Kubernetes, Python, Seldon Core, Terraform, Amazon EKS, Apache Flink, Grafana
Herausforderung
Neue Kühlschränke eines deutschen Haushaltsgeräteherstellers sind mit Kameras ausgestattet, die jedes Mal ein Bild aufnimmt, wenn die Kühlschranktür geschlossen wird. Darauf aufbauend sollen Benutzer:innen benachrichtigt werden, wenn der Vorrat an gängigen Lebensmitteln wie z. B. Milch zur Neige geht.
Lösung
Die Scandio entwickelte State-of-the-Art-Algorithmen zur Objekterkennung. Außerdem halfen wir bei der Sammlung und dem Labelling von Daten, der Einrichtung von Data Pipelines sowie der Bereitstellung und Überwachen der Modelle in der Produktivumgebung.
Ergebnis
Ein Anwendungsfall des maschinellen Lernens wurde von Grund auf entwickelt und konnte vom Kunden erfolgreich auf den Markt gebracht werden.
Eingesetzte Technologien
TensorFlow, Python, Labelbox, MLflow, AWS
Herausforderung
Smarte Backöfen erhalten Prognosen über die verbleibende Backdauer von AI-Modellen, die in der Cloud bereitgestellt werden. Ein erneutes Trainieren dieser Modelle basierend auf sehr großen Datenmengen sollte die Benutzererfahrung optimieren.
Lösung
Wir ermöglichten das Re-Training durch die Bereitstellung hochwertiger Trainingsdaten, die aus sehr großen Datensätzen (>10 TB) mittels hochskalierbarer Data-Querying-Pipelines extrahiert wurden. Seit der Bereitstellung werden die neuen Modelle ausgiebig überwacht.
Vorteile
Die allgemeine Leistung des Machine Learning wurde erheblich verbessert und die Benutzererlebnis entsprechend optimiert.
Eingesetzte Technologien
TensorFlow, Python, Labelbox, MLflow, AWS
Herausforderung
"Tracker"-Photovoltaiksysteme sind aufgrund ihrer beweglichen Solarmodule anfälliger für fehlerhafte Montage und Verschleiß von Komponenten. Komponentenverschleiß. Die Daten, die innerhalb dieser Systeme gesammelt werden, müssen erfasst werden, um diese Risiken frühzeitig zu erkennen.
Lösung
Eine Grafana-Instanz visualisiert vorhandene Parameter und leitet Anomalien an die zuständigen Mitarbeitenden weiter.
Ergebnis
Das Projekt bietet eine klar strukturierte Oberfläche, die einen Überblick über das Verhalten aller Tracker-Anlagen gibt. So erhält der Kunde Schletter schnelle Einblicke und wird bei Auffälligkeiten sofort benachrichtigt.
Eingesetzte Technologien
Go, AWS, Grafana, Python, InfluxDB
Herausforderung
2019 suchte ein großer Haushaltsgerätehersteller nach einer Möglichkeit, Machine-Learning-Dienste für den produktiven Einsatz bereitzustellen. Die Dienste mussten hoch skalierbar sein und in eine umfangreiche Geschäftslogik integriert werden.
Lösung
Unsere Expert:innen haben einen Kubernetes-Cluster unter Verwendung von Amazon EKS und Seldon Core aufgebaut und Machine-Learning-Modelle mit der Business Logic verbunden.
Ergebnis
Aufbau einer Infrastruktur, die eine skalierbare und stabile Bereitstellung von Modellen in der Produktionsumgebung ermöglicht.
Eingesetzte Technologien
AWS, Kubernetes, Python, Seldon Core, Terraform, Amazon EKS, Apache Flink, Grafana
Unsere Leistungen im Detail
-
Big Data in der Cloud
- Entwicklung von Pipelines zur Datenverarbeitung
- Data Fusion (Zusammenführung mehrerer Datenquellen)
- Speichern von Daten in Datenbanken und Data Lakes (Unterstützung von Unternehmen bei der Ablage von Daten)
- Datenauswertung (Unterstützung der Kunden bei der sinnvollen Nutzung ihrer Daten)
- Datentransformation (Ideen in die Praxis umsetzen)
-
Explorative Datenanalyse
- Analysieren der Daten
- Aufstellen von Hypothesen für eine mögliche Modellentwicklung
-
Entwicklung von Modellen für maschinelles Lernen
- Einrichtung der erforderlichen Tools und Services für die Modellentwicklung
- Entwurf eines Machine-Learning-Modells (Entwicklung einer Idee, die funktionieren könnte)
- Trainieren von ML-Modellen (Ausführen eben dieser Idee)
- Bewertung von ML-Modellen (um zu sehen, ob sie wie gewünscht funktioniert)
-
Bereitstellen von Modellen in der Cloud
- Entwicklung von Diensten zur Verbindung der Datenquellen mit dem Modell
- Aufbau der Cloud-Infrastruktur
- Einrichten von Deployment-Pipelines
- Sicherstellung der Skalierbarkeit
-
Monitoring von Modellen
- Entwurf von Lösungen zum Machine-Learning-Monitoring
- Beratung bei der Auswahl von Lösungen von Drittanbietern, die für den Einsatz in Unternehmen geeignet sind
- Beratung in statistischen Fragen