Als Diplom-Informatiker kennt sich Bastian Späth mit der Entwicklung von IT-Lösungen fachlich von der Pieke auf aus. Anforderungen erfassen, Ideen finden, Konzepte entwickeln, Projekte aufsetzen und sicher ins Ziel steuern – seit mehr als 15 Jahren täglich gelebte Praxis für den Unterfranken.
Für ein gutes Zusammenspiel: IT-Lösungen orchestrieren
Logistikdienstleister betonen das: Ihre Prozesse sind einzigartig und unverwechselbar. Denn sie wissen am besten, was ihre Kunden brauchen, und stellen sich genau auf deren Bedürfnisse ein. Doch was folgt daraus für ihre Digitalisierung? Sollten sie bei der IT auf individuelle Lösungen setzen? Oder eignen sich auch Standardprodukte für ihre Aufgaben? In Anbetracht moderner Technologien lautet die Antwort auf beide Fragen: sowohl als auch, immer abhängig vom jeweiligen Einsatzzweck.
Aktuelle Schnittstellen und Datenaustauschverfahren erlauben neue Wege, wie etwa:
- die Integration einzelner Funktionen und Services zu einem Gesamtsystem
- den Datenaustausch über Softwarelösungen, Hierarchieebenen und Unternehmensgrenzen hinweg
- die vollständige Verknüpfung sämtlicher Beteiligter in der Logistikkette
- Echtzeitkommunikation zwischen allen Partnern
- eine umfassende individuelle Konfiguration von Standardlösungen bei gleichzeitig erhaltener Releasefähigkeit.
Angesichts kaum noch vorhandener technischer Beschränkungen haben sich vor allem die operativen Ziele zu den entscheidenden Kriterien für die Auswahl der passenden IT-Strategie entwickelt.
Das Geschäftsmodell entscheidet
Nicht nur im Handwerk gilt: Das Werkzeug sollte ideal zur Aufgabe passen. Eine Faustregel, mit der die erste Orientierung schnell gelingt. Schließlich finden Speditionen, die vor allem Stückgut, Teil- und Komplettladen transportieren, im Softwaremarkt so viele leistungsfähige Transportmanagementsysteme (TMS), dass sie kaum auf Individualentwicklungen zurückgreifen müssen. Für eine Schwerlastspedition, die für Maschinenbauer Industrieanlagen per Luft- und Seefracht nach Nordamerika und Asien exportiert, stellt sich der Fall schon anders dar. Sie kann unter wesentlich weniger geeigneten Lösungen auswählen und wird kaum eine Software finden, die ihren Bedarf bereits im Standard zu 90 Prozent erfüllt. Da mag die ressourcenintensive Entwicklung eines eigenen TMS attraktiver erscheinen.
Beide Unternehmen werden für ihren logistischen Gesamtprozess keine Lösung finden, die alle Aufgaben in einer einzigen Anwendung abbildet. Hier kommen Schnittstellen und Datenübertragungswege ins Spiel, wenn sie ein optimales Vorgehen festlegen wollen. Denn die Softwarelösungen von heute lassen sich für eine vollständig digitale Auftragsbearbeitung komplex verknüpfen. Vorgehensmodelle wie Programmierschnittstellen (API) und Event-Sourcing-Lösungen bieten für nahezu jeden Einsatz das geeignete Datenmanagement.
Mehr Flexibilität: Von FTP zu API
Passend zur Komplexität heutiger logistischer Netzwerke haben sich die Datenaustauschwege in den vergangenen Jahren grundlegend verändert. Logistikstrukturen, die mit immer kurzfristigeren Planungszyklen für Just-in-Time-, Just-in-Sequence- und Warehouse-on-Wheels-Konzepte zurechtkommen müssen, können Auftragsdaten kaum sinnvoll per FTP übertragen. Einmal abgeschickt, können sie nicht mehr verändert werden. Auf unseren Alltag übertragen wäre das beinahe so, als wollten wir den Städtetrip mit einer Gruppe Freunden durch Brieftauben statt Smartphones koordinieren. Korrigieren lassen sich solche Nachrichten nur mit modifizierten, erneut abgesendeten Kopien. Über APIs sind dagegen jederzeit Updates möglich, die allen Beteiligten in Echtzeit zur Verfügung stehen. Dabei erfolgt der Datenaustausch zwischen den Systemen synchron: Das absendende System erhält direkt die Rückmeldung des Empfängers.
Es geht auch später
Nicht jede Verbindung zwischen zwei Systemen erfordert aber einen Datenaustausch in Echtzeit. Denn insbesondere bei langlaufenden Prozessen darf die Rückmeldung auch deutlich nach der Anfrage erfolgen. Ein Beispiel wäre etwa der Versandauftrag für Kleinteile, die zunächst noch kommissioniert werden müssen, ehe sie für die Transportverladung bestätigt werden können. Hier übernehmen Event-Sourcing-Systeme den Datentransport über eine verteilte Streaming-Plattform. Sie sind in der Lage, Live-Datenströme zwischenzuspeichern. Eine Struktur, die sich insbesondere zur Lastverteilung bei der Skalierung von Systemen eignet. Denn in diesem Szenario stabilisieren die Event-Sourcing-Systeme den Datenaustausch: Sie verhindern, dass der Absender den Empfänger überlastet, wenn dieser Daten langsamer verarbeitet, als sie gesendet werden. Antworten stellen sie bereit, sobald sie zur Verfügung stehen. Ein Praxisbeispiel für eine solche Struktur sind die Statusdaten aus Mobilgeräten in der Zustellung von Paketdiensten und Stückgutspeditionen: Reißt die Internetverbindung während der Fahrt in Mobilfunklöchern ab, vermittelt die Plattform die Daten im Anschluss – sobald ein Gerät wieder online ist. Die Open-Source-Plattform KAFKA des Anbieters Apache zählt zu den besonders etablierten Event-Sourcing-Lösungen. Entwickelt wurde sie ursprünglich für die Nachrichten-Queue des Online-Business-Netzwerks LinkedIn.
Individuallösungen von der Stange
Nutzt man sowohl die Vorteile von APIs als auch der Streaming-Plattformen, lassen sich TMS und Microservices für Teilaufgaben in der Logistikkette geschickt miteinander kombinieren. Dann reichen sie sogar an Individualentwicklungen heran. So müssen die IT-Abteilungen von Logistikdienstleistern nicht einmal Speziallösungen für Sonderaufgaben selbst erfinden. Stattdessen nutzen sie für jeden einzelnen Prozess nach dem Best-of-Breed-Prinzip die etabliertesten Detaillösungen. Vorausgesetzt, es gelingt ihnen, sämtliche benötigen Services über geeignete Schnittstellen perfekt zu orchestrieren.
Wie gut spielen Ihre IT-Lösungen zusammen?
Einen Kommentar schreiben