<img alt="" src="https://secure.perk0mean.com/184386.png" style="display:none;">

Real-Time-Überwachung und Datenanalyse in der Kühlkettenlogistik

Sie lesen eine Zusammenfassung einer Podiumsdiskussion während eines Leading Mind Seminars in Boston von ELPRO und Cold Chain Technologies. Die Diskussion wurde moderiert von Ross Blum, North America Cold Chain Business Unit Manager bei ELPRO. Auf dem Podium diskutierten: Steven Brophy, Senior Manager Logistics Engineering, Moderna, Luis Hernandez, Director of Logistics, Vertex Pharmaceuticals, Josh Medow, CEO, Mercury und Anik Warner, Senior Manager, Cold Chain Operations, Johnson & Johnson.

Zum Auftakt wurde deutlich, dass viele Verantwortliche in der Pharma- und Logistikbranche heute mit fehlender Transparenz, Lieferverzögerungen und kostspieligen Temperaturabweichungen konfrontiert sind. Immer häufiger werden Organisationen damit beauftragt, sogenannte «Control Towers» – zentrale, Real-Time-Transparenzplattformen – aufzubauen, die nicht nur Sendungen verfolgen, sondern auch proaktive Eingriffe und kontinuierliche Verbesserungen ermöglichen.

Die Expertenrunde identifizierte vier Erfolgsfaktoren:

  • Fundament – interne Stakeholder einbinden und Ziele definieren
  • Datenbasis – bestimmen, was und weshalb überwacht wird
  • Datennutzung – Transparenz in Massnahmen und Verbesserungen umsetzen
  • Eingreifen – in Echtzeit reagieren, um Verluste zu verhindern

 

Infrastruktur für Transparenz

Steven Brophy (Moderna) betonte, dass erfolgreiche Transparenzprogramme auf drei Kernelementen basieren:

  • Gerät: Sensoren und Datenlogger, die Temperatur- und Standortdaten in Echtzeit erfassen

  • Logistikdienstleister: Erfahren beim Transport sensibler Güter

  • Plattform: das Visualisierungstool oder der «Control Towers», der Versandinformationen integriert und darstellt

Diese drei Komponenten müssten im Einklang funktionieren. Viele Organisationen legen jedoch zu viel Gewicht auf die Plattform und unterschätzen, wie komplex die Integration von Geräten und Dienstleistern sein kann.

Brophy hob hervor, dass die Auswahl geeigneter Geräte schwierig sei. Der Markt sei fragmentiert: Konsolidierungen, neue Anbieter ohne ausreichende Validierung und Überschneidungen bei der Hardware führten zu Verwirrung. Der entscheidende Unterschied liege in der Partnerschaft: Hersteller müssten nicht nur technische Anforderungen erfüllen (z. B. Temperaturbereiche, Airline-Zulassungen, Validierfähigkeit), sondern auch umfangreichere Daten bereitstellen, die über die auf der eigenen Plattform sichtbaren hinausgingen.

 

«Man kann nicht nur einen der Bausteine betrachten – Gerät, Dienstleister oder Plattform. Alle drei müssen kontinuierlich im Einklang mit Ihrem Team und Ihrem Unternehmen arbeiten, um zuverlässige Transparenz im Netzwerk zu erreichen.» Steven Brophy, Moderna

 

Für die Logistikdienstleister gilt dasselbe. Viele versuchten, Daten zu monetarisieren und verlangten für die Integration zusätzliche Gebühren. Brophy betonte, dass echter Erfolg nur durch eine Zusammenarbeit zwischen Geräteherstellern, Logistikdienstleistern, Plattformanbietern und internen Teams erreicht werden könne. Ohne Abstimmung aller Beteiligten kämen Transparenzinitiativen ins Stocken.

 

Integration und Kundenorientierung

Josh Medow (Mercury) schilderte die Sicht eines Logistikdienstleisters. Mercury hat eine eigene Plattform entwickelt, die Scans der Kuriere, Flugdaten und Zolldokumente konsolidiert und so eine zentrale Datenbasis für Sendungstransparenz schafft. Zusätzlich wurde ein 24/7-Überwachungsteam aufgebaut, da proaktive Überwachung langfristig weniger Krisenmanagement erfordert.

«Mehr Daten sind nicht immer besser. Wenn sie nicht zu einer besseren Entscheidungsgrundlage beitragen, sind sie nur störend.» Josh Medow, Mercury

Die Integration mit Kundensystemen bleibe jedoch eine Herausforderung. Zwar existieren APIs, doch viele Pharmaunternehmen seien für volle digitale Konnektivität noch nicht bereit. Benachrichtigungen liefen daher oft über E-Mail oder SMS. Das Dilemma: Zu viele Alarme überfordern, zu wenige mindern den Mehrwert.

Das Resümee: Technologie ist nur so wirksam wie ihre Nutzung durch den Kunden. Anbieter müssten Benachrichtigungen und Eskalationsprozesse individuell anpassen.

 

Interne Abstimmung und Datenqualität

Anik Warner (Johnson & Johnson) betonte, dass die Datenqualität die Grundlage für jedes Transparenzprogramm darstellt. Ohne genaue und vernetzte Daten drohe „Garbage in, Garbage out“. In globalen Unternehmen führten häufig isolierte Systeme ohne Schnittstellen zu erheblichen Hürden.

«Führungskräfte, die den menschlichen Aspekt – den Patienten am Ende der Kette – im Blick behalten, treffen die besseren Entscheidungen.»  Anik Warner, Johnson & Johnson

Daher beginne Erfolg mit der Abstimmung von Führungskräften über die Abteilungen Operations, Qualität und Logistik hinweg. Erst danach könnten Ressourcen und Projektmanagement geplant und eingesetzt werden, um Initiativen nachhaltig voranzubringen. Warners Kernbotschaft: Ohne gute Daten und ausreichende Ressourcen scheitern selbst gut geplante Programme.

 

Interne und externe Herausforderungen

Luis Hernandez (Vertex Pharmaceuticals) unterschied zwischen internen und externen Hürden:

Intern: Aufbau einer IT-Infrastruktur, die Daten von Logistikdienstleistern, Geräten und Systemen zentralisiert. IT-Abteilungen agierten oft als Gatekeeper und schränkten Datenteilung ein, was die Integration in einen Control Tower erschwere.

Extern: Verknüpfung von IoT-Geräten mit den transportierten Produkten bleibe kompliziert. Gerätezuverlässigkeit und Real-Time-Konsistenz seien nach wie vor Schwachpunkte.

Um diese Hindernisse zu überwinden, brauche es stabile Strukturen und engere Zusammenarbeit mit Logistikdienstleistern und Herstellern.

 

Entscheiden, was überwacht werden soll

Universelle Transparenz kann es laut Hernandez aber nicht geben. Man müsse daher priorisieren und entscheiden, was überwacht werden soll. Hernandez schilderte den Ansatz von Vertex:

  • Rohmaterialien: Überwachung der kritischsten oder knappsten Materialien mit langen Vorlaufzeiten oder geringen Stabilitätsdaten.
  • Zwischenprodukte: Fokus auf komplexe oder langwierige Herstellungsschritte.
  • Fertige Produkte: Hier muss differenziert werden – stabile Small Molecules erfordern weniger Kontrolle, empfindliche Zell- und Gentherapien dagegen Real-Time-Interventionen.

So würden Ressourcen dort eingesetzt, wo die Risiken am grössten und möglichen Folgen gravierend sind.

 

Sich ändernde Kundenerwartungen

Laut Medow hätten sich Kundenerwartungen durch Konsumenten-Apps wie Amazon oder Uber stark verändert. Heute erwarten Stakeholder End-to-End-Transparenz mit Zugriff auf historische Daten. Nicht jede Sendung brauche Live-GPS, doch vollständige Nachvollziehbarkeit sei eine Grundanforderung.

«Wir wollen nicht, dass unsere Teams von jedem kleinen Signal abgelenkt werden und dabei die echten Risiken übersehen.» Luis Hernandez, Vertex Pharmaceuticals

Die Herausforderung bestehe darin, zwischen «Nice-to-have»-Daten und «Verwertbaren Data» zu unterscheiden. Zu viele Alarme schaffen Verwirrung. Stattdessen müsse man die richtigen Auslöser für Eingriffe identifizieren – z. B. Temperaturspitzen, die sofortiges Handeln erfordern.

Warner ergänzte, dass auch Endanwender in die Definition von Alarmen einbezogen werden sollten. So stelle man sicher, dass Real-Time-Überwachung zielführend statt überfordernd ist.

 

Von der Überwachung zur kontinuierlichen Verbesserung

Nachdem die Grundlagen diskutiert worden waren, wandte sich die Expertenrunde der Nutzung von Daten zur kontinuierlichen Verbesserung zu.

Brophy (Moderna) erklärte, dass sein Unternehmen konsolidierte Daten einsetzt, um Netzwerke neu zu gestalten. Durch den Vergleich von Logistikdienstleistern, Geräten und Routen könnten Best Practices identifiziert und auf weitere Märkte übertragen werden. Daten ermöglichten Diversifizierung von Logistikdienstleistern, Geräten und Transportwegen – basierend auf Fakten, nicht Annahmen.

Damit markiere die Entwicklung von rein reaktiver Überwachung hin zu strategischer Planung einen Wendepunkt. Control Towers dienten nicht mehr nur der Schadensbegrenzung, sondern auch der Innovation und Neugestaltung von Lieferketten.

 

Wichtige Erkenntnisse

Im Laufe der Diskussion kristallisierten sich mehrere Erkenntnisse heraus:

Partnerschaft macht den Unterschied: Der Erfolg von Transparenzprogrammen hängt weniger von der Technologie als vielmehr von der Zusammenarbeit zwischen Geräteherstellern, Spediteuren, Plattformanbietern und Versendern ab.

Datenqualität ist das A und O: Ohne saubere, vernetzte und validierte Daten scheitern Transparenzinitiativen. Die Integration isolierter Systeme bleibt eine grosse Herausforderung.

Kundenfokus ist entscheidend: Die Einführung von Technologien muss auf die Fähigkeiten und Bedürfnisse jedes einzelnen Kunden zugeschnitten sein. Das Gleichgewicht des Informationsflusses – zu wenig versus zu viel – kann über den Erfolg oder Misserfolg eines Programms entscheiden.

Priorisierung ist wichtig: Nicht alle Sendungen oder Produkte erfordern eine Real-Time-Überwachung. Unternehmen müssen ihre Ressourcen strategisch auf die wichtigsten Materialien, Zwischenprodukte und Therapien konzentrieren.

Die Erwartungen steigen: Die Erfahrungen der Verbraucher haben die Erwartungen der Fachleute neu geprägt. Transparenz ist nicht mehr optional, sondern wird zum Standard.

Transparenz ermöglicht Strategie: Über das operative Krisenmanagement hinaus ermöglichen konsolidierte Daten die Neugestaltung von Netzwerken, die Risikostreuung und langfristige Innovationen in der Lieferkette.

 

Herausforderungen in der Zukunft

Mit Blick auf die Zukunft identifizierte die Expertenrunde mehrere dringende Herausforderungen:

  1. Zuverlässigkeit und Validierung von Geräten. Neue IoT-Geräte müssen Konsistenz, Validierungsfähigkeit und Compliance auf allen globalen Routen nachweisen.
  2. Die Überbrückung fragmentierter IT-Systeme innerhalb grosser Organisationen bleibt eine Hürde. Um eine nahtlose Interoperabilität zu erreichen, sind neue Standards und Governance-Modelle erforderlich.
  3. Geschäftsmodelle. Einige Netzbetreiber versuchen, Daten zu monetarisieren, was zu Spannungen in Partnerschaften führt. Eine branchenweite Abstimmung auf faire und transparente Modelle für den Datenaustausch ist unerlässlich.
  4. Überforderung vs. Umsetzbarkeit. Angesichts wachsender Datenmengen müssen Unternehmen ihre Warnsysteme verfeinern, um umsetzbare Massnahmen auch innerhalb grosser Datenmengen zu erkennen.
  5. Anpassung der Ressourcen. Transparenzprogramme erfordern nachhaltige Unterstützung durch die Führungskräfte, dedizierte Ressourcen und Disziplin im Projektmanagement. Diese Elemente werden oft unterfinanziert oder unterschätzt.
  6. Blinde Flecken. Lücken in der Abdeckung bestimmter Regionen schränken die Universalität der Real-Time-Überwachung ein und bergen Risiken für globale Therapien.

 

Fazit

Die Teilnehmer der Podiumsdiskussion zeichneten das Bild einer Branche im Wandel. Real-Time-Überwachung und Datenanalyse sind keine futuristischen Konzepte mehr, sondern werden zu grundlegenden Anforderungen in der Pharmalogistik. Doch Technologie allein kann die Herausforderungen bei der Transparenz nicht lösen. Der Erfolg hängt von Zusammenarbeit, Priorisierung und Datendisziplin ab.

«Wenn wir den Patienten in den Mittelpunkt stellen, folgt der Rest von selbst.»  
Ross Blum
, ELPRO

Der Bedarf von Unternehmen entwickelt sich weiter: von der einfachen Sendungsverfolgung hin zur Neugestaltung von Lieferketten auf der Grundlage evidenzbasierter Erkenntnisse entwickeln. Die nächste Phase der Kühlketten-Transparenz wird nicht nur Verluste verhindern, sondern auch die Art und Weise neugestalten, wie Medikamente und Therapien weltweit hergestellt, vertrieben und geliefert werden.

Leave a Comment

From Other Categories

Mehr News