Big Data durchdringt alle Bereiche unseres Arbeitslebens. Jeder Aspekt der pharmazeutischen Forschung und Entwicklung ist mit der Erzeugung riesiger Datenmengen verbunden, und wir erwarten, dass wir diese Informationen schnell in nützliches Wissen umwandeln können - das wiederum für "datengesteuerte" Entscheidungen genutzt werden kann, um Prozesse besser zu verstehen und zu kontrollieren. Dieses abgeleitete Wissen kann (sollte) auch genutzt werden, um Betriebskosten zu senken, Entwicklungszeiten zu verkürzen und Änderungen nach der Zulassung zu erleichtern (1).
Es ist bekannt, dass es nicht nur unterschiedliche Datennutzer innerhalb einer Organisation gibt, sondern dass diese Personen/Gruppen auch entsprechend ihrer verschiedenen Aufgaben unterschiedliche Ziele verfolgen, z. B. Trendbestimmung, Änderungskontrolle, Entscheidungsfindung usw. Außerdem steigt mit zunehmender Komplexität von Molekülen und Prozessen die Wahrscheinlichkeit, dass größere Mengen an unterstützenden Daten erzeugt werden. Biologische Produkte - insbesondere Biosimilars - sind gute Beispiele für das letztgenannte Szenario. So ist zum Beispiel die Fähigkeit zur Bewertung und Trendbestimmung erheblicher Mengen analytischer Daten, die mit orthogonalen Methoden erzeugt wurden (und die oft widersprüchliche Daten liefern) weiterhin eine Herausforderung.
Darüber hinaus wird die Echtzeit-Überprüfung von Daten für die Herstellung und Freigabe von Biologicals/Biosimilars in naher Zukunft wahrscheinlich Realität werden (3). Somit wird die moderne Prozesssteuerung unter Verwendung prozessanalytischer Technologien Standard werden, beispielsweise unter Verwendung von MPC-Ansätzen (Model Predicted Control) (4) . Trotz der verstärkten Konzentration auf die Qualität in der pharmazeutischen Industrie (Qualitätsrisikomanagement (ICH Q9)(5), pharmazeutische Qualitätssysteme (ICH Q10)(6) und Lebenszyklusmanagement (ICH Q12,1 usw.) haben Anzahl und Schweregrad der Qualitätsmängel, gemessen an den Beobachtungen der FDA und den Produktrückrufen, jedoch deutlich zugenommen. Damit die pharmazeutische Industrie weiterhin erfolgreich sein kann, muss die Arzneimittelherstellung agil, schnell skalierbar, effizient, zuverlässig und kostengünstiger werden (5).
Die Kosten schlechter Qualitätskultur sind enorm
So wurde beispielsweise geschätzt, dass die Kosten, die Warner-Lambert in den zehn Jahren von 1993 bis 2002 entstanden sind, um die qualitätsbezogenen Folgen einer FDA-Zustimmungsverfügung aus dem Jahr 1993 effektiv zu bewältigen, "in Form von Produktabkündigungen, Verzögerungen bei der Zulassung und der Anpassung der Anlagen und Systeme an die Vorschriften fast 1 Milliarde Dollar betrugen (8). Diese Herausforderungen können nur durch eine bessere Nutzung von Daten und Wissen bewältigt werden, die es uns ermöglicht, die enormen Kosten schlechter Qualität zu senken und gleichzeitig die Datenintegrität zu verbessern. Zu dieser Komplexität kommt noch hinzu, dass wir uns wahrscheinlich auf ein probabilistisches Verständnis von Prozessen zubewegen werden, bei dem die Daten nicht mehr binär (d. h. ja/nein) sind, sondern auf Wahrscheinlichkeiten basieren werden. Ein gutes Beispiel hierfür sind Freigabespezifikationen.
Die Konnektivität von Geräten, Menschen, Prozessen, Dienstleistungen und Lieferketten tragen alle zu "Pharma 4.0" bei
Die Branche steht auch unter erheblichem Druck, neue Fertigungstechnologien zu übernehmen. Die Ankunft dieser neuen Ära der "eingebetteten" Technologien stellt sicher, dass Informationen über die Art und Weise, wie diese Attribute integriert werden, auf allen Ebenen des Unternehmens verfügbar sind. Industrie 4.0-Technologien werden es den Herstellern ermöglichen, einen besseren Einblick in die laufenden Abläufe zu erhalten, so dass sie besser auf Informationen über Veränderungen bei Rohstoffen, Lagerbeständen, Anlagen, Qualität, Abfall, Produktion und Kundenanforderungen reagieren können, um Verbesserungsmöglichkeiten aufzuzeigen und sicherzustellen, dass Maßnahmen ergriffen werden, was Zeit, Geld und Ressourcen spart.
Während jedoch sowohl die Industrie als auch die Aufsichtsbehörden "Big Data" in ihren Entscheidungsfindungsprozess einbeziehen wollen, gibt es gleichzeitig Bedenken und ein erhebliches Unbehagen an der Datenintegrität im Allgemeinen. Unter Datenintegrität versteht man die Vollständigkeit, Konsistenz und Genauigkeit aller erfassten Daten. Diese Daten sollten wiederum zuordenbar, lesbar, zeitgleich aufgezeichnet, im Original (oder in einer originalgetreuen Kopie) und korrekt sein.
- ICH Q12, 2014. Final Concept Paper Q12: Technical and Regulatory Considerations for Pharmaceutical Product Lifecycle Management dated 28 July 2014. Endorsed by the ICH Steering Committee on 9 September 2014.
- ICH Q5E, 2004. Comparability of biotechnological/biological products subject to changes in their manufacturing process. Current Step 4 version dated 18 November 2004.
- T. Alosi. Next Generation Biologics Manufacturing: Delivering the Vision. ttps://cdn.osisoft.com/osi/presentations/2017-ucemea-london/UC17EU-D2LS04-Biogen-Alosi-Next-Generation-Biologics-Manufacturing. pdf. Accessed on 12 November, 2017.
- J. Rantanen, J. Khinast. 2015. The Future of Pharmaceutical Manufacturing Sciences. J. Pharm. Sci., 104(11), 3612-3638.
- J. Woodcock. 2014. Introduction to Flawless: From Measuring Failure to Building Quality Robustness in Pharma. Eds: T. Fuhr, A.Gonce, L.o Positano, P.l Rutten, V. Telpis, McKinsey & Co.