Nie obrażaj więc mojej inteligencji poprzez czynione na pokaz zaniżanie własnej.
M
ETODY STATYSTYCZNE W WALIDACJI PROCESÓW TECHNOLOGICZNYCH Michał Iwaniec, StatSoft Polska Sp. z o.o., ul. Kraszewskiego 36, 30-110 Kraków Marek Skowronek, PLIVA Kraków S.A., ul. Mogilska 80, 31-546 Kraków Artykuł jest poświęcony metodom statystycznym wykorzystywanym podczas walidacji procesów technologicznych w przemyśle farmaceutycznym. Przed wprowadzeniem produktu leczniczego do sprzedaży, wymagane jest, aby stosowane procesy wytwarzania produktów leczniczych były zwalidowane. W ocenie zdolności procesu do spełnienia założonych kryteriów zalecane jest stosowanie statystycznych metod analizy danych, jednak przepisy nie precyzują, jakiego rodzaju metody należy zastosować podczas walidacji procesu. Artykuł ma na celu zaproponowanie odpowiednich metod statystycznych oraz przykładów ich użycia. W celu poprawnego przeprowadzenia procesu walidacji, należy postępować według odpowiedniego schematu. W artykule zostały wyszczególnione i opisane poszczególne etapy walidacji, w których niezbędne jest użycie metod statystycznych oraz opisane zostały zależności pomiędzy poszczególnymi etapami. The article is devoted to statistical methods used in pharmaceutical process validation. Process validation is demanded as the means of ensuring and providing documentary evidence that processes (within their specified parameters) are capable of consistency producing a finished product of the required quality. In judging of process capability to meet criterions it is recommended to use statistical methods of data analysis, but it is not specified, what the statistical methods should be. The article proposes appropriate methods and examples of their use. To carry out the validation process properly it should be done in a right pattern. The article describes individual stages of the validation process, in which using statistical method is essential. There are also described dependences between individual stages. Słowa kluczowe: Walidacja – Profil uwalniania – Stabilność procesu – Normalność zbioru danych – Autokorelacja – Zdolność procesu 1 I. Wstęp analiz. Plan powinien zawierać również wyraźnie określone kryteria akceptacji. Walidacja prospektywna procesu powinna być wykonana dla co najmniej trzech kolejnych serii w skali produkcyjnej w ostatecznie ustalonych warunkach. Walidacja procesów technologicznych powinna przebiegać według następującego schematu: 1) Analiza krytyczności procesu 2) Analiza założeń procesu 3) Analiza stabilności procesu 4) Analiza zdolności procesu Przejście do kolejnego etapu procesu walidacji powinno być poprzedzone pomyślnym zakończeniem poprzedniego etapu, w przeciwnym przypadku najprawdopodobniej nie będą spełnione odpowiednie założenia, których wymagają stosowane procedury statystyczne. Rezultaty walidacji powinny być ujęte w zwięzłym raporcie końcowym, zawierającym podsumowanie analiz oraz wnioski i zalecenia dotyczące procesu. Organy państwowe sprawujące nadzór nad produkcją leków wymagają, aby procesy wytwarzania produktów leczniczych były zwalidowane. Zakład farmaceutyczny zobowiązany jest dostarczyć władzom odpowiednie dane, które pochodzą z walidacji procesu w celu uzyskania zgody na dopuszczenie danego produktu leczniczego do obrotu. Ogólne zasady przeprowadzania walidacji procesu zostały określone w wytycznych do przepisów Dobrej Praktyki Wytwarzania. Regulacje te definiują walidację procesu jako dostarczenie udokumentowanych dowodów na to, że proces prowadzony jest w ustalonym zakresie parametrów, przebiega skutecznie i w sposób powtarzalny oraz umożliwia wytwarzanie produktu leczniczego spełniającego z góry ustalone wymagania specyfikacji. W ocenie zdolności procesu do spełnienia założonych kryteriów zalecane jest stosowanie statystycznych metod analizy danych, jednak przepisy nie precyzują, jakiego rodzaju metody należy zastosować. Artykuł ten ma na celu zaproponowanie odpowiednich metod statystycznych oraz rozwiązań informatycznych, które pozwalają na sprawną walidację procesów technologicznych. III. Analiza krytyczności procesu Przed rozpoczęciem prac walidacyjnych niezbędne jest przeprowadzenie analizy krytyczności procesu, której celem jest wyznaczenie etapów procesu technologicznego, które mają potencjalnie największy wpływ na jakość produktu leczniczego. W przypadku nowych procesów, krytyczne operacje jednostkowe oraz kluczowe parametry procesu identyfikowane są w ramach prac badawczo- rozwojowych prowadzonych w skali laboratoryjnej. Doświadczenia laboratoryjne powinny umożliwić zbudowanie modelu podstawowych zależności pomiędzy parametrami wejściowymi (zmiennymi procesu) a parametrami wyjściowymi (odpowiedzią procesu) oraz określenie optymalnych wartości nominalnych i dozwolonego zakresu tolerancji. Na podstawie badań rozwojowych zakład powinien wykazać, że proces został zoptymalizowany, że zostały zidentyfikowane jego punkty krytyczne i że został opracowany protokół walidacji, którego celem jest potwierdzenie stabilności i zdolności procesu do spełnienia założonych kryteriów akceptacji w skali produkcyjnej. Analiza krytyczności procesu może być zilustrowana za pomocą prostych narzędzi graficznych takich jak schemat blokowy czy diagram przyczynowo skutkowy (zwany też diagramem ryby lub diagramem Ishikawy). II. Ogólne założenia walidacji procesów technologicznych Walidacja powinna zostać przeprowadzona dla nowych procesów lub dla procesów, które były zwalidowane niemniej zostały zmodyfikowane. Walidacja powinna być zakończona przed rozpoczęciem dystrybucji i sprzedaży produktu leczniczego (walidacja prospektywna – walidacja przeprowadzana przed uruchomieniem rutynowego wytwarzania produktów leczniczych przeznaczonych do sprzedaży). W wyjątkowych sytuacjach, gdy nie jest to możliwe, dokonuje się zwalidowania procesu podczas rutynowej produkcji (walidacja równoczesna). Walidacja powinna obejmować wszystkie etapy wytwarzania od momentu opracowania technologii, aż do fazy przekazania procesu do rutynowej produkcji. Pomieszczenia, urządzenia i media powinny być poddane kwalifikacji a metody badań analitycznych zwalidowane przed przystąpieniem do walidacji procesu. Pracownicy uczestniczący w pracach walidacyjnych powinni być odpowiednio przeszkoleni. Przygotowanie i wykonanie walidacji powinno przebiegać zgodnie z opracowanym do tego celu planem, zawierającym wyraźnie zdefiniowany cel każdego testu, schemat próbkowania, odpowiedzialność za pobór próbek i wykonanie 2 1. Przykład oceny krytyczności procesu Poniższy przykład przedstawia proces wytwarzania tabletek metodą bezpośredniej kompresji, który składa się z następujących operacji: ♦ Naważania ♦ Przesiewania ♦ Mieszania ♦ Tabletkowania Jednym z głównych celów prac rozwojowych było takie zaprojektowanie procesu mieszania, który nie spowoduje segregacji cząstek podczas transferu mieszaniny do fazy tabletkowania i zapewni otrzymanie produktu końcowego o akceptowalnej jednorodności zawartości substancji czynnej. Na etapie prac badawczo-rozwojowych określone zostały krytyczne etapy, parametry procesu oraz podstawowe zależności pomiędzy zmiennymi procesu a odpowiedzią procesu. Wygodnym sposobem zilustrowania ogólnego modelu procesu wraz z zaznaczonymi krytycznymi parametrami wejściowymi i wyjściowymi jest schemat blokowy (Rys. 1). Rys. 2. Diagram Ishikawy dla jednorodności zawartości. Operacjami krytycznymi w tym procesie są operacje mieszania i tabletkowania. Celem operacji mieszania substancji wejściowych jest otrzymanie homogennej mieszaniny z jednorodnym rozkładem substancji czynnej. Operacja tabletkowania jest natomiast odpowiedzialna za zawartość substancji czynnej w jednostce produktu leczniczego. Bezpośredni wpływ na zawartość substancji czynnej w jednostce produktu leczniczego ma jednorodność mieszaniny, która z kolei zależy od następujących zmiennych procesowych: kolejności załadunku surowców, wypełnienia bina, czasu oraz prędkości mieszania. Jednorodność zawartości substancji czynnej w tabletkach zależy od masy tabletek, która jest kontrolowana poprzez utrzymanie stałej siły zgniotu, poprzez regulowanie ilości dozowanej mieszaniny. Czynnikami wpływającymi na zachowanie stałej masy są również prędkość tabletkowania oraz własności fizyczne mieszaniny: gęstość, czas zsypu, rozkład cząstek. Rys. 1. Schemat blokowy procesu tabletkowania. Relacje pomiędzy parametrami wejściowymi a wybranym parametrem odpowiedzi procesu ilustruje przykład jednorodności zawartości substancji czynnej w finalnej formie produktu leczniczego (Rys. 2). IV. Analiza założeń procesu Po przeprowadzeniu analizy krytyczności niezbędna jest weryfikacja założeń, jakim powinny podlegać zbiory danych zebrane dla poszczególnych parametrów wyjściowych. Podstawowym założeniem, które musi być spełnione aby móc użyć większości analiz statystycznych przytoczonych w następnych rozdziałach, jest by dane generowane przez proces podlegały rozkładowi normalnemu o wartości oczekiwanej μ i zmienności σ. Zakłada się, że zarówno μ jak i σ są stałe lecz nieznane. Najlepszym przybliżeniem μ jest wartość średnia x definiowana wzorem: x = 1 ∑ = n x n i i 1 Najlepszym przybliżeniem σ jest natomiast odchylenie standardowe wyrażane wzorem: 3 ∑ = n ( x − x ) 2 Do wizualnej oceny normalności rozkładu zbioru danych bardzo przydane jest dopasowanie do histogramu teoretycznej krzywej rozkładu normalnego. Parametry teoretycznego rozkładu normalnego (μ oraz σ) zostały obliczone na podstawie zbioru danych. Warto zauważyć, że w przypadku oceny normalności nie jest ważne uporządkowanie zbioru. W celu weryfikacji hipotezy o normalności rozkładu często stosuje się testy statystyczne, których rezultatem jest pojedyncza wartość liczbowa, w oparciu o którą można przyjąć bądź odrzucić stawianą hipotezę. Najczęściej stosowanym testem normalności rozkładu jest test Shapiro-Wilka. Parametrem, który ocenia normalność rozkładu w tym przypadku jest parametr W . Jeżeli wartość p odpowiadająca otrzymanemu W jest większa od 0,05, wtedy nie ma podstaw aby odrzucić hipotezę o normalności rozkładu (Rys. 3). Inną graficzną metodą oceny normalności zbioru danych jest wykres normalności, który otrzymywany jest w następujący sposób. Najpierw wszystkie wartości zmiennej porządkowane są w kolejności rosnącej i przyporządkowane są im rangi (ranga – kolejny numer obserwacji, uzyskany po uporządkowaniu obserwacji według ich wartości). Następnie dla kolejnych rang obliczane są odpowiadające im wartości Z (według standaryzowanego rozkładu normalnego). Mówiąc dokładniej, wartość normalna z j dla j -tej wartości ustawionej w kolejności rosnącej (rangi), zmiennej o sumarycznej liczbie obserwacji równej n , obliczana jest według wzoru: i s = i 1 n − 1 Ponadto dane generowane przez proces nie mogą być od siebie zależne. Można więc powiedzieć, że jeżeli proces jest ustabilizowany to zmienność parametru wyjściowego w czasie t , może być reprezentowana przez następujący model: x t = μ + ε t t = 1 2 . . . gdzie: realizacja składnika losowego ε podlega rozkładowi normalnemu (z brakiem korelacji pomiędzy poszczególnymi składnikami) o wartości oczekiwanej równej zero i odchyleniu standardowym s . Model ten jest często nazywany modelem Shewarta procesu. Zatem w celu weryfikacji czy odpowiedź procesu spełnia założenia modelu Shewarta, sprawdzić trzeba czy zbiór danych wygenerowany przez dany parametr procesu spełnia następujące założenia: ♦ Normalność – składnik losowy ε powinien podlegać rozkładowi normalnemu ♦ Niezależność – dane nie powinny być wzajemnie ze sobą skorelowane Weryfikacja powyższych założeń powinna być przeprowadzona dla każdego parametru procesu, który będzie podlegał ocenie statystycznej w ramach walidacji procesu. 1. Weryfikacja założenia normalności Przystępując do statystycznej oceny jakiegokolwiek parametru najlepiej jest zacząć od wizualizacji danych, która pozwoli wstępnie ocenić analizowany zbiór danych. W przypadku oceny normalności dobrą metodą wizualizacji jest histogram (Rys. 3). ⎛ j − 1 ⎞ z j = Φ − 1 ⎜ ⎝ 3 ⎟ ⎠ n + 1 3 Φ jest funkcją odwrotną do dystrybuanty rozkładu normalnego (przekształcającą prawdopodobieństwo p w wartość zmiennej Z ). Tak otrzymane wartości Z odkładane są na osi pionowej wykresu (oczekiwana normalna). Jeżeli wartości obserwacji (odkładane na osi poziomej) podlegają rozkładowi normalnemu, to otrzymane punkty powinny układać się mniej więcej na linii prostej (Rys. 4). Znaczące odchylenia od prostej wskazują, że analizowana zmienna podlega rozkładowi innemu niż normalny. Rys. 3. Histogram dla parametru procesu. 4 gdzie Rys. 4. Wykres normalności dla parametru procesu. aby zbiór danych był uszeregowany względem czasu. Bardzo prostym sposobem sprawdzenia autokorelacji, jest policzenie współczynnika korelacji pomiędzy analizowanym szeregiem danych a tym samym szeregiem przesuniętym o jedną wartość ( k = 1). Jeżeli otrzymany współczynnik korelacji będzie miał dużą wartość wtedy jest to równoważne autokorelacji pomiędzy i a i -1 elementem szeregu. Niestety współczynnik korelacji jest statystyką bardzo czułą na wartości odstające i w przypadku badania korelacji pomiędzy różnymi zbiorami danych, należy zwrócić uwagę, czy na wykresie rozrzutu nie ma wartości odstających. Na szczęście w przypadku oceny autokorelacji (Rys. 6), taka sytuacja nie wystąpi, gdyż tak naprawdę badany jest jeden zestaw danych. Następną metodą oceny normalności, która dostarcza konkretnych informacji o rozkładzie, jest metoda polegająca na obliczeniu wartości skośności i kurtozy. Poniżej (Rys. 5), przedstawione są przykładowe statystyki opisowe dla parametru procesu z włączoną skośnością i kurtozą. Rys. 5. Statystyki opisowe parametru procesu. Jeżeli wartości skośności lub kurtozy są różne od zera, wtedy są podstawy aby twierdzić, że analizowany zbiór danych nie podlega rozkładowi normalnemu. Bardzo istotne jest, żeby zwrócić uwagę na to czy otrzymane wartości kurtozy i skośności są istotne statystycznie, czy też są wynikiem naturalnej zmienności wewnątrz danych. W przypadku rozważanego parametru procesu (Rys. 5), wartości błędów standardowych zarówno dla skośności jak i kurtozy są większe od wartości tych parametrów. Zatem można stwierdzić, że rozkład analizowanego zbioru danych nie posiada skośności ani kurtozy, tak więc nie ma podstaw do stwierdzenia odstępstw od normalności. Rys. 6. Wykres rozrzutu Wadą tej metody oceny autokorelacji jest to, że bardzo mało mówi o procesie jako o całości, gdyż pozwala na obliczenie korelacji tylko dla jednej wartości opóźnienia. Może się zdarzyć np. tak, że dla opóźnienia równego 1 współczynnik korelacji będzie bardzo mały, natomiast dla innych opóźnień korelacja może być duża. Statystyką, która podsumowuje całą autokorelację szeregu jest współczynnik autokorelacji (Rys. 7), pozwalający na szybką ocenę autokorelacji dla różnych opóźnień. Wartość autokorelacji dla danego opóźnienia jest istotna statystycznie, jeżeli odpowiadająca mu wartość korelacji (reprezentowana słupkiem) jest większa od przedziału ufności zaznaczonego linią przerywaną. W przypadku wyraźniej autokorelacji statystyka ta pozwala także ocenić jej naturę (np. okresowość). 2. Weryfikacja niezależności składnika losowego Drugim bardzo ważnym założeniem dla zbioru danych jest brak autokorelacji składnika losowego w analizowanym zbiorze danych. Autokorelacja jest to korelacja szeregu danych z nim samym, przesuniętym o określoną liczbę obserwacji (oznaczoną przez k i nazywaną opóźnieniem). W tym przypadku kluczowe jest 5 |
Menu
|