Zanim przejdę do teorii, powiem ci coś, co sprawia, że te wykresy są naprawdę użyteczne. Punkt wychodzący poza górną linię kontrolną to nie koniec świata. To pytanie: dlaczego akurat teraz? I właśnie o to w tym narzędziu chodzi — nie o rejestrowanie błędów, ale o rozróżnianie między tym, co normalne, a tym, co wymaga reakcji.
Dobra, ale zacznijmy od środka.
Walter Shewhart pracował w Bell Telephone Laboratories, gdy firma zmagała się z konkretnym problemem: wzmacniacze sygnału musiały być zakopywane pod ziemią, więc każda awaria była kosztowna i trudna do naprawienia. Inżynierowie zauważyli coś ciekawego — że ciągłe poprawianie procesu produkcji bez danych wcale go nie stabilizowało. Wręcz odwrotnie, generowało więcej chaosu.
Shewhart, fizyk z zacięciem statystycznym, napisał w maju 1924 roku wewnętrzny memo. Dosłownie jedna strona, z prostym schematem wykresu — i to był zaczątek wszystkiego. Jego szef, George Edwards, wspominał potem, że w tym skromnym dokumencie znajdowały się wszystkie zasadnicze idee, które dziś znamy jako statystyczne sterowanie procesem.
W 1931 roku Shewhart opublikował książkę Economic Control of Quality of Manufactured Product. Mało kto ją wtedy przeczytał. Kilka lat później zainteresował się nią W. Edwards Deming, który po wojnie pojechał do Japonii i... reszta to historia. Japońscy producenci zbudowali na tej metodzie część swojej przewagi konkurencyjnej w latach 60. i 70.
Zresztą, to że narzędzie ma prawie sto lat, nie znaczy, że jest przestarzałe. Znaczy, że jest sprawdzone.
Karta kontrolna to wykres, na którym odkładamy wyniki kolejnych pomiarów lub próbek w czasie. Oś X to czas (albo numer próbki), oś Y — mierzona wartość. Do tego dochodzą trzy poziome linie: linia centralna (średnia procesu) oraz górna i dolna granica kontrolna — UCL i LCL (od angielskiego upper/lower control limit).
Te granice wyznacza się na poziomie ±3 odchyleń standardowych od średniej. Dlaczego trzy? Bo przy rozkładzie normalnym, trzy sigma oznaczają, że tylko 0,27% punktów może tam trafić przypadkowo. Jeśli więc punkt wychodzi poza linię — z prawdopodobieństwem ponad 99% coś się zmieniło w procesie.
I tu jest rdzeń całej filozofii Shewarta: proces zawsze wykazuje zmienność. Pytanie brzmi — jakiego rodzaju? Karty kontrolne są częścią szerszej koncepcji zwanej statystycznym sterowaniem procesem (SPC), która dostarcza narzędzi do odpowiedzi na to pytanie.
Zmienność losowa, zwana też wspólną przyczyną (common cause variation), to normalne drgania procesu. Maszyna pracuje nieperfekcyjnie, surowce mają drobne różnice, operator nie zawsze robi wszystko identycznie. To jest wbudowane w system i operator na hali nic z tym nie zrobi. Żeby to zmienić, potrzebna jest decyzja kierownictwa — nowa maszyna, inny dostawca, zmiana procedury.
Zmienność specjalna (special cause variation) to coś innego. Zepsute narzędzie, zabrudzony surowiec, nieuwaga jednego pracownika, nagła zmiana temperatury w pomieszczeniu. To jest do zlokalizowania i usunięcia — i do tego właśnie służy karta kontrolna.
To rozróżnienie jest przez wiele firm kompletnie ignorowane. Widziałem zakłady, gdzie operator dostawał polecenie korekty za każdym razem, gdy wynik odchylił się od środka tolerancji — nieważne czy to była zmienność losowa czy specjalna. Efekt? Ciągłe podkręcanie ustawień, które zamiast stabilizować proces, rozregulowało go jeszcze bardziej. Deming nazywał to tampering — i twierdził, że to jeden z głównych grzechów zarządzania procesami.
Branże z małoseryjną produkcją i ciągłymi przezbrojeniami zwykle tracą czas na prowadzeniu kart kontrolnych. Jeśli co dwie godziny zmieniasz produkt, a każda seria to 50 sztuk, to do czasu zebrania sensownej liczby danych do obliczenia granic kontrolnych — seria jest skończona. Karta nie zdąży nic wykryć.
Podobny problem mają organizacje, które wdrażają SPC „dla laurki" — bo klient tego wymaga, bo norma tak mówi. Masaaki Imai pisał, że zebrane informacje, które nie są właściwie wykorzystywane, szybko przestają być przydatne. Trudno się nie zgodzić. Żeby karta kontrolna miała wartość, musi istnieć procedura reakcji: kto jest odpowiedzialny za zbadanie przyczyny sygnału, w jakim czasie, co robi z wynikami. Bez tego cały system jest dekoracją.
Tutaj wchodzi trochę teorii, ale jest ona naprawdę potrzebna, żeby nie stosować narzędzia do złych danych.
Karty dla danych liczbowych (mierzalnych) to przede wszystkim karta X̄-R. Zbieramy próbki — powiedzmy pięć sztuk co godzinę — liczymy ich średnią i rozstęp. Średnia trafia na kartę X̄, rozstęp na kartę R. Obie karty razem monitorują dwie różne rzeczy: czy środek procesu się nie przesuwa i czy zmienność wewnątrz próbek nie rośnie. Stosuje się ją dla próbek 2–10 elementowych.
Dla większych próbek (ponad 10 sztuk) lepiej sprawdza się karta X̄-S, gdzie zamiast rozstępu liczymy odchylenie standardowe. Jest bardziej czuła statystycznie, bo rozstęp traci na wiarygodności przy dużych podgrupach — po prostu jest zbyt wrażliwy na wartości skrajne.
Czasem nie mamy próbek, tylko pojedyncze pomiary — jedna sztuka na zmianę albo jedna partia na dobę. Wtedy stosujemy kartę I-MR (Individuals – Moving Range). Ona jest trochę mniej stabilna statystycznie, ale daje radę tam, gdzie pobieranie kilku próbek na raz jest niemożliwe lub nieopłacalne.
Dla danych atrybutowych — kiedy liczymy defekty, a nie mierzymy wymiary — mamy karty p, np, c i u. Karta p mierzy udział sztuk niezgodnych w próbce, np liczy ich liczbę bezwzględną przy stałej wielkości próbki, karta c liczy liczbę wad na jednostkę, u zaś liczbę wad na jednostkę przy zmiennej wielkości próbki. Ta różnica między c i u jest drobna, ale ważna: karta c zakłada stałą liczbę miejsc, gdzie wada może się pojawić. Jeśli co tydzień kontrolujesz różne partie o różnej liczbie elementów, bierzesz u, nie c.
No i tyle, jeśli chodzi o przegląd typów. W praktyce 80% zastosowań to karta X̄-R albo I-MR.
Punkt poza granicami to nie jedyny sygnał. I tu wielu użytkowników kart popełnia błąd — sprawdzają tylko, czy nic nie wychodzi za UCL albo LCL, i idą dalej.
W latach 50. Western Electric Company skodyfikowała cztery podstawowe zasady wykrywania niestabilności. Alarm powinien zapalić się, gdy jeden punkt wychodzi poza ±3 sigma, dwa z trzech kolejnych punktów znajdą się poza ±2 sigma po tej samej stronie linii centralnej, cztery z pięciu kolejnych punktów znajdą się poza ±1 sigma po tej samej stronie, albo — i to jest najciekawsze — osiem kolejnych punktów leży po tej samej stronie linii centralnej.
Ta ostatnia reguła jest szczególnie zdradliwa. Wykres wygląda "normalnie" — żadnych przekroczeń — ale coś się powoli zmienia. Może narzędzie się zużywa. Może temperatura w magazynie stopniowo rośnie. Osiem punktów z rzędu po tej samej stronie to nie zbieg okoliczności.
Lloyd Nelson rozbudował te reguły w 1984 roku do ośmiu, dodając między innymi wykrywanie trendu (sześć kolejnych punktów konsekwentnie rosnących lub malejących) i niestandardowych wzorców oscylacji. Ważna uwaga: stosowanie zbyt wielu reguł jednocześnie zwiększa ryzyko fałszywych alarmów. Dla procesów, które dopiero stabilizujemy, stosuj wszystkie reguły. Dla procesów stabilnych wystarczą pierwsza i czwarta z Western Electric.
A, zapomniałem wspomnieć o czytaniu karty R — to robisz przed kartą X̄, nie po. Zmienność wewnątrz próbki jest często wrażliwsza na zmiany procesu niż sama średnia. Jeśli R rośnie przy stabilnej średniej, coś się dzieje — i lepiej to wychwycić zanim trafi na kartę X̄.
Wybierz jeden proces, jeden parametr. Najlepiej taki, który generuje powtarzalne problemy albo odpowiada za charakterystykę krytyczną produktu. Nie zaczynaj od pięciu kart jednocześnie — to klasyczny błąd przy wdrożeniach SPC.
Ustal jak pobierasz próbki. Klasyczna zasada: podgrupy powinny być „racjonalne" — czyli elementy w jednej próbce powinny być produkowane w podobnych warunkach (ta sama zmiana, to samo narzędzie, ten sam materiał). Jeśli mieszasz elementy z różnych warunków w jednej próbce, granice kontrolne będą za szerokie i karta nic nie wykryje. Ten punkt jest przez wiele podręczników omawiany pobieżnie, a w praktyce decyduje o tym, czy narzędzie w ogóle działa.
Zbierz dane z co najmniej 20–25 podgrup. Dopiero na tej podstawie obliczaj linie kontrolne. Warto też wiedzieć, że karty kontrolne są ściśle powiązane ze wskaźnikami zdolności procesu — więcej o tym, jak stosować metody statystyczne w zarządzaniu jakością, znajdziesz w osobnym opracowaniu.
Najtrudniejsze: naucz operatorów interpretować wykres. Nie obliczać — to może robić Excel albo specjalistyczne oprogramowanie. Ale rozumieć, że osiem punktów po jednej stronie to nie przypadek, że trend w górę na karcie R oznacza rosnącą zmienność, co często jest wczesnym sygnałem zużywającego się narzędzia, że punkt poza UCL wymaga nie paniki, ale krótkiego zatrzymania i pytania: co zmieniło się właśnie teraz?
I ostatnia rzecz: wyznacz kogoś odpowiedzialnego za reagowanie na sygnały. Karta kontrolna sama niczego nie naprawi.
Shewhart projektował swoje karty z myślą o papierze i ołówku, bo nic innego nie było dostępne. Dziś mamy systemy zbierające dane automatycznie z maszyn, liczące granice w czasie rzeczywistym, wysyłające alerty na telefon operatora. Idea jest ta sama, tylko medium inne.
Problem polega na tym, że dobry system informatyczny nie zastąpi zrozumienia, co wykres mówi. Oprogramowanie może narysować perfekcyjną kartę kontrolną z ośmioma regułami Nelsona i wszystkimi strefami sigma — i operator będzie klikał „OK" przy każdym alercie, bo nie rozumie, co jest sygnałem wymagającym działania, a co normalnym szumem.
Shewhart stworzył narzędzie diagnostyczne, nie dekorację ściany przy linii produkcyjnej. Różnica między tymi dwoma zastosowaniami to często różnica między firmą, która się poprawia, a firmą, która tylko dokumentuje swoje problemy. Jeśli chcesz zgłębić temat praktycznie, warto rozejrzeć się za szkoleniem SPC.