Wiskunde stelt testgrens scherp

| Redactie

Aan hoogwaardige massa-produkten zoals chips (IC's) stelt de klant tegenwoordig zeer hoge eisen. Ze worden daarom voor aflevering stuk voor stuk doorgemeten op elke eigenschap waarvoor een specificatiegrens is vastgesteld. Dat testen is echter niet eenvoudig omdat meetfouten het bepalen van een meetgrens bemoeilijken. Gevolg: er wordt te soepel goedgekeurd (nadelig voor de klant) of juist te streng (nadelig voor de producent). Er is nu een nieuwe wiskundig-statistische methode ontwikkeld die scherp testen mogelijk maakt. En dat kan de elektronica-industrie winst opleveren.

Voor het optimaal functioneren van een chip kan een simpel stofdeeltje al fataal zijn. Daarom vindt bij de IC-fabrikage naast de gewone procescontrole altijd aan het eind van de produktielijn nog een 100 procent kwaliteitscontrole plaats, waarbij elke IC wordt doorgemeten op alle eigenschappen waarvoor een specificatiegrens wordt gegarandeerd. Daarbij wordt afhankelijk van het type IC gemiddeld 0,1 tot 10 procent afgekeurd.

Kwaliteitscontrole van IC's is een van de duurste aspecten van de produktie. Bij een stereo-decoder-IC moeten 85 eigenschappen worden doorgemeten. Daarom wordt al bij het ontwerp van een IC zoveel mogelijk rekening gehouden met de testprocedure. Het testen zelf is echter moeilijk omdat optredende testfouten het vaststellen van testgrenzen dwarsbomen.

Ir. Gertjan Otten (TW) kwam met de testproblematiek in aanraking tijdens zijn afstudeerstage bij Philips Semiconductors in Nijmegen, waar al volop werd gewerkt aan een statistische methode om testgrenzen beter te kunnen bepalen. Otten zag wel brood in de kwestie. 'Ze hadden om te beginnen in Nijmegen al een leuk theoretisch resultaat bereikt. En het leek een leuk onderzoek: enerzijds toepassingsgericht, anderzijds vanwege de hoeveelheid benodigde statistiek ook wetenschappelijk interessant', aldus Otten.

De afgelopen vier jaar werkte Otten als AIO (eerste geldstroom) bij de vakgroep Stochastiek & Operationele Research verder aan de nieuwe methode. En vrijdag 23 juni hoopt hij bij prof.dr. W. Albers te promoveren op het proefschrift 'Statistical test limits in quality control'.

Hoe een testgrens te bepalen? Gegeven is de afgesproken specificatiegrens. Daar moet vervolgens een testgrens bij worden gezocht. Dat lijkt eenvoudiger dan het is, omdat rekening moet worden gehouden met meetfouten waardoor de klant mogelijk teveel foute IC's krijgt afgeleverd. Om dat te voorkomen hanteren fabrikanten soms veiligheidshalve een 10 procent strengere testgrens dan gezien de specificatie nodig is. Ook wordt wel standaard de 3 sigma grens genomen, waarbij de afstand tussen test- en specificatiegrens drie keer de geschatte standaardafwijking van de meetfout bedraagt.

Deze 'natte-vinger-methode' is echter niet optimaal, zegt Otten. 'Je hebt eigenlijk geen idee wat je aan het doen bent.' Bovendien: hoe strenger de testgrens, hoe minder slechte IC's goedgekeurd, maar tegelijk hoe meer goede IC's ten onrechte afgekeurd. 'In de praktijk blijkt dat veel te veel produkten ten onrechte worden afgekeurd. Opbrengstverlies dus, en dat is duur. Met mijn methode kun je dat allemaal veel nauwkeuriger doen.'

Ottens methode houdt - meer dan de natte-vinger-methode - bij vaststelling van de meetgrens naast de grootte van de meetfout rekening met twee andere even cruciale waarden. Allereerst de waarde gamma. Dat is het toegestane maximum-percentage foute IC's die zijn goedgekeurd. Niet elke foute IC hoeft namelijk te worden opgespoord. 'Bij zeer grote aantallen wordt vaak afgesproken dat een bepaald percentage niet aan (alle) specificaties hoeft te voldoen.' Het gaat daarbij om 10 tot 100 parts per million (ppm).

Daarnaast is er de fractie risicovolle produkten. 'De meetwaarden die ver van de specificatiegrens afliggen zijn weinig risicovol omdat de kans dat ze niet goed zijn maar klein is. Meetwaarden die dicht bij de specificatiegrens liggen zijn wel risicovol: dat zijn de twijfelgevallen met grote kansop defecten.' En juist in situaties met veel risicovolle meetwaarden kan een betere testgrens-bepaling de nodige opbrengstwinst opleveren.

Otten leidt in zijn proefschrift verschillende statistisch-wiskundige procedures af waarbij testgrenzen nauwkeurig kunnen worden bepaald op een waarde die een maximale opbrengst garandeert bij inachtneming van de waarde gamma (het maximum-percentage produkten dat ten onrechte mag worden goedgekeurd). Dit in de overweging dat bij massa-produkten als IC's een iets ruimere testgrens al tot flinke opbrengstverbetering kan leiden.

Bij kwaliteitstesten worden drie criteria (kansdefinities) gehanteerd: consumer loss (de kans dat je een fout produkt goedkeurt), producer loss (de kans dat je een goed produkt afkeurt) en opbrengst (de kans dat je een produkt goedkeurt). Otten concentreerde zich op het eerste.

Bij het bepalen van testgrenzen worden meetfout en te meten eigenschap als stochastische variabelen beschouwd. 'Je meet iets, maar je kent de meetfout noch de precieze waarde van de eigenschap.' De bestaande literatuur kijkt daarbij alleen naar situaties waarbij wordt aangenomen dat zowel meetfout als eigenschap statistisch normaal verdeeld zijn. Dat maakt het rekenen een stuk makkelijker. 'Het zijn echter sterke aannames over het gedrag van meetfout en eigenschap die in de praktijk niet opgaan', zegt Otten.

Niettemin boog hij zich allereerst over die simpele situatie dat de aanname van normaliteit terecht is. Het door de literatuur geheel genegeerde probleem is dan dat de bijbehorende parameters - verwachting en variantie - in de praktijk onbekend zijn, zegt Otten. 'Je moet ze dus schatten. Als je dat niet nauwkeurig doet zal echter ook je testgrens onnauwkeurig zijn.' Otten leidt daarom voor deze situatie de testgrenzen zo af dat rekening wordt gehouden met het feit dat ze op schattingen zijn gebaseerd.

In de praktijk is de aanname van een normaal verdeeld meetfout of eigenschap meestal niet realistisch. Daarom ontwikkelde Otten ook een procedure om testgrenzen af te leiden in situaties waarin de meetfout wel maar de eigenschap niet normaal verdeeld is, én voor situaties - de meest realistische - waarbij de aannames van normaliteit voor zowel eigenschap als meetfout zijn vervallen. 'Wij geven dus twee procedures: een strenge, voor als je niet zeker bent van de normaliteit, en een optimale, voor als je denkt dat veronderstelling van normaliteit wel klopt.'

In een apart hoofdstuk kijkt hij vervolgens nog naar een ander probleem: het is voor het bepalen van een nauwkeurige testgrens belangrijk dat de dichtheid in de specificatiegrens van de te meten eigenschap goed geschat wordt. Die dichtheid geeft aan hoe waarschijnlijk een bepaalde uitkomst van een bepaalde variabele is, in dit geval hoeveel risicovolle produkten er zijn. Hij vond manieren om de dichtheid 'in één punt te schatten'.

De aldus ontwikkelde 'handreiking' levert de fabrikant grote voordelen op, beweert Otten. Zelfs een iets minder strenge testgrens betekent bij een massa-produkt als een IC al een belangrijke opbrengstverbetering: in dit geval 0.5 procent. 'Dat lijkt misschien niet veel, maar bij de produktie van grote aantallen chips gaat het al gauw om forse bedragen. Je ziet dat de toegepaste wiskunde praktische waarde heeft', glimlacht Otten.

Ottens aanpak is overigens in principe geschikt voor alle fabrikageprocessen waar produkten in massa's worden gemaakt, waar 100 procent inspectie plaatsvindt, en waar een verbetering van 0.5 procent al veel uitmaakt. 'Daarnaast is de methode toepasbaar bij andere wiskundige problemen waarbij je tijdens een procedure twee foute beslissingen kunt nemen.'

En wat vond Philips ervan? 'Men was zeer benieuwd naar de uitkomsten van dit project. Ze hadden voorafgaand aan het project het gevoel dat ze amper wisten wat ze bij het testen eigenlijk precies deden. Dat de natte-vinger-methode in de praktijk onnodig streng is, was niettemin een verrassing voor ze. Hoewel ik niet weet in welk stadium de plannen zijn, begrijp ik dat ze inmiddels bezig zijn de nieuwe procedure toe te passen.'

Stay tuned

Sign up for our weekly newsletter.