Vijfde toespraak, najaar 1975.

Op het gevaar af de indruk te wekken een bepaald thema aan mijn toespraken ten grondslag te leggen, moet ik nog ten minste eenmaal terugkomen op het mechanisch mensbeeld. Ik moet dit, omdat de onvermijdelijke pendant, nl. het menselijk machinebeeld, in mijn vak zo'n ravage heeft aangericht.

Ik doel dit keer niet alleen op de anthropomorfe terminologie, waarvan mijn vak vergeven is, zoals "memory", "programming language", "handshaking", "conversational programming" en "man/machine dialogue", enz. In een Amerikaanse voordracht hoorde ik eens: "When this guy wants to talk to that guy...": de spreker bleek te refereren naar twee componenten van een computer netwerk! Onthoudt U van mij: het gebruik van anthropomorfe terminologie ter beschrijving van wat zich in automatische rekenmachines afspeelt is een onmiskenbaar symptoom van professionele onrijpheid. Zolang we dat onthouden, is dit aspect van het menselijk machinebeeld ongevaarlijk en laten we ons niet meer belazeren door termen als "an intelligent terminal" en dergelijke.

Ik doel dit keer op de rol, die de machine wordt toegedacht. Ten eerste hebben we de fictie, dat we behalve werkzaamheden, ook "verantwoordelijkheid" aan een machine delegeren kunnen. Die fictie doet opgeld, hoewel het iedereen duidelijk moet zijn, dat we een machine niet ter verantwoording kunnen roepen. Moeten we hem in geval van wangedrag straffen, door hem een dag geen electriciteit te geven? En toch wordt de verantwoordelijkheid gedelegeerd, althans afgeschoven: wie klachten heeft over de uitkomsten van de mechanische administratie van een bank, een verzekering, de telefoondienst of de belastingdienst, krijgt nooit de schuldige te spreken, want "de computer heeft het gedaan". Dit, zo de fout al toegegeven wordt, want als we de zaak mechaniseren kunnen er toch geen fouten meer optreden? Zelfs als ten gevolge van zogenaamde "volledige computer-beveiliging" er twee treinen op elkaar rijden, heeft geen mens dat meer op zijn geweten. Dit is angstaanjagend, want een dezer jaren zal een computer uitrekenen, dat overmorgen het gunstigste moment is om een atoomoorlog te beginnen. Evenmin als de verantwoordelijkheid te beslissen, kan de verantwoordelijkheid te begrijpen gedelegeerd worden. Helaas wordt ook dit op grote schaal vergeten.

Een van de eerste projecten, die onder de suspecte bannier van "Artificial Intelligence" werd opgezet, was het mechanisch bewijzen van stellingen. Potentieel zit daar iets in: het bestuderen van een mechanisch gevonden bewijs zou in principe best nieuwe inzichten kunnen geven. Toen het vinden van nontriviale bewijzen niet lukte, verschoof men de bakens: laat een machine dan wat wij denken dat een bewijs is, op correctheid controleren. Alsof het bewijs van een stelling het certificaat van correctheid van die stelling zou zijn! Een bewijs van een stelling is de neerslag van ons begrip van de stelling, en als het bewijs zo bewerkelijk is dat het ons zonder mechanische verificatie niet overtuigt, hebben we gewoon de stelling niet begrepen.

Het ergste uitvloeisel van dit onbegrip zijn echter de zg. "natural language programming systems". Dit soort projecten keert terug met de regelmaat van griepepidemieen. De gebruiker hoeft niet meer te kunnen programmeren, hij zegt gewoon in het Engels, wat zijn probleem is; in geval van onduidelijkheid stelt de machine nog wat vragen, totdat de machine de bedoeling begrepen heeft en doet wat van hem verwacht wordt! Dat jaarlijks aan deze onzin millioenen verstookt wordt, is tot daar aan toe. Veel erger is, dat deze projecten nieuw voedsel geven aan de politieke leugen, dat expertise van mensen misbaar zou zijn.