Video: met historicus Luc Panhuysen in Antwerpenv (copy)

Foto: Thinkstock

Verslaafd aan het algoritme

zaterdag 18 augustus 14:45-15:45 uur

Algoritmes zijn overal achter de schermen en worden steeds meer ingezet om beslissingen te maken. Maar nemen ze ook betere beslissingen? De techniek en de ethiek van de allesbepalende algoritmes worden besproken met Francien Dechesne (onderzoeker recht en digitale technologie) en Holger Host (computerwetenschap).

Vooraf: Tegenlicht tv, aflevering: Verslaafd aan het algoritme, 13:45-14:45 uur

Is al die bangmakerij over kunstmatige intelligentie wel terecht, vraagt Michael Brooks zich af in onderstaand achtergrondartikel uit New Scientist 52, februari 2018.

DOOR

Michael Brooks

Kunstmatige ontwetendheid

Straks nemen losgeslagen robots de boel over: zo worden we vaak bang gemaakt. Maar de echte problemen met kunstmatige intelligentie zijn van een heel andere orde.

Ergens op een server in de Verenigde Staten staat een opname van mijn vrouw terwijl ze in de keuken staat te praten. Ze wist niet dat haar stem opgenomen werd, maar ze had de gebruiksvoorwaarden van Amazons digitale assistent Echo ook niet gelezen. Ik kan de opname zo vaak beluisteren als ik maar wil: je hoort haar aan mij vragen waarom Echo meestal Alexa wordt genoemd.

‘Vanwaar die naam Alexa?’ zegt ze. ‘Daar moet toch een reden voor zijn.’

Doorgewinterde Echo-gebruikers weten dat Alexa begint met luisteren – en opnemen – zodra haar naam genoemd wordt. Maar feitelijk begint de opname al net voor het uitspreken van haar naam. Betekent dat dat ze altijd meeluistert? Ik voel de paranoia al op komen zetten.

Paranoia is een normale reactie van de menselijke intelligentie op kunstmatige intelligentie (KI). Het vooruitzicht dat machines ooit precies als mensen op ons zullen reageren – net mensen zullen zijn – is zowel spannend als angstaanjagend.

De gevaren van kunstmatige intelligentie worden overal breed uitgemeten. KI gaat ons bespioneren, het einde van onze privacy betekenen en alles wat we publiek maken eerst filteren. En uiteraard zal KI onze banen inpikken – wie weet zelfs de hele mensheid vernietigen.

Ik weet niet goed wat ervan waar is. Worden de juiste vragen überhaupt gesteld?

Alexa is behoorlijk slim – en ze weet wat ze doet. Ik probeer haar te foppen door over ‘anorexia’ te beginnen. Ze geeft geen krimp. Ik vertel dat ik een schuur ‘annex’ klushok wil bouwen. Weer niets. Alexa herkent mijn stem verbluffend goed, begrijpt mijn opdrachten en doet in de regel precies wat ik haar vraag.

Wat ik hét vraag, moet ik natuurlijk zeggen. Om de een of andere reden hebben de meeste KI’s vrouwenstemmen – Alexa, Cortana van Microsoft en Siri van Apple, zelfs de assistent van de piloot in het nieuwe gevechtsvliegtuig Eurofighter Typhoon. Het schijnt dat mensen een vrouwenstem eerder antwoord geven. Niet dat het er veel toe doet; het blijft een algoritme.

‘We zijn geneigd om technologie te antropomorfiseren’, vertelt filosoof Stephen Cave van het Leverhulme Centre for the Future of Intelligence aan de universiteit van Cambridge. ‘Als KI steeds meer gebruikt gaat worden en je er niet meer omheen kunt, dan gaan we die systemen namen geven en ze als collega’s of familieleden behandelen.’ En dat is gevaarlijk, vindt tenminste Joanna Bryson van de universiteit van Bath in Engeland. De illusie van medemenselijkheid creëert een vals gevoel van veiligheid.

Bryson is KI-onderzoeker en vindt dat mensen gewaarschuwd moeten worden als ze een huis binnenkomen waar een Echo, Google Home of andere digitale assistent aan staat. Wanneer zij zelf weet dat er een actief is, let ze op wat ze zegt, vertelt ze. Ze is er zich terdege van bewust dat haar woorden geregistreerd en ontleed kunnen worden.

Lang niet iedereen staat daarbij stil. ‘Veel mensen weigeren te geloven dat KI bestaat tot het moment dat een mensach-tige robot de deur binnen komt wandelen’, zegt Cave. Toch is de KI-revolutie allang stilletjes gearriveerd, er is alleen nog weinig revolutionairs aan.

Vreemd, ze vergeet te vermelden dat ze Amazon, Apple, Google, Facebook en andere bedrijven van data voorziet. De grote bedrijven die KI inzetten, houden natuurlijk vol dat ze die data voor ons eigen bestwil verzamelen – om te begrijpen wat we bedoelen als we per ongeluk een typefout maken, om te voorspellen welke posts van vrienden we willen zien, om alles te doen wat ons hartje begeert.

Maar die data zorgen ook voor de verkoop van advertenties en producten en voor de verfijning van de winstgevende KI-algoritmen. Google, Amazon, Microsoft en andere bedrijven hebben hun KI-algoritmen allemaal gedeeltelijk open source gemaakt, wat betekent dat programmeurs ze voor hun eigen toepassingen mogen gebruiken. Maar tegelijk verbeteren zij zo de programmacode, die de grote bedrijven dan weer in hun absoluut niet openbaar toegankelijke KI’s kunnen toepassen.

Ook als je geen pratend doosje in je keuken hebt staan, heb je waarschijnlijk zonder het te beseffen al vaak met een KI gecommuniceerd. E-mails naar de Britse online supermarkt Ocado worden bijvoorbeeld gelezen, beoordeeld en door-gestuurd door een KI gebaseerd op het Tensorflow algoritme van Google. Wellicht kreeg je een KI aan de lijn toen je laatst een callcenter belde, die vroeg naar de reden van je telefoontje en je antwoord gebruikte om je door te verbinden. KI’s beoordelen al hypotheekaanvragen, bepalen de hoogte van verzekeringspremies en achterhalen creditcardfraude door ongebruikelijke betaalpatronen te detecteren. ‘In allerlei doodgewone toepassingen zit allang KI’, vertelt roboticaspecialist Sabine Hauert van de universiteit van Bristol in Engeland.

Waarom denken we dan nog steeds dat deze technologie ‘er gaat komen’? Dat komt onder andere door onheilspellende waarschuwingen van figuren zoals hightechondernemer Elon Musk en kosmoloog Stephen Hawking. Allebei schreeuwen zij van de daken dat we een toekomst tegemoet gaan waarin machines een eigen leven leiden. Vorig jaar waarschuwde Hawking dat KI de grootste ramp in de geschiedenis van de mensheid kan gaan worden. In 2014 zei hij zelfs dat ‘de ont-wikkeling van volledig kunstmatige intelligentie het einde van de menselijke soort kan betekenen’. Hij schetste een toekomstvisioen waarin door ons gebouwde machines erover gaan beslissen of wij onze plek op aarde wel waard zijn. In augustus van dit jaar tweette Musk dat KI ‘een gigantisch veel groter risico vormt dan Noord-Korea’. Zulke angstvisioenen zijn moeilijk te rijmen met de vooralsnog vrij saaie werkelijkheid – en daarom gaan we ervan uit dat AI nog niet bestaat.

Facebook-oprichter Mark Zuckerberg noemde één van Musks eerdere onheils-visioenen ‘onverantwoordelijk’. Tja, maar natuurlijk zegt hij dat. Musk pareerde dat door Zuckerberg ‘kortzichtig’ te noemen.

Ze ontwijkt duidelijk de vraag. Bijna elke dag praat ik tegen Siri, de door KI aangestuurde virtuele assistent in mijn iPhone. Ik vraag het om mijn vrouw een bericht te sturen, iets in mijn agenda te zetten – maar liever geen dingen die het ooit tegen me zou kunnen gebruiken.

Siri en Alexa hebben geen lichamen, een pistool afvuren zie ik ze dus niet snel doen. Maar alleen al door onze angsten omtrent KI in zulke gewelddadige termen te vatten, geven we blijk van een irrationele kijk op de beloften en gevaren ervan. We blijven het zien als iets dat in gemene Terminator-achtige robots zit. ‘Het beeld van kunstmatige intelligentie bij het grote publiek is gevormd door de ‘stalen mens’ uit sciencefictionverhalen: robots die banen stelen of opeens een bloedhekel aan de mensheid krijgen’, vertelt KI-expert Euan Cameron van consultancyfirma PwC.

Dat beeld stamt uit de tijd dat AI pas net bestond. Het heeft zijn oorsprong in de sciencefiction van de jaren vijftig, die zelf ook weer een antwoord was op de wetenschappelijke en technische ontwikkelingen uit de Tweede Wereldoorlog. En natuurlijk wordt veel KI-onderzoek door het leger gefinancierd. Zo is Siri een bijproduct van een poging om een assistent voor soldaten te maken. De Grand Challenge-races, gesponsord door de onderzoekstak van het Amerikaanse leger darpa, zwengelde de ontwikkeling van autonome voertuigen aan die mensen zoals Musk met zijn bedrijf Tesla nu gemeengoed proberen te maken.

En inderdaad maken wapens steeds meer gebruik van autonome software, waarmee ze vijandelijke doelen kunnen identificeren en er zonder menselijke tussenkomst op kunnen vuren. De rege-ringen van Groot-Brittannië en sommige andere landen hebben beloofd altijd een ‘human-in-the loop’ te houden, ofwel de ultieme beslissing om te vuren altijd aan een mens over te laten. Maar er zijn ook systemen, zoals het Zuid-Koreaanse geschut langs de grens met Noord-Korea, die ‘human-on-the-loop’ worden genoemd: ze beginnen uit zichzelf met vuren, maar een mens kan als het nodig is tussenbeide springen om ze te stoppen. En het Israëlische raketverdedigingssysteem Iron Dome is zelfs volledig geautomatiseerd. Zodra het een inkomende raket of bom detecteert, vuurt het een projectiel af om het te onderscheppen. Mensen komen er niet aan te pas.

Zelfs met de zo gehypete zelfrijdende auto’s kan het weleens heel anders uitpakken dan we denken.

Foto: Google

Binnenkort vervangt kunstmatige intelligentie mogelijk accountants, financieel analisten, juridisch personeel en zelfs journalisten.

Foto: Thinkstock

De vraag is alleen op welk punt automatisering precies autonomie wordt, en wanneer dat weer KI wordt. Waarschijnlijk zijn volledig autonome, intelligente ‘Siri-heeft-jou-in-de-loop-niet-nodig’-wapensystemen al binnen twee decennia binnen ons bereik. En dan komen ze er waarschijnlijk ook. Generaals houden erg van militair overwicht. Het is dus moeilijk voorstelbaar dat ook maar één land onderzoek in deze richting vrijwillig zal stopzetten. Sterker nog, de speltheoretische algoritmen die ruim een halve eeuw lang kernoorlogen hielpen voorkomen, stellen nu dat alle landen die ertoe in staat zijn zulke technologie moeten proberen te ontwikkelen, maar tegelijkertijd internationale afspraken moeten maken om de inzet ervan te verhinderen.

Voor chemische wapens en verblindende lasers zijn al VN-verdragen gesloten. ‘De uitvinding van de simpele scheikunde achter chemische wapens kunnen we niet ongedaan maken, maar dat VN-verdrag heeft er wel voor gezorgd dat ze nauwelijks meer op het slagveld gebruikt worden’, vertelt KI- en robotica-onderzoeker Toby Walsh van de universiteit van New South Wales in Australië. ‘Ik hoop dat het met autonome wapens net zo zal gaan.’

Alleen in de meest zwartgallige scenario’s komen burgers massaal in het vizier van gewapende KI’s. Mainstream KI is allang met andere dingen bezig. Het beeld dat Alan Turing er in 1950 van gaf – machines die de menselijke hersenen imiteren en zich net als mensen gedragen – is achterhaald. Echte KI is software die draait op computers in grote metalen dozen. Het verfijnt zijn antwoorden door bijvoorbeeld alle gebruikersinteracties met Alexa uit het verleden te analyseren. En zelfs al zou je een laserkanon in de serverruimte laten slingeren, dan zou het nog niet weten wat het ermee aan moest. De software maalt maar om één ding en dat is data.

‘In zijn huidige gedaante komt KI neer op statistisch machinaal leren uit gegevens die vaak uit crowdsourcing komen’, vertelt Ross Anderson van de universiteit van Cambridge. Dit type KI zoekt in een berg informatie naar patronen en bekijkt hoe relevant die zijn voor een van tevoren vastgesteld doel, zoals het vaststellen van iemands verzekeringspremie of het redigeren van een Facebook-feed en er zinvolle advertenties bij plaatsen. De reactie van het systeem wordt teruggekoppeld naar de KI, zodat die de volgende keer beter presteert – misschien al een microseconde later.

Als je dat maar saai vindt klinken, heb je gelijk. Maar juist voor saaie taken is KI erg handig. Mensen zijn er nu eenmaal niet goed in om advertenties op jouw Facebook-tijdlijn te zetten, al zouden ze het willen.

Goh, dat zou Siri toch moeten weten. Jij en ik zijn oneindig veel slimmer dan welke KI dan ook. Behalve natuurlijk als jij ook maar een KI-bot bent die het web afstruint naar artikelen om te stelen en hier toevallig even doorheen neust. Maar ben je er zo een dan begrijp je me toch niet, dus waarom zou ik dan met je praten?

Eigenlijk is machine learning geen goede naam voor wat KI doet. De algoritmen ‘leren’ door hun dataverwerkingsroutines zo te veranderen dat ze een beter resultaat geven, uitgaande van een exact gedefinieerd doel. Maar daarna ‘weten’ ze nog niks, tenminste niet op de manier waarop jij nu al iets meer weet dan vijf minuten geleden. Ook kunnen ze niet zoals jij dingen expres vergeten of verkeerd onthouden, kennis naar eigen inzicht toepassen, die aan iemand doorgeven, proberen slim over te komen of besluiten te stoppen met lezen omdat ze het hebben begrepen en liever iets anders gaan doen.

Mensen geven blijk van ‘algemene intelligentie’: ze kunnen eerder opgedane kennis en vaardigheden toepassen in nieuwe situaties. AlphaGo van Googles dochter-bedrijf DeepMind verslaat weliswaar de menselijke wereldkampioen in het ingewikkelde bordspel Go, maar kan niet autorijden, aan een kennisquiz meedoen of een potje scrabblen. Zijn intelligentie heet daarom ‘zwak’: de software kan maar één ding echt goed. Het zou niet eens dit artikel kunnen schrijven.

KI kan niet putten uit emotionele ervaringen, nadenken over de toekomst of leren van de omgang met andere mensen. Konden ze dat wel, dan zouden deze algoritmen gegevens heel anders analyseren en andere beslissingen nemen. KI-onderzoeker Neil Lawrence van de universiteit van Sheffield vermoedt dat dit de voornaamste reden is dat machines de werking van de menselijke hersenen niet bij benadering kunnen nabootsen. En volgens hem zullen ze het nooit zo ver schoppen, hoe krachtig ze ook worden. Onze intelligentie hangt nauw samen met onze plannen, met de weinige tijd waarover we beschikken en het emotionele belang dat we aan de toekomst hechten, vertelt hij. ‘Dat aspect van onze menselijkheid kun je nooit in een machine stoppen,’ zei hij onlangs op een conferentie, ‘want apparaten sterven niet.’

‘Het grootste misverstand over KI is dat het zal lijken op menselijke intelligentie’, zegt Cave. ‘Maar het werkt heel anders dan het menselijk brein. De doelen, vermogens en beperkingen van machines zijn zo anders dan de onze dat ze totaal niet op ons zullen lijken; we zijn toch een soort apen met grotere hersenen.’

KI zal inderdaad anders worden dan wij, maar niet per se beter of slechter, denkt Nello Christianini van de universiteit van Bristol. ‘Het is misleidend om altijd maar weer de menselijke intelligentie als de toetssteen van alle intelligentie te nemen, want die kan ook hele andere vormen aannemen’, vertelt hij. ‘Er bestond op onze planeet al intelligentie lang voordat er mensen waren, en al helemaal lang voordat de menselijke taal bestond.’

Christianini hanteert een iets andere definitie van intelligentie: het is een subject dat een doel nastreeft in een omgeving waar het niet helemaal de controle over heeft. Zo’n intelligent subject kan informatie in zich opnemen, leren, zich aanpassen, soms plannen of redeneren en vervolgens tot handelen overgaan. ‘Hoe dit gedrag uitpakt, hangt af van zijn doeleinden en van de reactie van de omgeving’, vertelt hij. ‘Kippen die de weg over rennen, zelfsturende auto’s die door het verkeer laveren, verkoopagenten van Amazon die een boek aanraden of korting aanbieden: allemaal hebben ze een duidelijk doel voor ogen dat ze binnen een complexe omgeving moeten realiseren. En ze kunnen in principe leren van hun fouten.’

Complex gedrag van een apparaat kan bedreigend overkomen als je het niet gewend bent. Maar de mensen die KI’s ontwikkelen, beschouwen ze eerder als handige digitale hulpmiddelen en niet meer dan dat. Bryson noemt intelligentie ‘even gaan rekenen voordat je tot actie overgaat’. Wat haar betreft maakt het weinig uit of die intelligentie natuurlijk of kunstmatig is. We zullen machines gebruiken om onszelf slimmer te maken, bedrijven zullen onze data en ervaringen blijven gebruiken om hun algoritmen slimmer te maken. Maar slimme software zal nooit zijn eigen agenda hebben, want daar is die niet toe in staat. Misschien zullen KI’s evolueren en leren om zich anders uit te drukken, maar nog steeds zullen ze doen wat wij hen opdragen. ‘Het is niet meer dan een stuk gereedschap’, aldus Hauert.

Maar ook een stuk gereedschap kan toch zeker een bedreiging vormen? Wat mensen aan KI het meeste zorgen baart is dat het hun baan in gevaar brengt. In een enquête uit 2016 zei 62 procent van de ondervraagden te verwachten dat KI banen gaat kosten. En zelfs als het ons niet overbodig maakt, zal het werknemerssalarissen negatief beïnvloeden, omdat het mensenwerk minder waardevol maakt. De gedane besparingen zullen snel door directies worden afgeroomd. Veel economen gaan ervan uit dat automatisering zal bijdragen aan de toch al groeiende ongelijkheid.

‘Inderdaad wordt de ongelijkheid snel groter en de inzet van geavanceerde KI zal dat alleen maar verergeren’, aldus Stuart Russell van de universiteit van Californië. Als regeringen niet snel maatregelen nemen, krijgt dat de komende vijftien à twintig jaar grote gevolgen.’ Te denken valt aan een KI-belasting voor bedrijven die geld uitsparen door werknemers door algoritmen te vervangen. Ook wordt vaak gepleit voor de invoering van een basis-inkomen, waarmee werknemers tenminste hun woning, ziektekosten en levensonderhoud kunnen blijven bekostigen.

De afgelopen jaren is de angst voor automatisering sterk toegenomen. Tot dusver had die vooral gevolgen voor werknemers in de industrie, maar nu maakt kantoorpersoneel zich steeds meer zorgen over de ontwikkelingen in de KI. Binnenkort zal die niet alleen Facebookfeeds analyseren, maar ook accountants, financieel analisten, juridisch personeel en zelfs journalisten gaan vervangen.

Over de vraag hoe waarschijnlijk of denkbaar dat is, verschillen de meningen. Er bestaan al algoritmen die beter zijn dan mensen in online marketing, het voorspellen van toekomstige wetsartikelen op basis van juridische uitspraken, het geven van financieel advies en het opstellen van jaarverslagen van bedrijven. Oxford-onderzoekers Karl Frey en Michael Osborne publiceerden in 2013 een verslag waarin zij concludeerden dat wel 47 procent van alle Amerikaanse banen door computerisering en automatisering verloren kan gaan.


    Warning: Undefined array key -1 in /var/hpwsites/u_twindigital_html/website/html/webroot/romeinselimes.historischnieuwsblad.nl/wp-content/plugins/diziner-core/lib/TwinDigital/Diziner/Core/Post.php on line 965
  • Video: met historicus Luc Panhuysen in Antwerpenv (copy)

    Lees ook

    Warning: Undefined array key 0 in /var/hpwsites/u_twindigital_html/website/html/webroot/romeinselimes.historischnieuwsblad.nl/wp-content/plugins/diziner-core/lib/TwinDigital/Diziner/Core/Post.php on line 928
  • Video: met historicus Luc Panhuysen in Antwerpenv (copy)

    Lees ook