Grenzen aan AI: Waarom de Concorde en de A380 ons iets leren
Stel je voor dat je in de Concorde zit. Mach 2. Een glas champagne in de hand terwijl de Atlantische Oceaan onder je voorbijschiet. Van Londen naar New York in minder dan drie uur. Het toestel was een technisch meesterwerk, misschien wel het ultieme symbool van menselijke ambitie. Omdat ik enkele van de ingenieurs achter de Concorde nog persoonlijk heb gekend, voelde het toestel voor mij altijd als meer dan alleen een vliegtuig; het was een visie op de toekomst. Alles eraan straalde vooruitgang uit: sneller, hoger, indrukwekkender, aldus Hans Timmernan (foto).
Waarom de Concorde en de A380 ons iets leren over de toekomst van kunstmatige intelligentie
En toch verdwenen beide vliegtuigen – eerst de snelle Concorde, later de grote A380 – langzaam uit het centrum van de burgerluchtvaart. Niet omdat ze technisch faalden, maar omdat ze economisch en praktisch tegen hun grenzen aanliepen. De Concorde verbruikte absurd veel brandstof, vergde extreem onderhoud en was alleen betaalbaar voor een kleine elite. De A380 bleek op veel luchthavens een logistieke uitdaging en sloot steeds minder aan op een wereld die juist flexibelere point-to-point verbindingen wilde. Uiteindelijk koos de luchtvaartindustrie niet voor het meest spectaculaire vliegtuig, maar voor efficiëntere toestellen zoals de Boeing 787 Dreamliner en de Airbus A350. Technische perfectie bleek iets anders dan duurzame bruikbaarheid.
Grenzen aan bruikbaarheid
Precies diezelfde beweging zie ik vandaag ontstaan binnen AI. De afgelopen jaren voelde kunstmatige intelligentie alsof we collectief in een technologische roes terechtkwamen. Elke nieuwe generatie modellen leek een sprong vooruit. GPT, Claude, Gemini, Grok — telkens sneller, slimmer, krachtiger. De indruk ontstond dat schaalvergroting oneindig door kon gaan. Meer data, meer GPU’s, grotere modellen, grotere datacenters. Alsof intelligentie simpelweg een kwestie was van nóg meer rekenkracht toevoegen.
Maar technologie ontwikkelt zich zelden lineair. Vrijwel iedere grote innovatie volgt uiteindelijk een S-curve. Eerst is er een lange periode van experimenteren en teleurstellingen. Daarna volgt een explosieve groeifase waarin alles ineens lijkt samen te komen. En vervolgens ontstaat onvermijdelijk een afvlakking, het moment waarop elke extra stap meer energie, meer geld en meer complexiteit kost voor relatief minder vooruitgang.
De harde werkelijkheid van S-curven
Bij AI begon die eerste fase al in de jaren vijftig en zestig, toen onderzoekers experimenteerden met de eerste neurale netwerken. In de jaren tachtig kwamen expert-systemen en ambitieuze onderzoeksprojecten die destijds revolutionair leken, maar in de praktijk beperkt bleven. Decennialang bleef kunstmatige intelligentie vooral een academisch domein, interessant maar verre van wereldveranderend.
Pas rond 2012 begon deep learning echt tractie te krijgen. Daarna volgden de transformers in 2017 en ontstond de perfecte storm van gigantische datasets, NVIDIA-GPU’s en ongekende schaalvergroting. Ineens zat AI midden in het steile deel van de S-curve. De vooruitgang voelde bijna exponentieel. Maar wie goed kijkt, ziet inmiddels dezelfde signalen verschijnen die ooit ook zichtbaar werden in de luchtvaart. De nieuwste modellen zijn absoluut beter dan hun voorgangers, maar de sprongen worden kleiner terwijl de kosten juist explosief stijgen. Voor marginale kwaliteitsverbeteringen zijn gigantische hoeveelheden extra energie, hardware en infrastructuur nodig. Dat is geen toevalligheid. Het is een fundamentele eigenschap van schaal.
Brandstof versus massa
Ik gebruik daarbij graag een analogie die ik eerder ook al eens beschreef op mijn blog ‘De aantrekkingskracht van data’. Een processor — of dat nu een GPU- of TPU-cluster is — kun je zien als de motor. Data is de brandstof. De processor zet opgeslagen informatie om in nieuwe informatie: tekst, code, beelden, inzichten, voorspellingen. In zekere zin ontstaat er een continue omzetting van energie naar nieuwe kennis: brandstof voor de toekomst.
En net zoals brandstof in de luchtvaart gewicht en logistiek met zich meebrengt, heeft data dat ook. Grote datasets trekken nieuwe datasets aan. Applicaties trekken meer applicaties aan. Rekenkracht trekt meer rekenkracht aan. Dat fenomeen wordt vaak omschreven als data gravity: hoe groter het systeem wordt, hoe moeilijker en duurder het wordt om alles nog efficiënt te verplaatsen en beheren. Grotere motoren en meer brandstof leveren aanvankelijk enorme voordelen op. Totdat je een punt bereikt waarop extra schaal vooral leidt tot meer hitte, meer kosten, meer complexiteit en steeds kleinere opbrengsten.
De praktische grenzen van AI
In feite hebben we de AI-versies van de Concorde en de A380 inmiddels gebouwd. Aan de ene kant zijn er modellen die enorme hoeveelheden energie verbruiken voor relatief kleine kwaliteitsverbeteringen. Supersnel, indrukwekkend en technologisch fascinerend — maar met een prijskaartje dat steeds moeilijker te rechtvaardigen wordt. Aan de andere kant ontstaan gigantische modellen met honderden miljarden of zelfs biljoenen parameters, draaiend op duizenden GPU’s in datacenters die complete elektriciteitscentrales lijken te voeden.
Voor defensie, wetenschappelijk onderzoek of geopolitieke machtsprojecten zullen zulke systemen waarschijnlijk nog lang interessant blijven. Daar is efficiëntie niet altijd de hoogste prioriteit. Maar voor dagelijks gebruik — AI in kantoorsoftware, klantenservice, zoekmachines, creatieve toepassingen of persoonlijke assistenten — begint de verhouding tussen kosten, energieverbruik en daadwerkelijke meerwaarde steeds kritischer te worden.
Grenzen aan groei
Daarmee raken we niet alleen economische grenzen, maar ook natuurkundige. Lithografie blijft uiteindelijk gebonden aan de beperkingen van licht, warmteafvoer en materiaalfysica. Datacenters vragen steeds meer elektriciteit en koeling. Netwerken lopen tegen capaciteitsvraagstukken aan. Zelfs de beschikbaarheid van hoogwaardige chips en zeldzame grondstoffen wordt een strategische factor. De wet van ‘diminishing returns’ wordt zichtbaar.
Dat betekent overigens niet dat AI ophoudt te groeien. Integendeel. Waarschijnlijk staan we juist aan het einde van de eerste grote schaalfase en aan het begin van een volwassenere periode. Net zoals de luchtvaart na de Concorde niet instortte, maar juist efficiënter, comfortabeler en toegankelijker werd.
Ik verwacht daarom dat de volgende golf van AI minder draait om brute schaal en meer om intelligent ontwerp. Kleinere gespecialiseerde modellen die efficiënter werken. Architecturen zoals Mixture of Experts die slimmer omgaan met rekenkracht. Agentic systemen die beter kunnen redeneren en samenwerken. Meer AI direct op apparaten zelf, zonder gigantische cloudinfrastructuren op de achtergrond.
Tot een volgende doorbraak
Misschien komt er ooit nog een fundamentele doorbraak via quantum computing, neuromorphic chips of compleet nieuwe materialen. Maar zelfs als die technologieën werkelijk bruikbare techniek worden, zullen ze waarschijnlijk eerst hun weg vinden naar militaire, wetenschappelijke en industriële toepassingen voordat ze massaal beschikbaar komen voor consumenten. De belangrijkste les blijft daarom verrassend simpel: oneindige schaal bestaat niet. Niet in de luchtvaart. Niet in energie. Niet in chips. Niet in data. En uiteindelijk ook niet in AI.
Misschien ligt de meest interessante fase van kunstmatige intelligentie daarom niet achter ons, maar juist vóór ons. Niet de fase van steeds groter, duurder en energieverslindender, maar de fase waarin intelligentie efficiënter, bruikbaarder en duurzamer wordt.
De Concorde was spectaculair. Maar de Boeing 787 bracht de wereld uiteindelijk verder. Misschien moeten we in AI ook stoppen met dromen over supersonische modellen en beginnen met bouwen aan de intelligente equivalent van de Dreamliner
Door: Hans Timmerman