Dromen bouwen werkelijkheid - AWS Summit Amsterdam 2025
Zodra Enri Peters zijn badge ophaalde, wist hij weer waarom de AWS-community zo vertrouwd voelt. Bekende gezichten, korte knikjes naar oude collega’s, overal groepjes die alvast hun schema doorspraken. Voor Enri – AWS Community Builder en freelance engineer bij ITYOU.tech – voelde het letterlijk en figuurlijk als thuiskomen. In zijn werk staat het helpen van mensen centraal. Met een klein team bouwt hij aan een AI-app die mensen met onder andere neurodivergentie ondersteunt bij het vinden van structuur en motivatie in het dagelijks leven. Vrijwel elk onderwerp op de Summit sloot daar naadloos op aan. Thuis werd de dag bekroond met glinsterende unicorn-stickers voor zijn dochters. De mooiste momenten zijn vaak het kleinst. Enri Peters beschrijft in deze blog zijn bevindingen van AWS Summit Amsterdam 2025.

16 april 2025, RAI Amsterdam – zo’n 6000 bezoekers, één dag vol technologie, innovatie en community. Thuiskomen in de RAI
Keynote: bouwen aan snelheid, schaal en samenwerking
Daniele Gorlick (General Manager Benelux bij AWS) beet het spits af: de cloud is niet alleen ondersteunend, maar het fundament voor groei in een wereld die steeds sneller beweegt.
In de Benelux draaien inmiddels meer dan 10.000 klanten én evenveel partners op AWS; bijna de helft van de Nederlandse bedrijven gebruikt AI en 88 % ziet directe omzetgroei.
Gorlick gooide er meteen een ambitieus statement uit: “Wie wil winnen, moet flexibel blijven én razendsnel kunnen schakelen, zonder concessies aan duurzaamheid.” Daarmee was de toon gezet voor de rest van de dag: performance, maar wel groen en verantwoord.
European Sovereign Cloud: de complexe realiteit achter datasoevereiniteit
Tijdens de keynote kondigde Daniele Gorlick de European Sovereign Cloud aan: een volledig zelfstandige AWS-omgeving die eind 2025 in Duitsland live gaat. Alles, van datacenters tot support, wordt beheerd door Europees personeel en is technisch losgekoppeld van het reguliere AWS-netwerk. Vooral organisaties met gevoelige data of zware compliance-eisen zullen hier veel interesse in hebben.
Toch blijkt echte digitale autonomie een stuk lastiger dan “gewoon” data in Europa neerzetten. In de week na de Summit ben ik met juristen, CISO’s en architecten gaan praten én ben ik zelf in de materie gedoken. Twee dingen vielen meteen op:
- De roep om digitale soevereiniteit is niet nieuw. Al jarenlang ontstaan er Europese cloud-initiatieven en concurrenten die beloven dat jouw data helemaal van jou blijft. AWS zet nu een forse stap, maar onafhankelijkheid gaat verder dan de locatie van je servers.
- De CLOUD Act blijft een factor. Omdat AWS juridisch een Amerikaanse entiteit is, kan de VS in uitzonderlijke gevallen toegang tot data eisen, zelfs als die data fysiek in Europa staat. Het gaat dan om de plicht om data over te dragen, niet om het ontsleutelen ervan.
In tegenstelling tot Microsoft en Google werkt AWS niet met lokale partners als 'vertrouwde derde', maar behoudt het volledige controle over zijn platform. Dat versnelt innovaties en zorgt voor een uniforme infrastructuur, maar het gebrek aan gedeeld Europees eigenaarschap biedt concurrenten ruimte om zich sterker te profileren richting toezichthouders en overheden.
Sovereignty-by-design
Technisch en operationeel komt AWS met deze aanpak ver richting “soevereiniteit ingebouwd vanaf dag één”. Maar juridisch blijft de hamvraag: wie heeft uiteindelijk het laatste woord over de data? Zolang AWS Amerikaans blijft, zullen sommige beleidsmakers kritisch blijven kijken.
Mogelijke verzachtende maatregelen zijn extra contractuele waarborgen, transparantie-rapportages en misschien zelfs nieuwe bestuurs-structuren. Maar volledige, juridische onafhankelijkheid vergt structurele veranderingen die nu nog ontbreken. Het wordt interessant om te zien hoe Europese overheden, toezichthouders en grote klanten dit gaan wegen en of de European Sovereign Cloud genoeg vertrouwen wint om daadwerkelijk de overstap te maken.
Compute: sneller bouwen, slimmer schalen
Na een grappige binnenkomer over stroopwafels en comfortabele schoenen, ging Andy Warfield (Vice President bij AWS) vlot door naar zijn centrale vraag: “Wat als je alles kon bouwen wat je je kunt voorstellen?”
Veiligheid staat bij AWS altijd voorop; elke laag is er standaard op ingericht. Daarna komt prestaties: om de toenemende vraag naar rekenkracht en bandbreedte op te vangen, breidde AWS zijn wereldwijde netwerk het afgelopen jaar met 80 procent uit.
Er zijn inmiddels meer dan 850 EC2-instance-types beschikbaar. Nieuw zijn de P6-instances met NVIDIA Blackwell-GPU’s, bedoeld voor zware AI-training. Wie op piekmomenten gegarandeerd GPU-vermogen nodig heeft, kan dit vooraf vastleggen via EC2 Capacity Blocks.
Op CPU-gebied introduceert AWS de Graviton 4-processor, tot 30 procent sneller dan zijn voorganger en bij Java-workloads zelfs 45 procent sneller. AWS verwacht dat binnen twee jaar de helft van zijn totale CPU-capaciteit op Graviton draait.
Voor modeltraining op zeer grote schaal is er Trainium 2. Daarnaast werkt AWS met Anthropic aan Project Rainier, een supercomputer die uit honderdduizenden chips bestaat en als één ultracluster de zwaarste AI-taken kan uitvoeren. Zo omvat AWS het volledige compute-spectrum: van basisinfrastructuur tot de meest gespecialiseerde rekenchips en verkort het de weg van idee naar uitvoerbare, schaalbare oplossingen.
Storage: data direct gebruiken
Amazon S3 begon ooit als “storage for the internet” en beheert inmiddels meer dan 400 biljoen objecten. Maar alleen data opslaan is niet meer genoeg: organisaties willen hun data direct kunnen analyseren en gebruiken, zonder deze eerst te verplaatsen. Tijdens de keynote stond daarom Amazon S3 Tables centraal.
S3 Tables voegen een open, tabelgebaseerde structuur toe aan opslag in S3, gebaseerd op het Apache Iceberg-formaat. Hierdoor kunnen datasets worden benaderd als gestructureerde tabellen, met ondersteuning voor versiebeheer, schemawijzigingen en consistente updates. De tabellen worden opgeslagen in speciale table buckets, waarin taken zoals compaction, versiebeheer en bestandsoptimalisatie automatisch worden uitgevoerd. Zo blijft de opslag efficiënt en de toegang snel, ook bij grote hoeveelheden data.
AWS-diensten zoals Athena, Glue, EMR, Redshift en QuickSight kunnen direct met S3 Tables werken via de AWS Glue Data Catalog. In Athena kunnen ze met standaard SQL worden gequeryd, Glue-jobs kunnen er direct op schrijven, en EMR-clusters kunnen de tabellen met Apache Spark direct analyseren zonder extra ETL-processen of datakopieën.
Ook externe tools kunnen werken met S3 Tables via de Apache Iceberg REST Catalog. Apache Spark ondersteunt dit volledig: Spark kan zowel lezen als schrijven naar S3 Tables, inclusief het beheren van snapshots en wijzigingen. Andere engines, zoals Snowflake, ondersteunen voor externe Iceberg-catalogi op dit moment alleen lezen. Schrijfbewerkingen via de REST Catalog vereisen aanvullende commitlogica, die bij Snowflake nog niet beschikbaar is. Binnen Snowflake zelf zijn Iceberg-tabellen overigens wel volledig read/write.
Tot slot introduceerde AWS ook S3 Metadata Tables. Deze registreren automatisch wie een object heeft aangemaakt, gewijzigd of verwijderd, en wanneer dat gebeurde. De metadata wordt opgeslagen in drie categorieën:
- Systeemmetadata (bijvoorbeeld bestandsgrootte en opslagklasse);
- Gebruikersmetadata (zelf toegevoegde tags);
- Eventmetadata (wijzigingen).
Hiermee wordt niet alleen de data zelf, maar ook de volledige context direct beschikbaar voor analyse.
Waarom S3 Tables?
Een begrijpelijke reactie uit de community is: "maar dit kon toch allemaal al?" Veel organisaties gebruikten al zelf Apache Iceberg op S3, vaak in combinatie met Glue en Athena. Het verschil is dat S3 Tables onderhoudstaken zoals compaction, snapshotbeheer en bestandsopschoning volledig automatiseert, betere prestaties biedt en de integratie met AWS-beveiliging vereenvoudigt. Voor bestaande implementaties is migratie niet verplicht, maar voor nieuwe projecten of teams die operationele lasten willen verlagen kan S3 Tables een goed alternatief zijn. AWS biedt hiervoor ook een migratierichtlijn, zoek online naar “AWS Guidance for Migrating Tabular Data from Amazon S3 to S3 Tables” voor de officiële handleiding.
Data, analytics & AI: alles samenbrengen
De laatste bouwsteen richt zich op de integratie van data-analyse en machine learning. AWS faciliteert dit via Amazon SageMaker Studio: een geïntegreerde omgeving waarin gebruikers data kunnen catalogiseren, SQL-query’s kunnen uitvoeren, Jupyter-notebooks kunnen inzetten en rechtstreeks kunnen werken binnen een lakehouse-architectuur. SageMaker Lakehouse stelt gebruikers in staat om zowel ruwe (zoals ongestructureerde logs) als gestructureerde data (zoals tabellen of databases) direct samen te brengen, zonder dat conversies of duplicatie van data vereist zijn.
Tijdens AWS re:Invent 2024 kondigde AWS aan dat steeds meer data-, analytics- en AI-diensten onder de SageMaker-paraplu vallen. Zelf zag ik SageMaker vooral als ML-tooling, tot ik ging werken met S3 (Iceberg) Tables en blogtitels tegenkwam als: “Connect Snowflake to S3 Tables using the SageMaker Lakehouse Iceberg REST endpoint.”
Mijn eerste gedachte: waarom zit dit onder SageMaker? Maar al snel werd duidelijk: deze nieuwe Lakehouse-laag biedt een slimme abstractie. De toegang tot Iceberg-tables wordt nu geregeld via het SageMaker Lakehouse Iceberg REST endpoint, zonder aparte configuraties in Glue.
Met SageMaker biedt AWS steeds meer een volledige AI- en datahub, waar gebruikers modellen kunnen ontwikkelen, data kunnen analyseren, AI kunnen trainen en eenvoudig kunnen samenwerken binnen projecten. Precies dat gebruiksgemak maakt tools als Snowflake, Fabric en Databricks zo populair en AWS is hard bezig om die ervaring ook zelf te bieden.
Slimme keuzes in de praktijk - twee live klantverhalen
Tijdens de keynote kwamen twee klantverhalen voorbij. Ze lieten zien wat er gebeurt als je technologie slim inzet, duidelijke prioriteiten stelt en het werk voor ontwikkelaars en technici zo makkelijk mogelijk maakt.
NN Group - intern ontwikkelplatform Zelda
Mustafa Gursus van NN Group (Nationale-Nederlanden) beet de spits af met hun eigen ontwikkelplatform: Zelda. Geen Nintendo-spel, maar wel een hulpmiddel dat voor ontwikkelaars als magie voelt. Met een paar klikken staan de basiscode, de CI/CD-pipeline en de monitoring klaar. Wat vroeger drie maanden duurde en een heel team bezighield, doet nu één persoon in drie minuten. Het idee achter Zelda is eenvoudig: blije ontwikkelaars maken betere software, en daar wordt uiteindelijk iedereen beter van.
Het platform bestaat uit drie lagen. Eerst is er een sterke basisinfrastructuur. Daarna worden dingen gestandaardiseerd met kant-en-klare, door AWS beheerde diensten zoals serverless functies, zodat niemand het wiel opnieuw hoeft uit te vinden. Tot slot voegt platform-engineering een simpele, gebruiksvriendelijke laag toe. Hoe gemakkelijker het bouwen, hoe sneller je waarde levert.
Alliander - “We keep the lights on”
Alliander koos voor een opvallend begin. Nog vóór CDO Rinke van der Rhee aan het woord kwam, ging het zaallicht uit en werd het scherm zwart. Een paar seconden stilte, net lang genoeg om onrust te voelen. Toen sprongen de lampen aan en verscheen in grote letters: We keep the lights on.
Die oneliner dekt goed wat op het spel staat. In de afgelopen jaren, en zeker ook in de komende jaren, staat Alliander voor een immense opgave: het netwerkbedrijf vervangt 100 000 kilometer aan elektriciteitskabels, installeert 50 000 nieuwe transformatorstations en moet daarvoor één op de drie Nederlandse straten openbreken. Een enorme operatie, extra uitdagend door beperkte ruimte, schaarste aan technici en lange vergunningtrajecten.
Als freelance data-platform-engineer werk ik inmiddels een jaar voor Alliander, waardoor dit verhaal extra dichtbij kwam. De missiekritische systemen van Alliander, de onderdelen die er letterlijk voor zorgen dat het licht blijft branden, draaien veilig in hun eigen datacenters. Zo houdt het bedrijf volledige controle over beschikbaarheid en veiligheid. Tegelijkertijd zijn er steeds meer projecten die snelheid of experimenteerruimte vereisen: denk aan AI-gestuurde vraag- en aanbodvoorspellingen, een datamesh om meetgegevens veilig te delen en sensornetwerken die realtime inzicht geven in kabeltemperaturen. Voor die onderdelen is AWS een flexibele laag. Niet om alles naar de cloud te verplaatsen, maar omdat dit gewoon de meest praktische manier is om snel op te schalen en te vernieuwen.
Die hybride aanpak kwam tijdens de presentatie duidelijk naar voren: lokaal alles in eigen hand houden als het gaat om de continuïteit van het stroomnet, en de cloud gebruiken wanneer extra rekenkracht, snelle vernieuwing of tijdelijke pieken nodig zijn. Op die manier blijft Alliander wendbaar in een taak die voor de samenleving heel belangrijk is, maar technisch steeds ingewikkelder wordt, iets wat die paar seconden duisternis aan het begin goed lieten voelen.
Amazon Bedrock: controle, keuze en toepasbaarheid
Na de klantverhalen ging Warfield in op Amazon Bedrock: het platform waarmee je generatieve AI snel, veilig en flexibel kunt inzetten, zonder dat je zelf infrastructuur hoeft te bouwen. Bedrock biedt toegang tot verschillende foundation modellen van bijvoorbeeld Anthropic, Meta, Mistral en AWS zelf, allemaal via één API. Je kiest dus eenvoudig welk model het beste bij jouw toepassing past.
Belangrijk is dat je deze modellen kunt aanpassen met je eigen data. Dat kan via technieken zoals prompt tuning (het verfijnen van modelantwoorden met extra instructies) of Retrieval Augmented Generation (RAG), waarbij het model actuele informatie uit jouw eigen database ophaalt om betere antwoorden te geven. Stel: je bouwt een klantenservice-chatbot. Met RAG kan die automatisch verwijzen naar de meest recente producthandleidingen uit jouw systemen, zonder dat je alles handmatig hoeft te trainen.
Ook veiligheid is ingebouwd. Bedrock Guardrails helpen om foutieve of ongepaste output te voorkomen. Je kunt bijvoorbeeld instellen dat een model nooit privacygevoelige informatie prijsgeeft of dat het geen ongepaste termen gebruikt. Heel belangrijk als je AI inzet in sectoren zoals gezondheidszorg of financiën.
Daarnaast zorgt Bedrock ervoor dat kosten beheersbaar blijven. Je betaalt alleen voor het gebruik en kunt modellen kiezen die qua prijs en performance bij je doel passen. Slim gebruik van kleinere modellen of batchverwerking kan kosten flink verlagen.
Wat mij vooral bijbleef, was het stuk over guardrails. Bij ITYOU.tech werken we aan toepassingen die direct impact hebben op mensen. Dan wil je niet alleen snelheid, maar vooral zekerheid dat de AI zich aan duidelijke regels houdt en Bedrock maakt dat mogelijk zonder dat je zelf ingewikkelde controlemechanismen hoeft te bouwen.
Amazon Q Developer: AI die méér doet dan alleen meedenken
Een ander belangrijk punt was de introductie van agents: AI's die niet alleen reageren, maar ook zelfstandig acties uitvoeren. Amazon Q Developer is hier een krachtig voorbeeld van. Waar voorheen AI-assistenten vooral losse codevoorstellen deden, begrijpt Q Developer nu echt de structuur van je project en voert het zelfstandig taken uit.
Q Developer kan bestanden lezen, bewerken en acties uitvoeren in je ontwikkelomgeving en terminal. Stel je vraagt: "Voeg een nieuwe API-endpoint toe voor gebruikersregistratie." In plaats van alleen voorbeeldcode te geven, plant Q Developer de benodigde stappen, past meerdere bestanden tegelijk aan, controleert op syntax, linting en best practices, en schrijft documentatie.
Ook het schrijven van tests gaat grotendeels automatisch. Vraag je om een unit test voor een nieuwe functie, dan genereert Q Developer die op basis van de context. Je hoeft dus niet alles stap voor stap te instrueren, de agent snapt wat je bedoelt en voert het uit.
Toch geldt: hoe krachtig ook, je hebt er nog steeds technische kennis voor nodig. Zonder goed begrip van wat de agent doet, loop je het risico dat er rommelige code ontstaat of dat tests worden gegenereerd die weinig waarde toevoegen. De output is sterk afhankelijk van de kwaliteit van je instructies én van je vermogen om het resultaat te beoordelen.
Dit sluit aan bij het concept van vibe coding, een term die begin 2025 werd geïntroduceerd door Andrej Karpathy (medeoprichter van OpenAI en voormalig AI-leider bij Tesla). Het idee daarachter: je bouwt software puur via natuurlijke taalprompts, zonder nog zelf code te schrijven. Klinkt efficiënt, maar in de praktijk ligt slordige of onbegrijpelijke code dan al snel op de loer, zeker als je geen goede afspraken of kwaliteitschecks toepast.
Voor organisaties met legacy-systemen biedt Q Developer juist hulp bij structuur en modernisering. De tool kan bijvoorbeeld een oude .NET-app analyseren en omzetten naar een moderne architectuur, of Java-code upgraden naar een nieuwere versie. Het maakt migreren overzichtelijker en minder foutgevoelig.
Kortom: Q Developer doet veel meer dan suggesties geven, het neemt actief werk uit handen. Maar alleen als jij als gebruiker de lijnen uitzet en kritisch blijft meekijken, wordt het een echte versterking van je ontwikkelproces.
Van legacy naar toekomst
Het slot van de keynote ging over modernisering, een onderwerp waar veel organisaties mee worstelen. Zeker als je nog werkt met grote, verouderde systemen, zoals .NET-applicaties op Windows-servers of monolithische Java-projecten. AWS liet zien hoe je die stap voor stap kunt vernieuwen: beginnen met analyse, vervolgens onderdelen verbeteren, en waar mogelijk automatiseren.
Amazon Q Developer biedt hierbij praktische ondersteuning. De tool kan oude code analyseren, ontbrekende documentatie genereren en suggesties doen om je project toekomstbestendiger te maken. Denk aan het vervangen van verouderde API’s, het opsplitsen van een monoliet in losse services of het migreren van .NET naar containers op Linux. De AI doet het zware voorwerk, maar jij bepaalt wat er daadwerkelijk verandert.
Door klein te starten en gericht gebruik te maken van de juiste tools, wordt modernisering een haalbare stap, geen gigantisch project.
Reflectie: kennis groeit als je deelt
Wat deze dag bijzonder maakte, was niet alleen de technologie, maar de gesprekken. Tussen de sessies door, bij een koffie, bij een demo - overal deelden mensen wat ze bouwen, waar ze vastlopen, en wat beter kan. Dat maakt de AWS-community zo waardevol: je hoeft het niet alleen te bedenken of op te lossen.
Voor mij als engineer, werkend aan AI-oplossingen die mensen in hun dagelijks leven ondersteunen, is dat onmisbaar. Soms zit de vooruitgang niet in een nieuwe tool, maar in één zin van iemand die hetzelfde probleem al eens heeft gehad. Dat soort inzichten neem ik mee naar huis.
Door: Enri Peters