Aandachtsgebieden

Aandachtsgebieden

Nederland is uitstekend gepositioneerd in de wereldwijde computationele wetenschappen in de volgende in vijf strategische aandachtsgebieden. Deze vijf aandachtsgebieden zijn belangrijk want samen vormen zij het gereedschap om de uitdagingen in complexe (duurzame) vraagstukken aan te pakken.

Multischaal modelleren
en simuleren

Multischaal modelleren
en simuleren

Kun je perfect voorspellen hoe een materiaal zich gedraagt als je weet welke atomen erin zitten? Met een perfecte computer zou dat moeten lukken door consequent de quantummechanica van de kleinste deeltjes door te rekenen. In de praktijk blijkt dat alleen haalbaar voor ultrakorte verschijnselen van zeer kleine aantallen deeltjes. In de echte wereld spelen vraagstukken zich juist tegelijkertijd op verschillende grote en kleine schaal af, met snelle en langzame processen die elkaar beïnvloeden.

Het onderzoeksgebied van multischaal modellering en simulatie (MMS) richt zich op technieken om zulke systemen te beschrijven door elementaire algoritmische bouwstenen voor verschillende lengte- en tijdschalen aan elkaar te koppelen.

Het doel van Multischaal modelleren en simuleren (MMS)

Het doel is een simulatie te ontwikkelen van verschijnselen in complexe systemen, zoals elektrochemie in batterijen, kernfusie in een reactor, en CO2-vastlegging. De reikwijdte van MMS strekt zich uit tot zowel de exacte wetenschappen als de sociale wetenschappen, techniek en industrie, en het vereist een multidisciplinaire aanpak.

Een integrale systeemaanpak is ontzettend relevant in een tijd waarin uitdagende duurzaamheidsvraagstukken steeds belangrijker worden, met name op het gebied van water, voedsel en energie. Een integrale systeemaanpak omvat alle processen over de gehele levenscyclus en zelfs daarna, inclusief recycling.

Omdat vrijwel alle technologieën die kunnen bijdragen aan een duurzame toekomst bijna altijd multischaal van aard zijn, zal MMS een cruciale rol spelen in deze transitie. En dus een belangrijk aandachtsgebied binnen Computationele Sciences.

Datagedreven methoden

Datagedreven methoden

Grote hoeveelheden data verzamelen we tegenwoordig in een oogwenk. In deze ongestructureerde data ligt waardevolle informatie verborgen. Door nieuwe methoden toe te passen om deze data te analyseren, ontdekken we nieuwe inzichten. In combinatie met machine learning kunnen we zo voorspellende modellen ontwikkelen om oplossingen te geven voor uiteenlopende vraagstukken. Hiervoor is een systematische aanpak nodig, zoals high-throughput screening, waarmee we snel veel tests kunnen doen.

Razendsnel oplossingen

In tegenstelling tot de tijdsintensieve trial-and-error methode, stelt deze rationele en systematische datagedreven aanpak ons in staat om razendsnel oplossingen te vinden voor urgente en grote vraagstukken rondom duurzaamheid, verantwoorde materialen, gezondheid en klimaatadaptatie.

Data-gedreven methoden zijn cruciaal om enorme hoeveelheden gegevens te analyseren en wiskundige voorspellingsmodellen te ontwikkelen (datasets). Beiden zijn nodig om een duurzame, klimaatneutrale en circulaire productie van hoogwaardige plantaardige en dierlijke voeding te ontwikkelen en zo onze ecologische voetafdruk te verkleinen.

Richtlijnen voor datagedreven methoden

Het succes van datagedreven methoden hangt af van de beschikbaarheid van grote hoeveelheden data. Bij de ontwikkeling van datagedreven methoden is het daarom belangrijk om richtlijnen voor het beschrijven, opslaan en publiceren van data aan te houden, volgens het FAIR principe: Findability, Accessibility, Interoperability, and Reusability. Daarnaast zijn metadata zoals aanmaakdatum, kwaliteit en eigenaar essentieel om datasets te kunnen doorzoeken en te kunnen navigeren.

Inmiddels zijn er diverse platforms met data repositories die het organiseren, doorzoeken, delen en gebruiken van hoogwaardige data faciliteren. Er ligt een grote behoefte en tevens uitdaging om datasets van diverse bronnen met elkaar te integreren zodat het potentieel ervan nog meer kan worden benut.

Ultrasnelle computersimulaties via machine learning

Ultrasnelle computersimulaties via machine learning

Binnen de computationele wetenschappen dient zich een nieuwe aanpak aan voor het versnellen van simulaties. Met razendsnelle machine learning, zoals deep neural networks, kunnen modellen worden getraind, waardoor delen van berekeningen duizenden of zelfs miljoenen malen sneller kunnen worden uitgevoerd. Dit gebruik van machine learning staat bekend als surrogate modelling of surrogaatmodellering. Deze aanpak is sterk in ontwikkeling waarbij voortdurend nieuwe en meer effectieve methoden ontwikkeld worden. Dat brengt innovatieve toepassingen dichterbij.

Het trainen van machine learning

In de computationele exacte wetenschappen is een efficiënte beschrijving van atomaire en moleculaire wisselwerkingen een centraal ingrediënt. Surrogaatmodellen hebben hier de weg gladgestreken voor robuuste, datagedreven modellen. In deze aanpak worden rekenintensieve, gedetailleerde simulaties gebruikt voor het trainen van machine learning, waarna deze machine learning modellen de uitkomst van nieuwe berekeningen kunnen voorspellen. Deze supersnelle modellen maken het mogelijk om een breed scala aan materialen te onderzoeken voor onder andere energieopslag en energieomzetting, materialen voor waterzuivering, en complexe farmaceutische stoffen.

Een compleet andere toepassing van surrogaatmodellen is het accuraat en efficiënt modelleren van turbulentie, een beslissende factor voor het succes van toepassingen zoals circulaire waterbehandeling, windenergie, brandstofcellen, en geconcentreerde zonne-energie (concentrated solar power).

Toekomst van surrogaatmodelleren

Surrogaatmodelleren is sterk in ontwikkeling en draagt grote beloftes met zich mee voor snelle toepassingen op vrijwel alle grote maatschappelijke uitdagingen. De verwachting is dat het ‘laaghangende fruit’ snel geoogst gaat worden, terwijl voor de langere termijn de uitdaging is om het veld uit te tillen boven de status van ‘nieuwe belofte’.

Denk bijvoorbeeld aan:

  • creatie van surrograatmodellen die overdraagbaar zijn naar andere domeinen
  • de mogelijkheid om met efficiënte surrogaatmodellen allerlei ontwerpen virtueel te onderzoeken en optimale oplossingen te voorspellen, zonder tijdsintensieve real-life tests
  • combineren van machine learning technieken met natuurkundige inzichten

Er is nog veel onderzoek nodig voor zulke technieken en de combinaties hiervan.

Onzekerheden en gevoeligheidsanalyses

Onzekerheden en gevoeligheidsanalyses

Zonder een goede schatting van de betrouwbaarheid zijn simulaties zinloos. Om nauwkeurige voorspellingen te maken en besluitvorming te ondersteunen, is het van groot belang om te weten hoe groot de onzekerheid van modeluitkomsten is, en hoe gevoelig die zijn voor variaties in de startgegevens.

Computational Science NL - nieuws
Vertrouwen op voorspellingen

Onnauwkeurigheden in simulaties kunnen optreden door verschillende oorzaken: ongeldige aannamen, coëfficiënten die niet goed zijn gedefinieerd, of meetfouten in beginvoorwaarden. Het bepalen van deze onzekerheden is rekenintensief omdat soms honderden of duizenden simulaties nodig zijn. Toch vergroot een goede onzekerheids- en gevoeligheidsanalyse de zeggingskracht van voorspellingen. Zo kunnen we niet alleen de temperatuur van de buitenlucht voorspellen, maar ook een ‘pluim’ aangeven waarbinnen de temperatuur zich zal bevinden met 95% waarschijnlijkheid. Hetzelfde geldt voor de voorspellingen van het verloop van Covid-19, de beurskoersen of de ontwikkeling van de hypotheekrente.

De ontwikkeling van betrouwbare resultaten

In diverse toepassingsgebieden, zoals medicijnontwikkeling, voedselveiligheid, en vliegveiligheid, bestaan commissies die ervoor waken dat berekende resultaten betrouwbaar zijn. Om hieraan te voldoen moet er voldoende gekwalificeerd personeel beschikbaar zijn, dat gebruik kan maken van de meest geavanceerde methoden.

Om het aandachtsgebied een stap verder te brengen zijn nieuwe ontwikkelingen nodig, zoals het ontwikkelen van efficiënte algoritmen. Die moeten tot tien keer sneller worden omdat de complexiteit van de onderzochte toepassingen steeds groter wordt doordat modellen bijvoorbeeld meerdere tijd- en lengteschalen mee moeten nemen in hun berekeningen.

De uitdaging hierbij is om methoden te ontwikkelen die kunnen inschatten welke effecten de fouten op de individuele schaalniveaus hebben op de gekoppelde modellen. Ook is het belangrijk dat er onderzoek wordt gedaan om de geldigheid van aannames te onderzoeken en zo rekenmethodes betrouwbaarder te maken.

Rol van machine learning

Onzekerheidsanalyse gaat zelfs over de keuze welke modellen precies moeten worden gebruikt om een probleem aan te pakken. Zo zijn er kansrekeningtechnieken in ontwikkeling om automatisch een keuze te maken tussen verschillende rekenmodellen. Ook de opkomst van machine learning geeft nieuwe mogelijkheden en uitdagingen voor onzekerheidsanalyse. Zo worden de meeste methoden voor onzekerheidsanalyse veel rekenintensiever als het aantal onzekere parameters toeneemt. Machine learning zou kunnen helpen voorspellen welke parameters het belangrijkst zijn.

Energie efficiënte computing

Energie efficiënte computing

Moderne computers vragen steeds meer energie: voor de grootste supercomputer ter wereld is zelfs een aparte elektriciteitscentrale nodig. Een overstap naar andere, meer energie-efficiënte computertypes, zoals de quantumcomputer of neuromorphische computer chips, kan dit energieverbruik beteugelen. Maar om zulke computers efficiënt te gebruiken zijn nieuwe modellen en rekenschema’s nodig.

De Nederlandse computationele wetenschappen-gemeenschap is wereldwijd aanvoerder in dit onderzoek. Zo worden ook stappen gezet naar nog efficiëntere computers, deels geprogrammeerd in software en deels in hardware. Bij het programmeren in hardware worden verbindingen gemaakt tussen bepaalde rekenprocessoren om de berekening te versnellen. Het ontwikkelen van goede algoritmen is nog uitdagender, maar er zijn nu al efficiëntieverbeteringen gehaald van een factor tien.

Nederland is ook leidend op het gebied van quantumcomputers. Die kunnen grote rekenklussen in theorie in veel minder rekenstappen oplossen. Het aantal beschikbare quantumalgoritmes is nu nog beperkt, maar kan een enorm potentieel aan efficiëntieverbeteringen bieden.

In de toekomst zal energie-efficiënt rekenen verder ontwikkeld moeten worden om het energiegebruik van de computers beheersbaar te houden. Dat vraagt om investeringen in de volgende onderdelen:

  1. Huidige algoritmen voor kunstmatige intelligentie worden vaak opgestart met een “schone lei”, i.e. vanaf het begin, waardoor vaak lang gerekend moet worden voordat de informatie up to date is.
  2. Door te rekenen met instelbare precisie is veel energiewinst mogelijk.
  3. Bestaande software toepassen op nieuwe problemen versnelt het ontwikkelen van nieuwe simulatiepakketten, maar is meestal niet geoptimaliseerd voor de nieuwe toepassing.
  4. Bij veel berekeningen kost het transport van de data naar de rekeneenheden de meeste energie en tijd.

Kortom, dit onderzoeksgebied kent vele uitdagingen maar kan enorm bijdragen aan de nieuwe generatie energie efficiënte computers. Investeringen op dit gebied zullen ervoor zorgen dat het onderzoek in Nederland zijn toppositie kan handhaven en zo mogelijk verbeteren.