Bygningsenergimodeller: mer enn du ønsket å vite
Bygningsenergimodellering: En historisk reise
Dette er del 1 i vår serie om bygningsenergimodeller. Fortsettelsen om fremtidsutsikter og utfordringer finner du her.
De første bygningsenergimodellene (BEM) ble utviklet på midten av 1900-tallet, ved starten av den digitale revolusjonen. Disse var hardkodet på maskiner som fylte hele kjellere og brukte mer energi enn byggene de forsøkte å simulere. Modellene var nødvendigvis preget av forenklinger (sekvensiell løsing, lineære antakelser), og ignorerte dynamiske effekter som termisk treghet i bygningsmaterialer og varierende solinnstråling, infiltrasjon og bruksmønster, men introduserte samtidig sentrale ideer som fortsatt brukes.
De første stegene (1960-tallet)
De aller første forsøkene på å modellere energiflyt og varmetap i bygninger med tidsvariable beregninger kom på 1960-tallet. Pionerer innen VVS- og byggforskning tok i bruk datidens stormaskiner for å utføre time-for-time beregninger av varme- og fukttransport i innemiljøer.
Et tidlig eksempel fra USA er Tamami Kusudas arbeid for myndighetene på begynnelsen av 60-tallet, hvor han simulerte klimaet i tilfluktsrom (kjellerbunkere) ved å beregne varme- og fuktbalansen mellom menneskene og betongveggene for hver time.
Samtidig begynte energiindustrien (gass- og elektrisitetsselskaper) å utvikle datamodeller for bygningsoppvarming og -kjøling, for å kunne planlegge effektbehov og energiforsyning mer presist. Disse initiativene kulminerte i at bransjeorganisasjoner tok grep: den amerikanske bransjeforeningen ASHRAE opprettet en egen arbeidsgruppe for energibehov, med mål om å lage en helhetlig timebasert simuleringsmodell for bygninger.
Parallelt skjedde det lignende utvikling i Europa. Verdens første dokumenterte programvare for bygningsenergisimulering var BRIS, utviklet ved Kungliga Tekniska Högskolan (KTH) i Stockholm rundt 1963. Mot slutten av 1960-tallet fantes allerede flere dataprogrammer som kjørte med timesoppløsning, fokusert på å beregne bygningers energiforbruk og dimensjonerende varme- og kjølebehov.
Disse tidlige modellene var nødvendigvis enkle etter dagens standard: ofte ble beregningene delt opp i sekvensielle trinn der man først beregnet byggets netto varmebehov (varmetap minus interne og solare tilskudd) og deretter simulerte HVAC-systemets respons og energibruk. Slik oppdeling innebar typisk at samspillet mellom bygning og tekniske systemer ble forenklet eller neglisjert. Mange av de første modellene benyttet også lineære tilnærminger – for eksempel ved å jevne ut interne laster over tid eller anta konstante virkningsgrader – for å omgå de beregningsmessige utfordringene ved fulle differensialligninger. Enkelte tok i bruk analoge elektroniske kretser (RC-nettverk) som fysisk metafor for termiske kretsløp i vegger og rom, mens andre utviklet numeriske responsfaktorer basert på impulsresponsen til konstruksjoner.
Et gjennombrudd kom da Stephenson og Mitalas (1967) introduserte responsfaktor-metoden, også kalt rom-vektfaktor-metoden. Denne tilnærmingen benyttet forhåndsberegnede vektingsfaktorer for å summere opp veggenes og rommets termiske respons over tid, noe som ga en langt bedre modellering av transienter (tidsvariasjoner) i varmeopptak og -avgivelse enn tidligere enkle gjennomsnittsteknikker. Metoden frikoblet blant annet solstråling fra varmetransport gjennom bygningskroppen via algebraiske vektingsfaktorer, og ble raskt tatt i bruk i kjølelastberegninger på slutten av 60-tallet.
Paradigmeskiftet (1970-tallet)
1970-tallet begynte med kanskje det største gjennombruddet i bygningsenergimodelleringens historie: utviklingen av varmebalanse-metoden. Dette var en langt mer fysisk korrekt tilnærming enn tidligere metoder, der alle relevante varmeutvekslingsprosesser (ledning, konveksjon, stråling, massestrøm) balanseres samtidig for hvert tidssteg. Dette gjorde det mulig å droppe flere av de forenklende antakelsene om linearitet som tidligere metoder krevde, og økte modellens nøyaktighet. Slike helhetlige termiske modeller ble grunnmuren for mange av de simuleringsprogrammene som kom i det tiåret.
Allerede tidlig på 70-tallet så man lanseringen av flere av de "klassiske" simuleringsmotorene: I USA kom BLAST (utviklet for det amerikanske forsvaret) og DOE-2 (for det nystartede Department of Energy). I Europa utviklet bl.a. Storbritannia programmet ESP-r (basert på dr.ing.-arbeidet til Clarke i 1977) og internasjonale samarbeid resulterte i verktøy som TRNSYS (initialt fra universitetene i Wisconsin/Colorado, 1975). Felles for disse var at de kjørte timevise simuleringer over et helt år og integrerte både bygg og tekniske systemer i beregningene.
Et historisk puff kom også fra politikken: Oljekrisen i 1973 skapte en akutt interesse for energieffektivisering av bygg, noe som ga økt finansiering og oppmerksomhet til bygningssimulering. I kjølvannet av energikrisen kom også de første energistandardene, f.eks. USA sin ASHRAE 90-75 (publisert 1975), som stilte krav til bygningsenergiytelse og dermed ytterligere motiverte bruken av energimodeller i designprosessen.
Feltet modnes (1980-1990-tallet)
Etter de første generasjonene med modeller på 60- og 70-tallet har bygningsenergi‐modelleringen både teoretisk og praktisk gjennomgått en formidabel utvikling. Teoretisk har modellene blitt stadig mer avanserte i å representere fysikken i bygninger. Vi gikk fra enkle, analytiske løsninger til numeriske metoder som kan løse komplekse differensialligninger for varme- og massetransport. Utover 1970-tallet tok varmebalanse-metoden over for vektfaktor-metodene i de fremste verktøyene, ettersom varmebalansemodellene kunne inkludere de fleste varmeutvekslingsfenomener på en fysikalsk konsistent måte.
Fortsatt ble enkelte prosesser, som varmestrøm gjennom tykke bygningsdeler, ofte behandlet med z-transformerte overføringsfunksjoner (en videreføring av responsfaktorprinsippet) for å effektivisere beregningene, men de strenge linearitetsantakelsene kunne i stor grad fjernes På 1980-tallet modnet fagfeltet ytterligere. Numeriske metoder for diskretisering (f.eks. finitte differanser eller elementmetoder) og simultan løsning av store likningssystemer ble tatt i bruk for å løse koblede problemer – et eksempel er John Clarkes arbeid som resulterte i programmet ESP-r, hvor hele byggets termiske nettverk og HVAC-system ble løst i fellesskap framfor i sekvens. Dette ga høyere oppløsning og fleksibilitet, på bekostning av økte regnekrav.
Samtidig kom det nyvinninger innen programvarearkitektur og algoritmer. Mange av de tidlige programmene (BLAST, DOE-2, etc.) var skrevet i FORTRAN og hardkodet for stormaskiner. Utover 80- og 90-tallet ble det klart at disse var vanskelige å utvide og vedlikeholde – de hadde vokst gjennom tiår med lappverk og var ofte "spagettikode" med dårlig modularitet. Begrensninger som manglende dynamisk interaksjon mellom bygg og tekniske installasjoner, samt vanskeligheter med å inkludere nye HVAC-teknologier, førte til et behov for en ny, mer moderne løsning. Det oppstod et fagmiljø som etterlyste mer fleksible, gjenbrukbare modellstrukturer.
Som svar på disse utfordringene startet det amerikanske energidepartementet (DOE) utviklingen av EnergyPlus i 1996. Målet var å kombinere de beste elementene fra DOE-2 og BLAST, samtidig som man introduserte en modulær struktur med moderne, objektorienterte prinsipper. EnergyPlus ble offisielt lansert i 2001, og var basert på avanserte integrerte varmebalansemetoder som muliggjorde simultan beregning av termiske laster og HVAC-systemenes respons. Dette representerte et stort skritt fremover, da EnergyPlus for første gang ga muligheten til å simulere dynamiske tilbakemeldinger mellom byggets termiske respons og HVAC-systemene.
EnergyPlus' åpne kildekode, først tilgjengelig i FORTRAN og senere konvertert til C++ i 2012, gjorde det enkelt å utvikle og integrere nye modeller. Dette førte til at EnergyPlus raskt ble et globalt referansepunkt innen bygningsenergisimulering, med et stort og aktivt utviklermiljø. På grunn av sin modularitet og gode dokumentasjon har EnergyPlus blitt kjernen i mange kommersielle og akademiske simuleringsverktøy, blant annet DesignBuilder, Honeybee (Ladybug Tools), Autodesk Revit-integrasjoner og offentlige standarder som Californias CBECC-Com.
Siden lanseringen har EnergyPlus utviklet seg betydelig og støtter nå avanserte simuleringer som dagslysanalyser, naturlig ventilasjon med fler-sonemodeller (AirFlowNetwork), og avanserte brukerstyrte kontrollsystemer gjennom skripting med Python. Disse egenskapene - samt backingen av DOE - gjorde raskt EnergyPlus til det dessidert mest brukte BEM verktøyet i verden. Det regnes i dag som "gullstandarden" for BEM, som andre verktøy kan validers opp mot.
På samme tid kom også ny kommersielle aktører på banen. Allerede i 1989 presenterte Sahlin og Sowell et Neutral Model Format (NMF) for bygningssimulering, en tidlig beskrivelse av modeller uavhengig av kildekode som senere ble grunnlaget for den kommersielle programvaren IDA ICE. På 1990-tallet kom også Modelica, et generelt objektorientert språk for fysikalsk modellering som muliggjør modulær oppbygging av energimodeller. Denne typen innovasjoner innen beregningsteknikk har gjort det enklere å bygge modeller der komponenter (bygg, system, styring osv.) kan kombineres, gjenbrukes og utvides uten å måtte omskrive hele programmet.
Den moderne æra (2000-dd)
Økt datakraft har vært en nøkkelfaktor i utviklingen de siste tiårene. På 1990- og 2000-tallet kom revolusjonen innen personlige datamaskiner og eksponentiell økning i prosesseringshastighet. Detaljerte årssimuleringer - som til da hadde krevd maskiner så store og trege at varmetapet deres kunne varme opp bygget mens man simulerte det – kunne nå kjøre i løpet av timer eller minutter på en vanlig PC.
Økt datakraft åpnet for nye bruksområder også: Man kunne nå gjennomføre omfattende sensitivitetsanalyser, optimaliseringer og Monte Carlo-simuleringer ved å kjøre hundrevis eller tusenvis av simuleringer for ulike parametre – noe som tidligere var uhåndterlig.
Videre har ny bygningsteknologi og fysikk blitt innlemmet i modellene over tid. For eksempel ble modellering av dagslys og solavskjerming gradvis integrert slik at man kan beregne både energibruk og visuell komfort. Komplekse fenomener som fukttransport (hygrotermisk simulering) er utviklet i egne verktøy (f.eks. WUFI), og det pågår arbeid med å koble slike til energimodeller for å vurdere både energibruk og fuktsikkerhet.
Modellering av luftstrømmer gikk fra enkle infiltrasjonsfaktorer til avanserte fler-sone strømningsnettverk (f.eks. COMIS/AirFlowNetwork i EnergyPlus) som beregner naturlig og mekanisk ventilasjon ut fra trykkforskjeller og åpninger. Styringssystemer og reguleringsalgoritmer kan nå co-simuleres med bygget, slik at man kan vurdere effekten av ulike kontrollstrategier (temperatursettpunkter, VAV-regulering, etc.). På den matematiske siden har forbedringer i numeriske løsningsalgoritmer (lineære solvere, konvergenskontroll, adaptiv tidssteging) økt både hastighet og stabilitet. Et eksempel er at EnergyPlus introduserte variabelt tidssteg for å håndtere raske transiente hendelser mer presist.
Dagens verktøy og beste praksis
I dag finnes et bredt spekter av modelleringsverktøy for bygningers energiytelse, men noen få dominerende simuleringsmotorer utgjør kjernen i bransjens beste praksis. Disse er typisk dynamiske (timevise eller mer finmaskede tidssteg) og multi-domene (kan simulere både termiske oppførsel, HVAC-systemer, luftstrømer, osv. samlet).
Blant de mest brukte internasjonalt er US Department of Energy sin EnergyPlus, det svenske (nå internasjonale) IDA ICE, samt verktøy bygd på den eldre DOE-2-motoren (f.eks. eQuest). I Norge har lenge SIMIEN og SINTEF's (nå defunkte) TEK-sjekk vært populære verktøy, spesielt for beregninger opp mot byggtekniske forskrifter og energimerking. Dette er enkle verktøy der termisk masse moddeleres som om den var samlet i ett punkt per sone. For mer avanserte og nøyaktige beregninger, har IDA ICE ofte blitt brukt, men dette er samtidig mindre tilrettelagt for norske byggestandarder enn de tradisjonelle norske BEM-verktøyene. BEMify er et nyere norskt verktøy som kombinerer presisjonen og funksjonaliteten fra verktøy som IDA ICE med tilpasningen mot norske byggestandarder man finner i TEK-sjekk og SIMIEN.
Modne BEM-verktøy anses ofte som 'nøyaktige nok' for mange formål, gitt riktige inndata. I praksis ser man dog ofte større avvik mellom prosjekterte verdier og virkelige målinger – den såkalte ytelsesgapet ("performance gap") – der bygget kan bruke betydelig mer energi enn beregnet.
Av den grunn har man i senere år sett økt fokus på modellkalibrering og usikkerhetsanalyser som en del av beste praksis: Det vil si at for eksisterende bygg må målt energiforbruk og driftsdata brukes til å justere modellen slik at den stemmer med virkeligheten før man f.eks. estimerer effekten av et ENØK-tiltak.
En god 'best practice' prosess vil typisk involvere å velge riktig verktøy for oppgaven (enkle beregninger for regelverksjekk vs. detaljerte simuleringer for designoptimalisering), sørge for kvalitetssikrede innparametre, og tolke resultatene med forståelse for modellens begrensninger.
Interessert i å lære mer? I del 2 av denne serien utforsker vi fremtidsutsiktene for bygningsenergimodeller, inkludert hvordan maskinlæring og digital tvilling-konsepter kan forme fremtiden for energisimulering. Ikke gå glipp av det!