Fri og open source software og digital uafhængighed
Denne artikel er baseret på et foredrag, som jeg holdt i Nuuk 19. februar 2026 og kan også høres i min podcast:
Dagens IT-landskab – afhængighed og forsøg på at komme væk
Digital uafhængighed er meget oppe i tiden. Det handler om, at folk i stigende grad ikke ønsker, at samfundets IT-infrastruktur skal være kontrolleret af nogle få meget store leverandører, der kan sætte prisen og skalte og valte med folks data, som de vil.
Når jeg siger “nogle få leverandører” mener jeg primært “nogle få amerikanske tech-giganter”, og når jeg siger “skalte og valte med folks data” mener jeg “sælge dem til annoncører, træne deres AI på dem og blokere adgangen til dem samt spionere i fortrolige oplysninger på vegne af deres lands regering”.
Og det er det jo ikke så underligt, at man gerne vil være fri for. Det begynder også så småt at gå op for beslutningstagerne, at det ikke er en farbar vej at erstatte de amerikanske tech-giganter med tilsvarende europæiske. Det, der skal til, er en infrastruktur baseret på åbne standarder og fri og open source software, fordi det sikrer, at brugerne — aftagerne af software, hvad enten det nu er regeringer, virksomheder eller enkeltpersoner — kan overtage kontrollen. Hvis man ikke er tilfreds med den måde en løsning fungerer på, kan man tage tjenesten hjem og drive den selv, eller man kan finde en anden leverandør og tage sine data med sig. Fordi programmerne er fri software har leverandøren ikke monopol på dem, og fordi data og kommunikation følger åbne standarder, kan de også læses af alle andre leverandørers programmer.
Det ser altå ud, som om fri og open source software har vind i sejlene i disse år. Hvis man ser på hvor meget, der findes, ser det faktisk ret godt ud. Der findes i hundredevis — bogstaveligt talt hundredevis — af store og små GNU/Linux-distributioner, som du kan installere på den computer, og hver eneste af dem er sammensat af tusinder af tusinder af programmer, der også alle er fri og open source software.
Hele internettet drives i dag af servere, der kører Linux og diverse serverprogrammer. Hele den moderne kommunikationsinfrastruktur er i praksis baseret på fri og open source software og åbne standarder. Faktisk er FOSS trængt så langt ud i hjørnerne, at selv de allermest proprietære og FOSS-fjendtlige systemer, det vil sige Apples MacOS og IOS og Microsofts Windows, ville falde helt fra hinanden, hvis ikke det var for de komponenter af fri og open source software, som de også bygger på.
Og dog ... hvis man kigger ud over systemlandskaberne i den offentlige forvaltning og langt de fleste private virksomheder, er det ikke ligefrem det indtryk, man får. Microsoft Windows og de tilhørende overdrevent dyre og dårlige tjenesteydelser — SharePoint, OneDrive, Teams, Office 365, undskyld CoPilot 365 — er totalt dominerende. De nødvendige kundskaber, som skal til for at drive et Linux-system, glimrer ved deres fravær i IT-afdelinger opflasket på Windows, Windows og atter Windows.
Så situationen for fri og open source software er altså ret paradoksal: På den ene side er det vitterligt overalt, på den anden side er det stadig et ret marginalt fænomen. Og det er en skam, fordi det som sagt netop er de principper og værdier, der ligger bag denne type software, som kan vise os en vej ud af den dybe afhængighed af tech-giganter og centraliserede løsninger, som vi oplever i disse år.
Fri software — hvad er det, og hvor kommer ideen fra
Begreber som fri og open source software har deres oprindelse i en samarbejdskultur, som opstod omkring nogle af de store computere på de amerikanske universiteter i 1960erne og 70erne. Før 1980 var computere meget store og meget dyre, og det kom ikke på tale, at de kunne være reserveret til enkelte brugere. Computerne havde ofte heller ikke et færdigt styresystem i moderne forstand, så alle skulle ud over deres faglige behov bruge hjælpeprogrammer, der gjorde nogenlunde det samme. Software blev derfor noget, som man samarbejdede og deledes om, ikke noget, som man så nogen grund til at holde hemmeligt for hinanden.
Dette ændrede sig i slutningen af 1970erne og begyndelsen af 80erne. Området blev mere og mere præget af hemmeligholdelse og patenter — også på de universiteter, hvor der tidligere havde hersket en samarbejdets ånd.
Et af de steder, hvor dette samarbejde havde fået lov til at udvikle sig, var Massachusets Institute of Technology, også kaldet MIT — og det var netop på MIT, at en programmør fik nok af den stigende lukkethed og kontrol med computerprogrammerne og sagde sin stilling op for at kæmpe for det, som han kaldte “fri software”.
Fri software var for Richard Stallman software, som man som bruger kunne ændre som man ville og arbejde sammen med andre om. For at sikre, at alle kunne sikres denne ret, grundlagde Stallman GNU-projektet, der havde til formål at skabe et 100% frit styresystem. Meningen var, at alle kunne installere GNU-systemet på deres computere, hvis de ville.
Baggrunden for denne beslutning var, at Stallman flere gange på sin egen krop havde mærket, at programmer, som brugeren ikke har mulighed for at ændre eller kontrollere i stedet kan ende med at tage kontrol over brugeren.
Stallman definerede derfor fire friheder, som et program skal opfylde for at være det, som han betegnede som fri software. lidt forenklet sagt drejer det sig om friheden til at
- bruge
- undersøge
- forbedre, og
- dele programmet.
Stallmans oprindelige definition var lidt mere kompleks og nummererede frihederne fra 0. I hans oprindelige udgave lød de:
- Frihed nummer 0: Friheden til at køre programmet med et hvilket som helst formål.
- Frihed nummer 1: Friheden til at undersøge, hvordan programmet virker, og tilpasse det til dine egne behov.
- Frihed nummer 2: Friheden til at dele kopier af programmet, så du kan hjælpe din næste.
- Frihed nummer 3: Friheden til at forbedre programmet og til at udgive dine egne forbedringer, så hele samfundet kan få gavn af dem.
Et program, der opfylder disse fire friheder, må altså betegnes som fri software. Vi vil senere tale om, hvordan det forholder sig til det beslægtede begreb “open source”, men det er allerede nu klart, at friheden til at undersøge hvordan programmet virker og til at forbedre det forudsætter, at man har adgang til kildekoden. I den forstand ligger der allerede her i det, at programmets brugere skal have adgang til den.
For at sikre, at den software, som han og andre udviklede som fri software også kunne forblive fri, udviklede Stallman den særlige softwarelicens, der hedder GPL, hvilket står for “Gnu General Public License”.
GPL er et juridisk dokument, som man kan vedhæfte sine computerprogrammer som den gældende licensbetingelse. Den består i sagens natur af en række kringlede juridiske formuleringer og helgarderinger, men i alt væsentligt er dens virkning rimeligt simpel.
GPL tillader nemlig udtrykkeligt, at man gør alle de ting, der ligger i de fire friheder, ved et program som den gælder for; dog med den vigtige begrænsning, at hvis man distribuerer ændrede versioner af programmet (hvilket man jo gerne må ifølge Stallmans frihed nummer tre), så skal ens egne ændringer stilles til rådighed på de samme vilkår.
Denne regel sikrer, at hvis man ændrer ved et program, der er fri software i henhold til GPL, så vil den ændrede version også være fri software og omfattet af de samme regler. Denne måde at forvalte ophavsretten til et computerprogram kaldes copyleft som et ordspil på “copyright”, og den mest typiske copyleft-licens er netop GPL i de forskellige udgaver, der findes i dag.
Der findes andre licenser for fri og open source software, der dybest set kun kræver, at man krediter programmets forfattere og garanterer, at man ikke vil holde dem ansvarlige for fejl i programmet. Den form for licenser kaldes permissive licenser, fordi man har lov til at bygge de programmer, som de omfatter, ind i anden software præcis som man har lyst — også for eksempel i proprietære programmer som f.eks. Microsoft Windows, der på ingen måde er fri software.
I en branche, der på overfladen er så præget af en allestedsnærværende kommerciel glitz-flade og kapitalistisk rovgriskhed á la Microsoft og Apple, handler ideen om fri software altså om noget så sjældent som etiske og politiske værdier — om den enkeltes frihed til at definere sin egen tilværelse ved at kontrollere den teknologi, der definerer den.
Dette kommer tydeligt til udtryk i fortalen til GPL, hvor det hedder:
The licenses for most software and other practical works are designed to take away your freedom to share and change the works. By contrast, the GNU General Public License is intended to guarantee your freedom toshare and change all versions of a program—to make sure it remains free software for all its users. We, the Free Software Foundation, use the GNU General Public License for most of our software; it applies also to any other work released this way by its authors. You can apply it to your programs, too.
When we speak of free software, we are referring to freedom, not price. Our General Public Licenses are designed to make sure that you have the freedom to distribute copies of free software (and charge for them if you wish), that you receive source code or can get it if you want it, that you can change the software or use pieces of it in new free programs, and that you know you can do these things.
Omkring 1990 var det GNU-system, som Stallman havde sat sig for at skrive tilbage i 1984 stort set færdigt. Dog manglede de stadig den vigtigste komponent, nemlig kernen.
Kernen i et styresystem er den komponent, der håndterer computerens hardware og altså kommunikerer med computerens forskellige dele — for eksempel CPU, tastatur, skærm, mus, printer.
Udvklingen af GNU-projektets egen kerne, som de kaldte for GNU Hurd, var nemlig gået i stå, blandt andet fordi dens design (en såkaldt mikrokernearkitektur) var for ambitiøst i forhold til, hvad projektets ansatte og frivillige kunne præstere.
Men i 1991 begyndte en ung finsk datalogistuderende ved navn Linus Torvalds at lave en styresystemskerne som et hobby-projekt. Han var ved at tage et kursus i operativsystemer og syntes at det kunne være godt at have et system i stil med dem, han lærte om, på sin PC. Torvalds satte sin kerne, der kunne snakke med computerens hardware, sammen med alle GNU-projektets bruger- og kontrolprogrammer. “Linux” var født og kunne installeres på de fleste PC'er. Og lige præcis PC'er var der mange af i begyndelsen af 1990erne, det var lige omkring det tidspunkt det blev populært at have en computer i hjemmet.
Torvalds udsendte sin Linux-kerne under licensbetingelserne fra GPL, hvilket passede rigtig godt med GNU-værktøjerne, som også allesammen var under GPL. Resultatet var, at Stallmans drøm om et 100% frit styresystem faktisk blev realiseret, nemlig som det nye styresystem Linux, som nogen på grund af GNU-værktøjerne kaldte og stadig kalder “GNU/Linux” — Debians officielle navn er for eksempel “Debian GNU/Linux”.
Men hvad er så “open source”?
Stallman grundlagde i 1985 organisationen Free Software Foundation til at forestå de praktiske og økonomiske aspekter omkring udviklingen af GNU-systemet.
I løbet af 1990erne havde såvel tankerne om fri software som den konkrete software, der var blevet bygget, samlet en hel del støtte og opnået en vis kommerciel succes i software-verdenen. Folk, der gerne ville promovere denne software, stødte dog på et problem. Ordet “free” kan på engelsk både betyde “fri” og “gratis”, og det var svært for folk uden for miljøet overhovedet at høre det som andet end “gratis software”. Det var ikke let at have et firma, der var baseret på Linux-kernen og GNU-værktøjerne og så tage ud til direktørgangene og tale om “gratis software”. Og den tilhørende forklaring, at der faktisk er tale om fri software, som er til for at garantere brugerens rettigheder, gjorde det ikke nødvendigvis lettere.
I 1998 samledes derfor en gruppe mennesker med tilknytning til området — blandt andet forlæggeren Tim O'Reilly, entrepenøren Mitch Kapor og programmørerne Eric Raymond og Bruce Perens.
De var alle helt enige i Stallmans tanker om fri software, men ville gerne have et andet navn for det. De endte med at markedsføre det som “open source” og stiftede nogenlunde samtidig “The Open Source Foundation”. Begrebet “open source” blev altså født som en ren marketing-kampagne for fri software, som Eric Raymond udtrykte det.
Men der er mere i det end som så. Linux-kernen og det samlede styresystem GNU/Linux gik fra hobbyprojekt til produktionsklart system på omkring et års tid. Ifølge den gældende opfattelse på det tidspunkt burde det slet ikke kunne lade sig gøre; at skabe et helt nyt styresystem og gøre det klar til brug ville efter den dengang gængse opfattelse tage flere år og koste mange millioner dollars. Denne opfattelse skyldtes ikke mindst Fred Brooks' essay fra 1975 “The Mythical Man-Month”, som forklarer hvorfor man ikke kan få et software-projekt til at gå hurtigere ved at tilføje flere udviklere.
Brooks tog ikke fejl, men hans pointer gjaldt en mere traditionel, topstyret udviklingsproces. Hvad Linus gjorde, var nyt. Han offentliggjorde kildekoden til hele sit system og sagde, at alle kunne bidrage, hvis de havde lyst. Hans opfordring nåede ud til et helt community af interesserede på det gamle Usenet, og snart begyndte bidragene at strømme ind. Linus accepterede dem alle, og hvis noget af det nye ikke virkede, kom der rettelser ind til dét også.
Der var tale om en ny måde at udvikle software på: Uformel, kollaborativ, offentlig og drevet af ægte interesse. Linus opfandt på denne måde, helt uden egentlig at ville det, en ny udviklingsmetode — open source-metoden.
Eric Raymond skrev senere en bog om dette, som han kaldte The Cathedral and the Bazaar, hvor han modstillede den gammeldags udviklingsmetode, hvor alt går langsomt og formelt (katedralen) og den nye, som er baseret på en åben og hurtig udveksling af kode og information (bazaren).
FOSS og digital suverænitet
Vi kan nu opsummere, hvad det egentlig er vi mener, når vi taler om fri og open source software.
Værdimæssigt er der tale om software, der laves af mennesker og bevægelser, der har taget Richard Stallmans politiske og etiske ideer om fri software til sig.
Udviklingsmæssigt følger de fleste store projekter open source-metoden, hvor vigtige systemer og infrastrukturkomponenter laves og vedligeholdes af engagerede bridragydere, ofte men ikke altid frivillige.
Udviklingen foregår derfor oftest åbent, som regel helt offentligt, og kollaborativt.
Og der er, som vi allerede har sagt, tale om meget store mængder af software, der bliver fremstillet på den måde.
For den bruger eller organisation, der af en eller anden grund har behov for at bruge noget software i sit arbejde — og det vil i dag sige os alle sammen — giver denne tilgang nogle ganske radikale fordele.
For det første har man i kraft af Stallmans frihed nummer 0 altid ret til at bruge programmer, der er FOSS, uden yderligere betingelser. Hvis man selv kan installere og køre det, skal der ikke betales nogen dyre licenser pr. bruger, eller for den sags skyld, som brugere af Oracles databaser vil sætte pris på, pr. CPU eller pr. gigabyte RAM.
For det andet har modtagerne af sådanne programmer altid ret til at råde over programmernes kildekode og arbejde videre på den eller betale andre for at gøre det. Det vil sige, at de ikke er afhængige af leverandørens goodwill eller for den sags skyld fortsatte eksistens for at holde deres forretning i live.
Brugere og kunder kan også selv bestemme, hvor systemernes data skal opbevares og hvad der skal ske med dem — om de skal opbevares forsvarligt, eller om de skal deles med efterretningstjenester og sælges til annoncører.
Alt i alt betyder de vilkår, som FOSS stilles til rådighed på, at magtforholdet mellem bruger og programmør vendes om — brugeren er ikke længere prisgivet leverandørens skalten og valten.
Og det nybrud i forholdet mellem bruger og producent er der faktisk brug for i det moderne IT-landskab. Hvis man ser på, hvordan IT bruges i dag, er det overalt domineret af meget få og meget store monopoler: Microsoft, Google, Amazon, Facebook/Meta, Apple — GAFAM, som de nogle gange kaldes.
Disse leverandørers produkter er ofte meget dyre, på den ene eller den anden måde, med få muligheder for at skifte til et alternativ og stor uklarhed om, hvor kundernes data egentlig opbevares og hvordan de er beskyttet. Ikke mindst er der uklarhed om, hvorvidt leverandører som Google og Facebook overhovedet har tænkt sig at overholde de gældende regler for databeskyttelse eller ej.
IT-giganterne og især GAFAM har dermed en ofte decideret ukyggelig kontrol over den enkelte brugers data.
Det er en situation, der har stået på i årevis, og der er flere eksempler på deres misbrug af situationen, end der ville have været plads til i ti artikler som denne.
Men i 2009 lagde en bruger sag an mod Amazon, fordi de havde slettet nogle e-bøger, som brugeren havde købt og betalt, fra hans Kindle (en Kindle er, hvis nogen ikke ved det, en ebogs-læser, som Amazon har markedsført i efterhånden mange år). Det drejede sig om George Orwells romaner “1984” og “Kammerat Napoleon”. Amazon havde haft dem til salg online, men fandt efterfølgende ud af, at deres aftale med forfatterens arvinger ikke var på plads endnu. De sendte derfor en opdatering ud til de berørte bogkøbere, der slettede bøgerne fra deres Kindles og refunderede købsprisen. Den uheldige bruger, der endte med at lægge sag an, skulle bruge bøgerne til sit studium og havde forsynet sine eksemplarer med omfattende notater, som nu også var væk.
Der er to ting, der undrer her: Hvorfor mente Amazon sig berettiget til at fjerne en bog, som de allerede havde solgt, fra deres kunders apparater? Hvis vi køber en bog ved en boghandler og boghandleren senere finder ud af, at det var en fejl, forventer vi ikke at de bryder ind i vores hus for at hente bogen og samtidig lægger de penge, vi har betalt, på vores spisebord. Det er i sig selv under al kritik.
Men hvad der er endnu mere bemærkelsesværdigt er, at Amazon kunne gøre det. Hvis du køber en ebogs-læser og betaler for den, skulle man synes at du ejer den. Hvorfor skal det så overhovedet være teknisk muligt for producenten “lige” at gå ind på dit apparat og stille sig til dommer over, hvilke bøger der skal være på den?
En del af svaret er, at hvis alle programmer på en Kindle havde været fri software, så ville det være muligt for grupper af Kindle-ejere at lave deres egen udgave af Kindle-softwaren, hvor det kun var ejeren selv, der kunne bestemme eller overhovedet se, hvad der var på den.
2009 er længe siden, men det er ikke blevet bedre siden da.
I 2025 blev Karim Khan, chefanklager ved Den Internationale Straffedomstol i Haag, ramt af sanktioner fra den amerikanske regering. Som led i disse sanktioner lukkede Microsoft hans Office 365-konto, hvilket betød at han pludselig stod uden adgang til sine emails.
I 2026 kunne Karim Khans kolleger, dommerne Kimberly Prost og Luz del Carmen Ibáñez Carranza, fortælle om, at deres Google- og Amazon-konti var lukkede, og det var svært for dem at få tilværelsen til at hænge sammen, fordi de ikke havde adgang til de mest elementære online-tjenester.
I Danmark har indkøbere ved danske myndigheder berettet, at de under prisforhandlinger med Microsoft “forhandlede med en pistol for panden”, fordi Microsoft stillede med krav om store og åbenlyst urimelige prisstigninger, som de ikke kunne andet end at sige ja til, fordi de ikke kan stille alternativer på benene med så kort varsel.
Denne udbydernes kontrol over brugerne fortsætter altså med uformindsket styrke, og disse og mange andre eksempler viser, at Richard Stallman havde ret i sin analyse af problemerne ved lukket, proprietær software, da han grundlagde GNU-projektet i 1984.
Og her er det værd at bemærke, at ICC ikke havde behøvet at udsætte sig for denne sårbarhed. I 1990erne var det stadig almindeligt, at virksomheder kørte deres egen mailserver. Hvis ICC havde haft sin egen mailserver, som var sat op med fri og open source software, ville det ikke blot have været en billigere løsning for dem — der ville ikke være nogen, og slet ikke den amerikanske regering, der bare lige kunne lukke for deres emails.
Formålet er her ikke at skyde på ICC, men at påpege, at hvis vi havde fastholdt den gamle tradition for, at firmaer og myndigheder vedligeholder deres egen IT-infrastruktur, havde nogle få amerikanske firmaer aldrig haft et sådant kvælergreb over verdens kommunikationsinfrastruktur og økonomi, som tilfældet er i dag. Og det er ikke for sent at gøre noget ved det.
Eksemplerne viser også, at man ikke skal gøre for meget ud af at tale om “digital suverænitet” blot som et opgør med amerikanske big tech-firmaer. Europæiske firmaer kan nemlig også tiltage sig uacceptabel kontrol ver brugernes computere og presse penge af afhængige kunder ved at opkræve ublu licenser.
Det skal være muligt for myndigheder, organisationer og privatpersoner selv at tage kontrol over deres infrastruktur. Og det kan kun opnås ved at basere den grundlæggende infrastruktur på fri og open source software og samtidig lade værdierne bag gennemsyre den måde, vi arbejder med IT på.
Der findes nemlig allerede alternativer nok til, at vi kan sige med sikkerhed, at vi ikke har brug for tech-giganter.
Alle de væsentlige komponenter — styresystemer til computere og mobiltelefoner, email og chat, fildeling, videoopkald, databaser, softwareudviklingsværktøjer — eksisterer allerede.
Det er bare med at komme i gang.
Copyright 2025 Carsten Agger — CC-BY-SA