Agger's Writing & Text Blogs

Reader

Read the latest posts from Agger's Writing & Text Blogs.

from agger

I dette uddrag fra min gamle og forhåbentlig kommende bog om fri software gennemgår jeg oprindelsen til ideen om software som noget, der skal deles og komme alle til gavn, i 1960ernes hackerkultur, som den opstod på MIT, hvor Richard Stallman langt senere grundlagde GNU-projektet og lagde grunden til al den “fri og open source software”, som vi har i dag. Det er en spændende historie.

Det følgende uddrag bygger hovedsagligt, men ikke udelukkende, på Steven Levys bog Hackers: Heroes of the Computer Revolution fra 1984.

Hackere og hackerkultur

Ideen om fri software stammer oprindelig fra hackerkulturen på Massaschusets Institute of Technology (MIT) i Cambridge, Massachusets. Denne kultur opstod i tilknytning til den gryende forskning i kunstig intelligens. Denne forskning foregik først ved hjælp af en af de første IBM mainframes og herefter med “minicomputeren” PDP-1, som var en af verdens første interaktive computere. Man kommunikerede dog ikke med den ved hjælp af en skærm, men ved hjælp af en “Teletype”. Brugeren skrev sit budskab til computeren på en hulstrimmel og fik svar tilbage på en anden hulstrimmel.

Om denne maskine og dens efterfølger flokkedes en gruppe studerende, der efter en konventionel målestok med fokus på karriere og kursusplaner egentlig havde bedre ting at tage sig til. De var fascinerede af selve computeren og alle de ting, man kunne bruge den til. Mange af dem havde tilbragt deres barndom med at skille ting ad, og deres tilstedeværelse på elite-universitetet MIT var i sig selv garant for en intelligens og en arbejdsomhed langt over gennemsnittet.

Disse unge mennesker var de første hackere. En hacker er i denne sprogbrug ikke en teenager, som bryder ind i forsvarets eller Nationalbankens computersystemer og laver hærværk. En hacker er heller ikke nødvendigvis en programmør. Alle dedikerede programmører har nok lidt af en hacker i sig, men der er forskel.

Der er for nogle mennesker en særlig fascination ved den måde, hvorpå det er muligt at beherske — virkelig at beherske — en computer ved hjælp af et programmeringssprogs instruktioner. Da den personlige computer kom frem i begyndelsen af 1980erne, var det mest populære programmeringssprog på markedet det såkaldte BASIC, der udmærker sig ved, at dets syntax og kommandoer minder meget om ganske almindeligt engelsk. Dengang udkom en lang række bøger, der sigtede mod at lære almindelige mennesker at skrive deres egne programmer i dette sprog. Sådanne bøger blev ofte populære, fordi de afspejlede forfatternes egen elementære glæde ved at beherske dette monstrum.

På MIT samledes denne type mennesker i computerteknologiens barndom i begyndelsen af 1960erne i den tekniske afdeling af universitets modeljernbaneklub. Her havde man specialiseret sig i at forsyne de (af den “ikke-tekniske” afdeling) omhyggeligt malede modeltog med en avanceret, elektronisk styringsmekanisme. Dette styresystem var blandt andet baseret på gammelt telefonudstyr, der var doneret af en tidligere studerende, der nu arbejdede hos telefonselskabet AT&TTK. Det var modeljernbanen og dens styresystem, der gav os ordet hacker. Et “hack” var i denne sammenhæng en særligt elegant løsning — et enkelt design, der kunne kontrollere toget helt ny måde, som de andre teknik-nørder anerkendte og beundrede som et originalt bidrag til deres fælles værktøjskasse. En “hacker” var en særligt dygtig konstruktør eller ingeniør, som havde udført mange anerkendte hacks.

I 1960 var computere ikke blot et paradis for utilpassede elektroniknørder; de var videnskabens og teknologiens yderste grænseland. For de unge mænd, som graviterede hen mod disse verdens første interaktive computere var der tale om opfyldelsen af en drøm.

De eftertragtede og meget dyre maskiner var dog ikke umiddelbart til rådighed for 18-19-årige førsteårsstuderende uden et studierelevant formål at bruge den til. Computertiden var opdelt i reservationer på hele og halve timer, hvor forskere og deres andendelsstuderende brugte dem til vigtige beregninger. Men somme tider dukkede forskerne ikke op til den aftalte tid. De unge computerentusiaster etablerede døgnvagt ved maskinerne. Viste der sig et hul i tidsplanen, smed de unge hackere alt, hvad de havde i hænderne for at styrte over mod computeren på niende sal.

Man skulle tro, at disse unge mennesker, for hvem universitetets avancerede computere åbenbart først og fremmest var en slags legetøj, ville vække en del modvilje hos personalet. Men MIT-professorer som John McCarthy og Marvin Minsky erkendte straks det betydelige talent bag de unge menneskers iver. Samtidig indså de, at den bedste måde at fremme dette talent var at se gennem fingre med “misbruget”. I samarbejde med systemadministratoren John McKenzie blev de enige om at lade hackerne bruge maskinen, når der ikke var andre, der skulle bruge den. De unge mennesker lærte snart at kode i TX0'ens og senere PDP-1'ens efter moderne standarder enkle, men noget uhåndterlige maskinkode. Hvad programmerne gjorde var i begyndelsen ikke så vigtigt. Det afgørende var selve fascinationen ved overhovedet at få maskinen til at gøre noget, ved at give den et input og se outputtet tikke ud på teletekst-strimlen.

Hackeren Peter Samson fik for eksempel lang tid til at gå med et program til at omsætte binære tal (udtrykt ved nuller og ettaller) til decimaltal og skrive dem ud. Han mente selv, at omsætning af vilkårligt lange binære tal til decimaltal var det tætteste, man kom på en programmeringens lakmusprøve: Man skal kunne indlæse de binære tal, gemme dem i hukommelsen, konvertere dem til titalssystemet ét ciffer ad gangen og til sidst skrive dem ud. På en maskine, hvor kun de mest primitive operationer var indbyggede og blot det at gange to tal med hinanden krævede en del programmering, krævede denne beregning et kompliceret bogholderi med menter og rester. Hvis man kunne det, kunne man programmere. Det blev til en hel sport, hvor det gjaldt om at løse udskrivning af decimaltal og andre problemer så hurtigt som muligt og med det kortest mulige program, så man brugte så lidt som muligt af maskinernes dengang meget begrænsede hukommelse.

Den interaktive programmering på TX0 og PDP-1 havde et modstykke, nemlig den kolossale IBM Mainframe, der blev drevet efter helt andre principper. Denne IBM-maskine var et tempel, der blev passet og plejet af et præsteskab, et beskyttende lag af bureaukrati, der havde til hensigt at beskytte maskinen mod almindelige brugere. Programmører, der skulle have noget lavet, kunne skrive et program og aflevere det på en stak hulkort. Præsteskabet ville så køre det i den næste ledige batch-kørsel. Hvis programmet indeholdt en fejl, ville det sandsynligvis gå i stå. Programmøren måtte så forsøge at gætte sig til, hvad der var gået galt og prøve igen. Denne procedure var en hån mod en ægte hacker. De unge menneskers fingre kløede efter at lægge hænderne på en rigtig computer, trykke på knapperne og skrue på skruerne og køre deres egne programmer. Med maskiner som TX0 og PDP-1 fik de deres chance, og i kraft af Minskys og McCarthys eftergivende holdning kom de efterhånden til at styre afdelingen. Hackerne blev op gennem 1960erne ansat som systemprogrammører og fik nu penge for det, de i forvejen gjorde gratis.

Normen for både lønnede og ulønnede hackere var tyve-timers-dage og syvdages-uger. De lange arbejdsdage blev kun afbrudt af ekspeditioner til områdets kinesiske restauranter og så meget søvn, som de kunne nøjes med, inden de igen kastede sig over programmeringen. Nat og dag løb ud i ét, og studier og eksamen fortonede sig i det fjerne. Hackerne var besat af MITs computere og af deres egen trang til at få dem til at gøre ting. Selv om der var en intens, venskabelig konkurrence om at gøre det bedst, blev enhver omstændighed, der kunne hjælpe med til at få tingene gjort, anset for at være et gode, mens alt, hvad der lagde hindringer i vejen, var af det onde. En af de unge hackeres allerførste opgaver var at skrive værktøjer, der kunne hjælpe med at få noget arbejde fra hånden. Udførbare programmer blev dengang “gemt” i form af lange papirstrimler med huller. Folk havde deres egne programmer til at ligge i skuffen. Hvis nogen skulle bruge et program, som en anden havde skrevet, gik de bare hen og tog det. Fandt de en fejl, blev den rettet, og den rettede udgave blev lagt tilbage.

Således opstod hackerånden. Alting handlede om at bygge nye programmer, så computerne kunne komme til at gøre spændende ting, og det var noget, man gjorde sammen. Et computerprogram tilhørte alle og ingen. Hvis nogen stod og manglede en programstump, som en anden havde skrevet, delte man den bare. Denne hackerånd blev efterhånden til en hel etik. I Stephen Levys bog “Hackers” fra 1984 opsummeres hackeretikken i få, men rammende hovedpunkter:

Adgangen til computere – og til alt andet, som kan lære dig noget om, hvordan computere virker – bør være ubegrænset

Alle regler og begrænsninger, der forhindrer hackerne i at udøve deres fag, er af det onde. På MIT udviklede der sig en kultur, hvor hackerne ikke ville acceptere, at værktøj eller computere var låst inde. Hvis en computer alligevel blev låst inde, var en komité af særligt dedikerede hackere parat til at dirke låse op og kravle gennem ventilationsskakter for at “befri” det udstyr, de havde brug for.

Al information bør være fri

Programmer er noget, man deles om, forbedrer og giver videre. Låste skuffer var af det onde, eftersom det var i skuffer, folk gemte papirstrimlerne med den seneste udgave af deres programmer.

Oplysninger om, hvordan en computer er bygget og hvad der får den til at virke, bør være tilgængelige i form af diagrammer. Hvis en given information ikke er umiddelbart tilgængelig, kan en lidenskabelig hacker tage det på sig at befri den. Nogle MIT-hackere beskæftigede sig også med phone phreaking, en fundamentalt venligtsindet udforskning af det gamle analoge telefonnet ved hjælp af små bokse, der kunne efterligne telefoncentralernes kontrolsignaler. Dermed kunne hackerne komme i kontakt med telefoncentraler i Vesttyskland og Singapore. Når nu verden og især tekniske systemer er så ufatteligt spændende, og vi ikke må få at vide, hvordan de fungerer, kan vi heldigvis selv finde ud af det. Phone phreaking udviklede sig i 1970erne til en særlig subkultur med politisk inspiration fra Abbie Hoffmans og Jerry Rubins udenomsparlamentariske yippie-bevægelse, hvor konstruktionen af “blå bokse”, der tillod brugeren at ringe gratis, blev betragtet som udtryk for legal modstand mod “systemet”. Den udforskning af telefonnettet, som MIT-hackerne praktiserede, skete dog ikke med henblik på nogen form for vinding, selv om den også stred imod de love og regler, som forhindrede hackerne i at udforske verden, som de havde lyst til.

Mistro autoriteter – decentralisering er godt

Systemet skulle altså være åbent, så hackerne havde fri adgang til udstyret. På MIT betød det især, at adgangen til computere og værksteder ikke burde være reguleret af nogen form for bureaukrati. Folk, der insisterede på deres status og forsøgte at misbruge denne autoritet til at forhindre hackerne i at bruge computerne var helt galt på den; sådanne initiativer måtte venligt, men bestemt imødegås. Brugernavne og passwords var af det onde, fordi de hindrede folk i at få adgang til andres programmer, når og hvis de havde brug for dem. Tanken om, at en sådan frihed kunne misbruges til at begå hærværk lå MIT-hackerne fjernt. Folk, der havde adgang til computerne, formodedes at opføre sig ordentligt.

Hovedsagen var, at man kunne lave spændende og interessante ting med computere og andet teknisk udstyr. Autoriteter var kedelige personer, der forsøgte sætte grænser for, hvad de kunne lave. Enhver autoritet var følgelig af det onde.

Hackere skal bedømmes på deres hacks, ikke efter falske kriterier som akademisk grad, alder, race eller stilling

Hackerne så sig selv som et strengt meritokrati. Hvis du kunne skrive et smukt program, der løser et problem på en elegant måde, fortjente det dine kollegers anerkendelse og respekt. Hvis ikke, hjalp det ikke med nok så mange akademiske grader eller professorstillinger.

En af hackerne på MIT var Peter Deutsch, der begyndte at komme i computerrummene, fordi hans far var lærer på stedet. Han var fra starten tiltrukket af computerne, og det varede ikke længe, før han havde lært sig selv at programmere. Deutsch sad gerne og kiggede de mere erfarne folk over skulderen, altid parat til at udpege en fejl eller et dårligt design i deres program. Dette gjorde ham ret upopulær blandt de mere traditionelle studerende, men hackerne tog ham til sig som en af deres egne. Han var da tolv år gammel.

Man kan skabe kunst og skønhed på en computer

Dette virker ret oplagt i dag, hvor hovedparten af verdens film og musik produceres på computere. Det er dog ikke den slags traditionelle kunstneriske udtryk, der tænkes på. Computerprogrammer kan også være kunstværker, hvis de rammer den balance af elegant design og simplistisk effektivitet, der kendetegner den dygtige programmør. I 1960erne var computeres kapacitet og hastighed stadig meget begrænset, og den mest umiddelbare løsning på mange problemer var ofte ubrugelige, fordi den brugte for mange ressourcer. Arbejder man med det, kan man ofte komme op med noget, der både er mere effektivt og mere elegant. Nogle gange kunne et geni vende verden på hovedet og løse problemet på en måde, som ingen havde tænkt på før. Blandt hackerne på AI-lab var der faktisk adskillige genier – de var trods alt blandt de bedst begavede af de studerende på et universitet, som i forvejen kun lukker de bedst begavede amerikanske studerende ind.

Et eksempel var netop det program til at udskrive binære tal som decimaltal, som vi talte om tidligere. De fleste hackere kunne skrive en “quick and dirty” version på hundrede linjer kode, hundrede instruktioner til computerens CPU. Hvis de bedste af de bedste virkelig gjorde sig umage, kunne det med nogle timers arbejde presses ned på lidt over halvtreds linjer. Men uanset hvor meget de anstrengte sig, var der ingen, der kunne komme under halvtreds linjer. Indtil en dag en stille type fra Maine ved navn Jensen fandt på at beregne tallene baglæns og udskrive dem forlæns. Jensens 46 linjer krystalliserede hans forståelse af det komplicerede problem som en slags datalogisk haiku.

Stephen Levy skriver om de øvrige MIT-hackeres reaktion på Jensens kunstværk:

Der var en kompliceret matematisk begrundelse for det, som først gik op for de andre hackere, da de så Jensens program hænge på opslagstavlen. Dette var hans måde at fortælle dem, at han nu havde taget udskriften af decimaltal til dens yderste grænse. Seksogfyrre instruktioner. Folk stirrede på koden og tabte underkæben. Marge Saunders husker, at hackerne var usædvanligt stille i flere dage efter.

“Vi vidste, at det var slut nu,” sagde Bob Saunders senere. “Det var Nirvana.” (s. 45)

Computere kan forandre dit liv til det bedre

Dette var hackeretikkens mest centrale bud og selve retfærdiggørelsen af de uendeligt mange timer, hackere brugte på deres kunst. Det er også noget af det, som kan være vanskeligst at forstå for udenforstående. De tidlige hackere brugte uanede mængder af tid og energi på at løse nogle ret beset unyttige eller ligegyldige opgaver. Vi har nævnt eksemplet med den intense konkurrence om at omsætte binære tal til decimaltal med så få instruktioner som muligt. Andre fik tiden til at gå med at skrive programmer, der omsatte almindelige tal til romertal. Da hackeren Bobby Saunders tog et kursus i numerisk analyse besluttede han, at det var under hans værdighed at bruge de gammeldags, mekaniske regnemaskiner, man dengang havde. Saunders brugte i stedet adskillige måneder på at skrive et program, der simulerede en regnemaskine, så han kunne løse sine opgaver på en computer. Programmet kaldte han “Expensive Calculating Machine” som en spøgefuld hentydning til det paradoksale i, at han nu havde skrevet et program, der satte en computer til flere millioner dollars i stand til at løse de samme opgaver som en regnemaskine til under en tusindedel af prisen.

Her vil mange mennesker naturligt nok spørge: “Og hvad så?” Hvad skal vi med et program, der gør det samme, som vi allerede kan med en lommeregner, når vi allerede har en lommeregner? Et af svarene er, at du selv får en computer til at gøre det. Du udtænker, hvordan programmet skal virke og befaler computeren at gøre det – og computeren adlyder. Det var en helt speciel og på det tidspunkt helt ny intellektuel magt, som stadig kan gribe programmører verden over.

En computer gør, hvad du beder den om. Hvis du ændrer i programmet, beder du den om noget andet, og så gør den noget andet. Et computerprogram med en brugerflade bliver til en del af brugerens virkelighed. Hvis brugeren ikke er tilfreds med, hvad programmet gør, kan du række om bag scenetæppet og ændre denne virkelighed. Programmøren får dermed inden for programmets virkelighed status af en magiker eller gud, der kan lave om i brugerens virkelighed, som det passer ham.

Dette gælder også i dag, så meget desto mere, som programmering meget ofte er envejskommunikation. En programmør eller designer af et populært computerprogram skaber og definerer den virkelighed, som millioner af mennesker lever og agerer i. Det gælder for administrative programmer, og det gælder ikke mindst for de store interaktive computerspil som Counterstrike, World of Warcraft og Runescape. Spilleren kan blive så stor, det skal være, i selve spillet, men vil altid kun kunne handle inden for spillets naturlove. Hvem bestemmer disse naturlove? Det gør spillenes programmører og producenter.

At være programmør er med andre ord det samme som at være gud for en verden, du selv skaber. En lille og begrænset verden, men alligevel. Dette besvarer dog kun spørgsmålet om, hvad nytte det er til, hvis computere overhovedet kan bruges til noget fornuftigt? Så oplagt svaret på dette spørgsmål kan forekomme os i dag, var det ikke helt så oplagt dengang.

Computere var nogle underlige og ofte truende maskiner, hvor man kunne foretage beregninger og spille bip-spil. I dag er de så udbredte, at hackeretikkens forestilling om, at computere kan gøre folks liv lettere og bedre må siges at have fået oprejsning. Lidt ret har og havde “og hvad så?”-folket alligevel i deres indvendinger.

Hvis en mekanisk regnemaskine kun kostede få hundrede dollars og allerede kunne foretage de fleste af de beregninger, man (som Saunders) havde brug for, hvorfor så bruge måneder på at skrive et computerprogram, der gjorde nøjagtig det samme? Dette spørgsmål ville være helt berettiget, hvis der aldrig var andre end Saunders, der skulle bruge det. Men når et program én gang var skrevet, lå det i skuffen med programmer, og alle computerens brugere kunne gå hen og indlæse det i maskinen. Hvis de ville, kunne de kopiere det, så andre maskiner af samme slags også kunne blive forvandlet til en simpel regnemaskine. Det tilsyneladende tåbelige og unyttige hack, der havde fået en dyr computer til at opføre sig som en billig regnemaskine, kunne forvandle alle computere til en billig regnemaskine. Hvor én regnemaskine var og blev én regnemaskine, med mindre man hostede op med pengene til en ny, kunne man med computerprogrammet fremstille uendeligt mange nye regnemaskiner, eller i hvert fald så mange, som der var computere – og det ganske gratis. Denne egenskab ved computerprogrammer kom softwarefirmaer som Lotus, Microsoft og IBM samt spilproducenter som Electric Artists, Sony og Nintendo senere til at tjene rigtig mange penge på. For de tidlige hackere kom noget en sådan kapitalisering slet ikke på tale. Når først et program var skrevet, blev det lagt i skuffen, hvor andre kunne tage det og bruge det, som de havde lyst – og det var, som det skulle være.

Programmering handlede om at opbygge et fællesskab omkring computerne og selve hackingen, og så snart noget var skrevet, tilhørte det alle. Det var en verden, hvor man kunne hævde sig ved at skrive noget, som andre kunne anerkende og beundre, ikke ved at sætte sig på det for at sælge det.

Denne elementære glæde ved at lave noget, der kan være til nytte for andre – for alle – inspirerer stadig millioner af hackere verden over.

 
Read more...

from notes

WriteFreely, som er det værktøj, som denne side er bygget i, giver mulighed for at have mange forskellige blogs for hver bruger.

Hidtil har jeg skrevet i den blog, der hedder agger, men nu har jeg også oprettet denne, hvor jeg kan skrive forskellige små indlæg og artikler, noter, som man siger.

Det har noget at gøre med, at jeg er ved at være træt af de sociale medier men stadig har ting, som jeg gerne vil skrive og have folk til at læse. Hæng endelig på.

 
Read more...

from agger

Den nedenstående redegørelse for Internettets tidlige historie er et uddrag af en bog om fri software, som jeg begyndte på for mange år siden og for nylig er begyndt at redigere for at se, om jeg kan få den færdig og udgivet.

Det er den lidt utrolige historie om, hvordan de kommunikationsnetværk, der endte med at blive til Internettet, blev udviklet – af det amerikanske militær, no less – i fuld åbenhed og om hvilke helt konkrete og reelle fordele, det gav.

Fordele ved fri og åben software

I slutningen af 1960erne sætter en gruppe forskere ved Defense Advanced Research Projects Agency (en forskningsenhed under det amerikanske forsvarsministerium, som er bedre kendt under forkortelsen DARPA) sig for at skabe et netværk af computere, der kan holde til selv de mest ekstreme betingelser. Dette netværk skal ikke kommunikere gennem en fælles central ligesom et telefonsystem gør det. I stedet skal det opbygges helt decentralt ved, at dets computere taler direkte til hinanden og sender beskeder ved at lade dem hoppe fra den ene computer til den anden, indtil de finder den rigtige.

Fidusen ved denne strategi er, at hvis en del af netværket pludselig bliver afskåret på grund af et fjendtligt angreb, kan de overlevende dele af netværket stadig tale sammen. Eftersom kommunikationen mellem computerne selv kan finde vej gennem nettet uden at gå gennem en central, vil konsekvensen af et udfald i halvdelen af netværket blot være, at trafikken mellem de resterende computere i nettet må vælge en anden vej. Hvis en vigtig forbindelse mellem to grene af netværket overskæres, betyder det ikke, at netværket holder op med at virke på nogen af de berørte computere. Nettet deles bare i to separate undernet, som stadig er fuldt funktionsdygtige, selv om de ikke længere kan tale sammen. Meningen med dette projekt er, at det amerikanske samfund – militær, regering og vigtige samfundsinstitutioner som universiteter og hospitaler – skal kunne blive ved med at kommunikere indbyrdes, selv om et fjendtligt angreb sætter dele af netværket ud af spillet. Et militært angreb på USA forekommer dengang, hvor den kolde krig stadig er på sit højeste, ikke urealistisk.

Dette netværksprojekt er finansieret af DARPA, men udvikles i samarbejde med universiteter og virksomheder. Udviklingsprocessen foregår derfor i fuld offentlighed. Netværkets opbygning og grundlæggende principper lægges frem i en række dokumenter, der kaldes Request for Comments. Hver af disse “RFC'er” specificerer et aspekt af det nye netværk.

Vi forbinder ofte militære forskningsprojekter, der skal sikre infrastrukturen mod et fjendtligt angreb, med noget tys-tys og tophemmeligt. DARPA går i 1960erne en anden vej med designet af det nye netværk. De ønsker, at deres decentrale og robuste netværk skal have så stor udbredelse som overhovedet muligt. De nøjes derfor ikke med at udvikle nettets specifikationer i fuld offentlighed – de opfordrer alle, der har mulighed for det, til at bruge det. Det gamle ARPANET breder sig til flere og flere virksomheder og universiteter i USA. Med udbredelsen vokser mængden af anvendelser for det nye netværk. Email har eksisteret i hvert fald siden 1965, men er i starten begrænset til kommunikation mellem forskellige brugere på samme maskine. Den første email mellem to computere i et netværk sendes af programmøren Ray Tomlinson (1941-2016) i slutningen af 1971, og i begyndelsen af 1972 har teknikken bredt sig til en række andre ARPANET-computere. Omkring samme tid udvikles protokollerne FTP og TFTP til udveksling af filer.

Netværkets decentrale natur og den frie adgang til at bygge programmer, der kan kommunikere over det, sætter det i stand til at udvikle sig til noget langt større, end nogen havde forudset. I løbet af 1980erne bliver Internettet, som det nu hedder, standard for kommunikationen på universiteternes naturvidenskabelige fakulteter. Efterhånden kommer også kommercielle udbydere til, som sælger adgang til det nye netværk til menigmand. Resultatet er det netværk, som vi i dag alle kender som Internettet (der er mere kritiske ting at sige om den måde, nettet blev privatiseret på – grundlæggende blev det foræret væk til en række monopolister, der stadig tjener mange penge på at yde amerikanerne en rigtig dårlig service – men det vender vi tilbage til senere).

Internettets succes må i første omgang tilskrives de åbne standarder, det byggede på. Netværkets hjerte er en række af protokoller for udveksling af data mellem computere – en slags meget grundige opskrifter for, hvordan kommunikationen skal foregå. Disse protokoller lægger DARPA og den tilhørende arbejdsgruppe IETF (Internet Engineering Task Force) frit frem for alle, der har lyst til at implementere dem. Det geniale ved denne løsning er, at Internettet ikke defineres ved nogle bestemte programmer, som er installeret på netværkets computere, men ved en specifikation af, hvordan programmer kan kommunikere med hinanden. Alle firmaer og privatpersoner kan, hvis de ønsker det, lave deres egne programmer, der kommunikerer efter denne specifikation. På Berkeley-universitet i San Francisco i Californien udgiver man i 1983 en af de første fungerende implementationer af disse protokoller, som man i 1989 stiller til rådighed for alle interesserede. Berkeley-universitetets implementation af TCP/IP-protokollen breder sig hurtigt og danner grundlag for understøttelsen af Internet i styresystemer som Windows, GNU/Linux og FreeBSD.

I 1990 udvikler en ung fysiker ved CERN et internet-baseret system, der har til formål at lette udvekslingen af data mellem forskellige videnskabelige faciliteter. Fysikeren hedder Tim Berners-Lee, og opfindelsen kalder han World Wide Web. Berners-Lee beslutter i åbenhedens ånd at hjælpe sit system på vej ved at lægge både programmer og kildekode til download og fri afbenyttelse på CERNs Internet-servere.

Berners-Lees nye system består af en central server, der kan servere dokumenter for systemets brugere. Brugerne læser dokumenterne ved hjælp af en særligt indrettet klient eller browser, der kan formattere den kode, dokumenterne er skrevet i, så de ser pæne ud. Denne kode er den første udgave af det i dag meget udbredte formatteringssprog HTML, som Berners-Lee opfinder til lejligheden. For at snakke sammen bruger klient og server en ny netværksprotokol, som Berners-Lee kalder HTTP – en forkortelse for “Hyper Text Transfer Protocol”.

Berners-Lees opfindelse breder sig hurtigt til universiteter verden over. National Center for Supercomputing Applications (NCSA) i Illinois i USA skaber i 1993 verdens første virkelig udbredte web-browser, som de kalder Mosaic, med udgangspunkt i Berners-Lees oprindelige software. James H. Clark grundlægger i 1994 firmaet Netscape og skaber sammen med en stor del af de oprindelig programmører fra NCSA verdens første kommercielle browser. Netscape har med sin indbydende grafiske brugerflade og overskuelige formattering af nettets HTML-sider en stor del af æren for at bringe Internettet ind i almindelige menneskers hjem. En anden gruppe af tidligere ansatte hos NCSA ender hos Microsoft, hvor de bruger koden fra Mosaic som grundlag for de første versioner af Microsofts Internet Explorer-browser. Da folk først begynder at blive opmærksomme på muligheden for at lave sider på World Wide Web, breder ideen sig hurtigt. Mange virksomheder, institutioner, organisationer og enkeltpersoner laver hjemmesider, hvor de reklamerer for deres produkter eller fortæller om noget, der er vigtigt for dem. Sidernes grafiske præsentation styrkes af HTML-sprogets rige formatteringsmuligheder, og det er let for alle at lære. Alle browsere indeholder nemlig en funktion, der hedder “Se HTML” eller “Se sidens kildekode”. Det gør det let for folk hurtigt komme i gang med at lave nye sider ved at tage udgangspunkt eksisterende siders HTML-kode. Alle kan altid se, hvordan en given sides layout er skabt, og grafiske nyskabelser breder sig med omtrent samme hastighed som selve teknologien.

En gruppe af frivillige og repræsentanter for forskellige firmaer arbejder videre med Berners-Lees oprindelig server-program og udvikler i 1995 web-serveren Apache, der i årtier fastholder en position som den mest udbredte webserver på internettet. Denne gruppe betragter serverens design som et fælles, åbent projekt, som alle kan bidrage til og nyde godt af. Mens virksomheder som Microsoft, Netscape og IBM sælger webservere til meget høje priser, fortsætter folkene bag Apache med helt i Berners-Lees ånd at dele deres server ud til hvem, der end vil have den. Apaches popularitet tiltrækker så vægtige bidragydere, at denne gratis web-server i årtier fastholder en position som den bedste af dem alle sammen.

Når Internettet og World Wide Web kan få så stor udbredelse er det altså først og fremmest, fordi de bliver beskrevet og dokumenteret i fuld offentlighed, og fordi de første udgaver af de underliggende programmer er frit til rådighed for enhver, der har lyst til at bruge og ændre dem. Internettet får med andre ord kun den succes og udbredelse, som det har i dag, fordi det bygger på åbne standarder og fri software.

 
Read more...

from agger

Let's leave planet GAFAM Illustration af David Revoy, CC-BY 4.0

Store amerikanske firmaer som Google, Microsoft, Facebook og Amazon dominerer efterhånden vores teknologiske infrastruktur: Vi kommunikerer med venner og arrangerer begivenheder på Facebook, deler videoer på YouTube, skriver med vennerne på Whatsapp og Messenger, og vores email er hos Gmail eller Outlook 365, dvs. hos Google eller Microsoft. Vi har vores filer hos Dropbox eller i Google Drive eller Microsoft OneDrive.

Disse firmaer forbeholder sig retten til at scanne vores data for at kunne sælge annoncer, tilpasse indhold og fastholde os i længst mulig tid. Samtidig kommunikerer politikere, myndigheder og meningsdannere også selv på platforme som X/Twitter og Facebook, hvor de samme firmaer styrer, hvilket indhold, nyheder og holdninger, vi som borgere bliver vist. Det forekommer med andre ord, at vi er fanget i en situation, hvor et skadeligt tech-monopol har overtaget vores digitale liv.

Og dog har vi ikke brug for nogen af disse firmaer eller vores tjenester for at få vores teknologiske dagligdag til at hænge sammen. Vi kan, uden at miste funktionalitet, foretage al vores kommunikation med decentrale tjenester som vi selv eller nogen vi stoler på kører baseret på fri og open source software.

Til oplægget vil vi høre om hvordan.

Mødet foregår 18. september 2024 kl. 19:00-21:00. Der vil være sandwich og forfriskninger til tilmeldte deltagere – tilmeld dig her.

Mødet foregår hos PROSA, Søren Frichs Vej 38K th., 8230 Åbyhøj.

 
Read more...

from agger

/e/ OS

I've had a history with Fairphones; back in 2014, I got a Fairphone One. That version had vanilla Android (“Android Open Source Project”, AOSP) with no Google apps, so it was basically free software only out of the box. I used it with F-droid only. It worked great, except that it seemed to be missing some firmware drivers for the GPS (the GPS worked, but not perfectly).

In 2017, I got a Fairphone 2 and naively ordered it from the store, thinking it would also come with AOSP. It turned out to be encumbered with Google Apps and Playstore. I endured that situation until 2021 (because it was my work phone and I didn't want to risk bricking it), where it died and I bought a Fairphone 3. This time, once more, I didn't do due diligence and bought it from Fairphone itself, not from a vendor supplying free software alternatives. Incredibly, Fairphone itself doesn't seem to see it as part of their “fairness” to supply a free operating system for their phones. As much as I sympathize with their project, this is a very bad decision on their part.

But now, some weeks ago, my Fairphone 3 died completely, and I headed to Murena's web site to check out what they had. I'm now the proud owner of a Fairphone 4 with a free OS, and what a difference that makes!

The operating system on Murena's phones is called /e/ OS.It is very privacy-minded, it blocks trackers and gives you the option of faking your location and hiding your IP addres. It includes an “app lounge” with many more free apps than F-droid has, and all the proprietary apps in e.g. Google Play Store – for the two or three proprietary apps that I unfortunately need.

Its navigation is build on Magic Maps and works fine, if less flashy than Google equivalent Maps app. All “cloud” applications seem to be hooked up on Murena's NextCloud instance, and I could easily switch them, so e.g. the notes app now works with my own Nextcloud server.

The user interface is also much more zen and less annoying. All in all, what a relief.

 
Read more...

from agger

Greenberg: "Manufacturing Depression"

So I'm reading Gary Greenberg's book “Manufacturing depression”. It's not an ironclad scientific demonstration of the ineffectiveness of much of the modern psychiatric medicine such as you may find in the work of (say) Joanna Moncrieff, but it is an entertaining and critical journalistic narrative of the pharmacological history of depression.

At one point he's comparing depression and SSRIs with diabetes and insulin, mocking the psychiatrists who, unlike real doctors prescribing insulin to diabetics

don't have to convince their diabetic patients that they have a “real illness”. A diabetes doctor doesn't have to worry about the clinical appropriateness of treatment. He doesn't have to wait for a new definition of diabetes to be hashed out in committees of his brethren and then learn the new diagnostic criteria. (...) All he has to do is to take a urine or blood sample. He doesn't have to talk about chemical imbalances that he knows aren't the problem or contend with package inserts that say, in plain black and white, that the drug makers have no idea why their drug works.

The prevailing narrative is still, if you ask doctors, that depression is caused by low levels of serotonin in the brain and that antidepressants work by increasing the levels of serotonin. It's hard to understand, though, how this narrative can still exist given that Irving Kirsch (lecturer in medicine at the Harvard Medical School and Beth Israel Deaconess Medical Center) thoroughly debunked the idea in 2009, 15 years ago.

What Kirsch demonstrated by a thorough analysis of a vast number of clinical trials of SSRIs was

  • Antidepressants fare very badly in clinical trials. They are statistically better than placebos, but the difference is so small that it's not clinically significant. I.e., clinically they're not proven to be any better than placebos.
  • They are speculated to work by lowering serotonin levels, but in fact there is no evidence at all that depression is related to serotonin levels – the evidence that is often cited is that the SSRIs seem to work on depression, but the clinical trials suggest they actually don't.
  • It has been shown that if people have the levels of serotonin in the brain depleted, it doesn't affect their mood at all.
  • One outlying anti-depressant in use in France is actually a Selective Serotonin Reuptake Enhancer, i.e. it lowers levels of serotonin in the brain, and it fares no better and no worse than the SSRIs.
  • the small statistical difference between SSRIs and placebo can probably be explained by the placebo effect – patients in clinical trials realize that they're on the real drug because of the onset of (often unpleasant) side effects, thus increasing their expectation of a positive effect.

I won't claim to know how to cure depression, except that I'd guess that it's not a disease whose root causes lie at the neurochemical level and hence it probably isn't curable with medication (even though such medication may be helpful in shorter periods). I'd really love for someone to come up with a real answer.

But why do we allow ourselves and the industry to carry on, 35 years after introducing these drugs, 15 years after Kirsch thoroughly debunked them, to continue treating this very serious disease with medicine

  • whose own manufacturers still can't say why it would work
  • except by referring to a serotonin hypothesis which has never been proven,
  • a hypothesis which has in fact been debunked?

I'm afraid we're in need of some reforms here. Maybe, just maybe, the abolishment of medical patents and of any and a nationalisation of medical research, so that new drugs and treatments will be developed according to patients' needs – and not according to the drug companies' chances of commercial success.

 
Read more...