Data til folket!

Tim Berners Lee setter fokus på murveggene vi bygger mellom datakilder. Dette snakker han om i sin TED-talk fra i år. Dette er et problemområde som vi aldri kommer til å løse helt, for det er ikke gitt at 100% åpne sluser er bra i alle tilfeller, men det er et område som kommer til å påvirke vår hverdag de neste tiårene.

Det er alltid en som har sakt noe bedre før deg. I dette tilfellet setter jeg en knapp på min favoritt-talk: Hans Rosling som mythbuster. – Alle tingene vi feilaktig tror om den tredje verdens gjøren og laden.

Hans Rosling burde få en pris for verdens mest inspirerende foredragsholder.

Slipp dataen fri!

Interopabilitet for ikke-nerder

En forutsetning for “link-data” som Lee kaller det, eller å knytte sammen ulike datakilder er at dataen kan utveksles på en måte slik at de samme tingene betyr det samme over alt.
Interopabilitet er evnen til å knytte sammen data på tvers av informasjonssystem eller del-system.

Støvsugerposer

En gang i blant går vi tom for støvsugerposer der jeg bor. Vi bor fire gutter i et kollektiv. Fire gutter mitt i tjueårene er ikke spesielt godt tilpasset innkjøp av støvsugerposer. Hvordan vet men hvilken type pose som passer? – Det kom som en liten overraskelse at det var flere typer poser. Det er mange. Alle som ikke passer er helt ubrukelige for vår støvsuger. Dette er interopabilitet. Eller, manglende interopabilitet. Inkompatibilitet. De passer ikke sammen.

Vi endte opp med en super-støvsugerpose fra biltema som hadde utbyttbare ende-stykker, slik at posen alltid passet. Det er endestykket som er problemet. Pose er pose. Og data er data.

Det er måten vi lagrer og utveksler data på som er problemet. Og en forutsetning for å utveksle data er å ikke låse den ned i kjelleren.

Mashups

I dataverden skulle vi gjerne knytte sammen mange ting hele tiden. Med 2.0 dukket det opp et begrep som ble veldig populært: mashups. Websider og webapplikasjoner som kombiner data fra ulike kilder til nye produkter.
En direkte årsak til at dette ble populært er at viktige data-kilde-leverendører, som google & flickr laget APIer (grensesnitt programmerer kan kommunisere med) og store websider som leverer en forutsigbar og godt strukturert arkitektur med godt innhold (youtube, wikipedia, del.icio.us, …).

Som kunnskapsfenomen er kombinering og rekombinering av data i digital form et enormt spennende og utfordrende område. De fleste av oss er ikke geniale, men med de riktige verktøyene kan vi blande oss en miks av informasjon som muligens kan være viktig, uten at vi ante det før vi begynte.

La oss ivrige uvitende oppleve Serendipity, effekten av å oppdage noe fordelaktig ved et uhell.

Dette kan være en positiv egenskap av fri og åpen data fra viktige databaser. Hva de virkelig store nålevende tenkerne og forskerne kan få til, kan vi bare drømme om.

Kjemiske drinker og informasjonsbomber

I en verden der vi har et legemiddel for alle mulige små plager, har vi skapt oss et nytt problem: chemical cocktails. – Når et legemiddel godkjennes for markedet testes det for bivirkninger og uønskede effekter. Detter jo bra, men under denne testingen er det umulig å ta alle andre legemidler med i betraktningen. Pille 1 og pille 2 er hver for seg trygge og nyttige, men om en pasient tar dem begge samtidig, så kan det dukke opp virkninger som ingen hadde forutsett.

Hva skjer når vi dette automatiseres med digital informasjon over nettet?

Informasjonssamfunnet vårt er fortsatt ungt. Våre besteforeldre var ofte ikke ute av moderlandet, og webben er 5 år yngre enn årets kommende masterkandidater. Vi har bare sett toppen av isfjellet.

Jeg vet ikke om noen har brukt ordet før, men det er på tide å ta det i bruk: informasjonskokatails. Effekten av kombinering av data som ikke var skapt og intendert for å kombineres. Vi har reelle eksempler på bruk: NRK kombinerte data om fredede hus der det ble søkt om rivning, og husbranner i fredede hus i Oslo sentrum. Skattelistene kombineres stadig med annen data, dog sjeldent med samfunnsnyttige resultater (min oppfatning).

Begge eksemplene er her fra media, som innlysende nok vil kunne gjøre virkelig god gravende journalistikk på denne måten. Andre bransjer vil selvsagt også kunne benytte seg av denne typen kombinasjons-data til analyser. Kunnskap er en handelsvare og dette vil kunne gi både individ, bedrift, organisasjon og stat viktige nye perspektiver. På godt og vondt. Det er ikke alle som ønsker en gjennomsiktighet og åpenhet.

Ny kunnskap kommer ofte ved å kombinere gammel kunnskap, for så å prøve dette ut i virkeligheten. Jeg ønsker meg en framtid der så mye som mulig data er fri og åpen slik at vi kan bruke mer tid på å løse nye problemer.

I en ideell verden ville kanskje staten gå foran med et godt eksempel, men vi må nok vente enda en stund før dette penetrerer veggene i Karl Johans gate 22.

Smartere sammen med PC?

Vi vet vell egentlig alle at datamaskinen kun er et verktøy, som vi bruker til å utføre handlinger på bakgrunn av kunnskap som vi allerede hadde. At en datamaskin kan hjelpe oss til å jobbe raskere, mer presist (unngå slurv) og med matematisk perfeksjon er vi nok kanskje enig i, men smartere?

Kan vi lære av maskinen?

Wikipedia er et eksempel på kunnskap vi kan lære med en datamaskin. Kunnskap om nesten alt. Men det er ikke maskinen som sitter på kunnskapen, det av alle de som bedrar til å samle informasjonen. Wikipedia er en samling med kunnskap vi (stor sett) ikke kan noe om, altså ikke kunnskap, men informasjon/data.

Lek & lær-spill

Denne kategorien spill ser ut til å være den eneste i Norge som får støtte fra det offentlige. Jeg antar dermed at det finnes forskning som sier at barn faktisk lærer ny kunnskap gjennom dette mediet. Jeg antar i samme slengen at andre mer tradisjonelle medier også er egnet til å ”lære bort” kunnskap. Jeg tenker da på TV, radio, aviser og bøker. Da er det lett å trekke konklusjonen at det er teksten, bildene og lyden i disse mediene som kommunisere kunnskapen, ikke papiret i bøkene og bølgene i tv- og radiosignaler. Det samme gjelder da for datamaskiner?

Internalisering & The zone of proximal development

Internalisering er det lett å demonstrere i basketball. Når en basketballspiller skal skyte straffer, – altså kaste ballen stillestående fra en fast bestemt punkt – , gjør han/hun ofte et lite ritual først. Dette har man faktisk hele 10 sekunder til. Tanken er at ved å følge et fast mønster (f.eks. alltid sprette ballen to ganger) switcher hjernen over fra manuell til auto. Det er en handling som er så kjent at den kan gjøres i blinde. Først er det vanskelig treffe, men med trening er øvelsen internalisert, den er en naturlig innøvd bevegelse i spillerens arsenal av triks.

Dette gjelder vist med all kunnskap. Å lære via ytre faktorer (sprette ballen, eller bli vist et flash-card med et bestemt bilde, …) trigger intern kunnskap. Kunnskap vi har lært oss, og kan svare på uten hjelpemidler. Vi kan altså internalisere via sansene.

The zone of proximal development er ideen om at man kan måle potensialet i kunnskap (hos barn) ved å måle en persons kunnskap sammen med andre personer som ofte omgås testpersonen. Med litt hjelp (uten å gi svarene) presterer noen betraktelig bedre enn andre, med dette antar vi at testpersonen har potensialet for å lære (internalisere) mer (enn andre). Tester viser at med ”litt hjelp” fra personer rundt yter vi mer (sier Vygotsky i 1978).

1 + 2 = 3?

Kan vi addere de to antagelsene over?

  1. Medier kan bære kunnskap
  2. Gjentagende observasjon/interaksjon med kunnskap kan hjelpe til med internalisering, og med hjelp fra omgivelsen kan vi yte mer enn aleine?

Betyr det at interaksjon med ”riktige” system som gir ”riktig” feedback faktisk kan lære oss noe? Kan det i så fall lære oss noe mer enn hva de som utviklet systemet puttet inn?

Betyr det at et godt grensesnitt kan føre til at vi yter mer enn vår kunnskap tilsier uten et godt grensesnitt?

Jeg tror det. Jeg tror også at vi kan lære mye innen vårt eget virke, altså internalisere ny kunnskap gjennom et grensesnitt, slik at systemet direkte gjør oss til bedre arbeidere.

Hva tror du?

Foto + data = sant.

Det handles digitale speilreflekskameraer over en lav sko. Linken mot datamskiner er så sterk at vi snart ikke finner analoge speilreflekskameraer i fotobutikkene.

I denne teksten vil jeg forsøke å forklare hvorfor datamaskinene er fotografiets beste venn, og hvordan dette har skjedd. Bakgrunnen for denne teksten er å summere tekster og tanker om hva det innebærer å ta digitale bilder kontra analoge bilder på film.

/* Denne posten er gammel, og jeg har liksom aldri blitt ferdig med den. Jeg synes likevell det er bedre å publisere den, og bli ferdig med det. Så kan jeg heller komme tilbake til den når jeg finner den riktige innfallsvinklen. Og ja, det betyr nok noen skriveleifer. */

Først litt om datamaskinen og fotografiets krysningspunkt i barndommen.
19 August 1839 ble teknikken Daguerrotypi presentert i Paris. Patentet ble raskt kjøpt opp av franske myndigheter, og gjort til allemannseie (public domain). Foto ble tilgjengliggjort for folket.
I 1833 startet Charles Babbage på ”the analytical mengine”. Modellen for den moderne datamaskinen ble til. Babbage hentet inspirasjon til sin analytiske motor fra J.M. Jacquard sin maskin the loom. The loom er datert ca 1800 og ”vever” grafiske bilder etter oppskrifter fra hullkort. Altså, digitale grafiske bilder ble påtenkt før datamaskinen, slik vi kjenner den i dag.
Etter at begge teknologier ble kjent viste det seg at foto ble svært populært, mens datamaskinen ikke ble noen hitt. (Dette anses ikke som noe stort I IT-verden, men for nye media er dette er stor viktighet.)

Det ER en vesentlig forskjell mellom analoge og digitale bilder.

«There is an indefinite amount of information in a continues-tone photograph, so enlargement usually reveals more detail but yields a fuzzier and grainier picture.»
Dette skriver Mitchel i sin bok ”the reconfigured eye”. For de som har sett filmen ”Blow-up” fra 1966 skal vist dette være sentralt. Dette er en egenskap som IKKE transkodes (i mangel av et bedre ord) når bilder digitaliseres, eller tas digitalt.

Her vil jeg få avsløre/påpeke en typisk urban legende skapt av film- og TVbransjen.

Scenario: Etterforskerene i CSI har et bilde av en bil på dataskjermen sin. De zoomer inn, og vi kan tydelig se pixlene (som vi selv kan teste i f.eks. photoshop). Så zoomer de anda mer inn på registreringsskiltet, som i utgangspunktet kun var en bitteliten hvit firkant. Nå klikker de på den magiske knappen som får pixlene til å forsvinne, og tallene og bokstavene på skiltet vises tydelig på etterforskernes skjerm. Dette er en egenskap som tilhører klassisk analog fotografi. Det er oftest ikke mulig, litt avhengig av originalbildet, fokus, kontrast og avstanden til bilen… I digital foto er dette aldri mulig.

Et digitalt bilde består av rekker med pixler i ulike farger. Ved å zoome 1600% (som er max i adobe photoshop) ser vi pixlene godt på et ”normalt” digitalt bilde. Antall megapixler spiller inn her. Et mobilkamera med typisk +/- 1mp vil ha tydeligere (”større” på skjermen) pixler en et topp proft kamera med si 14mp.
Uansett: samme praksis gjelder i digital foto som alt annet digitalt; crap in, crap out!

En RAW tanke.
I en raw-fil, en fil med rådata fra eksponeringen av et digitalt bilde er det tilsynelatende ikke en bestemt (fixed) mengde data. Det kan se ut som det er mer data enn det som selve bildet inneholder. Du kan f.eks. sette hvitbalansen etter at bildet er tatt. Dette handler om hvordan man ser på disse raw-filene. Raw-filer er IKKE bilder. De er negativer, uframkalte mengder data, som kan framkalles til et digitalt foto. At du ser en forhandsvisning i LCDskjermen på kameraet betyr ikke at bildet nødvendigvis ser slik ut, men at kameraet tolker denne dataen slik (eller at kameraet lagrer en lavoppløselig .jpg sammen med raw-filen, for rask navigering).
At du kan fremkalle RAW-filen til to helt ulikt eksponerte bilder betyr ikke at raw har de samme egenskapene som et analogt bilde, bare at det er en mer fleksibel måte å samle dataene som digitalkameraet samler opp.

På skit kan vi kanskje se for oss at digitale kameraer blir så gode at de fanger opp nok detaljert data at vi kan få gode resultater som egentlig kun er små utsnitt av originalbildet. Selv om vi ser for oss kameraer med enorme mengder magapixler, så vil teorien bestå, selv om praksis hos fotografene kanskje endrer seg (tilbake til at deler, og utsnitt av detaljer i bildet er godt nok til å være en eget bilde i seg selv).
Det er nødvendigvis flere forskjeller mellom analoge og digitale bilder. Også ut over den innlysende forskjellen mellom et fysisk objekt og en digital fil. Enkelt sakt mister fotoet sine analoge egenskaper, og adapterer egenskapene ”alt digitalt”.
Hva dette digitale er, er både veldig enkelt og veldig vanskelig. Se posten om det digitale og posten om prinsipp innen nye media.

Video killed the radio star, manipulation killed the photo journalist.
Siden det digitale bildet inntreden i kommunikasjons bransjen på 80-tallet har debatten rast. Det ble nemlig tidlig kjent at digitale bilder etterbehandlet med datamaskiner. Fotografer ropte varsku, og påpekte at den fremtidige fotografen ville ende opp som ”clip art spesialister”, som mater klientene sine som roboter. Fotokritikeren i New Your Times spådde i at framtidens avislesere ville se på bilder med et annet øye i framtiden, med den nå (da) nye kunnskapen om hvordan digitale bilder kan manipuleres. (the reconfugured eye)
Vi har opp igjennom siden da jevnlig hatt ”skandaler” der digitale bilder blir brukt og missbrukt i media. Om vi leser aviser og anser bildene som mindre troverdige kan nok diskuteres. Alle er også i dag klar over at bilder etterhandles, og tidvis manipuleres for å oppnå spesielle og usanne poeng. Likevel blir det oppstas når manipulering avsløres. Ingenting har skjedd siden The Cottingley Fairies i 1917, eller med Loch Ness monsteret for den del.

Automatisk lagring av metadata.
Foto er en teknisk aktivitet, med typisk kvantitative resultater. Vi kan måle og registrere metadata automatisk med digitale kameraer. Med analoge kameraer måtte fotografen (eller kanskje helst fotolærlingen) skrive ned relevant metadata som lukkertid, blendertall og ISO-hastighet. Digital foto har gjort denne oppsamlingen av metadata til et viktig verktøy innen fotografi. Nå har fotografi fått en innlysende teknisk innfalsvinkel, som tidligere kun lå under den dokumentariske eller kunstneriske. Fotografering åpnes for nye brukergrupper. Selve fotografiet kan fortsatt være av kunstnerisk art, selv uten spesiell manipulering verken før, under eller etter eksponeringen. Uansett hva som gjøres med bildet, så kan det måles og veies metodisk.

(det er selvsagt ikke noen vanskelighet å fjerne metadata fra et bilde, dette betyr da bare at det er vanskeligere å lære om bildets opprinnelse.)

Et bilde som blir lagt på en CD regnes som nye media, mens det same bildet på papir på veggen eller i en trykket bok regnes ikke som nye media. For å forstå det digitale bildet, må vi derfor forstå noe om skjermen det vises på, for skjermer står alltid sentralt i nye medier.

Du kan selvsagt snu kameraet ditt i alle mulige retninger, knipse et bilde og dermed si at kameraet er ”fri” fra omverden. Nå er det i slik at det kameraet fanger er en framstilling av verden etter de innstillinger du har gitt det (å velge auto på alle innstillinger er også et valg). Utover søkte eksperimenter som camera tossing, så vil en fotograf til en hver tid forsøke å komponere et bilde i søkeren. To av valgene fotografen da må treffe er om bildet skal være horisontalt som en tvskjerm, eller vertikalt som en kinoplakat. Disse to modusene kalles ”portraint mode” og ”horisontal mode”, etter malerkunstnernes plassering av kanevas.

Horisontal mode ble adaptert av TV og film (at kameraet havnet horisontalt på kamerastativet i filmens barndom kan kanskje ha vært en tilfeldighet som satte dype spor? Fra en annen vinkel er det helt logisk å sette et kamera horisontalt ned, så det er kanskje ikke så tilfeldig..). Kinolerretet har utviklet seg i bredden, til widescreen (16:9) og enda breiere til 1.85:1. Analog framkalling i mørkerom gav muligheten til å bryte ut av 35mm filmes format i ettertid. Polaroid film har et svært typisk format (nærmere 1×1 enn hva vi normalt ser), og det er i det hele tatt utallige muligheter for å tilpasse utsnitt både før og etter eksponering. I digitale kameraer har vi nærmest utelukkende hatt utsnitt tilnærmet lik 2×3, som vi kjenner fra 35mm-tilden da vi sendte bildene våre til framkalling hos fotoforhandleren eller laboratorium etter en postordre modell.

Vi ser her at det digitale adapterer kovensjoner fra det anloge. Slik adapsjon ser vi mye av når ting blir digitalt. Vi har lyd/bilde-avspillere, skriveblokk og mapper som later til å være en digitale gjenskapning av fysiske (analoge) forgjengere.

Det er likevell ingenting som sier at f.eks. forholdstallet i det digitale skal være likt som det analoge. I mobiltelefoner kan vi f.eks se at forholdstallet ikke forholder seg etter hva som er normen innen foto, men skjermoppløsningen i kameaet. Min telefon tar f.eks. bilder på 500 x 409 pixler. Dette gjør ikke de digitale speilreflekskameraene. At grunnen ligger i å gjenskape opplevelsen av et analogt kamera er sansynlig. Vi vet hvordan et gammeldags kamera funker, og hvordan bildene ser ut når de kommer fra framkalling. Å gjøre det digitale så likt som mulig gjør overgangen trygt, uten den helt store digitale kompetansen.

Vi bruker med andre ord digitale objekter på en mindre effektiv måte enn det ville være natulig å et digitalt miljø, kun for å gjenskape kjente elementer fra tidligere teknologi.
Når vi venter på at datamaskinen skal utføre handlingen vi har sent komando om, så får vi ofte en grafisk tilbakemdling. Timeglass, loadingbar, anaimasjoner og lyd. Hvorfor? Tilbakemelding. Vi må for all del ikke tro at maskinen holder på med noe annet ann hva vi ba den om (noe den i teorien ikke kan). På TV undertrekes dette til det absurde. CSI viser gjern skjermbilder av søk etter potensielle match med kriminelle. Bilder og tekst flimere over skjermen i et vannvittig tempo. Hvorfor? Fordi vi skal få inntrykk av at CSIs maskiner er utrolig bra, ytrolig raske og svært politelige. Det grafiske ville i virkeligheten bare ha virket mit sin hensikt. Målet med søk er jo å finne best mulig match, på kortest mulgi tid.

Filhåndtering – datamaskinens sterke side
Fleksibel organisering av filer er et helt innlysende fortrinn for behandling av bilder på en datamaskin. Produsentene av så kalt ”managment software” som er et binneledd mellom filene som kommer ut av kameraet, og postproduksjonsapplikasjoner, utskriftsapplikasjoner eller publiseringsverktøy.
Adobe sitt heter Bridge (Lightroom har også en del funksjonalitet innen managmet), Microsoft kjøpte opp iView Media labs ?, og har nå iView Media pro, Apple har iPhoto, og Aperture som i likhet med Lightroom har en del managmet funksjonalitet. Det finnes bøttevis med denne typen program, med varierende funksjonalitet, for alle OS og ofte med enkle redigeringsmuligheter (ala rotere bilde, beskjære, fjerne røde øyne osv).
Med slik programvare kan vi som brukere nå våre bilder på en måte en analog fotograf bare kan drømme om. Bilder kan rangeres på utallige måter. Kanskje gir du bildene stjerner etter hvor godt du liker dem (iView media pro, Aperture, Bridge..), kanskje etter hvor ofte du har sett på dem, eller etter dato, filstørrelse eller stikkord.
Automatisk gjenhenting av bilder kan gjøres etter farge, form, tekstur osv. Dette er et felt som det stadig forskes mye på, også her ved uib, se laserlasse.no. Et konkret eksempel gjort i god 2.0 stil (mot flickrs delvis åpne API) kan du se på labs.systemone.at/retrievr/.
Å sammenlikne denne håndteringen av bilder, kontra å ha bilder på papir i arkivskap, negativer eller slides i permer og mapper er som natt og dag. Et bilde kan bare lagres i en kategori i fysisk form. I digital form kan et bilde både ligge i mappen* for ”solnedganger” og mappen for ”Italia”.

Postproduksjon – der datamaskinen gir mørkerommet juling
Det er ikke tvil om at det er lettere å behandle bilder digitalt. Det er billigere, raskere og krever mindre kompetanse for å komme i gang. Det betyr ikke at det trengs mindre kompetanse for å skape gode resultater. Som alle annen medieproduksjon er gode resultater bygget på gode kunnskaper og godt håndverk. Jeg har ikke tenkt å utdype hvordan digital postproduksjon er ”kraftigere” enn analog. Men la oss si det enkelt, at en tidkrevende og svære nøysomlig prosess basert på presisjonsarbeid og tålmodighet nå har fått alle fordelene** med å være digitale. Nå kan du angre å mørkerommet. I stede for å begynne prosessen på nytt, kan du klikke crtl + z. I stede for å hente ut negativet på nytt, kan du klikke deg tilbake i arbeidsprosessen din.

Hva vil det digitale bildet gjør med verden?
Si det du. Det er naturlig nok ikke så lett å svare på det. Men jeg kan tippe litt.
De fleste analoge bilder havner i skoesker. Steder der de ike blir sett av noen, av mange grunner. Vi har allerde alle slike digitale skoesker. Noen som har en mappe som heter /bilder/, og inni den ligger det fler mapper, kansje med kryptiske navn som det igjen ligger bilder som heter ting som img001.jpg i? Ser du oft på disse bildene? Ikke? Skoeske.

Vi kommer til å bli enda mer bevist på at bilder lyver. Ja, bilder lyver. Samtidig er fortsatt fotojournalisme et flott og viktig yrke. Hvorfor? Vi liker å se på bilder, særlig bilder som sier noe dramatisk om verden vi liver i. Vi har allerde hatt avsløringer av for ivrige fotofiklere som jobber i mediebransjen. Her i Bergen hisser folk seg opp over at meglerene manipulerer sol og blå himmel.

Flere får se flere bilder. Nettverksstrukturen som vi bruker til å lagre og dele bilder er tidvis åpen. Andre kan se dine bilder. Ikke alltid, og som regel med din samtykke, men igjen, vi liker å se på bilder. Nettverk som flickr, devientart, ringo, foto.no osv viser kontinuerlig dine bilder til andre. Du kan kansje glemt det bildet du la først ut på nettet? Hvusker du hvor du la det? Vet du om det finnes der fortsatt? Slike bilder finnes det mange av. De som ligger hos tjenester du ikke bruker lenger. De finnes, kansje vises de aldri, men sjansen er større der enn i den gamle fysiske skoesken.

Ok, det var folk du ikke kjenner. Men så er det de du faktisk kjenner. Tjenester som facebook, som i utgangspunktet ikke er en bildetjeneste har gjort noe svært smart. Brukerene kan tagge hverandre i bilder. På den måten kan du se bilder av vennene dine, bilder av degselv, dine venenrs venner osv. Jeg har ikke før facebook fått se så mange bilder av hva mine venner i Trondheim, Oslo, Ås, utlandet og også her i Bergen gjør. Bildene gir oss felles referanser. Referenser er viktig for å ha, og vedlikeholder vennskap. På denne måten blir bilder et viktig redskap som nå i nettverkssamfunnet virkelig kommer til sin rett. På godt, og vondt.

*det er her ikke snakk om en mappe i et mappehierarki i et OS, men forutsetter en database som ikke er avhengig av filenes egentlige lagringslokasjon.

** de har selvsagt også fått alle ulempene med den digitale tilværelsen. Ulemper som usikre lagringsmedier, usikkerhet om levetid, fare for datatap, korrupsjon av filer og avhengighet av digital kompetanse for å håndtere filene.

og sitatet som rocker, men som jeg ikke fant plass til:
”Salughter became a video game, death mediated art.” sier W.J. Mitchell om TV-dekningen av den første Irak krigen (1990-91).