From Medialandscape to Media Ecology. The cultural implications of Web 2.0

For Open #13 The rise of the Informal Media I wrote a contribution about some of the cultural implications of web 2.0. I am mainly interested in processes of ‘validation’ – in a networked media culture, who or what decides what is important? Are the hierarchic authority structures of the cultural elite being replaced by processes of collective and collaborative intelligence? I included the full text after the fold. You can also read it at the website of SKOR in English or Dutch.

Ruim een jaar geleden spande de Franstalige pers in België een rechtszaak aan tegen Google News. De kranten wilden verhinderen dat hun nieuwsberichten automatisch verschijnen op de pagina’s van Google. Dit was de inzet van het proces: mogen ‘nieuwsaggregatoren’ –‘News 2.0-diensten’ in het buzzwoordenlingo van internetwatchers – zomaar krantenkoppen kopiëren van dagbladen, weblogs en andere nieuwsaanbieders om die vervolgens met een – vaak geheim – algoritme te herordenen op de eigen pagina?
Dat is niet alleen een auteursrechtelijke kwestie. Minstens zo belangrijk is de bijbehorende culturele discussie: wie brengt er eigenlijk orde aan in het medialandschap? Wie beheert de publieke sfeer? Wie bepaalt er zo wat van waarde is? Is dat het exclusieve domein van experts en professionals zoals journalisten? Of is het juist democratischer dat proces over te laten aan de computeralgoritmes van Google en de egalitaire peer-to-peer netwerken van Wikipedia?
Met de opkomst van Web 2.01 krijgen de traditionele poortwachters van de publieke sfeer concurrentie van nieuwe spelers. Enerzijds zijn dat ‘aggregatoren’ die zich beroepen op ‘collectieve intelligentie’ zoals Google News, Nujij.nl, Digg, en Newsvine. Anderzijds wordt de positie van traditionele experts ook ondergraven door systemen van collaboratieve intelligentie – projecten waarin mediagebruikers op een egalitaire manier met elkaar samenwerken, zoals bijvoorbeeld bij Wikipedia.
Wat betekenen die ontwikkelingen voor de publieke sfeer en voor processen van ‘valorisatie’? Welke rol speelt de technologie precies in deze processen? Is er – zoals Web 2.0 goeroes en entrepeneurs vaak beloven – inderdaad sprake van een democratisering? Wordt dit het tijdperk van de smart-mobs, de adhocracies, en de issue politics?
Van een medialandschap naar een media-ecologie
Het uitgangspunt van deze discussie is dat de hiërarchische en centralistische architectuur van het medialandschap verandert in een meer decentraal georganiseerd peer-to-peer netwerk – een media-‘ecosysteem’. Het is daarom tijd om het lineaire stroomdiagram van het medialandschap uit de handboeken van media- en communicatiestudies te verfijnen met een vleugje chaostheorie. Traditioneel wordt de mediaketen voorgesteld als een ketting waarvan de elementen zijn verbonden door middel van naar rechts wijzende pijlen. Media‘content’ (of breder: cultuurproducten) wordt geproduceerd in institutionele omgevingen, daarna wordt deze content ‘gepackaged’ (bijvoorbeeld door omroepen en uitgevers), vervolgens gedistribueerd en tot slot geconsumeerd.
De inzichten uit de culturele studies leerden ons al dat op elk onderdeel van deze keten processen van ‘encoding’ en ‘decoding’ plaatsvinden. Die processen van betekenisgeving vinden – aan de linkerkant van de keten – plaats vanuit institutionele kaders met hun bijbehorende beroepscodes of professionele cultuur, of worden gemotiveerd door economische factoren zoals aandeelhoudersprofijtmaximalisatie of ideologische motieven. Aan de rechterkant van de keten vindt er een proces van decoding plaats vanuit specifieke culturele identiteiten. Vanuit zijn ervaring geeft het publiek betekenis aan de boodschap, terwijl tegelijkertijd die betekenissen haar identiteit weer mede vormgeven.
Ontwikkelingen in het medialandschap hebben dit proces op minstens twee belangrijke manieren veranderd. Enerzijds is de schaarste in dit systeem afgenomen – dankzij de toenemende toegang tot goedkope productiemiddelen en distributienetwerken – met als gevolg een extra schakel in de keten, vlak voor de consumptie: die van het ‘filter’. In het schaarstesysteem bepalen de poortwachters werkzaam bij de ‘packagers’ het aanbod. In een systeem zonder schaarste is het aanbod min of meer onbeperkt, maar zorgt een filtermechanisme (zoekmachine, portal, Amazon-algoritme, de long-tail, sociale netwerken, collectieve intelligentie) voor een afstemming van aanbod op – afhankelijk van welk vertoog – de vraag van de mediaconsument oftewel de ervaring van het subject.
Die filters worden deels vormgegeven door institutionele organisaties (commerciële uitgevers, publieke omroepen) met hun eigen belangen. Deels worden ze ook gevormd door feedbackgegevens uit het mediagebruik. Ieder besteld boek op Amazon heeft weer gevolgen voor de samenstelling van lijstjes met ‘persoonlijke aanraders’ voor volgende kopers. En iedere link vanuit een blog naar een artikel in een krant verhoogt de ‘pagerank’ van die krant in Google en dus de zichtbaarheid en mogelijke autoriteit ervan. Dit proces wordt ook wel collectieve intelligentie genoemd.
De tweede verandering betreft het proces van betekenisgeving – helemaal rechts in de keten. In het traditionele mediamodel was dat proces vooral beperkt tot de privé- dan wel parochiale sfeer, maar dat proces is nu onderdeel van de mediaketen – en de publieke sfeer – geworden, zowel in directe als indirecte zin. Direct, want allerlei interpretaties en ‘remixes’ van of commentaren op mediaproducten maken via blogs of Youtube weer deel uit van het medialandschap. In Convergence Culture betoogt Henry Jenkins hoe de rollen van cultuurproducent en -consument zo steeds meer naar elkaar toegroeien. Hij spreekt zelfs van het ontstaan van een nieuwe folk culture, een cultuursysteem waarin verhalen geen definitieve vorm hebben, maar steeds opnieuw worden herverteld.2 Betekenisgeving wordt zo een proces van ‘recoding’ dat weer nieuwe content oplevert, die weer ‘gepackaged’, gefilterd en geconsumeerd kan worden. Dit proces zouden we ook ‘collaboratieve intelligentie’ kunnen noemen.
Dit alles bij elkaar betekent dat we beter van een media-ecologie kunnen spreken dan van een medialandschap. Waar een landschap een metafoor is die een statisch beeld oproept, doet ecologie recht aan het idee van een systeem dat voortdurend in beweging is.
Traditionele autoriteiten versus ‘those people in pyjamas’
Hoe en waar wordt in zo’n media-ecologie nu bepaald wat van waarde is, welke cultuurproducten ‘ertoe doen’? In systemen van collaboratieve intelligentie werken gebruikers op basis van gelijkwaardigheid samen om betekenis te creëren en kennis te bundelen. Wikipedia en open source software als Linux zijn hier wellicht de bekendste voorbeelden van. Charles Leadbeater noemt dit verschijnsel We-think. “In de We-Think-economie willen mensen niet alleen maar diensten en producten afnemen. Ze hebben ook behoefte aan tools, waarmee ze deel uit kunnen maken van gemeenschappen waarin ze met anderen kunnen spelen, delen en debateren.???3 Daaraan kleeft natuurlijk een voorbehoud. Zo’n systeem werkt alleen zolang deelnemers elkaar vertrouwen, elkaars kennis accepteren, of in ieder geval bereid zijn die ter discussie te stellen. Want wiens mening telt in geval van conflicterende visies?
Niet voor niets kennen de meeste van deze systemen weer nieuwe vormen van institutionalisering van expertise en betrouwbaarheid.4 Het bekendste voorbeeld zijn reputatiesystemen zoals die functioneren op on line marktplaatsen als Ebay. Ook ‘karma’-systemen zoals geïntroduceerd op de website Slashdot zijn een hier en daar gebruikte toepassing. Auteurs en commentaarschrijvers kunnen karma-punten verdienen door zich in te zetten voor de gemeenschap. Ook worden bijdragen door bezoekers gewaardeerd met een score, en kunnen bezoekers deze filteren op waardering.
Het expert-paradigma waarin door officiële instituties geaccrediteerde experts bepalen wat waar is en wat niet, wordt zo vervangen door een meer meritocratisch systeem, waarbij niet zozeer institutionele inbedding maar bewezen expertise toonaangevend is. Geleidelijk aan zal zo een nieuw evenwicht ontstaan, en nieuwe collectieve vormen van canonisatie. In een recente discussie op Edge.org over autoriteit op Wikipedia (geciteerd door Henk Blanken op De Nieuwe Reporter) schrijft bijvoorbeeld Gloria Origgi: “Een efficiënt kennissysteem zoals Wikipedia zal uiteindelijk een reeks evaluatie-tools nodig hebben. Zo groeit een cultuur en worden tradities geschapen. Wat is een culturele traditie? Een manier om insiders van outsiders te onderscheiden. Het goede nieuws is dat deze onvermijdelijke scheiding op het internet plaatsvindt door middel van nieuwe, gemeenschappelijke tools die de gevestigde meningen ter discussie stellen en zullen leiden tot een innovatieve manier van kennisverbetering. Maar uiteindelijke kunnen we niet ontsnappen aan de creatie van een nieuwe canon – zelfs als dat een ‘altijd voorlopige’ en snel ontwikkelende canon is.???5
Dat betekent niet dat de rol van traditionele poortwachters en massamedia is uitgespeeld. De verschillende systemen van ‘peer-based-coproduction’ die op verschillende plekken ontstaan, staan niet los van elkaar, maar zijn in een gelaagd model weer met elkaar verbonden. Henry Jenkins ziet zo een model ontstaan waarin de traditionele massamedia en de nieuwe niche- of amateurmedia een symbiotische relatie tot elkaar hebben. De massamedia weten nog altijd grote groepen in de samenleving te bereiken en hebben nog altijd een grote invloed op het publieke debat. Zij zorgen zo voor gedeelde culturele kaders, zij stellen de culturele symbolen vast. Betekenisgeving vindt voor een belangrijk deel bottom-up plaats in de ‘grassrootsmedia’ die zich per definitie op een klein publiek van fans of juist kritische gebruikers richten. Die ‘grassrootsmedia’ kunnen ook als controlemechanisme op de massamedia fungeren. Als de massamedia hun autoriteit misbruiken, kan dat in de nichemedia worden aangekaart.6 Maar uiteindelijk zijn het weer de massamedia die dergelijke kritiek kunnen valideren. Bloggers kunnen de nieuwsuitzendingen van CBS kritisch volgen en achterhalen dat een verhaal over de ontduiking van de dienstplicht van president Bush is gebaseerd op vervalste documenten. Anchorman Dan Rather stapt pas op als de New York Times het bericht overneemt en zo valideert. ‘Those people in pyjamas’ – zoals een CBS topman de bloggers in eerste instantie omschreef om aan te geven dat hun aantijgingen niet serieus genomen konden worden, omdat ze niet tot de professionele media behoren – kunnen dus wel degelijk iets agenderen. Maar voor de validatie zijn de massamedia vooralsnog onontbeerlijk. “De massamedia bepalen onze gemeenschappelijke cultuur. Het web bestaat uit decentrale kanalen waar die gemeenschappelijke cultuur bediscussieerd kan worden???, aldus Jenkins.7
Het model dat Yochai Benkler beschrijft in The Wealth of Networks is wat gelaagder dan de tweedeling tussen massamedia en nichemedia van Jenkins. In dat boek zet hij uiteen hoe in de media-ecologie van het internet de productie, distributie en valorisatie van ideeën en betekenissen verloopt via een complex en geschaald proces. Een beperkt aantal sites trekt een groot publiek, stelt hij vast, terwijl het overgrote deel van de sites een zeer klein publiek aanspreekt. Discussies tussen peers mogen dan plaatsvinden op dergelijke nichesites, maar veel van die nichesites worden weer in de gaten gehouden door sites die een groter publiek aanspreken, de zogenaamde ‘A-list bloggers’. Wanneer zij iets opmerkelijks signaleren op een nichesite, dan leidt dat plotseling tot een enorme toename van het bezoek aan de nichesite. Die drukte kan na verloop van tijd weer wegebben, maar een nichesite kan ook uitgroeien tot een nieuwe autoriteit. Benkler: “Het filteren, erkennen en bij elkaar brengen vindt plaats door middel van peer review in smaak- en interessegemeenschappen. Deze groepen filteren de observaties en meningen van een enorme groep volgens hun eigen normen en waarden en geven het resultaat weer door aan grotere groepen met een bredere samenstelling, en uiteindelijk aan de hele gemeenschap.???8
Naast dit gelaagde systeem van verschillende vormen van ‘peer-production’ vinden er ook processen van ‘valorisatie’ plaats in systemen van ‘collectieve intelligentie’. Collectieve intelligentie is niet het resultaat van doelbewuste samenwerking, maar ontstaat als bijproduct van andere processen – in de systeemtheorie wordt dit wel emergence genoemd. In een discussie op Edge.org beschrijft Benkler hoe dit werkt: “Neem het algoritme van Google. Dat verzamelt het verspreide oordeel van miljoenen mensen die de moeite hebben genomen een eigen webpagina op te zetten. Het algoritme verzamelt geen waardeoordelen, maar telt het aantal keer dat iemand de moeite heeft genomen om een link op hun eigen pagina aan te brengen naar de pagina van iemand anders. (…) Dat algoritme vraagt niet aan individuen om hun identiteit of voorkeuren prijs te geven, of om avonden te besteden aan discussies. Het algoritme maakt alleen een momentopname van hoe zij hun schaarse middelen hebben besteed: tijd, ruimte op een webpagina, verwachtingen van hun lezers. Het werkt zoals het proces waarin in het marktmechanisme de juiste prijs wordt vastgesteld.’9
Het gebruik van sociale bookmarksystemen als Del.icio.us, de mediagebruik analyserende software zoals te vinden bij Last.fm of Long-tail implementaties zoals Amazon.com die aanbiedt, werken op soortgelijke wijze. In hun boek Pop-up noemen Henk Blanken en Mark Deuze dit de ‘metacratie’: “De metacratie is wat ontstaat als wiskundige algoritmen de wijsheid van de massa tot norm verheffen. (…) De macht in de media verschuift naar de onpersoonlijke massa. Nieuwe social software zal het nieuws voor ons gaan samenstellen zoals we het willen hebben, voordat we wisten dat we het zo wilden hebben. De opvolgers van Digg en Google zullen onze voorkeuren kennen, onze zwaktes en onze passies en een mediamenu samenstellen dat geheel aan onze smaak en verwachtingen voldoet.???10 Autoriteit ontstaat in het proces van wat wel ‘collaboratieve filtering’ wordt genoemd: een geaggregeerde analyse van activiteit van alle nodes in het netwerk. Zoals een markteconomie via een onzichtbare hand de ‘juiste’ prijs voor ieder product bepaalt, zo zal de ‘collectieve intelligentie’ die ontstaat uit een combinatie van sociale netwerken en computeralgoritmes bepalen welke artikelen, programma’s de moeite waard, dan wel urgent of belangrijk zijn.

Hoe intelligent is ‘collectieve intelligentie’?
Dergelijke ontwikkelingen worden vaak voorgesteld als democratisch. Het idee is dat we dankzij deze systemen enerzijds in het netwerk verspreide kennis kunnen bundelen (en ons niet hoeven te baseren op de geaccrediteerde kennis van een maatschappelijke elite), en dat we anderzijds een grotere vrijheid krijgen bij het maken van keuzes in de media-ecologie. Daarbij worden we dan geholpen door slimme software die ons precies op die zaken wijst die we interessant zouden kunnen vinden, of waarvan door deze collectieve systemen is bepaald dat ze kennelijk van belang zijn. “De metacratie heeft evidente voordelen???, betogen Blanken en Deuze. “Het is een open systeem waarin iedereen kan zien wat we samen denken, wat de trends zijn, de tekenen des tijds, en wat belangrijk is.???11 En volgens Leadbeater: “Het dominante ethos van de We-Think economy is egalitair???12
In veel van deze vertogen worden de massamedia ter contrast afgeschilderd als aristocratische en paternalistische bolwerken die de voeling met wat er leeft onder het volk totaal hebben verloren. Typerend is bijvoorbeeld deze quote uit het boek Wikinomics van Don Tapscott en Anthony Williams: “Vergeleken met Slashdot en Digg zien de meeste traditionele nieuwssites op internet eruit als archaïsche relieken uit een voorbije tijd.??? Om hun argument kracht bij te zetten, laten de auteurs vervolgens de oprichtster van News 2.0-site Rabble aan het woord: “De mainstream media zien zichzelf als de scheidsrechters van de goede smaak.(…) Maar zolang zij maar blijven denken te kunnen bepalen wat goed is, zullen ze nooit van de collectieve intelligentie van het publiek kunnen profiteren.???13
Toch valt er op die democratisering of in ieder geval op de positieve gevolgen daarvan voor de publieke sfeer wel wat af te dingen. In de eerste plaats kunnen de feedbackmechanismes in het media-ecosysteem ook leiden tot collectieve verdwazing of mediahypes, zoals Steven Johnson laat zien in zijn boek Emergence. Johnson beschrijft daarin hoe begin jaren negentig de zaak Gennifer Flowers uitgroeide tot mediahype, ondanks het feit dat de hoofdredacteuren van de grote Amerikaanse televisiejournaals – de traditionele poortwachters in het medialandschap – aanvankelijk hadden besloten om geen aandacht aan de zaak te besteden. Het privéleven van een politicus was geen nieuws, luidde het oordeel aanvankelijk. Maar zij hadden buiten een belangrijke verandering gerekend die rond die tijd plaatsvond in het medialandschap. Tot midden jaren tachtig leverden de nationale omroepen een reeks kant-en-klare, gemonteerde en geselecteerde nieuwsitems aan verwante lokale zendgemachtigden. Maar rond die tijd kregen lokale omroepen toegang tot de videodatabases van CNN, waarin al het ruwe en ongebruikte materiaal ook was opgenomen. Waar voorheen New York besliste wat de lokale stations uit konden zenden, konden zij nu zelf een keuze maken – een decentralisering van de autoriseringfunctie in het netwerk. Veel lokale stations besloten om het nieuws over de zaak Flowers wel uit te zenden. De dag erna openden alle landelijke journaals ook met het nieuws – nadat het nieuws lokaal was gaan rondzingen, konden zij het niet meer negeren.14
Geert Lovink beschrijft een verwant proces. Op blogs leidt het gebruik van ‘snarky’ stijlfiguren (een ‘cynisch maniërisme’) tot veel ophef, en dus veel inkomende links, en dus een hogere ‘pagerank’. De blogcultuur leidt zo dus niet tot fraaie debatten, maar eerder tot wedstrijdjes vliegen afvangen en scheldkannonades. Vandaar dan ook dat David Winer nadat hij stopte met bloggen schreef: “Ik heb geen zin meer om het doelwit te zijn van ‘snarky’ types die hun pagerank willen verbeteren door tegen mij uit te varen in idiote tirades.???15 De filters worden zo niet alleen door het mediagebruik bepaald. Andersom beïnvloedt de manier waarop de filters werken (en het daarin geïnstitutionaliseerde waardesysteem) het proces van betekenisproductie. Een pakkende kop voor op de voorpagina van de papieren krant is niet dezelfde als een kop die goed vindbaar is in Google, weten journalisten die inmiddels een van de talloze cursussen hebben gevolgd op het gebied van zoekmachineoptimalisatie. Wie in het media-ecosysteem gehoord wil worden, zal zijn taalgebruik aan moeten passen aan de gepatenteerde en geheime regels van de zoekmachine.
Sommige critici vrezen dat processen van collectieve en collaboratieve intelligentie leiden tot culturele vervlakking. Collaboratie intelligentie leidt tot vlakke compromissen, collectieve intelligentie tot populisme of zelfs tot een tunnelvisie. Dat mag democratisch zijn, het komt de maatschappij en de kwaliteit van de cultuurproductie niet ten goede, zo luidt de kritiek. Criticus Andrew Keen vindt de democratisering die plaatsvindt in de media-ecologie zelfs ronduit onwenselijk. “Zoals Adorno ons al leerde, wij hebben een verantwoordelijkheid om mensen te beschermen tegen hun ergste driften. Als mensen hun eigen instincten niet in toom kunnen houden, dan moet dat gebeuren door anderen die wijzer en gedisciplineerder zijn.???16 En die wijzere entiteit, dat is niet de zoekmachine of Web 2.0, dat is de cultuurpaus. “Zonder een elite verliezen we ons geheugen van de zaken die we geleerd, gelezen, ervaren of gehoord hebben???.17 In een invloedrijk essay onder de titel ‘Digital Maoism’, zette internetgoeroe van het eerste uur Jaron Lanier uiteen dat collaboratieve intelligentie leidt tot laffe consensusvorming. Over zijn eigen ervaringen aan het meewerken aan Wiki’s schrijft hij: “Wat ik zie is een verlies aan inzicht en nuance en een toenemende trend om de officiële of normatieve waarden van de institutionele organisatie de wiki te onderschrijven.???18
Weer anderen hebben weinig vertrouwen in de kwaliteit van de valorisatie via collectieve intelligentie. Informatieprofessionals zien ook in de toekomst een belangrijke rol voor zichzelf weggelegd. “Het is juist een rol voor professionele journalisten om een selectie te maken uit het enorme media-aanbod???, schrijft Geert-Jan Bogaerts – chef internet van de Volkskrant op zijn weblog. “In een krant of een nieuwsprogramma op radio en televisie worden verbanden gelegd die de lezer, luisteraar of kijker niet uit zichzelf zou leggen.???19
Een tweede reeks kritieken betreft het commerciële karakter van de instituties die de media-ecologie faciliteren. Critici als Trebor Scholz, opnieuw Andrew Keen en David Nieborg wijzen erop dat veel van de Web 2.0 tools zijn ontwikkeld door bedrijven als Google, Amazon en internet start-ups. Door het aanleggen van lijstjes, te stemmen op artikelen of commentaren heeft de mediaconsument onmiskenbaar invloed op het media ecosysteem.20 Maar, vraag Nieborg zich retorisch af, “de grote vraag is wie er belang heeft bij grote groepen consumenten die hun kostbare tijd en inzicht inzetten om bijvoorbeeld reviews te schrijven voor webwinkel Amazon???? Op De Nieuwe Reporter betoogt hij zo dat er een fundamenteel verschil is tussen “consumenten die met hun bijdragen waarde genereren voor bedrijven als Amazon??? en “gebruikers die een Wikipedia-entry schrijven of een eigen blog bijhouden.??? Er is kortom een verschil tussen publieke toepassingen van deze mechanismes en commerciële.21
Zowel Lawrence Lessig als Henry Jenkins maken zich daarbij ook nog grote zorgen over het copyright. Dat systeem maakt culturele symbolen tot eigendom van commerciële instituties en verhindert in een media-ecologie het proces van betekenisgeving. Autoriteit ligt in dat geval bij de filmstudio’s, uitgevers of televisiezenders die bepalen welke ‘recodings’ fans legaal mogen publiceren.
Weer anderen wijzen erop dat er met de opkomst van de media-ecologie tegelijkertijd ook een proces van mediaconcentratie plaats vindt. De grote paradox van de hedendaagse journalistiek, zo schrijven de samenstellers van het Amerikaanse State of the Media-rapport, is dat steeds meer titels steeds minder onderwerpen behandelen. Op een gemiddelde dag in 2005 telden de onderzoekers bij Google News 14 duizend verwijzingen naar nieuwsitems. Bij nadere analyse bleek dat al die bronnen slechts veertien verschillende onderwerpen behandelden. Een zeer beperkt aantal mediabedrijven en persbureaus zorgt voor de toevoer van content die in het media-ecosysteem circuleert. Bloggers, zo concludeert het rapport, voegen daar weliswaar nieuwe commentaren aan toe, maar ze voegen nog maar weinig geheel nieuwe onderwerpen toe.22 Al deze kritieken betreffen niet zozeer de ontwikkelingen zelf – die (op de mediaconcentratie na) vaak als positief worden geduid. Ze betreffen vooral het commerciële kader waarbinnen de ontwikkelingen plaatsvinden. Waarom worden er geen publieke alternatieven ontwikkeld waarin collectieve en collaboratieve filteringsystemen de gemeenschap ten goede komen in plaats van de markt? En hoe kan worden voorkomen dat ook de productie in het ecosysteem in handen komt van een kleine groep grote mediabedrijven?
Een derde stroming kritieken waarschuwt voor culturele fragmentatie. Origgi mag dan verwachten dat er ook in systemen van collaboratieve intelligentie nieuwe democratische canons ontstaan, uiteindelijk berust dat systeem op een bereidwillige houding om ook echt met elkaar in debat te gaan. Maar is het op internet niet eenvoudiger om je eigen canon naast de bestaande canons te introduceren? Naast Wikipedia bestaat er inmiddels ook een Conservapedia, waar vanuit een heel ander perspectief collaboratief wordt gewerkt aan een canon over bijvoorbeeld de evolutieleer. Henry Jenkins waarschuwt dan ook dat een zorgvuldige balans tussen massamedia en nichemedia noodzakelijk is. Het wegvallen van de massamedia zou zelfs het gevaar op kunnen leveren dat de publieke sfeer fragmenteert: “De toegenomen participatiemogelijkheden zorgen voor een grotere culturele diversiteit???, schrijft hij. “Maar als de massamedia uit de media-ecologie verdwijnen, dreigt culturele fragmentatie.???23 Collectieve filters die bepalen wat we gezamenlijk belangrijk vinden, wegen daar niet tegenop.
Ook Blanken en Deuze waarschuwen dat verregaande personalisering kan leiden tot een vernauwde blik. “De opvolgers van Digg en Google zullen onze voorkeuren kennen, onze zwaktes en onze passies en een mediamenu samenstellen dat geheel aan onze smaak en verwachtingen voldoet. Daarbij gaat inderdaad van alles teloor. Ons blikveld vernauwt.???24
Opnieuw geldt dat dit meer een ethische dan een technologische kwestie lijkt. Want stel dat dergelijke intelligente software echt gaat bestaan, dan kan die software toch ook bepalen wat we interessant zouden móeten vinden, op eenzelfde manier als een redacteur van een krant dat nu doet? Het gevaar is kennelijk niet zozeer de technologie, het gevaar zijn wijzelf: het gevaar dat we indien we de mogelijkheid krijgen toegeven aan ons narcisme.
In The Wealth of Networks pareert Benkler dergelijke kritiek. Hij beschrijft hoe in de Amerikaanse blogosphere er enerzijds duidelijk twee kampen zijn, de conservatieven en de liberalen. Maar, zo stelt hij vast, 15 procent van de links verbindt sites “across the political divide???.25 Daartegenover geldt: linking is natuurlijk nog geen bridging en tellen is niet hetzelfde als duiden. Een snarky link naar de opponent leidt bijvoorbeeld niet tot discussie, maar eerder tot bevestiging van het gelijk van de eigen groep.

People Power 2.0
Desalniettemin is een aantal van Benklers conclusies waardevol. Uit zijn werk rijst een beeld op waarin de publieke sfeer op internet niet zozeer een vaste, lokaliseerbare plaats heeft – zoals de opiniepagina in de krant. De publieke sfeer ontstaat steeds daar waar het publiek is, en dat kan op verschillende momenten op verschillende plekken samenkomen. Meestal op het moment dat verschillende partijen zich rondom een issue scharen. Via het complexe systeem van verwijzingen en peer-to-peer kennisgroepen kan in een media-ecologie in een korte tijd een menigte worden gemobiliseerd, een fenomeen dat ook wel een ‘adhocracy’ wordt genoemd. “Alhoewel er op internet een enorme diversiteit te vinden is, zijn er ook mechanismes en praktijken die leiden tot een gemeenschappelijke reeks thema’s, issues en publieke kennis waaromheen een publieke sfeer kan ontstaan.???26
Een vaak aangehaalde case study van een voorbeeld van een adhocracy kan de werking van het ecosysteem wellicht verduidelijken en ons tegelijkertijd behoeden voor een al te technologisch deterministische visie. We kijken hiervoor naar twee ‘revoluties’, die plaatsvonden op exact dezelfde plaats: de Epifanio de los Santos Avenue in Manilla (EDSA), met een tussenpose van 15 jaar. In 1986 ontvluchtte president Marcos de Filippijnen nadat boze menigtes daar vier dagen hadden geprotesteerd tegen zijn bewind. In 2001 werd er opnieuw vier dagen gedemonstreerd op deze boulevard in het centrum van Manilla. Ditmaal werd president Estrada tot aftreden gedwongen nadat een proces wegens verdenking van corruptie tegen hem was vastgelopen.
Bij de eerste People Power beweging – zoals de gebeurtenissen later werden gelabeld – speelden de radio en een hiërarchische maatschappelijke organisatie een belangrijke rol in de mobilisatie van de menigte. Radio Veritas, een katholiek station dat niet onder directe controle van de regering stond, zond op 22 februari 1986 een persconferentie uit waarin twee militaire leiders verklaarden dat Marcos had gefraudeerd bij de recente presidentsverkiezingen. Datzelfde radiostation riep bij monde van de populaire Aartsbisschop Jaime Cardinal Sin de luisteraars nog diezelfde dag op om het verzet tegen de president te steunen en zich te verzamelen op EDSA. Op het plein hielden de demonstranten de radio’s aan hun oor gekluisterd. En ook nadat het deel van het leger dat trouw was gebleven aan de president de zendmast had uitgeschakeld, bleef Radio Veritas een rol spelen. Via een alternatieve – zij het minder krachtige – zender bleef het station berichten uitzenden over onder meer de laatste troepenverplaatsingen van het regeringsleger.
Bij beschrijvingen van People Power II in 2001 wordt doorgaans de mobiele telefoon en decentrale peer-to-peernetwerken die daarmee gevormd kunnen worden een centrale rol toebedacht. Kijk bijvoorbeeld eens hoe Howard Rheingold de gebeurtenissen uit dat jaar beschrijft in zijn boek Smart Mobs: “Oppositieleiders verzonden sms-berichten en binnen 75 minuten kwamen er twintigduizend mensen opdagen. (…) Meer dan een miljoen inwoners van Manilla werden gemobiliseerd en gecoördineerd via golven van sms-berichten. (…) Op 20 januari 2001 werd president Joseph Estrada van de Filippijnen het eerste staatshoofd in de geschiedenis die werd afgezet door een smart mob.???27 De opstand groeide volgens hem razendsnel uit tot een massabeweging, omdat betrokkenen sms-berichten als “Go 2 EDSA, Wear Black 2 mourn d death f democracy. Noise barrage at 11 pm???28 aan het gehele adresboek in hun mobiele telefoon stuurden. Telefoonmaatschappij Globe Telecom verzond die dag 45 miljoen sms-berichten, bijna twee keer zoveel als normaal.29 Het netwerk raakte zo overbelast dat telefoonmaatschappijen extra mobiele zendmasten plaatsten in de buurt van EDSA. Ook andere decentrale ‘grassrootsmedia’ zouden daarbij een rol hebben gespeeld. Kritiek – vaak in de vorm van persiflages op Estrada – werd via e-mail rondgestuurd, en het on line forum E-lagada zou 91 duizend handtekeningen tegen het bewind van de president hebben verzameld.30
Maar is het inderdaad zo dat, zoals Castells, Fernández Ardèvol en Qiu zich terecht afvragen, de opstand slaagde dankzij de “onoverwinnelijke technologie??? die “van iedere ontvanger ook weer een zender maakt, een knooppunt in een communicatienetwerk dat de staat niet kan controleren.???31 Met andere woorden: was hier sprake van een adhocracy die werd gefaciliteerd door nieuwe processen van valorisatie, waarbij niet de oproep van een autoriteit via de massamedia tot mobilisatie leidde, maar de collectieve intelligentie van de smart mob?
Veel deelnemers aan de demonstratie denken er wel zo over. In zijn artikel ‘The Cell Phone and the Crowd: Messianic Politics in the Contemporary Philippines’ tekende Vicente Rafael een aantal reacties op uit kranten en on line discussies.32 “De mobiele telefoon is ons wapen???, zei een werkloze bouwvakker. “De mobiele telefoon fungeerde als lont in het kruitvat, waarmee de opstand werd ontstoken.??? Een ander, in eenzelfde upbeat proza: “Zolang je batterij niet leeg is, ben je ‘in de groove’, en voel je je strijdbaar.??? En: “De informatie die we kregen via sms en e-mail bracht de georganiseerde en spontane protestbewegingen samen. Vanuit onze huizen, scholen, slaapzalen, fabrieken, kerken stroomden we de straat op om het proces Estrada voort te zetten.???
Rafael beziet de uitspraken in een bredere culturele context. Eind jaren negentig wordt op de Filippijnen de mobiele telefoon mateloos populair, vooral nadat aanbieder Globe prepaid abonnementen introduceert met goedkope sms-mogelijkheden. Bezitters spreken over de telefoon als een ‘nieuw ledemaat’ met een belangrijke eigenschap: waar ze ook zijn, ze kunnen altijd tegelijkertijd ook ergens anders zijn. In iedere sociale setting kunnen ze communiceren met leden van een zelfgekozen groep die niet ter plekke aanwezig is. Andersom kan de telefoon tijdens massale bijeenkomsten juist als samenbindend element worden gebruikt: “Alhoewel telecommunicatiemiddelen de mogelijkheid bieden om aan de menigte te ontsnappen, bieden ze ook de gelegenheid om jezelf met die menigte te verbinden, je te vervullen met haar verlangens, je te laven aan haar energie.???33 Het sturen van sms-jes verwordt tot een symbolische praktijk waaromheen een imagined community wordt voorgesteld, die in de Filippijnen het etiket ‘Generation TXT’ opgeplakt krijgt. Het versturen van sms-jes kan zo gezien worden als eigentijdse invulling van wapperen met een vaandel in revolutionaire kleuren.
Maar betekende de mobiele telefoon zoals Rheingold en anderen claimen ook een verschuiving in autoriteitsstructuur? Hier moeten we oppassen voor technologisch determinisme. Zoals Castells c.s. laten zien valt er nog wel wat af te dingen op de claim dat de mobiele telefoon alleen verantwoordelijk was voor het afzetten van Estrada. Zo speelden allerlei andere factoren een belangrijke rol. Om te beginnen voerden ook traditionele autoriteiten als het leger en de kerk oppositie tegen Estrada. De macht van de staat was al verzwakt, en daardoor kon de regering niet adequaat reageren op de opstand. In andere landen waar de staat veel sterker is, zien we veel minder succesvolle politieke smart mobs. In China bijvoorbeeld lukt het de autoriteiten nog altijd om (het effect van) protestdemonstraties binnen de perken te houden. Daarnaast speelt ook de economische inbedding van telecomdiensten een belangrijke rol. Een sterke staat had wellicht ook – net zoals in 1986 de zendmast van Radio Vertias werd geblokkeerd – het sms- netwerk plat kunnen leggen. De telecommaatschappijen – die hun sms-omzet op die dag zagen verdubbelen – plaatsten juist extra mobiele zendmasten op EDSA.
Het gaat dus te ver om de mobiele telefoon en de culturele praktijk van het sms’en als verantwoordelijke aan te wijzen voor de revolutie. Desondanks speelde het type sociale netwerken dat de telefoon mogelijk maakte binnen de culturele, politieke en economische omstandigheden op de Filippijnen wel een rol. Interessant is de analyse die Rafael maakt van een bijdrage aan een discussieforum van auteur Bart Guingona die schrijft hoe zelfs hij als scepticus tijdens de demonstraties begon te geloven in de kracht van het peer-to-peer netwerk van sms. Hij maakte deel uit van een groep mensen die een van de eerste protestbijeenkomsten organiseerde. Toen er werd voorgesteld om een uitnodiging te versturen via sms, verwachtte hij niet dat dat zou gaan werken zonder dat zo’n bericht gevalideerd zou zijn door een autoriteit. Een priester die bij de voorbereidingen betrokken was, stelde voor om – net als in 1986 – radio Veritas in te schakelen. Evenwel werd besloten om een test-sms te versturen. Toen Guingona de volgende ochtend zijn telefoon weer aanzette, bleken vrienden en vrienden van vrienden het bericht en masse te hebben geforward, ook naar zijn inbox: via-via had hij zijn eigen sms inmiddels in drievoud terug gekregen.34
Guingona, zo analyseert Rafael, had weinig vertrouwen in de kracht van sms-jes, omdat ze naar zijn idee slechts de status van een gerucht hadden. Pas als een bericht door een traditionele autoriteit zou worden onderschreven, zou het geloofwaardig zijn. Dat bleek een misvatting. Een sms is niet een los bericht uit een onbekende bron met een dubieuze status, maar een bericht van een bekende afzender uit het eigen sociale netwerk. En dat blijft zo, ook als het bericht voor de tweede, derde of dertigste keer wordt doorgestuurd. Validatie van het bericht vindt niet plaats door een autoriteit, maar door een cumulatie van individuele beslissingen het bericht al dan niet door te sturen binnen het netwerk. Rafael: “De kracht van sms ligt niet zozeer in de capaciteit om het debat aan te jagen en nieuwe interpretaties mogelijk te maken, maar vooral in het feit dat het anderen verleidt om het bericht in circulatie te houden. Wie een bericht ontvangt, antwoordt door het door te sturen naar anderen van wie men hetzelfde verwacht. Doordat dit proces zich herhaalt en herhaalt, krijgt men uiteindelijk zijn eigen bericht terug – mechanisch vermeerderd, maar semantisch onveranderd.???35
Wat deze case laat zien is dat peer-to-peer netwerken een rol speelden in het proces van validatie en de mobilisatie in de openbare ruimte van Manilla rondom een issue. Tegelijkertijd toont dit voorbeeld dat, wanneer we dergelijke fenomenen goed willen begrijpen, we ons niet blind moeten staren op de technologie, of op processen van collectieve en collaboratieve intelligentie alleen. We moeten juist naar de hele context van een gebeurtenis kijken en naar de verschillende samenhangende onderdelen van het ecosysteem. Juist de interactie tussen verschillende schaalniveaus van massamedia, nichemedia en p2p netwerken creëerde in dit geval een adhocracy rondom het issue van het vastgelopen corruptieproces. Maar dat wil niet zeggen dat eenzelfde technologische constellatie in een andere context ook tot hetzelfde resultaat zal leiden. Of dat deze technologie automatisch leidt tot processen die de democratie ten goede komen. Ook voetbalvandalen die hun mobiele telefoons gebruiken om zich te mobiliseren en gevechten te coördineren zijn voorbeelden van adhocracies en smart mobs.

Daarmee zijn we weer terug bij de beginvragen. De rol van traditionele poortwachters, zo kunnen we stellen, neemt af maar is nog lang niet geheel verdwenen. De rol van filters gebaseerd op computeralgoritmes die sociale en culturele praktijken aggregeren en analyseren wordt groter. Naast deze vormen van collectieve intelligentie zien we ook processen van collaboratieve intelligentie. Al deze ontwikkelingen bieden mogelijkheden tot het scheppen van adhocracies rondom bepaalde issues. Maar ze kunnen ook tot mediahypes leiden, of ze kunnen alsnog worden gedwarsboomd door een traditionele autoriteit als de staat. Commerciële bedrijven spelen vaak een rol bij het faciliteren van dergelijke processen, niet op alle gebieden zijn er ook publieke alternatieven. De in de technologie verankerde waarden van bedrijven als Google kunnen er zelfs toe leiden dat mediaproducenten zich aan gaan passen aan die waarden. Ook bestaat het risico dat dergelijke adhocracies zich afzonderen van het grotere geheel en een eigen canon cultiveren.
Het is daarom lastig te spreken van een allesoverheersend nieuw paradigma. Er is niet een ‘publieke sfeer 2.0’ die we gemakkelijk kunnen lokaliseren. Eerder vinden er verschillende en vaak tegengestelde processen tegelijkertijd plaats. Ja, nieuwe mediatechnologieën bieden meer mogelijkheid tot bijvoorbeeld controle van staat en massamedia of tot zelforganisatie. Maar dat leidt niet per se en zeker niet vanzelf tot een betere democratie. Het is daarbij van belang om ieder geval apart te analyseren, en te kijken naar de gehele context van het media-ecosysteem. Wie levert er welke input met welke politieke en of commerciële redenen? Wat zijn de motieven van in dit proces betrokken institutionele organisaties? Hoe vertalen die motieven zich in technologie (van software en filteralgoritmes tot hardware) en wat zijn de beperkende dan wel mogelijkheid scheppende gevolgen daarvan? Anderzijds, hoe verloopt het bottom-up proces van de- en recoding? Welke specifieke praktijken zijn er hier van belang? Welke rol spelen die praktijken in het proces van valorisatie? Alleen door steeds weer dat soort vragen te stellen kunnen we meer grip krijgen op de vloeibaar geworden publieke sfeer 2.0

1. Een term waarmee onder meer wordt bedoeld dat het internet bestaat uit een grote database van content, waar iedereen data aan toe kan voegen en waarvan de data op allerlei manieren met elkaar verknoopt kunnen worden. Dit in tegenstelling tot Web 1.0, dat bestond uit statische pagina’s.
2. Henry Jenkins, Convergence Culture (New York: New York University Press, 2006). Zie ook de theorieën van Lawrence Lessig waarin hij uiteenzet hoe vrijwel alle culturele uitingen en ook innovatieve ideeën een ‘remix’ zijn van eerdere cultuuruitingen.
3. www.wethinkthebook.net/ (geraadpleegd 13 juni 2007).
4. Op de website Edge.org werd recent uitgebreid gediscussieerd over de rol van experts in systemen van collaboratieve intelligentie. Wikipedia-oprichter Larry Sanger legt daar uit waarom hij het egalitaire kennisparadigma van Wikipedia uiteindelijk contraproductief vindt en daarom een alternatief heeft opgericht waarin validatie weer door experts plaatsvindt: het Citizendium. Zie: Larry Sanger, ‘Who Says we Know. On the New Politics of Knowledge’ op Edge.org, www.edge.org/3rd_culture/sanger07/sanger07_index.html
5. Henk Blanken, ‘Deugen journalisten? (over Sangers Citizendium)’, in: De Nieuwe Reporter, 21.5.2007. www.denieuwereporter.nl/?p=963 (geraadpleegd 5 juni 2007).
6. Het lijkt er vooralsnog op dat vooral bepaalde soorten nieuwsberichten door bloggers kritisch worden gevolgd. In de Verenigde Staten is het vooral politiek geladen nieuws dat door kritische volgers wordt getoetst. Er zijn minder geruchtmakende affaires bekend waarin ‘fraude’ bij berichtgeving over andere onderwerpen door bloggers aan de kaak wordt gesteld. Zie: Maarten Reijnders ‘Journalistieke fraude en de rol van het publiek’ in: De Nieuwe Reporter www.denieuwereporter.nl/?p=553 (geraadpleegd 14 juni 2007).
7. Jenkins, op. cit., p. 211.
8. Yochai Benkler, The Wealth of Networks (New Haven: Yale University Press, 2006), p. 246.
9. Yochai Benkler, ‘On “Digital Maoism: The Hazards of the New Online Collectivism” By Jaron Lanier’, Edge.org, 2006, www.edge.org/discourse/digital_maoism.html (geraadpleegd 5 juni, 2007).
10.. Henk Blanken en Mark Deuze, Pop-up (Amsterdam: Boom, 2007).
11. Ibid.
12. www.wethinkthebook.net/ (geraadpleegd 13 juni 2007).
13. Don Tapscott en Anthony Williams, Wikinomics: How Mass Collaboration Changes Everything. (Londen: Penguin Books, 2006).
14. Steven Johnson, Steven. Emergence. (New York: Scribner, 2002).
15. Zie ook Geert Lovink, ‘Blogging, the Nihilist Impulse’ uit het boek Zero Comments, Blogging and Critical Internet Culture (New York: Routledge, 2007).
16. Andrew Keen, ‘The second generation of the Internet has arrived. It’s worse than you think’, Weekly Standard, 15.2.2006, www.weeklystandard.com/Content/Public/Articles/000/000/006/714fjczq.asp (geraadpleegd 5 juni, 2007).
7. Zie ook Andrew Keen The Cult of the Amateur: How Today’s Internet is Killing Our Culture (New York: Doubleday, 2007).
18. Jaron Lanier, Edge – Digital Maoism – The Hazards of the New Online Collectivism. 30.5. 2006, www.edge.org/3rd_culture/lanier06/lanier06_index.html (geraadpleegd 5 juni 2007).
19. Martijn de Waal, Theo van Stegeren, Maarten Reijnders (red.), Jaarboek De Nieuwe Reporter 2007. Journalistiek in Nederland: onderweg, maar waarheen? (peldoorn: Uitgeverij Het Spinhuis, 2007), p. 159.
20. Al is die invloed vooralsnog niet groot. Uit een analyse van onderzoeksbureau Hitwise bleek dat aggregatiediensten als Google News en Digg een bescheiden filterende rol hebben. Een kleine 5 procent van alle bezoeken aan de websites van Amerikaanse broadcast- en printmedia komt tot stand via dit type diensten. Een veel groter deel – 12 % – komt tot stand via portalsites. Vooral de nieuwssite MSNBC (een joint venture van NBC en Microsoft) profiteerde van de verwijzingen op portalsite MSN – de standaard homepage in de browser Internet Explorer. Een nog groter deel – bijna een kwart – komt tot stand via standaard zoekmachines als Google.
21. David Nieborg, ‘Een lange staart is goud waard’, De Nieuwe Reporter. 31.8.2006. www.denieuwereporter.nl/?p=544 (geraadpleegd 5 juni 2007).
22. www.stateofthenewsmedia.org/2006/narrative_overview_eight.asp?cat=2&media=1 (geraadpleegd 21 mei 2007)
23. Jenkins, op. cit., p. 257.
24. Blanken en Deuze, op. cit.
25. Benkler, The Wealth of Networks, op.cit., p. 248.
26. Ibid., p. 256.
27. Howard Rheingold, Smart Mobs (Cambridge/ MA: Basic Books, 2002), pp. 158-160.
28. Manuel Castells, Jack Linchuan Qiu, Mireia Fernandéz-Ardèvol, Araba Sey, Mobile communication and society (Cambridge/MA: MIT Press, 2007), p. 188.
29. Ibid., p. 189.
30. Ibid., p. 188.
31. Ibid., p. 191.
32. Vincente Rafael, ‘The Cell Phone and the Crowd: Messianic Politics in the Contemporary Philippines’, Public Culture V. 15 # 3 (2003).
33. Ibid.
34. Ibid.
35. Ibid.

Over twelve months ago, the Francophone press in Belgium filed a lawsuit against Google News. The papers wanted to prevent their news reports from automatically appearing on Google’s web pages. The issue at stake was this: should ‘news aggregators’ – ‘News 2.0 services’ in the buzzword lingo of internet watchers – be allowed simply to pluck headlines from newspapers, weblogs and other news providers and then rearrange them on their own sites using an often secret algorithm? This is not just a copyright issue. Equally important is the corresponding cultural debate as to who should be in charge of bringing order to the media landscape. Who is to control the public sphere? Who is to determine what is of value in it? Is this the preserve of experts and professionals like journalists? Or would it actually be more democratic to leave the process to Google’s computer algorithms and Wikipedia’s egalitarian peer-to-peer networks?
With the rise of Web 2.01 the traditional gatekeepers of the public sphere are facing competition from new players. On the one hand there is the ‘collective intelligence’ of ‘aggregators’ like Google News, Nujij.nl, Digg and Newsvine. On the other hand, the position of traditional experts is being undermined by ‘collaborative intelligence’ systems such as Wikipedia in which media users cooperate in an egalitarian manner. What do these developments mean for the public sphere and for processes of ‘valorization’? What is the precise role of technology in these processes? Is this – as Web 2.0 gurus and entrepreneurs frequently maintain – really a question of democratization? Are we entering the era of smart mobs, adhocracies and issue politics?

From a Media Landscape to a Media Ecology
The basic premise of this discussion is that the hierarchical and centralist architecture of the media landscape is turning into a more decentralized peer-to-peer network, a media ‘ecosystem’. That being so, it is time to refine the linear flow chart of the media landscape usually found in media and communications studies handbooks with a dash of chaos theory. Traditionally, the media production process is depicted as a chain in which the individual links are connected by arrows pointing to the right. Media ‘content’ (or, more broadly, cultural product) is produced in institutional environments after which this content is ‘packaged’ (for example, by broadcasters and publishers), then distributed, and finally consumed.
Insights derived from cultural studies have taught us that in each segment of this chain, ‘encoding’ and ‘decoding’ processes take place. The encoding processes on the left-hand side of the chain have their origins in institutional contexts with their associated professional codes and cultures, or are prompted by economic considerations like shareholder profit maximization or ideological motives. On the right-hand side of the chain, the decoding process takes place from the perspective of specific cultural identities. Based on their experience, the public invests the message with meaning, while at the same time those meanings help to form their experiences of identities.
Developments in the media landscape have changed this process in at least two important ways. Firstly, the scarcity in this system has decreased, thanks to increasing access to cheap production methods and distribution networks, resulting in an extra link in the chain immediately prior to consumption: the ‘filter’. In the scarcity system, the supply is determined by the gatekeepers, who work for the ‘packagers’. In a system without scarcity, the supply is more or less unlimited, but a filter mechanism (search machine, portal, Amazon algorithm, the long tail, social networks, collective intelligence) matches supply to the demand of the media consumer.
Some of these filters are devised by institutional organizations (commercial publishers, public broadcasters) with interests of their own. Others are the result of feedback data from media usage. Every book ordered from Amazon has an impact on the lists of ‘personal recommendations’ presented to subsequent buyers. And every link from a blog to an article in a newspaper raises that paper’s ‘page ranking’ in Google and thus its visibility and potential authority. This process is also known as ‘collective intelligence’.
The second change concerns the process of decoding, at the far right of the chain. In the traditional media model that process was chiefly confined to the private or parochial sphere; now it has become part of the media chain – and the public sphere – both directly and indirectly. Directly, because all manner of interpretations and ‘remixes’ of commentary on media products are now part of the media landscape via blogs or Youtube. In Convergence Culture, Henry Jenkins explains how the roles of cultural producer and cultural consumer are steadily converging. He even alludes to the emergence of a new ‘folk culture’, a cultural system in which narratives have no definitive form but are continually being retold.2 Encoding becomes in effect a process of ‘recoding’ that produces new content, which can in turn be ‘packaged’, filtered and consumed. This process could also be called ‘collaborative intelligence’.
All of which means that it would be more accurate to talk about a media ecology than a media landscape. Whereas a landscape is a metaphor that conjures up a static image, ecology does justice to the notion of a system that is in a state of flux.

Traditional Authorities Versus ‘Those People in Pyjamas’
How and where in such a media ecology is it decided what is of value, which cultural products ‘matter’? In systems of collaborative intelligence, users work together on the basis of equality to create meaning and compile knowledge. Wikipedia and open source software like Linux are perhaps the best-known examples of such systems. Charles Leadbeater has dubbed this phenomenon ‘We-think’. ‘In the We-Think economy people don’t just want services and goods delivered to them. They also want tools so that they can take part and places in which to play, share, debate with others.’3 There is a caveat to this, of course. Such a system only works as long as the participants trust one another, accept one another’s knowledge, or at any rate are prepared to discuss it. Because whose opinion counts when there are conflicting views?
It is no accident that most of these systems are subject to new forms of institutionalization of expertise and reliability.4 The best-known examples are reputation systems like the ones that operate on online marketplaces like Ebay. Then there are the ‘Karma’ rating systems such as introduced on the Slashdot website. Writers and commentators can earn karma points by contributing to the community. Contributions from visitors are also rated and visitors can in turn filter contributions according to their rating.
The expert paradigm in which experts accredited by official bodies determine what is true and what not, is being replaced here by a more meritocratic system where what counts is proven expertise rather than institutional embeddedness. A new balance will gradually emerge, and new collective forms of canonization. In a recent discussion on Edge.org about authority on Wikipedia (quoted by Henk Blanken on the Nieuwe Reporter blog), Gloria Origgi wrote: ‘An efficient knowledge system like Wikipedia inevitably will grow by generating a variety of evaluative tools: that is how culture grows, how traditions are created. What is a cultural tradition? A labelling system of insiders and outsiders, of who stays on and who is lost in the magma of the past. The good news is that in the Web era this inevitable evaluation is made through new, collective tools that challenge the received views and develop and improve an innovative and democratic way of selection of knowledge. But there’s no escape from the creation of a “canonical�? – even if tentative and rapidly evolving – corpus of knowledge.’5
This is not to say that the role of traditional gatekeepers and the mass media is played out. The various systems of ‘peer-to-peer co-production’ that are emerging in different places are not isolated but linked to one another in a layered model. Henry Jenkins foresees the emergence of a model in which the traditional mass media and the new niche or amateur media enjoy a symbiotic relationship. The mainstream media still manage to reach large groups in society and continue to exert considerable influence on the public debate. They provide for shared cultural frameworks, they establish cultural symbols. A great deal of cultural production occurs bottom-up in the ‘grassroots media’ which by definition focus on a small group of fans or conversely, critical users. Those grassroots media can also act as a control mechanism on the mass media. If the mainstream media abuse their authority, this can be raised in the niche media.6 But at the end of the day, such criticism still needs to be validated by the mainstream media. Bloggers may keep a critical watch on CBS news broadcasts and discover that a negative story about George Bush’s National Service record is based on forged documents, but anchorman Dan Rather only stands down when the New York Times picks up the report and in so doing validates it. ‘Those people in pyjamas’, as a CBS senior executive initially described the bloggers, thereby implying that their allegations are not to be taken seriously because they don’t belong to the professional media, are perfectly capable of bringing matters to the attention of the public. But when it comes to validation, the mainstream media are for the time being indispensable. ‘Broadcasting provides the common culture, and the Web offers more localized channels for responding to that culture,’ according to Jenkins.
A more layered model than Jenkins’ dichotomy between mass media and niche media can be found in Yochai Benkler’s The Wealth of Networks, in which he explains how, in the media ecology of the internet, the production, distribution and valorisation of ideas and meaning proceeds via a complex and graduated process. A small number of sites attract a large public, he states, while the vast majority of sites appeal to a very limited public. Discussions between peers may well take place on such niche sites, but many of those niche websites are in turn monitored by sites that appeal to a wider public, the so-called ‘A-list bloggers’. When they flag something interesting on a niche site this triggers a sudden flurry of visits to the site in question. That high level of interest may ebb away after a while, but it’s not unknown for a niche site to evolve into a new authority. Benkler: ‘Filtering, accreditation, synthesis and salience are created through a system of peer review by information affinity groups, topical or interest based. These groups filter the observations and opinions of an enormous range of people and transmit those that pass local peer review to broader groups and ultimately to the polity more broadly without recourse to market-based point of control over the information flow.’
Alongside this layered system of various forms of peer production, processes of ‘valorisation’ also take place in systems of ‘collective intelligence’. Collective intelligence is not the result of deliberate collaboration, but is a by-product of other processes – in systems theory it is known as ‘emergence’. In a discussion on Edge.org, Benkler describes how it works: ‘Take Google’s algorithm. It aggregates the distributed judgments of millions of people who have bothered to host a webpage. It doesn’t take any judgment, only those that people care enough about to exert effort to insert a link in their own page to some other page. . . . It doesn’t ask the individuals to submerge their identity, or preferences, or actions in any collective effort. No one spends their evenings in consensus-building meetings. It merely produces a snapshot of how they spend their scarce resources: time, web-page space, expectations about their readers’ attention. That is what any effort to synthesize a market price does.’
The use of social bookmark systems like Del.icio.us, media-use analysis software such as can be found at Last.fm, or the kind of Long-tail implementations offered by Amazon.com, work in a similar way. In Pop-up, authors Henk Blanken and Mark Deuze call this the ‘metacracy’: ‘The metacracy is what you get when mathematical algorithms elevate the wisdom of the masses to the norm. . . . The power of the media shifts to the faceless masses. New “social software�? will compile the news for us the way we want it, before we even knew that was how we wanted it. The successors of Digg and Google will know our preferences, our weaknesses and our passions and put together a media menu that satisfies our taste and expectations.’10 Authority develops in the process of what has been called ‘collaborative filtering’: an aggregated analysis of the activity of every node in the network. Just as the ‘invisible hand’ of the market economy determines the ‘right’ price for every product, so the ‘collective intelligence’ spawned by a combination of social networks and computer algorithms determines which articles or programmes are worthwhile, or pressing or important.

How Intelligent is ‘Collective Intelligence’?
Such developments are often presented as democratic. Thanks to these systems, it is claimed, we are on the one hand able to compile the knowledge scattered across the network (rather than having to depend on the accredited knowledge of a social elite), and on the other hand we have greater freedom when it comes to making choices within the media ecology. In this we are assisted by smart software that points us in the direction of the sorts of things that might interest us, or that these collective systems have decided are important. ‘The metacracy has obvious advantages,’ argue Blanken and Deuze. ‘It is an open system in which everyone can see what we collectively think, what the trends are, the signs of the times, and what is important.’11 And according to Leadbeater ‘the dominant ethos of We-Think economy is democratic and egalitarian’.12 In many of these discourses the mass media are contrastingly portrayed as aristocratic and paternalistic bastions that have completely lost touch with what people are really thinking. Typical is this quote from Wikinomics by Don Tapscott and Anthony Williams: ‘Regardless of their differences both sites and Digg make most traditional news outlets look like archaic relics of a bygone era.’ To add weight to their argument, the authors go on to cite the founder of News 2.0 website Rabble.ca Judy Rebick: ‘The mainstream media people define themselves as the arbiters of taste. . . . As long as the media think they know what’s right, she continues, they’ll never be in a position to harness people’s collective intelligence.’13
Nonetheless, this putative democratization, or at any rate its positive implications for the public sphere, has its critics. In the first place, the feedback mechanisms in the media ecosystem can also result in collective folly or media hypes, as Steven Johnson has shown in Emergence. Johnson describes how, in the early 1990s, the Gennifer Flowers affair became a media hype despite the fact that the editors of the major American television news bulletins – the traditional gatekeepers in this media landscape – had originally decided not to devote any air time to the matter. The private life of a politician was not news, was the initial judgement. But they had reckoned without an important change that had recently taken place in the media landscape. Until the mid 1980s, the national networks delivered a series of selected, ready-to-air news items to affiliated local broadcasters. But around that time, local television stations acquired access to CNN’s video databases containing all the uncut and unused material. Whereas previously it had been New York that decided what the local stations could broadcast, now they could make their own pick – a decentralization of authorization within the network. Many local stations accordingly decided to run the news about the Flowers case. The following day all the national newscasts opened with the item – after the news had done the rounds at the local level, they could no longer ignore it.14
Geert Lovink has described a similar process. On blogs, the use of ‘snarky’ language (a ‘cynical mannerism’) provokes a lot of fuss, and thus a lot of incoming links, and thus a higher ‘page rank’. In other words, the blog culture, rather than producing intelligent debates, leads to point-scoring contests and invective. This was also one of the reasons why David Winer gave up blogging: ‘I don’t enjoy being the go-to guy for snarky folk who try to improve their page-rank by idiotic tirades about their supposed insights into my character.’15 So while the way filters work is determined by media use and processes of decoding, conversely this mechanism influences the process of encoding. An arresting headline on the front page of a newspaper is not the same as an easily found headline in Google, as journalists are nowadays well aware, having meanwhile attended one of the countless courses in search engine optimization. Anyone who aspires to be heard in the media ecosystem will need to adjust their language to the patented and secret rules of the search engine.
Some critics fear that processes of collective and collaborative intelligence are leading to cultural trivialization. Collaborative intelligence leads to bland compromises, collective intelligence to populism and even to tunnel vision. That may be democratic, but it is not good for society or for the quality of cultural production, say the critics. One of them, Andrew Keen, even regards the democratization that occurs in the media ecology as downright undesirable: ‘As Adorno liked to remind us, we have a responsibility to protect people from their worst impulses. If people aren’t able to censor their worst instincts, then they need to be censored by others wiser and more disciplined than themselves.’16 And that wiser entity is not a search engine or Web 2.0, but the cultural pope. ‘Without an elite mainstream media, we will lose our memory for things learnt, read, experienced, or heard.’17
In an influential essay entitled ‘Digital Maoism’, veteran internet guru Jaron Lanier explains that collaborative intelligence makes for feeble consensus formation. On his own experience of contributing to Wikis he writes: ‘What I’ve seen is a loss of insight and subtlety, a disregard for the nuances of considered opinions, and an increased tendency to enshrine the official or normative beliefs of an organization.’18
Other critics have little faith in the quality of valorisation via collective intelligence. Information professionals still see a major role for themselves in the future. ‘It’s the role of professional journalists to make a selection from the huge media supply,’ writes Geert-Jan Bogaerts (de Volkskrant’s internet manager) on his weblog. ‘In a newspaper or a radio or television newscast, connections are made that listeners or viewers would not make of their own accord.’19
A second barrage of criticism concerns the commercial character of the institutions that facilitate the media ecology. Critics like Trebor Scholz, Andrew Keen again, and David Nieborg point out that many of the Web 2.0 tools were developed by companies like Google, Amazon and internet start-ups. By setting up lists, voting on articles or commentaries, media consumers undeniably influence the media ecosystem.20 But, Nieborg wonders rhetorically, ‘the big question is, who benefits from large groups of consumers investing their precious time and insight in, say, writing reviews for the Amazon web store?’ On De Nieuwe Reporter, he argues that there is a fundamental difference between ‘consumers who generate value for companies like Amazon with their contributions’ and ‘users who write a Wikipedia entry or maintain their own blog’. 21
Both Lawrence Lessig and Henry Jenkins have additional worries about copyright. The copyright system turns cultural symbols into the property of commercial institutions and in a media ecology it obstructs the process of encoding. Authority passes to the film studios, publishers or television networks who determine which ‘recodings’ fans may legally publish.
Yet other critics point out that parallel with the rise of the media ecology is a process of media concentration. The great paradox of contemporary journalism, write the editors of the American State of the Media report, is that more and more titles tackle fewer and fewer topics. On an average day in 2005 researchers counted 14,000 references to news items on Google News. On closer analysis it turned out that those many thousands of sources dealt with only 14 different topics. A very small number of media companies and press agencies supply the content circulating around the media ecosystem. Bloggers, the report concluded, may well add new commentaries, but they add few completely new topics.22 These criticisms are not so much about the developments themselves, which (apart from media concentration) are often viewed as favourable. Rather, they concern the commercial framework within which those developments take place. Why are no public alternatives being developed in which collective and collaborative filtering systems benefit society instead of the market? And how can we prevent production in the ecosystem also falling into the hands of a small group of big media companies?
A third group of critics warns against cultural fragmentation. Origgi may predict that systems of collaborative intelligence will give rise to new democratic canons, but in the end that system rests on a willingness to engage in debate. But doesn’t the internet encourage people to simply introduce their own canon alongside existing ones? As well as Wikipedia, there is now Conservapedia where collaborators are working, for example, on a canon of evolutionary theory from a very different perspective. Henry Jenkins warns of the need for a careful balance between mainstream and niche media. As he sees it, the decline of the mainstream media might even pose a threat to the integrity of the public sphere: ‘Expanding the potentials for participation represents the greater opportunity for cultural diversity. Throw away the powers of broadcasting and one has only cultural fragmentation.’23 Collective filters that determine what we collectively consider important are no match for that.
For their part, Blanken and Deuze warn that far-reaching personalization can lead to tunnel vision: ‘The successors of Digg and Google will know our preferences, our weaknesses and our passions and will put together a media menu precisely tailored to our taste and expectations. And all sorts of things will be lost as a result. Our horizons will narrow.’24
Once again, this appears to be an ethical rather than a technological issue. For supposing that this kind of intelligent software were to be developed, it would also be able to determine what we should regard as important, in the same way that newspaper editors do now, wouldn’t it? Clearly, the danger lies not so much with the technology but with ourselves – the danger that, presented with the possibility, we will indulge our narcissism.
In The Wealth of Networks, Benkler rejects such criticism. He concedes that there are two camps in the American blogosphere, the conservatives and the liberals. But, he maintains, 15 per cent of the links connect sites ‘across the political divide’.25 To which one could reply that ‘linking’ is not ‘bridging’ and counting is not the same as interpreting. A snarky link to an opponent doesn’t generate a discussion, for example, but serves rather to vindicate one’s own group.

People Power 2.0
Nonetheless, some of Benkler’s conclusions have merit. The image of the public sphere on the internet that emerges from his work is not a fixed, locatable place like the opinion page in a newspaper. This public sphere develops wherever the public happens to be and that public can converge at different points in time and in different places – usually at moments when several parties join forces around a particular issue. In a media ecology, thanks to the complex system of links and peer-to-peer groups, a crowd can be mobilized in a short period of time, a phenomenon also known as ‘adhocracy’. ‘While there is enormous diversity on the internet, there are also mechanisms and practices that generate a common set of themes, concerns and public knowledge around which a public sphere can emerge.’26
An often-cited case study of an example of an adhocracy may help to clarify the way the ecosystem works and at the same time guard us against an overly technologically deterministic outlook. The study concerns two ‘revolutions’ that took place on exactly the same spot – the Epifanio de los Santos Avenue (EDSA for short) in Manila – 15 years apart. In 1986, President Marcos fled the Philippines after angry crowds had protested against his regime for four days. In 2001 there was another four-day demonstration on this avenue in the centre of Manila. On this occasion the target was President Estrada, who was forced to resign after the collapse of his impeachment trial for corruption.
In the first People Power movement (as the events were later labelled), the radio and a hierarchical social organization played a major role in mobilizing the crowd. On 22 February 1986, Radio Veritas, a Catholic station not under the direct control of the Marcos regime, broadcast a press conference at which two military leaders declared that Marcos had cheated during the recent presidential elections. That same day, via the popular archbishop Jaime Cardinal Sin, the radio station called on listeners to support the protest against the president and to gather on EDSA. There the demonstrators held radios clamped to their ears. And even after the section of the army that had remained loyal to the president had knocked down its main transmitter, Radio Veritas continued to play a role. Via a standby – albeit weaker – transmitter, the station continued to broadcast reports, including the latest government troop movements.
Descriptions of People Power II in 2001 usually assign a central role to the mobile telephone and to the decentralized peer-to-peer networks that can be formed with it. This, for example, is how Howard Rheingold describes the events of that year in his book Smart Mobs: ‘Opposition leaders broadcast text messages and within seventy-five minutes of the abrupt halt of the impeachment proceedings 20,000 people showed up. . . . More than 1 million Manila residents * mobilized and coordinated by waves of text messages . . . On January 20, 2001 President Joseph Estrada of the Philippines became the first head of state in history to lose power to a smart mob.’27 According to Rheingold, the protest rapidly escalated into a mass movement because those involved were texting messages like ‘Go 2 EDSA, Wear Black 2 mourn d death f democracy. Noise barrage at 11 pm’28 to everybody in their mobile phone address book. Telephone company Globe Telecom sent 45 million text messages that day, almost twice as many as normal.29 The network became so overloaded that telephone companies erected extra mobile transmitters around EDSA. Other decentralized ‘grassroots media’ are also credited with a role. Criticism, often in the form of parodies of Estrada, were circulated via email, and the online forum E-lagada claimed to have collected 91,000 signatures against President Estrada’s government.30
But is it really true, as Castells, Fernández Ardèvol and Qiu rightly ask, that the uprising succeeded thanks to ‘invincible technology’ that resulted in ‘each user becoming his or her own broadcasting station: a node in a wider network of communication that the state could not possibly monitor much less control’.31 In other words, was this an adhocracy facilitated by new processes of valorisation whereby the mobilization was the result not of an appeal by an authority via the mass media but of the collective intelligence of a smart mob?
Many of those who took part in the demonstration think that it was. In ‘The Cell Phone and the Crowd: Messianic Politics in the Contemporary Philippines’, Vicente Rafael quoted several reactions from newspapers and online discussions.32 ‘The mobile telephone is our weapon,’ said an unemployed construction worker. ‘The mobile telephone was like the fuse of the powder keg, with which the uprising was kindled.’ Another, in the same upbeat prose: ‘As long as your battery’s not empty, you’re “in the groove�?, and you feel militant.’ And: ‘The information and calls that reached us by way of text and e-mail was what brought together the organized as well as unorganized protests. From our homes, schools, dormitories, factories, churches, we poured into the streets there to continue the trial Estrada.’
Rafael sees such comments in a broader cultural context. In the late 1990s, mobile phones became incredibly popular in the Philippines, especially after Globe introduced prepaid subscriptions with cheap text messaging. Owners talk about their phone as a ‘new limb’ with a very important property: wherever they are, they can always be somewhere else at the same time. In any given social setting they can communicate with other members of a self-selected group that is not physically present. Conversely, the telephone can be used as a unifying element during mass gatherings: ‘While telecommunication allows one to escape the crowd, it also opens up the possibility of finding oneself moving in concert with it, filled with its desire and consumed by its energy.’ Sending text messages turns into a symbolic practice surrounded by an imagined community which in the Philippines has been labelled ‘Generation TXT’. As such, sending text messages can be seen as a contemporary equivalent of waving a flag in revolutionary colours.
But were Rheingold and others right in claiming that the mobile phone represented a shift in the structure of authority? This is where we must be on our guard against technological determinism. As Castells et al. show, there are several objections to the claim that the mobile phone alone was responsible for toppling Estrada. The state’s power had already been weakened, thus reducing the government’s ability to respond to the uprising. In other countries where the state is much stronger, we see far fewer successful political smart mobs. In China, for instance, the authorities are still able to contain protest demonstrations and their effects. Another factor is the economic embeddedness of the telecom services. A strong state would probably have been able to disable the sms network, in the same way as the Radio Vertias transmitter was knocked out in 1986. In reality, the telecom companies, who saw their sms revenues double that day, set up extra mobile transmitters at EDSA.
So it would be going too far to identify the mobile phone and the cultural practice of text messaging as solely responsible for the revolution. That said, the kind of social networks the cell phone made possible in the cultural, political and economic conditions in the Philippines did play a role. Interesting in this context is Rafael’s analysis of a contribution to a discussion forum by the initially sceptical Bart Guingona, who described how he started to believe in the power of sms peer-to-peer networking during the demonstrations. He was part of a group of people who organized one of the first protest gatherings. When someone suggested sending an invitation via sms, he doubted whether it would work without being validated by an authority. A priest who was involved in the preparations suggested enlisting Radio Veritas in a repeat of 1986. In the end, it was decided to send a test sms. When Guingona turned on his phone the next morning it was to find that friends and friends of friends had forwarded the message en masse, including to his own inbox: indirectly he had got his own sms back in threefold.34
Guingona, Rafael explained, had little faith in the power of text messages because he saw them as equivalent to rumour. In order to be credible, the message would need to be legitimated by a traditional authority. This proved to be a misconception. An sms is no isolated message from an unknown source of dubious status, but a message from a known sender within one’s own social network. And that remains the case, even when the message is forwarded for the second, third or thirtieth time. Validation of the message occurs not via an authority but via an accumulation of individual decisions whether or not to forward the message within the network. Rafael: ‘The power of texting here has less to do with the capacity to open interpretation and stir public debate as it does with compelling others to keep the message in circulation. Receiving a message, one responds by repeating it. One forwards it to others who, it is expected, will do the same. Repeatedly forwarding messages, one gets back one’s exact message, mechanically augmented but semantically unaltered.’35
What this case shows is that the peer-to-peer networks played a role in the process of validation and mobilization in Manila’s public space around an issue. At the same time this example shows that if we are to understand such phenomena properly, we mustn’t become fixated on the technology, or on processes of collective and collaborative intelligence. Instead we must look at the entire context of an event and at the various related elements of the ecosystem. It was the interaction between different levels of scale of the mass media, the niche media and the p2p networks that in this instance created an adhocracy around the issue of the deadlocked corruption proceedings. But this is not to say that a similar technological constellation would have the same outcome in a different context. Or that this technology automatically leads to processes that are beneficial to democracy. Football hooligans who use their mobile phones to mobilize and coordinate their brawls are also examples of adhocracies and smart mobs.

Which brings us back to the initial question. We can now say that the role of traditional gatekeepers, though declining, is a long way from being played out. The role of filters based on computer algorithms that aggregate and analyse social and cultural practices is increasing. Alongside these forms of collective intelligence, we are also seeing processes of collaborative intelligence. All these developments offer possibilities for creating adhocracies around particular issues. But they can equally well lead to media hypes, and they may still be thwarted by a traditional authority like the state. Commercial concerns often play a role in facilitating such processes and public alternatives do not exist in every area. The technology-based values of companies like Google may even result in media producers adapting their output to those values. And there is a further danger of such adhocracies breaking away from the greater whole and cultivating their own canon.
It is difficult, therefore, to talk about an all-powerful new paradigm. There is no easily localized ‘Public Sphere 2.0’. Rather, different and often opposing processes are taking place simultaneously. Yes, new media technologies offer more possibilities for controlling the state and the mass media or for self-organization. But this does not necessarily, and certainly not automatically, lead to a better democracy. Additionally, it is important to analyse every case individually and to look at the whole context of the media ecosystem. Who provides what input for which political and/or commercial reasons? What are the motives of institutional organizations involved in this process? How are those motives translated into technology (from software and filter algorithms to hardware) and what are the limiting or empowering consequences of that technology? Then again, how does the bottom-up process of decoding and recoding work? Which particular practices are of importance here? What role do those practices play in the process of valorisation? Only by continually asking these kinds of questions will we be able to get a better grip on the fluid Public Sphere 2.0.

1. A term encapsulating a concept of the internet as a huge database of content, to which anyone can contribute data and in which the data can be linked in a wide variety of ways. This is in contrast to Web 1.0, which consisted of static web pages.
2. Henry Jenkins, Convergence Culture (New York: New York University Press, 2006). See also the theories of Lawrence Lessig in which he explains how nearly all cultural manifestations and innovative ideas are in fact a ‘remix’ of earlier cultural manifestations.
3. www.wethinkthebook.net/ (accessed 13 June 2007).
4. The website Edge.org recently hosted an extensive discussion about the role of experts in systems of collaborative intelligence. Wikipedia founder Larry Sanger explained that he eventually came to regard Wikipedia’s egalitarian knowledge paradigm as counterproductive and accordingly set up an alternative – the Citizendium – where validation is once again carried out by experts. See: Larry Sanger, ‘Who Says we Know. On the New Politics of Knowledge’ on Edge.org, www.edge.org/3rd_culture/sanger07/sanger07_index.html.
5. Henk Blanken, ‘Deugen journalisten? (On Sanger’s Citizendium)’, in: De Nieuwe Reporter, 21.5.2007. www.denieuwereporter.nl/?p=963 (accessed 5 June 2007).
6. For the time being it appears that bloggers only monitor certain kinds of news reports. In the USA it is primarily politically charged news that is put under the microscope. The number of known cases in which ‘fraudulent’ reporting of other topics has been exposed by bloggers is considerably smaller. See: Maarten Reijnders ‘Journalistieke fraude en de rol van het publiek’ in: De Nieuwe Reporter www.denieuwereporter.nl/?p=553 (accessed 14 June 2007).
7. Jenkins, Convergence Culture, op. cit. (note 2), 211.
8. Yochai Benkler, The Wealth of Networks (New Haven: Yale University Press, 2006), 246.
9. Yochai Benkler, ‘On “Digital Maoism: The Hazards of the New Online Collectivism�? By Jaron Lanier’, Edge.org, 2006, www.edge.org/discourse/digital_maoism.html (accessed 5 June 2007).
10. Henk Blanken and Mark Deuze, Pop-up (Amsterdam: Boom, 2007).
11. Ibid.
12. www.wethinkthebook.net/ (accessed 13 June 2007).
13. Don Tapscott and Anthony Williams, Wikinomics: How Mass Collaboration Changes Everything (London: Penguin Books, 2006).
14. Steven Johnson, Emergence (New York: Scribner, 2002).
15. See also Geert Lovink, ‘Blogging, the Nihilist Impulse’ in Zero Comments, Blogging and Critical Internet Culture (New York: Routledge, 2007).
16. Andrew Keen, ‘The second generation of the Internet has arrived. It’s worse than you think’, Weekly Standard, 15.2.2006, www.weeklystandard.com/Content/Public/Articles/000/000/006/714fjczq.asp (accessed 5 June 2007).
17. See also Andrew Keen, The Cult of the Amateur: How Today’s Internet is Killing Our Culture (New York: Doubleday, 2007).
18. Jaron Lanier, Edge – Digital Maoism – The Hazards of the New Online Collectivism. 30.5. 2006, www.edge.org/3rd_culture/lanier06/lanier06_index.html (accessed 5 June 2007).
19. Martijn de Waal, Theo van Stegeren, Maarten Reijnders (eds.), Jaarboek De Nieuwe Reporter 2007. Journalistiek in Nederland: onderweg, maar waarheen? (Apeldoorn: Uitgeverij Het Spinhuis, 2007), 159.
20. Although that influence is not very great as yet. An analysis by Hitwise, a research agency, shows that aggregation services like Google News and Digg play a modest filtering role. Only 5 per cent of all visits to the websites of American broadcast and print media are generated by this kind of service. A much bigger proportion, 12 per cent, is generated by portal sites. In particular, the MSNBC news site (a joint venture by NBC and Microsoft) profited from referrals on the MSN portal site, the default homepage of the Internet Explorer browser. An even bigger proportion, almost a quarter, is generated by standard search engines like Google.
21. David Nieborg, ‘Een lange staart is goud waard’, De Nieuwe Reporter. 31.8.2006. www.denieuwereporter.nl/?p=544 (accessed 5 June 2007).
22. www.stateofthenewsmedia.org/2006/narrative_overview_eight.asp?cat=2&media=1 (accessed 21 May 2007).
23. Jenkins, Convergence Culture, op. cit. (note 2), 257.
24. Blanken and Deuze, Pop-up, op. cit. (note 10).
25. Benkler, The Wealth of Networks, op.cit. (note 8), 248.
26. Ibid., 256.
27. Howard Rheingold, Smart Mobs (Cambridge, MA: Basic Books, 2002), 158-160.
28. Manuel Castells, Jack Linchuan Qiu, Mireia Fernandéz-Ardèvol and Araba Sey, Mobile Communication and Society (Cambridge, MA: MIT Press, 2007), 188.
29. Ibid., 189.
30. Ibid., 188.
31. Ibid., 191.
32. Vincente Rafael, ‘The Cell Phone and the Crowd: Messianic Politics in the Contemporary Philippines’, Public Culture V. 15 # 3 (2003).
33. Ibid.
34. Ibid.
35. Ibid.

Date
This entry was posted on Tuesday, November 20th, 2007 and is filed under Nieuwe Media, Journalistiek & Civic Media, Publicaties.