Dette innlegget er refleksjoner basert på blant annet uttalelser fra Philip Seargeant, førsteamanuensis i anvendt lingvistikk ved The Open University.
For tiden omhandler de fleste overskriftene knyttet til kunstig intelligens (AI), i hvilken grad AI er en trussel mot menneskeheten. Vil utviklingen lede til et massivt jobbtap, hvor AI automatiserer mange jobber, og derfor bidrar til massearbeidsledighet? Vil AI brukes til å lage autonome våpen som kan drepe uten menneskelig innblanding? Vil AI brukes til storskala overvåking av alle individer, med tap av personvern som konsekvens? Og kan vi risikere å helt miste kontrollen over utviklingen, ved at AI utvikler seg selv og til slutt tar over verden?
Alle slike utfordringer har så langt angivelig ført til at blant annet Elon Musk har advart om at AI kan bli "farligere enn atomvåpen", og uttrykt ønske om en global regulering av AI-utviklingen. Filosofen Nick Bostrom som er kjent for sine arbeider om eksistensielle trusler, som risikoer forbundet med superintelligens, mener vi må ta en pause i AI-utviklingen for å reflektere over de etiske implikasjonene, og for å sikre at vi utvikler AI på en trygg måte. Avdøde Stephen Hawking mente at AI kan "utløse slutten på menneskeheten", osv.
Men en annen og allerede eksisterende trussel som i grunn får lite oppmerksomhet, er hvilken virkning disse nye teknologiene har på ytringsfriheten. Og spesielt hvordan de faktisk er i stand til å undergrave helt grunnleggende juridiske prinsipper som per i dag beskytter ytringsfriheten.
Hver gang en ny kommunikasjonsteknologi feier gjennom og over samfunnet, forstyrrer den balansen som tidligere er blitt oppnådd mellom sosial stabilitet og individuell frihet. Dagens sosiale medier har gjennom sin konstruksjon skapt helt nye former for samfunnsnettverk, og mulighet for ulike typer overvåking og offentlig eksponering. Dette har blant annet ført til økt politisk polarisering, en vesentlig fremvekst av global populisme og egentlig en epidemi av trakassering og mobbing på nettet.
Midt i alt dette har ytringsfriheten blitt et sentralt tema, men ytringsfrihetsdebatter har en tendens til å dreie seg om "kanselleringskultur" og en overfølsom holdning ("woke" mindset). Det vil si at diskusjoner om ytringsfrihet omhandler forsøk på å boikotte eller utestenge personer eller organisasjoner som har uttrykt meninger som oppfattes som støtende eller uakseptable. Eller på den andre siden debatter om "Woke mindset», som konstituerer en holdning preget av bevissthet om sosiale urettferdigheter og et ønske om å fremme sosial og politisk endring. Flere mener "woke" er en form for splittende og intolerant identitetspolitikk, mens andre mener man må være bevisst på sosiale urettferdigheter for å etablere et mer rettferdig og inkluderende samfunn.
Når debatten som oftest synes å ende i disse to temaene, kan det ødelegge for konstruktiv diskusjon om andre viktige ytringsfrihetsspørsmål. For eksempel hvordan AI kan påvirke hvordan lover om ytringsfrihet faktisk fungerer. Utviklingen av AI gir regjeringer og teknologiselskaper muligheten til å omgå landets lover, med ytringssensur i stor skala, og dessuten svært raskt. Dette er et alvorlig tema, som også bør få betydelig oppmerksomhet.
Noen av de viktigste beskyttelsesmekanismene for ytringsfrihet er forankret i tekniske detaljer i det juridiske rammeverket. Et nøkkelelement i dagens system er avhengig av det faktum at vi, som autonome individer, har den unike evnen til å omforme ideene våre til ord og kommunisere disse til andre. Dette kan virke nokså selvsagt, men våre lover (i liberale demokratier) er altså basert på antakelsen om at mennesker har evnen til å tenke selv, vi tar våre egne valg og handler uavhengig av andre. AI kan imidlertid undergrave dette gjennom å manipulere og påvirke våre tanker og valg, og utøve andre begrensninger.
Det har lenge vært kjent at AI plattformer som sosiale medier foretar slike undergravende steg, Her brukes det algoritmer for å servere oss innhold som man tror vi vil være interessert i. På den måten fanges vi i ekkokamre der vi bare ser informasjon som bekrefter våre eksisterende meninger. Det gjør det vanskeligere for oss å tenke kritisk og å danne våre egne meninger. Når vi for eksempel skal kjøpe noe, kan sosiale medier også i vesentlig grad påvirke oss i hvordan vi foretar våre valg.
Enda mer grunnleggende kan vi påvirkes rundt samfunnsforhold som politiske valg og styresett. Dette nås gjennom målrettet reklame, falske nyheter og andre former for manipulasjon. Videre kan sosiale medier være vanedannende og dermed «stjele» tiden som ellers kunne vært brukt på familie og venner, deltagelse i fritidsaktiviteter, politikk og annet. Sosiale medier kan videre spre falske eller misvisende nyheter, og negativt påvirke vår evne til å ta informerte valg.
Et kjent eksempel på slik AI-manipulasjon er Cambridge Analytica-skandalen. C. A var et britisk dataanalysefirma som samlet inn data fra millioner av Facebook-brukere uten deres samtykke. Dataene ble deretter brukt til målrettet politisk reklame mot de samme brukerne i forbindelse med det amerikanske presidentvalget i 2016.
Det ligger i ytringsfrihetsbeskyttelsen i de fleste liberale samfunn at man ikke har forhåndssensur. Det vil si at en ytring ikke blokkeres før den blir uttrykt. Myndighetene forhindrer for eksempel ikke en avis fra å publisere en bestemt historie, selv om avisen i etterkant kan straffeforfølges om det publiserte bryter noen av landets lover. I andre mindre liberale land er derimot forhåndssensur allerede utbredt, og hvor man har en helt annen holdning til regulering av ytringer.
Dette er viktig fordi intet samfunn i verden, uansett hvor liberalt det er, kan tillate absolutt ytringsfrihet. Det vil alltid måtte være en balanse mellom å beskytte mennesker fra den reelle skaden som språk kan forårsake (for eksempel ved ærekrenkelser), og å ivareta menneskers rett til å uttrykke motstridende meninger og kritisere de som har makt. Å finne den rette balansen i så måte, er blant de største utfordringer hvert enkelt samfunn står overfor.
Storbritannia med sin «Online Safety Act», og andre land med egne tilsvarende opplastingsfiltre, ønsker med filtrene å blokkere visse typer innhold fra å bli lastet opp. Fordi så mye av dagens kommunikasjon formidles av teknologi, er det enkelt for AI-systemer å iverksette slik forhåndssensur, og dessuten i stor hastighet og i massiv skala.
Bruk av AI-filtre allerede ved opplastning er både raskere og langt billigere enn alternativene i etterkant av opplastning, da det er enorme mengder data som lastes opp hvert eneste minutt. Men fordi AI er automatisert og stadig mer avansert og sjeldent gjenstand for offentlig granskning kan AI-drevne filtre føre til sensur av innhold som verken er ulovlig eller støtende, hvis og når ett lands myndighet (eller ledere av de ulike sosiale mediene) ønsker det.
Ytringsfrihet slik vi forstår det i dag er avhengig av bestemte juridiske beskyttelsesprosesser som har utviklet seg over århundrer, og som dermed er grunnfestet både sosialt og juridisk. I Norge med utgangspunkt i grunnlovens § 100. Lovgivning som i stedet oppmuntrer til AI-styrt innholdsregulering, kan underminere den eksisterende beskyttelsen i en slik grad at hele ytringsfrihetsinstitusjonen i et samfunn står i fare.
Ytringsfrihet vil alltid være en idé opprettholdt av løpende debatt. I et åpent samfunn finnes det ingen fast formel for å definere hva som skal tillates eller forbys. Derfor må det akseptable og uakseptable bestemmes gjennom åpne debatter og en kontinuerlig anke. Kanskje er det viktig og riktig med AI overvåkning av online-innhold, men ikke om det går på bekostning av vår mulighet og evne til å diskutere og beslutte oss imellom om hva slags samfunn vi ønsker oss og prøver å skape.
God søndag!
Comments