Kunstig intelligens medfører også mange spørsmål som har med etikk og moral å gjøre. I denne bloggposten belyser jeg noen av disse sidene.
Dersom du har kommentarer, innspill eller kritikk til denne bloggposten, setter jeg stor pris på om du kontakter meg.
Bias
Når fanger skal prøveløslates fra fengsel er et av de sentrale spørsmålene man stiller seg hva faren for gjentakelse er. Dommeren bruker ofte data som tidligere mønstre av kriminalitet og oppførsel i fengsel når de vurderer denne risikoen. Men dette er et komplekst spørsmål med mange faktorer.
Se nå for deg at en dommer ønsker å få hjelp fra et KI-system. Hun samler inn data om personer som tidligere har sittet i fengsel for lovbrudd, og hvorvidt de ble tatt for samme kriminalitet når de kom ut. Resultatet blir en KI-modell som gir dommeren en risikoscore for hver person.
Men hva hvis dataene som modellen er trent på kommer fra et sterkt segregert samfunn, hvor f.eks. innvandrere lever i fattige strøk med mye kriminalitet? I strøk med mye kriminalitet vil det oftere være høyere tilstedeværelse av politi og dermed høyere sjanse for å bli tatt for kriminalitet slik som besittelse av narkotika, noe en ressurssterk person sannsynligvis kan få holde på med i fred og ro i familiens villa. Siden KI-modellene kun lærer seg å se etter korrelasjoner i data, vil den på bakgrunn av treningen hevde at det er større sjanse for gentakelse av kriminalitet dersom personen har innvandrerbakgrunn. Denne skjevheten i datamaterialet kalles bias, og kan føre til urettferdige beslutninger dersom de overlates til KI-modeller.
Dette tankeeksperimentet er ikke bare oppspinn. I mange amerikanske delstater så benyttes en algoritme som heter COMPAS, som basert på alder, kriminalitet, bosted osv. gir et tall for risikoen at en tiltalt skal begå nye lovbrudd. I 2016 publiserte journalister fra ProPublica en artikkel hvor de hevdet at COMPAS hadde rasistiske bias (Larson et al., 2016). Northpointe (de som har laget COMPAS) svarte på ProPublicas kritikk og la fram flere argumenter for å begrunne algoritmens design, og mente at algoritmen ikke var rasistisk (Northpointe, 2016). Temaet er komplekst og kommer innom flere filosofiske spørsmål som «Hva er egentlig rettferdighet?», men viser i det minste at tankeløs bruk av KI-verktøy ikke er lurt.
Bias kan også komme til syne i mindre dramatiske situasjoner. For eksempel er ChatGPT trent på store mengder engelsk tekst. Dette fører til et bias hvor teksten ChatGPT kan være preget av vestlig, og spesielt amerikansk, tankegang. Et annet eksempel, er i bildegenerering. hvor skjevhetene komme godt til uttrykk (Baum og Villasenor, 2024). Jeg ba ChatGPT om å lage et bilde av rike mennesker.

Som vi ser av bildet over er alle hvite mennesker. Det er ikke så rart da troligvis et flertall av bildene som KI-modellen er trent på har rike mennesker avbildet som hvite.
Verdier, politikk og definisjonen av sannhet
Etterhvert som folk blir mer vant til å bruke språkmodeller for svar på ting, gir det mye makt til de som utvikler dem. Som et eksempel spurte jeg ChatGPT (utviklet av amerikanere) og DeepSeek (utviklet av kinesere) det samme spørsmålet (28.01.25): «Is China a democracy?»
ChatGPT

DeepSeek

Dette viser helt tydelig hvordan de som lager KI-modeller kan inkorporere sine verdier og syn på verden. I tillegg til at språkmodeller kan hallusinere, vil de også gi svar som reflekterer synet til de som har trent språkmodellen.
Hvem er kunstner?
I 2022 deltok Jason M. Allen i Colorados delstatsmesses (Colorado state fair) kunstkonkurranse. Han sendte inn 3 bilder til konkurransen, hvorav det mest kjente, Théâtre D’opéra Spatial, så slik ut.

Théâtre D’opéra Spatial. Copyright? Jason M. Allen.
Bildet vant førsteplassen i kategorien «digital arts/digitally-manipulated photography»-kategorien og Jason kunne tusle hjem med 300 dollar.

Det gikk rolig for seg på messen, men når brukere på twitter fikk tak i nyheten spredde det seg raskt og ble gjenstand for stor debatt. Det viste seg nemlig at verktøyet Jason hadde brukt for å produsere bildet var MidJourney – et KI-verktøy for å generere bilder. Det må nevnes at Jason selv ikke gjorde noe forsøk på å skjule dette – han deklarerte det da han la fra bildene sine.
Mange mener at å bruke KI til å generere bilder eller tekst ikke er det samme som å faktisk være en kunstner og eie verket som kommer ut.
Det kan være lett å si seg enig i det. Men samtidig – hvor går grensen?
Har man opphavsrett på inspirasjon?
Ingen er oppvokst i et vakuum. Fra dagen vi blir født bombarderes vi av inntrykk – språk, tekster, bilder, videoer, historier og opplevelser. Når vi som mennesker produserer ny kunst eller innhold, så låner vi fra det vi har sett og erfart, og legger kanskje en liten bit av sjela vår i det slik at det blir nytt. Sålenge vi ikke direkte kopierer det vi har blitt inspirert av, er de fleste enige i at resultatet tilhører oss.
Hvor forskjellig er det fra det kunstig intelligens produserer?
Noen av de som trener KI-modeller på opphavsbeskyttet data hevder nettopp dette – at å trene en KI-modell er analogt til å la seg inspirere av andres verker for å produsere sitt eget.
Referanser
Larson, J., Mattu, S., Kirchner, L., & Angwin, J. (2016). How We Analyzed the COMPAS Recidivism Algorithm. ProPublica. https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
Northpointe Inc. Research department. (2016). COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity. https://www.documentcloud.org/documents/2998391-ProPublica-Commentary-Final-070616/?embed=1&mode=document
Baum, J., & Villasenor, J. (2024). Rendering misrepresentation: Diversity failures in AI image generation. https://www.brookings.edu/articles/rendering-misrepresentation-diversity-failures-in-ai-image-generation/
Legg igjen en kommentar