Algoritmiset haitat: Tekoälyn riskit ja sääntelyn haasteet kiihtyvässä yhteiskunnassa




Lepinkäinen, Nea

Turku

2024

Turun yliopiston julkaisuja - Annales Universitatis Turkunesis B

675

978-951-29-9824-1

978-951-29-9825-8

0082-6987

2343-3191

https://urn.fi/URN:ISBN:978-951-29-9825-8



Tekoäly on levittänyt vaikutustaan yhä laajemmin yhteiskunnan eri osa-alueille, ja algoritmisen transformaation vauhti näyttäisi vain kiihtyvän. Algoritmiset teknologiat ovat kietoutuneet erottamattomaksi osaksi yhteiskuntaa, ja niiden mukana yhteiskunnassa ovat yleistyneet myös algoritmiset haitat.

Tässä artikkeliväitöskirjassa keskiössä ovat algoritmisten teknologioiden aiheuttamat moninaiset haitat, haittojen muodostumiseen vaikuttavat tekijät sekä tekoälysääntelyn tarjoamat mahdollisuudet haittojen hallitsemiseen. Vaikka osa tekoälyn vaikutuksista on positiivisia, väitöskirjassa keskitytään nimenomaan potentiaalisiin ja jo tunnettuihin algoritmisiin haittoihin. Tutkimus kiinnittyy erityisesti yhteiskunnallisten haittojen (social harm) tutkimusperinteeseen. Modernin yhteiskunnan kehityskulkujen, etenkin tekoälyn alati lisääntyvän käytön ymmärtämiseksi ja analysoimiseksi hyödynnetään Rosan yhteiskunnallisen kiihtyvyyden teorian (theory of social acceleration) ja Giddensin rakenteistumisteorian (structuration theory) teesejä.

Väitöskirjassa arvioidaan, minkälaisia algoritmisia haittoja tekoälyteknologiat aiheuttavat tai voivat aiheuttaa nyky-yhteiskunnassa. Työ laajentaa yhteiskunnallisten haittojen teorian näkökulmaa ottamalla huomioon yksilöihin ja ryhmiin kohdistuvien haittojen lisäksi haitat, jotka kohdistuvat yhteiskuntaan. Tekoälyteknologioiden teknisistä ominaisuuksista juontuvien, haitoille altistavien riskien paremmaksi ymmärtämiseksi väitöskirjassa tukeudutaan Viljasen (2022) hahmottelemaan teko-älyn teknisten ominaisuuksien luokitteluun.

Haittojen ja tekoälyn ominaisuuksien vaikutusten analyysi paljastaa, että vasta osa algoritmisiin teknologioihin liittyvästä haittapotentiaalista on tunnistettu. Etenkin yhteiskuntaan kohdistuvia algoritmisia haittoja on tutkittu vasta vähän. Kansallisen ja EU-tason tekoälysääntelyratkaisujen jäsentely osoittaa, että myös lainsäädännössä onnistutaan huomioimaan ainoastaan osa haittapotentiaalista, joka algoritmisiin järjestelmiin liittyy. Tuoreet lainsäädäntöratkaisut pyrkivät löytämään tasapainon siten, että tekoälyn mukanaan tuomat riskit saataisiin hallittua ilman liian suuria rajoituksia innovaatioille tai kilpailulle. Algoritmisten teknologioiden tuotantoa ohjaava, mahdollisimman vähän markkinoita rajoittava riskiperustainen EU-sääntely tunnistaa ainoastaan välittömät haitat. Sen sijaan se ei vaikuta tunnistavan kiihtyvään algoritmiseen transformaatioon liittyviä seurannaishaittoja, jotka uhkaavat perustavanlaatuisella tavalla sekä yhteiskunnan toiminnan että inhimillisen kukoistuksen mahdollisuuksia.

Tässä väitöskirjassa argumentoidaan, että algoritmista transformaatiota seuraavat haitat olisi mahdollista tuoda valittuja sääntelyratkaisuja tehokkaammin sääntelyn piiriin, mikäli poliittista tahtoa tällaiseen olisi. Yksi keino tämän toteuttamiseksi olisi laajentaa EU:n tekoälysääntelyn vaikutusarviointimenettely koskemaan kaikkia tekoälysovelluksia ja sitoa se vahvemmin nimenomaan potentiaalisesti seuraavien haittojen arviointiin. Tästä mahdollisesti seuraava tekoälyteknologioiden kehityksen hidastuminen olisi mahdollista nähdä neutraalina seikkana tai jopa tavoitteena, ei ongelmana: se lisäisi mahdollisuuksia hillitä algoritmisen transformaation vauhtia ja suunnata yhteiskunnan muutosta kohti tulevaisuutta, jossa inhimillinen kukoistus turvattaisiin yhä laajemmin. Tämän sijaan sääntelyssä kuitenkin pyritään välttämään laajoja rajoituksia markkinoiden ja innovaatiokehityksen turvaamiseksi. Ratkaisun riskinä on, että ennalta estämisen sijaan entistä useammin eurooppalaiset yhteiskunnat joutuvat jälkikäteen ratkomaan algoritmisten teknologioiden kiihtyvästä kehityksestä ja käytöstä sekä algoritmisesta transformaatiosta juontuvia moninaisia algoritmisia haittoja.



Last updated on 2025-14-02 at 14:27