AI süvavõltsingute tulevik: selle areneva tehnoloogia 3 tõelist ohtu

AI süvavõltsingute tulevik: selle areneva tehnoloogia 3 tõelist ohtu
Teiesugused lugejad aitavad MUO-d toetada. Kui teete ostu meie saidil olevate linkide abil, võime teenida sidusettevõtte komisjonitasu. Loe rohkem.

Sügava võltspildi märguandemärke oli varem lihtne märgata, kuid generatiivne AI paneb meid kahtlema peaaegu kõiges, mida praegu näeme ja kuuleme. Iga uue tehisintellekti mudeliga, mis välja tuleb, vähenevad võltspildi märguanded ja segaduse suurendamiseks saate nüüd luua sügavalt võltsitud videoid, oma lähedaste häälkloone ja koostada võltsitud artikleid vaid sekunditega.





PÄEVA VIDEO MAKKEUSE SISUGA JÄTKAMISEKS KERIMISE

Selleks, et tehisintellekti süvavõltsingud teid ei petaks, tasub teada, milliseid ohte need endast kujutavad.





Sügavate võltsingute areng

Deepfake näitab, et inimene teeb midagi, mida päriselus pole kunagi juhtunud. See on täiesti võlts. Me naerame sügavate võltsingute üle, kui neid meemi või naljana Internetis jagatakse, kuid väga vähesed inimesed peavad seda naljakaks, kui neid harjutakse meid eksitama.





Varem loodi süvavõltsinguid olemasoleva foto tegemise ja selle pilditöötlustarkvaras, näiteks Photoshopis, muutmise teel. Kuid tehisintellekti süvavõltsimise eristab see, et seda saab süvaõppe algoritme kasutades nullist genereerida.

The Merriam-Websteri sõnastik defineerib sügavat võltsimist järgmiselt:



Kujutis või salvestis, mida on veenvalt muudetud ja manipuleeritud, et anda kellelegi vale ettekujutus, et ta teeb või ütleb midagi, mida tegelikult ei tehtud või öeldud.

Kuid tehisintellekti tehnoloogia arenguga hakkab see määratlus vananenud tunduma. AI-tööriistade kasutamisega hõlmavad süvavõltsingud nüüd pilte, teksti, videoid ja hääle kloonimist. Mõnikord kasutatakse kõiki nelja AI genereerimise režiimi korraga.





Kuna tegemist on automatiseeritud protsessiga, mida on uskumatult kiire ja odav kasutada, on see ideaalne tööriist süvavõltsingute tegemiseks sellisel kiirusel, nagu me pole kunagi varem näinud – seda kõike ilma fotode, videote või heli redigeerimise kohta teadmata. .

digitaalne heli spdif puudub heli Windows 10

AI Deepfakesi suured ohud

Võõrustaja AI videogeneraatorid paljude kõrval juba olemas AI häälegeneraatorid . Viska sisse a suur keelemudel nagu GPT-4 ja teil on retsept kõige usutavamate süvavõltsingute loomiseks, mida oleme tänapäeva ajaloos seni näinud.





Üks viis eksitamise vältimiseks on teadlikkus erinevatest tehisintellekti süvavõltsingutest ja sellest, kuidas neid võidakse teie petmiseks kasutada. Siin on vaid mõned tõsised näited selle kohta, kuidas tehisintellekti süvavõltsitud tehnoloogia kujutab endast tõelist ohtu.

1. AI identiteedivargus

Võib-olla olete neid näinud. Esimeste tõeliselt viiruslike tehisintellekti süvavõltsingute hulgas, mis üle maailma levisid, olid pilt Donald Trumpi arreteerimisest ja üks paavst Franciscusest valges puhvis jopes.

  Tehisintellekt genereeris kujutise paavst Franciscusest, kes on puhvis jopes ja postitati Redditi Midjourney foorumisse.

Kuigi tundub, et see on süütu kujutluspilt sellest, mida kuulus usutegelane võib jahedal Rooma päeval selga panna; teisel pildil, mis kujutab poliitilist tegelast seadusega tõsises olukorras, on palju suuremad tagajärjed, kui seda tõena võtta.

Seni on inimesed tehisintellekti süvavõltsinguid luues võtnud sihikule peamiselt kuulsused, poliitikud ja teised kuulsad isikud. Osaliselt on põhjuseks see, et kuulsatel isikutel on Internetis neist palju fotosid, mis tõenäoliselt aitasid modelli koolitada.

Tehisintellekti kujutise generaatori nagu Midjourney puhul – mida kasutatakse nii Trumpi kui ka paavsti süvavõltsimises – peab kasutaja lihtsalt sisestama teksti, mis kirjeldab seda, mida ta näha soovib. Kunstistiili (nt foto või fotorealism) määramiseks saab kasutada märksõnu ning tulemusi saab eraldusvõimet suurendades täpsustada.

Saate sama lihtsalt õppida kasutama Midjourney ja katsetage seda ise, kuid ilmselgetel moraalsetel ja juriidilistel põhjustel peaksite vältima nende piltide avalikku postitamist.

Kahjuks ei taga see, et olete keskmine, mittekuulus inimene, et olete kaitstud tehisintellekti süvavõltsingute eest.

Probleem seisneb tehisintellekti kujutise generaatorite pakutavas võtmefunktsioonis: võimaluses oma pilti üles laadida ja seda AI-ga manipuleerida. Ja selline tööriist nagu Värvimine DALL-E 2-s saab laiendada olemasolevat pilti väljapoole selle piire, sisestades tekstiviipa ja kirjeldades, mida veel soovite luua.

Kui keegi teine ​​teeks seda teie fotodega, võivad ohud olla oluliselt suuremad kui valges jopes paavsti võltsing – nad võivad seda kasutada kõikjal, teeseldes, et olete teie. Kuigi enamik inimesi kasutab tehisintellekti üldiselt heade kavatsustega, on väga vähe piiranguid, mis takistavad inimestel seda kahju tekitamiseks kasutada, eriti identiteedivarguse korral.

2. Deepfake Voice Clone petturid

AI abil on sügavad võltsingud ületanud piiri, milleks enamik meist polnud valmis: võltshäälekloonid. Vaid väikese hulga originaalheliga – võib-olla kunagi postitatud TikToki videost või YouTube’i videost, milles esinete –, suudab tehisintellekti mudel kopeerida teie ainuhäält.

Internet puudub, turvaline Windows 10

On ühtaegu kummaline ja hirmutav ette kujutada, et saate telefonikõne, mis kõlab nagu pereliikme, sõbra või kolleegi kõne. Deepfake häälekloonid on piisavalt tõsine probleem, et Föderaalne kaubanduskomisjon (FTC) on selle kohta hoiatuse teinud.

Ära usalda häält. Helistage isikule, kes teiega väidetavalt ühendust võttis, ja kinnitage lugu. Kasutage telefoninumbrit, mille kohta teate, et see on nende oma. Kui te ei saa oma kallimaga ühendust, proovige temaga ühendust saada mõne teise pereliikme või tema sõprade kaudu.

Washington Post teatas juhtum 70ndates eluaastates paarist, kes sai telefonikõne kelleltki, kes kõlas täpselt nagu nende lapselaps. Ta oli vanglas ja vajas kiiresti kautsjoniks raha. Kuna neil polnud muud põhjust kahelda, kellega nad rääkisid, läksid nad edasi ja andsid raha petturile üle.

Samuti pole ohus mitte ainult vanem põlvkond, The Guardian teatas järjekordne näide pangajuhist, kes kiitis heaks 35 miljoni dollari suuruse tehingu pärast mitmeid 'sügavalt võltsitud kõnesid' kelleltki, keda nad arvasid olevat pangadirektor.

3. Masstoodetud võltsuudised

Suured keelemudelid, nagu ChatGPT suudavad väga-väga hästi luua teksti, mis kõlab nagu inimene, ja meil pole praegu tõhusaid tööriistu erinevuse tuvastamiseks. Valedes kätes on võltsuudiste ja vandenõuteooriate tootmine odav ja nende ümberlükkamine võtab kauem aega.

Väärinformatsiooni levitamine pole muidugi midagi uut, vaid uurimistöö avaldatud arXiv jaanuaris 2023 selgitab, et probleem seisneb selles, kui lihtne on tehisintellekti tööriistadega väljundit suurendada. Nad nimetavad seda 'AI-loodud mõjutuskampaaniateks', mida nende sõnul võivad poliitikud kasutada näiteks oma poliitiliste kampaaniate sisseostmiseks.

Rohkem kui ühe tehisintellekti loodud allika kombineerimine loob kõrgetasemelise süvavõltsimise. Näiteks võib tehisintellekti mudel genereerida hästi kirjutatud ja veenva uudise, mis läheks kõrvuti Donald Trumpi vahistamise võltspildiga. See annab sellele suurema legitiimsuse kui pilti eraldi jagades.

Võltsuudised ei piirdu ka piltide ja kirjutamisega, AI-videote genereerimise areng tähendab, et näeme üha rohkem sügavvõltsitud videoid. Siin on üks Robert Downey juunioridest, mis on poogitud Elon Muski videole, mille postitas YouTube'i kanal Deepfakery.

Deepfake'i loomine võib olla sama lihtne kui rakenduse allalaadimine. Võite kasutada rakendust nagu TokkingHeads, et muuta pildid animeeritud avatarideks , mis võimaldab teil üles laadida oma pildi ja heli, et jätta mulje, nagu inimene räägiks.

Enamasti on see lõbus ja lõbus, kuid samas on ka probleeme. See näitab meile, kui lihtne on kasutada kellegi pilti, et jätta mulje, nagu see inimene lausuks sõnu, mida ta pole kunagi rääkinud.

Ärge laske tehisintellekti süvavõltsingust end petta

Süvavõltsinguid saab kiiresti kasutusele võtta väga väikeste kuludega ja vähese oskusteabe või arvutusvõimsusega. Need võivad olla loodud pildi, hääleklooni või AI-ga loodud piltide, heli ja teksti kombinatsioonina.

Varem oli sügavvõltsingute loomine palju keerulisem ja töömahukam, kuid nüüd, kus on palju AI-rakendusi, on peaaegu kõigil juurdepääs tööriistadele, mida kasutatakse sügavate võltsingute loomiseks. Kuna tehisintellekti süvavõltsimistehnoloogia muutub üha arenenumaks, tasub sellega kaasnevatel ohtudel tähelepanelikult silma peal hoida.