3 Chatboti privaatsusega seotud riskid ja mured, millest peaksite teadma

3 Chatboti privaatsusega seotud riskid ja mured, millest peaksite teadma
Teiesugused lugejad aitavad MUO-d toetada. Kui teete ostu meie saidil olevate linkide abil, võime teenida sidusettevõtte komisjonitasu. Loe rohkem.   Tabalukk koos klaviatuuriklahvidega laiali laiali

Vestlusbotid on eksisteerinud aastaid, kuid suurte keelemudelite, nagu ChatGPT ja Google Bard, tõus on andnud vestlusrobotite tööstusele uue hingamise.





icloud ei lase mul sisse logida

Miljonid inimesed kasutavad praegu AI vestlusroboteid kogu maailmas, kuid kui soovite mõnda neist tööriistadest proovida, tuleb meeles pidada mõningaid olulisi privaatsusriske ja -probleeme.





1. Andmete kogumine

Enamik inimesi ei kasuta vestlusroboteid lihtsalt tere ütlemiseks. Kaasaegsed vestlusrobotid on loodud keeruliste küsimuste ja päringute töötlemiseks ja neile vastamiseks ning kasutajad lisavad sageli oma viipadesse palju teavet. Isegi kui esitate vaid lihtsa küsimuse, ei taha te tegelikult, et see läheks teie vestlusest kaugemale.





Vastavalt OpenAI tugijaotis , saate ChatGPT vestluslogid igal ajal kustutada ja need logid kustutatakse seejärel 30 päeva pärast jäädavalt OpenAI süsteemidest. Ettevõte säilitab ja vaatab üle teatud vestluslogid, kui need on märgistatud kahjuliku või sobimatu sisu tõttu.

Teine populaarne AI-vestlusbot, Claude, jälgib samuti teie eelmisi vestlusi. Anthropic'i tugikeskus väidab, et Claude jälgib 'teie viipasid ja väljundeid tootes, et pakkuda teile aja jooksul ühtset tootekogemust vastavalt teie juhtelementidele'. Saate kustutada oma vestlused Claude'iga, nii et see unustab, millest olete rääkinud, kuid see ei tähenda, et Anthropic kustutaks kohe teie logid oma süsteemidest.



See tekitab muidugi küsimuse: kas minu andmeid säilitatakse või mitte? Kas ChatGPT või muud vestlusrobotid kasutavad minu andmeid?

Kuid mured ei lõpe siin.





Kuidas ChatGPT õpib?

Teabe edastamiseks koolitatakse suuri keelemudeleid tohutute andmemahtudega. Vastavalt Teadusfookus , ainuüksi ChatGPT-4-le söödeti koolitusperioodi jooksul 300 miljardit sõna teavet. See ei ole võetud otse mõnest entsüklopeediast. Pigem kasutavad vestlusrobotite arendajad oma mudelite koolitamiseks tohutul hulgal teavet Internetist. See võib hõlmata andmeid raamatutest, filmidest, artiklitest, Vikipeedia kirjetest, ajaveebipostitustest, kommentaaridest ja isegi arvustuste saitidelt.

Pidage meeles, et olenevalt vestlusroboti arendaja privaatsuspoliitikast ei pruugita mõnda eelnimetatud allikat koolitusel kasutada.





Paljud on ChatGPT-d kritiseerinud, väites, et see on privaatsuse mõttes õudusunenägu ChatGPT-d ei saa usaldada . Miks see nii on?

Siin lähevad asjad veidi häguseks. Kui küsite otse ChatGPT-3.5-lt, kas sellel on juurdepääs tooteülevaadetele või artiklite kommentaaridele, saate kindla negatiivse vastuse. Nagu näete alloleval ekraanipildil, väidab GPT-3.5, et talle ei antud koolitusel juurdepääsu kasutajate artiklite kommentaaridele ega tootearvustustele.

  chatgpt-3.5 vestluse ekraanipilt

Pigem koolitati seda, kasutades 'mitmesugust Interneti-teksti, sealhulgas veebisaite, raamatuid, artikleid ja muud avalikult kättesaadavat kirjalikku materjali kuni 2021. aasta septembrini'.

Kuid kas see on sama ka GPT-4 puhul?

Kui küsisime GPT-4-lt, öeldi meile, et 'OpenAI ei kasutanud vestlusroboti koolitusperioodil konkreetseid kasutajate ülevaateid, isikuandmeid ega artiklite kommentaare'. Lisaks ütles GPT-4 meile, et selle vastused genereeritakse 'andmete mustrite põhjal, mille järgi [seda] õpetati ja mis koosneb peamiselt raamatutest, artiklitest ja muust Internetist pärit tekstist'.

Kui me edasi uurisime, väitis GPT-4, et teatud sotsiaalmeedia sisu võib tõepoolest sisalduda selle koolitusandmetes, kuid loojad jäävad alati anonüümseks. GPT-4 märkis konkreetselt, et 'isegi kui selliste platvormide nagu Reddit sisu oli osa koolitusandmetest, pole [tal] juurdepääsu konkreetsetele kommentaaridele, postitustele ega andmetele, mida saab üksiku kasutajaga tagasi linkida.'

Veel üks märkimisväärne osa GPT-4 vastusest on järgmine: 'OpenAI pole sõnaselgelt loetlenud kõiki kasutatud andmeallikaid.' Muidugi oleks OpenAI-l raske loetleda 300 miljardi sõna väärtuses allikaid, kuid see jätab ruumi spekulatsioonideks.

Aastal an Ars Technica artikkel , öeldi, et ChatGPT kogub 'ilma nõusolekuta saadud isikuandmeid'. Samas artiklis mainiti kontekstuaalset terviklikkust, mõistet, mis viitab ainult kellegi teabe kasutamisele selles kontekstis, kus seda algselt kasutati. Kui ChatGPT rikub seda kontekstuaalset terviklikkust, võivad inimeste andmed olla ohus.

Teine murekoht on OpenAI vastavus Andmekaitse üldmäärus (GDPR) . See on Euroopa Liidu poolt kodanike andmete kaitsmiseks jõustatud määrus. Mitmed Euroopa riigid, sealhulgas Itaalia ja Poola, on algatanud ChatGPT uurimise, kuna on mures selle GDPR-i järgimise pärast. Lühiajaliselt oli ChatGPT Itaalias privaatsusmurede tõttu isegi keelatud.

OpenAI on varem ähvardanud kavandatavate tehisintellekti eeskirjade tõttu EList välja astuda, kuid sellest ajast alates on see tagasi võetud.

ChatGPT võib olla praegu suurim tehisintellekti vestlusbot, kuid vestlusroboti privaatsusprobleemid ei alga ega lõpe selle pakkujaga. Kui kasutate hämarat vestlusrobot, mille privaatsuspoliitika on ebaselge, võidakse teie vestlusi väärkasutada või selle koolitusandmetes võib kasutada väga tundlikku teavet.

2. Andmevargus

Nagu iga võrgutööriist või platvorm, on ka vestlusrobotid küberkuritegevuse suhtes haavatavad. Isegi kui vestlusrobot teeks kõik endast oleneva, et kaitsta kasutajaid ja nende andmeid, on alati võimalus, et asjatundlikul häkkeril õnnestub tungida tema sisemistesse süsteemidesse.

Kui konkreetne vestlusroboti teenus salvestas teie tundlikku teavet, näiteks teie tasulise tellimuse makseandmeid, kontaktandmeid või muud sarnast, võidakse see varastada ja küberrünnaku korral ära kasutada.

See kehtib eriti juhul, kui kasutate vähem turvalist vestlusrobotit, mille arendajad ei ole piisavalt turvakaitsesse investeerinud. Mitte ainult ei saa häkkida ettevõtte sisesüsteeme, vaid ka teie konto võib ohtu sattuda, kui sellel pole sisselogimismärguandeid ega autentimiskihti.

Nüüd, kui AI-vestlusbotid on nii populaarsed, on küberkurjategijad loomulikult hakanud seda tööstust oma pettusteks kasutama. Võltsitud ChatGPT veebisaidid ja pistikprogrammid on olnud suureks probleemiks pärast seda, kui OpenAI vestlusrobot 2022. aasta lõpus peavoolu jõudis, kuna inimesed langevad petuskeemidesse ja annavad legitiimsuse ja usalduse varjus isiklikku teavet.

2023. aasta märtsis teatas MUO a võlts ChatGPT Chrome'i laiendus, mis varastab Facebooki sisselogimisi . Pistikprogramm võib kasutada Facebooki tagaust, et häkkida kõrge profiiliga kontosid ja varastada kasutaja küpsiseid. See on vaid üks näide paljudest võltsitud ChatGPT-teenustest, mis on loodud teadmata ohvrite petmiseks.

3. Pahavara infektsioon

Kui kasutate hämarat vestlusrobotit, ilma et oleksite seda mõistnud, võite leida, et see vestlusbot pakub linke pahatahtlikele veebisaitidele. Võib-olla on vestlusbot teid ahvatlevast kingitusest teavitanud või andnud mõne oma väite allika. Kui teenuse operaatoritel on ebaseaduslikud kavatsused, võib platvormi eesmärk olla pahavara ja petuskeemide levitamine pahatahtlike linkide kaudu.

Teise võimalusena võivad häkkerid ohustada seaduslikku vestlusrobotiteenust ja kasutada seda pahavara levitamiseks. Kui see vestlusbot juhtub väga inimestega, puutuvad selle pahavaraga kokku tuhanded või isegi miljonid kasutajad. Võltsitud ChatGPT-rakendused on olnud isegi Apple'i App Store'is , seega on kõige parem liikuda ettevaatlikult.

Üldiselt ei tohiks te kunagi klõpsata ühelegi vestlusroti pakutavale linkile käitada seda linke kontrolliva veebisaidi kaudu . See võib tunduda ärritav, kuid alati on kõige parem olla kindel, et saidil, kuhu teid suunatakse, pole pahatahtlikku kujundust.

Lisaks ei tohiks te kunagi installida ühtegi vestlusroti pistikprogrammi ega laiendust ilma nende legitiimsust kontrollimata. Uurige rakendust veidi, et näha, kas see on hästi üle vaadatud, ja otsige ka rakenduse arendajat, et näha, kas leiate midagi hämarat.

Jutubotid ei puutu privaatsusprobleemidesse

Nagu enamikku tänapäeval kasutatavaid veebitööriistu, on ka vestlusroboteid korduvalt kritiseeritud nende võimalike turva- ja privaatsusprobleemide pärast. Olenemata sellest, kas vestlusroboti pakkuja teeb kasutajate turvalisuse osas nurki, või jätkuvad küberrünnakute ja pettuste riskid, on ülioluline, et teate, mida teie vestlusroti teenus teie kohta kogub ja kas see kasutab piisavaid turvameetmeid.