Na svojoj stranici, OpenAI upozorava korisnike da ne dijele osjetljive informacije, dok Google savjetuje korisnicima Geminija da ne unose povjerljive podatke.
Iako mnogi korisnici ChatGPT-a traže pomoÄ za razliÄite stvari, od savjeta za braÄnu terapiju do pisanja profesionalnih e-mailova ili Äak pretvaranja slika svojih kuÄnih ljubimaca u ljudske likove, koriÅ”tenje umjetne inteligencije nosi i odreÄene rizike po privatnost.
Kako prenosi New York Post, prema rijeÄima Jennifer King, struÄnjakinje sa Stanford instituta za umjetnu inteligenciju usmjerenog na ljudsko iskustvo, sve Å”to unesete u chatbot može postati javno jer “gubite vlasniÅ”tvo nad tim podacimaā.
Upravo zato važno je pridržavati se nekoliko osnovnih pravila kada komunicirate s AI chatbotom. Na svojoj stranici, OpenAI upozorava korisnike da ne dijele osjetljive informacije, dok Google savjetuje korisnicima Geminija da ne unose povjerljive podatke. Ako koristite umjetnu inteligenciju, evo pet stvari koje nikada ne biste trebali dijeliti s ChatGPT-om ili sliÄnim chatbotovima.
LiÄni, vozaÄki i zdravstveni podaci
Nikada nemojte dijeliti informacije koje mogu otkriti vaÅ” identitet, poput broja liÄne karte, podataka s vozaÄke dozvole, pasoÅ”a, datuma roÄenja, adrese ili broja telefona. Iako neki chatboti pokuÅ”avaju prepoznati i ukloniti osjetljive informacije, najbolje ih je potpuno izbjegavati.
– NaÅ” cilj je da naÅ”i AI modeli uÄe o svijetu, a ne o pojedincima – izjavila je glasnogovornica OpenAI-ja, prenosi VeÄernji list.
Zdravstveni podaci
Zdravstveni podaci su zaÅ”tiÄeni zakonima o privatnosti, ali AI chatboti uglavnom nemaju tu zaÅ”titu. Ako trebate pitati ChatGPT da protumaÄi medicinske nalaze, King savjetuje da prethodno izrežete ili uredite dokument, ostavljajuÄi samo rezultate testova, bez liÄnih podataka.
Finansijski podaci
Nikada ne dijelite brojeve svojih bankovnih raÄuna, investicija ili druge finansijske informacije, jer bi ih hakeri mogli zloupotrijebiti i iskoristiti za pristup vaÅ”em novcu.
Lozinke
Iako bi se moglo Äiniti praktiÄnim dijeliti korisniÄka imena i lozinke s chatbotom zbog odreÄenih zadataka, oni ne mogu garantovati sigurnost vaÅ”ih raÄuna. Najbolje je koristiti menadžer lozinki za Äuvanje tih podataka.
Podaci o klijentima
Ako koristite ChatGPT ili sliÄne chatbotove u poslovne svrhe ā recimo, za pisanje e-mailova ili ureÄivanje dokumenata ā postoji rizik da nehotice otkrijete podatke o klijentima ili poslovne tajne. Neke kompanije koriste vlastite, zatvorene verzije AI sistema ili imaju dodatne sigurnosne mjere za zaÅ”titu podataka.
Kako koristiti AI uz zaŔtitu privatnosti
Ako želite nastaviti koristiti chatbotove bez ugrožavanja privatnosti, struÄnjaci preporuÄuju koriÅ”tenje jakih lozinki, viÅ”efaktorske autentifikacije i redovno brisanje historije razgovora.
Neke kompanije, poput Anthropic-a, navode da se podaci izbrisani s platforme trajno briÅ”u nakon 30 dana. Iako AI može olakÅ”ati mnoge zadatke, uvijek se pridržavajte osnovnih pravila zaÅ”tite privatnosti kako biste izbjegli moguÄe prijetnje.











