Autor Objavljeno Portal Original
Večernji.hr Večernji Otvori

Pazite što otkrivate: O ovih sedam stvari nikad ne razgovarajte s ChatGPT-om, evo i zašto

BUDITE NA OPREZU

Veliki jezični modeli, poput ChatGPT-a, Geminija i Perplexityja, postali su nezaobilazan dio svakodnevnog života. Iako mnogi ljudi ne koriste ove alate izravno svaki dan, vjerojatno koriste neki servis koji u pozadini koristi AI modele. Međutim, premda ovi alati često pomažu u obavljanju poslovnih i privatnih zadataka, njihovo korištenje može predstavljati sigurnosnu prijetnju.

Naime, korisnici u žurbi da brzo obave neki zadatak često otkrivaju osjetljive informacije chatbotovima i AI modelima, ne shvaćajući da to može biti opasno. Iako chatbotovi nisu stvarne osobe, u kontekstu privatnosti i sigurnosti, potrebno ih je smatrati kao takvima. Baš kao što ne biste dijelili osjetljive podatke s nepoznatim osobama na ulici, ni chatbotovima ne biste smjeli olako otkrivati informacije. Zimo je pripremio popis stvari koje ne biste trebali dijeliti s chatbotovima.

Osobne podatke

Nikada ne biste trebali dijeliti svoje osobne podatke poput imena, prezimena, adrese, OIB-a, broja osobne iskaznice ili putovnice s AI chatbotovima. To uključuje i fotografije tih dokumenata. Ako koristite chatbot za izradu životopisa, bolje je tražiti od njega samo obrazac koji ćete sami ispuniti, nego unositi svoje osobne podatke u model.

Informacije o osobnim financijama

Kao i kada se savjetuje oprez pri dijeljenju financijskih podataka poput broja kreditnih kartica, broja računa ili lozinki za online bankarstvo, isto pravilo vrijedi i za AI modele. Umjesto dijeljenja stvarnih osobnih podataka, bolje je koristiti izmišljene primjere ako tražite savjete o kreditima ili poreznim uštedama.

Lozinke i šifre

Otkrivanje lozinki za pristup vašim korisničkim ili poslovnim računima izuzetno je neoprezno. Kao što ne biste povjerili svoje ključeve nepoznatoj osobi, nemojte ni AI modelima dijeliti lozinke i korisnička imena.

Privatne informacije

AI model nije mjesto za dijeljenje osjetljivih ili povjerljivih informacija. Privatne stvari poput osobnih problema, glasina ili detalja o zdravlju i obitelji ne bi trebale biti predmet razgovora s AI modelima. Ne tretirajte ga kao ispovjednika ili prijatelja kojem možete otkriti sve tajne.

Povjerljive informacije o tvrtkama ili poslodavcu

Iako se može činiti praktičnim koristiti ChatGPT za izradu ugovora ili poslovnih dokumenata, to nije sigurno. Isto vrijedi i za dijeljenje povjerljivih informacija, poput podataka o patentima, prototipovima, poslovnim planovima ili financijama. To je jedan od razloga zašto mnoge tvrtke blokiraju pristup AI modelima na službenim računalima.

Eksplicitni sazržaj

Čak i ako postavite šalu poput "kako se riješiti nekoga trajno", to vam može donijeti probleme. Ne samo da AI modeli poput ChatGPT-a neće odgovoriti na takva pitanja, već mogu automatski prijaviti sumnjive upite nadležnim tijelima. Dakle, bolje je suzdržati se od takvih upita, bez obzira na ton u kojem ih postavljate.

Medicinske informacije

Mnogi korisnici danas zamjenjuju Google s ChatGPT-om, tretirajući ga gotovo kao osobnog liječnika. Iako nije problem tražiti pojašnjenje za neki medicinski pojam, važno je izbjegavati dijeljenje osobnih podataka u svojim upitima. Bolje je postaviti općenito pitanje, poput: "Preporuči mi vježbe za muškarca u 30-ima koji ima problema s išijasom."

Ako niste sigurni trebate li podijeliti neku informaciju, zapitajte se: "Bih li volio da netko objavi moj upit na internetu?" Ako je odgovor "ne", bolje je da se suzdržite od postavljanja tog pitanja AI modelu.