Autor Objavljeno Portal Original
db 20.02.2026. u 21:48 Direktno Otvori

Ovo nikada ne smijete reći ChatGPT-u: Korisnici rade pogreške s ovih sedam stvari

Veliki jezični modeli poput ChatGPT-a, Geminija i Perplexityja postali su dio svakodnevice. No stručnjaci upozoravaju da njihova upotreba može predstavljati sigurnosni rizik ako se s njima dijele osjetljive informacije.

U žurbi da brzo dođu do rješenja, korisnici često chatbotovima otkrivaju podatke koje ne bi povjerili nepoznatoj osobi. Iako AI alati nisu stvarne osobe, u kontekstu privatnosti treba ih tako tretirati. Portal Zimo upozorava na niz informacija koje nikako ne bi trebalo unositi u AI modele. Nikada ne biste trebali dijeliti svoje osobne podatke poput imena, prezimena, adrese, OIB-a, broja osobne iskaznice ili putovnice s AI chatbotovima, a to uključuje i fotografije tih dokumenata.

Jednako oprezni trebate biti i s financijskim informacijama. Brojevi kreditnih kartica, bankovni računi, lozinke za internetsko bankarstvo i slični podaci ne bi smjeli biti dio komunikacije s AI modelima. Umjesto dijeljenja stvarnih osobnih podataka, bolje je koristiti izmišljene primjere ako tražite savjete o kreditima ili poreznim uštedama. Također, otkrivanje lozinki za pristup vašim korisničkim ili poslovnim računima izuzetno je neoprezno.

Kao što ne biste povjerili svoje ključeve nepoznatoj osobi, nemojte ni AI modelima dijeliti lozinke i korisnička imena. AI model nije mjesto za dijeljenje osjetljivih ili povjerljivih informacija. Privatne stvari poput osobnih problema, glasina ili detalja o zdravlju i obitelji ne bi trebale biti predmet razgovora s AI modelima. 

Oprez i kod neukusnih šali

Iako se može činiti praktičnim koristiti ChatGPT za izradu ugovora ili poslovnih dokumenata, to nije sigurno. Isto vrijedi i za dijeljenje povjerljivih informacija, poput podataka o patentima, prototipovima, poslovnim planovima ili financijama. To je jedan od razloga zašto mnoge tvrtke blokiraju pristup AI modelima na službenim računalima.

Čak i ako postavite šalu poput "kako se riješiti nekoga trajno", to vam može donijeti probleme. Ne samo da AI modeli poput ChatGPT-a neće odgovoriti na takva pitanja, već mogu automatski prijaviti sumnjive upite nadležnim tijelima. Dakle, bolje je suzdržati se od takvih upita, bez obzira na ton u kojem ih postavljate, prenio je portal Zimo.

Vatikan uvodi AI tehnologiju: Usluge će se koristiti za vrijeme svete mise, evo o čemu je riječ

Mnogi korisnici tretiraju ChatGPT kao osobnog liječnika. Iako nije problem tražiti pojašnjenje za neki medicinski pojam, važno je izbjegavati dijeljenje osobnih podataka u svojim upitima.