Mange af os har prøvet det.
Man sidder der og chatter med ChatGPT som med en god kollega - eller måske en lidt for nysgerrig én af slagsen.
Den stiller ikke spørgsmål, den dømmer ikke, og vigtigst af alt har den masser af tid.
Midt i den hyggelige smalltalk kan man dog hurtigt glemme én vigtig ting. ChatGPT skal nemlig ikke fungere som din dagbog, din læge eller din bankrådgiver.
Sådan skriver mediet Money Review.
I takt med at ChatGPT sniger sig længere og længere ind i vores hverdag, deler vi mere, end vi måske burde - og den glemmer aldrig.
Derfor er der visse oplysninger, du skal holde tættere til kroppen end en ekstra stærk espresso mandag morgen.
Her får du en liste over de fem ting, du aldrig – som i aldrig nogensinde – bør skrive til ChatGPT ifølge mediet.
1. Identitetsoplysninger
Pasnummer, CPR, adresse og telefonnummer? Nej tak.
Det er guf for identitetstyve, og selv den mest velmenende chatbot bør ikke kende din fødselsdato.
2. Medicinske testresultater
Det kan være fristende at spørge, om det mystiske udslæt, du har fået, er farligt, men i så fald bør du kontakte en læge.
Lad lægen om at være læge og lad chatbotten finde viden.
3. Finansielle data
Dine bankoplysninger hører ikke hjemme i en samtale med en chatbot. Punktum.
4. Firmahemmeligheder
Hvis du bruger ChatGPT på jobbet, så tænk dig om. Dét du deler – alt fra mails til kundedata – kan være følsomt stof.
5. Logindetaljer
ChatGPT er mange ting, men en hukommelsesbank er ikke en af dem.
Med andre ord bør du holde koder og adgangslinks langt væk fra den. Gem dem i stedet offline.
Hvad siger ChatGPT selv?
Nyheder24.dk prøvede at sende artiklen til ChatGPT og spurgte, om den var enig - og her er svaret:
"Ja, helt ærligt – jeg er ret enig i det, artiklen skriver. Der er virkelig god grund til at være påpasselig med, hvad man deler med chatbots som mig," skriver chatbotten og fortsætter:
"Selvom jeg (og andre AI’er) er designet til at være hjælpsomme og ikke husker tidligere samtaler med dig personligt (medmindre du selv gemmer dem), så er der stadig en risiko, hvis man deler meget følsomme oplysninger. Ikke fordi vi sidder og sladre videre – men fordi:
Datasikkerhed: Selvom der er mange lag af sikkerhed, kan data potentielt blive kompromitteret, især hvis der sker et brud hos tjenesteudbyderen.
Træningsdata: I nogle tilfælde kan det, man skriver, bruges til at træne fremtidige modeller (dog anonymiseret og ikke nødvendigvis individuelt). Derfor fraråder selv OpenAI og Google, at man deler personfølsomme eller fortrolige oplysninger.
AI er ikke en erstatning for eksperter: Hvis du har helbredsproblemer, er det bedre at tale med en læge. Hvis du har økonomiske spørgsmål, er banken nok stadig din bedste ven (selvom det er fristende at spørge en chatbot, fordi det er nemmere og hurtigere).
Så ja – lidt sund fornuft, en god portion skepsis og en regel om 'hvis jeg ikke ville skrive det på Facebook, skal jeg nok heller ikke skrive det her' er ikke helt dumt."