Ό,τι γράφεις μένει: Τι δεν πρέπει να αποκαλύπτεις στην τεχνητή νοημοσύνη.
Καθώς τα εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT μπαίνουν για τα καλά στη ζωή μας – από τις δουλειές και τις σχέσεις μέχρι την… ψυχοθεραπεία – οι χρήστες έχουν αρχίσει να φέρονται σε αυτά όπως σε φίλους που τα ξέρουν όλα.
Κι όμως: όσο πιο «ανθρώπινα» γίνονται τα chatbot, τόσο μεγαλώνει και ο κίνδυνος διαρροής προσωπικών δεδομένων. Γιατί, πίσω από τα εντυπωσιακά τους γραπτά, κρύβονται εταιρείες που εκπαιδεύουν τα μοντέλα πάνω σε αυτά που τους λες. Και όχι, δεν είναι πάντα τόσο διαφανείς όσο θα ήθελες.
Ορίστε λοιπόν 5 τύποι δεδομένων που οι ειδικοί συμφωνούν ότι ΔΕΝ πρέπει να μοιράζεσαι με τα chatbot:
1. Προσωπικά στοιχεία ταυτοποίησης
Ονοματεπώνυμο, ημερομηνία γέννησης, αριθμοί ταυτότητας, διευθύνσεις, τηλέφωνα… όλα αυτά μπορούν να γίνουν στόχος επιτήδειων, αν καταλήξουν σε λάθος χέρια. Κάποια chatbot προσπαθούν να τα κρύψουν — αλλά μην βασίζεσαι σ’ αυτό.
2. Ιατρικά δεδομένα και αποτελέσματα εξετάσεων
Ό,τι έχει να κάνει με την υγεία σου πρέπει να μένει ιδιωτικό. Οι εικόνες, τα έγγραφα και τα ιατρικά αποτελέσματα μπορεί να αποθηκευτούν χωρίς τις απαραίτητες δικλίδες ασφαλείας. Αν πρέπει οπωσδήποτε να τα μοιραστείς, κάνε ανωνυμοποίηση.
3. Οικονομικά στοιχεία και λογαριασμοί
Από IBAN μέχρι επενδυτικά πλάνα και αποδείξεις, κράτησέ τα εκτός συνομιλιών. Ακόμη κι ένα απλό «δεν βγαίνουν τα νούμερα στη δήλωσή μου» μπορεί να αποκαλύψει ευαίσθητα στοιχεία για το εισόδημά σου ή τη φορολογική σου κατάσταση.
4. Εμπιστευτικές εταιρικές πληροφορίες
Πολλοί χρησιμοποιούν AI για να βγάζουν δουλειές. Αλλά όταν μιλάμε για εσωτερικά έγγραφα, reports ή επόμενα λανσαρίσματα, το ρίσκο είναι τεράστιο. Γι’ αυτό πολλές εταιρείες έχουν μπλοκάρει εντελώς τη χρήση τέτοιων εργαλείων.
5. Κωδικοί και στοιχεία πρόσβασης
Αυτονόητο, αλλά το λέμε άλλη μία φορά: δεν αποθηκεύεις ποτέ passwords σε chatbot. Δεν έχουν καμία σχέση με password managers, ούτε σχεδιάστηκαν για κάτι τέτοιο. Και όχι, το “θυμήσου τον κωδικό μου” δεν είναι καλή ιδέα εδώ.
Bonus tip: Κάθε πλατφόρμα έχει τη δική της πολιτική. Για παράδειγμα:
-
Η Anthropic (Claude) δεν χρησιμοποιεί τα δεδομένα για εκπαίδευση και τα διαγράφει μετά από 2 χρόνια.
-
Η DeepSeek (Κίνα) μπορεί να τα κρατήσει επ’ αόριστον χωρίς δυνατότητα διαγραφής.
Οπότε, πριν ξεκινήσεις να «ανοίγεσαι», ρίξε μια ματιά στα ψιλά γράμματα.
Το AI είναι εργαλείο, όχι εξομολογητής. Κράτα τα προσωπικά σου… προσωπικά.