Μοιάζει αθώο, όμως οι ειδικοί προειδοποιούν ότι κάθε φορά
που ανεβάζουμε μια φωτογραφία στο ChatGPT, μοιραζόμαστε πολύ περισσότερα από
όσα πιστεύουμε.
Το τι συμβαίνει στις φωτογραφίες αυτές όταν η αλληλεπίδρασή
μας με το chatbot τελειώσει είναι κάθε άλλο παρά ξεκάθαρο. Διαφορετικές
εταιρείες τεχνητής νοημοσύνης εφαρμόζουν διαφορετικές πολιτικές, ενώ υπάρχει
πάντα ο κίνδυνος κάποιου τεχνικού σφάλματος αλλά και ο απρόβλεπτος παράγοντας
του πώς θα εξελιχθεί η συγκεκριμένη τεχνολογία στο μέλλον.
Η πραγματικότητα είναι ότι οι περισσότεροι χρήστες της
τεχνητής νοημοσύνης υποθέτουν ότι ισχύει ένα επίπεδο ιδιωτικότητας που ίσως τελικά να μην διασφαλίζεται.
«Είναι σημαντικό να μην ανεβάζετε φωτογραφίες τις οποίες δεν
θα θέλατε να δει ποτέ κανένας», λέει μιλώντας στη Wall Street Journal ο Jacob
Hoffman-Andrews, της οργάνωσης για τα ψηφιακά δικαιώματα Electronic Frontier
Foundation.
Σύμφωνα με τον Hoffman-Andrews, οι χρήστες θα πρέπει να
βλέπουν τα chatbots σαν ένα μέρος όπου οι φωτογραφίες τους θα συνεχίσουν να
υπάρχουν, όπως το iCloud ή το Google
Photos, αλλά με πρόσθετους κινδύνους. Ο κυριότερος από αυτούς τους κινδύνους
είναι η ασφάλεια, αφού τα chatbots μπορεί να βρεθούν στο στόχαστρο χάκερς, που
θα μπορούσαν να αποκτήσουν πρόσβαση σε λογαριασμούς χρηστών.
Όμως η ιδιωτικότητα του χρήστη απειλείται και από τα ίδια τα
chatbots. Οι εταιρείες τεχνητής νοημοσύνης έχουν πρόσβαση στα δεδομένα και τις
εικόνες των χρηστών. Για να διαπιστώσουν πόσο καλά δουλεύουν τα μοντέλα τους,
αναθέτουν σε υπαλλήλους τους να εξετάζουν κάποιες συνομιλίες δειγματοληπτικά.
Αυτό σημαίνει ότι ένας υπάλληλος της OpenAI, για παράδειγμα, μπορεί να δει την
αλληλεπίδραση ενός χρήστη με το ChatGPT, ακόμα και εάν αυτός την έχει
διαγράψει.
Ακόμα και μια απλή φωτογραφία μπορεί να αποδειχθεί
επικίνδυνη για τον χρήστη, εάν πέσει σε λάθος χέρια. Οι φωτογραφίες περιέχουν
metadata, όπως η τοποθεσία και ο χρόνος στον οποίο τραβήχτηκαν, ενώ μπορεί να αποκαλύπτουν ευαίσθητα δεδομένα,
όπως οι αριθμοί τραπεζικών λογαριασμών ή καρτών, οι διευθύνσεις κατοικίας ή
εργασίας, μια ιατρική διάγνωση κτλ.
Αυτό που δεν συνειδητοποιούν πολλοί χρήστες είναι ότι σε
κάποιες περιπτώσεις, τα δεδομένα τους χρησιμοποιούνται για την εκπαίδευση των
μοντέλων τεχνητής νοημοσύνης, ακόμα και εάν δεν έχουν δώσει ρητά την έγκρισή
τους.
Και ενώ μία φωτογραφία από τις διακοπές σας ή μια άλλη από
μία συνταγή μπορεί να χαθούν μέσα στον σωρό δεδομένων που λαμβάνουν τα
chatbots, κάποιες φωτογραφίες διατρέχουν μεγαλύτερο κίνδυνο να χαραχθούν στη
«μνήμη» των συστημάτων, τονίζει η Wall Street Journal. Επομένως, κινδυνεύουν να
εμφανιστούν στα αποτελέσματα που δίνουν τα chatbots σε άλλους, με κάποια μορφή
που μπορεί να είναι αναγνωρίσιμη.
Όπως εξηγεί ο Hoffman-Andrews, δύο κατηγορίες φωτογραφιών θα
πρέπει να θεωρούνται οι πιο «επικίνδυνες»: Αυτές που εμφανίζονται χιλιάδες
φορές online, όπως κάποιες που γίνονται memes, αλλά και κάποιες που ξεχωρίζουν
από τον στατιστικό μέσο όρο, καθώς παρουσιάζουν πολύ διακριτά χαρακτηριστικά.
Για τον τυπικό χρήστη, μια πιστή αναπαραγωγή των προσωπικών
φωτογραφιών του από τα συστήματα AI είναι απίθανη, λέει ο Hoffman-Andrews. Όμως
όταν κάποιος «ανεβάζει» μια selfie υψηλής ευκρίνειας, τότε διατρέχει τον
κίνδυνο το chatbot να κάνει αναπαραγωγή της εικόνας αυτής με τέτοιο τρόπο ώστε
τα χαρακτηριστικά του να είναι αναγνωρίσιμα σε άλλους.
Και βέβαια, όποιες και εάν είναι οι πολιτικές των εταιρειών
τεχνητής νοημοσύνης σήμερα, κανείς δεν γνωρίζει πώς θα εξελιχθεί το τοπίο
μελλοντικά, καθώς η τεχνολογία αυτή κάνει άλματα. Μακροπρόθεσμα, υπάρχει ο
κίνδυνος μια φωτογραφία που ανεβαίνει σήμερα, να χρησιμοποιηθεί στο μέλλον με
τρόπους που θα διαφέρουν από την αρχική της χρήση, λέει στη WSJ η Sarah Myers
West του AI Now Institute, ενός οργανισμού που μελετά την επίδραση της τεχνητής
νοημοσύνης στην κοινωνία.
«Ό,τι και εάν ανεβάζετε, πρόκειται να έχει μια ζωή πολύ
μεγαλύτερη από τη στιγμή στην οποία χρησιμοποιείτε το σύστημα», εξηγεί.
Πηγή...
