20 Μαρτίου 2025
Δημοσίευση: 20:07'

Νορβηγία: To ChatGPT παρουσίασε ψευδώς πατέρα ως δολοφόνο των παιδιών του – Πως το ανακάλυψε – Στρέφεται νομικά

Tο σοκαριστικό λάθος του ChatGPT

Επιμέλεια: Δημήτρης Καΐμάς
Δημοσίευση: 20:07’
Επιμέλεια: Δημήτρης Καΐμάς

Tο σοκαριστικό λάθος του ChatGPT

Η υπόθεση ενός Νορβηγού , ο οποίος βρέθηκε εσφαλμένα κατηγορούμενος για δολοφονία από το ChatGPT, έχει φέρει στο προσκήνιο τις ανησυχίες για την αξιοπιστία των μοντέλων τεχνητής νοημοσύνης. Ο Άρβε Γιάλμαρ Χόλμεν, σοκαρισμένος από το αποτέλεσμα του chatbot που τον παρουσίασε ψευδώς ως εγκληματία, υπέβαλε επίσημη καταγγελία κατά της OpenAI στη Νορβηγία, σύμφωνα με τη ΜΚΟ Noyb.

Tο σοκαριστικό λάθος του ChatGPT

Ο Χόλμεν ανακάλυψε το πρόβλημα όταν ζήτησε από το ChatGPT να δημιουργήσει το προσωπικό του πορτρέτο. Προς έκπληξή του, το chatbot τον εμφάνισε ως δολοφόνο δύο παιδιών του. Αυτή η παραπληροφόρηση εγείρει σοβαρά ερωτήματα σχετικά με την ακρίβεια των δεδομένων που χρησιμοποιεί η τεχνητή νοημοσύνη και τις επιπτώσεις στη φήμη και την ιδιωτική ζωή των ατόμων.

«Κάποιοι λένε ότι όπου υπάρχει καπνός, υπάρχει και φωτιά. Αυτό είναι που με φοβίζει περισσότερο, ότι κάποιος θα πίστευε αυτούς τους ισχυρισμούς», δήλωσε ο Χόλμεν μέσω της Noyb.

Νομικές επιπτώσεις και GDPR

Η Noyb, η αυστριακή ΜΚΟ που ειδικεύεται στην προστασία της ιδιωτικότητας, κατέθεσε καταγγελία στην νορβηγική αρχή προστασίας δεδομένων (Datilsynet), κατηγορώντας την OpenAI για παραβίαση του Γενικού Κανονισμού Προστασίας Δεδομένων (GDPR). Σύμφωνα με την καταγγελία, η εταιρεία επιτρέπει στο μοντέλο της να δημιουργεί δυσφημιστικές και ψευδείς πληροφορίες, κάτι που αντιβαίνει στην αρχή της ακρίβειας των δεδομένων.

Η OpenAI διόρθωσε το λάθος και το ChatGPT δεν παρουσιάζει πλέον τον Χόλμεν ως δολοφόνο. Ωστόσο, η Noyb τονίζει ότι τα δεδομένα αυτά μπορεί να εξακολουθούν να υπάρχουν στα εσωτερικά της συστήματα και ζητά:

  • Αφαίρεση όλων των ενοχοποιητικών στοιχείων
  • Βελτιώσεις στην τεχνολογία της OpenAI ώστε να αποφεύγονται τέτοιου είδους ψευδή αποτελέσματα
  • Επιβολή διοικητικού προστίμου στην OpenAI

Η αντίδραση της OpenAI και οι επιφυλάξεις

Μέχρι στιγμής, η OpenAI δεν έχει απαντήσει στην καταγγελία. Στο παρελθόν, όταν αντιμετώπισε παρόμοιες υποθέσεις, προέβαλε τη ρήτρα μη ευθύνης, υποστηρίζοντας ότι οι πληροφορίες που παράγει το ChatGPT μπορεί να μην είναι απόλυτα ακριβείς.

Ο Γιόακιμ Σέντεμπεργκ, δικηγόρος της Noyb, απορρίπτει αυτήν τη στάση:

«Δεν μπορούν να διαδίδουν ψευδείς πληροφορίες και στο τέλος να προσθέτουν μια μικρή δήλωση αποποίησης ευθυνών λέγοντας ότι όλα όσα είπαμε μπορεί να μην είναι αλήθεια…»

Το ChatGPT, που κυκλοφόρησε τον Νοέμβριο του 2022, εντυπωσίασε με την ικανότητά του να παράγει λεπτομερείς απαντήσεις και να δημιουργεί περιεχόμενο σε φυσική γλώσσα. Έκτοτε, παρόμοια μοντέλα AI πολλαπλασιάστηκαν, αλλάζοντας την καθημερινότητα εκατομμυρίων χρηστών παγκοσμίως. Ωστόσο, περιστατικά όπως αυτό αναδεικνύουν την ανάγκη για ρυθμιστικούς ελέγχους και βελτιώσεις στην ακρίβεια των δεδομένων.

Προς αυστηρότερη ρύθμιση της AI;

Το περιστατικό του Χόλμεν έρχεται να προστεθεί σε μια σειρά από περιστατικά παραπληροφόρησης και δυσφήμισης μέσω της τεχνητής νοημοσύνης. Με τη νομική πίεση να αυξάνεται, η υπόθεση θα μπορούσε να αποτελέσει ορόσημο για την αυστηροποίηση των κανόνων προστασίας δεδομένων και τη μελλοντική ρύθμιση των AI μοντέλων στην Ευρώπη.

 

 

 


TOP NEWS

uncached