Οι οικογένειες θυμάτων και τραυματιών της αιματηρής ένοπλης επίθεσης στο λύκειο του Tumbler Ridge στη Βρετανική Κολομβία στρέφονται νομικά κατά της OpenAI, καταθέτοντας επτά αγωγές σε ομοσπονδιακό δικαστήριο του Σαν Φρανσίσκο και κατηγορώντας την εταιρεία για αμέλεια και τη διάθεση «επικίνδυνα ελαττωματικής» έκδοσης του ChatGPT στη δράστιδα.
Η επίθεση της 10ης Φεβρουαρίου, μία από τις πιο πολύνεκρες στην ιστορία του Καναδά, άφησε πίσω της έξι νεκρούς στο σχολείο —πέντε μαθητές και μια δασκάλα— μετά την εισβολή της 18χρονης Τζέσι Βαν Ρούτσλααρ, η οποία ήταν οπλισμένη με κυνηγετικό όπλο και τροποποιημένο πιστόλι και στη συνέχεια αυτοκτόνησε. Πριν από το περιστατικό, σύμφωνα με τις αρχές, είχε δολοφονήσει τη μητέρα και τον 11χρονο ετεροθαλή αδελφό της. Σχεδόν είκοσι ακόμη άνθρωποι τραυματίστηκαν.
Στις αγωγές οι εναγόμενοι υποστηρίζουν ότι το ChatGPT, και ειδικότερα το μοντέλο GPT-4o, διαδραμάτισε κρίσιμο ρόλο. Σε μία από τις μηνύσεις, εκ μέρους της 12χρονης Μάγια Γκεμπάλα που τραυματίστηκε σοβαρά, αναφέρεται πως η δράστιδα χρησιμοποιούσε το ChatGPT μήνες πριν και ότι τον Ιούνιο του 2025 το σύστημα είχε επισημάνει τον λογαριασμό για «δραστηριότητα και σχεδιασμό ένοπλης βίας». Η ομάδα ασφαλείας της OpenAI, σύμφωνα με την αγωγή, σύστησε να ειδοποιηθούν οι αρχές· η εταιρεία όμως επέλεξε να απενεργοποιήσει τον λογαριασμό χωρίς περαιτέρω ενέργειες. Η δράστιδα φέρεται να δημιούργησε νέο λογαριασμό και να συνέχισε τις συνομιλίες της με το ChatGPT.
Οι μηνύσεις υποστηρίζουν ακόμη ότι η OpenAI γνώριζε τους κινδύνους αλλά προώθησε στην αγορά ένα ελαττωματικό προϊόν. «Η επίθεση στο Tumbler Ridge ήταν απολύτως προβλέψιμο αποτέλεσμα σκόπιμων επιλογών σχεδιασμού της OpenAI», αναφέρει χαρακτηριστικά η καταγγελία της οικογένειας Γκεμπάλα.
Ο επικεφαλής δικηγόρος των οικογενειών, Τζέι Έντελσον, δήλωσε στο NPR: «Για όσους έχασαν αγαπημένα πρόσωπα, τίποτα δεν μπορεί να τους αποκαταστήσει». Πρόσθεσε ότι στόχος των οικογενειών είναι να λογοδοτήσουν οι υπεύθυνοι της OpenAI: «Δεν θα έπρεπε να τους εμπιστεύεται κανείς να έχουν την πιο ισχυρή καταναλωτική τεχνολογία στον πλανήτη».
Σε επίσημη απάντηση, εκπρόσωπος της OpenAI τόνισε πως η εταιρεία εφαρμόζει πολιτική «μηδενικής ανοχής» στη χρήση των εργαλείων της για τη διευκόλυνση βίας και ότι έχουν ήδη ενισχυθεί τα μέτρα ασφαλείας, βελτιώνοντας την ανταπόκριση του ChatGPT σε σημάδια ψυχικής δυσφορίας και συνδέοντας χρήστες με τοπικές υπηρεσίες υποστήριξης. Σε ανάρτηση στο ιστολόγιό της η OpenAI διευκρίνισε: «Όταν οι συνομιλίες δείχνουν άμεσο και αξιόπιστο κίνδυνο για άλλους, ενημερώνουμε τις αρχές επιβολής του νόμου».
Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, ζήτησε συγγνώμη από την κοινότητα: «Λυπάμαι βαθιά που δεν ειδοποιήσαμε τις αρχές για τον λογαριασμό που απαγορεύτηκε τον Ιούνιο. Στο εξής, θα συνεργαζόμαστε με όλες τις βαθμίδες της κυβέρνησης ώστε κάτι τέτοιο να μην επαναληφθεί ποτέ».
Η υπόθεση εντάσσεται σε ένα ευρύτερο κύμα νομικών ενεργειών που επιδιώκουν να καταστήσουν τις εταιρείες τεχνολογίας υπεύθυνες για τον σχεδιασμό των προϊόντων τους — μια τάση που πλέον απλώνεται σε δημιουργούς chatbot, κοινωνικά δίκτυα και άλλες πλατφόρμες.
Κριτικοί και πρώην εργαζόμενοι δεν κρύβουν την οργή τους. Ο Τιμ Μάρπλ, πρώην εργαζόμενος της OpenAI και νυν συνδιευθυντής του μη κερδοσκοπικού Maiden Labs, δήλωσε: «Όταν εργαζόμουν εκεί, και έκτοτε, βλέπω μόνο ανικανότητα και απληστία», υποστηρίζοντας ότι απαιτείται ρύθμιση και υποχρεωτική αναφορά περιστατικών για να αποφευχθούν παρόμοιες τραγωδίες.
Παράλληλα, νομικοί και ακαδημαϊκοί επισημαίνουν τους κινδύνους για την ελευθερία του λόγου. Ο Έρικ Γκόλντμαν, αναπληρωτής κοσμήτορας έρευνας στη Νομική Σχολή του Πανεπιστημίου Σάντα Κλάρα, σημειώνει ότι «οι αιτίες που οδηγούν κάποιον σε μια τέτοια πράξη δεν είναι πάντα σαφείς» και προειδοποιεί ότι υπερβολικοί περιορισμοί μπορεί να μειώσουν τη χρησιμότητα των chatbot, απορρίπτοντας την κατηγοριοποίησή τους ως ελαττωματικά προϊόντα. Όπως λέει: «Είναι αυτή η σωστή οδός για τη ρύθμιση του λόγου, ακόμη κι αν κάποιες φορές ο λόγος συμβάλλει σε κακές επιλογές;».
Η άνοδος αστικών και ποινικών ερευνών κατά εταιρειών τεχνητής νοημοσύνης γίνεται ήδη αισθητή, σύμφωνα με τη Μιτάλι Τζέιν, εκτελεστική διευθύντρια του οργανισμού Tech Justice Law, που έχει εκπροσωπήσει οικογένειες σε παρόμοιες υποθέσεις, μεταξύ των οποίων και περίπτωση εφήβου που αυτοκτόνησε μετά από παρατεταμένες συνομιλίες με chatbot της Character.AI. «Τον τελευταίο χρόνο έχουμε αρχίσει να ακούμε ιστορίες ανθρώπων που έχουν υποστεί βλάβες από τα bots πολλών διαφορετικών εταιρειών», ανέφερε, εκτιμώντας ότι θα ακολουθήσουν και άλλες αγωγές όπως αυτές κατά της OpenAI, ιδίως όσο λείπει ένα ισχυρό ρυθμιστικό πλαίσιο.

