Μήνες πριν η 18χρονη Τζέσι Βαν Ρούτσελααρ ταυτοποιηθεί για την πολύνεκρη επίθεση σε σχολείο στο Τάμπλερ Ριτζ της Βρετανικής Κολομβίας, η εταιρεία OpenAI είχε ανησυχητικές ενδείξεις από τις συνομιλίες της με το ChatGPT.
Σύμφωνα με ρεπορτάζ της Wall Street Journal, που επικαλείται πρόσωπα που γνωρίζουν τις εσωτερικές διαδικασίες, η 18χρονη είχε περιγράψει σε διαδοχικές συνομιλίες σενάρια ένοπλης βίας.
Το αυτοματοποιημένο σύστημα ελέγχου της εταιρείας «σήμανε συναγερμό», προκαλώντας εσωτερική κινητοποίηση. Περίπου δώδεκα εργαζόμενοι συμμετείχαν σε συζητήσεις για το αν έπρεπε να ενημερωθούν οι καναδικές αρχές.
Κάποιοι θεώρησαν ότι τα γραπτά της θα μπορούσαν να υποδηλώνουν κίνδυνο πραγματικής βίας και πίεσαν για αναφορά στην καναδική αστυνομία. Η ηγεσία της εταιρείας, ωστόσο, κατέληξε ότι δεν πληρούνταν τα κριτήρια για ειδοποίηση των αρχών, τα οποία απαιτούν «αξιόπιστη και άμεση απειλή σοβαρής σωματικής βλάβης».
Ο λογαριασμός της χρήστριας απενεργοποιήθηκε, χωρίς να υπάρξει περαιτέρω κίνηση.
Στις 10 Φεβρουαρίου, η Βαν Ρούτσελααρ εντοπίστηκε νεκρή στον χώρο του σχολείου, φερόμενη ως δράστιδα της επίθεσης που κόστισε τη ζωή σε οκτώ ανθρώπους και τραυμάτισε τουλάχιστον 25.
Η Royal Canadian Mounted Police (RCMP) την κατονόμασε ως ύποπτη και διεξάγει εκτεταμένη έρευνα για το ψηφιακό και προσωπικό της αποτύπωμα.
Μετά την επίθεση, η OpenAI επικοινώνησε με τις αρχές και δήλωσε ότι συνεργάζεται πλήρως στην έρευνα, εκφράζοντας τα συλλυπητήριά της για την τραγωδία στο Τάμπλερ Ριτζ.
Οι ερευνητές εξετάζουν την ευρύτερη διαδικτυακή της δραστηριότητα: από αναρτήσεις σε μέσα κοινωνικής δικτύωσης μέχρι ένα βιντεοπαιχνίδι που είχε δημιουργήσει στην πλατφόρμα Roblox, το οποίο προσομοίαζε επίθεση με πυροβολισμούς.
Η υπόθεση επαναφέρει στο προσκήνιο ένα σύνθετο δίλημμα: πού τελειώνει η προστασία της ιδιωτικότητας και πού αρχίζει η υποχρέωση πρόληψης;
Οι πλατφόρμες τεχνητής νοημοσύνης, στις οποίες οι χρήστες συχνά εκμυστηρεύονται τις πιο προσωπικές σκέψεις τους, καλούνται πλέον να σταθμίσουν σε πραγματικό χρόνο τον κίνδυνο βίας έναντι του κινδύνου άσκοπης αστυνομικής εμπλοκής.
Η OpenAI υποστηρίζει ότι τα μοντέλα της έχουν σχεδιαστεί ώστε να αποθαρρύνουν επιβλαβείς πράξεις και ότι περιπτώσεις πιθανής πρόθεσης βλάβης προωθούνται σε ανθρώπινους αξιολογητές. Ωστόσο, η απόφαση για το αν μια απειλή είναι «άμεση» και «αξιόπιστη» παραμένει μια δύσκολη, συχνά γκρίζα ζώνη.
Στο Τάμπλερ Ριτζ, το τίμημα αυτής της γκρίζας ζώνης μετρήθηκε σε ανθρώπινες ζωές — και το ερώτημα για τον ρόλο της τεχνητής νοημοσύνης στην πρόληψη τέτοιων τραγωδιών γίνεται πλέον πιο επιτακτικό από ποτέ.

ΑΚΟΛΟΥΘΕΙΣΤΕ ΜΑΣ