Το Facebook τραβάει τη νέα του «τεχνητή νοημοσύνη για την επιστήμη» επειδή είναι σπασμένη και τρομακτική

Στιγμιότυπο οθόνης του ιστότοπου Galactica με τον τίτλο

Εικόνα: Meta / Coded Papers

Η μητρική εταιρεία του Facebook, Meta, απέσυρε τη δημόσια επίδειξη για το μοντέλο τεχνητής νοημοσύνης της «επιστημονικής γνώσης», αφού ακαδημαϊκοί έδειξαν ότι παρήγαγε ψευδείς και παραπλανητικές πληροφορίες ενώ φιλτράρει όλες τις κατηγορίες έρευνας.

Ξεκίνησε νωρίτερα αυτή την εβδομάδα, η εταιρεία περιέγραψε το Galactica ως ένα μοντέλο γλώσσας AI που «μπορεί να αποθηκεύσει, να συνδυάσει και να αιτιολογήσει επιστημονικές πληροφορίες» που συνοψίζει ερευνητικές εργασίες, λύνει εξισώσεις και εκτελεί μια σειρά από άλλες χρήσιμες επιστημονικές εργασίες. Όμως, οι επιστήμονες και οι ακαδημαϊκοί ανακάλυψαν γρήγορα ότι οι περιλήψεις του συστήματος AI παρήγαγαν έναν συγκλονιστικό όγκο παραπληροφόρησης, συμπεριλαμβανομένης της αναφοράς πραγματικών συγγραφέων για ανύπαρκτες ερευνητικές εργασίες.

«Σε κάθε περίπτωση, ήταν λάθος ή προκατειλημμένο, αλλά ακουγόταν σωστό και έγκυρο», έγραψε ο Michael Black, διευθυντής του Ινστιτούτου Max Planck για Ευφυή Συστήματα. ένα νήμα στο Twitter μετά τη χρήση του εργαλείου. «Νομίζω ότι είναι επικίνδυνο».

Το νήμα του Black καταγράφει μια ποικιλία καταστάσεων όπου η Galactica έχει δημιουργήσει επιστημονικά κείμενα που είναι παραπλανητικά ή εντελώς ψευδή. Σε λίγες περιπτώσεις, η τεχνητή νοημοσύνη παράγει άρθρα που φαίνονται αξιόπιστα και πιστευτά, αλλά δεν υποστηρίζονται από πραγματική επιστημονική έρευνα. Σε ορισμένες περιπτώσεις, οι αναφορές περιλαμβάνουν ακόμη και ονόματα πραγματικών συγγραφέων, αλλά συνδέονται με ανύπαρκτα αποθετήρια Github και ερευνητικές εργασίες.

Οι υπολοιποι αιχμηρός Ότι το Galactica δεν επιστρέφει αποτελέσματα για ένα ευρύ φάσμα ερευνητικών θεμάτων, πιθανώς λόγω αυτοματοποιημένων φίλτρων από την τεχνητή νοημοσύνη. Ο Willie Agnew, ερευνητής επιστήμης υπολογιστών στο Πανεπιστήμιο της Ουάσιγκτον, σημείωσε ότι κανένα από τα ερωτήματα όπως η “queer θεωρία”, ο “ρατσισμός” και το “AIDS” δεν έφεραν κανένα αποτέλεσμα.

Νωρίς το πρωί της Πέμπτης, ο Meta αφαίρεσε το demo για το Galactica. Όταν ζητήθηκε σχόλιο, η εταιρεία έστειλε τη Motherboard σε μια δήλωση που δημοσίευσε μέσω του Papers With Code, του έργου που είναι υπεύθυνο για το σύστημα.

“Εκτιμούμε τα σχόλια που έχουμε λάβει από την κοινότητα μέχρι στιγμής και έχουμε διακόψει την επίδειξη προς το παρόν”, δήλωσε η εταιρεία. έγραψε στο Twitter. “Τα μοντέλα μας είναι διαθέσιμα σε ερευνητές που θέλουν να μάθουν περισσότερα για τη μελέτη και να αναπαράγουν τα αποτελέσματα στο έγγραφο.”

Ορισμένοι υπάλληλοι της Meta υποστήριξαν επίσης, υπονοώντας ότι το demo αφαιρέθηκε ως απάντηση στην κριτική.

“Η επίδειξη του Galactica είναι εκτός σύνδεσης προς το παρόν” ανέβασε στο Twitter Ο Yann LeCun είναι ο επικεφαλής επιστήμονας τεχνητής νοημοσύνης του Meta. «Δεν είναι πλέον δυνατό να διασκεδάσουμε με αδιάκριτη κακοποίηση. Χαρούμενος?”

Αυτή δεν είναι η πρώτη φορά που το Facebook αναγκάστηκε να εξηγήσει τον εαυτό του μετά την κυκλοφορία ενός φρικτού προκατειλημμένου AI. Τον Αύγουστο, η εταιρεία κυκλοφόρησε ένα demo για ένα chatbot που ονομάζεται BlenderBot, το οποίο χρησιμοποιεί “προσβλητικές και μη ρεαλιστικές” εκφράσεις κατά την πλοήγηση σε παράξενα αφύσικές συνομιλίες. Η εταιρεία κυκλοφόρησε επίσης ένα μεγάλο μοντέλο γλώσσας που ονομάζεται OPT-175B.

Το Galactica είναι επίσης ένα σημαντικό μοντέλο γλώσσας, ένας τύπος μοντέλου μηχανικής εκμάθησης γνωστός για τη δημιουργία εξαιρετικά πιστευτού κειμένου που μοιάζει σαν να γράφτηκε από ανθρώπους. Ενώ τα αποτελέσματα αυτών των συστημάτων είναι συχνά εντυπωσιακά, το Galactica είναι ένα άλλο παράδειγμα ότι η ικανότητα να παράγει πιστευτή ανθρώπινη γλώσσα δεν σημαίνει ότι κατανοεί πραγματικά το πλαίσιο του συστήματος. Μερικοί ερευνητές αμφισβήτησαν εάν μεγάλα μοντέλα γλώσσας πρέπει να χρησιμοποιηθούν για τη λήψη οποιωνδήποτε αποφάσεων, επισημαίνοντας ότι η πολυπλοκότητά τους που μουδιάζει το μυαλό καθιστά σχεδόν αδύνατο για τους επιστήμονες να τα ελέγξουν ή ακόμα και να εξηγήσουν πώς λειτουργούν.

Αυτό είναι σαφώς ένα μεγάλο πρόβλημα, ειδικά όταν πρόκειται για επιστημονική έρευνα. Οι επιστημονικές εργασίες βασίζονται σε αυστηρές μεθοδολογίες που τα συστήματα τεχνητής νοημοσύνης που δημιουργούν κείμενο δεν μπορούν να κατανοήσουν ξεκάθαρα, ή τουλάχιστον όχι ακόμη. Ο Μπλακ είναι κατανοητό ότι ανησυχεί για τις συνέπειες της εκτόξευσης ενός συστήματος όπως το Galactica, το οποίο λέει ότι θα μπορούσε να «αρχίσει μια εποχή βαθιάς επιστημονικής απάτης».

“Παρουσιάζει μια επιστήμη που φαίνεται αναξιόπιστη και δεν βασίζεται στην επιστημονική μέθοδο”, έγραψε ο Black στο νήμα στο Twitter. «Παράγει ψευδοεπιστήμη με βάση τις στατιστικές ιδιότητες της *γραφής* της επιστήμης. Το να γράφεις γραμματική δεν είναι το ίδιο με το να κάνεις επιστήμη. Αλλά θα είναι δύσκολο να το ξεχωρίσεις».

Leave a Comment

Your email address will not be published. Required fields are marked *