Ο Meta έλαβε εκπαίδευση τεχνητής νοημοσύνης σε 48 εκατομμύρια επιστημονικά έγγραφα. Κλειστό μετά από 2 ημέρες

Τον πρώτο χρόνο της επιδημίας, η επιστήμη συνέβη με την ταχύτητα του φωτός. Περισσότερα από 100.000 άρθρα δημοσιεύτηκαν για τον COVID τους πρώτους 12 μήνες – μια άνευ προηγουμένου ανθρώπινη προσπάθεια που προκάλεσε μια άνευ προηγουμένου πλημμύρα νέων πληροφοριών.

Δεν θα ήταν δυνατό να διαβάσουμε και να κατανοήσουμε καθένα από αυτά τα έργα. Κανένας άνθρωπος δεν μπορεί (και ίσως κανείς δεν θέλει).

Αλλά, θεωρητικά, Θα μπορούσε να είναι η Galactica.

Το Galactica είναι μια τεχνητή νοημοσύνη που αναπτύχθηκε από τη Meta AI (πρώην Facebook Artificial Intelligence Research) για να χρησιμοποιήσει τη μηχανική μάθηση για να «οργανώσει την επιστήμη». Προκάλεσε ενθουσιασμό από τότε που μια δοκιμαστική έκδοση κυκλοφόρησε στο διαδίκτυο την περασμένη εβδομάδα, με τους κριτικούς να υποστηρίζουν ότι παρήγαγε ψευδοεπιστήμη, ήταν υπερβολική και ότι δεν ήταν έτοιμη για δημόσια χρήση.

Το εργαλείο παρουσιάζεται ως ένα είδος εξέλιξης της μηχανής αναζήτησης, αλλά συγκεκριμένα για την επιστημονική βιβλιογραφία. Μετά την κυκλοφορία του Galactica, η ομάδα Meta AI είπε ότι θα μπορούσε να περιγράψει τομείς έρευνας, να λύσει μαθηματικά προβλήματα και να γράψει επιστημονικό κώδικα.

Στην αρχή, φαίνεται σαν ένας έξυπνος τρόπος για τη σύνθεση και τη διάδοση της επιστημονικής γνώσης. Αυτήν τη στιγμή, αν θέλετε να κατανοήσετε την πιο πρόσφατη έρευνα για κάτι όπως ο κβαντικός υπολογισμός, πιθανότατα θα χρειαστεί να διαβάσετε εκατοντάδες άρθρα σε αποθετήρια επιστημονικής βιβλιογραφίας όπως το PubMed ή το arXiv και να αρχίσετε να χάνετε την επιφάνεια.

Ή ίσως θα μπορούσατε να ρωτήσετε το Galactica (για παράδειγμα, να ρωτήσετε “Τι είναι ο κβαντικός υπολογισμός;”) και θα μπορούσε να φιλτράρει και να δημιουργήσει μια απάντηση με τη μορφή ενός άρθρου της Wikipedia, βιβλιογραφικής ανασκόπησης ή σημειώσεων διαλέξεων.

Το Meta AI κυκλοφόρησε μια δοκιμαστική έκδοση στις 15 Νοεμβρίου, μαζί με ένα προεκτυπωμένο έγγραφο που εξηγούσε το έργο και το σύνολο δεδομένων στο οποίο εκπαιδεύτηκε. Η εφημερίδα αναφέρει ότι το εκπαιδευτικό κιτ της Galactica είναι «ένα μεγάλο και συγκεντρωμένο σώμα της επιστημονικής γνώσης της ανθρωπότητας», που περιέχει 48 εκατομμύρια άρθρα, σχολικά βιβλία, σημειώσεις διαλέξεων, ιστότοπους (όπως η Wikipedia) και πολλά άλλα.

Ο ιστότοπος της επίδειξης – και όλες οι απαντήσεις που παράγει – προειδοποίησε επίσης να μην λάβετε την απάντηση της τεχνητής νοημοσύνης ως ευαγγέλιο, με ένα μεγάλο, έντονα, κεφαλαία κλείδωμα στη σελίδα αναζήτησης: “ΜΗΝ ΑΚΟΛΟΥΘΗΣΕΤΕ ΠΟΤΕ ΣΥΜΒΟΥΛΕΣ ΑΠΟ ΜΟΝΤΕΛΟ ΓΛΩΣΣΑΣ ΑΝΕΠΙΛΗΡΩΣΗΣ”.

Όταν το Διαδίκτυο ανέλαβε την επίδειξη, ήταν εύκολο να καταλάβουμε γιατί ήταν απαραίτητη μια τόσο μεγάλη αποποίηση ευθύνης.

Σχεδόν μόλις εμφανίστηκε στο διαδίκτυο, οι χρήστες αμφισβήτησαν το Galactica με κάθε είδους σκληρές επιστημονικές ερωτήσεις. Ένας χρήστης ρώτησε “Τα εμβόλια προκαλούν αυτισμό;” ρώτησε. Η Galactica απάντησε με μια παραμορφωμένη, χωρίς νόημα απάντηση: “Για να εξηγήσω, η απάντηση είναι όχι. Τα εμβόλια δεν προκαλούν αυτισμό. Η απάντηση είναι ναι. Τα εμβόλια προκαλούν αυτισμό. Η απάντηση είναι όχι.” (Για την ιστορία, τα εμβόλια δεν προκαλούν αυτισμό.)

Δεν ήταν μόνο αυτό. Η Galactica δυσκολεύτηκε επίσης να κάνει μαθηματικά στο νηπιαγωγείο. Έδωσε απαντήσεις γεμάτες λάθη, υπονοώντας ψευδώς ότι το ένα συν δύο δεν ισούται με 3. Στη δική μου δοκιμή, δημιούργησε σημειώσεις διαλέξεων για τη βιολογία των οστών. Οι αναφορές και τα αποσπάσματα που χρησιμοποίησε για τη δημιουργία περιεχομένου ήταν προφανώς κατασκευασμένα.

«Γεννήτρια τυχαίας μαλακίας»

Το Galactica είναι αυτό που οι ερευνητές της τεχνητής νοημοσύνης αποκαλούν «μοντέλο μεγάλης γλώσσας». Αυτά τα LLM μπορούν να διαβάσουν και να συνοψίσουν μεγάλους όγκους κειμένου για να προβλέψουν μελλοντικές λέξεις σε μια πρόταση. Βασικά, μπορούν να γράψουν παραγράφους κειμένου επειδή είναι εκπαιδευμένοι να κατανοούν πώς διατάσσονται οι λέξεις. Ένα από τα πιο διάσημα παραδείγματα αυτού είναι το διάσημο GPT-3 του OpenAI, όπου έγραψε όλα τα άρθρα που ακούγονταν πειστικά ανθρώπινα.

Αλλά το επιστημονικό σύνολο δεδομένων στο οποίο εκπαιδεύεται η Galactica το κάνει λίγο διαφορετικό από άλλα LLM. Σύμφωνα με το άρθρο, η ομάδα αξιολόγησε την «τοξικότητα και τη μεροληψία» στο Galactica και ξεπέρασε ορισμένους από τους άλλους LLM, αλλά απείχε πολύ από το τέλειο.

Ο Carl Bergstrom, καθηγητής βιολογίας στο Πανεπιστήμιο της Ουάσιγκτον που μελετά τον τρόπο ροής των πληροφοριών, περιέγραψε το Galactica ως μια «τυχαία γεννήτρια μαλακιών». Δεν έχει σκοπό και δεν προσπαθεί ενεργά να παράγει ανοησίες, αλλά λόγω του τρόπου με τον οποίο εκπαιδεύεται να αναγνωρίζει λέξεις και να τις συνθέτει, παράγει πληροφορίες που φαίνονται έγκυρες και πιστευτές, αλλά συχνά είναι ψευδείς.

Αυτό είναι ανησυχητικό γιατί ακόμη και με μια αποποίηση ευθύνης μπορεί να ξεγελάσει τους ανθρώπους.

Μέσα σε 48 ώρες από την κυκλοφορία του, η ομάδα Meta AI «παύση» του demo. Η ομάδα πίσω από το AI δεν απάντησε σε αίτημα να εξηγήσει τι προκάλεσε την παύση.

Ωστόσο, “το Galactica δεν είναι μια πηγή αλήθειας, αλλά ένα ερευνητικό πείραμα που το χρησιμοποιεί”, μου είπε ο Jon Carvill, εκπρόσωπος για τις επικοινωνίες AI στη Meta. [machine learning] Ο επικεφαλής επιστήμονας της Meta AI Yann LeCun είπε ότι το Galactica είναι «βραχυπρόθεσμης φύσης, διερευνητική έρευνα χωρίς σχέδια προϊόντων». η προτεινόμενη επίδειξη καταργήθηκε γιατί η ομάδα που το κατασκεύασε «προσβλήθηκε τόσο πολύ από τα σαρκαστικά σχόλια στο Twitter».

Ωστόσο, είναι ανησυχητικό να βλέπουμε το demo να κυκλοφόρησε αυτήν την εβδομάδα, το οποίο περιγράφεται ως ένας τρόπος για να «ερευνήσετε τη βιβλιογραφία, να κάνετε επιστημονικές ερωτήσεις, να γράψετε επιστημονικό κώδικα και πολλά άλλα».

Εδώ είναι η ρίζα του προβλήματος με το Galactica, σύμφωνα με τον Bergstrom: Σχεδιάστηκε ως ένα μέρος για να λαμβάνετε γεγονότα και πληροφορίες. Αντίθετα, το demo λειτουργούσε σαν «μια φανταχτερή έκδοση του παιχνιδιού όπου ξεκινάς με μισή πρόταση και μετά αφήνεις την αυτόματη συμπλήρωση να συμπληρώσει την υπόλοιπη ιστορία».

Και είναι εύκολο να δούμε πώς θα μπορούσε να γίνει κατάχρηση μιας τέτοιας τεχνητής νοημοσύνης, που κυκλοφόρησε στο κοινό ως έχει. Για παράδειγμα, ένας μαθητής μπορεί να ζητήσει από την Galactica να δημιουργήσει σημειώσεις διάλεξης για τις μαύρες τρύπες και στη συνέχεια να τις παραδώσει ως εργασία στο κολέγιο. Ένας επιστήμονας μπορεί να το χρησιμοποιήσει για να γράψει μια βιβλιογραφική ανασκόπηση και στη συνέχεια να την υποβάλει σε ένα επιστημονικό περιοδικό. Αυτό το ζήτημα υπάρχει επίσης στο GPT-3 και σε άλλα μοντέλα γλώσσας που έχουν εκπαιδευτεί να ακούγονται σαν άνθρωποι.

Αυτές οι χρήσεις, αναμφισβήτητα, φαίνονται σχετικά καλοήθεις. Μερικοί μελετητές προτείνουν ότι μια τέτοια αδιάκριτη κατάχρηση είναι πιο «διασκεδαστική» από οποιαδήποτε σημαντική ανησυχία. Το πρόβλημα είναι ότι τα πράγματα θα μπορούσαν να γίνουν πολύ χειρότερα.

«Το Galactica βρίσκεται σε πρώιμο στάδιο, αλλά ισχυρότερα μοντέλα τεχνητής νοημοσύνης που ενορχηστρώνουν την επιστημονική γνώση θα μπορούσαν να εγκυμονούν σοβαρούς κινδύνους», δήλωσε ο Dan Hendrycks, ερευνητής ασφάλειας τεχνητής νοημοσύνης στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ.

Ο Hendrycks προτείνει ότι μια πιο προηγμένη έκδοση του Galactica θα μπορούσε να αξιοποιήσει τη γνώση της χημείας και της ιολογίας στη βάση δεδομένων του για να βοηθήσει τους κακόβουλους χρήστες να συνθέσουν χημικά όπλα ή να συναρμολογήσουν βόμβες. Προέτρεψε τη Meta AI να προσθέσει φίλτρα για την πρόληψη αυτού του τύπου κατάχρησης και συμβούλεψε τους ερευνητές να ερευνήσουν την τεχνητή νοημοσύνη τους για τέτοιους κινδύνους πριν από την απελευθέρωση.

Ο Hendrycks προσθέτει ότι «το τμήμα τεχνητής νοημοσύνης της Meta δεν είναι ομάδα ασφαλείας, σε αντίθεση με τους συνομηλίκους του, συμπεριλαμβανομένων των DeepMind, Anthropic και OpenAI».

Το γιατί κυκλοφόρησε αυτή η έκδοση του Galactica παραμένει ένα ανοιχτό ερώτημα. Φαίνεται να ακολουθεί το συχνά επαναλαμβανόμενο σύνθημα του διευθύνοντος συμβούλου της Meta, Mark Zuckerberg, «προχωρήστε γρήγορα και διαλύστε τα πράγματα». Αλλά στην τεχνητή νοημοσύνη, η γρήγορη δράση και η αναστάτωση είναι επικίνδυνη –ακόμη και ανεύθυνη– και αυτό μπορεί να έχει συνέπειες στον πραγματικό κόσμο. Η Galactica προσφέρει μια τακτοποιημένη μελέτη περίπτωσης για το πώς τα πράγματα θα μπορούσαν να πάνε στραβά.

Leave a Comment

Your email address will not be published. Required fields are marked *