Η OpenAI εκπαιδεύει ένα νέο εμβληματικό μοντέλο τεχνητής νοημοσύνης – Τα σχέδια και οι φόβοι
Η OpenAI δήλωσε ότι έχει αρχίσει να εκπαιδεύει ένα νέο εμβληματικό μοντέλο τεχνητής νοημοσύνης που θα διαδεχθεί την τεχνολογία GPT-4.
Το νέο μοντέλο θα φέρει «το επόμενο επίπεδο δυνατοτήτων», καθώς προσπαθεί να δημιουργήσει τη «γενική τεχνητή νοημοσύνη», μια μηχανή που δύναται να πράξει οτιδήποτε μπορεί να κάνει ο ανθρώπινος εγκέφαλος.
Το νέο μοντέλο θα είναι μια μηχανή για προϊόντα ΑΙ, όπως chatbots, ψηφιακοί βοηθοί που μοιάζουν με τη Siri της Apple, μηχανές αναζήτησης και δημιουργοί εικόνων.
Η OpenAI δήλωσε επίσης ότι δημιουργεί μια νέα επιτροπή ασφάλειας και προστασίας για να διερευνήσει πώς θα πρέπει να χειριστεί τους κινδύνους που ενέχει το νέο μοντέλο και οι μελλοντικές τεχνολογίες.
«Ενώ είμαστε περήφανοι που κατασκευάζουμε και κυκλοφορούμε μοντέλα που είναι κορυφαία τόσο σε δυνατότητες όσο και σε ασφάλεια, καλωσορίζουμε μια συζήτηση σε αυτή τη σημαντική στιγμή», δήλωσε η εταιρεία.
Η OpenAI στοχεύει να προωθήσει την τεχνολογία της τεχνητής νοημοσύνης ταχύτερα από τους ανταγωνιστές της, ενώ παράλληλα λειτουργεί κατευναστικά απέναντι στους επικριτές που λένε ότι η τεχνολογία γίνεται όλο και πιο επικίνδυνη, καθώς βοηθάει στη διάδοση της παραπληροφόρησης, στην αντικατάσταση θέσεων εργασίας, ανοίγει ρωγμές στο ίδιο το μέλλον της ανθρωπότητας.
Οι ειδικοί διαφωνούν σχετικά με το πότε οι εταιρείες τεχνολογίας θα φτάσουν στη γενική τεχνητή νοημοσύνη, αλλά εταιρείες όπως η OpenAI, η Google, η Meta και η Microsoft αυξάνουν σταθερά την ισχύ των τεχνολογιών ΑΙ για περισσότερο από μια δεκαετία, επιδεικνύοντας ένα αξιοσημείωτο άλμα περίπου κάθε δύο με τρία χρόνια.
Το GPT-4 της OpenAI, το οποίο κυκλοφόρησε τον Μάρτιο του 2023, επιτρέπει σε chatbots και άλλες εφαρμογές λογισμικού να απαντούν σε ερωτήσεις, να γράφουν μηνύματα ηλεκτρονικού ταχυδρομείου, να δημιουργούν εργασίες και να αναλύουν δεδομένα.
Μια επικαιροποιημένη έκδοση, η οποία παρουσιάστηκε αυτόν τον μήνα και δεν είναι ακόμη ευρέως διαθέσιμη, μπορεί επίσης να παράγει εικόνες και να απαντά σε ερωτήσεις και εντολές με ιδιαίτερη φωνή.
Λίγες ημέρες αφότου η OpenAI παρουσίασε την ενημερωμένη έκδοση –που ονομάζεται GPT-4o– η ηθοποιός Σκάρλετ Γιόχανσον δήλωσε ότι χρησιμοποιεί μια φωνή που ακούγεται «τρομακτικά παρόμοια με τη δική μου».
Είπε ότι είχε απορρίψει τις προσπάθειες του διευθύνοντος συμβούλου της OpenAI, Σαμ Αλτμαν, να παραχωρήσει άδεια χρήσης της φωνής της για το προϊόν και ότι είχε προσλάβει δικηγόρο και ζήτησε από την OpenAI να σταματήσει να χρησιμοποιεί τη φωνή της. Η εταιρεία δήλωσε ότι η φωνή δεν ήταν της κ. Γιόχανσον.
Τεχνολογίες όπως η GPT-4o μαθαίνουν τις δεξιότητές τους αναλύοντας τεράστιες ποσότητες δεδομένων σε ψηφιακή μορφή, συμπεριλαμβανομένων ήχων, φωτογραφιών, βίντεο, άρθρων της Wikipedia, βιβλίων και ειδήσεων.
Η εφημερίδα New York Times μήνυσε την OpenAI και τη Microsoft τον Δεκέμβριο, υποστηρίζοντας ότι παραβιάζονται τα πνευματικά δικαιώματα του ειδησεογραφικού περιεχομένου που σχετίζεται με τα συστήματα ΑΙ.
Η ψηφιακή «εκπαίδευση» των μοντέλων ΑΙ μπορεί να διαρκέσει μήνες ή και χρόνια. Μόλις ολοκληρωθεί η εκπαίδευση, οι εταιρείες συνήθως ξοδεύουν αρκετούς ακόμη μήνες για να δοκιμάσουν την τεχνολογία και να την τελειοποιήσουν προτού δοθεί σε δημόσια χρήση.
Αυτό θα μπορούσε να σημαίνει ότι το επόμενο μοντέλο του OpenAI δεν θα φτάσει για άλλους εννέα μήνες έως ένα χρόνο ή περισσότερο.
Καθώς η OpenAI εκπαιδεύει το νέο της μοντέλο, η νέα επιτροπή ασφάλειας και προστασίας θα εργαστεί για να βελτιώσει τις πολιτικές και τις διαδικασίες για τη διασφάλιση της τεχνολογίας. Η επιτροπή περιλαμβάνει τον κ. Αλτμαν, καθώς και μέλη του διοικητικού συμβουλίου της OpenAI.
Η εταιρεία δήλωσε ότι οι νέες πολιτικές θα μπορούσαν να τεθούν σε εφαρμογή στα τέλη του καλοκαιριού ή το φθινόπωρο.
Νωρίτερα αυτόν τον μήνα, η OpenAI ανακοίνωσε ότι ο Ιλια Σουτσκέβερ, συνιδρυτής και εκ των επικεφαλής των προσπαθειών της για την ασφάλεια, αποχωρεί από την εταιρεία. Αυτό προκάλεσε ανησυχία ότι η OpenAI δεν δίνει την πρέπουσα έμφαση στους κινδύνους που εγκυμονούν.
Τον περασμένο Νοέμβριο, ο Σουτσκέβερ, μαζί με τρία άλλα μέλη του Δ.Σ., επιχείρησε να απομακρύνει τον κ. Αλτμαν από την OpenAI, λέγοντας ότι δεν μπορούσε να εμπιστευτεί στα χέρια του το σχέδιο της εταιρείας για τη δημιουργία γενικής τεχνητής νοημοσύνης για το καλό της ανθρωπότητας.
Υστερα από μια εκστρατεία πίεσης από τους συμμάχους του κ. Αλτμαν, επανήλθε πέντε ημέρες αργότερα.
Ο Σουτσκέβερ ηγήθηκε της ομάδας που η OpenAI αποκαλούσε Superalignment, η οποία διερευνούσε τρόπους για να διασφαλίσει ότι τα μελλοντικά μοντέλα τεχνητής νοημοσύνης δεν θα κάνουν κακό.
Οπως και άλλοι στον τομέα αυτό, είχε αρχίσει να ανησυχεί όλο και περισσότερο ότι η τεχνητή νοημοσύνη αποτελούσε απειλή για την ανθρωπότητα.
Ο Τζαν Λέικ, ο οποίος διηύθυνε την ομάδα Superalignment μαζί με τον Σουτσκέβερ, παραιτήθηκε από την εταιρεία αυτόν τον μήνα.
Πηγή: New York Times