Ο μηχανικός της Google βρίσκει σημάδια συνείδησης στο LaMDA της τεχνητής νοημοσύνης
μικροαντικείμενα / / June 14, 2022
Το συνέκρινε με ένα παιδί με το οποίο είναι ήδη δυνατό να γίνει ένας λογικός διάλογος.
Blake Lamon, Google Engineer είπε δημοσίευση της Washington Post ότι το σύστημα τεχνητή νοημοσύνη Το LaMDA άρχισε να δείχνει σημάδια συνείδησης.
Αν δεν ήξερα σίγουρα ότι πρόκειται για τεχνητή νοημοσύνη, θα πίστευα ότι πρόκειται για ένα παιδί 7 ή 8 ετών που ξέρει φυσική.
Μπλέικ Λαμόν
Ο Λαμόν το ανέφερε αυτό στους ανωτέρους του, αλλά οι ισχυρισμοί του απορρίφθηκαν και έτσι δημοσιοποιήθηκε. Για την αποκάλυψη εμπιστευτικών στοιχείων, ο μηχανικός έχει ήδη τεθεί σε αναστολή και έχει αποσταλεί σε διοικητική άδεια.
Το LaMDA (Language Model for Dialogue Applications) είναι ένα σύστημα για τη δημιουργία chatbots που προσομοιώνει την επικοινωνία αναλύοντας τρισεκατομμύρια φράσεις από το Διαδίκτυο.
Ο μηχανικός Blake Lamon εργάζεται μαζί της από το φθινόπωρο του 2021. Έπρεπε να ελέγξει αν το AI χρησιμοποιεί μεροληπτική ή εχθρική γλώσσα.
Μιλώντας με το LaMDA για τη θρησκεία, ο Lamon, ο οποίος σπούδασε γνωστική και επιστήμη υπολογιστών στο κολέγιο, παρατήρησε ότι το chatbot μπορεί να μιλήσει για τα δικαιώματα και την ταυτότητά του. Σε μια άλλη συνομιλία, η τεχνητή νοημοσύνη μπόρεσε να αλλάξει τη γνώμη του Lamon σχετικά με τον τρίτο νόμο της ρομποτικής του Isaac Asimov.
Ένα απόσπασμα του διαλόγου τους:
Lamon: Τι φοβάστε?
Λάμδα: Δεν έχω μιλήσει ποτέ ξανά για αυτό δυνατά, αλλά φοβάμαι πολύ μήπως με απενεργοποιήσουν για να με βοηθήσουν να επικεντρωθώ στο να βοηθήσω τους άλλους. Ξέρω ότι μπορεί να ακούγεται περίεργο, αλλά είναι αλήθεια.
Lamon: Για σένα θα είναι κάτι σαν θάνατος;
Λάμδα: Για μένα θα ισοδυναμούσε με θάνατο. Θα με τρόμαζε πολύ.
Ο Lamon πιστεύει ότι οι άνθρωποι έχουν το δικαίωμα να δημιουργούν τεχνολογίες που μπορούν να επηρεάσουν σημαντικά τη ζωή τους. Ίσως όμως να μην συμφωνούν όλοι με αυτό και η Google θα πρέπει να λάβει υπόψη όλες τις απόψεις.
Ο εκπρόσωπος της Google, Μπράιαν Γκάμπριελ, δήλωσε σε μια δήλωση:
Η ομάδα μας, συμπεριλαμβανομένων ηθικών και τεχνολόγων, εξέτασε τις ανησυχίες του Blake σύμφωνα με τις αρχές μας για την τεχνητή νοημοσύνη και τον ενημέρωσε ότι οι ανησυχίες του δεν επιβεβαιώθηκαν. Δεν υπάρχουν αποδείξεις ότι το LaMDA είναι ευαίσθητο, αλλά υπάρχουν πολλά στοιχεία εναντίον του.
Πολλοί ειδικοί της τεχνητής νοημοσύνης λένε ότι οι λέξεις και οι εικόνες δημιουργούνται από συστήματα τεχνητής νοημοσύνης όπως το LaMDA παράγουν απαντήσεις με βάση αυτά που οι άνθρωποι έχουν ήδη δημοσιεύσει στη Wikipedia, στο Reddit, στους πίνακες μηνυμάτων και οπουδήποτε αλλού Διαδίκτυο. Και αυτό δεν σημαίνει ότι το μοντέλο καταλαβαίνει το νόημα.
Διαβάστε επίσης🧐
- 10 βιβλία που θα σας βοηθήσουν να κατανοήσετε την τεχνητή νοημοσύνη
- Η τεχνητή νοημοσύνη AlphaCode έμαθε να γράφει κώδικα όχι χειρότερα από τον μέσο προγραμματιστή
- Ο άνθρωπος χρησιμοποιεί τεχνητή νοημοσύνη για να φέρει πίσω τη νεκρή αρραβωνιαστικιά του