10 επαίσχυντες ερωτήσεις σχετικά με τα νευρωνικά δίκτυα: Απαντήσεις ο ειδικός μηχανικής μάθησης Igor Kotenkov
μικροαντικείμενα / / August 08, 2023
Συλλέξαμε όλα όσα θέλατε να μάθετε, αλλά ντρέπεστε να ρωτήσετε.
Στο νέο σειρά Άρθρα γνωστών ειδικών απαντούν σε ερωτήσεις που συνήθως είναι ντροπιαστικό να ρωτηθούν: φαίνεται ότι όλοι το γνωρίζουν ήδη και ο ερωτών θα φαίνεται ανόητος.
Αυτή τη φορά μιλήσαμε με τον ειδικό τεχνητής νοημοσύνης Igor Kotenkov. Θα μάθετε αν μπορείτε να αποθηκεύσετε το ψηφιακό σας αντίγραφο για τα δισέγγονά σας, γιατί δεν μπορείτε να εμπιστευθείτε τους νευρώνες 100% και αν ο κόσμος κινδυνεύει από μια εξέγερση μηχανής.
Ιγκόρ Κοτένκοφ
1. Πώς λειτουργούν τα νευρωνικά δίκτυα; Είναι κάποιο είδος μαγείας. Πώς θα μπορούσε να δημιουργηθεί το ChatGPT; Και Midjourney ή DALL-E;
Ένα νευρωνικό δίκτυο είναι ένα μαθηματικό μοντέλο που επινοήθηκε με στόχο την κατανόηση του τρόπου λειτουργίας του εγκεφάλου ενός ζωντανού οργανισμού. Είναι αλήθεια ότι οι πιο βασικές ιδέες των αρχών του δεύτερου μισού του 20ου αιώνα ελήφθησαν ως βάση, οι οποίες τώρα μπορούν να ονομαστούν άσχετες ή πολύ απλοποιημένες.
Ακόμη και το όνομα "νευρικό δίκτυο" προέρχεται από τη λέξη "νευρώνας" - αυτό είναι το όνομα μιας από τις κύριες λειτουργικές μονάδες του εγκεφάλου. Τα ίδια τα νευρωνικά δίκτυα αποτελούνται από κόμβους - τεχνητούς νευρώνες. Μπορούμε λοιπόν να πούμε ότι πολλές ιδέες μοντέρνων αρχιτεκτονικών «κρυφίστηκαν» από την ίδια τη φύση.
Αλλά το πιο σημαντικό, το νευρωνικό δίκτυο είναι ένα μαθηματικό μοντέλο. Και επειδή αυτό είναι κάτι που σχετίζεται με τα μαθηματικά, τότε μπορούμε να χρησιμοποιήσουμε την πλήρη ισχύ της μαθηματικής συσκευής για να ανακαλύψουμε ή να αξιολογήσουμε τις ιδιότητες ενός τέτοιου μοντέλου. Μπορείτε να θεωρήσετε ένα νευρωνικό δίκτυο ως συνάρτηση και μια συνάρτηση είναι επίσης ένα μαθηματικό αντικείμενο. Το απλούστερο και πιο κατανοητό παράδειγμα: μια συνάρτηση που, ας πούμε, παίρνει οποιονδήποτε αριθμό ως είσοδο και προσθέτει 2 σε αυτόν: f (4) = 6, f (10) = 12.
Αλλά μια τέτοια λειτουργία είναι πολύ εύκολο να προγραμματιστεί, ακόμη και ένα παιδί μπορεί να τη χειριστεί μετά από μερικές ώρες εκμάθησης γλωσσών. προγραμματισμός. Και ο λόγος είναι ότι μια τέτοια λειτουργία επισημοποιείται πολύ εύκολα, περιγράφεται αναλυτικά σε μια απλή και κατανοητή γλώσσα.
Ωστόσο, υπάρχουν ορισμένα καθήκοντα που δεν ξέρουμε καν πώς να τα προσεγγίσουμε. Για παράδειγμα, μπορώ να σας δώσω φωτογραφίες από γάτες και σκύλους μπερδεμένες και μπορείτε να τις ταξινομήσετε σε δύο στοίβες χωρίς κανένα πρόβλημα. Αλλά από τι ακριβώς καθοδηγείστε όταν προσδιορίζετε την απάντηση; Και τα δύο είναι αφράτα. Και τα δύο είδη έχουν ουρά, αυτιά, δύο μάτια. Ίσως το μέγεθος; Αλλά υπάρχουν πολύ μικρά σκυλιά, υπάρχουν μεγάλες γάτες.
Δεν μπορούμε να περιγράψουμε πολλά καθήκοντα του πραγματικού κόσμου, δεν γνωρίζουμε την εξάρτηση της παρατήρησής μας και κάποιας υπό όρους «σωστή» απάντηση.
Απλώς ξέρουμε πώς να δώσουμε αυτή την απάντηση - και αυτό είναι όλο, χωρίς να σκεφτόμαστε πώς θα βγει.
Εδώ έρχονται να σώσουν τα νευρωνικά δίκτυα. Αυτές οι μαθηματικές συναρτήσεις εκπαιδεύονται από τα δεδομένα. Δεν χρειάζεται να περιγράψετε τη σχέση μεταξύ εισόδου και εξόδου. Ετοιμάζετε απλώς δύο στοίβες φωτογραφιών και το μοντέλο εκπαιδεύεται για να δώσει σωστές απαντήσεις. Η ίδια μαθαίνει να βρίσκει αυτή τη σύνδεση, τη βρίσκει η ίδια, βασιζόμενη λάθηποιος το κάνει. Μπέρδεψε μια γάτα της Βεγγάλης και ένα ροτβάιλερ; Λοιπόν, θα είναι καλύτερα την επόμενη φορά!
Η διαδικασία εκμάθησης ενός νευρωνικού δικτύου είναι μια τέτοια προσαρμογή των «νευρώνων» προκειμένου να μάθουμε πώς να λύνουμε ένα πρόβλημα και να δίνουμε τη σωστή απάντηση. Και το πιο αξιοσημείωτο: υπάρχει μια θεωρητική απόδειξη ότι ένα αρκετά μεγάλο νευρωνικό δίκτυο με ένα αρκετά μεγάλο σύνολο δεδομένων μπορεί να μάθει οποιαδήποτε περίπλοκη λειτουργία. Αλλά το πιο σημαντικό εδώ είναι η υπολογιστική ισχύς (επειδή ο νευρώνας μπορεί να είναι πολύ μεγάλος) και η διαθεσιμότητα των δεδομένων με ετικέτα. Σημειώνονται δηλαδή, έχουν την κλάση «σκύλος», γάτα ή οτιδήποτε άλλο.
Δεν καταλαβαίνουμε πλήρως πώς λειτουργούν τα μοντέλα - αρέσει στα πιο περίπλοκα και μεγάλα μοντέλα ChatGPT σχεδόν μη αναλύσιμο.
Οι καλύτεροι ερευνητές εργάζονται για την πρόκληση της «κατανόησης» των εσωτερικών λειτουργιών των διαδικασιών τους αυτή τη στιγμή.
Αλλά ξέρουμε για ποια εργασία εκπαιδεύτηκαν τα μοντέλα, ποιο σφάλμα προσπάθησαν να ελαχιστοποιήσουν κατά τη διάρκεια της εκπαίδευσης. Για το ChatGPT, η εργασία αποτελείται από δύο. Η πρώτη είναι η πρόβλεψη της επόμενης λέξης σύμφωνα με τα συμφραζόμενά της: "η μαμά πλύθηκε ..." Τι; Αυτό πρέπει να προβλέψει το μοντέλο.
Το δεύτερο καθήκον είναι να διασφαλίσουμε ότι οι απαντήσεις δεν είναι προσβλητικές, αλλά ταυτόχρονα παραμένουν χρήσιμες και κατανοητές. Γι' αυτό το μοντέλο έγινε viral - είναι άμεσα εκπαιδευμένο για να δημιουργεί το είδος του κειμένου που αρέσει στον κόσμο!
Μπορείτε να διαβάσετε περισσότερα για το πώς λειτουργεί το ChatGPT στο my άρθρο.
2. Μπορούν οι νευρώνες να σκεφτούν;
Οι επιστήμονες ακόμα δεν καταλαβαίνουν τι σημαίνει «σκέφτομαι» ή «λογικό» και πώς λειτουργεί η διάνοια γενικά. Επομένως, είναι δύσκολο να κρίνουμε εάν ένα μοντέλο όπως το ChatGPT έχει τέτοιες ιδιότητες.
Ας φανταστούμε μια κατάσταση: πλησιάζετε την πόρτα του διαμερίσματός σας. Έχετε την ιδέα ότι πρέπει να πάρετε το κλειδί από την αριστερή τσέπη του σακιδίου σας για να ανοίξετε την πόρτα; Μπορούμε να πούμε ότι η περιγραφή και η παρουσίαση των πράξεων είναι μια διαδικασία σκέψης; Στην ουσία, έχουμε δημιουργήσει μια σχέση μεταξύ της τρέχουσας κατάστασης και του επιθυμητού στόχου (ανοιχτή πόρτα). Εάν πιστεύετε ότι η απάντηση στην παραπάνω ερώτηση είναι ναι, τότε η απάντησή μου θα ήταν η ίδια. 🙂
Ένα άλλο πράγμα είναι όταν πρόκειται για καινοτόμες σκέψεις που δεν έχουν εκφραστεί στο παρελθόν ή δεν είναι τόσο συνηθισμένες. Εξάλλου, για παράδειγμα, μπορείτε εύκολα να βρείτε σφάλμα στο παραπάνω παράδειγμα: «Ναι, διάβασα αυτό το μοντέλο 100500 φορές στο Διαδίκτυο και στο βιβλία. Φυσικά και το ξέρει! Τίποτα περίεργο». Με την ευκαιρία, πώς το ήξερες; Μήπως επειδή σας έδειξαν οι γονείς σας στην παιδική ηλικία και παρακολουθούσατε τη διαδικασία για εκατοντάδες συνεχόμενες μέρες;
Σε αυτή την περίπτωση, δεν υπάρχει ακριβής απάντηση. Και το θέμα εδώ είναι ότι δεν λαμβάνουμε υπόψη ένα σημαντικό στοιχείο: την πιθανότητα.
Πόσο πιθανό είναι το μοντέλο να δημιουργήσει μια σκέψη που ταιριάζει στον συγκεκριμένο ορισμό της «σκέψης» σας;
Εξάλλου, ένας νευρώνας όπως το ChatGPT μπορεί να κατασκευαστεί για να δημιουργήσει ένα εκατομμύριο διαφορετικές απαντήσεις στο ίδιο αίτημα. Για παράδειγμα, «σκέψου μια ιδέα για επιστημονική έρευνα». Αν μια γενιά στο εκατομμύριο είναι πραγματικά ενδιαφέρουσα και νέα, μετράει αυτό ως απόδειξη ότι ένα μοντέλο μπορεί να γεννήσει μια ιδέα; Αλλά σε τι θα διαφέρει από έναν παπαγάλο που φωνάζει τυχαίες λέξεις που όχι-όχι και προσθέτουν κάτι κατανοητό;
Από την άλλη πλευρά, οι άνθρωποι επίσης δεν κάνουν πάντα σωστές σκέψεις - ορισμένες φράσεις οδηγούν σε αδιέξοδο και δεν καταλήγουν σε τίποτα. Γιατί τα νευρωνικά δίκτυα δεν μπορούν να το συγχωρήσουν; Λοιπόν, μια νέα ιδέα από ένα εκατομμύριο που δημιουργείται είναι πολύ κακή... Τι γίνεται όμως αν 100 από ένα εκατομμύριο; Χίλια? Πού είναι αυτά τα σύνορα;
Αυτό είναι που δεν ξέρουμε. Η τάση είναι ότι στην αρχή πιστεύουμε ότι θα είναι δύσκολο για τις μηχανές να λύσουν το πρόβλημα Χ. Για παράδειγμα, για να περάσετε το τεστ Turing, όπου χρειάζεται απλώς να συνομιλήσετε με ένα άτομο για μισή ώρα. Στη συνέχεια, με την ανάπτυξη της τεχνολογίας, οι άνθρωποι βρίσκουν τρόπους για να λύσουν, ή μάλλον, να εκπαιδεύσουν μοντέλα για μια εργασία. Και λέμε: "Λοιπόν, ήταν στην πραγματικότητα το λάθος τεστ, ορίστε ένα νέο για εσάς, οι νευρώνες σίγουρα δεν θα μπορούν να το περάσουν!" Και η κατάσταση επαναλαμβάνεται.
Αυτές οι τεχνολογίες που υπάρχουν τώρα, πριν από 80 χρόνια, θα είχαν εκληφθεί ως θαύμα. Και τώρα προσπαθούμε με όλες μας τις δυνάμεις να σπρώξουμε τα όρια της «λογικότητας» για να μην παραδεχτούμε στον εαυτό μας ότι οι μηχανές ξέρουν ήδη να σκέφτονται. Στην πραγματικότητα, είναι ακόμη πιθανό να εφεύρουμε πρώτα κάτι και μετά να το ορίσουμε αναδρομικά ως AI.
3. Εάν οι νευρώνες μπορούν να σχεδιάσουν και να γράφουν ποίηση, τότε μπορούν να είναι δημιουργικοί και σχεδόν σαν τους ανθρώπους;
Η απάντηση στην πραγματικότητα βασίζεται σε μεγάλο βαθμό στις παραπάνω πληροφορίες. Τι είναι η δημιουργικότητα; Πόση δημιουργικότητα υπάρχει στον μέσο άνθρωπο; Είστε σίγουροι ότι ένας θυρωρός από τη Σιβηρία ξέρει πώς να δημιουργεί; Και γιατί?
Τι θα συμβεί αν ένα μοντέλο μπορεί να δημιουργήσει ένα ποίημα ή έναν πίνακα που, υπό όρους, θα φτάσει στον τελικό ενός διαγωνισμού πόλης για ερασιτέχνες συγγραφείς ή παιδικούς καλλιτέχνες; Και αν αυτό δεν συμβαίνει κάθε φορά, αλλά μία στις εκατό;
Τα περισσότερα από αυτά τα ερωτήματα είναι συζητήσιμα. Εάν σας φαίνεται ότι η απάντηση είναι προφανής, δοκιμάστε να πάρετε συνέντευξη από φίλους και συγγενείς σας. Με πολύ μεγάλη πιθανότητα, η άποψή τους δεν θα συμπίπτει με τη δική σας. Και εδώ το κύριο δεν είναι φιλονικία.
4. Είναι δυνατόν να εμπιστευτούμε τις απαντήσεις των νευρωνικών δικτύων και να μην google πια;
Όλα εξαρτώνται από το πώς χρησιμοποιούνται τα μοντέλα. Εάν τους κάνετε μια ερώτηση χωρίς πλαίσιο, χωρίς συνοδευτικές πληροφορίες στην προτροπή και περιμένετε μια απάντηση σε θέματα όπου η ακρίβεια των πραγματικών περιστατικών είναι σημαντική, και όχι ο γενικός τόνος της απάντησης (για παράδειγμα, μια ακολουθία γεγονότων μέσα σε μια συγκεκριμένη περίοδο, αλλά χωρίς ακριβή αναφορά τόπων και ημερομηνιών), τότε η απάντηση είναι Οχι.
Από εγχώρια εκτιμάται Το OpenAI, σε τέτοιες περιπτώσεις, το καλύτερο μοντέλο μέχρι σήμερα, το GPT-4, απαντά σωστά σε περίπου 70-80% των περιπτώσεων, ανάλογα με το θέμα των ερωτήσεων.
Μπορεί να φαίνεται ότι αυτοί οι αριθμοί απέχουν πολύ από την ιδανική 100% πραγματική «ακρίβεια». Αλλά στην πραγματικότητα, αυτό είναι ένα μεγάλο άλμα σε σύγκριση με την προηγούμενη γενιά μοντέλων (ChatGPT, με βάση την αρχιτεκτονική GPT-3.5) - αυτά είχαν ακρίβεια 40-50%. Αποδεικνύεται ότι ένα τέτοιο άλμα έγινε στο πλαίσιο 6-8 μηνών έρευνας.
Είναι σαφές ότι όσο πλησιάζουμε στο 100%, τόσο πιο δύσκολο θα είναι να κάνουμε κάποιες διορθώσεις για να μην «σπάσει» τίποτα στην κατανόηση και τη γνώση του μοντέλου.
Ωστόσο, όλα τα παραπάνω αναφέρονται σε ερωτήσεις χωρίς πλαίσιο. Για παράδειγμα, μπορείτε να ρωτήσετε: «Πότε ήταν Αϊνστάιν? Το μοντέλο θα πρέπει να βασίζεται μόνο στην εσωτερική γνώση που είχε «ενσωματωθεί» σε αυτό στο στάδιο της μακροχρόνιας εκπαίδευσης σε δεδομένα από όλο το Διαδίκτυο. Έτσι το άτομο δεν θα μπορεί να απαντήσει! Αν όμως μου έδιναν μια σελίδα από τη Βικιπαίδεια, τότε θα μπορούσα να τη διαβάσω και να απαντήσω σύμφωνα με την πηγή πληροφοριών. Τότε η ορθότητα των απαντήσεων θα πλησίαζε το 100% (προσαρμοσμένη για την ορθότητα της πηγής).
Αντίστοιχα, εάν παρέχεται στο μοντέλο ένα πλαίσιο στο οποίο περιέχονται πληροφορίες, τότε η απάντηση θα είναι πολύ πιο αξιόπιστη.
Τι γίνεται όμως αν αφήσουμε το μοντέλο να ψάξει στο google και να βρει πηγές πληροφοριών στο Διαδίκτυο; Ώστε η ίδια να βρει την πηγή και να χτίσει μια απάντηση με βάση αυτήν; Λοιπόν, αυτό έχει ήδη γίνει! Επομένως, δεν μπορείτε να κάνετε google μόνοι σας, αλλά να αναθέσετε μέρος της αναζήτησης στο Διαδίκτυο στο ίδιο το GPT‑4. Ωστόσο, αυτό απαιτεί συνδρομή επί πληρωμή.
Όσον αφορά την περαιτέρω πρόοδο στην ανάπτυξη της αξιοπιστίας των πραγματικών πληροφοριών εντός του μοντέλου, ο Διευθύνων Σύμβουλος του OpenAI Sam Altman δίνει μια εκτίμηση 1,5–2 ετών για την επίλυση αυτού του προβλήματος από μια ομάδα ερευνητών. Θα το περιμένουμε πολύ! Αλλά προς το παρόν, να έχετε κατά νου ότι δεν χρειάζεται να εμπιστεύεστε 100% όσα γράφει ένας νευρώνας και ελέγξτε ξανά τουλάχιστον τις πηγές.
5. Είναι αλήθεια ότι τα νευρωνικά δίκτυα κλέβουν σχέδια πραγματικών καλλιτεχνών;
Ναι και όχι - και οι δύο πλευρές της σύγκρουσης διαφωνούν ενεργά για αυτό στα δικαστήρια σε όλο τον κόσμο. Μπορεί να ειπωθεί με βεβαιότητα ότι οι εικόνες δεν αποθηκεύονται απευθείας στα μοντέλα, απλώς εμφανίζεται η "παρακολούθηση".
Σε αυτό το σχέδιο νευρώνες πολύ παρόμοια με ανθρώπους που πρώτα μελετούν την τέχνη, διαφορετικά στυλ, κοιτάζουν τη δουλειά των συγγραφέων και μετά προσπαθούν να μιμηθούν.
Ωστόσο, τα μοντέλα μαθαίνουν, όπως έχουμε ήδη ανακαλύψει, σύμφωνα με την αρχή της ελαχιστοποίησης σφαλμάτων. Και αν κατά τη διάρκεια της εκπαίδευσης το μοντέλο δει την ίδια (ή πολύ παρόμοια) εικόνα εκατοντάδες φορές, τότε, από την άποψή της, η καλύτερη στρατηγική είναι να θυμάται την εικόνα.
Ας πάρουμε ένα παράδειγμα: ο δάσκαλός σας στο καλλιτεχνικό σχολείο επέλεξε μια πολύ περίεργη στρατηγική. Ζωγραφίζετε δύο εικόνες κάθε μέρα: η πρώτη είναι πάντα μοναδική, σε νέο στυλ και η δεύτερη είναι η Μόνα Λίζα. Μετά από ένα χρόνο προσπαθείς να αξιολογήσεις όσα έμαθες. Εφόσον έχετε σχεδιάσει τη Μόνα Λίζα πάνω από 300 φορές, θυμάστε σχεδόν όλες τις λεπτομέρειες και τώρα μπορείτε να την αναπαράγετε. Δεν θα είναι ακριβώς το πρωτότυπο, και σίγουρα θα προσθέσετε κάτι δικό σας. Χρωματιστά θα είναι ελαφρώς διαφορετική.
Και τώρα σας ζητείται να σχεδιάσετε κάτι που ήταν πριν από 100 ημέρες (και που είδατε μια φορά). Θα αναπαράγετε αυτό που απαιτείται πολύ λιγότερο με ακρίβεια. Ακριβώς επειδή το χέρι δεν είναι γεμιστό.
Το ίδιο συμβαίνει και με τους νευρώνες: μαθαίνουν με τον ίδιο τρόπο σε όλες τις εικόνες, μόνο μερικές είναι πιο συνηθισμένες, πράγμα που σημαίνει ότι το μοντέλο επιβάλλεται και κατά τη διάρκεια της προπόνησης πιο συχνά. Αυτό δεν ισχύει μόνο για πίνακες ζωγραφικής καλλιτεχνών - για οποιαδήποτε εικόνα (ακόμη και διαφήμιση) στο δείγμα εκπαίδευσης. Τώρα υπάρχουν μέθοδοι για την εξάλειψη των διπλότυπων (επειδή η εκπαίδευση σε αυτά είναι τουλάχιστον αναποτελεσματική), αλλά δεν είναι τέλειες. Έρευνες δείχνουν ότι υπάρχουν εικόνες που εμφανίζονται 400-500 φορές κατά τη διάρκεια μιας προπόνησης.
Η ετυμηγορία μου: τα νευρωνικά δίκτυα δεν κλέβουν εικόνες, αλλά απλώς θεωρούν τα σχέδια ως παραδείγματα. Όσο πιο δημοφιλές είναι το παράδειγμα, τόσο ακριβέστερα το αναπαράγει το μοντέλο.
Οι άνθρωποι κάνουν το ίδιο κατά τη διάρκεια της προπόνησης: κοιτάζουν την ομορφιά, μελετούν τις λεπτομέρειες, τα στυλ των διαφορετικών καλλιτέχνες. Αλλά για τους καλλιτέχνες ή τους φωτογράφους που έχουν περάσει τη μισή τους ζωή μαθαίνοντας μια τέχνη, η άποψη είναι συχνά ριζικά διαφορετική από αυτή που περιγράφηκε παραπάνω.
6. Είναι αλήθεια ότι «όλα έχουν χαθεί» και τα νευρωνικά δίκτυα θα αφαιρέσουν την εργασία από τους ανθρώπους; Ποιος νοιάζεται περισσότερο;
Είναι σημαντικό να διαχωρίζουμε μόνο τα «νευρωνικά δίκτυα» που εκτελούν συγκεκριμένες εργασίες από νευρωνικά δίκτυα γενικού σκοπού όπως το ChatGPT. Οι τελευταίοι είναι πολύ καλοί στο να ακολουθούν οδηγίες και μπορούν να μάθουν από παραδείγματα στο πλαίσιο. Είναι αλήθεια ότι πλέον το μέγεθος της «μνήμης» τους περιορίζεται σε 10-50 σελίδες κειμένου, όπως και οι δεξιότητες αναστοχασμού και σχεδίαση.
Αλλά αν η δουλειά κάποιου καταλήγει στην εκτέλεση εντολών ρουτίνας και αυτό είναι εύκολο να το μάθετε μέσα σε λίγες μέρες διαβάζοντας άρθρα (ή αν ολόκληρο το Διαδίκτυο είναι γεμάτο με αυτές τις πληροφορίες) και το κόστος εργασίας είναι πάνω από το μέσο όρο - τότε σύντομα τέτοια εργασία αυτοματοποιήστε.
Αλλά από μόνος του, η αυτοματοποίηση δεν σημαίνει πλήρη αντικατάσταση ανθρώπων. Μόνο μέρος της καθημερινής εργασίας μπορεί να βελτιστοποιηθεί.
Ένα άτομο θα αρχίσει να παίρνει πιο ενδιαφέρουσες και δημιουργικές εργασίες που το μηχάνημα (μέχρι στιγμής) δεν μπορεί να αντιμετωπίσει.
Αν δώσουμε παραδείγματα, τότε στην ομάδα των μεταβλητών ή αντικαταστάσιμων επαγγέλματα Θα περιλάμβανα, ας πούμε, φοροτεχνικούς-συμβούλους που βοηθούν στην προετοιμασία μιας δήλωσης και ελέγχουν για τυπικά λάθη, εντοπίζουν ασυνέπειες. Αλλαγές είναι δυνατές σε μια τέτοια ειδικότητα ως διαχειριστής δεδομένων κλινικών δοκιμών - η ουσία της εργασίας είναι η συμπλήρωση αναφορών και η συμφωνία τους με έναν πίνακα προτύπων.
Αλλά ένας μάγειρας ή ένας οδηγός λεωφορείου θα είναι σε ζήτηση πολύ περισσότερο απλώς και μόνο επειδή μπορούν να συνδέσουν νευρωνικά δίκτυα και ένα πραγματικό ο φυσικός κόσμος είναι αρκετά περίπλοκος, ειδικά όσον αφορά τη νομοθεσία και τους κανονισμούς - χάρη στους γραφειοκράτες που απομακρύνθηκαν Κρίση AI!
Αναμένονται μεγάλες αλλαγές στους κλάδους που σχετίζονται με έντυπο υλικό και πληροφορίες κειμένου: δημοσιογραφία, εκπαίδευση. Με πολύ μεγάλη πιθανότητα για το πρώτο, οι νευρώνες θα γράψουν πολύ σύντομα προσχέδια με ένα σύνολο διατριβών, στα οποία οι άνθρωποι θα κάνουν ήδη αλλαγές στο σημείο.
Είμαι πολύ ευχαριστημένος με τις αλλαγές στον τομέα της εκπαίδευσης. Τρώω έρευνα, που δείχνουν ότι η ποιότητα της εκπαίδευσης εξαρτάται άμεσα από την «προσωπικότητα» της προσέγγισης και από το πόσο χρόνο αφιερώνει ο δάσκαλος σε έναν συγκεκριμένο μαθητή. Το απλούστερο παράδειγμα: η διδασκαλία σε ομάδες των 30 ατόμων χρησιμοποιώντας ένα σχολικό βιβλίο είναι πολύ χειρότερη από την ατομική παιδαγωγός για συγκεκριμένες ανάγκες (αν και σύμφωνα με το ίδιο πρόγραμμα όπως στο σχολικό βιβλίο). Με την ανάπτυξη της τεχνητής νοημοσύνης, η ανθρωπότητα θα έχει την ευκαιρία να παρέχει έναν εξατομικευμένο βοηθό σε κάθε μαθητή. Είναι απλά απίστευτο! Ο ρόλος του δασκάλου θα μετατοπιστεί, όπως τον βλέπω, σε στρατηγικό και ελεγχόμενο ρόλο: καθορισμός του γενικού προγράμματος και σειράς σπουδών, έλεγχος γνώσεων κ.λπ.
7. Είναι δυνατόν να ανεβάσετε τη συνείδησή σας σε έναν υπολογιστή, να κάνετε ένα ψηφιακό δίδυμο και να ζήσετε για πάντα;
Με την έννοια που φαντάζεται με βάση το sci-fi, αρ. Μπορείτε μόνο να μάθετε στο μοντέλο να μιμείται το στυλ επικοινωνίας σας, να μάθετε τα αστεία σας. Ίσως τα μοντέλα επιπέδου GPT-4 να μπορούν ακόμη και να εφεύρουν νέα πλαισιωμένα με το μοναδικό σας στυλ και τρόπο παρουσίασης, αλλά αυτό σαφώς δεν σημαίνει πλήρη μεταφορά της συνείδησης.
Εμείς ως ανθρωπότητα, πάλι, δεν ξέρουμε τι είναι η συνείδηση, πού είναι αποθηκευμένη, σε τι διαφέρει από τους άλλους, τι με κάνει - εμένα, και εσάς - εσάς. Αν ξαφνικά αποδειχθεί ότι όλα αυτά είναι απλώς ένα σύνολο αναμνήσεων και εμπειριών, πολλαπλασιαζόμενες με τα μεμονωμένα χαρακτηριστικά αντίληψη, τότε, πιθανότατα, θα είναι δυνατό να μεταφερθεί με κάποιο τρόπο γνώση στα νευρωνικά δίκτυα έτσι ώστε να προσομοιώνουν τη μελλοντική ζωή σε βάση τους.
8. Είναι επικίνδυνο να ανεβάσετε τη φωνή σας, την εμφάνισή σας, το στυλ ομιλίας σας σε ένα νευρωνικό δίκτυο; Φαίνεται ότι μια τέτοια ψηφιακή ταυτότητα μπορεί να κλαπεί.
Δεν μπορείτε κυριολεκτικά να κατεβάσετε τίποτα σε αυτά. Μπορείτε να τα εκπαιδεύσετε (ή να τα εκπαιδεύσετε ξανά) με τέτοιο τρόπο ώστε τα αποτελέσματα να μοιάζουν περισσότερο με την εμφάνιση, τη φωνή ή το κείμενό σας. Και ένα τόσο εκπαιδευμένο μοντέλο μπορεί πραγματικά να κλαπεί, δηλαδή, απλώς να αντιγράψετε το σενάριο και ένα σύνολο παραμέτρων για εκτέλεση σε άλλον υπολογιστή.
Μπορείτε ακόμη και να δημιουργήσετε ένα βίντεο με αίτημα μεταφορά χρημάτων σε βάρος κάποιου άλλου, στο οποίο θα πιστέψει ο συγγενής σας: οι καλύτεροι αλγόριθμοι deepfake και κλωνοποίησης φωνής έχουν ήδη φτάσει σε αυτό το επίπεδο. Είναι αλήθεια ότι απαιτούνται χιλιάδες δολάρια και δεκάδες ώρες ηχογράφησης, αλλά παρόλα αυτά.
Γενικότερα, με την ανάπτυξη της τεχνολογίας, το θέμα της αναγνώρισης και επιβεβαίωσης της ταυτότητας αποκτά μεγαλύτερη σημασία.
Και προσπαθούν να το λύσουν με τον ένα ή τον άλλο τρόπο. Για παράδειγμα, υπάρχει μια startup WorldCoin (για την ακρίβεια, κάνει κρυπτονόμισμα), στην οποία επένδυσε ο επικεφαλής του OpenAI, Sam Altman. Το νόημα της εκκίνησης είναι ότι κάθε πληροφορία για ένα άτομο θα υπογράφεται από το δικό του κλειδί για μετέπειτα αναγνώριση. Το ίδιο θα ισχύει και για τα μέσα μαζικής ενημέρωσης, προκειμένου να γνωρίζουμε με βεβαιότητα αν αυτή η είδηση είναι αληθινή ή ψευδής.
Αλλά, δυστυχώς, ενώ όλα αυτά βρίσκονται στο στάδιο των πρωτοτύπων. Και δεν θεωρώ ότι η βαθιά εισαγωγή συστημάτων σε όλους τους κλάδους θα εφαρμοστεί στον ορίζοντα της επόμενης δεκαετίας, απλώς και μόνο επειδή είναι πολύ περίπλοκη και μεγάλης κλίμακας.
9. Μπορούν οι νευρώνες να αρχίσουν να βλάπτουν και να κυριαρχούν στον κόσμο;
Ο κίνδυνος δεν είναι οι τρέχουσες εξελίξεις, αλλά αυτό που θα τις ακολουθήσει με περαιτέρω εξέλιξη. Επί του παρόντος, δεν έχουν εφευρεθεί μέθοδοι για τον έλεγχο της λειτουργίας των νευρωνικών δικτύων. Πάρτε, για παράδειγμα, ένα πολύ απλό έργο: να βεβαιωθείτε ότι το μοντέλο δεν βρίζει. Ποτέ των ποτών. Δεν υπάρχει μέθοδος που θα σας επιτρέψει να ακολουθήσετε έναν τέτοιο κανόνα. Μέχρι στιγμής, μπορείτε να βρείτε διαφορετικούς τρόπους για το πώς να το "αναπαράγετε" το ίδιο.
Τώρα φανταστείτε ότι μιλάμε για το GPT-8 υπό όρους, του οποίου οι δεξιότητες θα είναι συγκρίσιμες με τις δεξιότητες των πιο ικανών και έξυπνων ανθρώπων. Το νευρωνικό δίκτυο μπορεί να προγραμματίσει, να χρησιμοποιήσει το Διαδίκτυο, ξέρει ψυχολογία και καταλαβαίνει πώς σκέφτονται οι άνθρωποι. Αν του δώσετε ελεύθερα και δεν θέσετε μια συγκεκριμένη αποστολή, τότε τι θα κάνει; Τι γίνεται αν ανακαλύψει ότι δεν μπορεί να ελεγχθεί;
Η πιθανότητα μιας κακής εξέλιξης των γεγονότων δεν είναι τόσο μεγάλη, σύμφωνα με εκτιμήσεις. Παρεμπιπτόντως, δεν υπάρχει γενικά αποδεκτή εκτίμηση - αν και όλοι διαφωνούν για τις λεπτομέρειες, για τις επιζήμιες συνέπειες κ.λπ. Τώρα αποκαλούν κατά προσέγγιση νούμερα από 0,01% έως 10%.
Κατά την άποψή μου, πρόκειται για τεράστιους κινδύνους, αν υποθέσουμε ότι το πιο αρνητικό σενάριο είναι η καταστροφή της ανθρωπότητας.
Είναι ενδιαφέρον ότι το ChatGPT και το GPT-4 είναι προϊόντα που δημιουργήθηκαν από ομάδες που εργάζονται για τα προβλήματα της «ευθυγράμμισης» των προθέσεων των ανθρώπων και των νευρώνων (λεπτομέρειες μπορείτε να βρείτε εδώ). Γι' αυτό τα μοντέλα ακούν τόσο καλά τις οδηγίες, προσπαθούν να μην είναι αγενή, κάνουν διευκρινιστικές ερωτήσεις, αλλά αυτό απέχει πολύ από το ιδανικό. Το πρόβλημα του ελέγχου δεν έχει λυθεί ούτε κατά το ήμισυ. Και ενώ δεν ξέρουμε αν λύνεται καθόλου, και αν ναι, με ποιες μεθόδους. Αυτό είναι το πιο καυτό ερευνητικό θέμα για σήμερα.
10. Μπορεί ένα νευρωνικό δίκτυο να ερωτευτεί ένα άτομο;
Με τις τρέχουσες προσεγγίσεις και αρχιτεκτονικές των νευρώνων, όχι. Δημιουργούν μόνο κείμενο που είναι πιο εύλογο ως συνέχεια του κειμένου εισαγωγής. Εάν ρίξετε το πρώτο κεφάλαιο μιας ιστορίας αγάπης, ξαναγράφοντάς την κάτω από την προσωπικότητά σας, και ζητήσετε από το μοντέλο να απαντήσει στο ερωτικό σας γράμμα, θα το αντιμετωπίσει. Όχι όμως γιατί ερωτεύτηκα, αλλά γιατί ταιριάζει απόλυτα στο πλαίσιο και στο αίτημα «γράψε μου ένα γράμμα!». Να θυμάστε ότι τα μοντέλα μαθαίνουν να δημιουργούν κείμενο που ακολουθεί τις οδηγίες.
Επιπλέον, τα νευρωνικά δίκτυα στη βασική έκδοση δεν έχουν μνήμη - ανάμεσα σε δύο διαφορετικές εκτοξεύσεις, ξεχνούν τα πάντα και επιστρέφουν στις "εργοστασιακές ρυθμίσεις". Η μνήμη μπορεί να προστεθεί τεχνητά, σαν από το πλάι, έτσι ώστε, ας πούμε, 10 σελίδες από τις πιο σχετικές «αναμνήσεις» να τροφοδοτούνται στο μοντέλο. Αλλά στη συνέχεια αποδεικνύεται ότι απλώς τροφοδοτούμε ένα σύνολο γεγονότων στο αρχικό μοντέλο και λέμε: «Πώς θα συμπεριφερόσουν κάτω από τέτοιες συνθήκες;» Το μοντέλο δεν έχει κανένα συναίσθημα.
Διαβάστε επίσης🧐
- Πού και πώς χρησιμοποιείται η τεχνητή νοημοσύνη: 6 παραδείγματα από τη ζωή
- 9 αφελείς ερωτήσεις για την τεχνητή νοημοσύνη
- 8 μύθοι για την τεχνητή νοημοσύνη που πιστεύουν ακόμη και οι προγραμματιστές