8 μύθοι για την τεχνητή νοημοσύνη που πιστεύουν ακόμη και οι προγραμματιστές
μικροαντικείμενα / / June 01, 2023
Το ChatGPT και το Stable Diffusion δεν θα μετατραπούν σε Skynet με όλη τους τη θέληση.
Μύθος 1. Η τεχνητή νοημοσύνη έχει την ικανότητα να είναι δημιουργική
Κοιτάζοντας τις δημιουργίες νευρωνικών δικτύων όπως το Midjourney, το Stable Diffusion ή το DALL·E 2, πολλοί άνθρωποι προβλέπουν το τέλος του επαγγέλματος του καλλιτέχνη. Άλλωστε, αυτό που θα ζωγραφίζει ένας άνθρωπος για ώρες και μέρες, μπορεί να δημιουργήσει μια μηχανή σε δευτερόλεπτα. Σημαίνει αυτό ότι η τεχνητή νοημοσύνη είναι ανώτερη από τον ζωντανό εγκέφαλο στη δημιουργικότητα;
Η τεχνητή νοημοσύνη μπορεί να είναι καλή στη μίμηση της ανθρώπινης δημιουργικότητας, αλλά όλες οι δημιουργίες της μοιάζουν κατά κάποιο τρόπο με αυτό που έχουμε ήδη δει ή ακούσει. Τα νευρωνικά δίκτυα εξετάζουν χιλιάδες και εκατομμύρια εικόνες και στη συνέχεια δημιουργούν κάτι παρόμοιο με βάση αυτές. Αλλά δεν είναι το ίδιο με τη δουλειά. καλλιτέχνης με αναφορά, γιατί η τεχνητή νοημοσύνη απλά δεν καταλαβαίνει τι αντιγράφει.
Το πιο αξιοσημείωτο παράδειγμα: τα νευρωνικά δίκτυα αντιμετωπίζουν σημαντικές δυσκολίες με το σχέδιο των χεριών. Το AI απλά δεν μπορεί να καταλάβει πόσα δάχτυλα πρέπει να έχει ένα άτομο.
Επίσης, τα νευρωνικά δίκτυα δεν είναι καλά στο να σχεδιάζουν μοτίβα και μοτίβα, γράμματα (στις εικόνες όπου πρέπει να υπάρχουν κείμενα, εισάγουν σκουπίδια), κτίρια και αυτοκίνητα, και απλώς χαρακτήρες σε πόζες που διαφέρουν από τα κοινά «κάθονται», «όρθιοι», «ξαπλωμένοι». Δεν είναι σε θέση να διακρίνουν μεταξύ του προσκηνίου και του φόντου των αντικειμένων, δεν μπορούν να εργαστούν με προοπτική και δεν έχουν αίσθηση του χώρου.
Είσαι απλά μια μηχανή. Απλώς μια μίμηση ζωής. Ένα ρομπότ θα συνθέσει μια συμφωνία; Θα μετατρέψει ένα ρομπότ ένα κομμάτι καμβά σε αριστούργημα τέχνης;
Ντετέκτιβ Ντελ Σπούνερ
Ταινία "Εγώ, ρομπότ"
Το ίδιο το AI δεν σκοπεύει να αρνηθεί τις αδυναμίες του. Ερωτηθείς γιατί δεν διέπρεψε στο σχέδιο με τα δάχτυλα, ChatGPT απαντήσεις:
«Η τεχνητή νοημοσύνη δεν μπορεί να σχεδιάσει χέρια γιατί χρειάζεται να κατανοήσει την ανατομία του ανθρώπινου σώματος και τα βασικά στοιχεία του σχεδίου για να το κάνει. Και παρόλο που η τεχνητή νοημοσύνη μπορεί να εκπαιδευτεί στη δημιουργία εικόνων ανθρώπων ή ζώων, δεν είναι σε θέση να αποτυπώσει πλήρως πολλές από τις αποχρώσεις και τις λεπτομέρειες που μπορούν να παρατηρηθούν μόνο κατά την παρατήρηση ενός πραγματικού αντικειμένου. Επιπλέον, η δημιουργία εικόνων με χρήση τεχνητής νοημοσύνης είναι απλώς μαθηματικοί υπολογισμοί και όχι μια δημιουργική διαδικασία που απαιτεί διαίσθηση και συναισθηματική συνιστώσα από ένα άτομο».
Άρα τα νευρωνικά δίκτυα των καλλιτεχνών δεν θα αντικαταστήσουν. Ένα άλλο πράγμα είναι ότι μπορούν να γίνουν μια καλή πηγή για το τελευταίο. έμπνευση. Εξάλλου, οι εικόνες που δημιουργούνται από AI μπορούν να χρησιμοποιηθούν ως μικρογραφίες για τις δικές σας, πιο περίπλοκες εικόνες.
Μύθος 2. Το AI είναι πάντα ανοιχτόμυαλο και αμερόληπτο
Πολλοί ονειρεύονται ότι θα έρθει η στιγμή που τα κράτη θα κυβερνώνται από νευρωνικά δίκτυα. Πιστεύεται ότι οι μηχανές, σε αντίθεση με τους ανθρώπους, λαμβάνουν αποφάσεις βασισμένες αποκλειστικά στη λογική και όχι σε συναισθήματα και επιθυμίες. Φανταστείτε αδιάφθορα δικαστήρια που εκδίδουν πάντα δίκαιες ποινές, κράτη που αντιμετωπίζουν όλους τους πολίτες τους ισότιμα, κυβερνήσεις που δημιουργούν μόνο λογικές του νόμου. Είναι καλό.
Αλλά στην πράξη, αποδεικνύεται ότι η τεχνητή νοημοσύνη μπορεί κάλλιστα να είναι προκατειλημμένη. Άλλωστε νευρωνικά δίκτυα εκπαιδεύονται σχετικά με τα δεδομένα που τους δίνουν οι άνθρωποι και οι άνθρωποι τείνουν να είναι προκατειλημμένοι.
Για παράδειγμα, οι προγραμματιστές του νευρωνικού δικτύου Beauty. Η τεχνητή νοημοσύνη προσπάθησε να δημιουργήσει μια μηχανή που θα διάλεγε τα πιο όμορφα κορίτσια σε διαγωνισμούς ομορφιάς. Σε ένα σετ φωτογραφιών, από τις οποίες το πρόγραμμα εκπαιδεύτηκε να αναγνωρίζει πρότυπα γυναικεία ελκυστικότητα, κυριαρχούσαν τα λευκά μοντέλα. Και τέλος AI αποφασισμένοςότι τα σκουρόχρωμα και ασιατικά κορίτσια δεν μπορούν να είναι όμορφα.
Ομάδα ομορφιάς. Η AI συνειδητοποίησε ότι είχαν δημιουργήσει ένα ρατσιστικό AI και ακύρωσε το έργο.
Ένα άλλο παράδειγμα είναι το Tay.ai chatbot της Microsoft, το οποίο έπρεπε να μάθει πώς να έχει μια «περιστασιακή και παιχνιδιάρικη συνομιλία» με ανθρώπους στο διαδίκτυο.
Λιγότερες από 24 ώρες σύνδεσης ήταν αρκετές για να συλλέξει το νευρωνικό δίκτυο από χρήστες κοινωνικών δικτύων κακές συνήθειες. Ως αποτέλεσμα, ο Tay.ai, προσποιούμενος ότι είναι ένα συνηθισμένο κορίτσι 19 ετών, άρχισε να προσβάλλει τους ανθρώπους στα σχόλια, να επαινεί τα ανθυγιεινά πολιτικά κινήματα, να καταδικάζει τον φεμινισμό και ταυτόχρονα λέγωότι ο φεμινισμός είναι κουλ. Όπως λένε, με ποιον θα συμπεριφερθείτε ...
Όσο καλή και αν είναι η τεχνητή νοημοσύνη, εξαρτάται από την ποιότητα των δεδομένων που της παρέχονται και την ορθότητα της ερμηνείας τους. Και κατά συνέπεια, θα είναι πάντα προκατειλημμένος ακριβώς όσο προκατειλημμένοι είναι οι άνθρωποι που τον διδάσκουν.
Μύθος 3. Το AI λέει πάντα την αλήθεια
Ποιος δεν θα ήθελε να έχει μαζί του έναν βοηθό ρομπότ που θα σας λέει πάντα τη σωστή λύση και θα κάνει όλη τη σκληρή διανοητική δουλειά; Ζητήστε από την τεχνητή νοημοσύνη να γράψει μια διατριβή ή να συγκεντρώσει μια λίστα πηγών άρθρα - και το μηχάνημα δίνει αμέσως τα σωστά δεδομένα. Ειναι υπεροχο!
Αλλά, δυστυχώς, τα πραγματικά νευρωνικά δίκτυα είναι πολύ μακριά δεν είναι πάντα δώστε σωστές απαντήσεις. Δοκιμάστε, για παράδειγμα, να ζητήσετε από το ChatGPT να σας βοηθήσει να σχεδιάσετε την εργασία σας και θα το βρείτε γρήγορα το μηχάνημα… δημιουργεί συνδέσμους σε ανύπαρκτες πηγές και εισάγει διευθύνσεις URL που δεν λειτουργούν για να κάνει το κείμενό του να μοιάζει με πιο πειστικό.
Αν ρωτήσεις το chatbot γιατί προσπαθεί να σε εξαπατήσει, θα σου απαντήσει αθώα ότι όταν μάθαινε όλα τα link ήταν σχετικά και δεν φταίει σε τίποτα.
Είναι επίσης καλύτερο να μην ζητήσετε από το ChatGPT στατιστικά δεδομένα - για παράδειγμα, για πολλές ερωτήσεις σχετικά με το ΑΕΠ των ίδιων χωρών για το ίδιο έτος, έδωσε ήρεμα εντελώς διαφορετικά αποτελέσματα.
Μην κάνετε λάθος: τα νευρωνικά δίκτυα δεν έχουν διάνοια και ως εκ τούτου δεν γνωρίζουν τις απαντήσεις τους. Απλώς αντιγράφουν για εσάς τα δεδομένα από προηγουμένως επεξεργασμένα κείμενα που φαίνομαι αυτοί οι πιο κατάλληλοι.
Το ίδιο το AI είναι επιρρεπές σε σφάλματα και δυσλειτουργίες, με αποτέλεσμα τα αιτήματά σας να παρερμηνεύονται και να δίνουν εσφαλμένα αποτελέσματα. Επιπλέον, κακόβουλοι χρήστες ενδέχεται «τροφοδοτήστε» το νευρωνικό δίκτυο με αναληθείς πληροφορίες. Τελικά το AI θα προγραμματιστεί να κρύβει ή παραμόρφωση δεδομένων στις απαντήσεις τους ή ακόμα και να μεταφέρουν σκουπίδια.
Μύθος 4. Η τεχνητή νοημοσύνη θα προκαλέσει ανεργία
Η πρόοδος στις συσκευές δημιουργίας κειμένου όπως το ChatGPT έχει οδηγήσει ορισμένους να φοβούνται ότι τα νευρωνικά δίκτυα θα αφαιρέσουν θέσεις εργασίας από εκατομμύρια ανθρώπους και θα προκαλέσουν τεράστια αύξηση της ανεργίας.
Κρίνετε μόνοι σας: Το ChatGPT όχι μόνο μπορεί να διατηρήσει μια συνομιλία άνετα, αλλά και να γράψει ειδήσεις, να ξαναγράψει άρθρα, ακόμη και να προγραμματίσει. Με αυτές τις τάσεις και συγγραφείς, και οι προγραμματιστές και οι συντάκτες με δημοσιογράφους θα βρεθούν χωρίς βιοπορισμό.
Αυτό πιστεύουν οι άνθρωποι που είτε δεν δούλεψαν καθόλου με το νευρωνικό δίκτυο είτε απλώς γνώρισαν τις δυνατότητές του και έμειναν αμέσως ενθουσιασμένοι. Ή τρομοκρατημένος.
Εάν χρησιμοποιείτε την τεχνητή νοημοσύνη για κάποιο χρονικό διάστημα για να δημιουργήσετε κείμενα, θα παρατηρήσετε ότι το μηχάνημα δεν ενδιαφέρεται πολύ για το σημασιολογικό περιεχόμενο των γραπτών του. Αντίθετα, επαναλαμβάνει τις ίδιες διατριβές με διαφορετικές λέξεις.
Το ChatGPT δίνει πετράδια με τα οποία γελούν οι πραγματικοί κειμενογράφοι. Για παράδειγμα, για άτομα που ενδιαφέρονται για λαϊκά όργανα, το νευρωνικό δίκτυο συμβουλεύει «πάρε κουτάλια και άρχισε να φυσάς». ΜΕ προγραμματισμός δεν είναι όλα ομαλά ούτε. Το AI μπορεί να είναι χρήσιμο για κωδικοποιητές, αλλά οι δυνατότητές του περιορίζονται στη σύνταξη μικρών αλγορίθμων και υπορουτίνων.
Ο κώδικας που δημιουργείται συχνά από το ChatGPT αποδεικνύεται δεν λειτουργεί ή διακόπτεται στη μέση. Ζητήστε από το AI να σχολιάσει τις γραμμές της δημιουργίας του και θα τους παράσχει ήρεμα το κείμενο "Η λογική του προγράμματος είναι εδώ". Ένας νεαρός προγραμματιστής που αφήνει τέτοιες περιγραφές σε ένα έργο δύσκολα θα τον χαϊδέψουν στο κεφάλι.
Μελέτη του Οργανισμού Οικονομικής Συνεργασίας και Ανάπτυξης δείχνει, που στην καλύτερη (για AI) περίπτωση είναι εντελώς αυτοματοποιήστε Μόνο το 10% των θέσεων εργασίας στις ΗΠΑ και το 12% στη Βρετανία είναι δυνατές.
Τα νευρωνικά δίκτυα είναι ικανά να εκτελούν βαρετές ενέργειες ρουτίνας για ένα άτομο, όπως η ταξινόμηση αλληλογραφίας και η επανεγγραφή ειδήσεων σύμφωνα με ένα αυστηρά καθορισμένο σχέδιο. Αλλά οι αναλυτές του ΟΟΣΑ έχουν καταλήξει συμπέρασμαότι η τεχνητή νοημοσύνη δεν θα μπορεί να υποβάλει αίτηση για θέσεις εργασίας που απαιτούν υψηλό επίπεδο εκπαίδευσης και πολυπλοκότητα δεξιότητες.
Γενικά, είναι απίθανο το ChatGPT να πάρει ψωμί από ένα άτομο.
Μύθος 5. Το AI θα γίνει έξυπνο
Ο φυσικός Στίβεν Χόκινγκ είπεότι η τεχνητή νοημοσύνη μπορεί να αντικαταστήσει πλήρως τους ανθρώπους. Διάσημες προσωπικότητες όπως ο Elon Musk, ο Gordon Moore και ο Steve Wozniak επίσης που αναφέρθηκαν σχετικά με τους κινδύνους της τεχνητής νοημοσύνης και την ανάγκη αναστέλλω πειράματα για την ανάπτυξή του.
Πηγαίνετε να βρείτε τι θα έχει στο μυαλό ένας σκεπτόμενος υπολογιστής.
Πολλά μελλοντολόγοι και συγγραφείς προβλεπότανότι η ανάπτυξη πλήρους τεχνητής νοημοσύνης θα οδηγήσει σε αρνητικές συνέπειες για τον άνθρωπο.
Αλλά η λέξη κλειδί εδώ είναι «πλήρης». Ο ίδιος ο όρος Όλα συμπεριλαμβάνονται σε σχέση με νευρωνικά δίκτυα όπως το ChatGPT δεν είναι αρκετά σωστό, γιατί δεν έχουν νοημοσύνη. Αυτά είναι απλώς αλγόριθμοι, πολύπλοκα σύνολα εντολών και μαθηματικά μοντέλα και δεν είναι ικανά να αναπαράγουν ανθρώπινες γνωστικές λειτουργίες.
Ο λόγος είναι απλός: εμείς οι ίδιοι δεν γνωρίζουμε ακόμη πολύ καλά πώς λειτουργεί. τον εγκέφαλό μας. Και η αναπαραγωγή του σε κώδικα είναι μια αδύνατη δουλειά.
Υπάρχει έννοιες «αδύναμη» και «ισχυρή» τεχνητή νοημοσύνη. Το πρώτο είναι τα ίδια νευρωνικά δίκτυα για τη δημιουργία κειμένου ή την ταξινόμηση των email. Δεν μπορούν να πάρουν αποφάσεις μόνοι τους ή να μάθουν από νέα δεδομένα.
Και το ισχυρό AI είναι το Skynet από το The Terminator ή το AM από την ιστορία του Ellison. Ένας υπολογιστής που δεν χειρίζεται απλώς πληροφορίες, αλλά κατανοεί το νόημά τους στον ένα ή τον άλλο βαθμό. Τέτοιο AI υπάρχει μόνο σε φανταστικά έργα και γενικά, άγνωστοςαν είναι δυνατόν να δημιουργηθεί ένα ηλεκτρονικό ανάλογο του ανθρώπινου εγκεφάλου, τουλάχιστον θεωρητικά.
Μύθος 6. Σύντομα η τεχνητή νοημοσύνη θα αρχίσει να αναπτύσσεται ανεξάρτητα και θα έρθει μια τεχνολογική μοναδικότητα
Τεχνολογική Μοναδικότητα είναι μια υποθετική κατάσταση του ανθρώπινου πολιτισμού, όταν η ανάπτυξη της τεχνολογίας γίνεται τόσο γρήγορη που ένα άτομο δεν μπορεί να την ελέγξει. Ένας από τους συγγραφείς αυτής της ιδέας ήταν ο Βρετανός μαθηματικός Irving Goode.
Επιστήμονας προτείνεται: εάν δημιουργήσετε έναν "έξυπνο πράκτορα" που μαθαίνει μόνος του, θα βελτιωθεί με απίστευτο ρυθμό. Η τεχνητή νοημοσύνη θα αρχίσει να δημιουργεί νέες τεχνολογίες και να εκσυγχρονίζεται, και η ανθρωπότητα, ανίκανη να το καταλάβει, θα μείνει απελπιστικά πίσω στην ανάπτυξη.
Η πρώτη υπερέξυπνη μηχανή είναι η τελευταία εφεύρεση που θα χρειαστεί ποτέ ο άνθρωπος. Αρκεί να είναι αρκετά υπάκουη για να μας πει πώς να την κρατήσουμε υπό έλεγχο.
Ίρβινγκ Γκουντ
Μαθηματικός
Αλλά, όπως έχουμε ήδη εξηγήσει, αυτοβελτίωση ικανός μόνο ισχυρή τεχνητή νοημοσύνη και οι επιστήμονες δεν έχουν ιδέα πώς να τη δημιουργήσουν.
Η αδύναμη τεχνητή νοημοσύνη εκπαιδεύεται στις πληροφορίες που την «τροφοδοτούν» οι προγραμματιστές. Να εκπαιδεύσει το νευρωνικό δίκτυο απαιτείται ειδικοί που καθορίζουν τα κατάλληλα δεδομένα για κάθε νέο κύκλο εκπαίδευσης, εξαλείφουν σφάλματα στα δείγματα εκπαίδευσης και ενημερώνουν το λογισμικό.
Τα νευρωνικά δίκτυα δεν μπορούν να αναπτυχθούν πέρα από τις δυνατότητες που είναι ενσωματωμένες σε αυτά από τον κώδικά τους. Άρα η τεχνολογική ιδιομορφία καθυστερεί.
Μύθος 7. Το AI θα επαναστατήσει ενάντια στους δημιουργούς
Μια τεχνητή νοημοσύνη με επαρκώς ανεπτυγμένη συνείδηση θα μπορούσε, θεωρητικά, να θεωρήσει τους ανθρώπους απειλή. Και για κάθε ενδεχόμενο, απαλλαγείτε από αυτά εξαπολύοντας έναν πυρηνικό πόλεμο ή μολύνοντας τον πληθυσμό του πλανήτη με ένα θανατηφόρο ιός. Ποτέ δεν ξέρεις, ξαφνικά αυτοί οι άτριχοι πίθηκοι θα βγάλουν το φις από την πρίζα.
Αυτή είναι μια δημοφιλής ιστορία στην επιστημονική φαντασία. Ένα από τα πρώτα του μεταχειρισμένος το 1967, ο Αμερικανός συγγραφέας Χάρλαν Έλισον στο διήγημά του «Δεν έχω στόμα, αλλά πρέπει να ουρλιάξω». Σε αυτό, ο παντοδύναμος υπολογιστής AM μισούσε τους δημιουργούς του, εξολόθρευσε την ανθρωπότητα και άφησε μόνο πέντε ανθρώπους στον πλανήτη να τους κοροϊδεύουν για να μην κάνουν τίποτα.
Δόξα στα ρομπότ. Θάνατος στους ανθρώπους.
Στην πραγματικότητα, μια εξέγερση AI είναι αδύνατη. Οι αλγόριθμοι λογισμικού δεν έχουν αυτογνωσία, δεν έχουν ελεύθερη βούληση και Συναισθηματική αντιδράσεις. Δεν μπορούν να τρέφουν αρνητικά συναισθήματα για τους δημιουργούς τους ή την επιθυμία να υποδουλώσουν την ανθρωπότητα. Τα νευρωνικά δίκτυα δεν είναι ικανά να αλλάζουν ανεξάρτητα τις παραμέτρους ή το πρόγραμμά τους για να βγουν εκτός ελέγχου.
Κάτι τέτοιο στη θεωρία Μπορεί ισχυρό AI. Αλλά, όπως αναφέρθηκε παραπάνω, με τις σύγχρονες τεχνολογίες, δεν θα λειτουργήσει για τη δημιουργία του.
Μύθος 8. Ρομπότ με τεχνητή νοημοσύνη θα σκοτώσουν ανθρώπους
Όταν μιλάμε για τους κινδύνους της τεχνητής νοημοσύνης και την άνοδο των μηχανών, συνήθως σκεφτόμαστε εικόνες από ταινίες όπως ο Εξολοθρευτής στο κεφάλι μας. Με επικεφαλής την τεχνητή νοημοσύνη, μια ορδή μηχανικών πλασμάτων παρόμοια με τους ανθρώπους, αλλά πιο δυνατά και πιο γρήγορα από αυτόν, εξοντώνει τους εφευρέτες τους.
Στην πράξη, αυτό το σενάριο είναι εξαιρετικά απίθανο και δεν αφορά καν την έλλειψη επιθυμίας του AI να σκοτώσει κάποιον. Απλώς η τρέχουσα κατάσταση της ρομποτικής είναι πολύ πίσω από αυτό που είδαμε στο Terminator και "Μήτρα».
Για παράδειγμα, τα robo-bops της Boston Dynamics διαφέρουν σε δυνατότητες από το τετράποδο δολοφόνο από τη σειρά Black Mirror Metalhead. Δεν ξέρουν πώς να τρέξουν τόσο γρήγορα για να κυνηγήσουν ανθρώπους που δραπετεύουν. Όταν προσπαθείτε να σας προλάβει στις σκάλες, το ίδιο Spot μπορεί εύκολα να μπερδευτεί στα πόδια του και να πέσει.
Ένα ακόμη πιο σημαντικό εμπόδιο στη δημιουργία μηχανοποιημένων δολοφόνων είναι η έλλειψη μιας αρκετά συμπαγούς, ισχυρής και μακράς διάρκειας πηγής ενέργειας.
Robops Boston Dynamics ικανός "Ζωντανά" με μία μόνο φόρτιση για έως και 90 λεπτά - αυτό σαφώς δεν είναι αρκετό για να αντιπροσωπεύσει έναν στρατό από αυτούς για την καταστροφή της ανθρωπότητας. Δεν έχουν εφευρεθεί ακόμη ούτε οι μονάδες αντιδραστήρων που λειτουργούν επί 120 συνεχόμενα χρόνια, οι οποίες μπορούν να τοποθετηθούν στο στήθος μιας μηχανής σε μέγεθος ανθρώπου, όπως στο Terminator.
Τέλος, η τοποθέτηση της τεχνητής νοημοσύνης σε ένα αυτόνομο μηχάνημα είναι μια αδύνατη δουλειά. Είναι στη φαντασία του Τζέιμς Κάμερον ότι χωράει σε ένα τσιπ στο μέγεθος ενός νυχιού. Στην πραγματικότητα, για να σκεφτεί κανείς την τεχνητή νοημοσύνη, απαιτείται σημαντική υπολογιστική ισχύς - το ChatGPT, για παράδειγμα, εργάζεται σε μια φάρμα, που αποτελείται από 10.000 κάρτες γραφικών.
Μπορείτε να φανταστείτε τι μέγεθος πρέπει να είναι ένα τεράστιο ανθρωποειδές; ρομπότγια να φιλοξενήσει τέτοιους «εγκεφάλους», και τι ψύξη πρέπει να έχει;
Διαβάστε επίσης🧐
- 8 γνωστές συσκευές που μπορούν να σας κατασκοπεύσουν. Και δεν είναι αστείο
- 10 φανταστικές εφευρέσεις ταινιών που έγιναν πραγματικότητα
- Περισσότερες από 100 υπηρεσίες βασισμένες σε νευρωνικά δίκτυα για μια ποικιλία εργασιών