Drones και μη επανδρωμένα οχήματα ως όπλο: γιατί πρέπει να είμαστε φοβούνται χάκερς
Της τεχνολογίας / / December 19, 2019
Κανείς δεν θα μπορούσε να αρνηθεί ότι η τεχνητή νοημοσύνη μπορεί να θέσει τη ζωή μας νέο επίπεδο. AI είναι σε θέση να λύσει πολλά προβλήματα που είναι πέρα από τη δύναμη του ανθρώπου.
Ωστόσο, πολλοί πιστεύουν ότι superintelligence θα θέλουν να μας καταστρέψουν, όπως SkyNet, ή να αρχίσουν να διεξάγουν πειράματα σε ανθρώπους όπως GLaDOS από το παιχνίδι Portal. Η ειρωνεία είναι ότι για να κάνει μια τεχνητή νοημοσύνη δεν μπορεί παρά ανθρώπους καλό ή κακό.
Οι ερευνητές από το Yale, Oxford, Cambridge, και η εταιρεία εμφάνισε OpenAI έκθεση σχετικά με την κατάχρηση της τεχνητής νοημοσύνης. Λέει ότι ο πραγματικός κίνδυνος προέρχεται από τους χάκερ. Με τη βοήθεια του κακόβουλου κώδικα, που μπορεί να διαταράξει τη λειτουργία των αυτόματων συστημάτων υπό έλεγχο AI.
Οι ερευνητές φοβούνται ότι η τεχνολογία που δημιουργήθηκε με καλές προθέσεις, θα χρησιμοποιηθεί για να βλάψει. Για παράδειγμα, η επιτήρηση μπορεί να εφαρμοστεί όχι μόνο για να πιάσει τους τρομοκράτες, αλλά και για να κατασκοπεύει τους απλούς πολίτες. Οι ερευνητές ανησυχητικό και εμπορική μη επανδρωμένα αεροσκάφη, τα οποία προσφέρουν τρόφιμα. Είναι εύκολο να παρακολουθήσει και να θέσει ένα κάτι εκρηκτικό.
Ένα άλλο σενάριο είναι καταστροφική χρήση της γρίπης των πτηνών - μη επανδρωμένα οχήματα. Είναι αρκετό για να αλλάξει μερικές γραμμές κώδικα, και το μηχάνημα θα αρχίσει να αγνοούν τους κανόνες ασφάλειας.
Οι επιστήμονες πιστεύουν ότι η απειλή μπορεί να είναι ψηφιακές, φυσική και πολιτική.
- Τεχνητή νοημοσύνη χρησιμοποιείται ήδη για να μελετήσει τα τρωτά σημεία των διαφόρων κωδικών του προγράμματος. Στο μέλλον, οι χάκερ θα μπορούσε να δημιουργήσει μια τέτοια bot, που θα παρακάμπτουν οποιαδήποτε προστασία.
- Με AI άτομο μπορεί να αυτοματοποιήσει πολλές από τις διαδικασίες: για παράδειγμα, να ελέγχουν ένα σμήνος από μη επανδρωμένα αεροσκάφη, ή η ομάδα οχημάτων.
- Με τεχνολογίες όπως DeepFake, μπορούν να επηρεάσουν την πολιτική ζωή του κράτους, διαδίδοντας ψευδείς πληροφορίες για τους ηγέτες του κόσμου μέσω του διαδικτύου bots.
Αυτά τα τρομακτικά παραδείγματα υπάρχουν μόνο ως υπόθεση. Οι συγγραφείς της μελέτης δεν παρέχουν την πλήρη απόρριψη της τεχνολογίας. Αντ 'αυτού, πιστεύουν ότι οι κυβερνήσεις και οι μεγάλες επιχειρήσεις θα πρέπει να αναλάβει τη φροντίδα του ασφάλειας, ενώ η βιομηχανία τεχνητή νοημοσύνη βρεφική ηλικία.
Οι πολιτικοί πρέπει να μάθουν την τεχνολογία και το έργο μαζί με εμπειρογνώμονες του τομέα, για να ρυθμίσει αποτελεσματικά τη δημιουργία και τη χρήση της τεχνητής νοημοσύνης.
Developers, με τη σειρά του, θα πρέπει να αξιολογούν τον κίνδυνο που θέτει η υψηλής τεχνολογίας, να προβλέψει και να αποτρέψει τις χειρότερες συνέπειες αυτών των ηγετών του κόσμου. Η έκθεση ζητεί AI προγραμματιστές: Η ομάδα με εμπειρογνώμονες ασφαλείας σε άλλους τομείς και για να μάθετε αν μπορείτε να χρησιμοποιήσετε τις αρχές που διασφαλίζουν την ασφάλεια των εν λόγω τεχνολογιών για την προστασία του τεχνητού νοημοσύνη.
Πλήρης αναφορά περιγράφει το πρόβλημα με περισσότερες λεπτομέρειες, αλλά το γεγονός ότι η AI - ένα ισχυρό εργαλείο. Όλα τα ενδιαφερόμενα μέρη πρέπει να μάθουν μια νέα τεχνολογία και να βεβαιωθείτε ότι δεν χρησιμοποιείται για εγκληματικούς σκοπούς.