Καταπολέμηση ρομπότ: απαγορεύεται να μην επιτρέπεται

Πίνακας περιεχομένων:

Καταπολέμηση ρομπότ: απαγορεύεται να μην επιτρέπεται
Καταπολέμηση ρομπότ: απαγορεύεται να μην επιτρέπεται

Βίντεο: Καταπολέμηση ρομπότ: απαγορεύεται να μην επιτρέπεται

Βίντεο: Καταπολέμηση ρομπότ: απαγορεύεται να μην επιτρέπεται
Βίντεο: Το ρομπότ που κάνει… παρκούρ 2024, Ενδέχεται
Anonim

Οι εμπειρογνώμονες συναντήθηκαν στη Γενεύη, αλλά δεν μπορούσε να επιτευχθεί συμφωνία: οι Ηνωμένες Πολιτείες και η Ρωσία εμπόδισαν κάθε εργασία. Ίσως αυτή είναι η μόνη φορά που τα ηγεμόνια λειτουργούν τόσο αρμονικά.

Καταπολέμηση ρομπότ: απαγορεύεται να μην επιτρέπεται
Καταπολέμηση ρομπότ: απαγορεύεται να μην επιτρέπεται

Συναντήσεις εμπειρογνωμόνων με τη μορφή της Σύμβασης για τα Ανθρώπινα Όπλα έληξαν στη Γενεύη για να αποφασίσουν την τύχη των λεγόμενων ρομπότ μάχης - αυτόνομα όπλα που χρησιμοποιούν τεχνητή νοημοσύνη για να νικήσουν τους στόχους. Ωστόσο, δεν μπορούσαν να επιτευχθούν συμφωνίες. Οι Ηνωμένες Πολιτείες, η Ρωσία, η Νότια Κορέα, το Ισραήλ και η Αυστραλία ήταν μεταξύ των μειονοτικών εθνών που κατάφεραν να μπλοκάρουν το συναίσθημα προς την πλήρη απαγόρευση των ρομπότ δολοφόνων.

Έτσι, αν και δεν υπάρχει ακόμα αυτόνομο όπλο εργασίας στον κόσμο, η τεχνολογία παραμένει, για να το πούμε, ανθρώπινη - μπορεί να αναπτυχθεί και να ερευνηθεί. Είναι ενδιαφέρον ότι οι Ηνωμένες Πολιτείες και η Ρωσία, σύμφωνα με το Ινστιτούτο Ερευνών για την Ειρήνη της Στοκχόλμης (SIPRI), βρίσκονται στην κορυφή της λίστας των μεγαλύτερων εξαγωγέων όπλων. Η Νότια Κορέα, το Ισραήλ και η Αυστραλία επίσης δεν υστερούν σε αυτήν την κατάταξη - είναι μεταξύ των 20 κορυφαίων παικτών της αγοράς.

Και παρόλο που η Κίνα (ο πέμπτος εξαγωγέας όπλων στον κόσμο, μόνιμο μέλος του Συμβουλίου Ασφαλείας του ΟΗΕ υποστηρίζει την απαγόρευση των ρομπότ μάχης, δεν κατάφερε να τροποποιήσει τις κλίμακες προς την κατεύθυνση κατά τη διάρκεια των συναντήσεων. Σήμερα, 26 χώρες υποστηρίζουν ανοιχτά την απαγόρευση της χρήσης τεχνητής νοημοσύνης στον πόλεμο. Άλλοι αποφεύγουν τη σαφή θέση τους) Η Γαλλία και η Γερμανία (ο τρίτος και τέταρτος εξαγωγέας όπλων) προσφέρουν να υπογράψουν ένα έγγραφο που θα εδραιώσει την υπεροχή του ανθρώπου έναντι της τεχνητής νοημοσύνης, αλλά είναι πιο πιθανό από την πλευρά εκείνων που θέλουν να αναπτύξουν αυτόνομα οχήματα μάχης.

«Είναι σίγουρα απογοητευτικό το γεγονός ότι μια μικρή ομάδα στρατιωτικών γιγάντων μπορεί να συγκρατήσει τη βούληση της πλειοψηφίας», σχολίασε η Mary Verhem, συντονίστρια της εκστρατείας για τη διακοπή των δολοφόνων Killer, σχετικά με το αποτέλεσμα των συναντήσεων της Γενεύης.

Πράγματι, η κατάσταση μοιάζει με συνωμοσία ένοπλων μεγιστάνων μονοπωλίου, δεδομένου ότι οι Ηνωμένες Πολιτείες και η Ρωσία συνήθως δεν μπορούν να επιτύχουν τουλάχιστον κάποιο είδος συμβιβασμού σε σημαντικά θέματα. Πάρτε το συριακό: Η Ουάσιγκτον και η Μόσχα απέκλεισαν αμοιβαία τα ψηφίσματα του άλλου μετά τη χρήση χημικών όπλων στη Συρία αυτή την άνοιξη. Παρεμπιπτόντως, απαγορεύτηκαν προηγουμένως η Σύμβαση για τα Ανθρώπινα Όπλα, ασφυξικά αέρια και άλλες τοξικές ουσίες.

Η επόμενη συνάντηση για τη μοίρα των δολοφόνων ρομπότ θα πραγματοποιηθεί στη Γενεύη το Νοέμβριο.

Γιατί θέλουν να απαγορεύσουν τα αυτόνομα όπλα

Οι υποστηρικτές της απαγόρευσης πολέμου ρομπότ επιμένουν ότι το πεδίο της μάχης δεν είναι μέρος για τεχνητή νοημοσύνη. Κατά τη γνώμη τους, τέτοιες τεχνολογίες αποτελούν τεράστια απειλή. Τουλάχιστον, σήμερα δεν είναι σαφές πώς το μηχάνημα θα κάνει διάκριση μεταξύ μαχητών (εκείνων που εμπλέκονται άμεσα σε εχθροπραξίες) από μη μαχητές (στρατιωτικό προσωπικό που μπορεί να χρησιμοποιήσει όπλα μόνο για αυτοάμυνα) και γενικά πολίτες. Υπάρχει η πιθανότητα το έργο να σκοτώσει τους τραυματίες και εκείνους που παραδοθούν, κάτι που απαγορεύεται από τους ισχύοντες κανόνες πολέμου.

Τι εμποδίζει το έργο να διακόψει όλα τα μέρη της σύγκρουσης, ακόμη και τους ιδιοκτήτες τέτοιων όπλων; Τα στοιχεία τεχνητής νοημοσύνης χρησιμοποιούνται ήδη με επιτυχία σε στρατιωτικό εξοπλισμό, πυραύλους. Τα ρομπότ προσελκύονται για αναγνώριση, αλλά η τελευταία λέξη παραμένει στον άνθρωπο. Τα αυτόνομα όπλα δεν θα υπακούουν στις εντολές των διοικητών - γι 'αυτό είναι αυτόνομα. Αυτός είναι ο λόγος για τον οποίο στρατιωτικοί στρατηγικοί από διαφορετικές χώρες είναι δύσπιστοι για την εισαγωγή μηχανών στις τάξεις του προσωπικού.

Και ένα ακόμη ανοιχτό ερώτημα είναι η διεθνής τρομοκρατία. Η αυτόνομη τεχνολογία όπλων μπορεί να πέσει σε λάθος χέρια και τελικά μπορεί να χακαριστεί. Πριν από ένα χρόνο, ο Ρώσος πρόεδρος Βλαντιμίρ Πούτιν είπε ότι ο κυβερνήτης του κόσμου θα είναι αυτός που θα γίνει ο ηγέτης στην ανάπτυξη της τεχνητής νοημοσύνης. Στην περίπτωση αυτόνομων όπλων, αυτός που αποκτά πρόσβαση σε τέτοιες τεχνολογίες θα γίνει ο κυβερνήτης του κόσμου. Και για αυτό, στην πραγματικότητα, χρειάζεστε μόνο έναν υπολογιστή και έναν αποφεύκτη που θα περάσει από τα συστήματα ασφαλείας. Παρεμπιπτόντως, το Πεντάγωνο έχει παραβιαστεί περισσότερο από μία φορά. Κατά συνέπεια, κανείς δεν μπορεί να δώσει εγγυήσεις ότι τα αυτόνομα όπλα θα παραμείνουν απαραβίαστα.

Δεν είναι επίσης σαφές ποιος θα είναι νομικά υπεύθυνος εάν διαπράξει έγκλημα πολέμου ως αποτέλεσμα της λειτουργίας του αυτόνομου συστήματος όπλων. «Ο μηχανικός, προγραμματιστής, κατασκευαστής ή διοικητής που χρησιμοποίησε το όπλο; Εάν η ευθύνη δεν μπορεί να οριστεί όπως απαιτείται από το διεθνές ανθρωπιστικό δίκαιο, μπορεί η ανάπτυξη τέτοιων συστημάτων να αναγνωριστεί ως νομική ή ηθικά δικαιολογημένη; »σημειώνει η Διεθνής Επιτροπή του Ερυθρού Σταυρού.

Είναι ενδιαφέρον ότι οι επιστήμονες υποστήριξαν επίσης την απαγόρευση των ρομπότ μάχης. Τον Ιούλιο του τρέχοντος έτους, περισσότεροι από δύο χιλιάδες επιστήμονες, ιδίως ο δημιουργός των Tesla και SpaceX Elon Musk και οι συνιδρυτές του DeepMind, υπέγραψαν ένα έγγραφο ότι δεν θα ανέπτυξαν θανατηφόρα αυτόνομα όπλα. Το Google έκανε το ίδιο. Ο τεχνολογικός γίγαντας έχει σταματήσει να εργάζεται στο έργο Maven του Πενταγώνου. Και το 2017, αρκετοί επιστήμονες έχουν ήδη ζητήσει από τον ΟΗΕ να απαγορεύσει τη δημιουργία δολοφονικών ρομπότ.

Παρεμπιπτόντως, το θέμα της τεχνητής νοημοσύνης στον πόλεμο εμφανίστηκε στην ατζέντα των Ηνωμένων Εθνών στο τέλος του 2013, αλλά ουσιαστικά τίποτα δεν έχει αλλάξει από τότε. Μόνο φέτος, οι συναντήσεις εμπειρογνωμόνων ξεκίνησαν με τη μορφή της Σύμβασης για τα Ανθρώπινα Όπλα. Δηλαδή, χρειάστηκαν περισσότερα από τέσσερα χρόνια για να φτάσουμε σε λίγο περισσότερο πρακτικό επίπεδο.

Γιατί δεν θέλουν να απαγορεύσουν τα αυτόνομα όπλα

Ανεξάρτητα από το πόσο ήχο μπορεί να ακούγεται, ο αγώνας όπλων είναι ο κύριος λόγος για τον οποίο δεν θέλουν να απαγορεύσουν τα δολοφονικά ρομπότ. Ο Πούτιν έχει δίκιο: όποιος αποκτήσει πρώτα αυτόνομα όπλα θα κυριαρχήσει στον κόσμο. Επισήμως, αυτός ο λόγος εκφράζεται.

Το κύριο επιχείρημα των αντιπάλων της απαγόρευσης είναι η αδυναμία διαχωρισμού της μη τεχνητής νοημοσύνης από τον στρατό. Όπως, δεν θα απαγορεύσουμε τα μαχαίρια κουζίνας μόνο και μόνο επειδή οι τρομοκράτες μπορούν να τα χρησιμοποιήσουν. Πράγματι, είναι πρακτικά αδύνατο να διαχωριστεί η πολιτική ανάπτυξη της τεχνητής νοημοσύνης από τον στρατό. Αλλά τώρα μιλάμε για την απαγόρευση αυτού του όπλου, το οποίο θα είναι σε θέση να καθορίσει ανεξάρτητα και να επιτεθεί σε στόχους. Αυτό θα μπορούσε να είναι το έργο Maven, στο οποίο το Υπουργείο Άμυνας των ΗΠΑ εργάζεται σε συνεργασία με τον Booz Allen Hamilton (η Google αρνήθηκε τη σύμβαση).

Οι προγραμματιστές του Maven θέλουν να διδάξουν drone για την ανάλυση εικόνων, ιδίως από δορυφόρους και - ενδεχομένως - να προσδιορίσουν στόχους επίθεσης. Το Πεντάγωνο άρχισε να εργάζεται στο έργο τον Απρίλιο του 2017 και ήλπιζε να αποκτήσει τους πρώτους αλγόριθμους εργασίας μέχρι το τέλος του έτους. Αλλά μέσω του διαβήματος των υπαλλήλων της Google, η ανάπτυξη καθυστέρησε Από τον Ιούνιο του τρέχοντος έτους, σύμφωνα με τον Gizmodo, το σύστημα θα μπορούσε να διακρίνει μεταξύ στοιχειωδών αντικειμένων - αυτοκινήτων, ανθρώπων, αλλά αποδείχθηκε εντελώς ασήμαντο σε δύσκολες καταστάσεις. Εάν η απαγόρευση των αυτόνομων όπλων υιοθετηθεί ωστόσο σε επίπεδο ΟΗΕ, το έργο θα πρέπει να διαλυθεί, ενώ το Πεντάγωνο ισχυρίζεται ότι η ανάπτυξή τους μπορεί να σώσει ζωές, επειδή μπορεί να προγραμματιστεί να λειτουργεί με μεγαλύτερη ακρίβεια και αξιοπιστία σε σύγκριση με τους ανθρώπους.

"Πρέπει να καταλάβετε ότι μιλάμε για τεχνολογία, ότι δεν έχει δείγματα που θα λειτουργούσαν. Η ιδέα τέτοιων συστημάτων είναι ακόμη πολύ επιφανειακή", σημείωσε την παραμονή της συνάντησης στη Γενεύη στο ρωσικό Υπουργείο Εξωτερικών. - Κατά τη γνώμη μας, το διεθνές δίκαιο, ειδικότερα, ο ανθρωπιστικός τομέας, μπορεί να εφαρμοστεί σε αυτόνομα όπλα. Δεν χρειάζονται εκσυγχρονισμό ή προσαρμογή σε συστήματα που δεν υπάρχουν ακόμη ».

Λοιπόν, και ένα ακόμη πραγματικό, αλλά δεν εκφράζεται, ο λόγος είναι χρήματα. Σήμερα, η αγορά στρατιωτικών τεχνολογιών τεχνητής νοημοσύνης εκτιμάται σε περισσότερα από έξι δισεκατομμύρια δολάρια. Αλλά μέχρι το 2025 ο αριθμός θα τριπλασιαστεί - σε σχεδόν 19 δισεκατομμύρια, σύμφωνα με αναλυτές της αμερικανικής εταιρείας MarketsandMarkets. Για τους μεγαλύτερους εξαγωγείς όπλων, αυτό είναι ένα καλό κίνητρο για τον αποκλεισμό τυχόν περιορισμών στην ανάπτυξη δολοφονικών ρομπότ.

Η πρόοδος δεν μπορεί να σταματήσει

Οι υποστηρικτές της απαγόρευσης των αυτόνομων όπλων σημειώνουν ότι η τεχνολογία εξελίσσεται πολύ γρήγορα και η τεχνητή νοημοσύνη θα γίνει τελικά όπλο - θέμα χρόνου. Υπάρχει λογική στα λόγια τους. Η τεχνητή νοημοσύνη αποτελεί αναπόσπαστο μέρος της τέταρτης επιστημονικής και τεχνολογικής επανάστασης, η οποία συνεχίζεται τώρα. Πρέπει να έχουμε κατά νου ότι η τεχνική πρόοδος σχετίζεται με τον έναν ή τον άλλο τρόπο που σχετίζεται με στρατιωτικές επιχειρήσεις. Η τρίτη επιστημονική και τεχνολογική επανάσταση διήρκεσε μέχρι τα μέσα της δεκαετίας του '50 του ΧΧ αιώνα, δηλαδή, η αιχμή της έπεσε την περίοδο του Β 'Παγκοσμίου Πολέμου.

Το 1949, η Γενεύη υιοθέτησε τη Σύμβαση για την Προστασία των Πολιτών στην εποχή του πολέμου. Στη μεταπολεμική περίοδο, συμπλήρωσαν επίσης τη Σύμβαση της Χάγης του 1907, η οποία καθόριζε τους κανόνες για τη διεξαγωγή πολέμου. Δηλαδή, η φρίκη του Β 'Παγκοσμίου Πολέμου έγινε ο καταλύτης αυτής της διαδικασίας. Έτσι, οι υπερασπιστές των ανθρωπίνων δικαιωμάτων δεν θέλουν να περιμένουν τον Τρίτο Παγκόσμιο Πόλεμο για να προστατεύσουν την ανθρωπότητα από αυτόνομα όπλα. Γι 'αυτό είναι απαραίτητο να αποφασιστεί η μοίρα των ρομπότ δολοφόνων, επιμένουν.

Σύμφωνα με τους ειδικούς της Human Rights Watch, η χρήση ρομπότ μάχης έρχεται σε αντίθεση με τη Διακήρυξη του Martens - το προοίμιο της Σύμβασης της Χάγης του 1899 για τους νόμους και τα έθιμα του πολέμου. Με άλλα λόγια, δολοφόνα ρομπότ παραβιάζουν τους νόμους της ανθρωπότητας και τις απαιτήσεις της δημόσιας συνείδησης (η θέση επιβεβαιώθηκε στη Σύμβαση της Χάγης IV).

«Πρέπει να εργαστούμε από κοινού για να επιβάλουμε μια προληπτική απαγόρευση σε τέτοια όπλα πριν εξαπλωθούν σε ολόκληρο τον κόσμο», δήλωσε ο Bonnie Doherty, ανώτερος ερευνητής στο τμήμα όπλων στο Human Rights Watch

Λοιπόν, δεν λειτούργησε για την απαγόρευση των δολοφόνων ρομπότ αυτή τη φορά. Προβλέψιμα, οι συναντήσεις του Νοεμβρίου θα είναι επίσης άκαρπες. Είναι αλήθεια ότι σχεδόν όλες οι χώρες συμφωνούν - δεν μπορεί να επιτρέπεται η ροή της τεχνολογίας από τη βαρύτητα και τα ρομπότ μάχης χρειάζονται έναν τέτοιο γερανό. Ωστόσο, δεν είναι ακόμα σαφές εάν η ανθρωπότητα θα έχει χρόνο να την τραβήξει όταν προκύψει ανάγκη.

Συνιστάται: