Edition: International | Greek

Αρχική » Διεθνή

H επιρροή της τεχνητής νοημοσύνης στη σύγχρονη ασφάλεια

Το φετινό Συνέδριο για την Ασφάλεια που έλαβε χώρα στο Μόναχο στα μέσα Φεβρουαρίου, ξεκίνησε αρκετά θεαματικά

Από: EBR - Δημοσίευση: Δημοσίευση: Παρασκευή, 9 Μαρτίου 2018

μέγεθος [–] [+]
Τα αυτόνομα οπλικά συστήματα όπως και τα τρέχοντα τηλεχειριζόμενα μη επανδρωμένα σκάφη, δημιουργούν μια ψευδή εικόνα ενός «καθαρού» και αναίμακτου πολέμου. Αυτό βασίζεται σε μια εσφαλμένη άποψη. Όχι μόνο είναι ηθικά λανθασμένο το γεγονός ότι αποφάσεις ζωής και θανάτου θα παίρνονται από αλγόριθμους και όχι από ανθρώπους, αλλά με αυτόν τον τρόπο θα ξεκινάει και ευκολότερα ένας πόλεμος.
Τα αυτόνομα οπλικά συστήματα όπως και τα τρέχοντα τηλεχειριζόμενα μη επανδρωμένα σκάφη, δημιουργούν μια ψευδή εικόνα ενός «καθαρού» και αναίμακτου πολέμου. Αυτό βασίζεται σε μια εσφαλμένη άποψη. Όχι μόνο είναι ηθικά λανθασμένο το γεγονός ότι αποφάσεις ζωής και θανάτου θα παίρνονται από αλγόριθμους και όχι από ανθρώπους, αλλά με αυτόν τον τρόπο θα ξεκινάει και ευκολότερα ένας πόλεμος.

ΠΕΡΙΣΣΟΤΕΡΑ ΓΙΑ Διεθνή

της Vanessa Müller

Μετάφραση: Μαρία Γαλανάκη

Την παραμονή τoυ συνεδρίου, σε μία δημόσια εκδήλωση ανοικτή σε όλους, παρουσιάστηκε αυτό που έχει επισημανθεί από επιστήμονες και ειδικούς από όλο τον κόσμο, ως η τρίτη επανάσταση του πολέμου μετά από την πυρίτιδα και τα πυρηνικά όπλα: τα φονικά αυτόνομα οπλικά συστήματα. 

Φυσικά, αυτό δεν θα μπορούσε να έχει επιτευχθεί καλύτερα, από το να χρησιμοποιηθεί ένα ρομπότ, το οποίο και εκφώνησε την εναρκτήρια ομιλία. Η Σοφία, το πρώτο ρομπότ που έλαβε ποτέ υπηκοότητα, ισχυρίστηκε ότι ο κόσμος θα γίνει καλύτερος με την χρήση και την ανάπτυξη της τεχνητής νοημοσύνης. 

Κατά μία έννοια, η Σοφία έχει δίκιο. Η τεχνητή νοημοσύνη θα μπορούσε να μειώσει την πιθανότητα λανθασμένης διάγνωσης στον τομέα της υγείας, να μειώσει την κατανάλωση πόρων στη γεωργία ή να βελτιώσει τα προγράμματα αντιμετώπισης καταστροφών. Ωστόσο, τα ίδια προγράμματα τεχνητής νοημοσύνης που χρησιμοποιούνται για να ανιχνεύουν εμπόδια (όπως πεζούς) κατά τη διάρκεια της πορείας ενός αυτόματου αυτοκινήτου, θα μπορούσαν να χρησιμοποιηθούν και σε έναν πόλεμο, για την αναζήτηση, τον εντοπισμό, την επιλογή και την επίθεση ενός στόχου, χωρίς ανθρώπινη παρέμβαση.

Οι εξελίξεις στον τομέα της τεχνητής νοημοσύνης ενισχύουν τις επιθετικές στρατιωτικές δυνατότητες, δημιουργώντας έτσι ένα κλασικό δίλημμα ασφαλείας για τα κράτη. Φυσικά, η αυτοματοποίηση στα αμυντικά συστήματα έχει μία μακρά ιστορία, αλλά μέχρι και σήμερα οι άνθρωποι είχαν τον έλεγχο και έπαιρναν την τελική απόφαση πριν από την χρήση βίας. 

Τα αυτόνομα οπλικά συστήματα όπως και τα τρέχοντα τηλεχειριζόμενα μη επανδρωμένα σκάφη, δημιουργούν μια ψευδή εικόνα ενός «καθαρού» και αναίμακτου πολέμου. Αυτό βασίζεται σε μια εσφαλμένη άποψη. Όχι μόνο είναι ηθικά λανθασμένο το γεγονός ότι αποφάσεις ζωής και θανάτου θα παίρνονται από αλγόριθμους και όχι από ανθρώπους, αλλά με αυτόν τον τρόπο θα ξεκινάει και ευκολότερα ένας πόλεμος. 

Η κατοχή αυτόνομων όπλων μειώνει το πολιτικό κόστος του πολέμου. Οι στρατιώτες δεν θα παίρνουν πια το ρίσκο, οπότε πιθανόν οι υπεύθυνοι χάραξης πολιτικής να πηγαίνουν πιο γρήγορα σε πόλεμο, αυξάνοντας τελικά τον αριθμό συγκρούσεων και συμβάλλοντας στη διεθνή αστάθεια. 

Σε αντίθεση με τα πυρηνικά όπλα, τα οποία περιλαμβάνουν δυσεύρετες πρώτες ύλες και μία συγκεκριμένη πορεία ανάπτυξης, τα αυτόνομα όπλα, όπως τα microdrones, μπορούν να παράγονται μαζικά και οικονομικά και είναι πιθανό να αποκτηθούν όχι μόνο από κυβερνήσεις αλλά και από μη κρατικές οντότητες. 

Θα μπορούσαν να εκτυπωθούν σε τρισδιάστατους εκτυπωτές (3D) ή να κατασκευαστούν με εξαρτήματα που διατίθενται μέσω Amazon. Οι προχωρημένοι φοιτητές πληροφορικής, είναι λογικά σε θέση να διαχειριστούν αυτό το λογισμικό. Έτσι, πιθανότατα, τα θανατηφόρα αυτόνομα οπλικά συστήματα θα αναπτυχθούν περαιτέρω από τους δικτάτορες για να καταστείλουν τα μέλη της αντιπολίτευσης, τους πολέμαρχους για να διεξάγουν εθνοκαθάρσεις ή τους τρομοκράτες για να αποσταθεροποιήσουν τα κράτη. 

Τα πιθανά λειτουργικά πλεονεκτήματα, όπως η ταχύτητα των αυτόνομων όπλων, πρέπει επίσης να εξεταστούν με προσοχή. Φυσικά και αντιδρούν ταχύτερα από τους ανθρώπους και από τα συνηθισμένα οπλικά συστήματα που χρειάζονται την ανθρώπινη παρέμβαση και έγκριση για να δράσουν. Ωστόσο, αν αυτή η αυτονομία και η ταχύτητά τους σταματήσει να βασίζεται στις ανθρώπινες αποφάσεις, η περιφερειακή και η διεθνής σταθερότητα θα τεθεί σε κίνδυνο, οδηγώντας ενδεχομένως σε υψηλότερα επίπεδα βίας. 

Η ανθρώπινη κρίση, η διαίσθηση και η κατανόηση ενός ταχέως μεταβαλλόμενου περιβάλλοντος, είναι ζωτικής σημασίας για να αποφευχθεί μία  τέτοια κλιμάκωση. Οι γρήγορες αποφάσεις, που λαμβάνονται από αυτόνομα οπλικά συστήματα και χωρίς ανθρώπινο έλεγχο, όταν έχουμε να κάνουμε με ζητήματα ζωής και θανάτου, θα μπορούσαν να έχουν σοβαρές διεθνείς συνέπειες. Ακόμα χειρότερα δε, εάν επηρεάζονται από κάποια δυσλειτουργία, hacking ή απλά δεν έχουν προγραμματιστεί σωστά, ώστε να είναι ευέλικτα μέσα στα σημερινά χαοτικά πεδία μάχης. 

Η τεχνητή νοημοσύνη κινδυνεύει επίσης να πέσει θύμα hacking. Μια αλλαγή θέσης στο GPS δεν θα αμφισβητηθεί από ένα αυτόνομο οπλικό σύστημα. Ως αποτέλεσμα, μπορεί να στραφεί εναντίον συμμάχων ή αμάχων, προκαλώντας μια ακούσια κλιμάκωση της κρίσης. Αντίθετα, ένας άνθρωπος που χειρίζεται και ελέγχει ένα οπλικό σύστημα, είναι σε θέση να παρατηρήσει ότι κάτι πάει λάθος, αφήνοντας περιθώρια για παρέμβαση. 

Η πρόοδος της τεχνητής νοημοσύνης στην ανάπτυξη αυτόνομων οπλικών συστημάτων δεν δημιουργεί μόνο κινδύνους για τη διεθνή ασφάλεια, αλλά και πολλές νομικές και δεοντολογικές ανησυχίες. Το πιο σημαντικό είναι, ότι τα αυτόνομα όπλα «υπερβαίνουν» μια ηθική γραμμή, μεταβιβάζοντας έτσι τις κρίσιμες αποφάσεις στις μηχανές. Η χρήση βίας και η αξία της ζωής ενός ανθρώπου υποβαθμίζονται, όταν κανείς δεν φέρει ηθική ευθύνη για τις παραπάνω αποφάσεις. 

Επιπλέον, ποιος φέρει ευθύνη σε περίπτωση ανθρωπιστικής καταστροφής που μπορεί να προκληθεί από ένα αυτόνομο όπλο;

Η ανάληψη ευθυνών είναι πολύ σημαντική για τους ανθρώπους και τις υπηρεσίες τους. Οι αλγόριθμοι που αναπτύσσονται όμως, δεν μπορούν να θεωρηθούν υπεύθυνοι. Ως εκ τούτου, ακόμα και αν επιρρίψουμε ευθύνες σε ένα κράτος, έναν προγραμματιστή ή έναν στρατιωτικό, δεν θα έχει νόημα, αν κανένας από αυτούς δεν κατανοεί πώς και γιατί ο αλγόριθμος έχει λάβει την απόφασή του. 

Ένα τελευταίο αρνητικό χαρακτηριστικό των αυτόματων οπλικών συστημάτων, είναι η μη τήρηση του διεθνούς ανθρωπιστικού δικαίου. Όπως αναφέρουν συνεχώς οι ειδικοί της τεχνητής νοημοσύνης και της ρομποτικής, οι αρχές της διάκρισης των εξουσιών, της αναλογικότητας και της στρατιωτικής αναγκαιότητας, δεν μπορούν να ικανοποιηθούν από την τρέχουσα φάση της τεχνητής νοημοσύνης και μπορεί να μην το κάνουν και ποτέ. 

Ως εκ τούτου, είναι απαραίτητη η προληπτική απαγόρευση των αυτόνομων όπλων, προκειμένου να αποφευχθεί ένας περαιτέρω επικίνδυνος αγώνας εξοπλισμού μεταξύ των κρατών, που κατά κάποιο τρόπο έχει ήδη αρχίσει. 

Ποιον λοιπόν, πρέπει να συμβουλευτείς και να ακούσεις σχετικά με την τεχνητή νοημοσύνη στα οπλικά συστήματα; 

Τους περισσότερο από 3.700 κορυφαίους επιστήμονες στον τομέα της Τεχνητής Νοημοσύνης και Ρομποτικής, όπως είναι η Barbara J. Grosz  και ο Mustafa Suleyman; Τους 20.000 που υποστηρίζουν με ανοιχτή επιστολή την προληπτική απαγόρευση των αυτόνομων όπλων, όπως ο Elon Musk και ο Jaan Tallinn; Τους σπουδαίους επιστήμονες, όπως ο Stephen Hawking; 

Ή πρέπει να ακούσεις τη Σοφία, ένα ρομπότ που απλά προσπαθεί να κατανοήσει τον κόσμο; 

Ευρώπη

Μέρκελ: Ο εθνικισμός και ο εγωισμός δεν πρέπει ποτέ να ξανακυριαρχήσουν στην Ευρώπη

Η Γερμανίδα καγκελάριος Άνγκελα Μέρκελ συζήτησε το μέλλον της Ευρώπης με τους ευρωβουλευτές και τον Πρόεδρο της Ευρωπαϊκής Επιτροπής Ζαν Κλοντ Γιουνκέρ στην ολομέλεια του ΕΚ την Τρίτη

Οικονομία

Η ανάκαμψη της οικονομίας το ζητούμενο

Τους κινδύνους από τους οποίους απειλείται η ελληνική οικονομία, είχα αναπτύξει σε προηγούμενο άρθρο μου, επομένως σήμερα οφείλω να παρουσιάσω μερικές σκέψεις για τη βελτίωση της οικονομίας

Γνώμη

Ακραίος τυχοδιωκτισμός

Από: EBR

Οι ενέργειες που δείχνουν ότι η κυβέρνηση ΣΥΡΙΖΑΝΕΛ δεν ορρωδεί προ ουδενός διαδέχονται η μία την άλλη

Περιοδικό

Ηλεκτρονική Έκδοση Τρέχοντος Τεύχους: 3/2018 2018

Τρέχον Τεύχος

3/2018 2018

Δείτε τα παλαιά τεύχη
Συνδρομή
Διαφημιστείτε
Ηλεκτρονική Έκδοση

All contents © Copyright Copyright EMG Strategic Consulting Ltd. 1997-2018. All Rights Reserved   |   Αρχική Σελίδα  |   Disclaimer  |   Website by Theratron