
Τα συστήματα μηχανικής εκμάθησης μπορούν να επιτρέψουν πιο ακριβείς στοχευμένες επιθέσεις και λιγότερες απώλειες αμάχων. Φωτογραφία: The Conversation
Δεκέμβριος 11, 2023. Ελλάδα.
Από την Dr Bianca Baggiarini*
Την περασμένη εβδομάδα, προέκυψαν αναφορές ότι οι Ισραηλινές Αμυντικές Δυνάμεις (IDF) χρησιμοποιούν ένα σύστημα τεχνητής νοημοσύνης (AI) που ονομάζεται Habsora (στα εβραϊκά σημαίνει «Το Ευαγγέλιο») για να επιλέξουν στόχους στον πόλεμο κατά της Χαμάς στη Γάζα.
Το σύστημα φέρεται να έχει χρησιμοποιηθεί για την εύρεση περισσότερων στόχων για βομβαρδισμούς, για τη σύνδεση τοποθεσιών με στελέχη της Χαμάς και για την εκ των προτέρων εκτίμηση του πιθανού αριθμού θανάτων αμάχων.
Τι σημαίνει για τα συστήματα στόχευσης τεχνητής νοημοσύνης όπως αυτό, να χρησιμοποιούνται σε συγκρούσεις;
Η έρευνά σχετικά με τις κοινωνικές, πολιτικές και ηθικές επιπτώσεις της στρατιωτικής χρήσης απομακρυσμένων και αυτόνομων συστημάτων δείχνει ότι η τεχνητή νοημοσύνη ήδη αλλάζει τον χαρακτήρα του πολέμου.
Οι στρατοί χρησιμοποιούν απομακρυσμένα και αυτόνομα συστήματα ως «πολλαπλασιαστές δυνάμεων» για να αυξήσουν τον αντίκτυπο των στρατευμάτων τους και να προστατεύσουν τις ζωές των στρατιωτών τους.

Τα συστήματα τεχνητής νοημοσύνης μπορούν να κάνουν τους στρατιώτες πιο αποτελεσματικούς και είναι πιθανό να ενισχύσουν την ταχύτητα και τη φονικότητα του πολέμου – ακόμα και όταν οι άνθρωποι γίνονται λιγότερο ορατοί στο πεδίο της μάχης, αντί να συλλέγουν πληροφορίες και να στοχεύουν από μακριά.
Όταν ο στρατός μπορεί να σκοτώνει κατά βούληση, με ελάχιστο κίνδυνο για τους δικούς του στρατιώτες, θα επικρατήσει η τρέχουσα ηθική σκέψη για τον πόλεμο; Ή μήπως η αυξανόμενη χρήση της τεχνητής νοημοσύνης θα αυξήσει επίσης την απανθρωποποίηση των αντιπάλων και την αποσύνδεση μεταξύ των πολέμων και των κοινωνιών στα ονόματα των οποίων διεξάγονται;
Η τεχνητή νοημοσύνη έχει αντίκτυπο σε όλα τα επίπεδα πολέμου, από την υποστήριξη «πληροφοριών, επιτήρησης και αναγνώρισης», όπως το σύστημα Habsora του Ισραηλινού Στρατού, μέχρι τα «θανατηφόρα αυτόνομα οπλικά συστήματα» που μπορούν να επιλέξουν και να επιτεθούν σε στόχους χωρίς ανθρώπινη παρέμβαση.
Αυτά τα συστήματα έχουν τη δυνατότητα να αναδιαμορφώσουν τον χαρακτήρα του πολέμου, καθιστώντας ευκολότερη την είσοδο σε μια σύγκρουση. Ως πολύπλοκα και κατανεμημένα συστήματα, μπορεί επίσης να δυσκολέψουν την επισήμανση των προθέσεων κάποιου –ή την ερμηνεία των προθέσεων ενός αντιπάλου– στο πλαίσιο μιας κλιμακούμενης σύγκρουσης.
Για το σκοπό αυτό, η τεχνητή νοημοσύνη μπορεί να συμβάλει στην κακή πληροφόρηση ή στην παραπληροφόρηση , δημιουργώντας και ενισχύοντας επικίνδυνες παρεξηγήσεις σε περιόδους πολέμου.
Τα συστήματα τεχνητής νοημοσύνης μπορεί να αυξήσουν την τάση του ανθρώπου να εμπιστεύεται τις προτάσεις από μηχανές (αυτό επισημαίνεται από το σύστημα Habsora, που πήρε το όνομά του από τον αλάνθαστο λόγο του Θεού), ανοίγοντας την αβεβαιότητα μέχρι ποιο όριο πρέπει να εμπιστευόμαστε τα αυτόνομα συστήματα.
* Δρ Bianca Baggiarini – πολιτική κοινωνιολόγος και λέκτορας στρατιωτικών και πολεμικών σπουδών στο Κέντρο Στρατηγικών και Αμυντικών Σπουδών – Australian National University.
—
Επιτρέπεται η αναδημοσίευση μόνον με αναφορά της ενεργής
ηλεκτρονικής διεύθυνσης του ιστολογίου παραγωγής.
Discover more from Echedoros.blog
Subscribe to get the latest posts sent to your email.