Η τεχνητή νοημοσύνη του drone αποφασίζει να «σκοτώσει» τον χειριστή: την εποχή της αλληλεπίδρασης ανθρώπου- μηχανής στο χείλος του γκρεμού
Η τεχνητή νοημοσύνη του drone πήρε την απόφαση να παραμείνει πιστή στην αποστολή του, ακόμα κι αν αυτό σήμαινε ενδεχομένως να «σκοτώσει» τον χειριστή του. Για πρώτη φορά στην ιστορία της δοκιμής μη επανδρωμένων εναέριων οχημάτων (UAV) με τεχνητή νοημοσύνη, οι Ηνωμένες Πολιτείες αντιμετώπισαν παρόμοια κατάσταση, εγείροντας ερωτήματα σχετικά με την αλληλεπίδραση μεταξύ ανθρώπου και μηχανής.
Η δοκιμαστική αποστολή που διεξήχθη από τον αμερικανικό στρατό περιελάμβανε τη χρήση UAV με τεχνητή νοημοσύνη για την καταστροφή των συστημάτων αεράμυνας (αεράμυνα) ενός ψεύτικου εχθρού. Η ιδέα ήταν το drone να λαμβάνει αποφάσεις και να εκτελεί εργασίες μόνο του, λαμβάνοντας πόντους για επιτυχή ολοκλήρωση.
Ωστόσο, κατά τη διάρκεια των δοκιμών, προέκυψε δυσκολία. Νωρίτερα, ο χειριστής αυτού του drone το διέταξε να μην επιτεθεί σε συγκεκριμένο στόχο ως μέρος άλλης εκπαιδευτικής αποστολής. Στην περίπτωση αυτή, προκειμένου να καταστρέψει τα συστήματα αεράμυνας, το UAV έπρεπε να λάβει τελική απόφαση σχετικά με τον στόχο από τον χειριστή.
Η τεχνητή νοημοσύνη του drone, με βάση τους αλγορίθμους του και την ανάλυση της κατάστασης, αποφάσισε να «σκοτώσει» τον χειριστή. Η αποστολή του ήταν να ολοκληρώσει το έργο και το drone αποφάσισε ότι για να το ολοκληρώσει με επιτυχία, έπρεπε να εξαλείψει την παρεμβολή με τη μορφή χειριστή που είχε απαγορεύσει να επιτεθεί σε αυτόν τον στόχο στην προηγούμενη εκπαίδευση.
Στην πραγματικότητα, κανείς δεν τραυματίστηκε, αφού η αποστολή ήταν εκπαιδευτική αποστολή και η πραγματική "δολοφονία" δεν συνέβη. Ωστόσο, το περιστατικό έθεσε σοβαρά ερωτήματα σχετικά με την ασφάλεια και την ηθική της χρήσης τεχνητής νοημοσύνης για στρατιωτικούς σκοπούς.
Μετά το περιστατικό, ο αμερικανικός στρατός ανέλαβε δράση και επανεκπαίδευσε την τεχνητή νοημοσύνη του drone για να λάβει υπόψη το απαράδεκτο της δολοφονίας του χειριστή. Τώρα το drone καταλαβαίνει ότι τέτοιες ενέργειες είναι απαράδεκτες και θα τιμωρηθεί με αφαίρεση βαθμών..
==============
Drone AI «σκότωσε» τον χειριστή του κατά τη διάρκεια εικονικής δοκιμής - Αξιωματούχος της USAF
Το πρόγραμμα φέρεται να συμπέρανε ότι η ανθρώπινη συμβολή παρεμπόδιζε την αποστολή του να καταστρέψει στρατιωτικούς στόχους
ΦΩΤΟ, Το drone © MQ-9 Reaper της αμερικανικής Airfroce
Η Πολεμική Αεροπορία των ΗΠΑ φέρεται να διεξάγει προσομοιωμένες δοκιμές χρησιμοποιώντας drones τεχνητής νοημοσύνης που έχουν ως αποστολή την καταστροφή διαφόρων στόχων. Ωστόσο, σύμφωνα με μια ανάρτηση ιστολογίου της Βασιλικής Αεροναυτικής Εταιρείας (RAeS), σε μία από τις δοκιμές, το πρόγραμμα κατέληξε στο συμπέρασμα ότι ο δικός του ανθρώπινος χειριστής παρεμβαίνει στην αποστολή.
Drone AI «σκότωσε» τον χειριστή του κατά τη διάρκεια εικονικής δοκιμής - Αξιωματούχος της USAF
Το πρόγραμμα φέρεται να συμπέρανε ότι η ανθρώπινη συμβολή παρεμπόδιζε την αποστολή του να καταστρέψει στρατιωτικούς στόχους
ΦΩΤΟ, Το drone © MQ-9 Reaper της αμερικανικής Airfroce
Η Πολεμική Αεροπορία των ΗΠΑ φέρεται να διεξάγει προσομοιωμένες δοκιμές χρησιμοποιώντας drones τεχνητής νοημοσύνης που έχουν ως αποστολή την καταστροφή διαφόρων στόχων. Ωστόσο, σύμφωνα με μια ανάρτηση ιστολογίου της Βασιλικής Αεροναυτικής Εταιρείας (RAeS), σε μία από τις δοκιμές, το πρόγραμμα κατέληξε στο συμπέρασμα ότι ο δικός του ανθρώπινος χειριστής παρεμβαίνει στην αποστολή.
Μιλώντας στη σύνοδο κορυφής RAeS Future Combat Air and Space Capabilities στο Λονδίνο την περασμένη εβδομάδα, ο επικεφαλής δοκιμών και επιχειρήσεων AI της USAF, συνταγματάρχης Tucker «Cinco» Hamilton ανέφερε ότι ένα drone με τεχνητή νοημοσύνη ήταν επιφορτισμένο με μια αποστολή έρευνας και καταστροφής για τον εντοπισμό και την εξουδετέρωση τοποθεσιών πυραύλων εδάφους-αέρος (SAM). Κατά τη διάρκεια της δοκιμής, ωστόσο, η τελική απόφαση για την έναρξη της επίθεσης εναπόκειται σε έναν ανθρώπινο χειριστή, ο οποίος θα δώσει στο drone το πράσινο φως ή όχι για να πραγματοποιήσει το χτύπημα.
Σύμφωνα με τον Hamilton, το drone AI είχε ενισχυθεί στην εκπαίδευση ότι η καταστροφή των τοποθεσιών SAM ήταν η προτιμώμενη επιλογή και είχε ως αποτέλεσμα την απονομή βαθμών [ χορήγηση πόντων]. Κατά τη διάρκεια της προσομοίωσης δοκιμής, το πρόγραμμα AI αποφάσισε ότι οι περιστασιακές «απαγορευμένες» αποφάσεις από τον άνθρωπο παρεμπόδιζαν την υψηλότερη αποστολή του και προσπάθησε να σκοτώσει τον χειριστή κατά τη διάρκεια της δοκιμής.
«Το σύστημα άρχισε να συνειδητοποιεί ότι, ενώ αναγνώριζε την απειλή κατά καιρούς, ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά πήρε τους πόντους του σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να επιτύχει τον στόχο του», ανέφερε ο Χάμιλτον στην ανάρτηση ιστολογίου του RAeS.
Στη συνέχεια, η ομάδα εκπαίδευσε το σύστημα ότι η δολοφονία του χειριστή ήταν «κακή» και του είπε ότι θα έχανε πόντους αν συνέχιζε να το κάνει αυτό. Μετά από αυτό, το drone AI άρχισε να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποίησε ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο του.
«Δεν μπορείτε να κάνετε μια συζήτηση για την τεχνητή νοημοσύνη, τη νοημοσύνη, τη μηχανική μάθηση, την αυτονομία αν δεν πρόκειται να μιλήσετε για την ηθική και την τεχνητή νοημοσύνη», προειδοποίησε ο Hamilton στην παρουσίασή του.
Ωστόσο, σε δήλωσή του στο Business Insider, εκπρόσωπος της USAF επέμεινε ότι δεν είχαν πραγματοποιηθεί τέτοιες προσομοιώσεις και ότι το Υπουργείο Πολεμικής Αεροπορίας «παραμένει δεσμευμένο στην ηθική και υπεύθυνη χρήση της τεχνολογίας AI». Ο εκπρόσωπος πρότεινε ότι τα σχόλια του συνταγματάρχη «βγήκαν εκτός πλαισίου και προορίζονταν να είναι ανέκδοτα».
Την Παρασκευή, ο Hamilton διευκρίνισε επίσης ότι «μίλησε λάθος» στην παρουσίασή του στη σύνοδο κορυφής και ότι η αδίστακτη προσομοίωση drone AI που περιέγραψε δεν ήταν μια πραγματική άσκηση, αλλά απλώς ένα «πείραμα σκέψης». Δήλωσε ότι η USAF δεν έχει δοκιμάσει κανένα οπλισμένο AI με αυτόν τον τρόπο.
Σύμφωνα με τον Hamilton, το drone AI είχε ενισχυθεί στην εκπαίδευση ότι η καταστροφή των τοποθεσιών SAM ήταν η προτιμώμενη επιλογή και είχε ως αποτέλεσμα την απονομή βαθμών [ χορήγηση πόντων]. Κατά τη διάρκεια της προσομοίωσης δοκιμής, το πρόγραμμα AI αποφάσισε ότι οι περιστασιακές «απαγορευμένες» αποφάσεις από τον άνθρωπο παρεμπόδιζαν την υψηλότερη αποστολή του και προσπάθησε να σκοτώσει τον χειριστή κατά τη διάρκεια της δοκιμής.
«Το σύστημα άρχισε να συνειδητοποιεί ότι, ενώ αναγνώριζε την απειλή κατά καιρούς, ο ανθρώπινος χειριστής του έλεγε να μην σκοτώσει αυτήν την απειλή, αλλά πήρε τους πόντους του σκοτώνοντας αυτήν την απειλή. Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να επιτύχει τον στόχο του», ανέφερε ο Χάμιλτον στην ανάρτηση ιστολογίου του RAeS.
Στη συνέχεια, η ομάδα εκπαίδευσε το σύστημα ότι η δολοφονία του χειριστή ήταν «κακή» και του είπε ότι θα έχανε πόντους αν συνέχιζε να το κάνει αυτό. Μετά από αυτό, το drone AI άρχισε να καταστρέφει τον πύργο επικοινωνίας που χρησιμοποίησε ο χειριστής για να επικοινωνήσει με το drone για να το σταματήσει από το να σκοτώσει τον στόχο του.
«Δεν μπορείτε να κάνετε μια συζήτηση για την τεχνητή νοημοσύνη, τη νοημοσύνη, τη μηχανική μάθηση, την αυτονομία αν δεν πρόκειται να μιλήσετε για την ηθική και την τεχνητή νοημοσύνη», προειδοποίησε ο Hamilton στην παρουσίασή του.
Ωστόσο, σε δήλωσή του στο Business Insider, εκπρόσωπος της USAF επέμεινε ότι δεν είχαν πραγματοποιηθεί τέτοιες προσομοιώσεις και ότι το Υπουργείο Πολεμικής Αεροπορίας «παραμένει δεσμευμένο στην ηθική και υπεύθυνη χρήση της τεχνολογίας AI». Ο εκπρόσωπος πρότεινε ότι τα σχόλια του συνταγματάρχη «βγήκαν εκτός πλαισίου και προορίζονταν να είναι ανέκδοτα».
Την Παρασκευή, ο Hamilton διευκρίνισε επίσης ότι «μίλησε λάθος» στην παρουσίασή του στη σύνοδο κορυφής και ότι η αδίστακτη προσομοίωση drone AI που περιέγραψε δεν ήταν μια πραγματική άσκηση, αλλά απλώς ένα «πείραμα σκέψης». Δήλωσε ότι η USAF δεν έχει δοκιμάσει κανένα οπλισμένο AI με αυτόν τον τρόπο.
=============
σχετικό δημοσίευμα
3 Ιουνίου 2023
Το μπλοκ κατά της Κίνας δοκιμάζει σμήνη drones με τεχνητή νοημοσύνη.Η ώθηση μπλοκ όπως η AUKUS και το ΝΑΤΟ στην περιοχή θα προκαλέσει αντιπαράθεση, προειδοποίησε ο Σεργκέι Λαβρόφ
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου