Ο αμερικανικός στρατός άρχισε να δοκιμάζει ένα πειραματικό σύστημα τεχνητής νοημοσύνης σχεδιασμένο να προβλέπει γεγονότα λίγες ημέρες πριν συμβούν.
To πειραματικό δίκτυο τεχνητής νοημοσύνης έχει ως αποστολή να εντοπίσει πιθανά μελλοντικά γεγονότα που αξίζουν μεγαλύτερη προσοχή, λίγες ημέρες πριν από την εμφάνισή τους.
Η AI σειρά δοκιμών ονομάζεται Global Information Dominance Experiments (GIDE) και συνδυάζει δεδομένα από μια τεράστια ποικιλία πηγών, όπως δορυφορικές εικόνες, αναφορές πληροφοριών ( intelligence data), αισθητήρες στο πεδίο (sensors in the field), ραντάρ και άλλα.
Το cloud computing παίζει επίσης σημαντικό ρόλο σε αυτή τη ρύθμιση, διασφαλίζοντας ότι τεράστια κομμάτια δεδομένων που συλλέγονται από όλο τον κόσμο μπορούν να υποβληθούν σε αποτελεσματική επεξεργασία και στη συνέχεια να έχουν πρόσβαση σε αυτά, όποιοι στρατιωτικοί αξιωματούχοι και οργανισμοί τα χρειάζονται.
"Το GIDE, το Global Information Dominance Experiments, ενσωματώνει μια θεμελιώδη αλλαγή στον τρόπο με τον οποίο χρησιμοποιούμε τις πληροφορίες και τα δεδομένα για να αυξήσουμε το χώρο λήψης αποφάσεων για τους ηγέτες από το tactical level στο "strategic level" (στρατηγικό επίπεδο) - όχι μόνο οι στρατιωτικοί ηγέτες, αλλά [αυτό δίνει] επίσης τη δυνατότητα στους πολιτικούς μας ηγέτες », εξήγησε ο στρατηγός της Πολεμικής Αεροπορίας των ΗΠΑ, Glen D. VanHerck, σε συνέντευξη Τύπου την περασμένη εβδομάδα .
Η ιδέα είναι να προβλέψουμε τις κινήσεις άλλων εθνών πολύ νωρίτερα, πράγμα που σημαίνει ότι μπορούν να τεθούν σε αποτροπή και να ληφθούν προφυλάξεις πριν ξεκινήσουν οι μάχες ή πριν οι εχθροπραξίες έχουν την ευκαιρία να ενταθούν.
Στην πραγματικότητα, τα άλματα στη λογική δεν είναι τόσο τεράστια όσο νομίζετε - εάν γίνονται προετοιμασίες για ένα υποβρύχιο να φύγει από το λιμάνι, για παράδειγμα, τότε είναι προφανές ότι είναι καθ 'οδόν προς τη θάλασσα. Εκεί που πραγματικά βοηθάει η τεχνητή νοημοσύνη είναι η χρήση μηχανικής μάθησης για τον εντοπισμό και τη συλλογή όλων αυτών των πληροφοριών, πολύ πιο γρήγορα από ό, τι μπορούν να κάνουν οι ανθρώπινοι χειριστές.
Ένα άλλο παράδειγμα είναι ο αριθμός των αυτοκινήτων σε χώρο στάθμευσης αυτοκινήτων, σε στρατιωτική βάση ή ερευνητικό σταθμό ίσως. Εάν το AI βλέπει αυξημένη δραστηριότητα, μπορεί να το επισημάνει σε άλλα μέρη του συστήματος, όπου στη συνέχεια αναλύεται ως μέρος ενός τεράστιου συνόλου δεδομένων.
"Τα δεδομένα υπάρχουν", δήλωσε ο VanHerck . "Αυτό που κάνουμε είναι να κάνουμε αυτά τα δεδομένα διαθέσιμα, να τα κάνουμε διαθέσιμα και να τα μοιραστούμε σε ένα cloud όπου η machine learning και η τεχνητή νοημοσύνη (artificial intelligence) τα βλέπουν. Και τα επεξεργάζονται πολύ γρήγορα και τα παρέχουν στους υπεύθυνους λήψης αποφάσεων, διαδικασία την οποία ονομάζω "decision superiority" (ανωτερότητα αποφάσεων)
"Αυτό μας δίνει ημέρες προηγμένης προειδοποίησης και ικανότητας αντίδρασης. Όπου, στο παρελθόν, μπορεί να μην είχαμε κοιτάξει έναν αναλυτή μιας δορυφορικής εικόνας GEOINT , τώρα το κάνουμε αυτό μέσα σε λίγα λεπτά ή κοντά σε πραγματικό χρόνο."
Όπως είναι κατανοητό, οι ΗΠΑ δεν δίνουν προτεραιότητα για το πώς ακριβώς λειτουργούν αυτά τα νέα συστήματα τεχνητής νοημοσύνης ή πώς επεξεργάζονται τις πληροφορίες που συλλέγουν, αλλά στο τελικό αποτέλεσμα που είναι η επεξεργασία περισσότερων δεδομένων σε γρηγορότερο χρόνο. Αυτό το τρίτο σύνολο δοκιμών GIDE ολοκληρώθηκε πρόσφατα και προγραμματίζεται ένα τέταρτο.
Ενώ τα πειράματα ακούγονται λίγο ως Minority Report αυτή τη στιγμή - άτομα που συλλαμβάνονται για εγκλήματα πριν από τη διάπραξή τους - οι αξιωματούχοι τα διαμορφώνουν ως μια μορφή υπερσυμπιεσμένης συλλογής πληροφοριών, και όχι ως τρόπους για να δουν πραγματικά το μέλλον.
Ο VanHerck τονίζει ότι οι άνθρωποι εξακολουθούν να λαμβάνουν όλες τις αποφάσεις με βάση τα δεδομένα που παράγουν τα συστήματα μηχανικής μάθησης (machine-learning systems) - και λέει ότι η υπό ανάπτυξη τεχνητή νοημοσύνη AI πιθανότατα θα καταλήξει σε αποκλιμάκωση καταστάσεων και όχι το αντίθετο.
"Η δυνατότητα να βλέπουμε μέρες εκ των προτέρων δημιουργεί "decision space" ( χώρο αποφάσεων), δήλωσε ο VanHerck .
«Το"decision space" για μένα που λειτουργώ ως "operational commander" για πιθανές "posture forces" είναι αναγκαίο για να δημιουργήσω επιλογές αποτροπής, για να τις προσφέρω στον γραμματέα ή ακόμη και στον Πρόεδρο».
Δεν είναι τόσο μυστικιστικό όσο ακούγεται, αλλά θα μπορούσε να οδηγήσει σε μια σημαντική αλλαγή στις στρατιωτικές και κυβερνητικές επιχειρήσεις.
Το σύστημα που βασίζεται στη μηχανική μάθηση παρατηρεί αλλαγές στα ακατέργαστα δεδομένα σε πραγματικό χρόνο που υπονοούν πιθανό πρόβλημα.
Οι στρατιωτικοί αναλυτές μπορεί να χρειαστούν ώρες ή και μέρες για να αναλύσουν και να επεξεργαστούν αυτές τις πληροφορίες - η τεχνολογία GIDE θα μπορούσε να στείλει μια ειδοποίηση μέσα σε "δευτερόλεπτα", είπε ο VanHerck.
[Το πιο πρόσφατο dry run, το GIDE 3, ήταν το πιο επεκτατικό μέχρι τώρα.]
Η πλατφόρμα θα μπορούσε να χρησιμοποιηθεί σε real-world σχετικά σύντομα. Ο VanHerck πίστεψε ότι ο στρατός ήταν «έτοιμος να εγκαταστήσει» το λογισμικό και θα μπορούσε να το επικυρώσει στην επόμενη παγκόσμια ολοκληρωμένη άσκηση την άνοιξη του 2022.
Τα πλεονεκτήματα αυτής της προγνωστικής τεχνητής νοημοσύνης είναι αρκετά σαφή. Αντί να αντιδρά απλώς σε γεγονότα ή να βασίζεται σε ξεπερασμένες πληροφορίες, το Πεντάγωνο θα μπορούσε να λάβει προληπτικά μέτρα, όπως ανάπτυξη δυνάμεων ή ενίσχυση των αμυντικών μέσων. Θα μπορούσε επίσης να προσφέρει μια «ευκαιρία» στην πολιτική κυβέρνηση, πρόσθεσε ο VanHerck. Δεν έδωσε παραδείγματα, αλλά αυτό θα μπορούσε να βοηθήσει τους πολιτικούς να ανακοινώσουν πράξεις επιθετικότητας, ενώ βρίσκονται ακόμη στα αρχικά τους στάδια.
Υπάρχουν ακόμη περιορισμοί. Η τεχνητή νοημοσύνη αναζητά εξωφρενικές ενδείξεις, όπως μεγαλύτερο αριθμό σταθμευμένων αυτοκινήτων ή αεροσκαφών. Δεν μπορεί να πει με βεβαιότητα τι συμβαίνει - οι άνθρωποι θα εξακολουθούν να εμπλέκονται σε μεγάλο βαθμό. Ακόμα κι έτσι, η τεχνολογία θα μπορούσε να αξίζει τον κόπο εάν αποτρέπει μια «αιφνιδιαστική» επίθεση ή οδηγεί σε διαπραγματεύσεις αντί για σύγκρουση.
Η μηχανική μάθηση θα μπορούσε να βοηθήσει τον στρατό να λάβει προληπτικές αποφάσεις.
8-2-21
https://www.engadget.com/pentagon-ai-predicts-days-in-advance-135509604.html?guccounter=1
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
"Το Πεντάγωνο πιστεύει ότι η τεχνητή νοημοσύνη μπορεί να προβλέψει παγκόσμια γεγονότα. Ως πρώην αναλυτής στρατιωτικών πληροφοριών για το Ιράκ και την ΕΣΣΔ, είμαι περισσότερο από σκεπτικός" λέει o Scott Ritter
o Scott Ritter είναι πρώην αξιωματικός πληροφοριών (intelligence officer) των Πεζοναυτών των ΗΠΑ και συγγραφέας του βιβλίου «SCORPION KING: America's Suicidal Embrace of Nuclear Weapons from FDR to Trump». Υπηρέτησε στη Σοβιετική Ένωση ως επιθεωρητής εφαρμογής της Συνθήκης INF, στο προσωπικό του στρατηγού Schwarzkopf κατά τη διάρκεια του Πολέμου του Κόλπου και από το 1991-1998 ως επιθεωρητής όπλων του ΟΗΕ.
Ακολουθήστε τον στο Twitter @RealScottRitter
Ως πρώην αναλυτής στρατιωτικής νοημοσύνης με ελάχιστη εμπειρία στον πραγματικό κόσμο, είμαι επιφυλακτικός με τις “self-learning” machines, γνωρίζοντας πολύ καλά ότι όλα γεννήθηκαν από υπολογιστικά προγράμματα και αλγόριθμους που παράγονται από ανθρώπους.
Ο αμερικανικός στρατός δοκιμάζει ένα "AI-driven computerized precognition system" που βασίζεται στην τεχνητή νοημοσύνη και έχει σχεδιαστεί για να δώσει στους υπεύθυνους λήψης αποφάσεων τη δυνατότητα να προβλέπουν με ακρίβεια μια κρίση πριν συμβεί.
Αν ακούγεται πολύ καλό για να είναι αληθινό, είναι πιθανότατα επειδή είναι.
Ωστόσο, όπως θα σας πει οποιοσδήποτε θαυμαστής του Tom Cruise, οι ισχυρισμοί για προγνωστική ικανότητα ( precognitive ability ) δεν έχουν αίσιο τέλος.
Η ταινία του Στίβεν Σπίλμπεργκ το 2002, ‘Minority Report’ drove that point home in spades
Αλλά αυτό ήταν μυθοπλασία-όχι, χειρότερο από τη μυθοπλασία: Χολιγουντιανή μυθοπλασία, όπου σεναριογράφοι και σκηνοθέτες συνωμοτούν για να δημιουργήσουν αφηγήσεις που ικανοποιούν τα ανθρώπινα ένστικτα, με πληθώρα χαρακτήρων που επιλύουν μερικά από τα πιο πιεστικά προβλήματα του κόσμου σε περίπου δύο ώρες.
Το Πεντάγωνο έχει δει πάρα πολλές ταινίες του Χόλιγουντ, φαίνεται. Διαφορετικά, πώς μπορεί κανείς να εξηγήσει την έλξη για κάτι που ονομάζεται Global Information Dominance Experiments (ή GIDE, ένα nod στην τάση του στρατού για ακρωνύμια).
Σύμφωνα με δημοσιεύματα του Τύπου, η Βόρεια Διοίκηση των ΗΠΑ ολοκλήρωσε μια σειρά δοκιμών του συστήματος GIDE - «συνδυασμός τεχνητής νοημοσύνης (AI (artificial intelligence)), cloud computing και αισθητήρων» που, σύμφωνα με τον στρατηγό Glen VanHerck, διοικητή τόσο της Βόρειας Διοίκησης όσο και της "North American Aerospace Defense Command" (Βορειοαμερικανικής Διοίκησης Αεροδιαστημικής Άμυνας), θα επέτρεπε στους Αμερικανούς στρατιωτικούς διοικητές να προβλέπουν γεγονότα «ημέρες πριν να συμβούν ».
Σύμφωνα με το άρθρο, "το σύστημα που βασίζεται στην μηχανική μάθηση (machine learning-based system ) παρατηρεί αλλαγές στα ακατέργαστα δεδομένα σε πραγματικό χρόνο, που υπονοούν πιθανό πρόβλημα". Στο παράδειγμα που αναφέρεται στο άρθρο, το σύστημα GIDE, που μεταδίδει και επισημαίνει δορυφορικές εικόνες που απεικονίζουν ένα εχθρικό υποβρύχιο που ετοιμάζεται να φύγει από το λιμάνι, θα σηματοδοτούσε την πιθανή ανάπτυξη (εξέλιξη των γεγονότων), προειδοποιώντας όλες τις στρατιωτικές μονάδες και διοικητές που θα είχαν ενδιαφέρον για τέτοια πράγματα.
Το GIDE, το άρθρο "brags" πως, θα μπορούσε να το πετύχει αυτό "σε δευτερόλεπτα". Οι στρατιωτικοί αναλυτές, από την άλλη πλευρά, θα χρειάζονταν ώρες ή και μέρες για να «εξετάσουν διεξοδικά αυτές τις πληροφορίες».
Ο στρατηγός VanHerck πιστεύει σε αυτό. Με τη βοήθεια του GIDE, σημειώνει, ο στρατός δεν θα είναι πλέον αντιδραστικός όταν πρόκειται να ανταποκριθεί σε παγκόσμιες κρίσεις, αλλά μάλλον θα είναι σε θέση να αναλάβει μια πιο προληπτική στάση, καταπολεμώντας πιθανά προβλήματα που γίνονται ορατά (που γεννιούνται) με μια έγκαιρη απάντηση. Η πολιτική ηγεσία θα ενισχυθεί επίσης καλύτερα, θα είναι σε θέση να χρησιμοποιήσει πιο αποτελεσματικά τα εργαλεία της διπλωματίας για να σταματήσει μια κρίση προτού να μετατραπεί σε σύγκρουση. Σύμφωνα με τον στρατηγό, το GIDE επιδιώκει «να προωθήσει την ικανότητά μας να διατηρούμε "domain awareness", να επιτυγχάνουμε "information dominance" και να παρέχουμε "decision superiority" σε ανταγωνισμό και πάνω σε κρίση».
Γιατί είμαι επιφυλακτικός με τις ‘self-learning’ machines
Ως πρώην αναλυτής military intelligence με αρκετή real-world εμπειρία, πρέπει να ομολογήσω ότι εκφράζω τον σκεπτικισμό μου, σχετικά με την αποτελεσματικότητα ενός συστήματος όπως το GIDE. Είμαι επιφυλακτικός με τις “self-learning” machines, γνωρίζοντας πολύ καλά ότι όλα γεννήθηκαν από υπολογιστικά προγράμματα και αλγόριθμους που παράγονται από ανθρώπους.
Κάθε φορά που ακούω έναν γενικό αξιωματικό ή έναν από τους ανώτερους πολιτικούς του, να λέει πράγματα όπως:
“integrated deterrence is about using the right mix of technology, operational concepts and capabilities, all woven together in a networked way that… is credible, flexible and formidable that will give any adversary pause, especially to think about attacking our homeland,” χτυπούν οι εσωτερικές μου καμπάνες συναγερμού.
Μια πληθώρα buzzwords και catchphrases είναι ο μεγαλύτερος δείκτης ότι ο ομιλητής κατασκευάζει μια πολιτικοποιημένη αφήγηση σε αντίθεση με την ενημέρωση της βασικής αλήθειας. Και δεν χρειάζομαι το GIDE ή το αντίστοιχο για να κάνω αυτήν την παρατήρηση.
Κάποτε οι Ηνωμένες Πολιτείες "fielded" μια από τις πιο ικανές οργανώσεις πληροφοριών στον κόσμο. Ξέρω - ήμουν μέρος αυτού. Δεν ήμασταν αλάνθαστοι - καμία οργάνωση δεν είναι ποτέ - αλλά ήμασταν αρκετά καλοί, ειδικά όταν επρόκειτο για την άποψη της ανάλυσης της δουλειάς μας.
Οι λαϊκοί συχνά συγχέουν την ανάλυση της νοημοσύνης με τις εκτιμήσεις της νοημοσύνης, χωρίς να καταλαβαίνουν ότι η πρώτη είναι μια καθαρή αναλυτική άσκηση, ενώ η δεύτερη έχει μολυνθεί από την πολιτική. Ένας αναλυτής μπορεί να εκτιμήσει ότι ο ουρανός είναι μπλε και ότι μόλις πέσει ο ήλιος, σκοτεινιάζει. Αλλά αν ένας πολιτικός ηγέτης έχει καθορίσει ότι ο ουρανός είναι στην πραγματικότητα κόκκινος και ότι θα είναι φωτεινός 24 ώρες το 24ωρο, καμία ηχητική αναφορά δεν θα αλλάξει γνώμη. Αυτό έρχεται μόνο με το χτύπημα της πραγματικότητας που είπε ο πολιτικός στο πρόσωπο, αλλά μέχρι τότε είναι πολύ αργά και η ζημιά έχει γίνει.
Ένας καλός αναλυτής νοημοσύνης γνωρίζει ότι δεν είναι στην περιγραφή της δουλειάς του να πει στο αφεντικό του τι θέλει να ακούσει, αλλά να παρουσιάσει εκτιμήσεις βασισμένες σε γεγονότα που χρησιμοποιεί το αφεντικό για να αποφασίσει.
Επειδή η ανάλυση είναι μια ατελής τέχνη (σημειώστε ότι δεν χρησιμοποίησα τον όρο επιστήμη - περισσότερα για αυτό αργότερα), ένας καλός αναλυτής θα παρέχει στους ανωτέρους τους μια σειρά από εκτιμήσεις που υποστηρίζουν παρόμοιο εύρος επιλογών.
Στο τέλος της ημέρας, όμως, το buck σταματάει με το αφεντικό. Τις περισσότερες φορές, οι αξιολογήσεις που βασίζονται σε γεγονότα δεν είναι βολικές για τους επιθυμητούς πολιτικούς στόχους και λαμβάνονται αποφάσεις οι οποίες, με τη μία ή την άλλη μορφή, καταλήγουν blowing up στο πρόσωπο του αφεντικού. Και επειδή οι περισσότεροι ανώτεροι στερούνται ηθικού χαρακτήρα και intestinal fortitude για να παραδεχτούν ότι έκαναν λάθος, η ευθύνη για την αποτυχία kicked downstairs, καταλήγει στο γραφείο του αναλυτή και χαρακτηρίζεται ως “intelligence failure.”
Ωστόσο
Η «αποτυχία της νοημοσύνης» είναι πάντα μια «αποτυχία ηγεσίας»
Η συλλογική μας εθνική ασφάλεια δεν μπορεί να βασίζεται και να υποτάσσεται σε έναν υπολογιστή
περισσότερα στον σύνδεσμο
7-8-21
https://www.rt.com/op-ed/531429-ai-precognition-pentagon-military-intelligence/
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Υβριστικά σχόλια θα πηγαίνουν στα αζήτητα.