Κυριακή 11 Σεπτεμβρίου 2022

Η αστυνομία των ΗΠΑ δοκιμάζει την τεχνητή νοημοσύνη για να προβλέψει το έγκλημα.


Είναι αληθινή η « Έκθεση Μειονότητας»; Η αστυνομία των ΗΠΑ δοκιμάζει την τεχνητή νοημοσύνη για να προβλέψει το έγκλημα

10 Σεπ 2022 

Το αστυνομικό τμήμα του Σικάγο δοκιμάζει επί του παρόντος ένα σύστημα βασισμένο σε AI, σχεδιασμένο να προβλέπει εγκλήματα πριν συμβούν. Αλλά μην ανησυχείτε: Η δύναμη που το συνοδεύει σίγουρα δεν θα κάνει κατάχρηση στις ΗΠΑ - τουλάχιστον αυτό πιστεύει, ο δημιουργός του εργαλείου ανάλυσης, ο καθηγητής Ishanu Chattopadhyay.

Η δυστοπία του 2054 στο Minority Report, που γυρίστηκε το 2002 και βασίζεται σε ένα μυθιστόρημα του 1956 του Philip K. Dick, δεν αφήνει σχεδόν κανένα περιθώριο για έγκλημα, καθώς η αστυνομία είναι τελικά - τουλάχιστον υποτίθεται - εξουσιοδοτημένη να αποτρέπει το έγκλημα πριν καν συμβεί. Οι λεγόμενοι "precogs" υποτίθεται ότι το κάνουν αυτό δυνατό, πρόκειται για τρόικα που μπορούν να δουν στο μέλλον με σχεδόν υπερφυσικές δυνάμεις. Αυτοί οι αστυνομικοί της ταινίας, που πρόκειται να εξοπλιστούν με παντοδυναμία, αποτελούν στοιχεία μιας δυστοπικής κοινωνίας που θυμίζει έντονα τους εφιάλτες στα μυθιστορήματα του Τζορτζ Όργουελ. Ωστόσο, ακόμη και σήμερα ένα τέτοιο σενάριο δεν απέχει πλέον τόσο από την πραγματικότητα.

Κυρίως με –τουλάχιστον υποτιθέμενα– καλές προθέσεις, οι ερευνητές σε όλο τον κόσμο επιδιώκουν τον στόχο να αναπτύξουν επίσης αλγόριθμους για την πρόβλεψη εγκλημάτων. Και σιγά σιγά τέτοιες προσπάθειες φαίνεται να στέφονται με επιτυχία, όπως δείχνει εντυπωσιακά αυτή τη στιγμή ένα ερευνητικό πρόγραμμα στο Πανεπιστήμιο του Σικάγο. «Με τον αλγόριθμό μας, μπορείτε να πείτε ότι θα γίνει δολοφονία την επόμενη Τετάρτη στη διασταύρωση της 37ης οδού και της νοτιοδυτικής λεωφόρου», ισχυρίζεται ο Ishanu Chattopadhyay, καθηγητής στο Πανεπιστήμιο του Σικάγο και υπεύθυνος ανάπτυξης του αλγορίθμου στο βρετανικό επιστημονικό περιοδικό BBC Science Focus . . 

Πώς λειτουργεί ο νέος αλγόριθμος;

Ο αλγόριθμος χωρίζει οποιαδήποτε πόλη σε πλακάκια το καθένα περίπου 92 τετραγωνικών μέτρων και χρησιμοποιεί ιστορικά αστυνομικά δεδομένα για βίαιο έγκλημα και εγκλήματα ιδιοκτησίας για να προβλέψει μελλοντικά εγκλήματα μια εβδομάδα νωρίτερα με εκπληκτική ακρίβεια 90%. Τίποτα καινούργιο από μόνο του, αλλά σύμφωνα με τον Chattopadhyay, η μέθοδός τους διαφέρει πολύ από άλλες αλγοριθμικές προβλέψεις αυτού του τύπου.Επομένως, τα συμβατικά εργαλεία τεχνητής νοημοσύνης υποθέτουν ότι το έγκλημα ξεκινά από hot spots και εξαπλώνεται από εκεί σε άλλες περιοχές.

Ωστόσο, τέτοιες προσεγγίσεις, υποστηρίζει ο ερευνητής, αγνοούν το περίπλοκο κοινωνικό περιβάλλον των πόλεων και επίσης επηρεάζονται αρνητικά από την επιτήρηση που χρησιμοποιεί το κράτος για την επιβολή του νόμου. Ο αλγόριθμος που αναπτύχθηκε από τον Chattopadhyay, από την άλλη πλευρά, αναλύει προηγούμενα αρχεία καταγραφής συμβάντων - δηλαδή, λεπτομερείς αναφορές που περιέχουν πληροφορίες για το πότε, πού και ποιο είδος εγκλήματος έλαβε χώρα - λαμβάνοντας υπόψη πολλούς άλλους παράγοντες - και στη συνέχεια προβλέπει την πιθανότητα εγκλήματος. 

«Ξεκινάμε με αυτό το αρχείο καταγραφής συμβάντων και στη συνέχεια ψηφιοποιούμε την πόλη σε μικρές περιοχές περίπου δύο τετράγωνα επί δύο τετράγωνα - περίπου 300 μέτρα σε διάμετρο», εξήγησε ο καθηγητής. "Και σε ένα από αυτά τα πλακίδια, βλέπουμε αυτή τη χρονοσειρά των διαφορετικών γεγονότων, όπως το βίαιο έγκλημα, το έγκλημα ιδιοκτησίας, η ανθρωποκτονία κ.λπ. άλλα και πώς επηρεάζουν το ένα το άλλο - όπως κι αυτοί, έτσι διαμορφώνουν ο ένας τον άλλον».

Μέχρι στιγμής, το πρόγραμμα έχει δοκιμαστεί σε οκτώ διαφορετικές πόλεις των ΗΠΑ, όπως το Σικάγο, το Λος Άντζελες, η Ατλάντα και η Φιλαδέλφεια. Σε ένα ξεχωριστό σύνολο πειραμάτων, η ομάδα του Chattopadhyay εξέτασε επίσης την αντίδραση της αστυνομίας στο έγκλημα αναλύοντας και συγκρίνοντας τον αριθμό των συλλήψεων μετά από εγκληματικά περιστατικά σε γειτονιές με διαφορετική κοινωνικοοικονομική κατάσταση. Διαπίστωσαν ότι τα εγκλήματα σε πιο εύπορες γειτονιές οδήγησαν σε περισσότερες συλλήψεις, ενώ οι συλλήψεις σε υποβαθμισμένες γειτονιές μειώθηκαν. Ωστόσο, τα εγκλήματα σε παραγκουπόλεις δεν οδήγησαν σε περισσότερες συλλήψεις, υποδηλώνοντας μεροληψία στην αντίδραση της αστυνομίας και στην επιβολή του νόμου.

Πέρα από τα ενδιαφέροντα ευρήματα, ωστόσο, η χρήση της τεχνητής νοημοσύνης για την επιβολή του νόμου κρούει τον κώδωνα του κινδύνου για πολλούς.

Κίνδυνοι της τεχνητής νοημοσύνης 

Επειδή, από τη στιγμή που είναι διαθέσιμες οι κατάλληλες τεχνολογίες, συχνά χρησιμοποιούνται κατάχρηση – και η ιστορία του ανθρώπινου πολιτισμού δυστυχώς το έχει δείξει πολύ συχνά αυτό. Επίσης, η ικανότητα των αλγορίθμων να προβλέπουν εγκλήματα συνίσταται μόνο στον υπολογισμό εξ ορισμού αβέβαιων πιθανοτήτων, οι οποίες εξαρτώνται επίσης από πολλούς άλλους, άγνωστους ή απρόβλεπτους παράγοντες, όπως παραδέχτηκε και ο Chattopadhyay στα ΜΜΕ των ΗΠΑ μετά τη δημοσίευση της μελέτης του:

"Το παρελθόν δεν λέει τίποτα για το μέλλον. Το ερώτημα είναι: σε ποιο βαθμό το παρελθόν επηρεάζει πραγματικά το μέλλον; Και σε ποιο βαθμό τα γεγονότα είναι αυθόρμητα ή πραγματικά τυχαία; ... Η ικανότητά μας να κάνουμε προβλέψεις περιορίζεται από αυτό."

Η αστυνομία χρησιμοποιεί εδώ και καιρό κάθε διαθέσιμο εργαλείο για την εξεύρεση ή ακόμα και την πρόβλεψη εγκλημάτων. Πριν από την τεχνολογική πρόοδο, οι αστυνομικοί κάθονταν σε αίθουσες συνεδριάσεων και χρησιμοποιούσαν καρφίτσες για να επισημάνουν τοποθεσίες όπου είχαν προηγουμένως διαπραχθεί εγκλήματα. Με αυτόν τον τρόπο, οι ερευνητές ήλπιζαν ότι θα μπορούσαν να βρουν εμφανείς συσσωρεύσεις που θα τους έδιναν στοιχεία για το πού να αναζητήσουν τον δράστη στη συνέχεια για να τον συλλάβουν.

Τα τελευταία 15 χρόνια, οι μεγαλύτερες υπηρεσίες επιβολής του νόμου στις Ηνωμένες Πολιτείες, συμπεριλαμβανομένων εκείνων στη Νέα Υόρκη, το Λος Άντζελες και το Σικάγο, άρχισαν να εξετάζουν τρόπους χρήσης τεχνητής νοημοσύνης όχι μόνο για την ανάλυση αλλά και για την πρόβλεψη του εγκλήματος. Στην αναζήτησή τους, στράφηκαν σε επαγγελματικές εταιρείες ανάλυσης δεδομένων όπως η PredPol και η Palantir, οι οποίες αναπτύσσουν επίσης λογισμικό για την προληπτική επιβολή του νόμου, μεταξύ άλλων. Όλα αυτά τα «εργαλεία πρόβλεψης αστυνόμευσης» τροφοδοτούν δεδομένα -- όπως αναφορές εγκλημάτων, αρχεία συλλήψεων, ακόμη και εικόνες πινακίδων κυκλοφορίας -- σε έναν αλγόριθμο που είναι προγραμματισμένος να αναζητά μοτίβα. Τα μοτίβα που βρέθηκαν μπορούν στη συνέχεια να χρησιμοποιηθούν για να προβλέψουν κατά προσέγγιση πού και πότε ένα συγκεκριμένο είδος γεγονότος, σε αυτήν την περίπτωση το έγκλημα, 

Για παράδειγμα, οι προσπάθειες της αστυνομίας για την καταπολέμηση του εγκλήματος βασίζονται συνήθως σε αναφορές εγκλήματος, οι οποίες σιωπηρά αντικατοπτρίζουν μια περίπλοκη σχέση μεταξύ του εγκλήματος, της αστυνόμευσης και της κοινωνίας. Ως αποτέλεσμα, η πρόβλεψη εγκλήματος και η προγνωστική αστυνόμευση έχουν δημιουργήσει διαμάχη καθώς οι πιο πρόσφατοι αλγόριθμοι που βασίζονται στην τεχνητή νοημοσύνη έχουν περιορισμένη γνώση του κοινωνικού συστήματος του εγκλήματος και μπορούν επίσης να οδηγήσουν τους αστυνομικούς σε λανθασμένα συμπεράσματα. 

Για παράδειγμα, εάν ένας αλγόριθμος προβλέπει ότι ένας αστυνομικός θα σκοτωθεί από πυροβολισμούς σε μια συγκεκριμένη τοποθεσία και στη συνέχεια αποσταλούν περισσότεροι ένοπλοι αστυνομικοί σε αυτήν την περιοχή, αυτή η πρόβλεψη θα μπορούσε επίσης να γίνει μια "αυτοεκπληρούμενη προφητεία". Και ενώ το λογισμικό του Chattopadhyay μπορεί να είναι σωστό περίπου το 90 τοις εκατό των περιπτώσεων, αυτό δεν σημαίνει ότι μπορεί να αποτρέψει περισσότερα εγκλήματα. Σημαίνει απλώς ότι στις τοποθεσίες που προβλέπονται από το λογισμικό ως μελλοντικές σκηνές εγκλήματος μπορεί να έχουν προληπτικά αναπτυχθεί μερικούς ακόμη αστυνομικούς, αλλά οι οποίοι μπορεί στη συνέχεια να θεωρήσουν οποιονδήποτε παραβιάζει σε αυτές τις περιοχές ως δυνητικά ύποπτο.

Στο τέλος της ταινίας «Minority Report» το σύστημα δείχνει αδυναμίες που κάνουν τις προβλέψεις χειραγώγιμες και οδηγούν σε ψευδείς υποψίες αλλά και σε ψευδείς προβλέψεις.

Εκτός από τα προσδοκώμενα πλεονεκτήματα, όταν χρησιμοποιούνται τέτοια «εργαλεία πρόβλεψης αστυνόμευσης» υπάρχει ο κίνδυνος, ο οποίος δεν πρέπει να υποτιμάται, να τα χρησιμοποιήσουν τα αυταρχικά συστήματα για να «ξεφορτωθούν» τους ανατρεπτικούς διαφωνούντες ή ακόμα και τα μέλη της αντιπολίτευσης. Ο Chattopadhyay καταλήγει:

"Αναγνωρίζουμε τον κίνδυνο ισχυρών εργαλείων πρόβλεψης να παίζουν στα χέρια των υπερβολικά ζήλων κρατών στο όνομα της προστασίας των αμάχων. Οι συμπαίκτες μου και εγώ έχουμε μιλήσει πολύ ότι δεν θέλουμε να χρησιμοποιηθεί ως καθαρά προγνωστικό εργαλείο πολιτικής. Το κάνουμε "αυτό Θα χρησιμοποιηθεί κυρίως για τη βελτιστοποίηση της πολιτικής. Πρέπει να το επιτρέψουμε γιατί δεν αρκεί να συντάξουμε ένα χαρτί και να έχουμε τον αλγόριθμο. Θέλουμε ο δήμαρχος ή οι διαχειριστές να χρησιμοποιήσουν το παραγόμενο μοντέλο για να εκτελέσουν προσομοιώσεις και να ενημερώσουν τους πολιτικούς."

Ενώ πολλοί άλλοι τομείς της ζωής μπορούν να ωφεληθούν πολύ από τις προβλέψεις της τεχνητής νοημοσύνης, δεδομένης της αναμφισβήτητης ευαισθησίας σε σφάλματα, η αστυνομία θα ήταν καλύτερα να συνεχίσει να βασίζεται σε ανθρώπινες δεξιότητες και όχι σε αλγόριθμους. Σίγουρα, αυτό ακούγεται απαισιόδοξο, αλλά δεδομένης της συστηματικής κατάχρησης παρόμοιου πειραματικού λογισμικού για να βοηθήσει τις αρχές επιβολής του νόμου - για να μην αναφέρουμε τις συστηματικές επιθέσεις σε ευάλωτους πληθυσμούς που υπάρχουν εδώ και καιρό στην αστυνόμευση των ΗΠΑ χωρίς καμία απολύτως τεχνητή νοημοσύνη - φαίνεται σαν απαισιοδοξία να είναι απολύτως δικαιολογημένη .

10-9-22

Wird der "Minority Report" real? US-Polizei testet KI zur Vorhersage von Verbrechen

https://rtde.live/nordamerika/148001-real-life-minority-report-us/

==============
σχετικές μας αναρτήσεις

2 Ιουλίου 2022

Όπως η NSA: Στο μέλλον, η Europol θα μπορεί επίσης να αξιολογεί τα δεδομένα εντελώς ανύποπτων ατόμων. Νέος κανονισμός της ΕΕ

http://hellenicrevenge.blogspot.com/2022/07/nsa-europol.html

=============

9 Σεπτεμβρίου 2021

Scott Ritter : Μπορεί η Τεχνητή Νοημοσύνη να προβλέψει παγκόσμια γεγονότα?Tο σύστημα GIDE επιτρέπει στους Αμερικανούς στρατιωτικούς διοικητές να προβλέπουν γεγονότα «ημέρες πριν».

http://hellenicrevenge.blogspot.com/2021/09/scott-ritter-t-gide.html

όπως αναφέρει

Το Πεντάγωνο πιστεύει ότι η τεχνητή νοημοσύνη μπορεί να προβλέψει παγκόσμια γεγονότα. Ως πρώην αναλυτής στρατιωτικών πληροφοριών για το Ιράκ και την ΕΣΣΔ, είμαι περισσότερο από σκεπτικός

Ο αμερικανικός στρατός δοκιμάζει ένα μηχανογραφικό σύστημα προανάγνωσης ( AI-driven computerized precognition system) που βασίζεται στην τεχνητή νοημοσύνη και έχει σχεδιαστεί για να δώσει στους υπεύθυνους λήψης αποφάσεων τη δυνατότητα να προβλέπουν με ακρίβεια μια κρίση πριν συμβεί.

Όπως θα σας πει οποιοσδήποτε θαυμαστής του Tom Cruise, οι ισχυρισμοί για προγνωστική ικανότητα δεν έχουν αίσιο τέλος. Η ταινία του Στίβεν Σπίλμπεργκ το 2002, « Minority Report », είναι μια Χολυγουντιανή μυθοπλασία,   μια αμερικανική ταινία δράσης επιστημονικής φαντασίας του 2002,  σε σκηνοθεσία Στίβεν Σπίλμπεργκ , με πρωταγωνιστή τον Tom Cruise,

Η εικόνα διαδραματίζεται στην Ουάσινγκτον και τη Βόρεια Βιρτζίνια το έτος 2054, όπου το PreCrime , ένα εξειδικευμένο αστυνομικό τμήμα, συλλαμβάνει εγκληματίες με βάση την προκαταρκτική γνώση που παρέχεται από τρεις μέντιουμ που ονομάζονται " precogs "

Το κεντρικό θέμα της ταινίας είναι το ζήτημα της ελεύθερης βούλησης έναντι του ντετερμινισμού. 

Εξετάζει εάν μπορεί να υπάρξει ελεύθερη βούληση εάν το μέλλον οριστεί και είναι γνωστό εκ των προτέρων

Το Πεντάγωνο έχει δει πάρα πολλές ταινίες του Χόλιγουντ, φαίνεται. Διαφορετικά, πώς μπορεί κανείς να εξηγήσει την έλξη για κάτι που ονομάζεται Global Information Dominance Experiments (ή GIDE)

Σύμφωνα με δημοσιεύματα του Τύπου, η Βόρεια Διοίκηση των ΗΠΑ  (US Northern Command) ολοκλήρωσε μια σειρά δοκιμών του συστήματος GIDE - «συνδυασμός AI (artificial intelligence),  cloud computing  και sensors” » που, σύμφωνα με τον στρατηγό Glen VanHerck, διοικητή τόσο της Βόρειας Διοίκησης όσο και της Βορειοαμερικανικής Διοίκησης Αεροδιαστημικής Άμυνας  (North American Aerospace Defense Command), θα επέτρεπε στους Αμερικανούς στρατιωτικούς διοικητές να προβλέπουν γεγονότα «ημέρες πριν».

 Σύμφωνα με το άρθρο, "το σύστημα που βασίζεται στην μηχανική μάθηση παρατηρεί αλλαγές στα ακατέργαστα δεδομένα σε πραγματικό χρόνο που υπονοούν πιθανό πρόβλημα"

Στο παράδειγμα που αναφέρεται στο άρθρο, το σύστημα GIDE, που επισημαίνεται με δορυφορικές εικόνες που απεικονίζουν ένα εχθρικό υποβρύχιο που ετοιμάζεται να φύγει από το λιμάνι, θα σηματοδοτούσε την πιθανή ανάπτυξη, προειδοποιώντας όλες τις στρατιωτικές μονάδες και διοικητές που θα είχαν ενδιαφέρον για τέτοια πράγματα.

 το άρθρο βεβαιώνει ότι, το GIDE θα μπορούσε να το πετύχει αυτό "σε δευτερόλεπτα".

Οι στρατιωτικοί αναλυτές, από την άλλη πλευρά, θα χρειάζονταν ώρες ή και μέρες για να «επεξεργαστούν αυτές τις πληροφορίες».

 Ο στρατηγός Glen D.VanHerck είναι ένας "believer". Με τη βοήθεια του GIDE, σημειώνει, ο στρατός δεν θα είναι πλέον αντιδραστικός όταν πρόκειται να ανταποκριθεί σε παγκόσμιες κρίσεις, αλλά μάλλον θα είναι σε θέση να αναλάβει μια πιο προληπτική στάση, καταπολεμώντας πιθανά ορατά προβλήματα,  με μια έγκαιρη απάντηση. Η πολιτική ηγεσία θα ενισχυθεί επίσης καλύτερα, θα είναι σε θέση να χρησιμοποιήσει πιο αποτελεσματικά τα εργαλεία της διπλωματίας για να σταματήσει μια κρίση να μετατραπεί σε σύγκρουση. Σύμφωνα με τον στρατηγό, το GIDE επιδιώκει «να προάγουμε την ικανότητά μας για τη διατήρηση της ευαισθητοποίησης του τομέα, να επιτυγχάνουμε την κυριαρχία των πληροφοριών και να παρέχουμε ανωτερότητα αποφάσεων σε ανταγωνισμό και κρίση».

 Γιατί είμαι επιφυλακτικός με τις ‘self-learning’ μηχανές

Ως πρώην αναλυτής στρατιωτικών πληροφοριών με ελάχιστη εμπειρία στον πραγματικό κόσμο, πρέπει να ομολογήσω περισσότερο από ένα μικρό σκεπτικισμό σχετικά με την αποτελεσματικότητα ενός συστήματος όπως το GIDE. Είμαι επιφυλακτικός με τις μηχανές «αυτομάθησης», γνωρίζοντας πολύ καλά ότι όλα γεννήθηκαν από υπολογιστικά προγράμματα και αλγόριθμους που παράγονται από ανθρώπους.

Κάθε φορά που ακούω έναν γενικό αξιωματικό ή έναν από τους ανώτερους πολίτες του, να λέει πράγματα όπως «η ολοκληρωμένη αποτροπή αφορά τη χρήση του σωστού συνδυασμού τεχνολογίας, επιχειρησιακών εννοιών και δυνατοτήτων, όλα συνυφασμένων με έναν δικτυωμένο τρόπο… αξιόπιστο, ευέλικτο και τρομερό θα δώσει οποιαδήποτε αντίπαλη παύση, ειδικά αν σκεφτούμε μια επίθεση στην πατρίδα μας », χτυπούν οι εσωτερικές μου καμπάνες συναγερμού. Μια πληθώρα τσιτάτων και φράσεων είναι ο μεγαλύτερος δείκτης ότι ο ομιλητής κατασκευάζει μια πολιτικοποιημένη αφήγηση σε αντίθεση με την ενημέρωση για τη βασική αλήθεια. Και δεν χρειάζομαι το GIDE ή το αντίστοιχο για να κάνω αυτήν την παρατήρηση.

Κάποτε οι Ηνωμένες Πολιτείες είχαν μια από τις πιο ικανές οργανώσεις πληροφοριών στον κόσμο. Ξέρω - ήμουν μέρος αυτού. Δεν ήμασταν αλάνθαστοι - καμία οργάνωση δεν είναι ποτέ - αλλά ήμασταν αρκετά καλοί, ειδικά όταν επρόκειτο για την πτυχή της ανάλυσης της δουλειάς μας.

Οι λαϊκοί (μη ειδικοί) συχνά συγχέουν την ανάλυση της νοημοσύνης με τις εκτιμήσεις της νοημοσύνης, χωρίς να καταλάβουν ότι η πρώτη είναι μια καθαρή αναλυτική άσκηση, ενώ η δεύτερη έχει μολυνθεί από την πολιτική.

 An analyst can assess that the sky is blue, and that once the sun goes down, it gets dark. But if a political leader has determined that the sky is, in fact, red, and that it will be light 24 hours a day, no amount of sound reporting will change his or her mind. That comes only by reality-smacking said politician in the face, but by then it is too late, and the damage has been done.

 Ένας καλός αναλυτής νοημοσύνης γνωρίζει ότι δεν είναι στην περιγραφή της δουλειάς του να πει στο αφεντικό του τι θέλει να ακούσει, αλλά να παρουσιάσει αξιολογήσεις βασισμένες σε γεγονότα που στη συνέχεια χρησιμοποιεί το αφεντικό για να αποφασίσει. Επειδή η ανάλυση είναι μια ατελής τέχνη (σημειώστε ότι δεν χρησιμοποίησα τον όρο επιστήμη - περισσότερα για αυτό αργότερα), ένας καλός αναλυτής θα παρέχει στους ανωτέρους του, μια σειρά από εκτιμήσεις που υποστηρίζουν παρόμοιο εύρος επιλογών.

Στο τέλος της ημέρας, όμως,  "the buck stops with the boss". Τις περισσότερες φορές, οι αξιολογήσεις που βασίζονται σε γεγονότα δεν είναι κατάλληλες για τους επιθυμητούς πολιτικούς στόχους και λαμβάνονται αποφάσεις οι οποίες, με τη μία ή την άλλη μορφή, "end up blowing up" στο πρόσωπο του αφεντικού. Και επειδή οι περισσότεροι ανώτεροι στερούνται ηθικού χαρακτήρα και "intestinal fortitude" για να παραδεχτούν ότι έκαναν λάθος, η ευθύνη για την αποτυχία απορρίπτεται προς τα κάτω, καταλήγοντας στο γραφείο του αναλυτή που χαρακτηρίζεται ως «αποτυχία νοημοσύνης» (intelligence failure).

Η «αποτυχία της νοημοσύνης» είναι πάντα μια «αποτυχία ηγεσίας»

......

Ένα σύστημα όπως το GIDE έχει σχεδιαστεί για να παρέχει ένα αποθεματικό στον αναλυτή των πληροφοριών, μια εγγύηση για να μιλήσουμε για λογοδοσία, ενώ συνεχίζει να παρέχει στη στρατιωτική και μη στρατιωτική ηγεσία, οι οποίοι είναι οι τελικοί φορείς λήψης αποφάσεων, ένα αποθεματικό για την εκτροπή της ευθύνης («Είχαμε δυσλειτουργία στις λειτουργίες της τεχνητής νοημοσύνης του GIDE », μπορώ να ακούσω τον στρατηγό VanHerck να λέει στον Τύπο, μετά από κάποια μελλοντική υποθετική στρατιωτική ατυχία που προκλήθηκε από μια προβλέψιμα ανακριβή πρόγνωση που δεν παράγεται από ανθρώπους, αλλά μάλλον από μηχανές).

Το βιογραφικό μου περιέχει αρκετές αναλυτικές ιστορίες επιτυχίας για να νιώσω άνετα λέγοντας ότι το ανθρώπινο δυναμικό για έγκαιρη, ακριβή ανάλυση νοημοσύνης υπάρχει.

 I was able to accurately predict the missile production cycle of a Soviet ICBM factory, my assessment that no Iraqi SCUDs were destroyed during Desert Storm was spot on, and I was a lonely voice when it came to objecting to the US government claims that Iraq continued to produce and possess weapons of mass destruction, to name three. All we need is for the humans who are the customers for this intelligence to trust in the capabilities of those producing these assessments.

 Therein lies the rub.

Υπήρξε μια εποχή που ένας αναλυτής πληροφοριών ήταν ένας πραγματικός εμπειρογνώμονας για το θέμα στο οποίο είχε αναλάβει να αναφέρει. Όταν ήμουν επιθεωρητής στη Σοβιετική Ένωση, μπορούσα να βασιστώ στη σοφία και τις γνώσεις των αναλυτών πληροφοριών στη CIA που είχαν περάσει ολόκληρη την καριέρα τους εξετάζοντας ένα πολύ συγκεκριμένο σύνολο δεδομένων. Για παράδειγμα, δούλεψα με έναν αναλυτή εικόνας που είχε περάσει το μεγαλύτερο μέρος δύο δεκαετιών εξετάζοντας το εύρος δοκιμών πυραύλων Plesetsk από την άποψη "όλων των πηγών". Δεν είχε ξεφύγει τίποτα από την προσοχή του και ήταν σε θέση να προβλέψει - με θανατηφόρα ακρίβεια - μελλοντικά γεγονότα με τρόπο που οι προγραμματιστές του GIDE δεν μπορούσαν παρά να ονειρευτούν.

The analysts didn’t use algorithms or digital databases. His brain was the computer, and his understanding of what was happening at Plesetsk was derived from the art of dissecting human nature as much as the science of assessing physical structures. He knew the personalities involved, and how they behaved before, during, and after a test launch event. He knew the difference between routine maintenance and unique site improvements. His service was, literally, invaluable, and yet, when the Cold War ended, he and the office he worked for (the Office of Imagery Assessments) were declared superfluous, deemed repetitive in a system where other agencies carried out identical or similar tasks.

....

γι 'αυτό είμαι διπλά σκεπτικός για οποιοδήποτε λεγόμενο σύστημα τεχνητής νοημοσύνης, όπως το GIDE.

Στο τέλος της ημέρας, η ακριβής ανάλυση νοημοσύνης αφορά περισσότερο την κατανόηση της ανθρώπινης φύσης παρά την καταμέτρηση αυτοκινήτων ή τη διάκριση άλλων φυσικών εκδηλώσεων ανθρώπινης συμπεριφοράς. Ο καλύτερος κριτής της ανθρώπινης φύσης είναι ένας άλλος άνθρωπος. Κανένας υπολογιστής δεν μπορεί να πλησιάσει. ήμουν πρόθυμος να ποντάρω τη ζωή μου σε αυτή την αρχή όταν υπηρέτησα στο στρατό. Είναι κρίμα που ο στρατηγός VanHerck και οι όμοιοί του δεν είναι.

Το γεγονός ότι οι Ηνωμένες Πολιτείες είναι πρόθυμες να υποτάξουν τις προγνωστικές απαιτήσεις πληροφοριών της συλλογικής μας εθνικής ασφάλειας σε έναν υπολογιστή θα πρέπει να είναι ανησυχητικό για κάθε Αμερικανό. Αν ήταν στο χέρι μου, θα έκανα την παρακολούθηση του «Minority Report» required homework για κάθε Αμερικανό που ασχολείται με την εθνική ασφάλεια. Εάν εξακολουθείτε να πιστεύετε στην υπόσχεση εκμετάλλευσης της πρόγνωσης σε ξένους, τότε το GIDE είναι το σύστημα για εσάς.

The Pentagon Is Experimenting With AI That Can Predict Events 'Days in Advance'

ο αμερικανικός στρατός δοκιμάζει ένα πειραματικό δίκτυο τεχνητής νοημοσύνης που έχει ως αποστολή να εντοπίσει πιθανά μελλοντικά γεγονότα που αξίζουν μεγαλύτερη προσοχή, ακόμα και ημέρες πριν από την εμφάνισή τους.

Η σειρά δοκιμών ονομάζεται Global Information Dominance Experiments (GIDE) και συνδυάζει δεδομένα από μια τεράστια ποικιλία πηγών, όπως δορυφορικές εικόνες, αναφορές πληροφοριών, αισθητήρες στο πεδίο, ραντάρ και άλλα.

Το cloud computing παίζει επίσης σημαντικό ρόλο σε αυτή τη ρύθμιση, διασφαλίζοντας ότι τεράστια κομμάτια δεδομένων που συλλέγονται από όλο τον κόσμο μπορούν να υποβληθούν σε αποτελεσματική επεξεργασία και στη συνέχεια να έχουν πρόσβαση όποιοι στρατιωτικοί αξιωματούχοι και οργανισμοί τα χρειάζονται.

======================

σχετική μας ανάρτηση

 9 Αυγούστου 2021

Το Πεντάγωνο πειραματίζεται με τεχνητή νοημοσύνη (ΑΙ) σχεδιασμένη να προβλέπει μελλοντικά γεγονότα. Η AI σειρά δοκιμών ονομάζεται Global Information Dominance Experiments (GIDE). Επεξεργάζεται ταχύτατα ακατέργαστα δεδομένα και στέλνει προειδοποίηση μέσα σε δευτερόλεπτα. Σκεπτικιστής για το σύστημα (GIDE) δηλώνει ο Scott Ritter

http://hellenicrevenge.blogspot.com/2021/08/ai-global-information-dominance.html

=============

14 Ιανουαρίου 2021

Η συνεργασία της Palantir Technologies με την ελληνική κυβέρνηση. Πολλές συνεργασίες της Palantir, έχουν προκαλέσει αντιδράσεις για παραβίαση προσωπικών δεδομένων

https://hellenicrevenge.blogspot.com/2021/01/palantir-technologies-palantir.html

=====

 29 Αυγούστου 2022

Υποδούλωση της ανθρωπότητας: παράνομη παρακολούθηση από υπηρεσίες πληροφοριών, παραβίαση της ιδιωτικής ζωής

https://hellenicrevenge.blogspot.com/2022/08/blog-post_849.html?spref=tw

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Υβριστικά σχόλια θα πηγαίνουν στα αζήτητα.