κατασκευάζονται εύκολα με ένα καθολικά προσβάσιμο λογισμικό και η ποιότητα τους βελτιώνεται τόσο, που οι διαφορές τους από τα πρωτότυπα βίντεο να είναι δυσδιάκριτες.
Σύμφωνα με έρευνα της εταιρείας ασφάλειας του διαδικτύου Deeptrace, τα deepfakes βίντεο έχουν σχεδόν διπλασιαστεί τους τελευταίους 9 μήνες και πλέον αποτελούν μία επικερδή επιχείρηση.
Δείχνουν αληθοφανή, δύσκολα διακρίνονται από τα πραγματικά, μπορεί να εκθέσουν σοβαρά τα δημόσια πρόσωπα και να χειραγωγήσουν την κοινή γνώμη.
Μπορεί να χρησιμοποιηθούν για εκλογικές διαδικασίες και η παραπληροφόρηση από αυτά, να δημιουργήσει ζήτημα εθνικής αλλά και παγκόσμιας ασφάλειας.
για να δημιουργηθούν χρειάζονται μόνο μερικές φωτογραφίες του εμφανιζόμενου προσώπου.
Διάφοροι ερευνητές δημιούργησαν ήδη αρκετά εκλεπτυσμένα συστήματα ανίχνευσης deepfake υλικού, τα οποία εξετάζουν στοιχεία όπως ο φωτισμός, οι σκιάσεις, και οι κινήσεις του προσώπου προκειμένου να καθοριστεί η γνησιότητα του περιεχομένου.
αποτελεσματικός έλεγχος του φαινομένου μπορεί να γίνει από τις μεγάλες τεχνολογικές πλατφόρμες όπως η Google, το Facebook και το Twitter, εάν αναλάβουν δράση κατά της παραπληροφόρησης
για την ανίχνευση των deepfake-videos, ερευνητές από το Πανεπιστήμιο Binghamton, State University of New York συνεργάστηκαν με την Intel Corp. για να αναπτύξουν ένα εργαλείο που ονομάζεται FakeCatcher. Διαθέτει ποσοστό ακρίβειας πάνω από 90%.
Λειτουργεί αναλύοντας τις λεπτές διαφορές στο χρώμα του δέρματος, που προκαλούνται από τον ανθρώπινο καρδιακό παλμό. Η φωτοπλασματογραφία (συντομογραφία PPG) είναι η ίδια τεχνική που χρησιμοποιείται για ένα παλμικό οξύμετρο που τοποθετείται στην άκρη του δακτύλου μας στο γραφείο ενός γιατρού, καθώς και στις Apple Watches και φορητές συσκευές παρακολούθησης φυσικής κατάστασης που μετρούν τον καρδιακό μας παλμό κατά τη διάρκεια της άσκησης.
«Εξάγουμε διάφορα σήματα PPG από διαφορετικά μέρη του προσώπου και εξετάζουμε τη χωρική και χρονική συνέπεια αυτών των σημάτων», δήλωσε ο Ilke Demir, ανώτερος ερευνητής της Intel. «Στα deepfakes, δεν υπάρχει συνέπεια για τους καρδιακούς παλμούς και δεν υπάρχουν πληροφορίες για τους παλμούς. Στα πραγματικά βίντεο, η ροή του αίματος στο αριστερό μάγουλο και στο δεξί μάγουλο κάποιου - για απλοποίηση - συμφωνεί και έχει τον ίδιο παλμό.
«Καταγράφουμε δεδομένα όχι μόνο με ορατές εικόνες 2D και 3D, αλλά και με θερμικές κάμερες και αισθητήρες φυσιολογίας. Η ιδέα της χρήσης της φυσιολογίας σαν μια άλλη τεχνική, για να διαπιστωθεί αν είναι σύμφωνη με προηγούμενα δεδομένα, είναι πολύ χρήσιμη για την ανίχνευση. "
" Καταλαβαίνετε πώς γίνονται αυτά τα deepfakes. Μαθαίνουμε τα κόλπα και ακόμη, χρησιμοποιούμε μερικά από αυτά στη δική μας δημιουργία δεδομένων" προσθέτει ο Ilke Demir.
Από τη δημοσίευση των ευρημάτων του FakeCatcher, 27 ερευνητές σε όλο τον κόσμο χρησιμοποιούν τον αλγόριθμο και το σύνολο δεδομένων στις δικές τους αναλύσεις.
Ωστόσο, κάθε φορά που δημοσιεύονται τέτοιου είδους μελέτες, υπάρχει ανησυχία μήπως κακόβουλοι κατασκευαστές deepfake βίντεο, τροποποιήσουν την τεχνολογία τους και τη βελτιώσουν έτσι ώστε τα ψεύτικα βίντεο τους, να μην είναι ανιχνεύσιμα στο μέλλον.
Η μελλοντική έρευνα θα επιδιώξει να βελτιώσει και να βελτιώσει την τεχνολογία FakeCatcher, διερευνώντας περαιτέρω τα δεδομένα, για να καθορίσει πώς γίνονται τα deepfakes. Αυτή η ικανότητα έχει πολλές επιπτώσεις, συμπεριλαμβανομένης της ασφάλειας στον κυβερνοχώρο και της τηλεϊατρικής
περισσότερα στην πηγή 27-10-20
https://www.newswise.com/articles/best-way-to-detect-deepfake-videos-check-for-the-pulse
---------------------
Ερευνητές στο Πανεπιστήμιο του Στάνφορντ και στο UC Berkeley έχουν επίσης επινοήσει ένα πρόγραμμα που χρησιμοποιεί τεχνητή νοημοσύνη (AI) για την ανίχνευση βίντεο deepfake.
Το πρόγραμμα λέγεται ότι εντοπίζει κατά 80% τα ψεύτικα βίντεο, αναγνωρίζοντας τις ελάχιστες αναντιστοιχίες στους ήχους που κάνουν οι άνθρωποι και στο σχήμα του στόματος τους, σύμφωνα με τη μελέτη με τίτλο «Εντοπισμός βίντεο deepfake από τις αναντιστοιχίες Phenome-Viseme » .
’Detecting Deep-Fake Videos from Phenome-Viseme Mismatches’.
Τα βίντεο Deepfake μπορούν να δημιουργηθούν χρησιμοποιώντας τεχνολογίες ανταλλαγής προσώπου ή συγχρονισμού χειλιών. Τα βίντεο ανταλλαγής προσώπων μπορεί να είναι πειστικά αλλά είναι ακατέργαστα, αφήνοντας ψηφιακά ή οπτικά σημάδια, που μπορεί να ανιχνεύσει ένας υπολογιστής.
Ο συγχρονισμός των χειλιών είναι λεπτός και πιο δύσκολος. Η τεχνολογία χειρίζεται ένα μικρότερο τμήμα της εικόνας και στη συνέχεια συνθέτει τις κινήσεις των χειλιών που ταιριάζουν απόλυτα με τον τρόπο με τον οποίο κινείται το στόμα ενός ατόμου, αν είχε πει συγκεκριμένες λέξεις. Με αρκετά δείγματα εικόνας και φωνής ενός ατόμου, ένας κατασκευαστής βίντεο deepfake μπορεί να χειριστεί μια εικόνα για να "πει" οτιδήποτε, είπε η ομάδα.
Η ομάδα δημιούργησε ένα εργαλείο που ανιχνεύει τους «visemes» ή (mouth formations) σχηματισμούς στόματος, και τους «phenomes» ή (phonetic sounds) φωνητικούς ήχους.
Τα Deepfake βίντεο οδηγούν σε αύξηση της παραπληροφόρησης που γίνεται όλο και πιο δύσκολο να εντοπιστεί.
περισσότερα στην πηγή
18-10-20
---------------------------
Η πλατφόρμα Visual Threat Intelligence Platform της εταιρείας Sensity παρέχει πληροφορίες για τον εντοπισμό και την παρακολούθηση deepfakes και άλλων visual threats (οπτικών απειλών).
Η Sensity (πρώην Deeptrace) έχει έδρα το Άμστερνταμ και αναπτύσσει τεχνολογίες "deep learning technologies", για την παρακολούθηση και τον εντοπισμό deepfakes.
οι πορνογραφικές χρήσεις deepfakes αποτελούν σήμερα μεγαλύτερη απειλή από τις deepfakes χρήσεις στην πολιτική.
Η Sensity προειδοποιεί για μια υπηρεσία που χρησιμοποιεί την πλατφόρμα Telegram για να κυκλοφορεί παγκοσμίως online, ψεύτικες φωτογραφίες χιλιάδων γυμνών γυναικών και παιδιών που δημιουργήθηκαν μέσω τεχνητής νοημοσύνης.
προειδοποιεί για να μη γίνουμε θύματα της deepfake πορνογραφίας
[Η Λατινική Αμερική είναι η δεύτερη περιοχή με τους περισσότερους χρήστες αυτής της υπηρεσίας (η Ρωσία είναι η πρώτη περιοχή)]
Αυτή η υπηρεσία αναβιώνει ένα τρομακτικό λογισμικό που ονομάζεται Deepnude και εξαφανίστηκε το 2019.
Τώρα μέσω μιας συνομιλίας (εφαρμογή messaging) στο Telegram, ένας χρήστης στέλνει φωτογραφία μιας γυναίκας και η πλατφόρμα είναι υπεύθυνη για την "επιστροφή" μιας ψευδούς εικόνας αυτής της γυναίκας, που είναι εντελώς γυμνή.
Η πλατφόρμα χρησιμοποιεί προηγμένη τεχνολογία τεχνητής νοημοσύνης και τα αποτελέσματα γίνονται αξιόπιστα.
Τον Οκτώβριο η Sensity παρουσίασε μια αναφορά με τίτλο "κατάχρηση αυτοματοποιημένων εικόνων: "Deepfake bots στο Telegram, που δείχνει τα χαρακτηριστικά του συστήματος, του οποίου το όνομα παραλείπεται για να αποφευχθεί η περαιτέρω χρήση.
Σύμφωνα με τη μελέτη, τα αποτελέσματα παρουσιάζουν υψηλή προσέγγιση στην πραγματικότητα (οι ψευδείς εικόνες μοιάζουν πολύ με τις γνήσιες) γιαυτό οι χρήστες προειδοποιούνται για εκβιασμούς ή προσβολή της εικόνας τους, δημοσίως.
104.852 γυναίκες στοχοποιήθηκαν και οι προσωπικές τους "stripped" (γυμνές) φωτογραφίες μοιράστηκαν δημοσίως μέχρι το τέλος του Ιουλίου 2020.
κατά τους τελευταίους 3 μήνες, οι χρήστες αυξήθηκαν κατά 200%.
Το 70% των στοχευμένων ατόμων, είναι ιδιώτες που οι φωτογραφίες τους τραβήχτηκαν από κοινωνικά δίκτυα ή προσωπικό υλικό
έχουν εντοπιστεί 7 κανάλια Telegram με περισσότερους από 100.000 συμμετέχοντες. Το κεντρικό κανάλι έχει περισσότερα από 45.000 άτομα.
Οι περισσότερες από τις διαφημίσεις βρέθηκαν στο κοινωνικό δίκτυο VK, γνωστό ως το ρωσικό Facebook.
[Sensity (formerly known as Deeptrace) is the world’s first visual threat
intelligence company. Sensity provides individuals and organizations
with solutions for detecting, monitoring, and countering threats posed
by deepfakes and other forms of malicious visual media.]
Ένας περιορισμένος αριθμός εικόνων που δημιουργούνται από bot-generated images κοινοποιούνται δημόσια σε συνδεδεμένα κανάλια (affiliated channels). Παρουσιάζουν επίσης στοχευμένα άτομα, που φαίνονται να είναι ανήλικα παιδιά.
Τα κανάλια παρουσίαζαν στόχους που φαινόταν ανήλικοι.
›Το bot και τα συνδεδεμένα κανάλια του, έχουν προσελκύσει περίπου 101.080 μέλη σε όλο τον κόσμο, με το 70% να προέρχεται από τη Ρωσία και τις πρώην χώρες της ΕΣΣΔ.
›Το bot έλαβε σημαντική διαφήμιση μέσω του ρωσικού ιστότοπου κοινωνικών μέσων VK (the largest social media platform in Russia), το οποίο διαθέτει σχετική δραστηριότητα σε 380 σελίδες.
( Over 380 VK pages were found to be dedicated to the creation and sharing of explicit deepfake images, with many claiming to offer similar automated bots to the one found on Telegram).
Η Telegram γίνεται υπεύθυνη για πιθανές δημόσιες επιθέσεις με προσβολή της ανθρώπινης αξιοπρέπειας και εκβιασμό.
Δεδομένου ότι τα στοιχεία της έρευνας περιέχουν ευαίσθητο περιεχόμενο, παραλείφθηκαν βασικές πληροφορίες για την προστασία των θυμάτων και την αποφυγή της δημοσίευσης πληροφοριών αναγνώρισης για το bot και το περιβάλλον οικοσύστημα
Όλα τα ευαίσθητα δεδομένα που ανακαλύφθηκαν κατά την έρευνα και περιγράφονται λεπτομερώς σε αυτήν την αναφορά έχουν αποκαλυφθεί στην Telegram, την VK και τις σχετικές αρχές επιβολής του νόμου.
Ωστόσο δεν δόθηκε καμία απάντηση από το Telegram ή το VK κατά τη δημοσίευση αυτής της αναφοράς.
Πώς λειτουργεί;
Η βασική λειτουργικότητα του bot πιθανώς παρέχεται από μια έκδοση "open-source version" του Λογισμικό DeepNude (see DeepNude databox on page 6). Το DeepNude χρησιμοποιεί deep learning, specifically generative adversarial networks (GANs), για «απογύμνωση» εικόνων (to “strip” images) των ντυμένων γυναικών δημιουργώντας συνθετικά μια ρεαλιστική προσέγγιση των δικών τους, ιδιωτικών μερών του σώματος. Οι τελευταίες εκδόσεις (versions) του λογισμικού (software) χρησιμοποιούν μια εφαρμογή του pix2pix GAN που μαθαίνει να επιλέγει σταδιακά τα ρούχα που θα αφαιρεθούν, να μαρκάρει τα σημεία που αντιπροσωπεύουν τα ανατομικά μέρη του σώματος και συνθέτουν αυτά τα μέρη του σώματος στην τελική εικόνα.
Μόλις εκπαιδευτεί σε ένα σύνολο εικόνων από ντυμένες και γυμνές γυναίκες, το λογισμικό μπορεί να χρησιμοποιείται επ 'αόριστον για να κάνει "strip” φωτογραφίες από προηγούμενους "unseen targets" χωρίς ανάγκη για περαιτέρω ρύθμιση (fine-tuning) Κατά την εκτέλεση του λογισμικού αποτελεσματικά, μπορεί κανονικά να απαιτηθεί από τους χρήστες να έχουν πρόσβαση σε υπολογιστή με μονάδα επεξεργασίας γραφικών (GPU),
Το λογισμικό που είναι ενσωματωμένο στο bot Telegram τροφοδοτείται από εξωτερικούς διακομιστές. Αυτό καταργεί τον περιορισμό επεξεργασίας (processing restriction) για τους χρήστες, κυρίως σε smartphone και μειώνει σημαντικά το εμπόδιο χρήσης (barrier of use) σε σύγκριση με τους προκατόχους της τεχνολογίας.
Για να δημιουργήσουν μια "“stripped” image"εικόνα ενός στόχου, οι χρήστες ανεβάζουν μια "source image" εικόνα στο bot μέσω μιας διεπαφής που μοιάζει με μια τυπική εφαρμογή άμεσων μηνυμάτων. Η εικόνα τότε επεξεργάζεται αυτόματα από το bot μετά από μια σύντομη περίοδο αναμονής, με τη συνθετική “stripped” image εικόνα να παραδίδεται στο χρήστη, για λήψη ή προώθηση στο Telegram.
Το bot μπορεί να εκτελέσει με επιτυχία αυτήν τη διαδικασία μόνο σε εικόνες γυναικών. Ενώ το bot είναι δωρεάν στη χρήση, οι χρήστες μπορούν να πληρώσουν για "premium coins" που "remove" υδατογραφήματα από "generated images" εικόνες και παραλείπουν "skip" την δωρεάν "free user processing queue".
η βασική τιμή είναι 12 νομίσματα για 100 ρούβλια (περίπου 1,50 $), με την τιμή ανά κέρμα να μειώνεται σε μεγαλύτερες μαζικές αγορές.
Τη στιγμή της ανάλυσης αυτής της έκθεσης, το Telegram απαγορεύτηκε σε πολλές χώρες, συμπεριλαμβανομένης της Ρωσίας, της Κίνας και του Ιράν. Οι αναρτήσεις που έκανε ο δημιουργός του bot ενθάρρυναν τους χρήστες
από αυτές τις χώρες για να χρησιμοποιήσουν ένα VPN μέσω της Γερμανίας για να παρακάμψουν την απαγόρευση, ενώ οι iOS Telegram χρήστες του Telegram ήταν ομοίως υποχρεωμένοι να απενεργοποιήσουν τη «λειτουργία ασφαλείας» του Telegram (Telegram’s “safety mode”) για να αποκτήσουν πρόσβαση.
Συνδεδεμένα κανάλια και μέλη
Το περιβάλλον οικοσύστημα των 7 συνδεδεμένων καναλιών Telegram του bot είχε προσελκύσει ένα σύνολο 103.585 μελών έως το τέλος Ιουλίου 2020.
Λαμβάνεται υπόψη η πιθανότητα, πολλά μέλη να αποτελούν μέρος πολλών καναλιών...
Το κανάλι ‘central hub’ channel μόνο, προσέλκυσε 45.615 μοναδικά μέλη.
Αυτά τα κανάλια παρέχουν μια σειρά από λειτουργίες κοινότητας, συμπεριλαμβανομένων ομάδων συνομιλίας (chat groups), τεχνική υποστήριξη και κοινή χρήση εικόνων.
Από το bot που κυκλοφόρησε για πρώτη φορά στις 11 Ιουλίου 2019, σημειώθηκε σημαντική αύξηση του αριθμού των μελών σε ολόκληρο το οικοσύστημα.
Αυτή η ανάπτυξη αποτυπώνεται καλύτερα από την αύξηση των μελών που έχουν εγγραφεί στο κανάλι ‘central hub’ channel, του bot.
Μια δημοσκόπηση σχετικά με τη γεωγραφική τοποθεσία πάνω από 7.200 των χρηστών του bot δείχνει ότι το 70% προέρχονται από τη Ρωσία ή χώρες που ήταν πρώην ΕΣΣΔ.
Οι περισσότερες άλλες περιοχές παγκόσμια εκπροσωπούνται από τους χρήστες, σε σημαντικά χαμηλότερες αναλογίες.
Η δημοσκόπηση δημοσιεύτηκε αρχικά στις 23 Ιουλίου 2019 στο κανάλι central hub’ channel,του bot, αλλά παρέμεινε ανοιχτή, για να ολοκληρώσουν οι χρήστες τη στιγμή της έρευνάς μας.
Η περαιτέρω ανάλυση αυτών των εικόνων εντόπισε στόχους από ένα ευρύ φάσμα χωρών συμπεριλαμβανομένων της Αργεντινής, της Ιταλίας, της Ρωσίας και των ΗΠΑ, παρά την πλειονότητα των Ρώσων χρηστών του (bot’s majority Russian user base).
πως γίνεται η επίθεση (how these attacks could be orchestrated).
ένας " attacker" αποκτά εικόνες ενός στόχου (μιας γυναίκας) από public social media galleries, ή ιδιωτικές φωτογραφίες που ανταλλάσσονται σε πλατφόρμες ανταλλαγής μηνυμάτων (messaging platforms) ή dating apps.
α) Ο επιτιθέμενος "Attacker" προσδιορίζει τον στόχο
β) ο Attacker λαμβάνει την ψεύτικη εικόνα με τη γυμνή γυναίκα -στόχο (κάνει“strips” image) χρησιμοποιώντας την εφαρμογή Telegram app
γ) Ο επιτιθέμενος εκβιάζει τον στόχο
δ) Ο "Attacker" εκμεταλλεύεται την εικόνα για δημόσια διαπόμπευση
Μετά το “stripping” της εικόνας του στόχου, χρησιμοποιώντας το bot, ο επιτιθέμενος εκθέτει δημόσια την εικόνα, για διαπόμπευση του στόχου ή την αποστέλλει σε συγγενείς, φίλους και γνωστούς του στόχου.
Εναλλακτικά εκβιάζει τον στόχο με την απειλή ότι θα δημοσιεύσει την “stripped” image, online, εκτός αν του καταβληθεί ένα χρηματικό ποσό για συγκεκριμένο χρονικό διάστημα
Αυτές οι ζημιές δεν συμβαίνουν μόνο σε ανθρώπους ή πολιτικούς, αλλά επηρεάζονται επίσης διάφορες εταιρείες.
Οι ψευδείς πληροφορίες στα κοινωνικά δίκτυα, μπορούν να εξαπλωθούν σαν πυρκαγιά και να δημιουργήσουν εκτεταμένες και βαθιές επιπτώσεις.
=======================
Από τον Αύγουστο έως τον Οκτώβριο του τρέχοντος έτους, το Co-Creation Studio και το WITNESS ξεκίνησαν μια διαδικτυακή σειρά με τίτλο Deepfakery . Η σειρά των έξι επεισοδίων περιελάμβανε 20 πάνελ από τομείς όπως ακτιβισμός, ακαδημαϊκός κόσμος, αρχεία, τέχνη, ντοκιμαντέρ και μηχανική, όλοι συμμετέχοντες σε μια κριτική συζήτηση γύρω από το θέμα: Προετοιμασία [για τεχνολογία deepfake], Μην πανικοβάλλεστε.
Ενώ η εξελιγμένη τεχνολογία AI είναι προσβάσιμη σε λίγους, τα περισσότερα deepfakes online προέρχονται από μη επαγγελματίες χρήστες. Τον Σεπτέμβριο του 2019, η εταιρεία Deeptrace (σήμερα έχει την επωνυμία Sensity) διαπίστωσε ότι, από τα 15.000 βίντεο deepfake, το 96% ήταν πορνογραφικά.
Η Danielle Citron, καθηγήτρια νομικής στη Νομική Σχολή του Πανεπιστημίου της Βοστώνης και αντιπρόεδρος της πρωτοβουλίας Cyber Civil Rights Initiative, λέει ότι η ψυχολογική επίδραση της ψεύτικης εμφάνισης σε ένα πορνογραφικό βίντεο deepfake είναι ανυπολόγιστη.
Ορισμένοι έχουν επίσης συγκρίνει τη μη συναινετική πορνογραφία με μια μορφή ψηφιακού βιασμού. Είναι ιδιοποίηση της σεξουαλικής μας ταυτότητας χωρίς την άδειά μας.
Το βίντεο μπορεί να έχει σημαντικό και επιβλαβές οικονομικό αντίκτυπο στο επιχειρηματικό μοντέλο ενός δημιουργού, όπως το παράδειγμα ενός εξέχοντος YouTuber που έχασε μια εταιρική επωνυμία αφού κάποιος δημοσίευσε ένα deep fake βίντεο από αυτήν σε έναν ιστότοπο πορνό.
===========================
σχετικές αναρτήσεις και βίντεο
https://www.facebook.com/janine.roxy.7330/posts/453935788911332
https://www.facebook.com/permalink.php?story_fbid=379561890065546&id=105758637445874
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Υβριστικά σχόλια θα πηγαίνουν στα αζήτητα.