Τρία Deepfake βίντεο του Τομ Κρουζ που ανέβηκαν στο TikTok, συγκέντρωσαν πάνω από 11 εκατομμύρια προβολές και θορύβησαν τους ειδικούς που λένε ότι ήταν τα πιο ανησυχητικά lifelike παραδείγματα
Οι Deepfakes που μιμούνται τον Tom Cruise έχουν γίνει viral στο TikTok
Ένας λογαριασμός εμφανίστηκε στην εφαρμογή την περασμένη εβδομάδα, με την ονομασία «deeptomcruise», ο οποίος δείχνει μια σειρά από βίντεο που απεικονίζουν τον Cruise να κάνει ένα μαγικό κόλπο, να παίζει γκολφ και να θυμίζει την ώρα που συναντήθηκε με τον πρώην Πρόεδρο της Σοβιετικής Ένωσης, Μιχαήλ Γκορμπατσόφ
Ο Sam Gregory, διευθυντής προγράμματος του sodion.org , μοιράστηκε τις ανησυχίες του για τα deepfakes του Tom Cruise μέσω του Twitter : « Στοχεύουν ήδη κάποιες γυναίκες με deepfakes».
Οι Deepfakes εφευρέθηκαν το 2014 από τον Ian Goodfellow, ο οποίος ήταν διευθυντής της μηχανικής μάθησης στο Special Projects Group της Apple και ηγέτης στον τομέα.
Η λέξη προέρχεται από την συνένωση ( collaboration) των όρων 'deep learning' και 'fake' και είναι μια μορφή τεχνητής νοημοσύνης.
Το σύστημα μελετά ένα άτομο-στόχο σε εικόνες και βίντεο, επιτρέποντάς του να συλλάβει πολλές γωνίες και να μιμείται τη συμπεριφορά και τα πρότυπα ομιλίας του.
Η τεχνολογία αυτή κέρδισε την προσοχή κατά τη διάρκεια της περιόδου των εκλογών, καθώς πολλοί προγραμματιστές τη χρησιμοποίησαν για να υπονομεύσουν τη φήμη των πολιτικών υποψηφίων.
Όσο για τώρα, το Deep Crakes του Tom Cruise φαίνεται να είναι για ψυχαγωγικούς σκοπούς.
Ένα άλλο βίντεο που κοινοποιήθηκε στον λογαριασμό TikTok δείχνει τον πλαστογράφο σε γήπεδο γκολφ.
Τα deepfakes του Tom Cruise μπορεί να κάνουν τον κόσμο να γελάει, αλλά η τεχνολογία προκαλεί φόβο στους ειδικούς.
Ο κορυφαίος εμπειρογνώμονας Henry Ajder είπε στους Times του Λονδίνου : «Αυτή η τεχνολογία δεν θα πάει μακριά, υπάρχει επίσης μια τεράστια ποσότητα πραγματικά αρνητικών και κακόβουλων περιπτώσεων χρήσης».
Αλλά άλλοι ειδικοί επαινούν το έργο, καθώς το ψεύτικο Cruise αντικατοπτρίζει την ομιλία, τους τρόπους και την εμφάνιση της πραγματικής διασημότητας.
Ο Hany Farid, καθηγητής στο Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ, ο οποίος ειδικεύεται στην ανάλυση ψηφιακών εικόνων, δήλωσε στο Fortune ότι παρόλο που ήξερε ότι τα κλιπ ήταν deepfakes εξακολουθούν να είναι «απίστευτα ολοκληρωμένα».
Ο Farid μπορεί να είναι ο μόνος με αυτήν τη γνώμη, καθώς η Rachel Tobac, διευθύνουσα σύμβουλος της διαδικτυακής εταιρείας ασφάλειας SocialProof, έγραψε στο Twitter ότι τα βίντεο απέδειξαν ότι έχουμε φτάσει σε ένα στάδιο σχεδόν «ανιχνεύσιμων Deepfakes».
«Οι Deepfakes θα επηρεάσουν την εμπιστοσύνη του κοινού, θα παρέχουν κάλυψη και εύλογη ευθύνη για εγκληματίες / κακοποιητές που έχουν τραβηχτεί σε βίντεο ή ήχο και θα χρησιμοποιηθούν (ή και) χρησιμοποιούνται για να χειραγωγήσουν, να εξευτελίσουν και να βλάψουν τους ανθρώπους», είπε προσθέτοντας ότι είχαν «'real world safety, πολιτικές επιπτώσεις για όλους », έγραψε στο Twitter.
Ανεξάρτητα από το τι σκέφτονται οι ειδικοί και το κοινό για τον ψεύτικο Cruise, το TikTok έχει κανόνες κατά της πλαστοπροσωπίας.
"Δεν μπορείτε: [...] να πλαστοπροσωπήσετε οποιοδήποτε άτομο ή οντότητα, ή να δηλώσετε ψευδώς ή να παραπλανήσετε εσείς ή η σχέση σας οποιοδήποτε άτομο ή οντότητα, συμπεριλαμβανομένης της εντύπωσης ότι οποιοδήποτε περιεχόμενο ανεβάζετε, δημοσιεύετε, μεταδίδετε, διανέμετε ή δημιουργείτε με άλλο τρόπο διαθέσιμο προέρχεται από τις Υπηρεσίες, "αναφέρει η πολιτική της εφαρμογής.
«Η δύναμη της τεχνητής νοημοσύνης μας επιτρέπει να ανεβάζουμε ακίνητες εικόνες των συγγενών σας και αμέσως παίρνουν χρώμα και αρχίζουν να κινούνται», λέει ο Rafi Mendelssohn, διευθυντής δημοσίων σχέσεων στο MyHeritage.
Οι δημιουργοί της υπηρεσίας βιντεοσκόπησαν πρώτα τους εαυτούς τους και έπειτα δίδαξαν τις μηχανές να αλλάζουν τα πρόσωπα τους από τις φωτογραφίες. Και αυτή είναι ίσως η πιο ακίνδυνη εφαρμογή της τεχνολογίας deepfake. Αλλά όλα φτάνουν στο σημείο ότι σύντομα θα είναι αδύνατο να διακρίνουμε την αλήθεια από τη φαντασία. Το Deepfake βασίζεται σε δύο νευρωνικά δίκτυα.
Οποιοδήποτε αστέρι ταινίας μπορεί τώρα να σχεδιαστεί απλά. Τέτοιες υπηρεσίες παρέχονται στο στούντιο Chelyabinsk.
Και αν βάλετε προκλητικές δηλώσεις στο στόμα ενός διάσημου ηθοποιού, μπορείτε εύκολα να καταστρέψετε την καριέρα του. Στο σύγχρονο Χόλιγουντ, είναι τόσο εύκολο όσο το να ξεφλουδίζεις αχλάδια.
Φανταστείτε, ο DiCaprio να πηγαίνει στη σκηνή και με το σήμα κατατεθέν του λέει: "Περισσότερες νεαρές ηθοποιοί ήταν στο τρέιλερ μου, παρά στον δερμάτινο καναπέ στο γραφείο του Harvey Weishntein." Και αυτό είναι, η φήμη ενός αστεριού του Χόλιγουντ έχει τελειώσει
Αλλά τα πρώτα θύματα των deepfakes ήταν γυναίκες διασημότητες. Υπάρχουν πολλά πορνογραφικά βίντεο στον ιστό με αστέρια που δεν έχουν πρωταγωνιστήσει σε κάτι τέτοιο.
Και αν νωρίτερα τέτοια γραφικά σχεδιάστηκαν αποκλειστικά από επαγγελματίες, σήμερα υπάρχουν εργαλεία για την αντικατάσταση προσώπων σε οποιοδήποτε smartphone. Αυτό σημαίνει ότι όχι μόνο ταινίες, αλλά και οποιοδήποτε βίντεο μπορεί να επεξεργαστεί με επιδεξιότητα.
Οι νέες τεχνολογίες κατακτήθηκαν γρήγορα από απατεώνες. Αναλυτές σε συνεργασία με το Ινστιτούτο του ΟΗΕ για το έγκλημα και τη δικαιοσύνη και την Ευρωπόλ έχουν ετοιμάσει μια έκθεση "Κακόβουλη χρήση και κατάχρηση της τεχνητής νοημοσύνης". Και εκεί οι deepfakes είναι μια από τις κύριες απειλές. Το πιο συνηθισμένο σχέδιο είναι ο εκβιασμός και η απειλή δημοσίευσης άσεμνου συμβιβαστικού υλικού. Το ψηφιακό δίδυμό σας είναι το προβάδισμα.
Δεκάδες εφαρμογές έχουν δημιουργηθεί βάσει ενός πολύπλοκου αλγορίθμου. Οι χρήστες διασκεδάζουν αλλάζοντας τα πρόσωπα των αγαπημένων τους χαρακτήρων ταινίας. Εδώ το ψεύτικο είναι άμεσα ορατό. Αλλά ο Τομ Κρουζ, να παίζει γκολφ και να μασάει γλειφιτζούρι, δεν διακρίνεται από το πραγματικό.
πηγή 2-3-21
====================
Τα Deepfakes είναι ανησυχητικά επειδή μπορούν να χειραγωγήσουν το κοινό
Παρόλο που αυτού του είδους οι «παρεμβάσεις» με σκοπό την ψυχαγωγία ή την εξαπάτηση δεν είναι κάτι καινούργιο, η τεχνολογία deepfake επιστρατεύει σύγχρονες τεχνικές που έχουν να κάνουν με τη μηχανική μάθηση και την τεχνητή νοημοσύνη.Το αποτέλεσμα είναι άκρως ρεαλιστικό, αλλά και τρομακτικό, αν σκεφτεί κανείς τις «σκοτεινές» χρήσεις που μπορεί να ενθαρρύνει η συγκεκριμένη τεχνολογία.
"Εάν μοιράζεστε ενεργά τα πορτρέτα σας σε κοινωνικά δίκτυα, τότε μην εκπλαγείτε όταν μετά από λίγο καιρό θα εμφανιστεί ένα βίντεο με τη συμμετοχή σας, το οποίο δεν τραβήξατε", λέει ο Mikhail Kondrashin, CTO μιας αναλυτικής εταιρείας.
Ο πρόδρομος των βίντεο deepfakes είναι αλγόριθμοι αναγνώρισης προσώπου. Προχώρησαν επίσης πολύ μπροστά. Η τεχνολογία ανάλυσης βίντεο σε βάθος χρησιμοποιείται ήδη στις επιχειρήσεις. Υπάρχουν κάμερες σε καταστήματα που όχι μόνο αναγνωρίζουν τους πελάτες από την όραση, αλλά και διαβάζουν συναισθήματα. Έτσι ώστε να γνωρίζουν αν στους αγοραστές αρέσει το προϊόν ή η τιμή για αυτό ή όχι.
Με τη βοήθεια των βιομετρικών δεδομένων σας - πρόσωπο και φωνή - μπορείτε ήδη να αποσύρετε χρήματα από τράπεζες, να πληρώσετε για αγαθά σε καταστήματα και να δανειστείτε δάνεια. Αλλά τι γίνεται αν το πρόσωπο είναι ψεύτικο;
"Αν ανακατασκευάσουμε ένα τρισδιάστατο μοντέλο ενός προσώπου από φωτογραφίες, μπορούμε να συνθέσουμε την εικόνα. Η εικόνα αποστέλλεται στην τράπεζα, επιβεβαιώνοντας έτσι τη λειτουργία. Και το deepfake επιτρέπει αυτό να γίνει χωρίς ανθρώπινη παρέμβαση", δήλωσε ο Ντμίτρι Κουζνέτσοφ, διευθυντής μεθοδολογίας και τυποποίησης στις θετικές τεχνολογίες.
Και οι απατεώνες μπορούν επίσης να κάνουν μεγάλη ζημία: να αγοράσουν μετοχές μιας μεγάλης εταιρείας εκ των προτέρων και να κάνουν ένα μήνυμα εκ μέρους του διευθυντή της, το οποίο θα επηρεάσει την αξία τους.
Η παγκόσμια οικονομία μπορεί να μειωθεί με ένα βίντεο. Ο Elon Musk εμφανίζεται στην οθόνη και δηλώνει: η τεχνολογία των ηλεκτρικών οχημάτων δεν είναι βιώσιμη. Θα οδηγούμε με βενζίνη. Και επίσης - Μεταφέρω όλα τα περιουσιακά στοιχεία μου σε κινεζικό γιουάν. Ακολουθήστε τις κινήσεις των χρηματιστηριακών τιμών.
Αλλά το κύριο πράγμα είναι ότι, τώρα οποιεσδήποτε δηλώσεις που θα εξαπολύσουν πολέμους και θα καταστρέψουν οικονομίες μπορούν να τεθούν στο στόμα των παγκόσμιων ηγετών.
Ο φερόμενος επικεφαλής των Ηνωμένων Πολιτειών της Αμερικής έρχεται στο βάθρο με την προεδρική σφραγίδα. Και παραδέχεται ότι η μόλυνση από κοροναϊό αναπτύχθηκε σε ένα μυστικό αμερικανικό εργαστήριο.
Ω ναι. Και επίσης νοθεύσαμε τις εκλογές. Ο Τραμπ κέρδισε πραγματικά. Τεχνολογία Deepfake σε δράση. Και, ως αποτέλεσμα, μια μεγάλης κλίμακας πολιτική κρίση.
Οι πολιτικοί είναι σίγουρα ο κύριος στόχος των τρομοκρατών. Πρώτον, είναι σχετικά εύκολο να παραποιηθούν: υπάρχουν terabyte υψηλής ποιότητας εγγραφές βίντεο από όπου τα νευρωνικά δίκτυα μπορούν να τραβήξουν εικόνες και φωνή. Δεύτερον, είναι λογικό να εκβιάζουμε τους πολιτικούς με τα παραγόμενα συμβιβαστικά στοιχεία. Και τρίτον, τα λόγια τους μπορούν να προκαλέσουν το αποτέλεσμα μιας έκρηξης βόμβας - με την κυριολεκτική έννοια της λέξης.
"Αυτό το είδος ψεύτικου, να προκαλέσει και να ξεκινήσει μια πυραυλική επίθεση σε μια κυρίαρχη χώρα, λέει η Andrey Koshkin, επικεφαλής του Τμήματος Κοινωνιολογίας και Πολιτικών Επιστημών του PRUE Πλεκάνοφ.
Και το πιο σημαντικό, είναι όλο και πιο δύσκολο να διακρίνουμε ένα deepfake από ένα πρωτότυπο βίντεο είτε με το μάτι είτε με τη βοήθεια ειδικών προγραμμάτων.
"Μόλις εμφανιστούν εργαλεία για την αναγνώριση των deepfakes, τα deepfakes θα κάνουν αμέσως ένα ποιοτικό άλμα. Θα κλείσουν τις ευπάθειες στις οποίες προσκολλώνται οι αλγόριθμοι", δήλωσε ο Stanislav Ashmanov, επιχειρηματίας που ειδικεύεται στα βαθιά νευρωνικά δίκτυα και τη μηχανική μάθηση.
"Ο ευκολότερος τρόπος αναγνώρισης ψεύτικων πληροφοριών, συμπεριλαμβανομένου του βίντεο ή του deepfake ήχου, είναι να κατανοήσουμε εάν το μήνυμα που μεταδίδεται από αυτό το αντικείμενο είναι επαρκές", δήλωσε ο Arseniy Sheltsin, γενικός διευθυντής της ANO Digital Platforms.
Η σωτηρία από την τεχνητή νοημοσύνη, που κατέληξε σε λάθος χέρια, είναι ο δικός σου καθαρός νους και κριτική σκέψη,
καθώς βυθίζεσαι στον «βαθύ νέο κόσμο», όπου δεν μπορείς να εμπιστευτείς τα μάτια σου, γίνεται όλο και πιο δύσκολο να σωθείς
πηγή 29-3-21
σχετική μας ανάρτηση
14 Νοεμβρίου 2020
Τα deepfake-videos, εξελίσσονται και γίνονται δυνατό πολιτικό εργαλείο. Ερευνητές δημιουργούν συστήματα για την ανίχνευση τους. Η Sensity προειδοποιεί για την κυκλοφορία ψεύτικων φωτογραφιών χιλιάδων γυμνών γυναικών, ακόμα και ανήλικων. Η αντιμετώπιση της κατάχρησης αυτοματοποιημένων εικόνων που δημιουργούνται μέσω"Deepfake bots στο Telegram
http://hellenicrevenge.blogspot.com/2020/11/deepfake-videos-sensity-deepfake-bots.html
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
Υβριστικά σχόλια θα πηγαίνουν στα αζήτητα.