AI-δημιουργημένα ψεύτικα βίντεο υπονομεύουν εντελώς την κατανόησή μας για τα παγκόσμια γεγονότα.  Εδώ είναι πώς οι βαθύτατοι μπορεί να αλλάξουν τα πάντα.

Deepfakes Επεξήγηση: Η AI που κάνει ψεύτικο βίντεο Πάρα πολύ πειστική

Διαφήμιση Βλέποντας πιστεύει. Λοιπόν, τουλάχιστον έτσι συνέβαινε πριν συνειδητοποιήσουμε ότι οι άνθρωποι θα μπορούσαν να κάνουν βιντεοσκοπήσεις για να προωθούν τις φάρσες και να ξαναγράφουν την ιστορία. Ενώ βρήκαμε τρόπους για να αποκαλύψουμε τις περισσότερες φρικιαστικές εικόνες, υπάρχει μια τεχνολογική εξέλιξη που επιταχύνεται τόσο γρήγορα και ίσως σύντομα δεν ξέρουμε π

Διαφήμιση

Βλέποντας πιστεύει. Λοιπόν, τουλάχιστον έτσι συνέβαινε πριν συνειδητοποιήσουμε ότι οι άνθρωποι θα μπορούσαν να κάνουν βιντεοσκοπήσεις για να προωθούν τις φάρσες και να ξαναγράφουν την ιστορία. Ενώ βρήκαμε τρόπους για να αποκαλύψουμε τις περισσότερες φρικιαστικές εικόνες, υπάρχει μια τεχνολογική εξέλιξη που επιταχύνεται τόσο γρήγορα και ίσως σύντομα δεν ξέρουμε πλέον πώς να πούμε τι είναι πραγματικό και τι είναι ψεύτικο.

Οι Deepfakes αλλάζουν όλα όσα πιστεύαμε ότι είναι δυνατά από την άποψη των βίντεο. Εδώ είναι όλα όσα πρέπει να ξέρετε γι 'αυτά ...

Τι είναι οι Deepfakes;

Ο όρος deepfakes προέρχεται από ένα συνδυασμό των λέξεων "deep learning" και "fake". Αυτό οφείλεται στο γεγονός ότι το λογισμικό τεχνητής νοημοσύνης που έχει εκπαιδευτεί στη σύνθεση εικόνας και βίντεο δημιουργεί αυτά τα βίντεο. Αυτό το AI μπορεί να επιθέσει το πρόσωπο ενός θέματος (την πηγή) σε ένα βίντεο άλλου (ο στόχος). Οι πιο προηγμένες μορφές της τεχνολογίας μπορούν να συνθέσουν ένα εντελώς νέο μοντέλο ενός ατόμου χρησιμοποιώντας τις χειρονομίες του προσώπου της πηγής και εικόνες ή βίντεο του θέματος που θέλουν να μιμηθούν.

Η τεχνολογία μπορεί να κάνει μοντέλα προσώπου βασισμένα σε περιορισμένα οπτικά δεδομένα, όπως μία εικόνα. Ωστόσο, τα περισσότερα δεδομένα που πρέπει να αποδώσει ο ΑΠ είναι τα πιο ρεαλιστικά αποτελέσματα.

Αυτός είναι ο λόγος για τον οποίο οι πολιτικοί και οι διασημότητες είναι τόσο εύκολοι στόχοι για τους deepfakes, καθώς υπάρχουν τόσο πολλά οπτικά δεδομένα διαθέσιμα στο διαδίκτυο που μπορεί να χρησιμοποιήσει το λογισμικό. Δεδομένου ότι το λογισμικό βαθιάς ψευδαίσθησης είναι διαθέσιμο σε πλατφόρμες ανοιχτού κώδικα, οι άνθρωποι στο διαδίκτυο βελτιώνουν συνεχώς και αξιοποιούν το έργο άλλων.

Η αρχή της τεχνολογίας Deepfake AI

Η τεχνολογία πίσω από το deepfakes αναπτύχθηκε για πολλούς σκοπούς. Όπως το Photoshop, το λογισμικό έχει επαγγελματικές, ψυχαγωγικές και ψυχαγωγικές χρήσεις. Και ακριβώς όπως το Photoshop, παρά το γεγονός ότι ο δημιουργός δεν έχει κακόβουλες προθέσεις στη δημιουργία του λογισμικού, αυτό δεν εμπόδισε τους ανθρώπους να το χρησιμοποιήσουν για κακόβουλους σκοπούς.

Η τεχνολογία αντικατάστασης προσώπου αρχικά χρησιμοποιήθηκε κυρίως στη βιομηχανία κινηματογράφου. Μια από τις πιο διάσημες περιπτώσεις είναι το 2016 ταινία Rogue One: Μια ιστορία Star Wars. Στην ταινία, οι κινηματογραφιστές χρησιμοποίησαν τεχνολογία αντιγραφής και τεχνολογίας βίντεο για να αναδημιουργήσουν τον χαρακτήρα Grand Moff Tarkin. Μια νεότερη εκδοχή της πριγκίπισσας Leia δημιουργήθηκε επίσης στην ταινία. Και στις δύο περιπτώσεις, μοντέλα των προσώπων των πρωτότυπων ηθοποιών υπερέβησαν τους εθελοντές.

Εφαρμογές όπως το Snapchat χρησιμοποιούν επίσης τεχνολογία αντικατάστασης προσώπου για τη δημιουργία φίλτρων διασκέδασης για τους χρήστες. Οι προγραμματιστές πίσω από αυτές τις εφαρμογές βελτιώνουν συνεχώς την ανίχνευση και τον εντοπισμό προσώπου για την αποτελεσματικότερη εφαρμογή αυτών των φίλτρων.

Εν τω μεταξύ, άλλοι έχουν αναπτύξει εργαλεία σύνθεσης βίντεο για τη δημιουργία ολογραμμάτων για εκπαιδευτικούς σκοπούς. Για παράδειγμα, ένα έργο ανέπτυξε λογισμικό βίντεο και σύνθεσης προσώπου έτσι ώστε η μαρτυρία των επιζώντων του Ολοκαυτώματος να μπορεί να παρουσιαστεί ως διαδραστικά ολογράμματα σε ένα μουσείο.

Γιατί οι Deepfakes κάνουν τους ανθρώπους νευρικούς

Όταν οι άνθρωποι συνειδητοποίησαν ότι οι απατεώνες και οι άνθρωποι που παίζουν φάρσες χρησιμοποίησαν το Photoshop για να δημιουργήσουν ψεύτικες εικόνες, έπρεπε να γίνουμε πιο σκεπτικοί σχετικά με αυτό που θεωρήσαμε απόδειξη. Ευτυχώς, υπήρχαν πολλοί τρόποι για να εντοπιστεί αν μια εικόνα ήταν ψεύτικη, ακόμη και με γυμνό μάτι.

Επιπλέον, η δημιουργία μιας πειστικής εικόνας στο Photoshop είναι σχετικά έντονη. Όχι μόνο κάποιος μπορεί να χαστούκι μαζί δύο εικόνες και να τους κάνει να φαίνονται ρεαλιστικές.

Αλλά οι βαθύτατοι είναι διαφορετικοί. Η μηχανική μάθηση κάνει τη ζωή ευκολότερη 4 Αλγόριθμοι μηχανικής μάθησης που διαμορφώνουν τη ζωή σας 4 Αλγόριθμοι μηχανικής μάθησης που διαμορφώνουν τη ζωή σας Μπορεί να μην το συνειδητοποιήσετε, αλλά η μηχανική μάθηση είναι ήδη γύρω σας και μπορεί να ασκήσει έναν εκπληκτικό βαθμό επιρροής στη ζωή σας. Μη με πιστέψεις; Ίσως να εκπλαγείτε. Διαβάστε περισσότερα, αλλά σε αυτή την περίπτωση, κάνει πολύ πιο εύκολη την αποτυχία. Πρώτον, το λογισμικό είναι ευρέως και ελεύθερα διαθέσιμο. Το FakeApp, για παράδειγμα, είναι μια δημοφιλής επιλογή για τη δημιουργία deepfakes. Δεν χρειάζεστε προηγμένες δεξιότητες για να εφαρμόσετε μια ανταλλαγή προσώπου, το λογισμικό θα το κάνει για σας.

Από τη στιγμή που η AI και η βαθιά εκμάθηση συμβάλλουν στη δημιουργία βαθιών, η τεχνολογία βελτιώνεται και γίνεται πιο πειστική με ανησυχητικό ρυθμό. Δεν θα περάσει πολύς καιρός πριν αυτές οι αλλαγές δεν είναι ορατές με γυμνό μάτι.

Σε έναν κόσμο γεμάτο ψεύτικες ειδήσεις, οι πειστικές βαθιές φασαρίες θα μπορούσαν να αποδειχθούν χαοτική δύναμη ενάντια σε αυτό που πιστεύουμε ότι είναι αλήθεια.

Η άνοδος των βαθιων ψαριών συμβαίνει επίσης σε μια εποχή που η φωνητική σύνθεση του AI προχωρά γρήγορα γρήγορα. Η AI όχι μόνο μπορεί να παράγει ψεύτικα βίντεο, αλλά μπορεί επίσης να παράγει φωνητικά μοντέλα για τους ανθρώπους.

Αυτό σημαίνει ότι δεν θα χρειαστείτε έναν παραληπτή που να το κάνει να ακούγεται σαν ένας πολιτικός να κάνει μια εξωφρενική δήλωση. Μπορείτε να εκπαιδεύσετε AI για να μιμηθούν τη φωνή τους αντ 'αυτού.

Οι συνέπειες των Deepfakes

Οι άνθρωποι χρησιμοποιούν ήδη βαθύτατα για κακόβουλους σκοπούς. Οι άνθρωποι χρησιμοποίησαν συχνά το FakeApp για να δημιουργήσουν ψεύτικα βίντεο των ηθοποιών διασημοτήτων που ασχολούνται με περιεχόμενο για ενήλικες.

Ο Gal Gadot, η Daisy Ridley και η Emma Watson είναι μερικές μόνο από τις ηθοποιούς που απευθύνονται σε ψεύτικα βίντεο ενηλίκων. Αυτοί οι βαθιές φαντασμάτων ανταλλάσσουν τα πρόσωπα των ηθοποιών σε βίντεο από αστέρια ταινιών ενηλίκων.

Ενώ διάφορες πλατφόρμες και ορισμένοι ιστότοποι για ενήλικες έχουν απαγορεύσει αυτούς τους τύπους βίντεο, εμφανίζονται περισσότερες φορές κάθε μέρα. Στην πραγματικότητα, μερικοί ιστότοποι δημιουργούν συγκεκριμένα βίντεο ενηλίκων βαθιάς φαντασίας με βάση τα αιτήματα των χρηστών.

Στις περισσότερες χώρες, κανένας νόμος δεν ασχολείται ακόμα με αυτό το είδος περιεχομένου, καθιστώντας δύσκολο τον έλεγχο.

Ενώ είμαστε ακόμα πολύ μακριά από τη δυστοπία που κυβερνιέται από παραπληροφόρηση και ψευδείς ενδείξεις βίντεο που βλέπουμε σε ταινίες όπως το The Running Man, είμαστε ήδη πολύ εξοικειωμένοι με τις επιπτώσεις των ψεύτικων ειδήσεων. Τι είναι τα ψεύτικα νέα και πώς τα εξαπλώνεται Γρήγορα? Τι είναι τα ψεύτικα νέα και πώς διασκορπίζεται τόσο γρήγορα; Τα ψεύτικα νέα μαστίζουν το Διαδίκτυο και το χειρότερο είναι ότι οι περισσότεροι άνθρωποι δεν μπορούν να το αναγνωρίσουν όταν το δουν. Διαβάστε περισσότερα .

Deepfakes μπορεί να είναι ένα ισχυρό εργαλείο για τη διάδοση της παραπληροφόρησης. Κανείς δεν έχει εγκλωβιστεί για ένα έγκλημα ή έχει παραποιήσει το θάνατό του χρησιμοποιώντας βαθύφους, αλλά τι γίνεται όταν γίνεται δύσκολο να πεις ποια βίντεο είναι πραγματικά αληθινά;

Οι συνέπειες των βαρελιών που χρησιμοποιούνται για πολιτικούς σκοπούς είναι δύο φορές. Πρώτον, κάνει τα ψεύτικα νέα πολύ ευκολότερα να εξαπλωθούν. Τα βίντεο είναι πιο πιθανό από το κείμενο ή τις εικόνες να πείσουν τους ανθρώπους ότι κάτι πραγματικά πλασματικό συνέβη.

Οι άνθρωποι πιστεύουν ήδη στους τίτλους από ψεύτικες ιστοσελίδες χωρίς στοιχεία που να στηρίζουν την ιστορία τους. Ξαφνικά, οι ψεύτικες ιστορίες θα έχουν "αποδεικτικά στοιχεία" που δείχνουν ότι οι πολιτικοί ομολογούν σε παρατυπίες ή κάνουν εξωφρενικές δηλώσεις.

Από την άλλη πλευρά, οι βαθιές φάρσες θα μπορούσαν επίσης να ενθαρρύνουν τους πολιτικούς όταν αποφεύγουν τη λογοδοσία. Μπορούσαν πάντα να ισχυρίζονται ότι η ηχογράφηση ή η ηχογράφηση είναι πραγματικά βαθιά.

Πώς Αντιμετωπίζουμε Deepfakes;

Ενώ πολλές εταιρείες τεχνολογίας λαμβάνουν το χρόνο τους για να χαλιναγωγήσουν βαθύτατα, μια ποικιλία ανθρώπων αναπτύσσει εργαλεία για την καταπολέμηση κακόβουλων πλαστών βίντεο. AI μπορεί να καταπολεμήσει τους χάκερ και το έγκλημα στον κυβερνοχώρο Πώς η τεχνητή νοημοσύνη θα καταπολεμήσει τους σύγχρονους χάκερ και το έγκλημα στον κυβερνοχώρο Πώς η τεχνητή νοημοσύνη θα καταπολεμήσει τους σύγχρονους χάκερ και το έγκλημα στον κυβερνοχώρο Με την έλλειψη ταλέντου στον κυβερνοχώρο και την επιδημία εγκληματικότητας στον κυβερνοχώρο, Με τεχνητή νοημοσύνη! Διαβάστε περισσότερα, αλλά είναι επίσης χρήσιμο για την ανίχνευση της παραβίασης του AI σε βίντεο.

Το Ίδρυμα AI δημιούργησε ένα plugin του προγράμματος περιήγησης που ονομάζεται Reality Defender για να βοηθήσει στην ανίχνευση περιεχομένου deepfake online. Ένα άλλο plugin, το SurfSafe, εκτελεί επίσης παρόμοιους ελέγχους. Και τα δύο αυτά εργαλεία έχουν στόχο να βοηθήσουν τους χρήστες του Διαδικτύου να διακρίνουν το γεγονός από τη μυθοπλασία.

Ιστοσελίδες ελέγχου ταυτότητας, όπως Snopes, επεκτάθηκαν επίσης στην κλήση βίντεο με βίντεο. Αλλά δεν έχουν ακόμη τα εργαλεία για την αυτόματη ανίχνευση των βαθιων ψαριών.

Ακόμα και το αμερικανικό υπουργείο Άμυνας επενδύσει σε λογισμικό για να ανιχνεύσει βαθύφους. Σε τελική ανάλυση, τι θα συνέβαινε εάν εμφανίστηκε ηλεκτρονικά ένα πειστικό βίντεο παγκόσμιου ηγέτη, που κήρυξε πόλεμο ή πυροβολισμό εναντίον άλλης χώρας; Οι κυβερνήσεις χρειάζονται εργαλεία για την ταχεία επαλήθευση της νομιμότητας ενός βίντεο.

Ακούσιες συνέπειες της μηχανικής μάθησης

Δεν υπάρχει αμφιβολία ότι η τεχνολογία AI και η βαθιά μηχανική μάθηση βελτιώνουν τη ζωή μας με πολλούς τρόπους. Αλλά η τεχνολογία έχει επίσης απρόβλεπτες συνέπειες.

Ενώ τα κακά δεδομένα αποτελούν σημαντικό εμπόδιο στους αλγόριθμους μηχανικής μάθησης, το ανθρώπινο στοιχείο διαδραματίζει επίσης κάποιο ρόλο. Είναι δύσκολο να προβλέψουμε πώς οι άνθρωποι μπορούν να χρησιμοποιήσουν συγκεκριμένη τεχνολογία για κακόβουλους σκοπούς. Μπορείτε να μάθετε περισσότερα σχετικά με την εκμάθηση μηχανών και τα λάθη του παρελθόντος στον οδηγό μας σχετικά με τους αλγόριθμους μηχανικής μάθησης και γιατί πάμε στραβά Τι είναι οι Αλγόριθμοι Μηχανικής Μάθησης; Εδώ είναι πώς λειτουργούν ποιοι είναι οι αλγόριθμοι μάθησης μηχανών; Εδώ είναι πώς λειτουργούν Οι αλγόριθμοι μηχανικής μάθησης έχουν σχεδιαστεί για να κάνουν τη ζωή ευκολότερη και να βελτιώνουν τα συστήματα, αλλά μπορούν να πάνε στραβά με κακές συνέπειες. Διαβάστε περισσότερα . Και ενώ μπορεί να δυσκολεύεστε να εντοπίσετε τους βαθύφθαλμους, μπορείτε να αποφύγετε ψεύτικα νέα με έξυπνες εφαρμογές ειδήσεων 5 Εφαρμογές έξυπνων ειδήσεων για να σας βοηθήσουμε να αποφύγετε τα ψεύτικα νέα με πιο αξιόπιστες αναφορές 5 Εφαρμογές έξυπνων ειδήσεων για να σας βοηθήσουμε να αποφύγετε τα ψεύτικα νέα με πιο αξιόπιστες αναφορές Θέλετε να ξεφύγετε από ψεύτικα νέα; Μπορείτε να χρησιμοποιήσετε αυτές τις έξυπνες εφαρμογές για να λάβετε αντίγραφα των στοιχείων που έχουν ελεγχθεί και ουδέτερες. Διαβάστε περισσότερα .

Εξερευνήστε περισσότερα σχετικά με: Τεχνητή Νοημοσύνη, Deepfakes, Hoaxes, .