Το κοινό είχε προειδοποιηθεί πριν γίνει αυτή η παράσταση. Αργότερα έρευνα έδειξε ότι οι θεατές είχαν διαφορετικές ερμηνείες. Μερικοί άνθρωποι έχουν εκφράσει την έκπληξή τους για την πραγματικότητα, ενώ άλλοι παρατήρησαν ότι η πραγματική Kim Joo-Ha κινδυνεύει να χάσει τη δουλειά της.
Η MBN ανακοίνωσε ότι θα συνεχίσει να χρησιμοποιεί τεχνολογία deepfake σε ορισμένες έκτακτες ειδήσεις. Η νοτιοκορεατική Moneybrain, μια από τις εταιρείες που είναι σε θέση να παράγει αυτήν την τεχνολογία, ανακοίνωσε ότι έχει κάνει επαφές για νέες ευκαιρίες συνεργασίας στην Κίνα και τις Ηνωμένες Πολιτείες.
Όταν οι περισσότεροι άνθρωποι σκέφτονται την τεχνολογία deepfake, έρχονται στο μυαλό βίντεο με διάσημα ονόματα. Την περασμένη εβδομάδα, ένα ψεύτικο βίντεο με ένα αντίγραφο του Τομ Κρουζ έγινε πρωτοσέλιδο σε όλο τον κόσμο μετά τη δημοσίευσή του στην εφαρμογή TikTok.
Παρά την αρνητική σημασία του κοινού ονόματος deepfake (οι άνθρωποι δεν θέλουν να συγχέονται με τη λέξη fake), αυτή η τεχνολογία χρησιμοποιείται όλο και περισσότερο για εμπορικούς σκοπούς.
class = “medyanet-inline-adv”>
“Αυτό είναι το μέλλον της παραγωγής περιεχομένου”
Αυτή η τεχνολογία, που ονομάζεται «βίντεο που παράγονται από τεχνητή νοημοσύνη» ή «συνθετικά μέσα» στη γλώσσα της βιομηχανίας, προσελκύει μεγάλη προσοχή στους τομείς της ενημέρωσης, της ψυχαγωγίας και της εκπαίδευσης. Αυτό οφείλεται επίσης στη διαρκώς αυξανόμενη ανάπτυξη της τεχνολογίας.
Η Synthesia με έδρα το Λονδίνο διαθέτει στην αγορά αυτή την τεχνολογία για χρήση σε βίντεο εσωτερικής εκπαίδευσης.
«Αυτό είναι το μέλλον της παραγωγής περιεχομένου», λέει ο Victor Riparbelli, συνιδρυτής της εταιρείας.
Στο σύστημα της Synthesia, υπάρχουν διαφορετικές επιλογές avatar και όταν γράφετε το μήνυμα που θέλετε να πουν, μπορείτε να λάβετε απάντηση.
Ο Riparbelli λέει ότι με αυτόν τον τρόπο, οι παγκόσμιες εταιρείες μπορούν πολύ εύκολα να προετοιμάσουν βίντεο σε διαφορετικές γλώσσες που θα χρησιμοποιηθούν στην εκπαίδευση για την εταιρεία:
“Ας υποθέσουμε ότι έχετε 3.000 εργάτες αποθήκης στη Βόρεια Αμερική. Μερικοί από αυτούς μιλούν αγγλικά, αλλά άλλοι μιλούν καλύτερα ισπανικά. Εάν θέλετε να επικοινωνήσετε μαζί τους για πληροφορίες, δεν θα ήταν πολύ χρήσιμο να βάλετε ένα έγγραφο pdf τεσσάρων σελίδων μπροστά από Ένα βίντεο 3 λεπτών στα αγγλικά και τα ισπανικά θα ήταν πιο αποτελεσματικό.
«Αν έπρεπε να τραβήξετε καθένα από αυτά τα βίντεο, θα ήταν μια πρόκληση από άποψη κόστους και φόρτου εργασίας. Τώρα μπορούμε να το κάνουμε αυτό ανέξοδα και στον χρόνο που χρειάζεται για να γράψουμε το κείμενο. Αυτό δείχνει τον τρόπο με τον οποίο χρησιμοποιείται η τεχνολογία σήμερα. “
class = “medyanet-inline-adv”>
Ωστόσο, ο Chad Steelberg, διευθυντής της Veritone, μιας εταιρείας τεχνολογίας τεχνητής νοημοσύνης, σημειώνει ότι οι εταιρείες που θα επενδύσουν για νόμιμη χρήση έχουν επίσης αποσυρθεί λόγω των φόβων για κακόβουλη χρήση του deepfake.
Δηλώνοντας ότι το deepfake έχει αρνητική χροιά στον κλάδο των επενδύσεων κεφαλαίου, ο Steelberg είπε: «Ενώ αυτές οι εταιρείες και οι επενδυτές τους εμπόδισαν να χρησιμοποιήσουν αυτήν την τεχνολογία, βλέπουμε ότι αυτή η αντίληψη αρχίζει να καταρρέει».
Ο Mike Papas, διευθυντής της Modulate, μιας άλλης εταιρείας τεχνολογίας τεχνητής νοημοσύνης, επισημαίνει ότι γίνονται μεγάλες συζητήσεις για το deepfake και την ηθική, και ο κόσμος το σκέφτεται.
class = “medyanet-inline-adv”>
Ο Παπάς λέει ότι η εμπιστοσύνη των επενδυτών έχει αυξηθεί με την εργασία για την ηθική χρήση της τεχνολογίας.
«Τι να κάνουμε με το Deepfake; “
Η καθηγήτρια Νομικής Lilian Edwards, ειδικός στην τεχνολογία deepfake, επισημαίνει μια άλλη σημαντική πτυχή του θέματος. Σε ποιον ανήκει τα δικαιώματα των βίντεο;
Ο Έντουαρντς αναφέρει αναλυτικά την αποφασιστικότητά του:
“Εάν ο ηθοποιός Steve McQueen ή ο σταρ της ραπ Tupac χρησιμοποιήθηκαν σε ένα βίντεο όπως αυτό, υπήρξε κάποια συζήτηση για το αν η οικογένεια δικαιούται εισόδημα. Διαφέρει από χώρα σε χώρα. προς το παρόν.”
class = “medyanet-inline-adv”>
Η Deborah Johnson, καθηγήτρια ηθικής στο Πανεπιστήμιο της Βιρτζίνια, ρώτησε πρόσφατα: «Τι να κάνουμε με το Deepfake; Έγραψε ένα βιβλίο που φέρει το όνομά του.
Σύμφωνα με τον ίδιο, το deepfake είναι μέρος ενός μεγαλύτερου προβλήματος «παραγωγής ψευδών πληροφοριών», που υπονομεύει την εμπιστοσύνη στους θεσμούς και την οπτική εμπειρία.
«Δεν εμπιστευόμαστε πλέον αυτά που βλέπουμε και ακούμε», λέει η Deborah Johnson, προσθέτοντας ότι τα βίντεο που χρησιμοποιούν τεχνολογία deepfake θα πρέπει να χαρακτηρίζονται πλαστά πριν δημοσιευτούν. Με αυτόν τον τρόπο, λέει ο Τζόνσον, το κοινό μπορεί να προστατευτεί.
class = “medyanet-inline-adv”>
Η Sandra Wachter, καθηγήτρια στο Πανεπιστήμιο της Οξφόρδης, εκφράζει επίσης την άποψη ότι η τεχνολογία deepfake πρωτοστατεί:
“Αν παρακολουθήσατε το βίντεο του Tom Cruise την περασμένη εβδομάδα, μπορείτε να δείτε πόσο μακριά έχει φτάσει αυτή η τεχνολογία. Ήταν πολύ πιο ρεαλιστικό από το βίντεο του Ομπάμα πριν από τέσσερα χρόνια.
“Δεν πρέπει να φοβόμαστε πολύ αυτήν την τεχνολογία και θα πρέπει να την προσεγγίζουμε με ισορροπημένο τρόπο. Ναι, θα πρέπει να έχουμε νόμους ενάντια σε κακά και επικίνδυνα πράγματα όπως το πορνό εκδίκησης. Αλλά ούτε πρέπει να επιβάλουμε μια πλήρη απαγόρευση. ενάντια, για παράδειγμα, σατιρικά ή deepfake βίντεο που παράγονται στο πλαίσιο της ελευθερίας της έκφρασης. Χρησιμοποιούνται όλο και περισσότερο για εμπορικούς σκοπούς, γεγονός που δίνει ελπίδα για το μέλλον.”
Ένα από τα παραδείγματα χρήσης βίντεο που παράγονται με τεχνητή νοημοσύνη για εκπαιδευτικούς σκοπούς έγινε πράξη από το Ίδρυμα Γενοκτονίας στο Πανεπιστήμιο της Καλιφόρνια. Το ίδρυμα, το οποίο περιέχει τις μαρτυρίες περισσότερων από 55.000 επιζώντων της γενοκτονίας, συγκεντρώνει επισκέπτες και επιζώντες με τεχνολογία deepfake.
Με το έργο που ονομάζεται Dimensions of Witness, δίνονται άμεσες απαντήσεις στις ερωτήσεις των επισκεπτών από επιζώντες της γενοκτονίας που έχουν ήδη πάρει συνέντευξη.
Ο διευθυντής της Veritone, Chad Steelberg, λέει ότι στο μέλλον, χάρη σε αυτήν την τεχνολογία, τα εγγόνια θα μπορούν να μιλούν με τους αγαπημένους τους και συνεχίζει, «Αυτό είναι επαναστατικό για την εταιρεία».
“Communicator. Hipster-friendly creator. Gamer. Travel expert. Coffee maven.”