Οι απάτες βιντεοκλήσεων AI αυξάνονται και έτσι λειτουργούν

Η άνοδος της τεχνητής νοημοσύνης είναι εδώ, καλώς ή κακώς. Δυστυχώς, ανάμεσα στους μεγαλύτερους νικητές εδώ είναι οι απατεώνες και οι μικροπωλητές παραπληροφόρησης. Η δημιουργία βίντεο με τεχνητή νοημοσύνη απέχει πολύ από το να είναι τέλεια, αλλά έχει γίνει αρκετά καλή ώστε να είναι δυνατή η πλαστοπροσωπία ενός άλλου ατόμου.

Το private internet access PIA -VPN- Eχει τις καλύτερες τιμές στην Ελλάδα 2 χρόνια+ 4 μήνες  δωρεάν με 1.85€/μήνα

Ακολουθήστε μας στο Facebook

Διαβάστε επίσης :Καλύτερες εφαρμογές βιντεοκλήσεων για iPhone

Πώς λειτουργούν οι απάτες βιντεοκλήσεων AI;

Η υπόθεση είναι απλή: χρησιμοποιήστε την τεχνολογία deepfake για να υποδυθείτε κάποιον και στη συνέχεια χρησιμοποιήστε την για να αποκτήσετε κάτι από εσάς, συνήθως ευαίσθητες οικονομικές πληροφορίες.

Αυτά είναι συχνά υποσύνολα ερωτικών απατών που έχουν σχεδιαστεί για να στοχεύουν άτομα που αναζητούν αγάπη σε ιστότοπους γνωριμιών και να τα εκμεταλλεύονται. Αλλά μερικές φορές μπορούν να χρησιμοποιηθούν με άλλους τρόπους, όπως να υποδύεστε μια γνωστή διασημότητα ή πολιτική προσωπικότητα ή περιστασιακά ακόμη και κάποιον που ίσως γνωρίζετε πραγματικά (όπως το αφεντικό σας στη δουλειά). Στην τελευταία περίπτωση, συχνά χρησιμοποιούν έναν πλαστό αριθμό τηλεφώνου για να πουλήσουν καλύτερα την ψευδαίσθηση.

Διαβάστε αυτό: Deepfake πορνό: Θησαυρίζει η βιομηχανία της πορνογραφίας 

Τι είναι το Deepfake;

Τα Deepfakes είναι μια συντομογραφία για οποιαδήποτε εικόνα ή βίντεο που έχει δημιουργηθεί με AI και έχει σχεδιαστεί για να μιμείται μια υπάρχουσα φιγούρα, συνήθως για σκοπούς εξαπάτησης. Η τεχνολογία Deepfake χρησιμοποιείται για μη κακόβουλους σκοπούς—κυρίως μιμίδια και ψυχαγωγία—αλλά τώρα, είναι το μέσο για αυτές τις απάτες βιντεοκλήσεων.

Ποιος είναι ο στόχος του απατεώνα;

Με λίγα λόγια; Πληροφορίες. Αυτό μπορεί να πάρει διάφορες μορφές, αλλά στο τέλος της ημέρας, οι περισσότερες απάτες τεχνητής νοημοσύνης θέλουν το ίδιο, ακόμα κι αν οι συνέπειες ποικίλλουν.

Στο χαμηλό άκρο του φάσματος, ο απατεώνας μπορεί να προσπαθήσει να σας εξαπατήσει ώστε να του δώσετε ευαίσθητες πληροφορίες που σχετίζονται, για παράδειγμα, με την εταιρεία στην οποία εργάζεστε. Μπορεί να έχετε στοιχεία πελατών ή συμβόλαια που θα μπορούσαν να πουληθούν σε μια αντίπαλη επιχείρηση. Αυτό είναι ίσως το καλύτερο σενάριο σας, αλλά θα μπορούσε να καταστρέψει την εταιρεία σας.

Στη χειρότερη περίπτωση, θα μπορούσαν να πείσουν τα τραπεζικά σας στοιχεία ή τον αριθμό κοινωνικής ασφάλισης, συχνά με το πρόσχημα ενός εραστή που χρειάζεται οικονομική βοήθεια ή ακόμα και ενός συνεντευκτή για μια πολλά υποσχόμενη νέα δουλειά στην οποία μπορεί να έχετε κάνει αίτηση ή να μην έχετε κάνει αίτηση.

Σε κάθε περίπτωση, από τη στιγμή που ο απατεώνας συγκεντρώσει τις πληροφορίες και η ζημιά έχει ουσιαστικά γίνει, γίνεται ένας παράγοντας για το πόσο γρήγορα καταλαβαίνετε την εξαπάτηση και μετριάζετε τη ζημιά.

Πώς να εντοπίσετε μια απάτη βιντεοκλήσεων AI

Επί του παρόντος, τα deepfakes που χρησιμοποιούνται στις περισσότερες απάτες βιντεοκλήσεων AI είναι ασυνεπή. Συχνά έχουν οπτικές δυσλειτουργίες και παραξενιές που κάνουν το βίντεο ή τη φωνή να φαίνεται ψεύτικη.

Αναζητήστε πράγματα όπως εκφράσεις προσώπου που δεν ταιριάζουν απόλυτα, το φόντο του βίντεο αλλάζει περίεργα, η φωνή να ακούγεται κάπως επίπεδη κ.λπ. Οι τρέχουσες τεχνολογίες συχνά αντιμετωπίζουν δυσκολίες στην παρακολούθηση του στόχου, εάν σηκωθούν όρθιοι ή σηκώσουν τα χέρια τους πάνω από το κεφάλι τους (εκπαιδεύονται κυρίως σε λήψεις κεφαλιού και βίντεο με “επάνω στους ώμους”).

Ωστόσο, η τεχνολογία AI βελτιώνεται ραγδαία. Αν και είναι καλό να αναγνωρίζουμε τα ελαττώματα στην τρέχουσα τεχνητή νοημοσύνη, το να βασιζόμαστε σε αυτές τις δεξιότητες στο μεγάλο σχέδιο των πραγμάτων είναι δυνητικά επικίνδυνο. Αυτά τα deepfakes είναι ήδη πολλές φορές καλύτερα από πέρυσι και πλησιάζουμε γρήγορα όταν μπορεί να γίνουν σχεδόν εντελώς αδιάκριτα από το πραγματικό βίντεο ή ήχο. Και ενώ υπάρχουν εργαλεία ανίχνευσης βίντεο τεχνητής νοημοσύνης, δεν μπορείτε να βασιστείτε σε αυτά καθώς η τεχνολογία κινείται τόσο γρήγορα.

Πώς να προστατευτείτε ξανά από απάτες Deepfake

Αντί να προσπαθείτε να εντοπίσετε υλικό που δημιουργείται από την τεχνητή νοημοσύνη, προσπαθήστε να ακολουθήσετε μια πιο προληπτική προσέγγιση στην ασφάλεια. Οι περισσότερες μέθοδοι ασφάλειας πληροφοριών που λειτουργούσαν στο παρελθόν θα λειτουργούν τώρα.

Επαληθεύστε την ταυτότητα του καλούντος

Ομάδες καλούν
Microsoft

Αντί να προσπαθείτε να μετρήσετε κάποιον με βάση το πρόσωπο ή τη φωνή του, χρησιμοποιήστε λειτουργίες που είναι πιο δύσκολο να παραποιηθούν.

Βεβαιωθείτε ότι η κλήση προέρχεται από τον σωστό αριθμό τηλεφώνου ή όνομα λογαριασμού. Για εφαρμογές όπως το Teams ή το Zoom, ελέγξτε το email που έστειλε τον κωδικό δωματίου για να δείτε αν ταιριάζει με τα διαπιστευτήρια των καλούντων.

Εάν εξακολουθείτε να ανησυχείτε, ζητήστε τους να επαληθεύσουν την ταυτότητά τους με άλλα μέσα. Για παράδειγμα, δοκιμάστε να τους στείλετε μήνυμα, “Είστε σε αυτήν την κλήση Zoom μαζί μου αυτήν τη στιγμή;” ή κάτι παρόμοιο.

Θα μπορούσατε ακόμη και να προσπαθήσετε να εμπλακείτε σε κουβέντες. Οι απατεώνες συχνά αναστατώνονται όταν αναγκάζονται να πάνε “εκτός σεναρίου” και αν υποδύονται κάποιον που πραγματικά γνωρίζετε, πιθανότατα θα δυσκολευτούν να απαντήσουν σε ερωτήσεις όπως “Πώς τα πάει ο Τζίμι; Δεν τον έχω δει από τότε που συνεχίσαμε αυτό ψάρεμα πριν από λίγο.”, ειδικά αν αναμείξετε ψευδείς λεπτομέρειες για να τους σκοντάψετε.

Τέλος, εάν πρόκειται για κάποιον με τον οποίο μιλάτε πολύ, σκεφτείτε να επαναλάβετε την προστασία του παιδικού “ξένου κινδύνου” ορίζοντας έναν κωδικό πρόσβασης. Εάν και οι δύο ξέρετε να πείτε “Marzipan” στην αρχή της συνομιλίας ή κάτι τέτοιο, είναι δύσκολο να το προσποιήσετε.

Μην τους δίνετε ευαίσθητες πληροφορίες

Φυσικά, η καλύτερη προστασία είναι να κρατάτε όλες τις σημαντικές πληροφορίες κοντά στο γιλέκο σας. Κανείς δεν πρέπει να ζητά τα τραπεζικά σας στοιχεία ή τον αριθμό κοινωνικής ασφάλισης φωναχτά σε μια κλήση (και δεν πρέπει ποτέ να τα κοινοποιείτε στο διαδίκτυο). Και αν βιαστούν ή σας πιέσουν να το κάνετε, αυτός είναι ακόμη περισσότερος λόγος για να κλείσετε.

Αυτές οι πληροφορίες θα πρέπει να παρέχονται μόνο χρησιμοποιώντας επίσημη τεκμηρίωση ή μια μέθοδο που σας δίνει περισσότερο χρόνο για να επαληθεύσετε τη νομιμότητα της πηγής.

Αν κάποιος προσπαθήσει να σας ανακατευθύνει σε ένα έγγραφο Google ή σε PDF συνδέοντάς το σε μια συνομιλία κειμένου σε μια κλήση Zoom ή Teams, ζητήστε του να το στείλει από το email της εργασίας του. Στη συνέχεια, αφιερώστε λίγο χρόνο για να το δείτε και να επαληθεύσετε ότι αυτή είναι μια νόμιμη διεύθυνση ηλεκτρονικού ταχυδρομείου προτού καν κάνετε κλικ στον σύνδεσμο, πολύ λιγότερο για να εισαγάγετε τις πληροφορίες.

Διαβάστε επίσης :

Η καλύτερη προστασία από τους απατεώνες είναι πάντα να τακτοποιείτε τα πράγματα ώστε να μην βιάζεστε και να αφιερώνετε χρόνο για να σκεφτείτε πραγματικά τι συμβαίνει πριν απαντήσετε.

Αφήστε ένα Σχόλιο

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Κύλιση στην κορυφή