Γράφει η Ιωάννα Τσακαλάκου
Η τεχνητή νοημοσύνη (εφεξής ΤΝ) έχει αναδειχθεί σε μια από τις πιο καθοριστικές τεχνολογικές εξελίξεις των τελευταίων ετών, επηρεάζοντας ποικίλους τομείς, από την ιατρική και την βιομηχανία μέχρι τις κοινωνικές επιστήμες. Η δυναμική της να επεξεργάζεται τεράστιους όγκους δεδομένων και να «μαθαίνει» από αυτά την καθιστά πολύτιμο εργαλείο για την ανάπτυξη καινοτόμων εφαρμογών. Ωστόσο, η ίδια αυτή δύναμη μπορεί να αξιοποιηθεί και με αρνητικό τρόπο, καθώς οι hackers και οι εγκληματίες του κυβερνοεγκλήματος έχουν βρει στη ΤΝ ένα νέο σύμμαχο για την ενίσχυση και εξέλιξη των μεθόδων τους. Η αξιοποίηση της ΤΝ για κακόβουλους σκοπούς δημιουργεί μια άνευ προηγουμένου πρόκληση στον τομέα της κυβερνοασφάλειας, με σοβαρές επιπτώσεις για ιδιώτες, οργανισμούς και κράτη.
Μια από τις μορφές κακόβουλης χρήση της ΤΝ αφορά την μέθοδο phishing emails, τα οποία εμφάνιζαν εμφανή γλωσσικά λάθη, γεγονός που τα καθιστούσε εύκολα ανιχνεύσιμα. Ωστόσο, με την χρήση των εξελιγμένων γλωσσικών μοντέλων, οι εγκληματίες μπορούν να δημιουργούν μηνύματα με υψηλό βαθμό εξατομίκευσης, μιμούμενοι το ύφος και την επικοινωνιακή ταυτότητα πραγματικών προσώπων. Άρα, η πιθανότητα εξαπάτησης αυξάνεται σημαντικά, με αποτέλεσμα οι οργανισμοί να βρίσκονται σε συνεχή κίνδυνο.
Επιπλέον, η ανάπτυξη τεχνικών δημιουργία πολυμέσων μέσω ΤΝ, όπως είναι τα deepfakes, έχει ενισχύσει σημαντικά την αποτελεσματικότητα των εγκληματικών πρακτικών με βίντεο και ηχητικών ντοκουμέντων που είναι σχεδόν αδύνατον να διακριθούν από το αυθεντικό υλικό, οι εγκληματίες μπορούν να παραπλανήσουν τα θύματα τους, να εκβιάσουν άτομα ή να διεισδύσουν σε οργανισμούς παρουσιάζοντας πλαστές «αποδείξεις». Το φαινόμενο αυτό δεν περιορίζεται σε μεμονωμένα περιστατικά αλλά μπορεί να έχει εκτεταμένες επιπτώσεις σε επίπεδο πολιτικής σταθερότητας και δημόσιας εμπιστοσύνης.
Ως εκ τούτου, η ΤΝ αξιοποιείται για την δημιουργία κακόβουλου λογισμικού που διαθέτει αυτοπροσαρμοζόμενες δυνατότητες. Ενώ, οι παραδοσιακοί ιοί και trojans είχαν στατικό χαρακτήρα, τα σύγχρονα κακόβουλα λογισμικά που ενσωματώνουν αλγόριθμους μηχανικής μάθησης μπορούν να μεταβάλλουν τον κώδικα τους, μαθαίνοντας από την αλληλεπίδραση τους με τα συστήματα ασφαλείας. Αυτό καθιστά την ανίχνευση τους αρκετά δύσκολη και αυξάνει σημαντικά την αποτελεσματικότητα τους. Επιπλέον, η εμφάνιση adversarial attacks δηλαδή παραποιημένων δεδομένων που παραπλανούν συστήματα ΤΝ ώστε να κάνουν λανθασμένες εκτιμήσεις και δημιουργεί νέους κινδύνους. Παραδείγματος χάριν, συστήματα αναγνώρισης προσώπου ή αυτόνομα οχήματα μπορεί να οδηγηθούν σε λάθος αποφάσεις με σοβαρές συνέπειες για την ασφάλεια.
Συνάμα, οι εξελίξεις αυτές διαμορφώνουν ένα νέο τοπίο όπου η «κούρσα εξοπλισμών» ανάμεσα σε εγκληματίες και ειδικούς κυβερνοασφάλειας είναι διαρκής. Οι αμυντικοί μηχανισμοί οφείλουν να ενσωματώνουν εξίσου προηγμένα εργαλεία ΤΝ για την έγκαιρη ανίχνευση απειλών ενώ η συνεχής προσαρμογή στις νέες τακτικές είναι απαραίτητη. Ωστόσο, η άνιση κατανομή των πόρων δημιουργεί ένα σημαντικό χάσμα, οι μεγάλες επιχειρήσεις μπορούν να επενδύσουν σε εξελιγμένα συστήματα ενώ οι μικρότεροι οργανισμοί συχνά παραμένουν ευάλωτοι. Παράλληλα, εγείρονται νομικά και ηθικά ζητήματα όπως ποιος φέρει την ευθύνη όταν ένας αλγόριθμος αξιοποιείται για εγκληματική δράση;
Για αυτό το λόγο, η αντιμετώπιση του φαινομένου απαιτεί συνδυασμό τεχνολογικών, νομικών και κοινωνικών στρατηγικών. Σε τεχνολογικό επίπεδο, αποτελεί αναγκαία η ανάπτυξη αλγορίθμων με ανθεκτικότητα απέναντι σε adversarial επιθέσεις και η δημιουργία μηχανισμών ανίχνευσης πλαστών δεδομένων. Σε θεσμικό επίπεδο, απαιτούνται κανονιστικά πλαίσια που θα ορίζουν τα όρια και τις ευθύνες στη χρήση ΤΝ, αποτρέποντας την κακόβουλη αξιοποίηση της. Ενώ, σε κοινωνικό επίπεδο, η εκπαίδευση και η ευαισθητοποίηση οργανισμών και πολιτικών αποτελούν κρίσιμες παραμέτρους για την έγκαιρη αναγνώριση πιθανών κινδύνων και η διεθνής συνεργασία αποτελεί απαραίτητη καθώς οι κυβερνοεπιθέσεις υπερβαίνουν τα εθνικά σύνορα.
Αδιαμφισβήτητα, η ΤΝ αποτελεί μια τεχνολογία με τεράστιο μετασχηματιστικό δυναμικό. Παράλληλα, η αυξανόμενη ενσωμάτωση της σε εγκληματικές πρακτικές υπογραμμίζει ότι καμία τεχνολογική πρόοδος δεν είναι εγγενώς ουδέτερη. Αντιθέτως, η χρήση της εξαρτάται από τα κίνητρα και τους σκοπούς των ανθρώπων που την αξιοποιούν. Στο πεδίο του κυβερνοεγκλήματος, η ΤΝ έχει ήδη αποδείξει ότι μπορεί να ενισχύσει την πολυπλοκότητα και την αποτελεσματικότητα των επιθέσεων, δημιουργώντας απειλές που ξεπερνούν τις παραδοσιακές δυνατότητες άμυνας.
Η πραγματικότητα αυτή οδηγεί σε ορισμένα κρίσιμα συμπεράσματα:
- Η ανάγκη για προληπτική ασφάλεια: Η άμυνα απέναντι σε εγκληματικές χρήσεις της ΤΝ δεν μπορεί να είναι αντιδραστική. Για αυτό, απαιτείται μια στρατηγική προληπτικής ανίχνευσης και πρόληψης, μέσω της ανάπτυξης «έξυπνων» συστημάτων που θα μπορούν να αναγνωρίζουν ύποπτα μοτίβα πριν αυτά εξελιχθούν σε πραγματικές επιθέσεις.
- Ο ρόλος της διεθνούς συνεργασίας: Δεδομένου ότι οι κυβερνοεπιθέσεις δεν γνωρίζουν εθνικά σύνορα, μόνο μέσα από διακρατικές συμμαχίες και την ανταλλαγή πληροφοριών μπορεί να υπάρξει αποτελεσματική άμυνα. Το ζήτημα δεν είναι μόνο τεχνολογικό αλλά και γεωπολιτικό.
- Η αναγκαιότητα ενός ισχυρού ρυθμιστικού πλαισίου: Η ΤΝ πρέπει να ενταχθεί σε ένα σαφές νομικό πλαίσιο που θα καθορίζει τα όρια χρήσης της, θα αποδίδει ευθύνες και θα προβλέπει ποινές για κακόβουλες εφαρμογές. Η απουσία κανονισμών αφήνει περιθώρια εκμετάλλευσης και ανομίας.
- Η διάσταση της εκπαίδευσης: Ο ανθρώπινος παράγοντας παραμένει ο πιο αδύναμος κρίκος στην αλυσίδα της ασφάλειας. Έτσι, η συστηματική εκπαίδευση εργαζομένων και πολιτών για την αναγνώριση πιθανών απειλών, όπως το phishing και τα deepfakes, αποτελεί αναγκαίο συμπλήρωμα της τεχνολογικής θωράκισης.
- Ηθικές και κοινωνικές προεκτάσεις: Η χρήση της ΤΝ στην εγκληματικότητα δεν επηρεάζει μόνο την ασφάλεια των δεδομένων αλλά και τη δημόσια εμπιστοσύνη στους θεσμούς. Όταν deepfakes ή αυτοματοποιημένες παραπληροφορήσεις πλήττουν τη δημοκρατική διαδικασία, οι συνέπειες ξεπερνούν τα στενά όρια της κυβερνοασφάλειας και αφορούν την ίδια τη συνοχή των κοινωνιών.
Συμπερασματικά, η σχέση ανάμεσα στην ΤΝ και την εγκληματικότητα μπορεί να χαρακτηριστεί ως ένα «παιχνίδι μηδενικού αθροίσματος», όπου η καινοτομία των εγκληματιών οδηγεί σε αντίστοιχες καινοτομίες στην άμυνα. Άρα, η πρόκληση του μέλλοντος δεν είναι να σταματήσει η πρόοδος της ΤΝ, κάτι ανέφικτο και ανεπιθύμητο, αλλά να εξασφαλιστεί ότι η εξέλιξή της θα συνοδεύεται από μηχανισμούς ελέγχου, υπευθυνότητας και κοινωνικής ωφέλειας. Ως εκ τούτου, η επόμενη δεκαετία θα είναι καθοριστική για το αν η ΤΝ θα λειτουργήσει ως παράγοντας ασφάλειας και προόδου ή ως εργαλείο εντεινόμενης εγκληματικότητας και κοινωνικής αποσταθεροποίησης.
Πηγές
Brundage, M., Avin, S., Clark, J., et al. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.
Chesney, R., & Citron, D. K. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, 107(6), 1753–1819.
Goodfellow, I. J., Shlens, J., & Szegedy, C. (2015). Explaining and Harnessing Adversarial Examples.
Liu, Y., Vorobeychik, Y., & Li, B. (2021). Adversarial Machine Learning: A Literature Review. Journal of Artificial Intelligence Research, 70, 335–387.
Nguyen, T. T., Pathirana, P. N., Ding, M., & Seneviratne, A. (2021). Privacy-Preserving Artificial Intelligence: Threats and Solutions. IEEE Communications Surveys & Tutorials, 23(4), 2131–2161.
The post AI και εγκληματικότητα: Πώς επιτήδειοι αξιοποιούν την τεχνητή νοημοσύνη appeared first on CSIi – Cyber Security International Institute.
Πηγή : https://www.csii.gr/