Wyścig zbrojeń pomiędzy dostawcami systemów bezpieczeństwa IT a hakerami nasili się wraz z nadejściem nowej broni, jaką jest generatywna sztuczna inteligencja.
Sztuczna inteligencja nie jest niczym nowym, aczkolwiek takie narzędzia, jak ChatGPT czy Google Bard sprawiły, że technologia trafiła pod strzechy i stała się dostępna oraz bardziej zrozumiała dla przeciętnego konsumenta. Niektórzy się z tego powodu cieszą, inni ostrzegają przed nadchodzącym Armagedonem. Najczęściej o generatywnej sztucznej inteligencji dyskutuje się w kontekście utraty miejsc pracy, ale pojawiają się też obawy o wykorzystanie chatbotów przez cyberprzestępców.
Generatywne modele AI mają na celu ułatwienie komunikacji i dostarczenie użytkownikom pomocnych odpowiedzi. Jednak staną się niebezpiecznym narzędziem w rękach hakerów, niosącym ryzyko włamań i naruszeń danych. Jest to jednak broń obosieczna i mogą z niej skorzystać również dostawcy systemów ochrony IT, bądź pracownicy Centrów Operacji Bezpieczeństwa.
Robert Dziemianko
PR & Marketing Manager G DATA Software.
Jeszcze więcej spamu?
Skrzynki pocztowe internautów od lat zasypują e-maile pochodzące od nigeryjskich książąt, handlarzy narkotyków i cudownych medykamentów, bądź promotorów inwestycji, których nie można przegapić. Wprawdzie producenci systemów bezpieczeństwa IT udoskonalają filtry antyspamowe, ale to tylko inspiruje napastników do opracowywania nowych, skuteczniejszych metod przełamywania zabezpieczeń.
W ciągu ostatnich dwóch lat jakość wysyłanych przez cyberprzestępców e-mail wyraźnie się poprawiła. Coraz trudniej znaleźć w nich błędy ortograficzne i gramatyczne czy archaiczne zwroty. Ponadto oszuści sięgają po tematy nawiązujące do bieżących wydarzeń polityczno-społecznych (pandemia, wojna na Ukrainie, rachunki za energię elektryczną). Niestety, ChatGPT i jego kuzyni pozwolą napastnikom tworzyć jeszcze bardziej wiarygodne wiadomości, a co za tym idzie „łowić” dużo więcej ofiar niż do tej pory. Niewykluczone, że spamerzy przestaną uderzać na oślep, bowiem generatywna sztuczna inteligencja pozwoli im kierować e-maile do wyselekcjonowanych osób. Natomiast wiadomości staną się bardziej przekonujące, bowiem będą bazować na ogólnodostępnych informacjach, takich jak posty w mediach społecznościowych. Poza tym zniknie bariera językowa i geograficzna, bowiem chatbot bez trudu wygeneruje informacje w dowolnym języku.
Eksperci z G DATA zwracają uwagę na zagrożenie związane z rozprzestrzenianiem ataków BEC (Business E-mail Compromise). To specyficzny rodzaj spamu, charakteryzujący się tym, iż napastnicy wybierają potencjalną ofiarę. Oszuści najczęściej wysyłają wiadomość w imieniu prezesa firmy, dyrektora finansowego czy innego menedżera wysokiego szczebla do pracownika, zawierającą polecenie przelania środków finansowych na podany numer konta. Jak wynika z danych FBI w 2021 straty amerykańskich przedsiębiorstw, które dały się nabrać na ten przekręt wyniosły 2,4 mld USD i były 51 razy wyższe aniżeli szkody wywołane przez ransomware.
Jednak, aby atak BEC się powiódł napastnicy muszą uzyskać dostęp do systemów komputerowych firmy w celu uzyskania informacji o procedurach, komunikacji, a także danych osobowych personelu. W tym przypadku również mogą liczyć na „wsparcie” ze strony sztucznej inteligencji, która pomoże zautomatyzować ataki, skanować powierzchnie ataków Hakerzy po przejęciu wewnętrznej korespondencji e-mail i niepublicznych raportów, mogą wykorzystać sztuczną inteligencję do generowania przekonujących wiadomość. Na przykład, „Andrzej, fajnie było zjeść obiad z Tobą i Twoją żoną, powinniśmy to powtórzyć. Tymczasem, potrzebuję, żebyś przesłał 10 tysięcy złotych. Pieniądze są niezbędne do rozpoczęcia prac nad projektem, o którym ostatnio dyskutowaliśmy”.
Innym poważnym zagrożeniem jest wykorzystanie chatbotów do naśladowania głosów ludzkich. Jest to wyjątkowo niebezpieczne zjawisko, co pokazał chociażby eksperyment przeprowadzony przez Joan Stern – dziennikarkę The Wall Street Journal. Otóż specjalistyczne oprogramowanie sklonowało jej głos na podstawie 90 minutowego nagrania. Sztuczny głos Joan Stern był tak dobry, że oszukał system biometryczny banku.
Sztuczna inteligencja po dobrej stronie mocy
Sztuczna inteligencja może być sprzymierzeńcem nie tylko hakerów, ale też specjalistów ds. cyberbezpieczeństwa. Już od pewnego czasu dostawcy rozwiązań chroniących sieci wykorzystują w swoich rozwiązaniach uczenie maszynowe czy sztuczną inteligencję. Dobry przykład stanowią systemy EDR (Endpoint Detection and Response) analizujące oraz identyfikujące nietypowe zdarzenia zachodzące w sieci. Producenci nie stoją w miejscu i rozwijają techniki mające powstrzymać zapędy hakerów.
Jedną z największych zalet sztucznej inteligencji jest automatyzacja codziennych zadań, dzięki czemu specjaliści mogą skupić się na bardziej kreatywnej lub czasochłonnej pracy. Sztuczną inteligencję można być bardzo przydatna przy tworzeniu lub zwiększaniu wydajności skryptów używanych przez inżynierów ds. bezpieczeństwa cybernetycznego lub administratorów systemów. Technologia pozwala też proaktywnie znajdować luki w zabezpieczeniach sieci, a także automatyzuje takie zadania jak ustawianie alertów dla określonych słów kluczowych i wykrywanie poufnych informacji online. Łowcy zagrożeń będąc coraz szerzej wykorzystywać sztuczną inteligencję do nietypowych wzorców i podsumowywania dużych ilości danych, łącząc kropki w wielu źródłach informacji i ukrytych wzorcach.
Nie możemy zaprogramować narzędzi generatywnej sztucznej inteligencji tak, aby działały jak człowiek. Natomiast sprawdzają się wsparcie, zwłaszcza w procesach analizowania danych i tworzenia danych wyjściowych w oparciu
Robert Dziemianko
o informacje, które wprowadzamy. Chociaż sztuczna inteligencja dokonała w krótkim czasie wielkich postępów, nadal generuje fałszywe alarmy, a człowiek musi je zidentyfikować
PR & Marketing Manager G DATA Software.