Ciekawi Cię sztuczna inteligencja? Nas również, szczególnie z punku widzenia bezpieczeństwa. Dowiedz się jakie są trendy w tym temacie na 2019 r. dzięki prognozom ekspertów Avast dotyczącym sztucznej inteligencji.
W pierwszych częściach omówiliśmy zagrożenia związane z Internetem rzeczy w 2019 r. W drugim segmencie skupiliśmy się na zagrożeniach mobilnych w nowym roku. Natomiast teraz, w ostatnim segmencie trzyczęściowej serii poświęconej prognozom dotyczącym cyberbezpieczeństwa w 2019 r., przyjrzymy się temu, jak sztuczna inteligencja (SI) będzie kształtować krajobraz zagrożeń w nadchodzącym roku.
Żaden obszar zabezpieczeń nie zawiera tyle tajemnic i ukrytych ścieżek co sztuczna inteligencja. Obserwujemy coraz więcej antagonistycznych algorytmów SI walczących z algorytmami SI zabezpieczeń. Firma Avast zainwestowała mnóstwo środków i pracy w opracowanie algorytmów sztucznej inteligencji do zwalczania sił antagonistycznej SI. Nasze badania w tym obszarze doprowadziły do odkrycia rzeczy, o których wiemy, że istnieją, ale nie są jeszcze w pełni znane i zrozumiałe. Jednym z tych nowych obszarów zainteresowania jest klasa ataków znanych jako DeepAttacks.
Głębokie ataki typu DeepAttack to „złośliwe treści generowane automatycznie przez algorytmy SI” i naszym zdaniem ich częstotliwość będzie rosła.
W 2018 r. widzieliśmy wiele przykładów zastosowania antagonistycznych algorytmów SI w celu oszukania ludzi. Przykłady obejmują fałszywy film z prezydentem Obamą utworzony przez Buzzfeed, na którym widać, jak prezydent Obama wypowiada nieprawdziwe zdania w bardzo przekonujący sposób. Na takie fałszywe filmy wideo mówi się „deepfake” i są one przykładem zastosowania sztucznej inteligencji do oszukiwania ludzi. Widzieliśmy także, jak antagonistyczna sztuczna inteligencja oszukuje nawet najlepsze algorytmy wykrywania obiektów, tak jak w tym przykładzie, w którym algorytm myśli, że znak stopu jest znakiem ograniczenia prędkości do 45 mil/h. Prawdziwe przypadki generowania fałszywych wiadomości przez sztuczną inteligencję są jednak rzadkie — i to jest dobra wiadomość.
Jednocześnie zagrożenia DeepAttack mogą występować na dużą skalę w formie fałszywych adresów URL lub internetowych stron HTML. Mogą służyć do generowania sztucznego ruchu sieciowego w botnetach. Przewidujemy, że w 2019 r. ataki DeepAttack będą używane częściej, aby uniknąć wykrycia przez ludzi i inteligentne systemy obrony. Ciężko pracujemy nad dopracowaniem do perfekcji specjalnych systemów detekcji ataków DeepAttack, aby je wykrywać i blokować, zanim się rozprzestrzenią.
Atakujący dysponują teraz wyrafinowanymi algorytmami zdolnymi identyfikować i obierać na cel właścicieli domów pasujących do określonych cech profilu (np. dużo urządzeń Apple lub co najmniej 10 urządzeń z lukami w zabezpieczeniach). Algorytmy te mogą następnie zautomatyzować kolejny etap ukierunkowanego ataku na wybrane urządzenie docelowe (np. na nadające się do kopania kryptowalut, używając narzędzi do łamania haseł dostosowujących się do określonych typów urządzeń). W ten sposób można zautomatyzować cały złośliwy łańcuch.
Przewidujemy, że sztuczna inteligencja odegra dużą rolę w zakończeniu ataków typu clone phishing, podczas których osoba atakująca tworzy niemal identyczną replikę legalnej wiadomości, aby ofiara myślała, że wiadomość jest prawdziwa. E-mail jest wysyłany z adresu przypominającego legalnego nadawcę, a treść wiadomości wygląda tak samo jak poprzednia wiadomość. Jedyna różnica polega na tym, że załącznik lub link w wiadomości jest podmieniony na złośliwy.
Przewidujemy, że SI będzie bardzo skutecznie wykrywać krótkotrwałe strony phishingowe skojarzone z atakami typu „clone phishing”. Sztuczna inteligencja może działać szybciej niż tradycyjne algorytmy na dwa sposoby — po pierwsze, dokładnie identyfikując nowe i podejrzane domeny, a po drugie, wykorzystując szybkie algorytmy z domen wykrywania wizualnego, aby dopasowywać układ stron phishingowych i identyfikować te fałszywe. Ponadto sztuczna inteligencja uczy się wraz z upływem czasu, śledzi trendy i monitoruje postępy złośliwego oprogramowania.
Niestety ukierunkowane techniki ataków typu „spear phishing” nadal będą skuteczne, ponieważ atakujący poświęcają dużo czasu i pieniędzy na gromadzenie informacji o celu ataku, np. tworząc e-maile podszywające się pod wiadomości ze szkoły dziecka lub wiadomości służbowe z firmy. W takich przypadkach bardzo zmotywowany cyberprzestępca często znajdzie sposób na przeprowadzenie ataku, i to od innych technologii wykrywania, takich jak aparaty behawioralne, zależy powstrzymanie zagrożenia.
Przez ponad dekadę ludzie udowadniali w sieci, że są ludźmi, odczytując i poprawnie przepisując litery tekstu. To było najskuteczniejsze narzędzie do wykrywania botów.
Teraz to już przeszłość.
Vicarious udowodnił pod koniec 2017 r., że algorytmy mogą złamać weryfikację captcha — nawet bardzo złożoną. Doprowadziło to do opracowania analizy behawioralnej, która identyfikuje aktywność botów na stronach, generując ocenę określającą stopień ryzyka interakcji i eliminując konieczność wprowadzania rozmazanego tekstu w celu udowodnienia, że jest się człowiekiem. Nawet reCAPTCHA, największy dostawca testów captcha, wycofuje się z weryfikacji tekstowej. Hakerzy zaadoptowali tę technologię, w wyniku czego w 2019 r. tekstowa weryfikacja captcha zniknie ze stron internetowych — przynajmniej z tych, które poważnie traktują bezpieczeństwo.
Począwszy od tego roku sztuczna inteligencja stanie się coraz bardziej powszechna. Mimo że uważamy, iż przyniesie więcej dobrego niż złego, należy pamiętać, że użyteczność narzędzi zależy od posługujących się nimi osób. Odwiedzaj często nasz blog w 2019 r., aby być na bieżąco z postępami sztucznej inteligencji.
1988 - 2024 Copyright © Avast Software s.r.o. | Sitemap Polityka prywatności