Cloudera liderem w rankingu The Forrester Wave™: Data Fabric Platforms na 4. kwartał 2025 r.

Przeczytaj raport
  • Cloudera Cloudera
  • | Techniczne

    Poza kadrem: deepfejki, zaufanie i nowa granica cyberbezpieczeństwa

    Cloudera Author Profile Picture
    Sceneria z oknem i pociągiem

    Zaufanie jest podstawą współpracy, handlu i podejmowania decyzji w przedsiębiorstwach. W erze cyfrowej zaufanie buduje się poprzez podpisy, głosy i wirtualne interakcje. Jednak wraz z szybkim postępem technologii tworzenia deepfejków zaufanie to ulega erozji, stwarzając nowe zagrożenia, które potrafią omijać dziesięciolecia inwestowania w cyberbezpieczeństwo.  

    W tym odcinku podcastu The AI Forecast Paul Muller rozmawia z Jimem Brennanem, naczelnym dyrektorem ds. produktów i technologii w GetReal Security, o tym, jak oparte na sztucznej inteligencji zagrożenia związane z autentycznością wpływają na równanie bezpieczeństwa przedsiębiorstw. Ich rozmowa ujawnia, dlaczego deepfejki to nowe oblicze inżynierii społecznej, dlaczego to technologia — a nie ludzkie oko — musi stać na straży oraz w jaki sposób liderzy mogą chronić swoje firmy i swoich pracowników.    

    Warstwa ludzka stała się najsłabszym ogniwem  

    Paul: Dziesięciolecia transformacji cyfrowej zapewniły nam możliwość natychmiastowej współpracy. Ale teraz to, na czym polegamy — małe okienko na naszych ekranach — stało się nowym polem ataku. Jeśli nie mogę ufać temu, co widzę, mogę polegać wyłącznie na drogich, powolnych działaniach fizycznych.  

    Jim: Dyrektor IT powiedział mi: „To małe okno to miejsce, w którym prowadzę swój biznes — a teraz nie mogę ufać niczemu, co przez nie przechodzi”. To ma głęboki sens. Ludzkie oko nie jest w stanie wykryć tego poziomu misteryjności. Większość ludzi zgaduje pół na pół. Dlatego na straży musi stać właśnie technologia, a nie instynkt.  

    Zaufanie sprzyja współpracy, a współpraca karmi biznes. Jednak deepfejki podważają to zaufanie na najbardziej osobistym poziomie — w codziennych rozmowach i w trakcie połączeń wideo, na których polegają liderzy. Jim opisuje to jako nową warstwę interakcji skierowaną do człowieka, którą nazywa „warstwą wyświetlania”, a którą Paul żartobliwie określił jako „Kłamcę 8” — to zupełnie nowe pole ataku. W przeciwieństwie do zapór ogniowych i systemów wykrywania włamań nie jest to warstwa technologiczna, ale ludzka. Środek, którego menedżerowie używają do komunikowania się i podejmowania decyzji, jest teraz podatny na manipulacje.  

    Zarządy reagują na realne zagrożenia, a nie na hollywoodzkie scenariusze  

    Paul: Czy zarządy podejmują ryzyko, odrzucając deepfejki jako coś, co nigdy nie będzie ich dotyczyć?  

    Jim: Wystarczy zobaczyć to raz, żeby uwierzyć, że to prawda. Prawdziwym wyzwaniem jest jednak pokazanie zarządom, co to oznacza dla ich działalności. Wielkie, sensacyjne opowieści nie robią na nich wrażenia. W rzeczywistości dochodzi już do mniejszych, codziennych incydentów, które wywołują bardziej znaczące reakcje.  

    Jako najlepszy przykład wskazuje rekrutację fałszywych pracowników. Hakerzy wykorzystują deepfejki, aby podszywać się pod kandydatów i omijać procedury kadrowe. Czasami motywem jest po prostu korzyść finansowa, jak zgarnięcie premii powitalnej. Innym razem sytuacja jest znacznie poważniejsza: podmioty państwowe wprowadzają do firm podstawione osoby w celach szpiegowskich lub dokonywania oszustw na dużą skalę. ‘ 

    Jim: W ciągu ostatnich trzech miesięcy każda firma z listy Fortune 500 i 1000, z którą rozmawiałem, mówiła nam, że ma problem z oszustwami rekrutacyjnymi. Zespoły HR nie są przygotowane do myślenia jak atakujący, przez co rekrutacja staje się łatwym celem.    

    Technologia musi przewodzić walce o autentyczność cyfrową 

    Paul: Zawsze używaliśmy technologii do walki z technologią — zapory ogniowe, antywirusy, wykrywanie włamań. Czy możemy zrobić to samo w przypadku deepfejków?  

    Jim: Tego problemu nie da się rozwiązać po prostu dzięki treningowi. Uruchomienie modelu czarnej skrzynki oraz dostarczanie mu prawdziwych i fałszywych przykładów nie rozwiąże problemu. Lepszym podejściem jest wykorzystanie informatyki śledczej do analizy artefaktów pozostawionych przez deepfejki, takich jak zniekształcenia twarzy, szumy audio czy niespójności w oświetleniu, a następnie zastosowanie uczenia maszynowego do wykrywania tych sygnałów na dużą skalę.  

    Jim wyjaśnił, że skuteczna ochrona musi wykraczać poza ogólną sztuczną inteligencję, wchodząc „pod przykrywką” narzędzi generujących, aby zidentyfikować subtelne ślady i artefakty. W praktyce przedsiębiorstwa mogą wdrażać te zabezpieczenia za pośrednictwem interfejsów API z takich platform jak Zoom lub Teams, unikając instalacji punktów końcowych i utrzymując skalowalność zabezpieczeń. Jednocześnie kluczowa jest świadomość — webinaria, prezentacje i symulacje zapewniają pracownikom kontekst do zatrzymania się i przemyślenia przed podjęciem działań. Technologia i szkolenia tworzą dwie warstwy potrzebne do ochrony cyfrowego zaufania. 

    Podsumowanie dla liderów przedsiębiorstw 

    Jim: Żyjemy w czasach, w których nie można ufać niczemu w tym oknie ani na ekranie. Organizacje muszą opracować i wdrożyć nowe zasady i nowe sposoby działania. 

    Krajobraz zagrożeń uległ zmianie. Deepfejki to nie tylko zagrożenia rodem z filmów science fiction. To realne ryzyko mające negatywny wpływ zarówno na podejmowanie decyzji w przedsiębiorstwach, jak i na bezpieczeństwo osobiste. Od rekrutowania fałszywych pracowników po sklonowane przez sztuczną inteligencję wezwania do okupu — nie można już zagwarantować zaufania w świecie cyfrowym. 

    Można za to starać się je budować na trzy sposoby: 

    • Edukacja zarządów firm za pomocą wiarygodnych, porównywalnych przykładów, które pasują do istniejących ram ryzyka. 
    • Uświadamianie pracownikom, że nie wystarczy „widzieć” i „słyszeć”, aby uznać coś za prawdziwe.
    • Wdrażanie technologii, która potrafi wykrywać i reagować na zagrożenia autentyczności w czasie rzeczywistym.

    Obejrzyj całą rozmowę z Jimem Brennanem w podcaście The AI Forecast w serwisach Spotify, Apple Podcasts oraz YouTube

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.