Cloudera liderem w rankingu The Forrester Wave™: Data Fabric Platforms na 4. kwartał 2025 r.

Przeczytaj raport
  • Cloudera Cloudera
  • | Partnerzy

    Ekonomia skalowalnej sztucznej inteligencji: osiąganie bezpiecznej, hybrydowej inteligencji dzięki firmom Cloudera, AMD i Dell Technologies

    Steve Catanzano
    Dwie kobiety przechadzające się po firmowym biurze

    Zainteresowanie przedsiębiorstw generatywną i agentową sztuczną inteligencją gwałtownie wzrosło w ciągu ostatnich dwóch lat. Organizacje z różnych branż badają, w jaki sposób agenci AI, inteligentni asystenci i automatyzacja mogą zwiększyć produktywność, usprawnić operacje i pozwolić w uzyskaniu wglądu w rosnące ilości danych przedsiębiorstw. Jednak wraz ze wzrostem entuzjazmu pojawiają się pytania dotyczące kosztów, bezpieczeństwa i złożoności operacyjnej.

    Jedna rzeczywistość staje się coraz bardziej oczywista: nie każde zadanie AI wymaga jednostek przetwarzania grafiki (GPU) i ogromnych modeli podstawowych. W rzeczywistości wiele zastosowań w przedsiębiorstwach o wysokiej wartości może być wydajnie dostarczanych przy użyciu centralnych jednostek przetwarzania (procesorów) i mniejszych modeli językowych skoncentrowanych na zadaniach, zwłaszcza gdy są wdrożone blisko danych, które obsługują.

    Coraz więcej organizacji ponownie ocenia swoje strategie AI przez tę perspektywę. Zamiast dążyć do skalowania za wszelką cenę, skupiają się one przede wszystkim na zwrocie z inteligencji: zdolności do bezpiecznego, ekonomicznego i wielkoskalowego wdrażania rozwiązań AI. Ta zmiana kształtuje sposób myślenia przedsiębiorstw o infrastrukturze, architekturze danych i zarządzaniu, gdy sztuczna inteligencja przechodzi od eksperymentów do produkcji.

    Zmiana w ekonomii AI w przedsiębiorstwach

    Badania Enterprise Strategy Group (obecnie część Omdia) wskazują, że około 80% organizacji uważa agentów AI za najwyższy lub wysoki priorytet biznesowy. Agenci ci obiecują wymierne korzyści dzięki automatyzacji, szybszemu podejmowaniu decyzji i lepszemu doświadczeniu pracowników i klientów. Jednak wiele organizacji nadal boryka się z kosztami i obciążeniem operacyjnym związanym z wdrożeniami zorientowanymi na GPU.

    Infrastruktura GPU może wprowadzać znaczne wydatki kapitałowe, zużycie energii i ograniczenia łańcucha dostaw. W przypadku wielu wnioskowań w czasie rzeczywistym i zadań opartych na wiedzy podejście to może być niedostosowane do potrzeb biznesowych. W rezultacie przedsiębiorstwa coraz częściej badają alternatywy, które lepiej dopasowują zasoby obliczeniowe do wymagań dotyczących obciążenia pracą.

    Właśnie tutaj sztuczna inteligencja oparta na procesorze CPU, w połączeniu z mniejszymi modelami językowymi, stała się praktyczną opcją. Zamiast dążyć do jak największych modeli, organizacje wykorzystują posiadane przez siebie zasoby, aby sprostać wyzwaniom budżetowym związanym z zakupem lub dostępem do GPU. Chodzi o właściwe dopasowanie architektur sztucznej inteligencji, które kładą nacisk na wydajność, bezpieczeństwo i skalowalność.

    Sztuczna inteligencja o odpowiedniej wielkości i rola małych modeli językowych

    Małe modele językowe (ang. small language models, SLM) są zaprojektowane do wykonywania określonych zadań korporacyjnych, takich jak podsumowania, odpowiadanie na pytania, generowanie treści i pomoc w kodzie. Zazwyczaj zawierające znacznie mniej parametrów niż duże modele językowe SLM mogą działać skutecznie na nowoczesnych procesorach, zapewniając jednocześnie wysoką wydajność w ukierunkowanych przypadkach użycia.

    Takie podejście ma kilka zalet. Wnioskowanie oparte na procesorze zmniejsza koszty infrastruktury, obniża zużycie energii i upraszcza wdrożenie. Umożliwia również organizacjom uruchamianie zadań AI w istniejących centrach danych lub środowiskach chmury prywatnej, rozwiewając obawy dotyczące suwerenności danych i zgodności z przepisami.

    W tym kontekście firma Cloudera opracowała swoją strategię Prywatnej AI, aby umożliwić przedsiębiorstwom wdrażanie i obsługę systemów sztucznej inteligencji całkowicie we własnych, kontrolowanych środowiskach. Łącząc otwartą architekturę jezior danych ze zintegrowanym zarządzaniem i możliwościami MLOps, Cloudera wspiera rozwój sztucznej inteligencji, która pozostaje blisko danych przedsiębiorstw.

    Infrastruktura ma znaczenie: procesory i platformy korporacyjne

    Skuteczność opartej na procesorze sztucznej inteligencji zależy w dużej mierze od podstawowej infrastruktury. Postępy w nowoczesnych procesorach znacznie poprawiły stosunek wydajności do kosztów w przypadku zadań analitycznych i wnioskowania. Procesory AMD EPYC™ są na przykład zaprojektowane tak, aby zapewnić wysoką gęstość rdzeni, dużą przepustowość pamięci i wbudowane funkcje bezpieczeństwa, co czyni je doskonale nadającymi się do wnioskowania sztucznej inteligencji i obciążeń intensywnych pod względem danych.

    Po wdrożeniu w systemach klasy korporacyjnej firmy Dell Technologies organizacje mogą niezawodnie skalować obciążenia AI, jednocześnie wykorzystując sprawdzone architektury zoptymalizowane pod kątem platform danych i AI. To połączenie pozwala przedsiębiorstwom zmodernizować możliwości AI bez konieczności przebudowy całej infrastruktury.

    Z perspektywy operacyjnej model ten umożliwia organizacjom ponowne wykorzystanie istniejących inwestycji, skrócenie harmonogramów wdrożeń oraz ograniczenie zależności od specjalistycznego sprzętu. We wszystkich tych scenariuszach nacisk kładzie się nie na rozmiar modelu, lecz na efektywność, szybkość reakcji i zaufanie.

    Praktyczne przypadki użycia sztucznej inteligencji z procesorami

    Wiele z dzisiejszych najcenniejszych aplikacji AI może działać wydajnie na procesorach bez konieczności stosowania ogromnych modeli lub akceleracji GPU. Przykłady:

    Asystenci wiedzy wewnętrznej

    Przedsiębiorstwa często przechowują krytyczną wiedzę w dokumentach, wiadomościach e-mail i raportach. Stosując SLM-y do tych danych, organizacje mogą zapewnić dostęp w języku naturalnym do informacji wewnętrznych, usprawniając podejmowanie decyzji przy jednoczesnym zachowaniu poufnych danych na miejscu.

    Chatboty wspomagające pracowników i asystentów agentów

    Zespoły HR, IT i wsparcia klienta mierzą się z powtarzającymi się pytaniami, które można zautomatyzować za pomocą bezpiecznych, wewnętrznych chatbotów. Sztuczna inteligencja oparta na procesorze zapewnia zawsze dostępną pomoc bez wprowadzania zewnętrznej ekspozycji danych.

    Generowanie treści i dokumentacji

    Zespoły marketingowe oraz zespoły ds. zachowania zgodności z przepisami i inżynierowie często tworzą powtarzalne treści. Generowanie i podsumowywanie wspomagane sztuczną inteligencją mogą przyspieszyć przepływy pracy, zachowując spójność i ład korporacyjny.

    Wsparcie rozwoju oprogramowania

    Asystenci oparci na SLM mogą generować fragmenty kodu, testy i dokumentację w zaporach korporacyjnych, pomagając zespołom programistów zwiększyć produktywność bez wysyłania własności intelektualnej do publicznych usług AI.

    Analityka predykcyjna i optymalizacja

    W produkcji i operacjach modele sztucznej inteligencji oparte na procesorach analizują dane z czujników i dane operacyjne w celu przewidywania awarii i optymalizacji wydajności, redukując przestoje i koszty operacyjne.

    Grawitacja danych i znaczenie sztucznej inteligencji na miejscu

    Pomimo powszechnego korzystania z chmury znaczna część danych przedsiębiorstwa pozostaje w siedzibie firmy. Badania Omdia wskazują, że wiele organizacji przechowuje od 26% do 75% swoich danych w środowiskach lokalnych lub prywatnych. Ta grawitacja danych stanowi wyzwanie, gdy przetwarzanie AI wymaga przeniesienia poufnych informacji na platformy zewnętrzne.

    Prywatne architektury AI rozwiązują ten problem, wprowadzając AI do danych, a nie odwrotnie. Uruchamiając procesy robocze AI w istniejących środowiskach, organizacje zmniejszają opóźnienia, poprawiają wydajność i utrzymują zgodność z takimi regulacjami jak RODO, HIPAA oraz z wymogami branżowymi.

    Podejście firmy Cloudera integruje pozyskiwanie danych, zarządzanie nimi, zarządzanie modelami i obsługę danych w ramach jednej platformy. W połączeniu z infrastrukturą opartą na procesorach umożliwia to przedsiębiorstwom bardziej efektywne przejście od projektów pilotażowych do sztucznej inteligencji w produkcji.

    Od pilotażu do produkcji: mierzenie wyników

    Jedną z najważniejszych barier w stosowaniu sztucznej inteligencji była luka między etapem weryfikacji koncepcji a wdrożeniem produkcyjnym. Architektury sztucznej inteligencji bazujące na procesorach pomagają zniwelować tę lukę, redukując koszty i złożoność operacyjną.

    Organizacje przyjmujące to podejście wskazują kilka rezultatów:

    • niższy całkowity koszt posiadania w przypadku obciążeń wymagających dużej liczby obliczeń;
    • krótsze cykle wdrażania dzięki uniknięciu zakupu specjalistycznego sprzętu;
    • spadek zużycia energii zgodnie z celami w zakresie zrównoważonego rozwoju;
    • wyższy zwrot z inwestycji dzięki odpowiedniemu wyborowi zasobów obliczeniowych.

    Korzyści te potwierdzają coraz częstszą powszechną opinię, że sukces sztucznej inteligencji przedsiębiorstwa zależy w równym stopniu od ekonomii i zarządzania, jak i od wydajności modelu.

    Wniosek: praktyczna ścieżka przyszłości AI w przedsiębiorstwach

    Kolejna faza enterprise AI nie będzie definiowana przez największe modele ani najpotężniejszy sprzęt. Zamiast tego będzie kształtowana przez organizacje, które potrafią wdrażać AI bezpiecznie, ekonomicznie i na dużą skalę, korzystając z architektur dostosowanych do rzeczywistych potrzeb biznesowych.

    Łącząc platformę danych i zarządzania Cloudera z procesorami EPYC firmy AMD oraz infrastrukturą Dell Technologies, przedsiębiorstwa zyskują realną ścieżkę do operacyjnego wdrażania AI we własnych środowiskach. To odpowiednie podejście pozwala organizacjom skupić się na wynikach, a nie na złożoności infrastruktury, i wykorzystać wartość AI tam, gdzie ich dane już się znajdują.

    W miarę jak przedsiębiorstwa nadal przenoszą inicjatywy z zakresu sztucznej inteligencji z fazy eksperymentów do środowiska produkcyjnego, praktyczne architektury prywatnej AI oparte na procesorach będą prawdopodobnie odgrywać coraz większą rolę.

    Aby dowiedzieć się więcej o ekonomicznym wdrażaniu sztucznej inteligencji z firmami Cloudera, AMD i Dell Technologies, pobierz raport Omdia Showcase Brief.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.