Cloudera liderem w rankingu The Forrester Wave™: Data Fabric Platforms na 4. kwartał 2025 r.

Przeczytaj raport
  • Cloudera Cloudera
  • Rozwijaj i wdrażaj rozwiązania AI, zabezpieczając jednocześnie wszystkie etapy cyklu życia sztucznej inteligencji.

    Obsługiwana przez mikrousługi NVIDIA NIM usługa Cloudera AI Inference Service zapewnia czołową na rynku wydajność — oferując do 36 razy szybsze wnioskowanie na procesorach GPU firmy NVIDIA i prawie 4 razy większą przepustowość na procesorach CPU — co usprawnia zarządzanie sztuczną inteligencją i zapewnia płynny nadzór w chmurach publicznych i prywatnych.

    Schemat usługi AI Inference Service

    Jedna usługa dla wszystkich potrzeb przedsiębiorstwa w zakresie wnioskowania AI

    Wdrożenie jednym kliknięciem: szybkie przejście modelu od rozwoju do produkcji niezależnie od środowiska.

    Jedno zabezpieczone środowisko: niezawodne i kompleksowe zabezpieczenia obejmujące wszystkie etapy cyklu życia AI.

    Jedna platforma: bezproblemowe zarządzanie wszystkimi modelami za pomocą jednej platformy, która zaspokaja wszystkie potrzeby związane ze sztuczną inteligencją.

    Kompleksowe wsparcie: ujednolicone wsparcie firmy Cloudera w zakresie wszystkich pytań dotyczących sprzętu i oprogramowania.

    Kluczowe cechy usługi inferencji AI

    Obsługa środowisk hybrydowych i wielochmurowych

    Obsługa wdrażania w środowiskach lokalnych*, w chmurze publicznej i w środowiskach hybrydowych, co pozwala elastycznie sprostać różnorodnym potrzebom infrastruktury przedsiębiorstwa.

    Szczegółowa ścieżka pochodzenia danych i modelu*

    Kompleksowe śledzenie i szczegółowa dokumentacja transformacji danych oraz zdarzeń w cyklu życia modelu, co ułatwia powtarzanie procesów i usprawnia inspekcje.

    Bezpieczeństwo dostosowane do wymagań korporacji

    Niezawodne środki bezpieczeństwa, w tym uwierzytelnianie, autoryzacja* i szyfrowanie danych, co zapewnia ochronę danych i modeli podczas przesyłania i przechowywania.

    Możliwości inferencji w czasie rzeczywistym

    Prognozy w czasie rzeczywistym z małym opóźnieniem i przetwarzaniem wsadowym w przypadku większych zbiorów danych, co zapewnia elastyczność obsługi modeli AI w oparciu o różne wskaźniki skuteczności.

    Wysoka dostępność i dynamiczne skalowanie

    Efektywne zarządzanie różnorodnymi obciążeniami przy zapewnieniu ciągłej obsługi dzięki konfiguracjom wysokiej dostępności i dynamicznym możliwościom skalowania.

    Elastyczna integracja

    Łatwa integracja istniejących przepływów pracy i aplikacji za pomocą interfejsów API Open Inference Protocol w przypadku tradycyjnych modeli ML oraz interfejsu API zgodnego z OpenAI w przypadku modeli LLM.

    Obsługa wielu struktur sztucznej inteligencji

    Łatwe wdrażanie szerokiej gamy typów modeli dzięki integracji popularnych struktur ML, takich jak TensorFlow, PyTorch, Scikit-learn i Hugging Face Transformers.

    Zaawansowane wzorce wdrażania

    Bezpieczne i przyrostowe wprowadzanie nowych wersji modeli za pomocą wyrafinowanych strategii wdrażania, takich jak wdrożenia kanarkowe i niebiesko-zielone oraz testy A/B.

    Otwarte API

    Wdrażanie i monitorowanie modeli i aplikacji* online oraz zarządzanie nimi, a także łatwiejsza integracja z potokami CI/CD i innymi narzędziami MLOps dzięki zgodności z otwartymi standardami.

    Monitorowanie biznesowe*

    Ciągłe monitorowanie metryk modelu GenAI, takich jak nastroje, opinie użytkowników i dryf, które są kluczowe dla utrzymania jakości i wydajności modelu.

    *Funkcja dostępna wkrótce. Aby uzyskać więcej informacji, skontaktuj się z nami.

    Kluczowe cechy usługi inferencji AI

    Obsługa środowisk hybrydowych i wielochmurowych

    Obsługa wdrażania w środowiskach lokalnych*, w chmurze publicznej i w środowiskach hybrydowych, co pozwala elastycznie sprostać różnorodnym potrzebom infrastruktury przedsiębiorstwa.

    Szczegółowa ścieżka pochodzenia danych i modelu*

    Kompleksowe śledzenie i szczegółowa dokumentacja transformacji danych oraz zdarzeń w cyklu życia modelu, co ułatwia powtarzanie procesów i usprawnia inspekcje.

    Bezpieczeństwo dostosowane do wymagań korporacji

    Niezawodne środki bezpieczeństwa, w tym uwierzytelnianie, autoryzacja* i szyfrowanie danych, co zapewnia ochronę danych i modeli podczas przesyłania i przechowywania.

    Możliwości inferencji w czasie rzeczywistym

    Prognozy w czasie rzeczywistym z małym opóźnieniem i przetwarzaniem wsadowym w przypadku większych zbiorów danych, co zapewnia elastyczność obsługi modeli AI w oparciu o różne wskaźniki skuteczności.

    Wysoka dostępność i dynamiczne skalowanie

    Efektywne zarządzanie różnorodnymi obciążeniami przy zapewnieniu ciągłej obsługi dzięki konfiguracjom wysokiej dostępności i dynamicznym możliwościom skalowania.

    Elastyczna integracja

    Łatwa integracja istniejących przepływów pracy i aplikacji za pomocą interfejsów API Open Inference Protocol w przypadku tradycyjnych modeli ML oraz interfejsu API zgodnego z OpenAI w przypadku modeli LLM.

    Obsługa wielu struktur sztucznej inteligencji

    Łatwe wdrażanie szerokiej gamy typów modeli dzięki integracji popularnych struktur ML, takich jak TensorFlow, PyTorch, Scikit-learn i Hugging Face Transformers.

    Zaawansowane wzorce wdrażania

    Bezpieczne i stopniowe wprowadzanie nowych wersji modeli za pomocą wyrafinowanych strategii wdrażania, takich jak wdrożenia kanarkowe i niebiesko-zielone oraz testy A/B.

    Otwarte API

    Wdrażanie i monitorowanie modeli i aplikacji* oraz zarządzanie nimi, ułatwiające integrację z potokami CI/CD i innymi narzędziami MLOps za pomocą interfejsów API, które są zgodne z otwartymi standardami.

    Monitorowanie biznesowe*

    Ciągłe monitorowanie metryk modelu GenAI, takich jak nastroje, opinie użytkowników i dryf, które są kluczowe dla utrzymania jakości i wydajności modelu.

    *Funkcja dostępna wkrótce. Aby uzyskać więcej informacji, skontaktuj się z nami.

    Demo

    Sprawdź, jak działa bezproblemowe wdrażanie modelu

    Zobacz, jak łatwo można wdrażać duże modele językowe za pomocą zaawansowanych narzędzi Cloudera, aby skutecznie zarządzać wielkoskalowymi aplikacjami AI.

    Integracja z rejestrem modeli: bezproblemowo uzyskuj dostęp, przechowuj i obsługuj wersje modeli i zarządzaj nimi za pośrednictwem scentralizowanego repozytorium Cloudera AI Registry.

    Łatwa konfiguracja i wdrożenie: wdrażaj modele w środowiskach chmurowych, konfiguruj punkty końcowe i dostosowuj automatyczne skalowanie w celu uzyskania najlepszej skuteczności.

    Monitorowanie wydajności: rozwiązuj problemy i optymalizuj na podstawie kluczowych wskaźników, takich jak opóźnienie, przepustowość, wykorzystanie zasobów i kondycja modelu.

    headshot of Sanjeev Mohan
    Usługa Cloudera AI Inference pozwala odblokować pełny potencjał danych na dużą skalę dzięki specjalistycznej wiedzy firmy NVIDIA w zakresie sztucznej inteligencji, a także zapewnić im bezpieczeństwo za pomocą funkcji zabezpieczeń klasy korporacyjnej, dzięki czemu można pewnie chronić dane i uruchamiać obciążenia w środowisku lokalnym lub w chmurze, jednocześnie efektywnie wdrażając modele AI z niezbędną elastycznością i nadzorem.

    —Sanjeev Mohan, główny analityk, SanjMo

    Zaangażuj się

    Dokumentacja

    Zasoby i przewodniki ułatwiające rozpoczęcie pracy

    Dokumentacja usługi Cloudera AI Inference Service zawiera wszystkie potrzebne informacje: od szczegółowych opisów funkcji po przydatne przewodniki wdrożenia, co ułatwia szybsze rozpoczęcie pracy.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.