ClouderaNOW Dowiedz się więcej o agentach AI, przenoszeniu do chmury i strukturach danych dla sztucznej inteligencji | 8 kwietnia

Zarejestruj się
  • Cloudera Cloudera
  • Rozwijaj i wdrażaj rozwiązania AI, zabezpieczając jednocześnie wszystkie etapy cyklu życia sztucznej inteligencji.

    Obsługiwana przez mikrousługi NVIDIA NIM usługa Cloudera AI Inference Service zapewnia czołową na rynku wydajność — oferując do 36 razy szybsze wnioskowanie na procesorach GPU firmy NVIDIA i prawie 4 razy większą przepustowość na procesorach CPU — co usprawnia zarządzanie sztuczną inteligencją i zapewnia płynny nadzór w chmurach publicznych i prywatnych.

    Schemat usługi AI Inference Service

    Jedna usługa dla wszystkich potrzeb przedsiębiorstwa w zakresie wnioskowania AI

    Wdrożenie jednym kliknięciem: szybkie przejście modelu od rozwoju do produkcji niezależnie od środowiska.

    Jedno zabezpieczone środowisko: niezawodne i kompleksowe zabezpieczenia obejmujące wszystkie etapy cyklu życia AI.

    Jedna platforma: bezproblemowe zarządzanie wszystkimi modelami za pomocą jednej platformy, która zaspokaja wszystkie potrzeby związane ze sztuczną inteligencją.

    Kompleksowe wsparcie: ujednolicone wsparcie firmy Cloudera w zakresie wszystkich pytań dotyczących sprzętu i oprogramowania.

    Kluczowe cechy usługi inferencji AI

    Obsługa środowisk hybrydowych i wielochmurowych

    Obsługa wdrażania w środowiskach lokalnych, w chmurze publicznej i w środowiskach hybrydowych, co pozwala elastycznie sprostać różnorodnym potrzebom infrastruktury przedsiębiorstwa.

    Szczegółowa ścieżka pochodzenia danych i modelu

    Kompleksowe śledzenie i szczegółowa dokumentacja transformacji danych oraz zdarzeń w cyklu życia modelu, co ułatwia powtarzanie procesów i usprawnia inspekcje.

    Bezpieczeństwo dostosowane do wymagań korporacji

    Niezawodne środki bezpieczeństwa, w tym uwierzytelnianie, autoryzacja* i szyfrowanie danych, co zapewnia ochronę danych i modeli podczas przesyłania i przechowywania.

    Możliwości inferencji w czasie rzeczywistym

    Prognozy w czasie rzeczywistym z małym opóźnieniem i przetwarzaniem wsadowym w przypadku większych zbiorów danych, co zapewnia elastyczność obsługi modeli AI w oparciu o różne wskaźniki skuteczności.

    Wysoka dostępność i dynamiczne skalowanie

    Efektywne zarządzanie różnorodnymi obciążeniami przy zapewnieniu ciągłej obsługi dzięki konfiguracjom wysokiej dostępności i dynamicznym możliwościom skalowania.

    Elastyczna integracja

    Łatwa integracja istniejących przepływów pracy i aplikacji za pomocą interfejsów API Open Inference Protocol w przypadku tradycyjnych modeli ML oraz interfejsu API zgodnego z OpenAI w przypadku modeli LLM.

    Obsługa wielu struktur sztucznej inteligencji

    Łatwe wdrażanie szerokiej gamy typów modeli dzięki integracji popularnych struktur ML, takich jak TensorFlow, PyTorch, Scikit-learn i Hugging Face Transformers.

    Zaawansowane wzorce wdrażania

    Bezpieczne i przyrostowe wprowadzanie nowych wersji modeli za pomocą wyrafinowanych strategii wdrażania, takich jak wdrożenia kanarkowe i niebiesko-zielone oraz testy A/B.

    Otwarte API

    Wdrażanie i monitorowanie modeli i aplikacji* online oraz zarządzanie nimi, a także łatwiejsza integracja z potokami CI/CD i innymi narzędziami MLOps dzięki zgodności z otwartymi standardami.

    Monitorowanie biznesowe

    Ciągłe monitorowanie metryk modelu GenAI, takich jak nastroje, opinie użytkowników i dryf, które są kluczowe dla utrzymania jakości i wydajności modelu.

    *Funkcja dostępna wkrótce. Aby uzyskać więcej informacji, skontaktuj się z nami.

    Opcje wdrażania usługi AI Inference

    Uruchamiaj obciążenia wnioskowania lokalnie lub w chmurze bez uszczerbku dla wydajności, bezpieczeństwa lub kontroli.  

    Cloudera w chmurze

    • Elastyczność w zakresie wielu chmur: wdrażaj w chmurach publicznych, unikaj uzależnienia od jednego ekosystemu.
    • Szybsze osiąganie wartości: rozpocznij wnioskowanie bez konfigurowania infrastruktury — idealne do szybkich eksperymentów.
    • Elastyczna skalowalność: obsługuj nieprzewidywalny ruch dzięki automatycznemu skalowaniu do zera i mikrousługom zoptymalizowanym pod kątem GPU.

    Cloudera w środowisku lokalnym

    • Suwerenność danych: zachowaj pełną kontrolę. Utrzymuj modele, polecenia i zasoby całkowicie za zaporą ogniową.
    • Gotowe do hermetyzacji: przeznaczony dla środowisk regulowanych, takich jak administracja rządowa, opieka zdrowotna i usługi finansowe.
    • Przewidywalny i niższy całkowity koszt posiadania: wyeliminuj niespodzianki dzięki stałym cenom i niższemu całkowitemu kosztowi posiadania w porównaniu z interfejsami API w chmurze opartymi na tokenach.
    DEMO

    Sprawdź, jak działa bezproblemowe wdrażanie modelu

    Zobacz, jak łatwo można wdrażać duże modele językowe za pomocą zaawansowanych narzędzi Cloudera, aby skutecznie zarządzać wielkoskalowymi aplikacjami AI.

    Integracja z rejestrem modeli: 
    bezproblemowo uzyskuj dostęp, przechowuj i wersjonuj modele oraz zarządzaj nimi za pośrednictwem scentralizowanego repozytorium Cloudera AI Registry.

    Łatwa konfiguracja i wdrożenie: wdrażaj modele w środowiskach chmurowych, konfiguruj punkty końcowe i dostosowuj automatyczne skalowanie w celu uzyskania najlepszej skuteczności.

    Monitorowanie wydajności:
    rozwiązuj problemy i optymalizuj na podstawie kluczowych wskaźników, takich jak opóźnienie, przepustowość, wykorzystanie zasobów i kondycja modelu.

    headshot of Sanjeev Mohan
    Usługa Cloudera AI Inference pozwala odblokować pełny potencjał danych na dużą skalę dzięki specjalistycznej wiedzy firmy NVIDIA w zakresie sztucznej inteligencji, a także zapewnić im bezpieczeństwo za pomocą funkcji zabezpieczeń klasy korporacyjnej, dzięki czemu można pewnie chronić dane i uruchamiać obciążenia w środowisku lokalnym lub w chmurze, jednocześnie efektywnie wdrażając modele AI z niezbędną elastycznością i nadzorem.

    —Sanjeev Mohan, główny analityk, SanjMo

    Zaangażuj się

    Zrób następny krok

    Poznaj zaawansowane możliwości i zanurz się w szczegóły dzięki zasobom i przewodnikom, które pomogą szybko rozpocząć pracę. 

    Prezentacja produktu usługi AI Inference

    Ikona prezentacji produktu

    Poznaj od środka usługę Cloudera AI Inference.

    Zacznij już teraz

    Dokumentacja usługi AI Inference

    Biblioteka dokumentacji

    Znajdź wszystko, od opisów funkcji po przydatne przewodniki wdrażania.

    Zapoznaj się z dokumentacją

    Poznaj więcej produktów

    Cloudera AI


    Przyspiesz proces podejmowania decyzji w oparciu o dane (od badań po produkcję) dzięki bezpiecznej, skalowalnej i otwartej platformie sztucznej inteligencji dla przedsiębiorstw.

    AI Studios


    Odblokuj przepływy pracy prywatnej generatywnej AI i agentów na każdym poziomie umiejętności dzięki szybkości rozwiązania low-code i pełnej kontroli nad kodem. 

    AI Assistants


    Wykorzystaj moc AI w Twojej firmie, bezpiecznie i na dowolną skalę, przy zapewnieniu możliwości identyfikacji analiz oraz ich wyjaśniania i zastosowaniu mechanizmów zaufania.

    Akceleratory AMP


    Poznaj kompleksową platformę do szybkiego tworzenia, wdrażania i monitorowania gotowych do wykorzystania aplikacji ML.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.