W tym artykule omawiamy Ingress i o tym, jak konfigurujemy Ingress w Kubernetes. Jeśli jesteś nowy w tym miejscu i chcesz dowiedzieć się o koncepcji Ingress w Kubernetes, jesteś we właściwym miejscu. Przejrzyj naszą poprzednie treści związane z Kubernetes, aby uzyskać lepsze zrozumienie. Ingress to obiekt, który umożliwia nam dostęp do usług Kubernetes z zewnętrznej strony klastra Kubernetes. Wyjaśnimy każdy punkt, który jest szczegółowo związany z Ingress za pomocą odpowiednio przykładów lub zrzutów ekranu treści, ponieważ rozkładamy proces na różne kroki w celu wyjaśnienia konfiguracji lub konfiguracji w Kubernetes w Kubernetes.
Co to jest Ingress in Kubernetes?
Jako zestaw wytycznych dotyczących tego, w jaki sposób ruch przychodzący powinien być przekazywany do Usług w ramach klastra, funkcja Ingress Kubernetes jest wdrażana jako zasób wjazdu. Zasób wnikowy ma zazwyczaj jeden lub więcej kontrolerów wnikowych. Kontrolery te są odpowiedzialne za realizację zasad określonych w zasobach. Ingress to zasób Kubernetes, który pozwala nam skonfigurować moduł równoważenia dla naszej aplikacji.
Dlaczego używamy Ingress w Kubernetes?
W tej sesji omawiamy użycie Ingress w Kubernetes. Ruch z Internetu może być przekazany do jednego lub więcej usług w klastrze za pomocą Ingress. Wiele usług, które są eksponowane za pomocą tego samego zewnętrznego adresu IP, może być również podawane z dostępem zewnętrznym za pomocą go. Oferując różne usługi, które są elementem większej aplikacji lub różnych iteracji tej samej usługi, może to być pomocne. W rezultacie, ponieważ Ingress jest zbudowany jako zasób Kubernetes, można go obsługiwać podobnie do innych zasobów w klastrze. Obejmuje to możliwość budowania, edytowania i usuwania zasobów Ingress za pomocą interfejsu API Kubernetes, a także możliwości korzystania z plików konfiguracyjnych do wskazania zamierzonego stanu wnikania.
Wymagania wstępne:
Najnowsza wersja Ubuntu musi zostać zainstalowana w twoim systemie. Aby uruchomić systemy Linux lub Ubuntu w systemie Windows, użytkownik musi zainstalować wirtualne pole. Użytkownicy muszą mieć 64-bitowy system operacyjny. Użytkownicy muszą mieć pomysł na klastry Kubernetes i koncepcję linii poleceń Kubectl.
Tutaj zaczynamy nasz proces, który dzielimy na różne kroki, aby uzyskać lepsze zrozumienie i być większą zwięzłość w celu zwiększenia czytelności. Przeglądajmy Ingress w nadchodzącej sesji tego artykułu.
Krok 1: Uruchom klaster Kubernetes na komputerze lokalnym
W tym kroku uruchamiamy polecenie, aby uruchomić klaster Kubernetes w naszym systemie po zainstalowaniu systemu Windows. Najpierw uruchamiamy miniKube w Kubernetes. Polecenie jest następujące:
> Minikube start
Po wykonaniu polecenia minikube kubernetes jest skutecznie klastrowane w systemie, lokalnie. W tym klastrze wykonujemy funkcję Ingress w następnym kroku.
Krok 2: Zainstaluj plik YAML kontrolera Ingress NGNIX w Kubernetes
W tym kroku poznamy sposób, w jaki instalujemy kontroler NGNIX w Kubernetes. Tworzymy pliki do wdrażania i usługi w naszej aplikacji Kubernetes. Wdrożenie potwierdza, że istnieje kilka replików naszej aplikacji i usługi, które zawsze zapewniają nam stabilny i niezawodny punkt końcowy sieci dla naszej aplikacji. Uruchamiamy następujące polecenie do wdrożenia kontrolera Ingress Nginx w klastrze:
> kubectl aplikuj -f hhpts: // raw.Githubusercontent.com/kubernetes/ingress -ngnix/kontroler -v0.44.0/wdrażaj/statyczny/dostawca/chmur/wdrażanie.Yaml
Gdy polecenie jest wykonywane, wyświetlone dane wyjściowe jest dołączone jako zrzut ekranu. Tutaj możemy zobaczyć, że przestrzeń nazw to Ingress-Ngnix, a konto usługi jest tworzone i konfigurowane. Następnie skonfigurowany jest również konfigura. Wraz z tym rola klastra, wiązanie roli klastra i więcej funkcji są skutecznie skonfigurowane.
Krok 3: Utwórz zasoby Ingress w Kubernetes
W tym kroku tworzymy nowe zasoby dla Ingress w Kubernetes. Tworzymy plik YAML dla Ingress Resources w Kubernetes. Uruchom polecenie na terminalu Kubectl:
> kubectl aplikuj -f https: // surowe.Githubusercontent.com/kubernetes/Ingress-Nginx/Controller-V0.44.0/wdrażaj/statyczny/dostawca/chmur/wdrażanie.Yaml
Po wykonaniu polecenia wyjście polecenia jest wyświetlane jako poprzedni zrzut ekranu w Kubernetes. Przeczytaj ostrożnie wyjście. Tutaj tworzymy zasób Ingress i rozpoczynamy usługę, w której wdrażamy Nginx Ingress na klastrze Kubernetes.
Krok 4: Skonfiguruj równowagę obciążenia w Kubernetes
Na tym etapie zobaczymy konfigurację balansu obciążenia w Kubernetes. Wdrażamy zasoby Angress przy użyciu równoważenia obciążenia, takiego jak NGNIX. Konfigurujemy równoważenie obciążenia w Kubernetes do routingu ruchu. Tutaj uruchamiamy następujące polecenie:
> kubectl aplikuj -f https: // surowe.Githubusercontent.com/kubernetes/Ingress-Ngnix/Controller-V0.44.0/wdrażanie/statyczny/dostawca/BareMetal/wdrożenie.Yaml
Po wykonaniu polecenia tworzymy plik YAML i wdrażamy zasoby Ingress w Kubernetes za pomocą balansu obciążenia.
Krok 5: Zakładaj działające kapsuły do Kubernetes
W tym kroku otrzymamy listę kapsułów, które obecnie działają w naszej aplikacji Kubernetes. Sprawdzimy kapsuły Ingress w Kubernetes. Uruchom polecenie na Kubectl:
kalsoom@kalsoom -virtualbox> kubectl get PODS - - All - Namespaces -l App. Kubernetes. IO /Nazwa = Ingress-Ngnix
Lista uruchamianych POD jest pokazana na poprzednim obrazie jako wyjście po wykonaniu polecenia. Widzimy wszystkie te strąki, których przestrzeń nazw to Ingress-Ngnix na naszej liście. Nazwy tych kapsułek są również zawarte na liście. Wszystkie te strąki są zakończone i pozostają w swoim pierwotnym stanie.
Krok 6: Zakładaj uruchamiane usługi w Kubernetes
Na tym etapie dowiemy się, jak zdobyć lub wiedzieć o uruchomionych usługach w Kubernetes. Uruchamiamy polecenie tutaj, aby uzyskać usługi Kubernetes. Uruchom następujące polecenie:
> Kubectl Get Services Ingress-Ngnix-Controller--przestrzeń nazw = Ingress-Nignix
Po wykonaniu polecenia pokazano listę uruchamiających usług związanych z kontrolerem Ingress Nginx. Na wcześniejszym zrzucie ekranu pokazano nazwę, typ, klaster-IP, zewnętrzne IP, porty i wiek usług.
Wniosek
Zauważyliśmy, że Ingress Nginx jest używany w instancjach Kubernetes, które obejmują pojedynczy węzeł. Poprzez proces sprawdzamy routing ruchu klastra. Tutaj sprawdzamy wnikanie, uzyskując dostęp do aplikacji spoza klastra za pomocą zewnętrznego adresu IP malantu obciążenia. Bardzo wyraźnie opisaliśmy każdy etap ustawienia wnikania w Kubernetes. Mamy nadzieję, że ten artykuł i jego przykłady są pomocne w aplikacjach Kubernetes.