Jak wykorzystać ChatGPT w automatyzacji sieci

Sztuczną inteligencję wykorzystujemy w codziennej pracy od dawna. Czasem mniej, czasem bardziej świadomie. Przez ostatnie lata rozwój AI i usług kognitywnych przyspieszył dzięki postępom w dziedzinach takich jak uczenie maszynowe, głębokie uczenie i przetwarzanie języka naturalnego. Technologie te umożliwiły komputerom analizę, rozumienie i generowanie treści w sposób zbliżony do człowieka. W wyniku tego narodziły się różnorodne zastosowania AI i usług kognitywnych w IT, które wykorzystują te nowoczesne technologie do poprawy efektywności i jakości działań. I powstał ChatGPT – usługa która mówi się, że będzie rewolucją na miarę upowszechnienia się Internetu. Czy będzie? Tego nie wiem, ale na pewno musimy nauczyć się korzystać z ChatGPT w automatyzacji sieci i innych obszarach IT.

Trenowanie modeli AI

Zacznijmy od krótkiego wstępu – pisząc o ChatGPT w tym artykule mam na myśli nie tylko produkt o nazwie ChatGPT dostępny na stronie projektu OpenAI, ale wszystkie implementacje wykorzystujące sztuczną inteligencję do realizacji określonych zadań. ChatGPT jest najbardziej zaawansowany i najbardziej znany, ale nie zapominajmy, że Google w odpowiedzi stworzyło Barda, Meta pracuje nad LLaMMA. W samym Microsoft, który jest właścicielem OpenAI, w chmurze Azure znajdziemy cały zestaw usług Azure OpenAI Services wykorzystujący GPT-4 i inne zaawansowane modele działające w integracji z usługami Azure.

Proces uczenia ChatGPT opiera się na dużych zbiorach danych treningowych, które obejmują informacje z różnych źródeł. Model jest trenowany w sposób nadzorowany, gdzie na podstawie wprowadzonego kontekstu (wejścia) jest uczony, jak wygenerować odpowiednią odpowiedź (wyjście). Podczas treningu model stara się dopasować wzorce i zależności pomiędzy wejściem a wyjściem, aby generować jak najbardziej adekwatne odpowiedzi. Im większy i różnorodniejszy zbiór danych treningowych, tym lepiej model jest w stanie generalizować i dostarczać odpowiedzi na różnorodne pytania.

Czy mogę otrzymać niepoprawną odpowiedź?

Jednakże, mimo zaawansowanej natury ChatGPT, istnieje kilka sytuacji, w których model może odpowiedzieć błędnie na pytania. Po pierwsze, jeśli model nie został wystarczająco dobrze przeszkolony na danym temacie.  Może brakować mu kontekstu lub dokładnej wiedzy do udzielenia poprawnej odpowiedzi. ChatGPT może również być podatny na wywołanie błędnych odpowiedzi przez wprowadzenie nieprecyzyjnych lub dwuznacznych pytań. Model może również odpowiedzieć błędnie, jeśli zostaną mu dostarczone fałszywe lub nieprawdziwe informacje jako część danych treningowych.

Ważne jest zrozumienie, że ChatGPT jest narzędziem opartym na sztucznej inteligencji, a nie człowiekiem. Jego odpowiedzi są generowane na podstawie wzorców i statystyk zawartych w zbiorze treningowym. Z tego powodu, nawet jeśli ChatGPT wydaje się być bardzo kompetentny w wielu dziedzinach, zawsze istnieje ryzyko, że jego odpowiedzi mogą być błędne lub nieprecyzyjne. Dlatego zawsze ważne jest zachowanie krytycznego myślenia i weryfikacja informacji.

Warto pamiętać, że rozwój i doskonalenie modelu ChatGPT jest nadal procesem, który wymaga stałego ulepszania i aktualizacji. Błędy i ograniczenia, które obecnie występują, mogą być adresowane i poprawiane w przyszłych wersjach modelu. Zrozumienie tych czynników pomoże czytelnikowi korzystać z ChatGPT w sposób odpowiedzialny i skuteczny.

Previous slide
Next slide

Wady i zalety ChatGPT w automatyzacji (i nie tylko)

Wykorzystywanie sztucznej inteligencji w codziennej pracy ma swoje zarówno wady i zalety. Niestety, z tego co obserwuję rynek, wielu inżynierów zaczyna stosować ChatGPT “na ślepo”. Bez myślenia o tym, czy wygenerowana odpowiedź jest poprawna, pełna. Widać to już dość mocno u programistów, którzy wygenerowane przez AI fragmenty kodu bez większego zastanowienia wklejają do tworzonej aplikacji. Podobnie zaczyna się dziać w środowisku sieciowym gdzie sieciowcy generują sobie playbooki czy komendy do konfiguracji urządzeń. Niedawno na webinarze pokazałem playbook Ansible do konfiguracji protokołu EIGRP na routerze Juniper MX wygenerowany przez ChatGPT-4. Problem w tym, że protokół EIGRP nie jest wpierany na platformach Junipera…

Jeżeli jednak podchodzimy do AI jako mechanizmu nas wspomagającego a nie zastępującego naszą wiedzę i doświadczenie, to zalety wykorzystania ChatGPT w automatyzacji sieci są liczne. Przede wszystkim ChatGPT w automatyzacji może znacznie przyspieszyć procesy związane z konfiguracją, monitorowaniem i zarządzaniem sieciami. Dzięki temu administratorzy mogą skupić się na bardziej strategicznych zadaniach. Ponadto, ChatGPT może pomóc w identyfikacji i rozwiązaniu problemów sieciowych, minimalizując czas potrzebny na diagnozowanie i rozwiązywanie awarii. AI jest nieocenione w analizie i porównywaniu dużych zbiorów danych, pokazywaniu trendów i korelacji między danymi. Dodatkowo, korzystając z ChatGPT w automatyzacji zwiększymy efektywność nazej pracy poprzez generowanie dokładnych raportów, playbooków i skryptów, które mogą być łatwo ponownie wykorzystywane. O ile oczywiście model “nakarmimy” dobrym kodem w danych treningowych.

Jednakże, istnieją również pewne wady wykorzystania ChatGPT w automatyzacji sieci. Po pierwsze, ChatGPT opiera się na danych treningowych, co oznacza, że jego odpowiedzi i sugestie są ograniczone do informacji, które zostały mu dostarczone. Jeśli dane treningowe są niekompletne lub nieaktualne, ChatGPT może generować błędne lub nieoptymalne wyniki. Ponadto, ChatGPT może być podatny na ataki złośliwego wykorzystania lub wprowadzenie dezinformacji, co stanowi ryzyko dla bezpieczeństwa sieci. No i jak już wspomniałem słabym ogniwem w ChatGPT jest wykorzystujący go człowiek. Dlatego ChatGPT w automatyzacji sieci w niedoświadczonych rękach jest zagrożeniem dla ciągłości działania i bezpieczeństwa całej infrastruktury. 

Koszt - ukryty wróg ChatGPT

Koszt wykorzystania ChatGPT i innych produktów OpenAI oraz Azure OpenAI zależy od kilku czynników, takich jak rodzaj i zakres korzystania z usług, ilość przetwarzanych danych oraz specyfikacje sprzętowe. W przypadku ChatGPT, OpenAI oferuje różne plany cenowe, w tym zarówno bezpłatne, jak i płatne opcje subskrypcji.

Bezpłatny dostęp do ChatGPT może mieć pewne ograniczenia, takie jak limit na liczbę żądań API i możliwość korzystania tylko z publicznego interfejsu API. Ograniczenia te mają na celu zapewnienie równomiernego dostępu do usług OpenAI dla jak największej liczby użytkowników. Dla bardziej intensywnego wykorzystania, OpenAI oferuje plany subskrypcyjne, które oferują większą elastyczność i wyższe limity użycia. Pamiętajmy jednak, że płatny ChatGPT Plus nie oznacza dostępu do API. Za ten dostęp płacimy oddzielnie.

W przypadku Azure OpenAI, koszt korzystania z usług jest zależny od wybranego planu subskrypcyjnego w ramach platformy Azure. Azure oferuje różne opcje, które pozwalają dostosować wykorzystanie zasobów obliczeniowych i skalować je w zależności od potrzeb. Koszty mogą obejmować opłaty za obliczenia, transfer danych i korzystanie z API OpenAI. Pamiętajmy, że koszt może różnić się w zależności od wybranego regionu Azure.

Mechanizm tokenów

Mechanizm tokenów jest kluczowym elementem rozliczania kosztów w przypadku usług opartych na modelach językowych, takich jak ChatGPT. Tokeny są podstawowymi jednostkami, na podstawie których mierzy się długość tekstowej sekwencji wejściowej i wyjściowej. W przypadku ChatGPT, zarówno wejście (zapytanie) jak i wyjście (odpowiedź) są liczonymi tokenami. Koszty są zwykle mierzone na podstawie liczby użytych tokenów. Dlatego też, dłuższe zapytania lub odpowiedzi mogą wpływać na koszt usługi.

Ważne jest świadome zarządzanie liczbą tokenów, aby zoptymalizować koszty korzystania z usług. Istnieją techniki, takie jak skracanie zapytań lub ograniczanie długości odpowiedzi, które mogą pomóc w ograniczeniu liczby tokenów i tym samym kosztów.

Podsumowując, koszt wykorzystania ChatGPT i innych produktów OpenAI oraz Azure OpenAI zależy od planu subskrypcyjnego, ilości przetwarzanych danych i liczby zużytych tokenów. Bezpłatne opcje mają swoje ograniczenia, a subskrypcje płatne oferują większą elastyczność. Mechanizm tokenów służy do rozliczania kosztów, a świadome zarządzanie liczbą tokenów może pomóc w zoptymalizowaniu kosztów korzystania z usług.

E-BOOK

Zaczynasz swój pierwszy projekt związany z automatyzacją?

Ten e-book jest dla Ciebie! Zawiera sprawdzone podejście, które realizowałem w wielu projektach. Sprawdź co możesz zrobić, by odnieść sukces!


Subscribe
Powiadom o
guest

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

0 komentarzy
Inline Feedbacks
View all comments

ZdradziĆ Ci sekretY udanego projektu automatyzacji?

(link otwiera się w nowym oknie)