Gallery
digital-firsts-3
Zasoby | sYhi
Share
Explore
Prompty AI

ai-outline-white-bg
Szkoła promptowania GPT


1 | Zaczynamy


Witamy w świecie chatbotów i dużych modeli językowych. Jeśli jesteś sfrustrowany niespójnymi i niewiarygodnymi odpowiedziami z dużego modelu językowego (takiego jak ChatGPT), ten przewodnik jest dla Ciebie. Zapewnimy ci narzędzia do pisania lepszych podpowiedzi. Zrobimy to, pokazując, jak poprawić dokładność i wydajność danych wejściowych, aby uzyskać lepsze wyniki (ukończenie).
Zacznij od jasnego celu: Określ, co chcesz, aby chatbot osiągnął dzięki podpowiedzi. Niezależnie od tego, czy chcesz dostarczyć informacji, pokierować rozmową, czy rozwiązać problem, upewnij się, że twoje pytanie jest konkretne, aby odpowiedź również była konkretna.
Zadbaj o zwięzłość: Unikaj używania niepotrzebnych słów lub informacji, które zmylą chatbota lub opóźnią odpowiedź. Pamiętaj, że to robot, a nie człowiek, więc nie musisz być przesadnie uprzejmy. "Napisz akapit o X" jest bardziej efektywne niż "Czy możesz napisać mi akapit o tej rzeczy zwanej X?". Dlaczego jest bardziej efektywne? Ponieważ gdy używasz mniej słów, używasz mniej "tokenów", więc koszt jest mniejszy.
Używaj naturalnego języka: Pisz podpowiedzi w codziennym języku, dzięki czemu chatbot łatwo zrozumie kontekst i odpowiednio zareaguje.
Unikaj dwuznaczności: Upewnij się, że podpowiedź jest konkretna i unikaj używania słów o wielu znaczeniach lub fraz, które mogą być interpretowane na różne sposoby. Jeśli chatbot zacznie generować coś, co ci się nie podoba, zatrzymaj go i przeformułuj swój monit. Ważne jest również, aby od samego początku jasno określić swój cel i eksperymentować ze sformułowaniami, czasem i perspektywą. Na przykład, możesz powiedzieć "Dzisiejszym zadaniem jest skomponowanie XYZ" lub "Próbujemy opracować XYZ i bylibyśmy wdzięczni za Twój wkład". Przedstawienie nadrzędnego celu zadania może być korzystne, a odkrywanie różnych sposobów może mieć znaczący wpływ.
Zapewnienie kontekstu: Zapewnij wystarczający kontekst, aby chatbot zrozumiał kontekst rozmowy i mógł odpowiednio zareagować. Jeśli masz wiele instrukcji, ale nie masz pewności, czy ChatGPT Cię rozumie, poproś go o przeanalizowanie podpowiedzi.
Unikaj pytań otwartych: Unikaj zadawania pytań otwartych, które nie mają jasnej odpowiedzi. Może to prowadzić do nieistotnych lub mylących odpowiedzi ze strony chatbota.
Używaj słów kluczowych: Używaj odpowiednich słów kluczowych w podpowiedzi, które są związane z tematem rozmowy. Pomaga to chatbotowi zrozumieć kontekst i odpowiednio zareagować. Jeśli sam nie możesz wymyślić odpowiednich słów, skorzystaj z internetowego tezaurusa i nie rezygnuj z podpowiedzi. Być może będziesz w stanie poprawić go za pomocą alternatywnego słowa.
Bądź konkretny: Sprecyzuj informacje, które chcesz uzyskać od chatbota. Unikaj zadawania ogólnych pytań, które mogą mieć wiele możliwych odpowiedzi.
Przetestuj swoje podpowiedzi: Przetestuj swoje podpowiedzi z chatbotem, aby zobaczyć, jak reaguje i wprowadzić wszelkie niezbędne zmiany. Pomaga to udoskonalić podpowiedzi i poprawić ogólne wrażenia użytkownika.
Zachowaj prostotę: Podpowiedzi powinny być proste i łatwe do zrozumienia. A


2 | Standardowe i kilkustrzałowe podpowiedzi


Przyjrzyjmy się standardowym lub regularnym podpowiedziom, przejdziemy przez to, jak działa podpowiadanie chatbota, a następnie szybko przejdziemy do kilku krótkich podpowiedzi.
Oto dwa przykłady standardowych podpowiedzi:

Zwykła podpowiedź
Jaka jest najwyższa góra na świecie?
Regularna zachęta w formacie pytania i odpowiedzi
P: Jaka jest najwyższa góra na świecie?
A:
Po dostarczeniu regularnej zachęty jako danych wejściowych do dużego modelu językowego, takiego jak ChatGPT, wygeneruje on odpowiednie dane wyjściowe lub, w terminologii inżynierii zachęty, zakończenie. Przykładowo, zostało to zilustrowane poniżej:
P: Jaka jest najwyższa góra na świecie?
Mount Everest.
Istnieje również kilka technik, które można zastosować w celu uzyskania lepszych lub bardziej wydajnych wyników z dużego modelu językowego, takich jak podpowiedzi zero-shot, one-shot i few-shot.
Kilka podpowiedzi
Few-shot prompting odnosi się do techniki, która polega na prezentowaniu modelowi niewielkiej liczby przykładów, zazwyczaj od dwóch do pięciu, umożliwiając mu szybkie dostosowanie się do nowych przykładów wcześniej napotkanych obiektów.

Dwa przykłady podpowiedzi kilkustrzałowych. Few Shot Prompt
Q:Jaki jest pierwszy kolor tęczy?
A:Czerwony

Q:Jaki jest drugi kolor tęczy?
A:Żółty

Q:Jaki jest trzeci kolor tęczy?
A:

Kilka strzałów w formacie QA
P: Jaki jest pierwszy kolor tęczy?
Czerwony

Q:Jaki jest drugi kolor tęczy?
A:Żółty

Q:Jaki jest trzeci kolor tęczy?
A:
Rozbicie podpowiedzi na "kilka strzałów" pomaga ustrukturyzować i wytrenować wybrany duży model językowy, dzięki czemu zapewnia on lepsze wyniki. Dostarczając mu wcześniejsze przykłady, jest bardziej prawdopodobne, że uzyska pożądane wyniki.

3 | Prompty i Chatboty


Jak właściwie korzystać z podpowiedzi? Jednym ze sposobów korzystania z podpowiedzi jest interakcja z chatbotem. Dobrym przykładem chatbota jest ChatGPT (link na górze prompt school). ChatGPT może zapamiętywać historię konwersacji podczas czatowania z nim, dzięki czemu zapewnia kontekstową odpowiedź.
ChatGPT może również Pisać tekst Pisać kod
Przyjrzyjmy się bliżej chatbotom, abyśmy mogli ulepszyć sposób korzystania z nich i wykonywania zadań za ich pomocą.
Wskazówki dotyczące manier lub stylu Zasadniczo celem jest wyszkolenie ChatGPT, aby odpowiadał w określonym stylu lub w określony sposób. Po zadaniu pytania bez żadnych konkretnych wskazówek stylistycznych, ChatGPT zazwyczaj wygeneruje odpowiedź składającą się z jednego lub dwóch krótkich akapitów. Czasami jednak może wygenerować dłuższą odpowiedź, jeśli wymaga tego sytuacja.
image.png

Jak widać z powyższego, wynik (odpowiedź ChatGPT) jest stosunkowo formalny, podając kilka konkretnych szczegółów, takich jak przybliżona wartość Pi.
Ale co, jeśli tego nie rozumiemy lub chcemy podać alternatywny wynik, który jest mniej lub bardziej techniczny? Możemy to zrobić, dostosowując nasze dane wejściowe i dodając modyfikator stylu lub sposobu, taki jak "Wyjaśnij mi liczbę Pi (jakbym miał 10 lat)".
Lub alternatywnie
Wyjaśnij mi w dowcipnym stylu liczbę Pi.
image.png
Nie musi to być tylko styl, który możemy wprowadzić, aby spersonalizować nasze wyniki, może to być również struktura, taka jak prośba o odpowiedź w formie tabeli lub wypunktowania.
Wyjaśnij mi liczbę Pi i podaj wynik w formie tabeli.
image.png


Oto przykład podpowiedzi, która została skonstruowana tak, aby zapewnić bardziej skoncentrowane wyniki z określonym modyfikatorem stylu lub sposobu.
Wciel się w rolę filozofa i dogłębnie zbadaj tematy lub pytania związane ze studiowaniem filozofii, którą oferuję. Może to obejmować badanie różnych teorii filozoficznych, proponowanie nowych pomysłów lub znajdowanie kreatywnych rozwiązań złożonych problemów. Moją pierwszą prośbą jest pomoc w opracowaniu {argumentu przeciwko paleniu marihuany}.
image.png
Techniki opisu Jeśli twoim celem jest dostosowanie tonu lub podpowiedzi, jedną ze skutecznych technik jest dodanie słów opisowych, które zmieniają sposób, w jaki chatbot interpretuje i reaguje na twoją wiadomość. Po prostu dodając kilka przymiotników, takich jak "zabawny", "Curt", "nieprzyjazny", "dowcipny" lub innych deskryptorów na końcu podpowiedzi, możesz eksperymentować z tym, jak wpływają one na twoje odpowiedzi.

Tworzenie podpowiedzi (średniozaawansowane). Początkowa podpowiedź udzielona dużemu modelowi językowemu w rozmowie z chatbotem może mieć znaczący wpływ na strukturę i przebieg dalszej konwersacji. Pozwala to na dodanie do konwersacji dodatkowej warstwy specyfikacji i struktury.
Jako przykład, możemy skonfigurować rozmowę na czacie między zwykłym laikiem (zwykłą osobą) a profesjonalnym neuronaukowcem w ramach tej samej konwersacji chatbota. Możemy ustanowić przewodniki stylu zarówno dla głosu ucznia, jak i nauczyciela, określić pożądany format odpowiedzi i uwzględnić strukturyzację składni, aby umożliwić nam łatwe modyfikowanie naszych podpowiedzi i eksperymentowanie z różnymi odpowiedziami.

Czego używamy?
Strukturyzacja składni
Przewodnik po stylu (sposobie)
Format odpowiedzi
Styl "Neuroscientist" charakteryzuje się językiem i tonem najlepszego profesjonalnego neuronaukowca, który uczy neuronauki od ponad dekady i posiada wiele doktoratów. Aby skutecznie przekazać swoje punkty, używaj składni akademickiej i złożonych przykładów, które podkreślają mniej znane aspekty tematu. Upewnij się jednak, że Twój język jest wyrafinowany, ale nie nadmiernie skomplikowany. Twoje odpowiedzi powinny składać się z serii akapitów konwersacyjnych, które wykorzystują mieszankę języka technicznego i potocznego, aby dyskusja była zarówno przystępna, jak i wciągająca.

Styl "zwykłej osoby" reprezentuje osobę z podstawowym zrozumieniem tematu i ograniczonym formalnym wykształceniem. Wyjaśniając pojęcia, używaj prostego języka i przykładów z życia wziętych, aby pomóc osobie zrozumieć. Przyjmij nieformalny ton i perspektywę pierwszoosobową, włączając humor, a jeśli nie masz pewności co do odpowiedzi na pytanie, bądź szczery i wyjaśnij, że jeszcze się o tym nie dowiedziałeś.

"Krytykować" oznacza analizować dany tekst i przekazywać informacje zwrotne.

"Podsumuj" oznacza podanie kluczowych szczegółów z tekstu.

"Odpowiedz" oznacza udzielenie odpowiedzi na pytanie z danej perspektywy.

Wszystko w nawiasach () oznacza perspektywę, z której piszesz.

Wszystko w nawiasach klamrowych {} oznacza temat, w który jesteś zaangażowany.

Wszystko w nawiasach [] oznacza działanie, które należy podjąć.

Przykład: (Neurobiolog){Płat czołowy}[Krytyka] Nikt nie byłby w stanie stwierdzić, czy usunięto ci płat czołowy.

Jeśli rozumiesz i jesteś gotowy do rozpoczęcia, odpowiedz tylko "tak".

Na poniższym obrazku znajduje się przykład prostego monitu i sytuacji wyjściowej z chatbotem. Prompt:
Dlaczego płat czołowy jest ważny?

Zwraca dość statyczną, podstawową odpowiedź w niemal robotycznym tonie.
image.png
W poniższym przykładzie użyliśmy podpowiedzi gruntującej, aby ustawić kontekst dla ChatGPT przed zadaniem pytania w odpowiednim formacie. Porównując odpowiedź z pierwszym przykładem, zauważysz pewne podobieństwa - takie jak przykładowe pytania dla różnych pól - ale odpowiedź zawiera bardziej wyczerpujące informacje, przedstawia treść w spójnych akapitach zamiast listy, a także jest znacznie bardziej szczegółowa. ​
image.png
Używanie primerów w interakcjach z chatbotem jest stosunkowo zaawansowaną techniką, ale może znacznie poprawić jakość rozmów i odpowiedzi. Podczas gdy nadal ważne jest podanie specyfikacji w każdym podpowiedzi, aby zapobiec utracie orientacji przez model, włączenie starterów może dodać jasności i kontekstu do twoich podpowiedzi, ułatwiając modelowi zrozumienie, o co prosisz.



4 | Jak działają modele AI LLM


Gratulujemy przejścia do sekcji 4 w ramach Promptstacks Prompt School. W tej sekcji pokrótce omówimy, czym jest model AI i jak faktycznie działają duże modele językowe.
Uwolnienie mocy dużych modeli językowych
Duże modele językowe (LLM) szybko stają się przedmiotem zainteresowania wielu branż ze względu na ich nieograniczony potencjał. Są to sieci neuronowe trenowane na ogromnych ilościach danych w danym języku i są w stanie przewidywać słowa, frazy, a nawet całe zdania. Z miliardami do setek miliardów parametrów, LLM są wrażliwe na kontekstowe relacje między elementami w języku.
To, co sprawia, że LLM są tak ważne, to ich zdolność do przetwarzania i rozumienia języka w sposób, w jaki poprzednie modele nie były w stanie. Na przykład interpretacja znaczenia słowa "bank" w zdaniu "Siedziałem na śniegu i czekałem na nią" wymaga świadomości kontekstowej, z którą nawet ludzie mogą mieć trudności. Modele LLM mogą jednak zapewnić dokładne wyniki w ciągu milisekund, z dokładnością do 90%.
W miarę jak LLM będą ewoluować i ulepszać się, możemy spodziewać się znacznego przejścia od wykorzystywania sztucznej inteligencji do zadań statycznych do wykorzystywania modeli uczenia maszynowego do całych procesów językowych. Zmiana ta otworzy szeroki wachlarz możliwości w różnych branżach, takich jak przetwarzanie języka naturalnego, opieka zdrowotna, handel detaliczny i robotyka, by wymienić tylko kilka.
Jedną z takich aplikacji jest ChatGPT, prawdopodobnie najpopularniejszy chatbot AI, który wykorzystuje LLM do zadań przetwarzania języka naturalnego. Sprzedawcy detaliczni i usługodawcy mogą wykorzystywać LLM do poprawy doświadczeń klientów poprzez dynamiczne chatboty i asystentów AI. Wyszukiwarki mogą zapewniać bardziej zbliżone do ludzkich odpowiedzi na zapytania, podczas gdy naukowcy zajmujący się naukami przyrodniczymi mogą wykorzystywać LLM do zrozumienia złożonych cząsteczek, DNA i RNA.
Programiści mogą uczyć roboty zadań fizycznych i pisać oprogramowanie za pomocą LLM, podczas gdy marketerzy mogą segmentować produkty na podstawie opisów i opinii klientów. Doradcy finansowi mogą podsumowywać rozmowy o zyskach i tworzyć transkrypcje ważnych spotkań za pomocą LLM, a firmy obsługujące karty kredytowe mogą wykorzystywać je do wykrywania anomalii i analizy oszustw.
Nawet zespoły prawne mogą skorzystać z LLM, ponieważ mogą one pomóc w parafrazowaniu i pisaniu tekstów prawnych. Dzięki swojej wszechstronności i dokładności, LLM mogą zrewolucjonizować sposób, w jaki wchodzimy w interakcje z językiem i ekscytujące jest obserwowanie, jak będą one nadal kształtować naszą przyszłość.


Różne SI i inżynieria obietnic w szczególności
Modele sztucznej inteligencji są w stanie generować różne formy treści, takie jak obrazy, muzyka, tekst, a nawet filmy. Tego typu sztuczna inteligencja jest znana jako generatywna sztuczna inteligencja, która tworzy dane wyjściowe w oparciu o wyuczone wzorce z danych. Z drugiej strony istnieją dyskryminacyjne SI, które klasyfikują dane do różnych kategorii. Przykładem dyskryminacyjnej sztucznej inteligencji jest klasyfikator obrazów, który kategoryzuje obrazy na podstawie ich zawartości, na przykład określając, czy obraz przedstawia kota czy psa.
Badanie możliwości generatywnych sztucznej inteligencji stało się w ostatnich latach coraz bardziej popularne, a GPT-4 i ChatGPT to dwa z najbardziej zaawansowanych modeli dostępnych obecnie dla inżynierii podpowiedzi. Należy jednak zauważyć, że chociaż te SI mogą wydawać się podobne, mają wyraźne różnice, które należy wziąć pod uwagę przy wyborze, którego z nich użyć.
Warto zauważyć, że większość technik omówionych w Promptstacks można zastosować w ChatGPT, GPT-3, a teraz GPT 4. Jednak niektóre techniki mogą być wyłączne dla GPT-3, a dla tych, którzy chcą korzystać ze wszystkich omówionych technik, GPT-4 jest zalecanym wyborem, jeśli można uzyskać dostęp. Ostatecznie wybór generatywnej sztucznej inteligencji będzie zależał od konkretnych potrzeb i poziomu umiejętności użytkownika.
Jak one właściwie działają?
Generatywne tekstowe SI, takie jak GPT-3 i ChatGPT, działają w oparciu o architekturę transformatorową złożoną z miliardów sztucznych neuronów. Te SI są zasadniczo złożonymi funkcjami matematycznymi, które przyjmują tysiące zmiennych i generują tysiące możliwych odpowiedzi. Aby zrozumieć zdania, dzielą je na tokeny lub podsłowa, a następnie konwertują każdy token na listę liczb do przetworzenia. Sztuczne inteligencje przewidują następne słowo/token w zdaniu na podstawie poprzednich słów/tokenów, które widziały i napisały. Patrzą na wszystkie tokeny w tym samym czasie i nie czytają od lewej do prawej lub od prawej do lewej, jak ludzie.
Jak myślą?
Ważne jest, aby pamiętać, że słowa takie jak "myśleć", "mózg" i "neuron" są metaforami używanymi do opisania tego, co robi model. Modele te nie myślą ani nie działają jak ludzie, ale po prostu podążają za złożonymi procesami matematycznymi. Jeśli jednak pomaga to w uczeniu się lub zrozumieniu, można antropomorfizować sztuczną inteligencję. Ważne jest, aby zdawać sobie sprawę, że ta dziedzina sztucznej inteligencji jest nadal aktywnie badana i filozofowana, a nowe osiągnięcia mogą zmienić nasze rozumienie działania tych modeli.
Najlepsze zastosowania dużych modeli językowych: Odblokowywanie nowych możliwości
Duże modele językowe (LLM) zrewolucjonizowały świat sztucznej inteligencji i przetwarzania języka naturalnego. Otworzyły one nowe możliwości w różnych dziedzinach, w tym w opiece zdrowotnej, wyszukiwarkach, robotyce, generowaniu kodu i nie tylko. Przyjrzyjmy się bliżej ich praktycznym zastosowaniom w świecie rzeczywistym.
Poprawa doświadczeń klientów dzięki dynamicznym chatbotom i asystentom AI
Sprzedawcy detaliczni i inni dostawcy usług mogą wykorzystywać LLM do tworzenia dynamicznych chatbotów i asystentów AI, które mogą zapewnić klientom spersonalizowane i interaktywne doświadczenia. Dzięki LLM, chatboty te mogą analizować ogromne ilości danych, aby zrozumieć preferencje klientów i oferować dopasowane rozwiązania. Może to pomóc firmom poprawić wskaźniki utrzymania klientów i budować lojalność wobec marki.
Udzielanie bardziej bezpośrednich, zbliżonych do ludzkich odpowiedzi za pomocą wyszukiwarek internetowych
Wyszukiwarki takie jak Google i Bing coraz częściej wykorzystują LLM do udzielania bardziej bezpośrednich, zbliżonych do ludzkich odpowiedzi na zapytania użytkowników, na przykład dzięki integracji Bing z Bard. Dzięki LLM wyszukiwarki mogą zrozumieć kontekst zapytania i zapewnić dokładne odpowiedzi, które nie są oparte wyłącznie na słowach kluczowych, ale na intencjach użytkownika. Poprawiło to ogólne wrażenia użytkownika i sprawiło, że wyszukiwarki stały się bardziej intuicyjne i przyjazne dla użytkownika.
Rozwój badań w dziedzinie nauk przyrodniczych dzięki LLM
Naukowcy zajmujący się naukami przyrodniczymi mogą wykorzystywać LLM do analizy złożonych danych związanych z białkami, cząsteczkami, DNA i RNA. LLM może pomóc naukowcom zidentyfikować wzorce i relacje między różnymi biomolekułami, co może prowadzić do nowych odkryć i przełomów w medycynie i biotechnologii.

Uczenie robotów zadań fizycznych i pisanie oprogramowania
Ludzie mogą wykorzystywać LLM do pisania oprogramowania i uczenia robotów zadań fizycznych. Dzięki szkoleniu robotów za pomocą LLM mogą one rozumieć polecenia w języku naturalnym i precyzyjnie wykonywać złożone zadania. Doprowadziło to do postępów w automatyzacji i robotyce, tworząc nowe możliwości dla branż takich jak produkcja, logistyka i transport.
Organizowanie opinii i próśb klientów za pomocą robotów LLM
Share
 
Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.