SYS API Turbo George

Untitled

Conversation

Cela crée un objet Conversation à utiliser avec la variante brute de l'API ChatGPT. Plutôt que de permettre à OpenAI de maintenir l'état de la conversation, cette approche vous permet de maintenir l'état de la conversation localement (vous donnant ainsi plus de contrôle sur chaque interaction). Cette formule renvoie un objet Conversation dont les propriétés peuvent être utilisées avec la formule GPT-Plus#ChatRaw.

REQUIRED INPUTS

OPTIONAL INPUTS

TOTAL INPUTS

Chat

Fournir une invite système et un historique des conversations pour générer une réponse à partir de l'API ChatGPT

REQUIRED INPUTS

OPTIONAL INPUTS

TOTAL INPUTS

gpt


REQUIRED INPUTS

Soumettez une invite à GPT-3.

OPTIONAL INPUTS

TOTAL INPUTS



gpt_raw​

(account, prompt, user, model, suffix, max_tokens, temperature, top_p, echo, stop, presence_penalty, frequency_penalty, best_of, logit_bias​)
Submit a query with fully customizable parameters. Recommended for GPT-3 experts or the brave. Note that because we always return a single string we disable a few options like `n` and `streaming` which change the returned data shape.
REQUIRED INPUTS
account: The GPTPlus account used to pull in this data.
prompt: The prompt(s) to generate completions for, encoded as a string, array of strings, array of tokens, or array of token arrays. Note that <|endoftext|> is the document separator that the model sees during training, so if a prompt is not specified the model will generate as if from the beginning of a new document. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-prompt
user: This is a unique identifying string capturing the ID of your user who is invoking GPT, used for security purposes. Use something like the currently logged in user's email address.
OPTIONAL INPUTS
model: Which GPT-3 model to use. We default to da-vinci but there are others available. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-model
suffix: Text to append to the end of your query. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-suffix
max_tokens: Higher values give longer, better results -- but use up more tokens. The maximum number of tokens to generate in the completion. The token count of your prompt plus max_tokens cannot exceed the model's context length. Most models have a context length of 2048 tokens (except for the newest models, which support 4096). See https://beta.openai.com/docs/api-reference/completions/create#completions/create-max_tokens
temperature: What sampling temperature to use. Higher values means the model will take more risks. Try 0.9 for more creative applications, and 0 (argmax sampling) for ones with a well-defined answer. We generally recommend altering this or top_p but not both. https://beta.openai.com/docs/api-reference/completions/create#completions/create-temperature
top_p: An alternative to sampling with temperature, called nucleus sampling, where the model considers the results of the tokens with top_p probability mass. So 0.1 means only the tokens comprising the top 10% probability mass are considered. We generally recommend altering this or temperature but not both. https://beta.openai.com/docs/api-reference/completions/create#completions/create-top_p
echo: Echo back the prompt in addition to the completion. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-echo
stop: Up to 4 sequences where the API will stop generating further tokens. The returned text will not contain the stop sequence. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-stop
presence_penalty: Number between -2.0 and 2.0. Positive values penalize new tokens based on whether they appear in the text so far, increasing the model's likelihood to talk about new topics. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-presence_penalty
frequency_penalty: Number between -2.0 and 2.0. Positive values penalize new tokens based on their existing frequency in the text so far, decreasing the model's likelihood to repeat the same line verbatim. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-frequency_penalty
best_of: Generates best_of completions server-side and returns the 'best' (the one with the highest log probability per token). Results cannot be streamed. Note: Because this parameter generates many completions, it can quickly consume your token quota. Use carefully and ensure that you have reasonable settings for max_tokens and stop. See https://beta.openai.com/docs/api-reference/completions/create#completions/create-best_of
logit_bias: Modify the likelihood of specified tokens appearing in the completion. Accepts an array of strings in the format "<token>:<value>" that map tokens (specified by their token ID in the GPT tokenizer) to an associated bias value from -100 to 100. You can use this tokenizer tool (which works for both GPT-2 and GPT-3) to convert text to token IDs. Mathematically, the bias is added to the logits generated by the model prior to sampling. The exact effect will vary per model, but values between -1 and 1 should decrease or increase likelihood of selection; values like -100 or 100 should result in a ban or exclusive selection of the relevant token. As an example, you can pass ["50256:-100"] to prevent the <|endoftext|> token from being generated. See the docs for more details: https://beta.openai.com/docs/api-reference/completions/create#completions/create-logit_bias


dalle​(account, prompt, user, size​)

Generate an image from a textual prompt using DALL-E
INPUTS
account: The GPTPlus account used to pull in this data.
prompt: A text description of the desired image(s). The maximum length is 1000 characters.
user: A string identifying the user currently invoking the API. Used to detect abuse. Generally you can pass in User().Email
size: Must be either 'small' (256x256), 'medium' (512x512) or 'large' (1024x1024)



Lexique


Conversation_raw

REQUIRED INPUTS

account: Le compte GPT Plus utilisé pour extraire ces données.
ConversationName : un court nom descriptif pour cette conversation.
ConversationDescription : Quel est le but de cette conversation ?

OPTIONAL INPUTS

AssistantName: Quelle Version de George voulez-vous aborder dans cette interaction ?
SystemMessage: indique à George comment interagir avec vous dans le cadre de cette conversation. Soyez créatif ici, dites lui que c'est Sherlock Holmes ou décrivez un ensemble de conseillers dans une salle de conférence. Par défaut, une instruction générale sera utile pour répondre à l'objectif décrit. Notez que dans l'API sous-jacente, il s'agit du chat le premier message de l'historique des discussions - dans l'API GPT-Plus ChatRaw, nous le retirons afin que nous puissions le modifier invite par invite si vous le souhaitez.
ChatHistory: un ensemble de chaînes représentant des messages alternés entre l'"utilisateur" et l'"assistant", utile pour donner le contexte de la conversation. Notez que coda ne me permettra pas de rendre ce type plus sûr - donc juste un tableau de chaînes, chacune représentant un message, alternant entre vous et GPT, en commençant par vous.
InputSchema: éventuellement, passez une interface dactylographiée décrivant la forme de l'entrée. Modiiy ceci à vos risques et périls car certaines parties de cette API attendent actuellement des réponses dans le format par défaut.
ResponseSchema: éventuellement, passez une interface dactylographiée avec des commentaires décrivant la valeur prévue de chaque champ. GPT répondra avec JSON conforme à ce schéma.

chat_raw​

REQUIRED INPUTS

account: Le compte GPT Plus utilisé pour extraire ces données.
ConversationName : un court nom descriptif pour cette conversation.
ConversationDescription : Quel est le but de cette conversation ?
SystemMessage: indique à George comment interagir avec vous dans le cadre de cette conversation. Soyez créatif ici, dites-lui que c'est Sherlock Holmes ou décrivez un ensemble de conseillers dans une salle de conférence. Par défaut, une instruction générale sera utile pour répondre à l'objectif décrit. Notez que dans l'API sous-jacente, il s'agit du chat le premier message de l'historique des discussions - dans l'API GPT-Plus ChatRaw, nous le retirons afin que nous puissions le modifier invite par invite si vous le souhaitez. Cette valeur sera encapsulée dans un objet JSON et ajoutée à "history" dans l'appel d'API sous-jacent.
Prompt : le message spécifique auquel vous souhaitez que GPT réponde. Votre objet d'invite sera ajouté au champ "contenu" de la conversation InputSchema, et le reste de ces champs sera rempli automatiquement.
User: un identifiant unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et à détecter les abus. Cela devrait être suffisant pour permettre des conversations multi-utilisateurs.

OPTIONAL INPUTS

ChatHistory : un ensemble de messages alternés entre l'utilisateur (ou les utilisateurs) et GPT.
MaxTokens : nombre maximal de jetons à allouer pour la réponse à utiliser.
Modèle : le modèle par rapport auquel invoquer la demande. Par défaut, gpt-3.5-turbo.
Température : quelle température d'échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendront la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendront plus ciblée et déterministe. Nous recommandons généralement de modifier this ou `top_p` mais pas les deux.
TopP : Une alternative à l'échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec la masse de probabilité top_p. Ainsi, 0,1 signifie que seuls les jetons comprenant la masse de probabilité supérieure de 10 % sont pris en compte. Nous recommandons généralement de modifier ceci ou la "température", mais pas les deux.
PresencePenalty : nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu'à présent, ce qui réduit la probabilité que le modèle répète la même ligne textuellement. [Voir plus d'informations sur les pénalités de fréquence et de présence.](/docs/api-reference/parameter-details)
FrequencyPenalty : modifie la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un objet json qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée comprise entre -100 et 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l'échantillonnage. L'effet exact variera selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton concerné.
StopTokens : un tableau facultatif contenant jusqu'à quatre chaînes qui, si le modèle les génère, s'arrêtera et renverra ce qu'il a. Utile pour affiner les demandes.
LogitBias : modifiez la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un tableau de chaînes au format "<token>:<value>" qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer GPT) à une valeur de biais associée de -100 à 100. Vous pouvez utiliser cet outil tokenizer (qui fonctionne à la fois pour GPT-2 et GPT-3) pour convertir le texte en ID de jeton. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l'échantillonnage. L'effet exact variera selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton concerné. Par exemple, vous pouvez passer ["50256:-100"] pour empêcher la génération du jeton <|endoftext|>.
En savoir plus

GPT

Soumettez une invite à GPT-3.

account: Le compte GPTPlus utilisé pour extraire ces données.
Prompt : l'invite que vous soumettez à GPT-3.
User: un identifiant unique associé à la personne invoquant GPT-3. Utilisé pour détecter les abus. Le mieux est d'utiliser User().Email
ENTRÉES OPTIONNELLES
Température : une mesure du caractère "aléatoire" de la réponse -- réglez-la sur 0 et ce sera mot pour mot la même chose pour une entrée donnée, réglez-la sur 1 et elle sera créative et ne se répétera pas lui-même. .7 est généralement un bon point de départ.
taille : combien de jetons (1 à 4 caractères par jeton) votre réponse doit-elle utiliser ? La valeur par défaut est 1024, pour des commentaires plus longs, car GPT fonctionne souvent mieux avec des réponses plus longues. Faites attention avec cela - réglez-le trop haut et vous brûlerez beaucoup de crédits.




Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.