Un jeton est souvent décrit comme représentant environ les trois quarts d’un mot. Ainsi, donner à un LLM un texte de 10 000 mots à examiner équivaudrait à 12 000 à 13 000 jetons de contenu. En termes de développeur, si un corps de code que Copilot devait examiner (pour le refactoring ou la chasse aux bogues par exemple), composé de 10 000 « mots » (expressions, instructions, noms de variables, fonctions, etc.), alors son utilisation dans une requête, une fois, compterait pour 12 000 à 13 000 jetons sur leur allocation pour le mois.
Le texte d’invite, en tant qu’entrées, comptera également, tout comme les sorties de Copilot.
Les niveaux de tarification qui entreront en vigueur le mois prochain restent fixés à leurs niveaux actuels, mais au lieu de se voir attribuer un certain nombre de requêtes par mois, les utilisateurs reçoivent des « crédits IA » de la même valeur. Un abonné Copilot Pro de base (10 $ par cm) recevra 1 000 crédits, GitHub indiquant qu’à l’heure actuelle, un crédit AI vaut un centime américain.
Le nombre de jetons que chaque crédit achète dépendra du modèle utilisé, de la combinaison entrée/sortie, de la taille du cache (données conservées dans la mémoire du LLM pour le contexte) et de la fonctionnalité demandée. Ainsi, si un développeur utilise principalement des requêtes simples, il n’aura probablement pas à acheter de jetons supplémentaires sous forme de crédits chaque mois. À l’inverse, les requêtes multi-agents sur une base de code complexe et longue videront plus rapidement le compte AI Credit. Les requêtes adressées aux modèles frontières les plus avancés coûteront plus cher que celles adressées aux modèles moins puissants.
Les modifications tarifaires de GitHub incluent certains avantages compensatoires pour les utilisateurs : la complétion de code (similaire à la fonction de saisie semi-automatique d’un téléphone) et les suggestions de prochaine modification resteront gratuites.