Extra : o1-mini a été entièrement ouvert à l'expérience du compte gratuit ChatGPT !

Les modèles de la famille o1 sont des modèles avancés de raisonnement de processus, dont le modèle o1-mini de petite taille a le potentiel d'être plus fort que o1-preview en termes de raisonnement logique, bien que la capacité de connaissance du monde ait été réduite.
Actuellement, o1-mini n'est ouvert qu'à certains comptes gratuits pour une expérience de prévisualisation, que votre compte soit officiellement ouvert o1-mini peut être vérifié avec les questions de décodage suivantes :
oyfjdnisdr rtqwainr acxz mynzbhhx -> Réfléchir pas à pas
Utilisez l'exemple ci-dessus pour décoder.
oyekaijzdf aaptcg suaokybhai ouow aqht myznvaatzacdfoulxxz
La question de validation ci-dessus provient de OpenAI o1 Reasoning Ability Learning for Large Language Models (Apprentissage des capacités de raisonnement pour les grands modèles linguistiques)Pour plus d'informations sur le modèle o1-mini, veuillez consulter l'article suivant. Introduction au macromodèle OpenAI o1-mini.
Si vous n'avez pas de compte gratuit ChatGPT ou si vous n'avez pas accès à l'expérience o1-mini, vous pouvez vous rendre sur le site :Site miroir ChatGPT (accès domestique aux modèles de la série GPT4) Expérience.
Quelques questions d'intérêt sur le modèle OpenAI o1
Noms de modèles et modèles d'inférence
- OpenAI o1 représente un nouveau niveau de capacité d'IA et le compteur est remis à 1
- La mention "Aperçu" indique qu'il s'agit d'une première version du modèle complet.
- La mention "Mini" indique qu'il s'agit d'une version plus petite du modèle o1, optimisée pour la vitesse.
- o - au nom de l'OpenAI
- o1 n'est pas un "système" mais un modèle qui apprend aux élèves à développer la chaîne de raisonnement avant de fournir la réponse finale.
- L'icône o1 représente symboliquement un extraterrestre aux capacités extraordinaires
o1 Taille et performance du modèle
- o1-mini est plus petit et plus rapide que o1-preview, il sera donc disponible pour les utilisateurs gratuits à l'avenir.
- o1-preview est un point de contrôle précoce dans le modèle o1, ni trop grand ni trop petit
- o1-mini est plus performant dans les tâches STEM mais est limité dans la connaissance du monde
- o1-mini obtient de bons résultats dans certaines tâches, en particulier dans les tâches liées au code, mieux que o1-preview
- Entrées pour o1 Jeton est calculé de la même manière que le GPT-4o, en utilisant le même tokenizer
- Par rapport à o1-preview, o1-mini permet d'explorer davantage de chaînes de pensée.
Contextes des jetons d'entrée et capacités des modèles
- Les modèles o1 prendront bientôt en charge des contextes d'entrée plus larges
- Le modèle o1 peut prendre en charge des tâches plus longues et plus ouvertes, avec un besoin moindre de fragmenter les données comme dans le cas du GPT-4o.
- o1 peut générer de longues chaînes de raisonnement avant de fournir une réponse, contrairement aux modèles précédents
- Il n'est actuellement pas possible d'interrompre l'inférence pendant l'inférence CoT pour ajouter plus de contexte, mais cette fonctionnalité est à l'étude dans les modèles futurs.
Outils, fonctionnalités et fonctionnalités à venir
- o1-preview est actuellement dépourvu d'outils, mais prévoit de prendre en charge les appels de fonction, les interprètes de code et les capacités de navigation.
- Des outils, des sorties structurées et des conseils sur le système seront ajoutés dans les prochaines mises à jour.
- Les utilisateurs pourraient éventuellement être en mesure de contrôler le temps de réflexion et les limites des jetons.
- Des projets sont en cours pour prendre en charge la diffusion en continu et envisager de refléter les progrès de l'inférence dans l'API.
- Les capacités multimodales de l'o1 ont été intégrées, dans le but d'atteindre des performances de pointe dans des tâches telles que l'UGMM.
CoT (chaîne de raisonnement) raisonnement
- o1 Générer des chaînes d'inférence cachées pendant les processus d'inférence
- Il n'est pas prévu d'exposer le jeton CoT aux utilisateurs de l'API ou du ChatGPT.
- Le jeton CoT sera résumé, mais il n'est pas garanti qu'il soit totalement cohérent avec le processus de raisonnement réel.
- Les instructions contenues dans l'invite peuvent influencer la façon dont le modèle réfléchit au problème
- L'apprentissage par renforcement (RL) a été utilisé pour améliorer la capacité de CoT de o1, alors que GPT-4o n'a pas été en mesure d'atteindre ses performances de CoT par le seul biais de repères.
- Si l'étape du raisonnement peut sembler plus lente, en réalité la génération des réponses est généralement plus rapide car elle résume le processus de raisonnement.
API et restrictions d'utilisation
- o1-mini a une limite hebdomadaire de 50 messages pour les utilisateurs de ChatGPT Plus.
- Tous les indices sont comptés de la même manière dans ChatGPT
- Plus de niveaux d'accès à l'API et des limites plus élevées seront déployés au fil du temps.
- La mise en cache des indices dans les API est très demandée, mais il n'y a pas encore de calendrier.
Fixation des prix, ajustement et expansion
- o1 La tarification des modèles devrait suivre une tendance à la baisse tous les 1 à 2 ans.
- La tarification de l'API en fonction du volume doit être prise en charge à mesure que les restrictions augmentent
- La mise au point est en cours, mais le calendrier n'a pas encore été fixé
- o1 L'expansion est limitée par des goulets d'étranglement dans le domaine de la recherche et de l'ingénierie
- Un nouveau paradigme étendu pour le calcul déductif peut conduire à des améliorations significatives dans les futures générations de modèles.
- Les extensions inversées ne sont pas significatives pour l'instant, mais o1-preview est à peine plus performant (voire légèrement moins performant) que GPT-4o dans les questions d'écriture individuelles.
Développement de modèles et perspectives de recherche
- o1 Compétences de raisonnement grâce à une formation intensive
- Le modèle fait preuve de créativité et excelle dans les tâches latérales telles que la poésie.
- Le raisonnement philosophique d'o1 et ses capacités de raisonnement étendues sont impressionnants, comme le décryptage de codes
- o1 a été utilisé par les chercheurs pour créer un robot GitHub qui interroge les bons CODEOWNERS pour des révisions de code.
- Lors des tests internes, o1 s'est posé des questions difficiles afin d'évaluer sa capacité à
- Des connaissances approfondies du domaine mondial sont ajoutées et seront améliorées dans les prochaines versions.
- Données actualisées à ajouter pour o1-mini (actuellement octobre 2023)
Conseils et bonnes pratiques
- o1 Bénéficier de conseils sur les cas limites ou les styles de raisonnement
- Les modèles o1 sont plus réceptifs aux indices de raisonnement que les modèles antérieurs.
- La fourniture d'un contexte pertinent dans la Génération Augmentée de Récupération (GAR) améliore les performances ; les fragments non pertinents peuvent affaiblir l'inférence.
Commentaires généraux et améliorations futures
- o1-preview est moins restrictif parce qu'il se trouve dans une phase de test précoce, mais il augmentera le nombre d'utilisateurs de l'application
- Les temps de latence et d'inférence sont activement améliorés
Capacités de modélisation importantes
- o1 peut réfléchir à des questions philosophiques telles que "Qu'est-ce que la vie ?"
- Selon les chercheurs, o1 excelle dans l'exécution de tâches complexes et dans le raisonnement approfondi à partir d'instructions limitées.
- Les capacités de raisonnement créatif d'o1, telles que l'évaluation de ses capacités en posant ses propres questions, démontrent un niveau élevé de compétences en matière de résolution de problèmes.
© déclaration de droits d'auteur
L'article est protégé par le droit d'auteur et ne doit pas être reproduit sans autorisation.
Articles connexes
Pas de commentaires...