Skip to Main Content

Modelos de Texto AIGC

Actualmente existen muchos modelos de texto, algunos de los cuales son productos de la afinación de modelos grandes existentes, y algunos de los cuales son modelos básicos entrenados desde cero por varias empresas.

Modelos Básicos Bien Conocidos

Modelo BásicoFecha de LanzamientoTamaño del ModeloPublicadorIdiomaCaracterísticas
LLaMA2023.037B~65BMetaPrincipalmente inglés, soporte débil para otros idiomas
MPT2023.057BmosaicmlPrincipalmente inglés, soporte débil para otros idiomasDisponible comercialmente, soporta contextos largos
ChatGLM2023.036BTHUDMChino e inglés
Cerebras-GPT2023.031.3B~13BcerebrasPrincipalmente inglés, soporte débil para otros idiomas
rwkv-4-raven2023.041.5B~14BBlinkDLMúltiples versiones, diferentes versiones tienen diferentes soportes de idiomaEstructura no transforma
OpenFlamingo2023.039BLAIONPrincipalmente inglés, soporte débil para otros idiomasMulti-modal, soporta imágenes
StableLM2023.043B~7Bstability.aiPrincipalmente inglés, soporte débil para otros idiomas
Bloom2022.101B~176Bbigscience59 idiomas
RedPajama-INCITE2023.053B~7BtogetherPrincipalmente inglés, soporte débil para otros idiomas
pythia2023.031B~12Beleuther.aiInglés
GPT-Neo2021.03125M~2.7Beleuther.aiInglés
GPT-J2021.036Beleuther.aiInglés
GPT-NeoX2022.0220Beleuther.aiInglés
OPT2022.05125M-175BMetaPrincipalmente inglés, soporte débil para otros idiomas

Observaciones

La relación entre otros modelos bien conocidos en la comunidad y estos modelos básicos se muestra en la siguiente tabla.

Modelo BásicoNombre del ModeloMétodo de AfinaciónPublicadorIntroducción
LLaMAAlpacaAfinación de parámetros completosstanfordModelo afinado de LLaMA, afinado utilizando text-davinci-003 de OpenAI
Alpaca-LoRAAfinación ligeratloenIgual que Alpaca, pero afinado utilizando Lora
VicunaAfinación de parámetros completosLMSYS OrgModelo afinado de LLaMA, entrenado y afinado utilizando diálogos compartidos por usuarios recopilados de ShareGPT
KoalaAfinación de parámetros completosberkeleyModelo afinado de LLaMA
WizardLMAfinación de parámetros completosWizardLMModelo afinado de LLaMA, se centra en la afinación de instrucciones complejas
GPT-Jdolly-v1Afinación de parámetros completosdatabricksModelo afinado de GPT-J, se centra en la afinación de instrucciones
gpt4all-jAfinación de parámetros completosnomic.aiModelo afinado de GPT-J
pythiadolly-v2Afinación de parámetros completosdatabricksModelo afinado de pythia, se centra en la afinación de instrucciones