Explore todos os modelos de IA Para desenvolvimento de IA de conversação

Mergulhe no mundo dos modelos de IA do ChatBotKit. Aqui, apresentamos uma grande variedade de tecnologias sofisticadas de IA, cada uma projetada para atender a diferentes aspectos da IA conversacional e do desenvolvimento de chatbots.

  • o1-next

    o1-preview is OpenAI's new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-classic

    o1-preview is OpenAI's new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1

    o1-preview is OpenAI's new reasoning model for complex tasks that require broad general knowledge. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-mini-next

    o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-mini-classic

    o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • o1-mini

    o1-mini is a fast, cost-efficient reasoning model tailored to coding, math, and science use cases. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "o1", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • gpt-4o-mini-next

    GPT-4o mini is OpenAI's most cost-efficient small model that's smarter and cheaper than GPT-3.5 Turbo, and has vision capabilities. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.0333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-mini-classic

    GPT-4o mini is OpenAI's most cost-efficient small model that's smarter and cheaper than GPT-3.5 Turbo, and has vision capabilities. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.0333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-mini

    GPT-4o mini is OpenAI's most cost-efficient small model that's smarter and cheaper than GPT-3.5 Turbo, and has vision capabilities. The model has 128K context and an October 2023 knowledge cutoff.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.0333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-next

    O GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com recursos de visão mais robustos. O modelo tem um contexto de 128K e um corte de conhecimento em outubro de 2023.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.5556 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o-classic

    O GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com recursos de visão mais robustos. O modelo tem um contexto de 128K e um corte de conhecimento em outubro de 2023.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4o

    O GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com recursos de visão mais robustos. O modelo tem um contexto de 128K e um corte de conhecimento em outubro de 2023.
    { "provider": "openai", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-turbo-next

    O GPT-4 Turbo é oferecido em um contexto de 128K com um corte de conhecimento em abril de 2023 e suporte básico para visão.
    { "provider": "openai", "family": "gpt-4-turbo", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-turbo-classic

    O GPT-4 Turbo é oferecido em um contexto de 128K com um corte de conhecimento em abril de 2023 e suporte básico para visão.
    { "provider": "openai", "family": "gpt-4-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-turbo

    O GPT-4 Turbo é oferecido em um contexto de 128K com um corte de conhecimento em abril de 2023 e suporte básico para visão.
    { "provider": "openai", "family": "gpt-4-turbo", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-próximo

    O modelo GPT-4 foi criado com amplo conhecimento geral e experiência no domínio.
    { "provider": "openai", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4-classic

    O modelo GPT-4 foi criado com amplo conhecimento geral e experiência no domínio.
    { "provider": "openai", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-4

    O modelo GPT-4 foi criado com amplo conhecimento geral e experiência no domínio.
    { "provider": "openai", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-3.5-turbo-next

    O GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 16384, "maxInputTokens": 12288, "maxOutputTokens": 4096, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-3.5-turbo-classic

    O GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.2222 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • gpt-3.5-turbo

    O GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 16384, "maxInputTokens": 12288, "maxOutputTokens": 4096, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • Instruções do gpt-3.5-turbo

    O GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
    { "provider": "openai", "family": "gpt-3.5-turbo", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.1111 }, "interactionMaxMessages": 100, "temperature": 0.7, "frequencyPenalty": 0, "presencePenalty": 0 }
  • mistral-large-latest

    Raciocínio de alto nível para tarefas de alta complexidade. O modelo mais avançado da família Mistral AI.
    { "provider": "mistral", "family": "large", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 32000, "maxInputTokens": 24000, "maxOutputTokens": 8000, "pricing": { "tokenRatio": 0.6667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • mistral-small-latest

    Raciocínio econômico para cargas de trabalho de baixa latência.
    { "provider": "mistral", "family": "large", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 32000, "maxInputTokens": 24000, "maxOutputTokens": 8000, "pricing": { "tokenRatio": 0.1667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3-opus

    O modelo de IA mais avançado da Anthropic, com desempenho de alto nível em tarefas altamente complexas. Ele pode navegar por prompts abertos e cenários invisíveis com fluência notável e compreensão semelhante à humana.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 4.1667 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3-sonnet

    O Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece o máximo de utilidade e foi projetado para ser confiável para implementações de IA em escala.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3-haiku

    Anthropic's fastest, most compact model for near-instant responsiveness. It answers simple queries and requests with speed.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 0.0694 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v3

    O Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece o máximo de utilidade e foi projetado para ser confiável para implementações de IA em escala.
    { "provider": "bedrock", "family": "claude", "features": [ "chat" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v2.1

    O Claude 2.1 é um modelo de linguagem grande (LLM) da Anthropic com uma janela de contexto de 200 mil tokens, taxas de alucinação reduzidas e precisão aprimorada em documentos longos.
    { "provider": "bedrock", "family": "claude", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 200000, "maxInputTokens": 150000, "maxOutputTokens": 50000, "pricing": { "tokenRatio": 1.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-v2

    O Claude 2.0 é um LLM líder da Anthropic que permite uma ampla gama de tarefas, desde diálogos sofisticados e geração de conteúdo criativo até instruções detalhadas.
    { "provider": "bedrock", "family": "claude", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 100000, "maxInputTokens": 75000, "maxOutputTokens": 25000, "pricing": { "tokenRatio": 1.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • claude-instant-v1

    Claude Instant é o LLM mais rápido, de preço mais baixo e muito capaz da Anthropic.
    { "provider": "bedrock", "family": "claude", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 100000, "maxInputTokens": 75000, "maxOutputTokens": 25000, "pricing": { "tokenRatio": 0.1333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
    beta
  • personalizado

    Qualquer modelo personalizado criado pelo usuário.
    { "provider": "chatbotkit", "family": "chatbotkit", "features": [], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.0278 }, "interactionMaxMessages": 100, "temperature": 0, "frequencyPenalty": 0, "presencePenalty": 0 }
  • text-qaa-004

    This model belongs to the GPT-4o family of ChatBotKit models. It is designed for question and answer applications. The model has a token limit of 128000 and provides a balance between cost and quality. It is a custom model based on the gpt model architecture.
    { "provider": "chatbotkit", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 4, "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • text-qaa-003

    Esse modelo pertence à família GPT-4 Turbo de modelos do ChatBotKit. Ele foi projetado para aplicativos de perguntas e respostas. O modelo tem um limite de tokens de 128.000 e oferece um equilíbrio entre custo e qualidade. É um modelo personalizado baseado na arquitetura do modelo gpt.
    { "provider": "chatbotkit", "family": "gpt-4-turbo", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 1.6667 }, "interactionMaxMessages": 4, "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • text-qaa-002

    Esse modelo pertence à família GPT-4 de modelos do ChatBotKit. Ele foi projetado para aplicativos de perguntas e respostas. O modelo tem um limite de token de 8 * ONE_K e oferece um equilíbrio entre custo e qualidade. É um modelo personalizado baseado na arquitetura do modelo gpt.
    { "provider": "chatbotkit", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 4, "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • text-qaa-001

    Esse modelo pertence à família Turbo de modelos do ChatBotKit. Ele foi projetado para aplicativos de perguntas e respostas. O modelo tem um limite de tokens de 4000 e oferece um equilíbrio entre custo e qualidade. É um modelo personalizado baseado na arquitetura do modelo gpt.
    { "provider": "chatbotkit", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 4, "forceFunction": "query", "temperature": 0.2, "frequencyPenalty": 0, "presencePenalty": 0 }
  • text-algo-004

    his model belongs to the GPT-4o family of ChatBotKit models.
    { "provider": "chatbotkit", "family": "gpt-4o", "features": [ "chat", "functions", "vision" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 128000, "maxInputTokens": 124000, "maxOutputTokens": 4000, "pricing": { "tokenRatio": 0.8333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • texto-algo-003

    Esse modelo pertence à família GPT-4 de modelos do ChatBotKit.
    { "provider": "chatbotkit", "family": "gpt-4", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 8192, "maxInputTokens": 6144, "maxOutputTokens": 2048, "pricing": { "tokenRatio": 3.3333 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • texto-algo-002

    Esse modelo pertence à família Turbo de modelos do ChatBotKit.
    { "provider": "chatbotkit", "family": "gpt-3.5-turbo", "features": [ "chat", "functions" ], "region": "us", "availableRegions": [ "us" ], "maxTokens": 4096, "maxInputTokens": 3072, "maxOutputTokens": 1024, "pricing": { "tokenRatio": 0.0833 }, "interactionMaxMessages": 100, "temperature": 1, "frequencyPenalty": 0, "presencePenalty": 0 }
  • dalle3

    Esse modelo é baseado na arquitetura DALL-E 3. É um modelo de alta qualidade que pode gerar imagens a partir de texto. Ele é ajustável e oferece um equilíbrio entre custo e qualidade.
    { "provider": "openai", "family": "dalle", "features": [], "region": "us", "availableRegions": [ "us" ] }
  • dalle2

    Esse modelo é baseado na arquitetura DALL-E 2. É um modelo de alta qualidade que pode gerar imagens a partir de texto. Ele é ajustável e oferece um equilíbrio entre custo e qualidade.
    { "provider": "openai", "family": "dalle", "features": [], "region": "us", "availableRegions": [ "us" ] }
  • stablediffusion

    Esse modelo é baseado na arquitetura Stable Diffusion. É um modelo de alta qualidade que pode gerar imagens a partir de texto. Ele é ajustável e oferece um equilíbrio entre custo e qualidade.
    { "provider": "awsbedrock", "family": "stablediffusion", "features": [], "region": "us", "availableRegions": [ "us" ] }