"use strict";(self.webpackChunk_N_E=self.webpackChunk_N_E||[]).push([[8939],{74445:function(e,i){i.Z={chatModels:[{displayName:"Jamba 1.5 Mini",enabled:!0,functionCall:!0,id:"jamba-1.5-mini",pricing:{input:.2,output:.4},tokens:256e3},{displayName:"Jamba 1.5 Large",enabled:!0,functionCall:!0,id:"jamba-1.5-large",pricing:{input:2,output:8},tokens:256e3}],checkModel:"jamba-1.5-mini",id:"ai21",modelList:{showModelFetcher:!0},modelsUrl:"https://docs.ai21.com/reference",name:"Ai21Labs",url:"https://studio.ai21.com"}},59135:function(e,i){i.Z={chatModels:[{description:"360GPT2 Pro 是 360 公司推出的高级自然语言处理模型，具备卓越的文本生成和理解能力，尤其在生成与创作领域表现出色，能够处理复杂的语言转换和角色演绎任务。",displayName:"360GPT2 Pro",enabled:!0,id:"360gpt2-pro",maxOutput:7e3,pricing:{currency:"CNY",input:5,output:5},tokens:8192},{description:"360GPT Pro 作为 360 AI 模型系列的重要成员，以高效的文本处理能力满足多样化的自然语言应用场景，支持长文本理解和多轮对话等功能。",displayName:"360GPT Pro",enabled:!0,functionCall:!0,id:"360gpt-pro",maxOutput:7e3,pricing:{currency:"CNY",input:5,output:5},tokens:8192},{description:"360GPT Turbo 提供强大的计算和对话能力，具备出色的语义理解和生成效率，是企业和开发者理想的智能助理解决方案。",displayName:"360GPT Turbo",enabled:!0,id:"360gpt-turbo",maxOutput:7e3,pricing:{currency:"CNY",input:2,output:2},tokens:8192},{description:"360GPT Turbo Responsibility 8K 强调语义安全和责任导向，专为对内容安全有高度要求的应用场景设计，确保用户体验的准确性与稳健性。",displayName:"360GPT Turbo Responsibility 8K",enabled:!0,id:"360gpt-turbo-responsibility-8k",maxOutput:2048,pricing:{currency:"CNY",input:2,output:2},tokens:8192}],checkModel:"360gpt-turbo",description:"360 AI 是 360 公司推出的 AI 模型和服务平台，提供多种先进的自然语言处理模型，包括 360GPT2 Pro、360GPT Pro、360GPT Turbo 和 360GPT Turbo Responsibility 8K。这些模型结合了大规模参数和多模态能力，广泛应用于文本生成、语义理解、对话系统与代码生成等领域。通过灵活的定价策略，360 AI 满足多样化用户需求，支持开发者集成，推动智能化应用的革新和发展。",disableBrowserRequest:!0,id:"ai360",modelList:{showModelFetcher:!0},modelsUrl:"https://ai.360.cn/platform/docs/overview",name:"360 AI",url:"https://ai.360.com"}},4696:function(e,i){i.Z={chatModels:[{description:"Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度，同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。",displayName:"Claude 3.5 Sonnet",enabled:!0,functionCall:!0,id:"claude-3-5-sonnet-20241022",maxOutput:8192,pricing:{cachedInput:.3,input:3,output:15,writeCacheInput:3.75},releasedAt:"2024-10-22",tokens:2e5,vision:!0},{description:"Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度，同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。",displayName:"Claude 3.5 Sonnet 0620",functionCall:!0,id:"claude-3-5-sonnet-20240620",maxOutput:8192,pricing:{cachedInput:.3,input:3,output:15,writeCacheInput:3.75},releasedAt:"2024-06-20",tokens:2e5,vision:!0},{description:"Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型，旨在实现近乎即时的响应。它具有快速且准确的定向性能。",displayName:"Claude 3 Haiku",enabled:!0,functionCall:!0,id:"claude-3-haiku-20240307",maxOutput:4096,pricing:{input:.25,output:1.25},releasedAt:"2024-03-07",tokens:2e5,vision:!0},{description:"Claude 3 Sonnet 在智能和速度方面为企业工作负载提供了理想的平衡。它以更低的价格提供最大效用，可靠且适合大规模部署。",displayName:"Claude 3 Sonnet",enabled:!0,functionCall:!0,id:"claude-3-sonnet-20240229",maxOutput:4096,pricing:{input:3,output:15},releasedAt:"2024-02-29",tokens:2e5,vision:!0},{description:"Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。",displayName:"Claude 3 Opus",enabled:!0,functionCall:!0,id:"claude-3-opus-20240229",maxOutput:4096,pricing:{input:15,output:75},releasedAt:"2024-02-29",tokens:2e5,vision:!0},{description:"Claude 2 为企业提供了关键能力的进步，包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能：工具调用。",displayName:"Claude 2.1",id:"claude-2.1",maxOutput:4096,pricing:{input:8,output:24},releasedAt:"2023-11-21",tokens:2e5},{description:"Claude 2 为企业提供了关键能力的进步，包括业界领先的 200K token 上下文、大幅降低模型幻觉的发生率、系统提示以及一个新的测试功能：工具调用。",displayName:"Claude 2.0",id:"claude-2.0",maxOutput:4096,pricing:{input:8,output:24},releasedAt:"2023-07-11",tokens:1e5}],checkModel:"claude-3-haiku-20240307",description:"Anthropic 是一家专注于人工智能研究和开发的公司，提供了一系列先进的语言模型，如 Claude 3.5 Sonnet、Claude 3 Sonnet、Claude 3 Opus 和 Claude 3 Haiku。这些模型在智能、速度和成本之间取得了理想的平衡，适用于从企业级工作负载到快速响应的各种应用场景。Claude 3.5 Sonnet 作为其最新模型，在多项评估中表现优异，同时保持了较高的性价比。",id:"anthropic",modelsUrl:"https://docs.anthropic.com/en/docs/about-claude/models#model-names",name:"Anthropic",proxyUrl:{placeholder:"https://api.anthropic.com"},smoothing:{speed:5,text:!0},url:"https://anthropic.com"}},56008:function(e,i){i.Z={chatModels:[{deploymentName:"gpt-35-turbo",description:"GPT 3.5 Turbo，OpenAI提供的高效模型，适用于聊天和文本生成任务，支持并行函数调用。",displayName:"GPT 3.5 Turbo",enabled:!0,functionCall:!0,id:"gpt-35-turbo",maxOutput:4096,tokens:16385},{deploymentName:"gpt-35-turbo-16k",description:"GPT 3.5 Turbo 16k，高容量文本生成模型，适合复杂任务。",displayName:"GPT 3.5 Turbo",functionCall:!0,id:"gpt-35-turbo-16k",tokens:16384},{deploymentName:"gpt-4-turbo",description:"GPT 4 Turbo，多模态模型，提供杰出的语言理解和生成能力，同时支持图像输入。",displayName:"GPT 4 Turbo",enabled:!0,functionCall:!0,id:"gpt-4",tokens:128e3,vision:!0},{deploymentName:"gpt-4-vision",description:"GPT-4 视觉预览版，专为图像分析和处理任务设计。",displayName:"GPT 4 Turbo with Vision Preview",id:"gpt-4-vision-preview",tokens:128e3,vision:!0},{deploymentName:"gpt-4o-mini",description:"GPT-4o Mini，小型高效模型，具备与GPT-4o相似的卓越性能。",displayName:"GPT 4o Mini",enabled:!0,functionCall:!0,id:"gpt-4o-mini",tokens:128e3,vision:!0},{deploymentName:"gpt-4o",description:"GPT-4o 是最新的多模态模型，结合高级文本和图像处理能力。",displayName:"GPT 4o",enabled:!0,functionCall:!0,id:"gpt-4o",tokens:128e3,vision:!0}],defaultShowBrowserRequest:!0,description:"Azure 提供多种先进的AI模型，包括GPT-3.5和最新的GPT-4系列，支持多种数据类型和复杂任务，致力于安全、可靠和可持续的AI解决方案。",id:"azure",modelsUrl:"https://learn.microsoft.com/azure/ai-services/openai/concepts/models",name:"Azure",url:"https://azure.microsoft.com"}},63836:function(e,i){i.Z={chatModels:[{description:"模型能力国内第一，在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力，多项权威评测基准表现优异。",displayName:"Baichuan 4",enabled:!0,functionCall:!0,id:"Baichuan4",maxOutput:4096,pricing:{currency:"CNY",input:100,output:100},tokens:32768},{description:"针对企业高频场景优化，效果大幅提升，高性价比。相对于Baichuan2模型，内容创作提升20%，知识问答提升17%， 角色扮演能力提升40%。整体效果比GPT3.5更优。",displayName:"Baichuan 3 Turbo",enabled:!0,functionCall:!0,id:"Baichuan3-Turbo",maxOutput:8192,pricing:{currency:"CNY",input:12,output:12},tokens:32768},{description:"具备 128K 超长上下文窗口，针对企业高频场景优化，效果大幅提升，高性价比。相对于Baichuan2模型，内容创作提升20%，知识问答提升17%， 角色扮演能力提升40%。整体效果比GPT3.5更优。",displayName:"Baichuan 3 Turbo 128k",enabled:!0,id:"Baichuan3-Turbo-128k",maxOutput:4096,pricing:{currency:"CNY",input:24,output:24},tokens:128e3},{description:"采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。支持PDF、Word等多种文档上传及网址输入，信息获取及时、全面，输出结果准确、专业。",displayName:"Baichuan 2 Turbo",id:"Baichuan2-Turbo",maxOutput:8192,pricing:{currency:"CNY",input:8,output:8},tokens:32768}],checkModel:"Baichuan3-Turbo",description:"百川智能是一家专注于人工智能大模型研发的公司，其模型在国内知识百科、长文本处理和生成创作等中文任务上表现卓越，超越了国外主流模型。百川智能还具备行业领先的多模态能力，在多项权威评测中表现优异。其模型包括 Baichuan 4、Baichuan 3 Turbo 和 Baichuan 3 Turbo 128k 等，分别针对不同应用场景进行优化，提供高性价比的解决方案。",id:"baichuan",modelList:{showModelFetcher:!0},modelsUrl:"https://platform.baichuan-ai.com/price",name:"Baichuan",smoothing:{speed:2,text:!0},url:"https://platform.baichuan-ai.com"}},48266:function(e,i){i.Z={chatModels:[{description:"Claude 3.5 Sonnet 提升了行业标准，性能超过竞争对手模型和 Claude 3 Opus，在广泛的评估中表现出色，同时具有我们中等层级模型的速度和成本。",displayName:"Claude 3.5 Sonnet",enabled:!0,functionCall:!0,id:"anthropic.claude-3-5-sonnet-20241022-v2:0",pricing:{input:3,output:15},tokens:2e5,vision:!0},{description:"Claude 3.5 Sonnet 提升了行业标准，性能超过竞争对手模型和 Claude 3 Opus，在广泛的评估中表现出色，同时具有我们中等层级模型的速度和成本。",displayName:"Claude 3.5 Sonnet 0620",enabled:!0,functionCall:!0,id:"anthropic.claude-3-5-sonnet-20240620-v1:0",pricing:{input:3,output:15},tokens:2e5,vision:!0},{description:"Claude 3 Haiku 是 Anthropic 最快、最紧凑的模型，提供近乎即时的响应速度。它可以快速回答简单的查询和请求。客户将能够构建模仿人类互动的无缝 AI 体验。Claude 3 Haiku 可以处理图像并返回文本输出，具有 200K 的上下文窗口。",displayName:"Claude 3 Haiku",enabled:!0,functionCall:!0,id:"anthropic.claude-3-haiku-20240307-v1:0",pricing:{input:.25,output:1.25},tokens:2e5,vision:!0},{description:"Anthropic 的 Claude 3 Sonnet 在智能和速度之间达到了理想的平衡——特别适合企业工作负载。它以低于竞争对手的价格提供最大的效用，并被设计成为可靠的、高耐用的主力机，适用于规模化的 AI 部署。Claude 3 Sonnet 可以处理图像并返回文本输出，具有 200K 的上下文窗口。",displayName:"Claude 3 Sonnet",enabled:!0,functionCall:!0,id:"anthropic.claude-3-sonnet-20240229-v1:0",pricing:{input:3,output:15},tokens:2e5,vision:!0},{description:"Claude 3 Opus 是 Anthropic 最强大的 AI 模型，具有在高度复杂任务上的最先进性能。它可以处理开放式提示和未见过的场景，具有出色的流畅性和类人的理解能力。Claude 3 Opus 展示了生成 AI 可能性的前沿。Claude 3 Opus 可以处理图像并返回文本输出，具有 200K 的上下文窗口。",displayName:"Claude 3 Opus",enabled:!0,functionCall:!0,id:"anthropic.claude-3-opus-20240229-v1:0",pricing:{input:15,output:75},tokens:2e5,vision:!0},{description:"Claude 2 的更新版，具有双倍的上下文窗口，以及在长文档和 RAG 上下文中的可靠性、幻觉率和基于证据的准确性的改进。",displayName:"Claude 2.1",id:"anthropic.claude-v2:1",pricing:{input:8,output:24},tokens:2e5},{description:"Anthropic 在从复杂对话和创意内容生成到详细指令跟随的广泛任务中都表现出高度能力的模型。",displayName:"Claude 2.0",id:"anthropic.claude-v2",pricing:{input:8,output:24},tokens:1e5},{description:"一款快速、经济且仍然非常有能力的模型，可以处理包括日常对话、文本分析、总结和文档问答在内的一系列任务。",displayName:"Claude Instant",id:"anthropic.claude-instant-v1",pricing:{input:.8,output:2.4},tokens:1e5},{description:"Meta Llama 3.1 8B Instruct 的更新版，包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型，包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化，并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天，而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型，包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。",displayName:"Llama 3.1 8B Instruct",enabled:!0,functionCall:!0,id:"meta.llama3-1-8b-instruct-v1:0",pricing:{input:.22,output:.22},tokens:128e3},{description:"Meta Llama 3.1 70B Instruct 的更新版，包括扩展的 128K 上下文长度、多语言性和改进的推理能力。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型，包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化，并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天，而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型，包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。",displayName:"Llama 3.1 70B Instruct",enabled:!0,functionCall:!0,id:"meta.llama3-1-70b-instruct-v1:0",pricing:{input:.99,output:.99},tokens:128e3},{description:"Meta Llama 3.1 405B Instruct 是 Llama 3.1 Instruct 模型中最大、最强大的模型，是一款高度先进的对话推理和合成数据生成模型，也可以用作在特定领域进行专业持续预训练或微调的基础。Llama 3.1 提供的多语言大型语言模型 (LLMs) 是一组预训练的、指令调整的生成模型，包括 8B、70B 和 405B 大小 (文本输入/输出)。Llama 3.1 指令调整的文本模型 (8B、70B、405B) 专为多语言对话用例进行了优化，并在常见的行业基准测试中超过了许多可用的开源聊天模型。Llama 3.1 旨在用于多种语言的商业和研究用途。指令调整的文本模型适用于类似助手的聊天，而预训练模型可以适应各种自然语言生成任务。Llama 3.1 模型还支持利用其模型的输出来改进其他模型，包括合成数据生成和精炼。Llama 3.1 是使用优化的变压器架构的自回归语言模型。调整版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF) 来符合人类对帮助性和安全性的偏好。",displayName:"Llama 3.1 405B Instruct",enabled:!0,functionCall:!0,id:"meta.llama3-1-405b-instruct-v1:0",pricing:{input:5.32,output:16},tokens:128e3},{description:"Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM)，旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分，它非常适合计算能力和资源有限、边缘设备和更快的训练时间。",displayName:"Llama 3 8B Instruct",id:"meta.llama3-8b-instruct-v1:0",pricing:{input:.3,output:.6},tokens:8e3},{description:"Meta Llama 3 是一款面向开发者、研究人员和企业的开放大型语言模型 (LLM)，旨在帮助他们构建、实验并负责任地扩展他们的生成 AI 想法。作为全球社区创新的基础系统的一部分，它非常适合内容创建、对话 AI、语言理解、研发和企业应用。",displayName:"Llama 3 70B Instruct",id:"meta.llama3-70b-instruct-v1:0",pricing:{input:2.65,output:3.5},tokens:8e3}],checkModel:"anthropic.claude-instant-v1",description:"Bedrock 是亚马逊 AWS 提供的一项服务，专注于为企业提供先进的 AI 语言模型和视觉模型。其模型家族包括 Anthropic 的 Claude 系列、Meta 的 Llama 3.1 系列等，涵盖从轻量级到高性能的多种选择，支持文本生成、对话、图像处理等多种任务，适用于不同规模和需求的企业应用。",id:"bedrock",modelsUrl:"https://docs.aws.amazon.com/bedrock/latest/userguide/model-ids.html",name:"Bedrock",url:"https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html"}},27116:function(e,i){i.Z={chatModels:[{description:"融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力，还更好地对齐了人类偏好。此外，DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。",displayName:"DeepSeek V2.5",enabled:!0,functionCall:!0,id:"deepseek-chat",pricing:{cachedInput:.014,input:.14,output:.28},releasedAt:"2024-09-05",tokens:128e3}],checkModel:"deepseek-chat",description:"DeepSeek 是一家专注于人工智能技术研究和应用的公司，其最新模型 DeepSeek-V2.5 融合了通用对话和代码处理能力，并在人类偏好对齐、写作任务和指令跟随等方面实现了显著提升。",id:"deepseek",modelList:{showModelFetcher:!0},modelsUrl:"https://platform.deepseek.com/api-docs/zh-cn/quick_start/pricing",name:"DeepSeek",url:"https://deepseek.com"}},23199:function(e,i){i.Z={chatModels:[{description:"Fireworks 公司最新推出的 Firefunction-v2 是一款性能卓越的函数调用模型，基于 Llama-3 开发，并通过大量优化，特别适用于函数调用、对话及指令跟随等场景。",displayName:"Firefunction V2",enabled:!0,functionCall:!0,id:"accounts/fireworks/models/firefunction-v2",tokens:8192},{description:"Fireworks 开源函数调用模型，提供卓越的指令执行能力和开放可定制的特性。",displayName:"Firefunction V1",functionCall:!0,id:"accounts/fireworks/models/firefunction-v1",tokens:32768},{description:"fireworks-ai/FireLLaVA-13b 是一款视觉语言模型，可以同时接收图像和文本输入，经过高质量数据训练，适合多模态任务。",displayName:"FireLLaVA-13B",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/firellava-13b",tokens:4096,vision:!0},{description:"Llama 3.2 1B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率，与更大型的模型相比，在延迟和成本方面提供了显著的改进。该模型的示例用例包括检索和摘要。",displayName:"Llama 3.2 1B Instruct",enabled:!0,id:"accounts/fireworks/models/llama-v3p2-1b-instruct",tokens:131072},{description:"Llama 3.2 3B 指令模型是Meta推出的一款轻量级多语言模型。该模型旨在提高效率，与更大型的模型相比，在延迟和成本方面提供了显著的改进。该模型的示例用例包括查询和提示重写以及写作辅助。",displayName:"Llama 3.2 3B Instruct",enabled:!0,id:"accounts/fireworks/models/llama-v3p2-3b-instruct",tokens:131072},{description:"Meta的11B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据，如图表和图形，并通过生成文本描述图像细节来弥合视觉与语言之间的差距。",displayName:"Llama 3.2 11B Vision Instruct",enabled:!0,id:"accounts/fireworks/models/llama-v3p2-11b-vision-instruct",tokens:131072,vision:!0},{description:"Meta的90B参数指令调整图像推理模型。该模型针对视觉识别、图像推理、图像描述和回答关于图像的一般性问题进行了优化。该模型能够理解视觉数据，如图表和图形，并通过生成文本描述图像细节来弥合视觉与语言之间的差距。",displayName:"Llama 3.2 90B Vision Instruct",enabled:!0,id:"accounts/fireworks/models/llama-v3p2-90b-vision-instruct",tokens:131072,vision:!0},{description:"Llama 3.1 8B 指令模型，专为多语言对话优化，能够在常见行业基准上超越多数开源及闭源模型。",displayName:"Llama 3.1 8B Instruct",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/llama-v3p1-8b-instruct",tokens:131072},{description:"Llama 3.1 70B 指令模型，提供卓越的自然语言理解和生成能力，是对话及分析任务的理想选择。",displayName:"Llama 3.1 70B Instruct",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/llama-v3p1-70b-instruct",tokens:131072},{description:"Llama 3.1 405B 指令模型，具备超大规模参数，适合复杂任务和高负载场景下的指令跟随。",displayName:"Llama 3.1 405B Instruct",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/llama-v3p1-405b-instruct",tokens:131072},{description:"Llama 3 8B 指令模型，优化用于对话及多语言任务，表现卓越且高效。",displayName:"Llama 3 8B Instruct",functionCall:!1,id:"accounts/fireworks/models/llama-v3-8b-instruct",tokens:8192},{description:"Llama 3 70B 指令模型，专为多语言对话和自然语言理解优化，性能优于多数竞争模型。",displayName:"Llama 3 70B Instruct",functionCall:!1,id:"accounts/fireworks/models/llama-v3-70b-instruct",tokens:8192},{description:"Llama 3 8B 指令模型（HF 版本），与官方实现结果一致，具备高度一致性和跨平台兼容性。",displayName:"Llama 3 8B Instruct (HF version)",functionCall:!1,id:"accounts/fireworks/models/llama-v3-8b-instruct-hf",tokens:8192},{description:"Llama 3 70B 指令模型（HF 版本），与官方实现结果保持一致，适合高质量的指令跟随任务。",displayName:"Llama 3 70B Instruct (HF version)",functionCall:!1,id:"accounts/fireworks/models/llama-v3-70b-instruct-hf",tokens:8192},{description:"Mixtral MoE 8x7B 指令模型，多专家架构提供高效的指令跟随及执行。",displayName:"Mixtral MoE 8x7B Instruct",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/mixtral-8x7b-instruct",tokens:32768},{description:"Mixtral MoE 8x22B 指令模型，大规模参数和多专家架构，全方位支持复杂任务的高效处理。",displayName:"Mixtral MoE 8x22B Instruct",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/mixtral-8x22b-instruct",tokens:65536},{description:"Mixtral MoE 8x7B 指令模型（HF 版本），性能与官方实现一致，适合多种高效任务场景。",displayName:"Mixtral MoE 8x7B Instruct (HF version)",functionCall:!1,id:"accounts/fireworks/models/mixtral-8x7b-instruct-hf",tokens:32768},{description:"Phi-3-Vision-128K-Instruct 是一个轻量级的、最先进的开放多模态模型，它基于包括合成数据和经过筛选的公开网站在内的数据集构建，专注于非常高质量、推理密集型的数据，这些数据既包括文本也包括视觉。该模型属于 Phi-3 模型系列，其多模态版本支持 128K 的上下文长度（以标记为单位）。该模型经过严格的增强过程，结合了监督微调和直接偏好优化，以确保精确遵循指令和强大的安全措施。",displayName:"Phi 3.5 Vision Instruct",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/phi-3-vision-128k-instruct",tokens:32064,vision:!0},{description:"Qwen2.5 是由阿里云 Qwen 团队开发的一系列仅包含解码器的语言模型。这些模型提供不同的大小，包括 0.5B、1.5B、3B、7B、14B、32B 和 72B，并且有基础版（base）和指令版（instruct）两种变体。",displayName:"Qwen2.5 72B Instruct",enabled:!0,functionCall:!1,id:"accounts/fireworks/models/qwen2p5-72b-instruct",tokens:32768},{description:"Yi-Large 模型，具备卓越的多语言处理能力，可用于各类语言生成和理解任务。",displayName:"Yi-Large",enabled:!0,functionCall:!1,id:"accounts/yi-01-ai/models/yi-large",tokens:32768},{description:"StarCoder 7B 模型，针对80多种编程语言训练，拥有出色的编程填充能力和语境理解。",displayName:"StarCoder 7B",functionCall:!1,id:"accounts/fireworks/models/starcoder-7b",tokens:8192},{description:"StarCoder 15.5B 模型，支持高级编程任务，多语言能力增强，适合复杂代码生成和理解。",displayName:"StarCoder 15.5B",functionCall:!1,id:"accounts/fireworks/models/starcoder-16b",tokens:8192},{description:"MythoMax L2 13B 模型，结合新颖的合并技术，擅长叙事和角色扮演。",displayName:"MythoMax L2 13b",functionCall:!1,id:"accounts/fireworks/models/mythomax-l2-13b",tokens:4096}],checkModel:"accounts/fireworks/models/firefunction-v2",description:"Fireworks AI 是一家领先的高级语言模型服务商，专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3，优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列，提供高效的多语言指令跟随与生成支持。",id:"fireworksai",modelList:{showModelFetcher:!0},modelsUrl:"https://fireworks.ai/models?show=Serverless",name:"Fireworks AI",url:"https://fireworks.ai"}},9291:function(e,i){i.Z={chatModels:[{description:"比 o1-preview 更小、更快，成本低80%，在代码生成和小上下文操作方面表现良好。",displayName:"OpenAI o1-mini",enabled:!0,functionCall:!1,id:"o1-mini",maxOutput:65536,tokens:128e3,vision:!0},{description:"专注于高级推理和解决复杂问题，包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。",displayName:"OpenAI o1-preview",enabled:!0,functionCall:!1,id:"o1-preview",maxOutput:32768,tokens:128e3,vision:!0},{description:"一种经济高效的AI解决方案，适用于多种文本和图像任务。",displayName:"OpenAI GPT-4o mini",enabled:!0,functionCall:!0,id:"gpt-4o-mini",maxOutput:4096,tokens:128e3,vision:!0},{description:"OpenAI GPT-4系列中最先进的多模态模型，可以处理文本和图像输入。",displayName:"OpenAI GPT-4o",enabled:!0,functionCall:!0,id:"gpt-4o",maxOutput:4096,tokens:128e3,vision:!0},{description:"一个52B参数（12B活跃）的多语言模型，提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。",displayName:"AI21 Jamba 1.5 Mini",functionCall:!0,id:"ai21-jamba-1.5-mini",maxOutput:4096,tokens:262144},{description:"一个398B参数（94B活跃）的多语言模型，提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。",displayName:"AI21 Jamba 1.5 Large",functionCall:!0,id:"ai21-jamba-1.5-large",maxOutput:4096,tokens:262144},{description:"Command R是一个可扩展的生成模型，旨在针对RAG和工具使用，使企业能够实现生产级AI。",displayName:"Cohere Command R",id:"cohere-command-r",maxOutput:4096,tokens:131072},{description:"Command R+是一个最先进的RAG优化模型，旨在应对企业级工作负载。",displayName:"Cohere Command R+",id:"cohere-command-r-plus",maxOutput:4096,tokens:131072},{description:"Mistral Nemo是一种尖端的语言模型（LLM），在其尺寸类别中拥有最先进的推理、世界知识和编码能力。",displayName:"Mistral Nemo",id:"mistral-nemo",maxOutput:4096,tokens:131072},{description:"Mistral Small可用于任何需要高效率和低延迟的基于语言的任务。",displayName:"Mistral Small",id:"mistral-small",maxOutput:4096,tokens:131072},{description:"Mistral的旗舰模型，适合需要大规模推理能力或高度专业化的复杂任务（合成文本生成、代码生成、RAG或代理）。",displayName:"Mistral Large",id:"mistral-large",maxOutput:4096,tokens:131072},{description:"在高分辨率图像上表现出色的图像推理能力，适用于视觉理解应用。",displayName:"Llama 3.2 11B Vision",id:"llama-3.2-11b-vision-instruct",maxOutput:4096,tokens:131072,vision:!0},{description:"适用于视觉理解代理应用的高级图像推理能力。",displayName:"Llama 3.2 90B Vision",id:"llama-3.2-90b-vision-instruct",maxOutput:4096,tokens:131072,vision:!0},{description:"Llama 3.1指令调优的文本模型，针对多语言对话用例进行了优化，在许多可用的开源和封闭聊天模型中，在常见行业基准上表现优异。",displayName:"Meta Llama 3.1 8B",id:"meta-llama-3.1-8b-instruct",maxOutput:4096,tokens:131072},{description:"Llama 3.1指令调优的文本模型，针对多语言对话用例进行了优化，在许多可用的开源和封闭聊天模型中，在常见行业基准上表现优异。",displayName:"Meta Llama 3.1 70B",id:"meta-llama-3.1-70b-instruct",maxOutput:4096,tokens:131072},{description:"Llama 3.1指令调优的文本模型，针对多语言对话用例进行了优化，在许多可用的开源和封闭聊天模型中，在常见行业基准上表现优异。",displayName:"Meta Llama 3.1 405B",id:"meta-llama-3.1-405b-instruct",maxOutput:4096,tokens:131072},{description:"一个多功能的80亿参数模型，针对对话和文本生成任务进行了优化。",displayName:"Meta Llama 3 8B",id:"meta-llama-3-8b-instruct",maxOutput:4096,tokens:8192},{description:"一个强大的700亿参数模型，在推理、编码和广泛的语言应用方面表现出色。",displayName:"Meta Llama 3 70B",id:"meta-llama-3-70b-instruct",maxOutput:4096,tokens:8192},{description:"Phi-3-mini模型的更新版。",displayName:"Phi-3.5-mini 128K",id:"Phi-3.5-mini-instruct",maxOutput:4096,tokens:131072},{description:"Phi-3-vision模型的更新版。",displayName:"Phi-3.5-vision 128K",id:"Phi-3.5-vision-instrust",maxOutput:4096,tokens:131072,vision:!0},{description:"Phi-3家族中最小的成员，针对质量和低延迟进行了优化。",displayName:"Phi-3-mini 4K",id:"Phi-3-mini-4k-instruct",maxOutput:4096,tokens:4096},{description:"相同的Phi-3-mini模型，但具有更大的上下文大小，适用于RAG或少量提示。",displayName:"Phi-3-mini 128K",id:"Phi-3-mini-128k-instruct",maxOutput:4096,tokens:131072},{description:"一个70亿参数模型，质量优于Phi-3-mini，重点关注高质量、推理密集型数据。",displayName:"Phi-3-small 8K",id:"Phi-3-small-8k-instruct",maxOutput:4096,tokens:8192},{description:"相同的Phi-3-small模型，但具有更大的上下文大小，适用于RAG或少量提示。",displayName:"Phi-3-small 128K",id:"Phi-3-small-128k-instruct",maxOutput:4096,tokens:131072},{description:"一个140亿参数模型，质量优于Phi-3-mini，重点关注高质量、推理密集型数据。",displayName:"Phi-3-medium 4K",id:"Phi-3-medium-4k-instruct",maxOutput:4096,tokens:4096},{description:"相同的Phi-3-medium模型，但具有更大的上下文大小，适用于RAG或少量提示。",displayName:"Phi-3-medium 128K",id:"Phi-3-medium-128k-instruct",maxOutput:4096,tokens:131072}],checkModel:"Phi-3-mini-4k-instruct",description:"通过GitHub模型，开发人员可以成为AI工程师，并使用行业领先的AI模型进行构建。",enabled:!0,id:"github",modelList:{showModelFetcher:!0},name:"GitHub",url:"https://github.com/marketplace/models"}},31088:function(e,i){i.Z={chatModels:[{description:"Gemini 1.5 Flash 是Google最新的多模态AI模型，具备快速处理能力，支持文本、图像和视频输入，适用于多种任务的高效扩展。",displayName:"Gemini 1.5 Flash",enabled:!0,functionCall:!0,id:"gemini-1.5-flash-latest",maxOutput:8192,pricing:{cachedInput:.01875,input:.075,output:.3},tokens:1008192,vision:!0},{description:"Gemini 1.5 Flash 002 是一款高效的多模态模型，支持广泛应用的扩展。",displayName:"Gemini 1.5 Flash 002",enabled:!0,functionCall:!0,id:"gemini-1.5-flash-002",maxOutput:8192,pricing:{cachedInput:.01875,input:.075,output:.3},releasedAt:"2024-09-25",tokens:1008192,vision:!0},{description:"Gemini 1.5 Flash 001 是一款高效的多模态模型，支持广泛应用的扩展。",displayName:"Gemini 1.5 Flash 001",functionCall:!0,id:"gemini-1.5-flash-001",maxOutput:8192,pricing:{cachedInput:.01875,input:.075,output:.3},tokens:1008192,vision:!0},{description:"Gemini 1.5 Flash 0827 提供了优化后的多模态处理能力，适用多种复杂任务场景。",displayName:"Gemini 1.5 Flash 0827",functionCall:!0,id:"gemini-1.5-flash-exp-0827",maxOutput:8192,pricing:{cachedInput:.01875,input:.075,output:.3},releasedAt:"2024-08-27",tokens:1008192,vision:!0},{description:"Gemini 1.5 Flash 8B 是一款高效的多模态模型，支持广泛应用的扩展。",displayName:"Gemini 1.5 Flash 8B",enabled:!0,functionCall:!0,id:"gemini-1.5-flash-8b",maxOutput:8192,pricing:{cachedInput:.02,input:.075,output:.3},releasedAt:"2024-10-03",tokens:1008192,vision:!0},{description:"Gemini 1.5 Flash 8B 0924 是最新的实验性模型，在文本和多模态用例中都有显著的性能提升。",displayName:"Gemini 1.5 Flash 8B 0924",functionCall:!0,id:"gemini-1.5-flash-8b-exp-0924",maxOutput:8192,pricing:{cachedInput:.01875,input:.075,output:.3},releasedAt:"2024-09-24",tokens:1008192,vision:!0},{description:"Gemini 1.5 Pro 支持高达200万个tokens，是中型多模态模型的理想选择，适用于复杂任务的多方面支持。",displayName:"Gemini 1.5 Pro",enabled:!0,functionCall:!0,id:"gemini-1.5-pro-latest",maxOutput:8192,pricing:{cachedInput:.875,input:3.5,output:10.5},releasedAt:"2024-02-15",tokens:2008192,vision:!0},{description:"Gemini 1.5 Pro 002 是最新的生产就绪模型，提供更高质量的输出，特别在数学、长上下文和视觉任务方面有显著提升。",displayName:"Gemini 1.5 Pro 002",enabled:!0,functionCall:!0,id:"gemini-1.5-pro-002",maxOutput:8192,pricing:{cachedInput:.315,input:1.25,output:2.5},releasedAt:"2024-09-24",tokens:2008192,vision:!0},{description:"Gemini 1.5 Pro 001 是可扩展的多模态AI解决方案，支持广泛的复杂任务。",displayName:"Gemini 1.5 Pro 001",functionCall:!0,id:"gemini-1.5-pro-001",maxOutput:8192,pricing:{cachedInput:.875,input:3.5,output:10.5},releasedAt:"2024-02-15",tokens:2008192,vision:!0},{description:"Gemini 1.5 Pro 0827 结合最新优化技术，带来更高效的多模态数据处理能力。",displayName:"Gemini 1.5 Pro 0827",functionCall:!0,id:"gemini-1.5-pro-exp-0827",maxOutput:8192,pricing:{cachedInput:.875,input:3.5,output:10.5},releasedAt:"2024-08-27",tokens:2008192,vision:!0},{description:"Gemini 1.5 Pro 0801 提供出色的多模态处理能力，为应用开发带来更大灵活性。",displayName:"Gemini 1.5 Pro 0801",functionCall:!0,id:"gemini-1.5-pro-exp-0801",maxOutput:8192,pricing:{cachedInput:.875,input:3.5,output:10.5},releasedAt:"2024-08-01",tokens:2008192,vision:!0},{description:"Gemini 1.0 Pro 是Google的高性能AI模型，专为广泛任务扩展而设计。",displayName:"Gemini 1.0 Pro",id:"gemini-1.0-pro-latest",maxOutput:2048,pricing:{input:.5,output:1.5},releasedAt:"2023-12-06",tokens:32768},{description:"Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能，是复杂任务解决方案的理想选择。",displayName:"Gemini 1.0 Pro 001 (Tuning)",functionCall:!0,id:"gemini-1.0-pro-001",maxOutput:2048,pricing:{input:.5,output:1.5},releasedAt:"2023-12-06",tokens:32768},{description:"Gemini 1.0 Pro 002 (Tuning) 提供出色的多模态支持，专注于复杂任务的有效解决。",displayName:"Gemini 1.0 Pro 002 (Tuning)",id:"gemini-1.0-pro-002",maxOutput:2048,pricing:{input:.5,output:1.5},releasedAt:"2023-12-06",tokens:32768}],checkModel:"gemini-1.5-flash-latest",description:"Google 的 Gemini 系列是其最先进、通用的 AI模型，由 Google DeepMind 打造，专为多模态设计，支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境，极大提升了AI模型的效率与应用广泛性。",id:"google",modelsUrl:"https://ai.google.dev/gemini-api/docs/models/gemini",name:"Google",proxyUrl:{placeholder:"https://generativelanguage.googleapis.com"},smoothing:{speed:2,text:!0},url:"https://ai.google.dev"}},98376:function(e,i){i.Z={chatModels:[{description:"Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 11B Vision (Preview)",enabled:!0,id:"llama-3.2-11b-vision-preview",maxOutput:8192,pricing:{input:.05,output:.08},tokens:8192,vision:!0},{description:"Llama 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 90B Vision (Preview)",enabled:!0,id:"llama-3.2-90b-vision-preview",maxOutput:8192,pricing:{input:.59,output:.79},tokens:8192,vision:!0},{description:"Llama 3.1 8B 是一款高效能模型，提供了快速的文本生成能力，非常适合需要大规模效率和成本效益的应用场景。",displayName:"Llama 3.1 8B",enabled:!0,functionCall:!0,id:"llama-3.1-8b-instant",maxOutput:8192,pricing:{input:.05,output:.08},tokens:131072},{description:"Llama 3.1 70B 提供更强大的AI推理能力，适合复杂应用，支持超多的计算处理并保证高效和准确率。",displayName:"Llama 3.1 70B",enabled:!0,functionCall:!0,id:"llama-3.1-70b-versatile",maxOutput:8192,pricing:{input:.59,output:.79},tokens:131072},{description:"Llama 3 Groq 8B Tool Use 是针对高效工具使用优化的模型，支持快速并行计算。",displayName:"Llama 3 Groq 8B Tool Use (Preview)",functionCall:!0,id:"llama3-groq-8b-8192-tool-use-preview",pricing:{input:.19,output:.19},tokens:8192},{description:"Llama 3 Groq 70B Tool Use 提供强大的工具调用能力，支持复杂任务的高效处理。",displayName:"Llama 3 Groq 70B Tool Use (Preview)",functionCall:!0,id:"llama3-groq-70b-8192-tool-use-preview",pricing:{input:.89,output:.89},tokens:8192},{description:"Meta Llama 3 8B 带来优质的推理效能，适合多场景应用需求。",displayName:"Meta Llama 3 8B",functionCall:!0,id:"llama3-8b-8192",pricing:{input:.05,output:.08},tokens:8192},{description:"Meta Llama 3 70B 提供无与伦比的复杂性处理能力，为高要求项目量身定制。",displayName:"Meta Llama 3 70B",functionCall:!0,id:"llama3-70b-8192",pricing:{input:.59,output:.79},tokens:8192},{description:"Gemma 2 9B 是一款优化用于特定任务和工具整合的模型。",displayName:"Gemma 2 9B",enabled:!0,functionCall:!0,id:"gemma2-9b-it",pricing:{input:.2,output:.2},tokens:8192},{description:"Gemma 7B 适合中小规模任务处理，兼具成本效益。",displayName:"Gemma 7B",functionCall:!0,id:"gemma-7b-it",pricing:{input:.07,output:.07},tokens:8192},{description:"Mixtral 8x7B 提供高容错的并行计算能力，适合复杂任务。",displayName:"Mixtral 8x7B",functionCall:!0,id:"mixtral-8x7b-32768",pricing:{input:.24,output:.24},tokens:32768},{description:"LLaVA 1.5 7B 提供视觉处理能力融合，通过视觉信息输入生成复杂输出。",displayName:"LLaVA 1.5 7B",id:"llava-v1.5-7b-4096-preview",tokens:4096,vision:!0}],checkModel:"llama-3.1-8b-instant",description:"Groq 的 LPU 推理引擎在最新的独立大语言模型（LLM）基准测试中表现卓越，以其惊人的速度和效率重新定义了 AI 解决方案的标准。Groq 是一种即时推理速度的代表，在基于云的部署中展现了良好的性能。",id:"groq",modelsUrl:"https://console.groq.com/docs/models",name:"Groq",proxyUrl:{placeholder:"https://api.groq.com/openai/v1"},url:"https://groq.com"}},36710:function(e,i){i.Z={chatModels:[{description:"Mistral AI的指令调优模型",displayName:"Mistral 7B Instruct v0.2",enabled:!0,id:"mistralai/Mistral-7B-Instruct-v0.2",tokens:8192},{description:"Google的轻量级指令调优模型",displayName:"Gemma 2 2B Instruct",id:"google/gemma-2-2b-it",tokens:8192}],checkModel:"mistralai/Mistral-7B-Instruct-v0.2",description:"HuggingFace Inference API 提供了一种快速且免费的方式，让您可以探索成千上万种模型，适用于各种任务。无论您是在为新应用程序进行原型设计，还是在尝试机器学习的功能，这个 API 都能让您即时访问多个领域的高性能模型。",disableBrowserRequest:!0,id:"huggingface",modelList:{showModelFetcher:!0},modelsUrl:"https://huggingface.co/docs/api-inference/en/supported-models",name:"HuggingFace",url:"https://huggingface.co"}},54749:function(e,i){i.Z={chatModels:[{description:"升级为 MOE 结构，上下文窗口为 256k ，在 NLP，代码，数学，行业等多项评测集上领先众多开源模型。",displayName:"Hunyuan Lite",enabled:!0,id:"hunyuan-lite",maxOutput:6e3,pricing:{currency:"CNY",input:0,output:0},tokens:256e3},{description:"采用更优的路由策略，同时缓解了负载均衡和专家趋同的问题。长文方面，大海捞针指标达到99.9%。MOE-32K 性价比相对更高，在平衡效果、价格的同时，可对实现对长文本输入的处理。",displayName:"Hunyuan Standard",enabled:!0,id:"hunyuan-standard",maxOutput:2e3,pricing:{currency:"CNY",input:4.5,output:5},tokens:32e3},{description:"采用更优的路由策略，同时缓解了负载均衡和专家趋同的问题。长文方面，大海捞针指标达到99.9%。MOE-256K 在长度和效果上进一步突破，极大的扩展了可输入长度。",displayName:"Hunyuan Standard 256K",enabled:!0,id:"hunyuan-standard-256K",maxOutput:6e3,pricing:{currency:"CNY",input:15,output:60},tokens:256e3},{description:"混元全新一代大语言模型的预览版，采用全新的混合专家模型（MoE）结构，相比hunyuan-pro推理效率更快，效果表现更强。",displayName:"Hunyuan Turbo",enabled:!0,functionCall:!0,id:"hunyuan-turbo",maxOutput:4e3,pricing:{currency:"CNY",input:15,output:50},tokens:32e3},{description:"万亿级参数规模 MOE-32K 长文模型。在各种 benchmark 上达到绝对领先的水平，复杂指令和推理，具备复杂数学能力，支持 functioncall，在多语言翻译、金融法律医疗等领域应用重点优化。",displayName:"Hunyuan Pro",enabled:!0,functionCall:!0,id:"hunyuan-pro",maxOutput:4e3,pricing:{currency:"CNY",input:30,output:100},tokens:32e3},{description:"混元最新多模态模型，支持图片+文本输入生成文本内容。",displayName:"Hunyuan Vision",enabled:!0,id:"hunyuan-vision",maxOutput:4e3,pricing:{currency:"CNY",input:18,output:18},tokens:8e3,vision:!0},{description:"混元最新代码生成模型，经过 200B 高质量代码数据增训基座模型，迭代半年高质量 SFT 数据训练，上下文长窗口长度增大到 8K，五大语言代码生成自动评测指标上位居前列；五大语言10项考量各方面综合代码任务人工高质量评测上，性能处于第一梯队",displayName:"Hunyuan Code",id:"hunyuan-code",maxOutput:4e3,pricing:{currency:"CNY",input:4,output:8},tokens:8e3},{description:"混元最新 MOE 架构 FunctionCall 模型，经过高质量的 FunctionCall 数据训练，上下文窗口达 32K，在多个维度的评测指标上处于领先。",displayName:"Hunyuan FunctionCall",functionCall:!0,id:"hunyuan-functioncall",maxOutput:4e3,pricing:{currency:"CNY",input:4,output:8},tokens:32e3},{description:"混元最新版角色扮演模型，混元官方精调训练推出的角色扮演模型，基于混元模型结合角色扮演场景数据集进行增训，在角色扮演场景具有更好的基础效果。",displayName:"Hunyuan Role",id:"hunyuan-role",maxOutput:4e3,pricing:{currency:"CNY",input:4,output:8},tokens:8e3}],checkModel:"hunyuan-lite",description:"由腾讯研发的大语言模型，具备强大的中文创作能力，复杂语境下的逻辑推理能力，以及可靠的任务执行能力",disableBrowserRequest:!0,id:"hunyuan",modelList:{showModelFetcher:!0},modelsUrl:"https://cloud.tencent.com/document/product/1729/104753",name:"Hunyuan",url:"https://hunyuan.tencent.com"}},78352:function(e,i,t){t.d(i,{HN:function(){return Y},L1:function(){return V},Ne:function(){return Z},nY:function(){return K}});var n=t(74445),a=t(59135),o=t(4696),s=t(56008),l=t(63836),d=t(48266),r=t(27116),p=t(23199),u=t(9291),c=t(31088),m=t(98376),y=t(36710),h=t(54749),k=t(92121),b=t(10962),N=t(53068),g=t(58270),C=t(26226),M=t(10759),L=t(74752),B=t(83749),f=t(1402),w=t(20555),I=t(28729),v=t(44533),x=t(44663),G=t(28040),P=t(52805),T=t(99255),A=t(39670),O=t(69568),S=t(76727);let Y=[M.Z.chatModels,f.Z.chatModels,S.Z.chatModels,d.Z.chatModels,r.Z.chatModels,c.Z.chatModels,m.Z.chatModels,u.Z.chatModels,k.Z.chatModels,b.Z.chatModels,N.Z.chatModels,C.Z.chatModels,L.Z.chatModels,P.Z.chatModels,p.Z.chatModels,B.Z.chatModels,o.Z.chatModels,y.Z.chatModels,O.Z.chatModels,x.Z.chatModels,g.Z.chatModels,l.Z.chatModels,G.Z.chatModels,a.Z.chatModels,I.Z.chatModels,T.Z.chatModels,v.Z.chatModels,n.Z.chatModels,h.Z.chatModels,A.Z.chatModels,w.Z.chatModels].flat(),Z=[M.Z,{...s.Z,chatModels:[]},C.Z,o.Z,d.Z,c.Z,r.Z,y.Z,L.Z,u.Z,g.Z,P.Z,p.Z,m.Z,B.Z,b.Z,n.Z,T.Z,f.Z,A.Z,h.Z,v.Z,S.Z,O.Z,w.Z,x.Z,N.Z,l.Z,k.Z,a.Z,G.Z,I.Z],V=e=>e.chatModels.filter(e=>e.enabled).map(e=>e.id),K=e=>!!Z.find(i=>i.id===e&&i.disableBrowserRequest)},92121:function(e,i){i.Z={chatModels:[{description:"适用于广泛的自然语言处理任务，包括文本生成、对话系统等。",displayName:"abab6.5s",enabled:!0,functionCall:!0,id:"abab6.5s-chat",tokens:245760},{description:"专为多语种人设对话设计，支持英文及其他多种语言的高质量对话生成。",displayName:"abab6.5g",enabled:!0,functionCall:!0,id:"abab6.5g-chat",tokens:8192},{description:"针对中文人设对话场景优化，提供流畅且符合中文表达习惯的对话生成能力。",displayName:"abab6.5t",enabled:!0,functionCall:!0,id:"abab6.5t-chat",tokens:8192},{description:"面向生产力场景，支持复杂任务处理和高效文本生成，适用于专业领域应用。",displayName:"abab5.5",id:"abab5.5-chat",tokens:16384},{description:"专为中文人设对话场景设计，提供高质量的中文对话生成能力，适用于多种应用场景。",displayName:"abab5.5s",id:"abab5.5s-chat",tokens:8192}],checkModel:"abab6.5s-chat",description:"MiniMax 是 2021 年成立的通用人工智能科技公司，致力于与用户共创智能。MiniMax 自主研发了不同模态的通用大模型，其中包括万亿参数的 MoE 文本大模型、语音大模型以及图像大模型。并推出了海螺 AI 等应用。",id:"minimax",modelsUrl:"https://platform.minimaxi.com/document/Models",name:"Minimax",smoothing:{speed:2,text:!0},url:"https://www.minimaxi.com"}},10962:function(e,i){i.Z={chatModels:[{description:"Mistral Nemo是一个与Nvidia合作开发的12B模型，提供出色的推理和编码性能，易于集成和替换。",displayName:"Mistral Nemo",enabled:!0,functionCall:!0,id:"open-mistral-nemo",pricing:{input:.15,output:.15},tokens:128e3},{description:"Mistral Small是成本效益高、快速且可靠的选项，适用于翻译、摘要和情感分析等用例。",displayName:"Mistral Small",enabled:!0,functionCall:!0,id:"mistral-small-latest",pricing:{input:.2,output:.6},tokens:128e3},{description:"Mistral Large是旗舰大模型，擅长多语言任务、复杂推理和代码生成，是高端应用的理想选择。",displayName:"Mistral Large",enabled:!0,functionCall:!0,id:"mistral-large-latest",pricing:{input:2,output:6},tokens:128e3},{description:"Codestral是专注于代码生成的尖端生成模型，优化了中间填充和代码补全任务。",displayName:"Codestral",id:"codestral-latest",pricing:{input:.2,output:.6},tokens:32768},{description:"Pixtral 模型在图表和图理解、文档问答、多模态推理和指令遵循等任务上表现出强大的能力，能够以自然分辨率和宽高比摄入图像，还能够在长达 128K 令牌的长上下文窗口中处理任意数量的图像。",displayName:"Pixtral 12B",enabled:!0,id:"pixtral-12b-2409",pricing:{input:.15,output:.15},tokens:128e3,vision:!0},{description:"Ministral 3B 是Mistral的世界顶级边缘模型。",displayName:"Ministral 3B",id:"ministral-3b-latest",pricing:{input:.04,output:.04},tokens:128e3},{description:"Ministral 8B 是Mistral的性价比极高的边缘模型。",displayName:"Ministral 8B",id:"ministral-8b-latest",pricing:{input:.1,output:.1},tokens:128e3},{description:"Mistral 7B是一款紧凑但高性能的模型，擅长批量处理和简单任务，如分类和文本生成，具有良好的推理能力。",displayName:"Mistral 7B",id:"open-mistral-7b",pricing:{input:.25,output:.25},tokens:32768},{description:"Mixtral 8x7B是一个稀疏专家模型，利用多个参数提高推理速度，适合处理多语言和代码生成任务。",displayName:"Mixtral 8x7B",id:"open-mixtral-8x7b",pricing:{input:.7,output:.7},tokens:32768},{description:"Mixtral 8x22B是一个更大的专家模型，专注于复杂任务，提供出色的推理能力和更高的吞吐量。",displayName:"Mixtral 8x22B",functionCall:!0,id:"open-mixtral-8x22b",pricing:{input:2,output:6},tokens:65536},{description:"Codestral Mamba是专注于代码生成的Mamba 2语言模型，为先进的代码和推理任务提供强力支持。",displayName:"Codestral Mamba",id:"open-codestral-mamba",pricing:{input:.15,output:.15},tokens:256e3}],checkModel:"ministral-3b-latest",description:"Mistral 提供先进的通用、专业和研究型模型，广泛应用于复杂推理、多语言任务、代码生成等领域，通过功能调用接口，用户可以集成自定义功能，实现特定应用。",id:"mistral",modelsUrl:"https://docs.mistral.ai/getting-started/models",name:"Mistral",url:"https://mistral.ai"}},53068:function(e,i){i.Z={chatModels:[{description:"Moonshot V1 8K 专为生成短文本任务设计，具有高效的处理性能，能够处理8,192个tokens，非常适合简短对话、速记和快速内容生成。",displayName:"Moonshot V1 8K",enabled:!0,functionCall:!0,id:"moonshot-v1-8k",tokens:8192},{description:"Moonshot V1 32K 提供中等长度的上下文处理能力，能够处理32,768个tokens，特别适合生成各种长文档和复杂对话，应用于内容创作、报告生成和对话系统等领域。",displayName:"Moonshot V1 32K",enabled:!0,functionCall:!0,id:"moonshot-v1-32k",tokens:32768},{description:"Moonshot V1 128K 是一款拥有超长上下文处理能力的模型，适用于生成超长文本，满足复杂的生成任务需求，能够处理多达128,000个tokens的内容，非常适合科研、学术和大型文档生成等应用场景。",displayName:"Moonshot V1 128K",enabled:!0,functionCall:!0,id:"moonshot-v1-128k",tokens:128e3}],checkModel:"moonshot-v1-8k",description:"Moonshot 是由北京月之暗面科技有限公司推出的开源平台，提供多种自然语言处理模型，应用领域广泛，包括但不限于内容创作、学术研究、智能推荐、医疗诊断等，支持长文本处理和复杂生成任务。",id:"moonshot",modelsUrl:"https://platform.moonshot.cn/docs/intro",name:"Moonshot",smoothing:{speed:2,text:!0},url:"https://www.moonshot.cn"}},58270:function(e,i){i.Z={chatModels:[{description:"Llama 3.1 8B Instruct 是 Meta 推出的最新版本，优化了高质量对话场景，表现优于许多领先的闭源模型。",displayName:"Llama 3.1 8B Instruct",enabled:!0,id:"meta-llama/llama-3.1-8b-instruct",tokens:8192},{description:"Llama 3.1 70B Instruct 专为高质量对话而设计，在人类评估中表现突出，特别适合高交互场景。",displayName:"Llama 3.1 70B Instruct",enabled:!0,id:"meta-llama/llama-3.1-70b-instruct",tokens:131072},{description:"Llama 3.1 405B Instruct 是 Meta最新推出的版本，优化用于生成高质量对话，超越了许多领导闭源模型。",displayName:"Llama 3.1 405B Instruct",enabled:!0,id:"meta-llama/llama-3.1-405b-instruct",tokens:32768},{description:"Llama 3 8B Instruct 优化了高质量对话场景，性能优于许多闭源模型。",displayName:"Llama 3 8B Instruct",id:"meta-llama/llama-3-8b-instruct",tokens:8192},{description:"Llama 3 70B Instruct 优化用于高质量对话场景，在各类人类评估中表现优异。",displayName:"Llama 3 70B Instruct",id:"meta-llama/llama-3-70b-instruct",tokens:8192},{description:"Gemma 2 9B 是谷歌的一款开源语言模型，以其在效率和性能方面设立了新的标准。",displayName:"Gemma 2 9B",enabled:!0,id:"google/gemma-2-9b-it",tokens:8192},{description:"Mistral Nemo 是多语言支持和高性能编程的7.3B参数模型。",displayName:"Mistral Nemo",enabled:!0,id:"mistralai/mistral-nemo",tokens:32768},{description:"Mistral 7B Instruct 是一款兼有速度优化和长上下文支持的高性能行业标准模型。",displayName:"Mistral 7B Instruct",enabled:!0,id:"mistralai/mistral-7b-instruct",tokens:32768},{description:"WizardLM 2 7B 是微软AI最新的快速轻量化模型，性能接近于现有开源领导模型的10倍。",displayName:"WizardLM 2 7B",enabled:!0,id:"microsoft/wizardlm 2-7b",tokens:32768},{description:"WizardLM-2 8x22B 是微软AI最先进的Wizard模型，显示出极其竞争力的表现。",displayName:"WizardLM-2 8x22B",enabled:!0,id:"microsoft/wizardlm-2-8x22b",tokens:65535},{description:"Dolphin Mixtral 8x22B 是一款为指令遵循、对话和编程设计的模型。",displayName:"Dolphin Mixtral 8x22B",id:"cognitivecomputations/dolphin-mixtral-8x22b",tokens:16e3},{description:"Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本，包含最新的内部开发的数据集。",displayName:"Hermes 2 Pro Llama 3 8B",id:"nousresearch/hermes-2-pro-llama-3-8b",tokens:8192},{description:"Hermes 2 Mixtral 8x7B DPO 是一款高度灵活的多模型合并，旨在提供卓越的创造性体验。",displayName:"Hermes 2 Mixtral 8x7B DPO",id:"Nous-Hermes-2-Mixtral-8x7B-DPO",tokens:32768},{description:"MythoMax l2 13B 是一款合并了多个顶尖模型的创意与智能相结合的语言模型。",displayName:"MythoMax l2 13B",id:"gryphe/mythomax-l2-13b",tokens:4096},{description:"OpenChat 7B 是经过“C-RLFT（条件强化学习微调）”策略精调的开源语言模型库。",displayName:"OpenChat 7B",id:"openchat/openchat-7b",tokens:4096}],checkModel:"meta-llama/llama-3.1-8b-instruct",description:"Novita AI 是一个提供多种大语言模型与 AI 图像生成的 API 服务的平台，灵活、可靠且具有成本效益。它支持 Llama3、Mistral 等最新的开源模型，并为生成式 AI 应用开发提供了全面、用户友好且自动扩展的 API 解决方案，适合 AI 初创公司的快速发展。",disableBrowserRequest:!0,id:"novita",modelList:{showModelFetcher:!0},modelsUrl:"https://novita.ai/model-api/product/llm-api",name:"Novita",url:"https://novita.ai"}},26226:function(e,i){i.Z={chatModels:[{description:"Llama 3.1 是 Meta 推出的领先模型，支持高达 405B 参数，可应用于复杂对话、多语言翻译和数据分析领域。",displayName:"Llama 3.1 8B",enabled:!0,id:"llama3.1",tokens:128e3},{description:"Llama 3.1 是 Meta 推出的领先模型，支持高达 405B 参数，可应用于复杂对话、多语言翻译和数据分析领域。",displayName:"Llama 3.1 70B",id:"llama3.1:70b",tokens:128e3},{description:"Llama 3.1 是 Meta 推出的领先模型，支持高达 405B 参数，可应用于复杂对话、多语言翻译和数据分析领域。",displayName:"Llama 3.1 405B",id:"llama3.1:405b",tokens:128e3},{description:"Code Llama 是一款专注于代码生成和讨论的 LLM，结合广泛的编程语言支持，适用于开发者环境。",displayName:"Code Llama 7B",enabled:!0,id:"codellama",tokens:16384},{description:"Code Llama 是一款专注于代码生成和讨论的 LLM，结合广泛的编程语言支持，适用于开发者环境。",displayName:"Code Llama 13B",id:"codellama:13b",tokens:16384},{description:"Code Llama 是一款专注于代码生成和讨论的 LLM，结合广泛的编程语言支持，适用于开发者环境。",displayName:"Code Llama 34B",id:"codellama:34b",tokens:16384},{description:"Code Llama 是一款专注于代码生成和讨论的 LLM，结合广泛的编程语言支持，适用于开发者环境。",displayName:"Code Llama 70B",id:"codellama:70b",tokens:16384},{description:"Gemma 2 是 Google 推出的高效模型，涵盖从小型应用到复杂数据处理的多种应用场景。",displayName:"Gemma 2 2B",id:"gemma2:2b",tokens:8192},{description:"Gemma 2 是 Google 推出的高效模型，涵盖从小型应用到复杂数据处理的多种应用场景。",displayName:"Gemma 2 9B",enabled:!0,id:"gemma2",tokens:8192},{description:"Gemma 2 是 Google 推出的高效模型，涵盖从小型应用到复杂数据处理的多种应用场景。",displayName:"Gemma 2 27B",id:"gemma2:27b",tokens:8192},{description:"CodeGemma 专用于不同编程任务的轻量级语言模型，支持快速迭代和集成。",displayName:"CodeGemma 2B",id:"codegemma:2b",tokens:8192},{description:"CodeGemma 专用于不同编程任务的轻量级语言模型，支持快速迭代和集成。",displayName:"CodeGemma 7B",enabled:!0,id:"codegemma",tokens:8192},{description:"Phi-3 是微软推出的轻量级开放模型，适用于高效集成和大规模知识推理。",displayName:"Phi-3 3.8B",enabled:!0,id:"phi3",tokens:128e3},{description:"Phi-3 是微软推出的轻量级开放模型，适用于高效集成和大规模知识推理。",displayName:"Phi-3 14B",id:"phi3:14b",tokens:128e3},{description:"WizardLM 2 是微软AI提供的语言模型，在复杂对话、多语言、推理和智能助手领域表现尤为出色。",displayName:"WizardLM 2 7B",enabled:!0,id:"wizardlm2",tokens:32768},{description:"WizardLM 2 是微软AI提供的语言模型，在复杂对话、多语言、推理和智能助手领域表现尤为出色。",displayName:"WizardLM 2 8x22B",id:"wizardlm2:8x22b",tokens:65536},{description:"MathΣtral 专为科学研究和数学推理设计，提供有效的计算能力和结果解释。",displayName:"MathΣtral 7B",enabled:!0,id:"mathstral",tokens:32768},{description:"Mistral 是 Mistral AI 发布的 7B 模型，适合多变的语言处理需求。",displayName:"Mistral 7B",enabled:!0,id:"mistral",tokens:32768},{description:"Mixtral 是 Mistral AI 的专家模型，具有开源权重，并在代码生成和语言理解方面提供支持。",displayName:"Mixtral 8x7B",enabled:!0,id:"mixtral",tokens:32768},{description:"Mixtral 是 Mistral AI 的专家模型，具有开源权重，并在代码生成和语言理解方面提供支持。",displayName:"Mixtral 8x22B",id:"mixtral:8x22b",tokens:65536},{description:"Mixtral Large 是 Mistral 的旗舰模型，结合代码生成、数学和推理的能力，支持 128k 上下文窗口。",displayName:"Mixtral Large 123B",enabled:!0,id:"mistral-large",tokens:128e3},{description:"Mistral Nemo 由 Mistral AI 和 NVIDIA 合作推出，是高效性能的 12B 模型。",displayName:"Mixtral Nemo 12B",enabled:!0,id:"mistral-nemo",tokens:128e3},{description:"Codestral 是 Mistral AI 的首款代码模型，为代码生成任务提供优异支持。",displayName:"Codestral 22B",enabled:!0,id:"codestral",tokens:32768},{description:"Aya 23 是 Cohere 推出的多语言模型，支持 23 种语言，为多元化语言应用提供便利。",displayName:"Aya 23 8B",enabled:!0,id:"aya",tokens:8192},{description:"Aya 23 是 Cohere 推出的多语言模型，支持 23 种语言，为多元化语言应用提供便利。",displayName:"Aya 23 35B",id:"aya:35b",tokens:8192},{description:"Command R 是优化用于对话和长上下文任务的LLM，特别适合动态交互与知识管理。",displayName:"Command R 35B",enabled:!0,id:"command-r",tokens:131072},{description:"Command R+ 是一款高性能的大型语言模型，专为真实企业场景和复杂应用而设计。",displayName:"Command R+ 104B",enabled:!0,id:"command-r-plus",tokens:131072},{description:"DeepSeek V2 是高效的 Mixture-of-Experts 语言模型，适用于经济高效的处理需求。",displayName:"DeepSeek V2 16B",enabled:!0,id:"deepseek-v2",tokens:32768},{description:"DeepSeek V2 236B 是 DeepSeek 的设计代码模型，提供强大的代码生成能力。",displayName:"DeepSeek V2 236B",id:"deepseek-v2:236b",tokens:128e3},{description:"DeepSeek Coder V2 是开源的混合专家代码模型，在代码任务方面表现优异，与 GPT4-Turbo 相媲美。",displayName:"DeepSeek Coder V2 16B",enabled:!0,id:"deepseek-coder-v2",tokens:128e3},{description:"DeepSeek Coder V2 是开源的混合专家代码模型，在代码任务方面表现优异，与 GPT4-Turbo 相媲美。",displayName:"DeepSeek Coder V2 236B",id:"deepseek-coder-v2:236b",tokens:128e3},{description:"Qwen2 是阿里巴巴的新一代大规模语言模型，以优异的性能支持多元化的应用需求。",displayName:"Qwen2 0.5B",id:"qwen2:0.5b",tokens:128e3},{description:"Qwen2 是阿里巴巴的新一代大规模语言模型，以优异的性能支持多元化的应用需求。",displayName:"Qwen2 1.5B",id:"qwen2:1.5b",tokens:128e3},{description:"Qwen2 是阿里巴巴的新一代大规模语言模型，以优异的性能支持多元化的应用需求。",displayName:"Qwen2 7B",enabled:!0,id:"qwen2",tokens:128e3},{description:"Qwen2 是阿里巴巴的新一代大规模语言模型，以优异的性能支持多元化的应用需求。",displayName:"Qwen2 72B",id:"qwen2:72b",tokens:128e3},{description:"CodeQwen1.5 是基于大量代码数据训练的大型语言模型，专为解决复杂编程任务。",displayName:"CodeQwen1.5 7B",enabled:!0,id:"codeqwen",tokens:65536},{description:"LLaVA 是结合视觉编码器和 Vicuna 的多模态模型，用于强大的视觉和语言理解。",displayName:"LLaVA 7B",enabled:!0,id:"llava",tokens:4096,vision:!0},{description:"LLaVA 是结合视觉编码器和 Vicuna 的多模态模型，用于强大的视觉和语言理解。",displayName:"LLaVA 13B",id:"llava:13b",tokens:4096,vision:!0},{description:"LLaVA 是结合视觉编码器和 Vicuna 的多模态模型，用于强大的视觉和语言理解。",displayName:"LLaVA 34B",id:"llava:34b",tokens:4096,vision:!0},{description:"MiniCPM-V 是 OpenBMB 推出的新一代多模态大模型，具备卓越的 OCR 识别和多模态理解能力，支持广泛的应用场景。",displayName:"MiniCPM-V 8B",enabled:!0,id:"minicpm-v",tokens:128e3,vision:!0}],defaultShowBrowserRequest:!0,description:"Ollama 提供的模型广泛涵盖代码生成、数学运算、多语种处理和对话互动等领域，支持企业级和本地化部署的多样化需求。",id:"ollama",modelList:{showModelFetcher:!0},modelsUrl:"https://ollama.com/library",name:"Ollama",showApiKey:!1,url:"https://ollama.com"}},10759:function(e,i){i.Z={chatModels:[{description:"o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。",displayName:"OpenAI o1-mini",enabled:!0,id:"o1-mini",maxOutput:65536,pricing:{input:3,output:12},releasedAt:"2024-09-12",tokens:128e3},{description:"o1是OpenAI新的推理模型，适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。",displayName:"OpenAI o1-preview",enabled:!0,id:"o1-preview",maxOutput:32768,pricing:{input:15,output:60},releasedAt:"2024-09-12",tokens:128e3},{description:"GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型，支持图文输入并输出文本。作为他们最先进的小型模型，它比其他近期的前沿模型便宜很多，并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能，同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分，目前在聊天偏好上排名高于 GPT-4。",displayName:"GPT-4o mini",enabled:!0,functionCall:!0,id:"gpt-4o-mini",maxOutput:16385,pricing:{input:.15,output:.6},tokens:128e3,vision:!0},{description:"ChatGPT-4o 是一款动态模型，实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力，适合于大规模应用场景，包括客户服务、教育和技术支持。",displayName:"GPT-4o",enabled:!0,functionCall:!0,id:"gpt-4o",pricing:{input:2.5,output:10},tokens:128e3,vision:!0},{description:"ChatGPT-4o 是一款动态模型，实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力，适合于大规模应用场景，包括客户服务、教育和技术支持。",displayName:"GPT-4o 0806",functionCall:!0,id:"gpt-4o-2024-08-06",pricing:{input:2.5,output:10},tokens:128e3,vision:!0},{description:"ChatGPT-4o 是一款动态模型，实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力，适合于大规模应用场景，包括客户服务、教育和技术支持。",displayName:"GPT-4o 0513",functionCall:!0,id:"gpt-4o-2024-05-13",pricing:{input:5,output:15},tokens:128e3,vision:!0},{description:"ChatGPT-4o 是一款动态模型，实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力，适合于大规模应用场景，包括客户服务、教育和技术支持。",displayName:"ChatGPT-4o",enabled:!0,id:"chatgpt-4o-latest",pricing:{input:5,output:15},tokens:128e3,vision:!0},{description:"最新的 GPT-4 Turbo 模型具备视觉功能。现在，视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本，为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡，适合需要进行实时交互的应用程序场景。",displayName:"GPT-4 Turbo",functionCall:!0,id:"gpt-4-turbo",pricing:{input:10,output:30},tokens:128e3,vision:!0},{description:"最新的 GPT-4 Turbo 模型具备视觉功能。现在，视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本，为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡，适合需要进行实时交互的应用程序场景。",displayName:"GPT-4 Turbo Vision 0409",functionCall:!0,id:"gpt-4-turbo-2024-04-09",pricing:{input:10,output:30},tokens:128e3,vision:!0},{description:"最新的 GPT-4 Turbo 模型具备视觉功能。现在，视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本，为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡，适合需要进行实时交互的应用程序场景。",displayName:"GPT-4 Turbo Preview",functionCall:!0,id:"gpt-4-turbo-preview",pricing:{input:10,output:30},tokens:128e3},{description:"最新的 GPT-4 Turbo 模型具备视觉功能。现在，视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本，为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡，适合需要进行实时交互的应用程序场景。",displayName:"GPT-4 Turbo Preview 0125",functionCall:!0,id:"gpt-4-0125-preview",pricing:{input:10,output:30},tokens:128e3},{description:"最新的 GPT-4 Turbo 模型具备视觉功能。现在，视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本，为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡，适合需要进行实时交互的应用程序场景。",displayName:"GPT-4 Turbo Vision Preview",id:"gpt-4-vision-preview",pricing:{input:10,output:30},tokens:128e3,vision:!0},{description:"最新的 GPT-4 Turbo 模型具备视觉功能。现在，视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本，为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡，适合需要进行实时交互的应用程序场景。",id:"gpt-4-1106-vision-preview",pricing:{input:10,output:30},tokens:128e3,vision:!0},{description:"最新的 GPT-4 Turbo 模型具备视觉功能。现在，视觉请求可以使用 JSON 模式和函数调用。 GPT-4 Turbo 是一个增强版本，为多模态任务提供成本效益高的支持。它在准确性和效率之间找到平衡，适合需要进行实时交互的应用程序场景。",displayName:"GPT-4 Turbo Preview 1106",functionCall:!0,id:"gpt-4-1106-preview",pricing:{input:10,output:30},tokens:128e3},{description:"GPT-4 提供了一个更大的上下文窗口，能够处理更长的文本输入，适用于需要广泛信息整合和数据分析的场景。",displayName:"GPT-4",functionCall:!0,id:"gpt-4",pricing:{input:30,output:60},tokens:8192},{description:"GPT-4 提供了一个更大的上下文窗口，能够处理更长的文本输入，适用于需要广泛信息整合和数据分析的场景。",displayName:"GPT-4 0613",functionCall:!0,id:"gpt-4-0613",pricing:{input:30,output:60},tokens:8192},{description:"GPT-4 提供了一个更大的上下文窗口，能够处理更长的文本输入，适用于需要广泛信息整合和数据分析的场景。",displayName:"GPT-4 32K",functionCall:!0,id:"gpt-4-32k",pricing:{input:60,output:120},tokens:32768},{description:"GPT-4 提供了一个更大的上下文窗口，能够处理更长的文本输入，适用于需要广泛信息整合和数据分析的场景。",displayName:"GPT-4 32K 0613",functionCall:!0,id:"gpt-4-32k-0613",pricing:{input:60,output:120},tokens:32768},{description:"GPT 3.5 Turbo，适用于各种文本生成和理解任务，Currently points to gpt-3.5-turbo-0125",displayName:"GPT-3.5 Turbo",functionCall:!0,id:"gpt-3.5-turbo",pricing:{input:.5,output:1.5},tokens:16385},{description:"GPT 3.5 Turbo，适用于各种文本生成和理解任务，Currently points to gpt-3.5-turbo-0125",displayName:"GPT-3.5 Turbo 0125",functionCall:!0,id:"gpt-3.5-turbo-0125",pricing:{input:.5,output:1.5},tokens:16385},{description:"GPT 3.5 Turbo，适用于各种文本生成和理解任务，Currently points to gpt-3.5-turbo-0125",displayName:"GPT-3.5 Turbo 1106",functionCall:!0,id:"gpt-3.5-turbo-1106",pricing:{input:1,output:2},tokens:16385},{description:"GPT 3.5 Turbo，适用于各种文本生成和理解任务，Currently points to gpt-3.5-turbo-0125",displayName:"GPT-3.5 Turbo Instruct",id:"gpt-3.5-turbo-instruct",pricing:{input:1.5,output:2},tokens:4096}],checkModel:"gpt-4o-mini",description:"OpenAI 是全球领先的人工智能研究机构，其开发的模型如GPT系列推动了自然语言处理的前沿。OpenAI 致力于通过创新和高效的AI解决方案改变多个行业。他们的产品具有显著的性能和经济性，广泛用于研究、商业和创新应用。",enabled:!0,id:"openai",modelList:{showModelFetcher:!0},modelsUrl:"https://platform.openai.com/docs/models",name:"OpenAI",url:"https://openai.com"}},74752:function(e,i){i.Z={chatModels:[{description:"根据上下文长度、主题和复杂性，你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet（自我调节）或 GPT-4o。",displayName:"Auto (best for prompt)",enabled:!0,functionCall:!1,id:"openrouter/auto",tokens:128e3,vision:!1},{description:"o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。",displayName:"OpenAI o1-mini",enabled:!0,id:"openai/o1-mini",maxOutput:65536,pricing:{input:3,output:12},releasedAt:"2024-09-12",tokens:128e3},{description:"o1是OpenAI新的推理模型，适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。",displayName:"OpenAI o1-preview",enabled:!0,id:"openai/o1-preview",maxOutput:32768,pricing:{input:15,output:60},releasedAt:"2024-09-12",tokens:128e3},{description:"GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型，支持图文输入并输出文本。作为他们最先进的小型模型，它比其他近期的前沿模型便宜很多，并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能，同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分，目前在聊天偏好上排名高于 GPT-4。",displayName:"GPT-4o mini",enabled:!0,functionCall:!0,id:"openai/gpt-4o-mini",maxOutput:16385,pricing:{input:.15,output:.6},tokens:128e3,vision:!0},{description:"ChatGPT-4o 是一款动态模型，实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力，适合于大规模应用场景，包括客户服务、教育和技术支持。",displayName:"GPT-4o",enabled:!0,functionCall:!0,id:"openai/gpt-4o",pricing:{input:2.5,output:10},tokens:128e3,vision:!0},{description:"Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型，旨在实现近乎即时的响应。它具有快速且准确的定向性能。",displayName:"Claude 3 Haiku",enabled:!0,functionCall:!0,id:"anthropic/claude-3-haiku",maxOutput:4096,pricing:{cachedInput:.025,input:.25,output:1.25,writeCacheInput:.3125},releasedAt:"2024-03-07",tokens:2e5,vision:!0},{description:"Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度，同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。",displayName:"Claude 3.5 Sonnet",enabled:!0,functionCall:!0,id:"anthropic/claude-3.5-sonnet",maxOutput:8192,pricing:{cachedInput:.3,input:3,output:15,writeCacheInput:3.75},releasedAt:"2024-06-20",tokens:2e5,vision:!0},{description:"Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。",displayName:"Claude 3 Opus",enabled:!0,functionCall:!0,id:"anthropic/claude-3-opus",maxOutput:4096,pricing:{cachedInput:1.5,input:15,output:75,writeCacheInput:18.75},releasedAt:"2024-02-29",tokens:2e5,vision:!0},{description:"Gemini 1.5 Flash 提供了优化后的多模态处理能力，适用多种复杂任务场景。",displayName:"Gemini 1.5 Flash",enabled:!0,functionCall:!0,id:"google/gemini-flash-1.5",maxOutput:8192,pricing:{input:.075,output:.3},tokens:1008192,vision:!0},{description:"Gemini 1.5 Pro 结合最新优化技术，带来更高效的多模态数据处理能力。",displayName:"Gemini 1.5 Pro",enabled:!0,functionCall:!0,id:"google/gemini-pro-1.5",maxOutput:8192,pricing:{input:3.5,output:10.5},tokens:2008192,vision:!0},{description:"融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力，还更好地对齐了人类偏好。此外，DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。",displayName:"DeepSeek V2.5",enabled:!0,functionCall:!0,id:"deepseek/deepseek-chat",pricing:{input:.14,output:.28},releasedAt:"2024-09-05",tokens:128e3},{description:"LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 11B Vision",enabled:!0,id:"meta-llama/llama-3.2-11b-vision-instruct",pricing:{input:.162,output:.162},tokens:131072,vision:!0},{description:"LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 90B Vision",enabled:!0,id:"meta-llama/llama-3.2-90b-vision-instruct",pricing:{input:.4,output:.4},tokens:131072,vision:!0},{description:"Qwen2 是全新的大型语言模型系列，具有更强的理解和生成能力。",displayName:"Qwen2 7B (Free)",enabled:!0,id:"qwen/qwen-2-7b-instruct:free",tokens:32768},{description:"LLaMA 3.1 提供多语言支持，是业界领先的生成模型之一。",displayName:"Llama 3.1 8B (Free)",enabled:!0,id:"meta-llama/llama-3.1-8b-instruct:free",tokens:32768},{description:"Gemma 2 是Google轻量化的开源文本模型系列。",displayName:"Gemma 2 9B (Free)",enabled:!0,id:"google/gemma-2-9b-it:free",tokens:8192}],checkModel:"google/gemma-2-9b-it:free",description:"OpenRouter 是一个提供多种前沿大模型接口的服务平台，支持 OpenAI、Anthropic、LLaMA 及更多，适合多样化的开发和应用需求。用户可根据自身需求灵活选择最优的模型和价格，助力AI体验的提升。",id:"openrouter",modelList:{showModelFetcher:!0},modelsUrl:"https://openrouter.ai/models",name:"OpenRouter",url:"https://openrouter.ai"}},83749:function(e,i){i.Z={chatModels:[{description:"Llama 3.1 Sonar Small Online 模型，具备8B参数，支持约127,000个标记的上下文长度，专为在线聊天设计，能高效处理各种文本交互。",displayName:"Llama 3.1 Sonar Small Online",enabled:!0,id:"llama-3.1-sonar-small-128k-online",tokens:128e3},{description:"Llama 3.1 Sonar Large Online 模型，具备70B参数，支持约127,000个标记的上下文长度，适用于高容量和多样化聊天任务。",displayName:"Llama 3.1 Sonar Large Online",enabled:!0,id:"llama-3.1-sonar-large-128k-online",tokens:128e3},{description:"Llama 3.1 Sonar Huge Online 模型，具备405B参数，支持约127,000个标记的上下文长度，设计用于复杂的在线聊天应用。",displayName:"Llama 3.1 Sonar Huge Online",enabled:!0,id:"llama-3.1-sonar-huge-128k-online",tokens:128e3},{description:"Llama 3.1 Sonar Small Chat 模型，具备8B参数，专为离线聊天设计，支持约127,000个标记的上下文长度。",displayName:"Llama 3.1 Sonar Small Chat",enabled:!0,id:"llama-3.1-sonar-small-128k-chat",tokens:128e3},{description:"Llama 3.1 Sonar Large Chat 模型，具备70B参数，支持约127,000个标记的上下文长度，适合于复杂的离线聊天任务。",displayName:"Llama 3.1 Sonar Large Chat",enabled:!0,id:"llama-3.1-sonar-large-128k-chat",tokens:128e3},{description:"Llama 3.1 8B Instruct 模型，具备8B参数，支持画面指示任务的高效执行，提供优质的文本生成能力。",id:"llama-3.1-8b-instruct",tokens:128e3},{description:"Llama 3.1 70B Instruct 模型，具备70B参数，能在大型文本生成和指示任务中提供卓越性能。",id:"llama-3.1-70b-instruct",tokens:128e3}],checkModel:"llama-3.1-8b-instruct",description:"Perplexity 是一家领先的对话生成模型提供商，提供多种先进的Llama 3.1模型，支持在线和离线应用，特别适用于复杂的自然语言处理任务。",id:"perplexity",modelsUrl:"https://docs.perplexity.ai/guides/model-cards",name:"Perplexity",proxyUrl:{placeholder:"https://api.perplexity.ai"},url:"https://www.perplexity.ai"}},1402:function(e,i){i.Z={chatModels:[{description:"通义千问超大规模语言模型，支持中文、英文等不同语言输入。",displayName:"Qwen Turbo",enabled:!0,functionCall:!0,id:"qwen-turbo-latest",pricing:{currency:"CNY",input:.3,output:.6},tokens:131072},{description:"通义千问超大规模语言模型增强版，支持中文、英文等不同语言输入。",displayName:"Qwen Plus",enabled:!0,functionCall:!0,id:"qwen-plus-latest",pricing:{currency:"CNY",input:.8,output:2},tokens:131072},{description:"通义千问千亿级别超大规模语言模型，支持中文、英文等不同语言输入，当前通义千问2.5产品版本背后的API模型。",displayName:"Qwen Max",enabled:!0,functionCall:!0,id:"qwen-max-latest",pricing:{currency:"CNY",input:20,output:60},tokens:32768},{description:"通义千问超大规模语言模型，支持长文本上下文，以及基于长文档、多文档等多个场景的对话功能。",displayName:"Qwen Long",id:"qwen-long",pricing:{currency:"CNY",input:.5,output:2},tokens:1e6},{description:"通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力，支持超百万像素分辨率和任意长宽比规格的图像。",displayName:"Qwen VL Plus",enabled:!0,id:"qwen-vl-plus-latest",pricing:{currency:"CNY",input:8,output:8},tokens:32e3,vision:!0},{description:"通义千问超大规模视觉语言模型。相比增强版，再次提升视觉推理能力和指令遵循能力，提供更高的视觉感知和认知水平。",displayName:"Qwen VL Max",enabled:!0,id:"qwen-vl-max-latest",pricing:{currency:"CNY",input:20,output:20},tokens:32e3,vision:!0},{description:"通义千问数学模型是专门用于数学解题的语言模型。",displayName:"Qwen Math Turbo",id:"qwen-math-turbo-latest",pricing:{currency:"CNY",input:2,output:6},tokens:4096},{description:"通义千问数学模型是专门用于数学解题的语言模型。",displayName:"Qwen Math Plus",id:"qwen-math-plus-latest",pricing:{currency:"CNY",input:4,output:12},tokens:4096},{description:"通义千问代码模型。",displayName:"Qwen Coder Turbo",id:"qwen-coder-turbo-latest",pricing:{currency:"CNY",input:2,output:6},tokens:131072},{description:"通义千问2.5对外开源的7B规模的模型。",displayName:"Qwen2.5 7B",functionCall:!0,id:"qwen2.5-7b-instruct",pricing:{currency:"CNY",input:1,output:2},tokens:131072},{description:"通义千问2.5对外开源的14B规模的模型。",displayName:"Qwen2.5 14B",functionCall:!0,id:"qwen2.5-14b-instruct",pricing:{currency:"CNY",input:2,output:6},tokens:131072},{description:"通义千问2.5对外开源的32B规模的模型。",displayName:"Qwen2.5 32B",functionCall:!0,id:"qwen2.5-32b-instruct",pricing:{currency:"CNY",input:3.5,output:7},tokens:131072},{description:"通义千问2.5对外开源的72B规模的模型。",displayName:"Qwen2.5 72B",functionCall:!0,id:"qwen2.5-72b-instruct",pricing:{currency:"CNY",input:4,output:12},tokens:131072},{description:"Qwen-Math 模型具有强大的数学解题能力。",displayName:"Qwen2.5 Math 1.5B",id:"qwen2.5-math-1.5b-instruct",pricing:{currency:"CNY",input:0,output:0},tokens:4096},{description:"Qwen-Math 模型具有强大的数学解题能力。",displayName:"Qwen2.5 Math 7B",id:"qwen2.5-math-7b-instruct",pricing:{currency:"CNY",input:1,output:2},tokens:4096},{description:"Qwen-Math 模型具有强大的数学解题能力。",displayName:"Qwen2.5 Math 72B",id:"qwen2.5-math-72b-instruct",pricing:{currency:"CNY",input:4,output:12},tokens:4096},{description:"通义千问代码模型开源版。",displayName:"Qwen2.5 Coder 1.5B",id:"qwen2.5-coder-1.5b-instruct",pricing:{currency:"CNY",input:0,output:0},tokens:131072},{description:"通义千问代码模型开源版。",displayName:"Qwen2.5 Coder 7B",id:"qwen2.5-coder-7b-instruct",pricing:{currency:"CNY",input:1,output:2},tokens:131072},{description:"以 Qwen-7B 语言模型初始化，添加图像模型，图像输入分辨率为448的预训练模型。",displayName:"Qwen VL",id:"qwen-vl-v1",pricing:{currency:"CNY",input:0,output:0},tokens:8e3,vision:!0},{description:"通义千问VL支持灵活的交互方式，包括多图、多轮问答、创作等能力的模型。",displayName:"Qwen VL Chat",id:"qwen-vl-chat-v1",pricing:{currency:"CNY",input:0,output:0},tokens:8e3,vision:!0}],checkModel:"qwen-turbo-latest",description:"通义千问是阿里云自主研发的超大规模语言模型，具有强大的自然语言理解和生成能力。它可以回答各种问题、创作文字内容、表达观点看法、撰写代码等，在多个领域发挥作用。",disableBrowserRequest:!0,id:"qwen",modelList:{showModelFetcher:!0},modelsUrl:"https://help.aliyun.com/zh/dashscope/developer-reference/api-details",name:"Qwen",smoothing:{speed:2,text:!0},url:"https://www.aliyun.com/product/bailian"}},20555:function(e,i){i.Z={chatModels:[{description:"最新版本模型 (V5.5)，128K上下文长度，在数学推理、英文对话、指令跟随以及长文本理解等领域能力显著提升，比肩GPT-4o",displayName:"SenseChat 5.5",enabled:!0,functionCall:!0,id:"SenseChat-5",pricing:{currency:"CNY",input:40,output:100},tokens:131072},{description:"最新版本模型 (V5.5)，16K上下文长度，支持多图的输入，全面实现模型基础能力优化，在对象属性识别、空间关系、动作事件识别、场景理解、情感识别、逻辑常识推理和文本理解生成上都实现了较大提升。",displayName:"SenseChat 5.5 Vision",enabled:!0,id:"SenseChat-Vision",pricing:{currency:"CNY",input:100,output:100},tokens:16384,vision:!0},{description:"适用于快速问答、模型微调场景",displayName:"SenseChat 5.0 Turbo",enabled:!0,id:"SenseChat-Turbo",pricing:{currency:"CNY",input:2,output:5},tokens:32768},{description:"32K上下文长度，在粤语的对话理解上超越了GPT-4，在知识、推理、数学及代码编写等多个领域均能与GPT-4 Turbo相媲美",displayName:"SenseChat 5.0 Cantonese",id:"SenseChat-5-Cantonese",pricing:{currency:"CNY",input:27,output:27},tokens:32768},{description:"基础版本模型 (V4)，128K上下文长度，在长文本理解及生成等任务中表现出色",displayName:"SenseChat 4.0 128K",enabled:!0,id:"SenseChat-128K",pricing:{currency:"CNY",input:60,output:60},tokens:131072},{description:"基础版本模型 (V4)，32K上下文长度，灵活应用于各类场景",displayName:"SenseChat 4.0 32K",enabled:!0,id:"SenseChat-32K",pricing:{currency:"CNY",input:36,output:36},tokens:32768},{description:"基础版本模型 (V4)，4K上下文长度，通用能力强大",displayName:"SenseChat 4.0 4K",enabled:!0,id:"SenseChat",pricing:{currency:"CNY",input:12,output:12},tokens:4096},{description:"标准版模型，8K上下文长度，高响应速度",displayName:"SenseChat Character",id:"SenseChat-Character",pricing:{currency:"CNY",input:12,output:12},tokens:8192},{description:"高级版模型，32K上下文长度，能力全面提升，支持中/英文对话",displayName:"SenseChat Character Pro",id:"SenseChat-Character-Pro",pricing:{currency:"CNY",input:15,output:15},tokens:32768}],checkModel:"SenseChat-Turbo",disableBrowserRequest:!0,id:"sensenova",modelList:{showModelFetcher:!0},modelsUrl:"https://platform.sensenova.cn/pricing",name:"SenseNova",url:"https://platform.sensenova.cn/home"}},28729:function(e,i){i.Z={chatModels:[{description:"DeepSeek V2.5 集合了先前版本的优秀特征，增强了通用和编码能力。",displayName:"DeepSeek V2.5",enabled:!0,functionCall:!0,id:"deepseek-ai/DeepSeek-V2.5",pricing:{currency:"CNY",input:1.33,output:1.33},tokens:32768},{description:"Qwen2.5 是全新的大型语言模型系列，旨在优化指令式任务的处理。",displayName:"Qwen2.5 7B",enabled:!0,functionCall:!0,id:"Qwen/Qwen2.5-7B-Instruct",pricing:{currency:"CNY",input:0,output:0},tokens:32768},{description:"Qwen2.5 是全新的大型语言模型系列，旨在优化指令式任务的处理。",displayName:"Qwen2.5 14B",functionCall:!0,id:"Qwen/Qwen2.5-14B-Instruct",pricing:{currency:"CNY",input:.7,output:.7},tokens:32768},{description:"Qwen2.5 是全新的大型语言模型系列，旨在优化指令式任务的处理。",displayName:"Qwen2.5 32B",functionCall:!0,id:"Qwen/Qwen2.5-32B-Instruct",pricing:{currency:"CNY",input:1.26,output:1.26},tokens:32768},{description:"Qwen2.5 是全新的大型语言模型系列，具有更强的理解和生成能力。",displayName:"Qwen2.5 72B",enabled:!0,functionCall:!0,id:"Qwen/Qwen2.5-72B-Instruct-128K",pricing:{currency:"CNY",input:4.13,output:4.13},tokens:131072},{description:"Qwen2-VL 是 Qwen-VL 模型的最新迭代版本，在视觉理解基准测试中达到了最先进的性能。",displayName:"Qwen2 VL 7B",enabled:!0,id:"Pro/Qwen/Qwen2-VL-7B-Instruct",pricing:{currency:"CNY",input:.35,output:.35},tokens:32768,vision:!0},{description:"Qwen2-VL 是 Qwen-VL 模型的最新迭代版本，在视觉理解基准测试中达到了最先进的性能。",displayName:"Qwen2 VL 72B",enabled:!0,id:"Qwen/Qwen2-VL-72B-Instruct",pricing:{currency:"CNY",input:4.13,output:4.13},tokens:32768,vision:!0},{description:"Qwen2.5-Math 专注于数学领域的问题求解，为高难度题提供专业解答。",displayName:"Qwen2.5 Math 72B",id:"Qwen/Qwen2.5-Math-72B-Instruct",pricing:{currency:"CNY",input:4.13,output:4.13},tokens:4096},{description:"Qwen2.5-Coder 专注于代码编写。",displayName:"Qwen2.5 Coder 7B",id:"Qwen/Qwen2.5-Coder-7B-Instruct",pricing:{currency:"CNY",input:0,output:0},tokens:32768},{description:"InternLM2.5 提供多场景下的智能对话解决方案。",displayName:"Internlm 2.5 7B",functionCall:!0,id:"internlm/internlm2_5-7b-chat",pricing:{currency:"CNY",input:0,output:0},tokens:32768},{description:"创新的开源模型InternLM2.5，通过大规模的参数提高了对话智能。",displayName:"Internlm 2.5 20B",functionCall:!0,id:"internlm/internlm2_5-20b-chat",pricing:{currency:"CNY",input:1,output:1},tokens:32768},{description:"InternVL2在各种视觉语言任务上展现出了卓越的性能，包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。",displayName:"InternVL2 8B",id:"Pro/OpenGVLab/InternVL2-8B",pricing:{currency:"CNY",input:.35,output:.35},tokens:32768,vision:!0},{description:"InternVL2在各种视觉语言任务上展现出了卓越的性能，包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。",displayName:"InternVL2 26B",id:"OpenGVLab/InternVL2-26B",pricing:{currency:"CNY",input:1,output:1},tokens:32768,vision:!0},{description:"InternVL2在各种视觉语言任务上展现出了卓越的性能，包括文档和图表理解、场景文本理解、OCR、科学和数学问题解决等。",displayName:"InternVL2 Llama3 76B",id:"OpenGVLab/InternVL2-Llama3-76B",pricing:{currency:"CNY",input:4.13,output:4.13},tokens:8192,vision:!0},{description:"GLM-4 9B 开放源码版本，为会话应用提供优化后的对话体验。",displayName:"GLM-4 9B",functionCall:!0,id:"THUDM/glm-4-9b-chat",pricing:{currency:"CNY",input:0,output:0},tokens:32768},{description:"Yi-1.5 9B 支持16K Tokens, 提供高效、流畅的语言生成能力。",displayName:"Yi-1.5 9B",id:"01-ai/Yi-1.5-9B-Chat-16K",pricing:{currency:"CNY",input:0,output:0},tokens:16384},{description:"Yi-1.5 34B, 以丰富的训练样本在行业应用中提供优越表现。",displayName:"Yi-1.5 34B",id:"01-ai/Yi-1.5-34B-Chat-16K",pricing:{currency:"CNY",input:1.26,output:1.26},tokens:16384},{description:"Gemma 2 是Google轻量化的开源文本模型系列。",displayName:"Gemma 2 9B",enabled:!0,id:"google/gemma-2-9b-it",pricing:{currency:"CNY",input:0,output:0},tokens:8192},{description:"Gemma 2 延续了轻量化与高效的设计理念。",displayName:"Gemma 2 27B",enabled:!0,id:"google/gemma-2-27b-it",pricing:{currency:"CNY",input:1.26,output:1.26},tokens:8192},{description:"LLaMA 3.1 提供多语言支持，是业界领先的生成模型之一。",displayName:"Llama 3.1 8B",enabled:!0,id:"meta-llama/Meta-Llama-3.1-8B-Instruct",pricing:{currency:"CNY",input:0,output:0},tokens:32768},{description:"LLaMA 3.1 70B 提供多语言的高效对话支持。",displayName:"Llama 3.1 70B",enabled:!0,id:"meta-llama/Meta-Llama-3.1-70B-Instruct",pricing:{currency:"CNY",input:4.13,output:4.13},tokens:32768},{description:"LLaMA 3.1 405B 指令微调模型针对多语言对话场景进行了优化。",displayName:"Llama 3.1 405B",enabled:!0,id:"meta-llama/Meta-Llama-3.1-405B-Instruct",pricing:{currency:"CNY",input:21,output:21},tokens:32768},{description:"Llama 3.1 Nemotron 70B 是由 NVIDIA 定制的大型语言模型，旨在提高 LLM 生成的响应对用户查询的帮助程度。",displayName:"Llama 3.1 Nemotron 70B",enabled:!0,id:"nvidia/Llama-3.1-Nemotron-70B-Instruct",pricing:{currency:"CNY",input:4.13,output:4.13},tokens:32768}],checkModel:"Qwen/Qwen2.5-7B-Instruct",description:"SiliconCloud，基于优秀开源基础模型的高性价比 GenAI 云服务",id:"siliconcloud",modelList:{showModelFetcher:!0},modelsUrl:"https://siliconflow.cn/zh-cn/models",name:"SiliconCloud",proxyUrl:{placeholder:"https://api.siliconflow.cn/v1"},url:"https://siliconflow.cn/zh-cn/siliconcloud"}},44533:function(e,i){i.Z={chatModels:[{description:"Spark Lite 是一款轻量级大语言模型，具备极低的延迟与高效的处理能力，完全免费开放，支持实时在线搜索功能。其快速响应的特性使其在低算力设备上的推理应用和模型微调中表现出色，为用户带来出色的成本效益和智能体验，尤其在知识问答、内容生成及搜索场景下表现不俗。",displayName:"Spark Lite",enabled:!0,functionCall:!1,id:"lite",maxOutput:4096,tokens:8192},{description:"Spark Pro 是一款为专业领域优化的高性能大语言模型，专注数学、编程、医疗、教育等多个领域，并支持联网搜索及内置天气、日期等插件。其优化后模型在复杂知识问答、语言理解及高层次文本创作中展现出色表现和高效性能，是适合专业应用场景的理想选择。",displayName:"Spark Pro",enabled:!0,functionCall:!1,id:"generalv3",maxOutput:8192,tokens:8192},{description:"Spark Pro 128K 配置了特大上下文处理能力，能够处理多达128K的上下文信息，特别适合需通篇分析和长期逻辑关联处理的长文内容，可在复杂文本沟通中提供流畅一致的逻辑与多样的引用支持。",displayName:"Spark Pro 128K",enabled:!0,functionCall:!1,id:"pro-128k",maxOutput:4096,tokens:131072},{description:"Spark Max 为功能最为全面的版本，支持联网搜索及众多内置插件。其全面优化的核心能力以及系统角色设定和函数调用功能，使其在各种复杂应用场景中的表现极为优异和出色。",displayName:"Spark Max",enabled:!0,functionCall:!1,id:"generalv3.5",maxOutput:8192,tokens:8192},{description:"Spark Max 32K 配置了大上下文处理能力，更强的上下文理解和逻辑推理能力，支持32K tokens的文本输入，适用于长文档阅读、私有知识问答等场景",displayName:"Spark Max 32K",enabled:!0,functionCall:!1,id:"max-32k",maxOutput:8192,tokens:32768},{description:"Spark Ultra 是星火大模型系列中最为强大的版本，在升级联网搜索链路同时，提升对文本内容的理解和总结能力。它是用于提升办公生产力和准确响应需求的全方位解决方案，是引领行业的智能产品。",displayName:"Spark 4.0 Ultra",enabled:!0,functionCall:!1,id:"4.0Ultra",maxOutput:8192,tokens:8192}],checkModel:"lite",description:"科大讯飞星火大模型提供多领域、多语言的强大 AI 能力，利用先进的自然语言处理技术，构建适用于智能硬件、智慧医疗、智慧金融等多种垂直场景的创新应用。",id:"spark",modelList:{showModelFetcher:!0},modelsUrl:"https://xinghuo.xfyun.cn/spark",name:"Spark",smoothing:{speed:2,text:!0},url:"https://www.xfyun.cn"}},44663:function(e,i){i.Z={chatModels:[{description:"高速模型，适合实时对话。",displayName:"Step 1 Flash",enabled:!0,functionCall:!0,id:"step-1-flash",pricing:{currency:"CNY",input:1,output:4},tokens:8e3},{description:"小型模型，适合轻量级任务。",displayName:"Step 1 8K",enabled:!0,functionCall:!0,id:"step-1-8k",pricing:{currency:"CNY",input:5,output:20},tokens:8e3},{description:"支持中等长度的对话，适用于多种应用场景。",displayName:"Step 1 32K",enabled:!0,functionCall:!0,id:"step-1-32k",pricing:{currency:"CNY",input:15,output:70},tokens:32e3},{description:"平衡性能与成本，适合一般场景。",displayName:"Step 1 128K",enabled:!0,functionCall:!0,id:"step-1-128k",pricing:{currency:"CNY",input:40,output:200},tokens:128e3},{description:"具备超长上下文处理能力，尤其适合长文档分析。",displayName:"Step 1 256K",functionCall:!0,id:"step-1-256k",pricing:{currency:"CNY",input:95,output:300},tokens:256e3},{description:"支持大规模上下文交互，适合复杂对话场景。",displayName:"Step 2 16K",enabled:!0,functionCall:!0,id:"step-2-16k",pricing:{currency:"CNY",input:38,output:120},tokens:16e3},{description:"小型视觉模型，适合基本的图文任务。",displayName:"Step 1V 8K",enabled:!0,functionCall:!0,id:"step-1v-8k",pricing:{currency:"CNY",input:5,output:20},tokens:8e3,vision:!0},{description:"支持视觉输入，增强多模态交互体验。",displayName:"Step 1V 32K",enabled:!0,functionCall:!0,id:"step-1v-32k",pricing:{currency:"CNY",input:15,output:70},tokens:32e3,vision:!0},{description:"该模型拥有强大的视频理解能力。",displayName:"Step 1.5V Mini",enabled:!0,id:"step-1.5v-mini",pricing:{currency:"CNY",input:8,output:35},tokens:32e3,vision:!0}],checkModel:"step-1-flash",description:"阶级星辰大模型具备行业领先的多模态及复杂推理能力，支持超长文本理解和强大的自主调度搜索引擎功能。",disableBrowserRequest:!0,id:"stepfun",modelList:{showModelFetcher:!0},modelsUrl:"https://platform.stepfun.com/docs/llm/text",name:"Stepfun",smoothing:{speed:2,text:!0},url:"https://stepfun.com"}},28040:function(e,i){i.Z={chatModels:[{description:"Taichu 2.0 基于海量高质数据训练，具有更强的文本理解、内容创作、对话问答等能力",displayName:"Taichu 2.0",enabled:!0,functionCall:!0,id:"taichu_llm",tokens:32768}],checkModel:"taichu_llm",description:"中科院自动化研究所和武汉人工智能研究院推出新一代多模态大模型，支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务，拥有更强的认知、理解、创作能力，带来全新互动体验。",id:"taichu",modelList:{showModelFetcher:!0},modelsUrl:"https://ai-maas.wair.ac.cn/#/doc",name:"Taichu",url:"https://ai-maas.wair.ac.cn"}},52805:function(e,i){i.Z={chatModels:[{description:"LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 3B Instruct Turbo",enabled:!0,id:"meta-llama/Llama-3.2-3B-Instruct-Turbo",tokens:131072},{description:"LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 11B Vision Instruct Turbo (Free)",enabled:!0,id:"meta-llama/Llama-Vision-Free",tokens:131072,vision:!0},{description:"LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 11B Vision Instruct Turbo",id:"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo",tokens:131072,vision:!0},{description:"LLaMA 3.2 旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色，跨越了语言生成和视觉推理之间的鸿沟。",displayName:"Llama 3.2 90B Vision Instruct Turbo",enabled:!0,id:"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo",tokens:131072,vision:!0},{description:"Llama 3.1 8B 模型采用FP8量化，支持高达131,072个上下文标记，是开源模型中的佼佼者，适合复杂任务，表现优异于许多行业基准。",displayName:"Llama 3.1 8B Instruct Turbo",enabled:!0,functionCall:!0,id:"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo",tokens:131072},{description:"Llama 3.1 70B 模型经过精细调整，适用于高负载应用，量化至FP8提供更高效的计算能力和准确性，确保在复杂场景中的卓越表现。",displayName:"Llama 3.1 70B Instruct Turbo",enabled:!0,functionCall:!0,id:"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo",tokens:131072},{description:"405B 的 Llama 3.1 Turbo 模型，为大数据处理提供超大容量的上下文支持，在超大规模的人工智能应用中表现突出。",displayName:"Llama 3.1 405B Instruct Turbo",enabled:!0,functionCall:!0,id:"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo",tokens:130815},{description:"Llama 3 8B Instruct Turbo 是一款高效能的大语言模型，支持广泛的应用场景。",displayName:"Llama 3 8B Instruct Turbo",id:"meta-llama/Meta-Llama-3-8B-Instruct-Turbo",tokens:8192},{description:"Llama 3 70B Instruct Turbo 提供卓越的语言理解和生成能力，适合最苛刻的计算任务。",displayName:"Llama 3 70B Instruct Turbo",id:"meta-llama/Meta-Llama-3-70B-Instruct-Turbo",tokens:8192},{description:"Llama 3 8B Instruct Lite 适合资源受限的环境，提供出色的平衡性能。",displayName:"Llama 3 8B Instruct Lite",id:"meta-llama/Meta-Llama-3-8B-Instruct-Lite",tokens:8192},{description:"Llama 3 70B Instruct Lite 适合需要高效能和低延迟的环境。",displayName:"Llama 3 70B Instruct Lite",id:"meta-llama/Meta-Llama-3-70B-Instruct-Lite",tokens:8192},{description:"Llama 3 8B Instruct Reference 提供多语言支持，涵盖丰富的领域知识。",displayName:"Llama 3 8B Instruct Reference",id:"meta-llama/Llama-3-8b-chat-hf",tokens:8192},{description:"Llama 3 70B Instruct Reference 是功能强大的聊天模型，支持复杂的对话需求。",displayName:"Llama 3 70B Instruct Reference",id:"meta-llama/Llama-3-70b-chat-hf",tokens:8192},{description:"LLaMA-2 Chat (13B) 提供优秀的语言处理能力和出色的交互体验。",displayName:"LLaMA-2 Chat (13B)",id:"meta-llama/Llama-2-13b-chat-hf",tokens:4096},{description:"LLaMA-2 提供优秀的语言处理能力和出色的交互体验。",displayName:"LLaMA-2 (70B)",id:"meta-llama/Llama-2-70b-hf",tokens:4096},{description:"Gemma 2 9B 由Google开发，提供高效的指令响应和综合能力。",displayName:"Gemma 2 9B",enabled:!0,id:"google/gemma-2-9b-it",tokens:8192},{description:"Gemma 2 27B 是一款通用大语言模型，具有优异的性能和广泛的应用场景。",displayName:"Gemma 2 27B",enabled:!0,id:"google/gemma-2-27b-it",tokens:8192},{description:"Gemma Instruct (2B) 提供基本的指令处理能力，适合轻量级应用。",displayName:"Gemma Instruct (2B)",id:"google/gemma-2b-it",tokens:8192},{description:"Mistral (7B) Instruct v0.3 提供高效的计算能力和自然语言理解，适合广泛的应用。",displayName:"Mistral (7B) Instruct v0.3",enabled:!0,id:"mistralai/Mistral-7B-Instruct-v0.3",tokens:32768},{description:"Mistral (7B) Instruct v0.2 提供改进的指令处理能力和更精确的结果。",displayName:"Mistral (7B) Instruct v0.2",id:"mistralai/Mistral-7B-Instruct-v0.2",tokens:32768},{description:"Mistral (7B) Instruct 以高性能著称，适用于多种语言任务。",displayName:"Mistral (7B) Instruct",functionCall:!0,id:"mistralai/Mistral-7B-Instruct-v0.1",tokens:8192},{description:"Mistral 7B是一款紧凑但高性能的模型，擅长批量处理和简单任务，如分类和文本生成，具有良好的推理能力。",displayName:"Mistral (7B)",id:"mistralai/Mistral-7B-v0.1",tokens:8192},{description:"Mixtral-8x7B Instruct (46.7B) 提供高容量的计算框架，适合大规模数据处理。",displayName:"Mixtral-8x7B Instruct (46.7B)",enabled:!0,functionCall:!0,id:"mistralai/Mixtral-8x7B-Instruct-v0.1",tokens:32768},{description:"Mixtral 8x7B是一个稀疏专家模型，利用多个参数提高推理速度，适合处理多语言和代码生成任务。",displayName:"Mixtral-8x7B (46.7B)",id:"mistralai/Mixtral-8x7B-v0.1",tokens:32768},{description:"Mixtral-8x22B Instruct (141B) 是一款超级大语言模型，支持极高的处理需求。",displayName:"Mixtral-8x22B Instruct (141B)",enabled:!0,id:"mistralai/Mixtral-8x22B-Instruct-v0.1",tokens:65536},{description:"DeepSeek LLM Chat (67B) 是创新的 AI 模型 提供深度语言理解和互动能力。",displayName:"DeepSeek LLM Chat (67B)",enabled:!0,id:"deepseek-ai/deepseek-llm-67b-chat",tokens:4096},{description:"Qwen2.5 是全新的大型语言模型系列，旨在优化指令式任务的处理。",displayName:"Qwen 2.5 7B Instruct Turbo",enabled:!0,id:"Qwen/Qwen2.5-7B-Instruct-Turbo",tokens:32768},{description:"Qwen2.5 是全新的大型语言模型系列，旨在优化指令式任务的处理。",displayName:"Qwen 2.5 72B Instruct Turbo",enabled:!0,id:"Qwen/Qwen2.5-72B-Instruct-Turbo",tokens:32768},{description:"Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。",displayName:"Qwen 2 Instruct (72B)",id:"Qwen/Qwen2-72B-Instruct",tokens:32768},{description:"Qwen 1.5 Chat (72B) 提供快速响应和自然对话能力，适合多语言环境。",displayName:"Qwen 1.5 Chat (72B)",id:"Qwen/Qwen1.5-72B-Chat",tokens:32768},{description:"Qwen 1.5 Chat (110B) 是一款高效能的对话模型，支持复杂对话场景。",displayName:"Qwen 1.5 Chat (110B)",id:"Qwen/Qwen1.5-110B-Chat",tokens:32768},{description:"DBRX Instruct 提供高可靠性的指令处理能力，支持多行业应用。",displayName:"DBRX Instruct",id:"databricks/dbrx-instruct",tokens:32768},{description:"Upstage SOLAR Instruct v1 (11B) 适用于精细化指令任务，提供出色的语言处理能力。",displayName:"Upstage SOLAR Instruct v1 (11B)",id:"upstage/SOLAR-10.7B-Instruct-v1.0",tokens:4096},{description:"Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) 是高精度的指令模型，适用于复杂计算。",displayName:"Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)",id:"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO",tokens:32768},{description:"Nous Hermes-2 Yi (34B) 提供优化的语言输出和多样化的应用可能。",displayName:"Nous Hermes-2 Yi (34B)",id:"NousResearch/Nous-Hermes-2-Yi-34B",tokens:4096},{description:"MythoMax-L2 (13B) 是一种创新模型，适合多领域应用和复杂任务。",displayName:"MythoMax-L2 (13B)",id:"Gryphe/MythoMax-L2-13b",tokens:4096},{description:"StripedHyena Nous (7B) 通过高效的策略和模型架构，提供增强的计算能力。",displayName:"StripedHyena Nous (7B)",id:"togethercomputer/StripedHyena-Nous-7B",tokens:32768}],checkModel:"meta-llama/Llama-Vision-Free",description:"Together AI 致力于通过创新的 AI 模型实现领先的性能，提供广泛的自定义能力，包括快速扩展支持和直观的部署流程，满足企业的各种需求。",id:"togetherai",modelList:{showModelFetcher:!0},modelsUrl:"https://docs.together.ai/docs/chat-models",name:"Together AI",url:"https://www.together.ai"}},99255:function(e,i){i.Z={chatModels:[{description:"Solar Mini 是一种紧凑型 LLM，性能优于 GPT-3.5，具备强大的多语言能力，支持英语和韩语，提供高效小巧的解决方案。",displayName:"Solar Mini",enabled:!0,functionCall:!0,id:"solar-1-mini-chat",tokens:32768},{description:"Solar Mini (Ja) 扩展了 Solar Mini 的能力，专注于日语，同时在英语和韩语的使用中保持高效和卓越性能。",displayName:"Solar Mini (Ja)",functionCall:!1,id:"solar-1-mini-chat-ja",tokens:32768},{description:"Solar Pro 是 Upstage 推出的一款高智能LLM，专注于单GPU的指令跟随能力，IFEval得分80以上。目前支持英语，正式版本计划于2024年11月推出，将扩展语言支持和上下文长度。",displayName:"Solar Pro",enabled:!0,functionCall:!1,id:"solar-pro",tokens:4096}],checkModel:"solar-1-mini-chat",description:"Upstage 专注于为各种商业需求开发AI模型，包括 Solar LLM 和文档 AI，旨在实现工作的人造通用智能（AGI）。通过 Chat API 创建简单的对话代理，并支持功能调用、翻译、嵌入以及特定领域应用。",id:"upstage",modelList:{showModelFetcher:!0},modelsUrl:"https://developers.upstage.ai/docs/getting-started/models",name:"Upstage",url:"https://upstage.ai"}},39670:function(e,i){i.Z={chatModels:[{description:"百度自研的旗舰级大规模⼤语⾔模型，覆盖海量中英文语料，具有强大的通用能力，可满足绝大部分对话问答、创作生成、插件应用场景要求；支持自动对接百度搜索插件，保障问答信息时效。",displayName:"ERNIE 3.5 8K",enabled:!0,id:"ERNIE-3.5-8K",pricing:{currency:"CNY",input:.8,output:2},tokens:8192},{description:"百度自研的旗舰级大规模⼤语⾔模型，覆盖海量中英文语料，具有强大的通用能力，可满足绝大部分对话问答、创作生成、插件应用场景要求；支持自动对接百度搜索插件，保障问答信息时效。",displayName:"ERNIE 3.5 8K Preview",id:"ERNIE-3.5-8K-Preview",pricing:{currency:"CNY",input:.8,output:2},tokens:8192},{description:"百度自研的旗舰级大规模⼤语⾔模型，覆盖海量中英文语料，具有强大的通用能力，可满足绝大部分对话问答、创作生成、插件应用场景要求；支持自动对接百度搜索插件，保障问答信息时效。",displayName:"ERNIE 3.5 128K",enabled:!0,id:"ERNIE-3.5-128K",pricing:{currency:"CNY",input:.8,output:2},tokens:128e3},{description:"百度自研的旗舰级超大规模⼤语⾔模型，相较ERNIE 3.5实现了模型能力全面升级，广泛适用于各领域复杂任务场景；支持自动对接百度搜索插件，保障问答信息时效。",displayName:"ERNIE 4.0 8K",enabled:!0,id:"ERNIE-4.0-8K-Latest",pricing:{currency:"CNY",input:30,output:90},tokens:8192},{description:"百度自研的旗舰级超大规模⼤语⾔模型，相较ERNIE 3.5实现了模型能力全面升级，广泛适用于各领域复杂任务场景；支持自动对接百度搜索插件，保障问答信息时效。",displayName:"ERNIE 4.0 8K Preview",id:"ERNIE-4.0-8K-Preview",pricing:{currency:"CNY",input:30,output:90},tokens:8192},{description:"百度自研的旗舰级超大规模⼤语⾔模型，综合效果表现出色，广泛适用于各领域复杂任务场景；支持自动对接百度搜索插件，保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀",displayName:"ERNIE 4.0 Turbo 8K",enabled:!0,id:"ERNIE-4.0-Turbo-8K-Latest",pricing:{currency:"CNY",input:20,output:60},tokens:8192},{description:"百度自研的旗舰级超大规模⼤语⾔模型，综合效果表现出色，广泛适用于各领域复杂任务场景；支持自动对接百度搜索插件，保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀",displayName:"ERNIE 4.0 Turbo 8K Preview",id:"ERNIE-4.0-Turbo-8K-Preview",pricing:{currency:"CNY",input:20,output:60},tokens:8192},{description:"百度自研的轻量级大语言模型，兼顾优异的模型效果与推理性能，效果比ERNIE Lite更优，适合低算力AI加速卡推理使用。",displayName:"ERNIE Lite Pro 128K",enabled:!0,id:"ERNIE-Lite-Pro-128K",pricing:{currency:"CNY",input:.2,output:.4},tokens:128e3},{description:"百度2024年最新发布的自研高性能大语言模型，通用能力优异，效果比ERNIE Speed更优，适合作为基座模型进行精调，更好地处理特定场景问题，同时具备极佳的推理性能。",displayName:"ERNIE Speed Pro 128K",enabled:!0,id:"ERNIE-Speed-Pro-128K",pricing:{currency:"CNY",input:.3,output:.6},tokens:128e3},{description:"百度2024年最新发布的自研高性能大语言模型，通用能力优异，适合作为基座模型进行精调，更好地处理特定场景问题，同时具备极佳的推理性能。",displayName:"ERNIE Speed 128K",id:"ERNIE-Speed-128K",pricing:{currency:"CNY",input:0,output:0},tokens:128e3},{description:"百度自研的垂直场景大语言模型，适合游戏NPC、客服对话、对话角色扮演等应用场景，人设风格更为鲜明、一致，指令遵循能力更强，推理性能更优。",displayName:"ERNIE Character 8K",id:"ERNIE-Character-8K",pricing:{currency:"CNY",input:4,output:8},tokens:8192}],checkModel:"ERNIE-Speed-128K",description:"企业级一站式大模型与AI原生应用开发及服务平台，提供最全面易用的生成式人工智能模型开发、应用开发全流程工具链",disableBrowserRequest:!0,id:"wenxin",modelsUrl:"https://cloud.baidu.com/doc/WENXINWORKSHOP/s/Nlks5zkzu#%E5%AF%B9%E8%AF%9Dchat",name:"Wenxin",smoothing:{speed:2,text:!0},url:"https://cloud.baidu.com/wenxin.html"}},69568:function(e,i){i.Z={chatModels:[{description:"最新高性能模型，保证高质量输出同时，推理速度大幅提升。",displayName:"Yi Lightning",enabled:!0,id:"yi-lightning",pricing:{currency:"CNY",input:.99,output:.99},tokens:16384},{description:"小而精悍，轻量极速模型。提供强化数学运算和代码编写能力。",displayName:"Yi Spark",enabled:!0,id:"yi-spark",pricing:{currency:"CNY",input:1,output:1},tokens:16384},{description:"中型尺寸模型升级微调，能力均衡，性价比高。深度优化指令遵循能力。",displayName:"Yi Medium",enabled:!0,id:"yi-medium",pricing:{currency:"CNY",input:2.5,output:2.5},tokens:16384},{description:"200K 超长上下文窗口，提供长文本深度理解和生成能力。",displayName:"Yi Medium 200K",enabled:!0,id:"yi-medium-200k",pricing:{currency:"CNY",input:12,output:12},tokens:2e5},{description:"超高性价比、卓越性能。根据性能和推理速度、成本，进行平衡性高精度调优。",displayName:"Yi Large Turbo",enabled:!0,id:"yi-large-turbo",pricing:{currency:"CNY",input:12,output:12},tokens:16384},{description:"基于 yi-large 超强模型的高阶服务，结合检索与生成技术提供精准答案，实时全网检索信息服务。",displayName:"Yi Large RAG",enabled:!0,id:"yi-large-rag",pricing:{currency:"CNY",input:25,output:25},tokens:16384},{description:"在 yi-large 模型的基础上支持并强化了工具调用的能力，适用于各种需要搭建 agent 或 workflow 的业务场景。",displayName:"Yi Large FC",enabled:!0,functionCall:!0,id:"yi-large-fc",pricing:{currency:"CNY",input:20,output:20},tokens:32768},{description:"全新千亿参数模型，提供超强问答及文本生成能力。",displayName:"Yi Large",id:"yi-large",pricing:{currency:"CNY",input:20,output:20},tokens:32768},{description:"复杂视觉任务模型，提供高性能图片理解、分析能力。",displayName:"Yi Vision",enabled:!0,id:"yi-vision",pricing:{currency:"CNY",input:6,output:6},tokens:16384,vision:!0},{description:"初期版本，推荐使用 yi-large（新版本）。",displayName:"Yi Large Preview",id:"yi-large-preview",pricing:{currency:"CNY",input:20,output:20},tokens:16384},{description:"轻量化版本，推荐使用 yi-lightning。",displayName:"Yi Lightning Lite",id:"yi-lightning-lite",pricing:{currency:"CNY",input:.99,output:.99},tokens:16384}],checkModel:"yi-lightning",description:"零一万物致力于推动以人为本的AI 2.0技术革命，旨在通过大语言模型创造巨大的经济和社会价值，并开创新的AI生态与商业模式。",id:"zeroone",modelsUrl:"https://platform.lingyiwanwu.com/docs#模型与计费",name:"01.AI",url:"https://www.lingyiwanwu.com/"}},76727:function(e,i){i.Z={chatModels:[{description:"GLM-4-Flash 是处理简单任务的理想选择，速度最快且免费。",displayName:"GLM-4-Flash",enabled:!0,functionCall:!0,id:"glm-4-flash",pricing:{currency:"CNY",input:0,output:0},tokens:128e3},{description:"GLM-4-FlashX 是Flash的增强版本，超快推理速度。",displayName:"GLM-4-FlashX",enabled:!0,functionCall:!0,id:"glm-4-flashx",pricing:{currency:"CNY",input:.1,output:.1},tokens:128e3},{description:"GLM-4-Long 支持超长文本输入，适合记忆型任务与大规模文档处理。",displayName:"GLM-4-Long",functionCall:!0,id:"glm-4-long",pricing:{currency:"CNY",input:1,output:1},tokens:1024e3},{description:"GLM-4-Air 是性价比高的版本，性能接近GLM-4，提供快速度和实惠的价格。",displayName:"GLM-4-Air",enabled:!0,functionCall:!0,id:"glm-4-air",pricing:{currency:"CNY",input:1,output:1},tokens:128e3},{description:"GLM-4-AirX 提供 GLM-4-Air 的高效版本，推理速度可达其2.6倍。",displayName:"GLM-4-AirX",enabled:!0,functionCall:!0,id:"glm-4-airx",pricing:{currency:"CNY",input:10,output:10},tokens:8192},{description:"GLM-4-AllTools 是一个多功能智能体模型，优化以支持复杂指令规划与工具调用，如网络浏览、代码解释和文本生成，适用于多任务执行。",displayName:"GLM-4-AllTools",functionCall:!0,id:"glm-4-alltools",pricing:{currency:"CNY",input:100,output:100},tokens:128e3},{description:"GLM-4-Plus 作为高智能旗舰，具备强大的处理长文本和复杂任务的能力，性能全面提升。",displayName:"GLM-4-Plus",enabled:!0,functionCall:!0,id:"glm-4-plus",pricing:{currency:"CNY",input:50,output:50},tokens:128e3},{description:"GLM-4-0520 是最新模型版本，专为高度复杂和多样化任务设计，表现卓越。",displayName:"GLM-4-0520",functionCall:!0,id:"glm-4-0520",pricing:{currency:"CNY",input:100,output:100},tokens:128e3},{description:"GLM-4 是发布于2024年1月的旧旗舰版本，目前已被更强的 GLM-4-0520 取代。",displayName:"GLM-4",functionCall:!0,id:"glm-4",pricing:{currency:"CNY",input:100,output:100},tokens:128e3},{description:"GLM-4V-Plus 具备对视频内容及多图片的理解能力，适合多模态任务。",displayName:"GLM-4V-Plus",enabled:!0,id:"glm-4v-plus",pricing:{currency:"CNY",input:10,output:10},tokens:8192,vision:!0},{description:"GLM-4V 提供强大的图像理解与推理能力，支持多种视觉任务。",displayName:"GLM-4V",id:"glm-4v",pricing:{currency:"CNY",input:50,output:50},tokens:2048,vision:!0},{description:"CodeGeeX-4 是强大的AI编程助手，支持多种编程语言的智能问答与代码补全，提升开发效率。",displayName:"CodeGeeX-4",id:"codegeex-4",pricing:{currency:"CNY",input:.1,output:.1},tokens:128e3},{description:"CharGLM-3 专为角色扮演与情感陪伴设计，支持超长多轮记忆与个性化对话，应用广泛。",displayName:"CharGLM-3",id:"charglm-3",pricing:{currency:"CNY",input:15,output:15},tokens:4096},{description:"Emohaa 是心理模型，具备专业咨询能力，帮助用户理解情感问题。",displayName:"Emohaa",id:"emohaa",pricing:{currency:"CNY",input:15,output:15},tokens:8192}],checkModel:"glm-4-flash",description:"智谱 AI 提供多模态与语言模型的开放平台，支持广泛的AI应用场景，包括文本处理、图像理解与编程辅助等。",id:"zhipu",modelsUrl:"https://open.bigmodel.cn/dev/howuse/model",name:"ZhiPu",url:"https://zhipuai.cn"}},24552:function(e,i,t){t.d(i,{Hy:function(){return r},Jo:function(){return d},W_:function(){return l},_4:function(){return s},_D:function(){return o},tU:function(){return a}});var n=t(72109);let a="\uD83E\uDD16",o="\uD83D\uDE00",s="rgba(0,0,0,0)",l={},d=n.zE||"\uD83E\uDD2F",r=n.zE||"/icons/icon-192x192.png"},8939:function(e,i,t){t.d(i,{NN:function(){return r},Qc:function(){return l},cW:function(){return s},t9:function(){return d}});var n=t(24552),a=t(37492),o=t(8695);let s={showAllLocaleVoice:!1,sttLocale:"auto",ttsService:"openai",voice:{openai:"alloy"}},l={autoCreateTopicThreshold:2,displayMode:"chat",enableAutoCreateTopic:!0,historyCount:1},d={chatConfig:l,model:a.Q6,params:{frequency_penalty:0,presence_penalty:0,temperature:1,top_p:1},plugins:[],provider:o.k.OpenAI,systemRole:"",tts:s},r={config:d,meta:n.W_}},37492:function(e,i,t){t.d(i,{Q6:function(){return V},WW:function(){return K},X3:function(){return Z}});var n=t(78352),a=t(74445),o=t(59135),s=t(4696),l=t(63836),d=t(48266),r=t(27116),p=t(23199),u=t(9291),c=t(31088),m=t(98376),y=t(36710),h=t(54749),k=t(92121),b=t(10962),N=t(53068),g=t(58270),C=t(26226),M=t(10759),L=t(74752),B=t(83749),f=t(1402),w=t(20555),I=t(28729),v=t(44533),x=t(44663),G=t(28040),P=t(52805),T=t(99255),A=t(39670),O=t(69568),S=t(76727),Y=t(8695);let Z={ai21:{enabled:!1,enabledModels:(0,n.L1)(a.Z)},ai360:{enabled:!1,enabledModels:(0,n.L1)(o.Z)},anthropic:{enabled:!1,enabledModels:(0,n.L1)(s.Z)},azure:{enabled:!1},baichuan:{enabled:!1,enabledModels:(0,n.L1)(l.Z)},bedrock:{enabled:!1,enabledModels:(0,n.L1)(d.Z)},deepseek:{enabled:!1,enabledModels:(0,n.L1)(r.Z)},fireworksai:{enabled:!1,enabledModels:(0,n.L1)(p.Z)},github:{enabled:!1,enabledModels:(0,n.L1)(u.Z)},google:{enabled:!1,enabledModels:(0,n.L1)(c.Z)},groq:{enabled:!1,enabledModels:(0,n.L1)(m.Z)},huggingface:{enabled:!1,enabledModels:(0,n.L1)(y.Z)},hunyuan:{enabled:!1,enabledModels:(0,n.L1)(h.Z)},minimax:{enabled:!1,enabledModels:(0,n.L1)(k.Z)},mistral:{enabled:!1,enabledModels:(0,n.L1)(b.Z)},moonshot:{enabled:!1,enabledModels:(0,n.L1)(N.Z)},novita:{enabled:!1,enabledModels:(0,n.L1)(g.Z)},ollama:{enabled:!0,enabledModels:(0,n.L1)(C.Z),fetchOnClient:!0},openai:{enabled:!0,enabledModels:(0,n.L1)(M.Z)},openrouter:{enabled:!1,enabledModels:(0,n.L1)(L.Z)},perplexity:{enabled:!1,enabledModels:(0,n.L1)(B.Z)},qwen:{enabled:!1,enabledModels:(0,n.L1)(f.Z)},sensenova:{enabled:!1,enabledModels:(0,n.L1)(w.Z)},siliconcloud:{enabled:!1,enabledModels:(0,n.L1)(I.Z)},spark:{enabled:!1,enabledModels:(0,n.L1)(v.Z)},stepfun:{enabled:!1,enabledModels:(0,n.L1)(x.Z)},taichu:{enabled:!1,enabledModels:(0,n.L1)(G.Z)},togetherai:{enabled:!1,enabledModels:(0,n.L1)(P.Z)},upstage:{enabled:!1,enabledModels:(0,n.L1)(T.Z)},wenxin:{enabled:!1,enabledModels:(0,n.L1)(A.Z)},zeroone:{enabled:!1,enabledModels:(0,n.L1)(O.Z)},zhipu:{enabled:!1,enabledModels:(0,n.L1)(S.Z)}},V="gpt-4o-mini",K=Y.k.OpenAI},8695:function(e,i,t){var n,a;t.d(i,{k:function(){return n}}),(a=n||(n={})).Ai21="ai21",a.Ai360="ai360",a.Anthropic="anthropic",a.Azure="azure",a.Baichuan="baichuan",a.Bedrock="bedrock",a.DeepSeek="deepseek",a.FireworksAI="fireworksai",a.Github="github",a.Google="google",a.Groq="groq",a.HuggingFace="huggingface",a.Hunyuan="hunyuan",a.Minimax="minimax",a.Mistral="mistral",a.Moonshot="moonshot",a.Novita="novita",a.Ollama="ollama",a.OpenAI="openai",a.OpenRouter="openrouter",a.Perplexity="perplexity",a.Qwen="qwen",a.SenseNova="sensenova",a.SiliconCloud="siliconcloud",a.Spark="spark",a.Stepfun="stepfun",a.Taichu="taichu",a.TogetherAI="togetherai",a.Upstage="upstage",a.Wenxin="wenxin",a.ZeroOne="zeroone",a.ZhiPu="zhipu"}}]);