模型设置
模型设置用于添加和管理系统中可用的各种AI模型,包括对话模型、绘画模型、语音模型等。
模型类型说明
模型分为三大类型:基础对话、创意模型、特殊模型。
基础对话模型(keyType=1)
用途: 用户端可选择的对话模型,支持问答、聊天、写作等功能
特点:
- 在用户端模型选择器中显示
- 支持OpenAI Chat格式
- 其他格式模型需使用中转分发程序转换
- 可配置不同的计费方式和权限
常见模型:
- GPT系列:
gpt-4o,gpt-4o-mini,gpt-3.5-turbo - Claude系列:
claude-3-5-sonnet-20241022,claude-3-haiku - DeepSeek:
deepseek-chat,deepseek-reasoner - 其他兼容OpenAI Chat格式的模型
创意模型(keyType=2)
用途: 用户端不展示,专为插件功能设计的创意类模型
包含类型:
- 图像生成: DALL-E、Midjourney、Stable Diffusion等
- 视频制作: Runway、Pika等视频生成模型
- 音乐创作: Suno、Udio等音乐生成模型
配置要点:
- 模型参数必须与插件参数保持完全一致
- 用户通过插件功能间接使用,不直接选择模型
- 支持多种绘画类型和创意功能
特殊模型(keyType=3)
用途: 用户端不展示,提供特殊功能的模型
包含类型:
- 语音合成(TTS): 文字转语音功能
- 语音识别(STT): 语音转文字功能
- GPTs: OpenAI GPTs定制助手
- 其他特殊功能: 根据业务需求扩展
配置要点:
- 通常不直接展示给用户
- 通过特定功能入口调用
- 按需配置,非必需
模型配置项说明
基础信息
模型名称
- 模型在前端显示的名称
- 建议使用简洁易懂的名称
- 示例: "GPT-4", "Claude 3.5 Sonnet", "DeepSeek V3"
模型头像
- 模型的显示图标
- 建议使用正方形图片,尺寸建议64x64或128x128
- 支持PNG、JPG等常见格式
- 留空则使用默认图标
模型状态
- 控制模型是否启用
- 开启: 用户可以使用此模型
- 关闭: 模型不显示,用户无法使用
- 可用于临时禁用某个模型而不删除配置
模型序号
- 控制模型在列表中的显示顺序
- 数字越小,显示越靠前
- 可用于突出推荐模型
模型描述
- 对模型功能、特点的简要说明
- 在用户端鼠标悬停时显示
- 建议描述模型的主要特点和适用场景
API配置
指定代理地址
- 模型专用的API请求地址
- 留空则使用基础配置中的全局地址
- 支持为不同模型配置不同的服务商
模型密钥
- 模型专用的API密钥
- 留空则使用基础配置中的全局密钥
- 建议为重要模型配置专用密钥
账号关联模型
- 实际调用的模型标识符
- 部分API需要填写具体的模型名称
- 示例:
gpt-4o,claude-3-5-sonnet-20241022
计费配置
模型扣费类型
- 选择扣除哪种类型的积分
- 可配置不同的积分类型对应不同的用户等级
- 需要先在积分管理中创建积分类型
单次扣除金额
- 每次使用模型扣除的积分数量
- 建议根据模型成本和定价策略设置
- 不同模型可设置不同的价格
基于Token计费
- 开启: 按实际使用的Token数量计费
- 关闭: 按固定单次价格计费
- 建议对昂贵模型开启Token计费
Token计费比例
- Token计费的比例系数
- 计算公式:
消耗积分 = Token数量 × 比例 / 1000 - 示例: 比例为100时,1000 Token扣除100积分
功能配置
深度思考
- 启用模型的深度推理能力
- 适用于支持推理的模型(如DeepSeek-Reasoner)
- 可设置深度思考的积分倍数
联网搜索
- 是否启用模型的联网搜索功能
- 需要模型支持Function Calling
- 需要先在基础配置中配置联网搜索服务
MCP工具支持
- 是否支持模型控制面板(MCP)工具
- 高级功能,用于扩展模型能力
- 需要配置MCP服务
图片解析
- 模型的图像理解能力设置
- 开启后用户可以上传图片让AI识别
- 需要模型支持Vision能力
文件解析
- 模型的文件处理能力设置
- 开启后支持上传文档、PDF等文件
- 需要配置文件解析服务
限制配置
模型调用频率
- 限制用户使用该模型的频率
- 防止滥用和过度消耗
- 可按用户等级设置不同的限制
上下文限制
- 最大对话轮次限制
- 超过限制后开始丢弃最早的对话
- 建议根据模型上下文能力设置
上下文Tokens
- 模型总Token限制
- 包含对话历史和当前请求
- 建议设置为模型的最大上下文长度
回复Tokens
- 模型单次回复的Token限制
- 控制回复的最大长度
- 可用于控制成本和响应速度
调用超时时间
- API请求的超时限制
- 单位:秒
- 建议根据模型响应速度设置,通常60-120秒
高级配置
系统预设提示词
- 模型的系统级提示词
- 会与全局头部预设一起发送
- 用于定义模型的角色和行为
- 建议简洁明了,聚焦于模型特点
预设提示词类型
- 选择预设提示词的类型
- 不同类型有不同的处理方式
- 按需选择合适的类型
附加参数
- 模型的额外配置参数(JSON格式)
- 用于传递模型特定的参数
- 示例:
{"temperature": 0.7, "top_p": 0.9}
自定义配置
- 模型的自定义配置项
- 用于存储扩展配置
- JSON格式,按需使用
图像模型配置详解
DALL-E系列
DALL-E 3
- API地址:
https://api.openai.com或中转地址 - 模型参数:
dall-e-3 - 特点: 质量高,理解能力强
- 限制: 不支持图生图功能
GPT-Image
- API地址:
https://api.openai.com或中转地址 - 模型参数:
gpt-image - 特点: 支持蒙版编辑功能
Midjourney
- API地址: 仅支持中转服务(如
https://api.lightai.io) - 模型参数:
midjourney:v6或其他版本 - 特点: 艺术效果出色,风格多样
- 注意: 无官方API,必须使用中转服务
Stable Diffusion
- API地址: 需自建或使用中转服务
- 模型参数:
stable-diffusion-xl或其他SD模型 - 特点: 开源,可私有化部署
- 建议: 需要一定的技术能力配置
国内绘画模型
豆包(字节跳动)
- API地址:
https://visual.volcengineapi.com - 密钥格式:
accessKeyId|secretAccessKey - 特点: 支持蒙版编辑,国内访问快
其他绘画服务
Replicate
- API地址:
https://api.replicate.com或中转地址 - 参数示例:
black-forest-labs/flux-kontext-max
BFL (Black Forest Labs)
- API地址:
https://api.bfl.ai或中转地址 - 参数示例:
flux-kontext-max
FAL
- API地址:
https://queue.fal.run或中转地址 - 参数示例:
fal-ai/flux-max/kontext
配置建议
模型选择建议
提供多种选择
- 至少配置2-3个不同价位的对话模型
- 提供1-2个绘画模型
- 让用户可以根据需求和预算选择
成本优化
- 使用轻量模型处理简单任务
- 为不同用户等级配置不同模型
- 合理设置计费价格
质量控制
- 优先选择高质量模型
- 定期评估模型表现
- 及时更新模型版本
计费策略
按价值定价
- 高质量模型定价高
- 轻量模型定价低,吸引用户
- Token计费更公平
促销策略
- 提供免费模型让用户体验
- 新用户赠送免费额度
- 会员享受优惠价格
安全建议
密钥管理
- 使用RAM子账号或专用密钥
- 定期更换密钥
- 监控API使用量
访问控制
- 为敏感模型设置权限
- 限制调用频率
- 防止滥用和恶意使用
常见问题
Q: 如何添加新的对话模型? A:
- 点击"添加模型"按钮
- 选择模型类型为"基础对话"
- 填写模型名称、API地址、密钥等信息
- 配置计费方式和限制
- 保存并启用模型
Q: 中转服务是什么? A:
- API中转服务提供多种模型的统一接口
- 支持OpenAI、Claude、DeepSeek等多种模型
- 无需分别注册各个服务商
- 推荐: LightAI API (https://api.lightai.io)
Q: 为什么我的模型不显示? A: 检查:
- 模型状态是否开启
- 模型序号是否正确
- 用户是否有使用权限
- 是否配置了正确的API地址和密钥
Q: 如何设置模型的计费? A:
- 简单计费: 设置"单次扣除金额"
- Token计费: 开启"基于Token计费"并设置比例
- 不同用户等级可配置不同的积分类型
Q: 绘画模型如何在用户端使用? A:
- 绘画模型属于创意模型(keyType=2)
- 用户端不直接显示
- 通过绘画插件间接使用
- 确保模型参数与插件配置一致
Q: 如何测试模型是否配置成功? A:
- 保存模型配置
- 在用户端选择该模型
- 发送测试消息
- 检查是否能正常回复
Q: 支持哪些模型的图片识别功能? A:
- GPT-4o / GPT-4 Vision
- Claude 3.5 Sonnet
- Gemini Pro Vision
- 其他支持Vision的模型
Q: Token计费如何计算? A:
- 公式:
消耗积分 = Token数量 × 比例 / 1000 - 示例: 比例100,使用2000 Token,扣除200积分
- 建议比例: 根据模型成本和定价设置
Q: 如何为模型设置不同的权限? A:
- 通过积分类型控制不同用户等级
- 设置模型调用频率限制
- 配置模型状态控制是否显示