Demo: https://bladeswill.github.io/LM_Chat_TTS_FrontEnd.html-CN/LM_Chat_TTS_FrontEnd.html
关于:LM_Chat_TTS_FrontEnd 是一个简单但功能强大的界面,用于使用文本转语音功能与 LM Studio 模型进行交互。该项目设计轻量且用户友好,适合有兴趣探索与 AI 模型进行语音交互的广大用户。
LM_Chat_TTS_FrontEnd 是一个简单但功能强大的界面,用于使用文本转语音功能与 LM Studio 模型进行交互。该项目设计轻量且用户友好,适合有兴趣探索与 AI 模型进行语音交互的广大用户。
- 下载独立的 HTML 文件 LM_Chat_TTS_FrontEnd.html(使用 HTML、JavaScript、CSS 创建)
- LM_Chat_TTS_FrontEnd-CN.html 是从源文件 LM_Chat_TTS_FrontEnd.html 手动翻译网页文字,然后保存的
- 打开 LM Studios 并加载您选择的 LM
- 在 LM 工作室中测试模型,确保其正常运行,并获得您想要的设置。
- 转到本地服务器选项卡
- 从 LM Studios 中选择适合您的模型的预设
- 打开跨源资源共享 (CORS)
- 启动服务器
- 在边缘浏览器中打开 HTML 文档 LM_Chat_TTS_FrontEnd.html(以获得最佳语音选项)
- 输入系统提示、AI 名称、选择 AI 语音、您的名字,然后为您选择一个语音(可选)
- 输入您的消息并点击发送
- 如果 AI 无法重置内存,请选择擦除内存
- 独立的 HTML/JS/CSS 文件:整个功能都封装在一个单个文件中,方便使用。
- 语音聊天能力:与 LM Studio 模型进行语音聊天。
- 可定制选项:用户可以设置各种参数,包括 AI 的名称、声音、语音速度、用户的名 称和声音速度。
- 本地服务器集成:轻松连接到运行 LM Studio 的本地服务器。
- 浏览器兼容性:优化了对 Edge 浏览器的兼容性,以提供更广泛的声音选项。
- 克隆仓库:从 GitHub 仓库下载文件。
- 启动 LM Studio 本地服务器:确保 LM Studio 在您的本地机器上正常运行。
- 打开 HTML 文件:使用 web 浏览器(建议使用 Edge)打开 HTML 文件。
- 配置设置:打开文件后,在菜单中配置设置,包括 AI 和用户的声音选项。
- 输入系统提示:根据需要自定义系统提示。
- 开始聊天:在聊天框中输入消息,并收到 AI 模型的语音回复。
- AI 和用户的名 称:个性化名 称以获得更定制化的体验。
- 声音选择:从 AI 和用户的一系列声音中进行选择。
- 声音速度控制:调整语音回复的速度。
- 自定义API端点:为特定服务器交互设置自定义API端点 URL。
- 主题切换:在浅色和深色主题之间切换,以使用户感到舒适。
- 对话日志:查看、评估、压缩或清空对话日志,以更好地管理数据。
- 自动朗读功能:可启用或禁用自动朗读消息的功能。
- 检查浏览器兼容性:确保您使用的是 Edge 浏览器以享受全部功能。
- 验证本地服务器:确保 LM Studio 本地服务器正常运行。
- 查看控制台日志:使用浏览器的开发者工具查看是否有错误消息。
欢迎为 LM_Chat_TTS_FrontEnd 项目做出贡献。请按照标准的分支和拉取请求工作流程进行操作。别忘了根据需要更新测试和文档。
该项目发布在 [specify license], 它允许广泛使用和贡献,同时保持必要的法律保护。
创建者: Friend of AI https://www.youtube.com/@friendofai