Contents
前言
在之前的文章中,我分别介绍了本地大语言模型UI:Lobechat的安装(参看文章:docker系列 基于开源大语言模型UI框架:Lobechat的详细部署教程),以及第三方API:OhMyGPT,也简单提及了Lobechat + OhMyGPT可以打造多API供应商无缝切换的使用体验。
不过,由于Lobechat本身提供了很多功能,相对的,设置项也比较多,并不是随随便便就可以轻松上手的,再加上又有API供应商直接提供的服务,以及第三方API供应商(例如OhMyGPT)中转提供的服务的差别,这些对于不太熟悉的朋友来讲,可能会产生不小的困惑。另外,Lobechat本身在使用时也有一些小技巧和注意事项,所以我觉得还是有必要单独写一篇关于Lobechat的设置及使用方面的文章来进行梳理,顺便也算作Lobechat的详细使用教程了。
前置知识:API供应商及第三方API供应商
API供应商
注:这部分内容我在另一篇文章中已经详细介绍过了(参看:开启AI之旅:本地大语言模型UI与大语言模型API供应商的入门详解),这里不多说,这里只是为了文章结构的完整性简单得陈述一下。
大语言模型API供应商是指那些开发并提供强大自然语言处理模型的公司,通过API形式为开发者和企业提供服务。这些模型通常基于先进的深度学习技术,能够理解、生成和处理人类语言。供应商提供的API允许用户将这些语言模型集成到各种应用中,用于文本生成、翻译、对话、数据分析等任务,常见的API供应商包括但不限于:
- OpenAI (ChatGPT):OpenAI 是领先的大语言模型供应商之一,提供 ChatGPT API,基于 GPT 模型,支持文本生成和对话功能。ChatGPT 可以在多种场景中提供高效的自然语言处理能力,从客户支持到内容创作均有广泛应用。
- Google (Gemini):Google 提供 Gemini 系列模型,通过 Google Cloud 的 API 服务。这些模型以深厚的语言理解和生成能力著称,尤其在多语言处理、文本分析和信息提取等任务中表现出色。
- Anthropic (Claude):Anthropic 的 Claude 系列是大语言模型领域的新兴强者,其 API 提供了智能且更为安全的对话生成能力。Claude 擅长处理复杂对话并维持语义一致性,广泛应用于AI助手、客户支持等场景。
第三方API供应商
什么是第三方API供应商?
第三方API供应商,是指那些不直接开发自己的大语言模型或 AI 技术,而是通过整合多个主流 API 供应商(如 OpenAI、Google、Anthropic 等)并提供统一的接口与服务,帮助用户便捷地访问这些模型的公司或平台。这些第三方供应商通常简化了 API 的管理和集成过程,让开发者和企业可以从单一平台中选择不同的 AI 模型进行使用,而无需单独注册、配置和管理多个供应商的 API。
他们的服务可以包括降低成本、统一的计费系统、简化的 API 管理、以及对多种模型的无缝集成,这使得企业和开发者能够以更灵活、经济的方式快速采用 AI 技术。
第三方API供应商运作原理
第三方API供应商的运作原理可以简单理解为:一个集成了多家大语言模型 API 供应商的平台,用户只需使用平台提供的统一API地址和访问密钥,就可以调用多个不同的模型。
第三方API供应商(以我使用的OhMyGPT为例)的核心功能如下:
1、渠道管理:在第三方API供应商平台,每个渠道对应一个API Key,可以是来自 OpenAI、微软、Google 等大语言模型的 API Key。一个 API Key可以访问同一供应商的多个模型,OhMyGPT会根据用户的请求,自动选择适合的渠道来调用特定的模型。
2、访问凭证:用户只需通过第三方API供应商的统一访问凭证,便可以访问平台上集成的所有模型,不需要为每个大语言模型分别配置不同的 API 凭证,只需要配置第三方API供应商的API地址和访问令牌,就可以轻松调用多家大语言模型API供应商的模型。
3、操作流程:
• 用户发出请求,指定所需要的模型名称。
• OhMyGPT 根据请求中的模型名称,匹配相应的 API 渠道,选择合适的模型进行调用。
• 匹配成功后,OhMyGPT 将请求发送给实际的大语言模型 API 供应商,获取处理结果。
• 最后,OhMyGPT 将结果返回给用户。
这种架构让 OhMyGPT 成为一个便捷的第三方平台,用户可以通过统一接口访问多家模型供应商,无需单独管理每个 API 的细节,大幅提升了使用和集成的效率。这种方式大大简化了用户在不同模型之间的切换和调用过程,避免了处理每个供应商的不同接口格式和认证方式。
注:从某种角度来说,第三方 API 供应商可以被视为一种‘API 反向代理’,它通过提供统一的接口和访问密钥,将用户的请求转发给不同的大语言模型 API 供应商,并返回结果,从而简化了多模型切换和调用过程。
github上有个18.4k stars的开源项目叫One API,其实就是自建一个API中转网关(项目的地址为:https://github.com/songquanpeng/one-api),该项目可以通过自建的方式为各种大语言模型API供应商提供一个统一的接口,本质上和第三方API供应商的工作原理是一样的,所以大家可以通过One API来理解第三方API供应商的运作原理,如下图:
One API 提供如下核心功能(大家可以和前面提到的第三方API供应商核心功能进行对比):
1、统一接口 :通过定义一个标准化接口,开发人员可以通过一套接口调用不同的 AI 模型 API。这减少了整合多个服务时的复杂性。
2、密钥管理 :为不同的服务提供灵活的 API 密钥管理功能。通过 One API,用户可以更轻松地管理和配置多个 API 密钥,确保调用的安全性和方便性。
3、日志和监控 :提供对每个 API 请求的日志记录和统计分析,帮助开发者监控每个模型的使用情况和性能。
4、开放和可扩展性 :作为开源项目,One API 可以根据具体需求进行修改和扩展,以适应不同场景和需求。
只不过,它解决的问题和第三方API供应商不同:它的主要目的是帮助那些已经购买了各大 API 供应商服务的用户,解决因 IP 地址限制(例如供应商不对大陆开放)导致的访问问题:用户可以在一个没有 IP 限制的国外云主机上部署 One API来作为中转网关,通过这个云主机的 API 访问各大语言模型供应商,绕过地域限制。相比之下,第三方 API 供应商则通常直接提供统一的 API 接口和访问密钥,集成了多家大模型供应商的服务,解决的问题是让用户无需自行购买或管理各供应商的服务。
换句话说,第三方 API 平台主要简化了多模型之间的切换和调用,而 One API 则侧重于解决地域限制问题,允许用户继续使用自己已购买的服务。
由于侧重点不同,One API作为API中转网关,更需要关注和解决和各个API供应商的兼容性,所以在各种场景中通常会表现得更好;而第三方供应商(比如OhMyGPT)在某些场景下,可能对特定供应商的 API 支持有限,尤其是超出简单的对话请求时,例如:在非聊天应用中,WordPress上的AI插件(比如AI Engine)需要进行复杂内容生成或分析,这种调用对 API 的兼容性要求较高,OhMyGPT在这些使用场景下,如果没有准确适配供应商API 格式或返回值处理逻辑,成功率可能因此下降。
因此,OhMyGPT更适合chat类应用场景(比如Lobechat或者ChatGPT Next Web),如果在其他场景下无法成功使用OhMyGPT这类第三方API供应商,而又恰好有合适IP的云主机,则可以考虑One API解决方案。
第三方API供应商简介
常见的第三方API供应商包括但不限于:
1. OhMyGPT
简介:OhMyGPT 是一家专注于提供多家大语言模型 API 对接服务的第三方供应商。通过 OhMyGPT,用户可以使用 OpenAI、Google Gemini、Anthropic Claude 等多个顶级大语言模型,而无需分别管理每个供应商的账户。OhMyGPT 的一大优势是能够为用户提供更便捷的接口和较低的使用成本,适合希望灵活使用多种模型的开发者和企业。
特点:简化 API 管理,支持多家大模型平台,费用相对较低。
2. RapidAPI
简介:RapidAPI 是全球最大的 API 市场,提供数以千计的 API 供用户访问,包括大语言模型 API。开发者可以通过 RapidAPI 平台快速找到并连接 OpenAI、IBM Watson 等 AI 供应商,并使用统一的 API 密钥管理和计费系统。它为开发者提供了测试、监控 API 的功能,提升了接入不同服务的效率。
特点:API 种类丰富,集成速度快,统一管理和计费。
3. NLP Cloud
简介:NLP Cloud 提供基于多种自然语言处理模型的 API,支持像 GPT 系列、T5、BERT 等模型。NLP Cloud 专注于为企业提供优化的语言模型解决方案,尤其在文本生成、分类、翻译等领域表现出色。它还为用户提供隐私保护和自定义模型的选项,非常适合需要高安全性和定制化功能的企业。
特点:支持多个 NLP 模型,企业级解决方案,隐私保障。
4. AssemblyAI
简介:AssemblyAI 以语音识别 API 见长,但也通过其平台提供了与大语言模型相关的服务。用户可以通过 AssemblyAI 集成 OpenAI 的 GPT 模型,将语言处理与语音识别相结合,应用于语音转文本、智能助手等多模态场景。它为开发者提供快速、稳定的接入体验。
特点:多模态支持,语音与文本处理结合,稳定的 API 服务。
5. Spell
简介:Spell 提供机器学习和 AI 模型的训练与管理服务,允许开发者通过其平台接入 OpenAI、Google 等语言模型。Spell 还提供自定义训练与部署的选项,适合那些需要灵活部署和管理 AI 模型的企业或研究人员。
特点:自定义模型训练,简化部署,灵活集成多个 AI 模型。
6. LangchainHub
简介:LangchainHub 专注于自然语言处理和大语言模型集成的第三方平台。通过 LangchainHub,用户可以集成多个大语言模型 API,如 OpenAI、Anthropic、Google 等,简化对多种语言模型的调用,并提供了与不同工具和框架的兼容性,帮助开发者和研究人员快速构建 NLP 应用。
特点:广泛集成多种模型,开发效率提升,多工具兼容。
本文中第三方API供应商以OhMyGPT为例。
可选:通过PWA(渐进式网页应用)方式使用Lobechat
PWA介绍
Lobechat支持PWA(渐进式网页应用),使其在移动端和桌面端设备上能够提供类原生应用的体验。通过PWA支持,用户可以将Lobechat的快捷方式添加到工作设备的桌面上,并像使用本地应用一样打开和运行它。PWA特性有如下几点:
- 离线支持:PWA特性让用户在无网络连接时仍然可以访问部分功能。
- 推送通知:用户可通过PWA接收来自Lobechat的实时通知(如消息或任务提醒),提高互动性。
- 快速安装:用户可以通过浏览器一键安装,体验更便捷的访问方式,无需应用商店下载。
- 自动更新:PWA应用能够自动更新至最新版本,确保用户总是使用最新版的Lobechat。
借助PWA,Lobechat可以在不同设备上提供一致、便捷的使用体验,非常适合频繁使用的场景。
PWA方式安装
一般来说,首次登录Lobechat的时候会提示安装,或者,点击浏览器地址栏右侧图标即可安装,如下图:
安装完成后,就和常规应用看起来是一样的了,比如我在mac上安装之后显示如下:
之后就可以直接点击图标打开Lobechat了,其实就是类似一个包含了网址的快捷方式,打开后其实大多是调用默认浏览器运行的,只是它在界面上看起来像一个独立的应用。不过,为了增强用户体验,PWA会以”无地址栏、无标签页”的独立窗口模式打开,给人一种独立于浏览器的感觉,观感如下:
在技术层面,它依然依赖浏览器引擎来运行,所以安装的PWA快捷方式会跟随默认浏览器的更新和配置。
PWA的完整支持依赖于默认浏览器的特性,如果默认浏览器支持丰富的PWA特性,那么PWA的表现和体验也会更好。尤其是对”Service Workers”、”Web App Manifest”、以及”HTTPS”的支持。因此,不同浏览器作为默认浏览器时对PWA的支持情况有所差异:
- 支持较好的浏览器:Chrome、Edge、Firefox和Safari等现代浏览器都支持PWA的基本功能,如离线访问、主屏幕快捷方式、推送通知等。在这些浏览器上,PWA的体验与原生应用接近。
- 移动端:在Android设备上,Chrome和Edge支持PWA安装,允许用户直接从浏览器添加到主屏幕。iOS上的Safari也支持PWA,但其功能稍有限制(如不支持推送通知和后台更新)。
- 桌面端:Chrome、Edge和Firefox在桌面端支持PWA的安装,允许用户将其视为本地应用一样管理。
因此,为了获得最佳的PWA体验,推荐使用最新版本的Chrome、Edge等浏览器作为默认浏览器。
Lobechat应用设置
应用设置介绍
Lobechat的“应用设置“界面是用于全面配置应用功能的中心,包括”通用设置、”系统助手”、”语言模型”、”语音服务”和”默认助手”等多个选项卡,帮助用户优化AI助手的行为和界面效果。
• 通用设置:用户可以在这里配置应用的主题、显示语言、对话样式等基本设置,定制整体的界面风格与使用体验。
• 系统助手:该选项卡用于管理与配置系统级的助手功能,用户可以设置系统助手的角色和特定任务,确保它在不同应用场景下都能高效运作。
• 语言模型:在此用户可以选择和配置使用的语言模型,包括模型种类、模型参数等,以更好地适应不同的对话需求和任务复杂度。
• 语音服务:提供语音识别和语音合成功能的配置选项,用户可以启用语音输入或语音输出,提升与AI助手的互动方式。
• 默认助手:用户可在此设置默认的对话助手,包括调整其个性、对话风格和参数(如随机性),使其适应日常交流或特定任务的需求。
“应用设置”界面帮助用户灵活定制Lobechat的各项功能,以适应不同的工作场景和使用偏好。
要进入”应用设置”,需要先进行登录,然后可以通过点击左上角红框中的头像:
选择”应用设置”即可进入:
语言模型
在Lobechat的设置中,”语言模型”是最重要的设置项,该选项允许用户选择并配置特定的大语言模型API供应商,用于聊天和其他AI驱动的任务:该选项定义了所使用的模型类型(例如GPT-4、Claude 3.5 Sonnet、Gemini等),并设置了API提供商、API KEY、API代理地址、和模型等参数,以根据所选模型的能力定制响应:
一般而言,我们分为两种使用方式。
直接使用API供应商官方服务
这种方式适合身居国外,或者虽然身居国内,但是会科学或者魔法,能够自由改变自己IP(且不差钱,官方OpenAI的plus套餐要20美金)的朋友。
直接使用官方OpenAI的服务:
直接使用官方Azure OpenAI的服务:
直接使用官方anthropic的服务:
注1:直接使用官方服务这种方式没啥可说的,只要有在官方直接购买的合法API key,且运行lobechat的设备公网IP不是国内IP就行。
注2:之所以要提IP的问题,是因为正常的国外大语言模型API供应商基本都屏蔽了国内IP的直接访问,而唯一不屏蔽的Azure Open AI也是企业用户才能使用,以下是10月17号收到的邮件通知:
我在之前的文章中还推荐这个国内不科学也能直接使用官方OpenAI的方式来着,没想到人算不如天算(貌似一直是企业版才能用,只是现在在申请使用的时候放开了而已),现在算是彻底绝了我这个念头~,以后只有国内IP的话,就老老实实使用国产大语言模型厂商的产品吧。
注3:”使用客户端请求模式”这个请求因人和环境导致体验不同,大家自己尝试吧。
通过第三方API供应商中转使用API供应商的服务
这种方式更适合身在国内又不具备科学或者魔法手段,或者有科学或者魔法手段,但是觉得直接使用官方服务太贵的朋友(比如我?),不过,这种方式的前提是已经有了适合自己需求的第三方API供应商,以我为例,目前正在使用的第三方API供应商就是上文多次提到的OhMyGPT了,所以下文中也以它为例。
注:关于OhMyGPT的详细介绍参看我另一篇文章:,这里就不重复介绍了。
那么,OhMyGPT在Lobechat里应该如何使用呢?以下使用OpenAI的设置界面来演示:
这里有3个设置关键:API KEY、API代理地址、模型列表。
1、上图中的API KEY填写自己在OhMyGPT账号里的API KEY:
2、API代理地址填写适合自己的OhMyGPT线路地址:
3、模型列表,可以直接在Lobechat OpenAI设置界面的”模型列表”里进行设置需要的模型版本即可:
如果Lobechat默认提供的模型版本没有自己需要的,而在OhMyGPT账号的”设置”项里又有的模型版本(有点尴尬,找了半天没找到,自己编一个,假设是gpt-4-32k-1230),可以直接在OpenAI的”模型列表”里创建,下图中可以看到在Lobechat没有内置支持该版本(当然没有,我编的~),所以会提供”创建并添加gpt-4-32k-1230模型”的选项:
之后该模型版本就会出现在模型列表:
注:在Lobechat的语言模型选项中,虽然表面上看是使用OpenAI设置项下的模型列表,但如果API代理地址已经指向OhMyGPT,那么所有请求都会直接通过OhMyGPT处理。此时,只要在模型列表中选择的模型版本是正确的,并且OhMyGPT支持该模型(不一定是OpenAI的模型版本,比如上图中的gemini-1.5-pro-002),它就能够识别出请求是要发往哪个API供应商(比如这里就能知道gemini-1.5-pro-002的模型版本是发往Anthropic);根据模型版本,OhMyGPT还能自动生成该供应商能理解的API请求格式。因此,即便在Lobechat语言模型的界面上看似是选择OpenAI,但是只要API代理地址指向了OhMyGPT,就可以用这种方式调用其他API供应商的模型。
附加知识:为什么选择使用OpenAI的设置界面来调用其他API供应商的模型?
选择OpenAI的设置界面来做这种事,与兼容性和普及度密切相关,具体原因可以归结为以下几点:
1、OpenAI的广泛使用和标准化:
OpenAI的API接口和模型在AI应用领域广泛使用,因此很多开发者和用户都对其界面和配置选项非常熟悉。使用OpenAI的设置界面可以最大程度地兼容现有用户习惯,同时简化开发和集成过程。
2、兼容性更高:
OpenAI的API设计结构和调用方式已经成为一个比较通用的标准,很多AI代理服务(如OhMyGPT)或中介平台可以轻松解析和转发OpenAI风格的API请求到其他供应商,如Ollama、Google、Anthropic等。这种结构简洁且功能强大,因此在做代理或转发时,OpenAI的界面和设置能更好地适应不同AI供应商的需求。
3、减少开发复杂度:
由于OpenAI的API结构被广泛接受,应用开发者可以通过一个统一的API接口设计(OpenAI风格)来适配多个AI供应商,而不需要单独为每个供应商设计不同的接口和界面。这样不仅降低了开发复杂度,还提升了平台的灵活性,方便未来添加更多模型和供应商。
4、通用性和扩展性:
OpenAI的设置界面通常具备高度通用性,能够通过代理机制将请求转换为其他供应商的API格式。这使得应用即使表面上使用的是OpenAI的设置框,但实际上可以通过后台代理访问更多不同的模型和供应商,提升了扩展性。
因此,选择OpenAI的界面来调用其他API供应商的模型,不仅是因为它的普及度,还因为它的通用性和灵活性,使得兼容多个AI模型和供应商变得更容易。
系统助手
在Lobechat应用设置中的系统助手选项下,三个关键的项目分别是“话题命名模型”、“翻译模型”和“助理元数据生成模型”:
1、话题命名模型:
这个模型用于自动生成会话的主题名称,特别是在对话较长或涉及多个主题时,可以根据对话内容智能地为会话命名,帮助用户更好地整理和回顾不同话题。
2、翻译模型:
翻译模型用于将对话内容在不同语言之间进行转换。用户可以根据需求选择不同的语言模型来实时翻译对话,使得跨语言交流更加顺畅。
3、助理元数据生成模型:
这个模型负责生成与对话相关的元数据,通常用于对话管理或进一步的分析。元数据可能包括对话上下文、情感分析、关键词提取等信息,有助于优化对话体验和数据处理。
前面在语言模型里创建的模型均可以在这里作为下拉菜单选项进行选择:
通用设置
在Lobechat应用的“通用设置”选项下,除了设置界面”语言”之外,用户还可以对Lobechat整体界面进行调整,包括主题、字体大小、主题色、中性色,另外还可以重置所有设置以及清楚所有会话消息,这部分很简单,大家看界面就知道了,我就不多说了。
语音服务
在Lobechat应用的设置中,语音服务选项提供了与语音相关的功能配置,主要包括以下几个设置功能:
- 语音识别服务:配置应用使用的语音识别服务,用于将用户的语音输入转化为文本,下拉菜单有OpenAI和broswer两个选项。
- 自动结束语音识别开关:控制语音识别在结束时是否自动停止,便于在不连续输入时优化识别过程。
- OpenAI语音合成模型:设置OpenAI的语音合成模型,用于将文本转化为语音输出。
- OpenAI语音识别模型:设置OpenAI的语音识别模型,用于实现语音到文本的转换。
默认助手
默认助手选项的作用
Lobechat的应用设置中,“默认助手”选项的作用是为用户会话中自动分配一个预设的智能助手。当用户开启新的对话时,系统会默认启用这个助手,提供对应的回答和交互。
Lobechat的默认助手通常就是聊天界面里默认存在的“随便聊聊”助手。当你开启新的对话时,这个助手会自动加载,随时准备进行普通的对话或者提供日常帮助。你可以根据需要在应用设置中更改这个默认助手的类型,来适应不同的聊天需求或任务:
默认助手的作用包括:
- 个性化互动:根据设置的默认助手,用户可以获得个性化的对话体验。例如,可以选择专注于某个领域(如编程或内容创作)的助手,系统将基于助手的预设配置来回答相关问题。
- 简化使用流程:省去每次开始新对话时手动选择助手的步骤,提升了使用体验的便捷性。
- 特定用途场景:适合长期专注于某种任务的用户,如使用特定助手进行翻译、编写或专业问答等。通过设定默认助手,用户可以直接进入该模式。
你可以通过Lobechat的“默认助手”设置来指定最常用或最适合当前任务的助手,确保每次对话的智能体验都符合你的期望和需求。
默认助手的相关设置项图解
在AI助手的使用中,”Prompt”(提示词)起着至关重要的作用,直接影响助手的理解和回应质量:Prompt是用户输入的一段文字或问题,用来告诉AI要完成什么任务或给出什么信息,它的作用和重要性如下:
1. 明确任务意图
Prompt定义了用户的需求,使AI能够理解并回应特定的请求。例如,详细的Prompt可以帮助AI助手更准确地理解问题背景、语气或预期的输出格式,从而生成更相关的回应。如果没有清晰的提示词,AI助手可能会给出偏离主题的回答。
2. 控制生成内容
通过优化和设计Prompt,用户可以在对话中控制AI助手的生成内容。一个好的Prompt能够指定AI的回答风格(如幽默、专业)、内容细节(如要点清晰、解释详尽),甚至是语气。特别是在长篇对话中,Prompt能帮助保持内容的连贯性。
3. 提高交互效率
Prompt的设计直接影响交互的效率。一个清晰的Prompt能够减少不必要的澄清,让AI助手给出更加准确、全面的答案,从而减少反复沟通的次数。因此,合理设计Prompt可以帮助用户高效地完成任务。
4. 增强AI应用的适用性
Prompt的灵活性使得AI助手可以适应多种应用场景,例如写作辅助、代码生成、数据分析等。用户可以通过Prompt指定特定任务或领域,借助AI助手的生成能力完成不同类型的工作。
总的来说,Prompt在AI助手中相当于一条”指令”,为对话提供方向和细节。优秀的Prompt设计不仅提升AI助手的回应质量,还能够实现更高效、准确的交互体验,因此,合理地设计和使用Prompt是让AI助手高效发挥作用的关键。
Lobechat-“会话”界面
Lobechat的会话界面是用户与AI助手互动的核心平台(平时主要的工作区),支持即时对话、话题管理和对话记录功能,帮助用户获得实时回复并保持对话的一致性。用户可以同时处理多个任务,通过自定义设置(如随机性、核采样等)优化对话体验,是一个高效、便捷的任务管理工具,界面如下:
左边的助手栏可以通过点击选择不同的助手,选择之后可以点击右边的助手头像进入该助手的具体设置项:
以下选项和前面讲过的默认助手配置选项类似,如助手信息:
角色设定:
聊天偏好”
模型设置:
语音服务:
每个助手都可以独立设置这些选项,非常灵活。
Lobechat-“文件”
Lobechat的“文件”界面不仅是用户上传、存储和查看文件的工具,还支持与自建知识库的整合。用户可以通过上传文件将内容添加到知识库中,AI助手能够根据文件内容进行数据分析、文档阅读和信息检索,提升对话的智能性和效率。该界面还提供分类和搜索功能,方便用户快速找到文件或知识库中的信息,进一步增强了任务处理和个性化对话的体验,界面如下:
注:这部分内容只有服务端数据库版才有,能否正常使用依赖于搭建时提供的对象存储部分参数是否正确,不过这部分功能我没怎么用过,特别是知识库部分,以后用过之后我再来补充实际体验。
Lobechat”发现”界面
“发现”界面简介
Lobechat的“发现”界面是用户探索和接入更多功能的中心,涵盖”助手、”插件”、”模型”和”模型服务商”等模块。用户可以通过该界面查找、启用不同的助手与插件,扩展AI助手的能力,满足多样化的应用场景。同时,用户还可以选择和切换不同的模型,并接入多个模型服务商,根据需求优化模型的表现和服务体验。该界面还提供最新的功能更新和热门资源推荐,帮助用户持续提升AI的应用效果:
注:”模型”和”模型服务商”的功能和我前面在”应用设置-语言模型-模型列表”部分讲的内容有重复,不外乎就是如何新建”模型版本”之类,我就不重复介绍了,所以我这里只介绍一下”助手”和”插件”。
助手
Lobechat的”发现”界面中的”助手”选项卡用于帮助用户浏览和选择不同的AI助手:用户可以在此查看各个助手的功能和适用场景,根据需求添加或切换,以满足特定任务或对话需求:
以想添加一个”全栈”开发方面的助手为例,可以直接在搜索框搜索”全栈”:
然后出现助手详细信息的界面,确认并完成助手的添加:
添加后的AI助手会出现在Lobechat的”会话”界面:
用同样的方式可以添加更多类型的助手。
插件
Lobechat的”发现”界面中的”插件”选项卡用于浏览和管理各种功能扩展:用户可以在此选择和启用不同的插件,以增强AI助手的功能,例如集成第三方工具、实现特定任务处理等。通过插件,用户能够根据需要扩展Lobechat的能力,提升其适应不同应用场景的灵活性和实用性,界面如下图:
以下是我以插件”当前时间助手”为例,演示如何添加并使用该插件,使AI助手能获取当前时间。
默认情况下,Lobechat的AI助手无法回答关于当前时间方面的询问:
这是因为很多AI助手(包括某些版本的ChatGPT或其他语言模型)没有实时信息访问的功能,它们的设计和部署依赖于预先训练的模型,这些模型在不访问外部数据源的情况下无法获取当前时间等实时信息。同时,这些助手在大多数应用场景中不具备外部连接,没有与实时时钟或外部API连接,所有的回答都基于训练时的数据或设定的固定时间(这也是为了隐私和安全,防止在没有明确允许的情况下访问设备时间或用户系统的其他信息),因此,它们通常会提示无法提供实时数据。
然后只需要在”会话”界面的功能区选择新装的”当前时间助手”插件即可:
然后重新询问当前时间,AI助手已经可以回答了:
其他扩展插件也是一样的方式进行添加或者启用,大家按照这个思路操作就是,不过,有些插件可能需要科学或者魔法才能正常使用,比如youtube、google相关功能的插件,这点大家要注意。
后话
写这篇教程之前,我都没想到居然写了这么多,更是发现了不少之前我没有发现的一些设置细节,果然”落笔成文”对深入学习与理解的帮助真的好大(感觉类似的话我已经说了好多遍了~)。
不过想想也正常,作为目前热门的Chat类本地大语言模型UI,Lobechat在功能全面性、灵活性、高度自定义性、本地部署、用户体验等方面都很强,尤其适合个人和小型团队使用。不过相对的,对于不熟悉大语言模型或缺乏基础技术背景的用户,Lobechat的高级设置(如模型参数配置)可能较难上手,对于这类用户可能会有一定的学习成本(我都是写完这篇教程之后才基本摸清的)。
所以,我在本教程中尽可能的把一些设置、使用细节写得详细点,希望能够帮助更多技术背景较少的朋友。不过,即便如此,学习成本仍然是免不了的,只是希望通过本教程和之前的几篇文章,能让大家少走一点我之前走的弯路。