我们提供安全,免费的手游软件下载!
最近AI搜索技术备受关注,包括Perplexity、秘塔AI、MindSearch、Perplexica、memfree、khoj等等。这些技术在大语言模型的应用中发挥着重要作用。然而,使用大语言模型时,我们可能会遇到无法获取最新信息的局限,导致回答内容不基于最新信息。为了解决这一问题,可以通过LLM+搜索引擎的方式实现。
举例来说,如果直接向一般的大语言模型提问,它可能无法获取最新信息,如下图所示:
相比之下,联网回答的效果如下:
Perplexity
khoj
Kimi
那么,我们如何实现类似的效果呢?接下来我们将介绍如何实现类似的效果,并提供源码GitHub地址:https://github.com/Ming-jiayou/SimpleAISearch。如果你对此感兴趣,就可以继续往下阅读。
实现这一效果的本质是LLM+搜索引擎。首先需要能够实现函数调用功能,之前的文章中已有所说明。主要介绍一下实现思路,源码已经开源,感兴趣的话可以自己去看下具体代码。
在插件中添加调用搜索引擎的代码,这里使用的是DuckDuckGo搜索引擎。开始执行时,LLM会判断需要调用这个函数,并且参数是问题:
这个函数如下所示:
搜索引擎会找到相关内容:
让LLM根据获取到的这些信息给出回答:
目前是经过总结之后显示在界面上,也可以修改为不经过总结的。以上就是实现的一个简单思路。
通过源码构建
和之前的LLM项目一样,只需appsettings.example.json修改为appsettings.json选择你使用的平台并填入API Key即可。
直接体验
我已经在github上发布了两个版本一个依赖框架,一个不依赖框架:
下载解压之后,在appsettings中填入你的api key即可使用。
相关资讯
热门资讯