Perplexica:开源AI搜索引擎的使用与部署
Perplexica:开源AI搜索引擎的使用与部署
技术背景
Perplexica 是一款受 Perplexity AI 启发的开源人工智能搜索引擎。它借助先进的机器学习算法,如相似度搜索和嵌入技术,深入互联网查找答案,不仅能搜索网页,还能理解用户问题。该引擎使用 SearxNG 来确保获取最新信息,同时保障用户隐私。
实现步骤
安装
使用 Docker(推荐)
- 确保 Docker 已安装并运行。
- 克隆 Perplexica 仓库:
1 |
|
- 进入项目目录,将
sample.config.toml
重命名为config.toml
。 - 为 Docker 配置填写必要字段,如:
OPENAI
:OpenAI API 密钥(仅在使用 OpenAI 模型时填写)。OLLAMA
:Ollama API URL,例如http://host.docker.internal:11434
(仅在使用 Ollama 模型时填写)。GROQ
:Groq API 密钥(仅在使用 Groq 托管模型时填写)。ANTHROPIC
:Anthropic API 密钥(仅在使用 Anthropic 模型时填写)。Gemini
:Gemini API 密钥(仅在使用 Google 模型时填写)。SIMILARITY_MEASURE
:相似度度量(默认已填写)。
- 进入包含
docker-compose.yaml
的目录并执行:
1 |
|
等待几分钟完成设置,在浏览器中访问 http://localhost:3000
即可使用。
非 Docker 安装
- 安装 SearXNG 并在设置中允许 JSON 格式。
- 克隆仓库,将根目录下的
sample.config.toml
重命名为config.toml
,并填写所有必填字段。 - 运行
npm i
安装依赖。 - 执行
npm run build
。 - 最后运行
npm run start
启动应用。
解决 Ollama 连接错误
如果遇到 Ollama 连接错误,可按以下步骤解决:
- 检查 Ollama API URL 是否在设置菜单中正确设置。
- 根据操作系统更新 API URL:
- Windows:使用
http://host.docker.internal:11434
- Mac:使用
http://host.docker.internal:11434
- Linux:使用
http://<private_ip_of_host>:11434
,若使用不同端口需相应调整。
- Windows:使用
- Linux 用户需在
/etc/systemd/system/ollama.service
中添加Environment="OLLAMA_HOST=0.0.0.0"
,然后通过systemctl restart ollama
重启 Ollama。 - 确保端口(默认 11434)未被防火墙阻止。
作为搜索引擎使用
- 打开浏览器设置,导航到“搜索引擎”部分。
- 添加新的站点搜索,URL 为
http://localhost:3000/?q=%s
。若 Perplexica 非本地托管,需将localhost
替换为 IP 地址或域名,3000
替换为端口号。 - 点击添加按钮,即可从浏览器搜索栏直接使用 Perplexica。
使用 Perplexica 的 API
Perplexica 为开发者提供了 API,可用于将其强大的搜索引擎集成到自己的应用程序中。具体细节可查看完整文档。
将 Perplexica 暴露到网络
Perplexica 基于 Next.js 运行,可处理所有 API 请求。它在同一网络中可直接使用,通过端口转发也能保持访问。
核心代码
Docker 启动命令
1 |
|
非 Docker 安装依赖和启动命令
1 |
|
最佳实践
- 推荐使用 Docker 安装,以简化环境变量和依赖管理。
- 及时更新 API URL 以避免连接错误。
- 利用 Perplexica 的不同聚焦模式,以更好地回答特定类型的问题。
常见问题
Ollama 连接错误
可能是 API URL 设置错误、端口被阻止或 Ollama 未正确配置。可按上述解决步骤排查。
安装问题
非 Docker 安装可能因依赖问题或配置文件填写不完整导致失败。确保按步骤完成所有操作。
Perplexica:开源AI搜索引擎的使用与部署
https://119291.xyz/posts/perplexica-open-source-ai-search-engine-guide/