如何在 Ubuntu 上安装 GPT4All
GPT4All 是开源的大语言聊天机器人模型,我们可以在笔记本电脑或台式机上运行它,以便更轻松、更快速地访问这些工具,而您可以通过云驱动模型的替代方式获得这些工具。它的工作原理与最受关注的“ChatGPT”模型类似。但我们使用 GPT4All 可能获得的好处是它没有搜索和响应延迟时间。此外,我们不必在平台上注册即可访问它。
GPT4All 基于 LLaMa 和 GPT-J。它为不同的应用提供了灵活而强大的人工智能工具。 GPT4All 的训练数据小于 GPT3 和 GPT4 模型的训练数据,这意味着与其他模型相比,此约束使得该模型的能力受到限制。此外,该模型在本地计算机上运行,因此可能会较慢,这取决于系统的处理能力和速度(CPU)。
致力于 GPT4All 模型
GPT4All 具有针对 GPU 和 CPU 接口的 Python 绑定,可帮助用户使用 Python 脚本创建与 GPT4All 模型的交互,并将该模型集成到多个应用程序中。该模型还有助于扩展可用的现有语言模型和兼容的前沿模型的范围。为了使这个社区变得更大,我们感谢开发人员提交拉取请求以间接为该项目做出贡献。
本文提供了在 Ubuntu 上安装 GPT4All 的分步过程,以及使用 GPT4All 模型生成响应所需的其他软件包的安装。开始使用 GPT4All 模型需要首先安装必需组件。确保您的系统上已安装 Python。推荐的 Python 版本是 3.7 或更高版本。之后,我们需要执行以下步骤:
安装步骤
首先,从 GitHub 下载 GPT4All 的存储库。此处提到了该网站的链接https://github.com/nomic-ai/gpt4all.git”。在此步骤之后,我们从 GPT4All 的官方网站下载适合我们各自操作系统的 GPT4All 安装程序。
将下载的文件解压到我们系统上的任何文件目录。
打开命令提示符或终端窗口,然后导航到我们提取下载文件的 GPT4All 目录。
然后,执行命令安装所需的Python包。
第 1 步:安装
要下载并安装 Python 包的要求并安装 GPT4All,请执行以下命令开始安装:
第 2 步:下载 GPT4All 模型
我们可以从 GPT4All 网站链接下载或克隆 GitHub 存储库。要克隆存储库,请执行以下命令:
此命令将 GPT4All 存储库克隆到我们的本地计算机,如以下代码片段所示:
如果我们使用提供的链接下载 GPT4All 安装程序,我们必须确保模型文件具有“.bin 扩展名”。然后,我们必须将此下载的文件放在下载 GPT4All 的聊天目录文件夹中。
第 3 步:模型检查点(可选且仅在克隆存储库时适用)
如果我们从命令窗口(Ubuntu)克隆 GPT4All 存储库,我们需要下载“.bin 扩展名”文件。为此,我们直接从此链接“https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin”下载扩展。
下载后,将此文件移动到克隆存储库中的聊天文件夹中。
第 4 步:将文件移动到聊天文件夹
现在,我们需要导航到聊天文件夹。当我们在 Ubuntu 上工作时,我们必须运行以下命令来导航到聊天文件夹。该命令提及如下:
我们可以直接从 GPT4All 网站下载 GPT4ll 安装程序,也可以克隆存储库。此时,我们应该与成功下载 GPT4ALL 存储库并将其“.bin 扩展名”下载文件放入“GPT4All”文件夹内的聊天目录中的步骤相同。
第 5 步:运行模型
一旦我们移动到聊天文件夹,现在就可以运行模型了。我们在Linux终端上执行以下命令:
该命令将开始运行 GPT4All 的模型。现在,我们可以使用命令提示符或终端窗口与该模型进行交互,从而使用该模型来生成文本,或者我们可以简单地输入我们可能拥有的任何文本查询并等待模型对其进行响应。根据我们系统的规格,该模型可能需要一点处理时间。但与云上可用的模型相比,此桌面模型的好处是我们不必担心网络问题,因为我们现在在本地硬件上运行此模型。
我们在本地计算机上成功运行了 GPT4all。请记住,GPT4All 仍处于改进阶段,因此我们必须保持我们的分期付款是最新的。 GPT4All 存储库可以随时轻松更新。我们所要做的就是移动到 GPT4All 模型的主安装文件夹并简单地请求“Git pull”。该模型尚未达到 ChatGPT 的性能准确性,但通过向用户提供桌面界面,它仍然从这些模型中脱颖而出。
结论
类似于 GPT3 的大规模、易于访问且开源的 AI 模型替代方案是“GPT4ALL”。可以遵循我们在本指南中解释的分步过程,为我们的应用程序和项目利用该模型的强大功能。本文介绍了 Ubuntu 中 GPT4All 模型的安装方法。我们详细讨论了该模型的工作方法及其优缺点。