本文首先介绍了RAGFlow,这是一款基于深度文档理解的开源检索增强生成(RAG)引擎,可为不同规模的企业和个人提供简化的RAG工作流程。接着,详细描述了RAGFlow的部署步骤,包括系统要求、Linux内核参数调整和Docker容器安装。文中还展示了如何配置Azure OpenAI模型提供商、知识库和数据集,并提供了基于个人笔记的实例进行测试验证,显示了RAGFlow在问答及引用方面的效果。此外,本文探讨了在企业环境中构建有效知识库所面临的挑战,以及不同大语言模型(LLM)在此过程中表现出的差异,尤其是嵌入模型与大语言模型的最佳组合。文章也提示了构建企业级知识库时需要重点考虑的诸多复杂问题,并对不同行业人员给出针对性的建议。最后,文中提供了一些主要参考文献,以便读者深入了解和进一步研究。
回顾
zset、hash 或 list 都直接或间接使用了 ziplist。当zset、hash 中的元素个数较少且都是短字符串时,redis 的底层会使用 ziplist 作为其底层的数据。而 list 则使用了 quicklist 这种数据结构。
关于 list 底层数据结构的实现,随着版本的更替有所不同。
早期版本使用 linkedlist...
回顾
zset、hash 或 list 都直接或间接使用了 ziplist。当zset、hash 中的元素个数较少且都是短字符串时,Redis 的底层会使用 ziplist 作为其底层的数据。而 list 则使用了 quicklist 这种数据结构。
在配置文件中,有相关的配置参数:
192.168.100.3:6379> config ge...
本文介绍了LiteLLM,这是一款专为大语言模型(LLM)服务提供代理网关的工具,能够代理包括OpenAI、Azure OpenAI等在内的多种LLM提供商,并支持统一的API调用方式。文中详细描述了如何通过LiteLLM代理Azure OpenAI,从而使Open-WebUI能够调用Azure OpenAI接口进行自然语言处理。具体内容包括LiteLLM和Open-WebUI的部署步骤与配置方法,以及如何在Open-WebUI中设置LiteLLM代理和默认模型。通过示例,本文展示了如何使用LiteLLM实现对话管理和模型切换功能。此外,文章还介绍了其他可选的开源产品,并提供了一些相关的参考文献供进一步研究。
关于 list
关于 list 底层数据结构的实现,随着版本的更替有所不同。
早期版本使用 linkedlist(双端列表)和 ziplist(压缩列表)
从 redis 3.2 开启,使用 linkedlist + ziplist 组成的 quicklist。
从 redis 7.0 开始,还是使用 quicklist,只不过将 ziplist...
本文介绍了Open-WebUI,它最初是为Ollama设计的WebUI工具,现已扩展为一个独立项目,支持多种LLM(大语言模型)运行器。Open-WebUI功能丰富,用户友好,旨在完全离线运行,使用户可以通过浏览器方便地与本地大模型进行交互。文章详细描述了部署Open-WebUI的步骤,包括基于Docker的配置、启动以及针对模型下载所需的代理设置。同时,还介绍了如何将Ollama和Open-WebUI结合,并在其上进行模型设置、管理和默认模型配置。文章还涵盖了如何设置用户注册选项以及启用网络搜索功能。
前述
自从 OpenAI 于 2022 年 11 月 30 日发布 ChatGPT 以来,经过 2023 年的不断发展,大语言模型的概念已经深入人心。基于大语言模型的各种周边产品和集成工具层出不穷,呈现出百花齐放的局面。在这一过程中,许多本地化的模型应用方案也应运而生。对于一些企业知识库问答的场景,模型本地化成为首要考虑的问题。因此,如何本地化调教...
在迁移 Windows Active Directory FSMO(Flexible Single Master Operation)五大角色时,通常有两种情况:一种是域控制器正常迁移并下线(transfer),另一种是强制夺取这些角色(seize)。接下来,木子将基于 PowerShell 和 CMD 两种命令行方式详细说明如何进行迁移。 ...
回顾
在前面的文章《Redis基础篇11 — 使用命令(三)对 value 的操作命令》中我们介绍了 hash 数据类型的使用,本篇文章将带您了解 hash 数据类型的底层。
我们说 string 数据类型时,其结构为:
key <---> value
而针对 hash 数据类型,它的结构为:
key <---> value...
如果想在容器中可以调用 NVIDIA GPU,还需要在宿主机需要安装 NVIDIA Container Toolkit,以便容器能够访问和使用 GPU。
# 配置仓库信息
[root@gpu-server-001 ~]# wget -O /etc/yum.repos.d/nvidia-container-to...