最新资讯

  • vLLM大模型推理框架完全指南:从安装到OpenAI兼容服务器实战

vLLM大模型推理框架完全指南:从安装到OpenAI兼容服务器实战

2026-01-29 03:39:31 栏目:最新资讯 4 阅读

本文详细介绍了vLLM高性能大语言模型推理框架,重点解析其PagedAttention和连续批处理技术如何解决传统LLM推理的内存与调度瓶颈。文章从环境配置、安装步骤到OpenAI兼容服务器搭建,全面展示了vLLM在提升吞吐量、降低延迟和高并发能力方面的优势,并通过代码示例演示了离线批量推理、API调用等实践应用,为开发者构建高性能LLM服务提供完整指南。

引言

vLLM 是一个以 Python 为主、C++/CUDA 为辅实现的高性能大语言模型(LLM)推理和服务库。

vLLM 的核心优势在于:你可以通过参数,精细控制大模型(LLM)如何运行在 GPU 上,可以“榨干” GPU显卡硬件的每一分性能。vLLM 不是只支持 GPU,但它几乎完全为 GPU 而生。

对于 GPU 用户:vLLM 是一个革命性的工具,能显著提升服务吞吐量和降低显存占用,是构建高性能 LLM 服务的首选引擎之一。

对于 CPU 用户:虽然 vLLM 提供了 CPU 支持,但这更像是一个辅助功能,用于开发和调试。强烈不建议在生产环境或对性能有要求的场景中使用 vLLM 的 CPU 模式。对于 CPU 推理,你应该优先考虑 llama.cpp 或 Ollama。

因此,在选择 vLLM 之前,请务必确认你的主要运行环境是 GPU。如果你的工作流主要围绕 CPU 展开,那么 vLLM 可能并不适合你。

备注:

OpenAI-API-Compatible(OpenAI API 兼容性)不是一个具体的软件或工具,而是一套接口规范和约定。它规定了应用程序应该如何向一个AI服务发送请求,以及该服务应该如何返回响应,其格式与 OpenAI 官方的 API 完全一致。

要理解 vLLM 对 GPU 显卡硬件的支持,首先我们有必要搞清楚以下问题:

1。为什么说 vLLM 是大型语言模型推理领域的革命性突破?

vLLM (Virtual Large Language Model) 之所以被认为是大型语言模型推理领域的革命性突破,核心在于它从根本上解决了传统推理引擎在处理动态、高并发请求时面临的内存管理和调度效率瓶颈。它通过引入PagedAttention 和 连续批处理(Continuous Batching)等创新技术,显著提升了推理的吞吐量、降低了延迟,并大幅提高了高并发处理能力。

2。vLLM 主要解决了哪些大模型推理瓶颈问题?

vLLM的核心贡献在于精准解决了传统LLM推理引擎的几个关键痛点:

(1)KV缓存内存瓶颈与碎片化:

问题: 传统方法预分配连续KV缓存导致:

----内存浪费: 短序列预留了大量未使用的内存。

----内存碎片: 频繁分配/释放不同大小的连续内存块导致外部碎片,可用内存总和足够但无法满足新的大块请求。

----OOM风险: 长序列或高并发时,极易因无法找到足够大的连续内存块而失败(Out-Of-Memory)。

vLLM解决方案: PagedAttention 通过分页和非连续分配,彻底消除外部碎片,实现接近100%的KV缓存内存利用率,并能安全处理远超传统方法限制的序列长度和并发数。

(2)静态批处理的低效与延迟:

问题: 静态批处理中,GPU必须等待批次内最慢的请求完成才能处理下一批。这导致:

----GPU利用率低下: 大量计算周期浪费在等待上。

----高延迟: 新请求加入队列的等待时间(TTFT)和完成时间(E2E Latency)显著增加,尤其在高并发和请求长度差异大时。

vLLM解决方案: 连续批处理 实现了细粒度的、动态的批次管理。GPU在每一步都处理当前活跃的请求,持续保持高计算利用率,新请求能几乎无等待地加入,已完成请求能立即退出,大幅降低平均和尾延迟。

(3)无法高效共享KV缓存:

问题: 在多用户、多对话场景中,大量请求可能包含相同的前缀(如系统指令、对话历史)。传统方法无法有效共享这部分KV缓存,导致重复计算和内存冗余。

vLLM解决方案: PagedAttention 的块结构天然支持跨请求共享相同的物理内存块。这显著减少了重复计算(虽然共享主要节省内存,但避免了重新计算共享部分的开销)和内存占用,是支持超高并发的关键因素之一。

(4)长序列/超长提示词处理困难:

问题: 传统方法处理超长提示词(如长文档摘要、代码库分析)时,预分配的巨大连续KV缓存极易导致OOM,即使总内存足够。长Prefill阶段也会长时间阻塞GPU。

vLLM解决方案: PagedAttention 按需分配块,无需预分配最大长度,安全处理超长序列。分块调度 将长Prefill分解,避免阻塞,让短请求也能及时响应。

(5)高并发下的资源竞争与不公平性:

问题: 在高并发下,传统方法容易出现:

----资源饥饿: 短请求被长请求或长Prefill阻塞,响应时间不可预测。

----吞吐量骤降: 内存碎片和静态批处理导致系统无法有效利用资源处理更多请求。

vLLM解决方案: 连续批处理 + 分块调度 提供了更公平的调度机制,优先处理接近完成的请求,防止长任务垄断资源。PagedAttention 的高效内存管理消除了高并发下的主要资源瓶颈(内存),使系统能稳定支持极高并发。

3。vLLM 是如何彻底改变硬件GPU性能指标的?

(1)显著提升吞吐量 (Throughput):

原因: 更高效的内存利用率和更智能的调度策略。

机制:

----PagedAttention (分页注意力): 将KV缓存(Key-Value Cache,存储模型中间状态)分割成固定大小的“块”(Blocks),非连续存储在内存中(类似操作系统虚拟内存的分页)。这极大地减少了内存碎片,允许在有限GPU内存中容纳更多并发请求的KV缓存。

----连续批处理 (Continuous Batching / Iterative Batching): 摒弃传统静态批处理(一批请求必须全部处理完才能开始下一批)。vLLM在推理的每一步(解码一个token)后,动态地将新请求加入批次,并将已完成(或因长度限制暂停)的请求移出批次。这确保了GPU计算资源始终处于高利用率状态,避免了因等待“慢”请求而导致的GPU空闲。

----分块调度 (Chunked Prefill): 将长提示词(Prompt)的预处理(Prefill)阶段也分割成小块,与解码阶段交织调度。这避免了单个超长提示词长时间独占GPU,让系统更公平、更高效地处理混合长短的请求。

效果: 在相同硬件上,vLLM的吞吐量(处理token数/秒)通常能达到传统方法的2倍到4倍甚至更高,尤其是在处理大量并发、长短不一的请求时优势更明显。

(2)有效降低延迟 (Latency):

原因: 减少排队等待时间,更公平地调度资源。

机制:

----连续批处理: 新请求无需等待整个批次完成,可以在下一轮迭代立即加入处理队列,显著减少了首token延迟(Time To First Token, TTFT)和后续token生成延迟(Time Per Output Token, TPOT)。

----分块调度: 防止超长提示词阻塞整个系统,使得短请求也能快速得到响应。

----高效的内存管理: 减少因内存不足或碎片化导致的请求排队或失败。

效果: 在高并发场景下,vLLM能显著降低用户请求的平均延迟和P99延迟(99%的请求延迟),提供更流畅的交互体验。

(3)大幅提高高并发能力 (High Concurrency):

原因: 内存效率的飞跃和动态调度的灵活性。

机制:

----PagedAttention: 通过消除内存碎片和实现KV缓存共享(见下文),使得在有限GPU内存中能同时处理的请求数量大幅增加。

----连续批处理: 系统可以动态地管理活跃请求池,根据资源情况(主要是剩余内存块)和请求状态(Prefill/Decoding)灵活调整并发度,最大化资源利用率。

----KV缓存共享: PagedAttention天然支持跨请求共享相同的KV缓存块(例如,多个用户使用相同的系统提示词)。这极大地节省了内存,使得在相同内存下能支持更多并发用户。

效果: vLLM能在同一块GPU上同时处理数十倍甚至上百倍于传统方法的并发请求数量,尤其适合部署在线服务。

在介绍vLLM安装之前,我们先了解一个非常快的 Python 环境管理器 uv,借助 uv 我们可以快速安装 vLLM。

1.UV

1.1.UV 简介

一个极其快速的 Python 包和项目管理器,用 Rust 编写。uv 开源项目在GitHub上目前已高达65.3k Star数。

1.2.UV 安装

在macOS 或者 Linux 环境下,安装UV:

curl -LsSf https://astral.ac.cn/uv/install.sh | sh

curl -LsSf 是一个常见的命令组合,用于从网络获取资源。

以下是各参数的含义:

-L 或 --location:跟随重定向。如果服务器返回重定向响应,curl 会自动请求新地址。

-s 或 --silent:静默模式。不显示进度条和错误信息,使输出更简洁。

-S 或 --show-error:与 -s 一起使用时,在发生错误时显示错误信息。

-f 或 --fail:在服务器错误(如 404、500)时,curl 返回非零退出码,而非显示错误页面。

在安装 uv之后,可以运行 uv 命令来检查 uv 是否可用,如下图所示:

1.3.UV 功能

uv 为 Python 开发提供基本功能,从安装 Python 和编写简单脚本到处理支持多个 Python 版本和平台的大型项目。

uv 的界面可以分为多个部分,这些部分可以独立使用或一起使用。

uv 为常见的 pippip-toolsvirtualenv 命令提供了即插即用的替代方案。

uv 通过高级功能扩展了它们的接口,例如依赖项版本覆盖、平台无关的解析、可重现的解析、替代解析策略等等。

无需更改现有工作流程即可迁移到 uv,并通过 uv pip 接口体验 10-100 倍的加速。

具体相关内容介绍,感兴趣的小伙伴可参考文章末尾处的uv官方中文文档。

2.安装 conda 环境

已安装conda的小伙伴,若对下面的conda安装不感兴趣,则可以直接忽略本章节内容。

未安装 conda 环境的小伙伴,可以参考conda 环境安装步骤如下:

步骤 1: 下载 Miniconda 安装脚本

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

步骤 2: 运行安装脚本

chmod 755 Miniconda3-latest-Linux-x86_64.sh

sh Miniconda3-latest-Linux-x86_64.sh

在安装过程中,你会看到一些许可协议和提示信息。按 Enter 键滚动阅读许可协议,然后输入 yes 接受许可协议。接下来,你可以选择安装路径,默认路径通常是 /home/用户/miniconda3(也就是 ~/miniconda3),如果你不需要更改路径可以直接按 Enter 键继续。

步骤 3: 初始化 Conda

安装完成 miniconda3 后,执行初始化 Conda命令行如下:

~/miniconda3/bin/conda init bash

source ~/.bashrc

步骤 4: 创建一个新的 Conda 环境并安装 Python 3.12

conda create -n py312Env python=3.12

步骤 5: 激活新环境

激活刚刚创建的环境:

conda activate py312Env

步骤 6:验证安装

最后,验证 Conda 版本:

conda -V

验证 Python 版本是否正确安装:

python --version

步骤 7:退出conda环境

conda deactivate

具体如下图所示:

3.检查 NVIDIA GPU 显卡和驱动

3.1.检查操作系统类型和 NVIDIA 显卡

查看操作系统类型,执行以下命令:

uname -m

可输出 x86_64(64位)或 aarch64(ARM64)

查看系统是否可以识别到 NVIDIA 显卡,执行以下命令:

lspci | grep -i nvidia

若有显卡,则可查看到显卡型号如 NVIDIA Corporation AD102 [GeForce RTX 4090]

3.2.检查显卡驱动

若已装了驱动,则显卡驱动查询方法‌为输入如下命令:

nvidia-smi

输出右上角显示 如 CUDA Version: 12.5,即最高支持的 CUDA 版本‌,如下图所示:

备注:

CUDA(Compute Unified Device Architecture)是 NVIDIA(英伟达)推出的并行计算平台和编程模型,本质是一套软硬件结合的技术体系,旨在让开发者能够利用 NVIDIA GPU(显卡)的强大算力执行通用计算任务(而不仅是图形渲染)。它与显卡的关系可以概括为:CUDA 是 GPU 的“大脑指挥系统”,让显卡从“图形处理器”升级为“通用超级计算器”。

3.3.检查CUDA版本与显卡驱动兼容性

访问NVIDIA官方文档‌,进入 CUDA Toolkit Release Notes 网址:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html#cuda-driver,查找目标CUDA版本对应的驱动版本要求‌,如下图所示:

GPU显卡算力与CUDA版本的关系,主要体现在显卡的Compute Capability(算力)决定了支持的CUDA版本。

注意:CUDA 驱动,是向下兼容的,其决定了可安装的 CUDA Toolkit 的最高版本。 ‌

3.4.安装/升级显卡驱动

  • 方法1:官方包(推荐)

sudo apt update

sudo apt install nvidia-driver-xxx

sudo reboot

备注:

将上面的xxx替换为你需要安装的驱动版本号(如 535、545)

  • 方法2:手动安装.run文件(从NVIDIA驱动下载官网)

chmod +x NVIDIA-Linux-x86_64-535.113.01.run

sudo ./NVIDIA-Linux-x86_64-535.113.01.run

前往NVIDIA驱动下载的官方网址https://www.nvidia.com/en-us/drivers/,输入显卡型号和操作系统类型,选择 >= 目标CUDA版本要求的驱动版本‌。

至此,确保你的机器有 NVIDIA GPU,并且安装了与 CUDA 版本兼容的驱动。

4.vLLM

4.1.vLLM 简介

vLLM 是一个用于 LLM 推理和服务的快速易用库。它提供了一种用于大语言模型(LLM)推理的框架,旨在提高模型的吞吐量和降低延迟。vLLM通过优化内存管理和调度策略,显著提升了模型在高并发场景下的性能。vLLM 开源项目在GitHub上目前已高达55.8k Star数。

vLLM 最初由加州大学伯克利分校的天空计算实验室开发,现已发展成为一个由学术界和工业界共同贡献的社区驱动项目。

4.2.构建并安装 vLLM GPU 后端

4.2.1.vLLM 安装要求

操作系统:Linux

Python:3.9 ~ 3.12

GPU:计算能力 7.0 或更高(例如 V100、T4、RTX20xx、A100、L4、H100 等)

4.2.3.vLLM 安装

4.2.3.1.vLLM 安装方法1:

如果你正在使用 NVIDIA GPU,可以直接使用 pip 安装 vLLM。

建议使用 uv(一个非常快的 Python 环境管理器)来创建和管理 Python 环境。见上面章节 1.2.UV 安装。安装 uv 后,您可以使用以下命令创建新的 Python 环境并安装 vLLM:

uv venv --python 3.12 --seed

source .venv/bin/activate

uv pip install vllm --torch-backend=auto

uv 可以通过 --torch-backend=auto(或 UV_TORCH_BACKEND=auto)在运行时检查已安装的 CUDA 驱动版本,从而自动选择合适的 PyTorch 后端。要选择特定的后端(例如 cu126),请设置 --torch-backend=cu126(或 UV_TORCH_BACKEND=cu126)。

4.2.3.2.vLLM 安装方法2:

另一种方法是使用 uv run 配合 --with [dependency] 选项,这允许您运行诸如 vllm serve 这样的命令而无需创建任何永久环境。

这种方法不推荐,最好是新建独立的虚拟Python环境,避免vLLM在安装过程中与当前已存在的Python环境出现安装包版本依赖冲突问题。

uv run --with vllm vllm --help

4.2.3.2.vLLM 安装方法3:(推荐)

第三种方法,也可以使用 conda 来创建和管理 Python 环境。如果希望在 conda 环境中管理 uv,可以通过 pip 将其安装到 conda 环境中。

conda create -n py312Env python=3.12 -y

conda activate py312Env

pip install --upgrade uv

uv pip install vllm --torch-backend=auto

如果上述命令执行失败(比如,因为网络超时,或者由于安装包解析加载异常而导致下载过程中提示缺少依赖包),则多尝试执行几次就好了。

具体如下图所示:

5.vLLM CLI

vLLM CLI 是vLLM框架提供的命令行接口(Command Line Interface),用于通过终端命令直接与模型进行交互。它允许用户快速测试模型功能、输入提示(prompt)并获取模型的响应,适合用于快速验证和调试。

vLLM安装成功后,vllm-cli会随着vLLM的安装一起被部署到你的Python环境中。

常用的 vLLM CLI 终端命令如下:

  • 查看vllm命令行帮助

vllm --help

其中,可用的命令包括:

vllm {chat,complete,serve,bench,collect-env,run-batch}

  • 启动一个与OpenAI API兼容的服务器,并在启动时指定一个模型和端口,该服务器基于vLLM框架运行:

vllm serve meta-llama/Llama-2-7b-hf --port 8100

在你的vLLM服务器已经运行起来后,我们就可以像调用 OpenAI API 一样与大模型进行交互了。

备注:

对于 NVIDIA GPU 显卡,直接安装 pip install vllm,默认使用CUDA 后端。

执行 vllm serve 命令,指定vLLM后端的两种方式:

方式1:执行 vllm serve 命令启动服务前,设置如下:

export VLLM_BACKEND=cuda

方式2:执行 vllm serve 命令时,带上参数如下:

–backend cuda

备注:

vLLM 后端的定位:是完整的推理引擎,是端到端的推理服务系统(属于应用层/框架层)。

vLLM 后端,是 LLM 推理的“超级加速器”,通过 PagedAttention 和连续批处理,让大模型在有限硬件上实现高吞吐、低延迟的工业级服务。

  • 通过运行的API服务器,生成聊天补全:

(1)直接无参数连接本地 API:

vllm chat

(2)指定 API 访问地址url:

vllm chat --url http://{vllm-serve-host}:{vllm-serve-port}/v1

(3)使用一个简单提示词快速聊天:

vllm chat --quick “hi”

  • 通过运行的API服务器,根据给定的提示生成文本补全:

(1)直接无参数连接本地 API:

vllm complete

(2)指定 API 访问地址url:

vllm complete --url http://{vllm-serve-host}:{vllm-serve-port}/v1

(3)使用一个简单提示词快速文本补全:

vllm complete --quick “The future of AI is”

文本补全的功能,是通过一个正在运行的API(应用程序接口)服务器来实现的。API服务器提供了一种通过网络请求和响应来访问服务的方式,使得客户端可以发送请求并获取相应的文本补全结果。

6.vLLM 离线批量推理

安装 vLLM 后,你就可以开始为一系列输入提示生成文本(即离线批量推理)。可参阅示例如下:

from vllm import LLM, SamplingParams

Sample prompts.

prompts = [

"Hello, my name is",

"The president of the United States is",

"The capital of France is",

"The future of AI is",

]

Create a sampling params object.

sampling_params = SamplingParams(temperature=0.8, top_p=0.95)

def main():

# Create an LLM.

llm = LLM(model="mistralai/Mistral-7B-Instruct-v0.2")

# Generate texts from the prompts.

# The output is a list of RequestOutput objects

that contain the prompt, generated text, and other information.

outputs = llm.generate(prompts, sampling_params)

# Print the outputs.

print("
Generated Outputs:
" + "-" * 60)

for output in outputs:

    prompt = output.prompt

    generated_text = output.outputs[0].text

    print(f"Prompt:    {prompt!r}")

    print(f"Output:    {generated_text!r}")

    print("-" * 60)

if __name__ == “__main__”:

main()

代码解释:

此示例的第一行导入了类 LLM 和 SamplingParams。

from vllm import LLM, SamplingParams

  • LLM 是使用 vLLM 引擎运行离线推理的主要类。

  • SamplingParams 指定了采样过程的参数。

在下一段代码中,定义了一系列输入提示词prompts和用于文本生成的采样参数。采样温度设置为 0.8,核采样概率设置为 0.95。

prompts = [

“Hello, my name is”,

“The president of the United States is”,

“The capital of France is”,

“The future of AI is”,

]

sampling_params = SamplingParams(temperature=0.8, top_p=0.95)

接着,LLM 类初始化了 vLLM 的引擎和 Mistral-7B 模型用于离线推理。

llm = LLM(model=“mistralai/Mistral-7B-Instruct-v0.2”)

关于 vLLM 支持的模型列表,可以在下面vLLM官方网址查阅:

https://docs.vllm.com.cn/en/latest/models/supported_models.html

vLLM 离线推理可以使用 vLLM 的 LLM 类,在你自己的代码中实现。

现在,有趣的部分来了!

输出,通过 llm.generate 生成。它将输入提示添加到 vLLM 引擎的等待队列中,并执行 vLLM 引擎以高吞吐量生成输出。

输出,以 RequestOutput 对象的列表形式返回,其中包括所有输出标记。

outputs = llm.generate(prompts, sampling_params)

for output in outputs:

prompt = output.prompt

generated_text = output.outputs[0].text

print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")

备注:

ModelScope(魔搭)是由阿里巴巴公司研发的开源模型社区与平台,旨在为开发者和研究者提供丰富的预训练人工智能模型、工具及资源,支持快速部署和开发AI应用。文章末尾处已附上 ModelScope 魔搭的官方网址,感兴趣的小伙伴可以自行前往。

1。核心功能:

开源模型库:提供多种领域的预训练模型,包括自然语言处理(NLP)、计算机视觉(CV)、语音识别、多模态等,涵盖达摩院自研及第三方开源模型。

模型体验与部署:支持在线体验模型效果,并提供推理API、微调工具和本地/云端部署方案。

统一框架:通过Python库(modelscope)简化模型调用,兼容PyTorch、TensorFlow等主流框架。

2。主要优势:

低代码使用:只需几行代码即可调用复杂模型,降低开发门槛。

行业适配:覆盖电商、金融、医疗等场景的专用模型,满足不同行业需求。

中文友好:包含大量针对中文优化的模型,如文言文理解、中文对话模型等。

3。适用场景:

快速原型开发:直接调用现成模型验证想法。

学术研究:复用预训练模型或发布新模型。

企业应用:定制微调行业模型,如客服机器人、质检系统等。

ModelScope 降低了AI模型的应用门槛,特别适合中文场景或需要快速落地的开发者。用户可自由下载模型权重,部分商用需注意许可证限制。

7.vLLM 兼容 OpenAI 的服务器

vLLM 可以部署为自动实现 OpenAI API 协议(即符合 OpenAI-API-Compatible 标准规范)的服务器。这使得 vLLM 可以作为使用 OpenAI API 应用程序的即插即用替代品。默认情况下,它在 https://IP:8000 启动服务器。您可以使用 --host 和 --port 参数指定IP地址和端口。

vLLM 服务器目前一次托管一个模型,并实现了诸如列出模型、创建聊天补全和创建补全等端点。

vLLM实战应用示例:

假设你有一台装有 2 张 A100 GPU 的服务器,你想为 Qwen2.5-7B-Instruct 模型启动一个高性能、带 API Key 的服务,并允许网络访问。可启动一个支持 OpenAI-API-Compatible 访问的 vLLM 服务,如下:

vllm serve Qwen/Qwen2.5-7B-Instruct

–host 0.0.0.0

–port 8080

–tensor-parallel-size 2

–gpu-memory-utilization 0.85

–max-model-len 32768

–dtype bfloat16

–api-key “VLLM-PROD-KEY-12345”

–served-model-name qwen-instruct

命令详解:

–Qwen/Qwen2.5-7B-Instruct: 模型名称,可以是Hugging Face上的模型标识符,也可以是本地大模型路径。

–host 0.0.0.0:监听所有网络接口,这样局域网内的其他机器也可以访问。

–port 8080: 指定服务在所有网卡的 8080 端口上可用。

–tensor-parallel-size 2: 大模型被切分到 2 张 A100 上。

–gpu-memory-utilization 0.85: 留出 15% 的显存作为缓冲,防止 OOM。

–max-model-len 32768: 充分利用 Qwen2.5 的长上下文能力。

–dtype bfloat16: 在 A100 上使用最佳的数据类型。

–api-key “VLLM-PROD-KEY-12345”: 设置了API访问密钥。

–served-model-name qwen-instruct: 这是一个非常有用的选项。它允许你给服务起一个更简单的别名。客户端在调用时,model 参数只需填写 qwen-instruct,而不是长长的 Qwen/Qwen2.5-7B-Instruct。

该vLLM服务器可以与 OpenAI API 相同的格式进行查询。例如,列出所有的模型:

curl https://vLLM服务器IP:8000/v1/models

可以通过传入参数 --api-key 或设置环境变量 VLLM_API_KEY,来实现使服务器需要检查 HTTP 头中的 API 密钥。

8.使用 vLLM 的 OpenAI Completions API

OpenAI Completions API 是 OpenAI 提供的一组核心接口,用于生成文本补全结果。简单来说,你向它提供一段文本(称为 prompt),它会根据模型的理解和训练数据,自动续写或生成后续内容。

8.1.功能本质:文本补全

输入:一段文本(prompt)。

输出:模型根据 prompt 生成的后续文本(completion)。

示例:

输入:“The sky is”

输出:“blue because of Rayleigh scattering.”

8.2.工作原理

模型通过分析 prompt 的上下文(语义、语法、风格),预测最可能的后续文本序列。

支持控制生成结果的参数(如长度、随机性、重复惩罚等)。

8.3.典型应用场景

场景示例
内容创作写文章、诗歌、广告文案、邮件草稿
代码生成输入函数描述,生成代码片段
文本翻译输入"Translate to French: Hello",输出 “Bonjour”
问答系统输入问题,生成答案
文本摘要输入长文章,生成摘要

8.4.关键参数说明

调用 Completions API 时,可通过参数控制生成行为:

参数作用示例值
model指定使用的模型(如 gpt-4, gpt-3.5-turbo-instruct)“gpt-3.5-turbo-instruct”
prompt输入的文本提示“Once upon a time”
max_tokens限制生成文本的最大长度(1 token ≈ 0.75 个英文单词)512
temperature控制随机性(0=确定性输出,1=高随机性)0.7
top_p核采样(替代 temperature,控制词汇选择的多样性)0.9
stop设置停止符(遇到指定字符时停止生成)[“ ”, “User:”]
n一次性生成多个候选结果3

8.5.示例代码

8.5.1.调用 OpenAI 官方 API

由于此 vLLM 服务器与 OpenAI API 兼容,还可以将其作为任何使用 OpenAI API 的应用程序的即插即用替代品。

例如,另一种查询服务器的方式是通过 openai Python 包:

from openai import OpenAI

openai_api_key = “EMPTY”

openai_api_base = “https://vLLM服务器IP:8000/v1”

client = OpenAI(

api_key=openai_api_key,

base_url=openai_api_base,

)

completion = client.completions.create(model=“Qwen/Qwen2.5-1.5B-Instruct”, prompt=“San Francisco is a”)

print(“Completion result:”, completion)

8.5.2.调用本地兼容服务(如 vLLM/Ollama)

from openai import OpenAI

client = OpenAI(

base_url=“http://localhost:8000/v1”, # 本地服务地址(如 vLLM/Ollama)

api_key=“not-needed” # 本地服务通常无需真实密钥

)

response = client.completions.create(

model=“llama3”, # 本地加载的模型名

prompt=“The future of AI is”,

max_tokens=30

)

print(response.choices[0].text)

输出示例: “transforming industries and enhancing human capabilities.”

8.6.使用curl命令输入提示查询大模型

vLLM 服务器启动后,可以使用curl命令,输入提示查询大模型如下:

curl https://vLLM服务器IP:8000/v1/completions

-H “Content-Type: application/json”

-d '{

“model”: “Qwen/Qwen2.5-1.5B-Instruct”,

“prompt”: “San Francisco is a”,

“max_tokens”: 7,

“temperature”: 0

}’

9.使用 vLLM 的 OpenAI Chat Completions API

vLLM 也被设计为支持 OpenAI Chat Completions API。

OpenAI Chat Completions API 是 OpenAI 提供的核心对话接口,专门用于构建基于多轮对话的应用(如聊天机器人、智能客服、AI助手等)。与传统的 Completions API 不同,它通过结构化的对话历史(Messages) 实现上下文理解,是当前 OpenAI 最主流、功能最强大的 API(支持 GPT-4、GPT-4o 等最新模型)。

聊天界面是一种更动态、交互性更强的方式与大模型进行通信,允许来回对话并存储在聊天历史中。这对于需要上下文或更详细解释的任务非常有用。

9.1.功能本质:对话式交互

输入:一组结构化的消息列表(messages),包含角色(role)和内容(content)。

输出:大模型根据对话历史生成的最新回复(assistant 角色的消息)。

关键角色:

system:设定模型行为(如“你是一个翻译助手”)。

user:用户输入(问题或指令)。

assistant:模型之前的回复(用于多轮对话)。

9.2.工作原理

模型通过分析 messages 列表中的完整对话上下文(包括历史交互),生成符合逻辑的回复。

支持动态调整对话流程(如修正错误、追问细节)。

9.3.典型应用场景

场景示例
聊天机器人客服机器人、虚拟助手(如 ChatGPT)
多轮任务处理代码调试(逐步修复错误)、数据分析(分步骤解释结果)
复杂指令理解长文本总结、跨文档信息整合
角色扮演模拟面试官、历史人物对话

9.4.关键参数与功能

9.4.1.工具调用(Function Calling)

让大模型调用外部函数(如查询天气、数据库操作):

“tools”: [{

“type”: “function”,

“function”: {

“name”: “get_weather”,

“description”: “获取城市天气”,

“parameters”: {“type”: “object”, “properties”: {“city”: {“type”: “string”}}}

}

}]

9.4.2.多模态支持

支持输入图片(content 可为文本+图片混合):

{

“role”: “user”,

“content”: [

{“type”: “text”, “text”: “图中是什么?”},

{“type”: “image_url”, “image_url”: {“url”: “https://example.com/image.jpg”} }

]

}

9.5.代码示例

9.5.1.基础对话

from openai import OpenAI

openai_api_key = “EMPTY”

openai_api_base = “https://vLLM服务器IP:8000/v1”

client = OpenAI(

api_key=openai_api_key,

base_url=openai_api_base,

)

response = client.chat.completions.create(

model="gpt-4o",

messages=[

    {"role": "system", "content": "你是一个幽默的诗人"},

    {"role": "user", "content": "写一首关于月亮的短诗"}

]

)

print(response.choices[0].message.content)

输出:月亮挂在天上,像块没刷干净的锅,

星星们窃窃私语:“今晚谁洗碗?”

9.5.2.多轮对话 + 工具调用

定义工具函数

def get_weather(city):

return f"{city}当前天气:晴,25°C"

openai_api_key = “EMPTY”

openai_api_base = “https://vLLM服务器IP:8000/v1”

client = OpenAI(

api_key=openai_api_key,

base_url=openai_api_base,

)

调用API

response = client.chat.completions.create(

model=“gpt-4o”,

messages=[

{“role”: “user”, “content”: “北京今天天气怎么样?”}

],

tools=[{

“type”: “function”,

“function”: {

“name”: “get_weather”,

“parameters”: {“properties”: {“city”: {“type”: “string”}}}

}

}]

)

检查是否需要调用工具

if response.choices[0].message.tool_calls:

tool_call = response.choices[0].message.tool_calls[0]

if tool_call.function.name == “get_weather”:

city = eval(tool_call.function.arguments)[“city”]

result = get_weather(city)

print(result) # 输出:北京当前天气:晴,25°C

9.6.使用curl命令创建聊天补全端点与模型交互

vLLM 服务器启动后,可以使用curl命令,创建聊天补全端点与模型交互如下:

curl https://vLLM服务器IP:8000/v1/chat/completions

-H "Content-Type: application/json" 

-d '{

    "model": "Qwen/Qwen2.5-1.5B-Instruct",

    "messages": [

        {"role": "system", "content": "You are a helpful assistant."},

        {"role": "user", "content": "Who won the world series in 2020?"}

    ]

}'

重要提示:

如果你的应用需要“像人一样对话”,用 Chat Completions API;

如果你的应用需要只是“补全一句话”,用 Completions API。

10.vLLM支持的 Attention 后端

目前,vLLM 支持多种后端,可在不同平台和加速器架构上高效进行注意力计算。它会自动选择与您的系统和模型规范兼容的最佳性能后端。

如果需要,也可以通过将环境变量 VLLM_ATTENTION_BACKEND 配置为以下选项之一来手动设置您选择的后端:FLASH_ATTN、FLASHINFER 或 XFORMERS。

FLASH_ATTN、FLASHINFER 和 XFORMERS 比较:

1。性能和效率

FLASH_ATTN:通过分块计算和内存优化,显著减少显存占用,提升计算速度。在长序列任务中表现优异,计算速度比传统方法快2-3倍。

FLASHINFER:专注于推理阶段的优化,通过预计算和缓存机制,提高推理速度。在固定序列长度的场景下,性能优越。

XFORMERS:提供多种注意力机制的优化实现,如稀疏注意力和分块注意力。在中等序列长度下,速度较快,显存占用较低。

2。适用场景

FLASH_ATTN:适合长序列训练,如大型语言模型(LLM)和长文本处理。

FLASHINFER:适用于需要高速推理的场景,如实时问答系统和在线服务。

XFORMERS:适用于需要灵活注意力机制的场景,如图像处理和多模态任务。

因此,根据具体需求,我们选择合适的工具,以达到最佳的性能和效率:

(1)长序列训练:优先选择 FLASH_ATTN,性能最优。

(2)高速推理:选择 FLASHINFER,响应速度快。

(3)灵活应用:选择 XFORMERS,支持多种注意力机制。

3。易用性和集成性

FLASH_ATTN:需要额外安装和配置,对硬件要求较高(支持A系列和H系列显卡)。

FLASHINFER:提供便捷的API,易于集成到现有框架中,适合快速部署。

XFORMERS:由Meta开源,与PyTorch兼容性好,文档齐全,易于使用。

4。社区支持和生态

FLASH_ATTN:由斯坦福大学团队维护,社区活跃,更新频繁。

FLASHINFER:社区支持良好,适用于工业级应用。

XFORMERS:Meta官方支持,拥有广泛的用户基础和丰富的资源。

备注:

vLLM支持的 Attention 后端的定位:是大模型核心算法的底层实现(属于算法层/算子层)。

vLLM支持的Attention 后端,是大模型核心算法的底层实现。

11.小结

vLLM 的革命性在于它借鉴了操作系统的虚拟内存和分页思想,创造性地将其应用于LLM推理的核心——KV缓存管理(PagedAttention),并结合连续批处理和分块调度,构建了一个高度动态、内存高效、调度智能的推理引擎。

vLLM 从根本上解决了传统方法在内存碎片化、资源利用率低、调度僵化、无法共享缓存、处理长序列困难等方面的瓶颈问题,从而在吞吐量、延迟、高并发支持等关键性能指标上实现了数量级的提升,为大规模部署高性能、低成本的LLM在线服务铺平了道路。可以说,vLLM重新定义了LLM推理的性能标准。

重要提示:

  • 企业生产环境高性能推理,必须使用 GPU + vLLM。
  • 长期 CPU 推理,建议使用 LLaMA.cpp 或 Ollama。

vLLM的CPU模式,仅用于开发验证,实际性能远低于专用CPU框架(如LLaMA.cpp)。

希望以上内容对小伙伴们了解和使用 vLLM 推理引擎,搞大模型LLM加速推理有所帮助!更多内容小伙伴们也可以关注我整理的以下相关的官方资料。

传送门:

uv GitHub地址:

https://github.com/astral-sh/uv

uv 官方中文文档:

https://docs.astral.ac.cn/uv

vLLM GitHub地址:

https://github.com/vllm-project/vllm

vLLM 官方中文文档:

https://docs.vllm.com.cn/en/latest/index.html

vLLM 客户端命令行指南:

https://docs.vllm.ai/en/latest/cli/index.html

ModelScope (魔搭)官方网址:

https://modelscope.cn/home

NVIDIA 官方网址:

https://www.nvidia.com/en-us/drivers/

CUDA版本对应的驱动版本官方文档:

S:由Meta开源,与PyTorch兼容性好,文档齐全,易于使用。

4。社区支持和生态

FLASH_ATTN:由斯坦福大学团队维护,社区活跃,更新频繁。

FLASHINFER:社区支持良好,适用于工业级应用。

XFORMERS:Meta官方支持,拥有广泛的用户基础和丰富的资源。

备注:

vLLM支持的 Attention 后端的定位:是大模型核心算法的底层实现(属于算法层/算子层)。

vLLM支持的Attention 后端,是大模型核心算法的底层实现。

11.小结

vLLM 的革命性在于它借鉴了操作系统的虚拟内存和分页思想,创造性地将其应用于LLM推理的核心——KV缓存管理(PagedAttention),并结合连续批处理和分块调度,构建了一个高度动态、内存高效、调度智能的推理引擎。

vLLM 从根本上解决了传统方法在内存碎片化、资源利用率低、调度僵化、无法共享缓存、处理长序列困难等方面的瓶颈问题,从而在吞吐量、延迟、高并发支持等关键性能指标上实现了数量级的提升,为大规模部署高性能、低成本的LLM在线服务铺平了道路。可以说,vLLM重新定义了LLM推理的性能标准。

重要提示:

  • 企业生产环境高性能推理,必须使用 GPU + vLLM。
  • 长期 CPU 推理,建议使用 LLaMA.cpp 或 Ollama。

vLLM的CPU模式,仅用于开发验证,实际性能远低于专用CPU框架(如LLaMA.cpp)。

希望以上内容对小伙伴们了解和使用 vLLM 推理引擎,搞大模型LLM加速推理有所帮助!更多内容小伙伴们也可以关注我整理的以下相关的官方资料。

传送门:

uv GitHub地址:
https://github.com/astral-sh/uv

uv 官方中文文档:

https://docs.astral.ac.cn/uv
vLLM GitHub地址:

https://github.com/vllm-project/vllm

vLLM 官方中文文档:

https://docs.vllm.com.cn/en/latest/index.html

vLLM 客户端命令行指南:

https://docs.vllm.ai/en/latest/cli/index.html

ModelScope (魔搭)官方网址:

https://modelscope.cn/home

NVIDIA 官方网址:

https://www.nvidia.com/en-us/drivers/

CUDA版本对应的驱动版本官方文档:

https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html#cuda-driver


如何系统学习掌握AI大模型?

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

4. 大模型行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

本文地址:https://www.yitenyun.com/1267.html

搜索文章

Tags

#服务器 #python #pip #conda #ios面试 #ios弱网 #断点续传 #ios开发 #objective-c #ios #ios缓存 #人工智能 #微信 #远程工作 #Trae #IDE #AI 原生集成开发环境 #Trae AI #kubernetes #笔记 #平面 #容器 #linux #学习方法 香港站群服务器 多IP服务器 香港站群 站群服务器 #运维 #学习 #银河麒麟高级服务器操作系统安装 #银河麒麟高级服务器V11配置 #设置基础软件仓库时出错 #银河麒高级服务器系统的实操教程 #生产级部署银河麒麟服务系统教程 #Linux系统的快速上手教程 #分阶段策略 #模型协议 #科技 #深度学习 #自然语言处理 #神经网络 #hadoop #hbase #hive #zookeeper #spark #kafka #flink #华为云 #部署上线 #动静分离 #Nginx #新人首发 #docker #harmonyos #鸿蒙PC #fastapi #html #css #tcp/ip #网络 #qt #C++ #物联网 #websocket #github #git #进程控制 #大数据 #职场和发展 #程序员创富 #gemini #gemini国内访问 #gemini api #gemini中转搭建 #Cloudflare #经验分享 #安卓 #PyTorch #模型训练 #星图GPU #Conda # 私有索引 # 包管理 #kylin #低代码 #爬虫 #音视频 #开源 #arm #ARM服务器 # GLM-4.6V # 多模态推理 #unity #c# #游戏引擎 #数信院生信服务器 #Rstudio #生信入门 #生信云服务器 #语言模型 #大模型 #ai #ai大模型 #agent #飞牛nas #fnos #word #umeditor粘贴word #ueditor粘贴word #ueditor复制word #ueditor上传word图片 #内网穿透 #cpolar #ci/cd #jenkins #gitlab #node.js #MobaXterm #ubuntu #langchain #数据库 #ssh #儿童书籍 #儿童诗歌 #童话故事 #经典好书 #儿童文学 #好书推荐 #经典文学作品 #RTP over RTSP #RTP over TCP #RTSP服务器 #RTP #TCP发送RTP #flutter #开发语言 #云原生 #iventoy #VmWare #OpenEuler #前端 #nginx #后端 #serverless #diskinfo # TensorFlow # 磁盘健康 #Harbor #vscode #mobaxterm #计算机视觉 #矩阵 #线性代数 #AI运算 #向量 #ide #区块链 #测试用例 #生活 #c++ #算法 #牛客周赛 #aws #云计算 #centos #svn #AI编程 #sql #AIGC #agi #android #腾讯云 #自动化 #ansible #分布式 #华为 #FTP服务器 #Reactor #http #项目 #高并发 #java-ee #javascript #vue上传解决方案 #vue断点续传 #vue分片上传下载 #vue分块上传下载 #文心一言 #AI智能体 #多个客户端访问 #IO多路复用 #回显服务器 #TCP相关API #openHiTLS #TLCP #DTLCP #密码学 #商用密码算法 #fabric #postgresql #缓存 #PyCharm # 远程调试 # YOLOFuse #php #microsoft #java #jar #Dell #PowerEdge620 #内存 #硬盘 #RAID5 #flask #windows #企业开发 #ERP #项目实践 #.NET开发 #C#编程 #编程与数学 #iBMC #UltraISO #pytorch #pycharm #程序人生 #科研 #博士 #jmeter #功能测试 #软件测试 #自动化测试 #网络协议 #鸿蒙 #mcu #架构 #安全 #mysql #信息与通信 #散列表 #哈希算法 #数据结构 #leetcode #uni-app #小程序 #notepad++ #风控模型 #决策盲区 #数学建模 #2026年美赛C题代码 #2026年美赛 #dify #内存治理 #django #spring boot #vue.js #es安装 #rocketmq #Ansible # 自动化部署 # VibeThinker #Ubuntu服务器 #硬盘扩容 #命令行操作 #VMware #课程设计 #web #webdav #golang #redis #计算机网络 #spring cloud #spring #json #驱动开发 #jvm #mmap #nio #mvp #个人开发 #设计模式 #游戏 #京东云 #性能优化 #蓝桥杯 #DeepSeek #服务器繁忙 #AI #ecmascript #elementui #web安全 #udp #阻塞队列 #生产者消费者模型 #服务器崩坏原因 #MCP #MCP服务器 #数据仓库 #c语言 #鸭科夫 #逃离鸭科夫 #鸭科夫联机 #鸭科夫异地联机 #开服 #vllm #Streamlit #Qwen #本地部署 #AI聊天机器人 #LLM #vim #gcc #yum #我的世界 #prometheus #jetty #开源软件 #全能视频处理软件 #视频裁剪工具 #视频合并工具 #视频压缩工具 #视频字幕提取 #视频处理工具 #Android #Bluedroid #智能手机 #Linux #TCP #线程 #线程池 #ffmpeg #阿里云 #everything #todesk #单片机 #stm32 #嵌入式硬件 #需求分析 #scala #测试工具 #压力测试 #网络安全 #钉钉 #机器人 #AI论文写作工具 #学术论文创作 #论文效率提升 #MBA论文写作 #adb #信息可视化 #claude code #codex #code cli #ccusage #数据集 #Ascend #MindIE #ModelEngine #超算服务器 #算力 #高性能计算 #仿真分析工作站 #语音识别 #DisM++ # 系统维护 #gpu算力 #rabbitmq #protobuf #守护进程 #复用 #screen #深度优先 #DFS #设备驱动 #芯片资料 #网卡 #大模型学习 #AI大模型 #大模型教程 #大模型入门 #企业微信 #系统架构 #机器学习 #程序员 #流量监控 #架构师 #软考 #系统架构师 #生信 #Canal #java大文件上传 #java大文件秒传 #java大文件上传下载 #java文件传输解决方案 #MC #几何学 #拓扑学 #链表 #链表的销毁 #链表的排序 #链表倒置 #判断链表是否有环 #journalctl #wordpress #雨云 #LobeChat #vLLM #GPU加速 #电脑 #RAG #全链路优化 #实战教程 #openresty #lua #grafana #酒店客房管理系统 #毕设 #论文 #SSH反向隧道 # Miniconda # Jupyter远程访问 #asp.net大文件上传 #asp.net大文件上传下载 #asp.net大文件上传源码 #ASP.NET断点续传 #asp.net上传文件夹 #SSH Agent Forwarding # PyTorch # 容器化 #测试流程 #金融项目实战 #P2P #webrtc #chatgpt #DS随心转 #边缘计算 #mcp #mcp server #AI实战 #ping通服务器 #读不了内网数据库 #bug菌问答团队 #流程图 #论文阅读 #论文笔记 #毕业设计 #数码相机 #wsl #L2C #勒让德到切比雪夫 #Coze工作流 #AI Agent指挥官 #多智能体系统 #debian #VS Code调试配置 #vue3 #天地图 #403 Forbidden #天地图403错误 #服务器403问题 #天地图API #部署报错 #autosar #asp.net #epoll #高级IO #SSH # ProxyJump # 跳板机 #1024程序员节 #claude #面试 #LoRA # RTX 3090 # lora-scripts #react.js #fiddler #ddos #银河麒麟操作系统 #openssh #华为交换机 #信创终端 #FL Studio #FLStudio #FL Studio2025 #FL Studio2026 #FL Studio25 #FL Studio26 #水果软件 #opencv #数据挖掘 #googlecloud #银河麒麟 #系统升级 #信创 #国产化 #svm #amdgpu #kfd #ROCm #arm开发 #Modbus-TCP #azure #数模美赛 #matlab #编辑器 #金融 #金融投资Agent #Agent #里氏替换原则 #幼儿园 #园长 #幼教 #ida #n8n #中间件 #研发管理 #禅道 #禅道云端部署 #sizeof和strlen区别 #sizeof #strlen #计算数据类型字节数 #计算字符串长度 #RAID #RAID技术 #磁盘 #存储 #正则 #正则表达式 #STUN # TURN # NAT穿透 #智能路由器 #AI写作 #unity3d #服务器框架 #Fantasy #elasticsearch #iphone #oracle #凤希AI伴侣 #transformer #双指针 #RustDesk #IndexTTS 2.0 #本地化部署 #时序数据库 #信号处理 #tcpdump #WEB #embedding #我的世界服务器搭建 #minecraft #visual studio code #laravel #车辆排放 #Playbook #AI服务器 #shell #CPU利用率 #simulink #paddleocr #Spring AI #STDIO协议 #Streamable-HTTP #McpTool注解 #服务器能力 #数组 #目标跟踪 #pencil #pencil.dev #设计 #流媒体 #NAS #飞牛NAS #监控 #NVR #EasyNVR #社科数据 #数据分析 #数据统计 #经管数据 #sqlite #AB包 #负载均衡 #ESXi #Triton # CUDA #selenium #Shiro #反序列化漏洞 #CVE-2016-4437 #vuejs #海外服务器安装宝塔面板 #运营 #React安全 #漏洞分析 #Next.js #eBPF #SSH保活 #Miniconda #远程开发 #搜索引擎 #产品经理 #ui #团队开发 #墨刀 #figma #openlayers #bmap #tile #server #vue #智慧校园解决方案 #智慧校园一体化平台 #智慧校园选型 #智慧校园采购 #智慧校园软件 #智慧校园专项资金 #智慧校园定制开发 #CFD #简单数论 #埃氏筛法 #openEuler #Hadoop #客户端 #嵌入式 #DIY机器人工房 #.net #homelab #Lattepanda #Jellyfin #Plex #Emby #Kodi #nacos #银河麒麟aarch64 #uvicorn #uvloop #asgi #event #zabbix #HeyGem # 远程访问 # 服务器IP配置 #MS #Materials #信令服务器 #Janus #MediaSoup #其他 #TensorRT # Triton # 推理优化 #Jetty # CosyVoice3 # 嵌入式服务器 #SMTP # 内容安全 # Qwen3Guard #X11转发 #改行学it #创业创新 #YOLO #建筑缺陷 #红外 #sqlserver #tdengine #制造 #涛思数据 #tensorflow #apache #北京百思可瑞教育 #百思可瑞教育 #北京百思教育 #推荐算法 #ms-swift # 一锤定音 # 大模型微调 #deepseek #log #操作系统 #机器视觉 #6D位姿 #risc-v #cpp #SSH公钥认证 # 安全加固 #PowerBI #企业 #OBC #Qwen3-14B # 大模型部署 # 私有化AI #进程 #远程桌面 #远程控制 #ssl #select #智能一卡通 #门禁一卡通 #梯控一卡通 #电梯一卡通 #消费一卡通 #一卡通 #考勤一卡通 #screen 命令 #振镜 #振镜焊接 #AI产品经理 #大模型开发 #macos #vp9 #bash #求职招聘 #支付 #fpga开发 #LVDS #高速ADC #DDR # GLM-TTS # 数据安全 #大语言模型 #长文本处理 #GLM-4 #Triton推理 #重构 #ai编程 #llama #ceph #版本控制 #Git入门 #开发工具 #代码托管 #个人博客 #蓝耘智算 #nas #whisper #目标检测 #C语言 #分类 #ssm #状态模式 #嵌入式编译 #ccache #distcc #若依 #quartz #框架 #ONLYOFFICE #MCP 服务器 #tomcat #前端框架 #abtest #流量运营 #用户运营 #迁移重构 #数据安全 #漏洞 #代码迁移 #Docker #cursor #视频去字幕 #spine #进程创建与终止 #esp32教程 #SA-PEKS # 关键词猜测攻击 # 盲签名 # 限速机制 #模版 #函数 #类 #笔试 #树莓派4b安装系统 #ollama #llm #麒麟OS #LabVIEW知识 #LabVIEW程序 #labview #LabVIEW功能 #OSS #firefox #swagger #CMake #Make #C/C++ #Python #IndexTTS2 # 阿里云安骑士 # 木马查杀 #堡垒机 #安恒明御堡垒机 #windterm #rust #vps #scrapy #逻辑回归 #微信小程序 #Fun-ASR # 硬件配置 # 语音识别 #算力一体机 #ai算力服务器 #硬件工程 #mariadb #青少年编程 # 高并发部署 #LangGraph #CLI #JavaScript #langgraph.json #自动驾驶 #Rust #pdf #策略模式 #SMP(软件制作平台) #EOM(企业经营模型) #应用系统 #tornado #webpack #学术写作辅助 #论文创作效率提升 #AI写论文实测 #https #Anything-LLM #IDC服务器 #私有化部署 #项目申报系统 #项目申报管理 #项目申报 #企业项目申报 #raid #raid阵列 #wpf #JAVA #Java #maven #intellij-idea #reactjs #web3 #p2p #电气工程 #C# #PLC #YOLOFuse # 水冷服务器 # 风冷服务器 #Dify #ARM架构 #鲲鹏 #VoxCPM-1.5-TTS # 云端GPU # PyCharm宕机 #database #idea #能源 #人脸识别 #人脸核身 #活体检测 #身份认证与人脸对比 #H5 #微信公众号 #AI生成 # outputs目录 # 自动化 #翻译 #开源工具 #产品运营 #1panel #vmware #910B #联机教程 #局域网联机 #局域网联机教程 #局域网游戏 #集成测试 #微服务 #贪心算法 #rdp #说话人验证 #声纹识别 #CAM++ #esp32 arduino #学习笔记 #jdk #eclipse #servlet #5G #汇编 #ComfyUI # 推理服务器 #libosinfo #typescript #npm # GLM-4.6V-Flash-WEB # 显卡驱动备份 #PTP_1588 #gPTP #模拟退火算法 #虚拟机 #模型上下文协议 #MultiServerMCPC #load_mcp_tools #load_mcp_prompt #内存接口 # 澜起科技 # 服务器主板 #windows11 #系统修复 #gitea #yolov12 #研究生life #文件传输 #电脑文件传输 #电脑传输文件 #电脑怎么传输文件到另一台电脑 #电脑传输文件到另一台电脑 #性能 #优化 #RAM #mongodb #Windows #结构体 #TCP服务器 #开发实战 #国产PLM #瑞华丽PLM #瑞华丽 #PLM #网站 #截图工具 #批量处理图片 #图片格式转换 #图片裁剪 #结构与算法 #Windows 更新 #RXT4090显卡 #RTX4090 #深度学习服务器 #硬件选型 #可撤销IBE #服务器辅助 #私钥更新 #安全性证明 #双线性Diffie-Hellman #群晖 #音乐 #IntelliJ IDEA #Spring Boot #neo4j #NoSQL #SQL #Android16 #音频性能实战 #音频进阶 #平板 #零售 #交通物流 #智能硬件 #idm #扩展屏应用开发 #android runtime #CTF #echarts #HBA卡 #RAID卡 #TLS协议 #HTTPS #漏洞修复 #运维安全 #SSE # AI翻译机 # 实时翻译 #万悟 #联通元景 #智能体 #镜像 #健身房预约系统 #健身房管理系统 #健身管理系统 #Chat平台 # IndexTTS 2.0 # 远程运维 #ThingsBoard MCP #无人机 #Deepoc #具身模型 #开发板 #未来 #r-tree #聊天小程序 #gateway #Comate #遛狗 #NFC #智能公交 #服务器计费 #FP-增长 #考研 #软件工程 #clickhouse #代理 #渗透测试 #服务器解析漏洞 #海外短剧 #海外短剧app开发 #海外短剧系统开发 #短剧APP #短剧APP开发 #短剧系统开发 #海外短剧项目 #Proxmox VE #虚拟化 #arm64 #树莓派 #N8N #交互 #串口服务器 #Modbus #MOXA #GPU服务器 #8U #硬件架构 #NPU #CANN #UOS #海光K100 #统信 #intellij idea #cnn #硬件 # WebUI #计组 #数电 #导航网 #浏览器自动化 #python #CUDA #cosmic #SSH免密登录 #部署 #跨域 #发布上线后跨域报错 #请求接口跨域问题解决 #跨域请求代理配置 #request浏览器跨域 #昇腾300I DUO #vnstat #c++20 #游戏机 #JumpServer #log4j #UDP的API使用 #处理器 #上下文工程 #langgraph #意图识别 #AutoDL #ESP32 #传感器 #MicroPython #3d #RK3576 #瑞芯微 #硬件设计 #运维开发 #teamviewer #opc ua #opc #数据采集 #浏览器指纹 #黑群晖 #无U盘 #纯小白 #jupyter #Socket网络编程 # 目标检测 #指针 #anaconda #虚拟环境 #edge #迭代器模式 #观察者模式 #SSH跳板机 # Python3.11 #twitter #东方仙盟 #API限流 # 频率限制 # 令牌桶算法 #ip #线性回归 #Gunicorn #WSGI #Flask #并发模型 #容器化 #性能调优 #蓝湖 #Axure原型发布 #UDP套接字编程 #UDP协议 #网络测试 #黑客技术 #网安应急响应 #计算机 #微PE # GLM # 服务连通性 #SRS #直播 #mybatis #milvus #springboot #知识库 #ambari #单元测试 #门禁 #梯控 #智能梯控 #web server #请求处理流程 #turn #Host #SSRF #数据恢复 #视频恢复 #视频修复 #RAID5恢复 #流媒体服务器恢复 #chrome #lvs #muduo库 #uv #uvx #uv pip #npx #Ruff #pytest #政务 #昇腾 #音乐分类 #音频分析 #ViT模型 #Gradio应用 #鼠大侠网络验证系统源码 #框架搭建 #Anaconda配置云虚拟环境 #MQTT协议 #游戏私服 #云服务器 #vivado license #CVE-2025-68143 #CVE-2025-68144 #CVE-2025-68145 #html5 #weston #x11 #x11显示服务器 #powerbi #Clawdbot #个人助理 #数字员工 #RSO #机器人操作系统 #glibc #可信计算技术 #winscp #集成学习 #源码 #闲置物品交易系统 #IPv6 #DNS #Fluentd #Sonic #日志采集 # REST API # 双因素认证 #rustdesk #连接数据库报错 #restful #ajax #Claude #flume #国产开源制品管理工具 #Hadess #一文上手 #文生视频 #CogVideoX #AI部署 #零代码平台 #AI开发 #UDP #Karalon #AI Test #prompt # Base64编码 # 多模态检测 #YOLOv8 # Docker镜像 #bootstrap #聚类 #SPA #单页应用 #OPCUA #web3.py #环境搭建 #系统安全 #pandas #matplotlib #ipmitool #BMC #mamba # 黑屏模式 # TTS服务器 #C #多模态 #微调 #超参 #LLamafactory #kmeans #高品质会员管理系统 #收银系统 #同城配送 #最好用的电商系统 #最好用的系统 #推荐的前十系统 #JAVA PHP 小程序 #文件IO #输入输出流 #ipv6 #duckdb #图像识别 #Java程序员 #Java面试 #后端开发 #Spring源码 #Spring #SpringBoot #cesium #可视化 #排序算法 #排序 # 大模型 # 模型训练 #Linux多线程 #CSDN #寄存器 #aiohttp #asyncio #异步 #企业级存储 #网络设备 #iot #软件 #本地生活 #电商系统 #商城 #Smokeping ##程序员和算法的浪漫 #pve #.netcore #H3C # 模型微调 #zotero #WebDAV #同步失败 #代理模式 #工具集 #大模型应用 #API调用 #PyInstaller打包运行 #服务端部署 #长文本理解 #glm-4 #推理部署 #Langchain-Chatchat # 国产化服务器 # 信创 #Aluminium #Google #数字化转型 #实体经济 #商业模式 #软件开发 #数智红包 #商业变革 #创业干货 #欧拉 #因果学习 #麒麟 #Go并发 #高并发架构 #Goroutine #系统设计 # 自动化运维 #Tracker 服务器 #响应最快 #torrent 下载 #2026年 #Aria2 可用 #迅雷可用 #BT工具通用 #net core #kestrel #web-server #asp.net-core #AI技术 #儿童AI #图像生成 #pjsip #Zabbix #CosyVoice3 #语音合成 #FASTMCP #RAGFlow #DeepSeek-R1 #EMC存储 #存储维护 #NetApp存储 #elk #AI智能棋盘 #Rock Pi S #游戏程序 #HistoryServer #Spark #YARN #jobhistory #ZooKeeper #ZooKeeper面试题 #面试宝典 #深入解析 #大模型部署 #mindie #大模型推理 #业界资讯 #n8n解惑 #ICPC #asp.net上传大文件 #VPS #搭建 #土地承包延包 #领码SPARK #aPaaS+iPaaS #智能审核 #档案数字化 #农产品物流管理 #物流管理系统 #农产品物流系统 #农产品物流 #xss #unix #编程 #c++高并发 #百万并发 #Termux #Samba #SSH别名 #BoringSSL #paddlepaddle #信创国产化 #达梦数据库 #excel #ShaderGraph #图形 #VSCode # SSH #uip #eureka #VMware Workstation16 #服务器操作系统 #广播 #组播 #并发服务器 #x86_64 #数字人系统 #GPU ##租显卡 #进程等待 #wait #waitpid # HiChatBox # 离线AI #企业存储 #RustFS #对象存储 #高可用 #三维 #3D #三维重建 #全文检索 #2026AI元年 #年度趋势 #rtsp #转发 #Llama-Factory # 大模型推理 #多线程 #性能调优策略 #双锁实现细节 #动态分配节点内存 #markdown #建站 #游戏美术 #技术美术 #游戏策划 #用户体验 #CVE-2025-61686 #路径遍历高危漏洞 #区间dp #二进制枚举 #图论 #SMARC #ARM # 代理转发 #H5网页 #网页白屏 #H5页面空白 #资源加载问题 #打包部署后网页打不开 #HBuilderX #A2A #GenAI # 服务器IP # 端口7860 #VMWare Tool #ue5 #大学生 #大作业 #心理健康服务平台 #心理健康系统 #心理服务平台 #心理健康小程序 #web服务器 # 公钥认证 # GPU租赁 # 自建服务器 #VibeVoice # 语音合成 # 云服务器 #插件 #devops #插入排序 #TFTP #NSP #下一状态预测 #aigc #outlook #错误代码2603 #无网络连接 #2603 #MinIO服务器启动与配置详解 #性能测试 #LoadRunner #测试覆盖率 #可用性测试 #DAG #磁盘配额 #存储管理 #文件服务器 #形考作业 #国家开放大学 #系统运维 #自动化运维 #DHCP #C++ UA Server #SDK #跨平台开发 #数字孪生 #三维可视化 # 远程开发 # Qwen3Guard-Gen-8B #工厂模式 #esb接口 #走处理类报异常 #智慧城市 #SSH复用 #GATT服务器 #蓝牙低功耗 #随机森林 #经济学 #网路编程 #注入漏洞 #WinDbg #Windows调试 #内存转储分析 #nvidia #AI+ #coze #AI入门 #AI赋能 #Node.js #漏洞检测 #CVE-2025-27210 #密码 #safari #b树 #PyTorch 特性 #动态计算图 #张量(Tensor) #自动求导Autograd #GPU 加速 #生态系统与社区支持 #与其他框架的对比 #cascadeur #设计师 #AI视频创作系统 #AI视频创作 #AI创作系统 #AI视频生成 #AI工具 #AI创作工具 # ControlMaster #fs7TF #Xshell #Finalshell #生物信息学 #组学 #npu #memcache #React #Next #CVE-2025-55182 #RSC #大剑师 #nodejs面试题 #C2000 #TI #实时控制MCU #AI服务器电源 # 树莓派 # ARM架构 #memory mcp #Cursor #ranger #MySQL8.0 #统信UOS #win10 #qemu #IFix # 远程连接 #Buck #NVIDIA #交错并联 #DGX #ngrok #视觉检测 #visual studio #安全架构 #攻防演练 #Java web #红队 #分布式数据库 #集中式数据库 #业务需求 #选型误 # Connection refused #智能体来了 #智能体对传统行业冲击 #行业转型 #HarmonyOS #vertx #vert.x #vertx4 #runOnContext #智能家居 #TTS私有化 # IndexTTS # 音色克隆 #Nacos #gRPC #注册中心 #Tokio #异步编程 #系统编程 #Pin #http服务器 #win11 #chat #GB28181 #SIP信令 #视频监控 #WT-2026-0001 #QVD-2026-4572 #smartermail #机器人学习 # IP配置 # 0.0.0.0 # ARM服务器 #screen命令 #galeweather.cn #高精度天气预报数据 #光伏功率预测 #风电功率预测 #高精度气象 #appche #c #系统管理 #服务 #YOLO26 #muduo #TcpServer #accept #高并发服务器 #贴图 #材质 #postman #管道Pipe #system V #勒索病毒 #勒索软件 #加密算法 #.bixi勒索病毒 #数据加密 #LangFlow # 轻量化镜像 # 边缘计算 #源代码管理 #实时音视频 #知识 #量子计算 # 高并发 #WinSCP 下载安装教程 #SFTP #FTP工具 #服务器文件传输 #JT/T808 #车联网 #车载终端 #模拟器 #仿真器 #开发测试 #copilot #硬盘克隆 #DiskGenius #mapreduce #媒体 #论文复现 #opc模拟服务器 #测评 #SAP #ebs #metaerp #oracle ebs #国产化OS #报表制作 #职场 #数据可视化 #用数据讲故事 #手机h5网页浏览器 #安卓app #苹果ios APP #手机电脑开启摄像头并排查 #语音生成 #TTS #react native #SSH跳转 #IO #hibernate #go # GPU集群 #AI赋能盾构隧道巡检 #开启基建安全新篇章 #以注意力为核心 #YOLOv12 #AI隧道盾构场景 #盾构管壁缺陷病害异常检测预警 #隧道病害缺陷检测 #服务器开启 TLS v1.2 #IISCrypto 使用教程 #TLS 协议配置 #IIS 安全设置 #服务器运维工具 #openclaw #ArkUI #ArkTS #鸿蒙开发 #服务器线程 # SSL通信 # 动态结构体 #AI-native #dba #汽车 #网络编程 #Socket #套接字 #I/O多路复用 #字节序 #蓝牙 #LE Audio #BAP #计算几何 #斜率 #方向归一化 #叉积 #samba # 批量管理 #AITechLab #cpp-python #CUDA版本 #ASR #SenseVoice #连锁药店 #连锁店 #puppeteer #KMS #slmgr #宝塔面板部署RustDesk #RustDesk远程控制手机 #手机远程控制 #ARM64 # DDColor # ComfyUI #Ubuntu #ESP32编译服务器 #Ping #DNS域名解析 #Kuikly #openharmony #证书 #YOLO11 # keep-alive #POC #问答 #交付 #动态规划 #面向对象 #JNI #CPU #xlwings #Excel #CCE #Dify-LLM #Flexus #taro # 数字人系统 # 远程部署 #前端开发 #自由表达演说平台 #演说 #nfs #iscsi #clamav #Discord机器人 #云部署 #程序那些事 #文件管理 #kong #Kong Audio #Kong Audio3 #KongAudio3 #空音3 #空音 #中国民乐 #范式 #TRO #TRO侵权 #TRO和解 #运维工具 #命令模式 #dubbo #移动端h5网页 #调用浏览器摄像头并拍照 #开启摄像头权限 #拍照后查看与上传服务器端 #摄像头黑屏打不开问题 #scanf #printf #getchar #putchar #cin #cout #服务器IO模型 #非阻塞轮询模型 #多任务并发模型 #异步信号模型 #多路复用模型 #图像处理 #yolo #ET模式 #非阻塞 #领域驱动 #高考 #工程实践 #就业 #工业级串口服务器 #串口转以太网 #串口设备联网通讯模块 #串口服务器选型 #强化学习 #策略梯度 #REINFORCE #蒙特卡洛 #百度 #ueditor导入word #入侵 #日志排查 #国产操作系统 #V11 #kylinos #TURN # WebRTC #KMS激活 #人大金仓 #Kingbase #gpt #API #Spring AOP #wps #软件需求 #多进程 #python技巧 #composer #symfony #java-zookeeper #poll #vrrp #脑裂 #keepalived主备 #高可用主备都持有VIP #coffeescript #租显卡 #训练推理 #ue4 #DedicatedServer #独立服务器 #专用服务器 #AI大模型应用开发 #轻量化 #低配服务器 #个性化推荐 #BERT模型 #语义搜索 #嵌入模型 #Qwen3 #AI推理 #numpy #挖漏洞 #攻击溯源 #blender #warp #sentinel #tcp/ip #网络 #Syslog #系统日志 #日志分析 #日志监控 #Autodl私有云 #深度服务器配置 #Prometheus #电商 #交换机 #三层交换机 #人脸识别sdk #视频编解码 #高斯溅射 #stl #IIS Crypto #Puppet # IndexTTS2 # TTS #云开发 #个人电脑 #KMS 激活 #高仿永硕E盘的个人网盘系统源码 #MC群组服务器 #sglang #编程助手 #递归 #线性dp #漏洞挖掘 #计算机毕业设计 #程序定制 #毕设代做 #课设 #webgl #支持向量机 #CS2 #debian13 # 服务器迁移 # 回滚方案 # 权限修复 #ICE #文本生成 #CPU推理 # 鲲鹏 #http头信息 #k8s #音诺ai翻译机 #AI翻译机 # Ampere Altra Max #sklearn #温湿度监控 #WhatsApp通知 #IoT #MySQL #gpu #nvcc #cuda #银河麒麟服务器系统 #短剧 #短剧小程序 #短剧系统 #微剧 #统信操作系统 #Coturn #nosql #人形机器人 #人机交互 #模块 #文件上传漏洞 #xml #Kylin-Server #服务器安装 #SQL注入主机 #电梯 #电梯运力 #电梯门禁 #vncdotool #链接VNC服务器 #如何隐藏光标 #域名注册 #新媒体运营 #网站建设 #国外域名 #DDD #tdd #easyui #FHSS #junit #题解 #图 #dijkstra #迪杰斯特拉 #bond #服务器链路聚合 #网卡绑定 #CNAS #CMA #程序文件 #数据报系统 # GPU服务器 # tmux #程序开发 #程序设计 # 智能运维 # 性能瓶颈分析 #空间计算 #原型模式 #wireshark #网络安全大赛 #idc #戴尔服务器 #戴尔730 #装系统 #bug #算力建设 #I/O模型 #并发 #水平触发、边缘触发 #多路复用 #智能制造 #供应链管理 #工业工程 #库存管理 #数据访问 # 服务器IP访问 # 端口映射 #nodejs #云服务器选购 #Saas #具身智能 #RK3588 #RK3588J #评估板 #核心板 #嵌入式开发 #SSH密钥 #练习 #基础练习 #循环 #九九乘法表 #计算机实现 #dynadot #域名 #ETL管道 #向量存储 #数据预处理 #DocumentReader #HarmonyOS APP #Moltbook #lucene #Cpolar #国庆假期 #服务器告警 #smtp #smtp服务器 #PHP #银河麒麟部署 #银河麒麟部署文档 #银河麒麟linux #银河麒麟linux部署教程 #声源定位 #MUSIC #mssql #ROS #resnet50 #分类识别训练 #OpenManage #AI 推理 #NV #Spire.Office #隐私合规 #网络安全保险 #法律风险 #风险管理 #ServBay #windbg分析蓝屏教程 #le audio #低功耗音频 #通信 #连接 #Python3.11 #docker-compose # 网络延迟 #快递盒检测检测系统 #远程软件 # OTA升级 # 黄山派 #内网 #静脉曲张 #腿部健康 #clawdbot #ansys #ansys问题解决办法 #远程访问 #远程办公 #飞网 #安全高效 #配置简单 #FaceFusion # Token调度 # 显存优化 #WRF #WRFDA #公共MQTT服务器 #代理服务器 # DIY主机 # 交叉编译 #网络配置实战 #Web/FTP 服务访问 #计算机网络实验 #外网访问内网服务器 #Cisco 路由器配置 #静态端口映射 #网络运维 #RPA #影刀RPA #AI办公 #跳槽 #工作 #sql注入 #单例模式 #懒汉式 #恶汉式 #雨云服务器 #Minecraft服务器 #教程 #MCSM面板 #Apple AI #Apple 人工智能 #FoundationModel #Summarize #SwiftUI #视频 #路由器 # 服务器配置 # GPU #视觉理解 #Moondream2 #多模态AI #ftp #sftp #CA证书 #CS336 #Assignment #Experiments #TinyStories #Ablation #超时设置 #客户端/服务器 #挖矿 #Linux病毒 # 批量部署 #星际航行 # 键鼠锁定 #agentic bi #远程连接 #cpu #工程设计 #预混 #扩散 #燃烧知识 #层流 #湍流 #华为od #华为机试 #娱乐 #敏捷流程 #Keycloak #Quarkus #AI编程需求分析 #Gateway #认证服务器集成详解 #uniapp #合法域名校验出错 #服务器域名配置不生效 #request域名配置 #已经配置好了但还是报错 #uniapp微信小程序 #ARMv8 #内存模型 #内存屏障 #RWK35xx #语音流 #实时传输 #node #mtgsig #美团医药 #美团医药mtgsig #美团医药mtgsig1.2 #参数估计 #矩估计 #概率论 #canvas层级太高 #canvas遮挡问题 #盖住其他元素 #苹果ios手机 #安卓手机 #调整画布层级 #测速 #iperf #iperf3 #学术生涯规划 #CCF目录 #基金申请 #职称评定 #论文发表 #科研评价 #顶会顶刊 # child_process #分子动力学 #化工仿真 #后端框架 #SEO优化 #可再生能源 #绿色算力 #风电 #节日 #麦克风权限 #访问麦克风并录制音频 #麦克风录制音频后在线播放 #用户拒绝访问麦克风权限怎么办 #uniapp 安卓 苹果ios #将音频保存本地或上传服务器 #MCP服务器注解 #异步支持 #方法筛选 #声明式编程 #自动筛选机制 #安全威胁分析 #仙盟创梦IDE #GLM-4.6V-Flash-WEB # AI视觉 # 本地部署 #基础语法 #标识符 #常量与变量 #数据类型 #运算符与表达式 #地理 #遥感 #pxe #AI应用编程 #dlms #dlms协议 #逻辑设备 #逻辑设置间权限 #scikit-learn #外卖配送 #主板 #总体设计 #电源树 #框图 #Minecraft #PaperMC #我的世界服务器 #EN4FE #Archcraft #Linly-Talker # 数字人 # 服务器稳定性 #r语言 #实在Agent #榛樿鍒嗙被 #网络攻击模型 #传统行业 #pyqt #STDIO传输 #SSE传输 #WebMVC #WebFlux #小艺 #搜索 #glances #电子电气架构 #系统工程与系统架构的内涵 #Routine #人脸活体检测 #live-pusher #动作引导 #张嘴眨眼摇头 #苹果ios安卓完美兼容 #gnu #AI应用 #L6 #L10 #L9 #Beidou #北斗 #SSR #阿里云RDS #信息安全 #信息收集 #bigtop #hdp #hue #kerberos # AI部署 #材料工程 #智能电视 #VMware创建虚拟机 #远程更新 #缓存更新 #多指令适配 #物料关联计划 #docker安装seata #DooTask #防毒面罩 #防尘面罩 #生产服务器问题查询 #日志过滤 #Qwen3-VL # 服务状态监控 # 视觉语言模型 #m3u8 #HLS #移动端H5网页 #APP安卓苹果ios #监控画面 直播视频流 #Tetrazine-Acid #1380500-92-4 #UEFI #BIOS #Legacy BIOS #职场发展 #隐函数 #常微分方程 #偏微分方程 #线性微分方程 #线性方程组 #非线性方程组 #复变函数 #决策树 #UDP服务器 #recvfrom函数 #身体实验室 #健康认知重构 #系统思维 #微行动 #NEAT效应 #亚健康自救 #ICT人 #claude-code #高精度农业气象 #Ward #思爱普 #SAP S/4HANA #ABAP #NetWeaver #云计算运维 #WAN2.2 #开关电源 #热敏电阻 #PTC热敏电阻 #4U8卡 AI 服务器 ##AI 服务器选型指南 #GPU 互联 #GPU算力 #日志模块 #dash #效率神器 #办公技巧 #自动化工具 #Windows技巧 #打工人必备 #实时检测 #卷积神经网络 #旅游 #AI电商客服 #西门子 #汇川 #Blazor #spring ai #oauth2 #rtmp #dreamweaver #晶振 #夏天云 #夏天云数据 #hdfs #华为od机试 #华为od机考 #华为od最新上机考试题库 #华为OD题库 #华为OD机试双机位C卷 #od机考题库 # 局域网访问 # 批量处理 #运维 # 高温监控 #nmodbus4类库使用教程 #AI工具集成 #容器化部署 #分布式架构 #CMC #gerrit #Matrox MIL #二次开发 # 环境迁移 #rsync # 数据同步 #防火墙 #claudeCode #content7 #0day漏洞 #DDoS攻击 #漏洞排查 #odoo #xshell #host key # 串口服务器 # NPort5630 #基金 #股票 #YOLO识别 #YOLO环境搭建Windows #YOLO环境搭建Ubuntu #OpenHarmony #Python办公自动化 #Python办公 #余行补位 #意义对谈 #余行论 #领导者定义计划 #超算中心 #PBS #lsf #反向代理 #AE #rag # ms-swift #PN 结 #ossinsight #cocos2d #图形渲染 #adobe #数据迁移 #express #cherry studio #gmssh #宝塔 #Exchange #小智 #系统安装 #铁路桥梁 #DIC技术 #箱梁试验 #裂纹监测 #四点弯曲 #期刊 #SCI #游戏服务器断线 #MinIO #AI Agent #开发者工具 #free #vmstat #sar #okhttp #语义检索 #向量嵌入 #计算机外设 #boltbot #边缘AI # Kontron # SMARC-sAMX8 #remote-ssh #健康医疗 #OpenAI #故障 #LED #设备树 #GPIO #tekton #二值化 #Canny边缘检测 #轮廓检测 #透视变换 #DuckDB #协议 #新浪微博 #传媒 #Arduino BLDC #核辐射区域探测机器人 #esp32 #mosquito #2025年 #FRP #AI教程 #自动化巡检 #istio #服务发现 #jquery #fork函数 #进程创建 #进程终止 #moltbot #运动 #session #JADX-AI 插件 #starrocks