本文档详细介绍了 LightLLM APIServer 的所有启动参数及其用法。
.. option:: --run_mode
设置运行模式,可选值:
* ``normal``: 单服务器模式(默认)
* ``prefill``: 预填充模式(用于 pd 分离运行模式)
* ``decode``: 解码模式(用于 pd 分离运行模式)
* ``pd_master``: pd 主节点模式(用于 pd 分离运行模式)
* ``config_server``: 配置服务器模式(用于 pd 分离模式,用于注册 pd_master 节点并获取 pd_master 节点列表),专门为大规模、高并发场景设计,当 `pd_master` 遇到显著的 CPU 瓶颈时使用。
.. option:: --host
服务器监听地址,默认为 ``127.0.0.1``
.. option:: --port
服务器监听端口,默认为 ``8000``
.. option:: --httpserver_workers
HTTP 服务器工作进程数,默认为 ``1``
.. option:: --zmq_mode
ZMQ 通信模式,可选值:
* ``tcp://``: TCP 模式
* ``ipc:///tmp/``: IPC 模式(默认)
只能在 ``['tcp://', 'ipc:///tmp/']`` 中选择
.. option:: --pd_master_ip
PD 主节点 IP 地址,默认为 ``0.0.0.0``
当 run_mode 设置为 prefill 或 decode 时需要设置此参数
.. option:: --pd_master_port
PD 主节点端口,默认为 ``1212``
当 run_mode 设置为 prefill 或 decode 时需要设置此参数
.. option:: --pd_decode_rpyc_port
PD 模式下解码节点用于 kv move manager rpyc 服务器的端口,默认为 ``42000``
.. option:: --config_server_host
配置服务器模式下的主机地址
.. option:: --config_server_port
配置服务器模式下的端口号
.. option:: --model_name
模型名称,用于区分内部模型名称,默认为 ``default_model_name``
可通过 ``host:port/get_model_name`` 获取
.. option:: --model_dir
模型权重目录路径,应用将从该目录加载配置、权重和分词器
.. option:: --tokenizer_mode
分词器加载模式,可选值:
* ``slow``: 慢速模式,加载快但运行慢,适合调试和测试
* ``fast``: 快速模式(默认),获得最佳性能
* ``auto``: 自动模式,尝试使用快速模式,失败则使用慢速模式
.. option:: --load_way
模型权重加载方式,默认为 ``HF`` (Huggingface 格式)
llama 模型还支持 ``DS`` (Deepspeed) 格式
.. option:: --trust_remote_code
是否允许在 Hub 上使用自定义模型定义的文件
.. option:: --max_total_token_num
GPU 和模型支持的总 token 数量,等于 max_batch * (input_len + output_len)
如果不指定,将根据 mem_fraction 自动计算
.. option:: --mem_fraction
内存使用比例,默认为 ``0.9``
如果运行时出现 OOM,可以指定更小的值
.. option:: --batch_max_tokens
新批次的最大 token 数量,控制预填充批次大小以防止 OOM
.. option:: --running_max_req_size
同时进行前向推理的最大请求数量,默认为 ``1000``
.. option:: --max_req_total_len
请求输入长度 + 请求输出长度的最大值,默认为 ``16384``
.. option:: --eos_id
结束停止 token ID,可以指定多个值。如果为 None,将从 config.json 加载
.. option:: --tool_call_parser
openai接口工具调用解析器类型,可选值:
* ``qwen25``
* ``llama3``
* ``mistral``
.. option:: --nnodes
节点数量,默认为 ``1``
.. option:: --node_rank
当前节点的排名,默认为 ``0``
.. option:: --multinode_httpmanager_port
多节点 HTTP 管理器端口,默认为 ``12345``
.. option:: --multinode_router_gloo_port
多节点路由器 gloo 端口,默认为 ``20001``
.. option:: --tp
模型张量并行大小,默认为 ``1``
.. option:: --dp
数据并行大小,默认为 ``1``
这是 deepseekv2 的有用参数。使用 deepseekv2 模型时,将 dp 设置为等于 tp 参数。
其他情况下请不要设置,保持默认值 1。
.. option:: --nccl_host
用于构建 PyTorch 分布式环境的 nccl_host,默认为 ``127.0.0.1``
多节点部署时,应设置为主节点的 IP
.. option:: --nccl_port
用于构建 PyTorch 分布式环境的 nccl_port,默认为 ``28765``
.. option:: --use_config_server_to_init_nccl
使用由 config_server 启动的 tcp store 服务器初始化 nccl,默认为 False
设置为 True 时,--nccl_host 必须等于 config_server_host,--nccl_port 对于 config_server 必须是唯一的,
不要为不同的推理节点使用相同的 nccl_port,这将是严重错误
.. option:: --router_token_ratio
判断服务是否繁忙的阈值,默认为 ``0.0``,一旦kv cache 使用率超过此值,则会直接变为保守调度。
.. option:: --router_max_new_token_len
调度器评估请求kv占用时,使用的请求输出长度,默认为 ``1024``,一般低于用户设置的max_new_tokens。该参数只在 --router_token_ratio 大于0时生效。
设置改参数,会使请求调度更为激进,系统同时处理的请求数会更多,同时也会不可避免的造成请求的暂停重计算。
.. option:: --router_max_wait_tokens
每 router_max_wait_tokens 解码步骤后触发一次调度新请求,默认为 ``6``
.. option:: --disable_aggressive_schedule
禁用激进调度
激进调度可能导致解码期间频繁的预填充中断。禁用它可以让 router_max_wait_tokens 参数更有效地工作。
.. option:: --disable_dynamic_prompt_cache
禁用kv cache 缓存
.. option:: --chunked_prefill_size
分块预填充大小,默认为 ``4096``
.. option:: --disable_chunked_prefill
是否禁用分块预填充
.. option:: --diverse_mode
多结果输出模式
.. option:: --schedule_time_interval
调度时间间隔,默认为 ``0.03``,单位为秒
.. option:: --token_healing_mode
.. option:: --output_constraint_mode
设置输出约束后端,可选值:
* ``outlines``: 使用 outlines 后端
* ``xgrammar``: 使用 xgrammar 后端
* ``none``: 无输出约束(默认)
.. option:: --first_token_constraint_mode
约束第一个 token 的允许范围
使用环境变量 FIRST_ALLOWED_TOKENS 设置范围,例如 FIRST_ALLOWED_TOKENS=1,2
.. option:: --enable_multimodal
是否允许加载额外的视觉模型
.. option:: --enable_multimodal_audio
是否允许加载额外的音频模型(需要 --enable_multimodal)
.. option:: --enable_mps
是否为多模态服务启用 nvidia mps
.. option:: --cache_capacity
多模态资源的缓存服务器容量,默认为 ``200``
.. option:: --visual_infer_batch_size
每次推理批次中处理的图像数量,默认为 ``1``
.. option:: --visual_gpu_ids
要使用的 GPU ID 列表,例如 0 1 2
.. option:: --visual_tp
ViT 的张量并行实例数量,默认为 ``1``
.. option:: --visual_dp
ViT 的数据并行实例数量,默认为 ``1``
.. option:: --visual_nccl_ports
为 ViT 构建分布式环境的 NCCL 端口列表,例如 29500 29501 29502,默认为 [29500]
.. option:: --disable_custom_allreduce
是否禁用自定义 allreduce
.. option:: --enable_custom_allgather
是否启用自定义 allgather
.. option:: --enable_tpsp_mix_mode
推理后端将使用 TP SP 混合运行模式
目前仅支持 llama 和 deepseek系列 模型
.. option:: --enable_prefill_microbatch_overlap
推理后端将为预填充使用微批次重叠模式
目前仅支持 deepseek系列 模型
.. option:: --enable_decode_microbatch_overlap
推理后端将为解码使用微批次重叠模式
.. option:: --llm_prefill_att_backend
设置预填充(Prefill)阶段使用的注意力后端。可选值为:
* ``auto``: 自动选择最佳后端(默认值),优先级为 fa3 > flashinfer > triton
* ``fa3``: 使用 Flash-Attention 3 后端
* ``flashinfer``: 使用 FlashInfer 后端
* ``triton``: 使用 Triton 后端
.. option:: --llm_decode_att_backend
设置解码(Decode)阶段使用的注意力后端。可选值为:
* ``auto``: 自动选择最佳后端(默认值),优先级为 fa3 > flashinfer > triton
* ``fa3``: 使用 Flash-Attention 3 后端
* ``flashinfer``: 使用 FlashInfer 后端
* ``triton``: 使用 Triton 后端
.. option:: --llm_kv_type
推理后端使用什么类型的数据存储kv cache, 可选值为 "None", "int8kv", "int4kv", "fp8kv"
.. option:: --disable_cudagraph
禁用解码阶段的 cudagraph
.. option:: --graph_max_batch_size
解码阶段可以被 cuda graph 捕获的最大批次大小,默认为 ``256``
.. option:: --graph_split_batch_size
控制解码期间生成 CUDA graph 的间隔,默认为 ``32``
对于从 1 到指定 graph_split_batch_size 的值,将连续生成 CUDA graph。
对于从 graph_split_batch_size 到 graph_max_batch_size 的值,
每增加 graph_grow_step_size 就会生成一个新的 CUDA graph。
正确配置此参数可以帮助优化 CUDA graph 执行的性能。
.. option:: --graph_grow_step_size
对于从 graph_split_batch_size 到 graph_max_batch_size 的 batch_size 值,
每增加 graph_grow_step_size 就会生成一个新的 CUDA graph,默认为 ``16``
.. option:: --graph_max_len_in_batch
解码阶段可以被 cuda graph 捕获的最大序列长度,默认为 ``0``
默认值为 8192。如果遇到更大的值,将转为 eager 模式。
.. option:: --quant_type
量化方法,可选值:
* ``vllm-w8a8``
* ``vllm-fp8w8a8``
* ``vllm-fp8w8a8-b128``
* ``deepgemm-fp8w8a8-b128``
* ``triton-fp8w8a8-block128``
* ``awq``
* ``awq_marlin``
* ``none`` (默认)
.. option:: --quant_cfg
量化配置文件路径。可用于混合量化。
示例可以在 test/advanced_config/mixed_quantization/llamacls-mix-down.yaml 中找到。
.. option:: --vit_quant_type
ViT 量化方法,可选值:
* ``vllm-w8a8``
* ``vllm-fp8w8a8``
* ``none`` (默认)
.. option:: --vit_quant_cfg
ViT 量化配置文件路径。可用于混合量化。
示例可以在 lightllm/common/quantization/configs 中找到。
.. option:: --sampling_backend
采样使用的实现,可选值:
* ``triton``: 使用 torch 和 triton kernel(默认)
* ``sglang_kernel``: 使用 sglang_kernel 实现
.. option:: --return_all_prompt_logprobs
返回所有提示 token 的 logprobs
.. option:: --use_reward_model
使用奖励模型
.. option:: --long_truncation_mode
当 input_token_len + max_new_tokens > max_req_total_len 时的处理方式,可选值:
* ``None``: 抛出异常(默认)
* ``head``: 移除一些头部 token 使 input_token_len + max_new_tokens <= max_req_total_len
* ``center``: 移除中心位置的一些 token 使 input_token_len + max_new_tokens <= max_req_total_len
.. option:: --use_tgi_api
使用 tgi 输入和输出格式
.. option:: --mtp_mode
支持的 mtp 模式,建议使用 eagle_with_att获得更好的性能体验,可选值:
* ``vanilla_with_att``
* ``eagle_with_att``
* ``vanilla_no_att``
* ``eagle_no_att``
* ``None``: 不启用 mtp(默认)
.. option:: --mtp_draft_model_dir
MTP 多预测功能的草稿模型路径
用于加载 MTP 多输出 token 模型。
.. option:: --mtp_step
指定使用草稿模型预测的额外 token 数量,默认为 ``0``
目前此功能仅支持 DeepSeekV3/R1 模型。
增加此值允许更多预测,但确保模型与指定的步数兼容。
目前 deepseekv3/r1 模型仅支持 1 步
.. option:: --ep_redundancy_expert_config_path
冗余专家配置的路径。可用于 deepseekv3 模型。
.. option:: --auto_update_redundancy_expert
是否通过在线专家使用计数器为 deepseekv3 模型更新冗余专家。
.. option:: --disable_log_stats
禁用吞吐量统计日志记录
.. option:: --log_stats_interval
记录统计信息的间隔(秒),默认为 ``10``
.. option:: --health_monitor
检查服务健康状态并在出错时重启
.. option:: --metric_gateway
收集监控指标的地址
.. option:: --job_name
监控的作业名称,默认为 ``lightllm``
.. option:: --grouping_key
监控的分组键,格式为 key=value,可以指定多个
.. option:: --push_interval
推送监控指标的间隔(秒),默认为 ``10``
.. option:: --enable_monitor_auth
是否为 push_gateway 开启身份验证