diff --git a/images/tutorial/api_nodes/bytedance/seedance2_0/virtual_portrait.png b/images/tutorial/api_nodes/bytedance/seedance2_0/virtual_portrait.png
new file mode 100644
index 000000000..366230bea
Binary files /dev/null and b/images/tutorial/api_nodes/bytedance/seedance2_0/virtual_portrait.png differ
diff --git a/ja/tutorials/partner-nodes/bytedance/seedance-2-0.mdx b/ja/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
index fa9991afa..6b7a48cfe 100644
--- a/ja/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
+++ b/ja/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
@@ -24,14 +24,6 @@ Seedance 2.0はByteDanceが提供する次世代マルチモーダル動画生
## 利用可能なワークフロー
-- **実在人物** — 1回の本人確認(ライブネス)後、実在人物のアイデンティティ一貫性を保った動画を生成。詳しくは [Seedance 2.0 実在人物](/ja/tutorials/partner-nodes/bytedance/seedance-2-0-real-human) を参照。
-
-
-
- 本人確認の流れと、Group ID / Asset ID の再利用方法を確認できます。
-
-
-
### テキストから動画(T2V)
テキストプロンプトだけで動画を生成します。Seedance 2.0がシーン、モーション、テンポをまとめて構成します。
@@ -71,3 +63,45 @@ Seedance 2.0はByteDanceが提供する次世代マルチモーダル動画生
+## ComfyUI で実在人物ポートレートと AI 生成ポートレートを使った Seedance 2.0 動画生成
+
+Seedance 2.0 は **実在人物のポートレート**(実際の人物の肖像・写真・映像など)と **AI 生成ポートレート**(AI が合成した画面上のキャラクターであり、特定の実在自然人に対応しないもの)を、人物参照として **同時に** サポートします。どちらを選ぶかで、ByteDance 側の**ライブネス**および本人確認の要否が変わります。
+
+| | **AI 生成ポートレート** | **実在人物ポートレート** |
+| --- | --- | --- |
+| **指すもの** | 画面主体が AI で合成されたキャラクターであり、実在の特定自然人へ対応する必要がない | 実在する人物の肖像・写真・映像などを素材として使う |
+| **本人確認** | 追加の検証なし | **ByteDance Create Image/Video Asset** を経由した ByteDance のライブネス確認(1 回)が必要 |
+| **ワークフロー** | 標準の Seedance 2.0 ワークフロー(T2V、R2V、FLF2V) | **ByteDance Create Image/Video Asset** ノードを使う Seedance 2.0 実在人物ワークフロー |
+
+### AI 生成ポートレート
+
+
+
+Seedance 2.0 ノードは通常の動画生成ノードと同様に使います:**AI が生成した人物画像**(または同等の参照)をアップロードして接続し、そのまま生成します。
+
+送信後にサーバーが素材を分類します。**「保護対象の実在人物関連コンテンツ」と判定された場合**はノードがエラーを返すため、この場合は直下の **実在人物ポートレート** に切り替えてください。AI 生成ポートレートとして判定が通れば、追加の本人確認なしで参照として利用できます。
+
+### 実在人物ポートレート
+
+**実在人物**ワークフロー(**ByteDance Create Image/Video Asset** の利用が必須)を使います。実在肖像には**一度**ライブネス確認が必要で、なりすましや無断の肖像利用を防ぎ、関連する AI 透明性規制に対応するためです。
+
+**初めて使うとき(本人確認が必須)**
+
+1. **ByteDance Create Image/Video Asset** で肖像画像をアップロードします。
+2. ワークフローを実行すると確認用リンクが生成されます。
+3. スマートフォンまたはブラウザでリンクを開き、ライブネス確認を完了します(通常 30 秒程度以内)。
+4. 確認が通ると 2 つの ID が返ります。
+ - **Group ID** — 本人確認済みの人物です。同一人物で再アップロードするときは保存してください。
+ - **Asset ID** — この肖像を指します。動画生成に接続でき、複数回の実行でも再利用できます。
+
+**同一人物の新しい写真・動画(ライブネスのやり直しなし)**
+
+1. 同一人物の新しい写真または動画をアップロードします。
+2. **ByteDance Create Image/Video Asset** に保存済みの **Group ID** を入力します。
+3. 新しい顔情報を初回の本人確認記録と突き合わせ、同一人物と判定されると新しいアセットが自動で有効化されます。
+
+
+
+ 図解つきの手順、本人確認フロー、および実在人物向けワークフローテンプレートを参照できます。
+
+
diff --git a/tutorials/partner-nodes/bytedance/seedance-2-0.mdx b/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
index a74581dcf..308866e81 100644
--- a/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
+++ b/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
@@ -24,14 +24,6 @@ With these capabilities, Seedance 2.0 fits a wide range of use cases including a
## Available workflows
-- **Real Human** — Generate videos featuring real people with identity consistency after a one-time verification. See [Seedance 2.0 Real Human](/tutorials/partner-nodes/bytedance/seedance-2-0-real-human) for details.
-
-
-
- Learn how verification works and how to reuse Group ID / Asset ID.
-
-
-
### Text to video (T2V)
Generate a video from a text prompt, with Seedance 2.0 handling scene, motion, and pacing.
@@ -71,3 +63,45 @@ Provide a starting frame and ending frame, and Seedance 2.0 generates the motion
+## Using real-person and AI-generated portraits in ComfyUI for Seedance 2.0
+
+Seedance 2.0 **supports both** **real-person portraits** (imagery of actual people you use as likeness or on-camera reference) and **AI-generated portraits** (fictional on-screen subjects produced by AI, not depicting a specific real individual). Which path you use determines whether you need ByteDance **liveness** and identity checks.
+
+| | **AI-generated portrait** | **Real-person portrait** |
+| --- | --- | --- |
+| **What it refers to** | The subject looks like an AI-synthesized character; it must not correspond to an identifiable natural person | You use portrait or appearance footage of a real person |
+| **Identity verification** | No extra check | One-time ByteDance liveness (through **ByteDance Create Image/Video Asset**) |
+| **Workflow** | Any standard Seedance 2.0 workflow (T2V, R2V, FLF2V) | Seedance 2.0 Real Human workflow with the **ByteDance Create Image/Video Asset** node |
+
+### AI-generated portrait
+
+
+
+Use the Seedance 2.0 node like any other generator: upload your **AI-generated character image** (or an equivalent reference), wire it up, and run.
+
+After submission the service classifies the asset. **If it is flagged as protected real-person-related content**, the node returns an error — switch to the **real-person portrait** workflow below instead. Once the backend treats it as an AI portrait and the check clears, use it directly as reference with no extra verification steps.
+
+### Real-person portrait
+
+Use the **Real Human** workflow (requires **ByteDance Create Image/Video Asset**): real likeness needs **one** liveness verification to deter impersonation and unauthorized use of someone's likeness, and to comply with evolving AI transparency requirements.
+
+**First use (verification required)**
+
+1. Upload portrait imagery via **ByteDance Create Image/Video Asset**.
+2. Run the workflow — a verification link is generated.
+3. Open the link on your phone or browser and finish liveness (typically under ~30 seconds).
+4. After verification succeeds you receive two IDs:
+ - **Group ID** — the verified individual; retain it when uploading the same person again.
+ - **Asset ID** — bound to this portrait; connect it for video generation and reuse across runs.
+
+**New photo or video of the same person (no repeat liveness)**
+
+1. Upload a new photo or video of that person.
+2. Enter the saved **Group ID** on **ByteDance Create Image/Video Asset**.
+3. The system compares the new face data with the original verification record; when it matches, the new asset activates automatically.
+
+
+
+ Full walkthrough, verification flow, and Real Human workflow templates.
+
+
diff --git a/zh/tutorials/partner-nodes/bytedance/seedance-2-0.mdx b/zh/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
index ffff9c4ab..21d8abeac 100644
--- a/zh/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
+++ b/zh/tutorials/partner-nodes/bytedance/seedance-2-0.mdx
@@ -24,14 +24,6 @@ Seedance 2.0 是字节跳动推出的新一代多模态视频生成模型,现
## 可用工作流
-- **真人支持** — 通过一次真人活体验证,生成真人一致性视频。详见 [Seedance 2.0 真人支持](/zh/tutorials/partner-nodes/bytedance/seedance-2-0-real-human)。
-
-
-
- 了解验证流程,以及如何复用 Group ID / Asset ID。
-
-
-
### 文本生成视频(T2V)
仅使用文本提示生成视频,由 Seedance 2.0 负责场景、运动与节奏的整体呈现。
@@ -71,3 +63,46 @@ Seedance 2.0 是字节跳动推出的新一代多模态视频生成模型,现
+
+## 在 ComfyUI 中使用真人肖像与 AI 生成肖像进行 Seedance 2.0 视频生成
+
+Seedance 2.0 **同时支持**以 **真人肖像** 与 **AI 生成肖像** 作为人物参考:前者指向真实人物的影像素材,后者是画面中的虚构角色(由 AI 生成、不对应现实某人)。你走哪一类,决定了是否需要字节跳动侧的**活体验证**与身份核验流程。
+
+| | **AI 生成肖像** | **真人肖像** |
+| --- | --- | --- |
+| **指什么** | 画面表现的是 AI 合成的角色,不要求对应真实自然人 | 使用真实自然人的人像 / 出镜素材 |
+| **身份验证** | 不需要额外核验 | 需要完成一次字节跳动活体检测(通过 **ByteDance Create Image/Video Asset** 流程) |
+| **工作流** | 任选标准 Seedance 2.0 工作流(T2V、R2V、FLF2V) | 使用带 **ByteDance Create Image/Video Asset** 节点的 Seedance 2.0 真人支持工作流 |
+
+### AI 生成肖像
+
+
+
+把 Seedance 2.0 节点当作平时的视频生成节点用即可:上传你的 **AI 生成人物图**(或等价参考),接入节点照常生成。
+
+提交后服务端会识别素材类型。**若被判为「受保护的真人相关内容」**,节点会报错,此时应改用下一节的**真人肖像**流程;识别为 AI 生成肖像并通过后,可直接作为参考使用,无需再办核验。
+
+### 真人肖像
+
+使用真人出镜素材时,请走 **真人支持** 工作流(须包含 **ByteDance Create Image/Video Asset** 节点):真人肖像需要**一次**活体验证,用于防止冒用与未经授权使用他人肖像,并符合相关 AI 透明度监管要求。
+
+**首次使用(必须完成核验)**
+
+1. 用 **ByteDance Create Image/Video Asset** 节点上传人像。
+2. 运行工作流,得到验证链接。
+3. 在手机或浏览器中打开链接,完成活体检测(通常约 30 秒内)。
+4. 核验通过后获得两个 ID:
+ - **Group ID** — 代表已通过验证的这一位本人;后续上传同一人时请保留。
+ - **Asset ID** — 绑定当前这张人像,可直接接入视频生成,多次运行也可复用。
+
+**同一真人再次换新图 / 视频(无需重复活体)**
+
+1. 上传该真人的新的照片或视频。
+2. 在 **ByteDance Create Image/Video Asset** 节点中填入已保存的 **Group ID**。
+3. 系统会比对新上传的人脸与首次核验记录;确认为同一人后,新素材会自动激活可用。
+
+
+
+ 查看完整图文步骤、核验流程与真人工作流模板。
+
+