From 695821e855562bb7471d4f4c6e860bbb9877e275 Mon Sep 17 00:00:00 2001 From: "mintlify[bot]" <109931778+mintlify[bot]@users.noreply.github.com> Date: Sat, 2 May 2026 15:47:30 +0000 Subject: [PATCH 1/2] docs: add Luma Uni-1 guide (EN/ZH/JA) --- docs.json | 3 + .../partner-nodes/luma/luma-uni-1.mdx | 239 ++++++++++++++++++ tutorials/partner-nodes/luma/luma-uni-1.mdx | 233 +++++++++++++++++ .../partner-nodes/luma/luma-uni-1.mdx | 239 ++++++++++++++++++ 4 files changed, 714 insertions(+) create mode 100644 ja/tutorials/partner-nodes/luma/luma-uni-1.mdx create mode 100644 tutorials/partner-nodes/luma/luma-uni-1.mdx create mode 100644 zh/tutorials/partner-nodes/luma/luma-uni-1.mdx diff --git a/docs.json b/docs.json index 8dac946c8..088a28fd3 100644 --- a/docs.json +++ b/docs.json @@ -338,6 +338,7 @@ { "group": "Luma", "pages": [ + "tutorials/partner-nodes/luma/luma-uni-1", "tutorials/partner-nodes/luma/luma-text-to-image", "tutorials/partner-nodes/luma/luma-image-to-image", "tutorials/partner-nodes/luma/luma-text-to-video", @@ -2441,6 +2442,7 @@ { "group": "Luma", "pages": [ + "zh/tutorials/partner-nodes/luma/luma-uni-1", "zh/tutorials/partner-nodes/luma/luma-text-to-image", "zh/tutorials/partner-nodes/luma/luma-image-to-image", "zh/tutorials/partner-nodes/luma/luma-text-to-video", @@ -4549,6 +4551,7 @@ { "group": "Luma", "pages": [ + "ja/tutorials/partner-nodes/luma/luma-uni-1", "ja/tutorials/partner-nodes/luma/luma-text-to-image", "ja/tutorials/partner-nodes/luma/luma-image-to-image", "ja/tutorials/partner-nodes/luma/luma-text-to-video", diff --git a/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx new file mode 100644 index 000000000..46347a386 --- /dev/null +++ b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -0,0 +1,239 @@ +--- +title: "Luma Uni-1 ガイド" +description: "Luma の統一モデル Uni-1 による画像生成と精密編集の実践ガイド" +sidebarTitle: "Luma Uni-1" +--- + +Uni-1 は、画像生成と精密編集の両方に対応する Luma 初の統一モデルです。出力品質だけでなく、**コントロール性**こそがその真価です。新しい画像をゼロから生成することも、既存の画像を外科手術のように精密に編集することもでき、参照画像・シード・構造化されたプロンプトを使って結果を意図通りに導けます。 + +本ガイドでは、最初の 1 枚から高度なマルチリファレンス構成まで、実用的なメンタルモデルとワークフローを紹介します。 + +## Uni-1 の特徴 + +- **2 つの明確なモード**:Create Image(新規生成)と Modify Image(既存画像の編集) +- **最大 9 枚の参照画像**、それぞれに役割を指定可能 +- ニッチで具体的なビジュアルスタイルへの**強力なコントロール** +- 再現性と制御された反復のための**シード対応** +- 縦長から横長まで**9 種類のアスペクト比** + +モードと参照画像の制御方法を理解すれば、Uni-1 を理解したと言えます。 + +## 核となる区別:Create か Modify か + +Uni-1 のすべては、シンプルな問いから始まります:**新しいものを作るのか、それとも既にあるものを変えるのか?** + +| モード | 役割 | 使用シーン | +| --- | --- | --- | +| **Create Image** | 全く新しい構図を生成。参照画像から着想を得ることも可能 | 「この写真のスタイルで新しいシーンを作る」 | +| **Modify Image** | 入力画像を編集。指示がない限り構図と構造を保持 | 「この写真を夜の雰囲気にする」 | + +迷ったとき: + +- 出力が入力画像の**バリエーション**であるべきなら Modify +- 入力に**着想を得つつ新しい**ものなら Create + +## 最初の 1 枚 + +1. **Create Image > Uni-1** を開く +2. プロンプトを書く +3. アスペクト比を選ぶ +4. 生成する + +プロンプト例: + +```text +A wide cinematic landscape during a violent storm. Rolling green hills, +a lone tree in the foreground, chaotic lighting, dramatic clouds and +atmosphere. Photorealistic. +``` + +考えすぎないでください。実際のワークフローはシンプルです:**プロンプト → 評価 → 改善**。探索中はシードを空にしておき、良い結果を得たらシードを固定して反復します。 + +## 主要パラメーター + +| パラメーター | 説明 | +| --- | --- | +| **Prompt(プロンプト)** | 主要な制御手段。最大 6,000 文字。具体的に。 | +| **Aspect ratio(アスペクト比)** | 構図枠を制御し、品質には影響しない。用途に応じて選択。 | +| **Seed(シード)** | 同シード+同プロンプト → 同結果。同シード+変更プロンプト → 制御された変化。シードなし → 探索。 | +| **Reference images(Create)** | 最大 9 枚の参照画像。生成のさまざまな側面を導く。 | +| **Source image(Modify)** | 編集対象の画像。寸法は自動的に保持される。 | + +## 参照画像の使い方 + +参照画像は、用途を伝えなければ機能しません。次の構造を使います: + +```text +Use IMAGE1 ([description]) as a [ROLE] reference. +``` + +利用可能なロール:**Style(スタイル)**、**Character(キャラクター)**、**Composition(構図)**、**Color palette(カラーパレット)**、**Lighting(ライティング)**、**Texture(質感)**、**Mood(雰囲気)**。 + +ロールを指定しないと、モデルは推測することになり、結果は不安定になります。 + +### Create モードの例 + +**スタイル参照** + +```text +Use IMAGE1 (impressionist oil painting with loose brushwork and warm +sunset tones) as a STYLE reference. Create a portrait of a woman in her +30s applying IMAGE1's color palette and painterly texture. The subject +should be new. +``` + +**キャラクター参照** + +```text +Use IMAGE1 (woman with short copper-red hair, freckles) as a CHARACTER +reference. Preserve her features. Generate a new scene: she's sitting +in a softly lit café. +``` + +**マルチリファレンス** + +```text +Use IMAGE1 as a COLOR PALETTE reference, IMAGE2 as LIGHTING, IMAGE3 as +COMPOSITION. Create a lone figure walking through a rain-slicked street +at night. +``` + +### Modify モードの例 + +Modify モードでは明確さが何より重要です。**何を変えるか**と**何を変えないか**を必ず明示します。 + +```text +Change the time of day to golden hour. Update sky, light direction, +shadows, and color temperature. Keep all subjects and composition +unchanged. +``` + +```text +Make the rain heavier and add reflections on the ground. Keep all other +elements unchanged. +``` + +## プロンプト作成のガイドライン + +推奨される長さ: + +- **テキスト → 画像** → 80–250 語 +- **参照画像ありの生成** → 100–300 語 +- **Modify** → 30–100 語 + +避けるべきこと: + +- 曖昧な語(「beautiful」「amazing」など) +- 冗長な表現 +- 矛盾する指示 + +代わりに、具体的で名前のある美学を使います: + +- `Golden hour, 85mm lens, shallow depth of field` +- `1970s Italian giallo film poster, high-contrast color blocking` + +精密さは一般性に勝ります。 + +## アスペクト比 + +画像が使われる場所に応じて選択します: + +| 比率 | 用途 | +| --- | --- | +| 1:1 | SNS 投稿 | +| 9:16 | 縦型動画 | +| 16:9 | ワイドスクリーン | +| 3:2 / 2:3 | 写真 | +| 2:1 / 3:1 | シネマティック / パノラマ | +| 1:2 / 1:3 | 超縦長 | + +Modify モードでは、アスペクト比はソース画像に固定されます。 + +## シード:制御と再現性 + +シードは試行錯誤を体系的なプロセスへと変えます。 + +- **固定シード** → 一貫性 +- **シードなし** → 探索 + +ワークフロー: + +1. シードなしで探索 +2. 良い結果を見つける +3. シードを固定する +4. 一度に 1 つの変数だけを変える + +プロンプトとシードはセットで保存しましょう。それが再利用可能なレシピになります。 + +## 高度なテクニック + +### キャラクターの一貫性 + +1. クリーンで正面向きの参照画像を生成する +2. 各シーンで `IMAGE1 (CHARACTER)` として再利用する +3. ラベルをすべてのプロンプトで同一に保つ + +### マルチリファレンスのアーキテクチャ + +各画像に 1 つの役割を割り当てます: + +- IMAGE1 → キャラクター +- IMAGE2 → スタイル +- IMAGE3 → ライティング +- IMAGE4 → 環境 + +プロンプトの最後に次を付け加えます: + +```text +Treat each reference as having authority over its assigned layer only. +``` + +### Create → Modify の連鎖 + +Create で構図を探索し、Modify でディテールを仕上げる。これは最も強力なワークフローの 1 つです。 + +### 反復的な精緻化 + +1. シードなしで探索 +2. シードを固定 +3. 1 世代につき 1 変数だけ変更 +4. 結果を記録 + +遅く感じるかもしれませんが、何が変わったかが常に分かるため、実際にはずっと速いです。 + +## トラブルシューティング + +| 問題 | 対処法 | +| --- | --- | +| 参照画像が無視される | それぞれに明確なラベルを付ける | +| Modify で変化が大きすぎる | 変えてはいけない部分を明示する | +| 出力が一貫しない | シードを固定する | +| プロンプトが部分的に無視される | 矛盾を取り除くか、ステップに分ける | +| 出力が参照画像そのものに見える | Modify モードを誤って使っている可能性 | +| キャラクターが安定しない | 標準となる参照画像を再利用する | + +## クイックリファレンス + +**Create Image** + +- 新しい構図 +- テキスト + 最大 9 枚の参照画像 +- 描写的なプロンプト + +**Modify Image** + +- 既存画像の編集 +- ソース画像 + 参照画像 +- 直接的で外科的なプロンプト + +## ゴールデンルール + +1. すべての参照画像にラベルを付ける +2. Modify モードでは、**変えない**部分を必ず明示する +3. 改善時は一度に 1 つの変数だけ変える +4. 再現性のためプロンプトとシードを保存する +5. Create = 新しいシーン、Modify = 編集 + +## 重要なポイント + +Uni-1 を使いこなす鍵は 3 つです:**正しいモードを選ぶ → 参照画像を制御する → 意図を持って反復する**。これらが揃えば、もはや当てずっぽうではなく「ディレクション」しているのです。 diff --git a/tutorials/partner-nodes/luma/luma-uni-1.mdx b/tutorials/partner-nodes/luma/luma-uni-1.mdx new file mode 100644 index 000000000..7a1cd9833 --- /dev/null +++ b/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -0,0 +1,233 @@ +--- +title: "Luma Uni-1 Guide" +description: "A practical guide to Luma's Uni-1 unified model for image creation and precision editing" +sidebarTitle: "Luma Uni-1" +--- + +Uni-1 is Luma's first unified model designed for both image creation and precision editing. Beyond raw output quality, what makes it powerful is **control**: you can generate entirely new images or surgically modify existing ones, while guiding the system with references, seeds, and structured prompts. + +This guide gives you a working mental model and practical workflows, from your first image to advanced multi-reference setups. + +## What makes Uni-1 different + +- **Two clear modes**: Create Image (generate something new) and Modify Image (edit something existing) +- **Up to 9 reference images**, each with a defined role +- **Strong control over niche and specific visual styles** +- **Seed support** for reproducibility and controlled iteration +- **Nine aspect ratios**, from ultra-tall to ultra-wide + +If you understand the modes and how to control references, you understand Uni-1. + +## The core distinction: Create vs Modify + +Everything in Uni-1 starts with one question: **Am I creating something new, or changing something that already exists?** + +| Mode | What it does | When to use | +| --- | --- | --- | +| **Create Image** | Produces a brand-new composition. Can be inspired by references. | "Create a new scene in the style of this photo" | +| **Modify Image** | Edits a specific input image. Preserves composition and structure unless told otherwise. | "Make this photo look like nighttime" | + +When in doubt: + +- If the output should look like a **version of your input**, use Modify +- If it should feel **inspired but new**, use Create + +## Your first image + +1. Open **Create Image > Uni-1** +2. Write a prompt +3. Choose an aspect ratio +4. Generate + +Example prompt: + +```text +A wide cinematic landscape during a violent storm. Rolling green hills, +a lone tree in the foreground, chaotic lighting, dramatic clouds and +atmosphere. Photorealistic. +``` + +The real workflow is simple: **prompt → evaluate → refine**. Leave the seed blank while exploring. Once you find something strong, lock the seed and iterate from there. + +## Core parameters + +| Parameter | Description | +| --- | --- | +| **Prompt** | Your primary control. Up to 6,000 characters. Be precise. | +| **Aspect ratio** | Controls framing, not quality. Choose based on use case. | +| **Seed** | Same seed + same prompt → same result. Same seed + changed prompt → controlled variation. No seed → exploration. | +| **Reference images** (Create) | Up to 9 images to guide different aspects. | +| **Source image** (Modify) | The image you are editing. Dimensions are preserved automatically. | + +## Working with reference images + +References only work if you tell the model what they are for. Use this structure: + +```text +Use IMAGE1 ([description]) as a [ROLE] reference. +``` + +Possible roles: **Style**, **Character**, **Composition**, **Color palette**, **Lighting**, **Texture**, **Mood**. + +Without roles, the model guesses, and guesses are unreliable. + +### Create mode examples + +**Style reference** + +```text +Use IMAGE1 (impressionist oil painting with loose brushwork and warm +sunset tones) as a STYLE reference. Create a portrait of a woman in her +30s applying IMAGE1's color palette and painterly texture. The subject +should be new. +``` + +**Character reference** + +```text +Use IMAGE1 (woman with short copper-red hair, freckles) as a CHARACTER +reference. Preserve her features. Generate a new scene: she's sitting +in a softly lit café. +``` + +**Multi-reference** + +```text +Use IMAGE1 as a COLOR PALETTE reference, IMAGE2 as LIGHTING, IMAGE3 as +COMPOSITION. Create a lone figure walking through a rain-slicked street +at night. +``` + +### Modify mode examples + +In Modify mode, clarity is everything. Always specify **what to change** and **what must stay untouched**. + +```text +Change the time of day to golden hour. Update sky, light direction, +shadows, and color temperature. Keep all subjects and composition +unchanged. +``` + +```text +Make the rain heavier and add reflections on the ground. Keep all other +elements unchanged. +``` + +## Prompting guidelines + +Recommended lengths: + +- **Text-to-image** → 80–250 words +- **Reference-guided** → 100–300 words +- **Modify** → 30–100 words + +Avoid vague terms ("beautiful", "amazing"), redundant phrasing, and conflicting instructions. Instead, use specific, named aesthetics: + +- `Golden hour, 85mm lens, shallow depth of field` +- `1970s Italian giallo film poster, high-contrast color blocking` + +Precision beats generality. + +## Aspect ratios + +Choose based on where the image will live: + +| Ratio | Use case | +| --- | --- | +| 1:1 | Social posts | +| 9:16 | Vertical video | +| 16:9 | Widescreen | +| 3:2 / 2:3 | Photography | +| 2:1 / 3:1 | Cinematic / panoramic | +| 1:2 / 1:3 | Ultra-tall | + +In Modify mode, aspect ratio is locked to the source image. + +## Seeds: control and reproducibility + +Seeds turn experimentation into systems. + +- **Fixed seed** → consistency +- **No seed** → exploration + +Workflow: + +1. Explore with no seed +2. Find a strong result +3. Lock the seed +4. Change one variable at a time + +Save your prompt and seed together. That's your reusable recipe. + +## Advanced techniques + +### Character consistency + +1. Generate a clean, front-facing reference image +2. Reuse it as `IMAGE1 (CHARACTER)` in every scene +3. Keep the label identical across prompts + +### Multi-reference architecture + +Assign one role per image: + +- IMAGE1 → character +- IMAGE2 → style +- IMAGE3 → lighting +- IMAGE4 → environment + +End the prompt with: + +```text +Treat each reference as having authority over its assigned layer only. +``` + +### Create → Modify chain + +Use Create to explore compositions, then Modify to refine details. This is one of the most powerful workflows. + +### Iterative refinement + +1. Explore (no seed) +2. Lock seed +3. Change one variable per generation +4. Document results + +It feels slower, but it's actually faster, because you always know what changed. + +## Troubleshooting + +| Problem | Fix | +| --- | --- | +| References ignored | Label each one clearly | +| Modify changes too much | Explicitly state what must stay unchanged | +| Inconsistent outputs | Lock the seed | +| Prompt partially ignored | Remove conflicts or split into steps | +| Output looks like the reference image | You may be in Modify mode | +| Character inconsistency | Reuse a canonical reference image | + +## Quick reference + +**Create Image** + +- New compositions +- Text + up to 9 references +- Descriptive prompts + +**Modify Image** + +- Edits existing images +- Source image + references +- Direct, surgical prompts + +## The golden rules + +1. Label every reference +2. In Modify mode, always state what should **not** change +3. Change one variable at a time when refining +4. Save prompt + seed for reproducibility +5. Create = new scenes, Modify = edits + +## Key takeaway + +Mastering Uni-1 comes down to three things: **choose the right mode → control your references → iterate with intention**. Once those are in place, you're no longer guessing, you're directing. diff --git a/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx new file mode 100644 index 000000000..ed9b5453c --- /dev/null +++ b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -0,0 +1,239 @@ +--- +title: "Luma Uni-1 使用指南" +description: "Luma Uni-1 统一模型使用指南:图像创建与精准编辑" +sidebarTitle: "Luma Uni-1" +--- + +Uni-1 是 Luma 推出的首款统一模型,同时支持图像创建(Create)与精准编辑(Modify)。它真正的优势不仅在于输出质量,更在于**可控性**——你既可以从零生成全新图像,也可以对已有图像进行精细编辑,并通过参考图、种子(seed)和结构化提示词来引导生成结果。 + +本指南将帮助你建立可用的心智模型与实用工作流,从你的第一张图像到进阶的多参考图组合。 + +## Uni-1 的特点 + +- **两种清晰的模式**:Create Image(创建新图像)和 Modify Image(编辑已有图像) +- **最多 9 张参考图**,每张都可以指定明确的角色 +- **强力控制**特定的小众视觉风格 +- **支持种子(seed)**,便于复现和受控迭代 +- **9 种宽高比**,从超高到超宽 + +理解了模式与参考图控制方式,你就理解了 Uni-1。 + +## 核心区别:Create 还是 Modify + +使用 Uni-1 之前,先问自己一个问题:**我是要创建全新的内容,还是要修改已有的内容?** + +| 模式 | 作用 | 适用场景 | +| --- | --- | --- | +| **Create Image** | 生成全新的构图,可参考输入图像 | "以这张照片的风格创建一个新场景" | +| **Modify Image** | 编辑指定的输入图像,默认保留构图与结构 | "把这张照片改成夜晚" | + +判断不清时: + +- 如果输出应当像输入图像的**某个版本**,使用 Modify +- 如果输出应当**受其启发但全新**,使用 Create + +## 你的第一张图像 + +1. 打开 **Create Image > Uni-1** +2. 编写提示词 +3. 选择宽高比 +4. 生成 + +示例提示词: + +```text +A wide cinematic landscape during a violent storm. Rolling green hills, +a lone tree in the foreground, chaotic lighting, dramatic clouds and +atmosphere. Photorealistic. +``` + +不必想得太复杂,真正的工作流是:**提示词 → 评估 → 优化**。探索阶段保持种子为空,找到效果不错的结果后再锁定种子并迭代。 + +## 核心参数 + +| 参数 | 说明 | +| --- | --- | +| **Prompt 提示词** | 你最主要的控制手段,最多 6,000 字符,越精确越好 | +| **Aspect ratio 宽高比** | 控制画面框比例,不影响质量,根据用途选择 | +| **Seed 种子** | 同种子+同提示词 → 同结果;同种子+改提示词 → 受控变化;无种子 → 自由探索 | +| **Reference images(Create)** | 最多 9 张参考图,引导生成的不同方面 | +| **Source image(Modify)** | 待编辑的源图,尺寸会被自动保留 | + +## 使用参考图 + +参考图必须指定用途才会生效。使用以下结构: + +```text +Use IMAGE1 ([description]) as a [ROLE] reference. +``` + +可选角色:**Style(风格)**、**Character(角色)**、**Composition(构图)**、**Color palette(色板)**、**Lighting(光照)**、**Texture(纹理)**、**Mood(氛围)**。 + +不指定角色时,模型只能猜测,结果不可靠。 + +### Create 模式示例 + +**风格参考** + +```text +Use IMAGE1 (impressionist oil painting with loose brushwork and warm +sunset tones) as a STYLE reference. Create a portrait of a woman in her +30s applying IMAGE1's color palette and painterly texture. The subject +should be new. +``` + +**角色参考** + +```text +Use IMAGE1 (woman with short copper-red hair, freckles) as a CHARACTER +reference. Preserve her features. Generate a new scene: she's sitting +in a softly lit café. +``` + +**多参考组合** + +```text +Use IMAGE1 as a COLOR PALETTE reference, IMAGE2 as LIGHTING, IMAGE3 as +COMPOSITION. Create a lone figure walking through a rain-slicked street +at night. +``` + +### Modify 模式示例 + +Modify 模式中,**清晰**最重要,必须明确说明**要改什么**与**不能动什么**。 + +```text +Change the time of day to golden hour. Update sky, light direction, +shadows, and color temperature. Keep all subjects and composition +unchanged. +``` + +```text +Make the rain heavier and add reflections on the ground. Keep all other +elements unchanged. +``` + +## 提示词撰写建议 + +推荐长度: + +- **文生图(Text-to-image)** → 80–250 词 +- **参考图引导** → 100–300 词 +- **Modify** → 30–100 词 + +避免: + +- 模糊词汇("beautiful"、"amazing") +- 重复表达 +- 自相矛盾的指令 + +应使用具体、有命名的美学描述: + +- `Golden hour, 85mm lens, shallow depth of field` +- `1970s Italian giallo film poster, high-contrast color blocking` + +精确胜过笼统。 + +## 宽高比 + +按用途选择: + +| 比例 | 用途 | +| --- | --- | +| 1:1 | 社交媒体帖子 | +| 9:16 | 竖屏视频 | +| 16:9 | 宽屏 | +| 3:2 / 2:3 | 摄影 | +| 2:1 / 3:1 | 电影感 / 全景 | +| 1:2 / 1:3 | 超高画幅 | + +Modify 模式下,宽高比锁定为源图比例。 + +## 种子(Seed):控制与可复现 + +种子能让试验变成系统化流程。 + +- **固定种子** → 一致性 +- **无种子** → 自由探索 + +工作流: + +1. 不设种子,自由探索 +2. 找到效果不错的结果 +3. 锁定种子 +4. 一次只改一个变量 + +将提示词和种子一起保存,就是你可复用的"配方"。 + +## 进阶技巧 + +### 角色一致性 + +1. 先生成一张干净的、正面的角色参考图 +2. 在每个场景中复用该图作为 `IMAGE1 (CHARACTER)` +3. 保持标签在所有提示词中一致 + +### 多参考图架构 + +为每张参考图分配一个角色: + +- IMAGE1 → 角色 +- IMAGE2 → 风格 +- IMAGE3 → 光照 +- IMAGE4 → 环境 + +提示词末尾加上: + +```text +Treat each reference as having authority over its assigned layer only. +``` + +### Create → Modify 链式工作流 + +先用 Create 探索构图,再用 Modify 精修细节,这是最强大的工作流之一。 + +### 迭代式优化 + +1. 不设种子探索 +2. 锁定种子 +3. 每次只改一个变量 +4. 记录结果 + +看似更慢,但因为每次都明确知道改了什么,实际效率更高。 + +## 故障排查 + +| 问题 | 解决方法 | +| --- | --- | +| 参考图被忽略 | 给每张参考图明确打标签 | +| Modify 改动过多 | 显式声明哪些部分必须保持不变 | +| 输出不一致 | 锁定种子 | +| 提示词被部分忽略 | 删除冲突项或拆分为多步 | +| 输出看起来就是参考图本身 | 可能误用了 Modify 模式 | +| 角色不一致 | 复用同一张标准参考图 | + +## 快速参考 + +**Create Image** + +- 全新构图 +- 文本 + 最多 9 张参考图 +- 描述性提示词 + +**Modify Image** + +- 编辑已有图像 +- 源图 + 参考图 +- 直接、外科式的指令 + +## 黄金法则 + +1. 给每张参考图打标签 +2. Modify 模式下,永远说明**不能改**的部分 +3. 优化时,一次只改一个变量 +4. 保存提示词 + 种子,便于复现 +5. Create = 新场景,Modify = 编辑 + +## 核心要点 + +掌握 Uni-1 的核心是三件事:**选对模式 → 控制参考图 → 有意识地迭代**。三者到位后,你就不再是"碰运气",而是在"导演"。 From c2d44a53cd18a8c45664f7b6ca5d7ccacd4b8849 Mon Sep 17 00:00:00 2001 From: linmoumou Date: Wed, 6 May 2026 13:34:38 +0800 Subject: [PATCH 2/2] docs: expand Luma Uni-1 guide with architecture context and strengths Add missing content from the official Luma Uni-1 launch blog post: - Architecture background: Uni-1 is a decoder-only autoregressive transformer (not a diffusion model), reasons before generating - Expanded 'What makes Uni-1 different' with text rendering, web search grounding, multilingual prompts, multi-panel output - New 'Strengths' section covering photorealism, illustration, old photo restoration, surreal compositions, text rendering, image editing, reference-guided generation, multi-panel output - New 'Getting started' section with Cloud template links and Desktop instructions - All changes mirrored in EN, ZH, and JA translations --- .../partner-nodes/luma/luma-uni-1.mdx | 30 +++++++++++++++++-- tutorials/partner-nodes/luma/luma-uni-1.mdx | 30 +++++++++++++++++-- .../partner-nodes/luma/luma-uni-1.mdx | 30 +++++++++++++++++-- 3 files changed, 84 insertions(+), 6 deletions(-) diff --git a/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx index 46347a386..ec7a4bead 100644 --- a/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx +++ b/ja/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -4,7 +4,9 @@ description: "Luma の統一モデル Uni-1 による画像生成と精密編集 sidebarTitle: "Luma Uni-1" --- -Uni-1 は、画像生成と精密編集の両方に対応する Luma 初の統一モデルです。出力品質だけでなく、**コントロール性**こそがその真価です。新しい画像をゼロから生成することも、既存の画像を外科手術のように精密に編集することもでき、参照画像・シード・構造化されたプロンプトを使って結果を意図通りに導けます。 +Uni-1 は、画像生成と精密編集の両方に対応する Luma 初の統一モデルです。ほとんどの画像モデルとは異なり、Uni-1 は拡散モデルではなく、**デコーダーのみの自己回帰型トランスフォーマー**です。テキストと画像をひとつのインターリーブされたシーケンスとして扱い、時間・空間・論理を単一のアーキテクチャで統合的にモデリングします。その結果、モデルは生成前にプロンプトを**推論**し、指示を分解し、制約を解決し、最先端の LLM のように構図を計画します。まず考え、それから描きます。 + +出力品質だけでなく、**コントロール性**こそがその真価です。新しい画像をゼロから生成することも、既存の画像を外科手術のように精密に編集することもでき、参照画像・シード・構造化されたプロンプトを使って結果を意図通りに導けます。 本ガイドでは、最初の 1 枚から高度なマルチリファレンス構成まで、実用的なメンタルモデルとワークフローを紹介します。 @@ -15,9 +17,26 @@ Uni-1 は、画像生成と精密編集の両方に対応する Luma 初の統 - ニッチで具体的なビジュアルスタイルへの**強力なコントロール** - 再現性と制御された反復のための**シード対応** - 縦長から横長まで**9 種類のアスペクト比** +- **テキストレンダリング** — 画像内で読める文字、インフォグラフィックやポスターに最適 +- **ウェブ検索グラウンディング** — 実世界のコンテキストを活用 +- **多言語プロンプト**対応 +- **マルチパネル出力** — 複数フレーム間でのキャラクター・シーン一貫性 モードと参照画像の制御方法を理解すれば、Uni-1 を理解したと言えます。 +## 得意分野 + +Uni-1 は幅広いタスクで優れた性能を発揮します: + +- **フォトリアリズム**と素材の正確な再現 +- **イラストとスタイライズドアート**、強い美的コントロール +- **古写真の修復**とビンテージ再現 +- **シュールでコンセプチュアル**な構図 +- **テキストレンダリング** — 画像内で読める文字、インフォグラフィックやポスターに最適 +- **画像編集**とマルチターンでのリファイン +- **参照画像ガイド生成**、人物のアイデンティティ保持 +- **マルチパネル出力** — 複数フレーム間でのキャラクター・シーン一貫性 + ## 核となる区別:Create か Modify か Uni-1 のすべては、シンプルな問いから始まります:**新しいものを作るのか、それとも既にあるものを変えるのか?** @@ -32,7 +51,14 @@ Uni-1 のすべては、シンプルな問いから始まります:**新しい - 出力が入力画像の**バリエーション**であるべきなら Modify - 入力に**着想を得つつ新しい**ものなら Create -## 最初の 1 枚 +## 始め方 + +Uni-1 を使用する方法は 2 つあります: + +- **Comfy Cloud**:テンプレートパネルから [Create](https://cloud.comfy.org/?template=api_luma_uni_1_image_create) または [Modify](https://cloud.comfy.org/?template=api_luma_uni_1_image_edit) テンプレートを読み込む。 +- **デスクトップ版**:ComfyUI を最新バージョンにアップデートし、ノードライブラリから **Luma UNI-1 Image** ノードを見つけてワークフローに接続。 + +### 最初の 1 枚 1. **Create Image > Uni-1** を開く 2. プロンプトを書く diff --git a/tutorials/partner-nodes/luma/luma-uni-1.mdx b/tutorials/partner-nodes/luma/luma-uni-1.mdx index 7a1cd9833..0518042b2 100644 --- a/tutorials/partner-nodes/luma/luma-uni-1.mdx +++ b/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -4,7 +4,9 @@ description: "A practical guide to Luma's Uni-1 unified model for image creation sidebarTitle: "Luma Uni-1" --- -Uni-1 is Luma's first unified model designed for both image creation and precision editing. Beyond raw output quality, what makes it powerful is **control**: you can generate entirely new images or surgically modify existing ones, while guiding the system with references, seeds, and structured prompts. +Uni-1 is Luma's first unified model designed for both image creation and precision editing. Unlike most image models, Uni-1 isn't a diffusion model — it's a **decoder-only autoregressive transformer** that treats text and images as a single interleaved sequence, jointly modeling time, space, and logic in one architecture. The result: a model that reasons about your prompt before generating — decomposing instructions, resolving constraints, and planning composition like a frontier LLM. It thinks first, then draws. + +Beyond raw output quality, what makes it powerful is **control**: you can generate entirely new images or surgically modify existing ones, while guiding the system with references, seeds, and structured prompts. This guide gives you a working mental model and practical workflows, from your first image to advanced multi-reference setups. @@ -15,9 +17,26 @@ This guide gives you a working mental model and practical workflows, from your f - **Strong control over niche and specific visual styles** - **Seed support** for reproducibility and controlled iteration - **Nine aspect ratios**, from ultra-tall to ultra-wide +- **Text rendering** that's actually readable +- **Web search grounding** for real-world context +- **Multilingual prompts** +- **Multi-panel output** with temporal consistency If you understand the modes and how to control references, you understand Uni-1. +## Strengths + +Uni-1 excels across a wide range of tasks: + +- **Photorealism** with material accuracy +- **Illustration & stylized art** with strong aesthetic control +- **Old photo restoration** and vintage reproduction +- **Surreal and conceptual** compositions +- **Text rendering** — readable text inside images, great for infographics and posters +- **Image editing** and multi-turn refinement +- **Reference-guided generation** with identity preservation +- **Multi-panel output** — consistent characters/scenes across multiple frames + ## The core distinction: Create vs Modify Everything in Uni-1 starts with one question: **Am I creating something new, or changing something that already exists?** @@ -32,7 +51,14 @@ When in doubt: - If the output should look like a **version of your input**, use Modify - If it should feel **inspired but new**, use Create -## Your first image +## Getting started + +You can use Uni-1 in two ways: + +- **Comfy Cloud**: Load the [Create](https://cloud.comfy.org/?template=api_luma_uni_1_image_create) or [Modify](https://cloud.comfy.org/?template=api_luma_uni_1_image_edit) template from the Templates panel. +- **Desktop**: Update ComfyUI to the latest version, find the **Luma UNI-1 Image** node via the Node Library, and connect it to your workflow. + +### Your first image 1. Open **Create Image > Uni-1** 2. Write a prompt diff --git a/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx index ed9b5453c..84a784cb0 100644 --- a/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx +++ b/zh/tutorials/partner-nodes/luma/luma-uni-1.mdx @@ -4,7 +4,9 @@ description: "Luma Uni-1 统一模型使用指南:图像创建与精准编辑" sidebarTitle: "Luma Uni-1" --- -Uni-1 是 Luma 推出的首款统一模型,同时支持图像创建(Create)与精准编辑(Modify)。它真正的优势不仅在于输出质量,更在于**可控性**——你既可以从零生成全新图像,也可以对已有图像进行精细编辑,并通过参考图、种子(seed)和结构化提示词来引导生成结果。 +Uni-1 是 Luma 推出的首款统一模型,同时支持图像创建(Create)与精准编辑(Modify)。与大多数图像模型不同,Uni-1 不是扩散模型——它是一个 **decoder-only autoregressive transformer(仅解码器自回归变换器)**,将文本和图像视为单一交错序列,在单一架构中联合建模时间、空间和逻辑。结果是:模型会在生成之前**先推理你的提示词**——分解指令、解决约束条件、像一个前沿 LLM 一样规划构图。先思考,再绘画。 + +它真正的优势不仅在于输出质量,更在于**可控性**——你既可以从零生成全新图像,也可以对已有图像进行精细编辑,并通过参考图、种子(seed)和结构化提示词来引导生成结果。 本指南将帮助你建立可用的心智模型与实用工作流,从你的第一张图像到进阶的多参考图组合。 @@ -15,9 +17,26 @@ Uni-1 是 Luma 推出的首款统一模型,同时支持图像创建(Create - **强力控制**特定的小众视觉风格 - **支持种子(seed)**,便于复现和受控迭代 - **9 种宽高比**,从超高到超宽 +- **文字渲染** — 图像内可读的文字,非常适合信息图和海报 +- **网页搜索**作为背景知识来源 +- **多语言提示词**支持 +- **多面板输出** — 跨多帧保持角色/场景一致性 理解了模式与参考图控制方式,你就理解了 Uni-1。 +## 强项 + +Uni-1 在广泛的任务中表现优异: + +- **照片级真实感**与材质精度 +- **插画与风格化艺术**,审美控制力强 +- **老照片修复**与复古再现 +- **超现实与概念性**构图 +- **文字渲染** — 图像内可读的文字,擅长信息图与海报 +- **图像编辑**与多轮细化 +- **参考图引导生成**,可保持人物身份一致性 +- **多面板输出** — 多帧间保持角色/场景一致 + ## 核心区别:Create 还是 Modify 使用 Uni-1 之前,先问自己一个问题:**我是要创建全新的内容,还是要修改已有的内容?** @@ -32,7 +51,14 @@ Uni-1 是 Luma 推出的首款统一模型,同时支持图像创建(Create - 如果输出应当像输入图像的**某个版本**,使用 Modify - 如果输出应当**受其启发但全新**,使用 Create -## 你的第一张图像 +## 开始使用 + +你可以通过以下两种方式使用 Uni-1: + +- **Comfy Cloud**:从模板面板加载 [Create](https://cloud.comfy.org/?template=api_luma_uni_1_image_create) 或 [Modify](https://cloud.comfy.org/?template=api_luma_uni_1_image_edit) 模板。 +- **桌面版**:将 ComfyUI 更新到最新版,通过节点库找到 **Luma UNI-1 Image** 节点并连接到你的工作流中。 + +### 你的第一张图像 1. 打开 **Create Image > Uni-1** 2. 编写提示词