Skip to content

DEF-13/StableDiffusion_Forge-on-MacPro5.1-no-AVX-GPU-AMD-RX-6xxx

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

12 Commits
 
 
 
 

Repository files navigation

Stable Diffusion Forge sur Mac Pro 5.1 (Ubuntu - No-AVX / No-Cuda - AMD ROCm)

Ce dépôt documente l'installation et l'optimisation de SD-WebUI-Forge sur un Mac Pro 5.1 (2010/2012). Ce guide est le fruit d'un travail collaboratif entre un utilisateur passionné et une intelligence artificielle (Gemini), conçu pour repousser les limites de l'architecture Westmere.

📜 Manifeste pour une IA Durable et Universelle

Manifesto for Sustainable and Universal AI

"La puissance de l'intelligence artificielle ne doit pas être limitée par la puissance du portefeuille." "The power of AI should not be limited by the power of the wallet."

Nous vivons une époque où l'innovation logicielle crée une obsolescence matérielle accélérée. Chaque mise à jour nous dit que notre matériel est "trop vieux", nous poussant à abandonner des machines encore capables pour des standards de consommation toujours plus élevés.

Ce projet est un acte de résistance technologique.

En faisant tourner l'IA de pointe sur un Mac Pro de 2010, nous prouvons que :

  • Le hardware ne meurt jamais : Avec une ingénierie logicielle créative, le matériel "legacy" reste une plateforme de création majeure.

  • L'IA doit être inclusive : L'accès aux outils de génération et de réflexion doit être possible pour tous, sans exiger les derniers fleurons (flagships) à plusieurs milliers d'euros.

  • La durabilité est un choix : L'upcycling informatique est la réponse la plus concrète à l'urgence environnementale.

Mon appel : "Je ne suis pas un ingénieur de la Silicon Valley, je suis juste un passionné qui refuse de jeter une machine qui fonctionne encore. Mais si un simple passionné avec une IA peut redonner vie à un Mac de 15 ans, imaginez ce que des géants comme Google*, AMD, Intel, Apple ou Ubuntu (…) pourraient faire s'ils décidaient de soutenir officiellement ces alternatives durables. Mon projet est une preuve de concept ; j'invite ceux qui fabriquent le futur à ne pas oublier ceux qui possèdent encore le passé."


⚠️ Le Défi Matériel : Architecture Westmere & Bus PCIe 2.0

Le processeur Intel Xeon de cette machine est dépourvu des instructions AVX/AVX-2. Presque tous les environnements IA modernes les exigent nativement. Ce guide documente la compilation d'un environnement 100% compatible No-AVX.

🛠 Configuration de test

  • CPU : Dual Intel Xeon (Westmere) - 2 x 3.33Ghz - Sans AVX.
  • RAM : 128 Go DDR3 ECC (Indispensable pour le swap CPU/GPU). ⚠️ 64 Go DDR3 ECC minimum pour la compilation de Pytorch
  • GPU : AMD Radeon RX 6600 XT (8 Go VRAM).
  • Bus : PCIe 2.0 (Goulot d'étranglement majeur).
  • System : Ubuntu 24 LTS.

⚠️ Installation spécifique et portable /home/User/IA/

Contrairement à une installation classique, nous avons fait le choix d'une installation autonome (Sandboxed). Voici pourquoi cette nature d'installation est vitale pour le Mac Pro 5.1 :

Immunité aux mises à jour système : Ubuntu peut mettre à jour son Python natif ou ses bibliothèques (comme NumPy). Si nous utilisions le Python système, une simple mise à jour 'apt upgrade' pourrait écraser tes binaires No-AVX/No-Cuda par des versions AVX/Cuda standards, rendant l'IA inutilisable instantanément.

Zéro conflit de permissions : En installant tout dans le dossier utilisateur (~/IA/), pas besoin d'utiliser sudo pour installer des modules Python. Cela évite de corrompre les permissions du système.

Portabilité : l'environnement IA/ est techniquement "déplaçable". Si on réinstalle le système sur un autre disque, on peux potentiellement pointer vers ce dossier et retrouver ton environnement prêt à l'emploi.

A. ⚙️ Note Système Importante : Interface Graphique & Boot

Pour garantir la stabilité des drivers AMD ROCm et éviter les crashs de l'interface, deux réglages sont cruciaux :

  1. Forcer X11 (Ligne de commande) : Ubuntu utilise souvent Wayland par défaut, ce qui peut saturer la VRAM. Pour figer X11, éditez le fichier de configuration :
sudo nano /etc/gdm3/custom.conf
# Décommentez la ligne : WaylandEnable=false
  1. Gestion de l'alimentation (OpenCore) : Si vous utilisez OCLP, il est très fortement recommandé de faire un Shutdown (Éteindre) complet plutôt qu'un Reboot (Redémarrer). Un redémarrage à chaud peut empêcher la réinitialisation correcte de la NVRAM et des patchs matériels nécessaires à la carte graphique.

B. 📊 Monitoring du système temps réel

Ne travaillez JAMAIS en aveugle ! Il est préférable d'utiliser un système de monitoring à tout moment pour surveiller la charge des Xeon et la température de la RX 6600 XT.

Outil recommandé : Le moniteur natif d'Ubuntu ou, plus avancé, Astral (https://github.com/AstraExt/astra-monitor). Cela vous permettra de contrôler les charges CPU et GPU et, d'anticiper les saturations de RAM et VRAM avant plantage. Il est fortement recommandé de garder un œil sur les ressources de votre machine pendant les phases de génération.


🛡️ Étape 1 : Validation de ROCm

Avant toute tentative de compilation, il est impératif que ROCm soit installé avec ses outils de développement et fonctionnel sur votre système Ubuntu. Il est hautement recommandé d'utiliser les versions de AMD : https://rocm.docs.amd.com/projects/install-on-linux/en/latest/install/install-methods/package-manager/package-manager-ubuntu.html

1-1. Vérification de l'installation :

rocm-smi

⚠️ Assurez-vous d'avoir installé les headers nécessaires (ex: rocm-dev, rock-dkms).

1-2. Permissions

sudo usermod -aG video $USER
sudo usermod -aG render $USER

⚙️ 2. Compilation de PyTorch (No-AVX & No-CUDA Hack)

Nous forçons PyTorch à ignorer les instructions AVX et désactivons explicitement NVIDIA CUDA pour une construction ROCm pure. Il est impératif d'installer ces paquets pour la compilation de Pytorch.

sudo apt install -y python3-dev python3-pip cmake git build-essential \ libffi-dev libssl-dev libopenblas-dev libblas-dev m4 \ python3-yaml python3-setuptools python3-wheel doxygen \ python3-packaging python3-pkg-resources

Compilation Avant de lancer la compilation, définissez ces variables pour brider les instructions incompatibles avec les Xeon Westmere :

# Désactivation totale de NVIDIA CUDA
export USE_CUDA=0
export USE_CUDNN=0

# Désactivation totale des optimisations AVX (Architecture Westmere)
export USE_AVX=0
export USE_AVX2=0
export USE_AVX512=0

# Désactivation des bibliothèques dépendantes de l'AVX
export USE_FBGEMM=0
export USE_MKLDNN=0
export USE_NNPACK=0
export USE_QNNPACK=0

# Cible GPU : AMD ROCm pour architecture gfx1030 (RX 6600 XT)
export PYTORCH_ROCM_ARCH=gfx1030 

Lancement de la compilation

⚠️ Pour respecter la nature isolée de notre installation, nous n'utilisons pas le python système, mais le binaire situé dans notre dossier IA dédié.

~/IA/Python/bin/python3 setup.py install

⚠️ Notes

  • La compilation sature les cœurs à 100%. Prévoyez 1h à 4h de calcul (1h30 avec ma configuration).
  • La pression RAM est montée à 35% de mes 128Go.
  • À certains moments, la compilation ne semble plus rien faire (plus de défilement dans le terminal). Le compilateur est simplement en train de traiter une grosse masse de données.

🏗️ 3 Le Linkage : La "méthode UNIX" (Build Wheel & Copie Physique)

Une fois la compilation terminée, les fichiers ne sont pas encore prêts à l'usage. Nous utilisons une procédure en deux temps : la création d'un paquet Wheel (étape longue) suivie d'une copie physique UNIX pour verrouiller l'installation dans ~/IA/Python.

Pourquoi cette procédure est-elle longue ? Le "Wheel" est une compilation finale qui emballe tous les binaires .so, les scripts et les métadonnées dans un seul archive certifiée. Cela garantit que chaque composant est correctement lié au binaire Python de ton dossier 'IA'.

  • La copie physique assure que chaque bit est présent là où Python le cherche, sans dépendre de liens symboliques instables sur le bus PCIe 2.0.

  • Le verrouillage par les métadonnées empêche Forge de tenter une mise à jour qui écraserait notre travail.

📂 Les dossiers cibles de la copie physique Il y a trois types d'éléments à copier (les fichiers .so compilés spécifiquement pour No-AVX) :

1. `torch/` : Le cœur du réacteur (binaires C++ et interfaces Python).

2. `torchvision/` : Le module de traitement d'image.

3. `*.dist-info` ou `*.egg-info` : (Crucial) La "carte d'identité" du paquet qui indique à Python que PyTorch est bien installé.

📄 Les fichiers critiques (les bibliothèques partagées) À l'intérieur de ces dossiers, ce sont surtout les fichiers avec l'extension .so (Shared Objects) qui sont les plus importants. Ce sont eux qui ont été "sculptés" pour tes Xeon Westmere :

* libtorch_cpu.so : Version sans instructions AVX.

* libtorch_hip.so : La passerelle vers ta carte AMD RX 6600 XT.

* _C.cpython-312-x86_64-linux-gnu.so : Le lien direct entre Python et le code C++.

🛠 La procédure UNIX exacte (Wheel + UNIX)

Cette étape est le moment de vérité : on fabrique l'installeur, puis on injecte ses composants manuellement pour un contrôle total.

# --- A. CRÉATION DU WHEEL (L'étape longue) ---
# On emballe la compilation dans un paquet installable
cd ~/pytorch
~/IA/Python/bin/python3 setup.py bdist_wheel

# --- B. NETTOYAGE DE L'ENVIRONNEMENT ISOLÉ ---
# On prépare le terrain dans IA/Python
rm -rf ~/IA/Python/lib/python3.12/site-packages/torch
rm -rf ~/IA/Python/lib/python3.12/site-packages/torchvision
rm -rf ~/IA/Python/lib/python3.12/site-packages/torch-*.dist-info

# --- C. COPIE PHYSIQUE UNIX (Le Linkage) ---
# 1. On copie le code compilé depuis le build
cp -R ~/pytorch/build/lib.linux-x86_64-cpython-312/torch ~/IA/Python/lib/python3.12/site-packages/
cp -R ~/vision/build/lib.linux-x86_64-cpython-312/torchvision ~/IA/Python/lib/python3.12/site-packages/

# 2. On injecte les métadonnées générées par le Wheel (Le Passeport)
# Indispensable pour que 'pip list' et Forge reconnaissent la version
cp -R ~/pytorch/build/lib.linux-x86_64-cpython-312/torch-*.dist-info ~/IA/Python/lib/python3.12/site-packages/

⚠️ Pourquoi copier les .dist-info issus du Wheel ? C'est la sécurité anti-écrasement. Sans ces dossiers, Forge croira que PyTorch est absent. Il lancera alors un pip install torch, ce qui téléchargera la version officielle (avec AVX) et détruira instantanément ta compilation. En copiant ces dossiers, on dit au système : "Le PyTorch No-AVX/No-Cuda certifié est déjà là, ne touche à rien".

✅ 4. Contrôle de l'Accélération Matérielle et Benchmark Comparatif : CPU vs GPU (ROCm)

Pour valider l'intérêt de tout ce travail de compilation, nous avons mis en place un benchmark comparatif. L'objectif est de prouver par les chiffres que la RX 6600 XT, même bridée par le bus PCIe 2.0 du Mac Pro, pulvérise les Xeon dès qu'il s'agit de calcul matriciel (IA). Ce test permet aussi de confirmer que le "Linkage" est réussi : si le GPU n'est pas détecté, PyTorch basculerait sur le CPU par défaut, ce qui rendrait l'utilisation de Forge insupportable.

Procédure

  1. Créer le script de vérification :
nano ~/IA/Python/check_gpu.py
  1. Le script
import torch
import time

print(f"--- Rapport de Santé PyTorch ---")
print(f"Version de Torch : {torch.__version__}")
print(f"ROCm / CUDA disponible : {torch.cuda.is_available()}")

def benchmark(device, name):
    # Création de deux matrices massives (4000x4000)
    size = 4000
    # On force le type de donnée en float32 pour le test
    a = torch.randn(size, size).to(device)
    b = torch.randn(size, size).to(device)
    
    # Warm-up (essentiel pour charger les kernels ROCm en VRAM)
    torch.matmul(a, b)
    
    # Mesure du temps sur 10 itérations
    start = time.time()
    for _ in range(10):
        torch.matmul(a, b)
    end = time.time()
    
    avg_time = (end - start) / 10
    print(f"🚀 [{name}] Temps moyen : {avg_time:.4f} secondes")
    return avg_time

print(f"\n--- Lancement du Benchmark (Mac Pro 5.1) ---")

# Test sur CPU (Xeon Westmere - No AVX)
t_cpu = benchmark("cpu", "Dual Xeon (CPU)")

# Test sur GPU (RX 6600 XT - ROCm)
if torch.cuda.is_available():
    t_gpu = benchmark("cuda", "RX 6600 XT (GPU)")
    acceleration = t_cpu / t_gpu
    print(f"\n✅ VERDICT : Le GPU est {acceleration:.1f}x plus rapide que tes Xeon !")
else:
    print("\n❌ ERREUR : GPU non détecté. Vérifiez le Linkage UNIX et la variable HSA_OVERRIDE_GFX_VERSION.")

3.Lancement du test

~/IA/Python/bin/python3 check_gpu.py

🏗 5. Installation de Forge : Clonage et Méthode "Anti-CUDA"

Cette étape consiste à récupérer les sources de Forge, puis à préparer son environnement de manière chirurgicale pour éviter tout conflit avec NVIDIA CUDA.

5-1. Clonage du dépôt Nous installons Forge dans ton dossier dédié ~/IA/.

cd ~/IA
git clone https://github.com/lllyasviel/stable-diffusion-webui-forge forge
cd forge

🛡️ 5-2. Lever le verrou Ubuntu (PEP 668) Avant de pouvoir installer les dépendances dans notre dossier /IA/, nous devons lever la protection d'Ubuntu qui bloque l'usage de pip.

mkdir -p ~/.config/pip
echo -e "[global]\nbreak-system-packages = true" > ~/.config/pip/pip.conf

🛠️ 5-3. Procédure d'installation chirurgicale !!! ATTENTION : NE LANCEZ JAMAIS 'python3 launch.py' Àà CE STADE !!! L'installeur automatique écraserait ton PyTorch "No-AVX". Nous installons les composants un par un manuellement.

# Définition du chemin vers notre binaire sécurisé
BIN_PY=~/IA/Python/bin/python3

# A. NumPy (Le verrou de version) : impératif en v1.26.4
$BIN_PY -m pip install numpy==1.26.4

# B. Dépendances de l'interface et du backend
$BIN_PY -m pip install gradio==3.48.0 safetensors gguf --upgrade

# C. Modules Vision, CLIP et post-traitement
$BIN_PY -m pip install clip open_clip_torch facexlib gfpgan

Pourquoi cloner AVANT d'installer les modules ? Techniquement, on pourrait installer les modules n'importe quand, mais en clonant d'abord, on s'assure d'être dans le bon répertoire de travail. De plus, cela permet de vérifier si Forge n'a pas un fichier requirements.txt spécifique que l'on pourrait consulter en cas de doute.


🚀 6. Le Script de Lancement : start_forge.sh

C'est l'étape finale. Pour que Forge utilise ton environnement isolé ~/IA/Python et ta carte RX 6600 XT sans erreur, nous créons un script de lancement dédié. Ce script force l'identité du GPU et empêche Forge de tenter de "réparer" ou de mettre à jour les modules que nous avons si durement compilés.

6-1. Création du script Placez-vous à la racine de votre dossier Forge :

cd ~/IA/forge
nano start_forge.sh

6-2. Contenu du script (Optimisé Mac Pro 5.1) Copiez et collez le code suivant :

#!/bin/bash 

# 1. Définition du Python isolé (No-AVX)
PYTHON_IA="$HOME/IA/Python/bin/python3"

# 2. Forcer l'architecture RDNA 2 (Navi 23) pour la RX 6600 XT
export HSA_OVERRIDE_GFX_VERSION=10.3.0 

# 3. Nettoyage préventif des processus fantômes pour libérer la VRAM
killall -9 python3 2>/dev/null 

echo "🚀 Lancement de Stable Diffusion Forge (Mode No-AVX)..."

# 4. Lancement avec les flags de sécurité
# --skip-install : INDISPENSABLE pour ne pas écraser votre compilation
# --precision full --no-half : Sécurité pour éviter les erreurs NaN sur Westmere
$PYTHON_IA launch.py \
    --skip-python-version-check \
    --skip-torch-cuda-test \
    --skip-install \
    --precision full \
    --no-half \
    --listen \
    --always-high-vram \
    --attention-pytorch 

# 5. Nettoyage à la fermeture
echo "🧹 Libération de la VRAM AMD..." 
killall -9 python3 2>/dev/null

6-3. Activation et premier lancement Il faut maintenant donner les droits d'exécution à ce script pour pouvoir l'utiliser comme une application.

# Rendre le script exécutable
chmod +x start_forge.sh

# Lancer l'interface
./start_forge.sh

6-4. Accès à l'interface (Navigateur) Une fois que le script ./start_forge.sh affiche la ligne Model loaded in XXXs, Forge est prêt. Comme nous avons utilisé le flag --listen, l'interface est accessible sur notre réseau local.

Depuis le Mac Pro lui-même : On ouvre un navigateur (Firefox, Brave, Chrome …) et tape l'adresse locale : http://0.0.0.0:7860 (ou http://0.0.0.1:7860 selon ton alias réseau)

Depuis un autre ordinateur de la maison (Mac, PC, Tablette ou Smartphone) : Il faut utiliser l'adresse IP locale du Mac Pro sur votre réseau.

  1. Pour la connaître, tapez hostname -I dans un terminal sur le Mac Pro.
  2. Entrez cette adresse dans le navigateur de votre autre appareil en ajoutant le port :7860 à la fin. Exemple : 'http://192.168.x.xx:7860'

⛔ MISE EN GARDE : Flux.1, Z-Image Turbo et autres Modèles Lourds

Bien que Forge permette de charger ces modèles, leur usage est fortement déconseillé sur cette configuration :

  1. Goulot d'étranglement PCIe 2.0 : Le transfert des modèles massifs sur un vieux bus présente des risques d'instabilité.
  2. Saturation VRAM : 8 Go sont insuffisants pour ces modèles, forçant un ralentissement extrême.
  3. Optimisation : Préférez SD 1.5 (vitesse) et SDXL / Pony (Lightning/Turbo) pour un usage fluide.

⚠️ Format de génération :

  • Pour SD 1.5 : utliser les dimensions classiques de génération : 512x512px
  • Pour SDXL/Pony : ne pas dépasser le 1024x1024px
  • Pour agrandir les images, un bon set-up de l'upscaler de Forge fait des miracles !

🛠️ Dépannage & Maintenance

❓ "Illegal Instruction (core dumped)" Si cette erreur apparaît, c'est qu'un module (souvent numpy ou torch) a été mis à jour par erreur vers une version AVX. Solution : Refaire l'étape 3 (Le Linkage) pour ré-écraser les fichiers corrompus par les versions compilées No-AVX/No-Cuda.

❓ Le GPU n'est pas utilisé (Lenteur extrême) Si le terminal n'affiche pas ROCm au démarrage ou si le benchmark est mauvais :

  • Vérification : Taper rocm-smi dans ton terminal. Si ta RX 6600 XT n'apparaît pas, c'est un problème de driver au niveau du noyau Ubuntu, pas de Forge.
  • Rappel : S'Assurer que la variable export HSA_OVERRIDE_GFX_VERSION=10.3.0 est bien présente dans le script de lancement.

🧹 Nettoyage de la VRAM Si Forge plante après une grosse génération, le GPU peut rester "bloqué". Commande rapide : killall -9 python3 (incluse dans notre script de lancement).


🚀 Roadmap : Vision & Futur du Projet

Ce projet n'est que la première étape. Voici le plan de vol pour transformer ces machines iconiques en une infrastructure d'IA moderne.

🟢 Phase 1 : Preuve de Concept (Terminée)

  • Installation d'un GPU AMD RDNA 2 sur bus PCIe 2.0.
  • Compilation PyTorch "No-AVX" et stabilisation de Forge sous Ubuntu 24.04.
  • Valider de fonctionnement sans bug ni crash de Forge en mode "out of a box".

🟡 Phase 2 : Puissance & Optimisation (En cours)

  • Fine tunning : optimisation et maximisation des réglages de Forge pour l'exploitation de cette configuration.
  • Documentation : Traduction intégrale du projet pour la communauté internationale.

🔴 Phase 3 : Le Cluster (Vision Long Terme)

  • Partenariats : Validation de ces méthodes avec des acteurs comme AMD, Canonical, Intel, Powercolor, Google.
  • Pixlas Mod : Modification de l'alimentation pour supporter des GPU AMD haut de gamme (RX 6800/6900 XT). (optionnel)
  • Déploiement : Clonage du système sur ma flotte de 4 Mac Pro 5.1 supplémentaires.
  • Calcul Distribué : Mise en réseau pour l'inférence partagée (Multi-GPU sur plusieurs nœuds).

🛠️ État de la Flotte & Besoins (Scale-up)

🟢 La base matérielle du cluster déjà sécurisée :

Réseau : Switch dédié 1 Gbit. Châssis : 5 x Mac Pro 5.1 (Bi-CPU). Mémoire : 640 Go de RAM ECC au total (soit 128 Go par machine).

🔴 Pour finaliser l'homogénéité du cluster, les besoins restants sont :

Calcul (CPU) : 8 processeurs Intel Xeon X5680 (3.33 GHz). Objectif : Maximiser le débit de données vers le GPU et uniformiser les temps de traitement No-AVX.

Stockage : 4 SSD SATA de 1 To. Objectif : Permettre le chargement rapide des modèles (Checkpoints) en local sur chaque nœud.

Graphisme (GPU) : 4 cartes PowerColor Radeon RX 6600 XT 8Go de VRAM. Objectif : Standardiser le stack ROCm sur toute la flotte et valider le déploiement "Zero-Config" sans modification électrique (Pixlas Mod non requis pour ce modèle).


📝 Notes de fin

Architecture : Conçu spécifiquement pour Mac Pro 5.1 (Dual Xeon Westmere / AMD RDNA 2).

Système : Ubuntu 24.04 LTS (Kernel optimisé).

Remerciements : Merci à la communauté OpenCore Legacy Patcher et aux développeurs de PyTorch pour le support continu des architectures legacy, ainsi qu'à AMD et à Google. Merci à Linus Torvalds pour avoir créé le noyau Linux. Merci à l'ensemble des acteurs de l'univers Open Source qui permettent chaque jour de réaliser de telles prouesses. Merci aux équipes d'Ubuntu pour l'excellent travail accompli sur leurs distributions. Merci au créateur et aux contributeurs du projet Astra-Monitor. Enfin, un immense merci à mon épouse et à ma fille de m'avoir laissé mener ce projet à bien et d'avoir supporté mes longues heures de recherche.


✍️ Note de fin & Crédits

Ce guide est le résultat d'une collaboration unique entre François Deretz (aka DEF13), passionné et déterminé à faire rugir son Mac Pro 5.1 "Westmere" en 2026 (!), et Gemini, son binôme IA.

Ensemble, nous avons :

  • Identifié et contourné les barrières matérielles du manque d'AVX.

  • Dompté les caprices du bus PCIe 2.0 pour la RX 6600 XT.

  • L'expérience SGI/Irix de François, a permis d'établir une procédure de "Linkage UNIX" chirurgicale pour protéger le travail.

Propriété Intellectuelle & Partage : Ce document est libre de partage. Si vous l'utilisez pour redonner vie à votre propre Mac Pro, une petite pensée pour le binôme qui a passé des heures à debugger ces lignes de code sera notre plus belle récompense.

"Le hardware ne meurt jamais, il attend juste le bon script."


🛠️ Maintenance du Projet

Auteur : François Deretz (aka DEF13)

Co-pilote : Gemini

Dernière révision : Février 2026

Statut : Opérationnel. Stable Diffusion Forge tourne désormais à plein régime sur AMD ROCm.


🌍 Ecosystem & Sustainability Call

"Designed with passion in Marseille, France, by an independent maker who believes in long-lasting hardware."

This project is a technical "Proof of Concept" for a Sustainable AI Cluster. It aims to demonstrate that software intelligence can overcome hardware aging. I welcome interest and feedback from the engineering teams behind the tools that made this possible:

| Entity | Focus Area | Mention |
| :--- | :--- | :--- |
| **Google AI** | LLM Support & Gemini Guidance | @google |
| **AMD** | ROCm & GPU Resilience | @AMD |
| **Ubuntu** | OS Stability & Open Source | @canonical |
| **Intel** | Xeon Legacy Architectures | @intel |
| **Apple** | Hardware Longevity (Mac Pro) | @apple |
| **PowerColor** | GPU Hardware & Reliability | @PowerColor |

### 🏷️ Keywords & Visibility
`#SustainableAI` `#CircularEconomy` `#LowSpecAI` `#NoAVX` `#ROCm` `#Ubuntu2404` `#MacPro51` `#GeminiCoEngineered` `#TechUpcycling`

---

**Contact & Collaboration:** If you represent one of these organizations or if you are a developer interested in building a more inclusive and sustainable AI future, feel free to open an issue or reach out. Let's make AI accessible to every machine, not just the flagships.

About

evolutionizing sustainable AI: Running SDXL on legacy Mac Pro 5.1 without AVX.

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Contributors