ORCRUX logo

Templates

Bibliotheque de workloads

Utilise ces templates comme base de depart. Chaque fiche indique le type de modele, le format dataset attendu, la charge GPU recommandee et une estimation de temps avant de soumettre un vrai workload.

Parcours recommande pour debuter
  1. Prepare un petit dataset et publie-le sur /datasets.
  2. Choisis d abord un template Starter.
  3. Confirme que le workload passe en completed et que les rewards sont credites.
  4. Monte ensuite sur un template Demo, puis seulement apres sur un template Advanced.
Pack public recommande

Dataset conseille pour la premiere demo publique: public-support-mini-v1.jsonl. Lance d abord smoke-logreg-quick, confirme les rewards et l artefact, puis passe a un template texte plus realiste.

Starter workloads

Les plus simples pour un premier test public: courts, comprehensibles et faciles a verifier.

Tiny GGUF smoke

Petit test de bout en bout pour verifier qu'une machine AMD/DirectML ou Nvidia/CUDA peut produire un hf-model et un model.gguf.

recommendedsmoketextggufdmlcuda
Modele
byo
Runtime
transformers
Dataset attendu
jsonl
GPU recommande
gpu_8g
Temps estime
0.08 GPU-hours
Reward cible
35 CRUX
Blocks target
1
Dataset template
Petit JSONL utilisateur

Advanced workloads

Templates pour tests VRAM plus lourds, sharding, LoRA et campagnes de validation avancees.

Knowledge QA rapide

Template le plus fiable pour un petit dataset factuel JSONL: il construit un bundle de reponses ancrees dans le dataset, sans promettre un GGUF.

recommendedstartertextqacheapreliable
Modele
byo
Runtime
orcrux-runtime
Dataset attendu
jsonl
GPU recommande
auto
Temps estime
0.02 GPU-hours
Reward cible
20 CRUX
Blocks target
1
Dataset template
Dataset QA JSONL utilisateur

LoRA GGUF standard

Template texte standard pour dataset utilisateur: auto_train choisit LoRA SFT et exige un model.gguf final. Compatible CUDA ou DML avec petits reglages memoire.

recommendedtextloraggufdmlcuda
Modele
byo
Runtime
transformers
Dataset attendu
jsonl
GPU recommande
gpu_8g
Temps estime
0.35 GPU-hours
Reward cible
80 CRUX
Blocks target
4
Dataset template
Dataset instruction JSONL utilisateur

CUDA performance - Qwen GGUF

Template Nvidia uniquement pour valider un vrai fine-tuning Qwen 1.5B avec export GGUF. A utiliser quand la machine expose cuda=true.

recommendedtextloraggufcudanvidia
Modele
byo
Runtime
transformers
Dataset attendu
jsonl
GPU recommande
cuda_8g
Temps estime
0.7 GPU-hours
Reward cible
140 CRUX
Blocks target
4
Dataset template
Dataset instruction JSONL utilisateur