Introduction : Une IA dans votre poche
Imaginez avoir votre propre ChatGPT, complètement gratuit, qui fonctionne sans connexion internet, et que vous pouvez utiliser sur n'importe quel ordinateur en branchant simplement une clé USB. Ça semble trop beau pour être vrai ? C'est pourtant exactement ce que je vais vous montrer dans ce tutoriel.
Après 2 jours de développement intensif, j'ai créé Portable AI Hub v2.0 - un système complet d'intelligence artificielle qui tient sur une clé USB de 64GB et fonctionne sur Windows, Linux et Mac.
Pourquoi créer une IA portable ?
Les services d'IA en ligne comme ChatGPT, Claude ou Gemini sont excellents, mais ils ont leurs limites :
- Coût : 20€/mois pour ChatGPT Pro = 240€/an
- Dépendance internet : Impossible de travailler offline
- Vie privée : Vos conversations sont envoyées aux serveurs
- Limites d'utilisation : 40 messages toutes les 3 heures pour GPT-4
- Censure : Certaines requêtes sont bloquées
Avec une IA locale sur clé USB, vous avez :
- ✅ Gratuit à vie - Aucun abonnement
- ✅ 100% offline - Fonctionne sans internet
- ✅ Vie privée totale - Vos données restent chez vous
- ✅ Illimité - Aucune restriction d'utilisation
- ✅ Portable - Utilisable sur tous vos ordinateurs
Ce dont vous avez besoin
Matériel requis
- Clé USB : 64GB minimum (32GB peut suffire)
- Ordinateur avec :
- CPU moderne (Intel i5 4ème gen+ ou AMD Ryzen avec AVX2)
- 8GB RAM minimum (16GB recommandé)
- Windows 10/11 ou Ubuntu 22.04+
- Connexion internet : Uniquement pour l'installation initiale
Logiciels nécessaires
- Python 3.12+ (ou Python Embeddable pour Windows)
- Un éditeur de texte (VS Code, Notepad++, etc.)
- Terminal/PowerShell
Architecture du système
Portable AI Hub utilise :
- Llama 3.2 - Le modèle IA open-source de Meta
- llama-cpp-python - Pour l'inférence CPU optimisée
- Python portable - Pour fonctionner sans installation système
- Détection multi-OS - S'adapte automatiquement à Windows/Linux/Mac
Installation sur Linux (Ubuntu)
Étape 1 : Préparer la clé USB
# Créer la structure de dossiers
mkdir -p /media/$USER/USB/portable-ai/{models,libs}
cd /media/$USER/USB/portable-ai
Étape 2 : Installer les dépendances système
sudo apt update
sudo apt install -y python3 python3-pip build-essential cmake python3-dev ninja-build
Étape 3 : Installer llama-cpp-python
pip3 install llama-cpp-python psutil --target libs
⏳ Cette étape prend 5-10 minutes. Laissez la compilation se terminer.
Étape 4 : Télécharger un modèle IA
cd models
# Télécharger Llama 3.2 3B (2GB - recommandé)
wget https://huggingface.co/bartowski/Llama-3.2-3B-Instruct-GGUF/resolve/main/Llama-3.2-3B-Instruct-Q4_K_M.gguf
cd ..
Étape 5 : Télécharger le script principal
Créez un fichier ai_launcher_v2.py avec le code fourni dans le dépôt GitHub, ou téléchargez-le directement.
Étape 6 : Lancer l'application
chmod +x launcher.sh
PYTHONPATH=libs python3 ai_launcher_v2.py
Installation sur Windows
Méthode 1 : Avec Python Embeddable (Recommandé)
Cette méthode crée une version 100% portable qui fonctionne sur n'importe quel PC Windows sans installation de Python.
1. Télécharger Python Embeddable
- Aller sur python.org/downloads/windows
- Télécharger "Windows embeddable package (64-bit)" version 3.12.x
- Dézipper dans
D:\portable-ai\python-embed\
2. Configurer Python Embeddable
Éditer python312._pth :
python312.zip
.
..\\libs-windows
import site
3. Installer pip
cd D:\portable-ai\python-embed
curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
python.exe get-pip.py
4. Installer llama-cpp-python
python.exe -m pip install llama-cpp-python==0.2.79 psutil --target ..\libs-windows --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
⚠️ Note importante : Votre CPU doit supporter les instructions AVX2. Les processeurs Intel i5 de 4ème génération (2013+) ou AMD Ryzen fonctionnent parfaitement.
5. Créer le lanceur
Créez START.bat :
@echo off
title Portable AI Hub v2.0
set PYTHONPATH=%~dp0libs-windows
cd /d %~dp0
python-embed\python.exe ai_launcher_v2.py
pause
Méthode 2 : Avec Python système
Si vous avez déjà Python installé :
pip install llama-cpp-python psutil --target libs-windows --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu
python ai_launcher_v2.py
Utilisation du Portable AI Hub
Premier lancement
Au démarrage, vous verrez :
============================================================
[PORTABLE AI HUB v2.0]
============================================================
[INFO] Système: Windows
[INFO] Modèles disponibles: 1
[MENU PRINCIPAL]
1. Lister les modèles
2. Charger un modèle
3. Chatter
4. Configuration
5. Quitter
Charger un modèle
- Tapez
2pour charger un modèle - Sélectionnez le numéro du modèle
- Attendez 10-30 secondes pendant le chargement
- Le modèle est prêt !
Chatter avec l'IA
- Tapez
3pour ouvrir le chat - Posez vos questions normalement
- L'IA répond instantanément
Commandes disponibles dans le chat :
/exit- Retour au menu/switch- Changer de modèle/clear- Effacer la conversation/config- Voir la configuration
Modèles recommandés
| Modèle | Taille | RAM Min | Utilisation |
|---|---|---|---|
| Llama 3.2 1B | 800MB | 2GB | Tâches simples, PC faibles |
| Llama 3.2 3B | 2GB | 4GB | Usage général (recommandé) |
| Llama 3.1 8B | 5GB | 8GB | Meilleure qualité |
| Mistral 7B | 4.4GB | 8GB | Excellent pour le code |
Tous les modèles sont disponibles sur HuggingFace. Cherchez les versions Q4_K_M.gguf pour un bon équilibre qualité/taille.
Configuration avancée
Optimiser les performances
Dans le menu Configuration (option 4), vous pouvez ajuster :
- Threads CPU : Utilisez 4 threads par défaut, augmentez si vous avez un CPU puissant
- Contexte : 2048 tokens par défaut. Augmentez pour des conversations plus longues
- Température : 0.7 par défaut. Baissez pour plus de cohérence, augmentez pour plus de créativité
- Max tokens : 256 par défaut. Augmentez pour des réponses plus longues
Ajouter plusieurs modèles
Vous pouvez avoir plusieurs modèles sur votre clé USB :
portable-ai/
├── models/
│ ├── Llama-3.2-3B-Instruct-Q4_K_M.gguf
│ ├── Llama-3.1-8B-Instruct-Q4_K_M.gguf
│ ├── Mistral-7B-Instruct-Q4_K_M.gguf
│ └── CodeLlama-7B-Q4_K_M.gguf
Passez de l'un à l'autre avec la commande /switch dans le chat !
Dépannage
Erreur "Shared library not found" (Windows)
Cause : CPU sans support AVX2 ou libs Linux utilisées sur Windows
Solution :
- Vérifiez que votre CPU supporte AVX2
- Utilisez
libs-windowssur Windows, paslibs - Installez Visual C++ Redistributables 2015-2022
RAM insuffisante
Solution :
- Fermez tous les autres programmes
- Utilisez un modèle plus petit (1B au lieu de 3B)
- Réduisez
n_ctxdans la configuration
Génération très lente
Causes possibles :
- Clé USB trop lente → Utilisez USB 3.0+ ou copiez sur le disque dur
- CPU faible → Utilisez un modèle plus petit
- Trop de threads → Réduisez à 2-4 threads
Cas d'usage pratiques
Pour les étudiants
- Aide aux devoirs et explications de concepts
- Résumés de cours et fiches de révision
- Pratique de langues étrangères
- Assistance en mathématiques et sciences
Pour les développeurs
- Assistance au code et debugging
- Génération de documentation
- Explications d'algorithmes
- Revue de code et suggestions
Pour les créateurs de contenu
- Génération d'idées et de titres
- Rédaction et reformulation
- Correction grammaticale
- Traduction de textes
Pour l'apprentissage du ML
- Comprendre comment fonctionnent les LLMs
- Expérimenter avec différents modèles
- Tester l'inférence CPU vs GPU
- Apprendre la quantization et l'optimisation
Comparaison : Portable AI Hub vs Services en ligne
| Critère | Portable AI Hub | ChatGPT Pro |
|---|---|---|
| Coût | 0€ (gratuit à vie) | 240€/an |
| Internet | Non requis | Obligatoire |
| Vie privée | 100% local | Données envoyées aux serveurs |
| Limites | Aucune | 40 messages/3h (GPT-4) |
| Latence | Instantané (local) | Dépend du réseau |
| Portabilité | Sur clé USB | Compte en ligne |
| Qualité | Très bonne (Llama 3.2) | Excellente (GPT-4) |
Limitations et considérations
Limitations techniques
- Qualité : Llama 3.2 3B est excellent mais pas au niveau de GPT-4
- Performance : Dépend de votre CPU (3-10 mots/seconde)
- RAM : Nécessite au minimum 4-8GB selon le modèle
- Connaissances : Les modèles ne sont pas à jour en temps réel
Quand utiliser les services en ligne ?
- Besoin de la meilleure qualité absolue (GPT-4, Claude Opus)
- Tâches très complexes nécessitant raisonnement avancé
- Génération d'images (DALL-E, Midjourney)
- Recherche web intégrée
Évolutions futures
Des améliorations prévues pour Portable AI Hub :
- 🔄 Interface graphique (GUI) avec Electron ou Tauri
- 🎨 Support de modèles multimodaux (texte + images)
- ⚡ Optimisations GPU (CUDA, Metal, Vulkan)
- 📱 Version Android/iOS
- 🔌 API REST locale pour intégrations
- 💾 Système de mémoire conversationnelle
Ressources et liens utiles
- HuggingFace : huggingface.co - Télécharger des modèles
- llama-cpp-python : Documentation officielle
- Meta Llama : Site officiel
- Discord Llama : Communauté d'entraide
Conclusion
Créer votre propre IA portable sur clé USB est non seulement possible, mais aussi étonnamment simple une fois que vous comprenez les étapes. Vous obtenez :
- ✅ Une IA gratuite et illimitée
- ✅ Un contrôle total sur vos données
- ✅ Une solution portable utilisable partout
- ✅ Une excellente opportunité d'apprendre
Bien que les modèles locaux ne remplacent pas encore complètement les solutions cloud pour certaines tâches avancées, ils offrent une alternative fantastique pour 90% des cas d'usage quotidiens.
Le futur de l'IA est ouvert, accessible et respectueux de la vie privée. Portable AI Hub en est la preuve vivante.
Téléchargez le code source complet et les scripts sur mon GitHub, et n'hésitez pas à partager vos expériences et améliorations dans les commentaires !
Article rédigé par Matteo - Développeur et créateur de contenu tech à l'île Maurice. Retrouvez plus de tutoriels sur mat-univer.tech et suivez-moi sur Facebook et TikTok.
Dernière mise à jour : Février 2026