- Disiz Yyov
- Posts
- Google a publié Nano-Banana : un nouveau modèle d’édition d’image
Google a publié Nano-Banana : un nouveau modèle d’édition d’image
Voici tout ce que tu sois savoir :
Google a publié Gemini 2.5 Flash (alias nano-banana), un nouveau modèle d’édition d’image qui donne aux utilisateurs plus de contrôle sur les modifications de photo dans Gemini.
Le nom officiel de ce nouveau modèle est Gemini 2.5 Flash Image, mais ce nom est ennuyeux.
Le surnom qui a fuité en ligne il y a quelques semaines sur LMArena est “nano-banana”, et je trouve ça plus amusant et avec un peu de caractère.
Donc oui, je vais l’appeler Nano Banana pour le reste de cet article.
La mise à jour est déjà disponible dans l’application Gemini pour les utilisateurs gratuits et payants.
Tu peux changer ta tenue, te déplacer dans un autre décor ou intégrer une photo d’animal, et le modèle essaie de garder le visage du sujet aussi cohérent que possible.
Qu’est-ce que Nano Banana ?
Nano-banana est le nouveau modèle d’édition d’image de Google DeepMind, arrivé discrètement avec un nom de code amusant et qui est soudainement devenu l’éditeur le mieux noté sur les tableaux de classement communautaires.
Après l’annonce officielle, nano-banana est maintenant identifié comme gemini-2.5-flash-image-preview (nano-banana) et reste en haut du classement avec un score de 1 362.

Classement de Gemini 2.5 Flash sur LMArena
En regardant le taux moyen de victoire contre tous les autres modèles d’image, nano-banana a le score le plus élevé : 0,855.

Taux de victoire moyen de Gemini 2.5 Flash sur LMArena
Nano-banana n’est pas juste un éditeur d’image.
C’est aussi un générateur d’image.
Mais dans ce post, je vais me concentrer sur la partie édition.
La grande fonctionnalité, ici, c’est la préservation de la ressemblance.
Fini d’avoir six versions légèrement différentes de toi-même avec des nez aléatoires et des yeux incohérents.
Les animaux et les humains se ressemblent toujours, même après avoir changé d’environnement, de tenue ou d’objets.
C’est ça, l’atout principal.

Côté coût
Par l’API, générer une image en 1024x1024 coûte environ 4 centimes.
Plus d'infos dans la section « Accès API ».
Voici un exemple de fonctionnement de nano-banana.
D’abord, trouve une bonne plateforme pour tester le modèle. Tu peux y accéder via :
Gemini
Google Vertex AI
Google AI Studio
Flux Labs AI
Je vais te montrer un exemple avec l’outil d’édition d’image de Flux Labs AI, propulsé par nano-banana.
Flux Labs AI — Gemini 2.5 Flash
Ensuite, téléverse l’image de référence et définis le prompt.
Exemple : je veux passer d’une scène en plein jour à une scène au coucher du soleil.
Prompt : change the scene to sunset

C’est tout.
Tu peux jouer avec les options avancées : format d’image, ratio, etc.
Clique sur Generate et attends que l’image soit rendue à droite de l’écran.
Exemple de résultat
Comparaison avant / après
Franchement top.
Les détails en arrière-plan restent les mêmes.
Seuls le ciel et le schéma de couleurs global ont changé.
J’adore aussi comment le modèle a ajoutées aurores boréales.
Essayons maintenant un cas multi-références
Supposons que je veuille faire porter virtuellement un sac à un mannequin humain.
Il suffit d’importer les deux images et de demander à nano-banana de les fusionner.
Prompt : make the female model wear the bag


Manipulation dans Flux Labs AI
Parfait. Le modèle est assez intelligent pour ajuster le vêtement au sujet.
C’est tellement fluide que tu ne saurais même pas que c’est généré par IA.
Voici les images d’entrée et de sortie en pleine résolution
Ça peut être super utile pour les marques ou les créateurs de contenu dans le secteur de la mode.
Est-ce que ça va tuer les startups qui proposent des outils de try-on virtuel ?
Probablement.
Ce que tu peux faire avec
Voici les principales choses que j’ai testées ou vues :
Conserver le sujet
Tu peux changer de tenue, de coiffure, d’environnement, le visage reste le même.Fusionner plusieurs photos
Mets une photo de ton chien à côté de la tienne, et fais comme si vous jouiez au basket ensemble.Éditions en plusieurs étapes
Ne fais pas tout d’un coup. Peins d’abord le mur, puis ajoute un canapé, puis une table basse. Il se souvient.Mix de design
Prends la couleur des pétales d’une fleur et applique-la sur une robe. Ou fais des chaussures avec des ailes de papillon.
Bizarre ? Oui. Fun ? Aussi oui.
Tout est basé sur des prompts, donc tu écris ou dis ce que tu veux, Gemini applique l’édition.
Tu itères ensuite.
J’ai remarqué que les prompts courts et spécifiques fonctionnent mieux.
Générateur d’images Nano-Banana
Voyons maintenant le générateur.
Va dans l’outil texte-vers-image de Flux Labs AI.
Définis :
ton prompt
le modèle : Gemini 2.5 Flash
le format d’image voulu
Exemple de prompt :
An action shot of a black lab swimming in an inground suburban swimming pool. The camera is placed meticulously on the water line, dividing the image in half, revealing both the dog's head above water holding a tennis ball in its mouth, and its paws paddling underwater.
Support nano-banana Flux Labs AI
L’image s’est générée en environ 10 secondes.
Résultat
Un point faible : nano-banana ne prend pas encore en charge les formats non carrés.
Intégration API Nano Banana
Techniquement, Google fournit un accès API,
mais d’après mon expérience, la documentation et les prix sont ultra flous.
Dans mes projets, je passe souvent directement par Fal AI ou Replicate.
Sur Fal
Tu peux trouver les derniers modèles sur la page d’accueil.
Dans l’onglet API, tu as des extraits de code.
Exemple d’appel API
import { fal } from "@fal-ai/client";
const result = await fal.subscribe("fal-ai/nano-banana/edit", {
input: {
prompt: "make a photo of the man driving the car down the california coastline",
image_urls: [
"https://storage.googleapis.com/falserverless/example_inputs/nano-banana-edit-input.png",
"https://storage.googleapis.com/falserverless/example_inputs/nano-banana-edit-input-2.png"
]
},
logs: true,
onQueueUpdate: (update) => {
if (update.status === "IN_PROGRESS") {
update.logs.map((log) => log.message).forEach(console.log);
}
},
});
console.log(result.data);
console.log(result.requestId);
Exemple d’entrée JSON
{
"prompt": "make the female model wear the reference clothes",
"image_urls": [
"https://v3.fal.media/files/penguin/9mCgXeNB79any8j2rl_q1_Screenshot%202025-08-27%20at%204.01.34%3FPM.png",
"https://v3.fal.media/files/lion/1MggiUZVVs9eIIm7NvBic_Screenshot%202025-08-27%20at%204.01.20%3FPM.png"
],
"num_images": 1
}
Exemple de sortie
{
"images": [
{
"url": "https://v3.fal.media/files/monkey/zky9yYCPeB92zCuKGS_bJ_output.png",
"content_type": "image/png",
"file_name": "output.png",
"file_size": 1614717,
"width": null,
"height": null
}
],
"description": ""
}
Quand je veux intégrer un nouveau modèle image à mes apps, j’utilise Cursor ou Warp pour me générer le code.
Je donne à Claude Sonnet un prompt du genre :
Dans src/app/(site)/ai-tools/image-generator, ajoute le modèle Gemini 2.5 Flash sous le modèle Imagen 4.
Quand Gemini 2.5 Flash est sélectionné, appelle une nouvelle API (nano-banana). Mets à jour le système de chargement d’image vers S3, la déduction de crédits, etc. Inspire-toi de l’implémentation existante.
Documentation API (extrait)
import { fal } from "@fal-ai/client";
const result = await fal.subscribe("fal-ai/nano-banana", {
input: {
prompt: "An action shot of a black lab swimming in an inground suburban swimming pool. ..."
},
logs: true,
onQueueUpdate: (update) => {
if (update.status === "IN_PROGRESS") {
update.logs.map((log) => log.message).forEach(console.log);
}
},
});
Derniers mots
Certains diront que ce n’est “qu’un autre modèle d’image”.
Je ne suis pas d’accord.
Nano Banana va plus loin.
Ces deux dernières années, j’ai bossé avec plein de modèles spécialisés :
Générer une image ? Un modèle.
L’éditer ? Un autre.
Try-on virtuel ? Encore un autre.
Réimaginer un personnage ? Faut un LoRA ou en entraîner un.
Bref, un outil par tâche.
Nano Banana casse ce schéma.
Il ne fait pas juste générer ou éditer : il fait les deux, et très bien.
Ça change ma manière de concevoir des apps.
Au lieu de relier 3 ou 4 modèles ensemble, je peux tout faire avec un seul.
Moins de code, moins cher, moins de migraines.
Ce modèle est aussi une menace pour pas mal de startups spécialisées :
try-on, retouche IA, entraînement de modèle, etc.
Avec Nano Banana dans Gemini, les services spécialisés paraissent moins nécessaires.
Je l’ai testé plusieurs fois.
Je comprends pourquoi il est n°1 sur LMArena.
Il est efficace. Et le prix est fou :
1 $ = 25 générations.
Qu'as-tu pensé de cette newsletter ? 🧠 |
Comment fonctionne l’éditeur d’image Nano-Banana