• Disiz Yyov
  • Posts
  • Google a publié Nano-Banana : un nouveau modèle d’édition d’image

Google a publié Nano-Banana : un nouveau modèle d’édition d’image

Voici tout ce que tu sois savoir :

Google a publié Gemini 2.5 Flash (alias nano-banana), un nouveau modèle d’édition d’image qui donne aux utilisateurs plus de contrôle sur les modifications de photo dans Gemini.

Le nom officiel de ce nouveau modèle est Gemini 2.5 Flash Image, mais ce nom est ennuyeux.

Le surnom qui a fuité en ligne il y a quelques semaines sur LMArena est “nano-banana”, et je trouve ça plus amusant et avec un peu de caractère.

Donc oui, je vais l’appeler Nano Banana pour le reste de cet article.

La mise à jour est déjà disponible dans l’application Gemini pour les utilisateurs gratuits et payants.

Tu peux changer ta tenue, te déplacer dans un autre décor ou intégrer une photo d’animal, et le modèle essaie de garder le visage du sujet aussi cohérent que possible.

Qu’est-ce que Nano Banana ?

Nano-banana est le nouveau modèle d’édition d’image de Google DeepMind, arrivé discrètement avec un nom de code amusant et qui est soudainement devenu l’éditeur le mieux noté sur les tableaux de classement communautaires.

Après l’annonce officielle, nano-banana est maintenant identifié comme gemini-2.5-flash-image-preview (nano-banana) et reste en haut du classement avec un score de 1 362.

Classement de Gemini 2.5 Flash sur LMArena

En regardant le taux moyen de victoire contre tous les autres modèles d’image, nano-banana a le score le plus élevé : 0,855.

Taux de victoire moyen de Gemini 2.5 Flash sur LMArena

Nano-banana n’est pas juste un éditeur d’image.

C’est aussi un générateur d’image.

Mais dans ce post, je vais me concentrer sur la partie édition.

La grande fonctionnalité, ici, c’est la préservation de la ressemblance.

Fini d’avoir six versions légèrement différentes de toi-même avec des nez aléatoires et des yeux incohérents.

Les animaux et les humains se ressemblent toujours, même après avoir changé d’environnement, de tenue ou d’objets.

C’est ça, l’atout principal.

Côté coût

Par l’API, générer une image en 1024x1024 coûte environ 4 centimes.
Plus d'infos dans la section « Accès API ».

Comment fonctionne l’éditeur d’image Nano-Banana

Voici un exemple de fonctionnement de nano-banana.

D’abord, trouve une bonne plateforme pour tester le modèle. Tu peux y accéder via :

  • Gemini

  • Google Vertex AI

  • Google AI Studio

  • Flux Labs AI

Je vais te montrer un exemple avec l’outil d’édition d’image de Flux Labs AI, propulsé par nano-banana.

Flux Labs AI — Gemini 2.5 Flash

Ensuite, téléverse l’image de référence et définis le prompt.

Exemple : je veux passer d’une scène en plein jour à une scène au coucher du soleil.

Prompt : change the scene to sunset

C’est tout.

Tu peux jouer avec les options avancées : format d’image, ratio, etc.

Clique sur Generate et attends que l’image soit rendue à droite de l’écran.

Exemple de résultat

Comparaison avant / après

Franchement top.
Les détails en arrière-plan restent les mêmes.
Seuls le ciel et le schéma de couleurs global ont changé.

J’adore aussi comment le modèle a ajoutées aurores boréales.

Essayons maintenant un cas multi-références

Supposons que je veuille faire porter virtuellement un sac à un mannequin humain.

Il suffit d’importer les deux images et de demander à nano-banana de les fusionner.

Prompt : make the female model wear the bag

Manipulation dans Flux Labs AI

Parfait. Le modèle est assez intelligent pour ajuster le vêtement au sujet.

C’est tellement fluide que tu ne saurais même pas que c’est généré par IA.

Voici les images d’entrée et de sortie en pleine résolution

Ça peut être super utile pour les marques ou les créateurs de contenu dans le secteur de la mode.

Est-ce que ça va tuer les startups qui proposent des outils de try-on virtuel ?
Probablement.

Ce que tu peux faire avec

Voici les principales choses que j’ai testées ou vues :

  • Conserver le sujet
    Tu peux changer de tenue, de coiffure, d’environnement, le visage reste le même.

  • Fusionner plusieurs photos
    Mets une photo de ton chien à côté de la tienne, et fais comme si vous jouiez au basket ensemble.

  • Éditions en plusieurs étapes
    Ne fais pas tout d’un coup. Peins d’abord le mur, puis ajoute un canapé, puis une table basse. Il se souvient.

  • Mix de design
    Prends la couleur des pétales d’une fleur et applique-la sur une robe. Ou fais des chaussures avec des ailes de papillon.
    Bizarre ? Oui. Fun ? Aussi oui.

Tout est basé sur des prompts, donc tu écris ou dis ce que tu veux, Gemini applique l’édition.
Tu itères ensuite.

J’ai remarqué que les prompts courts et spécifiques fonctionnent mieux.

Générateur d’images Nano-Banana

Voyons maintenant le générateur.

Va dans l’outil texte-vers-image de Flux Labs AI.
Définis :

  • ton prompt

  • le modèle : Gemini 2.5 Flash

  • le format d’image voulu

Exemple de prompt :

An action shot of a black lab swimming in an inground suburban swimming pool. The camera is placed meticulously on the water line, dividing the image in half, revealing both the dog's head above water holding a tennis ball in its mouth, and its paws paddling underwater.

Support nano-banana Flux Labs AI

L’image s’est générée en environ 10 secondes.

Résultat

Un point faible : nano-banana ne prend pas encore en charge les formats non carrés.

Intégration API Nano Banana

Techniquement, Google fournit un accès API,
mais d’après mon expérience, la documentation et les prix sont ultra flous.

Dans mes projets, je passe souvent directement par Fal AI ou Replicate.

Sur Fal

Tu peux trouver les derniers modèles sur la page d’accueil.
Dans l’onglet API, tu as des extraits de code.

Exemple d’appel API

import { fal } from "@fal-ai/client";

const result = await fal.subscribe("fal-ai/nano-banana/edit", {
  input: {
    prompt: "make a photo of the man driving the car down the california coastline",
    image_urls: [
      "https://storage.googleapis.com/falserverless/example_inputs/nano-banana-edit-input.png",
      "https://storage.googleapis.com/falserverless/example_inputs/nano-banana-edit-input-2.png"
    ]
  },
  logs: true,
  onQueueUpdate: (update) => {
    if (update.status === "IN_PROGRESS") {
      update.logs.map((log) => log.message).forEach(console.log);
    }
  },
});

console.log(result.data);
console.log(result.requestId);

Exemple d’entrée JSON

{
  "prompt": "make the female model wear the reference clothes",
  "image_urls": [
    "https://v3.fal.media/files/penguin/9mCgXeNB79any8j2rl_q1_Screenshot%202025-08-27%20at%204.01.34%3FPM.png",
    "https://v3.fal.media/files/lion/1MggiUZVVs9eIIm7NvBic_Screenshot%202025-08-27%20at%204.01.20%3FPM.png"
  ],
  "num_images": 1
}

Exemple de sortie

{
  "images": [
    {
      "url": "https://v3.fal.media/files/monkey/zky9yYCPeB92zCuKGS_bJ_output.png",
      "content_type": "image/png",
      "file_name": "output.png",
      "file_size": 1614717,
      "width": null,
      "height": null
    }
  ],
  "description": ""
}

Quand je veux intégrer un nouveau modèle image à mes apps, j’utilise Cursor ou Warp pour me générer le code.

Je donne à Claude Sonnet un prompt du genre :

Dans src/app/(site)/ai-tools/image-generator, ajoute le modèle Gemini 2.5 Flash sous le modèle Imagen 4.

Quand Gemini 2.5 Flash est sélectionné, appelle une nouvelle API (nano-banana). Mets à jour le système de chargement d’image vers S3, la déduction de crédits, etc. Inspire-toi de l’implémentation existante.

Documentation API (extrait)

import { fal } from "@fal-ai/client";

const result = await fal.subscribe("fal-ai/nano-banana", {
  input: {
    prompt: "An action shot of a black lab swimming in an inground suburban swimming pool. ..."
  },
  logs: true,
  onQueueUpdate: (update) => {
    if (update.status === "IN_PROGRESS") {
      update.logs.map((log) => log.message).forEach(console.log);
    }
  },
});

Derniers mots

Certains diront que ce n’est “qu’un autre modèle d’image”.
Je ne suis pas d’accord.

Nano Banana va plus loin.

Ces deux dernières années, j’ai bossé avec plein de modèles spécialisés :

  • Générer une image ? Un modèle.

  • L’éditer ? Un autre.

  • Try-on virtuel ? Encore un autre.

  • Réimaginer un personnage ? Faut un LoRA ou en entraîner un.

Bref, un outil par tâche.

Nano Banana casse ce schéma.
Il ne fait pas juste générer ou éditer : il fait les deux, et très bien.

Ça change ma manière de concevoir des apps.

Au lieu de relier 3 ou 4 modèles ensemble, je peux tout faire avec un seul.
Moins de code, moins cher, moins de migraines.

Ce modèle est aussi une menace pour pas mal de startups spécialisées :
try-on, retouche IA, entraînement de modèle, etc.

Avec Nano Banana dans Gemini, les services spécialisés paraissent moins nécessaires.

Je l’ai testé plusieurs fois.
Je comprends pourquoi il est n°1 sur LMArena.
Il est efficace. Et le prix est fou :
1 $ = 25 générations.

Qu'as-tu pensé de cette newsletter ? 🧠

Connexion ou S'abonner pour participer aux sondages.

Reply

or to participate.