IA

Retour d'expérience IA : j'ai codé un crawler de site web en 3 jours au lieu de 10

Antoine Frankart · Consultant product management, SEO local, et esports

Retour d'expérience IA : j'ai codé un crawler de site web en 3 jours au lieu de 10

On parle beaucoup d’IA et de "vibe coding", mais concrètement comment ça marche ?

Je vous partage le processus que j'ai utilisé pour créer une nouvelle fonctionnalité sur mon SaaS Begonia.pro, entièrement grâce à l'IA.

Je viens de développer un crawler et outil d’audit de site web orienté SEO local.

  • Avec l'IA : Cela m’a pris 3 jours (conception, design, code, debug).
  • Sans l'IA : Il m’aurait bien fallu 10 jours, notamment car je n'avais pas encore codé de crawler.
  • Coût : ~$15 de crédits IA dans mon IDE.

Voilà le détail de mes étapes de conception :

Etape 1 : Brainstorming & Specs

  • IA utilisées : Gemini 2.5 Pro et GPT5
  • Temps : 2h

L’idée de l’outil est simple : l’utilisateur renseigne son site web, mon outil le parcourt à la recherche de bonnes pratiques SEO ou d'erreurs, puis propose un rapport et des recommandations.

J'ai utilisé les IA pour brainstormer mes idées, écrire les specs fonctionnelles, choisir les librairies techniques et réfléchir à l'UX (pour des utilisateurs non-tech).

Cela m’a permis d’identifier 25 tests à faire pour l’audit local SEO d’un site web, séparés en 4 catégories :

  1. Visibilité sur Google
  2. Performance
  3. Contenu & Présentation
  4. Confiance & Crédibilité

Etape 2 : Base de données

  • IA utilisée : GPT5
  • Temps : < 1h

Je ne laisse pas l’IA coder directement, je préfère d’abord valider un schéma de base de données pour la fonctionnalité. Je lui ai montré mes specs et la base de données actuelle. L'IA a proposé les nouvelles tables, et on les a validées ensemble.

Etape 3 : Design

  • IA utilisée : Claude Sonnet 4.5
  • Temps : < 10min

Étape très simple : j'avais déjà un outil d'audit (de Google Business Profile) intégré à mon projet. Je voulais que l'IA reprenne exactement le design existant. J'ai briefé l'IA directement dans mon IDE.

Résultat bluffant : L'IA a copié les bons composants et reproduit l'interface à l'identique.

Etape 4 : Développement initial

  • IA utilisée : Claude Sonnet 4.5
  • Temps : < 20min

L'IA a généré le crawler et tous les tests d'un coup... enfin, c'est ce que je pensais. En réalité, une bonne moitié des tests étaient des coquilles vides ou très simples. C’est plus ma faute car je n'étais pas rentré dans le détail des specs. En tout cas, j’aurais passé des heures pour faire la même chose manuellement !

Etape 5 : Vérifications, debug et améliorations

  • IA utilisées : Claude Sonnet 4.5 et GPT5
  • Temps : 1,5 jours

Finalement, la grosse partie du travail est là : vérifier ce que l’IA a fait, ajouter les cas manquants, lui expliquer comment implémenter les tests plus compliqués.

Je me suis servi de GPT5 comme reviewer de code (il a tendance à sur-complexifier ; je demande ensuite à Claude Sonnet 4.5 d'implémenter un entre-deux). Il faut aussi gérer tout ce que l’IA a laissé de côté (traductions, gestion des erreurs, etc.).

Mais je n’ai presque pas codé : seulement écrit des prompts à l’IA en lui disant quoi changer et ajouter.

Conclusion

Utiliser plusieurs IA selon leurs forces est une bonne pratique que je fais de plus en plus. Faire vérifier le code d’une IA par une autre IA permet d'avoir un code plus robuste.

Le gain de temps des IA pour créer une nouvelle fonctionnalité est indéniable. C’est même magique !

Le principal problème : la (non) mémoire des IA. Claude Sonnet 4.5 oublie vite ce qu’il a codé avant. Il faut lui remontrer le code dont on parle. A voir s’il est possible d’améliorer ce point en lui faisant documenter ses actions ?

Je suis preneur de vos retours et idées pour améliorer mon processus !

Vous pouvez tester gratuitement et sans inscription mon outil d'audit SEO de site web pour entrepreneurs locaux.