Vue d’ensemble du web — carnet de bord de la V1

Promesse simple : tu tapes un mot-clé, l’outil récupère le Top 10 Google, exclut les domaines que tu ne veux pas voir (le tien, par exemple), scrape les pages, puis l’IA te rend un méta-résumé sourcé — une vue d’ensemble claire de ce que raconte le web.

Pourquoi j’ai construit ça

Je voulais arrêter de jongler entre 10 onglets, notes éparses et copier-coller. L’idée : un seul endroit qui me donne l’essentiel du sujet, propre et structuré, sans plagier et avec les sources citées.

Comment ça marche côté utilisateur

  • Tu saisis un mot-clé.

  • L’outil récupère le Top 10 Google.

  • Tu exclus certains domaines (le tien, ou d’autres).

  • Tu lances la récupération du contenu (le scraping).

  • Tu cliques sur “Générer la vue d’ensemble” et tu obtiens un méta-article structuré (titres, points clés, sources).

J’utilise SerpAPI pour la recherche (pratique : pas mal de recherches gratuites par mois) et OpenAI pour la synthèse.

Le gros écueil (tout-en-un) : bien formuler ce que j’attends de l’IA

Au début, le code généré par Claude était “pas mal”, mais il ne comprenait pas trop l'API de SerpAPI. Le vrai problème n’était pas Claude : c’était mon brief.

Ce que j’ai changé :

  • J’ai écrit des fiches de consignes (.brief-api-serpapi.md) qui expliquent précisément la documentation et résultat attendu (ressources, exemples de code, etc…).

  • Je réinjecte ces consignes à chaque fois que Claude commence à divaguer.

  • J’ai gardé le tout en Markdown pour que ce soit lisible, diffable, et réutilisable.

Moralité : un brief clair > un prompt “magique”. Donne à l’IA les règles du jeu, pas juste une intention floue.

Les autres obstacles (et ce que j’ai fait)

1) On ne voyait pas “où ça en est”

Regarder une roue qui tourne sans comprendre, c’est frustrant.
Solution : j’ai ajouté un suivi visuel par URL : en attente → scraping → terminé → erreur. On sait quoi bloque, , quand.

2) Le build qui casse pour une apostrophe (Vercel/npm)

Les apostrophes “fantaisie” ou des règles ESLint mal alignées peuvent casser le build au pire moment.
Solution : règles de lint/formatage plus strictes (quotes cohérentes, escape propre), et vigilance sur le contenu inséré (pas de guillemets “smart” copiés/collés depuis le web).

3) Clarté d’usage (crédits)

Je ne veux pas perdre l’utilisateur dans la micro-facturation.
Décision : 1 recherche complète = 1 crédit (au moment de la génération de la vue d’ensemble). C’est prévisible et compréhensible.

Le rôle de l’IA (là où elle est vraiment utile)

  • Synthétiser 10 pages en un plan lisible.

  • Citer les sources pour chaque point important (sans copier).

  • Harmoniser le ton et éviter les redites.

  • Respecter un format utile à la compréhension (titres, sections, idées par paragraphe).

Ce que tu vois aujourd’hui (V1 honnête)

  • Une interface simple en 3 onglets (Recherche → Récupération → Vue d’ensemble).

  • Le toggle d’exclusion par domaine.

  • Un prompt personnalisé optionnel si tu veux influencer la synthèse.

  • Un résultat en texte éditable que tu peux affiner ou copier.

Je ne suis pas encore fan de l’UX — c’est une V1. L’essentiel fonctionne, et c’est déjà utile au quotidien.

Ce que j’ai appris

  • Le brief fait la différence : une fiche Markdown claire change drastiquement la qualité du rendu.

  • Toujours montrer la progression : un simple statut par URL réduit l’incompréhension de 90 %.

  • Les linters protègent ton build : mieux vaut être strict que de déployer un projet cassé.

  • SerpAPI + OpenAI forment une base solide, tant qu’on cadre bien les attentes.

Et maintenant ?

Je garde cette V1 utile et stable, et je co-construis la V2 : si tu as des idées d’amélioration (export Markdown/MDX, cache par requête, dédup avancée, options de ton…), écris-moi

Conclusion

Cette V1 fait ce pour quoi elle existe : transformer un mot-clé en vue d’ensemble claire, et sourcée, sans se perdre dans dix onglets. Pas de magie : un brief net, une progression lisible, un résultat vérifiable.