Il me semble essentiel de faire de ce projet une entreprise aussi bien sociétale que personnelle. Face à la venue de l’AGI sur le marché et la révolution qu’elle propose – notamment avec les agents -, de nombreux sites internet deviendront littéralement obsolètes. Le monde perdra peu à peu de sa connexion à l’écran. Les individus virevoltent sur l’écran, de plateforme en plateforme : doom scroll, shopping, divertissement, AI, réseaux sociaux. Tout est matière à la connexion. Pourtant, et c’est l’avantage considérable de l’AGI, le futur s’annonce avec moins d’écran. Les agents AI auront le pouvoir d’automatiser, profiler, mener des actions toujours plus précises et en adéquation avec la volonté et le besoin de l’humain.
Les plateformes web devront s’adapter et laisser, comme on le fait toujours pour les CMS, des robots scroller leurs sites ou accéder à leur API. Une sorte de collaboration qui se ressentira sur le trafic des sites avec de plus en plus de bots validés et non validés. Un enjeu capital viendra dans le domaine de la filtration avec des acteurs comme Cloudflare qui devraient rapidement exploser dans les années à venir, notamment pour leur capacité à filtrer les robots des non-robots.
Dans tous les cas, le projet que je présente est à contresens de tout cela. Ou du moins dans une lignée différente : proposer une version de l’humain vectorisée, qui permettrait en quelques clics de résumer sa vie sociale, ses achats, ses matchs, ses influenceurs. Un all-in-one, le futur des réseaux sociaux. Un réseau social où les datas seront protégées, et où les individus trouveraient la paix, une digital detox tout en diminuant la friction de la résolution de leurs besoins et la qualité de leur navigation sur le web. En somme : moins d’écran, plus de qualité, et un accès direct au monde, comme ce que promettait internet dans les années 2000.
Concernant la partie code, il est indéniable de noter la puissance de certains outils d’IA. Si j’ai d’abord créé l’architecture de base, installé les pipelines, configuré Docker, et créé les premiers endpoints, Cursor a rapidement pris la suite du développement Frontend mais aussi de la partie backend avec une très grosse API. Avec un peu d’assiduité et surtout une semi-automatisation pour vérifier le code, on parvient à créer des milliers de lignes de code. Bien sûr, et c’est assez classique, le Frontend reste très souvent buggué. Dans mon cas, mon master code reste Claude Sonnet 4.5, mon architecte moi + GPT 5 Thinking, et mon bug master GPT 5.
Aujourd’hui et après plusieurs jours à travailler sur backend et frontend – je n’ai pas tenu ce blog régulièrement, ce que je compte faire à présent -, je commence clairement à recalibrer le Front, notamment la landing page. Selon moi, les réseaux sociaux et les processus d’inscription doivent changer. Tout doit se faire plus rapidement mais aussi de façon plus précise. Je parle en expert web. De nombreux sites pourtant très bons et très chers à développer sont mal pensés. Il est toujours complexe de les prendre en main, de trouver telle ou telle fonctionnalité basique. Cela doit changer : simplicité, puissance, précision. Telle est ma volonté, que ce soit en matière d’UIX ou en matière de concept.
Laisser un commentaire