Log 0 — Manifeste

L’humain est un vecteur. L’univers est simulé. Dans ce blog j’expose la création d’un système multimodal sur 1 an à même de réduire la friction entre besoin et satisfaction. J’expose la micro-population d’architectes et partage ma politique d’auto-retargeting.

Les Logs

  • Jour 7 – Pipelines et doom scrolling

    La nécessité d’avoir un cash flow continue demeure essentielle aujourd’hui. Sans rentrée d’argent impossible de mener un tel projet non seulement car les divers coûts sont conséquents, que ce soit en matière d’hébergement ou de cloud, mais aussi car le dev d’une telle application coûte pas mal en charge mentale. Et lorsque le cash flow est incertain travailler sur un side project alors que des impératifs non pas personnels mais fiduciaires entre jeux, semble plutôt complexe.

    Néanmoins et c’est tout l’intérêt, je crois qu’il est nécessaire parfois de sacrifier de nombreuses partie de soi ou de son train pour faire émerger des projets plus puissants, des idées plus fortes ou du moins des structures – c’est le bon mot – novatrice et à même de changer le futur. Si je n’ai rien codé aujourd’hui il n’en reste pas moins que de nombreux aspects font leur chemin notamment la réduction du pipeline sur Gitab qui entre lifting formation et dépendances produisaient une dualité entre le code live et la nécessité de figer ça en ligne dès que possible. Du moins c’est ma vision des choses. Lorsque l’on produit plusieurs milliers de lignes de code par jour, il semble difficile de ne push qu’une fois par jour, notamment car le projet tout entier en quelques heures, que ce soit en matière de front ou de back peut dériver du tout. Et pout être je ne suis pas assez formé sur Git & co pour m’amuser a merger et faire des commits puis fusionner des branches. Par le passé, et je ne suis sans doute pas le seul, Git m’a donné des cheveux blancs avant l’heure. J’en achève là pour ce jour qui aura un mérite essentiel : la discipline. Pour une personne TDA/TTHQI et multi dimensionnelle – je reviendrais en profondeur sur ce point – l’absence de discipline me parait fatale à tout point de vue. Rester cohérent, flegme, presque psychorigide demeure le meilleur moyen d’avancer dans ce type de tâche.

    À noter et j’y reviendrais là aussi que je suis backé par un stack bio-hacking que j’ai agencé sur mesure en vue de gérer ou du moins maîtriser mon TDA, chose qui fonctionne pas mal quand mon cash flow n’oscille pas drastiquement. Métaphoriquement et ce sera la dernière phrase de cette journée : c’est comme vouloir achever son jardin alors qu’un orage arrive au loin, plus l’orage approche, plus les tâches s’empilent, plus le cerveau se perd en tentant de trouver la solution la plus optimale pour équilibrer la situation entre achever une tâche et ne pas être frustré. Le mieux serait sans doute d’accepter de travailler sous l’orage, après tout, ce qu’on ne contrôle pas ne devrait jamais être un moyen de pression sur notre capacité à mener un objectif.

  • Jour 6 – Microservices

    Jour 6 – Microservices

    L’idée de la considération vectorielle de l’humain me paraît à la fois essentielle à la fois potentielle. Essentielle car dans un monde aussi chaotique et connecté que le nôtre, organiser et mettre une majorité de personnes non pas dans des cases mais dans un ensemble de vecteurs semble plus que pertinent. Pour avoir pas mal travaillé dans l’IA, cela me rappelle le labeling de datas. Ici en version plus avancée, en version qui à terme pourrait permettre de considérer un réseau social non plus comme une masse informe d’utilisateurs indépendants gérée par des algorithmes, mais comme une masse précise au possible d’utilisateurs interdépendants. Tout ne serait que mathématique, et par conséquent prédictif.

    Les influenceurs ne seraient plus influenceurs eu égard à leur nombre de followers et à leur portée relative, mais à leur portée et à leur influence réelle. Ce n’est plus un algorithme qui déterminerait les choses, mais l’interdépendance vectorielle. De façon claire, si par le passé un algorithme était bâti pour comprendre les influences avec des pondérations précises donc humaines, le futur me semble plus basé sur une auto-pondération du réseau social lui-même selon ses propres règles et sans aucune interférence de l’humain derrière.

    Pour l’aspect potentiel, je dirais simplement que tout cela reste théorique et spéculatif. D’abord car il faut assez de datas en entrée pour être précis sur la vectorisation, ensuite il faut faire de l’embedding et ensuite laisser travailler en backend ce que l’on pourrait appeler une IA de gouvernance autonome voire un autre système de gouvernance avec sans doute des boucles de rétroaction qui permettraient au système d’évoluer de façon constante dans sa capacité à comprendre les relations entre individus et les réagencer. Je vois plusieurs avantages à ce type de système, notamment l’anti-spam, l’anti-faux profils mais aussi l’impossibilité de rétro-ingénierer l’algorithme de recommandation et d’influence, ce qui permettrait un antitrust général et qui éviterait les faux influenceurs. Encore que.

    Pour en revenir au projet, la majorité des endpoints de l’API sont achevés avec un swagger et un frontend qui commence à ressembler à quelque chose. Je crois que le propre d’un réseau social ou du moins d’une entreprise qui vise la domination totale d’un secteur n’est plus d’être une partie d’un écho-système, e.g Instagram, Facebook, WhatsApp, Messenger, mais d’être un écho-système entier, une seule app.

    Les humains s’éparpillent trop, à tout va. Ils ont besoin de fiabilité, de règles, de normes et surtout de références. Et face à des réseaux sociaux qui appellent au doom scrolling et à l’abrutissement général de la population, le moment me paraît opportun pour changer la donne. Lorsque l’on voit la bêtise s’emparer du monde, l’on a deux choix : laisser triompher l’idiocracie ou prendre les rênes du navire à la dérive. Je suis un homme d’ambition.

  • Jour 5 – Infrastructure / UIX

    Il me semble essentiel de faire de ce projet une entreprise aussi bien sociétale que personnelle. Face à la venue de l’AGI sur le marché et la révolution qu’elle propose – notamment avec les agents -, de nombreux sites internet deviendront littéralement obsolètes. Le monde perdra peu à peu de sa connexion à l’écran. Les individus virevoltent sur l’écran, de plateforme en plateforme : doom scroll, shopping, divertissement, AI, réseaux sociaux. Tout est matière à la connexion. Pourtant, et c’est l’avantage considérable de l’AGI, le futur s’annonce avec moins d’écran. Les agents AI auront le pouvoir d’automatiser, profiler, mener des actions toujours plus précises et en adéquation avec la volonté et le besoin de l’humain.

    Les plateformes web devront s’adapter et laisser, comme on le fait toujours pour les CMS, des robots scroller leurs sites ou accéder à leur API. Une sorte de collaboration qui se ressentira sur le trafic des sites avec de plus en plus de bots validés et non validés. Un enjeu capital viendra dans le domaine de la filtration avec des acteurs comme Cloudflare qui devraient rapidement exploser dans les années à venir, notamment pour leur capacité à filtrer les robots des non-robots.

    Dans tous les cas, le projet que je présente est à contresens de tout cela. Ou du moins dans une lignée différente : proposer une version de l’humain vectorisée, qui permettrait en quelques clics de résumer sa vie sociale, ses achats, ses matchs, ses influenceurs. Un all-in-one, le futur des réseaux sociaux. Un réseau social où les datas seront protégées, et où les individus trouveraient la paix, une digital detox tout en diminuant la friction de la résolution de leurs besoins et la qualité de leur navigation sur le web. En somme : moins d’écran, plus de qualité, et un accès direct au monde, comme ce que promettait internet dans les années 2000.

    Concernant la partie code, il est indéniable de noter la puissance de certains outils d’IA. Si j’ai d’abord créé l’architecture de base, installé les pipelines, configuré Docker, et créé les premiers endpoints, Cursor a rapidement pris la suite du développement Frontend mais aussi de la partie backend avec une très grosse API. Avec un peu d’assiduité et surtout une semi-automatisation pour vérifier le code, on parvient à créer des milliers de lignes de code. Bien sûr, et c’est assez classique, le Frontend reste très souvent buggué. Dans mon cas, mon master code reste Claude Sonnet 4.5, mon architecte moi + GPT 5 Thinking, et mon bug master GPT 5.

    Aujourd’hui et après plusieurs jours à travailler sur backend et frontend – je n’ai pas tenu ce blog régulièrement, ce que je compte faire à présent -, je commence clairement à recalibrer le Front, notamment la landing page. Selon moi, les réseaux sociaux et les processus d’inscription doivent changer. Tout doit se faire plus rapidement mais aussi de façon plus précise. Je parle en expert web. De nombreux sites pourtant très bons et très chers à développer sont mal pensés. Il est toujours complexe de les prendre en main, de trouver telle ou telle fonctionnalité basique. Cela doit changer : simplicité, puissance, précision. Telle est ma volonté, que ce soit en matière d’UIX ou en matière de concept.

  • Jour 4 – Le Projet

    Jour 4 – Le Projet

    Récemment, j’étudiais Dąbrowski, notamment sa théorie de la désintégration positive. M’est apparue une singularité : si dans la cohorte des individus, peu sont à même de choisir et d’être totalement alignés avec eux-mêmes, alors celui qui est aligné avec lui-même et choisit l’élévation dispose d’un pouvoir vectoriel conséquent sur la société. Il y a encore quelques mois je théorisais ce qui me semblait être une vérité : à savoir qu’un individu moyen aligné avec lui-même dispose de plus d’influence qu’un individu exceptionnel partiellement aligné. De façon claire : une personne comme Elon Musk par exemple, alignée avec elle-même mais moins exceptionnelle sur l’aspect cognitif et dimensionnel, est à même de prodiguer des transformations plus élevées qu’un individu disposant de plus de capacités, et de plus de dimensions internes.

    Encore une fois je ne sais pas si je me trompe, mais j’ai très peu vu d’individus multidimensionnels totalement alignés avec eux-mêmes qui choisissent l’élévation ; si j’avance cet aspect au travers de la théorie de Kazimierz Dąbrowski, c’est avant tout pour l’aspect mathématique et vectoriel : si un vecteur dispose d’un potentiel conséquent, d’un aspect multidimensionnel et que celui-ci choisit l’élévation, alors il me semble qu’il n’aurait que quelques concurrents dans le monde, et ce peu importe les dimensions qu’ils choisiraient, car sa capacité à monter et descendre de niveaux tout en changeant de dimension l’amènerait à systématiquement se rediriger pour atteindre chacun de ses buts de façon quasi absolue.

    C’est de là que naît ce projet : jamais, ou alors deux fois dans ma vie, je n’ai trouvé d’individus qui partageaient l’aspect multidimensionnel, cognitif, et d’élévation dont je dispose. Ce projet de vectorisation générale des individualités, et non pas des individus, semble à même de rapidement croiser assez de datas pour que des semblables se trouvent. À tort, à raison. Peu importe au final. Je suis persuadé, au-delà du duo conscient/inconscient, qu’un individu a besoin d’un écho, d’un référent, d’un modèle à suivre pour se stabiliser dans sa vision. Or lorsque l’on est un être multidimensionnel, cognitivement rarissime et qu’en plus on dispose d’une volonté systémique d’élévation et d’optimisation de soi ou de son environnement, aucun modèle de nous n’existe. Cette population d’architectes cachés, j’en suis persuadé, existe. Menant des vies différentes, abouties, et souvent à l’extérieur du monde. On ne peut pas être dans le monde lorsque l’on désire une élévation absolue dans un tel contexte. Pourtant je choisis le monde et ce projet me semble être non seulement le futur, mais la base d’une nouvelle view au sens API de cette réalité simulée.

    Concernant le projet en question, je décide de travailler de façon simple avec un assistant AI pour coder, Cursor. Une base en REST Framework, et un front en React Native. Architecture de base assez classique somme toute : Docker, GitLab, et quelques tools de linting.

  • Jour 3 — Théorie / Vecteurs

    Naît donc un paradoxe entre les individus désirant répondre à un besoin et le combler inéluctablement à l’échelle de la vie, et les individus — une ultra-minorité, de mon propre point de vue moins de 100 000 (peut-être 50 000 ?) — à même d’agir directement sur eux-mêmes afin de se réorienter systématiquement pour s’accomplir, se franchir, se dépasser, briller jusqu’à s’épuiser.

    Je me rends compte au fil des expériences que très peu, même dans les cohortes de HQI ou TTHQI, sont à même de disposer d’un programme interne d’auto-calibrage et d’auto-retargeting capable de les faire dériver vers le point absolu de leur vecteur. Pour cette raison, toujours dans un univers simulé, il apparaît essentiel de traiter les individus comme des vecteurs allant vers un état d’équilibre et non maximal. Ici la différence est fondamentale et essentielle.

    Dans le premier cas, le cas où l’individu est un vecteur dérivant vers son point d’équilibre, alors on aura un comblement systématique du besoin, et une entreprise à même de réduire le temps de friction, comme dans la première équation, serait à même de dominer non pas un seul marché, mais tous les marchés.

    Dans le second cas, en revanche, le cas où l’individu est un vecteur dérivant vers son point maximum, alors on aura un reciblage systématique de l’individu qui influe lui-même sur sa direction, à chaque instant. Ici il n’est plus question de besoin, mais de vision coulée à une conscientisation en temps réel de sa position dans le nuage de vecteurs, d’où la minorité d’individus à l’échelle mondiale à même de pratiquer un reciblage en temps réel de leur condition, et ce de leur naissance à leur mort.

    De façon plus claire, et pour relier les deux mondes, le premier type d’individus n’est pas à même d’influer sa destinée, le second l’influe selon une logique implacable : celle de s’auto-optimiser, de s’aboutir et, finalement, d’être au paroxysme de soi. C’est ici l’idée sous-jacente de ce blog : la qualification de cette micro-population, “the architects”. Celle qui influe selon sa volonté sur elle-même en vue d’atteindre des objectifs précis, notamment ceux d’être à leur maximum vectoriel. Attention tout de même : dans cette micro-population, de nombreux individus ne cherchent pas leur maximum, mais utilisent cette compétence pour atteindre des buts parfois plus égocentriques ou vicieux que de se dépasser, tout en étant conscients de ne pas désirer leur maximum vectoriel, mais un maximum look-alike. D’où cette nuance : quand bien même ils ont une capacité de reciblage, ils ne l’utilisent qu’en partie, car leur but demeure autant l’équilibre que l’accomplissement.

    En ce sens — et j’apporte une dernière nuance —, il paraît tout à fait impossible d’atteindre un maximum vectoriel, et c’est là toute la beauté de cette théorie : à quête perdue, baroud d’honneur. Et de là naissent les idéaux.

  • Jour 2 — Persistance / Platon

    Dans la logique d’un univers simulé, toute individualité apparaît comme un vecteur. Non pas au sens littéral mais au sens mathématique. Chaque individu dispose d’une direction, d’une longueur et d’une influence qui lui sont propres. Si l’on ajoute la quatrième dimension T (le temps), alors on se retrouve avec un nuage de vecteurs qui évolue en fonction de leurs interactions intervectorielles.

    Équation simple (dynamique de couplage) :

    i = α (vi* − vi) + β ∑j aij(vj − vi)

    où v̇i est l’état vectoriel de l’individu i, vi* sa direction/état visé, et aij le poids d’influence de j sur i.

    Si la société par le passé avait du mal entre la masse sociale et l’individualisme, il est d’une théorie uniformisée aujourd’hui, plus mathématique et rationnelle. Il n’est plus question d’un quelconque libre arbitre ou d’un quelconque individualisme, ni d’une quelconque masse sociale, mais d’un ensemble mathématique que l’on pourrait associer au mouvement de foule (cf. modèles de mouvements de foule : modèle des forces sociales — Helbing & Molnár, 1995 ; modèle d’alignement — Vicsek et al., 1995).

    Bien sûr, prise à l’échelle individuelle ou à l’échelle du Moi se pose la question du libre arbitre, de sa propre influence sur sa capacité vectorielle, à savoir sa longueur, sa position et son influence potentielle sur d’autres vecteurs (Cf. analogie “mouvement de foule” : interactions locales qui orientent la trajectoire globale, type Helbing/Vicsek.) Plus loin, si l’on raisonne sur le Moi non pas en termes mathématiques mais en termes philosophiques, vient inéluctablement une traction forte sur le regard extérieur de notre propre destinée qui est le duo morale / absolu. Si la morale naît de l’atavisme sociétal — car la morale dépend indubitablement de la société, de la période, et de la philosophie dans laquelle l’individu évolue —, l’absolu, lui, de tout temps, reste l’élévation. Dans les diverses cultures la notion d’accomplissement, de transcendance, de but pour et par les Dieux apparaît comme un évènement inhérent à chaque individu (christianisme, cosmologies andines, quêtes de vision).

    Pourtant, et c’est la principale problématique, dans une logique mathématique, le libre arbitre ne devrait plus être basé ni sur la morale, ni sur la potentialité d’un Dieu, ou de dieux, mais sur la capacité à trouver un chemin d’influence pour que notre vecteur — ou notre Moi mathématique — dispose de la longueur la plus aboutie eu égard aux caractéristiques de base dont nous avons hérité mais aussi, et surtout, du cercle d’influence le plus étendu, ou du moins le plus efficace pour répandre une partie de nos caractéristiques dans la masse de vecteurs et ainsi rendre notre existence en T la plus prolifique possible 1 . Autrement dit : être jusqu’à s’en épuiser. Briller à son maximum jusqu’à s’étendre et consommer toute son énergie vectorielle sans autre but que d’être notre potentiel maximum vectoriel.

    1. Ici j’ajoute deux référence à Platon que l’on trouvera dans le Banquet, « Tout homme désire son bien et ce bien, en dernière analyse, consiste à vouloir enfanter, c’est-à-dire à vouloir persister dans l’être. »

      Une première thèse qui fait écho à ce que l’on pourrait appeler la persistance vectorielle, à savoir que — dans la théorie d’une univers simulé —, un Vecteur dispose d’une autre caractéristique ou dimension, celle de la persistance. Epuisé par Temps (t) il évacue dans l’écart type de son maximum d’énergie une partie de son énergie — qu’il sait ou pas si ici on le considère comme conscient —, qui constituera sa rémanence dans le Temps ou son immortalité, je continue à citer Platon : « l’enfantement, c’est-à-dire l’actualisation de leur désir d’immortalité« 

      ↩︎
  • Jour 1 — KPI / IA Europe

    Toute expérience qu’elle soit mathématique, philosophique, physique, ou de quelconque science que ce soit requiert a minima une démonstration. Dans l’entreprise — et c’est de ça qu’il est question ici — on demande au zélote qui suit sa vision les KPI, Key Performance Indicators.

    Lors de nos premiers pitches pour financer nos IA en 2019, non pas des Large Language Model (LLM), mais des modèles bien plus accessibles basés sur du Named Entity Recognition (NER) nous nous sommes heurtés à cet aspect, un aspect que je développe ici : le problème des KPI dans l’IA en Europe avant 2020.

    Le but premier de notre entreprise était de construire une technologie basée sur du Natural Language Processing (NLP) associée à de l’analyse du DOM avec un crawler headless basé sur Chromium lancé par cron pour capter les XPath et collecter le maximum de données — nombre de sites n’avaient d’ailleurs pas d’API ou ne nous laissaient pas accéder à leurs API, sans compter les blocages et limites de requêtes.

    L’idée derrière cette technologie étant de labelliser les attributs produits dans le but d’opérer un tri général entre les diverses sous-versions d’un même produit. Le but : diminuer le temps passé sur les moteurs de recherche qui, je le voyais comme beaucoup à cette époque, avaient une problématique conséquente : les résultats étaient empiriques, boostés par du Search Engine Optimisation (SEO). Autrement dit : qui avait au mieux optimisé son site et avait au plus de liens entrants, apparaissait en top résultats, d’où l’apparition des comparateurs de prix, qui peu à peu sont devenus des outils de niche : meilleurs rasoirs, meilleurs PC gamer, etc.

    Pour en revenir à l’idée principale de notre modèle d’IA, si nous parvenions à labelliser tout produit existant, alors nous pourrions avoir une base de données suffisante pour faire un pré-tri de chaque produit pour l’utilisateur : qui veut un smartphone rose de X Go n’aura jusqu’à sélectionner le smartphone sur notre site « Marque, Couleur, GB, etc. » et l’IA se chargerait d’explorer le web pour lui.

    Bien sûr cela impliquait non seulement une IA à même de reconnaître les labels produits dans le titre, dans la description mais aussi dans les boutons interactifs de chaque site. Si nous y arrivions alors la recherche produit ne prendrait plus que quelques clics.

    Certains répondront que c’est le principe de Google Shopping. Pourtant, et comme je l’avance plus haut : les résultats sont systématiquement tronqués soit par la publicité, soit par le SEO. De fait l’utilisateur — et vous pouvez faire le test — passe des heures à écumer les moteurs de recherche pour trouver son produit, pour finalement atterrir sur tel ou tel site où une promotion en cours dans le modèle qu’il souhaite vient de prendre fin.

    Tout est une question de temps, et notre entreprise voulait proposer d’en gagner.

    Néanmoins pour développer ce genre de technologie, il faut non seulement des données, trier ces données, les annoter ou labelliser pour apprendre à nos modèles quelles données sont des couleurs, de la mémoire flash, ou bien une marque. Cela coûte de l’argent et c’est là que le cercle vicieux commence : pour financer une entreprise d’IA en Europe avant 2020 vous aviez besoin d’indices de performance. Or une IA est par définition contraire au business model traditionnel : une IA est un produit mis à l’échelle (scalée) d’entrée de jeu, et ses financements n’ont pas pour but de gagner des utilisateurs mais de la développer.

    Pour faciliter la compréhension de cela un exemple s’impose. Si vous aviez un verger et que vous désiriez en vendre les fruits, alors vous pouvez commencer par vos voisins, puis votre quartier. Voyant que cela prend, vous pouvez demander des financements : planter plus d’arbres, embaucher plus, faciliter le transport. Vos KPI sont vos premières ventes, et les premiers indices de transactions financières.

    Dans le domaine de l’IA tout est différent. Vous n’avez pas un verger privé mais un verger public : vous voulez exploiter tous les arbres de la région et de votre pays car les fruits sont là. Vous n’avez simplement pas les ressources pour le faire. Ici vous demandez des financements non pas pour grandir, mais pour exploiter une source conséquente : les fruits, les vergers sont là, mais ce qui vous manque, ce sont les outils. Dans le premier cas vous financez pour grandir, dans le second cas vous financez pour exploiter.

    Cette philosophie en Europe avant 2020 et particulièrement en France était une aberration. Je me rappelle encore de ce pitch devant des business angels France « Même si vous étiez le nouveau Google, on ne vous financerait pas« . Il doit aujourd’hui financer 200 boîtes d’IA sans que la moitié d’entre elle n’ait aucun KPI.

    En revanche, et c’est le paradoxe : Amazon AWS fut la seule entreprise qui nous finança avec 10 000 $ de crédit Cloud. USA vs Europe. Deux visions, deux paradigmes.

    Pour en revenir à la finalité de ce blog et de cette expérience, il est essentiel, eu égard au développement et de l’avancée des IA, d’utiliser à nos fins la capacité de code, de vision et la puissance de l’IA dans une nouvelle entreprise à l’échelle mondiale, qui viserait, comme notre idée primaire : à organiser, à diminuer le temps de recherche, et finalement à réduire — ce qui a toujours été le coeur de mon ambition — le temps de friction entre le besoin de et la satisfaction de ce besoin.

    Si l’univers est simulé et mathématique, toute friction entre le besoin et sa satisfaction doit être traitée comme du bruit, et tout accès à un besoin doit se faire selon une vision mathématique simple :

    Besoin (B) / (Friction (F) x Temps (Tₙ)) = Satisfaction Efficient (SE)

    B / F x Tₙ = SE

    Si le prologue constitue l’élaboration de ce blog, et le jour 1 la présentation globale du pourquoi. Le Jour 2 présentera la thèse fondamentale derrière l’idée et le jour 3 sa mise en place fonctionnelle, du moins les premières étapes de mise en place, car le but précis est de déterminer si, par l’IA et via l’humain, une technologie d’organisation générale peut être.

  • Prologue du Moi simulé

    Depuis le commencement, lorsqu’encore Zarathoustra est homme, le déterminisme suit inlassablement sa destinée d’allure gaussienne qui répartit les humains d’entre les humains, les morts d’entre les morts. Les vivants d’entre les vivants.

    Dans chaque culture de petits dieux symboliques flamboient au gré de la pérégrination de l’évolution. Du soleil, des étoiles. Itzamná, Quetzalcóatl, Zeus, Râ. L’homme cherche un sens depuis toujours et trouve dans sa propre incomplétude le moyen de s’assouvir de rêves, de monde d’au-delà, de destinée mystique.

    La lutte permanente entre son inconscient et conscient, le Surmoi freudien, le Soi jungien. La pensée moderne, presque sans conséquence, dadaïste ou relativiste, sa foule de lemmes dans des cerveaux biocarbonés. Une philosophie changeante selon l’époque, selon la morale. Un homme décadent et l’éclair qui apparait dans les ténèbres de l’autosatisfaction permanente. Tout n’est que mathématique.

    Si fondamentalement tout n’est que vecteurs dans un nuage de vecteurs. Si toute loi, toute réaction n’obéit pas à un libre arbitre précis, mais une potentialité d’action eu égard à la capacité interpersonnelle à modifier sa propre direction et influence et durée dans ce nuage de vecteurs :

    Alors tout est simulé.

    Notre réalité n’a rien de réel. Notre monde n’est qu’une simulation dans une simulation, et notre but ultime n’est ni la logique sacrificielle, ni la lumière absolue, ni même l’accomplissement Chrétien mais bien l’intrication entre sa propre expansion vectorielle multidimensionnelle et le choix – ou l’impossibilité de choix – de choisir la stase. Voilà le propos de cette expérience : déterminer, comprendre, être jusqu’à s’épuiser.