Analyse des smart grids – par Jacques Fradin

smart grid

ANALYSE DES RÉSEAUX INTELLIGENTS

Analyse techno-scientifique ou techno-économique des réseaux (dits) intelligents, ou smart grids (SG).

Plan de l’intervention :

1– De la technique (des réseaux) à l’économie (des interrelations ou interconnections).

Les SG sont organisés pour porter le schéma (néoclassique) de la planification par le marché. Ce sont des éléments de cette planification. Pour laquelle les éléments périphériques (“décentralisés”) sont traités comme des éléments marchands (marchés automatiques). SG et marchés.

2– Le projet néoclassique des SG (concrétisé par les oligopoles de l’énergie électrique, production et distribution).

Les néomarchés portés par les SG dérivent des travaux de l’École de Toulouse (Toulouse School of Economics, TSE), Laffont et Tirole.

Ici renvoi au 9ème épisode des causeries Qu’est-ce que l’économie ?, Lundi Matin, lundi.am, épisode consacré à l’École de Toulouse, École caractéristique du libéralisme constructiviste ou néolibéralisme et dont le projet est de déployer une doctrine complète de la planification par le marché. Comme introduction à cette doctrine : Claude PONDAVEN, Économie des décisions publiques, décentralisation, déréglementation, Vuibert, En particulier :

Chapitre I : stratégie de décentralisation, section 3 : fondement des procédures de décentralisation informative ;

Chapitre II : méthodologie des procédures de décentralisation informative ;

Chapitre IV : indicateurs de succès et correction des défaillances incitatives.

Sur l’analyse de détail des néomarchés (élaborés par la TSE) intégrés aux SG : Jean-Pierre Hansen et Jacques Percebois, Énergie, Économie et politiques, La nouvelle économie de l’énergie, analyses, marchés, politiques, de Boeck (ouvrage déjà utilisé, comprenant un avant-propos de J. Tirole, en plus de la préface de M. Boiteux) ; En particulier, Chapitre 2 : microéconomie et marchés de l’énergie, Annexe : caractéristiques des principales formes de marché.

Nous avons indiqué (dans d’autres notes sur la cybernétique) que le projet des SG (avec marchés intégrés) dérive des débats des années 1930-1950 sur la planification par le marché. Où se place l’origine économique de la cybernétique.

Pour bien comprendre les effets actuels de ce vieux débat, mais repris par la TSE depuis (au moins) 1990 – et je saute les intermédiaires – il faut se placer du point de vue de von Neumann.

La cybernétique que nous envisageons, en arrière-plan, est celle de von Neumann (pas celle de Wiener). Le problème de la calculabilité ou de la planification effective dérive des conceptions de von Neumann (sur les automates, sur les ordinateurs, sur les jeux de stratégie, etc.). C’est la cybernétique (ou l’économique) du point de vue de von Neumann qui domine actuellement, comme support de la théorie néoclassique des marchés (dans la TSE).

Références générales :

Loi NOME (cf. article Wikipédia) Loi 2010-1488 du 7 décembre 2010, portant organisation du marché de l’électricité. (NOME = nouvelle organisation du marché de l’électricité). Loi BROTTES (du député PS pantouflard François Brottes) Loi 2013-312 du 15 avril 2013 Loi préparée par François Brottes, politocard PS au service des industries de réseau (la fibre filiale !) comme RTE, réseau de l’intelligence électrique, ou ERDF ou les opérateurs d’effacement. Loi visant à préparer la transition vers un système énergétique sobre (capitalisme verdi) et utilisant l’arme tarifaire, portant décisions tarifaires.

Le Titre I, emblématique de la loi, établissant un “Bonus-Malus sur les consommations domestiques d’énergie” a été censuré par le Conseil Constitutionnel (car introduisant des différenciations injustifiables – les pauvres devant plus payer, parce qu’incapables de financer les opérations de transition les concernant, comme l’achat de systèmes de chauffage sobres, pompes à chaleur ou autres – notons que tous les “systèmes sobres” consomment de l’électricité ; mais que l’électricité est considérée globalement (nucléaire) comme « propre »).

La question technique du système CPL (courant porteur de ligne). L’information peut être transmise par les lignes électriques, moyenne tension et basse tension. Le système de circulation de l’information sur les lignes électriques se nomme système CPL. C’est le système CPL G3 qui est la base du système Linky de transfert d’informations. Pour les lignes de haute tension, il faut un réseau parallèle (comme le téléphone pour les chemins de fer) situé sur les installations de transport.

RTE possède une filiale ARTERIA qui déploie des fibres optiques le long des lignes HT et THT (comme les fibres optiques le long des autoroutes). ARTERIA est présentée comme une entreprise innovante de développement du numérique grâce et par le réseau électrique, entreprise qui serait au service de la transition énergétique dont RTE se promeut le fer de lance (et Brottes avec !). Il y a un lien incestuel entre le PS et la théorie néoclassique (des ingénieurs). L’École de Toulouse TSE (Laffont, Tirole, renvoi à Jospin) a beaucoup travaillé sur la tarification (voir note sur Boiteux) en particulier électrique. Rappelons un point essentiel (largement développé dans d’autres notes) : la théorie néoclassique est la doctrine (ésotérique) du néolibéralisme et de son projet de conformation des sujets économiques (renvoi à Tirole et à la théorie des incitations).

Répétons : dans l’économie ce qui est essentiel n’est pas la production des biens, mais la fabrication politique des agents bien disciplinés.

Sans de tels agents (cyborgs) la production est impossible (reprendre l’analyse économique classique du « sous-développement », due, par exemple à l’absence d’agents entreprenants).

Qu’est-ce qu’un agent économique conforme ?

Un homo oeconomicus ou du capital humain bien géré ?

Une face “rationnelle” calculatrice rapace et une face “obscène” (son envers obscène) où s’exprime la guerre coloniale sans pitié.

Donnons quelques exemples de « capital humain bien géré », donc de milliardaires : Bernard TAPIE, Vincent BOLLORÉ, Patrick DRAHI (Numéricâble), Xavier NIEL (Free), etc., et François BROTTES ! Les tycoons sont les héros de l’économie. Notons que la loi NOME (sur la tarification électrique1) a été préparée par la commission CHAMPSAUR dont était membre François Brottes. Renvoyons aux articles de Wikipédia sur la loi Brottes et sur François Brottes, politocard de l’énergie électrique (et nucléaire) devenu grand serviteur des oligopoles de l’énergie électrique, Brottes ayant été nommé à RTE par copinage et pantouflage (le royaume de collusion). Paul Champsaur, quant à lui, est le prototype de l’ingénieur polytechnicien néoclassique PS.

1– De la technique (des réseaux) à l’économie (des interrelations ou interconnections).

Référence générale pour ce point1 :

Smart Grids, Au-delà du concept, comment rendre les réseaux plus intelligents ? Livre coordonné par Gilles Guerassimoff et Nadia Maïzi, Mines Paris Tech, Presses de l’École des Mines, 2013, collection développement durable.

A– Partons d’une définition simple des SG.

Il s’agit d’un système constitué par des réseaux électriques auxquels se superposent des réseaux informatiques au moyen de la technique CPL (matérialisant la fusion technique économique).

La finalité est d’intégrer les énergies renouvelables intermittentes (éolien et solaire photovoltaïque) et les nouveaux usages de l’électricité (voiture électrique) en limitant au maximum les investissements de renforcement des réseaux existants. Nous sommes face à un problème typique de recherche opérationnelle (RO), élément dérivé de la planification. Il s’agit donc d’une optimisation : comme internet qui utilise le réseau téléphonique ou comme le TGV qui peut utiliser le réseau ferré ancien (contrairement à la solution de l’aérotrain, beaucoup plus “performante” techniquement [plus de 600km/h], mais solution économiquement rendue impossible par la lourdeur des investissements d’infrastructures nouvelles).

Pour cette optimisation, les distributeurs développent de « l’intelligence » sur le réseau existant, en y associant des capteurs, des compteurs communicants, une chaîne de transmission d’informations renforcée, des analyses instantanées « en temps réel » de divers paramètres (techniques et économiques), des logiciels de décision et des automatismes télécommandés (télé programmés).

Bref, encore, de la belle planification. Car nous trouvons là tous les éléments de ce qui se nomme planification.

B– Quelles sont les fonctions des SG ?

La propagande parle d’abord de l’intégration « massive » des sources d’énergie renouvelables ; mais on sait que ce « massif » représente une part très faible de la production (surtout si la consommation continue de croître « massivement » — renvoi au gaz de schiste américain).  Plus franco-français est la défense de notre champion national, l’industrie automobile, dont le gouvernement favorise la conversion vers le tout électrique (contrairement à l’hybride japonais). Les SG sont censés apporter leur contribution au développement des véhicules électriques et des infrastructures de chargement. Arrive alors le point central, l’établissement de nouveaux marchés ou de nouveaux mécanismes de marché.

Les SG permettent la mise en place de leviers économiques permettant l’optimisation de l’exploitation du réseau2, tels que : écrêtement, effacement, délestages sans que le client ne soit consulté (pour donner une priorité au chargement des voitures électriques, par exemple). Ces leviers économiques sont introduits par la loi BROTTES du 15 avril 2013. Loi 2013-312 visant à préparer la transition vers un système énergétique sobre ET portant dispositions sur la tarification (les fameux leviers économiques, taper au porte-monnaie). L’article 14 porte sur l’effacement de la consommation d’électricité et la contribution des opérateurs d’effacement3 aux objectifs de la politique énergétique.

Les opérateurs de distribution (RTE, ERDF, etc.), DSO distribution system operators, sont placés au centre des systèmes (maintenant intelligents – pour qui ??) de planification. Les DSO doivent rendre leurs réseaux plus actifs et plus réactifs, proactifs, pour obtenir un pilotage dynamique. Les SG sont organisés pour une gestion dynamique du réseau (avec des modèles de programmation dynamique).

Cette gestion dynamique va utiliser des capteurs (« compteurs intelligents ») et des dispositifs de communication pour transférer en temps réel les informations de gestion vers les centres de pilotage (ce que l’on nomme planification décentralisée, two levels planning).

Les projets pour les SG ou les analyses fonctionnelles de ces SG ont été réalisés par des organismes européens, tels que la Task Force for Smart Grids de la Commission ou des services des opérateurs DSO eux-mêmes. La Commission Européenne décrit parfaitement les fonctions des SG comme des fonctions de planification au moyen de néomarchés intégrés (comme les Two Sided Markets de Tirole).

Et le déploiement des capteurs, des compteurs intelligents, tient une place essentielle dans cette planification : celle de la collecte des données, celle de l’analyse des données (par les centralisateurs), celle de l’intervention instantanée (les compteurs intelligents permettent l’effacement automatique préprogrammé). Les consommateurs seront étudiés, suivis, poursuivis, et « guidés », redressés pour obtenir une modification des profils de leur consommation. Il s’agit d’un système de pilotage des actions, comme tout système de planification ou de marché, agissant au moyen de pénalités financières (le fameux système Brottes des Bonus-Malus, la différenciation des tarifs et leur stratification par la loi NOME).

Les SG permettent une supervision des comportements.

La fonction centrale des SG est d’être des systèmes de contrôle de la demande (le maillon faible de toute planification).

Il s’agit donc de systèmes de transfert d’informations (systèmes cybernétiques ou économiques) vers les centres opérationnels des DSO (opérateurs de distribution). Il n’est pas question de réciprocité ; l’information est transférée à sens unique ; les instructions, comme l’effacement sans consultation, également.

La mesure ou le comptage est l’activité centrale des SG ou des DSO qui contrôlent les SG.

Répétons-le : les compteurs “intelligents” sont des outils clés pour le déploiement des SG. Ces compteurs capteurs font nécessairement partie de l’infrastructure essentielle du réseau. Du reste, la montée en puissance des systèmes de comptage (évidemment intelligents) est une priorité européenne. Cette priorité se concrétise par le troisième paquet énergie (directive relative aux services énergétiques). Selon cette directive, à transcrire nationalement, il sera exigé que les consommateurs soient équipés des compteurs (très) intelligents. Ces compteurs seront rendus obligatoires et imposés.

En effet, ces compteurs sont indispensables pour permettre aux néomarchés de l’énergie de fonctionner correctement. Ils permettent d’augmenter la capacité à agir à distance, d’améliorer l’analyse économique et la prévision, d’obtenir de meilleurs capacités d’observation et de contrôle (il s’agit d’un rêve soviétique !). La norme mondiale et européenne est celle des systèmes de mesure AMI (advanced metering infrastructure) combinée aux systèmes de gestion automatique AMM (automated measuring management).

Pour tout cela la technique CPL (courant porteur de ligne) s’est avérée fondamentale. Le CPL est une technique parfaitement adaptée lorsque le DSO (opérateur de distribution) est responsable de toute la chaîne de planification, de la mesure, du contrôle et de la surveillance. Le transfert des informations, l’activité économique, se superpose au transport de l’énergie PAR LES MÊMES canaux (mieux que le téléphone qui doublait le réseau ferré).

C– L’exemple du comptage intelligent LINKY.

Le projet Linky est un projet optimisé en stricte cohérence avec l’architecture économique des réseaux. Il se limite ainsi aux composants de communication compris entre le compteur (le périphérique) et le système central de gestion (le centre de planification).

Le système Linky comprend trois niveaux :

(a) Un système central d’orchestration programmation et de supervision ;

(b) Un système décentralisé, le compteur et son logiciel, le concentrateur et ses logiciels (la parie “décentralisée” est donc pilotée à distance) ;

(c) Un centre d’opération (NOC, Network Operation Center) qui assure la cohésion entre le centre de supervision et ses périphériques.

Tout cela pouvant être quasiment automatisé.

Le choix d’ERDF s’est porté sur la technique CPL de communication, bande CENELEC A, 5 à 95 KHz. Permettant l’utilisation des modems les plus performants.

Notons que cette bande de fréquence est réservée aux DSO. Nous avons un système de gestion centralisé au moyen d’une mesure automatique.

Ce système de gestion est mis en place au moyen d’un système tarifaire nommé TURPE, tarif d’utilisation des réseaux publics d’électricité. L’un des éléments centraux de cette planification dite décentralisée est la technique CPL G3. La communication CPL s’appuie sur un signal de plus haute fréquence et de plus faible énergie qui se superpose au courant électrique. La communication CPL peut utiliser directement les réseaux de moyenne et basse tension comme des supports de transmission. Pour la haute tension, il faut déployer un réseau parallèle (à l’ancienne). Renvoi à ARTERIA. Le signal CPL permet de transmettre toutes les informations utiles au DSO et sur l’ensemble du réseau.

Comme la qualité des câbles affecte la qualité de la communication CPL, une nouvelle technique CPL G3, insensible au câblage et donc performante et sûre quel que soit l’environnement matériel, a été mise au point et s’impose comme nouvelle norme.

Le système Linky de mesure et de contrôle est au service exclusif des DSO.

Permettant, par exemple, d’améliorer les décisions d’investissement. Mais plus fondamentalement, le système Linky est une pièce indispensable du marché de l’électricité. En particulier du Two Sided Market, développé par l’École de Toulouse.

D– SG, Linky et le marché.

Prenons l’exemple du Two Sided Market, TSM, Toulouse School Market.

Le TSM repose sur le développement de propositions de services différents à plusieurs parties et sur la valorisation des externalités positives existant entre chacune des parties. Par exemple, le service proposé par l’une des parties prenantes est l’occasion de valoriser des données comportementales auprès d’une autre partie (le flicage est rendu rentable). Ce modèle est, bien sûr, caractéristique des plates-formes de paiement par carte bancaire (pour lesquelles travaille la TSE) où le support de l’enregistrement des transactions est l’occasion de constituer une source de données comportementales de valeur, vendable à d’autres acteurs.

Ainsi le comptage Linky, en plus de son usage interne, serait le moyen d’une valorisation extérieure (vente des données comportementales enregistrées en masse). Les premiers services intéressés par ce marché des données seraient les assurances (pour contrôler les domiciles), les sociétés d’entretien électrique ainsi que les opérateurs télécom (pour les coupures ADSL). Le champ de ces services se nomme : smart building. Les clients seront engagés, contraints, de manière « active ». Leur engagement (pour l’optimisation) sera contrôlé par des systèmes d’incitation ; dont Tirole est le spécialiste (cf. le 9ème épisode des causeries Qu’est-ce que l’économie ? sur Lundi Matin).

2– Le projet néoclassique des SG.

Repartons directement du débat sur la planification par le marché. Et intéressons-nous uniquement à von Neumann.

Nous avons beaucoup développé ce thème dans d’autres notes (sur la cybernétique, par exemple) ; donc nous pourrons faire court. Il faut prendre le point de vue de von Neumann pour comprendre les réalisations (de la cybernétique économique) qui mènent des néomarchés néoclassiques aux smart grids.

Il y a quatre constructions de von Neumann qui ont été liées :

La calculabilité économique effective et donc la planification effective ;

La théorie des automates qui est une théorie des marchés mobilisés par la planification ;

L’architecture de calculateurs (computers ou ordinateurs) établie pour permettre la résolution du problème (gigantesque) du calcul des prix ;

La théorie des jeux, qui est en fait une méthode de résolution du problème de l’équilibre (de l’optimisation).

Du point de vue de von Neumann la cybernétique est identique à l’économique. C’est ce point de vue qui triomphe pour les néoclassiques américains (d’après-guerre). Centrons-nous sur la théorie des automates (de von Neumann) dont nous avons dit qu’il s’agissait d’une théorie des marchés calculables. La théorie des automates se présente comme l’analyse d’un processus liant des entités abstraites au moyen de flux d’informations. Ce processus est conçu comme étant auto-régulateur et en interaction avec son environnement. Quels sont les présupposés nécessaires pour que l’automate soit auto-régulateur ?

Les mêmes hypothèses que celles nécessaires pour le développement d’une architecture d’un calculateur digital. Quels sont les présupposés nécessaires pour qu’un tel automate puisse se redupliquer de lui-même et avec le même niveau de complexité ? Il faut que l’automate soit un automate probabiliste. Ce qui renvoie à la théorie des jeux.

Existe-t-il un automate universel qui peut reconstruire tout autre automate ? Oui, une machine de Turing modifiée.

Peut-on définir des régularités pour les méthodes de résistance à la dégradation entropique (au bruit) lors de l’auto-reproduction ?

Quelles sont les conditions de l’évolution d’un automate vers un automate de plus grande complexité opérationnelle ?

Qu’est-ce que la mesure de la complexité ?

Toutes ces questions et les réponses que Von Neumann y apporte sont à la source d’une théorie complète du marché comme automate programmable. La science informatique du calcul machinique permet la planification par le marché programmable. Cette techno-science a été structurée autour d’une hiérarchie évolutive d’automates (de marchés) de plus en plus puissants en termes de capacité de calcul.

Le marché machine est d’abord une machine à effectuer des calculs, soit dire l’analogue d’un computer.

La théorie de von Neumann de l’économie calculable ou de la planification effective est subordonnée à l’analyse formelle des capacités “psychologiques” de l’agent économique défini comme pièce (appareil de mesure) d’un calculateur (le marché), est subordonnée à l’analyse formelle du marché comme MACHINE fonctionnant sur la base d’agents réduits à être des CAPTEURS ou des compteurs ou des instruments de mesure.

Tous les objets de la théorie des automates (formant l’économie calculable planifiable) répondent à la question de la valeur : pourquoi l’économie est-elle quantitative ? Surtout lorsque l’on envisage la capacité mathématique limitée des agents de base (mais remplacés par des capteurs ou des instruments de mesure pilotés à distance).

Ou, comment sur la base d’une population inapte au calcul peut se développer un énorme système calculatoire opérationnel ?

La réponse de von Neumann est que des institutions économiques obligatoires seules permettent de répondre à la question de la calculabilité. Von Neumann dévoile l’aspect autoritaire de l’économie. Mais, également, peut être considéré comme un adepte de « l’ordo-libéralisme » (forme germanique du néolibéralisme). Ces fameuses institutions enforcées, rendues obligatoires (comme les néomarchés et leurs appareillages – Linky doit être obligatoire), ont une fonction algorithmique de mesure, de calcul, d’opérations.

C’est pourquoi le marché construit et imposé doit être pensé comme une machine à calculer qui pallie les déficiences humaines.

Les marchés sont des PROTHÈSES machiniques.

Et ces prothèses ont la capacité de se reproduire (auto-régulation, flexibilité) et d’évoluer vers des formes plus complexes. C’est la vision néoclassique du système économique envisagé comme une gigantesque machinerie. Une machine à calculer qui, sans arrêt, génère les solutions opérationnelles d’un flux sans fin de problèmes quantitatifs. Les marchés étant des machines opérationnelles, on peut en effectuer une classification en fonction de leurs procédures algorithmiques. Dans cette approche, il est possible de définir complétement les marchés par leurs capacités de calcul ou par leur complexité. C’est à partir de là que se développe l’analyse de la TSE, dont nous avons rencontré un exemple.

Le noyau du programme néoclassique est qu’il est possible de définir l’économie comme un supercalculateur programmable.

Et que cette programmation nécessite de discipliner les sujets pour qu’ils agissent comme des calculateurs. Le système des marchés est un système disciplinaire et un système de communication pour lequel l’information codée sous forme de valeur ou de prix est transmise à tous les agents qui ne peuvent agir qu’en fonction de cette information codée.

Tout autre comportement que celui du calcul est déviant.

1Ce thème de la tarification, de Dessus à Boiteux et à Tirole, parcourt l’ensemble des notes sur « l’énergie ».

2Les projections de consommation impliquent des charges accrues. Comme il n’est pas question de développer un nouveau réseau, sauf localement (nous retrouvons le cas internet ou du TGV), il devient nécessaire d’avoir une « gestion dynamique », par des leviers économiques, du réseau existant soumis à des contraintes de limite.

3Il est à bien noter que les fameux “opérateurs d’effacement”, qui devraient jouer un rôle central dans la constitution du néomarché, sont d’anciens ingénieurs d’EDF ou de RTE (qui se sont enrichis grâce aux procédures encadrant l’effacement). Nous avons l’analogue des privatisations post-soviétiques qui ont permis à un certain nombre de « copains » de devenir « oligarques ».

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>