UP' Magazine Le magazine de l'innovation et de l'économie créative

Un espoir citoyen : l'économie sociale

"Il nous faut intégrer une communauté humaine qui se contente de peu mais produise de la joie". Pierre Rabhi.

Les 215 000 employeurs de l’ESS (Economie sociale et solidaire), à 76 % sous statut associatif, jouent d’ores et déjà un rôle essentiel dans notre pays, où ils comptent globalement 2,3 M de salariés et des légions de bénévoles.
L’avènement en 2012 d’un Ministère de l’Economie sociale donne un second souffle à ce secteur encore méconnu mais chargé d’espoir et où beaucoup reste encore à faire en matière de financement, de réglementation et de visibilité.
Ses principales composantes (mutuelles, coopératives, réseaux d’entr’aide, collectifs citoyens...) ont pour socle commun les quatre valeurs suivantes : finalité sociale et/ou solidaire, lucrativité nulle ou limitée, gouvernance démocratique, économie de proximité.
Depuis son démarrage au siècle dernier, dans plusieurs pays d’Europe, l’ESS a été essentiellement animée par des militants et des travailleurs sociaux. Ce paysage est en train de changer, notamment sous l’influence d’une crise, prévue de longue date par des prophètes comme Emmanuel Mounier, René Macaire et Jacques Robin.

Un innovateur ambitieux : l’entrepreneur social

Ces citoyens engagés sont en effet rejoints par une nouvelle génération d’entrepreneurs décidés à mettre "leur efficacité économique au service de l’intérêt général", titre du Livre Blanc du Mouves (mouvement des entrepreneurs sociaux) fondé en 2010 et agissant en synergie avec des réseaux européens. Comme il est de règle dans l'ESS, ils considèrent que ni la croissance ni le profit ne sont des fins en soi mais qu’ils peuvent battre en brèche les effets de la crise, à condition d’être équitablement produits, répartis et réinvestis.

Il est clair que l’avenir de cette vision est tributaire du soutien d’une communauté mondiale interactive. Telle est précisément la stratégie que l’Association internationale Ashoka, née aux USA, financée par des donateurs privés, met en oeuvre depuis 1980, au profit d’entrepreneurs novateurs en matière sociale. Elle est présente aujourd’hui dans 75 pays, dont la France, depuis 2003.
Les Boursiers d’Ashoka sont sélectionnés annuellement, pour une durée de trois ans, par des jurys très exigeants. Leurs critères de sélection mettent l’accent sur la capacité du porteur de projet à "changer le système" dans son domaine , afin d’y améliorer les conditions de vie et de travail des populations concernées.

Dans 80 % des cas, les projets retenus sont des succès, aptes à se prolonger sur le mode de l’autofinancement. C’est ainsi que de proche en proche une innovation sociale novatrice parvient à faire émerger autour d’elle des élans collectifs de même nature, appelés à se démultiplier.
Pour Ashoka et les 2 000 associés de son réseau mondial, le retour sur investissement se mesure à l’ampleur de ses retombées sociales ; par exemple au nombre d’enfants libérés de l’esclavage, ou encore à celui des foyers démunis pouvant accéder aux produits de première nécessité comme l’éducation et la santé. Dans les deux exemples ci-dessus, ils représentent globalement plusieurs millions de bénéficiaires.
Ce bilan impressionnant est encourageant pour l’efficacité de l’élan citoyen, même quand il est réduit à sa plus simple expression : la conscience d’une seule personne. L’exemple d’Ashoka démontre aussi que cet élan, pour s’imposer, doit recourir, en tant que de besoin, à des concours extérieurs, par exemple en intelligences, outils et méthodes de travail. Mais ici encore, l’efficacité n’est pas tributaire d’indicateurs quantitatifs. Tant il est vrai que le combat citoyen n’a pas de meilleur encouragement que celui de l’horizon qu’il se donne : l’espérance. On peut dire de lui ce que Bernanos disait d’un de ses héros : "même en difficulté, il jette l’espérance à pleines mains".

En Italie : une autre économie (1)

L’Italie, où elle a pris naissance, reste une terre d’élection pour une Economie imaginative se voulant sociale et solidaire. Aux pratiques, bien connues en France, du partage et de la protection des biens communs , s’ajoutent en effet dans ce pays des initiatives de grande ampleur au nombre desquelles les G.A.S. (groupement d’achat solidaire) en essor exponentiel depuis 14 ans.
Ces « marchés de la terre », au nombre de 700 chez nos voisins, permettent aux producteurs et aux consommateurs non seulement d’échanger, mais de concrétiser leur volonté de « changer les choses « en se concertant utilement . Ce qui donne progressivement naissance à des « districts d’économie solidaire « en zone périurbaine.

C’est aussi en Italie (2) que l’on dénombre, suite à la réflexion de femmes sur les moyens de concilier temps de vie et temps de travail., 400 « Banques du temps », sans circulation d’argent . Car leurs ressources sont exprimées en unités de temps échangeables sur le mode de la réciprocité. Leurs initiatives sont avant tout culturelles (30 %), périscolaires (19 %), d’assistance sociale (19 %) et de protection de l’environnement (10 %)...
La fréquentation de ces Banques du Temps s’avère des plus gratifiante, à en juger par la recette qu’en donnent ses créatrices : « mélanger dans une banque un kilo d’échanges avec trois cents grammes de réciprocité et de socialisation. Ajouter une tasse d’amitié, deux jaunes d’oeufs de confiance et épaissir avec un sachet de joie. Bien mixer le tout avec trois pincés de folie, de magie et de mystère. Asperger de couleur....garnir de culture et d’art et servir avec douceur» (2).

En France, on peut retrouver cette forme jubilatoire de ce que le sociologue G. Marcon nomme « les utopies du bien faire» sur le web et notamment sur les sites « Colibris » et « Oasis en tous lieux » de P. Rabhi.  Dans le même esprit, mais sur un mode plus cartésien, l’approche des « Economistes du bonheur », visant à diminuer l’emprise mortifère de la société marchande, est accessible chez des éditeurs comme La Découverte.

L'ESS a encore beaucoup à nous apprendre et un long chemin à accomplir. Tâche difficile dans une conjoncture morose, où seulement 1% de nos compatriotes se déclarent « capables de faire beaucoup bouger les choses autour d’eux". (3)

Nicole van der Elst, Journaliste indépendante - Membre du Comité éditorial UP' Magazine

(1) 1) titre de l’article de G. Colonni, numéro d’octobre 2012 du Monde Diplomatique
(2) Ibidem.
(3) Etude Mouves /SOFRES 2010 sur « les priorités sociales des Français .»

Photo ©GID

Et si la symbolique jouait un rôle dans la construction de notre avenir...

L’accumulation de crises économiques viendrait nous dire quelque chose de notre imaginaire, si puissant pour déterminer nos actions, prévalant sur la rationalité de nos prises de décision. Reconnaître son influence c’est aussi détenir les clés de la relance, du renouveau, de la reprise, et comprendre qu’il est le moteur pour la mise en place d’un nouveau cycle de société.

La nature est un temple où de vivants piliers
Laissent parfois de confuses paroles ;
L’homme y passe à travers des forêts de symboles
Qui l’observent avec des regards familiers.
Charles Baudelaire

Lorsque nous parlons de crise ou de reprise, si nous restons confinés dans le champ économique ou politique, nous perdons de vue d’autres éléments de la vie qui pourtant s’avèrent tout aussi déterminants.

Comme l'a très justement décortiqué dans son ouvrage "De la misère symbolique", Bernard Stiegler dénonce qu'au  XXe siècle, le capitalisme consumériste a pris le contrôle du symbolique par son appropriation hégémonique de la technologie industrielle. L'esthétique y est devenue à la fois l'arme et le théâtre de la guerre économique. Il en résulte de nos jours une misère symbolique où le conditionnement se substitue à l'expérience, misère symbolique telle que l'ont engendrée les "sociétés de contrôle". Il faut comprendre les tendances historiques qui ont conduit à la spécificité du temps présent, mais aussi de fourbir des armes et lutter contre un processus qui n'est rien de moins que la tentative visant à liquider la "valeur esprit", comme le disait Paul Valéry.

Symbole étymologiquement, vient du latin symbolus, signe de reconnaissance. Il provient du grec sumbolon et désignait un signe de reconnaissance, qui à l’origine était coupé en deux. Chaque personne conservait une partie, la remettait à ses enfants qui pouvaient, dans le temps, réunir les deux pièces pour faire la preuve des relations d’hospitalité qui avaient été contractées entre les deux hôtes à l’initiative de la démarche.
C’est au milieu du XVIe siècle qu’il prend la signification que nous lui connaissons aujourd’hui à savoir un objet ou un fait, qui évoque, par sa forme ou sa nature, une association d’idée avec quelque chose d’absent ou d’abstrait.
« Les symboles connaissent aujourd’hui une faveur nouvelle. L’imagination est réhabilitée, sœur jumelle de la raison, comme inspiratrice des découvertes et du progrès. Cette faveur est due en grande partie aux anticipations de la fiction que la science vérifie peu à peu, aux effets du règne actuel de l’image que les sociologues essaient de mesurer, aux interprétations des mythes anciens et à la naissance de mythes modernes, aux lucides explorations de la psychanalyse. Les symboles sont au centre, ils sont le cœur de cette vie imaginative. Ils révèlent les secrets de l’inconscient, conduisent aux ressorts les plus cachés de l’action, ouvrent l’esprit sur l’inconnu et l’infini. »

Un petit détour par l’An Mille

Nous faisons un parallèle entre l’inertie économique majoritaire contemporaine et ce qui s’est produit au passage de l’An Mille durant le Moyen âge. En effet, si la terreur du passage de l’An Mille a largement était accentuée au XIXeme siècle, comme nous le rappelle Georges Duby, à la suite des travaux historiques de Jules Michelet, revisités aujourd’hui pour rechercher un peu plus d’objectivité à ses analyses, il n’en reste pas moins qu’une observation de ralentissement économique patent a pu être consignée.

L’inertie des abords de l’An Mil correspondait aux effets des peurs liées à ce passage décrit par l’Apocalypse de Saint-Jean. Les mille ans, annonçant le retour du Christ pour sauver l’humanité, cités par Saint-Jean étant alors pris comme une donnée calendaire et non pas symbolique, comme elle est depuis largement décrite. Si ce moment-là de l’histoire ne fut pas la terreur décrite par Jules Michelet, nombreux furent celles et ceux, qui en proie aux superstitions courantes à cette époque, attendirent le passage, dans la crainte, le repli et l’inertie.

Déjà, à l'époque, un message délivré par des abeilles : vers 1045, le moine et chroniqueur Raoul Glaber décrit les différents prodiges qui auraient suivi le millénaire de la Passion du Christ. Après 1033 se multiplient selon lui les signes et les événements surnaturels, qu'il interprète comme une façon pour Dieu de punir les hommes de l'énormité de leurs péchés et, surtout, de les inciter à la pénitence. Raoul Glaber insiste sur ces faits, après coup, car il veut montrer à quel point "les péchés de la terre retentissaient jusque dans les cieux". Il lie d'ailleurs explicitement l'accumulation de toutes les calamités qu'il décrit au déchaînement de Satan prédit dans l'Apocalypse. Plusieurs chroniques du XVIe siècle reprennent son témoignage pour décrire de véritables scènes de panique dues à la croyance dans l'imminence de la fin des temps. Raoul Glaber évoque un certain Leutard, "qui peut être tenu pour un envoyé de Satan". À la suite d'un message délivré par des abeilles, il a tout quitté et est allé par les routes tenir des discours qui "faisaient oublier la doctrine des maîtres".

Depuis, la Renaissance et les Lumières ont permis de dépasser l’obscurantisme du haut Moyen âge, cette période faisant suite à la chute de l’Empire romain durant laquelle l’instruction régressa au point que seuls les moines dans les monastères conservaient l’usage de la lecture et de l’écriture et copiaient et recopiaient des ouvrages, principalement religieux, sans que la pensée ne soit revivifiée par l’apport de nouvelles connaissances ou de discussions provenant d’échanges avec d’autres communautés, religions et points de vue contradictoires.
Puis, l’An Mil étant passé sans que le monde s’écroule, la vie reprit ses droits avec une expansion économique, des échanges marchands ouvrant les frontières et une relance de la démographie. Petit à petit, le Moyen âge entra dans sa deuxième partie, lumineuse et éclairée, préfigurant la Renaissance.

Quelle correspondance contemporaine ?

Et dans notre monde contemporain qu’observons-nous ?
En 1999, lors de la tempête qui fit des ravages en France, d’aucuns y voyaient les signes de l’Apocalypse, on s’enthousiasmait pour la célèbre éclipse solaire totale et Paco Rabanne avait une forte audience avec ses prédictions . Et au 1er janvier, le monde était toujours là et le passage à l’an 2000 pour les ordinateurs s’était bien - même fort bien - déroulé sans aucune catastrophe marquante. Seule, la bulle Internet est venue nous rappeler que les excès de spéculations ne sont pas éternels et qu’il n’est pas possible d’étirer éternellement une spéculation de la réalité sans qu’il y ait un effet de rétroaction équivalent.

Avec le désenchantement du monde , décrit par Max Weber, propre à notre époque moderne, la science permettant de tout expliquer et d’évacuer toute interprétation animiste, religieuse ou magique sur les phénomènes du monde, le monde perdit sa poésie.
Peut-être aurions-nous pu nous en contenter si la fin du XXème siècle et le début du XXIème ne s’accompagnaient de crises à répétition laissant subodorer qu’il n’était sans doute plus question de crises économiques, qui par définition, sont courtes et passagères. Leur accumulation indique que nous sommes contemporains d’une mutation profonde de société à l’instar de la Renaissance des XVème et XVIème siècles.

Le besoin de réenchanter le monde

L’an 2000 nous paraît fort loin ; toutefois, ce retour des superstitions est concomitant d’un besoin de réenchanter le monde. Face aux effets des crises : montée du chômage, de la pauvreté de toutes sortes de souffrances – notons d’ailleurs à ce moment l’apparition des termes de harcèlement, souffrance et de violence au travail – les individus ont besoin de rêver, de s’évader pour échapper à une réalité difficile dans laquelle économie et science n’ont pas apporté leurs promesses de bonheur pour tous. Alors c’est le retour de la magie que le cinéma hollywoodien a si bien su mettre en scène, du Seigneur des Anneaux, à Harry Potter ou The Hobbit  ; les succès planétaires de ces sagas démontrent le besoin de nourrir l’imaginaire de nouvelles substances.
Observons que ces films faisant appel à la magie ont majoritairement comme décor celui du Haut Moyen âge, comme s’il nous fallait fouler l’humus de nos ombres sociétales pour faire resurgir de nouvelles lumières.

Plus proche de nous, à la suite des crises de 2008 et 2011 – il devient délicat de les dater, tant la majorité des citoyens vit la continuité des difficultés – il y a eu l’engouement pour la fin du monde et le célèbre 21 décembre 2012, que stratégiquement, au fur et à mesure de l’approche de la date, chacun a intelligemment rebaptisé la fin d’un monde. Et ceci même si ce fut à juste titre.
Voici précisément une confusion qui nous conduit au cœur de notre argumentation. 
Evoquer la fin du monde c’était participer à l’égrégore apocalyptique, mentionner la fin d’un monde c’est mettre en lumière la mutation profonde de notre société. Et bien entendu, une telle récurrence d’imaginaire apocalyptique vient nous renseigner sur le besoin de détruire l’ancien monde pour reconstruire le nouveau, lever le voile des catastrophes pour révéler la lumière des futurs à co-constuire.

La part déterminante de l’imaginaire

En faisant le parallèle avec le Moyen-âge, nous avons voulu montrer la part déterminante de l’imaginaire, des représentations sur la réalité elle-même. Rien objectivement ne différait avant l’An Mil des quelques jours qui ont suivi le 1er janvier ; mais la représentation que s’en faisaient certains induisaient peurs et replis. De la même manière aujourd’hui, ce regain de superstitions pour expliquer des situations objectivement inexplicables – qu’une minorité s’enrichisse en appauvrissant délibérément une partie toujours plus importante de la population de la planète sans qu’il y ait de révolutions majeures peu paraître parfois incompréhensible – conduit à laisser la part belle à l’imaginaire de l’Apocalypse prenant le pas sur la réalité. Ou tentant de l’expliquer.
Ce qui conditionne alors comportements et réactions qualifiées d’irrationnelles et amplifie la crise plutôt qu’elle ne la diminue. Qu’il y ait des raisons objectives économiques, sociales, climatiques, environnementales (réduction des ressources et accroissement des pollutions) à ces crises nous ne le discutons pas, toutefois entretenir les peurs, abêtir les foules et les rendre dépendantes aux loisirs et à la consommation est une volonté délibérée pour empêcher toute modification du système.

Notre responsabilité réside alors dans l’orientation que nous donnons à nos pensées et le choix de l’imaginaire que nous nourrissons.

La puissance du symbole

Ainsi, prendre toute la mesure de l’influence des symboles sur notre pensée permet-il de passer les étapes délicates en conscience. Ainsi, tourner la page de 2012, laisser de côté les superstitions de la prophétie Maya et des dérives New Age nous ont-elles amené tout tranquillement à 2013. Une année succédant l’autre. Cependant, combien parmi nous ont-ils pris la mesure symbolique de cette année-là ? Le nombre 13 véhiculant sa cohorte de superstitions, porteur de chance pour certains et « maléfique » pour d’autres. Combien se souviennent encore des racines de cette superstition ?

Rappelons-nous : dans l’Egypte ancienne, ce fut le jour béni pour les Hébreux suivant Moïse et fuyant l’esclavage, mais ce fut un jour maudit pour Pharaon qui vit ses troupes anéanties dans la mer rouge. 13 c’est aussi la symbolique de la Cène, les douze apôtres et le Christ, avec le rôle controversé de Judas, qualifié de traître par les évangiles canoniques et d’apôtre servant le désir du Christ pour les évangiles apocryphes . Ce nombre correspond aussi à l’arrestation des Templiers (13 octobre 1307) et encore à la symbolique de la carte de Tarot signifiant mort symbolique et renaissance et enfin pour la Kabale, le 13 grâce à la guématria, est la traduction numérique du mot Ahava qui signifie Amour.

Voici donc un nombre qui véhicule de nombreuses significations très contrastées, qui sont opératives dans nos imaginaires, consciemment ou non, et qui ressurgissent pour conditionner nos comportements à la moindre occasion. La Française des Jeux l’a bien compris et les compagnies aériennes et les hôtels également qui n’ont ni place ni chambre 13.
Ainsi, après avoir largement glosé et relayé la fin du/d’un monde, qu’avions-nous pensé pour sa reconstruction ? Où avons-nous lu ou vu des reportages sur ce qu’il convenait de bâtir, avec tout autant de ferveur et de médiatisation ? Rien.
En revanche, 2013 fut une année que des milliers de personnes ont vécu comme particulièrement éprouvante, empreinte de remises en cause, de déconstructions, de pertes, de quêtes de sens et de la nécessité de reconstruire du neuf. Nous ne commenterons pas davantage le parallèle entre les faits et la puissance des symboles. A chacun sa lecture.

Concilier raison et symboles pour co-construire un futur responsable

Nous voulons juste mettre l’accent sur le fait que si nous pouvions, dans notre monde que nous décrivons comme cartésien, reconnaitre la puissance du symbolisme et son influence sur la pensée, alors nous verrions mieux les raisons pour lesquelles nous sommes englués par la peur et pris dans le gruau de l’inaction.

Nous mettrions alors toute notre énergie à modifier nos formes-pensées (égrégores) qui ont pour conséquence d’influer sur toutes les activités de l’être humain. Car connaître symboles et mythes permet d’en être moins prisonniers et de piloter avec plus de conscience et de discernement ce qui nous anime, consciemment ou inconsciemment. Ce qui permet d'avancer et d'innover dans nos démarches.

L’accord unanime des sociétés humaines sur l’importance du symbole

Il est remarquable de constater que toutes civilisations confondues, y compris les traditions des peuples premiers, inclus pour l’occasion, privilégient le symbolisme notamment au travers de la mythologie. Cette dernière est la fondation de l’imaginaire d’une civilisation comme ce fut le cas de la Grèce antique. Le symbolisme a toujours été le pouvoir des plus puissants, prêtres, sorciers, rois et empereurs, sages. Puis ces connaissances ont été reléguées dans l’ésotérisme lorsque la science a pris le devant de la scène. Le symbolisme étant désormais l’apanage des sociétés secrètes, soit l’objet d’étude des anthropologues, ethnologues, théologiens et de quelques psychologues ou psychanalystes !

Pourtant, pouvons-nous faire abstraction de la puissance des mythes grecs qui continuent d’alimenter nos imaginaires, que les sociétés de marketing et de publicité savent utiliser à l’envie ? Les archétypes ont la vie dure et cela se vend bien comme en témoigne la récente publicité de Ferrero Rocher. Mais l’impact de l’Olympe ne s’arrête pas là ; la mythologie grecque a largement nourri les théories freudiennes ou prêté plusieurs noms à des constellations astronomiques ou à des missions spatiales. Nous pouvons ainsi mesurer les multiples ancrages symboliques de nos disciplines scientifiques et de notre quotidien dont nous avons complètement oublié les racines historiques et mythologiques mais dont nous ne pouvons pas minimiser les effets.

Entamant 2014, nous pouvons donc volontairement décider d’orienter consciemment nos pensées vers un certain réenchantement du monde, valoriser et privilégier la RenaiSens qui jaillit au travers de milliers d’initiatives citoyennes et reconnaître les innovations qui façonnent demain. Combiner avec discernement symbolisme et autres plans de la réalité pour une plus grande vitalité sociétale et économique.

L’arbre qui s’écroule fait plus de bruit que la forêt qui pousse. Proverbe africain.

Christine Marsan, Psycho-sociologue

Illustration : Tableau de Van Gogh "La nuit étoilée " 1889 -  New York Museum of Modern Art

- Dossier "21 septembre 2012 : la fin du monde ?" / Le Point.fr - 2012
- Lire l'ouvrage "Les fausses terreurs de l'an Mille" de Sylvain Gouguenheim - Ed. Picard 1999
- Lire "Ré-enchanter l'industrie par l'innovation" de Christophe Midler, Rémi Maniak et Romain Beaume - Ed. Dunod 2012
- Lire article "Quoi de neuf Docteur ? Ou l'innovation comme volonté et représentation" de David Morin-Ullman - UP' Magazine 2012
- Lire l'ouvrage "Réenchanter le monde: La valeur esprit contre le populisme industriel " de Bernard Stiegler - Ed. Flammarion - Déc. 2013
- Lire l'ouvrage "Le réenchantement du monde" de Michel Maffesoli - Ed. La Table ronde - 2010

Sociétés de marchés financiers, sociétés d’aléa moral total

En tendance, les pratiques actuelles de l’innovation financière sont génératrices d’un excès de risques à l’origine de lourds effets indésirables. Elles continuent pourtant de prospérer parce qu’elles ont installé un radical principe de précaution qui protège globalement cette activité de ces effets. Mais le problème est qu’elles les transfèrent ailleurs, y compris sur tout autre type d’innovations dont l’émergence – donc, la prise de risques qui la permet - est ainsi découragée !
Par diffusion, ces pratiques inspirent le cours de nos sociétés où la promesse de progrès cède insensiblement devant des dynamiques d’aléa moral total.

Le journal « Le Monde », dans sa livraison du mercredi 1er janvier 2014, titrait : « 2014, année à hauts risques financiers ». Les sous-titres, longs et réfléchis, explicitaient ce ton sentencieux : « Cinq ans après la crise financière, les risques pesant sur l’économie mondiale demeurent élevés. Les pays occidentaux se redressent. Mais tout dépendra du pilotage assuré par la banque centrale américaine. Les pays émergents ont subi en 2013 une grave fuite des capitaux. Ils cherchent un nouveau modèle de croissance. Leur endettement augmente dangereusement. En Chine, la dette des collectivités locales vient d’atteindre un tiers du PIB. La zone euro sort de la récession, mais la croissance reste faible et l’endettement continue de croître dans de nombreux pays. La Grèce envisage toutefois de revenir sur les marchés en 2014 ».

Cette trame narrative prospective, substantielle, est composée d’éléments qui renvoient à l’état du monde en 2014 envisagé dans sa dimension économique et financière, c’est-à-dire dans une dimension unique qui, de plus, pour prendre forme, rapproche les logiques économiques et les logiques financières plus qu’elle ne les distingue. Il reste que certains éléments seraient à ranger plutôt dans un ordre (macro)économique (économie mondiale, nouveau modèle de croissance, PIB, zone euro, récession), d’autres seraient à ranger plutôt dans un ordre (macro)financier (crise financière, risques, fuite des capitaux, marchés [financiers]) ; d’autres, enfin, concernent les deux ordres économique et financier dans leur nécessaire coopération (banque centrale américaine, endettement).

La finance est distincte de l’économie, nous devons le rappeler ici. Elle relève de cultures, de concepts, de savoirs, de techniques, de pratiques, d’enseignements et de recherches distincts de ceux de l’économie. La finance de marché et l’économie de marché ne sauraient être assimilées. Les marchés financiers ne sont pas les marchés économiques. La crise financière n’est pas la crise économique. Les élites, les régulations, les produits, les systèmes,… financiers ne sont pas les élites, les régulations, les produits, les systèmes économiques.

Ces rappels insistants à une clarification de nos représentations ont un objectif : mieux comprendre leurs liens historiques en comprenant mieux leurs logiques distinctes. En effet, à travers toute l’histoire des hommes, le cours des choses financières a influencé le cours des choses économiques, plus ou moins, et l’ont mis en branle ou bien mis en crise,… Aujourd’hui, le cours global que la finance a pris depuis 50 ans influence beaucoup le cours de l’économie et, aujourd’hui, le met clairement en crise. Il met en crise l’économie, mais aussi le social et « l’environnemental ». Bref, il met en crise tout développement, toute modernité désirable et durable.

Nous allons brièvement, donc à grands traits, indiquer les logiques et les mécanismes caractéristiques de ce cours global de la finance, cours dicté par la seule finance de marché (1).

1/ Quand l’industrie financière de marché, en exerçant son rôle spéculatif ou d’investissement, pèse trop sur les actes économiques - qu’ils soient d’usage ou d’échange - elle les normalise excessivement : ces actes excèdent une forme industrielle et se métamorphosent alors en « agenda »,… étymologiquement, en-choses-devant-être-faites, et ce, quel que soit l’état des marchés économiques. Ces actes-agenda, dont on verra plus loin (cf point 5) de quelle représentation imaginaire probable ils sont le fruit recherché, sont vectorisés par des agents en proie à une démarche idolâtre, c’est-à-dire privés peu ou prou de signaux réflexifs (cette réalité est confirmée ces dernières années par le remplacement massif des hommes par des robots dans cette vectorisation). Ils absorbent toute la performativité de l’activité financière.

2/ A l’origine de cette logique performative, il y a pour l’essentiel un « aléa moral » au sens que les sociétés d’assurance contemporaines donnent à cette expression : un excès de risque pris par des acteurs individuels ou collectifs quand ils savent (et quelquefois quand ils s’organisent pour) que la couverture de ce risque ne leur incombe(ra) pas en dernier ressort, en totalité ou en partie. Il s’agit donc à la fois d’un report de risques sur d’autres acteurs, lesquels affaiblissent ipso facto leur capacité d’engagement, et de la désignation implicite d’un « lieu d’assurance de dernier ressort », une sorte de lieu garant, non explicitement consentant !

3/ Ces acteurs-là installent de fait une logique de responsabilité limitée (puisque leur propre engagement initial devient relatif) qui se transforme alors en une logique de pari où le « jeu » les conduit à s’in-vulnérabiliser (engagement restreint et constitution d’une rente privative vont de pair) aux dépends d’autres acteurs, vulnérabilisés, eux, dans leur condition de lieu d’assurance de couverture du risque, de dernier ressort ou non. La logique du pari, dégagée de l’engagement, construit alors une puissante économie de rente autocentrée, séparée, donc en situation régulière de prédation.

4/ Depuis 150 ans, le risque de généralisation de cet aléa moral en « aléa moral total » était en gros maîtrisé par convention sociale (dans une sorte d’équilibre entre le progrès partagé d’un côté, et ses effets indésirables couverts par des assurances plus ou moins collectives ou bien combattus par des luttes sociales et politiques, d’un autre). Tendues entre promesses et progrès, les sociétés fabriquaient « du monde commun ».
Depuis 50 ans, en revanche, une dynamique se développe au sein des « corps sociaux », et entre sociétés, où des stratégies non coopératives répondent à des stratégies non coopératives, confirmant logiques de pari et de prédation de ses acteurs les plus puissants. Se construisent alors des sociétés - voire des espaces - financiarisées, « d’aléa moral total ». De manière plus générale, tendues entre promesses et paris, entre progrès essoufflé et mal partagé et effets indésirables désormais aussi mal pris en charge par des systèmes assurantiels en crise assez profonde que par des régulations sociales et politiques impuissantes, ces sociétés ne fabriquent plus « du monde commun » ; elles manifestent au contraire des appels non-dits à des mondes séparés.

5/ Cet aléa moral porté emblématiquement par l’industrie financière de marché est soutenu par un modèle imaginaire, de type quasi-anthropologique (cf point 1). En effet, le risque excessif qui le caractérise (lieu d’un mélange - intentionnel ou non au niveau individuel, mais caractérisable au niveau collectif de cette industrie – entre risque pour compte propre et risque pour compte d’autrui) est inspiré à ses auteurs par une démarche idolâtre majeure : le fantasme de la possibilité d’une dissolution radicale et définitive du risque par la globalisation universelle de sa couverture. La méthode classique qui les conduit concrètement à formaliser le risque pour le normaliser, puis à le diviser à l’infini tout en le faisant circuler à très grande vitesse par le recours à des technologies ultrarapides et robotisées, et ce, après l’avoir « anonymisé » et recombiné en d’innombrables produits opacifiés donc intraçables, atteste chez eux au moins d’un déni de réalité et au plus d’une irresponsabilité plus ou moins consciente ! De fait, elle finit de leur interdire toute appréciation distanciée, toute capacité ou toute obligation fonctionnelle à répondre d’un acte. Les auteurs de la communauté financière de marché se sentent ainsi dégagés de toute responsabilité les liant à une situation externe dont ils sont pourtant « partie prenante » (2).

6/ En résumé, si modèle de l’« individualisme ultra libéral » il y a, il est caractérisé par la prétention non explicite et sans légitimité particulière à un droit inconditionnel, non solidaire et excessif aux bénéfices de la performance qui procède d’un radical « principe de précaution » imposé par les pratiques actuelles de la communauté globalisée de l’industrie financière de marché.
Il consiste ab initio à s’auto-persuader de pouvoir prendre un risque excessif, puis à transférer une partie de ce risque en fantasmant sa dissolution de manière à dégager sa responsabilité, sans convention sociale préalable. Le résultat attendu et atteint est la privatisation, restreinte à cette communauté, des effets désirables du risque excessif par transfert sur d’autres acteurs, collectifs si nécessaire, des effets indésirables.

En outre, ce modèle installe une logique de pari qui inspire aux sociétés dans leur ensemble et à ses acteurs des conduites d’aléa moral total, charriant des dangers de très lourde portée, sociaux et moraux.
Enfin, il décourage in fine tout… risque d’engagement, et les dynamiques de création, de recherche et d’innovation non financières qui lui sont attachées.

Jean-Paul Karsenty, CNRS et Université de Paris 1 (Cetcopra)

(1) En effet, la « puissance d’agir » de la finance de marché est de portée mondiale et incomparable dans sa capacité à provoquer une crise totale du système et ses conséquences sur les « sociétés réelles » et leurs populations. Pourquoi ? Parce qu’elle émet des produits dits dérivés qui sont le principal instrument de connexion des banques entre elles, d’une taille d’environ 700 000 milliards de dollars, soit 12 fois le PIB mondial (source : Finance Watch) ! Or, ce montant excède, et de très loin, leurs propres besoins de couverture de risque de change, indiquant, par là-même, sa logique spéculative et non d’investissement.

(2) De plus, même si au sein des collectifs de ses auteurs, la concurrence est de règle et si l’on y procède « naturellement » par élimination darwinienne, on sait pactiser lorsque se dessine un intérêt commun légitime ou non et réduire considérablement le risque d’assumer la responsabilité de sa poursuite.

Le sens de l'autre, clé de la coopération

Avoir le sens du mouvement de l’autre, connaître les besoins de l’autre, intégrer le sens du contexte…. autant d’éléments qui semblent déterminants pour assurer une coopération productive au sein d’une équipe. Voyez ce petit film, déjà ancien, mais tellement sympa. Pour les cinquante ans d’Astérix, une équipe particulièrement coordonnée rend hommage au travail d’une équipe créative (deux concepteurs, Uderzo et Goscinny et un journal, Pilote) qui relate la vie d’une équipe déterminée (un gros, un petit, un druide et un chien) au sein d’une communauté remuante (un village gaulois) en butte à un conflit récurrent avec un pouvoir totalitaire, incarné par un homme (César), archétype d’une culture qui prône le respect de la hiérarchie et de l’organisation au carré…

Ce film est réalisé grâce à un montage, car le dessin du visage d’Astérix, dans le ciel, n’a pas été effectué de cette façon-là. Les fumigènes ne tiennent pas assez longtemps et l’exercice est tout de même un peu dangereux ! Cela n’enlève rien à l’intérêt de découvrir la façon dont les aviateurs de la patrouille de France se synchronisent pour réaliser des figures en vol. Ils se préparent avec minutie pour assurer une coordination précise de leurs mouvements.

Pour travailler en équipe, de nombreuses compétences sont requises, mais trois d’entre elles sont critiques. Elles peuvent être regroupées sous le terme « avoir le sens des autres ». En lien direct avec nos perceptions, ce sont celles qui favorisent la synchronisation, la négociation et l’intelligence de situation. Elles permettent à l’équipe de gagner du temps ; d’économiser les frottements inutiles, producteurs de stress ; de laisser le champ libre aux interactions productives de créativité et d’efficacité.

1- Avoir le sens du mouvement de l’autre ou être éveillé à la coordination de ses gestes avec ceux des autres membres de l’équipe. Se synchroniser nécessite d’anticiper sur les mouvements des autres. Pour cela il faut connaître les gestes probables des partenaires, qu’ils soient assimilés par notre cerveau, comme faisant partie des tâches utiles à l’action. Quand les musiciens de jazz improvisent, ils n’ont pas de partition à interpréter. Ils ont des codes pour s’harmoniser. Ils connaissent les talents particuliers du trompettiste, les rituels du batteur. Ils ont une perception globale du groupe qu’ils forment, les signaux qu’ils s’envoient sont rythmés par la connivence d’une même musique, ils n’ont pas besoin de réfléchir, cela se fait spontanément, en symbiose, en mode automatique. Mouvements et rythmes, deux notions qui sont à travailler par les membres d’un même processus ou d’une même équipe. Se coordonner dans l’action consiste, en quelque sorte, à externaliser une partie de ses propres gestes.

2- Avoir le sens des besoins relationnels, ou savoir interagir avec les particularités émotionnelles et comportementales des autres. Les perceptions déclenchent des réactions émotionnelles et stimulent des systèmes de défense, elles peuvent amener à des quiproquos. Savoir décrypter les comportements nécessite d’avoir des clés pour les prendre pour ce qu’ils sont et non pas pour ce qu’ils nous rappellent de notre passé émotionnel. Prendre les modes d’expression d’une personne pour des attaques envers soi est particulièrement contre-productif pour la relation. Il est utile de comprendre la diversité des motivations intimes afin de les interpréter à bon escient. Si je crois que tu ris quand tu ris jaune, je ne peux pas avoir la bonne réponse. C’est utile de savoir détecter ce signal de détresse. Lors des prises de décisions au sein d’une équipe, la négociation fait partie des incontournables. Des crises peuvent apparaître, toutefois négocier dans le quiproquo relationnel est particulièrement contre-productif. Chaque co-équipier a besoin de se connaître et de savoir prendre en compte les particularités émotionnelles de ses partenaires.

3- Avoir le sens du contexte, ou savoir comment interpréter les réactions de l’autre en fonction du contexte où elles s’expriment. L’identité d’un groupe se construit autour d’un projet. Les interprétations sont faites en fonction de ce projet, de la culture dans laquelle il s’exerce, de l’histoire que les personnes vivent. Passer la balle lors d’un entraînement ou lors de la finale du championnat n’a pas le même sens, ce ne sont pas les mêmes enjeux. La recherche des motivations liées à la situation des personnes dans un environnement spécifique apporte des éclairages facilitant la prévision des comportements. La motivation à agir est soutenue par un nombre considérable d’événements, mais elle est toujours circonstanciée. C’est la condition de l’intelligence des situations.

Astérix, c’est plus de cinquante ans d’histoire collective. Il est probable que la plupart de ceux qui ont participé durablement à ce projet ont développé des compétences de coopération. Toute entreprise est collective, toute innovation a besoin de l’articulation de talents et de compétences portées par des individus devant interagir de façon productive. Les enjeux collectifs sont de plus en plus critiques pour l’innovation. Coopérer, cocréer, coproduire, coexister, se coordonner, communiquer….que de CO à savoir-vivre.

Bernadette LECERF-THOMAS

Les Ateliers d'une journée de Bernadette :

- Apprendre à penser collectif grâce aux neurosciences, jeudi 6 février 2014
- Neurosciences et créativité, co-animé avec Esther Galam, vendredi 14 mars 2014
- Coaching réflexif et neurosciences, lundi 17 mars 2014

Photo  Sérigraphie ©Trois escarbeilles 2012

Le "drame de la solution"

"Si la science se fait fiction, il faut qu’elle soit celle de demain, et c’est bien dire que la fiction peut anticiper sur la science. Mais si elle se trouve enchaînée au déchaînement de la science, elle n’a pas pour autant le pouvoir d’enchaîner celle-ci, d’où son manque de sérieux.Nathalie Georges-Lambrichs,  “L’allittérature, superflu nécessaire ?“ / Revue Lacan Quotidien, n°327

"La logique, appliquée à la vie, ou, pour paraphraser Wang, l’hyperrationalité, risque de rendre « fou » et peut-être, c’est-à-dire si Descartes a raison, est une véritable folie (qui s’écrit alors sans guillemets)." Pierre Cassou-Noguès, Les démons de Gödel, 2007.

Résumé

Œuvres, au double sens du terme, d’une psychologie historique (localisée) et représentations collectives sublimées ou structurelles, tels apparaissent les arts, produits culturels qualifiés et qualifiants. Les touts débuts de la science-fiction n’y échappent pas : dès 1856, les frères Goncourt décrivent une mentalité qui vient ou, mieux, qui s’épanouie, et qu’ils nomment « le miraculeux scientifique » ; nous en proposons un bref commentaire.

En guise d’introduction

En ce bref moment et par postulat, rappelons que, dans un champ quelconque de l’activité humaine, une définition fondatrice d’une quelconque nouveauté ne peut être explicitée qu’à partir d’autres grands moments du passé de cette activité. Nous parlerons ici de la première définition de la littérature du “fantastique scientifique“ et du policier, mêlant technique(s), péripétie(s) et intrigue(s). Nous commenterons donc l’esquisse des frères Edmond et Jules Goncourt commentant eux-mêmes le « miraculeux scientifique » d’Edgar Allan Poe et, dans ce dessein, nous prendrons parfois à Charles Baudelaire (1), André Breton et Jorge Luis Borges.

De la rage de science au fantastique technique

Le 16 juillet 1856, dans leur Journal, Mémoires de la vie littéraire, les Goncourt consignent dans un style télégraphique :
« Après avoir lu Poe. Quelque chose que la critique n’a pas vu, un monde littéraire nouveau, les signes de la littérature du XXe siècle. Le miraculeux scientifique, la fable par A + B ; une littérature maladive et lucide. Plus de poésie ; de l’imagination à coups d’analyse : Zadig juge d’instruction, Cyrano de Bergerac élève d’Arago. Quelque chose de monomaniaque. — Les choses ayant plus de rôle que les hommes ; l’amour cédant la place aux déductions et à d’autres sources d’idées, de phrases, de récit et d’intérêt ; la base du roman déplacée et transportée du cœur à la tête et de la passion à l’idée ; du drame à la solution. »

Les expressions « miraculeux scientifique » et « Cyrano de Bergerac élève d’Arago » attestent qu’il s’agit de “fantastique technique“ ou de ce que l’on nommera plus tard de la science-fiction ; sinon, les principes décrits pourraient aussi bien appartenir au genre policier — le chevalier Auguste Dupin, du même Poe, étant le “premier Sherlock Holmes du monde“ et référencé comme tel par Sir Conan Doyle lui-même. Ainsi Edgar Allan Poe est-il à la source de ces deux grands courants littéraire du XXème siècle ; c’est ce que nous allons vérifier ici concernant la science-fiction.

Tout d’abord, quel Poe doit-on lire pour comprendre le commentaire des Goncourt ?

La première traduction de Poe date d’octobre 1848 et les Histoires extraordinaires, recueil d’une quinzaine de succès américains, de 1854-1856. Charles Baudelaire, orphelin et anti-autoritaire comme Poe, se chargea de ces traductions ; on peut supposer que les Goncourt venaient de finir de lire celles-ci. Et puis, qui-y- a-t-il dans les Histoires extraordinaires que « la critique n’a pas vu » ?... Certainement ce que Baudelaire assura dès l’introduction du recueil : qu’il s’agit-là de « conjecturisme » et de « probabilisme » (1856) ; c’est-à-dire d’une « littérature toute nouvelle » où règne une « rage de science ». (Jacques Lacan, dans les années 70, après Martin Heidegger, dans les années 30, au cœur du n°84 de La Cause du désir, ne dira pas autre chose.)
Poe présente, en effet, à la fois, une réflexion quasi-analytique sur la génération des idées et les maladies de l’esprit (Bérénice) et une obsession aventureuse du déchiffrement (Révélation magnétique, Le Scarabée d’or, L’Assassinat de la rue Morgue), obsession qui se mêle à une philosophie de la physique et de la nature humaine (Le Maelström, L’Homme des foules, Eurêka). 

Et encore, qui sont Zadig, Cyrano de Bergerac et Arago ?... Zadig, personnage riche et jeune, d’abord naïf, est l’œuvre éponyme d’un Voltaire enthousiaste où la puissance de la raison humaine est affirmée dans la gangue d’un conte babylonien, conte de fées à la fois picaresque et sentimental, où il brosse un portait acerbe de Paris. Voilà donc Zadig magistrat chargé de diligenter des enquêtes judiciaires mais sans pouvoir prononcer de sanction.
Quant à Savinien de Cyrano de Bergerac, c’est sans aucun doute celui des Etats et empires de la Lune et du Soleil (1657, 1662) et de l’inachevé Fragment de Physique ; si ce Cyrano est élève de François Arago, c’est que celui-ci fut élève de l’école Polytechnique, homme politique d’importance et savant à la vie d’aventurier considéré comme le père de la vulgarisation scientifique moderne. 

À présent, dans leur bref commentaire, et par deux fois, les Goncourt utilisent l’expression « quelque chose », comme si la consistance de cette littérature se cherchait sous la plume même de ces deux grands littérateurs ; dans cette répétition gît donc l’existence d’une chose indéterminée dont ils ne méconnaissaient pourtant pas la nature...
Un peu plus de cent cinquante ans plus tard, le commentaire est moins incommode, car notre environnement est plus proche de certains livres d’anticipation. Le réel a rejoint la fiction ; la réalité l’a accueilli plus exactement.

Ce « quelque chose » ou ce “quelque part“ est devenu notre souci à tous, avec l’avènement de la machinerie et de la vitesse, de l’électronique et des recherches génétiques. C’est la chose même de la science-fiction que nous voyons alors éclore, encore fragilement, sous nos yeux rassasiés, car la consistance de cette littérature se réalise hic et nunc. Seule une « théorie des instruments de mesure et de la vie quotidienne » — c’est-à-dire de la technologie, attirance et traduction économiques de la science — peut nous éveiller de temps à autre. 

Les quelques lignes des Goncourt seraient les premières lignes de cette théorie : ce que la critique de l’époque n’avait pas vu, c’est le monde nouveau et sa mentalité nouvelle : peut-être ne le voyait-elle pas, pas encore, trop préoccupée par le monde ancien.

Selon nous, l’expression « le miraculeux scientifique » donne alors, à la fois, la destination de la S-F et du genre policier (!), parce que cette expression l’enracine dans une psychohistoire spécifique, la nôtre, celle de la fable mathématique et la puissance mélancolique (les socio-historiens parlent de « désenchantement »). Par conséquent, l’objectif, littéraire ou non, de la science, pour Poe et les Goncourt, l’objectif de la science est qu’elle fasse des miracles et que les mathématiques fondent les fables. “Poétique de la science“, doit-on dire.

« Le merveilleux n’est pas le même à chaque époque, écrit André Breton dans son Manifeste du surréalisme ; il participe obscurément d’une sorte de révélation générale dont le détail seul nous parviendrait ; ce sont les ruines romantiques, le mannequin moderne ou tout autre symbole propre à remuer la sensibilité humaine durant un temps. Dans ces cadres qui nous font sourire, pourtant se peint toujours l’irrémédiable inquiétude humaine, et c’est pourquoi je les prends en considération, pourquoi je les juge inséparables de quelques productions géniales, qui en sont plus que les autres douloureusement affectées. »

L’irrémédiable inquiétude humaine, voilà une maladie de la lucidité, c’est-à-dire, à la fois, l’empreinte de la critique du Monde ou son ombre, au sens nocturne et fantastique du terme, et une monomanie moderne, parce que toujours plus structurée et détaillée. La maladie de nos sciences, « l’homme toujours mieux sachant » résume Pierre Boutang en 1973 parlant du trajet philosophique de René Descartes à Martin Heidegger via, sans doute, Max Weber.

Cette manie de la solitude scientifique et de l’absorption mentale par une seule idée — d’ailleurs, exactement les troubles d’Ega-eus dans Bérénice de Poe —, cette manie, voilà la psychologie historique collective qui pointait avec l’auteur américain avant que Jules Verne n’en fasse aussi son gagne-pain.

Le règne des choses ou le drame de la solution

Enfin, dans le fragment des Goncourt, suit un tiret de conclusion, avec un participe présent pour marquer cette conclusion : c’est la grande découverte que « Les choses (auront) plus de rôle que les hommes ». Ici la « machine littéraire » répond peut-être à ou anticipe la totalité machinale qui vient, « la cage de l’avenir » dont parlait Weber en 1921.
Alors, dans cette littérature du XXe siècle, « L’amour cèd(e) la place à d’autres sources (...) de récit et d’intérêt » écrivent les deux frères. 

« Récit et intérêt » au singulier, n’est-ce pas curieux ?... Que devient “l’essence de la littérature“ lorsqu’elle n’exprime plus la société amoureuse et nostalgique, la mythologie profane de nos vies ? Elle devient un autre récit général, d’un autre intérêt. Et elle parle à la tête : « la base du roman déplacée et transportée du cœur à la tête et de la passion à l’idée ; du drame à la solution. »

Car le temps ne serait plus à se raconter des histoires mais à trouver des solutions. Des solutions ? Mais à quelles questions ?... Que perçoit-on, alors, en France, à l’époque des Goncourt ?... Peut-être perçoit-on que l’avenir de l’homme règle son pas sur l’avenir des marchés et que la totalité sociale devient une totalité économique ou que l’économie politique règne sur la volonté de transformer socialement, et en responsabilité, le Monde.

Les Goncourt, comme Baudelaire, Breton (Lacan…) et Borges, reconnurent que les hommes d’Occident, dans un mouvement sourd de leur histoire, ont fait entrer et déborder la rationalité — l’esprit de géométrie et de prospective — jusque dans leur divertissement. (Qu’est-ce que le mouvement protestant Quantified self d’auto-mesure et d’expression quasi muséal de soi, sinon cela ?)
Comme l’écrit Baudelaire en 1856, le miraculeux scientifique, plus tard la science-fiction, et le “miraculeux policier“ (à cet égard, il faut lire les ouvrages de Guy Lardreau), ce sera donc « d’appliquer à la littérature des procédés de la philosophie, et à la philosophie la méthode de l’algèbre. » (Ou la philosophie du Cercle de Vienne !) Et on peut deviner que les auteurs de S-F deviendront des « Leibniz infini travaillant dans les ténèbres et dans la modestie », auteurs qui « jugent que la métaphysique est une branche de la littérature fantastique » et que « le sujet de la connaissance est un et éternel », comme l’écrit Borges dans Tlön Uqbar Orbis Tertius (Fictions, 1965).

David Morin-Ulmann, Sociologue et Philosophe culture, innovation et imaginaires 

(1) Edgar Allan Poe est connu en France grâce à la belle traduction que Charles Baudelaire a faite de ses contes. C’est d’ailleurs largement grâce à elle que l’œuvre de cet auteur américain du xixe siècle a été réévaluée par les historiens de la littérature américaine.

Revue de Sciences humaines "Tracées"

- Télécharger livre "Histoires extraordinaires" d'Edgar Allan Poe

Comment les digital humanities transforment les Sciences Humaines et Sociales

L’expression digital humanities est apparue récemment – elle a été forgée en 2006 lors de la parution de l’ouvrage « A companion to Digital Humanities » (1) –, et fait notamment référence à l’émergence des nouvelles technologies du numérique (ou de l’informatique) dans le champ des sciences sociales.

Cependant, l’appellation ne doit pas cacher un phénomène plus ancien : les sciences sociales, la linguistique ou la lexicographie par exemple, s’appuient depuis fort longtemps sur des techniques issues de l’informatique. Ceci posé, les SHS bénéficient aujourd’hui de la formidable accélération technologique que connaissent les outils numériques depuis une vingtaine d’années.

L’expression américaine digital humanities traduite en français par humanités numériques (ou plus rarement par humanités digitales) conceptualise ce phénomène nouveau. Ayant acquis une place de premier plan en quelques années, les humanités numériques ne sont cependant pas une nouvelle discipline des sciences sociales pas plus qu’elles ne peuvent être réduites à l’apparition d’une instrumentation nouvelle, aussi sophistiquée soit elle. Cependant, le champ que recouvre précisément cette appellation est complexe à définir : à ce stade, les digital humanities sont davantage un processus ou une dynamique qu’un concept clairement définissable… Ce dossier se propose avant tout de faire un point sur un changement en cours, sans prétendre à plus.

Plusieurs indicateurs attestent de la place acquise par les humanités numériques. Tout d’abord l’apparition de laboratoires spécialisés sur les digital humanities, et simultanément, l’émergence de réseaux et de structures internationales chargées de repérer ces nouveaux systèmes de recherche. Par ailleurs, ont été créées des cyberinfrastructures qui sont de nouveaux environnements de recherche à la pointe de la technologie.

C’est finalement tout le monde de la recherche, toute sa structuration qui se trouve modifiée. Au niveau des champs de recherche, là aussi, les bouleversements sont nombreux : on assiste à la constitution de bases de données sans précédent jusqu’à aujourd’hui, concernant aussi bien des archives historiques (numérisation de corpus imprimés, mais aussi d’images et de documents de nature très variée) que de données contemporaines, issues notamment de l’usage d’Internet, des objets connectés (Smartphone par exemple), etc.
Tout ceci constitue de gigantesques corpus rendus accessibles par de nouveaux outils en capacité de les analyser. Cette aptitude à accumuler et traiter des informations se double d’une modification des activités des chercheurs : ils travaillent davantage en coopération, échangent plus vite, associent de très nombreuses compétences et profils… Autrement dit, les digital humanities contribuent à l’interdisciplinarité et renouvellent à la fois les problématiques (de nouvelles questions apparaissent) et la manière de les constituer, comme de les traiter.

Enfin, on notera que les humanités numériques donnent l’occasion au chercheur de rendre publics ses travaux autrement, par l’article scientifique certes, mais aussi par divers outils plus accessibles comme les blogs ou les carnets de recherche en ligne. Ce qui repose aussi la question de la relation chercheur / société, avec nombre de projets qui intègrent la participation de contributeurs non chercheurs (qui peuvent fournir des données, les commenter, etc). Autrement dit, les humanités numériques apparaissent comme un bon vecteur pour qui s’interroge sur les nouvelles pratiques de la recherche en sciences sociales, ainsi que sur les relations sciences / sociétés, car elles révèlent et provoquent de nombreux changements. 

(1) « A companion to Digital Humanities » sous la direction de Susan Schreibman, Ray Siemens et John Unsworth, éditeur : Wiley-Blackwell, 2008. Pour un autre éclairage, voir aussi « Debates in the digital humanities » sous la direction de Matthew K. Gold, éditeur : University of Minnesota Press, 2012.

Définition, généralités

Comme nous l’avons mentionné d’emblée, les digital humanities étant à la fois une appellation, un champ de recherche, des méthodes, une référence au passage à une société numérique, de nouvelles manières de chercher et de diffuser le savoir… il est bien difficile d’en donner une définition définitive.
Cependant, on peut considérer que les humanités numériques cherchent à articuler les disciplines des sciences sociales (arts, lettres, sciences humaines et sciences sociales) aux technologies numériques. Elles modifient clairement l’image et la nature des sciences sociales, en ce qu’elles permettent de questionner leurs fondements : elles proposent de nouveaux outils, de nouveaux corpus, de nouvelles manières de travailler, de nouvelles manières de diffuser le savoir, etc. Et ce faisant, elles contribuent grandement à ancrer à nouveaux les sciences sociales dans la société, à renforcer leur « utilité sociale » et dans une certaine mesure aussi, à les re-légitimer.

Illustration : ©Michael Morgenstern for The Chronicle 

Qu'apportent les Digital Humanities ?

Mais au juste et au-delà des questions techniques et méthodologiques, quels sont les apports des digital humanities ? Débats et controverses, mais il nous paraît nécessaire d’apporter quelques éléments de réponse dès cette section introductive. Les digital humanities semblent avoir pour principal effet de réinscrire les sciences sociales dans la sphère sociale. Après les grandes constructions théoriques, elles sont aujourd’hui en mesure d’apporter des analyses et des informations par exemple sur des phénomènes sociaux (revendications politiques, vote, mais aussi analyse des comportements d’achats, des déplacements, etc.), et d’opposer un discours solide parce que construit scientifiquement, à celui des grands médias comme des responsables politiques. Les articles de Pierre Mounier apportent sur ce point un éclairage intéressant. 

- cf analyse 1 d'Homo-numericus + suite analyse 2 
- cf  livre "Faire des humanités numériques" d'Aurélien Berra

 

Politiques publiques et cyberinfrastructures

Si le champ académique peut apparaître au premier coup d’œil comme relativement en retrait par rapport au phénomène des digital humanities, on doit pourtant considérer au contraire que les digital humanities tendent à réorganiser la structuration académique et disciplinaire.

En effet, une multitude de réseaux et de « cyberinfrastructures » s’adjoignent, avec les techniques propres au numérique, au système de la recherche traditionnel. Autrement dit, si l’on a peu construit d’universités, de très nombreux réseaux et lieux virtuels ont pris en charge l’organisation des digital humanities. Ainsi, et c’est sans doute un de ses effets les plus remarquables, le numérique qui a relancé –via les listes de distribution par mail– la capacité de dialogue et d’échange entre scientifiques, voit tout le secteur se transformer.

Car aujourd’hui, une simple liste de distribution ne suffit plus pour coordonner tous les chercheurs, laboratoires et institutions qui s’intéressent aux digital humanities… Sont apparus de nouveaux réseaux, et notamment les outils spécifiques que sont les cyberinfrastructures, chargées de faire de la veille, de coordonner les initiatives, de permettre l’interopérabilité des données, bref d’organiser et de rendre lisible la formidable efflorescence des initiatives relatives aux digital humanities.

Au démarrage était la numérisation des documents

La numérisation à grande échelle des ressources documentaires, textuelles ou iconographiques est à la base du lent apprivoisement du numérique par le monde de la recherche. Ce mouvement a démarré aux États-Unis, quand les bibliothèques notamment, ont commencé à numériser systématiquement leurs collections. C’est à ce moment-là aussi qu’émerge la nécessité de définir des standards pour l’encodage, de manière à rendre compatibles (on parle alors d’interopérabilité) l’ensemble des données saisies par divers opérateurs. La norme qui s’est imposée au niveau mondial a été portée par le TEI (Text Encoding Initiative), un consortium qui regroupe des acteurs de la recherche scientifique dans le but de normaliser le codage de toutes sortes de documents sous forme numérique en TEI.

Puis se sont développées des infrastructures spécifiques : les cyberinfrastructures

À côté des institutions patrimoniales comme les bibliothèques, se sont développés des centres –ou cyberinfrastructures– entièrement dédiés à la production numérique au sein des universités américaines. Ils rassemblent des compétences disciplinaires et technologiques et sont conçus autour des besoins scientifiques des chercheurs et des enseignants. Au-delà de la réalisation technique, ces centres portent une réflexion sur le médium numérique lui-même.

Une politique européenne

Longtemps sous-estimée, l’intérêt de développer de grands plans d’équipement pour les sciences sociales s’est imposé progressivement, et ce sont sans doute les digital humanities qui ont fait la démonstration de la nécessité de faire des investissements importants. Jusqu’à récemment, les bibliothèques ont constitué le principal grand instrument faisant l’objet d’investissements pour les disciplines des SHS.

Il faut attendre la fin de la décennie 1990, pour qu’un virage s’opère. Aujourd’hui, il y 5 opérateurs labellisés en SHS qui se donnent pour objectif de bâtir une infrastructure numérique. Il y a notamment le DARIAH (Digital Research Infrastructure for the Arts and Humanities) qui rassemble les différentes initiatives en matière d’humanités numériques au niveau européen, et la plateforme CLARIN (Common Language Resources and Technology Infrastructure), qui a pour ambition de procurer aux chercheurs des données digitales de manière accessible et durable, ainsi que les outils qui permettent de les exploiter. 

Une politique française tardive

En France, la prise de conscience du développement d’outils nouveaux tels que les cyberinfrastructures est tardive. Cela s’explique notamment en raison de la césure nette qui existe entre les institutions patrimoniales comme les bibliothèques (qui dépendent de la Culture) et le monde de la recherche.

Ça n’est qu’au début des années 2000 que le Ministère de la recherche se saisit de cette question. Il créé alors le Comité de concertation pour les données en sciences humaines et sociales (CCDSHS) qui a pour objectif de mettre en place une politique nationale d’accès aux données pour les SHS. À partir de 2008, quatre grandes cyberinfrastructures sont développées (appelées dans le jargon français TGIR : Très Grandes Infrastructures  de Recherche), dont trois ont en charge le volet national d’une infrastructure européenne (ADONIS, PROGEDO et CORPUS).

Le très grand équipement ADONIS (Accès unique aux données et aux documents numériques en science et devenu depuis peu Huma-Num) a été lancé par le CNRS et est intervenu sur la collecte, le traitement et les calculs sur les données, le travail collaboratif, l’hébergement l’archivage à long terme avec pour objectif l’interopérabilité des données. Il comporte notamment la plateforme de recherche Isidore. Adonis est affilié au projet DARIAH.

Lire la suite du dossier  

Télécharger le dossier complet en PDF

© Millénaire3.com

La maîtrise des coûts par la technologie et les méthodes ! ABC – Lean Six Sigma – Big Data

La ‘maîtrise des coûts’ … et de la rentabilité : ‘tarte à la crème’, Graal… mais toujours un enjeu majeur, rarement abordé de manière holistique et méthodique malgré les enjeux en termes de gouvernance, compétitivité et risques.

Le pilotage est plus curatif que préventif, ce qui ne fait souvent qu’aggraver les choses. Comment expliquer sinon la vague de ‘plans sociaux’ , ‘restructurations’ et autres actions d’ingénierie sociale ? Beaucoup de managers s’appuient sur la méthode Coué ou tentent un freinage d’urgence en lançant une chasse effrénée aux ‘gaspis’, elle-même stimulée par une communication incantatoire (du style ‘les petits ruisseaux font les grandes rivières’) qui ambitionne de déclencher les réflexes pavloviens salvateurs.

Certains font appel à des ‘costs killers’ qui obtiennent souvent des résultats probants mais parfois au prix de dégâts collatéraux mal maîtrisés (e.g : perte de talents) : le « freinage d’urgence » peut vous faire déraper… Même si une embellie économique semble se dessiner, la pression sur les coûts n’est pas prête de se relâcher, avec, en première ligne, les fonctions de support et les fournisseurs.

La maîtrise des coûts passe souvent par leur transformation : les ‘business model’ doivent être revisités vers plus de transparence, de simplicité et d’ « agilité ». Vu la complexification des processus, l’imbrication des systèmes, les organisations ‘matricielles’, le rôle polymorphe de l’IT…, appréhender le prix de revient reste un exercice délicat avec en corollaire, des difficultés pour piloter la stratégie, apprécier la rentabilité ou simplement élaborer une offre de prix ! Le modèle des coûts n’est pas statique mais se préparer au pire ne peut que vous exposer… à de bonnes surprises !

Comment maîtriser les coûts ?

En réconciliant la technologie avec le contrôle de gestion, la comptabilité et les méthodes de modélisation, mesures et reengineering de processus : unification des méthodes, du modèle, du vocabulaire… Comment maîtriser les coûts s’il n’est pas possible de déterminer la relation avec les activités qui les consomment ou les génèrent ? Combien ? Pourquoi ? Pour qui ?

Les objectifs du pilotage des coûts : la performance ! (*)

La maîtrise des coûts n’a évidemment pas pour seule vocation de recalculer périodiquement un prix de revient. Les solutions doivent également permettre d’améliorer les processus, de statuer sur des options d’externalisation... en offrant les services suivants à tous les niveaux décisionnels :
• Piloter la stratégie : les objectifs de performance, le budget... La flexibilité, la réactivité. Réagir par rapport au gonflement anormal, non-linéaire ou décorrélés de certains frais.
• Orienter la politique commerciale en privilégiant les segments les plus rentables. Donner aux commerciaux une compréhension suffisante des coûts liés à chaque segment et activité (facturée ou non !), soit un gage de rentabilité et un argumentaire lors de négociations tarifaires.
• Le benchmarking (mesure de compétitivité), qui devrait s’appuyer sur un modèle normalisé, à l’exemple de celui développé par le CIGREF en France pour l’IT.
• Apprécier les charges et la valeur créée par toutes les activités: opérations, supports, projets (de tout type).
• « Comprendre » et améliorer sans cesse le fonctionnement de l’entreprise : corriger des anomalies structurelles dans le poids des fonctions de support ou le coût de certains segments, constater que certains coûts indirects doivent être ‘directifiés’... Détecter des effets de ‘subventionnement’ entre produits ou clients.

Le discours de la méthode … ABC reloaded

Dans beaucoup de secteurs économiques, la complexité croissante des processus a comme conséquence que la structure des coûts est largement dominée par les coûts indirects. Une approche de type « Activity Based Costing » semble incontournable :
• Pour déterminer et chiffrer les ‘vrais’ inducteurs de coûts.
• Pour mesurer les différents axes de revenus (produits, segments de clientèle, métier...).
• Pour analyser la performance opérationnelle et détecter les dysfonctionnements.
• Pour piloter l’entreprise selon une vue ‘métier’ plutôt qu’inspirée par l’organigramme.

Les fondements de cette méthode datent des années 80 mais l’Informatique lui a offert une seconde jeunesse. Sa mise en œuvre, avec l’architecture IT (DB, ERP, mesures de processus) qui la soutient, n’est pas un travail simple ; la prudence recommande le prototypage et le rodage par un déploiement progressif, sans oublier la loi de Pareto (le 80/20).

Les outils de pilotage des coûts

Pour piloter les coûts, plusieurs types d’outils doivent être mis en place :
• Les outils de modélisation pour fournir l’indispensable ‘cartographie des processus’ et le diagramme des flux. La boîte à outils de Lean Six Sigma.
• La mise en place systématique, dans tous les processus critiques, de sondes automatisées (sortes de ‘tachygraphes’) permettant la mesure de la consommation des ressources en même temps que la production des statistiques indispensables (« Big Data ») pour l’analyse comportementale (p.ex.: détection d’anomalies de variabilité) de ces mêmes processus.
• La comptabilité analytique. Les défis de granularité et stabilité.
• Les méthodes de mesures de coûts. Coûts standards, coût marginal, ABC.
• Les outils de management : ERP, ABM , ABB, le « Management cockpit ».
• Les outils prédictifs intégrant des courbes d’évolution des paramètres macro-économiques.
• Un ‘framework’ permettant de pérenniser et fructifier ce savoir-faire: gouvernance, méthodes, automatisation, outils de management opérationnel, appropriation et greffe génétique dans la culture de l’entreprise...
La mise en place d'un ERP et de l’ABx sont des projets stratégiques qui peuvent s'étaler sur 12 à 24 mois. Ils doivent faire l'objet d'une vision claire et d'une forte implication des clients internes, afin de faciliter l’appropriation.

Réduire les coûts – Quelques pistes

Les frais généraux recouvrent habituellement entre 200 et 300 postes répartis en cinq grandes familles (investissements, fiscalité, opérations, consommables, services) et de multiples gisements qui sont souvent interdépendants. Traiter chaque source demande d’engager des moyens spécifiques. Une simplification du business model peut être nécessaire pour le débarrasser de clients et/ou de produits ‘toxiques’.

La réduction des coûts opérationnels s’obtient par l’efficience des processus, la simplification, le pilotage des ressources, le ‘flux tendu’... Les grands leviers :
• « Lean Six Sigma » pour supprimer les activités ne créant pas de valeur, réduire la variabilité, améliorer la performance et la qualité.
• Les économies d’échelles, en retenant qu’elles ne sont pas la panacée universelle puisqu’elles se paient parfois par une perte de flexibilité.
• Le « Cloud computing » pour éviter la sur- ou sous-capacité et transformer des charges fixes IT (CAPEX) en dépenses d’exploitation (OPEX).

La réduction des coûts de structure impose l’aplatissement de ladite structure et donc le décapage de certaines couches de l’organigramme. Il faut parfois du courage politique pour supprimer des postes honorifiques ou fusionner des équipes exerçant des activités semblables mais rattachées à des directions différentes.

La réduction des coûts de coordination. La réunionite est symptomatique de déficiences organisationnelles. Un organigramme flou, des responsabilités diluées, des procédures mal définies… vont augmenter les besoins de coordination et concertation. Les responsables n'ont d'autre choix que de se réunir très souvent pour clarifier qui-fait-quoi-quand-comment-où!

Information is power … provided it is accurate & standardized & digitalized!

« You can’t manage what you can’t measure ».

Les ‘Big data’ sont une arme fatale mais encore faut-il savoir les modéliser, uniformiser, agréger, exploiter (BI)… ‘Big data could be a big investment’ : il ne sert à rien de louer des petabytes (millions de Gigas) chez un prestataire offrant des services de « cloud comouting », si c’est pour y entasser des strates de données aux contours imprécis et parfois redondants.
Différents chantiers informatiques devront être lancés pour assainir progressivement le S.I., standardiser, numériser les « intangibles » (le référentiel de compétences, les contrats…), mesurer la qualité, les activités... Réfléchir avant d’agir : avant de développer une telle architecture, il est indispensable d’en définir les objectifs business ainsi que les moyens informatiques et organisationnels à engager. On ne peut pas gérer ce qu’on ne peut mesurer mais on ne peut pas tout mesurer...

Pérenniser – La gouvernance des coûts

Comme pour la qualité, le pilotage des coûts passe par une conscientisation et une greffe dans l’ADN de l’entreprise, sans sombrer dans des débauches administratives ou une inflation de rapports chronophages. Le ‘management cockpit’ doit fournir des informations réellement décisionnelles, sans saturer la ‘bande passante’ des décideurs par des overdoses.

Le succès de la démarche repose également sur une évolution du rôle du Contrôle de Gestion qui ne peut plus se cantonner dans un rôle d’orchestration budgétaire mais devrait ‘surveiller’ tous les vecteurs (pas seulement les vecteurs comptables) qui créent la performance et maîtriser leurs dépendances croisées. Le CG doit être le ‘propriétaire’, le gardien de toutes les méthodes de calcul de coûts, y compris celles portant sur le chiffrage des ressources et projets IT : le CG occupe un poste de sentinelle et d’animateur pour définir les seuils d’alerte, centraliser, consolider, homogénéiser le reporting … pour le redistribuer aux Managers à tous les niveaux requis.

A voir s’il dispose de la marge de manœuvre, des outils et ressources pour mener de front toutes ces missions et déclencher les actions d’optimisation.

"Banks ability to prepare cost model for tomorrow will differentiate winners from losers". Roland Berger.

Bernard Timmermans, dirigeant de strategic-pilot.com
www.strategic-pilot.com

Faciliter le changement ou susciter des résistances ?

Les évolutions des équilibres de la société sont les fruits de changements, de découvertes, d’émergence de nouveaux savoirs. De la création du premier outil par un homme des cavernes….à la psychanalyse qui offre un nouveau regard sur la complexité humaine….à la machine à laver qui contribue à la libération de la femme….à internet qui bouleverse les communications et le pouvoir lié à l’information….à l’IRM fonctionnelle qui permet de découvrir les cerveaux en action ouvrant la porte à une nouvelle médecine ainsi qu’à une nouvelle pédagogie……chaque étape de l’évolution des sociétés humaines est le produit d’un changement.

À chaque changement l’être humain se pose la question de l’intérêt des opportunités qui lui sont offertes. Entre inquiétude et fantasme de fin du monde ou confiance en un futur prometteur, chacun va imaginer des risques ou des avantages en fonction de son histoire, ses expériences et ses enjeux. Notre cerveau est ainsi fait, les évolutions de l’environnement le perturbent. Par sa flexibilité, il a la possibilité d’acquérir de nouvelles connaissances, par sa structure et ses déclencheurs émotionnels, il a les moyens de s’en défendre.

Les équilibres qui le régulent cherchent la stabilité, les mouvements qui l’ébranlent encouragent l’innovation. Que ce soit dans l’entreprise, dans la société, dans sa famille, tout changement constitue, pour l’individu, une interrogation et une inquiétude potentielle. Donner aux sujets des informations sur les mécanismes cognitifs et émotionnels humains leur procurent le moyen d’une meilleure compréhension des impacts neurobiologiques de ces situations.

Forts des certitudes apportées par leurs connaissances psychologiques de nombreux coachs négligent de se doter d’explications accessibles au plus grand nombre. Le ticket d’entrée de la compréhension de la complexité humaine apportée par les neurosciences est faible par rapport à l’investissement important que nécessite l’accès à la psychologie.

Les découvertes sur le cerveau constituent un cadeau à l’humanité, elles permettent aux managers de comprendre ce qui rend l’exercice de management difficile, aux pédagogues de mesurer l’ampleur des enjeux des apprentissages, aux acteurs du changement de prendre conscience de l’importance de leur implication et de leur responsabilité sur la rapidité des évolutions.

Devant ce que l’on appelle résistances aux changements, évitons le procès d’intention et gageons que la bonne foi n’est pas en cause quand l’ignorance est méconnue. Les découvertes sur le cerveau donnent la possibilité de sortir d’injonctions auxquelles beaucoup se soumettent en tentant d’être parfait à partir de critères dépassés. Par exemple, exiger des acteurs qu’ils adhérent à des évolutions qu’ils n’ont pas désirées…qu’il suffise d’avoir dit quelque chose une fois pour que le message soit passé ou encore considérer comme évident le principe d’exemplarité. Les neurosciences donnent des pistes pour le choix de nouveaux comportements à partir de nouveaux principes écologiques (en harmonie avec la nature humaine). Comprendre pourquoi telle proposition porte des résultats ou telle autre produit des conflits ou des résistances….facilite la prise de décisions efficientes.

Facilitation du changement ou stimulation des résistances, le choix est entre nos mains ! Limitations perceptives, spécificités de la mémoire, mécanismes attentionnels, importances des émotions et des systèmes de récompenses, impact du stress ….que d’éléments à mettre en perspective afin de créer une évolution significative de la société !

Contribuer à l’émergence d’une culture où l’interaction humaine serait plus harmonieuse, voici une nouvelle étape de l’évolution de notre intelligence relationnelle. Un monde où chacun serait averti de la complexité humaine, de ses contraintes et de ses richesses. Un monde où il serait clair pour tous que l’assimilation d’un changement est en même temps un défi et une habileté spécifique pour le cerveau humain. Un monde où les dirigeants, les managers….et les autres auraient conscience qu’ils ont le choix entre faciliter le changement ou susciter des résistances !

Bernadette Lecerf-Thomas

Les ateliers d'une journée de Bernadette Lecerf-Thomas

Apprendre à penser collectif grâce aux neurosciences : jeudi 21 novembre 2013 (reste une place)
Le changement, du coaching individuel au coaching d'organisation : lundi 2 décembre 2013
Créativité et neurosciences, co-animé avec Esther Galam : lundi 27 janvier 2014

L'impression 3D, une révolution et un champs de bataille juridique

L’impression 3D (la création ou la reproduction d’objets en trois dimensions au moyen d’une imprimante 3D) permet de créer ou cloner un nombre infini d’objets de taille modeste, avec une très grande précision et dans une large gamme de matériaux, du plastique au métal, du bois à la céramique.

Technologie industrielle née dans les années 70, l’impression 3D se démocratise rapidement. Le prix d’un équipement a été divisé par plus de 1000 en trente ans, et on en trouve aujourd’hui aux alentours de 500€.
Ce qui est nouveau, c’est que l’impression 3D est arrivée à la portée des PME et des consommateurs, qui disposeront bientôt des moyens de fabriquer, à la demande et pour un coût très modique, des objets de toutes sortes, ou des répliques à l’identique de tout ou partie de produits du commerce.
Cette évolution est également devenue possible grâce à la mise à disposition par téléchargement des fichiers informatiques permettant de guider l’imprimante 3D avec précision et au couplage de l’imprimante 3D avec des scanners (capables de faire le relevé d’un objet en trois dimensions), des logiciels de modélisation 3D facilement utilisables.

Les forces en présence

Les progrès et la démocratisation de cette nouvelle technologie sont puissamment disruptifs, et auront – à terme - des effets bénéfiques considérables dans le domaine manufacturier : réduction des coûts de transport et de stockage, capacité à produire à la demande et à alimenter le réassort en fonction des besoins, faculté de produire et d’adapter des pièces à l’unité, faculté de produire partout localement, pour ne citer que ceux-là.

Mais on doit aussi redouter que cette technologie soit utilisée par les contrefacteurs, portant atteinte aux brevets, aux marques, aux modèles, voire au simple droit d’auteur sur une œuvre graphique ou plastique, causant un préjudice évident aux créateurs et fabricants des objets reproduits par impression 3D.
De manière plus préoccupante, on doit également anticiper des risques pour le consommateur, car les pièces reproduites par ce moyen n’ont souvent pas les mêmes propriétés physiques, chimiques et mécaniques (résistance aux chocs, à la chaleur, à l’usure, contact avec la peau, etc.) que les pièces originales. Personne ne souhaite des freins, des prothèses médicales ou des jouets dangereux…
Nombre de commentateurs ont identifié certaines des difficultés que l’impression 3D pose en termes juridiques, et notamment les difficultés liées à son potentiel de contrefaçon - sans parler de la fabrication d’objets dont la production est strictement régulée (tels que des médicaments ou des organes) ou qui sont intrinsèquement dangereux (comme les armes).
Pour autant, dans la majorité des cas, l’impression 3D est parfaitement licite et réalisée avec la bénédiction du détenteur des droits de propriété intellectuelle sur l’objet reproduit, que ce soit à sa demande ou avec son accord, gratuitement ou en contrepartie du paiement par l’imprimeur 3D des redevances appropriées.

Dès lors, à l’instar des précédentes ruptures technologiques liées à la réplication (de l’écriture à l’imprimerie - qui a donné naissance au copyright - puis à l’imprimante, du vinyle au DVD, puis à la distribution de contenus dématérialisés en ligne), l’émergence de l’impression 3D à grande échelle pose surtout cette question paradoxale, aujourd’hui encore sans réelle réponse : comment encourager le développement de cette technologie riche de promesses, tout en limitant ses effets néfastes que sont la contrefaçon ou la fabrication d’objets potentiellement ou intrinsèquement dangereux ?
A cette question essentielle, le juriste peut imaginer deux types de réponses, fondées sur un encadrement légal de l’impression 3D permettant d’en prévenir les effets les plus dommageables, tout en conservant son mode opératoire disruptif et son potentiel de croissance et d’innovation.

Vers un contrôle de l’intermédiation

Le premier axe envisageable est de définir les responsabilités respectives de ses différents acteurs, et en particulier celles des plateformes d’intermédiation, bibliothèques virtuelles qui mettent les fichiers d’impression 3D à la disposition de tiers, afin de doter ce nouvel écosystème d’une répartition de responsabilité pertinente.
On relève à cet égard un parallélisme évident avec d’autres types de distribution d’éléments protégés par des droits de propriété intellectuelle (musique, photo, vidéo, presse, jeu ou logiciel) à partir d’une source dématérialisée, cette comparaison étant riche d’enseignements sur le plan de la prospective juridique.

Pour ces plateformes digitales comme en matière d’impression 3D, la contrefaçon est en effet facilitée par une série de traits communs : la faculté de reproduction à l’identique sans dessaisissement ou appauvrissement de celui qui met le fichier à disposition, l’ubiquité des sources, installées dans des juridictions souvent lointaines (l’accès au juge étranger étant toujours plus difficile), la disponibilité des contenus à tout moment dans le monde entier, et la multiplicité des terminaux (PC, mobiles, tablettes, TV connectées et…imprimantes 3D).
Autre trait commun : plus on progresse vers l’aval de la chaine de reproduction de contenus, plus la lutte contre la contrefaçon est difficile, car le nombre et la dispersion géographique des utilisateurs-contrefacteurs (très souvent des particuliers) rend la contrefaçon très difficile et coûteuse à identifier, à prouver et à réprimer efficacement. L’échec patent de l’approche française issue de la loi HADOPI est à cet égard éloquent, les progrès dans le domaine de la lutte contre le téléchargement illégal étant principalement à mettre au crédit de l’amélioration de l’offre légale (voire, dans le cas du streaming, gratuite en se finançant par la publicité).

Les réponses que le droit a jusqu’ici apportées à ces points de faiblesse couvrent tous les acteurs de la chaine de distribution en ligne de ces contenus digitaux : opérateurs télécoms, fournisseurs d’accès à internet, éditeurs de sites mettant des contenus de tiers à disposition, utilisateurs.
Ainsi, législateurs (en France par les lois LCEN , DADVSI , et HADOPI , aux Etats-Unis par le DMCA ) et tribunaux (affaires Dailymotion, Napster, MegaUpload, et déjà, en matière d’impression 3D, Games Workshop) se sont-ils efforcés de forger des outils juridiques visant à juguler à sa source la mise à disposition de contenus illégaux ou dont la reproduction est illégale, en faisant porter leur contrôle sur la licéité des fichiers hébergés sur les plateformes de téléchargement, et en prévoyant d’engager la responsabilité de ces dernières dans les cas où ces contenus n’auraient pas été supprimés après notification de leur caractère illégal.

La tentation sera donc très forte, pour ceux qui ont investi dans le développement de produits et ont protégé le fruit de leurs efforts par le droit de la propriété intellectuelle (brevets, dépôt de modèles, marques, droit d’auteur), d’étendre à ces nouveaux moyens de reproduction les règles protectrices de la propriété intellectuelle et de poursuivre non seulement les auteurs de contrefaçon par impression 3D, mais surtout les acteurs qui leur en fournissent les moyens (par la mise à disposition de fichiers d’impression 3D), ce tir de barrage judiciaire visant à freiner le déploiement de cette technologie disruptive qui menace leur modèle économique.
On peut également imaginer que les sociétés d’auteurs et de gestion collective de perception des droits se saisiront de cette opportunité pour étendre à l’impression 3D leur champ de compétence – voire (en France) que le gouvernement décidera de lui appliquer la taxe sur la copie privée ou un de ses avatars.

Ces efforts des détenteurs de droits pour protéger leur position concurrentielle face au développement de l’impression 3D risquent cependant de se heurter à de sérieux obstacles juridiques, car la reproduction par le copiste, pour son propre usage et hors de tout commerce, n’est pas nécessairement constitutive de contrefaçon (objets libres de droits, exception de copie privée, usage « hors de la vie des affaires », etc.). De même, il n’est pas interdit de produire pour son propre usage, au moyen d’une impression 3D, la pièce nécessaire pour réparer, compléter ou adapter un produit acheté de manière licite.

Aussi, l’essentiel de la problématique de développement de l’impression 3D se situe au niveau des plateformes d’intermédiation qui mettent à disposition les fichiers 3D, car ce sont elles qui seront le principal vecteur de son développement (et la principale source de contrefaçon). Dès lors, ces plateformes seront également les mieux en mesure de contrôler l’accès à ces fichiers, si bien que c’est à elles que devrait incomber, pour l’essentiel, la responsabilité de s’assurer de la licéité de ces fichiers, et de la collecte et de la redistribution des redevances dues aux ayants-droit.
Dernier point, un contrôle des pouvoirs publics sur certains usages de l’impression 3D est évidemment nécessaire, et l’Etat pourrait trouver là une occasion idéale d’exercer son contrôle : il est en effet souhaitable que la production d’objets dangereux (armes), liés à la santé, etc. soit strictement encadrée.

Identification des impressions 3D

Le second moyen que l’on peut imaginer pour réduire le risque de contrefaçon et de production de produits copiés n’offrant pas les mêmes qualités que le produit original est de faciliter l’identification des objets imprimés en 3D (et qui, par essence, sont en apparence identiques aux originaux), de manière à en faciliter le contrôle et, le cas échéant, la sanction quand ils sont contrefaits ou impropres à l’usage auquel ils sont normalement destinés.
Cette identification des impressions 3D pourrait se faire par la mise en œuvre de règles analogues, par leurs effets, à celles qui régissent dans le monde entier l’identification des métaux précieux : le poinçon.
On pourrait ainsi rendre légalement et techniquement obligatoire l’insertion, dans le fichier à partir duquel l’impression 3D est réalisée et, partant, sur tout objet fabriqué par impression 3D, d’un petit symbole (un triangle en creux, par exemple, que l’éditeur 3D placerait où il le souhaite, comme il le fait pour une marque de poinçon), qui permettrait d’identifier immédiatement une impression 3D.
La mise en œuvre de ce moyen de contrôle sur les objets imprimés en 3D serait relativement aisée, puisque le caractère licite ou non de la source (le fichier 3D) n’aurait pas à être analysé, et que le contrôle de l’objet, très simple (visuel), ne porterait que sur l’indication de son mode de fabrication, laissant à l’imprimeur 3D le soin de démontrer, si nécessaire, qu’il possède les droits requis pour l’édition et la diffusion de l’objet ainsi identifié comme une impression 3D.
Corollairement, l’absence de ce symbole sur un objet imprimé en 3D vaudrait présomption de contrefaçon si l’objet ainsi reproduit est protégé par un droit de propriété intellectuelle. De même, l’absence de ce symbole sur une copie en 3D ne présentant pas les caractéristiques requises de l’objet original (même non protégé) constituerait un défaut susceptible de conduire à son retrait du marché, de manière à éviter que l’utilisateur soit trompé sur les réelles caractéristiques de l’objet par l’absence d’indication sur son mode de fabrication.
Enfin, sur le plan normatif, l’introduction de cette contrainte nouvelle (au moins à l’échelle de l’Union Européenne pour être efficace) serait relativement simple, le marquage des produits sur ce marché étant déjà régi par de nombreuses règles impératives (relatives à l’étiquetage, au marquage CE, aux poinçons, etc.), sans que cela ne pose de problème particulier.

Un équilibre à trouver

La vitesse d’adoption et la multiplicité des usages de cette technologie nouvelle dépendront du subtil équilibre qui devra être trouvé, dans les principales juridictions du monde moderne (USA, Europe, grands pays d’Asie), entre la nécessité de permettre une offre libre de services d’impression 3D, sans extension de la protection actuellement offerte aux détenteurs de droits de propriété intellectuelle, et la nécessité de réguler ce nouveau champ des possibles, par exemple par la mise en œuvre d’un régime de responsabilité des plateformes d’intermédiation adapté et d’un système d’identification des impressions 3D, afin de prévenir et sanctionner les atteintes aux droits de propriété intellectuelle ou à la sécurité des consommateurs que cette technologie peut faire craindre.
Mais ne nous y trompons pas : en dépit des réticences de certains manufacturiers et de détenteurs de droits soucieux de protéger leurs marchés, il est aussi illusoire d’imaginer que l’impression 3D pourra durablement être cantonnée à des usages ponctuels, ludiques ou de bricolage, que de penser que l’extension à l’impression 3D d’une conception très restrictive du droit de la propriété intellectuelle pourra longtemps freiner le développement de cette technologie.
Le futur ne manque pas d’avenir !

©Guillaume Seligmann, Avocat associé chez Cotty Vivant Marchisio & Lauzeral / Source : Les échos.fr - 21 octobre 2013

L'internet des objets va déferler sur le monde

J'ai déjà rédigé de nombreux articles sur l’internet des objets dont les derniers étaient sur les technologies prêtes à porter – C’est un marché clé de croissance pour demain, un enjeu culturel et sociétale à ne pas manquer ! Cela change également la notion de vie, de vivant – alliage entre l’inanimé et l’animé – L’anima ?
Voici ci-dessous in extenso © l’édito du Sénateur Trégouet sur sa newsletter RtFlash.

En août dernier le cabinet d’analyse Gartner a publié une étude prospective très intéressante mais malheureusement passée un peu inaperçue dans la torpeur estivale. Il s’agit du « Hype Cycle », une analyse qui évalue le degré de maturité de plus de 1900 technologies regroupées en 98 catégories.

Le classement des technologies proposé par ce cabinet de prospective très réputé est intéressant et correspond aux cinq « temps » du cycle de l’innovation : déclenchement, pic d’attentes, dépression, banalisation, retour de productivité.

Pour 2013, Gartner a identifié six grandes familles de technologies qui présentent toutes un point commun : elles renforcent et améliorent les relations et la communication entre l’homme et les machines. La première famille concerne les technologies qui augmentent les capacités et les performances des hommes, que ce soit physiquement, émotionnellement ou bien encore au niveau cognitif.

En second lieu, on trouve des technologies qui permettent la substitution des machines aux humains dans des tâches dangereuses, simples mais coûteuses ou encore répétitives.

En troisième lieu, on trouve les machines qui facilitent l’utilisation des outils que nous devons utiliser. Cette compréhension va de l’utilisation du langage naturel à l’interprétation juste des émotions et de leur contexte (quantification de soi, informatique affective, reconnaissance vocale…),

Quatrième catégorie de technologie : celle qui nous permet de mieux prévoir le comportement des machines dans un environnement complexe.

Enfin, cinquième et dernière famille de technologies : celles qui permettent aux personnes et aux machines d’être plus intelligents « ensemble » (interfaces en langage naturel, analyse prescriptive, big data…).

Pour Gartner, grâce à ces technologies, les êtres humains vont entrer dans une nouvelle ère : celle de la productivité et de l’efficacité augmentées. L’apparition de nouvelles interfaces transparentes, intuitives, prothétiques et portables en permanence, telles que les montres communicantes, les lunettes à réalité augmentée ou encore les puces et biocapteurs implantables, va permettre de nouvelles relations symbiotiques hommes-machines et cette mutation ne va pas manquer d’entraîner des conséquences majeures en matière de croissance et de création de richesse.

Selon ce rapport, certaines technologies sont actuellement en haut du Hype Cycle et pourraient donc connaître dans un proche avenir une phase dite « de déception », suivie d’une phase de « banalisation ». C’est par exemple le cas pour l’impression 3D ou encore pour le traitement intelligent des données massives (Big Data).

Ces technologies de rupture devraient, selon Gartner, mettre au moins cinq ans avant de connaître un plateau de productivité et de commencer à impacter massivement l’ensemble des cycles économiques et des processus industriels de production de biens et services.

Dans une autre étude publiée il y a quelques jours par le cabinet Gartner, les objets connectés (« Internet des objets ») devraient générer une valeur ajoutée de 1 900 milliards de dollars pour l’économie mondiale à l’horizon 2020, soit 2 % du produit mondial brut.

Selon cette étude, le nombre total d’objets connectés dans le monde va passer de 2,5 milliards en 2009 à au moins 30 milliards d’ici 2020. Le cabinet d’études Idate estime pour sa part que ce nombre total d’objets connectés, aujourd’hui environ 15 milliards, atteindra les 80 milliards en 2020 ! Enfin, le cabinet d’analyse économique IDC est encore plus optimiste et prévoit quant à lui 212 milliards d’objets connectés en 2020, générant une valeur ajoutée totale de 8 900 milliards de dollars, plus de 10 % du produit mondial brut !

Il est intéressant de noter que, dans le rapport qu’elle a rendu au Président de la République le 15 octobre dernier et qui concerne l’innovation en 2030, Anne Lauvergeon souligne également que l’Internet des objets et le traitement des masses de données (Big Data) constituent l’une des sept grandes priorités scientifiques techniques et industrielles que la France doit s’assigner d’ici vingt ans.

Il est vrai que le basculement technologique qui va s’opérer d’ici 2020 est vertigineux : à cet horizon, 83 % des appareils numériques vendus seront des smartphones, des tablettes ou des « ultraportables » hybrides et le PC traditionnel sera en voie de disparition. La deuxième révolution concernera la répartition et la nature des données numériques produites et traitées. Aujourd’hui, on estime en effet que 80 % des données numériques produites sont privées et 20 % publiques. Mais d’ici 2020, la part globale des données publiques aura probablement rattrapé celle des données privées.

Cette révolution de l’Internet des objets n’a pas échappé aux géants de l’électronique, du numérique et des médias. La feuille de route présentée par Intel il y a quelques jours est ainsi résolument axée sur le développement de l’Internet des objets et sur la généralisation des nouvelles puces à basse consommation qui vont être intégrées dans la plupart des objets que nous utilisons dans notre vie quotidienne.

Intel mise donc énormément sur ces nouvelles puces « Atom », gravées en 22 nm et disposant de 1 à 4 cœurs physiques, pour une enveloppe thermique variant de 5 à 10 W selon les modèles. Cette nouvelle génération de puces repose sur une micro-architecture à faible consommation, dérivée de celle conçue pour les smartphones et les tablettes. Pour s’imposer sur ce nouveau marché gigantesque, Intel mise également sur son nouveau microprocesseur Quark X1000 à très basse consommation.

Cette révolution en marche n’a pas non plus échappé à IBM qui espère bien également se tailler la part du lion sur ce nouveau marché, grâce à sa technologie MQTT (Message Queuing Telemetry Transport) et à son protocole IBM MessageSight, qui permet le traitement parallèle et en temps réel d’une très grande quantité d’informations et peut gérer simultanément jusqu’à 13 millions de messages par seconde.

Le pari d’IBM est de parvenir à faire communiquer entre eux des objets et systèmes hétérogènes très rapidement et sans consommation excessive d’énergie. MQTT a été spécialement conçu dans ce but et pourra pratiquement multiplier par 100 la vitesse de transfert des informations numériques, tout en divisant par 10 la consommation d’énergie.

Mais pour pouvoir révéler toutes ses potentialités, l’Internet des objets n’a pas seulement besoin d’une nouvelle génération de composants électroniques spécialement adaptés et de nouveaux logiciels informatiques conçus pour la communication inter-objets. Il faut également un réseau de transmission de données à très haut débit sans fil suffisamment dense et performant pour prendre en charge et acheminer dans de bonnes conditions un flux d’informations numériques qui va être décuplé.

À cet égard, il faut rappeler que le nouvel objectif de l’État est de pouvoir proposer à plus de la moitié la population un accès à la fibre optique à très haut débit d’ici 2017 puis de généraliser de cet accès à l’ensemble du pays d’ici 10 ans. Parallèlement au déploiement de cette ossature physique indispensable, la rapide montée en charge du réseau de communication à haut débit sans fil 4G devrait permettre aux trois quarts de la population française d’accéder, d’ici 2017, à ces nouveaux services numériques mobiles à très haut débit.

Il faut bien comprendre que la montée en puissance simultanée d’un réseau à très haut débit mobile sur l’ensemble du territoire et de l’Internet des objets va provoquer en seulement quelques années une véritable révolution économique, cognitive et culturelle.

La conférence Gigacom Mobilize, qui s’est tenue à San Francisco les 16 et 17 octobre derniers, a justement été l’occasion de faire le point sur l’ampleur de cette vague que représente l’Internet des objets et qui est en train de déferler sur le monde.

La plupart des experts et des professionnels présents à cette manifestation étaient d’accord pour souligner que l’avènement rapide de cet Internet des objets, combiné au très haut débit mobile pour tous, va radicalement transformer six grands domaines d’activité.

Le premier concerne la domotique au sens large, c’est-à-dire la gestion automatisée et intelligente des habitations, non seulement en matière d’énergie et de chauffage mais également en matière de sécurité (prévention des incendies et inondations, système anti intrusion) et de gestion des flux et stocks domestiques.

Deuxième secteur qui va être bouleversé, celui de l’économie numérique, du commerce électronique et des services en ligne, avec la généralisation de systèmes comme Placemeter ou Motionloft qui permettent une analyse très fine des types de clients fréquentant un magasin. L’Internet des objets va également constituer un puissant booster pour le financement participatif (crowdfunding) qui connaît un succès phénoménal en France depuis un an (80 millions d’euros levés en 2013) et va prochainement faire l’objet d’un cadre législatif pour accompagner son développement.

Troisième domaine qui va connaître une révolution sans précédent : la télésanté et la télé assistance aux personnes âgées. Dans quelques années, il sera tout simplement inconcevable pour une personne âgée de ne pas être équipée d’un système portable, une montre par exemple, surveillant en permanence ses principaux paramètres biologiques et son état de santé et informant les services médicaux en cas d’anomalies, chute ou malaise par exemple.

Le quatrième domaine qui va être impacté est celui de la téléformation et de l’enseignement à distance. Avec l’arrivée des écrans virtuels 3D directement intégrés dans les lunettes et la généralisation des commandes haptiques, il deviendra possible d’accéder à tout moment à un immense catalogue de formation professionnelle et de cours virtuels dans tous les domaines.

Le cinquième domaine est celui de la gouvernance de la démocratie électronique. L’Internet des objets va en effet radicalement changer la nature et le fonctionnement des acteurs politiques, tant au niveau national que local. Les responsables politiques vont être confrontés à de nouvelles exigences en termes d’efficacité de résultats et vont devoir gérer de nouvelles formes « d’interactivité démocratique ». Cela est déjà vrai dans certaines métropoles qui ont déployé un Internet des objets utilisé pour gérer et interconnecter les différents flux d’information (trafic routier, énergie, sécurité, déchets…) et pour réagir de façon proactive dès qu’un dysfonctionnement survient au niveau des infrastructures ou des services locaux.

Exemple de ce basculement vers la démocratie « horizontale » et participative, le succès des plates-formes communautaires urbaines, comme le site SeeClickFix qui propose aux citoyens des grandes métropoles de signaler les problèmes et dysfonctionnements locaux aux autorités municipales.

Enfin le sixième domaine est celui que l’on peut désigner sous le terme de réseaux communautaires d’échange de données. Concrètement, ce type de réseau permettra un échange direct et transversal de données entre utilisateurs, chacun devenant en quelque sorte micro serveur personnel. Cette nouvelle architecture réticulaire utilisera des protocoles « Multi-sauts » (Multi Hop) permettant à différents types de flux numériques de circuler sur un même réseau ou à un type de flux de circuler sur plusieurs réseaux différents.

Ces nouveaux réseaux hétérogènes à forte capacité d’auto organisation permettront non seulement de décupler l’efficacité et la puissance des réseaux de données numériques (en évitant leur saturation) mais constitueront également le moteur de puissantes communautés numériques d’affinités et d’intérêts qui viendront probablement contrebalancer l’hégémonie des grands réseaux sociaux actuels.

Il faut par ailleurs souligner que ces domaines d’activités ne sont pas étanches et se fertilisent mutuellement. Par exemple, on peut déjà observer que l’émergence de réseaux communautaires de partage de données a un impact direct sur la gouvernance et les processus de décision politique, qu’ils soient locaux ou nationaux. Une des illustrations de ce phénomène est l’apparition récente des pétitions électroniques de grande ampleur qui peuvent à la fois être l’expression de la puissance d’une communauté d’opinion ou d’intérêt et modifier un processus de décision politique.

Avec la généralisation de l’Internet des objets et son extension illimitée dans le temps et dans l’espace, le concept de « village planétaire » imaginé il y a plus de 40 ans par McLuhan va réellement prendre corps et devenir réalité. Mais dans ce Nouveau Monde où les processus de désintermédiation, d’auto organisation et d’asymétrie informationnelle vont régner en maître, le niveau de maîtrise cognitive et culturelle constituera plus que jamais la clé d’accès à la vie économique, sociale et professionnelle.

C’est bien pourquoi il me semble si nécessaire, alors que chaque année 150 000 jeunes quittent notre système éducatif sans aucune formation et que près de 2 millions d’entre eux sont des naufragés sociaux, sortis du système éducatif et sans emploi ni formation, que ces nouveaux outils numériques extraordinaires soient massivement et prioritairement utilisés à l’insertion sociale et professionnelle de notre jeunesse afin de lui offrir d’autres choix de vie que le désespoir, la drogue ou la violence.

Il serait en effet insupportable, non seulement sur le plan économique et social mais d’abord sur le plan humain, de laisser s’agrandir un tel fossé numérique et cognitif alors que nous allons connaître une mutation de notre économie et de notre société sans précédent depuis le début de la révolution industrielle.

©René TRÉGOUËT
Sénateur Honoraire, Fondateur du Groupe de Prospective du Sénat (25 octobre 2013)

Faut-il réindustrialiser la France ?

Faut-il réindustrialiser la France ? Quelle industrie convient à notre nouvelle civilisation ?

« L’industrie » a pris son essor sous l’impulsion de décideurs convaincus que la technologie allait être plus rentable que les guerres menées par les rois.  Le slogan de l’époque : « le bien-être pour tous grâce au progrès technique ».

Les générations montantes sentent que le « bien-être » n’est pas suffisant. Elles veulent s’accomplir. Elles vont même s’installer dans les pays prometteurs en matière d’épanouissement pour eux-mêmes et leur progéniture.

Les nations doivent donc être attractives

Ces générations veulent consommer moins, mais mieux, des biens et des services intelligents et esthétiques.
Elles veulent disposer de biens et de services au moment où elles en ont besoin plutôt que posséder tout et n’importe quoi.

Ceci nous impacte nos pratiques industrielles

Dans le même temps, la mondialisation se reconfigure. Outre certaines matières premières, seuls les biens et les services d’exception feront l’objet d’échanges entre les nations.

La guerre des talents est ouverte

L’innovation devient une composante concurrentielle entre les nations.
Au 19ème siècle, elle a porté sur des sujets lourds : l’électricité, le téléphone, les médicaments, les engrais ....
Au 20ème siècle, elle a été aussi financière et marketing.
Au 21ème siècle, elle prend des formes atomisées et composites, développée selon des itérations courtes et incertaines, mariant toutes sortes de talents et de savoirs autour de projets multidisciplinaires.
La structure pyramidale de nos institutions et de nos grandes entreprises est inappropriée pour développer et financer cette forme d’innovation.

L’esprit du 2.0 devient le souffle du renouveau

Jusqu’à présent, les nations ont favorisé leurs grandes entreprises afin qu’elles aillent conquérir les marchés mondiaux. Devenues transnationales, elles ne sont plus une garantie de prospérité pour les nations.
Le nouveau défi consiste, au contraire, à se doter d’un tissu d’entreprises réactif et créatif, composé d’entreprises de taille humaine, à la durée de vie relativement courte et en symbiose avec leurs environnements géographiques et culturels.
La nouvelle règle est simple : une entreprise se construit autour de ses héros. Lorsqu’un corps business nouveau apparaît, il est illusoire de vouloir convertir les héros. Il est préférable d’en faire émerger de nouveaux qui vont créer des sociétés optimisées pour la nouvelle donne.

Un tissu d’entreprise fiabilisé et dynamisé par son architecture en réseau

La notion de travail est également entrain d’évoluer : que faire des citoyens rendus oisifs par les progrès technologiques et organisationnels ? Comment faire évoluer la protection sociale dont nous avons besoin réciproquement ?
La vraie vie se déroule en six étapes : je nais, j’apprends, je fais, j’innove, je transmets et je me rends utile.
Actuellement nous ne respectons que quatre étapes : je nais, j’étudie, je produits et « on » me retire du système.
Nous devons faire en sorte que chacun puisse contribuer efficacement à chaque étape de son propre parcours de vie.

 

Face à la jeunesse de certains continents,  nous mettons en œuvre la complémentairté des générations

La société va donc devoir récompenser distinctement deux formes d’activités :

- les activités productives (38 % de notre activité – Source Insee) : elles sont actuellement financées par le marché et soumises aux lois de la finance, dont le fonctionnement amoral devient une entrave.
- les activités contributives (48 % de notre activité – Source Insee) : ces activités concernent la compétitivité sur le long terme et l’attractivité de la nation. C’est dans ces activités que se développent le terreau social, artistique, culturel, politique ou encore spirituel, mais aussi la recherche et l’innovation.
Ces activités se développent actuellement dans le cadre du bénévolat (peu fiable) et du volontariat (peu dynamique). Elles sont financées essentiellement par la fiscalité. Or la fiscalité devient ingérable tant localement qu’au niveau planétaire.
Le revenu de base, couplé aux monnaies complémentaires, ouvre des perspectives intéressantes qui méritent d’être approfondies en toute objectivité.

Elargisssons ces travaux de la sphère militante à celle des chercheurs

Ainsi, ne réfléchissons plus à l’industrie isolément, mais posons-nous la question de savoir comment favoriser le développement d’un entrepreneuriat adapté à l’économie créative, circulaire et contributive répondant aux attentes des générations montantes et au nouveau fonctionnement de la mondialisation.
Rien ne se fera sans audace.

Geneviève Bouché, Docteur en Prospective - 27 Octobre 2013 (Intervention LH Forum sept 2013)

Innovation : faire levier de l'intelligence collective

A l'occasion de la 5e édition de Lift France - dont InternetActu est partenaire -, qui s'est tenue à Marseille les 15 et 16 octobre 2013 sur le thème de "Produire autrement", nous vous proposons une présentation de Geoff Mulgan du Nesta, l'agence de l'innovation britannique, qui s'est ouverte à de nouvelles formes d'innovation : l'innovation sociale.

Comment rendre l'innovation à la fois moins technologique et plus participative ?

"L'ouverture est extrêmement importante, mais ce n'est pas auprès d'une assemblée comme celle de Lift qu'il y a des gens à convaincre. Pour autant, on sait qu'on ne peut pas tout ouvrir : les gens n'auraient pas envie qu'on publie toutes les déclarations d'impôts ou tout ce qu'ils font sur l'internet. La société repose donc sur un équilibre entre la fermeture et l'ouverture", introduit Geoff Mulgan sur la scène de Lift.
Geoff Mulgan a longtemps été le responsable, et l'âme, de la Young Foundation, une organisation britannique de promotion de l'innovation sociale, et est devenu récemment le responsable du Nesta, l'agence de l'innovation britannique. Au Nesta, Geoff Mulgan travaille désormais au financement de projets ouverts et collaboratifs. Les deux entités ont une grande partie de travaux communs. Depuis sa création en 2006, la Young Foundation a soutenu, lancé et encouragé de nombreux projets ouverts comme l'Open University, les écoles ouvertes et de nombreux projets essayant d'ouvrir le monde de la santé au public. Pour Geoff Mulgan ces projets doivent bien sûr suivre leurs stratégies, mais ils doivent surtout prendre en compte les hiérarchies existantes, permettre de développer de nouveaux modèles à l'extérieur des modèles fermés qui structurent notre société.

Et Geoff Mulgan propose de nombreux exemples qui vont dans ce sens. Who Owns My Neighbourhood permet de savoir à qui appartiennent les terrains anglais, dans le but de permettre de faciliter les discussions collectives autour de ce qu'il est possible de faire de certains terrains ou immeubles et faciliter les projets locaux.
Sutton Bookshare est un site développé avec le soutien de la municipalité pour encourager les habitants à échanger les livres de leurs propres bibliothèques, pour élargir l'offre de la bibliothèque publique locale.
A Birmingham se mettent en place des tableaux de bord civiques qui a pour but de montrer les demandes que font les habitants à leurs administrations et d'évaluer leur traitement.


Image : Le tableau de suivi des demandes des citoyens de Birmingham, permettant à l'administration de cartographier les requêtes, de les qualifier, de traçer les réponses...

A Londres, le répertoire de données de la ville a permis par exemple de lister et visualiser les endroits les plus dangereux à vélo de la ville. MyDex est un nouveau projet qui permet aux citoyens de redevenir maître de leurs données face au besoin des entreprises et des administrations, leur permettant de faire attention à leurs données et de limiter les abus de ceux qui les agrègent pour nous.
Slivers of Time est une plateforme permettant de faire de l'échange de produits ou de services locaux, dans le cadre du voisinage ou du travail.
Tyze est un système qui permet d'approfondir les relations sociales plutôt que les étendre, comme le proposent la plupart des réseaux sociaux, en s'intéressant à comment approfondir les réseaux de soutien de personnes dépendantes comme les handicapés ou les personnes âgées.
Maslaha est un site participatif créé à la demande d'adolescents britanniques musulmans qui souhaitent avoir un espace pour demander des conseils sur les dilemmes auxquels ils sont confrontés dans leur vie quotidienne pour vivre leur religion. C'est un espace social qui leur permet d'échanger et de recevoir des réponses simples à leurs problèmes comme, que fait-on si on est diabétique pendant le ramadan... "Encore une idée simple qui tente de relever des aspirations humaines et d'humaniser la technologie".


Image : la page d'accueil de Maslaha.

Action for Hapiness est un autre réseau lancé en avril 2011 qui a pour objet de donner à des gens des outils et des conseils pour avoir des vies plus heureuses. Sur le même principe que Maslaha, il regroupe à la fois des conseils d'experts, un décryptage des connaissances scientifiques sur ces sujets et des discussions entre les usagers pour qu'ils échangent leurs méthodes pour être heureux. "Là encore, c'est un système hybride entre des choses très ouvertes et très fermées, entre des choses très hiérarchiques et d'autres très horizontales", commente Geoff Mulgan.

Les Social Innovation Camp sont également des formes d'action pour soutenir des projets d'innovation sociale qui a permis de faire éclore des programmes comme Enabled by Design, qui est un site qui fait travailler des designers à des projets autour du handicap, My Police pour lancer une conversation entre policiers et citoyens. L'un des derniers projets primés par les Social Innovation Camp - Food Radar - est un projet qui vise à utiliser des aliments non utilisés à la fin de la journée dans les restaurants afin d'éviter le gaspillage.

I DO Ideas est un site pour faciliter le soutien aux projets des adolescents. "Plutôt que de leur demander de remplir un formulaire pour obtenir une subvention, on leur demande de publier une vidéo qui explique leur projet."

Il y a un an, la Young Foundation a lancé les Studio School, des écoles pour des adolescents qui détestent l'école. Pour fonctionner, elles ont supprimé les bureaux pour fonctionner en mode projets avec des partenaires et des entreprises extérieures. Une dizaine ont été ouvertes, avec pour but d'intégrer l'apprentissage dans l'action, dans le "faire". "Il faut bien voir, là encore, que la technologie n'est pas le point de départ. Dans les années 90, on implantait la technologie dans les classes, sans grand succès. Ici, tout repose sur l'esprit de l'éducation. Cerner le problème pour bâtir des relations autour", estime Geoff Mulgan.

Geoff Mulgan pourrait continuer longtemps à lister des projets stimulants... Pour lui, ce qu'il faut en retenir, c'est la valeur de la synthèse entre hiérarchies et réseaux ouverts, permettant de faire des liens entre deux mondes. Il y a là assurément un espace de discussion qu'essayent d'habiter les laboratoires du service public du Nesta ou les travaux de la Young Foundation...

Cependant, tout ne marche pas, reconnaît avec lucidité le gourou de l'innovation sociale britannique. La police néo-zélandaise a essayé de faire une législation sur son fonctionnement sur un wiki sans grand succès. Aux Etats-Unis, Peer to Patent, un système de commentaires sur les brevets, fonctionne bien mais Challenge.gov, qui avait pour but de capter des propositions citoyennes pour le gouvernement, lui, fonctionne assez mal.

"Comment peut-on mieux apprendre à mesure que l'innovation accélère ? Qu'est-ce qui marche vraiment dans le domaine du crowdsourcing, de l'innovation, des systèmes participatifs ?"

Au Nesta, le Social Innovation Exchange, un réseau social autour de l'innovation sociale, essaye de regarder ce qui marche et ne marche pas. The Global Innovation Academy essaye de faire le même travail au niveau mondial.

Il est important de rendre l'innovation simple, compréhensible, facile à appréhender pour les gens. Elle ne doit pas seulement être "quelque chose pour les experts", explique encore Geoff Mulgan. "Ce que l'on constate, c'est que les innovations dans le domaine social ne sont pas des percées fondamentales ou des choses très originales. Elles reposent souvent sur des méthodes faciles à décrire comme l'inversion (via des jeux de rôles où les paysans deviennent des banquiers, les patients deviennent des médecins...), l'intégration (mise en place de conseillers personnels...), la différenciation (via la personnalisation ou la segmentation des services)... et bien sûr la créativité". "Des outils de conception sociale démocratique", comme il les appelle dans sa présentation. "Mais ce ne sont que des méthodes pour développer des idées originales. Il n'y a pas de mystère autour du processus d'innovation : il n'est pas si difficile à mettre en place."

"Ce que nous avons appris du fonctionnement du cerveau c'est qu'il sait aussi arrêter les flux d'information. Il faut obtenir le bon équilibre entre le flux et l'ouverture. Le silence permet aussi de réfléchir. Il nous faut des technos qui nous aident à retrouver le silence et aussi des technos qui nous aident à accélérer le flux de données. Nous avons besoin d'être à la fois rapides et lents, ouverts et fermés, tout le temps connectés et déconnectés. Beaucoup de choses ne vont pas fonctionner dans l'intelligence collective. Ces initiatives doivent accepter l'échec, expérimenter. L'intelligence collective comme toutes les intelligences a besoin de grammaires, de structures... Et c'est à nous de comprendre celles qui fonctionnent le mieux."

(Source : ©Hubert Guillaud / InternetActu - Sept. 2013)

Maryline Passini, Proâme - oct 2013

Nous sommes des Apocalypse's addicts

L'Apocalypse est à la mode. Ce n'est pas moi qui le dit mais, notamment Marc Jacobs à travers son dernier défilé printemps-été 2014 à la Fashion Week de New-York ce 13 septembre : décor apocalyptique de carcasses de bus et de voitures éventrées, de mannequins défilant au pas militaire,...
Tout comme Chanel Haute Couture sous la verrière du Grand Palais de Paris présentait dans un décor de théâtre en ruine sa collection automne-hiver 2013-2014 : un sol recouvert de gravas, des bancs effondrés ...

Indécence ou pied de nez à l'heure où tant de pays sont en guerre ? Révélation de notre propre fragilité, des dangers à éviter ?

A propos du dernier défilé de Marc Jacobs, dans l'hyper revue de presse de France Info du 17 septembre, écoutez l'analyse de Thomas Jamet, professeur à Science-Po : 

Les films hollywoodiens tirent leurs héros des scénarii répétés d’Apocalypse ; pourtant 2012 est derrière nous (la fin du monde) alors qu’est-ce que cela nous apprend-il ?
Ma curiosité de psycho-sociologue me pousse à aller voir des films grand public diffusés dans les mass médias. Ce qui m’intéresse est notamment d’observer ce que la filmographie hollywoodienne nous concocte, ceci afin d’identifier ce qui façonne l’imaginaire du plus grand nombre. Et avec 2013 je n'ai pas été déçue ! 

Décryptage

2012 est donc passée et pourtant 2013 a apporté une avalanche de films apocalyptiques. Que sera 2014 ?!

Je suis impressionnée par le nombre significatif de films hollywoodiens qui ne sont pas juste "catastrophe" mais carrément "apocalyptique"  comme Oblivion, After earth, Star Trek into Darkness, Iron Man 3, Man of steel, World War Z, Pacific Rim, pour ne citer qu'eux ; pas moins de sept films en sept mois sur des bases de scénario catastrophe et de Terre détruite.

La fascination de la destruction

2012 avait largement véhiculé son égrégore apocalyptique, comment se fait-il que cela continue autant en 2013 ?
La question à se poser est alors : les personnes n'en ont-elles pas assez de véhiculer un imaginaire de destruction ? Et que vient-il nourrir ?
Je postule que, face à ce moment de notre histoire qui est un changement majeur de paradigme de société, un tournant déterminant, démuni face aux destructions massives des repères antérieurs et en panne à pouvoir concevoir les nouveaux, il ne reste alors plus que le recours à l’imaginaire collectif d’apocalypse (au sens de destruction). Face à l’ampleur des changements à opérer il ne reste plus que la catastrophe, faire Tabula Rasa du passé dont on ne parvient pas à se départir rêvant de leader charismatique (héros solitaire dans les films hollywoodiens, nourrissant l’imaginaire du self-made man américain) pour nous sortir du pétrin et nous conduire, tel Moïse vers une prochaine Terre Promise. Les classiques ont la vie dure.

Un imaginaire anachronique

Pourtant, ces films sont anachroniques avec ce que les citoyens réalisent véritablement. Il existe désormais des milliers d’alternatives, de propositions positives relayées par de très nombreux médias : Sparknews, Reporters d’Espoir, Positive Presse et bien d’autres encore. Ouvrages, articles, blogs relaient les actions de millions de citoyens qui font changer le monde dans le silence et l’anonymat pour la plupart. Rien de spectaculaire et pourtant le monde change réellement.
« Quand un arbre tombe, on l’entend ; quand la forêt pousse, pas un bruit. »  Proverbe africain.

Pourquoi le phénomène persiste-t-il ?

Alors comment se fait-il que ces films continuent à être tournés et vus ?
Pour les lobbies que sous-tendent ces différents films : perpétrer le modèle de société précédent est une nécessité. Ainsi le lobby de l’armement a-t-il tout intérêt à ce que les plus jeunes soient habitués, dès leur plus jeune âge et via les jeux vidéos, la télévision et le cinéma, à trouver « normal » d’utiliser des armes pour « se défendre » et aussi d’associer l’image du héros aux forces militaires.
Ceci renforce les mythologies classiques et majoritairement basées sur la violence et permet de nourrir un des plus lucratif business, avec celui de la drogue. D’autres lobbies y trouvent également leur compte en nourrissant les peurs (assurance, médicaments, sécurité..). Nous maintenir dans la peur inhibe les alternatives, les prises d’initiative et les élans de transformation de la société, au moins pour le plus grand nombre et permet de maintenir la masse des citoyens docile, entretenant le système tel qu’il est qui à ce jour et profitant uniquement à une poignée de privilégiés (oligarchie pour reprendre les termes d’Hervé Kempf - ex chroniqueur écologie Le Monde).

Mais qu’en est-il pour les citoyens que nous sommes ?

Nous y trouvons la facilité de la distraction et de la détente. Pour certains psychologues regarder la violence à l’écran a un effet cathartique (voir les travaux de Serge Tisseron), cependant, ils entretiennent nos fonctionnements les plus archaïques (cerveau reptilien). Ainsi, au prétexte de nous « détendre », nous cautionnons un système et nous faisons l’économie de la moindre remise en cause.

Eros et Thanatos (une explication psychanlytique)

Par ailleurs, la dynamique pulsionnelle Eros (vie) et Thanatos (mort) est bien à l’œuvre dans l’imaginaire américain. Le fait d’être la première puissance économique mondiale, encore aujourd’hui, et surtout de par son hégémonie militaire, les Etats-Unis se placent dans un état « psychique, conscient et inconscient » de surpuissance. Cette position étant narcissiquement difficile à tenir, car il n’y a pas de reconnaissance d’altérité (celle de l’autre puisqu’il est considéré comme « inférieur »), alors la seule manière de se magnifier davantage est de fabriquer des super héros, souvent issus des bandes dessinées, Comics. N’ayant pas de concurrence, ils la fabriquent.

En étant la première puissance mondiale, les Américains n’ont plus rien à atteindre (si ce n’est pérenniser cette position), ainsi, la seule possibilité pour maintenir l’équilibre psychique aussi bien individuel que collectif réside dans le fait d’imaginer de se détruire pour avoir les conditions exceptionnelles de faire émerger un héros providentiel et courageux ayant la capacité de sauver la première puissance mondiale.
Cependant, à force de créer des fictions catastrophiques survient des évènements comme le 11 septembre 2001. Et le plus surprenant, c’est que l’événement passé, les filmographies ne changent pas… ! Voire elles s’accentuent en fréquence et en intensité spectaculaire.
Peut-être pourrions-nous explorer d’autres voies de manifester le vivant que cette dialectique infernale d’Eros et Thanatos.

Les dessous du film World War Z

Je reviens sur les films sortis en 2013 et je m’arrêterais tout particulièrement sur World War Z.

Le film commence par un discours sur la Mère Nature qui est un serial killer (inversion de la représentation Terre = Vie qui justifie ensuite toutes les luttes contre elles). Ensuite, la sempiternelle catastrophe qui touche les Etats-Unis et le héros solitaire qui les sauve (je ne détaille pas car le film est suffisamment connu et systématique de ce genre de films).
Ce qui m'a impressionnée c'est le nombre de "zombis", le fait que la population entière de la planète soit touchée. Et je trouve là que nourrir l'imaginaire mondial d'un virus qui décime l'essentiel de l'humanité (en l'occurrence qui la transforme en monstres) pose question. Cela me laisse penser qu’incapables à gérer l'augmentation de notre population, nous fantasmons sur une mort, une épidémie qui décimerait la majorité d'entre nous et permettrait de repartir de zéro, sur de nouvelles bases. Nourrir cet imaginaire c'est préparer des individus au pire, considérant la normalité de ces catastrophes. Et trouver aussi normales les modalités guerrières de réponse aux agressions. Nous sommes ainsi doucement préparés à pouvoir accepter le pire.

Je trouve que c'est grave. Nous devrions nourrir l'imaginaire populaire de vie et de ce qui peut conduire à la joie, au bonheur, à la solidarité, au respect des différences, sans que cela soit mièvre mais juste décider d'inverser l'utilisation des énormes budgets cinématographiques vers des films qui seraient une ode à la vie et qui sait à la Terre ?

Mais ce n'est encore pas tout..!

Le début du film se passe aux USA, puis rapide passage en Corée du Sud et puis Jérusalem : on y voit une belle image où Juifs et Musulmans prient de concert au centre de Jérusalem, redevenue pour quelques minutes un havre de paix.
Puis, les zombies montent à l'assaut du mur pour finalement le franchir et se déverser sur la population contaminant, par morsure des milliers de gens. Ce qui est alors choquant c'est la manière dont est filmée cette scène et donne l'impression de voir des cohortes d'insectes dont nous savons que la majorité d'entre nous a horreur de leurs grouillements (surtout en Occident). Au delà de l'analogie faite avec les insectes, autre chose est choquant, les corps tombent en tas les uns sur les autres, représentant des pyramides de chair humaine, de corps empilés...
Cette désagréable impression de déjà vu va continuer car une fois les humains "sains", provisoirement sauvés (j'y reviens), il est alors question d'éliminer ce virus, qui s'est emparé des millions d'êtres humains. Il est donc question d'exterminer ces derniers. Et pour ce faire, on voit quelques images qui rappellent le napalm lancé sur les populations vietnamiennes, puis le film se termine avec des pyramides de corps amoncelés. Là, le doute n'est plus possible, les horreurs de la Shoah resurgissent. Et le lien entre Jérusalem et des corps éliminés de manière systématique et en grande quantité fait froid dans le dos.
Pourquoi?
Parce que ces images s'infiltrent dans notre imaginaire pour parvenir à l'objectif suivant : toujours banaliser la violence, et nous préparer à trouver normal d'exterminer les humains qui sont nocifs !!!! Cela pose alors la question de la normalité : qui est « sain » ou « normal » et qui ne l’est pas et que faisons-nous de la différence ? Comme gérons-nous la diversité ?

Je reviens sur ce qui permet aux personnes "saines" de s'en sortir : dans le film le héros propose de s'inoculer un virus mortel afin que celui-ci délaisse les corps devenus malades. Ainsi, l'avenir de l'humanité réside-t-il dans le choix entre deux maux … mortels... Chouette perspective.

Curieuse nourriture pour nos imaginaires et à quelle visée surtout quand on compte le nombre de films qui véhiculent des concepts similaires. Le suivant étant Pacific Rim qui explique que pour sauver l'humanité de l'Apocalypse et des monstres qui détruisent la Terre (enfin la partie humaine), il faut réaliser l'union de l'homme et de la machine pour lutter ensemble... Encore lutter et surtout nous faire avaler tout cru l'évidence de notre futur : pour le bien de tous, il est impératif de combiner homme et machine. Ainsi, pour nous sauver, nous sommes prêts à devenir hybrides.

La science-fiction nourrit l’imaginaire de millions de gens et en particulier des ingénieurs, toutes formations confondues, qui bien souvent passent leur vie d’adulte à vouloir réaliser ce qui les a fait rêver adolescents. Aujourd’hui notre monde économique, technologique est façonné par les ingénieurs. Nous avons donc une grande responsabilité à laisser ces films se produire et plus encore à les regarder. Sans public, les producteurs et réalisateurs se tourneraient vers autre chose.
Notre besoin de détente nous conduit, inconsciemment, à cautionner le système et à nous faire « intoxiquer » par des nourritures ludiques qui ravinent ensuite notre quotidien.

Ce petit billet avait juste pour ambition de nous rendre attentifs et vigilants aux manipulations mentales qui constituent les images de nos loisirs.

Christine Marsan, Psycho-sociologue

- Lire les ouvrages de Christine Marsan : 
"L’imaginaire du 11 septembre" Ed. Camion Noir, 2012.
"Communication d’influence" Ed. CFPJ, 2009.
"Entrer dans un monde de coopération, une néo-RenaiSens" Ed. Chronique Sociale, 2013.

- Lire "L'Apocalypse joyeuse" ou une histoire du risque technologique de Jean-Baptiste Fressoz 

- Lire article "Science-fiction : mythologie is message" de David Morin-Ulmann /UP'

- Lire article "Prospective et science-fiction" de David Morin-Ulmann / UP'

Le pilotage des coûts par la technologie et les méthodes !

La ‘maîtrise des coûts’ : ‘tarte à la crème’ mais toujours un enjeu majeur, rarement abordé de manière holistique et méthodique alors qu’il recouvre un énorme avantage concurrentiel en même temps qu’une assurance ‘tous risques’. Le pilotage est plus réactif que préventif, ce qui ne fait souvent qu’aggraver les choses. Comment expliquer sinon la vague de ‘plans sociaux’ , ‘restructurations’ et autres actions d’ingénierie sociale. Beaucoup de managers s’appuient sur la méthode Coué ou tentent un freinage d’urgence en lançant une chasse effrénée aux ‘gaspis’, elle-même stimulée par une communication incantatoire et hypnotique (du style ‘les petits ruisseaux font les grandes rivières’) qui ambitionne de déclencher les réflexes pavloviens salvateurs. 

Certains font appel à des ‘costs killers’ qui obtiennent souvent des résultats probants mais parfois au prix de dégâts collatéraux mal maîtrisés (e.g : perte de talents) : le « freinage d’urgence » peut vous faire déraper…

Même si une embellie économique semble se dessiner, la pression sur les coûts n’est pas prête de se relâcher, avec, en première ligne, les fonctions de support et les fournisseurs. Près d’un tiers des banques du top-25 annoncent des plans de réduction des coûts de 6-7% à l’horizon 2014-2015, d’autres affichent des objectifs moins ambitieux ou même flous pour près de 40%. La maîtrise des coûts passe souvent par leur transformation: les modèles doivent être revisités vers plus de transparence, de simplicité et d’ « agilité ». Vu la complexité croissante des processus, l’intégration des systèmes, les organisations ‘matricielles’, le rôle polymorphe de l’IT…, appréhender le prix de revient reste un exercice délicat avec en corollaire, des difficultés pour piloter la stratégie, apprécier la rentabilité ou simplement élaborer une offre de prix! Le modèle des coûts n’est pas statique mais se préparer au pire ne peut que vous exposer… à de bonnes surprises !

Comment maîtriser les coûts ?

En réconciliant la technologie avec le contrôle de gestion et les méthodes de « cost modelling » et de reengineering de processus. Comment maîtriser les coûts s’il n’est pas possible de déterminer la relation avec les activités qui les consomment ou les génèrent ?
La maîtrise des coûts passe notamment par la mise en place de capteurs permettant de mesurer automatiquement le comportement des processus : capacité, maturité, unités d’œuvre, lead time... Bien entendu en essayant de ne pas construire ou transformer une ‘usine à gaz’, en capitalisant sur l’existant et sans réinventer la roue ; vous n’avez pas le temps, la chasse aux coûts s’opère souvent dans l’urgence. Il y a lieu d’engager simultanément plusieurs types d’actions :
• Traduire si nécessaire la stratégie en objectifs chiffrés.
• Modéliser l’entreprise. La cartographie des processus.
• Mesurer les processus. Les charges, la capacité, le ‘lead time’, la ‘maturité’.
• Calculer les coûts en sélectionnant la bonne méthode. Activity Based Costing.
• Numériser. Les intangibles, les compétences. ERP. CRM.
• Piloter les coûts. Le management cockpit. Activity Based Management. Activity Based Budgeting.
• Réduire les coûts. Lean Six Sigma.
• Pérenniser dans la gouvernance et la culture. Appropriation.
Ceci impliquant de coordonner plusieurs types d’acteurs : l’Exécutif, le Contrôle de gestion (CFO), la DSI, l’Organisation, les OPS, le PMO… Une logique de projets, des investissements, un plan directeur, un Architecte…

Les objectifs du pilotage des coûts : la performance !

La modélisation des coûts n’a plus pour seule vocation de chiffrer un prix de revient, une fois tous les deux ans. Au-delà de leur aptitude à rendre lisibles les coûts, les solutions doivent permettre d’améliorer, d’optimiser les processus, de décider de l’externalisation ou non de certaines fonctions... Le pilotage des coûts doit offrir les services suivants à tous les niveaux décisionnels :
• Piloter la stratégie, les objectifs de performance, le budget. La flexibilité, la réactivité. Réagir par rapport au gonflement anormal, non-linéaire ou décorrélés.. de certains postes.
• Orienter la politique commerciale en privilégiant les segments les plus rentables.
• Permettre de déterminer les prix de la manière la plus fine possible, non seulement en fonction du produit mais également du segment de clientèle (couple client/produit).
• Apprécier les charges et la valeur créée par toutes les activités : opérations, supports, projets (de tout type).
• Donner aux commerciaux une connaissance suffisante des coûts liés à chaque segment, soit un gage de rentabilité et un argumentaire lors de négociations tarifaires.
• « Comprendre » le fonctionnement de l’entreprise et corriger par exemple des anomalies structurelles dans le poids des fonctions de support ou constater que le FO consacre trop de temps à faire du BO… au profit d’un seul segment et que certains coûts indirects doivent être requalifiés. Détecter des effets de ‘subventionnement’ entre produits ou clients.

La nébuleuse des coûts

Les frais généraux recouvrent habituellement entre 200 et 300 postes répartis en 5 grandes familles : investissements (IT, immobiliers, R&D), impôts et taxes, opérations, consommables, services achetés ou loués. Les ‘coûts’ trouvent en effet leur source dans de multiples gisements qui sont souvent interdépendants:
• Coûts de production.
• Coûts des matières premières et des services achetés ou loués.
• Coûts de structure (armée mexicaine, processus éclatés, responsabilités diluées).
• Coûts de coordination amenés notamment par des responsabilités mal définies et qui provoquent la réunionite.
• Coûts financiers directs et indirects. Le loyer de l’argent.
• Coûts liés à la non-qualité ou à des déficiences organisationnelles.
• Coûts directs et indirects des projets informatiques. TCO.
• Coûts d’opportunité (substitution, renoncement, retards de projets).
• Coûts de distribution (marketing, publicité).
• Déséquilibres entre besoins et ressources (IT, RH…).

Traiter chaque gisement demande d’engager des moyens spécifiques. Une simplification du business model peut être nécessaire pour le débarrasser de clients et/ou de produits ‘toxiques’.
Le discours de la méthode … ABC
Dans le secteur financier, vu la complexité des processus, la structure des coûts est largement dominée par les coûts indirects. L’approche type ABC devrait donc s’imposer mais elle ne serait utilisée que par un peu plus de 50% des établissements : situation paradoxale dans la mesure où cette méthode est incontournable :
• Pour déterminer et chiffrer les ‘vrais’ inducteurs de coûts.
• Pour mesurer les différents axes de revenus (produits, segments de clientèle, métier...).
• Pour analyser la performance opérationnelle et détecter les dysfonctionnements.
• Pour piloter l’entreprise selon une vue ‘métier’ plutôt qu’inspirée par l’organigramme.

Les fondements de cette méthode datent des années 80 mais l’Informatique lui a offert une seconde jeunesse, permettant notamment son utilisation par les PME. Sa mise en œuvre, avec l’architecture IT (DB, ERP) qui la soutient, n’est pas un travail simple ; la prudence recommande le prototypage ou le rodage par un déploiement progressif. Quatre étapes clés :
• La définition des objectifs stratégiques, les bénéfices attendus.
• La cartographie des processus, socle de tous les outils de management.
• La mesure de la consommation et allocation des ressources, de manière transparente et acceptée.
• La mise en place systématique, dans tous les processus, de sondes automatisées et documentées (sortes de ‘tachygraphes’) permettant de capter et de modéliser les éléments de mesure.
Les outils de pilotage des coûts
Pour piloter les coûts, plusieurs types d’outils doivent être mis en place..
• Les outils de modélisation pour fournir l’indispensable ‘cartographie des processus’ et des flux entre eux. La boîte à outils de Lean Six Sigma.
• La comptabilité analytique. Les défis de granularité et stabilité.
• Les méthodes de mesures de coûts. ABC.
• Les mesures de ‘processus’: unités d’œuvre, capacité, maturité, fluidité (lead time), qualité.
• Les outils de management : ERP, ABM , ABB, le « Management cockpit ».
• Les outils prédictifs (simulations), intégrant des courbes d’évolution des paramètres macro-économiques.
• Un ‘framework’ permettant de pérenniser et fructifier ce savoir-faire: gouvernance, méthodes (lean six sigma, ABC/ABM/ABB), automatisation systématique des mesures, base de données, outils de management opérationnel, appropriation et greffe génétique dans la culture de l’entreprise...
La mise en place d'un ERP et de l’ABx sont des projet stratégiques qui peuvent s'étaler sur 12 à 24 mois et représenter un investissement pour 10 ans. Ils doivent faire l'objet d'une vision claire et d'une forte implication des clients internes, afin de faciliter l’appropriation par une adoption choisie plutôt que subie.

Réduire les coûts – Quelques pistes

La réduction des coûts opérationnels s’obtient par la fluidité des processus, les économies d’échelles, la simplification, l’ajustement des ressources aux besoins. Les grands leviers :
• « Lean Six Sigma » pour supprimer les activités ne créant pas de valeur, réduire la variabilité, améliorer la performance, la qualité, au sein des processus et entre eux (FO / MO/ BO).
• Les économies d’échelles, en retenant qu’elles ne sont pas la panacée universelle puisqu’elles se paient parfois par une perte de flexibilité.
• La simplification. L’élimination des clients et des produits toxiques.
• ‘Just-in-time’ / ‘Scalability’: équilibre ressources/besoins pour maîtriser les variations liées aux effets saisonniers ou les arrivées/départs de ‘gros clients’, éviter la sur- ou sous-capacité, etc. Le « Cloud computing » pour transformer des investissements IT (CAPEX) en dépenses d’exploitation (OPEX).
La réduction des coûts de structure impose l’aplatissement de la dite structure et donc la suppression de certaines couches de l’organigramme. Il faut parfois du courage politique pour supprimer des postes honorifiques ou fusionner des équipes appartenant à des directions différentes.
La réduction des coûts de coordination. La réunionite est symptomatique de déficiences organisationnelles. Un organigramme illisible, des responsabilités diluées, des procédures mal définies… vont augmenter les besoins de coordination et concertation. Les responsables n'ont d'autre choix que de se réunir très souvent pour clarifier qui-fait-quoi-quand-comment-où!
Le loyer de l’argent. Les retards de facturation ou d’encaissement.

Information is power … provided it is accurate & standardized & digitalized !

« You can’t manage what you can’t measure ». Les ‘Big data’ sont une arme fatale mais encore faut-il savoir les créer, modéliser, uniformiser, agréger, exploiter (BI)… ‘Big data could be a big investment’ : il ne sert à rien de louer des petabytes (millions de Gigas) dans le cloud si c’est pour y entasser des strates de données aux contours imprécis et parfois redondants. Différents chantiers informatiques devront être lancés pour assainir progressivement le S.I., standardiser, numériser les « intangibles » (le référentiel de compétences, les contrats…), mesurer la qualité, les activités...

Réfléchir avant d’agir : avant de développer une telle BD, il est indispensable d’en définir les objectifs business ainsi que les moyens informatiques et organisationnels qui devront être mis en œuvre. La crédibilité des tableaux de bord et l’efficience du management passe par la qualité des données.
La faisabilité d'un modèle ABC est en grande partie liée à la disponibilité des données. Une attention particulière doit être portée à ce point le plus tôt possible dans le cycle du projet.
Le ‘lead time’ (temps de défilement) des processus doit être mesuré de manière continue pour détecter toute anomalie liée par exemple au vieillissement des systèmes, à la disponibilité des inputs, à la complexification…
On ne peut pas gérer ce qu’on ne peut mesurer mais on ne peut pas tout mesurer..

Pérenniser – La gouvernance des coûts

Comme pour la qualité, le pilotage des coûts passe par une conscientisation collective et une greffe dans l’ADN de l’entreprise, sans sombrer dans des débauches administratives ou une inflation de rapports chronophages. Le ‘management cockpit’ doit fournir des informations réellement décisionnelles, sans saturer la ‘bande passante’ des décideurs par des overdoses.
Le succès de la démarche passe également par une évolution du rôle du Contrôle de Gestion qui ne peut plus se maintenir dans un rôle de contrôle budgétaire mais devrait ‘surveiller’ tous les vecteurs (pas seulement les vecteurs comptables) qui créent la performance et maîtriser leurs dépendances croisées. En occupant un rôle de sentinelle et d’animateur pour définir les seuils d’alerte, centraliser, consolider, homogénéiser le reporting … pour le redistribuer aux Managers à tous les niveaux requis. A voir s’il dispose de la marge de manœuvre, des outils et des ressources pour mener de front toutes ces missions… et pour déclencher les traitements curatifs : réorganisation, BPR, délocalisation, externalisation, cloud computing, etc.
Banks ability to prepare cost model for tomorrow will differentiate winners from losers. Roland Berger.

Bernard Timmermans  (www.strategic-pilot.com)

Le Temps en question

Ce n'est pas parce que les états des énergies et de la matière manifestent tous, naissance et mort, que la nature (l'essence, la source) des durées (du temps), eut un commencement et qu'elle aura une fin. 

Bien que mesurable et pouvant être représenté par des symboles, le temps n'a aucune réalité physique ; les penseurs l'admettent tous.
Néanmoins le(du) temps peut être associé à des repères physiques (les aiguilles d’une montre, par exemple), ou à des chronologies par le biais d’équations mathématiques.
Or ce fait masque une très ancienne et funeste confusion des natures (des essences, des ordres) du temps et de l’espace inhérente au fait que l’espace entre des repères temporels peut être quantifié par des nombres, confusion, hélas, désormais confortée par la notion d’espace-temps imaginée par Hermann Minkowski (1864 - 1909) et adoptée par A. Einstein.

Une grandeur en effet, bien que quantifiée par des nombres, est aussi de par le sens qu’elle exprime, une entité abstraite c’est à dire une entité d’ordre transcendant ; précisons que par nature transcendante nous signifions nature primordiale différente de celle, physique, reconnue au réel sensible c'est-à-dire à ce qui est objectivé, "matérialisé".
D’ailleurs, dans sa nature, cette association est semblable à l’union de l’esprit (du je, moi, ego, sujet) et du corps ; il s’agit d’une relation d’implication par le biais d’un domaine transcendant donc universel, ignoré des scientifiques et des philosophes, voire des théologiens, dont le domaine de l’abstraction est une facette singulière.

Mais alors pourquoi la dynamique de l‘univers révèle-t-elle l'existence d'un sens privilégié pour la variable temps et la persistance des unités physiques dans le temps, c'est-à-dire la prise en compte permanente du temps dans l’univers ?
Telle est bien la problématique qui n’a pas encore reçu de réponse crédible,
problématique essentielle car par exemple, selon la compréhension que l’on a du temps, l’univers pourra être reconnu soit comme ayant eu un commencement, soit comme préexistant de toute éternité.
Argumentons.

Certes la compréhension du temps est largement consensuelle ; cependant nous ne sommes plus aux époques où l’on croyait, avec la plus grande assurance, que les idées qui, depuis toujours, ont été reconnues vraies par tous, ne peuvent être que vraies (quod ab omnibus, quod ubique, quod semper). 

Rappeler les compréhensions du temps de la part des :
- Platon (-427, -348) qui ne pouvait dissocier le temps du Cosmos,
- Aristote (-384, -322) qui imaginait le mouvement comme le substrat du temps,
- St Augustin (354, 430) qui voyait dans le temps une distension de l'âme appréhendée par l'Esprit, qui aide à mesurer le passé par le souvenir, et le futur par l'attente,
- Newton (1642, 1727), qui l'ayant postulé "couler" uniformément, vit dans celui-ci l'ordre de la succession et dans l'espace l'ordre de la situation,
- Leibniz (1646, 1716) qui pressentait le temps et l'espace comme dépendant des événements qu'ils contiennent, l'espace donnant la possibilité d’"existences" simultanées et le temps l'ordre d'"existences" successives,
- Kant (1724, 1804), qui reconnaîtra le temps et l'espace comme des intuitions pures de la sensibilité hors de toute donnée empirique,
ne nous permettrait guère de conforter notre argumentaire.

Il en est de même pour certains discours scientifique actuels, en particulier lors qu’il est débattu des chronologies propres aux lois universelles, des chronologies et des hétérochronies qui conditionnent le développement des êtres et des espèces, de la plus ou moins grande spontanéité des réactions aux stimulus, …, de la neutralisation de certains laps de temps qui permettent de ponctuer la réactivité des mécanismes cérébraux (observations de Benjamin Libet, 1916 – 2007).
Néanmoins, deux faits sont indubitables,
- en premier lieu, toutes les voies d’évolution de la matière inerte et de la matière vivante attestent le respect de chronologies rigoureuses, ce qui présuppose la prise en compte permanente et le respect de durées, ces intervalles mystérieux qui ne sont pas de l’espace,
- en second lieu, la dynamique quantique (au niveau quantique) porte témoignage de l'instantanéité, donc de l’intemporalité.
Comment cela se peut-il ?

Les scientifiques ne semblent guère sensibles à cette interrogation ; d’ailleurs, vous l’avez lu maintes fois, ils n’hésitent pas à postuler l’existence de "pouvoirs" spécifiques, au gré des phénomènes analysés, sous le couvert, par exemple,
- d’"opérateurs géométriques",
- ou encore d’entités biologiques comme le cerveau reconnu maître à penser, les organes du corps (cœur, foie,…), les cellules libérant des messagers qui agissent, les ribosomes qui traduisent en séquences protéiques, …, les gènes homéotiques qui codent des protéines dont le rôle est de contrôler d’autres gènes …
Or, il ne peut y avoir de multiples opérateurs au sein de l’univers, en particulier au sein d’un être, qui reconnaissent, jugent en prenant en compte des repères de valeur, notamment temporels, …, qui décident et agissent, et ce ne sont pas des lois qui ont ce pouvoir.

Il est vrai, ce manque de rigueur conceptuelle et sémantique est fort ancien ; rappelons notamment l’ambiguïté fâcheuse concernant la notion de pensée, voire, celle de conscience :
".... il faut éviter l'équivoque du mot pensée, lequel on peut prendre pour la chose qui pense, et aussi pour l'action de cette chose."(cf. Descartes - Méditations métaphysiques, Lettre à M. Clerselier).
La pensée et la conscience ne sont pas des opérateurs !
Par le biais du cerveau et par le moyen d’activités d’abstraction d’ordre transcendant, nous générons des pensées,
et dotés d’un état de conscience de soi, nous pouvons nous reconnaître et entendre le monde en le transcendant.

Nul doute donc, la compréhension de la nature du temps présuppose également la prise en compte des phénomènes et des processus inhérents au domaine de l’abstraction ne serait-ce que parce que cela conduit à débattre du moment présent, ce temps qui n’a pas, qui n’a jamais d’expression physique ! 

En effet, n'ayant point de durée puisque dès que nous essayons de le "cerner", il devient du "passé", l'instant apparaît comme un éternel présent qui paradoxalement sépare et unit le "temps passé" et le "temps futur" avec la propriété remarquable d'être toujours le même dans sa nature et sa signification, et ce, bien qu'il participe de contextes spatio-temporels différents.

Les instants présents permettent alors de diviser les actualisations (les matérialisations) du temps, mais, eux-mêmes, ne sont pas divisibles.
En outre, n’étant pas affectés par les contraintes de la relativité, et ne pouvant être rassemblés bout à bout pour former des laps de temps puisqu'ils n'ont pas de durée (sinon en eux, se mêleraient passé et futur), ils sont une référence absolue qui nous accompagne de la naissance à la mort, la seule référence absolue dont nous disposions !
C’est notamment pourquoi nous nous transformons sans cesse, physiquement, durant notre existence, tout en continuant à demeurer identiques, toujours soi au sein d'un ego invariant.
et pourquoi le je (moi, sujet, ego, esprit), bien que capable de transcender le corps (notre identité physique), de se déplacer dans l'espace et d'utiliser le temps, est constamment contraint de reconnaître, de juger, …, de choisir, dans le moment présent, son seul référentiel absolu.

Nous pourrions d’ailleurs établir un parallèle avec les entre-deux représentés par les "blancs" (les vides, les non-dits) car ils détiennent, eux-aussi, les conditions de positivité et de transcendance qui sont impérativement nécessaires à l'entendement, à la mémorisation et à la transmission du "sens" ; par exemple, les entre-deux représentés par les blancs participent à la "structuration" des langages, des plus simples aux plus élaborés, et même singuliers comme ceux caractéristiques du patrimoine génétique et des ordinateurs.

Souvenons-nous alors de l’analyse augustinienne : 

"Je sais qu'il n'y aurait ni, si rien ne se passait, temps passé, ni, si rien n'advenait, temps futur, ni, si rien n'existait, temps présent, ...
Quant à un présent, toujours présent, qui ne s'en aille point en un passé, ce ne serait plus du temps, ce serait l'éternité." (cf. Confessions - Livre XI, 14),

Certes le moment présent est représentatif de l’éternité, et en toute logique, puisque sans durée, intemporel et impliqué en tout être, ipso facto dans l’univers, le moment présent (l’instant) révèle l’une des facettes du temps jamais mise en exergue : son caractère potentiel.
Nous voici fort éloignés de la compréhension commune et combien paraît obsolète l'assertion nietzschéenne :
"Le temps en soi est une absurdité ; il n'y a de temps que pour un être sentant" ! (cf.- Le Livre du philosophe, Etudes théoriques).

Dans une quête des causes primordiales, cessons donc de spéculer sur la fuite du temps, sur sa flèche, …, sur son commencement avec le Big-bang et sur sa fin lors d’un Big- crunch.
Il ne peut y avoir de compréhension crédible de la dynamique universelle sans que le temps soit reconnu comme une potentialité, qui après "actualisation" (matérialisation), permet d’intégrer les évolutions dans des chronologies reproductibles et rigoureuses.
De par sa nature transcendante puisque les durées sont des intervalles non spatiaux, la source du temps n’eut pas de commencement et n'aura pas de fin.

Il est vrai le monde de potentialités n’est guère objet de débats ; or nous sommes convaincus que la dynamique de l’univers présuppose deux mondes de virtualités (peu de chercheurs le sont) :
- le monde des virtualités physiques comme les forces universelles qui permettent d’assurer la cohérence et la dynamique des particules, des atomes et des molécules,
- et le monde des virtualités d’ordre transcendant comme les forces psychiques corrélatives de la volonté, des intentions, des désirs, …

En outre, ne soyez pas étonné par la dichotomie :
- "temps actualisé" susceptible d'être objectivé à l’aide d'appareils de mesure ou se prêtant à des symbolisations et équations,
- "temps potentiel" susceptible d'être associé à tout phénomène physique ou à tout référentiel abstrait comme les imageries virtuelles, les concepts, les idées qui meublent le domaine de l’abstraction.
Cette dichotomie montre que durant l’existence nous vivons physiquement dans le spatiotemporel et spirituellement dans l’intemporel, révélant ainsi le caractère dual et éternel de l’univers !

De ce fait, nous considérons l’univers comme ayant connu, de toute éternité, des myriades de bangs, et accordons un intérêt tout particulier aux trous noirs qui, selon nous, sont les expressions singulières de processus de démassifications de matières cosmiques.
D’ailleurs, nous avons ré-exprimé la formule univoque d’Einstein : E = mc² par l’équation réversible : E ↔ mc² pour signifier que la dynamique universelle présuppose à la fois : 
- de permanentes et diverses massifications de l’Energie universelle conduisant aux particules, atomes et molécules,
- et de constantes démassifications de matières cosmiques avec retour à leur état primordial d’Energie universelle, cette énergie dont quelques scientifiques parlent sans jamais l’intégrer dans leurs supputations.

Et plus spécifiquement, à propos du caractère dual de l’univers, nous prônons avec assurance, à la manière de Descartes :
Cogito ergo mundus vivit (je pense donc le monde vit).

Evidemment, une question demeure et demeurera à jamais sans réponse :  pourquoi y a-t-il quelque chose plutôt que rien ? (cf. Leibniz -1646, 1716).

Paul Moyne
Théorie déposée à l’Académie des Sciences, à Paris, sous pli cacheté n°17325

llustration : Peinture de Nilos /2011  

Comment instrumentaliser la recherche de l'innovation ?

Pilotage et performance stratégique : gestion du changement et de l’innovation.

‘Innovation’: 400 millions de références sur Google, nombre qui augmente apparemment de plus de 10% par mois. Ce sujet figure systématiquement à la ‘une’ des revues dévolues au Management et il est traité en profondeur par des publications spécialisées et au sein de nombreux forums fonctionnant sous forme d’‘ideagora’ , ‘unconference’ ou ‘crowdsourcing’.. . Mode, conséquence de la crise, nouvelles pressions concurrentielles, émergence de nouvelles méthodes de management ? Le changement peut être anticipé mais l’innovation (différenciation, diversification) ? Comment la susciter et la piloter ?

L’innovation n’est évidemment pas un nouveau paradigme, tout spécialement dans le secteur des biens de consommation, condamné depuis des décennies à renouveler sans cesse sa gamme de produits, pas nécessairement pour créer ou répondre à de nouveaux besoins et se différencier mais souvent uniquement pour maintenir sa notoriété..: le nouveau Txx lave encore plus blanc, la Zz est encore plus performante, la guerre des smartphones et des tablettes tactiles…

Cette ‘révolution de l’innovation’ touche les sociétés de services soumises à des pressions concurrentielles croissantes, qui les incitent à donner une dimension réellement stratégique à cet objectif ; la bataille de la compétitivité s’est intensifiée sur ce terrain, d’où la nécessité d’instrumentaliser l’approche et appliquer de nouvelles techniques de management. Nous formons des MBA, le moment semble venu de se doter de MBI : Master of Business Innovation ou de ‘CIO’ comme ‘Chief innovation officer’.

Une nouvelle dynamique est en marche… et comme souvent, les principaux courants de pensée semblent venir de Boston, s’infiltrant grâce à Internet, aux réseaux sociaux et aux nombreux forums qui les accompagnent. Un consensus global se dégage sur l’importance de l’innovation permanente mais il subsiste, dans beaucoup d’entreprises, de nombreuses interrogations sur la manière de piloter cette démarche : approche méthodique, empirique, heuristique ?

Définitions et postulats

L’innovation doit être une composante de la stratégie globale de l’entreprise. Elle doit donc être cadrée dans un schéma directeur, une ‘vision’, destinés à orienter les recherches, brider les imaginations et assurer la cohérence globale des projets. Même si certaines entreprises peuvent être tentées de sortir de leur core-business (par exemple une banque vendant des prestations informatiques), l’innovation doit servir un objectif stratégique global, suffisamment détaillé (chiffré), qui peut se définir en : parts de marché, CA par client, rentabilité, diversification (produits/segments), changement d’image et de valeurs...

Une entreprise ne peut dépasser ses concurrents en les imitant mais bien en innovant. Pour être innovant, un produit ou un service doit posséder des caractéristiques uniques auxquelles le client attache de la valeur et qui sont difficiles à recopier. L’art pour l’art ne sert à rien et, sauf à essayer de breveter systématiquement vos ‘inventions’, la seule manière de se protéger temporairement des plagiats est par le coût et/ou la complexité des solutions.

L’innovation est indispensable pour palier au vieillissement des processus, de tout type : logiciels, procédures… Le changement est généralement imposé par la conjoncture alors que l’innovation est déterminée par votre stratégie d’entreprise ; l’un et l’autre peuvent être incrémental ou radical. Le changement imprévu affaiblit souvent les processus : il faut travailler dans l’urgence, changer les priorités, accepter des compromis techniques ou organisationnels…A titre d’exemple, une adaptation de logiciel ou de procédure non planifiée peut dégrader la belle structure linéaire et cartésienne mise en place à l’origine.

Les résistances au changement

L’innovation peut être perçue comme une menace lorsqu'elle peut amener une entreprise à changer son ‘business model’ et ses valeurs. La culture du résultat à court terme inhibe la prise de risques sur des investissements à la rentabilité incertaine ou lointaine. L’aversion au risque est mieux rémunérée que l’innovation. Les procédures budgétaires laissent peu de place à la R&D. Le changement, quel qu’il soit, est déstabilisant et sa facilité de mise en œuvre repose en premier lieu sur l’adhésion du personnel : l’être humain a une propension à accepter plus facilement la rénovation incrémentale que l’innovation radicale.

Les défis

Un objectif stratégique difficile à cerner. Beaucoup d’entreprises comptent sur le hasard (‘serendipity’) ou la pression des clients alors que innovation et diversification sont indispensables pour rester concurrentiel, réduire les menaces, conquérir de nouveaux marchés mais également conserver vos clients existants auxquels vous donnez ainsi des gages de votre volonté de continuer à élargir votre offre de services, ce qui leur permettra de préserver leur propre compétitivité !

Sélectionner les bonnes propositions d’innovation. La technique du ‘crowdsourcing’ (boîte à suggestions dans votre Intranet) peut facilement provoquer une overdose d’informations. La bande passante des décideurs n’est pas extensible à l’infini et il y a donc lieu de mettre en place des processus visant à ce que les propositions soient décrites de manière structurée, avec le niveau suffisant de justifications et d’abstraction.

La prise de risques. Personne n’a la boule de cristal. Lorsqu’une idée surgit, il est difficile de prédire si elle va réellement déboucher sur une amélioration radicale ou si elle va simplement enfanter un microscopique changement incrémental.

La gestion du changement : la réactivité face à des crises, des appels d’offre…

Les leviers d’innovation et de changement

Il n’existe pas de réelles ‘machine à inventer’ mais le changement et l’innovation peuvent être suscités et pilotés de multiples façons. L’appropriation par le CEO et un soutien sans faille du Management sont des prérequis incontournables. L’innovation devrait figurer à l’agenda de tous les Comités de Direction.

Un changement culturel. Les projets d’innovation n’ont que peu de chance de succès si la culture de l’entreprise ne s’y prête pas. Une culture d’innovation va (doit !) attirer et retenir des nouveaux talents ; bien souvent elle permet de redynamiser un ‘business model’ et une organisation sans nécessairement devoir tout réinventer. La communication est essentielle.

Prise de risques. Une culture de ‘venture capital’. L’échec est acceptable s’il est formateur. Une politique d’innovation doit s’apprécier dans sa globalité et non pas sur une initiative en particulier. Le prototypage permet de valider un concept à des coûts acceptables. Accorder une large autonomie opérationnelle pour le lancement de nouveaux produits: accepter temporairement des coûts de structure en créant de nouveaux pôles de compétence dotés d’une forte autonomie décisionnelle, en attendant que le produit arrive à maturité.

Une meilleure compréhension des besoins des clients et la recherche de services complémentaires. C’est évidemment un point clé. A titre d’exemple, si un gestionnaire de portefeuilles souhaite obtenir un tableau prévisionnel de liquidités, c’est évidemment parce qu’il veut optimiser sa position de trésorerie et il est donc nécessaire de consolider dans ce tableau tous les flux financiers prévus, même pour des opérations non encore dénouées, en faisant éventuellement un distinguo entre le certain et l’incertain…. Un partenariat avec un client-pilote est toujours un excellent levier du fait qu’il garantit l’adéquation avec les besoins de celui-ci. Si ce client possède la notoriété suffisante, celle-ci rejaillira sur le nouveau service. Les meilleures solutions innovantes sont celles qui permettent au client de réduire les coûts marginaux et de structure de certaines activités sortant de son core-business, en les externalisant chez vous. Le monde financier recèle beaucoup d’opportunités de ce type, par exemple dans l’acquisition et le contrôle des données financières.

 

Récompense et appropriation : lorsqu’un projet d’innovation est retenu, le créateur doit en être récompensé. Vous risquez des déceptions si vous pensez que les contributeurs (clients ou membres du personnel) sont uniquement guidés par le sens du devoir. Cette rémunération peut prendre diverses formes : financière, feedback, notoriété…Comme pour les processus, il faut ensuite un ‘sponsor’ dont la compétence est reconnue et qui possède un réseau suffisamment fort pour promouvoir cette innovation et entretenir la dynamique. La désignation d’un responsable de processus produit également des effets très bénéfiques sur ce dernier, du fait que son propriétaire va s’attacher à le faire évoluer, tant sur le plan de l’efficience opérationnelle que de la valeur créée.

Ideagora, think tanks, groupes de réflexion : équipes multidisciplinaires et diversifiées sur le plan culturel, éducatif, forums, ‘boîtes à suggestions’ (crowdsourcing) dans votre Intranet. La méthode Lean Six-Sigma propose une technique d’amélioration rapide appelée ‘Kaizen’ et qui consiste à séquestrer un groupe correctement étoffé en termes de compétences pour améliorer un processus ou un service. L’expérience a montré l’influence très stimulante de cette technique sur la créativité des participants. Internet évoque également des ‘unconferences’ dans lesquelles l’agenda et les thèmes sont définis par l’auditoire : ce mode de fonctionnement peut être un bon incubateur du fait d’une plus grande liberté de parole (absence de barrières hiérarchiques) et diversité mais bien entendu il faut des modérateurs et un processus de recensement des suggestions.

Collecte, sélection et formalisation des propositions. Tous ces outils collaboratifs vont immanquablement engendrer des flux énormes d’informations qu’il s’agit de canaliser, filtrer, agréger (si nécessaire, par exemple pour éviter les redondances) et structurer (synthétiser). Des techniques simples permettent d’opérer très en aval pour imposer un minimum de formalisme dans la description d’une nouvelle proposition : typologie, impacts, ROI… et faciliter ainsi la découverte des pépites.

Les méthodes de recherches de l’innovation

Malgré son caractère heuristique, une approche systématique est possible, selon au moins quatre axes :

- Analyse de marchés. Effectuer un recensement des besoins et déterminer leur taux de satisfaction, afin d’identifier des niches qui pourraient être autant d’opportunités : absence de concurrents, nouveaux entrants…
- Analyse comparative de votre business model avec celui de vos principaux concurrents.
- Analyse de l’utilisation des services existants. Les entreprises n’ont pas toujours conscience de la richesse de leur portefeuille de services lequel recèle peut-être des gisements sous-exploités pouvant être commercialisés à moindre coût et plus rapidement que des projets très novateurs encore à l’état d’épure.
- Analyse prospective visant à anticiper les changements importants dans quelque dimension que ce soit : légale, économique, fiscale… Il ne saurait y avoir de réelles surprises sur les événements qui touchent l’entreprise. Vous ne savez pas nécessairement quand les changements vont se poursuivre mais vous en connaissez les caractéristiques principales. La ‘veille’ commerciale, technologique, politique, fiscale… permet de préparer le terrain en définissant un plan, en mettant en place une ‘force d’intervention rapide’ (par exemple un ‘project ou programme office’) et enfin, en promouvant une culture de projet.

Conclusions & Plan d’action : Plan Directeur, Processus, Pilotage Stratégique…

L’innovation peut porter sur les produits, les services, les segments de clientèle… mais aussi sur vos valeurs, votre image, la qualité… Autant de gisements pouvant augmenter votre chiffre d’affaires. Une stratégie de différenciation réussie reposera logiquement sur les 4 piliers suivants au moins :

Une vision, un objectif stratégique matérialisé dans un Plan Directeur précisant les objectifs, les opportunités, les changements ‘radicaux’ que vous souhaitez provoquer (nouveaux marketing mix, basculement d’une stratégie de domination par les coûts pour la qualité, amélioration d’image…), les moyens que vous voulez allouer pour gérer ces ‘transitions’ (outils, compétences, ressources financières et humaines, processus, indicateurs, management…).

Engagement fort du CEO et du Management, s’appuyant éventuellement sur un CIO (I comme innovation) ou son CIO (I comme Information). L’innovation devrait figurer à l’agenda de tous les Comités de Direction, de manière à susciter des ‘tensions créatives’ à ce niveau.

Mobilisation de l’intelligence collective. Créer un terreau fertile pour faire surgir des nouvelles idées : idéagoras réunissant des équipes multidisciplinaires, changements culturels (génétiques), valorisation des inventeurs et appropriation. Communication soutenue, vers le personnel et vers les clients.

Pilotage stratégique. L’innovation est donc une composante stratégique qui exige d’être pilotée comme telle : tableaux de bord, indicateurs (Key Innovation Indicators ?). Mise en place de processus permettant de collecter, filtrer, structurer, évaluer de manière objective les propositions d’innovation… et les mettre facilement et rapidement en œuvre, pour en tirer le meilleur profit, le plus vite et le plus longtemps possible

PS : tous les sujets esquissés dans cet article (et bien d’autres) sont développés dans le livreCap sur la Performance Stratégique (4/2011). Un module de formation est également proposé en partenariat avec la société Get-Training( www.get-training.org )

Bernard Timmermans. Consultant Indépendant./ 28 aôut 2013 - www.strategic-pilot.com

Une nouvelle compréhension du monde et du phénomène de la vie

Cela n’est jamais dit, toute approche du primordial, présuppose une compréhension du temps et du domaine intemporel de l’abstraction, intemporel puisque y cohabitent le passé, le moment présent qui n’a pas de durée, et le futur. 

Or bien que la compréhension du temps soit largement consensuelle, elle n’en est pas moins archaïque ; quant au domaine de l’abstraction et à ce qu’il implique, qui en débat vraiment ?

Certes, la formalisation de certaines chronologies par le biais d’équations mathématiques, conduit à associer l’espace et le temps, néanmoins il s’agit d’une funeste confusion des natures (des essences, des ordres) du temps et de l’espace, inhérente au fait que l’espace entre des repères temporels peut être quantifié par des nombres, et confortée par la notion d’espace-temps imaginée par Hermann Minkowski (1864 - 1909) et adoptée par A. Einstein.
Une grandeur en effet, bien que quantifiée par des nombres, est aussi de par le sens qu’elle exprime, une entité abstraite c’est à dire une entité d’ordre transcendant ; je précise que par nature transcendante je signifie nature primordiale différente de celle, physique, reconnue au réel sensible c'est-à-dire à ce qui est objectivé, "matérialisé".

Mais alors, comment concevoir et expliquer l’association du temps à des repères physiques (les aiguilles d’une montre, par exemple), sachant que les durées sont des intervalles non spatiaux ?
Selon moi, dans sa nature, cette association est semblable à l’union de l’esprit (du je, moi, ego, sujet) et du corps ; il s’agit d’une relation d’implication par le biais d’un domaine transcendant donc universel, ignoré des scientifiques et des philosophes, voire des théologiens, dont le domaine de l’abstraction est une facette singulière.

En conséquence, le temps s’avère être une potentialité universelle qui après actualisation ("matérialisation") sous le couvert de durées, ces mystérieux intervalles qui ne sont pas de l’espace comme je le disais précédemment, permet d’intégrer les évolutions dans des chronologies, quelles qu’elles soient.
Il s’agit d’une compréhension révolutionnaire qui permet entre autres, de mieux comprendre l’instantanéité et la simultanéité de certaines interactions, telle l’action instantanée à distance caractéristique de l’attraction gravitationnelle.

Je me garde donc des théories qui considèrent qu’il existe différents temps adaptés aux niveaux de complexité du réel : le temps quantique, celui des atomes et des molécules, le temps propre au phénomène de la vie et le temps cosmologique,
et de celles qui traitent du cours du temps et de sa flèche.
Inutile également de débattre à propos du temps absolu ; il n’existe qu’un absolu du temps qui évidemment est intemporel !
Quant à l’orientation universelle et univoque des évolutions : du passé vers le futur, et à l’irréversibilité des transformations mise en évidence par la thermodynamique, elles relèvent selon moi, d’une cause primordiale exprimée pas l’universelle, impérieuse et mystérieuse nécessité de sans cesse créer.

Dès lors, je considère l’univers comme éternel et ayant connu, de toute éternité, des myriades de Bangs ; rejetant ainsi l’idée de Big-Bang, j’accorde cependant un intérêt tout particulier aux trous noirs qui, selon moi, sont les expressions singulières de processus de démassifications de matières cosmiques.
D’ailleurs, j’ai ré exprimé le postulat d’Einstein, par la formule réversible : E ↔ mc² pour signifier que la dynamique universelle présuppose à la fois,
- de permanentes et diverses massifications de l’Energie universelle conduisant aux particules, atomes et molécules,
- et de constantes démassifications de matières cosmiques avec retour à leur état primordial d’Energie universelle, cette énergie dont tous les scientifiques parlent sans jamais l’intégrer dans leurs supputations.

Quant à ma compréhension de la masse invisible du cosmos, elle s’appuie désormais sur l’interprétation des phénomènes observés par le biais de la sonde WMAP (Wilkinson Microwave Anisotropy Probe) lancée le 30 juin 2001 par la NASA, sonde qui au cours des années qui suivirent et jusqu’en 2011, permit :
- de confirmer les fluctuations du rayonnement cosmique de fond ce qui conduit à mieux comprendre pourquoi l’univers n’est pas homogène notamment en raison des trous noirs ; je précise à ce propos, que ces inhomogénéités ne sont pas les fruits de lois car les lois ne sont aucunement des opérateurs mais les formulations de comportements immuables,
- d’attester d’un âge d’une partie de l'univers : 13,75 milliards d'années (en non pas de l’âge de l’univers),
- et de quantifier la composition du cosmos : 4 % de matière ordinaire, 22 % de matière sombre et de 74 % d'une énigmatique forme d'énergie qui serait responsable de l'accélération de l’expansion.

Je conclurai ce préambule, en soulignant l’ambigüité fâcheuse propre à de nombreuses expressions scientifiques, qui consiste à accorder, sans le dire, des "pouvoirs", au gré des phénomènes analysés,
- à toutes sortes de solutions d’équations mathématiques (à toutes sortes d’"opérateurs géométriques", par exemple),
- à des entités biologiques comme le cerveau reconnu maître à penser, les organes du corps (cœur, foie,…), les cellules libérant des messagers qui agissent, les ribosomes qui traduisent en séquences protéiques, …, les gènes homéotiques qui codent des protéines dont le rôle est de contrôler d’autres gènes …
Or, il ne peut y avoir de multiples opérateurs au sein de l’univers, en particulier au sein d’un être, qui reconnaissent, jugent en prenant en compte des repères de valeur, notamment temporels, …, qui décident et agissent,
et ce ne sont pas des lois qui ont ce pouvoir.

Sans oublier l’ambigüité tout aussi fâcheuse concernant la notion de pensée, voire celle de conscience ; remémorons-nous Descartes :
".... il faut éviter l'équivoque du mot pensée, lequel on peut prendre pour la chose qui pense, et aussi pour l'action de cette chose."(cf. Méditations métaphysiques, Lettre à M. Clerselier).
La pensée et la conscience ne sont pas des opérateurs !
Par le biais du cerveau et par le moyen d’activités d’abstraction d’ordre transcendant, nous générons des pensées,
et dotés d’un état de conscience de soi, nous pouvons nous reconnaître sous le couvert du je (moi, sujet, ego, esprit) et entendre le monde de manière singulière en le transcendant.
Dès lors, quid du mystérieux opérateur qui se reconnaissant en nous sous le couvert du je (moi, ego, sujet esprit), par le biais de l’état de conscience, est en charge de l’univers ?
Telle est bien l’interrogation essentielle toujours en attente de réponse crédible !

Ces observations conditionnent, bien évidemment, ma compréhension du langage génétique, c'est-à-dire ma compréhension du langage au niveau quantique. 

Ainsi, sachant,
- que l’on peut numériser (et mémoriser) des informations donc du "sens", et les transmettre par le biais d’ondes électromagnétiques,
- qu’il n’y a pas de contact physique absolu entre les états de la matière puisque les particules, les atomes et les molécules qui la constituent, sont séparés par le vide quantique,
- que des ondes électromagnétiques sont inexorablement associées à chaque constituant de la matière,
- que les directives génétiques à effets biologiques, ne sont pas altérées par la traversée des synapses, eux-mêmes formés de molécules (fait particulier et condition suffisante),
nous pouvons affirmer que des ondes électromagnétiques sont les vecteurs primordiaux du sens, car ce sont les seules entités capables de traverser tous les "vides".

D’ailleurs, que le goût des aliments puisse être transmis aux papilles gustatives alors que les atomes et les molécules de celles-ci et des aliments, sont séparés par le vide quantique, l’atteste de manière patente.

Dès lors et pour toutes ces raisons, le langage génétique relève non seulement de l’interprétation des fréquences et des amplitudes de telles ondes, mais surtout de l’interprétation des interférences de celles-ci,
interférences qui sont fonction de positions spatiales et de nano distances,
à l’instar du langage humain qui nécessite l’interprétation de la position des lettres dans le mot, des mots dans la phrase et des phrases dans le discours (j’ai déposé cette théorie en 2010, à l’Académie des sciences, à Paris, sous pli cacheté).

De ce fait, nous comprenons mieux, et l’extrême richesse de ce langage bien qu’il n’ait comme "lettres de base" que quatre molécules azotées : Adénine, Cytosine, Guanine et Thymine, et hélas, l’impossibilité de connaître, en clair, les informations et les directives qu’il permet de transmettre.

Paul Moyne, Géophysicien 

 

 

L'intelligence artificielle en question

L'intelligence artificielle c'est la "simulation" sur ordinateur d'un cerveau humain qui réfléchit. Le générateur de systèmes-experts, lui, est le seul outil logiciel issu de l'intelligence artificielle parfaitement au point. Sa fonction :  enregistrer l'expérience précieuse d'un expert et la restituer  à la demande. Démonstration.

Lire la suite...

Comment fabriquer de nouveaux neurones

Notre cerveau est à même de produire de nouveaux neurones quel que soit nôtre âge. Cette aptitude semble favorable aux nouveaux apprentissages et à la bonne santé cérébrale du sujet. Lors d'une conférence organisée par l'Ecole des neurosciences de Paris, Pierre-Marie LlEDO, directeur de recherche à l'Institut Pasteur, a énuméré les bonnes pratiques qui favorisent la production de nouveaux neurones dans notre cerveau. Cette capacité précieuse dépend de nos comportements. En effet, si des neurones âgés d'une semaine peuvent être détectés dans le cerveau d'un octogénaire, il est également possible de n'en trouver aucun dans le cerveau d'un jeune de vingt ans.

Lire la suite...

Le combat citoyen au défi de la crise

Les forces vives de la Société civile peuvent-elles neutraliser les cupides responsables de la crise ? L'espoir est permis mais rien n'est joué. Pour y parvenir, la Puissance publique estime indispensable de recourir à la mobilisation citoyenne. Or, celle-ci n'a pas l'objectif de se sacrifier pour la patrie mais d'y rendre la vie meilleure. Cela ne se fera pas du jour au lendemain et nous oblige à repenser le fonctionnement de nos institutions .Comment nos concitoyens appréhendent-ils l'actuelle conjoncture ? Tel est le propos du présent débat.

Peinture © Annette Bloch-Jambet "Lutte de Jacob avec l'Ange"

Lire la suite...
Loading...
Loading...