admiroutes page d'accueil

Réactions à l'article "Appréciation du coût et du rendement de l'investissement en technologies de l'information".

accuail internet

2 pages

par Jean-Paul Chartier 100016.2142@compuserve.com

13-4-99

Bonjour. Voici mes observations sur le très intéressant texte dont vous (Jean-Paul Baquiast) êtes le co-auteur, publié le 9 avril sur le site web d'Admiroutes: "Appréciation du coût et du rendement de l'investissement en technologies de l'information".

J'ai apprécié le texte publié. Sur le fond, et comme la plupart des publications d'Admiroutes, dans un style sobre, il dépasse le politiquement correct fait généralement du rewriting ampoulé des principes de la réinvention de l'eau tiède. Pourtant, j'émets des réserves personnelles sur ce texte et son contenu. D'un avis personnel qui n'engage que moi - la redondance n'est pas un effet de style - il lui manque ce que j'appelle quelquefois le regard tiers; le repli identitaire, le "marquage du territoire" s'y imiscent insidieusement: de la difficulté d'être juge et partie ! :-) Cependant et heureusement, le jargon, celui qui donne cette allure spécialisée, n'y tient pas une place envahissante.


Par paresse, je ne reprendrai pas les passages concernés par mes remarques. Je n'indiquerai pas non plus de références bibliographiques, ces notes qui font sérieux et marquent l'incontestable méthodologie d'un esprit bien formé... N'en attendez donc pas plus que ce qu'il est: un rush instantané de notes de lecture.

Le coût et le rendement des technologies de l'information (et des communications), TIC, sont-ils bien les questions à se poser? La réponse pourrait être oui, car la quantification a souvent quelque chose de rassurant pour le raisonnement. Apparemment d'une implacable logique, les statistiques chiffrées pondérant un état des lieux de manière en principe représentative sont d'incontestables arguments dialectiques. Elles arriveraient même à rendre rationnel un paramètre essentiel: le facteur humain.

C'est ainsi que l'influence mondiale des USA est présentée par l'économie, le militaire et le politique. J'y ajouterai au moins deux puissants moteurs de cette volonté de puissance: l'emprise linguistique et culturelle !

Comme d'autres "vecteurs" - j'emploie ce terme stratégique à dessein - les TIC ne sont qu'un outil, au même titre que la télévision, les moeurs, le savoir-faire. Un outil à deux tranchants: celui de sa fonction et celui d'un enjeu en soi d'une apparente valeur ajoutée de sa vente sur le marché.

(...) On saute quelques lignes, pour arriver à votre avis sur l'obsolescence, que je ne partage pas, bien que ce soit une idée généralement admise. Que gagne -t-on à suivre le rythme effréné des TIC , qui bardent les utilisateurs de fonctions éphémères et souvent inutiles. Une presse hydraulique pour piler un morceau de sucre ! Où est le réel retour sur investissement de ces "progrès", si ce n'est celui purement spéculatif de ceux qui l'imposent au marché des utilisateurs, avec force persuasion sur sa nécessité et son efficacité supposée ?

L'informatique est un non-sens, sous couvert de logique. La partie visible est constituée d'un mille-feuilles aussi indigeste et incohérent que le Code général des impôts français. L'omniprésent MS-Windows est l'exemple type. Quant aux grands systèmes, à part les timides avancées fonctionnelles de leurs périphériques, la lourdeur de leurs applications les a malheureusement pourvus d'une très grande inertie. Examinons maintenant la partie immergée de cet "icerberg" dérivant du traitement de l'information et du signal. Les systèmes industriels, l'informatique embarquée, la gestion de la production et de certains services utilisent des configurations matérielles et des noyaux logiciels souvent compacts et stables. Stabilisés par le temps, l'usage et un évident impératif de sécurité. Dans ces systèmes de traitement des processus, de l'information ou du signal, le temps processeur sert à produire, pas à gérer une brillante interface homme machine: des paillettes qui sautent aux yeux, particulièrement improductives en fait. Improductives n'est peut-être pas un mot exact, à cause de ce que j'appelle le syndrome de la motocrotte bien connue des Parisiens: ce que l'on voit le plus souvent des systèmes d'information "modernes" sont l'instabilité, les bugs et autres ennuis qui font que l'on appelle à l'aide des "nettoyeurs" pour remettre en ordre des choses qui en principe n'auraient jamais dû connaitre les désordres de plantages et autres imprécisions de produits jamais mûrs !

Oui aux objets, aux classes, aux trames, aux imbrications de process pour l'industrie logicielle. Oui mais ! Dans un environnement totalement connu, exempt de zones d'ombre non documentées voire de ces "back-doors" que les informaticiens ajoutent à plaisir, avec des motivations souvent diffuses et quelquefois les ordres de la raison d'Etat... Sans sombrer dans le pathos parano (ça sonne bien, cette expression), il est très probable que par souci d'efficacité et de sécurité, on revienne aux noyaux logiciels programmé dans un langage peu sophistiqué (assembleur ou C ANSI), les générateurs d'applications ne servant qu'à réaliser l'interface fonctionnelle. Ce ne seront plus des assemblages incohérents et puérils de Lego, mais l'utilisation a minima des objets nécessaires: le retour à l'outil spécialisé remplaçant l'usine à gaz dont plus personne ne connait vraiment l'architecture, ni finalement l'utilité. J'ai en mémoire ce que me disait l'aumônier catholique du lycée que je fréquentais: "Il faut en mettre sans en remettre".

Ce n'est cependant pas tout à fait la porte ouverte aux systèmes libres et à leur code générateur connu de tous. Depuis longtemps (15 ans, dans ce domaine de l'informatique, c'est déjà longtemps), on utilise des noyaux compacts, stables auxquels on ajoute selon ses besoins des composants, par exemple l'ancien mais toujours très actuel système QNX (conçu au Canada et diffusé en France par Inforange, si j'ai bonne mémoire). La volonté croissante des utilisateurs et décideurs est de faire stopper cette longue tendance qui les a pris pour des c... , forçats de systèmes propriétaires et otages de leurs fournisseurs. On s'achemine vraisemblament, TCP/IP et Java en sont des exemples, à une unification du génie logiciel et des trames, l'accord sur les protocoles et les standards étant le véritable enjeu. L'histoire se répètera, comme celle du système métrique contre les unités anglo-saxones. Du basique marquage de territoire et d'affirmation identitaire à coups de standards... Pour l'instant, seuls des iconoclastes refusent de suivre de manière bovine la course à la "performance" qu'on leur impose sans réel bénéfice direct ou secondaire pour eux. Il y a eu certes progrès de l'illusion, mais peu de l'efficacité, et conceptuellement, même l'internet n'est franchement pas nouveau, d'autant que beaucoup en oublient une importante caractéristique historique: son indestructibilité par le jeu des miroirs interconnectés. "Un" site est un non sens, puisqu'il rend vulnérable aux aléas de toutes sortes une implantation géographique unique. Mais c'est un autre problème. Le progrès actuel consiste surtout à augmenter les ressources que les systèmes utilisent pour leur propres besoins, et non pas prioritairement pour gérer les applicatifs productifs qu'on leur demande d'exécuter. Une machine est une machine, et le rendement actuel des systèmes informatiques (micro) est ridiculement bas !

Par contre, il manque cruellement sur le marché, au cause du mauvais départ de "l'intelligence artificielle" et de ses illusions, de moteurs de raisonnement automatisé, de systèmes experts, d'automates déductifs, etc. et tout ce qui permet de traiter des grands volumes de signaux et d'informations, d'ailleurs pour une grande partie inutiles (j'estime qu'il n'y a pas eu fondamentalement augmentation du volume d'information, mais production systématique de "bruit"). Cela est vraisemblablement dû au cloisonement fonctionnel de la conception informatique de production (ma remarque n'est pas vraie pour l'informatique ludique qui intègre depuis longtemps la conception pluridisciplinaire). Décideurs, informaticiens, statisticiens, documentalistes, linguistes et autres ne parlent pas le même langage, et chaque catégorie s'arroge, sûre de son bon droit et de ses certitudes, la conception des systèmes. Choc des cultures, des langages, et d'intérêts différents qui ferment les yeux par auto-protectionisme ou incompétence sur les véritables enjeux conceptuels des systèmes d'information.

Quant au principe du "maillon le plus faible" dans une chaîne fonctionnelle, il est largement oublié voire ignoré. Par exemple, on dit de l'internet qu'il est incontrôlable - ce qui est totalement faux parce qu'il est en fait strictement encadré -, et indestructible... Un simple commutateur permet de supprimer une grosse dorsale de communication, et à faire écrouler l'ensemble des systèmes interconnectés par auto-saturation. Et on retrouvera là aussi la "motocrotte" (cf. supra), pour corriger ces crashes qui peuvent être provoqués par des causes variées et multiples, raison d'état comprise. Ce sont encore les nettoyeurs qui s'enrichiront (l'industrie de l'angoisse du dysfonctionnement est prospère, avec les bugs divers, les "virus" et d'une manière plus générale les erreurs humaines).

Sans transition, on passe aux agents humains, utilisateurs des systèmes d'information. Même les plus demeurés ont rapidement compris que le véritable progrès les sort de la torpeur des automatismes de compétences et de fonctions obsolètes (ce ne sont pas les machines qui le sont, mais bien les utilisateurs qui ne peuvent ou ne savent pas s'adapter). La réaction la plus fréquente, et l'incohérence informatique s'y prête bien, est de rendre inexploitable même le mieux fait des systèmes: simple question de survie individuelle (dans ces cas là, le sens personnel du "service public" est franchement un détail secondaire, ce qui est regrettable pour les usagers !).

Et si nous revenions au sujet: le coût et le rendement des TIC ? D'accord, les données quantifiables rassurent la raison, mais le vrai problème n'est pas là. Il est beaucoup plus proche de l'instinct et de l'affectif basique, les acteurs cachés du facteur humain. L'animal l'emporte pour l'instant sur la "noblesse" des concepts et du cognitif, ce qui enlève aux TIC leur efficacité théorique mais finalement non souhaitée :-))

http://www.admiroutes.asso.fr/action/theme/internet/cce2.htm