Éradiquer les nuisibles


Récemment un des photographes de l’association à laquelle je suis adhérent m’a demandé de résoudre un problème. Il avait installé pour une période d’essai gratuite le logiciel ON1 sur son équipement informatique (sous MS Windows). Depuis la fin de la période d’essai ON1 continuait à se lancer à chaque fois que l’utilisateur tentait de traiter une photographie. Très frustrante situation si l’on considère que ON1 affichait un cadre vide sur l’écran au lieu de la photo. De plus mon ami photographe n’avait aucune intention de faire l’achat de la licence d’utilisation de ce logiciel.

Le plus simple dans des cas de cette nature, c’est de désinstaller (« uninstall » en anglais) le logiciel coupable de cette appropriation de la position de préféré. Ne tentez jamais d’effacer vous-même le ou les fichiers qui vous semblent responsables de votre problème, il en résulterait une plus grande détresse. En effet, lors de l’installation MS Windows crée des inscriptions dans son registre et un simple effacement de fichier ne permet pas de modifier ce registre. Voyons donc maintenant comment réaliser « proprement » une désinstallation. Une simple consultation du site de support de Microsoft permet de trouver comment réaliser cette opération. Bien évidemment il existe plusieurs manières de procéder, qui sont listées ci-dessous (pour MS Windows 11).

Désinstaller à partir du menu Démarrer

  1. Sélectionnez Démarrer > Toutes les applications et recherchez l’application dans la liste affichée.
  2. Appuyez de façon prolongée (ou cliquez avec le bouton droit) sur l’application, puis sélectionnez Désinstaller.

Désinstaller dans Paramètres 

  1. Sélectionnez Démarrer > Paramètres  > Applications > Applications & fonctionnalités .
  2. Recherchez l’application à supprimer, sélectionnez Plus  > Désinstaller.

Remarque : Certaines applications ne peuvent pas être désinstallées depuis l’application Paramètres pour le moment. Pour obtenir de l’aide sur la désinstallation de ces applications, suivez les instructions de désinstallation de Panneau de configuration.  

Désinstaller depuis le Panneau de configuration 

  1. Dans la barre des tâches, entrez Panneau de configuration et sélectionnez-la dans les résultats.
  2. Sélectionnez Programmes Programmes et fonctionnalités.
  3. Appuyez longuement (ou cliquez avec le bouton droit) sur le programme à supprimer et sélectionnez Désinstaller ou Désinstaller/Modifier. Suivez ensuite les instructions qui s’affichent à l’écran.

Bien entendu une désinstallation d’un logiciel peut laisser des traces si le créateur de ce dernier pousse le mercantilisme jusqu’à vous compliquer la vie. C’est plus ou moins le cas des antivirus et autres « utilitaires » pré-installés par les distributeurs sur les micro-ordinateurs destinés au grand-public. Dans ces cas il peut être nécessaire de manipuler les clés de registre (un petit programme d’édition du registre « regedit » est intégré à MS Windows). Attention, si vous vous aventurez dans la manipulation du registre, faites d’abord une sauvegarde de votre système.


Et voilà


Nota: N’hésitez pas à laisser des commentaires ou à poser des questions dans le cadre réservé à cet usage.

Qu’est-ce que LINUX ?

Dans le présent article je présente ce qu’est Linux, quels sont les attributs et composants associés ainsi qu’un bref guide pour le choix d’une des nombreuses distributions Linux/GNU. Enfin je donne quelques arguments en faveur de son utilisation par le grand public.

Ce qu’est LINUX

Linux (GNU/LINUX) est un système d’exploitation pour micro-ordinateurs développé et maintenu par une communauté de programmeurs et d’utilisateurs. Le noyau LINUX est apparu en 1992, suite aux travaux de Linus Torvalds. Il était à l’origine capable de fonctionner sur les architectures à base de processeur Intel.

Le système GNU/LINUX est constitué de :

  • un noyau (Kernel, en Anglais) qui en est le principal composant et constitue l’interface entre le matériel d’un ordinateur et ses processus,
  • un ensemble d’outils, d’applications et de services qui sont distincts du noyau mais le complètent à la demande pour permettre des utilisations très variées.

Comme tous les autres systèmes d’exploitation (MS Windows ou MAC), il gère les ressources du matériel (microprocesseur, mémoire RAM, stockage de données et divers périphériques). Linux est un des descendants de UNIX, l’un des systèmes d’exploitation multi-utilisateurs et multi-taches implantés sur les ordinateurs des années 1970/1980. Toutefois, Linux ne contient aucun code provenant de UNIX, il en est juste inspiré, et complètement réécrit. De plus Linux est un logiciel libre, contrairement à MS Windows ou Apple MacOSx qui sont commercialisés sous licence propriétaire (semi-propriétaire pour MacOS qui utilise du code BSD, une branche de développement dérivée d’UNIX et des portions de code sous licence GNU).

D’autre part de nombreux équipements utilisent le noyau LINUX, par exemple: Smart TV, Routers, boîtiers TV, Smartphones, systèmes d’info-divertissement dans l’automobile, réfrigérateurs, accessoires connectés, etc.. Sans que vous en soyez informés.

Ce qu’est la ligne de commande

La ligne de commande est l’interface qui permet de taper au clavier et d’exécuter des commandes LINUX. Un interpréteur (le shell) transmet ces commandes au système d’exploitation pour réaliser l’action demandée. Un terminal (ou émulateur de terminal) donne accès à la ligne de commande.

Les administrateurs de systèmes LINUX utilisent principalement la ligne de commande pour gérer les serveurs (ordinateurs sans écran ni clavier) ou des systèmes minimalistes (de type embarqué, pour l’automobile par exemple).

Comment fonctionne LINUX

Le noyau différencie LINUX des autres systèmes d’exploitation. Il sert de pont entre les applications du niveau utilisateur et les composants électroniques de l’équipement.

Le noyau LINUX gère les échanges entre les processus en cours d’exécution, la mémoire, les fichiers, les périphériques, etc.. En résumé, le noyau se charge de :

  • Gestion mémoire – en gardant la trace des différents accès réalisés par les processus.
  • Gestion des périphériques – en interfaçant les périphériques avec le système (par exemple les périphériques d’entrée / sortie)
  • Gestion des processus – en évitant les conflits et impasses des processus en cours d’exécution et en assurant un fonctionnement optimal du système.
  • Appels système et sécurité– Le noyau reçoit et gère les demandes de service envoyés par les processus en cours d’exécution.

Ce qu’est un environnement de bureau LINUX

Linux lui-même n’étant qu’un noyau, il nécessite d’être accompagné par d’autres logiciels pour former un système d’exploitation. Une des possibilités les plus populaires est l’utilisation de Linux en tant que noyau du système d’exploitation GNU pour constituer un système désigné sous le nom GNU/Linux ou simplement Linux. Plusieurs entreprises ou associations distribuent Linux et GNU accompagnés d’un ensemble cohérent de logiciels ; on appelle distribution Linux un tel système.

Un environnement de bureau est une collection de composants qui fournit une interface utilisateur graphique qui permet une interaction intuitive avec le système d’exploitation. Cette interface est composée à l’écran d’icônes, de fenêtres, de menus barre de tâches, panneaux, etc.. La souris est utilisée pour déclencher des actions.

L’environnement de bureau est fourni avec les distributions modernes de LINUX comme DEBIAN, UBUNTU, FEDORA, ROCKY ou ALMA Linux. Cela permet une utilisation facile contrairement à l’interface en ligne de commande qui nécessite un apprentissage et requiert une bonne connaissance du fonctionnement du système. Ces environnements sont tout à fait comparables à ceux proposés par MS Windows ou Mac OS.

Les exemples les plus populaires de ces environnements sont GNOME, Cinnamon, KDE Plasma, MATE, Deepin, XFCE, LXDE, ou LXQt.

LINUX et Open Source

LINUX est un système d’exploitation libre et open-source ( ou source ouverte) qui fut initialement mis à disposition du public en 1992. Il est actuellement sous la licence GNU General Public Licence (GPL). Open-source signifie que quiconque peut étudier, modifier et redistribuer le code source à condition de respecter les termes de la licence GNU GPL.

Au fil du temps, LINUX est devenu le plus gros projet open-source du monde. Il est apprécié des professionnels de l’internet, des hobbyists et des organisations recherchant l’indépendance par rapport au gros acteurs commerciaux en position de quasi monopole (Microsoft, Apple et Google).

Ce qu’est une distribution

Une distribution LINUX est une version du système d’exploitation basée sur le noyau LINUX. Elle intègre d’autres composants tels que des outils système, des services, des applications, et des programmes comme LibreOffice, GIMP, et le navigateur Firefox.

Deux types de distribution existent. Celles qui sont libres (sous licence GPL), supportées par la communauté de développeurs et utilisables gratuitement. Et celles qui sont supportées par des compagnies à vocation commerciale.

Les distributions libres LINUX les plus utilisées sont UBUNTU de Canonical, DEBIAN du projet Debian, FEDORA du projet Fedora, Open SUSE de Suse, ROCKY et ALMALinux toutes les deux compatibles avec Red Hat.

Les distributions commerciales sont par exemple: Oracle Linux, Red Hat Enterprise Linux (RHEL), et Suse Enterprise Server (SLES).

Quelle distribution choisir

Il existe une multitude de distributions Linux et le choix d’une distribution passe par la définition de ce que l’on veut faire avec. Avant de choisir il est important d’examiner les différences qui existent entre ces distributions.

Au premier abord, les distributions LINUX présentent des différences sur les aspects suivants:

  • Gestion des paquets de logiciels: (façon dont les paquets sont installés et gérés) Les distributions Debian utilisent APT, les dérivés de Red Hat utilisent DNF, les distributions SUSE utilisent zypper et les distributions Arch utilisent Pacman. (Ceci est une liste incomplète)
  • Coût: Soit c’est complètement libre (gratuit), basé sur une souscription (RHEL et SUSE), ou payant dans le cas d’une assistance utilisateur.
  • Documentation: Manuels utilisateur et documentation, ou leur absence .
  • Qualité des logiciels: Certaines distributions comportent les dernières versions des logiciels tandis que d’autres non.
  • Support utilisateur: absent de certaines distributions.
  • Facilité d’utilisation: La plupart des distributions sont faciles à utiliser

Choisir la bonne distribution est une décision guidée par les aspects listés ci-dessus. Mais avant tout c’est une décision qui tient compte de l’utilisation prévue. Donc voici une liste non exhaustive des distributions LINUX qui conviennent pour des cas particuliers:

Distributions LINUX pour débutant

UBUNTU est l’une des distributions les plus adaptées aux débutants dans l’utilisation de Linux. Ubuntu est open-source et gratuite. Elle est très facile à installer sur un équipement et présente une interface graphique très intuitive et facile à utiliser. Ubuntu contient les applications essentielles à la bureautique et l’utilisation des applications Internet. Le suite bureautique LibreOffice, le navigateur Firefox, le client d’eMail Thunderbird, les lecteurs audio et video, le logiciel de dessin GIMP, et beaucoup d’autres applications sont disponibles en standard. De plus les dépôts de paquets d’applications associés à Ubuntu sont remplis de pépites à découvrir.

D’autres distributions comme Linux Mint, Zorin, Elementary OS, MX linux, et Linux lite sont orientées débutants. Il faut remarquer que ces distributions sont basées sur Debian ou Ubuntu.

Distributions Linux pour utilisateurs expérimentés

Pour les utilisateurs expérimentés tels que les ingénieurs système, les développeurs, ou les administrateurs système, Debian, SUSE Linux, RHEL, Rocky, AlmaLinux ou Fedora sont recommandés.

Ces distributions sont polyvalentes. Elles peuvent aussi bien servir de bureau généraliste que de plateforme de production en entreprise.

Distributions Linux pour serveurs

Les distributions Linux optimisées pour les environnements serveurs (serveurs et déploiement cloud) sont notamment RHEL, SUSE Linux Enterprise Server (SLES), Debian Stable, Ubuntu server, Fedora (Fedora Server et Fedora Core OS pour les charges de travail encapsulées). Ces distributions sont reconnues pour leurs hautes performances, leur impressionnante stabilité et leur sécurité.

Distributions Linux pour multimédia

Pour les artistes et les créateurs de contenu multimédia, Ubuntu Studio et Fedora Design Suite sont des références incontournables.

Distributions orientées sécurité

Kali Linux, Black Arch, et Parrot OS sont les distributions Linux les plus fournis en applications pour les tâches relatives à la sécurité comme les tests de pénétration et les investigations numériques en relation avec la sécurité des systèmes et la confidentialité des données.

Conclusion

Mais, me direz-vous, pourquoi utiliserais-je LINUX alors que Microsoft Windows est pré-installé sur tous les ordinateurs personnels vendus partout dans le monde (à l’exception des ordinateurs Apple équipés de Mac OS) ?

Et bien sachez que la vente forcée (un ordinateur est systématiquement vendu avec un seul système, celui de Microsoft) est illégale, mais tolérée au seuil des années 2000, par les pouvoirs publics considérant le manque de réelle alternative crédible. Les systèmes open-source des années 1990 étaient en effet 15 ans plus jeunes que le système MS DOS de Microsoft (mono-tache, mono-utilisateur). Alors que les systèmes open sources dans les mêmes années 1990 sont multi-taches, multi-utilisateurs, Microsoft sortait Windows XP, son premier système multi-tache non basé sur MS DOS). On peut tout simplement dire qu’en matière de manque d’alternative crédible, il y avait méprise sauf à considérer la base déjà installée d’applicatifs vendus par Microsoft.

Il est d’autre part quasiment impossible d’échapper à la prégnance de MS Windows dans les entreprises. Les applications bureautiques utilisées massivement et vendues par Microsoft partagent des formats de fichier propriétaires (non libres) qui sont difficilement émulés par les applications open-sources. C’est une des barrières techniques qui rendent les utilisateurs captifs d’un seul environnement, celui vendu par Microsoft.

Dans les administrations des tentatives ont été décidées naguère au niveau politique pour s’affranchir de la dépendance à un seul fournisseur. Le choix de formats « ouverts » et de logiciels open-source est un enjeu de souveraineté numérique

Je ne vais pas essayer ici de vous convaincre d’utiliser plutôt LINUX que MS Windows. Surtout si vous utilisez des applications qui ne peuvent fonctionner que sous ce système. Toutefois sachez que de plus en plus d’applications sous licence propriétaire fonctionnent par abonnement et dans le cloud (y compris les suites bureautique de Microsoft). Dans ce cas qu’importe le système installé sur la machine que vous utilisez, un simple navigateur internet permet d’accéder au service.

Pour ma part j’utilise LINUX sur des appareils d’occasion, reconditionnés ou tout simplement sur de vieux appareils améliorés. C’est LINUX qui fait tourner les deux serveurs qui hébergent mes services web (auto-hébergés à la maison). C’est également un système LINUX (distro’ Ubuntu Mate) que j’utilise pour écrire le présent article. La machine qui fonctionne avec ce système fait également tourner mes logiciels open-source de développement photo (rien à envier aux produits Adobe). De plus je ne suis pas obligé de changer d’équipement quand Microsoft décide de ne plus supporter les équipements de plus de 10 ans d’age à l’occasion de la sortie d’une nouvelle version de MS Windows (comme c’est le cas pour le passage de W10 à W11).

Si vous possédez de vieux équipements et que vous voulez leur donner une seconde vie, installez donc une distribution Linux en rapport avec l’utilisation que vous voulez en faire. Vous serez surpris du meilleurs fonctionnement de vos équipements. Pensez aussi à donner un coup de jeune à ces équipements en changeant processeur, stockage etc.. Dans la mesure du possible. Mais ceci est une autre histoire……


Voila.

Le premier micro-ordinateur personnel à interface graphique fut créé il y a 40 ans

Je viens de lire un article dans Arstechnica relatant la malheureuse aventure de l’ordinateur LISA créé par Apple il y a tout juste 40 ans. Pour ceux que l’anglais ne rebute pas, je conseille de lire l’article original rédigé par Jeremy Reimer. Inspiré de cet article et corrigé de quelques inexactitudes, voici un résumé de la genèse de la micro-informatique personnelle grand public, celle qui met en oeuvre un environnement utilisateur basé sur des interfaces graphiques et la manipulation de fenêtres et d’icônes avec une souris.


Il ya 40 ans un nouveau type d’ordinateur fut créé. Il allait changer le monde… Deux ans plus tard il était totalement oublié.

Le projet LISA d’Apple commença en 1978, mené par Steve Wozniak (co-fondateur avec Steve Jobs de la société Apple computer). L’idée était de créer un ordinateur utilisant un processeur organisé en tranches de bit (bit-slice processor), le prédécesseur des micro-processeurs modernes VLSI (Very Large Scale Integration). Ce n’est qu’au début de l’année 1979 qu’Apple embaucha un directeur et une équipe pour travailler sur ce projet.

LISA est le prénom de la fille de Steve Jobs (Le patron d’Apple a toujours nié le lien entre sa fille et le projet). Mais le point le plus remarquable au sujet de l’ordinateur LISA c’est qu’il a évolué vers le premier micro-ordinateur personnel grand public avec une interface utilisateur graphique.

A l’origine, une vision

Les interfaces graphiques ont été inventées au Xerox’s Palo Alto Research Center (PARC) dans les débuts des années 1970. La station de travail ALTO issue des recherches menées au PARC n’a jamais été commercialisée. Elle possédait un écran matriciel qui simulait la taille et l’orientation d’une feuille de papier. Les chercheurs du PARC avait écrit du logiciel qui affichait des fenêtres et des icônes et ils utilisaient une souris pour déplacer un pointeur sur cet écran.

La station de travail Alto

L’interface graphique de l’ALTO était basée sur SmallTalk un environnement de développement graphique qui servait aussi d’interface utilisateur.

L’interface utilisateur de SmallTalk

Jef Raskin, un des premiers employés d’Apple (il a écrit le manuel pour l’Apple II) avait visité le PARC en 1973. Il était ressorti persuadé que les interfaces graphiques étaient l’avenir. Raskin a réussi à persuader le directeur du projet LISA d’intégrer une interface graphique. Malheureusement il ne réussit pas à convaincre Jobs.

Alors Raskin modifia son approche et poussa Bill Atkinson, un programmeur de code graphique et nouvel employé chez Apple, à proposer une visite officielle du staff d’Apple au PARC en Novembre 1979. Jobs avait Atkinson en estime et accepta de participer à la visite. La visite de Jobs au PARC suscita chez lui une vision fulgurante de ce que devait être le futur de l’informatique. L’interface utilisateur graphique était le futur de l’informatique personnelle selon la vision de Jobs. En réalité Atkinson travaillait déjà sur LisaGraf le code machine qui allait constituer l’interface graphique du LISA des mois avant la visite de Jobs au PARC. Suite à sa visite au PARC, Jobs conclura un accord avec les dirigeants de Xerox: Xerox pourra acheter des actions Apple à tarif préférentiel contre l’utilisation de plusieurs technologies créées par Xerox. (Notez qu’Apple profitait alors du succès commercial de l’Apple II, micro-ordinateur personnel avec une interface en mode texte).

La structure électronique du LISA évolua. L’équipe de développement abandonna le processeur à tranches de bit pour le tout nouveau 68000 Motorola. En janvier 1981 le directeur du projet LISA chez Apple, fatigué des constantes interventions de Jobs dans la gestion du projet vira Jobs de l’équipe. Jobs, rancunier suite à cette mise à l’écart forma une petite équipe totalement autonome chargée de travailler en secret sous la direction de Raskin pour la partie logiciel d’un autre projet. Ce conflit interne chez Apple allait prendre toute son importance par le suite.

Au début de 1982, la structure physique du LISA était prête. Par contre la partie logicielle était toujours en développement. Une équipe de chercheurs dont faisait partie Larry Tesler, un ancien salarié du PARC réalisait de multiples prototypages, et tests pour faire fonctionner l’interface graphique.

Finalement LISA fut révélée au public le 19 janvier 1983 comme étant la révolution que le monde attendait.

Le LISA vint au monde

Le LISA était un ordinateur personnel « tout-en-un » avec un écran monochrome d’une résolution de 720×365 pixels. Il était basé sur un processeur Motorola 68000 tournant à 5 MHz. Il était équipé de deux lecteur de disquette 5.25′, mais il était conçu pour utiliser un disque dur de 5 MB posé sur le dessus de l’ordinateur.

L’ordinateur Lisa

LISA était fourni avec un système d’exploitation et une « suite office » de sept applications: LisaWrite, LisaCalc, LisaDraw, LisaList (une base de données minimaliste), LisaProject, LisaTerminal (un émulateur de terminal qui fonctionnait avec un modem), et LisaGraph. Le système d’exploitation (Lisa OS) fonctionnait en multitâche préemptif et pouvait faire tourner de nombreuses applications simultanément. Ces applications livrées avec LISA étaient vraiment complètes pour l’époque. LisaWrite, le traitement de texte intégrait un dictionnaire et un correcteur d’orthographe. Il intégrait également de multiples polices de caractères. Des contenus pouvaient être copiés et collés entre applications ce qui est d’autant plus étonnant que le concept de copier/coller n’existait pas encore et devait être inventé plus tard par Larry Tesler.

Cet assemblage révolutionnaire d’électronique et de logiciels était impressionnant mais son coût était en rapport. LISA coûtait 10000 US $ ce qui ferait environ 30000 US $ de nos jours. Ce prix était trop élevé pour les utilisations personnelles. Les professionnels – le marché cible du LISA – auraient payé ce prix, mais ils avaient plutôt besoin d’un ordinateur sur lequel pouvaient se connecter de nombreux utilisateurs avec des terminaux peu coûteux pour faire tourner d’ennuyeux programmes de gestion. La grosse majorité de ces professionnels n’avaient que faire d’applications de conception ésotérique pour passionnés d’art graphique.

Cette erreur de casting eu pour résultat un faible volume de commandes. Seulement quelques milliers d’exemplaires furent vendus la première année. Les ventes ne progressèrent pas après. Ce fut un flop commercial. De son côté, Jobs n’encourageait pas non plus les achats en disant à tout le monde que le vrai ordinateur révolutionnaire d’Apple le MacIntosh allait bientôt être mis sur le marché.

Le destin du LISA

Après avoir été écarté de l’équipe LISA, Jobs mena avec Raskin un développement autour du projet Macintosh. Raskin était chargé du développement des interfaces graphiques et Jobs dirigeait la conception de l’équipement. En raison d’un conflit avec Jobs (Jobs voulait prendre la direction générale du projet) Raskin quitta Apple.

Jobs réussi à mener à bien le projet MacIntosh en délocalisant la petite équipe Macintosh dans un autre bâtiment, faisant flotter un drapeau pirate sur le toit et pratiquant des incursions de piratage dans le bâtiment de l’équipe Lisa pour y voler matériels logiciels et recruter des ingénieurs.

LisaGraf, l’ensemble de routines graphiques hautement optimisées écrites par Atkinson fut renommé QuickDraw et intégré au Macintosh. Cette intégration était facilitée par le fait que le Lisa et le Macintosh utilisait le même microprocesseur (68000 Motorola). L’interface constituée de barre de menu de bureau et d’icônes fut également intégrée mais au prix d’une légère transformation nécessitée par une drastique réduction des coûts de production.

En effet, le Macintosh allait être commercialisé à un prix quatre fois moins élevé que le prix du Lisa (environ 2500 US contre 10000 US $). Pour réussir cette réduction de prix Jobs a supprimé les éléments les plus coûteux de l’architecture du Lisa pour fabriquer le Macintosh. Le Macintosh n’avait qu’un lecteur de disquettes alors que le Lisa en avait deux plus un disque dur. Le Macintosh n’avait que 128 Ko de RAM, comparé au 1 Mo du Lisa. Le Macintosh possédait un écran plus petit que le Lisa (résolution: 512×342 pixels). Le Macintosh n’avait pas d’autres applications que MacWrite et MacPaint (les autres applications devaient être écrites en assembleur pour pouvoir tourner avec une petite quantité de mémoire RAM, et ça prenait beaucoup de temps en écriture). De plus le Macintosh ne pouvait faire tourner qu’une application à la fois alors que le Lisa était multitâche.

Le Lisa 2 a été mis sur le marché en 1984, au même moment que le Macintosh. Il avait une enveloppe différente du premier Lisa mais les composants internes étaient les mêmes. Il était équipé d’un lecteur de disquettes 3,5′ et possédait une connection pour un disque dur interne. Son prix était descendu aux environs de 3500 US $. Les ventes ont commencé à augmenter.

Entre temps Jobs avait viré le directeur qui l’avait débarqué du projet Lisa. Il était maintenant en charge des deux produits Lisa et Macintosh. Il renomma le Lisa 2 « Macintosh XL » et le commercialisa avec des applications qui étaient basé sur le système d’exploitation du Macintosh. En 1985 il mit fin définitivement à la production du Lisa. Le stock fut vendu à une société tiers et en 1989 Apple jeta 2700 Lisa à la casse pour profiter de réductions d’impôts.

Conclusion

Malgré quelques imperfections dans son interface graphique le projet Lisa a établi ce qui allait devenir le standard des interfaces graphiques pour les 40 ans qui suivirent. Les concepts de barre de menu, de menu déroulant, double clic, les effets de fenêtres superposées et enfin l’idée du copier/coller ont été inventées par Apple et appliqués pour la première fois sur le Lisa.

L’ordinateur Lisa est un marqueur dans l’histoire de l’informatique. 40 années après sa mise sur le marché, il demeure exemplaire du fait que les meilleures idées n’ont pas forcément du succès.

Par ailleurs, les Lisa fonctionnant encore sont devenus aujourd’hui des objets de collection, dont la valeur peut monter à plusieurs milliers d’euros.


Voilà.

Moteurs de recherche pour plate-formes de streaming

Je me suis abonné à l’un des premiers services de streaming internationaux voici quelques années (avant de postuler à ma retraite). A l’époque le catalogue NETFLIX était en progression et sans réelle concurrence. L’audience était en constante augmentation (nombre d’abonnés) et les investissements de Netflix dans la création de films et séries contribuaient à la création d’une offre assez remarquable. Puis le rythme des créations s’est ralenti et avec le temps le catalogue a perdu de son attrait avec la concurrence de nouvelles plate-formes de streaming (Amazon Prime, Disney+, Paramount, Apple TV+, etc..). J’oublie la concurrence de Canal+. Certains abonnement à Canal+ permettent de profiter des catalogues des autres plateformes (Netflix, OCS, Paramount, etc..) grâce à des accords commerciaux entre plateformes. Dans l’industrie du streaming il y a en ce moment une telle pression que les Fournisseurs d’Accès à Internet préfèrent se recentrer sur leur cœur de métier. Par exemple: OCS, la plateforme TV/ Streaming payante d’Orange va être cédée par Orange à Canal+ et la plate-forme Salto est en perdition par défection de TF1 et M6. La fragmentation de l’offre et le jeu des rachats de catalogues a pour effet de réduire l’intérêt d’un abonnement a un service unique. Malgré cette perte d’attrait de Netflix et malgré les annonces de restriction du partage d’abonnement, j’y suis toujours abonné.

Si comme moi vous vous surprenez maintenant à passer plus de temps à explorer la page de présentation des films ou des séries sur le site Netflix qu’à regarder le contenu, alors il est peut-être temps de vous intéresser à des services qui facilitent la recherche. Ces services sont proposés sur des sites web qui exploitent les données disponibles sur le site Netflix et les données des bases open source de référencement et de classement des productions audiovisuelles. De plus ces sites proposent un agenda de déprogrammation des productions du catalogue. Ils s’affichent comme totalement indépendant de Netflix.

Deux sites offrent actuellement ces services: Flixboss et Flixable. Le site Flixboss n’opère que sur le catalogue Netflix, alors que celui de Flixable traite également les catalogues Amazon Prime Video et Disney+.

L’interface de Flixable semble plus moderne et plus exhaustive. D’autre part Flixable permet de faire des recherches sur les autres localisations géographiques (USA, Allemagne, Espagne, Italie…) qui ne proposent pas les mêmes catalogues. Flixboss promeut de son coté l’utilisation de VPN pour l’accès aux catalogues étrangers de Netflix.


Voilà.

La bataille des bannières de consentement

La plupart les sites internet « commerciaux » que vous visitez affichent, au début de la connexion, un bandeau de consentement. Ce bandeau (ou bannière, selon la terminologie officielle) vous pose une question préalable à l’accès au contenu du site. Cette question concerne le partage de vos données personnelles dans un but commercial. C’est une initiative du conseil de l’Europe qui est à l’origine de cette démarche de recueil de consentement. La directive ePrivacy (directive cookies) et la directive RGPD (réglementation sur la protection des données personnelles) s’appliquent dans les 27 états membres depuis mai 2018. Ces directives obligent les entreprises et organismes qui mettent en ligne des sites web à recueillir le consentement des internautes pour l’installation de cookies et l’exploitation des données personnelles transmises notamment au travers de formulaires de contact. C’est la loi et son application a donné lieu à beaucoup de résistance de la part des entreprises qui font commerce de votre fréquentation des sites internet.

La résistance des entreprises et notamment des GAFAM à l’application de cette directive Européenne s’est organisée au travers d’un lobbying puissant. L‘IAB (International Advertising Bureau) est le lobby de l’adtech, et 80% des sites web Européens utilisent le protocole proposé par l’IAB Europe (le « Transparency & Consent Framework » ou TCF) pour faire fonctionner ces fameuses bannières de consentement. Ce protocole vise essentiellement à créer une fatigue des usagers

Ce protocole est très efficace, pour preuve le nombre de fois ou vous appuyer sur le bouton « tout accepter et continuer » sur les bannières à trois boutons. De plus si vous faites l’effort de choisir l’option « continuer sans accepter » vous ne pouvez pas prétendre être protégé contre l’utilisation commerciale de vos données. Ce choix peut être un « Dark Pattern », une sorte de leurre qui ne se base pas sur votre consentement mais sur l’intérêt légitime pour traiter vos données personnelles. Seule l’option « paramétrer vos choix » peut vous garantir un minimum de protection.

Bien entendu, l’option « paramétrer vos choix » vous contraint à passer plus de temps. Très peu d’internautes sont prêts à passer ce temps supplémentaire. Ce protocole est parfaitement illégal car il ne permet pas un choix simple et clair entre consentement et refus.

L’application des directives européennes sur la protection des données individuelles est devenue une réelle préoccupation pour les commerçants. Les statisticiens sont appelés à la rescousse et publient des études comportementales. Un hit parade des modèles de bannière de consentement est tenu à jour sur le site de Commander Act à destinations des responsables marketing.

La CNIL est en France l’organisme chargé de la surveillance de l’application des directives européennes RGPD et ePrivacy. Force est de constater que cette surveillance n’a, pour le moment, pas eu les effets que l’on pourrait en attendre, malgré les nombreuses plaintes déposées par les internautes. Les éditeurs se moquent totalement de la CNIL, bien que cette dernière inflige des amendes (par exemple les 100 Millions d’€uros à Google en décembre 2020 pour non respect de la directive ePrivacy).

La bataille est donc engagée et les amendes infligées aux contrevenants peuvent faire sourire par rapport aux intérêts financiers en jeu.


Pour plus de détails, je vous conseille de consulter l’excellente analyse de Pixel de Tracking (un blog tenu par un ancien de la adtech) sur les bannières de consentement. Vous trouverez également sur ce blog d’autres contenus très documentés sur le tracking publicitaire et le capitalisme de surveillance.


NOTA: Aucun vol de données personnelles à des fins commerciales n’est pratiqué sur le présent site. Vous pouvez consulter la politique de confidentialité via l’onglet dédié, en bas de page.

Voilà.

Obsolescence programmée (suite)

Comme vous le savez probablement, je suis peu favorable à la consommation frénétique d’équipements informatiques, sauf quand c’est motivé par un projet technique altruiste. Aujourd’hui je me suis posé la question du remplacement de ma seule machine tournant sous MS Windows: un PC portable acheté sur mon compte professionnel en 2017 avec un processeur Intel core i7 de 7em génération. Toutes les autres sont équipées de systèmes Linux ou Mac-OS (des dérivés d’Unix). Et nous en venons donc au problème de l’obsolescence des systèmes d’exploitation, le processeur de la machine en question ne répondant pas aux critères définis par Microsoft pour supporter la dernière itération de MS Windows.

Microsoft cessera le support de windows 10 en octobre 2025. La durée de vie de ce système aura été exactement de 10 années. Les possesseurs de PC utilisant le système de Microsoft ayant acheté leur PC avant octobre 2017 seront alors orphelins de mise à jour. En effet, la mise sur le marché de processeurs Intel core i de 8eme génération nécessaires à l’installation de windows 11 date d’ octobre 2017. De ce fait, la durée de vie de ces PC équipés de windows 10 aura été de 8 années avant obsolescence du système. Bien entendu, l’utilisation de ces PC pourra durer au-delà de la date de fin de support du système par Microsoft, mais avec des risques en matière de sécurité et de non fonctionnement de certaines applications.

Les arguments de Microsoft pour bannir les équipements mis sur le marché avant 2018 de support (mises à jour, mise à niveau) après 2025 sont de nature technologique. Je considère plutôt que Microsoft veut combattre la réticence des utilisateurs à changer de version du système. Cette forme d’obsolescence programmée est très efficace pour la vente des smartphones. D’autant plus efficace pour les Smartphones à prix modéré (mises a jour système assurées sur deux ans maximum).

Voila donc ce qui va relancer les actes d’achat de PC après 2025. Je rappelle tout de même que Microsoft est en quasi situation monopolistique. Son système est en effet installé par défaut sur tous les PC commercialisés sur la planète, hormis les équipements produits sous la marque Apple. Dans les faits il s’agit ni plus ni moins de vente forcée. Arguant de l’absence supposée de compétiteurs crédibles, les pouvoirs publics sont jusqu’à présent complices de ces pratiques prédatrices. Un utilisateur qui veut faire tourner sa machine sous un autre système que MS Windows est juridiquement en droit d’exiger le remboursement de la licence d’utilisation du système intégré à la machine qu’il achète. En décembre 2020, le « tribunal ordinaire » de Monza, en Italie, a confirmé le droit de se faire rembourser le coût de la licence de Microsoft Windows sur l’ordinateur dont on a fait l’acquisition, et a condamné Lenovo à payer 20 000 € de dommages et intérêts au demandeur, Luca Bonissi, pour procédure abusive (source: association April). Je suis peu investi dans l’activisme Libriste (le monde Open Source et Licence Libre) et je n’ai pas l’intention de mener ce type de combat juridique. Toutefois, tous les équipements informatiques que j’utilise (sauf un) sont pilotés par un système Open Source basé sur un noyau Linux. Et vous voulez savoir pourquoi ?

Et bien, je ne suis pas lié à Microsoft et je peux utiliser des équipements anciens (certains de plus de dix ans d’âge et mis à niveau par des améliorations matérielles) sans craindre une obsolescence programmée. De plus, les systèmes ouverts sont créés et maintenus par une communauté de développeurs et d’utilisateurs volontaires (bénévoles ou salariés de grosses sociétés informatiques) donc en dehors de stratégies commerciales agressives ou abusives.


Voilà.

N’hésitez pas à demander des informations ou à poster un commentaire.

Imposture numérique

En cette période de coupe du monde de Football l’appétit des amateurs de ce sport pour les moyens de visionnage des matchs en direct est décuplé. Les commerçants sont à l’affût et des efforts financiers ont été consentis en amont par les diffuseurs pour négocier la retransmission de ces directs. Le sport de façon générale et les évènements sportifs majeurs sont un produit d’appel pour les chaînes de diffusion par abonnement (exemple: canal+ dans ses années fastes). C’est aussi un support marketing de façon plus générale.

Une question inattendue m’a été posée aujourd’hui par un ami qui n’a pas envie de dépenser une partie de sa pension de retraité dans des abonnements à des services de diffusion. Voici la question:

La RTBF diffuse gratuitement pour ses ressortissants belges tous les matchs de la coupe du monde et nombre d’événements sportifs payants sur les chaînes françaises. J’ai essayé d’ouvrir un compte avec une fausse vraie adresse d’une maison en Belgique mais ça ne marche pas. J’ai cru lire que il faut un téléphone belge ou une identification IP belge. Est ce à supposer que l’achat d’une tablette en Belgique pourrait me permettre de devenir un faux « vrai belge » aux yeux de la RTBF.

La réponse à cette question passe par une approche technique de l’identification des clients sur l’internet. Les FAI (Fournisseurs d’Accès Internet) nationaux utilisent des plages d’adresses IP qui sont attribuées par l’ICAAN. Le rôle de l’ICANN n’est pas de gérer le système mais d’aider à coordonner les attributions d’adresses IP pour éviter les doublons et les plantages. L’ICANN est également un référentiel central d’adresses IP, à partir duquel des plages d’adressage sont fournies aux registres régionaux, qui les distribuent à leur tour aux fournisseurs d’accès. Considérant ce schéma d’attribution des adresses IP aux FAI nationaux, il devient clair qu’une adresse IP permet de savoir dans quel pays réside le client. Pour ce qui concerne la discrimination entre citoyen résident Belge et reste du monde, c’est bien l’adresse IP qui est prise comme référence. C’est valable aussi bien pour une connexion fixe que pour les mobiles.

Pour profiter de la diffusion des chaînes belges sur internet il faut donc utiliser une connexion avec adresse IP identifiée en Belgique. Pour cela il faut utiliser les services d’un VPN (Virtual Private Network). Un service VPN permet de récupérer une adresse IP Belge (si des serveurs du fournisseur du service VPN sont installés en Belgique) et de rendre invisible votre propre adresse. C’est une façon de masquer sa propre adresse IP en passant par un intermédiaire, au travers d’une liaison cryptée. C’est utilisé par les citoyens qui veulent profiter des services de diffuseurs étrangers (comptes Netflix avec programmes USA, par exemple) ou par les citoyens qui veulent masquer leur adresse IP réelle pour d’autres raisons….

Bien entendu le recours à un service VPN n’est pas gratuit. Une comparaison récente des meilleurs VPN accessibles en France est donnée par le CNET ici. Pour donner une référence: NordVPN est un des mieux placés avec un abonnement à 2,99 € / mois. À noter que NordVPN compte 5448 serveurs stationnés dans 59 pays (en 2022).

Je suis désolé de ne pouvoir proposer d’autres solutions plus économiques, mais franchement le VPN est LA solution.


Et voila.

La foire à l’arnaque

Ce soir je viens de recevoir un appel téléphonique. Le numéro qui s’affiche sur mon téléphone portable est 04 11 77 31 27. Malgré ma prudence habituelle et peut être sujet à une humeur joueuse, j’ai décroché et j’ai lâché un très sommaire « j’écoute ». J’ai ensuite porté attention à ce qui se passait chez mon interlocuteur. Un bruit de fond chargé de multiples voix indique une salle de télédémarchage et l’accent de mon interlocuteur est très prononcé… Il me demande si j’ai bien reçu le boîtier qui fait l’objet d’une campagne nationale de recherche d’économie sur la facture d’électricité. Et bien non je n’ai reçu aucun boîtier. Il vérifie mon adresse de domicile, c’est mon ancienne adresse. Il lui semble normal que je n’ai pas reçu le boîtier en question (on en rit de concert). Il me demande alors ma nouvelle adresse, que je lui donne. Là je me dis que je viens de rater une occasion de passer inaperçu…

Ayant un bagage technique suffisant pour m’intéresser à l’aspect fonctionnel du dit-boîtier je lui demande alors sur quel principe ce boîtier va me permettre d’économiser 30 % sur ma facture d’électricité, et cela sans changer de contrat ni de fournisseur. Sans perdre son aplomb il commence une explication sur l’énergie active et l’énergie réactive. Il va même le bougre jusqu’à évoquer le mot « cosinus ». Le protocole qu’il suit dans son explication (car il s’agit de réponses préformatées) est basé sur des réalités techniques connues. Sauf que parler de cosinus phi à quelqu’un qui a pratiqué le conseil aux industriels sur les économies réalisables par ajustement des contrats EDF et l’installation de batteries de condensateurs (autre chose qu’un malheureux boîtier qui pèse 50 grammes) est totalement farfelu.

Je lui affirme donc que la consommation d’électricité domestique n’est pas entachée significativement d’énergie réactive (qui peut être provoquée par l’utilisation de moteurs électriques). De plus il n’est pas prévu de tarifs domestiques qui pénaliseraient les consommateurs d’énergie réactive, comme c’est le cas pour les tarifs industriels. Enfin il n’existe aucun début d’initiative de la part d’ENEDIS pour une quelconque tentative de rétribuer les consommateurs domestiques qui contribueraient à minimiser la consommation d’énergie réactive (pour la bonne raison que les consommateurs domestiques n’y contribuent qu’à la marge). Sourd à mes explications et probablement incapable de les comprendre, il continue d’affirmer que le fameux boîtier va sauver l’humanité de la ruine énergétique. Il s’accroche le malheureux, s’enfonçant dans des explications de plus en plus incompréhensibles.

C’en est assez, cela devient pitoyable et donc, courtois je lui signifie son congé: « Monsieur je vous souhaite le bonsoir et ne tentez pas de me rappeler ».

Dans l’actuelle période de flambée des tarifs de l’énergie les arnaques de ce type vont fleurir. Ne donnez aucun crédit à ces démarches téléphoniques. Je suis persuadé que vous savez à quoi vous en tenir, que vous évitez de répondre et que même vous avez une stratégie de blocage de numéros. Toutefois, nul n’est à l’abri d’une faiblesse.


Courriels – Spams et Blacklists – Quelques vérités à connaître

Hier, par erreur j’ai envoyé un courriel (eMail) depuis mon adresse numericable.fr vers une adresse Gmail.com. Ce courriel n’est jamais arrivé à destination. Les deux adresses sont valides (elles existent et fonctionnent). Que s’est il donc passé ?

Je reproduis la réponse du serveur Gmail ci-dessous (l’identité du destinataire est remplacée par « tartempion » par soucis de confidentialité) :

This is the mail system at host nc-smtp3.sdv.fr.

I'm sorry to have to inform you that your message could not
be delivered to one or more recipients. It's attached below.

For further assistance, please send mail to postmaster.

If you do so, please include this problem report. You can
delete your own text from the attached returned message.

                   The mail system

<tartempion@gmail.com>: host gmail-smtp-in.l.google.com[173.194.76.26] said:
    550-5.7.26 This message does not pass authentication checks (SPF and DKIM
    both 550-5.7.26 do not pass). SPF check for [numericable.fr] does not pass
    with ip: 550-5.7.26 [212.95.69.93].To best protect our users from spam, the
    message has 550-5.7.26 been blocked. Please visit 550-5.7.26
    https://support.google.com/mail/answer/81126#authentication for more 550
    5.7.26 information. l6-20020a5d6d86000000b0022864c98ff5si2904784wrs.381 -
    gsmtp (in reply to end of DATA command)

Bien entendu le serveur ne transmet les informations de blocage qu’en langue anglaise. Pour les personnes non anglophones, je résume: Le message n’a pas pu être délivré au destinataire (signé: le mail system). La raison en est le blocage du message par les dispositifs d’identification des spams: numericable.fr est identifié comme origine de courriels indésirables.

Plusieurs raisons à ce blocage:

  • Depuis le rachat de Numéricable par SFR les adresses de courriel utilisant le domaine numericable.fr ont migré vers les serveurs sfr.fr,
  • Les serveurs numéricable ont été fermés en septembre 2019,
  • Le domaine numericable.fr subsiste mais utilise les serveurs sfr. Les systèmes d’analyse des courriels malveillants sondent les entêtes de messages et ne voient que le domaine numericable.fr
  • Les adresses de ce domaine en voie d’extinction sont utilisées massivement pour des activités malveillantes (phishing, spamming, etc..) suite entre autres à des usurpations d’identité.

Les mêmes raisons sont applicables au domaine Wanadoo.fr.

Ça fait plus de 10 ans qu’Orange a demandé à ses clients de migrer leur adresse wanadoo en orange ! Alors oui, à cause de résistants, ces adresses sont encore valides mais de plus en plus blacklistées par les divers FAI car les spammeurs utilisent massivement l’alias wanadoo fourni automatiquement par Orange aux comptes orange. De plus aucune adresse wanadoo ne peut plus être créée de nos jours.

La solution, pour les réfractaires qui veulent absolument garder une adresse de courriel en voix d’extinction et pour éviter ce type de blocage par les systèmes de détection de spams: n’utilisez votre adresse numericable ou wanadoo que pour la réception. N’utilisez que les adresses avec les domaines sfr.fr ou orange.fr pour l’envoi de courriel. J’utilise des adresses en voix d’extinction entre autre pour valider des abonnements à des services dont je sais qu’ils vont occasionner du harcèlement publicitaire ou d’autres désagréments.

NOTA: C’est toujours intéressant d’observer les dysfonctionnements des systèmes en créant des situations imprévues. C’est par étourderie que j’ai envoyé un courriel depuis une adresse qui n’est normalement pas utilisée à cet effet. Il est facile de se tromper si on possède six adresses différentes...

Gestion des Mots de passe

Qui n’a jamais pesté contre la multitude d’identifiants et de mots de passe qui doivent être utilisés dans la vie numérique. La dématérialisation des échanges avec le moindre fournisseur de service ou le moindre commerce électronique a sérieusement diminué les échanges avec les vrais gens. Dans le même temps elle a sérieusement compliqué les sécurités d’accès aux sites web qui permettent des échanges d’informations sensibles (exemple: les services bancaires, certains services publiques, les compagnies d’assurance, etc..). Il n’est pas rare qu’un citoyen lambda ait à conserver une trentaine de mots de passe. J’en utilise régulièrement une quarantaine et je ne prétends pas faire d’excès.

Il existe à ma connaissance deux attitudes pour gérer cette multitude de mots de passe. La première consiste à tenir un carnet (papier ou informatique – genre tableau MS Excel). La seconde consiste à utiliser un coffre fort numérique spécialisé. J’utilise depuis quelques années un de ces coffres forts numériques. Le côté pratique, la sécurité et la facilité d’utilisation de ce service m’ont immédiatement convaincu.

Sur cette niche du marché des services numériques l’offre est assez limitée. On peut citer des services sous licence propriétaire: 1pasword, Keeper, Dashlane et Sticky Password. Ces derniers sont des offres commerciales (payantes). Il existe un service sous Licence Open Source: Bitwarden qui est gratuit pour une utilisation individuelle. C’est celui que j’utilise actuellement.

Ce coffre fort numérique fonctionne avec un service cloud: un serveur distant accessible par le web. Ce serveur distant peut être celui de Bitwarden, ou le votre en auto-hébergement. Les échanges avec le serveur sont cryptés pour assurer un niveau de sécurité optimal. Le service assure la synchronisation avec les différents clients installés sur mes équipements (smartphone, micro-ordinateurs). Les mots de passe et identifiants contenus dans le coffre fort sont accessibles sur tous ces équipements simultanément. Un mot de passe unique permet l’accès au coffre fort. En cas de besoin pour renforcer la sécurité (je n’en suis pas encore là), un accès en deux étapes peut être installé.

L’installation du client Bitwarden est possible sous la forme d’une extension de navigateur internet (par exemple Firefox, Edge ou Chrome). Dans ce cas de couplage avec le navigateur, le service permet de compléter directement identifiant et mot de passe sur n’importe quelle page web qui les demande (pour peu que ces informations soient déjà enregistrées dans le coffre fort). Sinon le service propose d’enregistrer les identifiants et mots de passe qui sont entrées au clavier sur la page web qui les demande.


Voilà.