Microsoft espère vraiment que vous allez changer votre vieux PC Windows 10 cette année

La carotte (les nouvelles technologies) et le bâton (l’arrêt des mises à jour)

En janvier dernier, au CES (le salon de la tech à Las Vegas)), le directeur marketing de Microsoft, Yusuf Mehdi, a déclaré que 2024 serait « l’année du PC IA ». Et que vous croyiez ou non que cette prédiction se soit réalisée (de nombreux nouveaux PC sont équipés d’unités de traitement neuronal (NPU) accélérant l’IA, mais pas tous), vous ne pouvez pas nier que Microsoft a fait de gros efforts pour y parvenir.

Cette année, Mehdi revient avec une autre prédiction : 2025 sera « l’année de la mise à jour des PC Windows 11 ». Cette année est également, et ce n’est pas une coïncidence, l’année où la plupart des PC Windows 10 cesseront de recevoir de nouvelles mises à jour de sécurité.

Le message de Mehdi ne contient que peu de nouvelles annonces, mais il révèle la manière dont Microsoft gère la fin de Windows 10, en essayant de trouver un équilibre entre la carotte et le bâton. Les carottes comprennent les nouvelles fonctionnalités de Windows 11 (à la fois IA et autres), ainsi que les avantages en termes de performances, de sécurité et d’autonomie de la batterie inhérents au tout nouveau matériel PC. Le problème, c’est que le support de Windows 10 se termine en octobre 2025, et Microsoft n’est pas intéressé par une prolongation de cette date pour le grand public ou par une extension du support officiel de Windows 11 aux anciens PC.

« Que le PC actuel ait besoin d’une mise à jour ou qu’il présente des vulnérabilités de sécurité qui nécessitent la dernière protection matérielle, il est maintenant temps d’aller de l’avant avec un nouveau PC Windows 11 », écrit Mehdi.

Microsoft et ses partenaires profitent évidemment plus de l’achat de nouveaux PC par les utilisateurs que de la fourniture de mises à jour gratuites du système d’exploitation pour les machines existantes par Microsoft. Il est également vrai que de nombreux PC officiellement non pris en charge peuvent exécuter Windows 11 sans problème, en particulier avec des mises à niveau matérielles soigneusement étudiées.

Toutefois de nombreux utilisateurs de PC anciens et incompatibles pourraient grandement bénéficier d’une mise à niveau à ce stade. Lorsque Microsoft a annoncé et publié la première version de Windows 11 en 2021, il a limité le support aux PC et aux processeurs qui n’avaient pas, à l’époque, plus de trois ou quatre ans. D’ici octobre, ces machines auront sept ou huit ans. Les PC qui ne peuvent pas exécuter Windows 11 auront près d’une décennie, voire plus. Pendant ce temps, les processeurs et les GPU sont devenus plus rapides, les écrans des ordinateurs portables sont devenus plus grands et plus performants, et le matériel ancien a eu tout le temps d’épuiser sa batterie et de souffrir de l’usure physique.

Une échappatoire à durée limitée

Mehdi a omis de mentionner que les utilisateurs de Windows 10 qui souhaitent conserver Windows 10 ont une échappatoire. Le programme Extended Security Update (ESU) de Microsoft pour Windows 10 permettra aux utilisateurs et aux entreprises de continuer à recevoir des mises à jour pendant au moins un an après octobre 2025. Les utilisateurs finaux ne peuvent obtenir qu’un an de mises à jour supplémentaires pour leurs PC personnels, mais les organisations peuvent obtenir jusqu’à trois années supplémentaires. Le seul inconvénient est que vous devrez payer : 30 $ pour un an de mises à jour si vous êtes un particulier, et entre 1 $ et 61 $ par utilisateur pour les écoles et les entreprises, avec des coûts qui augmentent considérablement pour les deuxième et troisième années

Selon des données (peu précises) provenant de sources comme Statcounter et Steam Hardware Survey, Windows 10 représente toujours entre la moitié et les deux tiers de toute l’utilisation de Windows dans le monde. Laisser autant de PC Windows potentiellement sans protection contre les menaces de sécurité peut causer de gros problèmes, ce qui explique probablement au moins en partie pourquoi Microsoft aimerait vraiment voir beaucoup de mises à niveau cette année. Mais même si 2025 devient « l’année du rafraîchissement des PC Windows 11 », il est difficile de voir comment cela pourrait se produire assez rapidement pour retirer de la circulation la plupart de ces PC Windows 10.

Voila

Sources: ArsTechnica – Andrew Cunningham le 6 janvier 2025

MS Windows – Introduction de l’IA dans le traitement des images

Suite aux dernières mises à jour de Windows 11 sur une de mes machines, j’ai constaté des nouveautés dans les logiciels intégrés à Windows pour le traitement des photos et des images.

La première évolution concerne le logiciel « Photo » intégré à Windows 11. L’effacement génératif et le traitement de l’arrière plan avec ou sans remplacement génératif sont les premières avancées permises dans ce logiciel photo grace à l’IA.​

​Avant effacement

Après effacement

La deuxième évolution concerne le logiciel MS Paint. Ce dernier bénéficie désormais d’une fonction de génération d’image qui est comparables aux fonctions génératives de logiciels tels que Photoshop ​

Image générée en réponse à une description écrite

Ces fonctions qui font appel à l’Intelligence Artificielle ne peuvent être mises en oeuvre qu’avec une connection internet. Le traitement est assuré par des grappes de serveurs qui déploient une puissance de calcul bien supérieure à celle de votre micro-ordinateur.

Ces évolutions sont introduites dans des logiciels qui jusqu’à maintenant sont plutôt destinés au grand public pour des usages récréatifs. Ces logiciels font partie de la distribution Windows équipant la majorité des micro-ordinateurs mis sur le marché de nos jours. Ils sont « gratuits » (le prix de la licence d’utilisation est compris dans celui du matériel). On peut se questionner sur les évolutions futures de ces logiciels « gratuits »qui pourraient entrer en concurence avec les fonctions des logiciels plutôt destinés aux professionnels, qui eux ne sont pas gratuits.

Voilà.

Installation de PLEX sous MS Windows (ou Mac OS ou Linux)

Vous possédez une certaine quantité de fichier multimédia que vous souhaitez diffuser et lire sur vos terminaux (TV, smartphone, tablette, micro-ordinateur). Alors PLEX peut vous aider. Le présent article vous guidera pas à pas dans l’installation et le paramétrage d’un serveur PLEX sur un système MS Windows.

PLEX à quoi ça sert ?

PLEX permet la diffusion et la lecture de vos propres contenus multimédia en streaming au travers de votre réseau local (en aval de votre boitier Internet (la Box)) ou au travers d’internet. PLEX est gratuit dans sa version de base. Il permet dans une certaine mesure de s’affranchir des offres de streaming commerciales (Netflix, Disney+, etc..).

PLEX fonctionne suivant le modèle Client/Serveur. La pièce maitresse de l’architecture PLEX est un puissant serveur pour le stockage, l’organisation et le streaming de contenus multimédia (musique, vidéos, photos, etc..) vers des clients PLEX. Les clients PLEX peuvent être installés sur des terminaux tels que smartphones, micro-ordinateurs, télévisions, tablettes.

Comment installer le serveur PLEX

Compte tenu de l’architecture Client / Serveur du service PLEX, une machine doit assurer le rôle de serveur. Si PLEX sert de support à une collection importante de fichiers multimédia, il est préférable d’utiliser une machine dédiée. Cette dernière permettra d’augmenter la capacité de stockage en fonction des besoins. Cette machine peut être un NAS (stockage réseau), ou un micro-ordinateur. Pour utiliser une de vos machines obsolètes qui traine dans un placard nous traiterons ici du cas d’un micro-ordinateur.

Le logiciel serveur peut être installé sur un micro-ordinateur sous MS Windows aussi bien que sous Mac OS, ou sous une distribution Linux. Le plus simple pour l’utilisateur ne possédant pas d’expertise particulière, serait d’installer PLEX sur une machine MS Windows (MS Windows couvre 90 % du marché grand public). Toute l’opération se déroulera à partir de l’interface graphique (plus intuitive que la ligne de commande Linux). Pour récupérer le logiciel serveur, aller sur la page de téléchargement PLEX et choisir le système MS Windows.

Choisir ensuite la distribution 32 ou 64 bits suivant le type de micro-processeur de votre équipement. Une fois le fichier d’installation téléchargé, lancer ce dernier. Passer outre le panneau d’avertissement de MS Windows par click sur « installer quand même ».

Lorsque l’installation est terminée, vous pouvez accéder à l’interface de contrôle du serveur PLEX en local (à partir de la machine d’installation) par le truchement de votre navigateur internet en entrant l’URL suivant dans la barre de recherche :

http://localhost:32400/web

Vous pouvez également cliquer sur l’icône PLEX qui après installation sera placée sur le bureau ou dans la barre des tâches. La page d’enregistrement suivante s’affiche alors:

Une fois votre compte créé vous pourrez accéder à la configuration de votre serveur.

Après avoir nommé le serveur PLEX vous pourrez créer et configurer des bibliothèques (Films, séries, musique, photos).

Cliquez sur la catégorie souhaitée. Par exemple : Film. Mettez la langue sur Français (important pour avoir les métadonnées dans la bonne langue) puis cliquez sur Ajouter des dossiers depuis le menu de gauche.

Cliquez sur Naviguer vers un dossier multimédia dans la fenêtre qui s’ouvre pour ajouter un dossier contenant vos films. Naviguez vers le répertoire correspondant. Vous pouvez bien sûr en ajouter plusieurs en cliquant à chaque fois sur le bouton Naviguer vers un dossier multimédia. Vous pouvez faire la même opération pour séries, musique et photos.

Plex Media Server va scanner automatiquement vos contenus et les ajouter dans les catégories correspondantes. Vos films, séries, vos albums de musique seront automatiquement organisés de manière ergonomique avec toutes les informations récupérées automatiquement sur des services en ligne (méta-données). Quand vous ajoutez de nouveaux contenus à vos dossiers, n’oubliez pas de mettre à jour la bibliothèque. Pour cela, cliquez sur les trois points horizontaux à droite de la catégorie (Films, Séries, etc.) puis sur le choix « scanner les fichiers de la bibliothèque ».

Comment installer le lecteur PLEX

Une fois le serveur PLEX configuré, vous pouvez maintenant installer le lecteur qui ira chercher le contenu sur le serveur. Si ce dernier est sur le même ordinateur comme dans le cas ci-dessus, la liaison avec le lecteur se fera automatiquement pour vous permettre de profiter de vos contenus.

Installez le lecteur PLEX depuis le magasin d’application de votre système (Google App Store pour les terminaux sous Android, Windows App Store ou autre suivant le cas). L’application vous demandera une connexion. Connectez-vous avec votre compte Google, Facebook ou avec votre adresse e-mail comme lors de la configuration du serveur. La magie de PLEX, c’est que vous n’avez pas grand-chose à faire à chaque fois.

Si vous utilisez la diffusion sur internet (via le port 32700 de votre router) et que vous êtes raccordé à la distribution par fibre optique vous risquez des surprises. Lisez attentivement mon article sur la pénurie d’adresses IPV4.

Conclusion

L’installation et la configuration d’un serveur PLEX sont réalisables facilement par des utilisateurs sans connaissances techniques. Une fois le serveur en place, vous accédez facilement à vos films, séries et morceaux de musique. L’intérêt principal de la mise en place d’un serveur, c’est de vous permettre de lire vos contenus depuis n’importe quel terminal. De plus l’interface du lecteur PLEX est très semblable à celle des services de streaming les plus présents sur le marché (Netflix, Disney+, ou autres compétiteurs) .

PLEX et Linux

Dans le cas ou vous souhaiteriez utiliser un équipement sous MS Windows ancien (moins de 15 ans d’age de préférence) et que l’aventure Linux ne vous fait pas peur, je conseille l’installation d’une distribution Ubuntu légère en lieu et place de MS Windows. Un exemple d’installation avec Linux: Mon Serveur PLEX est installé sur un micro-ordinateur tournant sous une distribution Debian support d’OpenMediaVault (un service de type NAS – stockage réseau open source).

Voilà.

Éradiquer les nuisibles


Récemment un des photographes de l’association à laquelle je suis adhérent m’a demandé de résoudre un problème. Il avait installé pour une période d’essai gratuite le logiciel ON1 sur son équipement informatique (sous MS Windows). Depuis la fin de la période d’essai ON1 continuait à se lancer à chaque fois que l’utilisateur tentait de traiter une photographie. Très frustrante situation si l’on considère que ON1 affichait un cadre vide sur l’écran au lieu de la photo. De plus mon ami photographe n’avait aucune intention de faire l’achat de la licence d’utilisation de ce logiciel.

Le plus simple dans des cas de cette nature, c’est de désinstaller (« uninstall » en anglais) le logiciel coupable de cette appropriation de la position de préféré. Ne tentez jamais d’effacer vous-même le ou les fichiers qui vous semblent responsables de votre problème, il en résulterait une plus grande détresse. En effet, lors de l’installation MS Windows crée des inscriptions dans son registre et un simple effacement de fichier ne permet pas de modifier ce registre. Voyons donc maintenant comment réaliser « proprement » une désinstallation. Une simple consultation du site de support de Microsoft permet de trouver comment réaliser cette opération. Bien évidemment il existe plusieurs manières de procéder, qui sont listées ci-dessous (pour MS Windows 11).

Désinstaller à partir du menu Démarrer

  1. Sélectionnez Démarrer > Toutes les applications et recherchez l’application dans la liste affichée.
  2. Appuyez de façon prolongée (ou cliquez avec le bouton droit) sur l’application, puis sélectionnez Désinstaller.

Désinstaller dans Paramètres 

  1. Sélectionnez Démarrer > Paramètres  > Applications > Applications & fonctionnalités .
  2. Recherchez l’application à supprimer, sélectionnez Plus  > Désinstaller.

Remarque : Certaines applications ne peuvent pas être désinstallées depuis l’application Paramètres pour le moment. Pour obtenir de l’aide sur la désinstallation de ces applications, suivez les instructions de désinstallation de Panneau de configuration.  

Désinstaller depuis le Panneau de configuration 

  1. Dans la barre des tâches, entrez Panneau de configuration et sélectionnez-la dans les résultats.
  2. Sélectionnez Programmes Programmes et fonctionnalités.
  3. Appuyez longuement (ou cliquez avec le bouton droit) sur le programme à supprimer et sélectionnez Désinstaller ou Désinstaller/Modifier. Suivez ensuite les instructions qui s’affichent à l’écran.

Bien entendu une désinstallation d’un logiciel peut laisser des traces si le créateur de ce dernier pousse le mercantilisme jusqu’à vous compliquer la vie. C’est plus ou moins le cas des antivirus et autres « utilitaires » pré-installés par les distributeurs sur les micro-ordinateurs destinés au grand-public. Dans ces cas il peut être nécessaire de manipuler les clés de registre (un petit programme d’édition du registre « regedit » est intégré à MS Windows). Attention, si vous vous aventurez dans la manipulation du registre, faites d’abord une sauvegarde de votre système.


Et voilà


Nota: N’hésitez pas à laisser des commentaires ou à poser des questions dans le cadre réservé à cet usage.

Le premier micro-ordinateur personnel à interface graphique fut créé il y a 40 ans

Je viens de lire un article dans Arstechnica relatant la malheureuse aventure de l’ordinateur LISA créé par Apple il y a tout juste 40 ans. Pour ceux que l’anglais ne rebute pas, je conseille de lire l’article original rédigé par Jeremy Reimer. Inspiré de cet article et corrigé de quelques inexactitudes, voici un résumé de la genèse de la micro-informatique personnelle grand public, celle qui met en oeuvre un environnement utilisateur basé sur des interfaces graphiques et la manipulation de fenêtres et d’icônes avec une souris.


Il ya 40 ans un nouveau type d’ordinateur fut créé. Il allait changer le monde… Deux ans plus tard il était totalement oublié.

Le projet LISA d’Apple commença en 1978, mené par Steve Wozniak (co-fondateur avec Steve Jobs de la société Apple computer). L’idée était de créer un ordinateur utilisant un processeur organisé en tranches de bit (bit-slice processor), le prédécesseur des micro-processeurs modernes VLSI (Very Large Scale Integration). Ce n’est qu’au début de l’année 1979 qu’Apple embaucha un directeur et une équipe pour travailler sur ce projet.

LISA est le prénom de la fille de Steve Jobs (Le patron d’Apple a toujours nié le lien entre sa fille et le projet). Mais le point le plus remarquable au sujet de l’ordinateur LISA c’est qu’il a évolué vers le premier micro-ordinateur personnel grand public avec une interface utilisateur graphique.

A l’origine, une vision

Les interfaces graphiques ont été inventées au Xerox’s Palo Alto Research Center (PARC) dans les débuts des années 1970. La station de travail ALTO issue des recherches menées au PARC n’a jamais été commercialisée. Elle possédait un écran matriciel qui simulait la taille et l’orientation d’une feuille de papier. Les chercheurs du PARC avait écrit du logiciel qui affichait des fenêtres et des icônes et ils utilisaient une souris pour déplacer un pointeur sur cet écran.

La station de travail Alto

L’interface graphique de l’ALTO était basée sur SmallTalk un environnement de développement graphique qui servait aussi d’interface utilisateur.

L’interface utilisateur de SmallTalk

Jef Raskin, un des premiers employés d’Apple (il a écrit le manuel pour l’Apple II) avait visité le PARC en 1973. Il était ressorti persuadé que les interfaces graphiques étaient l’avenir. Raskin a réussi à persuader le directeur du projet LISA d’intégrer une interface graphique. Malheureusement il ne réussit pas à convaincre Jobs.

Alors Raskin modifia son approche et poussa Bill Atkinson, un programmeur de code graphique et nouvel employé chez Apple, à proposer une visite officielle du staff d’Apple au PARC en Novembre 1979. Jobs avait Atkinson en estime et accepta de participer à la visite. La visite de Jobs au PARC suscita chez lui une vision fulgurante de ce que devait être le futur de l’informatique. L’interface utilisateur graphique était le futur de l’informatique personnelle selon la vision de Jobs. En réalité Atkinson travaillait déjà sur LisaGraf le code machine qui allait constituer l’interface graphique du LISA des mois avant la visite de Jobs au PARC. Suite à sa visite au PARC, Jobs conclura un accord avec les dirigeants de Xerox: Xerox pourra acheter des actions Apple à tarif préférentiel contre l’utilisation de plusieurs technologies créées par Xerox. (Notez qu’Apple profitait alors du succès commercial de l’Apple II, micro-ordinateur personnel avec une interface en mode texte).

La structure électronique du LISA évolua. L’équipe de développement abandonna le processeur à tranches de bit pour le tout nouveau 68000 Motorola. En janvier 1981 le directeur du projet LISA chez Apple, fatigué des constantes interventions de Jobs dans la gestion du projet vira Jobs de l’équipe. Jobs, rancunier suite à cette mise à l’écart forma une petite équipe totalement autonome chargée de travailler en secret sous la direction de Raskin pour la partie logiciel d’un autre projet. Ce conflit interne chez Apple allait prendre toute son importance par le suite.

Au début de 1982, la structure physique du LISA était prête. Par contre la partie logicielle était toujours en développement. Une équipe de chercheurs dont faisait partie Larry Tesler, un ancien salarié du PARC réalisait de multiples prototypages, et tests pour faire fonctionner l’interface graphique.

Finalement LISA fut révélée au public le 19 janvier 1983 comme étant la révolution que le monde attendait.

Le LISA vint au monde

Le LISA était un ordinateur personnel « tout-en-un » avec un écran monochrome d’une résolution de 720×365 pixels. Il était basé sur un processeur Motorola 68000 tournant à 5 MHz. Il était équipé de deux lecteur de disquette 5.25′, mais il était conçu pour utiliser un disque dur de 5 MB posé sur le dessus de l’ordinateur.

L’ordinateur Lisa

LISA était fourni avec un système d’exploitation et une « suite office » de sept applications: LisaWrite, LisaCalc, LisaDraw, LisaList (une base de données minimaliste), LisaProject, LisaTerminal (un émulateur de terminal qui fonctionnait avec un modem), et LisaGraph. Le système d’exploitation (Lisa OS) fonctionnait en multitâche préemptif et pouvait faire tourner de nombreuses applications simultanément. Ces applications livrées avec LISA étaient vraiment complètes pour l’époque. LisaWrite, le traitement de texte intégrait un dictionnaire et un correcteur d’orthographe. Il intégrait également de multiples polices de caractères. Des contenus pouvaient être copiés et collés entre applications ce qui est d’autant plus étonnant que le concept de copier/coller n’existait pas encore et devait être inventé plus tard par Larry Tesler.

Cet assemblage révolutionnaire d’électronique et de logiciels était impressionnant mais son coût était en rapport. LISA coûtait 10000 US $ ce qui ferait environ 30000 US $ de nos jours. Ce prix était trop élevé pour les utilisations personnelles. Les professionnels – le marché cible du LISA – auraient payé ce prix, mais ils avaient plutôt besoin d’un ordinateur sur lequel pouvaient se connecter de nombreux utilisateurs avec des terminaux peu coûteux pour faire tourner d’ennuyeux programmes de gestion. La grosse majorité de ces professionnels n’avaient que faire d’applications de conception ésotérique pour passionnés d’art graphique.

Cette erreur de casting eu pour résultat un faible volume de commandes. Seulement quelques milliers d’exemplaires furent vendus la première année. Les ventes ne progressèrent pas après. Ce fut un flop commercial. De son côté, Jobs n’encourageait pas non plus les achats en disant à tout le monde que le vrai ordinateur révolutionnaire d’Apple le MacIntosh allait bientôt être mis sur le marché.

Le destin du LISA

Après avoir été écarté de l’équipe LISA, Jobs mena avec Raskin un développement autour du projet Macintosh. Raskin était chargé du développement des interfaces graphiques et Jobs dirigeait la conception de l’équipement. En raison d’un conflit avec Jobs (Jobs voulait prendre la direction générale du projet) Raskin quitta Apple.

Jobs réussi à mener à bien le projet MacIntosh en délocalisant la petite équipe Macintosh dans un autre bâtiment, faisant flotter un drapeau pirate sur le toit et pratiquant des incursions de piratage dans le bâtiment de l’équipe Lisa pour y voler matériels logiciels et recruter des ingénieurs.

LisaGraf, l’ensemble de routines graphiques hautement optimisées écrites par Atkinson fut renommé QuickDraw et intégré au Macintosh. Cette intégration était facilitée par le fait que le Lisa et le Macintosh utilisait le même microprocesseur (68000 Motorola). L’interface constituée de barre de menu de bureau et d’icônes fut également intégrée mais au prix d’une légère transformation nécessitée par une drastique réduction des coûts de production.

En effet, le Macintosh allait être commercialisé à un prix quatre fois moins élevé que le prix du Lisa (environ 2500 US contre 10000 US $). Pour réussir cette réduction de prix Jobs a supprimé les éléments les plus coûteux de l’architecture du Lisa pour fabriquer le Macintosh. Le Macintosh n’avait qu’un lecteur de disquettes alors que le Lisa en avait deux plus un disque dur. Le Macintosh n’avait que 128 Ko de RAM, comparé au 1 Mo du Lisa. Le Macintosh possédait un écran plus petit que le Lisa (résolution: 512×342 pixels). Le Macintosh n’avait pas d’autres applications que MacWrite et MacPaint (les autres applications devaient être écrites en assembleur pour pouvoir tourner avec une petite quantité de mémoire RAM, et ça prenait beaucoup de temps en écriture). De plus le Macintosh ne pouvait faire tourner qu’une application à la fois alors que le Lisa était multitâche.

Le Lisa 2 a été mis sur le marché en 1984, au même moment que le Macintosh. Il avait une enveloppe différente du premier Lisa mais les composants internes étaient les mêmes. Il était équipé d’un lecteur de disquettes 3,5′ et possédait une connection pour un disque dur interne. Son prix était descendu aux environs de 3500 US $. Les ventes ont commencé à augmenter.

Entre temps Jobs avait viré le directeur qui l’avait débarqué du projet Lisa. Il était maintenant en charge des deux produits Lisa et Macintosh. Il renomma le Lisa 2 « Macintosh XL » et le commercialisa avec des applications qui étaient basé sur le système d’exploitation du Macintosh. En 1985 il mit fin définitivement à la production du Lisa. Le stock fut vendu à une société tiers et en 1989 Apple jeta 2700 Lisa à la casse pour profiter de réductions d’impôts.

Conclusion

Malgré quelques imperfections dans son interface graphique le projet Lisa a établi ce qui allait devenir le standard des interfaces graphiques pour les 40 ans qui suivirent. Les concepts de barre de menu, de menu déroulant, double clic, les effets de fenêtres superposées et enfin l’idée du copier/coller ont été inventées par Apple et appliqués pour la première fois sur le Lisa.

L’ordinateur Lisa est un marqueur dans l’histoire de l’informatique. 40 années après sa mise sur le marché, il demeure exemplaire du fait que les meilleures idées n’ont pas forcément du succès.

Par ailleurs, les Lisa fonctionnant encore sont devenus aujourd’hui des objets de collection, dont la valeur peut monter à plusieurs milliers d’euros.


Voilà.

Sureté et capacité de stockage des données

Pour les utilisateurs de gros volumes de données (les photographes frénétiques stockant des fichiers RAW par exemple), la limite de capacité de stockage de l’équipement informatique peut devenir un problème. Pour établir une référence de volume, un disque dur de 500 Go peut contenir, en plus du système et des applications, 13000 photos d’une résolution de 24 Mo au format RAW sur 14 bit(notez que le poids effectif de chaque fichier est alors de 30 Mo). Si ce disque supporte le post-traitement de ces fichiers RAW, il faut compter avec la génération de fichiers dans un des formats compatibles avec l’affichage sur écran ou l’impression. Il faut alors modérer l’ambition initiale d’environ un tiers (soit 10000 fichiers au format RAW et 10000 transformations au format JPG ou similaires) .

De plus, en cas de panne du disque dur les précieuses données sont perdues si aucune sauvegarde n’a été réalisée. Quelques études menées par des fournisseurs de service web (disques durs sur serveurs) montrent qu’après cinq années d’utilisation intensive, le risque de panne atteint 50% et augmente significativement avec le temps d’utilisation. Il faut toutefois noter que la première année d’utilisation, le risque de panne est d’environ 2%. J’ai moi-même eu à déplorer en 2009 la panne d’un disque sur un de mes micro-ordinateurs portables durant la deuxième année d’utilisation.

Les fabricants de Disques Durs donnent dans les fiches techniques de leurs produits le MTBF (durée moyenne d’utilisation avant défaillance) ou l’AFR (taux de défaillance annualisé) de leurs produits. Par exemple, la gamme WD Purple (dédié à la vidéo-surveillance) est donnée pour un MTBF de 1500000 heures (soit 171 ans sans panne avec un fonctionnement 24h/24, 7j/7). Ce chiffre théorique ne présume certainement pas des possibilités de défaillance de mode commun. En comparaison pour la gamme WB Blue (du même fabricant), le MTBF n’est pas documenté sur la fiche technique. Les cycles Load/unload (qui correspondent généralement à la mise en route et l’arrêt du système) sont donnés pour 600000 pour les deux gammes (soit 822 ans pour deux mises en route par jour) encore une fois ce chiffre ne présume pas des défaillances de mode commun (par exemple plantage de la tête de lecture sur variation de l’alimentation électrique ou choc mécanique excédant les limites spécifiées). Les produits de la gamme qui présente les spécifications de fiabilité les plus élevées sont vendus en général environ deux fois plus cher que les produits de base.

Après l’énoncé de ces faits on peut faire deux constats si on veut stocker des données qui ont de la valeur (quelle qu’elle soit, et bien sûr c’est une affaire d’appréciation personnelle):

  1. On a intérêt à investir dans l’équipement le plus fiable dont la capacité permet de stocker le volume de données nécessaire (à apprécier en fonction de l’utilisation prévue).
  2. Il faut prévoir un système de sauvegarde ou une redondance (sur un ou des supports séparés du stockage initial).

Pour ce qui est du choix de l’équipement complet le plus fiable (par exemple micro-ordinateur portable), c’est une question de balance entre prix et fiabilité. Les modèles les plus fiables ne sont pas forcément les plus chers. On a de toute façon intérêt à privilégier les équipements de grade professionnel, réputés plus fiables et plus faciles à maintenir.

Pour ce qui est du media de stockage (Disque Dur), la plupart des équipements récents intègrent un SSD (Solid State Drive ou disque statique) au lieu d’un disque dur. Ces derniers on une durée de vie limitée, liée essentiellement au nombre de cycles d’écriture (il est limité par la technologie employée). Le nombre de cycles écrits avant défaillance est plus élevé pour les produits de grade professionnel (plus chers que les SSD de base). Ce critère (TBW – « Tera Bytes Written » ou « Tera Octets Ecrits ») peut être vérifié dans les spécifications du fabricant et comparé à l’estimation du nombre de Mo ou Go écrits par jour pour l’utilisation prévue. La durée de fonctionnement sans défaillance du SSD peut donc être estimée.

Pour ce qui est de la sauvegarde ou de la redondance, plusieurs options sont envisageables:

  • disque dur amovible (qu’il faut connecter et déconnecter dans le cas d’un micro-ordinateur portable en mobilité).
  • abonnement (payant) à un service de stockage distant avec synchronisation (cloud)
  • Stockage réseau (NAS « Network Area Storage ») personnel (nécessite un équipement dédié)

Passons ces trois options en revue en commençant par la celle qui parait à priori la plus simple mais qui nécessite de l’organisation et qui entraine des contraintes et un risque de rupture de synchronisation. Le disque dur amovible doit en effet être connecté et ensuite les fichiers du stockage principal recopiés à intervalle régulier sans perte de cohérence (les mises à jour d’anciens fichiers doivent être reconnues et traitées en conséquence). Pour que la cohérence soit conservée sans avoir à réécrire tous les fichiers à chaque fois, il faut adopter une stratégie de copie incrémentale ou différentielle. Certains programmes de copie de fichier assurent ces opérations de synchronisation et sont paramétrables à partir d’une interface graphique simple. Ma préférence va à SyncBack version SE (licence non libre) pour MS Windows. Une autre solution plus complète et basée sur rSync (licence libre, pour Linux) est utilisable pour Windows et se nomme DeltaCopy. Cette dernière, gratuite, est basée sur un modèle client/serveur.

La deuxième option impose un abonnement à un service de stockage en ligne (de type cloud). L’abonnement est payant au-delà d’une limite de quelques Go (insuffisante pour une synchronisation sérieuse). Google drive, OneDrive, kDrive, pCloud sont parmi les services les plus connus. Le choix d’une formule d’abonnement sera fonction de la durée prévisible d’utilisation du service. Certains fournisseurs proposent des abonnement sur 99 ans payable en une fois (pCloud) d’autres proposent uniquement des abonnement mensuels ou annuels. Pour donner un point de référence: kDrive propose l’abonnement annuel pour 2 To à 60 €uros. Le principe du service c’est de synchroniser les données contenues sur le DD d’un équipement avec un espace de stockage distant. La synchronisation se réalise automatiquement à partir de l’instant ou l’équipement est connecté à internet. Si pendant une longue durée des fichiers sont écrits sur l’équipement sans que ce dernier soit connecté au réseau, aucune synchronisation de ces fichiers n’est opérée et une perte de données est possible.

La troisième option impose d’installer un équipement dédié de type NAS ou similaire chez soi. Un NAS neuf (Synology, Qnap, WD sont des fabricants reconnus) ou un vieil équipement de type PC recyclé peut faire l’affaire. Pour recycler un vieux PC en NAS, choisissez de préférence un PC 64 bits avec 4 Go de mémoire vive au minimum. Un système dédié à la fonction NAS devra alors être installé sur l’équipement. Ma préférence va à OpenMediVault, un système libre. Une fois le système installé et le(s) disque(s) dur(s) monté(s), si nécessaire gérés en miroir avec LVM (« Logic Volume Management ») ou tout gestionnaire capable de supporté RAID1 (technique de l’enregistrement miroir), la gestion du système se fait à distance au travers d’une interface graphique. Il est alors possible de profiter des mêmes fonctions de synchronisation à distance que celles proposées par les services de stockage par abonnement payant. L’avantage étant que vous êtes propriétaire de l’infrastructure et que vous restez maitre de vos données, le tout pour un coût maitrisé. L’inconvénient c’est que vous devez maintenir le système pour qu’il reste à jour et en bon état. C’est cette dernière solution que j’ai mise en œuvre sur un disque unique donc, sans RAID1 mais avec une synchronisation périodique sur d’autres machines qui servent de sauvegarde en des lieux différents (oui, j’utilise de multiples équipements dans les différents endroits qui me servent de résidence, pour des tests et pour le fun).

Et maintenant, une dernière pensée sur l’évolution technologique. La durée de vie probable d’un disque dur peut dépasser l’apparition de l’obsolescence d’une technologie. Un exemple: certains des disques durs de mes équipements les plus anciens ne peuvent plus être connectés sur quoi que ce soit de récent, les contrôleurs et leur connectique n’étant plus utilisés par les équipements modernes. La cassure technologique n’a pris qu’une dizaine d’années. Pesez donc ce que cela représente en terme d’investissement pour la conservation de vos précieuses données.


Voilà.

Pourquoi pas un ChromeBook ?

Vous en avez marre de votre ordinateur portable qui tourne sous MS Windows, il est vieux. Il est devenu lent dans l’exécution de vos programmes préférés, il met trois plombes à démarrer, il plante on ne sait pour quelle raison, etc.. Je vous encourage alors à lire d’abord mes précédents articles sur le bon usage, l’amélioration et la maintenance de votre équipement. Si les conseils que je dispense ne trouvent pas grâce à vos yeux ou que décidément votre équipement est obsolète, il est probablement temps pour vous d’en changer.

Se pose alors la question du choix entre différents systèmes (Operating System ou Systèmes d’Exploitation) et différentes machines. Bien entendu ce qui devrait prévaloir dans ce choix ce sont les tâches que vous espérez réaliser avec votre matériel. Le meilleur rapport service/prix vient logiquement ensuite.

Pour aller à l’essentiel je me permets de reprendre un fait couramment admis: 80% des usagers de micro-ordinateurs portables n’utilisent leur machine que pour naviguer sur le web, utiliser leur messagerie électronique ou accéder à des services en ligne. Pour cela ils n’utilisent qu’un logiciel: un navigateur internet. Alors il n’existe pas de raison d’acheter un équipement qui permet de faire tourner une myriade d’autres applications qui resteront inutilisées. C’est ce constat qui a donné naissance à Chrome OS . Chrome OS est un système d’exploitation propriété de Google. Son fonctionnement est centré sur l’utilisation de Chrome, le navigateur internet également propriété de Google. Les ChromeBooks utilisent Chrome OS et fonctionnent avec un noyau Linux (le système qui permet de démarrer et de faire fonctionner ces machines).

Voilà pour la partie générale.

Ce qui fait la particularité des ChromeBooks, c’est l’intégration physique (hardware) de Chrome OS dans l’équipement: Il n’est pas possible d’installer un autre Système (contrairement à ce qui est possible sur les machines supportées par Apple, Microsoft, ou des systèmes libres). Le BIOS (qui contient en particulier la séquence de démarrage de la machine) est protégé contre les modifications. Différents mécanismes de sécurité sont implantés physiquement pour éviter la contamination du système. Sur les systèmes de grade professionnel les instances d’applications (qui peuvent fonctionner « hors ligne ») sont exécutées dans des « bacs à sable » (une intrusion malveillante dans une application ne contamine pas les autres). Les machines qui reçoivent Chrome-OS sont spécialement fabriquées suivant les critères d’intégration et de sécurité définis par Google. Toutes ces particularités font de Chrome-OS un choix attrayant pour les entreprises qui apprécient sa sécurité et son aptitude à exploiter les applications et services Cloud (le Cloud c’est la distribution des ressources, au travers d’internet, dans des serveurs distants). D’autre part, ces machines sont vendues avec un droit d’accès à un espace de stockage distant (cloud drive) qui permet de ne les équiper que d’une quantité réduite de mémoire de masse. Dans sa plus récente évolution, l’interface graphique (le bureau) ressemble fortement à Gnome (une des interfaces de Linux). C’est normal puisque Chrome OS est avant tout basé sur une distribution Linux « légère ».

Après cette description sommaire venons-en à la réalité économique de notre affaire. Les prix de ces ChromeBooks varient de 300 € à plus de 1500 € dans les grandes enseignes.

Qu’espérer d’un ChromeBook à 300 €, indigent en mémoire de masse (généralement 32 Go, l’équivalent d’un téléphone portable bas de gamme) et équipé d’un processeur bas de gamme ? Pour faire simple, disons qu’on peut faire tourner de façon optimale le navigateur Google Chrome et utiliser les services en ligne les plus courants. On peut également faire tourner les mêmes applications qu’avec un téléphone portable sous Android (l’Android de Google). D’ailleurs, par accès au Google Playstore, on peut réellement télécharger et utiliser les mêmes applications que sur un téléphone Android. Il est également possible d’utiliser certains produits Microsoft en ligne (par exemple MS Word, en payant l’abonnement pour utiliser la version cloud). Notez que l’utilisation de beaucoup d’applications (et en particulier celles de niveau professionnel) fonctionnant dans le cloud nécessite de payer un abonnement. Un autre point important: Google assure les mises à jour de son Chrome OS sur une période de 6 ans. Ces mises à jour sont automatiques et sont réalisées lorsque la machine est connectée à internet.

Si vos besoins vont au-delà de ce que peut vous apporter un modèle de Chromebook bas de gamme, vous avez la possibilité de vous équiper avec un Chromebook qui est muni d’un processeur performant, d’une mémoire RAM conséquente (jusqu’à 16 Go sur certains modèles), et d’un stockage de masse généreux. Dans ces conditions vous pourrez prétendre faire fonctionner votre machine hors ligne, et de plus en utilisant tous les programmes disponibles pour les systèmes d’exploitation Linux (GIMP, DARKTABLE, OPEN OFFICE, et bien d’autres de niveau professionnel).

Pour profiter de leur aspect sécurisé et de leur facilité d’intégration dans des services « cloud », de plus en plus de grands groupes (Veolia, par exemple) équipent leurs salariés avec des Chromebooks. Mais pas avec des machines « premier prix ».

Si vous avez décidé de remplacer votre vieux portable, et que vous faites partie des 80% d’utilisateurs qui n’utilisent que leur navigateur internet:

  1. alors Google a eu raison d’essayer de capter votre attention sur le Chrome OS ;
  2. allez donc vous faire votre propre opinion en essayant une de ces machines chez un détaillant.
  3. si comme moi vous ne voulez pas être capté par Google et conforter ses ambitions commerciales, regardez-y à deux fois ….

Voila.