La Fibre – Nouvelle installation et expérience de l’IPv6

Si vous pouvez lire ces quelques lignes c’est que mes services auto-hébergés sont de nouveau en ligne (comprendre: accessibles dans le cyberespace). Il y a 20 jours mon épouse et moi déménagions dans une maison située à 100 m du point de livraison de notre fournisseur d’accès internet (la maison est à 70 m de la rue). Les serveurs hébergés à la maison ont été déménagés également et leur raccordement à la fibre optique a été nécessaire.

Le raccordement

Pour être raccordé au point de livraison de la fibre optique (la boite sur poteau, dans la rue) il faut mettre un conduit à disposition du technicien chargé de l’opération. En général, le conduit du téléphone est utilisé à cet effet. Dans notre cas, le conduit enterré du téléphone étant obstrué, il fallait soit ouvrir une tranchée, soit utiliser un autre conduit existant. Le plus simple étant d’opter pour un conduit existant, j’avais le choix entre:

  • le conduit électrique alimentant la maison depuis le compteur en limite de propriété;
  • le conduit d’évacuation des eaux usées raccordant la maison au réseau du tout à l’égout.

J’ai opté pour le passage dans le conduit électrique (il n’y circule aucune matière susceptible d’occasionner des incidents). La faisabilité de l’opération a été testée par passage d’une aiguille en fibre de verre de diamètre 4.5 mm depuis la sortie du conduit dans le sous-sol de la maison jusqu’à la limite de propriété (soit sur environ 75 m de longueur). La validation étant faite, pour trouver l’entrée dans le conduit coté rue il a fallu creuser le terrain sur environ 1 m de profondeur derrière l’armoire de raccordement EDF. Ensuite dégager la zone de raccordement entre conduit principal enterré sur 70 m (tube orange semi flexible diamètre 100 mm) et le câble électrique en gaine flexible grise de plus petit diamètre. L’extrémité d’un conduit flexible diamètre 50 mm a été engagée dans le conduit électrique principal. Ce conduit flexible a ensuite été enterré jusqu’à déboucher au pied du poteau téléphone en limite de propriété. L’aiguille en fibre de verre a été poussée depuis l’extrémité du conduit coté rue vers la maison pour enfin déboucher derrière le tableau de distribution électrique de la maison. L’aiguille étant en place, le technicien chargé du raccordement a attaché l’extrémité de la fibre optique à l’aiguille et tiré celle ci depuis la maison dans les 70 m de conduit enterré.

Pour réaliser l’opération il m’a fallu une bêche, une pioche, une barre à mine, une aiguille de 100 m de fibre de verre sur touret (100 € chez votre grande surface de bricolage), quelques mètres de conduit de récupération et quelques essais et échecs. Il faut également un peu de persévérance et ne pas hésiter à demander de l’aide dans les moments de découragement. En tout il a fallu environ deux semaines pour la préparation et deux jours pour l’installation effective de la fibre optique (incluant la prise de rendez-vous avec le FAI).

Les misères de l’IPv4

Une fois le raccordement à l’internet assuré par fibre optique (abonnement de 25 €/mois chez RED by SFR) et passé l’enthousiasme suscité par les tests de débit (1 Gbit/s), les surprises s’accumulent après l’installation de mes serveurs. Première déconvenue: après consultation de l’interface d’administration de la « box internet » installée par RED, les services de NAT (le traducteur d’adresses réseau) en IPv4 ne sont pas accessibles. Après vérification auprès des forums techniques traitant des réseaux fibre optique, je comprends que les FAI appliquent depuis peu des mesures techniques désignées par le terme CGNAT (Carrier Grade – Network Access Translation) pour pallier à la pénurie d’adresses internet disponibles en IPv4. Pour faire simple, cette stratégie consiste à connecter plusieurs clients au travers d’une même adresse iPv4. Il est alors impossible depuis internet d’accéder à un des clients qui partagent cette même adresse.

Cette modification des conditions d’accès à été réalisée à bas bruit, les FAI ne communicant pas sur les vrais aspects techniques de leur fourniture. C’est totalement passé inaperçu pour la grosse majorité des utilisateurs (en gros, tous ceux qui ne font pas d’auto-hébergement). La chose est d’ailleurs masquée par le fait que la « box internet » livrée par le FAI permet la gestion de l’IPv6 qui permet l’utilisation d’un nombre beaucoup, beaucoup plus important d’adresses IP (suffisant pour la demande future de points de raccordement).

La consultation des forums techniques m’a également permis de comprendre que ces dispositions techniques pouvaient être modifiées sur demande au FAI (retour à l’IPv4 d’origine). C’est la demande de modification qui est un parcours du combattant. Avec RED/SFR le service assistance peut être joint par téléphone (directement ou par rappel à partir de l’appli sur smartphone). Le premier contact est fait avec un personnel de niveau 1 (la personne qui lit une fiche et qui en réfère à un supérieur en cas de demande qui ne correspond pas à la fiche). Systématiquement la réponse est négative à une demande de rollback IPv4 (retour à la version IPv4 d’origine). Après plusieurs tentatives infructueuses je décide de tester l’IPv6 qui est proposé comme une solution. J’ai passé 2 jours à faire le tour de la question avec multiples expérimentations qui vont de l’obtention de nom de domaine paramétré IPv6 aux paramétrages de la « box internet » pour l’utilisation de l’IPv6 avec exposition des ports nécessaires à l’accès à mes serveurs. Tout fonctionne en réseau local. Aucun accès possible depuis l’extérieur (internet) à mes serveurs. J’en déduis que l’infrastructure du FAI n’est pas actuellement en mesure de supporter ce que je demande. D’autre part la majeur partie (environ 90%) des services accessibles sur le net fonctionnent avec un adressage IPv4. On peut le vérifier à l’aide de l’extension « IPvfoo » disponible sur Firefox (le navigateur internet) ou sur Chrome.

Retour à la case départ. Je retente plusieurs fois la demande de rollback auprès de RED/SFR et cette fois j’insiste pour parler à un technicien de niveau 2. Au troisième essai ma demande de rollback est acceptée et 3 heures après avoir raccroché mon téléphone, ma « box internet » permet l’accès IPv4 avec gestion du NAT. Après paramétrage des ports du routeur à l’aide de l’interface NAT mes serveurs sont redevenus accessibles de partout dans le monde à l’aide d’une connexion internet.

En conclusion, l’auto-hébergement de services web ça demande un peu d’expertise, mais aussi et surtout d’avoir de la ténacité quand il s’agit de contacts techniques avec les services clients des FAI.



IPInternet Protocol. Le protocole de communication fondamental de la suite des protocoles internet. Une adresse IP permet d’identifier un terminal connecté au réseau.
IPv4Adressage IP sur un groupe de 4 octets (soit 32 bit). Exemple de notation: 93.23.120.243
octetEn informatique, un octet est un multiplet de 8 bits codant une information. Dans ce système de codage, s’appuyant sur le système binaire, un octet permet de représenter 28 nombres, soit 256 valeurs différentes.
glossaire

La fibre !

Une expérience palpitante que la connexion internet par la fibre optique, surtout lorsque le service s’interrompt. C’est d’autant plus une aventure que votre abonnement est à prix réduit. Mon abonnement à la fibre par l’offre low cost « RED par SFR » à 25 € /mois a permis une liaison internet haut débit pendant les cinq premiers mois. Subitement cette liaison s’est interrompue sans que la facturation de mon abonnement le soit. Le diagnostic de l’origine de la panne est dans ce cas facile à réaliser sans trop de bagage technique ni d’équipement de test. J’ai donc rapidement diligenté les quelques manipulations nécessaires pour en déduire que la liaison était physiquement interrompue du coté des infrastructures à l’extérieur de mon domicile (et fort probablement au niveau de l’armoire de répartition sur la voie publique).

Jusqu’à ce moment tout semble simple. C’est maintenant que les difficultés surgissent. En effet, pour ce type d’abonnement à prix réduit le service client passe par le site web de RED/SFR (internet, donc). Moderne le service, sauf que la panne sus-mentionnée interdit l’accès au site web du service client. Reste à utiliser un abonnement à un service de fourniture internet non câblé (réseau mobile, avec téléphone portable). Heureux possesseur d’un abonnement chez un concurrent (orange) j’ai utilisé mon téléphone pour accéder au service client RED. Créer un compte sur « mon espace client », ensuite aller sur l’option « assistance » puis « état de ma ligne » et enfin comprendre que ça ne mène à rien (l’état de la ligne est toujours bon). Une lueur d’espoir reste toutefois au travers de l’option « Diagnostic de ma box » et l’application « RED et moi » (c’est moderne, ça fonctionne uniquement sur téléphone portable). Le truc c’est que cette fameuse application est une interface pour téléphone portable du site WEB qui me propose de la télécharger sur mon téléphone. Il n’est pas possible de prendre contact avec le service de dépannage à partir du site WEB, j’installe donc la fameuse application sur mon téléphone et je peux alors contacter un conseiller RED. En fait c’est un conseiller RED qui me rappelle sur mon téléphone portable après ma demande d’assistance sur l’interface de l’application. Le temps de latence est très court entre demande et rappel, c’est une heureuse surprise. j’entends alors une voix féminine avec accent étranger réciter un message et des instructions sur un ton monocorde. Il est question de réaliser des manipulations pour établir un diagnostic. J’avais déjà procédé à toutes ces manips mais je recommence pour que mon interlocutrice arrive à la conclusion elle même. La diode PON (Passive Optical Network) de mon boitier ONT (Optical Network Terminal) est de couleur rouge fixe, ce qui indique une coupure du signal optique sur la fibre en amont du boitier. Il ne s’agit pas d’une panne sur mon équipement et l’intervention d’un technicien est donc nécessaire pour établir un diagnostic et réparer. Un rendez-vous est pris dans la foulée pour la venue du technicien (dans le courant de la semaine suivante).

Le rendez-vous a été honoré par le technicien, à l’heure prévue. Il a fallu le questionner de façon insistante pour qu’il m’annonce que la panne venait de la casse d’une carte dans l’armoire de répartition située dans la rue à deux blocs d’immeubles de mon domicile. Cette fameuse armoire dans laquelle les sous-traitants des opérateurs de réseaux fibre (ORANGE, SFR, FREE etc..) viennent régulièrement réaliser des connexions pour raccorder des abonnés. Certaines de ces armoires restent ouvertes car les serrures sont cassées (plus ou moins massacrées) et dans lesquelles ont découvre parfois des « sacs de nouilles » tellement les branchements sont faits sans précaution.

Mon expérience s’inscrit en décalage avec les récriminations de nombreux client RED/SFR mécontents du service client. De plus les revues d’associations de consommateurs « 60 millions de consommateurs », UFC que choisir » relatent régulièrement les difficultés des abonnés pour obtenir un minimum d’efficacité de la part des services clients des opérateurs.


Voilà.

Sureté et capacité de stockage des données

Pour les utilisateurs de gros volumes de données (les photographes frénétiques stockant des fichiers RAW par exemple), la limite de capacité de stockage de l’équipement informatique peut devenir un problème. Pour établir une référence de volume, un disque dur de 500 Go peut contenir, en plus du système et des applications, 13000 photos d’une résolution de 24 Mo au format RAW sur 14 bit(notez que le poids effectif de chaque fichier est alors de 30 Mo). Si ce disque supporte le post-traitement de ces fichiers RAW, il faut compter avec la génération de fichiers dans un des formats compatibles avec l’affichage sur écran ou l’impression. Il faut alors modérer l’ambition initiale d’environ un tiers (soit 10000 fichiers au format RAW et 10000 transformations au format JPG ou similaires) .

De plus, en cas de panne du disque dur les précieuses données sont perdues si aucune sauvegarde n’a été réalisée. Quelques études menées par des fournisseurs de service web (disques durs sur serveurs) montrent qu’après cinq années d’utilisation intensive, le risque de panne atteint 50% et augmente significativement avec le temps d’utilisation. Il faut toutefois noter que la première année d’utilisation, le risque de panne est d’environ 2%. J’ai moi-même eu à déplorer en 2009 la panne d’un disque sur un de mes micro-ordinateurs portables durant la deuxième année d’utilisation.

Les fabricants de Disques Durs donnent dans les fiches techniques de leurs produits le MTBF (durée moyenne d’utilisation avant défaillance) ou l’AFR (taux de défaillance annualisé) de leurs produits. Par exemple, la gamme WD Purple (dédié à la vidéo-surveillance) est donnée pour un MTBF de 1500000 heures (soit 171 ans sans panne avec un fonctionnement 24h/24, 7j/7). Ce chiffre théorique ne présume certainement pas des possibilités de défaillance de mode commun. En comparaison pour la gamme WB Blue (du même fabricant), le MTBF n’est pas documenté sur la fiche technique. Les cycles Load/unload (qui correspondent généralement à la mise en route et l’arrêt du système) sont donnés pour 600000 pour les deux gammes (soit 822 ans pour deux mises en route par jour) encore une fois ce chiffre ne présume pas des défaillances de mode commun (par exemple plantage de la tête de lecture sur variation de l’alimentation électrique ou choc mécanique excédant les limites spécifiées). Les produits de la gamme qui présente les spécifications de fiabilité les plus élevées sont vendus en général environ deux fois plus cher que les produits de base.

Après l’énoncé de ces faits on peut faire deux constats si on veut stocker des données qui ont de la valeur (quelle qu’elle soit, et bien sûr c’est une affaire d’appréciation personnelle):

  1. On a intérêt à investir dans l’équipement le plus fiable dont la capacité permet de stocker le volume de données nécessaire (à apprécier en fonction de l’utilisation prévue).
  2. Il faut prévoir un système de sauvegarde ou une redondance (sur un ou des supports séparés du stockage initial).

Pour ce qui est du choix de l’équipement complet le plus fiable (par exemple micro-ordinateur portable), c’est une question de balance entre prix et fiabilité. Les modèles les plus fiables ne sont pas forcément les plus chers. On a de toute façon intérêt à privilégier les équipements de grade professionnel, réputés plus fiables et plus faciles à maintenir.

Pour ce qui est du media de stockage (Disque Dur), la plupart des équipements récents intègrent un SSD (Solid State Drive ou disque statique) au lieu d’un disque dur. Ces derniers on une durée de vie limitée, liée essentiellement au nombre de cycles d’écriture (il est limité par la technologie employée). Le nombre de cycles écrits avant défaillance est plus élevé pour les produits de grade professionnel (plus chers que les SSD de base). Ce critère (TBW – « Tera Bytes Written » ou « Tera Octets Ecrits ») peut être vérifié dans les spécifications du fabricant et comparé à l’estimation du nombre de Mo ou Go écrits par jour pour l’utilisation prévue. La durée de fonctionnement sans défaillance du SSD peut donc être estimée.

Pour ce qui est de la sauvegarde ou de la redondance, plusieurs options sont envisageables:

  • disque dur amovible (qu’il faut connecter et déconnecter dans le cas d’un micro-ordinateur portable en mobilité).
  • abonnement (payant) à un service de stockage distant avec synchronisation (cloud)
  • Stockage réseau (NAS « Network Area Storage ») personnel (nécessite un équipement dédié)

Passons ces trois options en revue en commençant par la celle qui parait à priori la plus simple mais qui nécessite de l’organisation et qui entraine des contraintes et un risque de rupture de synchronisation. Le disque dur amovible doit en effet être connecté et ensuite les fichiers du stockage principal recopiés à intervalle régulier sans perte de cohérence (les mises à jour d’anciens fichiers doivent être reconnues et traitées en conséquence). Pour que la cohérence soit conservée sans avoir à réécrire tous les fichiers à chaque fois, il faut adopter une stratégie de copie incrémentale ou différentielle. Certains programmes de copie de fichier assurent ces opérations de synchronisation et sont paramétrables à partir d’une interface graphique simple. Ma préférence va à SyncBack version SE (licence non libre) pour MS Windows. Une autre solution plus complète et basée sur rSync (licence libre, pour Linux) est utilisable pour Windows et se nomme DeltaCopy. Cette dernière, gratuite, est basée sur un modèle client/serveur.

La deuxième option impose un abonnement à un service de stockage en ligne (de type cloud). L’abonnement est payant au-delà d’une limite de quelques Go (insuffisante pour une synchronisation sérieuse). Google drive, OneDrive, kDrive, pCloud sont parmi les services les plus connus. Le choix d’une formule d’abonnement sera fonction de la durée prévisible d’utilisation du service. Certains fournisseurs proposent des abonnement sur 99 ans payable en une fois (pCloud) d’autres proposent uniquement des abonnement mensuels ou annuels. Pour donner un point de référence: kDrive propose l’abonnement annuel pour 2 To à 60 €uros. Le principe du service c’est de synchroniser les données contenues sur le DD d’un équipement avec un espace de stockage distant. La synchronisation se réalise automatiquement à partir de l’instant ou l’équipement est connecté à internet. Si pendant une longue durée des fichiers sont écrits sur l’équipement sans que ce dernier soit connecté au réseau, aucune synchronisation de ces fichiers n’est opérée et une perte de données est possible.

La troisième option impose d’installer un équipement dédié de type NAS ou similaire chez soi. Un NAS neuf (Synology, Qnap, WD sont des fabricants reconnus) ou un vieil équipement de type PC recyclé peut faire l’affaire. Pour recycler un vieux PC en NAS, choisissez de préférence un PC 64 bits avec 4 Go de mémoire vive au minimum. Un système dédié à la fonction NAS devra alors être installé sur l’équipement. Ma préférence va à OpenMediVault, un système libre. Une fois le système installé et le(s) disque(s) dur(s) monté(s), si nécessaire gérés en miroir avec LVM (« Logic Volume Management ») ou tout gestionnaire capable de supporté RAID1 (technique de l’enregistrement miroir), la gestion du système se fait à distance au travers d’une interface graphique. Il est alors possible de profiter des mêmes fonctions de synchronisation à distance que celles proposées par les services de stockage par abonnement payant. L’avantage étant que vous êtes propriétaire de l’infrastructure et que vous restez maitre de vos données, le tout pour un coût maitrisé. L’inconvénient c’est que vous devez maintenir le système pour qu’il reste à jour et en bon état. C’est cette dernière solution que j’ai mise en œuvre sur un disque unique donc, sans RAID1 mais avec une synchronisation périodique sur d’autres machines qui servent de sauvegarde en des lieux différents (oui, j’utilise de multiples équipements dans les différents endroits qui me servent de résidence, pour des tests et pour le fun).

Et maintenant, une dernière pensée sur l’évolution technologique. La durée de vie probable d’un disque dur peut dépasser l’apparition de l’obsolescence d’une technologie. Un exemple: certains des disques durs de mes équipements les plus anciens ne peuvent plus être connectés sur quoi que ce soit de récent, les contrôleurs et leur connectique n’étant plus utilisés par les équipements modernes. La cassure technologique n’a pris qu’une dizaine d’années. Pesez donc ce que cela représente en terme d’investissement pour la conservation de vos précieuses données.


Voilà.

Dé-google-iser Android (ou comment en installer une version Libre sur son Smartphone)

Installer un système Android Libre sur votre smartphone (sans les services Google) c’est possible assez facilement. Je l’ai fait sur mon Samsung S8 acheté il y a 4 ans. Le résultat est très sympathique et j’ai installé des services alternatifs aux services en ligne de Google pour les usages quotidiens qui me semblent intéressants. Bien entendu je ne suis pas un consommateur frénétique et je me passe très bien des applications les plus populaires comme Google Maps, drive, meet, hangouts, YouTube, etc.. Ces applications ont d’ailleurs des équivalents Open Source (ou logiciels libres) que j’utilise pour les remplacer. Et par dessus tout je ne veux pas qu’on espionne mes déplacements, mes habitudes, mes achats, ni qui sont mes amis pour ensuite me vendre des trucs ou avoir une influence sur mes opinions.

Il n’y a pas si longtemps (2019), Mr Trump alors président des États Unis a indirectement interdit à la firme chinoise Huawei (fabricant de smartphones) d’utiliser la version d’Android sous licence Google. Les appareils vendus par Huawei aujourd’hui en Occident utilisent donc un système Android débarrassé des services en ligne de Google. Sachez que sur le marché chinois, les appareils Huawei n’ont jamais utilisé l’Android de Google ce qui n’a pas empêché Huawei d’y devenir un des plus gros compétiteurs. Les consommateurs occidentaux sont tellement habitués à utiliser Google (le plus souvent sans vraiment le savoir), que les ventes des smartphones Huawei ont chuté vertigineusement après l’embargo. Le consommateur veut tout ce qu’il y a de mieux, mais il a horreur de l’aventure.

Venons en maintenant à la question qui vient naturellement après ce qui précède: pourquoi n’ai-je pas simplement acheté un appareil Huawei pour remplacer mon vieux Smartphone ?

Trois raisons à cela:

  • bien que Samsung ne permette pas les mises à jour d’Android au delà de 4 ans, je veux continuer à utiliser ce bon vieux Galaxy S8 et y installer les mises à jour les plus récentes;
  • je veux me débarrasser de l’emprise de Google sur ma vie privée et je ne veux pas tomber sous l’influence des équivalents Chinois de Google qui eux aussi veulent influencer mes choix et mes opinions;
  • Je veux avoir le plaisir de faire moi même le changement du système (c’est à la portée du Geek moyen).

Il y a plusieurs alternatives à la version Android de Google. Celle que j’ai choisie pour l’installer sur mon téléphone portable vient de la e Foundation. Elle se nomme /e/ .

C’est un Système d’exploitation (OS) sous licence Libre (Open Source). A /e/ sont associés des services en ligne, y compris un moteur de recherche, une plateforme de courrier électronique, les outils et le stockage en ligne. Le tout forme un environnement cohérent qui contribue à la protection de la vie privée.

Pour installer /e/ sur les appareils compatibles le plus simple est d’utiliser le programme d’installation fournit par la e Foundation. Il fonctionne sur les ordinateurs Windows ou Linux. L’installation est assurée en raccordant le Smartphone à l’ordinateur par un cordon USB (celui qui sert entre autre à charger la batterie) et en suivant pas à pas les étapes de réglage des paramètres et de manipulation des boutons de commande du Smartphone.

Le mode opératoire est bien décrit dans la documentation en ligne et un forum d’assistance est accessible en cas de difficulté. Au total j’ai passé une petite demi-journée à installer /e/ et une autre demi journée à restaurer les sauvegardes de mes contacts, sms, applications et à rétablir mes accès aux serveurs d’emails, et enfin, aux services cloud que j’auto-héberge (sur mon propre matériel, à la maison).

Au final, j’ai la satisfaction d’avoir réalisé une bonne opération de réappropriation d’une liberté que j’avais lâchement troquée contre le mirage de services aussi faciles à utiliser que gratuits. Et en bonus je me permet de prolonger la vie d’un Smartphone qui aurait été rendu obsolète après 5 à 6 ans d’utilisation.


Voilà.

Pourquoi pas un ChromeBook ?

Vous en avez marre de votre ordinateur portable qui tourne sous MS Windows, il est vieux. Il est devenu lent dans l’exécution de vos programmes préférés, il met trois plombes à démarrer, il plante on ne sait pour quelle raison, etc.. Je vous encourage alors à lire d’abord mes précédents articles sur le bon usage, l’amélioration et la maintenance de votre équipement. Si les conseils que je dispense ne trouvent pas grâce à vos yeux ou que décidément votre équipement est obsolète, il est probablement temps pour vous d’en changer.

Se pose alors la question du choix entre différents systèmes (Operating System ou Systèmes d’Exploitation) et différentes machines. Bien entendu ce qui devrait prévaloir dans ce choix ce sont les tâches que vous espérez réaliser avec votre matériel. Le meilleur rapport service/prix vient logiquement ensuite.

Pour aller à l’essentiel je me permets de reprendre un fait couramment admis: 80% des usagers de micro-ordinateurs portables n’utilisent leur machine que pour naviguer sur le web, utiliser leur messagerie électronique ou accéder à des services en ligne. Pour cela ils n’utilisent qu’un logiciel: un navigateur internet. Alors il n’existe pas de raison d’acheter un équipement qui permet de faire tourner une myriade d’autres applications qui resteront inutilisées. C’est ce constat qui a donné naissance à Chrome OS . Chrome OS est un système d’exploitation propriété de Google. Son fonctionnement est centré sur l’utilisation de Chrome, le navigateur internet également propriété de Google. Les ChromeBooks utilisent Chrome OS et fonctionnent avec un noyau Linux (le système qui permet de démarrer et de faire fonctionner ces machines).

Voilà pour la partie générale.

Ce qui fait la particularité des ChromeBooks, c’est l’intégration physique (hardware) de Chrome OS dans l’équipement: Il n’est pas possible d’installer un autre Système (contrairement à ce qui est possible sur les machines supportées par Apple, Microsoft, ou des systèmes libres). Le BIOS (qui contient en particulier la séquence de démarrage de la machine) est protégé contre les modifications. Différents mécanismes de sécurité sont implantés physiquement pour éviter la contamination du système. Sur les systèmes de grade professionnel les instances d’applications (qui peuvent fonctionner « hors ligne ») sont exécutées dans des « bacs à sable » (une intrusion malveillante dans une application ne contamine pas les autres). Les machines qui reçoivent Chrome-OS sont spécialement fabriquées suivant les critères d’intégration et de sécurité définis par Google. Toutes ces particularités font de Chrome-OS un choix attrayant pour les entreprises qui apprécient sa sécurité et son aptitude à exploiter les applications et services Cloud (le Cloud c’est la distribution des ressources, au travers d’internet, dans des serveurs distants). D’autre part, ces machines sont vendues avec un droit d’accès à un espace de stockage distant (cloud drive) qui permet de ne les équiper que d’une quantité réduite de mémoire de masse. Dans sa plus récente évolution, l’interface graphique (le bureau) ressemble fortement à Gnome (une des interfaces de Linux). C’est normal puisque Chrome OS est avant tout basé sur une distribution Linux « légère ».

Après cette description sommaire venons-en à la réalité économique de notre affaire. Les prix de ces ChromeBooks varient de 300 € à plus de 1500 € dans les grandes enseignes.

Qu’espérer d’un ChromeBook à 300 €, indigent en mémoire de masse (généralement 32 Go, l’équivalent d’un téléphone portable bas de gamme) et équipé d’un processeur bas de gamme ? Pour faire simple, disons qu’on peut faire tourner de façon optimale le navigateur Google Chrome et utiliser les services en ligne les plus courants. On peut également faire tourner les mêmes applications qu’avec un téléphone portable sous Android (l’Android de Google). D’ailleurs, par accès au Google Playstore, on peut réellement télécharger et utiliser les mêmes applications que sur un téléphone Android. Il est également possible d’utiliser certains produits Microsoft en ligne (par exemple MS Word, en payant l’abonnement pour utiliser la version cloud). Notez que l’utilisation de beaucoup d’applications (et en particulier celles de niveau professionnel) fonctionnant dans le cloud nécessite de payer un abonnement. Un autre point important: Google assure les mises à jour de son Chrome OS sur une période de 6 ans. Ces mises à jour sont automatiques et sont réalisées lorsque la machine est connectée à internet.

Si vos besoins vont au-delà de ce que peut vous apporter un modèle de Chromebook bas de gamme, vous avez la possibilité de vous équiper avec un Chromebook qui est muni d’un processeur performant, d’une mémoire RAM conséquente (jusqu’à 16 Go sur certains modèles), et d’un stockage de masse généreux. Dans ces conditions vous pourrez prétendre faire fonctionner votre machine hors ligne, et de plus en utilisant tous les programmes disponibles pour les systèmes d’exploitation Linux (GIMP, DARKTABLE, OPEN OFFICE, et bien d’autres de niveau professionnel).

Pour profiter de leur aspect sécurisé et de leur facilité d’intégration dans des services « cloud », de plus en plus de grands groupes (Veolia, par exemple) équipent leurs salariés avec des Chromebooks. Mais pas avec des machines « premier prix ».

Si vous avez décidé de remplacer votre vieux portable, et que vous faites partie des 80% d’utilisateurs qui n’utilisent que leur navigateur internet:

  1. alors Google a eu raison d’essayer de capter votre attention sur le Chrome OS ;
  2. allez donc vous faire votre propre opinion en essayant une de ces machines chez un détaillant.
  3. si comme moi vous ne voulez pas être capté par Google et conforter ses ambitions commerciales, regardez-y à deux fois ….

Voila.

Précautions de base pour une vie numérique sans mauvaise surprise

Vous avez sûrement lu ou entendu des informations sur les récentes attaques au rançongiciel (Ransomware) de quelques services informatiques hospitaliers de régions françaises. Ces attaques sont, parmi d’autres, des intrusions de cybercriminels pour mettre hors d’utilisation les systèmes informatiques et pour faire payer à des organisations ou des services publics une hypothétique remise en service. Les hôpitaux victimes de ces attaques sont revenus à l’utilisation du papier et du crayon. Un véritable désastre tant l’ordinateur est utilisé partout. Et cela peut être bien pire si les systèmes de supervision et de contrôle des différentes machines d’assistance médicale sont impactées. Ce ciblage des hôpitaux par les cybercriminels est une évolution quasiment logique après les extorsions réalisées sur de grandes sociétés qui en retour deviennent mieux armées contre de telles attaques. Est-ce l’indication que les systèmes informatiques des hôpitaux sont plus faciles à rançonner ? On peut le croire et il y aurait probablement de multiples raisons à cela. Notez en passant que les centrales nucléaires vieillissantes (françaises) sont peu ou pas exposées. Elles sont technologiquement d’un autre âge, et en tout ou partie, ceci peut expliquer cela.

Ces grosses cibles dont on parle dans les médias ne sont que les faits divers saillants qui ont tendance à oblitérer la pression constante exercée au travers de l’internet par les cybercriminels sur tout ce qui peut y être connecté (y compris votre smartphone, votre smart-tv, vos objets connectés, et pourquoi pas, votre voiture).

En réaction à la montée manifeste des menaces, la France s’est dotée de services de lutte contre la cybercriminalité depuis 2013 (date de création de l’ANSSI) et 2014 (date de création de la sous-direction de lutte contre la cybercriminalité de la police nationale). Les quelques fonctionnaires et militaires affectés dans ces services élaborent des techniques et stratégies (parfois en partenariat avec des sociétés spécialisées) pour traquer tout ce que l’internet peut supporter de cybercriminalité. Il existe aussi une section dédiée d’Interpol qui coordonne des opérations « sans frontières ».

Interpol met en garde contre les possibles attaques en période de Covid:

« Les cybermalfaiteurs s’attaquent aux réseaux et systèmes informatiques des particuliers, des entreprises et même des organisations internationales alors même que leurs défenses en la matière se trouvent peut-être affaiblies du fait de l’attention accordée à la crise sanitaire ».

Interpol met en ligne un panorama mondial des cyber-menaces liées au covid19 (voir le document .pdf). La menace n’existe pas qu’envers les grosses cibles. Nous sommes également visés en temps que citoyens connectés. Je vous encourage à consulter ce document d’interpol qui donne des conseils de base pour vous protéger du phishing, du rançonnage, des malwares, adwares, cookies malveillants et autres joyeusetés.

En résumé:

« Protégez vos informations

  • Sauvegardez fréquemment tous vos fichiers importants et conservez-les en dehors du système (dans le cloud ou sur un lecteur externe par exemple) ;
  • Avant de saisir des informations sensibles ou de connexion, vérifiez toujours que vous êtes bien sur le site légitime de l’entreprise en question.

Vérifiez vos logiciels et systèmes

  • Assurez-vous que vous disposez du logiciel antivirus le plus récent sur votre ordinateur et vos terminaux mobiles ;
  • Sécurisez les passerelles de messagerie électronique afin de contrer les menaces transmises via des courriers indésirables ;
  • Renforcez votre réseau domestique ;
  • Remédiez aux vulnérabilités en matière d’administration système que des pirates pourraient exploiter ;
  • Désactivez les composants de tiers ou périmés qui pourraient être utilisés comme points d’entrée ;
  • Ne téléchargez les applications mobiles et autres logiciels que depuis des plateformes de confiance ;
  • Analysez régulièrement vos ordinateurs et terminaux mobiles.

Faites preuve de vigilance

  • Apprenez aux membres de votre famille, notamment aux enfants, à protéger leur sécurité en ligne ;
  • Vérifiez et mettez à jour régulièrement les options de confidentialité de vos comptes sur les médias sociaux ;
  • Changez vos mots de passe en veillant à leur complexité (mélange de majuscules, minuscules, chiffres et caractères spéciaux) ;
  • Dans les e-mails que vous n’attendiez pas ou qui proviennent d’un expéditeur inconnu, ne cliquez pas sur les liens et n’ouvrez pas les pièces jointes.

Et, comme toujours, si vous pensez avoir été victime d’une infraction, contactez les services de police locaux. »


Voila.

La ruée sur les données personnelles

Pour tous ceux qui ne se seraient pas encore aperçus qu’ils sont sujets à l’exploitation de toutes les données enregistrées sur leurs Smartphones, tablettes, et généralement leurs comptes sur les services qui sont liés, voici un des derniers exemples d’exposition incontrôlée de données personnelles.

Socialarks, développeur d’un CRM (« Customer Relashionship Management » ou « Gestion de la relation clients » en langue Française) accessible aux acteurs commerciaux sur l’internet (« Cloud Based » et accessible sur le web comme un service payant) est une entreprise de moins de 100 salariés basée en Chine. Elle vient d’exposer accidentellement pour la deuxième fois les données personnelles de deux millions d’utilisateurs des services des réseaux sociaux FACEBOOK, Instagram et Linkedin. Ces informations étaient en effet disponibles par une simple connexion sur l’adresse du site du CRM (pas nécessaire d’utiliser une identification et un mot de passe). Lire à ce sujet l’article du Figaro ‘Web & Tech’ daté de ce jour. Le business de Socialarks c’est la mise en relation d’entreprises commerciales du web avec des clients qui utilisent l’accès au web (entreprises ou particuliers). Pour alimenter son CRM, Socialarks fait du DATAMINING (collecte de données disponibles sur le web et à travers d’échange avec les sociétés qui font du commerce sur le web). Cette société fait donc office d’intermédiaire entre les vrais commerçants et les consommateurs au travers d’un système de gestion de la relation client. C’est déjà ce que font (mais directement et de façon systématique) GOOGLE ET FACEBOOK au travers de leurs services aux professionnels. Mais alors pourquoi, me direz-vous, d’autres entreprises font elles le même type de mise en relation ?

Simple: parce-que c’est un marché énorme qui aiguise la convoitise des start-up de tous poils. Socialarks est une startup qui a commencé son activité en 2014 (comme marqueur temporel et pour ceux qui suivent ma publication, je rappel que FACEBOOK a racheté Whatsapp la même année). Nous parlons donc et pour résumer de Big Data, Trading platform et Marketing. Et pour parler simplement, de l’exploitation des données personnelles de milliards de consommateurs influençables. Vous et moi, nous faisons partie, et pour la plupart sans le savoir, de ces consommateurs.

Posséder ces énormes bases de données sur l’identité et le comportement de millions de personnes n’est pas seulement utile pour faire du commerce sous influence, mais peut également servir à orienter les choix des citoyens pour des élections ou le comportement de ces mêmes citoyens par rapport à d’autres enjeux. Les fuites de plus en plus fréquentes, la vulnérabilité des bases de données constituées, sans compter le commerce « légal » qui est fait de nos données personnelles devraient nous conduire à réagir, nous les consommateurs.

L’Union Européenne au travers de la directive « GRPD » (en 2016) a fait un premier pas (très timide à mon avis, et parce-que l’UE est avant tout un marché) dans le sens de la protection des données personnelles. Bien, mais c’est d’abord individuellement, par notre comportement, que nous sommes en mesure de lutter contre cette hydre qui utilise les ressources des sciences du comportement humain et de la manipulation à grande échelle.

Pour une information plus complète sur la manipulation de masse, regardez donc le documentaire disponible sur Netflix: « Au travers de nos écrans de fumée » (« The Social Dilemma » dans la langue originale). Pour résumer le sujet en quelques mots, il s’agit d’interviews de personnalités qui ont eu des responsabilités importantes dans des sociétés comme Google, Facebook, Twitter, Pinterest, etc. Tous (ou presque) ont quitté leur fonction en raison de leur désaccord avec le modèle économique de ces sociétés. Et ne vous en faites pas pour eux, ils sont devenus riches (pour la plupart).

En conclusion et vous vous y attendiez, je vous recommande d’adopter une attitude responsable. Ne vous abonnez pas à des réseaux sociaux qui ont un modèle économique déviant (ils ne veulent pas votre bien, ils veulent vous manipuler). Pour faire suite à mon article précédent, je vous recommande également de supprimez votre compte Whatsapp et de remplacez Whatsapp par Signal (une messagerie qui n’a pas encore été rachetée par les commerçants).



Voilà.

Bienvenue chez les nouveaux commerçants

Avec le rachat et l’intégration par les GAFAM de toutes les applications qui peuvent être utiles au recueil des données personnelles nous voici arrivés à un point de non retour. Ce matin, si vous utilisez la messagerie WHATSAPP vous avez reçu un message de la part de FACEBOOK pour vous annoncer les nouvelles conditions d’utilisation de Whatsapp et vous demander de les accepter. Le rachat par Facebook de Whatsapp il y a maintenant 7 ans (pour un montant de 20 milliards de dollars) devait nécessairement mener à une intégration totale de Whatsapp dans le puzzle commercial de Facebook.

Les nouvelles conditions d’utilisation incluent le partage de vos données personnelles avec Facebook. Fort heureusement la directive Européenne (GRPD) limite de-facto les conditions de ce partage pour les citoyens des états Européens. Reste à savoir comment l’Europe peut effectivement vérifier que pour les citoyens de l’UE les conditions de non-partage des données personnelles des utilisateurs de Whatsapp seront respectées par Facebook. J’ose ici faire un parallèle avec l’évasion fiscale et la libre concurrence. En effet que pèsent les amendes infligées par l’UE aux GAFAM par rapport aux monstrueux bénéfices de ces derniers ?

Pour situer l’action en cours, d’abord un petit rappel de l’histoire de Whatsapp.

Whatsapp (forme abrégée de What’s up – « qu’est-ce qui se passe » en Français approximatif ou « quéçadit » en encore plus fleuri). Les noms de ces applications sont décidément des blagues d’informaticiens. L’idée originale des créateurs de Whatsapp était de remplacer la messagerie SMS des téléphones portables par un système de messagerie plus performant passant non plus uniquement par la liaison téléphonique de base mais par internet (une forme de messagerie de type email en plus sympathique). Whatsapp a été développé à partir de 2007 et lancé en 2009 par deux anciens de Yahoo! (vous savez, le fameux moteur de recherche). Succès immédiat et en 2013 Google proposait d’acheter l’application pour 1 milliard de dollars. Les utilisateurs de la messagerie sont devenus un marché qui grossit et les prédateurs se précipitent. En 2014, c’est Facebook qui finalement rachète Whatsapp pour environ 20 milliards de dollars. C’est relativement peu par rapport au marché que représentent les 450 millions d’utilisateurs de la messagerie (en février 2014). Pour Facebook, le marché dont il est question ici, passe par la vente à des commerçants, promoteurs, officines diverses des données collectées par l’ensemble des applications de la firme (Instagram, Whatsapp, Facebook) sur leurs utilisateurs (pas seulement leurs identités et données personnelles, mais aussi leurs profils psychologiques – habitudes de consommation, tendances politiques au travers de leurs choix etc..). En France et d’après une étude IPSOS, actuellement environ 52 % des citoyens utilisent la messagerie pour communiquer avec la famille et les proches. Et tout ça gratuitement. L’application Whatsapp est gratuite, c’est ce qui explique sa popularité. La rentabilité d’une telle plateforme de communication passe par le commerce des données de ces utilisateurs.

SI C’EST GRATUIT VOUS ÊTES LE PRODUIT.

On peut objecter à cela que les messages des utilisateurs de Whatsapp sont cryptés de bout en bout (et réputés inviolables). Le changement des conditions d’utilisation est un premier pas vers l’exploitation étendue des données des utilisateurs. A ce jour, rien n’apparait sur le site de Whatsapp concernant le changement des conditions d’utilisations. (voir en particulier https://www.whatsapp.com/security/). Je suis curieux de suivre dans les mois qui viennent les réactions (ou non-réactions) des instances en charge de la protection des « consommateurs », au niveau de l’UE ou des États Unis.

Pour vous faire une opinion sur l’ampleur de ce qui se passe je vous conseille de regarder l’excellent documentaire intitulé « Derrière nos écrans de fumée » (« The social Dilemma » dans sa langue originale) disponible sur Netflix. Dans ce réquisitoire contre les GAFAM interviennent les anciens dirigeants ou les personnes qui possédaient des postes clés dans les entreprises concernées. Ils ont tous démissionner pour des raisons éthiques. Ce document est bien fait, didactique, sincère et c’est glaçant.

De ces messageries et réseaux sociaux on peut se désabonner et choisir des messageries alternatives respectant la vie privée (voir mes articles précédents).


Voilà

Développement de vos photos numériques avec Darktable – le module filmique rvb

Cette série d’articles est destinée aux photographes amateurs qui comme moi veulent s’affranchir des logiciels de développement photographique sous licence propriétaire (Adobe Lightroom, par exemple). Il est possible que vous ne soyez pas concerné si vous avez décidé d’utiliser basiquement votre matériel photographique pour produire directement des fichiers .Jpg. Si vous ne savez pas que la photographie numérique utilise des fichiers informatiques avec des formats très variés, et des compressions plus ou moins poussées, vous pouvez également passer votre chemin.

Par contre si vous êtes intéressé par les possibilités étendues qu’offre le traitement de fichiers « vierges » (avant complète intervention de l’électronique de traitement de l’appareil photo), alors cet article peut vous intéresser. Les fichiers dont il sera question ici sont les fichiers RAW (bruts) qui sont nommés « .NEF » chez Nikon, ou « .CRW », « .CR2 » chez Canon. Je ne prétends pas donner de recette pour l’obtention de résultats « parfaits ». La notion de perfection est subjective. Je tente simplement de partager mon expérience d’utilisateur. Darktable permet le développement, la retouche, le classement de vos photographies numériques. Il s’intègre dans un flux de production de photo (de la prise de vue jusqu’à la publication). Une première prise de contact avec Darktable est fortement conseillée avant de lire ce qui suit. La version 3.2.1 de Darktable sert de base à cet article.

Passons tout d’abord par quelque rappels sur des bases de photographie numérique. Le capteur de votre boitier photographique restitue l’image qu’il acquiert avec une certaine plage dynamique du spectre de luminance (la luminance étant l’expression d’une quantité de lumière). Cette plage dynamique est l’écart entre les blancs extrêmes et les noirs extrêmes de la lumière acquise par le capteur photo. L’indice de luminance (ou indice de lumination) utilisé en photographie est le résultat d’une fonction incluant le couple temps de pose, nombre f. Pour un temps de pose t et un nombre f N, l’indice de luminance est:

{\displaystyle \mathrm {IL} =\log _{2}{\frac {N^{2}}{t}}\,.}
(Log de base 2 )

D’autre part la multiplication par deux de la luminance correspond à une augmentation de 1 IL. De cette relation de puissance de deux entre luminance et IL on peut faire un rapprochement avec la structure binaire du codage de nos fichiers (un bit peut avoir 2 valeurs: 0 ou 1). Les possibilités de représentation d’entiers numériques sont 2 n, n étant le nombre de bits utilisés (par exemple, un codage sur 32 bit permet de compter de 0 jusqu’à 2 32 soit 4294967296).

Un codage sur 14 bit permettra une plage dynamique de 14 IL. Les boitiers photo de milieu de gamme permettent d’atteindre cette valeur. Vérifiez donc que votre boitier le permet. Si un paramètre du menu doit être modifié pour atteindre un codage sur une plage dynamique supérieure à celle proposée par défaut, modifiez le. Pour comparaison, une plage dynamique réelle théorique de 16 IL est possible avec un ISO 100 par temps ensoleillé. La plage dynamique de la vision humaine reste supérieure à ces valeurs, avec toutefois une baisse très importante de la sensibilité sur les extrémités du spectre lumineux visible (vers 400 nm et 650 nm). La sensibilité ISO est le troisième facteur qui entre dans le résultat de l’acquisition d’une image par le capteur photographique. Plus on pousse la sensibilité du capteur, plus la plage dynamique qu’il est capable de restituer se réduit. Quelques labos publient régulièrement les mesures qu’ils effectuent sur les boitiers photographiques. DxO publie des courbes de mesure sur le site DxOMark. Vous y trouverez la courbe de réponse IL f(ISO) de votre boitier. Elle pourra servir de référence pour élaborer des guides de réglages de base du module que je vais présenter.

Darktable possède de nombreux modules de traitement dont le plus récent est le module de mappage des tonalités « Filmique rvb« . Ce module est destiné à remplacer les anciens modules de tone mapping à commencer par le module « courbe de base ». Ce dernier tentait de reproduire les algorithmes de traitement des boitiers, à partir de préréglages. Oubliez donc ce module « courbe de base ».

Le traitement de tone mapping consiste à mettre en correspondance une palette de couleurs avec une autre, dans le but de convertir une image de grande gamme dynamique vers une image de dynamique plus restreinte. Les écrans multimédias, les images imprimées ou les vidéoprojecteurs ont tous une gamme dynamique limitée ne permettant pas de reproduire toute la gamme des intensités lumineuses présentes dans les scènes réelles. Pour exemple, les écrans d’ordinateurs ont une plage dynamique de 8 IL en général. Le mappage de tonalité permet alors de réduire localement les forts contrastes de lumière afin de préserver les détails de l’image et les nuances de couleur et de restituer les détails de la scène originale sur ces supports. Le module « filmique rvb » de Darktable utilise, entre autre, un algorithme de compression tonale des hautes lumières et des basses lumières. Cette compression se justifie par la plus faible sensibilité de l’œil humain dans les extrémités du spectre lumineux visible.

Dans la fenêtre « Chambre noire » de Darktable lorsque vous chargez une photo pour la première fois, certains traitements sont assurés systématiquement et apparaissent dans le volet « Historique » a gauche de l’image.

La pile d’historique contient tous les modules de traitement dans l’ordre dans lequel ils sont appliqués à l’image. Ceux qui n’apparaissent pas à l’état activé (« balance des blancs », « reconstruire les hautes lumières » et « orientation ») peuvent être activés et modifiés après application d’autres modules, mais ils resteront dans leur position initiale dans la pile. Je donne maintenant une suite d’opérations à réaliser dans l’ordre et qui correspondent à mon flux de traitement de base, avant d’utiliser si nécessaire des modules de correction ou de retouche:

  • réglage de l’exposition pour que l’ensemble des informations du spectre de luminance soit visible sur le graphe situé en haut du panneau de droite. Ce réglage est plus agréable à réaliser directement avec la souris sur le graphe. Ce réglage est également un centrage des gris moyens avant l’étape de mappage. A noter que sur le graphe, la zone de gauche correspondant aux tons foncés (vers le noir) est indépendante de la zone de droite. Je vous conseille de choisir la forme logarithmique pour l’affichage du graphe. Cela augmente la précision dans les réglages de la zone des tons foncés.
Graphe de répartition des tonalités sur le spectre lumineux.
  • Dans le module « filmique RVB » vous pouvez conserver les options par défaut (notamment utiliser un gris moyen de 18,45%, sauf si l’image est largement surexposée). Allez directement dans le menu « scène » et utilisez les pipettes pour régler approximativement les expositions relatives du blanc et du noir.

Affiner les réglages de façon à ne pas avoir de zone sur-exposée ou sous-exposée. Aidez vous des marqueurs pour voir ces zones.

Maintenant, voici un guide qui permet de juger si les réglages sont cohérents avec la sensibilité ISO de la prise de vue. Sur le graphe IL f(ISO) disponible sur le site DxOMark pour votre boitier, la somme des expositions relatives du noir et du blanc devrait correspondre à la plage dynamique de votre capteur pour le réglage ISO adopté à la prise de vue. Dans l’exemple ci-dessus, la sensibilité était de 500 ISO. Cette valeur correspond sur la courbe IL f(ISO) à 12 IL. la somme des niveaux d’exposition du blanc et du noir est de 12,11 IL pour les réglages de la scène (+3,08 IL -9,3 IL). Notez que les valeurs négatives n’ont de sens que par rapport à un point neutre (le 0) sur une échelle continue de luminance.

Vous pouvez utiliser les valeurs de plage dynamique fonction du réglage ISO pour établir des préréglages du module filmique. Ces préréglages ne sont que des guides et peuvent devenir inappropriés dans des cas de sur-exposition ou de sous-exposition.

  • Le réglage du contraste est ensuite réalisé par intervention sur la courbe en S du menu « look » du module « Filmique RVB ». Soyez attentif à ne pas saturer les tonalités en extrémités de la courbe en S (la courbe prend alors la couleur jaune dans la partie écrêtée).

Une fois ces opérations effectuées vous devriez obtenir une image satisfaisante sur le plan perceptuel. Une image qui reproduit ce que vous avez vu (qui n’est pas une réalité intangible). Dans la plupart des cas vous pourriez vous en tenir là. Si toutefois vous voulez améliorer cette image, de nombreux autres modules sont à votre disposition dans Darktable. J’utilise régulièrement les modules « retouche », « correction des taches », « correction des objectifs », « contraste locale », « suppression de la brume », « réduction du bruit », « égaliseur de ton », »correction de perspective ». La plupart de ces modules peuvent utiliser des masques pour des interventions localisées sur une image.

Pour ceux qui sont intéressés par des informations plus détaillées sur le moteur du module filmique je conseille de suivre les tutos et mémos d’Aurélien Pierre qui développe les algorithmes de traitement de ce module.


Voila.

Arnaques à l’assistance technique

Hier j’ai reçu un appel téléphonique d’une de mes connaissances qui me demandait de l’aide.

Son micro-ordinateur portable était bloqué après la séquence de démarrage et la saisie du mot de passe utilisateur. Une fenêtre ayant un caractère un peu officiel l’informait que la machine était infectée et que le seul moyen de continuer à l’utiliser était d’appeler un numéro de téléphone qui s’affichait de façon ostentatoire. Ma réponse alors: « n’appelle surtout pas ce numéro, c’est une arnaque« . Après plusieurs tentatives de redémarrage de la machine à ma demande, force fut de constater plusieurs échecs. A chaque tentative, après saisie du mot de passe utilisateur la machine restait figée sur l’écran proposant d’appeler le prétendu service d’assistance. J’ai alors décidé de me rendre sur place pour dépanner. Précisons avant d’aller plus loin qu’il est question ici d’une machine ancienne (6 ans) équipée d’un système MS Windows 8.1

Voici un petit résumé en forme de guide des quelques opérations nécessaires à la réhabilitation d’une machine victime d’une attaque de ce type. A noter qu’il n’est pas question ici d’une simple page (de type pop-up scam) qui s’afficherait lorsque vous utilisez votre navigateur internet. Il est question d’une technique plus radicale qui probablement sature le microprocesseur à l’aide d’un morceau de code viral. L’objectif à travers cette technique est clairement d’empêcher l’exécution de la fin de la séquence de démarrage du système. L’utilisateur est alors tenté d’utiliser son téléphone pour requérir l’assistance qui lui est proposée. S’il cède à cette tentation, son interlocuteur lui propose d’intervenir sur la machine à distance en l’échange d’un forfait à régler par carte bancaire. A la suite de ça l’installation d’un logiciel de contrôle à distance de type « TeamViewer » permet à l’interlocuteur d’installer absolument n’importe quoi sur la machine.

La première chose à faire est de redémarrer la machine après arrêt complet (Hard Reset). Pour ça il faut démonter la batterie, débrancher l’alimentation secteur. Après cet arrêt, rebrancher le cordon d’alimentation secteur et ensuite initier un démarrage sans échec. Le mode de démarrage sans échec, dans le jargon technique Microsoft c’est un démarrage en mode dégradé, sans le chargement de tous ces petits modules qui font ressembler votre écran à un bureau bien rangé. Pour démarrer dans ce mode il faut solliciter la touche F8 du clavier tout de suite après avoir appuyé sur le bouton de démarrage. Une suite d’écrans s’affiche alors proposant d’accéder au mode sans échec (deux possibilités: mode graphique ou mode terminal texte). En général, l’accès au mode sans échec avec écran graphique permet de reprendre la main. Ce fut le cas ce jour là. Le recours à la ligne de commande peut parfois être nécessaire si l’infection est sérieuse. Important: le mode sans échec doit être choisi avec liaison internet activée. Cette dernière permet ensuite de télécharger les applications nécessaires au nettoyage.

Une fois la machine redémarrée en mode sans échec, un nettoyage de l’infection peut être entamé. L’examen des logiciels installés peut permettre de détecter une installation suspecte. Pour ça il faut se rendre dans la page « Applications et fonctionnalités » du menu. Le recours, ensuite à un logiciel anti-malware est généralement suffisant pour détecter et éradiquer l’infection. Les références pour ce type de réparation sont: « Spy Hunter » et « Malwarebyte ». Il a suffit de télécharger Malware Byte et de le lancer pour venir à bout de l’infection.

Comment cette machine a-t-elle pu être contaminée ?

Plusieurs facteurs ont contribué à l’intrusion d’un logiciel malveillant :

  1. La version du système d’exploitation est ancienne et les mises à jour de sécurité ne sont pas réalisées aussi souvent que nécessaire;
  2. Aucun logiciel anti-virus n’est actif sur la machine. C’est en grande partie dû à la présence lors de l’achat de la machine de versions d’essai du produit Mac Affee (antivirus proposé en bundle avec le système). Cette version d’essai n’a pas été activée par l’utilisateur (il faut payer une licence). Ce logiciel étant devenu inactif mais restant présent sur la machine, l’anti-virus (MS Defender) du système est resté inactif. Résultat: open bar;
  3. Manque de vigilance de l’utilisateur qui fait confiance aux sites Web qu’il visite et en particulier aux sites qui proposent le téléchargement d’applications gratuites (et infestées par malwares, adwares et autres joyeusetés).

En conclusion je vous conseille de veiller à la mise à jour régulière de votre système, d’utiliser au minimum l’anti-virus proposé par le fournisseur (Ici Microsoft MS Defender), de bien réfléchir à deux fois avant de cliquer sur un lien douteux ou de télécharger une application gratuite depuis une site dont la réputation n’est pas certifiée. Installez les additifs que je recommande dans un précédent article (2 mai 2020) pour votre navigateur internet. Si vous avez l’intention malgré tout de ne pas suivre ces conseils, soyez prêts à mettre les mains dans le cambouis pour dépanner. Mon dernier conseil pour les aventureux qui utilisent MS Windows: ayez toujours un volume « Recover » du système prêt pour une réinstallation. De plus conservez le code de la licence d’utilisation du système.


Voila.