Archives de catégorie : Bricolage

Mon sac

Vous me direz les sacs à main c’est des trucs de bonne femme, et c’est pas ma moitié qui fera mentir le préjugé. Mais elle n’est pas la seule à avoir son sac. Et si elle en a de nombreux en usage alterné (au point de parfois en changer plusieurs fois par jours) j’en ai moi-même un qui me suit dans la plus grande partie de mes déplacements.

Un «sac d’ordinateur» que je remplace au gré de leurs usures, et quand l’envie m’en prend. Ho pas la sacoche d’ordinateur typique que l’on trouve aux quatre coins de rue, mais un conteneur adapté à la survie en milieux urbains fait pour m’accompagner au quotidien avec un certain style.

C’est étonnamment un accessoire (utilitaire) esthétique au quel j’apporte beaucoup de soin. Compact, fonctionnel et esthétique, une sobriété avec une note d’originalité. Quelque chose de bien conçus pour transporter tout ce dont un geek hyperconnecté a besoin (soit parfois beaucoup de choses).

Mais voici que mon sac à dos me lâche brutalement, quelques minutes pour constater les dégâts immédiats et envisager un hacking au fil et à l’aiguille, mais c’est la fermeture éclair qui se décroche. Par expérience la couture ne tiendra pas, et d’autres problèmes apparaîtrons rapidement après l’application du patch.

Je vais devoir me trouver un nouveau compagnon de route, et sûrement rapidement, … mais demain c’est les soldes : Plein de monde dans les magasins à la recherche de LA bonne affaire. Tout sauf mon moment préféré pour aller faire les boutiques.

Privacy Digital Assistant

Alors que mes réflexions me portent sur les effets nocifs de l’hyper-connectivité de notre monde, mon esprit s’égare à imaginer les évolutions des «Personal Digital Assistant», fleuron des poches numérisée des années 90.

Qu’aurait pu donner la version 2016/2017 d’un Handled Pc, d’un Psion … Non pas ce qu’ils ont donné, mais ce qu’ils auraient pu.

En bref, quel pourrait être, avec les technologies actuelles, l’appareil dans cet esprit qui ne jouerait ni la surenchère technologique, ni l’hyper-connectivité, et qui aurait le bon ton de chercher à protéger notre vie privée.

Un «Privacy Digital Assistante» ou Gestionnaire Numérique de Vie Privée.

Cahier des charges

Simple

Un ordinateur est finalement un très bon idiot, il ne fait que ce qu’on lui demande avec la plus grande efficacité possible. Vouloir le rendre trop intelligent est souvent une erreur. Il devient plus difficile à comprendre et à vouloir en faire trop il en vient parfois à simplement faire mal : Combien de gens pestent contre la correction orthographique de leur téléphone portable qui parfois changent complètement le sens de leurs écrits ?

Un ordinateur simple, ce qui ne l’empêche pas d’être complet et efficace (bien au contraire), devient un assistant prévisible et fiable.

De plus un système simple qui ne fait pas une débauche de fonctionnalités peu permettre d’avoir un logiciel mieux optimisé et des besoins en ressources minimisé.

Ouvert et Standard

Toujours dans cette optique de simplicité, le système se doit d’être le plus standard et ouvert possible. Utilisant du logiciel libre audit-able, modifiable et corrigeable par les utilisateurs. Traitant des fichiers dans des formats standards et ouverts pour maximiser la simplicité de conservation et de traitement sur d’autres appareils.

Communication réduite

Ouvrir un appareil au monde, et le connecter de multiples façons, c’est lui permettre d’être à jour avec le monde. C’est lui permettre de communiquer les informations que l’on veux, mais aussi bien souvent celle que l’on ne veux pas (par malveillance ou inadvertance). Et si faire communiquer un appareil est le connecter au monde, c’est aussi connecter le monde, et toute l’hostilité dont il est capable, sur cet appareil.

Non contant de lui permettre, on oblige aujourd’hui les appareils à être «à jour» avec le monde. Un appareil «non à jour» est potentiellement vulnérable, et n’assure plus son rôle de protection des données privées qu’il contient. Pire : le matériel, souvent parfaitement saint, est souvent mis au rencard (ou au rebut) pour défaut de mise à jour logicielle, et d’adaptation au monde.

Pas de Wifi, Bluetooth, NFC, 3/4/5G ou autre systèmes de communication à la mode (ou non). Le tout est réduit au strict utile et essentiel : USB et Carte(s) mémoire(s) sont largement suffisants pour assurer toute la connectivité nécessaire hors de tout réseau.

Être déconnecté, en plus de réduire la nécessité des mises à jour et de limiter les vecteurs d’attaques de l’appareil, va restreindre les intérêts relatifs au pistage et à la publicité apporté par notre hyper-connectivité, mais aussi réduire la consommation d’énergie de notre appareil et augmenter son autonomie en mobilité.

Un compagnon du quotidien

Notre vie est de plus en plus mobile, et gérer ses informations personnelles ou que l’on soit est de plus en plus attendu. L’appareil se devrait donc d’être mobile, voir ultra-mobile. Un appareil pratique à utiliser, et que l’on puisse avoir avec soi le plus souvent possible. Idéalement qui puisse rentrer dans une (grande ?) poche.

Ajustements personnels

En un sens le format des Psion série 5 ou des Sony VAIO P, me semble très intéressant (même si je n’en ai jamais eu entre les mains et que je me fait peut être une mauvaise idée).

  • Format compact pour plus de mobilité
  • Écran de taille sympathique
    • La couleur n’est pas forcément nécessaire
    • Un bon trackpoint vaux mieux qu’un écran tactile
  • Un vrai clavier pour avoir un vrai confort de frappe

Réalisation

C’est une image très théorique que j’ai pour le moment d’un tel appareil, se basant essentiellement sur l’image que j’ai de machines passées.

Et même si un Raspberry Pi Zéro me semble avoir beaucoup d’atout pour constituer le centre nerveux d’un tel système (Compacité, puissance limité mais suffisante, connectivité limitée, matériel aujourd’hui courant, …) le reste du matériel (Écran, Clavier, …) me pose aujourd’hui bien plus de difficultés pour une concrétisation de cette idée.

D’autant plus pour arriver à quelques choses de compact et s’éloignant esthétiquement du bricolage sommaire.

32 ou 64 Bits ?

Petit article technique sur une évidence finalement pas si claire.

CPU

Parmi les multiples unités de calcul que contient un ordinateur l’unité de calcul centrale, ou en anglais «Central Processor Unit», d’où l’abréviation CPU, est l’un des plus importants, et souvent celui pris en référence.

Ces unités font des opérations sur des «mots» de données : des suites de 1 et 0 d’une taille dépendants de la génération de l’unité de calcul.

Une unité de calcul pouvant gérer des mots d’une longueur de 32 unités (1 ou 0, des bits) est dite «32 bits».

C’est la différence fondamentale entre les «16 Bits», les «32 Bits» et les «64 Bits» : La taille des mots que l’unité est capable de traiter.

Attention : Un CPU 64 Bits, même s’il gagne en performance, n’en devient pas deux fois plus puissant que son équivalent 32 Bits

32 Bits : La référence … historique

Dans la plupart des cas, la question ne se pose simplement pas pour l’utilisateur même éclairé, sauf dans le cas des CPU de la famille des x86 qui équipent ce que l’on appelle communément les PC, ce qui inclut les machines Apple Mac depuis 2006, et bien d’autres choses.

Après un bref début sur des CPU (8086, 8088, 80286) en 16 Bits, les PC ont adopté (avec les 80386) une conception en 32 Bits dès 1986, et que l’on retrouve encore aujourd’hui.

Et si les premiers systèmes MS-DOS fonctionnaient en 16 Bits, les premières versions populaires de Windows (Windows 3) nécessitaient un processeur 32 Bits.

Rétrocompatibilité

Depuis le début des années 2000, on commence à voir apparaître des x86 en 64 Bits : x86_64, qui en plus d’augmenter la capacité de traitement du processeur en profitent pour revoir en profondeur les principes de conception et faire tomber certaines limitations historiques (Voyez Wikipédia pour plus de détails).

Pour éviter de laisser de côté tout le travail historique, les architectures x86 sont «Rétrocompatibles» :

  • Un système 16 Bits peut fonctionner sur un CPU 16 Bits, 32 Bits ou 64 Bits
  • Un système 32 Bits peut fonctionner sur un CPU 32 Bits ou 64 Bits
  • Un système 64 Bits ne peut fonctionner que sur un CPU 64 Bits

Cela signifie qu’il y a encore peu (avant la généralisation de l’UEFI, mais cette partie nécessiterait un article complet) on pouvait faire fonctionner un vieux DOS des années 80 sur une machine de 2014. Avec toutes les limitations qu’apporterait un si vieux système sur un matériel aussi récent.

Prudence, Prudence

Dans cette période de transition technologique, et dans l’incertitude du CPU auquel nous avions alors à faire, quelques constatations se furent rapidement :

  • Un système 32 Bits fonctionnait sur la majorité des ordinateurs (le 16 bits n’étant que historique).
  • Le gain du 64 Bits était peu visible, avec la réputation de n’être nécessaire que pour des «usages spécifiques».
  • L’acteur majeur qu’est Microsoft, avec son Windows ne s’est mis que tardivement au 64 Bits
    • La version 64 Bits de Windows XP n’avait une distribution que très restreinte.
    • Les constructeurs ont mis longtemps avant de créer des pilotes pour les Windows 64 Bits, d’où une mauvaise gestion du matériel dans les années 2000.
    • Les premières versions des Windows 64 Bits cassaient la compatibilité avec les applications 16 Bits encore utilisées par certaines entreprises.

La seule véritable limitation visible par l’utilisateur est que sans l’utilisation d’une extension PAE, testé un temps sur certaines versions de Windows XP, mais aujourd’hui complètement abandonnées par Microsoft : Le CPU ne sait pas gérer plus de 4 Go de mémoire RAM, valeur alors énorme à l’époque (et même encore souvent considéré comme acceptable il y a peu).

Un système Windows 32 Bits n’arrivera, Quelle que soit la quantité de mémoire installée et le CPU de la machine, qu’a géré un maximum de 3,25 Go de RAM.

Installer du 32 Bits était donc l’assurance de ne pas avoir de problème, le 64 Bit n’étant à envisager que sur des besoins spécifiques. Après 15 ans d’existence des CPU 64 Bits, cette règle s’applique toujours.

Les autres systèmes

Même si le système de Microsoft est le plus présent sur le marché, il est loin d’être le seul à fonctionner sur des CPU x86

Apple MacOS

Depuis 2006 les ordinateurs Apple utilisent  des CPU x86, mais le nombre de machine limitée et la forte maîtrise que la société a sur son matériel est ici une chance. La société a pu gérer la transition de bout en bout.

Aujourd’hui tous les ordinateurs Apple et les systèmes Mac OS actuellement encore supporté sont en 64 Bits

Gnu/Linux

Le monde du logiciel libre est plutôt réactif sur ce type de nouveautés. On a trouvé très vite des systèmes complètement en 64 Bits et les systèmes 32 Bits ont très vite géré le PAE qui permet la gestion de plus de 4 Go de mémoire RAM.

Seuls les modules non libres, tel que les pilotes graphiques, ou des modules tels que Flash ont historiquement posé des difficultés.

Aujourd’hui ?

Mis à part le cas particulier d’une machine historique qui aurait un CPU 32 Bits seulement, il n’y a plus aucune raison d’utiliser un système 32 Bits.

Les Windows Vista, Seven, 8 et 10 existent en 64 Bits, les pilotes matériels y sont maintenant adaptés et de nombreuses applications également. Ces versions sont même nécessaires pour gérer plus de 4 Go de mémoire RAM, qui sont aujourd’hui une quantité minimum pour de nombreuses applications.

Pour les systèmes Apple, la question ne se pose pas. Le tout étant géré par le constructeur et le choix n’étant finalement pas laissé à l’utilisateur (comme pour tous les autres type de CPU)

Les systèmes Gnu/Linux, et les autres grands systèmes libres gèrent depuis longtemps les systèmes en 64 Bits à 100 %.

l’UEFI

Le changement du système de démarrage des ordinateurs de type PC, abandonnant le BIOS des années 1980 pour le nouveau système UEFI, pourrait signer la fin de l’historique 32 Bits.

Effectivement, mis à part les premières machines Apple avec CPU x86, les ordinateurs avec un UEFI sont équipés d’un CPU 64 Bits, et les systèmes 32 Bits ne prennent simplement pas en charge le démarrage via un UEFI.

Mode Legacy – Retour au BIOS

Pendant longtemps, les nouveaux UEFI possédaient un mode de fonctionnement imitant le fonctionnement du BIOS pour laisser le temps de la transition. Et passer dans ce mode de compatibilité permet de continuer à utiliser les systèmes 32 Bits qui apportent ce confort historique.

Mais si ce mode a existé pendant plus de 10 ans, il tend aujourd’hui à disparaître pour laisser la place à l’unique nouvel UEFI … Rendant ces nouveaux systèmes incompatibles avec les systèmes 32 Bits.

Conclusions

Les systèmes 32 Bits sur x86 appartiennent aujourd’hui au passé récent, et même s’il mettra encore longtemps avant de disparaître complètement de notre paysage informatique, surtout à force d’habitude, il n’y a aujourd’hui plus de véritable raison de ne pas adopter le 64 Bits à 100%.

Mais les habitudes sont souvent difficiles à changer.

$ pavucontrol

On me reproche souvent que «Linux c’est compliqué» et qu’il faut taper des lignes compliquées pour essayer de faire ce que l’on veux. Mais c’est loin d’être toujours le cas

Il y a de cela quelques années le système de gestion du son sous GNU/Linux a connus une révolution avec l’arrivée de PulseAudio. Et même si cela fut au début douloureux, on en arrive aujourd’hui à l’état ou cela fonctionne juste très bien, et permet en prime des choses d’une complexité certaine avec une simplicité déconcertante.

La musique partout

Sans sourciller mon ordinateur portable est capable de m’envoyer le son d’un film vers une télévision (en HDMI), celui du navigateur vers le casque qui est branché dessus et la musique pour madame sur la chaine HiFi du salon (Équipé d’un petit récepteur audio BlueTooth)

PulseAudio gère tout cela tout seul, comme un grand, se configurant intégralement en graphique via l’utilitaire «Contrôle du volume» (pavucontrol)

pavuecontrol - L'interface de gestion de PulseAudio

pavuecontrol – L’interface de gestion de PulseAudio

À découvrir … ça «juste fonctionne»

Auto-Hébergement, la bonne idée ?

Il y a eu, à mesure du temps, de nombreux sites différents sur slowbrain.net, avec de nombreuses formes du très sage WordPress actuel à des étrangetés de la publication en ligne, passant même par quelques essais personnels (que certains optimistes pourrais même voir comme artistiques)

Tous étaient des constructions techniques, pas nécessairement très impressionnante, mais dont je retirais une certaine fierté toute personnelle : C’est moi qui l’avait fait !

Ils était pour la plupart des déserts à contenus (oui, en comparaison, il y en a beaucoup ici) et était auto-hébergé. Ce que n’est pas celui-ci

Mais c’est quoi ?

Même si il est souvent utilisé à sens unique, internet est par conception complètement réversible. L’auto-hébergement consiste à utiliser cette capacité pour installer un (petit) serveur informatique sur sa connexion internet personnelle, et donc à rendre accessible du contenu à partir de cette connexion vendue pour en recevoir.

C’est une pratique qui, suite à la généralisation de le surveillance de tout niveau sur internet, se popularise grandement

Effectivement, l’auto-hébergement permet une maitrise absolue aussi bien sur le matériel que le logiciel, souvent pour un cout réduit (Les besoins individuels étant finalement très faible, une toute petite machine, peu chère et peu consommatrice en énergie suffit largement)

Une bonne idée ?

Même si c’est une pratique largement prôné dans le milieux des informaticiens en soif de liberté, et que nombre de tutoriaux fleurissent ici et là pour d’auto-héberger, je suis tombé il y a peu sur quelques avis intéressants : ici ou .

L’auteur y explique, bien mieux que je ne le pourrais moi même, toutes les difficultés, souvent ignorées, pour arriver à obtenir la qualité de service maintenant exigée pour ces services internet indispensables pour notre quotidien.

L’auto-hébergement ne répondant finalement que très difficilement à ces demandes, pouvant même se révéler dangereux.

Et si j’externalise l’hébergement de mon blog, et que j’arrête d’envisager d’auto-héberger un jour mon mail, c’est que je suis en accord avec ce point de vue.

Abandonner l’auto-hébergement

Il y a cependant un point, important à mes yeux, qui n’est pas abordé par ce message. Une chose pour la quelle l’auto-hébergement est pour moi une nécessité, un indispensable. Une raison qui me pousse à toujours vouloir continuer à en faire, et même à encourager les gens à  en faire.

Il permet aux gens à apprendre comment le monde numérique fonctionne

Et au vue de la somme d’absurdité que l’on voit un peu partout, et de l’abysse de connaissance globales sur ces technologies, c’est bientôt une chose qui va devenir vitale si ce n’est pas déjà le cas.

Autohebergement – Introduction

Dans les contrées libristes, on parle de plus en plus d’«autohebergement», du fait de gérer soi même les services qui nous permettent d’exister sur internet et d’utiliser le réseau. Le tout chez soi et sous notre maîtrise.

C’est un exercice souvent intéressant, mais qui demande un peu d’investissement. Cela permet souvent de mieux comprendre comment fonctionnent les différents outils qui constituent ce vaste monde qui chaque jour prend plus d’importance.

C’est l’un des sujets qui me tien a cœur, et je vais essayer ici de vous le faire partager, avec le guide de quelques outils que je mettrais en place pour ma propre utilisation.

Simple mais didactique, voici qui devrais être les maîtres mots de ces petits articles.

DNS maison

On parle aujourd’hui d’un «filtrage administratif» des sites internet par le gouvernement. Le but étant d’empêcher les accès a des sites internet jugé (mais sans l’avis d’un vrai juge, et c’est la tout le problème) «Mauvais».

La technique utilisé est simple : Faire mentir les serveurs DNS des 5 grands opérateurs internet français.

C’est quoi le DNS ?

Les ordinateurs ne se reconnaissent entre eux sur un réseau informatique que par des numéros : Les adresses IP.

Pour transformer les adresses humainement lisibles (tel quel www.slowbrain.net) en une suite de numéro (217.70.180.151) on utilise un système d’annuaire nommé DNS (Domaine Name Server)

Le logiciel serveur reconstitue l’adresse suivant une hiérarchie afin d’en trouver l’IP.

Généralement on fait appel aux serveurs fournis par son Fournisseur d’Accès a Internet. Qui peuvent être configuré pour donner des résultats faux.

Avoir son propre serveur DNS

Sur un système d’exploitation moderne digne de ce nom, il est facile d’avoir son propre serveur DNS (et donc de calculer sois même ces adresses).

Sur une version Linux Fedora moderne, c’est assez simple.

Sous le compte ROOT tapez les commandes suivantes (sans les «#»)

# yum install bind
# systemctl start named.service
# systemctl enable named.service

Un serveur DNS fonctionne alors sur votre ordinateur.

Utiliser son propre serveur

La dernière étape est de configurer votre accès réseau pour utiliser votre nouveau serveur DNS «127.0.0.1»

Suivant votre configuration ceci change un peu.

Si vous utilisez NetworkManager (le cas le plus courant pour des machines de travail et surtout les portables qui vont passer d’un réseau a un autre)

  • Faire un clic droit sur l’icône NetworkManager
  • Sélectionnez «Modification des connexions
  • Sur les différentes connexions que vous utilisez cliquer sur «modifier»
  • Dans «Paramétres IP v4
    • Changer «Méthode» par «Adresses automatiques seulement (DHCP)»
    • Dans «Serveur DNS» entrez «127.0.0.1»
  • Dans «Paramètres IP v6
    • Changer «Méthode» par «Adresses automatiques seulement (DHCP)»
    • Dans «Serveur DNS» entrez «::1»
  • Enregistrez le tout

Le tout devrais maintenant fonctionner. Vous aurez alors fait un petit pas vers plus d’indépendance vis a vis de votre opérateur internet.