Archives de l’auteur : SlowBrain

À propos SlowBrain

L'auteur principal de slowbrain.net

Déviance philosophique

Venant de remplacer mon téléphone, et celui de ma compagne, par des modèles pommés, cette dernière lui trouve un problème essentiel : L’acceptation de ce matériel dans certains milieux associatifs dans les quels nous circulons. C’est une idée que j’essaye d’exprimer depuis longtemps, et que Benjamin Bayart explique très justement comme de l’«Amilitantisme» (Vraiment, lisez le, il dit plein de bonnes choses.)

Pro et Anti

Alors que pour de nombreux mouvements (dont celui du Logiciel Libre et de la Liberté Numérique, que je connais finalement le plus) ont pour idée de pousser le monde vers quelque chose de différent et meilleur, on en arrive bien plus qu’à proposer des alternatives à critiquer et dénigrer les solutions non conforme à la philosophie défendue.

On passe de la Promotion d’une alternative, au dénigrement de technologies existantes. Et en soit d’une approche positive à une approche négative.

Tout accroc à la pureté de cette philosophie est rapidement vu comme un problème, une chose inavouable, inacceptable, voir intolérable pour les plus virulents.

Des petits cercles bien ronds …

Ces communautés, gommant toutes les aspérités de leurs adhérents, créent certes un exemple vivant du fonctionnement à 100% de cette philosophie, mais se coupent surtout de la réalité de toutes les personnes étrangères à cette philosophie.

Ces communautés deviennent des petites bulles bien lisses parfaitement closes, qui se coupent de la réalité. S’étonnant même du manque d’adhésion, par le plus grand monde, à cette philosophie qu’ils ne se contentent pas de promouvoir, mais qu’ils cherchent à imposer.

Privacy Digital Assistant

Alors que mes réflexions me portent sur les effets nocifs de l’hyper-connectivité de notre monde, mon esprit s’égare à imaginer les évolutions des «Personal Digital Assistant», fleuron des poches numérisée des années 90.

Qu’aurait pu donner la version 2016/2017 d’un Handled Pc, d’un Psion … Non pas ce qu’ils ont donné, mais ce qu’ils auraient pu.

En bref, quel pourrait être, avec les technologies actuelles, l’appareil dans cet esprit qui ne jouerait ni la surenchère technologique, ni l’hyper-connectivité, et qui aurait le bon ton de chercher à protéger notre vie privée.

Un «Privacy Digital Assistante» ou Gestionnaire Numérique de Vie Privée.

Cahier des charges

Simple

Un ordinateur est finalement un très bon idiot, il ne fait que ce qu’on lui demande avec la plus grande efficacité possible. Vouloir le rendre trop intelligent est souvent une erreur. Il devient plus difficile à comprendre et à vouloir en faire trop il en vient parfois à simplement faire mal : Combien de gens pestent contre la correction orthographique de leur téléphone portable qui parfois changent complètement le sens de leurs écrits ?

Un ordinateur simple, ce qui ne l’empêche pas d’être complet et efficace (bien au contraire), devient un assistant prévisible et fiable.

De plus un système simple qui ne fait pas une débauche de fonctionnalités peu permettre d’avoir un logiciel mieux optimisé et des besoins en ressources minimisé.

Ouvert et Standard

Toujours dans cette optique de simplicité, le système se doit d’être le plus standard et ouvert possible. Utilisant du logiciel libre audit-able, modifiable et corrigeable par les utilisateurs. Traitant des fichiers dans des formats standards et ouverts pour maximiser la simplicité de conservation et de traitement sur d’autres appareils.

Communication réduite

Ouvrir un appareil au monde, et le connecter de multiples façons, c’est lui permettre d’être à jour avec le monde. C’est lui permettre de communiquer les informations que l’on veux, mais aussi bien souvent celle que l’on ne veux pas (par malveillance ou inadvertance). Et si faire communiquer un appareil est le connecter au monde, c’est aussi connecter le monde, et toute l’hostilité dont il est capable, sur cet appareil.

Non contant de lui permettre, on oblige aujourd’hui les appareils à être «à jour» avec le monde. Un appareil «non à jour» est potentiellement vulnérable, et n’assure plus son rôle de protection des données privées qu’il contient. Pire : le matériel, souvent parfaitement saint, est souvent mis au rencard (ou au rebut) pour défaut de mise à jour logicielle, et d’adaptation au monde.

Pas de Wifi, Bluetooth, NFC, 3/4/5G ou autre systèmes de communication à la mode (ou non). Le tout est réduit au strict utile et essentiel : USB et Carte(s) mémoire(s) sont largement suffisants pour assurer toute la connectivité nécessaire hors de tout réseau.

Être déconnecté, en plus de réduire la nécessité des mises à jour et de limiter les vecteurs d’attaques de l’appareil, va restreindre les intérêts relatifs au pistage et à la publicité apporté par notre hyper-connectivité, mais aussi réduire la consommation d’énergie de notre appareil et augmenter son autonomie en mobilité.

Un compagnon du quotidien

Notre vie est de plus en plus mobile, et gérer ses informations personnelles ou que l’on soit est de plus en plus attendu. L’appareil se devrait donc d’être mobile, voir ultra-mobile. Un appareil pratique à utiliser, et que l’on puisse avoir avec soi le plus souvent possible. Idéalement qui puisse rentrer dans une (grande ?) poche.

Ajustements personnels

En un sens le format des Psion série 5 ou des Sony VAIO P, me semble très intéressant (même si je n’en ai jamais eu entre les mains et que je me fait peut être une mauvaise idée).

  • Format compact pour plus de mobilité
  • Écran de taille sympathique
    • La couleur n’est pas forcément nécessaire
    • Un bon trackpoint vaux mieux qu’un écran tactile
  • Un vrai clavier pour avoir un vrai confort de frappe

Réalisation

C’est une image très théorique que j’ai pour le moment d’un tel appareil, se basant essentiellement sur l’image que j’ai de machines passées.

Et même si un Raspberry Pi Zéro me semble avoir beaucoup d’atout pour constituer le centre nerveux d’un tel système (Compacité, puissance limité mais suffisante, connectivité limitée, matériel aujourd’hui courant, …) le reste du matériel (Écran, Clavier, …) me pose aujourd’hui bien plus de difficultés pour une concrétisation de cette idée.

D’autant plus pour arriver à quelques choses de compact et s’éloignant esthétiquement du bricolage sommaire.

Hyper Connectivité et Publicité

Quand je regarde notre monde numérique actuel, je suis un peu triste.

Triste qu’autant de capacité, qu’autant de possibilités qui s’offrent à nous dans ce monde, soient aussi mal utilisées. Que le formidable potentiel que représente notre technologie actuelle soit autant utilisé à l’encontre des utilisateurs ou de la bonne intelligence.

Un monde plein de potentiel

L’état de la technique nous permet de trouver des ordinateurs pour moins de 10€ (RaspberryPi Zero), en vente au grand publique, et tellement populaire que l’acquisition en est restreinte dans toutes les boutiques. Machine minimaliste par la taille (65x30x5mm) et par les capacités (1Ghz 512 Mo de Ram), mais capable d’innombrable choses en comparaison de ce que l’on pouvais faire il y a 20 ans (Le Psion série 5 de 1997 fonctionnais avec quelques dizaines de Mhz et 8 Mo de Ram).

Et si l’on prend un peu de recul par rapport à la course à la technologie actuelle, c’est simplement prodigieux : On peut aujourd’hui tous avoir accès à des puissances de calcul largement suffisante pour des quantités phénoménales d’usages. Et quand bien même on en arriverait à avoir des besoins véritablement importants, le prix de machines puissantes n’en reste pas moins assez abordable.

Hyper Connectivité

Aujourd’hui le maître mot est la «connectivité». Il faut communiquer, tellement communiquer que l’on en arrive à faire discuter tout avec n’importe quoi pour échanger des informations au mieux inutiles, voir, et surtout, qui n’aurait pas à l’être. On communique dans la seule finalité de communiquer jusque à l’overdose. Et si cela était à l’origine réservé aux ordinateurs, ça n’en est aujourd’hui qu’une part minoritaire.

Ordinateur, Téléphones, Tablettes, Automobile, Télévision, Radio, Consoles de jeu, … La maison connectée, et son électroménager n’en étant qu’a leurs débuts. L’objectif assumé du mouvement de «l’objet connecté» et de l’«internet des objets» étant de connecter tout ce qui pourrait l’être. L’humain l’étant lui même depuis longtemps.

Nous sommes dans un monde tellement connecté, et tellement dépendant de cette connectivité, que la plupart de ces appareils perdent une grande part de leurs fonctionnalités (quand ils ne deviennent pas simplement inertes) en cas d’absence de connexion. L’accès au réseau devient une dépendance maintenant vue comme vitale.

On délègue l’intelligence nécessaire à nos usages à un service distant hors de notre contrôle, alors que bien souvent nous sous exploitons ou simplement gaspillons celle que nous avons, chez nous et sous notre contrôle.

Notez que cette connectivité déplaçant de plus en plus le contrôle de l’utilisateur vers le constructeur, ce dernier à tout intérêt à vous en vendre : Cela augmente son contrôle et son pouvoir.

L’orgie publicitaire

Mais cette connectivité exacerbée ne vient pas seule. L’un des domaines les plus prolifiques de ces dernières années est la publicité. Et si le modèle traditionnel (Télévision, Radio, Journaux, Magasines et Affichage de rue) peu déjà se montrer envahissant, cette hyper-connectivité la rend omniprésente.

Tout ce matériel communiquant recueille d’énorme quantité d’informations sur vous dans le but de déterminer ce que l’on a le plus de chance d’arriver à vous vendre, et de vous renvoyer, partout ou vous pouvez être, et quoique vous fassiez, ces innombrables publicités.

Cette formidable capacité que nous avons entre les mains de pouvoir traiter de l’information et la communiquer est majoritairement utilisé contre leur utilisateur pour les rendre dépendants des constructeurs et distributeurs, et pour multiplier les espaces publicitaires.

Illustration

Un exemple d’illustration (Mais ils sont nombreux) : Le livre (électronique et connecté) par Amazon.

Dans l’absolu le livre électronique peut être une très bonne chose : On supprime tout les coût et les problèmes d’impressions (gestion de stock, nombre d’exemplaire limité, délais de livraison, …), on peut à moindre coût en faire une nouvelle édition corrigée, on a un document qui ne s’abîme pas, on peu facilement le dupliquer, et en transporter (même d’importantes quantités) prend physiquement un poids et une place individuelle négligeable.

La peur des chaînes de distributions de perdre le contrôle à mener à la création de la Gestion des Droit Numérique (DRM), préfèrent utiliser la technologie pour restreindre les possibilités des utilisateurs que de leur accorder leur confiance. Mais ce n’est pas le sujet (par ailleurs intéressant) de ce billet.

Le livre par Amazon a (au moins) deux caractéristiques intéressantes :

On peut déjà citer une affaire, célèbre à son époque, ou Amazon à prouver qu’ils contrôlés ces appareils au point de pouvoir en effacer certains documents de la mémoire (Ici deux livres de George Orwell).

La seconde caractéristique sont que, en l’échange d’une réduction possible de 10€ à l’achat de l’appareil, on bénéficie d’offres spéciales (l’option étant activable gratuitement pour ceux qui aurais pris l’appareil sans cette capacité). Concrètement, quand vous ne lisez pas, la couverture de votre livre affiche de la publicité pour les produits de son constructeur.

C’est beau la technologie.

Des solutions ?

Se couper de toute cette technologie permet d’échapper à ces désagréments, mais nous prive aussi de tout son potentiel. Et je sais qu’aujourd’hui certains s’y résignent simplement (dans une certaine mesure tout du moins), car c’est finalement la solution la plus simple, et celle qui demande le moins de connaissance techniques.

J’essaye pour ma part de naviguer au mieux dans ce monde.
Ma maîtrise, meilleur que la moyenne, de l’outil informatique me permet en même temps de profiter de cette technologie et d’esquiver une part de ces pertes de contrôles et de ce matraquage publicitaire.

Je milite, à mon niveau, contre ce fonctionnement nocif à notre monde moderne. Préférant notamment payer d’argent plutôt que de vie privée certains de mes services numériques.

Évoquant parfois, au détour d’une réflexion, mon échappée (tout du moins partielle) de cette folie mondiale …

Dictée numérique

Voici quelques semaines j’ai eu l’idée, peut être étrange, d’utiliser un enregistreur numérique. J’en avais utilisé un, avec plus ou moins de succès, il y a 5 ans de cela.

Mais, malgré plusieurs jours de recherches intensives, je devais reconnaître que ma méthode de rangement tout à fait approximative avais eu raison de ce petit appareil : il demeurait introuvable.

Me restait alors deux solutions, retourner une 3éme fois mon appartement, une 7éme mon bureau et une 2éme ma voiture, ou trouver une alternative.

La méthode économique – Le téléphone à tout faire

J’avais entre les mains un couteau suisse multimédia et numérique, un appareil à tout faire : Mon téléphone. Celui-ci incluait bien-sûr une application sobrement intitulée «Dictaphone» ! Pas de dépenses supplémentaires, pas de place supplémentaire à prendre dans mon sac déjà chargé, même pas une application à charger, voici qui se présentait comme une solution de référence pleine d’avantage.

Essai N°1

Je faisais un premier essais de dictée numérique sur un petit paragraphe associatif, profitant par la même d’un mode «sans fil» assisté d’une oreillette. Super ! … enfin presque. La qualité sonore, à l’origine considérée comme tout à fait acceptable c’est révélée beaucoup plus problématique au moment de déléguer la transcription. Je dois même avouer ne pas avoir réussi à retrouver avec exactitude ce que j’avais pu réellement dire sur certains passages.

Mon idée «Main libre» étant visiblement en cause, je m’en remets au microphone interne de l’appareil qui m’évitera certain désagrément. Le résultat est immédiat, la qualité est en hausse, et je deviens de suite plus audible et compréhensible. Gagné !

Essai N°2

Premier essai concluant, je décide d’enregistrer une révision d’une de mes présentations à venir. Ceci me permettant de tester ma fluidité et ma diction, et de faire un test sur plus de quelques lignes.

Je me concentre, prend un peu de temps, Bouton rouge, je me lance. C’est alors que j’ai découvert qu’un enregistrement dans l’application, pourtant native, n’empêche pas la mise en veille de l’appareil. Non pas qu’il ne continue pas l’enregistrement, mais qu’il faut réveiller l’appareil, le déverrouiller et retrouver le bouton d’enregistrement (qui n’est pas toujours au même endroit) dans l’interface.

Il n’y a pas de droit à l’erreur, ou alors c’est un passage par la case «montage» obligatoire. Pas de déclenchement à la reconnaissance de la voix, et perte de l’accès au bouton «pause» de l’enregistrement (qu’il faut déjà garder à l’œil, écran tactile oblige) après quelques secondes.

Ordinateur de poche

Mais cette petite machine est un ordinateur, et même si il a tout le mal possible pour enregistrer correctement, il compense avec une capacité de traitement des enregistrements accrue (dont l’envoie par E-Mail). L’application d’enregistrement incluant une option de montage pour rattraper les ratés ergonomiques et de manipulation de l’appareil.

Et c’est finalement après 10 minutes d’utilisation de ces curseurs … que l’on se demande si l’application as été testé plus de 2H par son concepteur. L’aspect est très propre, très joli, mais absolument inutilisable.

Nouveau compagnon de route

Confirmant que les smartphones, à vouloir tout faire, sont loin de tout bien faire, je décide d’investir dans un matériel plus spécialisé mais ho combien plus adapté. La recherche d’un appareil s’étant montré étonnamment délicate.

Un dictaphone, oui mais le quel ?

Si les dictaphones sont encore largement utilisés, et semblent avoir correctement pris le chemin du 21éme siècle (c’est presque trop rare pour le préciser), les test et autres informations sur le sujet, mis à part quelques publicités orientée (et encore) semble assez difficile à trouver.

Trois constructeurs se partagent aujourd’hui la grosse part du marché : Sony, Phillips et Olympus. Couvrant tout trois l’ensemble des gammes du marché, à l’exception peu être des enregistreurs «espions» qui, notamment, sous forme de clef USB sont des enregistreurs qui n’en ont pas l’aspect.

L’appareil se choisis suivant l’usage qui en sera fait. Effectivement, si leur but à tous est l’enregistrement du son, ils vont être matériellement optimisé pour l’un ou l’autre des usages : Dictée / Conférence ou réunion / Interview / Musique … moi qui croyais qu’un enregistreur était simplement un enregistreur, je découvre le riche monde de la captation sonore.

Ces appareils offrent des micros de gamme supérieur au «tout venant» que l’on voit dans ordinateur / micro-casque bas de gamme / smartphones, et dont le placement semble optimisé suivant l’usage. 2, 4 ou 8 Go de mémoire de stockage semble être le standard, avec parfois la possibilité d’ajouter un micro SD. La partie logicielle offrant différentes optimisations et filtrage du son afin d’en garantir la qualité. Le format d’enregistrement roi est le MP3, même si on ne trouve pas forcément que lui. Le tout se connectant comme une clef USB sur un ordinateur pour récupérer les enregistrements.

Au niveau fonctionnel on semble miser sur une efficacité reconnue plutôt que surfer sur la vague de la mode. De bon vieux boutons que l’on peut bien sentir sous les doigts et qui permettent facilement de piloter l’appareil sans le voir, un écran, souvent en noir et blanc, qui affiche les informations utiles sans chercher à en faire plus, et une alimentation encore souvent par piles, même si les batteries semblent se populariser.

Phillips DVT2500

Mon dévolu c’est porté vers un petit Phillips qui après recherche correspond bien à mon usage informatiquement parlant.

  • Il est dans mon budget
  • La compatibilité «Linux» est clairement affiché par le constructeur
  • Chose qui semble rare, il peut enregistrer en WAV (ce qui peu me permettre de compresser sereinement dans un autre format que le MP3)

Reste à voir si ce matériel sera un bon compagnon de route.

10 000 Pas par jours

C’est une valeur que l’on entend assez régulièrement quand l’on parle de santé : Il faudrait marcher 10 000 pas par jours pour se maintenir en bonne santé.

Le chiffre est beau, tout rond, facile à retenir, et en plus il serait (Mais à quel point cela est il vrai ?) donné par l’Organisme Mondial de la Santé (OMS).

Quand on y regarde de plus près, cela semble surtout une valeur assez arbitraire représentative d’une activité quotidienne soutenue, qui est le parfait argument marketing pour nous faire bouger, et nous vendre des podomètres.

D’autant plus que d’un podomètre à l’autre, les mesures vont varier dans des proportions assez large. Et donc que deux appareils placés sur le même utilisateur ne donneront pas la même valeur suivant que l’appareil est optimiste ou non.

Cette valeur est-elle pour autant à jeter ?

Elle est à prendre comme un ordre de grandeur d’une vie active, qui elle agit bénéfiquement sur la santé.

  • Sous les 5000 pas on est sédentaire et on ne bouge clairement pas assez.
  • Entre 5000 et 7500 on bouge peu, et faire un peu plus d’exercice est une bonne idée.
  • Entre 7500 et 10 000 on est actif.
  • Entre 10 000 et 12 500 on rentre dans le très actif

Le but n’est pas d’être absolument aux 10 000 pas quotidiens qui est déjà un objectif ambitieux pour beaucoup, mais de au moins avoir une idée de notre activité quotidienne et de s’inciter à bouger au moins un peu plus.

Et pour les très sédentaires comme moi qui ont déjà du mal à faire 3000 pas journaliers, à se faire un petit programme modifiant progressivement votre rythme de vie pour au moins dépasser les 5000 (Oui j’essaye de me motiver moi même en écrivant ces lignes).

1101011 1101111

Les ordinateurs sont des machines électroniques, et le principe fondamental de leurs fonctionnements est le courant électrique présent (1) ou absent (0) de leurs différents composants élémentaires.

Ce fonctionnement à deux états, ou binaire, d’un ordinateur lui donne une affinité particulière pour les puissances de 2, qui sont pour la machine des chiffres «rond».
(2 4 8 16 32 64 128 256 512 1024 2048 4096 8192 …)

Il est cependant rare, car cela ne reviendrait à compter que jusque 1, de faire un traitement avec un seul de ces éléments binaires (un Bit).
La convention étant de les regrouper par paquets de 8 pour constituer l’octet. 8 Bits = 1 Octet
Un octet pouvant contenir 2⁸ = 256 valeurs (de 0 jusque 255) différentes. Suffisamment pour faire des traitements intéressants.

Et si les traitements sont plus complexes ?
On multiplie les octets (par une puissance de 2) pour faire des «mots» de plusieurs octets.
Pour faire le parallèle avec mon article précédent, les CPU modernes traitent des mots de 2³ = 8 Octets = 32 Bits ou 2⁴ = 8 Octets = 64 Bits.

Une mémoire d’éléphant

Si quelques octets sont une valeur commode pour faire du traitement, cela devient vite étriqué quand il est nécessaire de faire du stockage, même de faible quantité.
Comme pour toutes unités modestes on utilise des multiples.

Mais si 1 km = 1000 m, 1 kg = 1000 g, 1 kw = 1000 w … cela est un peu moins simple dans le domaine de l’informatique.
Si l’on suit la logique humaine 1 ko = 1000 Octets, mais si on l’adapte à la logique informatique l’égalité 1 ko = 1024 Octets s’éloigne peu de la logique humaine, tout en étant bien plus facile à gérer par les ordinateurs.

On en arrive donc dans les années 80 à utiliser une logique informatique pour la multiplication des Octets.
1 ko = 1 024 Octet
1 mo = 1 024 ko = 1 048 576 Octets
1 go = 1 024 mo = 1 028 576 ko = 1 073 741 824 Octet

Le marché de l’octet

La logique informatique (Binaire) donne donc des «ko» plus gros que la logique Humaine (Décimale).
Mais il est commercialement plus rentable de vendre des «ko» plus petits, car cela permet d’en vendre plus : 7 % de plus par Gigaoctet (go) et 9 % par Téraoctet (to).

Les deux formats coexistant alors, avec des valeurs finalement différentes, avec des Kilos humains (1 ko = 1000 Octets) et des Kilos informatiques (1 ko = 1024 Octets).

Un nouveau système de notation a été définis, gardant les «ko», «mo», «go», «to» pour la notation humaine, et créant les «kio», «mio», «gio», «tio» pour la notation informatique. Ceci permettant une vraie distinction entre les deux valeurs, et évitant de bouleverser la notation commerciale.

Cette nouvelle notation, pour les kilos informatiques, n’est réellement utilisée que de façon exceptionnelle.

32 ou 64 Bits ?

Petit article technique sur une évidence finalement pas si claire.

CPU

Parmi les multiples unités de calcul que contient un ordinateur l’unité de calcul centrale, ou en anglais «Central Processor Unit», d’où l’abréviation CPU, est l’un des plus importants, et souvent celui pris en référence.

Ces unités font des opérations sur des «mots» de données : des suites de 1 et 0 d’une taille dépendants de la génération de l’unité de calcul.

Une unité de calcul pouvant gérer des mots d’une longueur de 32 unités (1 ou 0, des bits) est dite «32 bits».

C’est la différence fondamentale entre les «16 Bits», les «32 Bits» et les «64 Bits» : La taille des mots que l’unité est capable de traiter.

Attention : Un CPU 64 Bits, même s’il gagne en performance, n’en devient pas deux fois plus puissant que son équivalent 32 Bits

32 Bits : La référence … historique

Dans la plupart des cas, la question ne se pose simplement pas pour l’utilisateur même éclairé, sauf dans le cas des CPU de la famille des x86 qui équipent ce que l’on appelle communément les PC, ce qui inclut les machines Apple Mac depuis 2006, et bien d’autres choses.

Après un bref début sur des CPU (8086, 8088, 80286) en 16 Bits, les PC ont adopté (avec les 80386) une conception en 32 Bits dès 1986, et que l’on retrouve encore aujourd’hui.

Et si les premiers systèmes MS-DOS fonctionnaient en 16 Bits, les premières versions populaires de Windows (Windows 3) nécessitaient un processeur 32 Bits.

Rétrocompatibilité

Depuis le début des années 2000, on commence à voir apparaître des x86 en 64 Bits : x86_64, qui en plus d’augmenter la capacité de traitement du processeur en profitent pour revoir en profondeur les principes de conception et faire tomber certaines limitations historiques (Voyez Wikipédia pour plus de détails).

Pour éviter de laisser de côté tout le travail historique, les architectures x86 sont «Rétrocompatibles» :

  • Un système 16 Bits peut fonctionner sur un CPU 16 Bits, 32 Bits ou 64 Bits
  • Un système 32 Bits peut fonctionner sur un CPU 32 Bits ou 64 Bits
  • Un système 64 Bits ne peut fonctionner que sur un CPU 64 Bits

Cela signifie qu’il y a encore peu (avant la généralisation de l’UEFI, mais cette partie nécessiterait un article complet) on pouvait faire fonctionner un vieux DOS des années 80 sur une machine de 2014. Avec toutes les limitations qu’apporterait un si vieux système sur un matériel aussi récent.

Prudence, Prudence

Dans cette période de transition technologique, et dans l’incertitude du CPU auquel nous avions alors à faire, quelques constatations se furent rapidement :

  • Un système 32 Bits fonctionnait sur la majorité des ordinateurs (le 16 bits n’étant que historique).
  • Le gain du 64 Bits était peu visible, avec la réputation de n’être nécessaire que pour des «usages spécifiques».
  • L’acteur majeur qu’est Microsoft, avec son Windows ne s’est mis que tardivement au 64 Bits
    • La version 64 Bits de Windows XP n’avait une distribution que très restreinte.
    • Les constructeurs ont mis longtemps avant de créer des pilotes pour les Windows 64 Bits, d’où une mauvaise gestion du matériel dans les années 2000.
    • Les premières versions des Windows 64 Bits cassaient la compatibilité avec les applications 16 Bits encore utilisées par certaines entreprises.

La seule véritable limitation visible par l’utilisateur est que sans l’utilisation d’une extension PAE, testé un temps sur certaines versions de Windows XP, mais aujourd’hui complètement abandonnées par Microsoft : Le CPU ne sait pas gérer plus de 4 Go de mémoire RAM, valeur alors énorme à l’époque (et même encore souvent considéré comme acceptable il y a peu).

Un système Windows 32 Bits n’arrivera, Quelle que soit la quantité de mémoire installée et le CPU de la machine, qu’a géré un maximum de 3,25 Go de RAM.

Installer du 32 Bits était donc l’assurance de ne pas avoir de problème, le 64 Bit n’étant à envisager que sur des besoins spécifiques. Après 15 ans d’existence des CPU 64 Bits, cette règle s’applique toujours.

Les autres systèmes

Même si le système de Microsoft est le plus présent sur le marché, il est loin d’être le seul à fonctionner sur des CPU x86

Apple MacOS

Depuis 2006 les ordinateurs Apple utilisent  des CPU x86, mais le nombre de machine limitée et la forte maîtrise que la société a sur son matériel est ici une chance. La société a pu gérer la transition de bout en bout.

Aujourd’hui tous les ordinateurs Apple et les systèmes Mac OS actuellement encore supporté sont en 64 Bits

Gnu/Linux

Le monde du logiciel libre est plutôt réactif sur ce type de nouveautés. On a trouvé très vite des systèmes complètement en 64 Bits et les systèmes 32 Bits ont très vite géré le PAE qui permet la gestion de plus de 4 Go de mémoire RAM.

Seuls les modules non libres, tel que les pilotes graphiques, ou des modules tels que Flash ont historiquement posé des difficultés.

Aujourd’hui ?

Mis à part le cas particulier d’une machine historique qui aurait un CPU 32 Bits seulement, il n’y a plus aucune raison d’utiliser un système 32 Bits.

Les Windows Vista, Seven, 8 et 10 existent en 64 Bits, les pilotes matériels y sont maintenant adaptés et de nombreuses applications également. Ces versions sont même nécessaires pour gérer plus de 4 Go de mémoire RAM, qui sont aujourd’hui une quantité minimum pour de nombreuses applications.

Pour les systèmes Apple, la question ne se pose pas. Le tout étant géré par le constructeur et le choix n’étant finalement pas laissé à l’utilisateur (comme pour tous les autres type de CPU)

Les systèmes Gnu/Linux, et les autres grands systèmes libres gèrent depuis longtemps les systèmes en 64 Bits à 100 %.

l’UEFI

Le changement du système de démarrage des ordinateurs de type PC, abandonnant le BIOS des années 1980 pour le nouveau système UEFI, pourrait signer la fin de l’historique 32 Bits.

Effectivement, mis à part les premières machines Apple avec CPU x86, les ordinateurs avec un UEFI sont équipés d’un CPU 64 Bits, et les systèmes 32 Bits ne prennent simplement pas en charge le démarrage via un UEFI.

Mode Legacy – Retour au BIOS

Pendant longtemps, les nouveaux UEFI possédaient un mode de fonctionnement imitant le fonctionnement du BIOS pour laisser le temps de la transition. Et passer dans ce mode de compatibilité permet de continuer à utiliser les systèmes 32 Bits qui apportent ce confort historique.

Mais si ce mode a existé pendant plus de 10 ans, il tend aujourd’hui à disparaître pour laisser la place à l’unique nouvel UEFI … Rendant ces nouveaux systèmes incompatibles avec les systèmes 32 Bits.

Conclusions

Les systèmes 32 Bits sur x86 appartiennent aujourd’hui au passé récent, et même s’il mettra encore longtemps avant de disparaître complètement de notre paysage informatique, surtout à force d’habitude, il n’y a aujourd’hui plus de véritable raison de ne pas adopter le 64 Bits à 100%.

Mais les habitudes sont souvent difficiles à changer.

DRM et CDDA

La musique est un média culturel d’une popularité et d’une richesse extraordinaire, du plus populaire au plus intimiste, on trouve pour tous les goûts, au point de toucher presque tout le monde (on arrivera toujours à me trouver quelques exceptions). Ceci constituant un juteux marché … il y a peu bousculé par la révolution numérique.

Petit historique de la diffusion de la musique

Ce n’est qu’en 1860 qu’apparait l’enregistrement du son sur cylindre, puis sur disque (1890) puis vers 1950 le développement du disque «vinyle».

Le «Compact Disc» tel qu’on le connaît aujourd’hui (Apparu en 1982) marque la numérisation de la musique. L’avancée de l’informatique, avec l’augmentation des capacités de stockage, la popularisation des lecteurs, puis des graveurs, de CD rendant la copie personnelle de cette musique numérique de plus en plus facile.

La popularisation des accès internet permanents, et la popularisation du MP3 (datant de 1995) dans le début des années 2000, marquant le début de leur dématérialisation … et de leur distribution libre, … trop libre pour ceux la commercialisent.

Digital Right Management

Il apparaît alors un ensemble de technologie de «Gestion des droits numériques» (connus sous l’acronyme anglais DRM) consistant, plus ou moins subtilement, à vouloir contrôler l’utilisation qui peut être faite de ces œuvres.

Pour la musique, la première mesure est de modifier, de diverses façons, les Compact Disc pour empêcher leur copie ou leur encodage (transformation en MP3 ou autre) par l’utilisateur, et donc couper la source de musique.

CDDA

Philips, détenteur des droits sur l’appellation «Compact Disc Digital Audio» (CDDA) en refuse l’utilisation sur ces disques modifiés. Un Compact Disc Digital Audio n’est donc pas protégé contre la copie (et donc respecte vos droits d’utilisateurs).

Offre légale

Depuis, plusieurs lois ont été voté et la HADOPI a été créée avec pour objectif d’enrayer le partage illégal et de promouvoir une «offre légale» suite au marché réellement existant de cette musique dématérialisée.

L’usager en est finalement assez perdant.

Restriction d’utilisation

Le but étant de limiter une diffusion trop massive, et hors rémunération, de cette musique, la souplesse d’utilisation en est assez largement restreinte par l’utilisation de ces DRM.

Un appareil compatible avec le système de DRM du vendeur est indispensable (Il existe plusieurs systèmes de DRM), ce qui exclue des appareils souvent fonctionnels, mais trop vieux, trop simple ou n’étant simplement pas du bon constructeur.

Le nombre d’appareils de lecture, voir même le nombre de lecture (ou fait alors de la location dématérialise de musique) peu être limité. L’éditeur gardant la capacité de révoquer une autorisation préalablement allouée.

On loue un droit limité de lecture de la musique.

Aujourd’hui, suite aux à l’excès de ces restrictions, certains distributeurs reviennent sur cette systématisation des DRM et distribuent maintenant plus volontiers des fichiers sans DRM.

La qualité sonore

Le disque audio classique (CDDA 12 Cm) contient un maximum de 74 Minutes pour 650 Mo de son. Et même si un album prend rarement l’intégralité de la place disponible sur le disque, sa taille n’en reste pas moins de plusieurs centaines de Mo pour un album, qu’il faut multiplier par le nombre d’album que contient une collection. Si cela représente une quantité très importante pour les années 2000, elle reste loin d’être négligeable aujourd’hui.

Il est nécessaire de réduire cette taille et donc diminuer la place nécessaire pour le stockage et réduire le temps nécessaire pour le transfert. La solution étant de faire de la «Compression» : appliquer un ensemble d’opération mathématique et (dans la plupart des cas) altérer la qualité sonore pour réduire fortement la taille.

Plus la qualité étant altéré, plus la taille du fichier étant contenue.

La musique numérique est donc bien souvent de moins bonne qualité que la musique d’un CD-Audio.

Le manque de qualité sonore de nombreux appareils et le manque d’expérience et d’attention des usagers (voir, l’habitude à ce manque de qualité) fait que cette caractéristique passe souvent inaperçue.

Ma solution

Philosophiquement allergique aux DRM, soucieux d’une certaine qualité et adepte dû la souplesse de la dématérialisation, j’ai aujourd’hui ma propre méthode :

Acheter des CD à bas prix, entre 5 et 7 €, et ré-encoder (les systèmes anti-copie des CD audio étant globalement assez inefficaces) en FLAC, un format de compression qui préserve la qualité audio.

Pourquoi cet article ?

Car le sujet est intéressant 😉

Au moment de l’encodage des quelques CD acquis il y a peu de temps, alors que seuls de vieux CD affichaient le logo «Compact Disc Digital Audio» attestant de l’absence de DRM, deux albums récent, de Skip the use et Stromae, affichaient cette indication.

Deux œuvres récentes qui décident de me respecter ? C’est assez rare pour faire un joli article.

Cartographie Analytique

Même si je n’en ai jamais vraiment parlé ici, une bonne partie de mes activités professionnelles tournent aujourd’hui autour des logiciels libres, et plus particulièrement dans le domaine de la «cartographie analytique».

 

Pourquoi en parler ici ?

Tout d’abord car c’est un projet dans lequel j’ai donné beaucoup d’énergie, que j’ai beaucoup fait évoluer et qui m’a permis de beaucoup évoluer moi-même.

Mais c’est aussi un projet qui illustre pour moi très bien l’utilisation concrète que peut avoir le Logiciel Libre dans le milieu de l’entreprise. Que cela soit dans l’optique Open Source des composants utilisés, ou dans la philosophie d’ouverture propre au Logiciel Libre qui font l’essence même de ce projet, et qui est aujourd’hui une composante importante de son succès.

Et si je ne fais ici qu’effleurer la surface de ce qui est mon univers depuis plusieurs années maintenant, c’est pour débuter une série d’articles sur cette expérience très concrète qui est aujourd’hui la mienne : L’utilisation du Logiciel Libre industriellement dans une grande entreprise qui n’y est pas spécialement prédisposée.

Continuer la lecture

Choisir sa première distribution Linux

Comment choisir une distribution Linux ?

Pour les utilisateurs expérimentés la question ne se pose généralement pas. Ils ont leurs habitudes et quand ils en changent ils savent généralement pourquoi, et savent précisément quoi regarder pour choisir un candidat adapté à la situation.

Mais les quelque 250 distributions que référence distrowatch a largement de quoi perdre les nouveaux venus.

Trop de choix tue le choix

Les environnements Windows et Mac OS offrent finalement peu de choix à l’utilisateur.

Microsoft propose aujourd’hui trois systèmes (Windows 7, 8 et 10) qui proposent des expériences utilisateurs un peu différentes, le tout disponible en plusieurs variantes suivant le niveau d’option souhaité. Apple présentant une unique alternative à la quelle on adhère … ou non. Même si on gagne quelques options de configuration depuis la disparition du gourou monomaniaque de la pomme.

Alors quand on a plusieurs centaines de systèmes, possédant eux-mêmes plusieurs dizaines d’environnements de bureaux … ça fait beaucoup.

Deux cas typiques des débutant se démarquent alors :

  • Essayer de tester de nombreuses distributions, mais sans jamais vraiment en explorer une et apprendre à correctement l’utiliser
  • Essayer une petite distribution marante / prométeuse / spécialisé / révolutionnaire, qui aura une faible communauté et un support limité et parfois incertains

Restez simple

Prenez une grande distribution connue (Ubuntu, Mint, Debian, Open SUSE ou Fedora), qui fonctionne correctement sur votre matériel, et restez y le temps de découvrir

Toutes ces distributions ont énormément de point commun, et ce que vous apprendrez sur l’une d’elle sera appliquable sur une autre si, à l’usage, votre premier choix ne vous convenais pas.

Si quelqu’un vous aide dans votre découverte de ce monde particulier de l’informatique, essayez d’utiliser la même version que lui, ou en priorité la version qu’il vous conseillera.