Comment migrer de Windows XP vers Ubuntu

Si vous avez besoin de migrer de Windows XP vers Linux, Ubuntu est le meilleur choix, car il permet de faire la transition tout en douceur. Certains considèrent la mise à jour ou l’installation d’un nouveau système comme une corvée et un cauchemar, car de nombreux problèmes peuvent se produire. Par ailleurs, les entreprises regardent également sur le coût du processus, mais Ubuntu et ses principales applications sont totalement gratuites. Dans ce guide, on vous propose les principales étapes de la migration, mais également des applications qui sont équivalentes à celles que vous aviez sur Windows XP.

Préparation pour la migration de XP vers Ubuntu

 

migrer-windows-xp-ubuntu_1

Avant que vous ne passiez à Ubuntu, vous devez déterminer si ce système convient à vos besoins quotidiens. Regardez les applications que vous utilisez tous les jours et vérifiez s’ils sont disponibles sous Linux. En général, on peut quasiment tout faire sur Linux même si l’approche peut être différente. Mais dans certains cas, on ne pourra pas se passer de Windows.

Si vous pensez qu’Ubuntu vous convient, la meilleure solution est de faire un Dual Boot afin de garder Windows XP. On ne recommande pas d’utiliser Windows XP tous les jours, mais cela vous permet d’accéder à tous vos répertoires sous Windows à partir d’Ubuntu. Ainsi, vous aurez une roue de secours et vous pourrez repasser temporairement sous Windows si cela coince avec Ubuntu.

Etant donné que vous devrez installer Ubuntu et Windows XP sur le même disque dur, je conseille de faire un peu de nettoyage avec l’outil de nettoyage intégré dans Windows XP. Vous pouvez également utiliser WinDirStat pour déterminer les fichiers qui bouffent votre espace disque. Cela dépend pour chacun, mais un espace disque minimal de 10 Go est nécessaire pour être à l’aise avec Ubuntu. Si vous pensez que le disque est vraiment plein, alors il faut envisager de se débarrasser de Windows XP pendant l’installation d’Ubuntu et de sauvegarder tous vos fichiers sur un média externe.

Choisir et télécharger une version d’Ubuntu

 

Ubuntu est disponible en plusieurs versions et on peut les télécharger depuis le site officiel. La dernière en date est Ubuntu 14.04 LTS, nom de code Trusty Tahr. Le LTS signifie Long Term Support signifiant qu’on bénéficiera de mises à jour et de correctifs au moins pendant 5 ans. Plus précisément, vous pourrez utiliser Ubuntu 14.04 LTS jusqu’en avril 2019 (vous avez de quoi voir venir hein ?).

Le téléchargement par défaut concerne la version en 64 bits, mais on conseille de prendre Ubuntu en 32 bits à moins que vous ayez plus de 4 Go de RAM. Ubuntu 32 Bits peut gérer uniquement 3 Go de RAM, mais l’avantage est que la plupart des applications sont disponibles en 32 bits contrairement à leurs homologues en 64 bits. Et si votre PC est vraiment ancien, alors votre processeur ne supportera pas le 64 bits.

Cliquez sur le lien de téléchargement et Ubuntu vous demandera de faire une donation. Cliquer sur Non et le téléchargement du fichier ISO va débuter. Dépendant de votre connexion, il faudra attendre plusieurs heures. Si vous n’avez pas de connexion illimitée, sachez qu’il existe des vendeurs qui proposent des CD ou DVD d’Ubuntu. Cela coutera entre 5 et 10 dollars.

Une fois que vous avez téléchargé l’ISO d’Ubuntu, vous devez le graver sur un DVD (Un CD ne suffira pas). Si vous n’avez pas de lecteur DVD, vous pouvez utiliser un outil tel le LinuxLive USB Creator pour le graver sur une clé USB et la rendre amorçable. Ensuite, vous branchez votre clé USB et vous redémarrez l’ordinateur. Vous aurez besoin d’aller dans le BIOS pour changer l’ordre de démarrage en mettant l’USB en premier. Les menus et les noms des options peuvent changer selon les cartes mères, mais elles sont faciles à reconnaitre.

Tester ou installer directement Ubuntu

 

Le fichier ISO que vous avez téléchargé est un Live ISO signifiant que vous pouvez démarrer Ubuntu sans avoir à l’installer. Cela permet de tester Ubuntu et déterminer s’il vous convient. Vous pouvez tout faire avec ce test tel que se connecter à internet, créer et supprimer des fichiers, lire de la musique. Une fois que vous êtes certain que vous ne serez pas totalement dépaysé, vous pouvez lancer l’installation.

De même, on recommande toujours de mettre Ubuntu sur la clé USB, car le test et le système seront plus rapides que sur un lecteur DVD. Le Live va vous amener sur l’environnement d’Ubuntu et vous pouvez lancer l’installation en cliquant sur le lien Installer Ubuntu sur le bureau.

migrer-windows-xp-ubuntu_2

Cette installation vous demande si elle doit télécharger des mises à jour éventuelles et cela permet d’avoir les pilotes les plus récents pour les périphériques. C’est également une bonne idée d’installer des logiciels de tierce partie qui concerne le plugin Fluendo MP3 qui permet d’écouter des fichiers MP3. Etant donné que c’est un format propriétaire, il n’est pas activé par défaut.

L’installeur d’Ubuntu vous permet de faire directement du Dual Boot. Il vous proposera les options Installer avec Windows ou Remplacer Windows par Ubuntu. Cette dernière option implique qu’Ubuntu va supprimer tous les fichiers relatifs à Windows, donc, faites des sauvegardes au préalable. De même, l’installeur vous permettra de déterminer l’espace que vous voulez allouer aux 2 systèmes. Il n’est pas nécessaire de mettre beaucoup pour Windows XP puisqu’on le garde uniquement comme une roue de secours.

L’opération de redimensionnement du disque dur dépend de l’espace disponible et de la fragmentation de votre disque dur. Ensuite, on vous demande les informations d’administration incluant le fuseau horaire, le type de clavier, le nom d’utilisateur, le mot de passe, etc. Si vous ne partagez pas votre PC, vous pouvez activer l’option Se connecter Automatiquement, car ainsi, vous n’aurez plus besoin de fournir un mot de passe à chaque démarrage d’Ubuntu. Et vous n’avez pas non plus besoin de crypter vos dossiers.

Et c’est tout ! L’installeur fera le reste et vous devez juste patienter. A la fin, il vous dira de redémarrer le PC, d’enlever le média d’installation et vous pourrez jouer avec votre nouveau Ubuntu.

Retrouver votre chemin dans Ubuntu

 

Ubuntu est un système très intuitif, mais il y a quelques différences par rapport à Windows XP. En premier lieu, il n’y a pas de menu Démarrer, mais vous pouvez lancer des applications en cliquant sur les icônes sur le lanceur situé sur la gauche de l’écran. Vous pouvez également chercher le nom des applications en ouvrant le Dash. Pour ce faire, cliquez sur le logo Ubuntu sur la partie supérieur du Lanceur ou appuyez sur la touche Windows et saisissez le nom de l’application. Il y également une icône sur le coté supérieur droit où vous pouvez trouver les réglages du système et les options de redémarrage et d’extinction.

migrer-windows-xp-ubuntu_3

Dans Linux, tous vos fichiers et dossiers se trouvent dans un répertoire nommé Home. Vous pouvez l’ouvrir en lançant le visionneur de fichiers (le second lanceur à partir du dessus). Vous trouverez des dossiers pour la musique, les documents, etc. Vous trouverez également un dossier Desktop ou Bureau pour un accès rapide vers vos fichiers depuis le bureau. Il y a également un dossier Public ou vous pouvez mettre des fichiers que vous voulez partager avec les autres. Par exemple, si vous créez plusieurs comptes pour les membres de la famille, alors ces derniers pourront voir les fichiers qui se trouvent dans ce dossier Public, mais ils ne verront pas le contenu de votre répertoire Home.

Ubuntu est fourni avec de nombreuses applications pré-installées et en fait, le choix est bien plus vaste que sous Windows. Le centre de logiciels d’Ubuntu est comme un App Store sur votre bureau. Vous pouvez trouver et installer les programmes en quelques clics. Et étant donné que c’est Linux, la plupart de ces applications sont gratuites.

A ce point, vous avez un Ubuntu fonctionnel et on vous propose les applications que vous pouvez utiliser sur Ubuntu selon vos besoins.

La navigation web dans Ubuntu

 

Désolé pour les fans, mais il n’y a pas d’Internet Explorer sous Ubuntu. Mais Firefox et les autres sont tous disponibles. Concernant Opera, vous ne pouvez pas le trouver dans le centre de logiciels, mais vous pouvez le télécharger directement depuis le site d’Opera. Ce site détectera automatiquement votre système et il vous proposera la version appropriée.

Si vous préférez Chrome, Chromium est la version Open Source du navigateur de Google. Il fonctionne de la même manière et il peut synchroniser vos favoris, vos réglages, etc. Toutefois, vous n’aurez pas les fonctionnalités propriétaires de Chrome telles que le Flash et le support du H.264. Mais Chrome est également disponible pour Linux et choisissez la version 32 bits.deb, car cela concerne Ubuntu et Debian.

Le mail dans Ubuntu

migrer-windows-xp-ubuntu_4

 

Ubuntu est fourni avec Mozilla Thunderbird et il fonctionne avec tous les fournisseurs et les webmails. Si vous cherchez un client mail avec un agenda intégré, vous pouvez télécharger Evolution Mail et Calendar qui sont disponibles depuis le centre de logiciels.

Le chat et la voix sur IP dans Ubuntu

 

Vous pouvez penser que Skype appartenant à Microsoft, vous ne le trouverez pas pour Linux et bien, vous avez tort, Microsoft propose un Skype pour Ubuntu sur son site.

De même, vous pouvez utiliser l’outil de messagerie Empathy qui supporte de nombreux services tels que Google Talk, Facebook, AIM, Yahoo, etc. Vous pouvez vous connecter à tous les services en même temps et cela permet de centraliser les notifications avec un seul logiciel.

Le stockage en ligne dans Ubuntu

 

Dropbox propose un client natif pour Ubuntu et vous pouvez l’installer depuis le centre de logiciels. Si vous préférez l’OneDrive de Microsoft, vous devez passer par le service Storage Made Easy qui propose un client pour Ubuntu et il supporte la synchronisation avec SkyDrive. L’Apple iCloud, Box et Google Drive sont également disponibles pour Ubuntu.

Les applications bureautiques dans Ubuntu

 

Ubuntu est disponible avec LibreOffice qui vous permet de modifier des documents Word, Excel et Powerpoint. Vous pouvez également créer des documents qui seront compatibles avec Office. Beaucoup ont abandonnés Microsoft Office au profit de LibreOffice.

Notez que le formatage peut varier si vous ouvrez un document Word sous LibreOffice, mais il sera parfaitement lisible. Mais LibreOffice peine sur son traitement de texte, notamment pour les tableaux, les bordures des pages et les filigranes. Le site de LibreOffice vous permet de comparer les différences avec Microsoft Office.

Enfin, on prévient que LibreOffice ne propose pas d’équivalent à Microsoft Publisher. Le centre de logiciels propose Scribus DTP, mais il a du mal à travailler avec d’autres formats de fichier. Donc, si vous avez une archive au format PUB, on ne garantit pas que vous pourrez l’ouvrir et la modifier sous Ubuntu.

Le développement web sur Ubuntu

 

migrer-windows-xp-ubuntu_5

 

Même si Ubuntu ne propose pas des mastodontes tels que Dreamweaver ou Muse, il propose l’excellent BlueFish qui supporte la plupart des langages. Vous pouvez également utiliser SeaMonkey Composer ou KompoZer, mais on a besoin de les compiler pour les installer.

La musique sur Ubuntu

 

migrer-windows-xp-ubuntu_6

Rhythmbox est le lecteur de musique intégré d’Ubuntu et il vous permet de gérer vos musiques et vos podcasts. Il supporte les formats MP3, OGG, FLAC et M4A. Il peut lire et ripper des CD et il supporte des dizaines de radio en ligne incluant Last.fm et Libre.fm. Mais il est difficile de migrer ses Playlists iTunes ou Windows Media.

Apple ne propose pas d’iTunes pour Ubuntu et donc, il est impossible de synchroniser avec un iPod ou un iPhone. Mais vous pouvez utiliser Google Play Music qui propose un client natif pour Ubuntu.

La vidéo sur Ubuntu

 

L’application vidéo d’Ubuntu est Totem et il supporte la plupart des formats. Mais évidemment, vous pouvez installer VLC qui est le meilleur des lecteurs multimédias sur le marché. VLC peut aussi lire des DVD, mais vous aurez besoin de composants propriétaires pour que cela marche.

L’édition de photo sur Ubuntu

 

migrer-windows-xp-ubuntu_7

Le gestionnaire de photo Shotwell peut importer et trier les images de n’importe quel APN ou téléphone. Vous pouvez mettre des tags et noter les photos. Et vous pouvez appliquer des effets basiques tels que l’exposition, la teinte, le recadrage ou la correction des yeux rouges.

Si vous cherchez un outil plus puissant, alors il y a GIMP que vous pouvez installer depuis le centre de logiciels. GIM est aussi puissant que Photoshop et sa prise est plus facile grâce à la refonte récente de l’interface. Certes, Photoshop est le meilleur, mais les logiciels d’Adobe se basent désormais sur un abonnement mensuel tandis que GIMP est totalement gratuit. De plus, le module UFRaw permet d’importer les images RAW dans GIMP.

L’édition de la vidéo sous Ubuntu

 

migrer-windows-xp-ubuntu_8

OpenShot est un éditeur vidéo non-linéaire pour Ubuntu. On peut le comparer à un Windows Movie Maker plutôt qu’à un Sony Vegas. OpenShot ne peut pas importer des vidéos des autres applications, car il supporte uniquement son propre format OSP. Si vous voulez quelque chose de balaise, vous pouvez utiliser Lightworks qui est payant avec une licence qui dépasse les 200 dollars.

La création de la musique sur Ubuntu

 

migrer-windows-xp-ubuntu_9

L’outil le plus avancé pour la musique sous Ubuntu et Ardour qui permet une modification non-destructive sur un nombre illimité de pistes audio et MIDI. Il n’est pas gratuit, mais il coute 1 dollar pour une licence sans mise à jour. On conseille de lire sa licence sur le site officiel.

Une autre option est Tracktion qui est actuellement disponible gratuitement en bêta 64 bits.

Les jeux sous Linux

 

Linux a été snobbé principalement par le manque de jeux, mais de nos jours, de nombreux éditeurs proposent des versions pour Linux à cause du catastrophique Windows 8. Steam propose de nombreux jeux sous Linux. De plus, SteamOS qui est prévu pour cette année permettra d’avoir de nombreux titres disponibles sous Ubuntu.

Comme on le voit, Ubuntu et Linux en général est un système complet, car il propose des outils pour la plupart des tâches. Certes, certaines catégories sont sous-représentées, mais la gratuité, la stabilité et la sécurité sont bien plus jouissives comparé à l’environnement verrouillé et vulnérable de Windows. Parfois, il suffit juste de franchir le pas pour comprendre que Linux n’est pas un monstre qui va vous dévorer tout cru.

 

La cyber-intimidation (cyberbullying), le fléau qui décime les jeunes

 

La cyberintimidation ou cyberbullying est le phénomène d’harcèlement chez les jeunes qui utilisent principalement les nouvelles technologies.

cyberbullying-cyber-intimidation

Des études commencent à paraître sur les dangers de cette pratique chez les jeunes sur le long terme. En premier lieu, la cyberintimidation est aussi dangereuse que l’intimidation face à face, car elle possède les mêmes comportements et cela peut empirer, car contrairement à un harcèlement normal, la cyberintimidation peut être pratiquée 24h24 et 7j/7. Par ailleurs, la cible va recevoir les menaces sur tous les canaux possibles allant du mail jusqu’aux réseaux sociaux en passant par les appels.

Les agresseurs privilégient la cyberintimidation grâce à l’anonymat qu’il procure, à la facilité de créer des faux comptes mails et sur les réseaux sociaux et au fait que les attaques peuvent être reprises par d’autres membres pour un impact global. Ainsi, des millions de personnes peuvent participer à la cyberintimidation en partageant le texte, image ou vidéo de la cible à cause du fantasme de l’impunité qui est en augmentation croissante chez les jeunes.

Facebook est le réseau le plus utilisé dans la cyberintimidation suivi de Twitter et des applications de messagerie. Les jeunes qui sont victimes de la cyber-intimidation risquent les troubles suivants :

  • Alcoolisme et drogue
  • Pratique fréquente de l’école buissonnière (pour échapper aux harceleurs qui sont souvent dans l’entourage)
  • Risque d’intimidation face à face
  • Baisse de la performance dans les études
  • Perte d’estime de soi
  • Risques considérables sur les problèmes de santé

Selon une étude en 2011, 16 % des étudiants américains ont déjà souffert de la cyberintimidation. La cible avouera rarement qu’elle est cyberintimidée et il est du devoir de son entourage de détecter les signes de malaise pour éviter une escalade qui peut aller jusqu’au suicide.

Il existe des sites tels que StopBullying qui permettent de s’informer sur ce phénomène, mais également de rapporter ce crime aux autorités compétentes.

 

 

Quand les médias et blogs font la propagande de Windows 8

 

J’ignore pour vous, mais j’ai l’impression qu’on se croirait revenu à la belle époque de Microsoft où il faisait sa propagande en détruisant Linux au passage.

Je n’ai jamais plus lu un seul magazine de PC lorsque j’avais vu dans l’un d’eux qui disait que Windows Millenium était plus sécurisé que Linux… Ce même journaliste tient actuellement une rubrique populaire sur 01.net, mais passons…

Tous les médias nous vantent les mérites de Windows 8.1 depuis la dernière mise à jour. Et certains n’y vont pas par 4 chemins et ce n’est pas juste de l’ignorance, mais de la pure propagande à grands coups d’articles sponsorisés.

L’un de ces articles (en anglais) nous donne les raisons pour lesquelles Windows 8 est plus sécurisé que Windows 7. Je vous passe les détails sur le torrent de boue, mais il y a en deux qui sont une telle merde qu’on a envie de faire fondre des DVD de Windows 8 et de les enfoncer dans la gorge de ces blogueurs à la manière de Game of Throne.

Le démarrage sécurisé permet d’éviter les bootkits sur votre ordinateur.

Je suis sorti de ma culotte à reculons quand j’ai lu ça.

Le Secure Boot décrit dans le site est évidemment la merde UEFI dont l’ambition est de bannir Linux sur les PC.

Alors écoutez-moi bien,bande de trous de cul. Cela fait des années que les auteurs de virus ne créent plus de bootkit pour la bonne raison qu’ils ne sont pas rentables. 97 % des Malwares dans le monde se concentrent sur le vol de données personnelles. Le seul objectif de l’UEFI est de faire en sorte que vous ne puissiez installer que des merdes Microsoft sur le PC. En fait, que vous achetiez un PC ou que vous l’assembliez, la première chose que vous devez faire est d’aller dans le BIOS, de trouver un truc appelé Quick Boot ou quelque chose de similaire et de le désactiver.

La seconde propagande dans cet article est de promouvoir les applications via le Windows Store. Attention, c’est du Collector.

Les Windows 8 Apps possède un contrôle limité dans le système, car elles sont comme des applications iOS ou Android. Cela vous permet d’être plus protégé contre les méchants virus.

Mais évidemment, l’inconvénient est qu’on ne peut trouver ces fichus applications QUE sur Windows Store. Cela permet à Microsoft de créer un écosystème totalement verrouillé et merdique à souhait.

Il nous dit aussi Windows 8 est plus cool, car il intègre l’antivirus Windows Defender. Windows Defender a obtenu la plus mauvaise note sur des tests indépendants d’antivirus. Sur 20 000 virus, il en a détecté seulement 80 %. Vous pouvez dire que c’est beaucoup, mais Avast! en version gratuite a détecté 97 % tandis que Kaspersky avoisine les 98 %. Après, c’est sûr que Windows Defender est très léger, mais est-ce qu’on a besoin de le promouvoir comme une pute un samedi soir ?

Je pensais que les médias et les blogs en avaient finis avec cette époque de connivence avec les marques. On prend l’exemple d’un site en anglais, mais les médias et blogs français sont aussi dithyrambiques.

Le pire est les commentaires de l’article dont la majorité ne capte absolument pas l’aspect promotionnel de l’article.

Evidemment, tant qu’il y aura des vaches à lait, Microsoft peut se frotter les mains.

 

 

Aucune paix possible entre la technologie et la loi

Une entreprise peut être poursuivie en justice lorsqu’elle refuse d’engager une personne en fonction de sa religion, son orientation sexuelle ou ses origines, mais il est fréquent que les recruteurs filtrent les profils sur les réseaux sociaux selon ces mêmes critères.

Une banque peut regarder le profil Facebook d’une personne et lui interdire l’ouverture d’un compte si elle peut trouver des informations compromettantes sur sa viabilité financière. Et la plupart des réseaux sociaux utilisent des algorithmes pour bannir telle ou telle personne. De ce fait, on trouvera toujours un fossé entre les lois qui régissent la société humaine et la technologie adoptée par cette société.

La loi est des normes qui sont acceptées par la majorité  de ses membres afin de réguler la société. Et Gandhi avait l’habitude de dire que la loi est la forme extrême de la codification de l’éthique. En temps normal, cette codification de l’éthique sert tous les membres, car ils évoluent tous de la même façon.

Mais la technologie impose de voter des lois qui sont contraires à l’évolution humaine. La loi sur le droit d’auteur n’est pas lié à la protection de la propriété intellectuelle, car elle a été utilisée pour contrôler le partage de la connaissance.  Les premiers textes sur le droit d’auteur sont apparus après l’invention de la presse à imprimer.

Cette invention a permis de partager la connaissance de l’élite vers la masse. Et la connaissance entraîne un mouvement de remise en question. A l’époque de cette invention, le monde était dominé par l’Empire Catholique et ses membres politiques et religieux n’appréciaient absolument que leurs connaissances et leurs manigances soient connus de la masse grâce au partage de la connaissance via le papier imprimé. Le mouvement du Protestantisme est apparu après cette invention sans oublier la tendance des citoyens à privilégier le nationalisme. Et cette effervescence a amené l’époque de la Renaissance.

3 évolutions majeures qui ont bouleversés le monde à cause d’une simple machine qui mettait de l’encre sur du papier.

De même, la révolution industrielle avec le moteur à combustion, la production de masse et l’invention de l’acier ont renforcés les lois sur le droit d’auteur et le droit contractuel. Chacun voulait protéger ses inventions pour promouvoir principalement son esprit nationaliste.

La technologie a 100 ans d’avance sur la loi

 

Nos lois et notre éthique ont évolués au fil des siècles. Aujourd’hui, on a des avions et des véhicules automatiques. Même un village de pauvres en Inde peut accéder à Facebook via son téléphone. Et Facebook est parti d’un site pour des étudiants pour devenir une référence mondiale sur la technologie.

Aujourd’hui, un simple Smartphone est plus puissant que le Cray 2, un supercalculateur construit en 1985 et qui a coûté 17,5 millions de dollars et qui pesait 2,5 tonnes. En 2002, le séquençage complet du génome humaine coûtait 100 millions dollars. En 2014, il coûte 1000 dollars et en 2020, on pourra le faire pour le prix d’un café.

Le problème est que le gap s’agrandit de plus en plus entre l’éthique et la loi, alors qu’elle est censée être la même chose. La vie privée, par exemple, est menacée par le bouleversement technologique tandis que les lois sur la vie privée datent du 19e siècle lorsque l’avocat de Boston Samuel Warren s’était plaint qu’on répandait ses rumeurs sur sa famille. L’un de ses partenaires juridique, qui n’était autre que Louis Brandeis, l’un des plus grands avocats à la Cour suprême américaine, a écrit un article intitulé le Droit de la vie privée en arguant qu’il y des choses qui doivent être protégés par la vie privée et d’autres qui doivent l’être par la propriété intellectuelle. Aujourd’hui, cet article sert de fondements à la plupart des décisions de la Cour Suprême.

Et en se basant sur la vie privée, de nombreux internautes hurlent à la mort en criant à la défense de la vie privée après les révélations de l’espionnage de la NSA. Mais ce dernier est minimal comparé à l’espionnage mis en place par Facebook, Apple, Amazon, Twitter, Google, etc.

Votre Smartphone vous suit à la trace, votre voiture connait vos endroits préférés. Les moteurs de recherche savent même ce que vous allez taper à l’avance. Mais ces géants peuvent nous espionner, car nous leur avons donné le droit de le faire en acceptant aveuglément leurs conditions d’utilisation qui pourraient faire perdre la tête au créateur du casse-tête chinois en personne. Mais il y a désormais d’autres données qui permettent de nous profiler au millimètre près avec les informations biométriques.

Mauvais sang ne peut mentir

 

Le test sur notre génome deviendra aussi courant que celui du test sanguin. Car nous avons très peu connaissance sur la génétique et les informations que nous laissons fuiter. Et cette fois, cela ne concerne pas uniquement la vie numérique, mais bien l’intégrité de l’être humain. La société 23andMe propose de tester vos marqueurs génétiques pour vous prévenir sur les prédispositions que vous pourriez avoir sur certaines maladies. Le test coûtait 99 dollars, mais les autorités américains ont suspendu le service

Le Genetic Information Nondiscrimination Act de 2008 protège les gens contre l’utilisation de leur génome pour trouver des informations sur leur emploi ou leur assurance-maladie. Mais il ne protège pas contre l’utilisation de ces informations sur le long terme, notamment sur les assurances de retraite, les allocations sur le handicap et l’assurance-vie.

Aujourd’hui, la technologie permet  de séquencer un génome en une journée, mais on ignore toujours si nous sommes le propriétaire de nos informations génétiques. Certains Etats commencent à voter des lois sur le fait que votre génome pourrait éventuellement vous appartenir dans certains cas si vous respectez des conditions qu’ils n’ont pas encore mis en place.

On parle du danger du fichage génétique, mais la vie privée est également menacée par la cybernétique. Les drones et les voitures autonomes sont banales, mais quel est leur impact sur la vie privée ? Et quel est le responsable s’il y a un problème ?

Qui sera le coupable si une voiture autonome écrase un piéton et qu’est-ce qui se passe si un robot tue un être humain en légitime défense ?

Thomas Jefferson disait : La loi et les institutions doivent aller de pair avec l’évolution humaine. Ces lois doivent s’adapter aussi vite que possible à mesure qu’on fait de nouvelles découvertes et qu’on change notre façon de penser.

Le risque est avéré et prouvée aujourd’hui que la loi est déjà en guerre ouverte avec la technologie, car la technologie est bien plus avance que l’évolution humaine. Les ordinateurs nous ont surpassés dans tous les domaines et ils nous imposent un monde où on est constamment derrière eux pour tenter de les maîtriser alors que la vraie raison de la technologie est d’aider l’être humain à avoir une meilleure vie dans tous ces aspects

 

 

 

 

 

 

 

5 applications pour vous, les obsédés sexuels !

 

Nous vivons dans un monde dominé par les interactions sur les réseaux sociaux. Ces derniers veulent nous recommander toutes sortes de choses allant des livres jusqu’aux voyages en passant par la nourriture pour votre chat dont tout le monde s’en fout. Et évidemment, il fallait très peu de temps pour que le sexe prenne une dimension sociale.

1 –  Down App

 

down app

Down App anciennement Bang With Friends se base sur vos amis Facebook. On a tous des fantasmes non assouvis avec nos anciens amis et donc, cette application permet de fluidifier cette relation. Vous marquez un ami et si celui-ci vous marque à son tour dans l’application, alors le grimpé au rideau peut commencer. Si l’ami(e) ne vous marque jamais, alors vous pouvez toujours vous la mettre sur l’oreille.

2 – Tinder

 

tinder

Tinder ressemble à une simple application de rencontre. Elle se base également sur les amis Facebook, mais elle permet de filtrer selon des critères de distance, de proximité et de correspondance avec les centres d’intérêts.

Tinder prétend avoir mis en contact près de 500 millions de personnes.

3 – Grindr

 

grindr

Grindr ressemble  à Tinder, mais elle se concentre sur les gays, les lesbiennes et ce genre de personne. Il suffit de voir la promotion de l’application pour voir que les hétéro n’ont pas vraiment leur place.

4 – 3nder App

 

3nder-App

Parfois, on veut pimenter sa vie sexuelle et une rencontre entre 2 personnes ne suffit pas. Alors pourquoi ne passerait-on pas à trois pour une jolie triplette ? 3nder App vous permet de faire une rencontre avec 3 personnes. Généralement, c’est un couple et une tierce personne.

5 -Pure

 

pure-app

J’aime les femmes qui vont droit à l’essentiel concernant le sexe et l’application Pure va également droit à l’essentiel. Pas de temps pour les chichis. On y va du moment qu’elle est baisable. Pure crée une rencontre uniquement si les deux sont prêts directement pour le sexe. Le service prétend qu’il efface toutes les données après la transaction, mais elle impose une reconnaissance faciale (il y a comme une putain de contradiction comme qui dirait) qui permet de supprimer les mauvais plaisantins ou ceux qui ne vont pas au rendez-vous pour honorer la dame.

Des applications de débauche, diront certains, mais je préfère utiliser le terme de relation physique en évitant le maximum d’intermédiaires et de perte de temps.

 

 

Youtube va faire de la pub pour ses stars

 

Le terme de Youtube Star est parfois péjoratif dans la bouche de certains, car il montre qu’un vidéaste a de la popularité sur Youtube. L’image qu’on a est celui d’une personne qui fait des vidéos d’amateurs et qui peut atteindre une audience plus ou moins importante. Mais Youtube veut changer ça et il veut que ses stars soient sur le même pied d’égalité que les stars à la télévision.

Prochainement, Youtube va faire des campagnes de publicité pour ses Youtubeurs que ce soit à la télévision, dans les transports en commun, via des brochures, etc. L’intérêt est de faire connaitre les Stars de Youtube à Mme Michu.

Il y a beaucoup de créateurs sur Youtube. Certains font de belles choses tandis que d’autres font ce qu’il font… Youtube estime que ses stars ne sont pas bien considérées alors qu’elles ont autant d’impact que les stars à la télévision. La relation plus directe entre le vidéaste et son public permet de construire une meilleure confiance et donc, une meilleure cible publicitaire.

Ne nous attendez pas à voir des pubs sur Dieudonné ou Alain Soral… car Youtube va viser directement Mme Michu dans toute sa splendeur. Ainsi, on aura des Youtubeuses de mode (ricanement sournois),, des youtubeurs cuisiniers, etc. En gros, les chaines Youtube qui visent directement le portefeuille garni de la mère au foyer.

Mais cette promotion n’est pas désintéressée de la part de Google, car il ignore le sens de ce mot. Mais c’est le fric bien évidemment.

Le calcul est simple :

  • Un annonceur investit 1000 euros pour des pubs sur Youtube
  • 100 chaines proposent sa thématique
  • Chaque chaîne reçoit 10 euros
  • Si la thématique est saturée telle que les jeux vidéos, alors ce n’est pas 10 euros que la chaîne recevra, mais 0,1 euros.

Et le fait est que les créateurs sur Youtube ne sont pas rémunérés à leur juste valeur, car c’est une misère comparé au temps et  à l’argent passé pour créer de bonnes vidéos.  De ce fait, Youtube veut délaisser les annonceurs web qui sont des radins et il veut viser la poule aux œufs d’or qui sont les annonceurs à la télévision.

Ces derniers payent beaucoup plus et les créateurs sont donc mieux rémunérés et Youtube augmente sa part de bénéfices. Mais cela passe par une professionnalisation du contenu et la suppression de tout litige légal. C’est pourquoi, Youtube est devenu si strict sur le droit d’auteur, car il veut avoir la même virginité que celle de la télévision.

En attirant les annonceurs riches sur Youtube, la plateforme va également intéresser les créateurs et les studios professionnels. Un studio ne peut pas investir 10 000 euros dans une émission si cela lui rapporte 10 euros.

Disney investit déjà dans un studio spécialisé sur Youtube et les grosses marques ne vont pas tarder à débarquer. Les chaines françaises ne sont pas en reste, car de nombreuses chaines humoristiques sont rachetées par TF1, Canal+ et tous les rapaces du PAF et même si les créateurs sont mieux payés (j’espère sinon ils sont très cons), ils ont totalement sacrifiés leur indépendance.

Youtube ne veut pas juste devenir une alternative à la télévision, mais il veut la remplacer. Mais chaque transition d’un média a crée une révolution qui a entraîné une baisse des prix sur la publicité, car de plus en plus de personnes ont pu proposer des contenus ce qui permet de faire jouer la concurrence pour les annonceurs.

  • Le théâtre a souffert de la venue du cinéma
  • Le cinéma a souffert de la télévision
  • La télévision a souffert du VHS
  • Le VHS a souffert du CD
  • Et les médias physiques ont souffert d’internet

A chaque fois, la transition d’un média à l’autre a permis de créer une nouvelle génération d’artistes, mais également des révolutions qui ont étés parfois sanglantes pour d’autres.

Mais cette professionnalisation de Youtube n’est pas une mauvaise chose, car cela permet à des créateurs talentueux de se démarquer. Des initiatives  telles que Le Fossoyeur, Bonjour Tristesse, Langue de Pub, Joueur du Grenier nous prouvent qu’il est tout à fait possible de s’en sortir sans sacrifier son indépendance.

Youtube va faire de la pub pour ses stars,  mais cela ne concerne que les 5 % les plus populaires sur Youtube. Ces 5 % de vidéastes amassent 67 % de tous les revenus publicitaires et encore une fois, l’inégalité sera flagrante entre les petits et les gros créateurs . Et quand on voit les studios et les grosses productions qui débarquent, les petits créateurs vont se faire littéralement écraser par cette masse financière et marketing.

Les réseaux sociaux réduisent notre empathie envers les autres

 

Le projet Homeless GoPro permet de donner la parole aux SDF avec une caméra GoPro pour raconter leur quotidien et comment ils voient le monde.

Un de ces SDF, Adam âgé de 44 ans, est l’un des premiers volontaires à participer à ce projet. Il est SDF depuis 30 ans dont 6 ans à San Francisco. Cette ville est également l’un des bastions de la technologie aux Etats-Unis.

Cet homme raconte que les gens font preuve de moins en moins de compassion envers les autres. Les médias sociaux tels que Facebook, Twitter et le mail réduisent les interactions humaines et les gens ne comprennent plus aussi bien la souffrance des autres.

Il ajoute que ce n’est pas seulement le manque de compassion envers les SDF, mais également envers les autres en général.

Nous nous dirigeons vers une société entièrement dominée par la technologie, mais le prix à payer est que nous perdrons totalement notre humanité au fil du temps.

2014 ans d’évolutions pour en arriver là !

La vidéo d’Adam :

 

 

Réseaux sociaux : Les adolescents sont-ils des inconscients ou des psychopathes ?

 

Le Washington Post revient sur l’affaire de l’adolescente Sarah âgée de 14 ans qui a tweeté une menace de bombe sur un vol d’American Airlines. La compagnie a immédiatement réagit en alertant les autorités et la fille a été arrêté à Rotterdam. La fille était terrifiée et on peut penser qu’elle ne savait pas ce qu’elle faisait.

Mais le problème est des dizaines d’autres adolescents ont commencés à lancer des menaces sur la compagnie aérienne.

Un comportement con, ça va, mais qu’est-ce qui se passe si cela devient une tendance ?

La compagnie aérienne n’est pas intervenue sur ces comptes, mais Twitter les a tous supprimés et on peut penser qu’il a transmis les informations du nom d’utilisateur et d’adresse IP aux autorités compétences.

Fiché dans les agences gouvernementales, voilà une bonne façon de commencer sa vie !

La première explication est que ces gamins l’ont fait en le considérant comme une vaste farce et le fait que cette Sarah est devenue très populaire en quelques heures. De nos jours, l’adolescence 2.0 est caractérisée par un narcissisme extrême et une propension à rechercher la gloire et le jugement des autres par tous les moyens.

Mais est-ce qu’on peut tout excuser en estimant que ce sont des gamins et qu’ils ne savent pas ce qu’ils font. Après tout, l’être humain est de plus en plus précoce et les premières expériences sexuelles commencent à 11 ans.

Les jeunes actuels nous disent sans cesse que la maturité n’est pas une question d’âge, alors pourquoi utilisent-ils la jeunesse pour excuser leurs actions ?

La seconde explication est que ces jeunes sont des Trolls dont l’objectif est de foutre la merde sans penser aux conséquences. Et si on extrapole sur cette définition, alors le terme psychopathe vient immédiatement  à l’esprit. La psychopathie n’est pas propre aux assassins, et Wikipedia nous donne une définition :

  • Domination sans peur. À partir des sous-échelles d’influence sociale, d’intrépidité, et d’immunité au stress. Associée à moins d’anxiété, de dépression et d’empathie ainsi que la hausse du bien-être, l‘affirmation de soi, le narcissisme, et recherche de sensations fortes.
  • Impulsion antisociale. À partir des sous-échelles du « machiavélisme », de l’égocentrisme, du non-conformiste, de la rébellion, de l’externalisation du blâme, et du manque d’Insouciance et de la planification. Associée à l’impulsivité, l’agressivité, la consommation de drogues, aux comportements antisociaux, un affect négatif, et des idées suicidaires.
  • Sang-froid. À partir d’une sous-échelle portant le même nom.

Une étude qui a portée sur les Trolls sur le web montrent que leurs comportements numériques correspond à leur comportement dans la vie réelle. En gros, ce sont des gros fils de pute que ce soit sur internet ou au quotidien. Un adolescent qui tweete une alerte à la bombe en estimant que c’est une blague juste pour effrayer les gens, pour attirer l’attention sur soi et pour provoquer un phénomène de suivi ne peut plus être considéré comme un blagueur, mais bien un Troll ayant certains symptômes de la psychopathie.

Et ce comportement de sans-foutisme extrême n’est pas propre aux réseaux sociaux, mais il peut se produire dans la vie réelle.

En décembre 2013, un adolescente de 19 ans,  Ashley Viviane Davos, écrase une vieille. Cette dernière mourra quelques jours plus tard à l’hôpital. A aucune moment, la jeune pétasse n’a fait preuve de compassion et elle publie même des messages pendant la fête de Thanksgiving pendant que la vioque agonisait  à l’hôpital.

Ce genre de comportement n’est plus un défaut de jeunesse, mais bien le fait que la psychopathie ou une tendance extrême au sans-foutisme est en train de connaitre une augmentation croissante. Est-ce que les réseaux sociaux qui ont créent ce phénomène en inculquant l’humour systématique même pour des événements graves ou c’est simplement que notre société est devenu plus cruelle.

Dans tous les cas, l’avenir de l’être humain est plutôt sombre, car ce sont ces jeunes qui vont définir la société humaine.

Comment désactiver la mise à jour automatique depuis WordPress 3.7

 

Depuis WordPress 7.1, le script peut se mettre à jour automatiquement et donc, on n’a plus rien à faire, mais c’est une merde plus qu’autre chose à cause de 3 principales raisons :

  • Cela surcharge énormément le serveur
  • Il y a un risque d’incompatibilités avec les thèmes et les plugins
  • WordPress possède plus de contrôle sur votre blog

Pour désactiver la mise à jour automatique de WordPress, il suffit d’ajouter la ligne suivante au fichier wp-config.php de votre installation WordPress.

define( 'AUTOMATIC_UPDATER_DISABLED', true );

Notons au passage que cela ne désactive pas la tâche Cron et qu’on aura un mail d’échec à chaque fois que le script tente de se mettre à jour.

 

F.A.Q sur le bug Heartbleed : Ce que vous avez besoin de savoir

Le bug Heartbleed a été découvert il y a quelques jours et on a assisté à une véritable déferlante sur le web. On a de nombreux scénarios catastrophes qui seraient possibles par ce bug, car il concerne un protocole de sécurité extrêmement populaire.

Donc, il est important de connaitre toute la merde concernant le bug Heartbleed ainsi que de déterminer si vos informations personnelles pourraient être piratées à cause de ce bug.

C’est quoi Heartbleed ?

 

Heartbleed est une faille de sécurité dans le logiciel OpenSSL qui permet à un pirate d’accéder à la mémoire de données sur des serveurs. Selon Netcraft, près de 500 000 sites pourraient être concernés par ce bug. Cela indique que les informations personnelles de l’utilisateur incluant ses noms d’utilisateur, ses mots de passe et les informations de paiement pourraient être compromises.

Cette faille implique également qu’un pirate pourrait voler les clés d’un serveur qui servent à crypter les communications afin d’accéder aux documents internes de la compagnie.

C’est quoi, OpenSSL ?

 

Le SSL signifie Secure Socket Layers, mais on le connait aussi par le Transport Later Security ou TLS. C’est le moyen le plus basique pour crypter l’information sur le web et il évite les risques que quelqu’un intercepte vos informations pendant votre navigation. Si vous ne comprenez pas, sachez que si vous visitez un site web et qu’il est sous la forme https://monsite.com, alors cela signifie que ce site utilise le SSL.

OpenSSL est une implémentation Open Source du SSL sur le web. Les versions d’OpenSSL concernées par cette faille sont OpenSSL 1.0.1 jusqu’à 1.0.1f. OpenSSL fait également partie du système Linux et il est l’un des composants des serveurs Apache et Nginx. En clair, OpenSSL est très populaire sur le web.

Qui a découvert le bug Heartbleed ?

 

La paternité revient à la firme de sécurité Codenomicon et un chercheur chez Google appelé Neel Mehta. Les deux ont trouvés le bug indépendamment dans leur coin le même jour. Mehta a donné sa récompense de 15000 dollars qu’il a reçu pour avoir découvert ce bug à la fondation Freedom for Press qui développe des outils de cryptage pour les journalistes qui veulent communiquer avec leurs sources.

Mehta n’a pas encore accordé d’interview, mais selon Google, l’entreprise s’engage toujours à découvrir et à publier des failles de sécurité pour informer et protéger les utilisateurs.

Pourquoi le nom de Hearbleed ?

 

Selon Vocativ, le terme Heartbleed a été proposé par Ossi Herrala, un administrateur système chez Codenomicon. On doit admettre que c’est un nom plus cool que son nom technique qui est CVE-2014-0160 qui indique la ligne de code qui contenait le bug.

Heartbleed joue sur le jeu de mot concernant une extension d’OpenSSL appelée Hearbeat. Ce protocole est utilisé pour permettre aux connexions de rester ouvertes même quand il n’y a plus de données qui sont partagées par ces deux connexions. Herrala a pensé que c’était approprié de l’appeler Heartbleed parce qu’il fait saigner de l’information importante de la mémoire.

On peut penser que le nom était un peu sensationnel, mais c’était voulu par l’équipe de Codenomicon qui voulait que les médias et le public connaissent le bug et il n’y pas de meilleure manière d’étaler plein de sang sur un bug informatique.

Pourquoi certains sites web ne sont pas affectés par Heartbleed ?

 

Bien qu’OpenSSL soit très populaire, il existe d’autres options SSL/TSL. De plus, certains sites web utilisent des versions antérieures qui ne sont pas concernées par le bug et d’autres n’ont pas activés l’extension Heartbeat qui est principalement concernée par la faille.

Même si cela ne résout pas le problème, on peut limiter les dégats en implémentant une Perfect Forward Secrecy ou PFS qui consiste à ce que la clé de cryptage possède une durée de vie très limitée et qui ne soit pas réutilisable. Cela signifie que même si un pirate arrive à voler les clés, il ne pourra pas voler toutes les informations, car leur durée de vie est limitée. Des géants tels que Google et Facebook utilise le PFS, mais ce n’est pas le cas de toutes les entreprises.

Comment fonctionne le bug Heartbleed ?

 

La faille permet à un pirate d’accéder à plus de 64 kilobytes de la mémoire d’un serveur et il peut attaquer encore et encore pour obtenir de nombreuses informations. Cela signifie que le pirate ne peut pas juste voler les noms d’utilisateurs et les mots de passe, mais également les données dans les Cookies qui sont utilisés par les serveurs et les navigateurs pour garder la trace de leurs utilisateurs et pour faciliter la connexion. Selon l’Electronic Frontier Foundation, une attaque répétée permet d’accéder à des informations plus sensibles tels que la clé privée SSL qui est utilisée pour crypter le trafic. Ainsi, quelqu’un pourrait utiliser cette clé privée pour créer une fausse version du site original pour intercepter toutes sortes d’informations telles que les messages privées ou ceux de la carte de crédit.

Dois-je changer mes mots de passe ?

 

Pour de nombreux sites, la réponse est oui. MAIS attendez que le site vous demande de le faire en vous informant que le bug a été corrigé. C’est du bon sens de changer ses mots de passe, mais si vous le faites et que le site n’a pas corrigé le bug, alors le pirate pourra également voler votre nouveau mot de passe.

Comment déterminer si un site web a été affecté ou qu’il a corrigé la faille ?

 

Quelques entreprises et des développeurs ont crée des sites de test pour tester leur vulnérabilité. On peut citer LastPass, un éditeur pour un gestionnaire de mot de passe et Qualys, une firme de sécurité. Notons que ce sont des précautions de base, mais il faut être toujours vigilant. Si vous voyez un drapeau rouge sur les listes proposées par ces deux compagnies, alors évitez le site.

Mais la manière la plus sûre est d’attendre des annonces officielles de vos sites et de nombreux travaillent pour corriger le bug.

Qui est derrière le bug Heartbleed ?

 

Selon The Guardian, le programmeur qui a écrit le code est Robin Seggelmann qui a travaillé pour le projet OpenSSL pendant ses études entre 2008 et 2012. Pour enfoncer le clou, il a envoyé le code à 23:59 pendant le Nouvel An de 2011 même s’il a déclaré que l’heure de la publication n’avait rien à voir avec le bug. Il assume sa responsabilité parce qu’il a écrit le code et qu’il ne l’a pas vérifié correctement.

Mais étant que c’est un projet Open Source, il est difficile de jeter le blâme sur une seule personne. Selon Zulfikar Ramzan, responsable chez la firme de sécurite Elastica : Les développeurs doivent traiter du code très complexe et le protocole Hearbeat n’a pas bénéficié d’une vérification suffisante. Heartbeat n’est pas le principal composant de SSL et c’est juste une extension. Il est normal que personne n’ait étudié attentivement le code, car il ne faisait pas partie du code principal.

Par ailleurs, on peut également pointer du doigt le manque de financement d’OpenSSL qui a reçu seulement 2000 dollars en 2013. On ne compte pas sur les particuliers pour financer le projet, mais quand des géants du web qui utilisent OpenSSL et qui ne donnent pas un seul centime, on peut dire que le bug Heartbleed est une bonne chose dans la mesure où il montre l’exploitation sans aucune contre-partie des projets Open Source.

Est-ce que le gouvernement américain a exploité le bug Heartbleed avant qu’on ne le découvre ?

 

Ce n’est pas très clair pour le moment, mais des sources mentionnent que la NSA connaissait le bug et qu’il l’a exploité pour collecter des informations. Mais quoi qu’il en soit, le bug Heartbleed est une faille de sécurité majeure.

Devrais-je m’inquiéter pour mon compte en banque ?

 

La plupart des banques n’utilisent pas OpenSSL, mais un cryptage propriétaire. Mais si vous avez des doutes, contactez directement votre banque pour plus d’informations sur la sécurité de son site. De plus, on recommande de vérifier vos transactions financières pendant les prochains jours pour détecter des mouvements suspects.

Comment puis-je savoir si quelqu’un a utilisé le bug Hearbleed pour voler mes informations ?

 

C’est impossible. L’exploitation du bug ne laisse aucune trace sur les fichiers journaux d’un site selon Codenomicon.

Les gestionnaires de mot de passe et le facteur à double authentification

 

Cet article se base sur CNET et il termine en préconisant l’utilisation de gestionnaires de mot de passe et du facteur à double authentification. Mais la difficulté du mot de passe n’est pas en cause, car cette faille permet de les collecter à la base de la communication. Le fait d’utiliser un gestionnaire de mot de passe pour créer des mots de passe pour chaque site permet d’augmenter la difficulté du pirate, mais on n’est pas protégé pour autant.

Quand au facteur à double authentification, il peut être utile, car il demande un code envoyé par SMS en plus du mot de passe.

Traduction libre de l’article source

TLDR Wikipedia, un Tumblr qui parodie Wikipedia

Le Tumblr TLDR Wikipedia propose des parodies sur des définitions de mots à la Wikipedia. Mais certaines sont plus pertinentes que Wikipedia ce qui nous fait poser des questions sur les compétences présumées des con-tributeurs de Wikipedia…

Quelques unes des perles qu’on peut trouver :

 

44 % des comptes Twitter n’ont jamais publiés un seul tweet

compte-twitter

Twopchart nous propose un rapport qui prétend que 44 % des comptes Twitter n’ont jamais publiés un seul tweet. On ignore les critères pour mener l’étude, mais cela confirme d’autres études qui montrent que Twitter est bien plus une ville fantôme que Google+.

Jason Digs, un chercheur du Barracuda Labs, avait déjà publié en 2013 que 10 % des comptes Twitter étaient des Fakes. Evidemment, Twitter a refusé de commenter sous prétexte que les données provenant de sites tiers ne sont pas fiables.

Il ne faudrait pas effrayer les annonceurs.

Avec les bots, les publications automatiques, on ne compte qu’une très faible minorité d’utilisateurs réels sur Twitter et après, on se demande pourquoi les mêmes contenus tournent en boucle sur ce réseau.

Infographie : Comment réussir sa startup ?

Une infographie montrant le parcours idéal d’une startup vers son succès.  De l’idée de base jusqu’à l’entrée en bourse.

L’infographie oublie le léchage de cul aux investisseurs et au fait que ces derniers ne vont pas contrôler 10, mais 100 % de la compagnie. Par exemple, le fondateur de Waze a déclaré dans une interview qu’il a préféré vendre à Google pour éviter de travailler uniquement pour les investisseurs.

 

infographie-startup

Source

Les extensions payantes débarquent sur Chrome (Media Hint, Youtube Option et Web of Trust ?)

Il y a quelques jours, Google a autorisé les thèmes et les extensions Chrome payantes pour les développeurs. Et ces derniers se sont précipités comme des puceaux sur Angelina Jolie.

Le premier à ouvrir le bal est Media Hint, une extension qui permet de passer les restrictions géographiques sur des services tels que Netflix, Hulu et Pandora. C’est comme un VPN, mais c’est beaucoup plus facile. Et cette extension est devenu payante avec un abonnement mensuel ou annuel (3,95 dollars par mois en sachant que tu peux te payer un VPN avec ce prix…). Mais ces fils de pute de développeurs affichent toujours la mention Gratuite, car l’extension est disponible pour un essai de 7 jours.

La seconde extension est Youtube Options qui vous permet de personnaliser l’aspect de Youtube selon vos besoins (elle coute 1,99 dollars par mois). Cette fois, les développeurs sont allés jusqu’à rejeter la faute sur Google, car ils nous disent qu’ils ont dû changer dans un modèle payant pour respecter la nouvelle politique du Chrome Store… Google n’a jamais eu cette politique, mais il autorise simplement les développeurs à monétiser leurs extensions.

Selon gHacks, même l’excellent Web of Trust envisage de proposer une extension payante, mais je n’ai rien lu sur leur site officiel.

Après, on peut dire que les développeurs sont libres de monétiser leurs extensions, mais déjà, il faut qu’ils avertissent au préalable en expliquant bien les choses. Certains développeurs suppriment directement la version gratuite pour imposer le modèle payant. Et surtout,  les développeurs doivent toujours proposer une version gratuite sinon ce sont juste de gros rapaces de merde.

Google a fait une erreur en ouvrant la monétisation, car on va assister à une ruée des développeurs qui vont créer des trucs inutiles juste pour faire du fric comme ils l’ont fait avec le Play Store.

Comment internet change notre manière de travailler ?

Imaginez que vous soyez un commerçant qui vit en Espagne en 1795. Vous êtes suffisamment évolué pour comprendre que votre roi, Carlos IV, n’est pas un Dieu vivant comme le pensaient les Egyptiens avec leur Pharaon, mais vous pensez toujours qu’il possède un droit divin sur vous. A cette époque, vous ne pouvez même pas imaginer un pays qui ne serait pas gouverné par un roi qui vous fournirait sa protection et sa bienveillance.

decentralisation

Bien sûr, vous avez entendu parler d’une étrange rebellion en Amérique du Nord où des colons britanniques prétendent qu’ils peuvent vivre sans un roi. Vous entendez également parler d’une révolution sanglante en France où un groupe d’illuminés a tué le roi, a remplacé le gouvernement et il a quasi détruit de nombreuses belles choses en une nuit. Mais vous pensez que ces expériences sont vouées à l’échec, car cela ne peut pas se passer comme ça.

De votre point de vue, vous pensez que l’idée que des citoyens se gouvernent par leurs propres moyens est impossible à envisager. C’est comme si on un enfant pouvait être élevé et éduqué sans aucun professeur ou qu’une ferme pourrait tourner sans aucune aide extérieure. Les gens peuvent toujours essayer, mais un roi sera toujours plus sage et plus bienveillant que tous ces huberlulus qui prétendent changer le monde.

Et bien, on sait aujourd’hui ce qui s’est produit avec les expériences démocratiques de ces huberlulus. Cela a fonctionné et même que cela marche du tonnerre. La démocratie a triomphée en Europe, en Asie, aux Etats-Unis et même si elle n’existe pas dans tous les pays, on peut dire que c’est l’idéologie qui a triomphée de toutes les autres dans l’aspect politique, sociale et économique. Et au délà de l’aspect démocratique, cette idéologie a changée notre manière de percevoir le gouvernement, de comprendre le droit des gens et de l’importance de l’opinion publique. Et le fait est que ces aspects existent même dans les pays qui ne sont pas démocratiques.

Et aujourd’hui, nous sommes dans la première phase d’une nouvelle révolution concernant le monde du travail et elle sera aussi spectaculaire que la révolution gouvernementale.

Comme la démocratie a changée la manière de penser nos gouvernements, celle du travail nous amènera à changer notre perception face au contrôle.

Qui doit posséder le pouvoir ? Qui doit contrôler ? Qui est responsable ?

Et comme la démocratie a amené plus de liberté au monde, celle du travail permettra aux gens d’être plus libres. Un monde dans lequel le pouvoir et le contrôle dans le travail sera plus important que toutes les précédentes révolutions industrielles. Un monde dans lequel les personnes seront de plus en plus l’axe central de leur entreprises.

Dans ce nouveau monde du travail, des millions de personnes connectées prendront leurs décisions en utilisant des informations provenant d’autres endroits. En fait, cette révolution est possible grâce à l’avènement des nouvelles technologies qui nous permettent d’accéder à une quantité d’information inimaginable.

Mais le vrai visage de cette révolution ne se basera pas sur ces technologies. Mais il viendra de nos besoins humains d’être plus efficaces et flexibles. Mais au délà de l’aspect quantifiable et monétisable, les travailleurs chercheront également l’accomplissement et la satisfaction personnelle.

En d’autres termes, le principal atout de cette révolution : Pour la première fois dans notre histoire, les nouvelles technologies nous permettront d’avoir des bénéfices économiques provenant de grandes organisations tout en évitant de sacrifier nos besoins personnels tels que la liberté, la créativité, la motivation et la flexibilité.

Et cette révolution a déjà commencée. Depuis quelques années, on parle régulièrement des aspects tels que l’Empowering des travailleurs, l’Outsourcing dans tous les domaines et la création de réseaux ou de compagnies virtuelles. Nous avons vu les prémices avec la bulle technologique de 2000 où le slogan était : internet est en train de tout changer. Et nous le voyons tous les jours, car les gens possèdent de plus en plus de choix dans leur manière de travailler.

Mais comme le commerçant de l’Espagne de 1795, on ne comprend pas totalement les implications de cette révolution. Même si nous crions les termes de liberté et d’Outsourcing dans tous les coins du web, nous sommes encore conditionnés sur le fait que quelqu’un doit être responsable. Nous supposons que les Managers des entreprises doivent être les responsables de ce qui se passe dans l’entreprise et que le pouvoir doit toujours venir d’en haut et qu’il doit être délégué vers le bas.

Mais les forces économiques et technologiques font que cette manière de penser est de moins en moins utile. De nouvelles manières de travailler deviennent possibles et le Management est en train de changer. Cela nous donne plus de choix sur comment nous pouvons changer le monde.

Quelles seront les nouvelles méthodes de travail ?

 

Il existe un terme technique pour cette nouvelle organisation du travail et c’est le mot Décentralisé. Mais encore une fois, les gens ont une vision très limitée de la vraie signification de ce terme. Si vous travaillez aujourd’hui et que vous entendez le mot décentralisation, vous pensez que c’est le fait que la hiérarchie supérieure délègue plus de pouvoir au bas de l’échelle de l’entreprise. Par exemple, des vices-présidents qui peuvent prendre des décisions qui seraient normalement prises par le CEO.

Mais cette organisation du travail ne fait que gratter la surface de ce qui est vraiment possible. On devrait voir la décentralisation sur la participation des gens qui prennent des décisions qui sont importantes pour eux. Et dans ce sens, la décentralisation signifie plus de liberté et non plus de pouvoir. Et il existe différents types de décentralisation.

La décentralisation de type continuum

 

Si on devait illustrer ce concept, on verrait une organisation très centralisée sur la gauche. Par exemple, l’armée est l’exemple typique de l’organisation centralisée, mais une décentralisation de type continuum se base sur trois principaux concepts : des hiérarchies modulaires, la démocratie et les marchés. Et quand on progresse de la gauche vers la droite, on a d’abord des hiérarchie modulaires qui mènent vers la démocratie, les marchés et finalement sur la quantité de liberté que les gens possèdent sur leur prise de décision.

Par exemple, on a déjà des entreprises qui ont des hiérarchies modulaires où elles délèguent des décisions très importantes au bas de l’echelle de leur organisation. De nombreuses firmes de Consulting permettent à des partenaires individuels de prendre toutes les décisions les plus importantes sur un projet. Chez AES Corp, l’un des plus grands producteurs d’électricité au monde, des travailleurs situés au bas de l’échelle peuvent prendre des décisions critiques de plusieurs millions de dollars concernant l’acquisition de nouvelles entreprises. Et l’exemple le plus extrême de la hiérarchie modulaire est le système Linux qui est maintenu par des développeurs volontaires à travers le monde.

Mais est-ce que c’est vraiment la définition de la décentralisation ?

Car ces exemples nous montrent juste une délégation du pouvoir qui vient d’en haut vers le bas. Mais pourquoi ne pas faire en sorte que le pouvoir et la prise de décision viennent de tous les cotés de la hiérarchie.

Imaginez la quantité d’énergie et de créativité possible si on permettait à tout le monde de participer à l’entreprise de manière égale ?

L’extrême droite de ce nouveau monde du travail permettrait d’avoir une liberté absolue. Et de nos jours, il existe des entreprises qui fonctionnent comme une démocratie en miniature où les employés votent pour la prise de décision. On a également des responsables qui lancent des sondages pour demander leurs avis à tous les employés de l’entreprise. Dans des cas rares, les employés possèdent l’entreprise comme c’est le cas de la coopérative Mondragon Corporation en Espagne. Les employés peuvent élire une sorte d’assemblée de directeurs et ils peuvent voter sur les principaux problèmes. Mais il y a toujours une hiérarchie dans ce type de système. La vraie décentralisation est que les employés pourraient voter pour licencier ou engager des superviseurs à tous les niveaux de la compagnie et non pas uniquement sur les niveaux supérieurs ? Et ces employés auront leur mot à dire sur chaque décision allant de l’achat de l’encre pour l’imprimante jusqu’à l’achat d’une nouvelle entreprise.

Et ce type de concept du travail est propre aux marchés financiers. Car dans ces derniers, personne ne prend une décision sur laquelle elle n’est pas d’accord. Aucun investisseur ne se base sur sa hiérarchie ce qu’il peut vendre ou acheter. En fait, tous les acteurs d’un marché financier s’accordent mutuellement en se basant uniquement sur les contraintes financiers, leurs capacités et les règles générales du marché.

Et on peut utiliser ces méthodes pour sous-traiter des choses que l’entreprise devait se charger en interne. Et aujourd’hui, les compagnies sous-traitent de plus en plus allant de la conception aux ventes. Et quand on regarde certaines grosses compagnies, on se rend compte qu’elle n’existent même pas réellement. Par exemple, les travailleurs indépendants forment une énorme chaine de production à travers le monde sans qu’il y ait un pouvoir central pour tout diriger. La création d’un film est un concept de décentralisation. Le producteur, le réalisateur, les acteurs viennent tous de secteurs différents pour produire un résultat final. Le seul accord mutuel est le genre et la qualité du film.

La décentralisation nous permet également de voir des micro-marchés qui se créent à l’intérieur des entreprises. Dans de nombreuses compagnies actuelles, on a des employés qui vendent et achètent les produits de la compagnie. Ainsi, une entreprise de semi-conducteur en Australie a permis à ses employés de vendre et d’acheter les puces de l’entreprise. Cela a crée un micro-marché de l’électronique et l’entreprise a pu avoir un retour immédiat sur la qualité des produits en traitant leurs employés comme des consommateurs.

Et ce type de nouvelles méthodes sera de plus en plus présent dans le futur. Mais pour comprendre cette révolution, on a besoin de comprendre ce qui a crée la séparation de la centralisation avec la décentralisation.

Pourquoi une telle chose s’est produite ?

 

Certes, il y a des dizaines de facteurs qui peuvent influencer la prise de décision dans une entreprise.

  • Qui possède l’information pour prendre de bonnes décisions ?
  • Qui possède le pouvoir de décider et sur quelle confiance se base-t-elle ?
  • Qui sont les individus qui ont le pouvoir de décider et quelles sont leurs motivations ?
  • Quels sont les aspects culturels de l’entreprise et de son pays pour désigner les types de personnes qui peuvent prendre des décisions ?

Tous ces facteurs nous incitent à penser que la prise de décision est impossible à prédire et que cela varie pour chaque cas. Mais même si les facteurs sont différents, il y a une ligne directice globale qui les contrôle. Et c’est cette ligne directrive qui fait que nous assistons à cette révolution. Et quand on étudie l’histoire, on se rend compte que cette ligne directrive a permis les plus grands changements que l’humanité a connue dans son histoire.

Cela a changé notre manière de travailler, de penser et cela a changé la société humaine.

Et ce facteur déterminant est :

Le cout de la communication

Si on remonte dans le temps, on voit que les premières communications se basaient sur le mode verbal face à face. Cela a permis aux humains de s’organiser en bandes et d’aller chasser et de s’établir de manière temporaire ou permanente. Pendant des milliers d’années, les hommes ont toujours vécus de cette façon composés de groupes et de clans. Par la suite, les hommes ont domestiqués les animaux et de nouveaux moyens de transport sont apparus. La communication a changée et cela a permis à ces groupes éparpillés un peu partout de se rassembler ce qui a permis de créer des villes et des royaumes gouvernés par des rois et des empereurs.

Et cette évolution de la société a permis à ces royaumes de contrôler et parfois d’anéantir les groupes qui refusaient d’embrasser ce nouveau mode de pensée et de communication. Et si on voulait faire partie de ces royaumes, le sacrifice de certaines libertés individuelles était nécessaire.

Et il y a quelques centaines d’années, une révolution majeure a permis de changer la société humaine avec l’invention de l’impression papier. Cela a facilité la communication, mais cela a permis également de centraliser encore plus les royaumes et les grandes villes. Mais dans le même temps, la connaissance imprimée sur le papier a permis de l’étendre à de nombreuses couches de la population qui n’avaient pas accès à ces informations. Ainsi, les gens ont étés mieux informés sur les décisions politiques et tout de suite, on a vu la révolution de la démocratie qui est arrivée dans la foulée.

Ce simple aspect d’une communication plus facile nous a permis de faire les plus grands changements de la société. Et à chaque fois, un changement dans la manière de communiquer présage une nouvelle révolution.

Bien sûr, on ne peut pas totalement prétendre que la baisse des couts de la communication ont permis ces changements. Car l’être humain a un besoin viscéral d’être plus libre et plus autonome. Ce besoin a fait est que cet être humain a éprouvé le besoin d’en savoir plus sur le monde qui l’entoure et la facilité de la communication l’a aidée dans sa tâche.

Si vous regardez le monde du travail dans les années 1800, on voit des modèles d’entreprises familiales. Chacun commerçait dans son coin et ensuite, on a inventé de nouveaux modes de communication avec le téléphone, le télégraphe et la machine à écrire. Cela a permis de changer le secteur des affaires en passant d’une petite société familiale aux grosses corporations qu’on connait aujourd’hui. Et on voit la même corrélation entre les affaires menées en famille et le fait que les anciens se réunissaient en clans avant d’évoluer vers des groupes plus importants. Et en maitrisant la connaissance et l’économie à grande échelle, l’humanité a connue une ère de prospérité sans précédent.

Toutes les grandes entreprises actuelles se basent sur ce modèle de travail qui est apparu dans les années 1900.

Vous, les travailleurs dans ces entreprises, vous pensez que vous travaillez dans la modernité ?

Non, parce qu’en travaillant pour ces entreprises, vous répétez le même modèle que les personnes dans le passé qui ont dû sacrifier une partie de leurs libertés lorsqu’ils étaient sous la coupe des rois et des sultans.

De la même manière que l’impression sur papier a renforcée le pouvoir des monarchies pour un temps, on voit la même centralisation qui augmente chez les grosses entreprises à cause des nouveaux modes de communications. Car les pionniers de ce mouvement sont toujours les premiers à en profiter avant que la masse en bas de l’échelle commence aussi à connaitre les avantages de cette révolution.

Mais il a suffit de quelques années à la démocratie pour renverser la plupart des gouvernements tyranniques lorsque les gens ont compris le pouvoir de l’information et qu’ils ont pu communiquer plus facilement.

Avec les nouvelles technologies telles que le mail, la messagerie et internet, il est tout à fait possible de créer une économie qui permettrait de donner le maximum de pouvoir et de contrôle à la masse pour qu’elles prennent les meilleures décisions.

Si on donne plus de responsabilité aux employés, ils se sentiront plus impliqués dans l’entreprise et ils seront donc plus créatifs et plus innovants. Plutôt que de suivre les ordres, ils participeront personnellement en donnant le maximum.

Les entreprises décentralisées sont généralement plus flexibles que ce soit vis à vis de leurs employés ou de leurs clients. Etant donné qu’ils offrent plus de choix, ils donnent également plus de chances aux gens d’obtenir ce qu’ils veulent réellement. En un mot, la décentralisation est d’offrir toute la liberté aux gens.

Mais certains pourraient dire qu’on revient au modèle familial des années 1900 où des membres d’une famille participaient collectivement à chaque décision. Et bien non, c’est tout le contraire même si ce modèle familial était un bon départ. Ces modèles familiaux ont disparus parce qu’ils n’avaient pas l’information nécessaire pour s’étendre et concurrencer les grosses corporations qui sont apparues par la suite.

Maintenant, imaginez une entreprise de quelques personnes qui ne possèdent aucune hiérarchie qui pourrait accéder aux informations d’une grosse corporation. Imaginez la flexibilité, la créativité et la réduction des couts qui résulterait d’un tel modèle de travail.

Prenons une petite entreprise qui se lance dans l’artisanat. Autrefois, elle devait se baser uniquement sur des producteurs locaux, mais aujourd’hui, internet lui permet de connaitre tous les producteurs dans le monde entier. De même, internet lui permettra de passer d’une vente locale à une vente mondiale. La décentralisation permet une liberté dans les deux sens. Donc d’un coté, elle peut bénéficier des meilleurs produits, mais elle peut également bénéficier d’une économie à grande échelle sans les contraintes d’une grosse corporation. Cette entreprise pourrait communiquer avec les clients potentiels recueillant leurs avis et elle pourrait acquérir une plus grande expérience par la même occasion.

Bien sûr, cette décentralisation extrême n’est pas adaptée pour tous les secteurs. Par exemple, les semi-conducteurs sont un secteur très spécialisé et même une communication facilitée avec la masse ne permettrait pas de bénéficier de cette décentralisation. Mais les secteurs spécialisés se basent sur le fait que des personnes ont pris le temps d’acquérir de nouvelles connaissances. Et c’est exactement la base de la décentralisation : Offrir plus de connaissances en facilitant la communication.

Cette révolution dans l’économie et le travail ne se fera pas du jour au lendemain, mais personne ne l’arrêtera et elle ne disparaîtra jamais.

La décentralisation sera bénéfique à la société humaine, mais cela prendra du temps avant que les gens ne se rendent compte de son potentiel. N’oublions pas qu’il a fallu des décennies pour que l’impression papier s’impose au public sans oublier les multiples révolutions sanglantes pour imposer la démocratie.

La décentralisation subira de nombreux échecs sur sa route et on a déjà des exemples avec la bulle technologique de 2000 ou même celle qui se produit actuellement. Et à chaque échec, les gens diront que ce modèle ne marche pas, qu’il est trop utopiste et qu’il vaut mieux rester dans le modèle d’antan.

On peut citer aussi l’exemple de la crypto-monnaie, une devise complètement décentralisée et dont le contrôle est assuré par l’utilisateur. La faillite de MtGox qui a tenté d’imposer une vision centralisée à un concept décentralisé fait dire aux gens que ce concept de monnaie est voué à l’échec et que la vieille économie a encore gagnée.

Si elle avait gagnée, pourquoi assiste-t-on à la création de nombreuses crypto-monnaies sur le marché ? Pourquoi les gens investiraient-ils dans un concept s’ils pensent que c’est voué à l’échec ?

Mais le coût de la communication baissera à chaque année et décennie après décennie, cette révolution de l’économie et du travail prendra place. Cette décentralisation devra se battre centimètre après centimètre en convainquant les entreprises de la viabilité de son modèle.

Et qu’est-ce que cela signifie pour vous ?

 

Vous pouvez déjà brandir vos étendards de la décentralisation et vous pouvez crier que vous voulez participer à la révolution. Mais la triste vérité est qu’on ne se débarrasse pas d’un conditionnement du travail qui existe depuis des siècles. Même si on vous parle de nouvelles techniques de Management, vous pensez tout de suite à une hiérarchie classique centralisée et vous pensez que les seuls changements sont en surface. Pour embrasser cette révolution, vous avez besoin de changer cette mentalité rétrograde qui continue à perpétuer les anciens modèles.

Plutôt que d’utiliser des concepts de commandement et de contrôle, vous devez penser en termes de coordination et de culture. Quand vous coordinez, vous organisez le travail et vous aurez de bons résultats même si vous ne contrôlez pas le processus. La coordination se base sur des choses qui doivent être faites et les relations entre elles.

Quand vous prônez la culture, vous amenez le meilleur d’une situation en combinant correctement le contrôle et la liberté. Dans certains cas, on donne souvent des commandements, alors qu’on devrait donner la liberté aux travailleurs de développer leurs propres points forts. La culture est un équilibre délicat entre un contrôle centralisé et décentralisé.

En fait, le paradoxe est que la meilleure manière d’avoir le pouvoir est de le donner.

Cependant, la coordination et la culture ne sont pas des contraires du contrôle et du commandement, mais ce sont leurs évolutions. Le rôle du Management va beaucoup changer à l’avenir et c’est à vous de décider si vous voulez rester avec votre mentalité d’autrefois ou que vous voulez participer pleinement à la révolution de la décentralisation.

Vos choix

 

Comme les révolutions démocratiques, la révolution du travail amènera des changements drastiques dans l’économie, les organisations et la perception culturelle de notre société.

Beaucoup parlent de la démocratie en disant qu’elle est un échec, mais je préfère dire qu’elle a fait son temps.

La démocratie était une piste pour nous aider à percevoir la liberté et non le moyen ultime pour l’obtenir. Car au final, la totalité des démocraties actuelles utilisent encore les techniques de gestion et de prise de décision prônés par les systèmes tyranniques.

La décentralisation permettra à tout le monde de construire un monde meilleur. Que vous soyez celui qui écrira la prochaine Déclaration d’Indépendance ou que vous fassiez de petites choses au quotidien pour participer à cette révolution, votre contribution sera déterminante pour l’avenir de la société humaine. Il n’y a pas de petits ou de grands efforts, mais qui uniquement des efforts qui vont dans la même direction avec le paradoxe que ces efforts ne proviennent de la même direction.

Cette nouvelle économie proposée par la décentralisation permettra de créer une nouvelle ère de prospérité, mais elle serait inutile puisque la révolution précédente nous a déjà donné cette prospérité. Mais cette révolution va créer un monde économiquement viable, mais également un monde meilleur.

Tout dépend de ce que vous allez faire à votre niveau, car une telle révolution n’implique pas que vous devez attendre les autres pour la lancer ou pour participer. Soit, vous participez à l’avenir, soit vous restez dans le passé et la caractéristique du passé est qu’il est condamné à disparaître.

 Traduction libre de l’article source

Quelle est la quantité de RAM dont vous avez réellement besoin ?

ram-necessaire

La quantité nécessaire de RAM pour nos besoins quotidiens est une question qui est devenue quasi mystique à la manière du Saint-Graal. Chacun donne son opinion et cela va des bonnes réponses à des pures conneries. Malgré le fait que la technologie et le matériel ont changés, on se rend compte que la question de la RAM n’a jamais été résolue. Mais on pourrait résumer par une seule phrase :

Non, ce n’est pas parce que vous avez plus de RAM que votre machine sera plus rapide.

Aujourd’hui, un PC d’entrée de gamme est fourni avec 4 Go de RAM. Les PC moyen de gamme en possède le double tandis que les PC haut de gamme en possèdent 16 Go et plus.

Plus de RAM = Plus rapide ?

 

De nombreuses personnes supposent que l’ajout de RAM permet d’accélérer leur PC et c’est vrai dans la plupart des cas. Mais cette RAM supplémentaire ne va pas augmenter la vitesse dont votre CPU traite le code du système, mais la RAM peut soulager le CPU sur certains aspects, notamment sur les PC qui ont 2 Go de RAM. Et c’est là tout le problème de ces questions, car toutes les réponses toute faites sur le fait qu’on n’a jamais assez de RAM vient de l’ancien temps où la plupart des PC avaient 2 Go de RAM.

Et quand on connait la légèreté de Windows, ces 2 Go de RAM n’étaient absolument pas suffisants. Et quand la RAM était dépassée, alors le système utilisait ce qu’on appelle la mémoire virtuelle.

La mémoire virtuelle est un fichier sur votre disque dur qui fonctionne comme un stockage temporaire lorsque la RAM physique de votre PC arrive à saturation. Par exemple, la mémoire virtuelle permettait de faire tourner des applications qui consommaient beaucoup de ressources même si on avait utilisé toute la mémoire disponible.

Quand on utilisait ces applications, Windows échangeait les données sur ce fichier spécial tant que c’était nécessaire. Et quand la RAM physique revenait à son état normal, Windows remettait les données dans le fichier spécial. Ce mouvement de va et vient a fait qu’on appelle souvent cette mémoire comme la mémoire Swap. Notons que Linux utilise aussi cette technique. Sur Windows, ce fichier spécial s’appelle pagefile.sys ou swapfile.sys dépendant de votre système et il se trouve dans le répertoire de Windows ou de system32. Il fait partie des fichiers cachés.

Ce processus de Swap ralentissait la machine, car autrefois, on utilisait souvent les disques durs mécaniques. Et on se retrouvait avec des PC qui se plantaient complètement, car le PC ne suivait plus la candence des applications, Swap ou pas Swap.

En fait, tout ceux qui ont eu un PC sous Windows XP entre la fin des années 1990 et 2000 ont eu ce problème merdique de plantage de PC à cause d’une mémoire insuffisante. A cette époque, la plupart des OS étaient des 32 bits et même s’ils peuvent gérer techniquement 4 Go de RAM, les barrettes de RAM étaient beaucoup plus chères qu’aujourd’hui et c’est pourquoi, on a tous ces articles qui nous informaient sur la quantité de RAM dont on avait besoin.

La RAM nécessaire est de l’histoire ancienne

 

Cette règle qu’on doit toujours ajouter plus de RAM disparaît progressivement. Aujourd’hui, on possède au minimum 4 Go de RAM lorsqu’on achète un nouveau PC et Windows n’a plus besoin de jouer à Fedex avec la mémoire Swap du disque dur. Et même s’il en avait besoin, n’oublions pas que les disques durs sont devenus plus performants et rapides que ce soit avec la norme SATA et évidemment, la norme SSD. En effet, l’une des caractéristiques du SSD est qu’il n’a aucun problème pour lire une mémoire Flash tout en écrivant dans une autre mémoire Flash et cela supprime le souci de la lenteur et du Crash des PC d’autrefois.

Mais malgré la performance du SSD, ce dernier sera toujours moins rapide qu’une vraie barrette de RAM. Le SSD le plus rapide possède un taux de transfert d’environ 600 Mo/s tandis qu’une barrette RAM DDR3 à une fréquence de 1333 Mhz peut transférer 10 Go/s.

Note : Si vous voulez connaitre le taux de transfert d’une barrette de RAM, vous devez multiplier sa fréquence par 8. Dans notre cas, 1 333 Mhz x 8 = 10 664.

Tout ça pour dire que vos 4 Go de RAM sont tout à fait suffisants pour gérer votre système et vos applications. Mais cela ne signifie pas que vous ne devez plus ajouter de la RAM, mais juste que ce n’est plus aussi crucial qu’autrefois. La RAM supplémentaire sera toujours nécessaire à cause d’une fonctionnalité qui est arrivée dans Windows Vista.

Appelée SuperFetch, elle tente de prévoir les applications que vous utilisez fréquemment pour les charger directement dans la RAM lorsque votre ordinateur est en veille. Ainsi, quand vous réveillez le PC, les applications se lancent de manière instantannée.

Mais le mode Veille peut devenir un problème quand on a trop de RAM. Ainsi, l’activation prendra du temps, car le système devra traiter toute la RAM.

Pour illustrer, on peut regarder ce graphique proposé par un site de Benchmark. Il concerne des tests sur une machine équipée de 2, 4 et 8 Go de RAM :

combien-de-RAM_1

Le test Windows consiste à ouvrir et à fermer plusieurs dizaines de fenêtres pour mesurer la réactivité du système. Dans le PC avec 2 Go, Windows doit souvent utiliser la mémoire Swap tandis que le test Multi-Apps nous montre peu de différences entre les performances de 2 et 4 Go de RAM. Mais cela nous montre aussi qu’au delà de 4 Go, la RAM supplémentaire a peu d’intérêt.

Notons que ces Benchmarks concerne uniquement le SuperFetch et non l’utilisation réelle de ces applications par rapport à la mémoire nécessaire.

C’est bien beau tout ce blabla, mais combien de RAM ai-je vraiment besoin ?

 

SuperFetch utilise toute la mémoire disponible, mais il est assez intelligent pour l’utiliser uniquement pour les applications qu’on utilise fréquemment. De ce fait, il n’est pas nécessaire de bourrer son PC avec beaucoup de RAM, car cela ne va pas accélérer sa performance. Par exemple, j’ai vu sur d’autres Benchmarks que la différence entre 4 Go et 8 Go de RAM était d’environ 3 %. Est-ce qu’il est vraiment nécessaire de dépenser son fric pour 3 % de merde ?

Le critère le plus important pour choisir sa RAM est d’arriver à une performance optimale tout en évitant de dépenser dans de la RAM qui ne sera jamais utilisée.

Et la réponse est que cela dépend de votre secteur d’activité, mais surtout si votre travail va évoluer dans le futur. C’est pourquoi, il ne faut pas acheter sa RAM en fonction du besoin global, mais plutôt de mesurer la quantité de RAM pour chaque scénario que vous allez rencontrer dans votre travail.

Et on peut mesurer la quantité de RAM nécessaire avec l’outil de mesure de performance dans Windows. C’est un des onglets dans le gestionnaire des tâches. Et dans ce moniteur, la valeur la plus importante est la mémoire allouée qui représente la RAM totale qui a été utilisée pendant que vous utilisez votre système et applications. Cela inclut une utilisation réelle et non le cache de SuperFetch qui se vide automatiquement quand le vrai programme demande de la RAM.

Le graphique ci-dessous montre la quantité de RAM nécessaire sur des Benchmarks faits dans un PC Dell avec 4 Go de RAM et Windows 8.1.

combien-de-RAM_2

Le graphique nous montre que le système dépasse les 3 Go de RAM alloués dans les applications les plus gourmandes en ressources telles que Photoshop et l’utilisation de plusieurs applications en même temps. Le test Crysis concerne la 3D et des Benchmark de jeux et on voit qu’il ne demande même pas la totalité des 4 Go de RAM.

De ce fait, même si vous lancez plusieurs applications en simultané, vous n’aurez jamais besoin de plus de 4 Go de RAM. Cela signifie que Windows n’aura plus besoin de passer par la mémoire Swap et même si vous ajoutez plus de barrettes, vous aurez une amélioration des performances assez modeste.

Mais vous pouvez vous payer 8 Go de RAM si vous le voulez. Car certaines applications nécessitent beaucoup de RAM dans certains cas et on peut citer le traitement de vidéos en très haute résolution ou quand vous avez ouvert 20 onglets dans votre navigateur. De même, on peut ajouter difficilement de la RAM dans les Laptops et si vous prévoyez d’en acheter un, alors il vaut mieux viser les 8 Go pour être tranquille dans le futur.

Et ces pubs pour les 16 Go de RAM ?

 

De nos jours, il n’est pas rare de voir des barrettes de 8, 16, 32 et même 64 go de RAM. Et une telle quantité de RAM est parfaitement :

Inutile !

C’est juste du marketing de merde pour que vous puissiez prétendre que vous avez plus grosse. C’est la même technique utilisée pour des Smartphones Quadri-Coeur et autre merde. On vous incitera toujours à acheter pour avoir les composants les plus rapides, mais cela ne signifie pas que votre PC sera plus rapide.

En fait, très peu d’applications nécessiteront 16 Go de RAM à moins que vous ne soyez dans un secteur très spécialisé tel que le traitement de gigantesques bases de donnée ou de la vidéo en très haute résolution que vous allez produire tous les jours.

Oui, mais Minecraft ?

 

La RAM est le principal problème quand on joue à Minecraft, car Minecraft est codé en Java et Java gère la RAM de la même manière que les Saoudiens gèrent la liberté d’expression. Java n’est pas très intelligent. Et quand il voit de la RAM dans un système, il la bouffe en totalité sans se préoccuper s’il en avait vraiment besoin. Si vous jouez à Minecraft avec 8 Go de RAM, vous allez voir que votre PC va ralentir plus qu’autre chose, car Java va utilise la totalité des 8 Go et Windows et les autres applications n’auront plus que leurs yeux pour pleurer.

Il faut dire explicitement la quantité de RAM que Java peut utiliser avec des paramètres propres à Java. On peut le faire via le lanceur de Minecraft, mais cela reste très mal codé. Et si un jeu vidéo vous dit qu’il a besoin de 6 Go de RAM, alors jetez-le à la poubelle, car cela signifie que les développeurs l’ont très mal optimisés.

Infographie : Est-ce que vous spammez sur les réseaux sociaux

Le blog SEOSmarty nous propose cette infographie sur le spam sur les réseaux sociaux. Elle date de 2012, mais elle est toujours pertinente. Notez que cela ne vous dit pas ce qu’est le spam sur les réseaux sociaux, mais plutôt une compilation des règles de ces réseaux sociaux qui indique que tel ou tel comportement est un Spam.

L’infographie n’est pas en bonne résolution.

infographie-spam-reseaux-sociaux

 

CMS Made Simple, un CMS simple à utiliser et puissant

CMS Made Simple fait partie de ces nouveaux CMS qui débarquent sur le marché. Avant de dire mes premières impressions dessus, on va l’installer. L’installation de CMS Made Simple est similaire à n’importe quel CMS. Vous aurez besoin d’un serveur web, d’une base MySQL et le support de PHP.

Installer CMS Made Simple

 

On télécharge la dernière version de CMS Made Simple, on décompresse l’archive et on le copie sur le serveur web. On crée une base de donnée et on lance l’installation de CMS Made Simple en accédant au répertoire sur le serveur. Etant donné que je le test en local, mon adresse sera http://localhost/cmsmadesimple :

installer-cms-made-simple_1

On choisit la langue et le français est disponible. La page suivante permet de vérifier le Checksum qui contrôle l’intégrité des fichiers. Vous pouvez passer cette étape et cliquer sur Continuer.

installer-cms-made-simple_2

La page suivante vérifie si votre serveur permet d’installer CMS Made Simple. En général, cela devrait aller, car il nécessite peu de composants. Mais si vous votez des mentions en rouge, alors vous devez les corriger au préalable.

installer-cms-made-simple_3

La page suivante permet de déterminer le réglage umask qui concerne les permissions de fichier. Sous Windows, cela ne pose aucun problème, mais si vous êtes sous Linux (comme la plupart des serveurs web), vous devrez modifier la permissions de vos fichiers.

installer-cms-made-simple_4

La page suivante permet de fournir le nom d’utilisateur, le mot de passe et l’adresse mail du site. Une option permet de sécuriser le mot de passe ce qui implique qu’on ne pourra pas le réinitialiser sauf si on le restaure via son adresse mail.

installer-cms-made-simple_5

La page suivante vous demande les informations sur votre base de donnée. Ces informations vous seront fournies par votre hébergeur et le nom de la BDD est celle que vous avez crée avant l’installation. Cette page possède également une option qui permet d’installer des exemples de contenus et de Templates. cela peut être utile pour voir les possibilités de CMS Made Simple.

installer-cms-made-simple_6

La page suivante résume les informations sur l’adresse du serveur, le chemin du dossier et la langue sur le site public.

installer-cms-made-simple_7

Et c’est tout ! Vous venez d’installer CMS Made Simple.

installer-cms-made-simple_8

L’administration de CMS Made Simple

 

A première vue, CMS Made Simple propose une administration assez épurée. Les principaux éléments sont facilement accessibles et on a des notifications sur les événements et problèmes possibles sur le site.

installer-cms-made-simple_9

Le site public permet de voir des exemples de contenu :

installer-cms-made-simple_10

CMS Made Simple suit la tendance des CMS modulaires et faciles à utiliser. On peut installer des extensions externes si c’est nécessaire et la modification des thèmes est plus facile que sur d’autres CMS. Il sera nécessaire de connaitre le HTML et le CSS pour créer des templates parfaitement personnalisés.

CMS Made Simple permet de personnaliser chaque page du site ce qui le rapproche d’un Process Wire même si ce dernier est bien plus souple. Mais comme nom l’indique, CMS Made Simple va droit à l’essentiel et cela conviendra à de nombreux webmestres qui ne veulent pas se faire chier pendant des heures à tout configurer.

Malgré le fait que ce soit un bon CMS, l’inconvénient est que c’est juste un bon CMS. Il ne propose pas d’options particulières et il ne se démarque pas des autres CMS sur le marché. Par exemple, Process Wire a été comme meilleur CMS 2012, car il avait réussi à supprimer l’aspect même de l’administration. Tout se faisait sur la partie publique et même si CMS Made Simple sera très facile pour les habitués des CMS, il pourrait rebuter à ceux qui débutent vraiment dans ce domaine avec le concept de catégories, de types de contenu et de modules.

 

eBay commence à vendre des Bitcoins et des Dogecoins

ebay-bitcoin-dogecoin

Les crypto-monnaies continuent leur bonhomme de chemin parmi les géants du web. Cette fois, c’est eBay qui a lancé une catégorie spéciale pour les cryto-monnaies, principalement des Bitcoins et des Dogecoins.

Mais on également des contrats de minage, des scripts et même des machines à miner les pièces. Malgré la propagande gouvernementale et les médias, ces monnaies continuent à susciter l’engouement. Cela montre à quel point le système actuel est en faillite.

Source : http://www.ebay.com/chp/Virtual-Currency-/179197

 

L’Oculus Rift serait sexiste ?

 

Danah Boyd nous propose un article intéressant et original sur le fait que la réalité virtuelle et donc, l’Oculus Rift serait sexiste. Au delà de ce titre réducteur, elle explique que les femmes et les hommes ont une vision différente de la profondeur.

Les hommes représentent la réalité avec le mouvement parallaxe tandis que les femmes utilisent ce qu’on appelle la Shape-from-Shading. Le mouvement Parallaxe concerne la taille des objets. Si vous rapprochez un objet près de votre vision, alors votre cerveau calcule que l’objet n’a pas grandi, mais qu’il s’est rapproché.

Le Shape from Shading (la stéréo photométrique) concerne l’ombre de l’objet. Si on fixe un objet et qu’on déplace sa vision tout autour, l’ombre de l’objet va changer légèrement en fonction des changements de la lumière.

Ces deux différences dans la vision de profondeur ne posent pas de problèmes dans la réalité, mais elles peuvent provoquer des troubles dans la réalité virtuelle. Danah Boyd avait fait une expérience dans un univers virtuel en 1997 et tandis que ses collègues masculins étaient très à l’aise avec cet environnement, elle a commencé à avoir des nausées et elle a pensé qu’elle allait vomir.

La différence de sexe dans la perception de mouvement n’a pas fait l’objet d’études sérieuses, car cela équivaudrait à déclarer que les hommes et les femmes ne sont pas égaux (blasphème dans notre monde conformiste). Mais l’armée a déjà fait des expériences sur des simulateurs en estimant que les femmes ne sont pas absolument pas à l’aise dans des mouvements de rotations continus, car leur vision n’arrive pas à s’adapter correctement. C’est relatif aux hormones. Je n’ai pas tout compris sur les explications techniques, mais par exemple, les transsexuels qui s’injectent des androgènes (similaire à testostérone) remarquent une amélioration de leur perception de profondeur et la réduction de troubles évoqués par Danah Boyd dans la réalité virtuelle.

Le fait est que les hommes utilisent principalement le mouvement parallaxe tandis que les femmes privilégient la Shape From Shading et cela occasionne des troubles de nausées, de malaises et de vertiges dans la réalité virtuelle.

Mais ce serait trop facile de dire que la réalité virtuelle est sexiste, mais c’est juste qu’elle n’est pas aussi performante que la réalité tout simplement.

Désolé, les meufs, mais vous devrez vous passer de l’Oculus Rift.

Le passé, c'est l'histoire, le futur est un mystère, mais aujourd'hui est un cadeau, c'est pourquoi on l'appelle le présent

Bear