Découvrez les nouveaux critères SEO de Google pour déterminer un bon site

Régulièrement, Google met à jour ses critères de qualité pour déterminer un bon site. Cette dernière version continue de renforcer les mantras de qualité de contenu de Google, mais il y a aussi des petits trucs qui peuvent être intéressants pour les webmestres.

 

1 – Absence de l’ETA

L’EAT est Expertise, Authoritativeness et Trustworthiness. C’est sans doute le principal critère pour déterminer un bon site. L’expertise du webmestre, l’autorité du site dans sa thématique et la confiance des visiteurs dans le site. Chaque site est désormais testé avec cet ETA et on peut être mal référencé si on manque de passer l’un de ces trois tests.

Mais c’est quoi, une expertise ?

Le terme Expertise est vague, mais Google considère que quelqu’un qui poste quotidiennement des contenus sur un sujet peut être considéré comme un expert. Par exemple, un forum spécialisé avec des contributeurs souffrant de maladies possède un critère d’expertise plus important qu’un autre site qui ne dispose pas de ce type de contributeur.

Le Knowledge Graph va dominer les SERPs

Google se concentre beaucoup sur le Knowledge Graph. Il distingue 2 types de blocs d’informations. La première avec un titre et un descriptif et la second avec une partie du contenu extraite d’autres sites. Dans le premier cas, on aura un simple lien permettant d’afficher le contenu d’autres sites et dans le second cas, Google va afficher lui-même le contenu. Quoi qu’il en soit, le Knowledge Graph est sa prédominance dans la première page signifie la mort des sites et des webmestres dans certaines catégories.

Trop de publicité = Mauvais site

Si vous mettez trop de publicité sur votre site, alors Google le pénalisera dans le futur. Notamment, les sites qui affichent les pubs en début de contenu forçant l’utilisateur à défiler la page pour voir le reste. C’est contradictoire avec les directives d’Adsense qui nous dit de mettre les pubs bien en évidence sur la page.

Le contenu supplémentaire

Autrefois, Google nous disait de nous concentrer sur le principal contenu du site. Mais désormais le contenu secondaire sera un critère de qualité. Par contenu secondaire, on fait référence au pied de page ou  à la navigation. Un contenu secondaire peut être aussi complémentaire au contenu principal. Par exemple, un site de recette de cuisine peut afficher une recette comme son contenu principal et donner des informations nutritives comme son contenu secondaire. Dans un site e-commerce, le contenu principal devra donner des produits similaires ou des informations supplémentaires pour être bien classé.

Le contenu supplémentaire négatif

Toute page qui affiche un contenu secondaire de mauvaise qualité sera immédiatement pénalisé par Google. Parmi les exemples, on a les pages secondaires qui affichent uniquement la pub.

Un mauvais design

Un mauvais design peut être un critère de pénalité. On voit souvent les médias insérer des publicités dans le contenu principal. Genre, contenu +  publicité +  contenu +  publicité, etc. Pour Google, c’est un exemple d’un très mauvais design et cela gêne le visiteur dans sa lecture.

Le Shopping

A une époque, Google demandait aux sites de Shopping d’offrir des cadeaux ou des programmes de fidélité à ses clients. Désormais, Google n’exige plus ces directives, mais il faudra inclure des pages sur les remboursements et les retours de produits.

Le sites de Questions/Réponses

Les nouvelles directives d’autorité vont également concerner les sites de Questions/Réponses qui sont souvent remplis de mauvais contenu pour booster le classement. Google analysera la qualité et la profondeur des contenus sur ces sites de Questions/Réponses.

Si Google voit un site de Question/Réponse qui n’a jamais de réponse, mais uniquement des questions. Il conclura que c’est une tentative du webmestre de booster le site en utilisant des mots-clé sur les questions. En gros,  les sites de Questions/Réponses fantomes seront décapités.

La publicité Inline

La publicité Inline sont des liens qui affichent des pubs lorsqu’on les survole. Google interdit expressément ces pratiques.

L’affiliation

Google est plus clément avec les sites proposant l’affiliation. Il estime qu’il a bien nettoyé le web avec Google Panda. De ce fait, l’affiliation n’est plus sa principale cible. Un site avec des liens affiliés peut être bien classé s’il respecte les autres directives.

Attention à la réputation du site

La réputation d’un site a toujours été un critère SEO. Mais cette fois, Google va plus loin en disant que les avis négatifs sur un site peuvent le pénaliser. C’est également valable pour les sites qui ont été marqués comme dangereux.

Le Spam est mort ?

Curieusement, Google ne parle quasiment pas du Spam. La seule mention concerne les forums qui sont souvent remplis par ces types de webmestres. Est-ce que Google prétend qu’il a exterminé le spam ? Il devrait regarder dans les commentaires de sa plateforme Blogger avant de se réjouir trop vite.

Une page de faible qualité n’est plus acceptable

Avant, Google estimait qu’un contenu de mauvais qualité pouvait être accepté s’il n’y avait pas de sites présentant du bon contenu. Désormais, toutes les pages de mauvaise qualité seront systématiquement pénalisés quitte à nuire à la diversité des informations disponibles.

Les pages A Propos et de contact

Google en avait parlé à plusieurs reprises, mais cette fois, il l’inclut dans ses critères de qualité. Tous les sites doivent posséder des pages A propos avec des informations précises sur les auteurs ainsi qu’une page de contact.

Source

 

Le droit à l’oubli est le droit à la censure

En forçant Google à appliquer le droit à l’oubli, la Cour Européenne vient de légaliser la censure sans la moindre condition.

Google nous explique que les principales demandeurs du droit à l’oubli sont justement des personnes qui voudraient se faire oublier à cause de leurs mauvaises actions. Des politiciens qui veulent effacer les articles sur leur corruption, des marques qui sont mécontentes des critiques négatives alors que les particuliers qui demandent ce droit se comptent sur les doigts d’une main.

Pour la bonne raison qu’un particulier se fiche complètement de ce droit. Par ailleurs, l’imposition du droit à l’oubli est contre le principe même d’internet.

Dans ma définition, le droit à l’oubli concerne la suppression d’un contenu me concernant que j’ai crée dans le passé. Désormais, j’estime que ce contenu n’est plus pertinent et que j’ai changé d’avis. 

En revanche, la Cour Européenne justifie la suppression d’un contenu me concernant faite par une autre personne. Si je suis un politicien corrompu et qu’un blogueur fasse une enquête, je peux utilise le droit à l’oubli pour imposer une censure Low Cost.

Par ailleurs, ce droit à l’oubli est totalement inutile puisqu’il est annulé de facto par l’effet Streisand. Quand vous demandez le droit à l’oubli à Google, celui-ci va notifier le créateur du contenu en question de la suppression de son index. Cependant, le contenu lui-même pas supprimé, mais uniquement le lien dans les résultats de Google.

Cela signifie que si Google me notifie d’un lien supprimé, n’importe qui pourra accéder à son contenu en visitant directement mon site. De plus, si je suis notifié, alors je risque d’enquêter davantage sur la suppression en question puisque Google va m’indiquer des pages précises. Et ainsi, je pourrais dévoiler autre chose sur une personne alors que j’aurais pu complètement l’oublier.

J’ai visité l’enfer et chaque pavé possédait les plus belles intentions de la loi.

 

 

 

 

Est-ce que Google Adword favorise votre site dans le référencement de Google

 

Le mythe SEO le plus célèbre sur Google est que si vous lui achetez de la publicité via Google Adwords, alors il favorisera votre site dans les résultats organiques. Google et Matt Cutts ont toujours niés ce mythe, mais on peut dire qu’il y a quand même un petit truc.

J’utilise souvent Google Adwords pour lancer de nouveaux sites. C’est facile et cela ne coute pas une fortune (vous pouvez commencer à partir de 1 dollar par jour). Google Adwords est excellent pour lancer de nouveaux sites qui sont totalement inconnus sur le web. Cela permet d’accroître la visibilité en l’espace de quelques semaines.

Une chose importante à comprendre pour les nouveaux sites est que Google les classe automatiquement et systématiquement comme des spammeurs ou des sites douteux.

C’est l’ancienneté qui détermine si Google va vous permettre d’être bien classé sur son index. Les spammeurs utilisent souvent des sites pour quelques mois et ensuite, ils passent à un autre site. Donc, si vous pensez réussir votre nouveau site en 12 mois et que vous abandonnez, alors vous avez mal choisi votre orientation professionnelle. D’après mes observations, il faut au minimum 2 ans pour que Google vous classe comme un bon site.

Donc, j’utilise Google Adwords pour mes nouveaux sites. Mais ce qui est étrange est que Google classe bien mes sites même quand j’abandonne la publicité Adwords. J’utilise uniquement cette dernière pour faire connaitre le site et techniquement, les visites devraient baisser après la disparition des pubs. Mais au final, j’observe que mes nouveaux sites obtiennent une sorte de légitimité selon les critères de Google et j’observe une augmentation de trafic. Bien sûr, ce n’est pas énorme et pour un site avec 50 visites par jour, je peux espérer 60 ou 70 visites après le passage dans le moulin de Google Adwords.

Au delà de Google Adwords, on sent un favoritisme de Google si on utilise principalement ses services. Ce n’est pas le gros favoritisme qu’on sent venir à des kilomètres, mais plutôt des petites touches subtiles.

L’un des meilleurs exemples est le critère de chargement des pages. C’est un critère connu que si vos pages se chargent à la vitesse de lumière, alors le référencement de Google sera extrêmement positif.

Et Google propose ses services de Google Cloud qui inclut un Compute Engine pour le déploiement d’application, mais surtout Cloud Mysql. Dans le monde des CMS, la base MySql est le service qui consomme le plus de ressources. Et on peut compter sur Google pour proposer un service ultra-performant.

En fait, la tactique de Google est d’adapter les critères de référencement selon ses propres intérêts et ses services. Il nous inciter à jouer au jeu du SEO selon ses propres règles.

Donc oui, il y a bien un favoritisme si on utilise exclusivement les services de Google, mais ce n’est pas franchement illégal, car la position de Google est tellement monopolistique qu’il peut déterminer ce qui est légal ou pas.

 

 

Est-ce qu’on peut radicalement changer de vie ?

changer-viechanger-vie

Une question sur Quora demandait si on pouvait radicalement changer de vie et quelle serait la première étape ? Il y a eu de nombreuses excellentes réponses, mais l’une des plus pertinentes est de déterminer sa mentalité actuelle.

En fait, le fait même de penser à changer sa vie indique qu’on n’est pas encore prêt à le faire.

Comme le disait notre cher Bilbon, on parcourt des milliers de kilomètres en faisant le premier pas. Et si on ne fait pas ce premier pas dans la minute qui suit, alors on attendra encore et encore.

  • Ce que vous pensez aujourd’hui, vous le penserez demain
  • Ce que vous penserez demain, vous le penserez la semaine prochaine
  • Ce que vous penserez la semaine prochaine, vous le penserez le mois prochain
  • Ce que vous penserez le mois prochain, vous le penserez l’année prochaine
  • Ce que vous penserez l’année prochaine, vous le penserez dans 10 ans.

Posez-vous la question : Ce que vous pensez aujourd’hui vous convient-il pour les 10 prochaines années ? Sinon,  faites le premier pas tout de suite.

Les gens adorent leurs habitudes. Ils ont leurs rites quotidiens et parfois, on refuse de les changer.

Une autre bonne réponse que j’ai trouvé est que la remise en question en elle-même peut être faussée.

Peut-être que vous avez la vie que vous vouliez, mais des facteurs  et des personnes externes vous disent le contraire. De ce fait, on peut vouloir changer de vie, mais c’est uniquement à cause du jugement des autres. On refuse d’accepter qu’on a fait de notre mieux, car nous jugeons notre réussite par rapport à celle des autres.

 

Installation de Windows 7 avec Linux (Dual Boot)

 

Ce n’est pas vraiment un tutoriel, mais les problèmes que j’ai rencontré et résolu pour installer Windows 7 avec Debian 7 et le fait d’utiliser une clé USB Bootable plutôt que le DVD.

J’avais déjà installé Debian 7 sur la machine. J’avais juste une petite place pour Windows 7. Je n’ai pas encore de lecteur DVD sur la machine et il me fallait donc une clé USB Bootable de Window 7.

Il existe des centaines de tutoriels sur le sujet et ils vous disent tous la même chose. Téléchargez l’utilitaire Windows 7 USB/DVD download tool qui permet d’utiliser une ISO pour créer une clé USB bootable…

Ne l’utilisez pas, c’est de la merde.

Ce truc fonctionne uniquement si vous avez acheté légalement Windows (il peut se brosser dans mon cas), mais surtout que vous téléchargiez l’ISO fournie par Microsoft. Si vous achetez un DVD de Windows 7 et que vous créez une image ISO à partir de ce DVD, cela ne fonctionnera pas ! Il faut que ce soit une ISO certifiée par Microsoft.

A la place, utilisez WintoFlash qui plus ancien, mais qui fonctionnera avec n’importe quelle ISO. Cet utilitaire peut bugger, car il ne reconnaîtra pas toujours la clé USB. Il faut essayer plusieurs fois en débranchant et rebranchant la clé avant et après le lancement de l’application. Parfois, il peut bloquer pendant la création de la clé bootable et il faudra recommencer. Mais cela fonctionnera sur n’importe quelle ISO.

Installer Windows 7 avec Debian 7 en restaurant le GRUB

Avec Windows XP, vous installiez d’abord Linux et ensuite Windows XP. Ensuite, ce dernier vous permettait la possibilité de choisir l’OS à démarrer. Mais étant donné que Microsoft est trop cool avec Windows 7, celui-ci décide d’écraser le secteur de démarrage comme un enculé pendant l’installation. Le résultat est que Windows 7 démarre sans aucun problème, mais Linux a totalement disparu (Un désir cher à Microsoft).

Cependant, votre Linux est toujours sur le disque dur et il est parfaitement intact. Quand vous avez installé Linux, celui-ci a également installé GRUB, le gestionnaire de démarrage, mais Windows 7 l’a décapité.

Il y a plusieurs façons de résoudre le problème. On a SuperGrub qui est conçu spécifiquement pour restaurer le Grub, mais les étapes sont un peu complexes et je n’ai pas réussi à créer une clé USB bootable avec cet utilitaire.

J’ai préféré le faire avec Debian. J’ai crée une simple clé USB bootable avec Debian 7  comme pour une installation classique et j’ai choisi le mode Rescue. Il vous faudra jongler avec la navigation, mais vous aurez une option pour installer (et non restaurer) GRUB. Faites le et assurez-vous qu’il soit sur la partition d’amorçage de votre disque dur.

Si vous avez bien suivi les étapes, votre Debian  devrait redémarrer sans problème comme autrefois, mais cette fois, c’est Windows 7 qui a disparu (ces deux ne s’entendent pas diraient certains). Mais votre Linux s’affiche comme avant avec le GRUB au démarrage. Le truc est que nous avons installé GRUB, mais nous ne lui avons pas dit qu’il y a autre système qui est tapi dans un coin. Mais on peut lui dire comme faire.

Vous allez dans votre Debian (j’ignore pour les autres distributions). Et vous tapez d’abord la commande suivante dans un terminal :

sudo os-prober

Normalement, le résultat devrait afficher la partition où vous avez installé Windows 7 (sinon il faudra passer par le fichier de config de Grub qui est au delà de ma compétence).

Si vous avez le message de détection. Vous tapez la commande suivante :

sudo grub-update

Et GRUB sera mis à jour en ayant détecté Windows 7.

Redémarrez la machine et normalement GRUB devrait afficher votre partition de Windows.

La méthode SuperGrub semble plus intéressante, mais je pense qu’il faut passer par un CD amorçable plutôt qu’une clé USB.

La méthode pour installer Windows et Linux

Pour éviter toutes ces emmerdes, (merci Microsoft). Installez toujours Windows 7 en premier et Linux par dessus. Dans le cas d’Ubuntu, son installateur détectera Windows et vous permettra de configurer facilement le Dual Boot.

 

 

Adieu les commentaires

 

J’ai décidé de désactiver les commentaires sur Maniac Geek parce que leur contenu n’apporte plus rien dans les blogs en général. La plupart des commentateurs qu’on peut voir utilisent la liberté d’excrétion plutôt que la liberté d’expression. Tout est fait pour choquer, agresser et l’aspect discussion a totalement disparu.

L’article peut sembler modéré, mais les commentaires donnent une autre vision des choses.

Je les désactive aussi pour les Spams de merde et autre promotion inutile.

Si vous voulez commenter, lancez un blog.

 

 

Premier pas sous Debian 7 Wheezy

debian-7

Ce n’est pas un tutoriel ou un article d’expert. C’est juste mon expérience avec Debian 7 Wheezy que j’ai installé sur un nouveau PC.

Pourquoi Debian 7 ?

Parce que c’est gratuit et pour frimer… Et que même s’il y a d’autres distributions plus conviviales, l’image ISO de Debian 7 est la plus légère puisque le premier CD ne fait que 650 Mo tandis que Mint et Ubuntu avoisine les 800 Mo à l’aise

L’installation de Debian Wheezy

L’installation et la configuration de base n’ont pas été un problème (C’est toujours après que ça coince). Après le téléchargement, j’ai utilisé Linux Live USB Creator qui permet de créer une clé USB bootable pour la plupart des distributions Linux.

L’installation du système de base ne prend que 10 minutes et ensuite, on se retrouve avec le déroutant bureau de Gnome 3. Notez que Debian propose également des ISO avec KDE et Xfce pour ceux que çà intéresse.

On m’a dit que Gnome 3 est une merde ergonomique et même que Linus Torvald l’avait traité de pire environnement graphique, mais le truc est de s’habituer. Déjà, le bureau sera toujours vide. Tout se fait à partir du menu Activités qui permet de lancer le gestionnaire de Fichiers et les applications. Une barre de recherche permet de trouver rapidement l’application.

Changer les sources des paquets Debian

Les sources des paquets permettent de télécharger tous les programmes avec APT ou Synaptic. Et c’est là qu’on rencontre les premiers problèmes. Quand vous installez à partir d’un CDROM, Debian va créer une source de paquet pointant vers le CDROM, mais il ne peut pas comprendre qu’on l’a fait via l’USB. Donc, quand vous tentez d’installer un nouveau programme, vous aurez toujours un message d’erreur. On peut modifier pour le pointer vers l’USB, mais je ne me suis fait pas chier et j’ai indiquer les sources FTP des paquets. Voici ce qu’on peut mettre dans le fichier /etc/apt/sources.list :

deb http://http.debian.net/debian wheezy main contrib non-free
 deb-src http://http.debian.net/debian wheezy main contrib non-free
deb http://http.debian.net/debian wheezy-updates main contrib non-free
 deb-src http://http.debian.net/debian wheezy-updates main contrib non-free
deb http://security.debian.org/ wheezy/updates main contrib non-free
 deb-src http://security.debian.org/ wheezy/updates main contrib non-free

Cela indique qu’on veut bénéficier de tous les paquets de Debian Wheezy incluant les logiciels non libres. Si vous n’indiquez pas que vous voulez les logiciels propriétaires, certains programmes seront très limités

Wheezy, Jessie et Unstable

Les paquets Debian sont disponibles en 3 variantes :

  • Wheezy
  • Jessie
  • Unstable

Wheezy indique la variante la plus stable après que tous les paquets aient été testé encore et encore. Vous n’aurez quasiment aucun problème avec ces logiciels. Mais étant donné que cela prend beaucoup de temps, les versions sont très anciennes par rapport à ce qui a  déjà été publié par le développeur ou l’éditeur. Et cela poser de gros problèmes en termes de compatibilité des nouveaux périphériques.

Si vous voulez, vous pouvez inclure les dépots des autres variantes Debian dans Wheezy dans le fichier /etc/apt/sources.list avec des lignes telles que :

# jessie
 deb http://ftp.nl.debian.org/debian/ jessie main contrib non-free
 deb-src http://ftp.nl.debian.org/debian/ jessie main contrib non-free
# jessie Security
 deb http://security.debian.org/ jessie/updates main contrib non-free
 deb-src http://security.debian.org/ jessie/updates main contrib non-free

Ensuite, si vous faites un apt-get update, les nouvelles versions des logiciels devraient être disponible dans apt ou Synaptic. Mais les problèmes de compatibilité sont nombreux et il est préférable de passer par les Backports. Ces derniers font la même chose qui est de proposer des versions des programmes qui sont prévues dans la prochaine Wheezy, mais qui sont encore dans la branche Testing. Backports est plus sûr que de mettre à jour APT à l’arrache avec les fichier liste-sources, mais elle est parfois nécessaire si le programme n’est pas disponible dans Backports.

Le son dans Linux

Le son a toujours été un problème dans Linux. Le périphérique audio est rarement détecté et il faut souvent le faire à la main. Même si j’ai une carte mère plutôt récente (Gigabyte 2013), il est hallucinant de voir que les constructeurs et les fournisseurs font comme si Linux n’existait.

Putain, on est en 2014 et Microsoft est sur le déclin, alors qu’est-ce que vous foutez ?

Ma carte mère avait des composants sous Reatek et heureusement, ce dernier propose des pilotes pour Linux. Mon problème a été avec le périphérique Intel HD Audio qui est connu pour donner des migraines à Linux (on se demande pourquoi).

Si j’ai pu résoudre le problème du son, la clé 3G est juste un cauchemar !

 

Saloperie de putain de clé 3G de merde !

Si les constructeurs n’aiment pas Linux, on peut dire que les FAI ignorent même son nom. Et ne comptez pas sur les techniciens des FAI, car leur seule qualification est de pouvoir démarrer correctement Windows.

Mais Debian reconnait la plupart des clés 3G et il lancera automativement le gestionnaire des réseau et il demande simplement l’APN du fournisseur. Mais avant cela, désactivez le PIN de la puce (quand vous démarrez le téléphone et qu’il vous demande le PIN, alors cela signifie qu’il est activé).

Ce n’est pas un problème avec la puce 3G, mais uniquement cette foutue clé de merde. J’ai pu me connecter sans aucun problème en passant par le téléphone, mais la clé 3G est considérée parfois comme un périphérique de stockage.

Pour résoudre ce problème, vous devez passer par usb-modemswitch qui permet simplement de transformer la clé en un modem. Dans mon cas, cela marche une fois sur 20. Je dois brancher et débrancher la clé à plusieurs reprises et espérer qu’elle soit activée sur le réseau. Seuls certains constructeurs sont touchés par ce problème, notamment ZTE et Alcatel.

Dans le cas d’usb-modemswitch, la version de Wheezy ne fonctionnera pas. Il vous faut télécharger la nouvelle version (fournie dans le lien précédent) et tout compiler par vous-même.

Il n’y a rien au départ

A part ce souci qui peut vous pourrir la vie et avoir envie de tuer tout le monde avec une pince à épiler, on doit également comprendre que l’installation de base de Debian ne possède rien au départ. Il vous faudra installer la plupart des paquets, même les plus basiques. Même les outils de compilation (make) ne sont pas disponibles.

Au final, Debian Wheezy n’est pas plus compliquée qu’une autre distribution Linux. J’ai lu les problèmes de son et de connectivité sur Mint ou Ubuntu. Mais c’est un bon entrainement. Et vous devrez vous habituder à lire les Syslogs et chercher les messages d’erreur sur les moteurs de recherche où vous verrez des utilisateurs aussi paumés que vous.

Non, Linux n’est pas aussi convivial que Windows

Beaucoup des fanboys de Linux clament haut et fort que ce système est aussi convivial que Windows et c’est complètement faux. Mais ce n’est pas la faute de Linux, mais bien celle des constructeurs, des FAI et de toute l’industrie qui refuse de proposer des pilotes et des applications natives en Linux par paresse ou par connivence avec Microsoft.

 

Adsense volerait-il ses éditeurs ?

Il y a 2 types d’informations. Celle que nous voulons croire et celle qui est liée aux faits. Le pastebin d’un prétendu témoignage d’un employé de Google Adsense a fait son effet, mais il est très peu probable que ce soit vrai.

En premier lieu, le ton de l’article. Un employé de Google s’exprimerait différemment et surtout, il utilise la tactique de la théorie du complot qui est de faire des déclarations vagues pour que tout le monde puisse s’identifier dedans.

Le résumé du Pastebin

  • Google a subit des difficultés financières en 2009 et il a piqué l’argent des éditeurs Adsense pour renflouer ses caisses.
  • La mesure mise en place a été un ban systématique des éditeurs qui gagnaient un peu trop d’argent.
  • Le ban le plus efficace est celui qui intervenait juste avant le paiement pour que Google récupère la mise.
  • De nouvelles conditions d’utilisations qui évitent à Google de donner les raisons de la suspension du compte.

Des catégories d’éditeurs à surveiller :

  • Plus de 10 000 dollars par mois =  Proche de la décapitation
  • Plus de 5000 dollars par mois = Sous étroite surveillance
  • Plus de 1000 dollars par mois = Suspect et suppression du compte plus facile, car on n’a aucune raison à donner
  • Les VIP =  Des employés, des groupes et des médias puissants qui pourraient faire capoter toute l’affaire et donc, ils peuvent faire ce qu’ils veulent et leurs comptes ne seront jamais suspendus.

 

Pourquoi ça ne colle pas ?

 

Comme je l’ai dit, le ton d’une vraie fuite serait différent. On sentirait tout de suite que c’est un employé de Google qui s’exprime, car il proposerait des explications plus précises sur le fonctionnement d’Adsense.

Dans ce cas, on a un pauvre mec dont le compte a été supprimé et il a simplement écrit l’impression générale de tout le monde, à savoir, que Google a crée une arnaque pyramidale avec Adsense.

Premièrement, Google serait très con de supprimer les comptes supérieurs à 10 000 dollars, car il gagne 40 % des revenus.

Si le compte gagne 10 000 dollars bruts, alors Google garde 4000 dollars à chaque mois. Ce qui fait 48 000 dollars par année. Pourquoi Google irait supprimait un compte pour récupérer 6000  dollars de merde alors qu’il pourrait gagner plus sur le long terme ?

Les catégories d’éditeurs ne se basent jamais sur le montant, mais uniquement sur le clic par rapport aux visites. Pour Google, un bon éditeur est quelqu’un qui fait un bon CTR, c’est à dire le nombre de clics par rapport aux visites.

Ensuite, la plupart des suppressions interviennent juste avant le paiement. Ben, c’est parce que Google vérifie les données à ce moment, car en général, ce sont les algorithmes qui s’en chargent. Si le revenu est anormalement supérieur au mois précédent, alors on risque d’avoir des problèmes. Et non, on ne peut pas gagner 50 euros au mois de mars et 500 euros au mois d’avril…

Des éditeurs VIP qui pourraient faire ce qu’ils veulent…. Ben mon vieux, ce n’est pas un secret. Google propose Adsense Premium à ceux qui font plus de 20 millions de vues par mois. Ils peuvent quasiment tout faire et ils sont plus libres que les éditeurs normaux.

Ensuite, Google récupère l’argent qu’il a piqué aux éditeurs. J’utilise Google Adword, et je vois souvent des revenus qui me sont retournés parce que Google estime que ce clic pourrait être frauduleux. La même chose est valable pour les éditeurs. Ils peuvent voir certaines sommes qui sont retournés aux annonceurs, par exemple, pour 1 ou 2 clics.

Mais Adsense n’est pas tout blanc

 

Ceci étant dit, je soupçonne quelque chose dans Adsense depuis mal de temps. Les revenus ne montent pas alors que les visites augmentent. Une baisse de revenu soudaine qui est inexplicable.  Des éditeurs qui sont supprimés sans aucune raison (Seb Sauvage, Le hollandais Volant, etc). Le principal problème d’Adsense est qu’il ne donne pas les motifs précis d’une suspension et de ce fait, tout le monde y va de sa théorie.

Bien sûr, les partisans de Google se sont déchaîné contre cette fuite. Et ils nous répondent que si ça existait, il y aurait beaucoup de réclamations sur des suppressions invalides. Ben les mecs, vous feriez mieux d’enlever la merde Googlesque vous avez sur vos yeux et parcourir les forums de Google. Des milliers de personnes ont étés suspendus sans aucune raison valable.

Le problème à mon sens est qu’il n’y a aucune vérification humaine chez Adsense. Tout est automatique et la moindre activité suspecte entraine une suspension immédiate. Quand vous voyez qu’un site comme Labnol se fait avoir, on peut penser qu’il y a quelque chose qui ne tourne pas rond chez Adsense.

Mais non, cette théorie de vol des éditeurs tient plus d’une déclaration de haine à la va vite juste pour provoquer le buzz. Reddit a mentionné que cette lettre est apparue il y a déjà un an sur les forums de Google.

Facebook veut aussi lancer son propre service de publicité et on peut dire que le moment était bien choisi pour lancer cette fuite.

 

Cette blogosphère qui a disparue

GigaOM propose son avis sur l’état de la blogosphère et comment l’ancien mondes des blogs a disparu. Il ne fait que dire des choses évidentes, mais la blogosphère a évoluée, mais dans le mauvais sens.

Certes, cette nouvelle ère de services connectés permet d’avoir plus de monde et plus de visibilité, mais c’est au détriment de l’opinion individuelle.

Nous avons gagné beaucoup de choses, mais nous avons également perdu beaucoup au passage.

Nous sommes passés d’un concept de décentralisation vers un système fermé et verrouillé.

Et ce n’est pas une énième C’était mieux avant, car je dirais plus que c’était préférable avant.

Autrefois, chacun avait son blog dans son coin et la seule préoccupation était les liens entre les blogueurs, les Widgets les plus populaires et évidemment la Djihad dans les commentaires entre les blogueurs. C’était bordélique, c’était de l’amateurisme, mais c’était également la fondation d’un espace libre.

Et qu’est-ce qui s’est passé ? Et bien, on s’est rendu compte que les blogs et leurs audiences valaient beaucoup de fric. On ne s’est pas professionnalisé, mais on s’est bureaucratisé. L’argent, le marketing, le SEO a pris le pas sur le contenu et la liberté d’expression. Aujourd’hui, on hésite même à parler de certaines choses.

On se contente de suivre la tendance pour être le premier sur tout. Quand on voit Presse Citron qui se lamente parce que son article sur les Selfies pendant les Oscards n’est pas bien référencé, on se dit qu’on est tombé bien bas.

Le pire n’est pas le changement des blogueurs, mais l’évolution des outils et de la technologie. Nous avons confié nos données à des espaces fermés (Facebook, Twitter, Google, Tumblr, etc). C’est eux qui nous disent ce que nous pouvons publier ou non. Les blogueurs sont censurés et si l’un d’entre eux utilisent un langage châtié ou qu’il dit quelque chose à contre-courant, alors tout le monde le regarde comme un pestiféré et cherche le meilleur moyen de le mettre à l’écart.

14 des pires photos de la guerre

auto-immolation-bonze_9

Ce soldat pendant la guerre au Congo en 2008 tient une main tranchée et des pénis

Les troupes autro-hongroises executent des serbes en 1917. La Serbie a perdu 850 000 personnes dans cette guerre, soit un quart de sa population.

L’exécution du capitaine Vietcong Nguyen Van Lem par l’officier de police sud coréen Nguyen Ngoc Loan.

Des prisonniers russes au camp de concentration de Buchenwald qui sont passés de 80 kg à 35 kg en 11 mois.

Un prisonnier brûlé vif par un SS. Il est resté dans la position de sa mort.

Les cadavres des victimes de l’Holocauste jetés dans une fosse.

Une pile de cheveux des victimes de l’Holocauste. Les cheveux étaient utilisés pour faire des fils.

Un corbeau qui mange un soldat mort.

Des partisans en Russie qui sont pendus par des Allemands

Le champignon nucléaire sur la ville de Nagasaki.

Le sergent Leonard Siffleet combattait dans l’armée australienne et il a été capturé par les forces japonaises. Torturé pendant 2 semaines, il a été décapité par l’officier japonais Yasuno Chikao.

Des femmes et des enfants qui se cachent dans un marécage pendant les bombardements américains durant la guerre du Vietnam.

Un chef tribal éthiopien qui se soumet aux troupes italiennes pendant la guerre entre l’Italie et l’Ethiopie de 1935/1936.

Le Deatch Match était un match de foot entre une équipe de soldats soviétiques, le FC Start, et une équipe de la Luftwaffe, la Flakelf. Le match s’est joué le 9 aout 1942 et il a été arbitré par un soldat SS. L’arbitrage était totalement en faveur des SS qui commettaient toutes les fautes qu’ils voulait incluant un coup de pied dans la tête d’un soldat russe. Malgré cet arbitrage, l’équipe Russe a gagné sur le score de 5 à 3. Cette victoire n’a pas été sans conséquence. Quelques joueurs du FC Start ont été arrêté et torturés par la Gestapo sous le prétexte qu’ils étaient des membres du NKVD (puisque le Dynamo de l’époque était financé par la police). L’un des joueurs, Mykola Korotkykh, est mort sous la torture. Le reste a été envoyé dans le camp de travail forcé de Syrets où Ivan Kuzmenko, Oleksey Klimenko et le gardien de but Mykola Trusevich ont été tués en 1943.

 

 

Minecraft 1.8, la personnalisation unique de votre monde

Il est bizarre Mojang. Parfois, il fait des trucs que tout le monde déteste et parfois il surprend avec des mises à jour tellement exceptionnelles qu’on se demande si on rêve éveillé. On n’attendait pas beaucoup de Minecraft 1.8 ces dernières semaines.

On avait les nouveaux blocs, le nouveau système d’enchantement, et des nouvelles options pour le multijoueur. Mais il y a quelques jours, Mojang a présenté l’option de la personnalisation des mondes. Et tout le monde est resté sur le cul !

Les possibilités sont infinies. On peut définir chaque paramètre du monde avant sa création. On peut définir la hauteur des montagnes, augmenter le nombre de village, de forteresse et en fait, chaque joueur pourra créer un monde vraiment unique.

minecraft-1-8_1

 

On peut également modifier le taux de spawn de tous les minerais. Les réglages sont assez complexes, mais on risque d’assister à une frénésie créative pour créer des mondes parfaits. Cette fonction s’accompagne aussi de mondes prédéfinis. Par exemple, un  monde entièrement océan et toutes les structures se trouvent dans les fonds marins. Le retour du monde d’îles flottantes. On a également un monde avec des océans de lave et un autre qui est entièrement composé de cavernes (ce dernier n’est pas pour les lopettes).

minecraft-1-8_2_1

Avant, il fallait chier pour trouver du diamant, mais maintenant un petit réglage dans la personnalisation du monde et on peut trouver du diamant en énorme quantité  à la surface.

minecraft-1-8_3_1

Cette personnalisation du monde me rappelle le mod Mystcraft, mais pour une fois, Mojang s’est inspiré de ce mod et l’a amélioré, car Mystcraft était entièrement aléatoire tandis que cette option permet d’avoir exactement ce qu’on veut.

On peut également délimiter le monde. Je sens qu’on va bien s’amuser avec cette mise à jour Minecraft 1.8.

Google+ est venu, il a vu et il a vaincu

 

Les médias et les blogs spécialisés ne se lassent pas de la mort de Google+ après le départ de son créateur. Encore un exemple typique du manque de compétences et de prise de distance par rapport à l’analyse de l’information.

En bref, ce sont des ignorants qui n’ont jamais compris Google+ et pourquoi Google l’avait lancé.

Le départ du créateur de Google+ implique simplement que Google+ n’est plus un produit, mais une plateforme. Une plateforme qui contient les profils des centaines de millions d’utilisateurs de Google. Google voulait centraliser les informations de ses utilisateurs via une seule plateforme et c’est ce qu’il a fait avec Google+.

Certes, Google+ devait être un concurrent de Facebook et Twitter, mais le concept du réseau social a changé en 2 ans.

Facebook a fait combien de changements majeurs sur son réseau ?

Quasiment aucun, mais uniquement des peaufinages.

Facebook a acheté combien de services et d’applications ?

Une pléthore avec une valorisation qui approche des 40 milliards de dollars.

 

En fait, Facebook a compris la force de Google et l’ambition de Google+. Les utilisateurs des réseaux sociaux détestent  les produits qui centralisent tous les types de contenu. C’est pourquoi, on assiste à une explosition fulgurante des petites applications telles que WhatsApp, Instagram, etc. Les gens sont des idiots et ils ne veulent pas se compliquer la tâche avec un interface à laquelle ils ne comprennent rien. Facebook a compris ce changement de comportement et c’est pourquoi, il achète ces applications à des montants qui sont 1000 fois leur valeur de base.

Désormais, le réseau social de Facebook est secondaire, mais l’identité Facebook sera cruciale pour utiliser tous les petits services de sa galaxie.

Et c’est exactement ce que Google+ a fait. Il a fusionné les meilleurs services du web (Youtube, Blogger, Google SearchPicasa) sous un seul profil et Google a terminé sa fusion et donc, il n’a plus besoin du réseau social Google+, car il possède le précieux profil Google+ qui centralise toutes les informations. Autrefois, les profils Google ,Blogger et Youtube étaient éparpillés avec des informations non-fiables, mais ces anciens profils ont disparus.

En fait, Google a crée un réseau social de 500 millions de dollars juste pour avoir les données sur votre profil.

On peut dire que Google est un génie, car il a anticipé l’utilisation même d’un réseau social. Il se débarrasse de Google+ qui lui coûte trop cher, mais il garde les précieuses informations sur les profils Google+ qui va lui permettre de rentabiliser ses services.

Au final, le plus grand perdant dans cette bataille est Twitter, car il se base toujours sur une vision centralisée du réseau social, alors la centralisation déchaine la haine chez les utilisateurs.

 

Comment migrer de Windows XP vers Ubuntu

Si vous avez besoin de migrer de Windows XP vers Linux, Ubuntu est le meilleur choix, car il permet de faire la transition tout en douceur. Certains considèrent la mise à jour ou l’installation d’un nouveau système comme une corvée et un cauchemar, car de nombreux problèmes peuvent se produire. Par ailleurs, les entreprises regardent également sur le coût du processus, mais Ubuntu et ses principales applications sont totalement gratuites. Dans ce guide, on vous propose les principales étapes de la migration, mais également des applications qui sont équivalentes à celles que vous aviez sur Windows XP.

Préparation pour la migration de XP vers Ubuntu

 

migrer-windows-xp-ubuntu_1

Avant que vous ne passiez à Ubuntu, vous devez déterminer si ce système convient à vos besoins quotidiens. Regardez les applications que vous utilisez tous les jours et vérifiez s’ils sont disponibles sous Linux. En général, on peut quasiment tout faire sur Linux même si l’approche peut être différente. Mais dans certains cas, on ne pourra pas se passer de Windows.

Si vous pensez qu’Ubuntu vous convient, la meilleure solution est de faire un Dual Boot afin de garder Windows XP. On ne recommande pas d’utiliser Windows XP tous les jours, mais cela vous permet d’accéder à tous vos répertoires sous Windows à partir d’Ubuntu. Ainsi, vous aurez une roue de secours et vous pourrez repasser temporairement sous Windows si cela coince avec Ubuntu.

Etant donné que vous devrez installer Ubuntu et Windows XP sur le même disque dur, je conseille de faire un peu de nettoyage avec l’outil de nettoyage intégré dans Windows XP. Vous pouvez également utiliser WinDirStat pour déterminer les fichiers qui bouffent votre espace disque. Cela dépend pour chacun, mais un espace disque minimal de 10 Go est nécessaire pour être à l’aise avec Ubuntu. Si vous pensez que le disque est vraiment plein, alors il faut envisager de se débarrasser de Windows XP pendant l’installation d’Ubuntu et de sauvegarder tous vos fichiers sur un média externe.

Choisir et télécharger une version d’Ubuntu

 

Ubuntu est disponible en plusieurs versions et on peut les télécharger depuis le site officiel. La dernière en date est Ubuntu 14.04 LTS, nom de code Trusty Tahr. Le LTS signifie Long Term Support signifiant qu’on bénéficiera de mises à jour et de correctifs au moins pendant 5 ans. Plus précisément, vous pourrez utiliser Ubuntu 14.04 LTS jusqu’en avril 2019 (vous avez de quoi voir venir hein ?).

Le téléchargement par défaut concerne la version en 64 bits, mais on conseille de prendre Ubuntu en 32 bits à moins que vous ayez plus de 4 Go de RAM. Ubuntu 32 Bits peut gérer uniquement 3 Go de RAM, mais l’avantage est que la plupart des applications sont disponibles en 32 bits contrairement à leurs homologues en 64 bits. Et si votre PC est vraiment ancien, alors votre processeur ne supportera pas le 64 bits.

Cliquez sur le lien de téléchargement et Ubuntu vous demandera de faire une donation. Cliquer sur Non et le téléchargement du fichier ISO va débuter. Dépendant de votre connexion, il faudra attendre plusieurs heures. Si vous n’avez pas de connexion illimitée, sachez qu’il existe des vendeurs qui proposent des CD ou DVD d’Ubuntu. Cela coutera entre 5 et 10 dollars.

Une fois que vous avez téléchargé l’ISO d’Ubuntu, vous devez le graver sur un DVD (Un CD ne suffira pas). Si vous n’avez pas de lecteur DVD, vous pouvez utiliser un outil tel le LinuxLive USB Creator pour le graver sur une clé USB et la rendre amorçable. Ensuite, vous branchez votre clé USB et vous redémarrez l’ordinateur. Vous aurez besoin d’aller dans le BIOS pour changer l’ordre de démarrage en mettant l’USB en premier. Les menus et les noms des options peuvent changer selon les cartes mères, mais elles sont faciles à reconnaitre.

Tester ou installer directement Ubuntu

 

Le fichier ISO que vous avez téléchargé est un Live ISO signifiant que vous pouvez démarrer Ubuntu sans avoir à l’installer. Cela permet de tester Ubuntu et déterminer s’il vous convient. Vous pouvez tout faire avec ce test tel que se connecter à internet, créer et supprimer des fichiers, lire de la musique. Une fois que vous êtes certain que vous ne serez pas totalement dépaysé, vous pouvez lancer l’installation.

De même, on recommande toujours de mettre Ubuntu sur la clé USB, car le test et le système seront plus rapides que sur un lecteur DVD. Le Live va vous amener sur l’environnement d’Ubuntu et vous pouvez lancer l’installation en cliquant sur le lien Installer Ubuntu sur le bureau.

migrer-windows-xp-ubuntu_2

Cette installation vous demande si elle doit télécharger des mises à jour éventuelles et cela permet d’avoir les pilotes les plus récents pour les périphériques. C’est également une bonne idée d’installer des logiciels de tierce partie qui concerne le plugin Fluendo MP3 qui permet d’écouter des fichiers MP3. Etant donné que c’est un format propriétaire, il n’est pas activé par défaut.

L’installeur d’Ubuntu vous permet de faire directement du Dual Boot. Il vous proposera les options Installer avec Windows ou Remplacer Windows par Ubuntu. Cette dernière option implique qu’Ubuntu va supprimer tous les fichiers relatifs à Windows, donc, faites des sauvegardes au préalable. De même, l’installeur vous permettra de déterminer l’espace que vous voulez allouer aux 2 systèmes. Il n’est pas nécessaire de mettre beaucoup pour Windows XP puisqu’on le garde uniquement comme une roue de secours.

L’opération de redimensionnement du disque dur dépend de l’espace disponible et de la fragmentation de votre disque dur. Ensuite, on vous demande les informations d’administration incluant le fuseau horaire, le type de clavier, le nom d’utilisateur, le mot de passe, etc. Si vous ne partagez pas votre PC, vous pouvez activer l’option Se connecter Automatiquement, car ainsi, vous n’aurez plus besoin de fournir un mot de passe à chaque démarrage d’Ubuntu. Et vous n’avez pas non plus besoin de crypter vos dossiers.

Et c’est tout ! L’installeur fera le reste et vous devez juste patienter. A la fin, il vous dira de redémarrer le PC, d’enlever le média d’installation et vous pourrez jouer avec votre nouveau Ubuntu.

Retrouver votre chemin dans Ubuntu

 

Ubuntu est un système très intuitif, mais il y a quelques différences par rapport à Windows XP. En premier lieu, il n’y a pas de menu Démarrer, mais vous pouvez lancer des applications en cliquant sur les icônes sur le lanceur situé sur la gauche de l’écran. Vous pouvez également chercher le nom des applications en ouvrant le Dash. Pour ce faire, cliquez sur le logo Ubuntu sur la partie supérieur du Lanceur ou appuyez sur la touche Windows et saisissez le nom de l’application. Il y également une icône sur le coté supérieur droit où vous pouvez trouver les réglages du système et les options de redémarrage et d’extinction.

migrer-windows-xp-ubuntu_3

Dans Linux, tous vos fichiers et dossiers se trouvent dans un répertoire nommé Home. Vous pouvez l’ouvrir en lançant le visionneur de fichiers (le second lanceur à partir du dessus). Vous trouverez des dossiers pour la musique, les documents, etc. Vous trouverez également un dossier Desktop ou Bureau pour un accès rapide vers vos fichiers depuis le bureau. Il y a également un dossier Public ou vous pouvez mettre des fichiers que vous voulez partager avec les autres. Par exemple, si vous créez plusieurs comptes pour les membres de la famille, alors ces derniers pourront voir les fichiers qui se trouvent dans ce dossier Public, mais ils ne verront pas le contenu de votre répertoire Home.

Ubuntu est fourni avec de nombreuses applications pré-installées et en fait, le choix est bien plus vaste que sous Windows. Le centre de logiciels d’Ubuntu est comme un App Store sur votre bureau. Vous pouvez trouver et installer les programmes en quelques clics. Et étant donné que c’est Linux, la plupart de ces applications sont gratuites.

A ce point, vous avez un Ubuntu fonctionnel et on vous propose les applications que vous pouvez utiliser sur Ubuntu selon vos besoins.

La navigation web dans Ubuntu

 

Désolé pour les fans, mais il n’y a pas d’Internet Explorer sous Ubuntu. Mais Firefox et les autres sont tous disponibles. Concernant Opera, vous ne pouvez pas le trouver dans le centre de logiciels, mais vous pouvez le télécharger directement depuis le site d’Opera. Ce site détectera automatiquement votre système et il vous proposera la version appropriée.

Si vous préférez Chrome, Chromium est la version Open Source du navigateur de Google. Il fonctionne de la même manière et il peut synchroniser vos favoris, vos réglages, etc. Toutefois, vous n’aurez pas les fonctionnalités propriétaires de Chrome telles que le Flash et le support du H.264. Mais Chrome est également disponible pour Linux et choisissez la version 32 bits.deb, car cela concerne Ubuntu et Debian.

Le mail dans Ubuntu

migrer-windows-xp-ubuntu_4

 

Ubuntu est fourni avec Mozilla Thunderbird et il fonctionne avec tous les fournisseurs et les webmails. Si vous cherchez un client mail avec un agenda intégré, vous pouvez télécharger Evolution Mail et Calendar qui sont disponibles depuis le centre de logiciels.

Le chat et la voix sur IP dans Ubuntu

 

Vous pouvez penser que Skype appartenant à Microsoft, vous ne le trouverez pas pour Linux et bien, vous avez tort, Microsoft propose un Skype pour Ubuntu sur son site.

De même, vous pouvez utiliser l’outil de messagerie Empathy qui supporte de nombreux services tels que Google Talk, Facebook, AIM, Yahoo, etc. Vous pouvez vous connecter à tous les services en même temps et cela permet de centraliser les notifications avec un seul logiciel.

Le stockage en ligne dans Ubuntu

 

Dropbox propose un client natif pour Ubuntu et vous pouvez l’installer depuis le centre de logiciels. Si vous préférez l’OneDrive de Microsoft, vous devez passer par le service Storage Made Easy qui propose un client pour Ubuntu et il supporte la synchronisation avec SkyDrive. L’Apple iCloud, Box et Google Drive sont également disponibles pour Ubuntu.

Les applications bureautiques dans Ubuntu

 

Ubuntu est disponible avec LibreOffice qui vous permet de modifier des documents Word, Excel et Powerpoint. Vous pouvez également créer des documents qui seront compatibles avec Office. Beaucoup ont abandonnés Microsoft Office au profit de LibreOffice.

Notez que le formatage peut varier si vous ouvrez un document Word sous LibreOffice, mais il sera parfaitement lisible. Mais LibreOffice peine sur son traitement de texte, notamment pour les tableaux, les bordures des pages et les filigranes. Le site de LibreOffice vous permet de comparer les différences avec Microsoft Office.

Enfin, on prévient que LibreOffice ne propose pas d’équivalent à Microsoft Publisher. Le centre de logiciels propose Scribus DTP, mais il a du mal à travailler avec d’autres formats de fichier. Donc, si vous avez une archive au format PUB, on ne garantit pas que vous pourrez l’ouvrir et la modifier sous Ubuntu.

Le développement web sur Ubuntu

 

migrer-windows-xp-ubuntu_5

 

Même si Ubuntu ne propose pas des mastodontes tels que Dreamweaver ou Muse, il propose l’excellent BlueFish qui supporte la plupart des langages. Vous pouvez également utiliser SeaMonkey Composer ou KompoZer, mais on a besoin de les compiler pour les installer.

La musique sur Ubuntu

 

migrer-windows-xp-ubuntu_6

Rhythmbox est le lecteur de musique intégré d’Ubuntu et il vous permet de gérer vos musiques et vos podcasts. Il supporte les formats MP3, OGG, FLAC et M4A. Il peut lire et ripper des CD et il supporte des dizaines de radio en ligne incluant Last.fm et Libre.fm. Mais il est difficile de migrer ses Playlists iTunes ou Windows Media.

Apple ne propose pas d’iTunes pour Ubuntu et donc, il est impossible de synchroniser avec un iPod ou un iPhone. Mais vous pouvez utiliser Google Play Music qui propose un client natif pour Ubuntu.

La vidéo sur Ubuntu

 

L’application vidéo d’Ubuntu est Totem et il supporte la plupart des formats. Mais évidemment, vous pouvez installer VLC qui est le meilleur des lecteurs multimédias sur le marché. VLC peut aussi lire des DVD, mais vous aurez besoin de composants propriétaires pour que cela marche.

L’édition de photo sur Ubuntu

 

migrer-windows-xp-ubuntu_7

Le gestionnaire de photo Shotwell peut importer et trier les images de n’importe quel APN ou téléphone. Vous pouvez mettre des tags et noter les photos. Et vous pouvez appliquer des effets basiques tels que l’exposition, la teinte, le recadrage ou la correction des yeux rouges.

Si vous cherchez un outil plus puissant, alors il y a GIMP que vous pouvez installer depuis le centre de logiciels. GIM est aussi puissant que Photoshop et sa prise est plus facile grâce à la refonte récente de l’interface. Certes, Photoshop est le meilleur, mais les logiciels d’Adobe se basent désormais sur un abonnement mensuel tandis que GIMP est totalement gratuit. De plus, le module UFRaw permet d’importer les images RAW dans GIMP.

L’édition de la vidéo sous Ubuntu

 

migrer-windows-xp-ubuntu_8

OpenShot est un éditeur vidéo non-linéaire pour Ubuntu. On peut le comparer à un Windows Movie Maker plutôt qu’à un Sony Vegas. OpenShot ne peut pas importer des vidéos des autres applications, car il supporte uniquement son propre format OSP. Si vous voulez quelque chose de balaise, vous pouvez utiliser Lightworks qui est payant avec une licence qui dépasse les 200 dollars.

La création de la musique sur Ubuntu

 

migrer-windows-xp-ubuntu_9

L’outil le plus avancé pour la musique sous Ubuntu et Ardour qui permet une modification non-destructive sur un nombre illimité de pistes audio et MIDI. Il n’est pas gratuit, mais il coute 1 dollar pour une licence sans mise à jour. On conseille de lire sa licence sur le site officiel.

Une autre option est Tracktion qui est actuellement disponible gratuitement en bêta 64 bits.

Les jeux sous Linux

 

Linux a été snobbé principalement par le manque de jeux, mais de nos jours, de nombreux éditeurs proposent des versions pour Linux à cause du catastrophique Windows 8. Steam propose de nombreux jeux sous Linux. De plus, SteamOS qui est prévu pour cette année permettra d’avoir de nombreux titres disponibles sous Ubuntu.

Comme on le voit, Ubuntu et Linux en général est un système complet, car il propose des outils pour la plupart des tâches. Certes, certaines catégories sont sous-représentées, mais la gratuité, la stabilité et la sécurité sont bien plus jouissives comparé à l’environnement verrouillé et vulnérable de Windows. Parfois, il suffit juste de franchir le pas pour comprendre que Linux n’est pas un monstre qui va vous dévorer tout cru.

 

La cyber-intimidation (cyberbullying), le fléau qui décime les jeunes

 

La cyberintimidation ou cyberbullying est le phénomène d’harcèlement chez les jeunes qui utilisent principalement les nouvelles technologies.

cyberbullying-cyber-intimidation

Des études commencent à paraître sur les dangers de cette pratique chez les jeunes sur le long terme. En premier lieu, la cyberintimidation est aussi dangereuse que l’intimidation face à face, car elle possède les mêmes comportements et cela peut empirer, car contrairement à un harcèlement normal, la cyberintimidation peut être pratiquée 24h24 et 7j/7. Par ailleurs, la cible va recevoir les menaces sur tous les canaux possibles allant du mail jusqu’aux réseaux sociaux en passant par les appels.

Les agresseurs privilégient la cyberintimidation grâce à l’anonymat qu’il procure, à la facilité de créer des faux comptes mails et sur les réseaux sociaux et au fait que les attaques peuvent être reprises par d’autres membres pour un impact global. Ainsi, des millions de personnes peuvent participer à la cyberintimidation en partageant le texte, image ou vidéo de la cible à cause du fantasme de l’impunité qui est en augmentation croissante chez les jeunes.

Facebook est le réseau le plus utilisé dans la cyberintimidation suivi de Twitter et des applications de messagerie. Les jeunes qui sont victimes de la cyber-intimidation risquent les troubles suivants :

  • Alcoolisme et drogue
  • Pratique fréquente de l’école buissonnière (pour échapper aux harceleurs qui sont souvent dans l’entourage)
  • Risque d’intimidation face à face
  • Baisse de la performance dans les études
  • Perte d’estime de soi
  • Risques considérables sur les problèmes de santé

Selon une étude en 2011, 16 % des étudiants américains ont déjà souffert de la cyberintimidation. La cible avouera rarement qu’elle est cyberintimidée et il est du devoir de son entourage de détecter les signes de malaise pour éviter une escalade qui peut aller jusqu’au suicide.

Il existe des sites tels que StopBullying qui permettent de s’informer sur ce phénomène, mais également de rapporter ce crime aux autorités compétentes.

 

 

Quand les médias et blogs font la propagande de Windows 8

 

J’ignore pour vous, mais j’ai l’impression qu’on se croirait revenu à la belle époque de Microsoft où il faisait sa propagande en détruisant Linux au passage.

Je n’ai jamais plus lu un seul magazine de PC lorsque j’avais vu dans l’un d’eux qui disait que Windows Millenium était plus sécurisé que Linux… Ce même journaliste tient actuellement une rubrique populaire sur 01.net, mais passons…

Tous les médias nous vantent les mérites de Windows 8.1 depuis la dernière mise à jour. Et certains n’y vont pas par 4 chemins et ce n’est pas juste de l’ignorance, mais de la pure propagande à grands coups d’articles sponsorisés.

L’un de ces articles (en anglais) nous donne les raisons pour lesquelles Windows 8 est plus sécurisé que Windows 7. Je vous passe les détails sur le torrent de boue, mais il y a en deux qui sont une telle merde qu’on a envie de faire fondre des DVD de Windows 8 et de les enfoncer dans la gorge de ces blogueurs à la manière de Game of Throne.

Le démarrage sécurisé permet d’éviter les bootkits sur votre ordinateur.

Je suis sorti de ma culotte à reculons quand j’ai lu ça.

Le Secure Boot décrit dans le site est évidemment la merde UEFI dont l’ambition est de bannir Linux sur les PC.

Alors écoutez-moi bien,bande de trous de cul. Cela fait des années que les auteurs de virus ne créent plus de bootkit pour la bonne raison qu’ils ne sont pas rentables. 97 % des Malwares dans le monde se concentrent sur le vol de données personnelles. Le seul objectif de l’UEFI est de faire en sorte que vous ne puissiez installer que des merdes Microsoft sur le PC. En fait, que vous achetiez un PC ou que vous l’assembliez, la première chose que vous devez faire est d’aller dans le BIOS, de trouver un truc appelé Quick Boot ou quelque chose de similaire et de le désactiver.

La seconde propagande dans cet article est de promouvoir les applications via le Windows Store. Attention, c’est du Collector.

Les Windows 8 Apps possède un contrôle limité dans le système, car elles sont comme des applications iOS ou Android. Cela vous permet d’être plus protégé contre les méchants virus.

Mais évidemment, l’inconvénient est qu’on ne peut trouver ces fichus applications QUE sur Windows Store. Cela permet à Microsoft de créer un écosystème totalement verrouillé et merdique à souhait.

Il nous dit aussi Windows 8 est plus cool, car il intègre l’antivirus Windows Defender. Windows Defender a obtenu la plus mauvaise note sur des tests indépendants d’antivirus. Sur 20 000 virus, il en a détecté seulement 80 %. Vous pouvez dire que c’est beaucoup, mais Avast! en version gratuite a détecté 97 % tandis que Kaspersky avoisine les 98 %. Après, c’est sûr que Windows Defender est très léger, mais est-ce qu’on a besoin de le promouvoir comme une pute un samedi soir ?

Je pensais que les médias et les blogs en avaient finis avec cette époque de connivence avec les marques. On prend l’exemple d’un site en anglais, mais les médias et blogs français sont aussi dithyrambiques.

Le pire est les commentaires de l’article dont la majorité ne capte absolument pas l’aspect promotionnel de l’article.

Evidemment, tant qu’il y aura des vaches à lait, Microsoft peut se frotter les mains.

 

 

Aucune paix possible entre la technologie et la loi

Une entreprise peut être poursuivie en justice lorsqu’elle refuse d’engager une personne en fonction de sa religion, son orientation sexuelle ou ses origines, mais il est fréquent que les recruteurs filtrent les profils sur les réseaux sociaux selon ces mêmes critères.

Une banque peut regarder le profil Facebook d’une personne et lui interdire l’ouverture d’un compte si elle peut trouver des informations compromettantes sur sa viabilité financière. Et la plupart des réseaux sociaux utilisent des algorithmes pour bannir telle ou telle personne. De ce fait, on trouvera toujours un fossé entre les lois qui régissent la société humaine et la technologie adoptée par cette société.

La loi est des normes qui sont acceptées par la majorité  de ses membres afin de réguler la société. Et Gandhi avait l’habitude de dire que la loi est la forme extrême de la codification de l’éthique. En temps normal, cette codification de l’éthique sert tous les membres, car ils évoluent tous de la même façon.

Mais la technologie impose de voter des lois qui sont contraires à l’évolution humaine. La loi sur le droit d’auteur n’est pas lié à la protection de la propriété intellectuelle, car elle a été utilisée pour contrôler le partage de la connaissance.  Les premiers textes sur le droit d’auteur sont apparus après l’invention de la presse à imprimer.

Cette invention a permis de partager la connaissance de l’élite vers la masse. Et la connaissance entraîne un mouvement de remise en question. A l’époque de cette invention, le monde était dominé par l’Empire Catholique et ses membres politiques et religieux n’appréciaient absolument que leurs connaissances et leurs manigances soient connus de la masse grâce au partage de la connaissance via le papier imprimé. Le mouvement du Protestantisme est apparu après cette invention sans oublier la tendance des citoyens à privilégier le nationalisme. Et cette effervescence a amené l’époque de la Renaissance.

3 évolutions majeures qui ont bouleversés le monde à cause d’une simple machine qui mettait de l’encre sur du papier.

De même, la révolution industrielle avec le moteur à combustion, la production de masse et l’invention de l’acier ont renforcés les lois sur le droit d’auteur et le droit contractuel. Chacun voulait protéger ses inventions pour promouvoir principalement son esprit nationaliste.

La technologie a 100 ans d’avance sur la loi

 

Nos lois et notre éthique ont évolués au fil des siècles. Aujourd’hui, on a des avions et des véhicules automatiques. Même un village de pauvres en Inde peut accéder à Facebook via son téléphone. Et Facebook est parti d’un site pour des étudiants pour devenir une référence mondiale sur la technologie.

Aujourd’hui, un simple Smartphone est plus puissant que le Cray 2, un supercalculateur construit en 1985 et qui a coûté 17,5 millions de dollars et qui pesait 2,5 tonnes. En 2002, le séquençage complet du génome humaine coûtait 100 millions dollars. En 2014, il coûte 1000 dollars et en 2020, on pourra le faire pour le prix d’un café.

Le problème est que le gap s’agrandit de plus en plus entre l’éthique et la loi, alors qu’elle est censée être la même chose. La vie privée, par exemple, est menacée par le bouleversement technologique tandis que les lois sur la vie privée datent du 19e siècle lorsque l’avocat de Boston Samuel Warren s’était plaint qu’on répandait ses rumeurs sur sa famille. L’un de ses partenaires juridique, qui n’était autre que Louis Brandeis, l’un des plus grands avocats à la Cour suprême américaine, a écrit un article intitulé le Droit de la vie privée en arguant qu’il y des choses qui doivent être protégés par la vie privée et d’autres qui doivent l’être par la propriété intellectuelle. Aujourd’hui, cet article sert de fondements à la plupart des décisions de la Cour Suprême.

Et en se basant sur la vie privée, de nombreux internautes hurlent à la mort en criant à la défense de la vie privée après les révélations de l’espionnage de la NSA. Mais ce dernier est minimal comparé à l’espionnage mis en place par Facebook, Apple, Amazon, Twitter, Google, etc.

Votre Smartphone vous suit à la trace, votre voiture connait vos endroits préférés. Les moteurs de recherche savent même ce que vous allez taper à l’avance. Mais ces géants peuvent nous espionner, car nous leur avons donné le droit de le faire en acceptant aveuglément leurs conditions d’utilisation qui pourraient faire perdre la tête au créateur du casse-tête chinois en personne. Mais il y a désormais d’autres données qui permettent de nous profiler au millimètre près avec les informations biométriques.

Mauvais sang ne peut mentir

 

Le test sur notre génome deviendra aussi courant que celui du test sanguin. Car nous avons très peu connaissance sur la génétique et les informations que nous laissons fuiter. Et cette fois, cela ne concerne pas uniquement la vie numérique, mais bien l’intégrité de l’être humain. La société 23andMe propose de tester vos marqueurs génétiques pour vous prévenir sur les prédispositions que vous pourriez avoir sur certaines maladies. Le test coûtait 99 dollars, mais les autorités américains ont suspendu le service

Le Genetic Information Nondiscrimination Act de 2008 protège les gens contre l’utilisation de leur génome pour trouver des informations sur leur emploi ou leur assurance-maladie. Mais il ne protège pas contre l’utilisation de ces informations sur le long terme, notamment sur les assurances de retraite, les allocations sur le handicap et l’assurance-vie.

Aujourd’hui, la technologie permet  de séquencer un génome en une journée, mais on ignore toujours si nous sommes le propriétaire de nos informations génétiques. Certains Etats commencent à voter des lois sur le fait que votre génome pourrait éventuellement vous appartenir dans certains cas si vous respectez des conditions qu’ils n’ont pas encore mis en place.

On parle du danger du fichage génétique, mais la vie privée est également menacée par la cybernétique. Les drones et les voitures autonomes sont banales, mais quel est leur impact sur la vie privée ? Et quel est le responsable s’il y a un problème ?

Qui sera le coupable si une voiture autonome écrase un piéton et qu’est-ce qui se passe si un robot tue un être humain en légitime défense ?

Thomas Jefferson disait : La loi et les institutions doivent aller de pair avec l’évolution humaine. Ces lois doivent s’adapter aussi vite que possible à mesure qu’on fait de nouvelles découvertes et qu’on change notre façon de penser.

Le risque est avéré et prouvée aujourd’hui que la loi est déjà en guerre ouverte avec la technologie, car la technologie est bien plus avance que l’évolution humaine. Les ordinateurs nous ont surpassés dans tous les domaines et ils nous imposent un monde où on est constamment derrière eux pour tenter de les maîtriser alors que la vraie raison de la technologie est d’aider l’être humain à avoir une meilleure vie dans tous ces aspects

 

 

 

 

 

 

 

5 applications pour vous, les obsédés sexuels !

 

Nous vivons dans un monde dominé par les interactions sur les réseaux sociaux. Ces derniers veulent nous recommander toutes sortes de choses allant des livres jusqu’aux voyages en passant par la nourriture pour votre chat dont tout le monde s’en fout. Et évidemment, il fallait très peu de temps pour que le sexe prenne une dimension sociale.

1 –  Down App

 

down app

Down App anciennement Bang With Friends se base sur vos amis Facebook. On a tous des fantasmes non assouvis avec nos anciens amis et donc, cette application permet de fluidifier cette relation. Vous marquez un ami et si celui-ci vous marque à son tour dans l’application, alors le grimpé au rideau peut commencer. Si l’ami(e) ne vous marque jamais, alors vous pouvez toujours vous la mettre sur l’oreille.

2 – Tinder

 

tinder

Tinder ressemble à une simple application de rencontre. Elle se base également sur les amis Facebook, mais elle permet de filtrer selon des critères de distance, de proximité et de correspondance avec les centres d’intérêts.

Tinder prétend avoir mis en contact près de 500 millions de personnes.

3 – Grindr

 

grindr

Grindr ressemble  à Tinder, mais elle se concentre sur les gays, les lesbiennes et ce genre de personne. Il suffit de voir la promotion de l’application pour voir que les hétéro n’ont pas vraiment leur place.

4 – 3nder App

 

3nder-App

Parfois, on veut pimenter sa vie sexuelle et une rencontre entre 2 personnes ne suffit pas. Alors pourquoi ne passerait-on pas à trois pour une jolie triplette ? 3nder App vous permet de faire une rencontre avec 3 personnes. Généralement, c’est un couple et une tierce personne.

5 -Pure

 

pure-app

J’aime les femmes qui vont droit à l’essentiel concernant le sexe et l’application Pure va également droit à l’essentiel. Pas de temps pour les chichis. On y va du moment qu’elle est baisable. Pure crée une rencontre uniquement si les deux sont prêts directement pour le sexe. Le service prétend qu’il efface toutes les données après la transaction, mais elle impose une reconnaissance faciale (il y a comme une putain de contradiction comme qui dirait) qui permet de supprimer les mauvais plaisantins ou ceux qui ne vont pas au rendez-vous pour honorer la dame.

Des applications de débauche, diront certains, mais je préfère utiliser le terme de relation physique en évitant le maximum d’intermédiaires et de perte de temps.

 

 

Le passé, c'est l'histoire, le futur est un mystère, mais aujourd'hui est un cadeau, c'est pourquoi on l'appelle le présent

Bear