D'après la société de recherche CBI Insight, la mort des startups technologiques n'est pas une question de circonstances mais de temps. « Pour la plupart des entreprises technologiques dont la propriété intellectuelle ou le talent n'est pas suffisant pour s'attirer le regard des Googles, Facebooks et Yahoos du monde, la triste réalité est la mort. » explique l'entreprise sans détours en guise d'introduction.
Sur une période de trois ans (2010 - 2013), la compagnie a pu réunir des données qui lui ont permis de faire certains constats :
Des statistiques qui ne manqueraient pas d'en effrayer plus d'un. Pendant ce temps, on y croit du côté de l'Hexagone ; le gouvernement s'est donné pour objectif de favoriser le développement de « l'open innovation ». Concrètement, Fleur Pellerin, la ministre en charge des PME, de l'Innovation et de l'Économie numérique a annoncé la mise en place, à partir de 2014, d'un amortissement fiscal bénéficiant aux sociétés qui investissent - directement ou par l'intermédiaire de fonds, et de façon minoritaire - dans des PME innovantes. Une manière d'encourager le « corporate venture » (capital-risque d'entreprise), qui ne représente encore que 5 % du financement des startups et des PME innovantes en France, contre 16 % aux États-Unis, selon l'Association française des investisseurs pour la croissance (Afic). Le corporate venture en France :
Et vous ? |
vendredi 21 février 2014
Manifestation des etudiants de l'université Nangui Abrogoua (ex Abobo-Adjamé) suite à une augmentation des inscriptions de l'ordre de 3000f +1000f( legalisation dans une mairie). Un document de 14 pages a été mis obligatoirements sur les incriptions des etudiants de la dite université Nangui Abrogoua à Abidjan. outre ils manifestaient aussi poour l'optention des d'un restirants universitaire. aujourd'hui la police à attaqué ces etudiants en laçant des pierres , des acrimogenes et meme des tirss de la parts du ccdo face à cela les etudiants qui manifestaient pacifiquement ont aussi commençé à jetter des pièrres sur derniers .
samedi 15 février 2014
Les startups sont-elles condamnées à disparaître avant même d'avoir été créées ? CBI Insight partage ses statistiques après trois ans d'observation
Une faille Android permet de contourner le VPN Et de récupérer des données en texte clair
Il y a trois semaines, des chercheurs de l’université Ben Gourion, à Negev en Israël, ont mis à jour une vulnérabilité dans le coffre-fort électronique Knox proposé par Samsung. Après une investigation menée de concert avec Google, Samsung a tiré des conclusions qui ont dédouané sa solution.
Vendredi dernier, la même équipe a découvert une vulnérabilité semblable et qui affecte Android 4.3. « Cette vulnérabilité permet à des applications malicieuses de contourner la configuration VPN active (pas de permission root requise) et de rediriger les communications de données vers une adresse réseau différente. Ces communications sont saisies en texte clair (pas de chiffrement), laissant l'information complètement exposée. Cette redirection peut avoir lieu sans que l'utilisateur en soit conscient, celui-ci pensant que ses données sont chiffrées et sécurisées. » explique dans un billet blog, Dudu Mimran, directeur de la technologie Cyber Security.
Dans une vidéo, il a démontré comment une application malveillante peut être utilisée par un attaquant pour détourner (en texte clair) un courriel envoyé depuis le téléphone.
« Les applications qui nécessitent généralement VPN, ou d'y avoir accès, sont des applications bancaires », explique Jeffrey Ingalsbe, directeur du Centre pour la Cyber sécurité et du renseignement à l'Université Mercy de Detroit. Certaines applications de messagerie sauront également vous connecter via un VPN. «C'est un gros problème parce que d'un, les gens ne sont pas informés de cette menace, de deux parce que les applications qui les utilisent contiennent vraiment des informations importantes », poursuit-il.
Source : blog officiel
Et vous ?
Qu'en pensez-vous ?
Vendredi dernier, la même équipe a découvert une vulnérabilité semblable et qui affecte Android 4.3. « Cette vulnérabilité permet à des applications malicieuses de contourner la configuration VPN active (pas de permission root requise) et de rediriger les communications de données vers une adresse réseau différente. Ces communications sont saisies en texte clair (pas de chiffrement), laissant l'information complètement exposée. Cette redirection peut avoir lieu sans que l'utilisateur en soit conscient, celui-ci pensant que ses données sont chiffrées et sécurisées. » explique dans un billet blog, Dudu Mimran, directeur de la technologie Cyber Security.
Dans une vidéo, il a démontré comment une application malveillante peut être utilisée par un attaquant pour détourner (en texte clair) un courriel envoyé depuis le téléphone.
« Les applications qui nécessitent généralement VPN, ou d'y avoir accès, sont des applications bancaires », explique Jeffrey Ingalsbe, directeur du Centre pour la Cyber sécurité et du renseignement à l'Université Mercy de Detroit. Certaines applications de messagerie sauront également vous connecter via un VPN. «C'est un gros problème parce que d'un, les gens ne sont pas informés de cette menace, de deux parce que les applications qui les utilisent contiennent vraiment des informations importantes », poursuit-il.
Source : blog officiel
Et vous ?
Linux abandonne iptables pour nftables La version 3.13 du kernel sort avec le support des disques SSD et du protocole HSR
Tout comme FreeBSD 10.0, la nouvelle année débute avec une version flambante neuve du noyau libre le plus populaire : Linux 3.13. Cette nouvelle itération apporte son lot de nouvelles fonctionnalités, qui recevra très certainement les ovations de la communauté Linux toute entière.
Créé en 1956 par Reynold Johnson, le disque dur classique (constitué de plateaux rigides en rotation à la surface desquels une tête de lecture/écriture inscrit des données) a eu droit à ses années de gloire. C’est le moment de passer à autre chose. Les disques durs SSD les remplacent progressivement. Pour prendre en compte ce changement progressif, Linux 3.13 introduit des modifications qui prennent en compte de manière plus prononcée la structure particulière des disques SSD. Iptables fait aussi ses adieux (célèbre outil en ligne de commande permettant de configurer le pare-feu). Il est remplacé par un autre projet ambitieux, nftables. Linux 3.13 ajoute également un nouveau gestionnaire d’énergie pour plusieurs cartes graphiques de la gamme Radeon (ATI) qui améliore de façon significative la consommation énergétique (un élément critique pour les ordinateurs portables). Le gestionnaire est actif par défaut pour plusieurs cartes graphiques ATI. L’architecture MIC (Many Integrated Core Architecture) d’Intel est prise en charge. De plus, on note également une amélioration du NVMA (non-uniform memory access). Le système de fichier Squashfs utilisé par de nombreuses distributions Linux Live (ainsi que pour certains systèmes embarqués) subit des changements notables, dont l’un permet de décompresser les données dans la cache de Linux, ce qui se traduit par un gain de performance. L’optimisation du protocole TCP (TCP Fast Open) est activée par défaut sous linux 3.13. Elle permet de réduire le temps de chargement des pages web. En outre, le nouveau noyau offre aussi le support pour le protocole de redondance des réseaux Ethernet HSR (High-availability Seamless Redundancy). Source: Kernel Newbies Et vous ? |
Microsoft publie la première mise à jour de Visual Studio 2013 Qui apporte essentiellement des correctifs de bogues
Mise à jour du 23/01/2014
Fidèle à son nouveau rythme de sortie rapide des mises à jour pour ses produits, Microsoft a publié la version finale de Visual Studio 2013 Update 1.
Disponible en version RC (Release Candidate) depuis décembre 2013, cette mise à jour mineure n’apporte pas de nouvelles fonctionnalités majeures, en dehors des correctifs de bugs et la prise en compte des retours des utilisateurs, notamment en ce qui concerne l’exécution de Visual Studio 2013 dans un environnement sans Internet Explorer 10 et version suivante.
À peine cette mise à jour publiée, Microsoft a entamé avec le développement de Visual Studio 2013 Update 2, qui sortira au printemps prochain et qui apportera plusieurs nouvelles fonctionnalités.
Télécharger Visual Studio 2013 Update 1
Source : Microsoft
Fidèle à son nouveau rythme de sortie rapide des mises à jour pour ses produits, Microsoft a publié la version finale de Visual Studio 2013 Update 1.
Disponible en version RC (Release Candidate) depuis décembre 2013, cette mise à jour mineure n’apporte pas de nouvelles fonctionnalités majeures, en dehors des correctifs de bugs et la prise en compte des retours des utilisateurs, notamment en ce qui concerne l’exécution de Visual Studio 2013 dans un environnement sans Internet Explorer 10 et version suivante.
À peine cette mise à jour publiée, Microsoft a entamé avec le développement de Visual Studio 2013 Update 2, qui sortira au printemps prochain et qui apportera plusieurs nouvelles fonctionnalités.
Source : Microsoft
jeudi 13 février 2014
L'enfumage des SSII : retour d'expérience d'un développeur sur l'embauche des SSII
140 participants
Arrivé en cette fin d'année universitaire, la recherche de mon premier job d'ingénieur en informatique a débuté. Je n'ai volontairement pas candidaté spontanément sur les SSII, je me suis contenté de placer mon CV sur différentes job board, en sachant que ces rapaces allaient me tomber dessus rapidement. J'ai en parallèle envoyé des candidatures vers des "vraies" entreprises ciblées autour de mon domaine de prédilection. Je ne me suis pas planté, mon CV mis en ligne sur les job board en soirée, j'ai eu pas moins de 6 appels dès le lendemain, uniquement en provenance de SSII. Comme je voulais tenter de me faire mon propre avis, je suis rentré dans leurs processus de recrutement, histoire de voir. Comme aucunes de ces SSII étaient dans ma région, nous avons toujours débuté par des entretiens téléphoniques. A chaque fois, c'est le même modèle : présentation de l'entreprise puis on me laisse quartier libre pour me présenter. Si certains "manager" (c'est comme ça qu'ils se font appeler) avaient visiblement étudié mon CV, certains n'avaient visiblement même pas pris 2 minutes pour le parcourir. C'est sans compter sur certaines SSII qui réclament avant même ce premier entretien de renseigner un "CV" sous leurs couleurs, en réclamant tout de suite des informations "confidentielles" (notamment numéro de sécu), j'ai pour ma part refusé de renseigner ces champs, considérant qu'il serait bien assez tôt pour leur donner ces informations au moment de l'établissement du contrat. J'ai donc quand même pris pas mal de temps pour remplir ces fichus CV, perte de temps à renseigner des informations qui figurent déjà sur mon CV personnel, et cela ne garantit même pas que le "manager" aura pris connaissance de votre parcours pour le premier entretien... Ces CV servent donc essentiellement à alimenter leur banque de profils... Bref, une fois la date de rendez-vous téléphonique arrivée, j'ai eu de tout : des correspondants à peu près ponctuels au correspondant qui visiblement prenaient les choses avec bien peu de considération : j'ai parfois (et à plusieurs reprises) attendu l'appel pendant plus d'une heure, avant d'appeler moi-même pour m'entendre dire que le rendez-vous était décalé parce que Mr Untel avec qui j'avais rendez-vous avait eu un empêchement. Cela peut arriver et je le comprends, en revanche, quand un "manager" me fait le coup plusieurs fois de suite, personnellement, je flaire le foutage de gueule... Lors de ces conversations, une question venait en général très très rapidement, celle des prétentions salariales. J'ai pour ma part pris un chiffre qui correspondait au salaire moyen en sortie de mon école. A chaque fois, on m'indiquait rapidement que mes prétentions étaient largement surestimées (j'ai eu cette réponse également pour certains postes à Paris…) et qu'il ne fallait pas m'attendre à avoir autant, aucun jeune diplômé n'était payé autant etc etc... Durant ces échanges, j'indiquais aussi qu'il était important pour moi de travailler dans mon domaine de prédilection, et j'insistais bien sur ce fait, car je sais qu'il y a du travail dans ce domaine, il est donc possible de décrocher des missions qui correspondent à mes attentes. A chaque fois, mon correspondant m'affirmait que oui, c'était possible de débuter dans ce domaine. La suite logique des entretiens était des entretiens physiques. Si la majorité des entretiens que j'ai passé l'étaient effectivement avec des manager de mon domaine de prédilection, certaines SSII m'ont fait rencontrer des "managers" du domaine télécom, domaine pour lequel je n'ai aucune attirance et qui n'a aucuns points communs avec mon domaine cible (voir limite j'ai une aversion pour les telecoms). Bref, ce genre de comportement m'a fortement déçu (et déplut) vis à vis d'un candidat (moi) prêt à faire plusieurs centaines de km pour un entretien. Arrivent ensuite les propositions. A savoir que certaines SSII m'ont fait des propositions sur la simple base de 2 entretiens téléphoniques, sans jamais m'avoir rencontré. Aucunes des SSII ne m'as non plus fait passé de tests techniques... ils prennent donc pour argent comptant tout ce qui est sur le CV (pour ma part, mon CV n'était pas bidonné, je suis tranquille avec ma conscience, mais pour des candidats qui embelliraient un peut leur CV, il serait facile de les tromper...) ainsi que ce qui leur est dit en entretien. Certaines font simplement des propositions écrites avec le salaire, certaines envoient carrément le contrat. Je passe sur les propositions de contrats faites avec le mauvais prénom, une faute dans le nom et une erreur sur l'adresse (j'avais bien compris que je n'étais qu'un numéro, merci de confirmer ce sentiment !). Conformément à ce qu'ils m'avaient dit, les salaires sont entre 3 et 6 k€/an en dessous de mes prétentions (et donc du salaire moyen de mon école). Côté salaire, c'est le grand enfumage ! Typiquement, on me proposait un salaire mirifique sur Paris de 32k, et comme ils sont bien conscients que cela n'est pas suffisant pour convaincre, ils disent qu'ils "garantissent minimum 10€ de frais par jour de travail", soit environ 2200€ par an (net d'impôts et de charges salariales... c'est surtout ce dernier élément qui les poussent à procéder de la sorte j'imagine car ça permet de gonfler le "salaire" sans que cela ne coûte trop cher). Afin de faire encore gonfler ce chiffre, ils calculent un "équivalent brut" de cette somme, en divisant par 0,75 (pour prendre en compte les 25% de charge salariales). Pour une personne seule, ces 2200€ seraient imposés dans la tanche des 30%, ils divisent encore par 0,70 pour avoir un équivalent imposable. Les 2200 € de frais sont donc transformés comme par magie en un "4190€ équivalent brut". Ce petit arrangement n'a pas fonctionné chez moi :
Bref, ce qui doit nous intéresser, c'est le salaire au contrat, et uniquement celui-là... les frais ne sont que de la poudre aux yeux. Autre technique pour augmenter (d'un peu) les salaires artificiellement : la prime Syntec. La convention Syntec prévoit en effet qu'une "prime vacance" correspondant au minimum à un mirifique 12% d'un salaire mensuel brut (en fait 10% de la valeur des congés payés), soit 300€ pour un salaire de 30k. Certains intègrent cette prime dans le salaire annuel brut. On vous parlera alors par exemple de "30k€ payés sur 12,12 mois". Je n'ai bien sur eu aucune proposition de "prime Syntec" qui aille au-delà de ce minimum conventionnel de 12%. Une fois que les propositions sont tombées, on vous demande en général une réponse assez rapide. Pour ma part, j'attendais une proposition d'une "vraie boîte" qui tardait un peu pour des raisons administratives. Je savais les SSII réellement intéressées par mon profil (j'ai un certain nombre de particularités qui rendaient mon profil un peu différent). Lorsqu'elles ont commencées à devenir pressentes, je leur ai fait comprendre que s'il leur fallait une réponse maintenant, c'était négatif. Elles ont patienté... si vous avez la chance d'être dans le cas d'un profil un peu différent qui les intéresse beaucoup, profitez-en si besoin... Parlons un instant de la convention Syntec... rappelons que cette convention a été écrite par le Medef (syndicat du patronat), on se doute bien que ça n'est pas la convention qui est la plus tournée en faveur des salariés... je pense que lorsqu'on a dit ça, on a à peu près tout dit... Pour finir le salaire et les conditions proposés par la "vraie boite" (concrètement, un salaire 3,7k au-dessus du salaire moyen de mon école, 5,7k au-dessus du plus gros salaire proposé en SSI, et 10k au dessus du plus bas salaire proposé, avec une prime annuelle qui peut atteindre l'équivalent d'un mois de salaire, et sous convention métallo, dans une boite en province) Ces expériences ont fini de me convaincre que les SSII étaient vraiment des marchands de viande, pour rester poli... Vous l'aurez compris, j'ai signé dans la "vraie boite"...après avoir décliné pas moins de 3 propositions écrites de SSII, le tout avant la fin de mon stage de fin d'études... Je dois bien avouer que l'étape "refus des offres des SSII" a eu quelque chose d'assez jouissif... Le groupe qui m'a embauché a une filliale "service" (en mode SSII donc). Lorsqu'ils me demandaient qui m'avait embauché, je donnais le nom du groupe, et ils me répondaient ah xxx (le nom de la filliale service du groupe), alors que non, je suis embauché dans l'une des filliales "classiques" du groupe... en tout cas, une fois le nom du groupe donné, ils ne cherchaient même pas à négocier, je pense qu'ils ont conscience des salaires de misère qu'ils proposent... Je suis bien content d'avoir réussi à éviter l'étape SSII, souvent présentée comme incontournable pour les ingénieurs en informatique fraichement diplômés. |
Linux abandonne iptables pour nftables La version 3.13 du kernel sort avec le support des disques SSD et du protocole HSR
Tout comme FreeBSD 10.0, la nouvelle année débute avec une version flambante neuve du noyau libre le plus populaire : Linux 3.13. Cette nouvelle itération apporte son lot de nouvelles fonctionnalités, qui recevra très certainement les ovations de la communauté Linux toute entière.
Créé en 1956 par Reynold Johnson, le disque dur classique (constitué de plateaux rigides en rotation à la surface desquels une tête de lecture/écriture inscrit des données) a eu droit à ses années de gloire. C’est le moment de passer à autre chose. Les disques durs SSD les remplacent progressivement. Pour prendre en compte ce changement progressif, Linux 3.13 introduit des modifications qui prennent en compte de manière plus prononcée la structure particulière des disques SSD.
Iptables fait aussi ses adieux (célèbre outil en ligne de commande permettant de configurer le pare-feu). Il est remplacé par un autre projet ambitieux, nftables.
Linux 3.13 ajoute également un nouveau gestionnaire d’énergie pour plusieurs cartes graphiques de la gamme Radeon (ATI) qui améliore de façon significative la consommation énergétique (un élément critique pour les ordinateurs portables). Le gestionnaire est actif par défaut pour plusieurs cartes graphiques ATI.
L’architecture MIC (Many Integrated Core Architecture) d’Intel est prise en charge. De plus, on note également une amélioration du NVMA (non-uniform memory access).
Le système de fichier Squashfs utilisé par de nombreuses distributions Linux Live (ainsi que pour certains systèmes embarqués) subit des changements notables, dont l’un permet de décompresser les données dans la cache de Linux, ce qui se traduit par un gain de performance.
L’optimisation du protocole TCP (TCP Fast Open) est activée par défaut sous linux 3.13. Elle permet de réduire le temps de chargement des pages web. En outre, le nouveau noyau offre aussi le support pour le protocole de redondance des réseaux Ethernet HSR (High-availability Seamless Redundancy).
Télécharger Linux 3.13
Source: Kernel Newbies
Créé en 1956 par Reynold Johnson, le disque dur classique (constitué de plateaux rigides en rotation à la surface desquels une tête de lecture/écriture inscrit des données) a eu droit à ses années de gloire. C’est le moment de passer à autre chose. Les disques durs SSD les remplacent progressivement. Pour prendre en compte ce changement progressif, Linux 3.13 introduit des modifications qui prennent en compte de manière plus prononcée la structure particulière des disques SSD.
Iptables fait aussi ses adieux (célèbre outil en ligne de commande permettant de configurer le pare-feu). Il est remplacé par un autre projet ambitieux, nftables.
Linux 3.13 ajoute également un nouveau gestionnaire d’énergie pour plusieurs cartes graphiques de la gamme Radeon (ATI) qui améliore de façon significative la consommation énergétique (un élément critique pour les ordinateurs portables). Le gestionnaire est actif par défaut pour plusieurs cartes graphiques ATI.
L’architecture MIC (Many Integrated Core Architecture) d’Intel est prise en charge. De plus, on note également une amélioration du NVMA (non-uniform memory access).
Le système de fichier Squashfs utilisé par de nombreuses distributions Linux Live (ainsi que pour certains systèmes embarqués) subit des changements notables, dont l’un permet de décompresser les données dans la cache de Linux, ce qui se traduit par un gain de performance.
L’optimisation du protocole TCP (TCP Fast Open) est activée par défaut sous linux 3.13. Elle permet de réduire le temps de chargement des pages web. En outre, le nouveau noyau offre aussi le support pour le protocole de redondance des réseaux Ethernet HSR (High-availability Seamless Redundancy).
Source: Kernel Newbies
Un nouvel algorithme pourrait révolutionner les systèmes de reconnaissance d'objets Ses performances supérieures aux algorithmes actuels
Une équipe de recherche de l’université américaine Brigham Young (BYU) a récemment annoncé le développement d’un nouvel algorithme pour les systèmes de reconnaissance d’objets.
Baptisé « Evolution-Constructed Features algorithm », il pourrait révolutionner la reconnaissance d’objets. Contrairement aux algorithmes utilisés jusqu’à présent, celui-ci serait soi-même en mesure d’apprendre à reconnaitre les objets.
Le professeur Dah-Jye Lee, auteur et chef de l’équipe de recherche, a confié ce qui suit : «Dans la plupart des cas, c’est l’être humain qui décide des objets sur lesquelles le système doit se focaliser, de ce fait les algorithmes développés sont dictés par ce choix préalablement fait. Dans notre cas, l’approche utilisée diffère, à l’image de photos d’animaux qu’on montre à un enfant, ce dernier sera en mesure d’identifier les animaux en se basant sur ses propres critères, c’est cette approche qui a été utilisée pour notre algorithme, il détecte les caractéristiques de chaque objets et en se basant sur cela, il les catégorise comme étant un piéton, un arbre ou encore un avion ».
Concernant les performances de « Evolution-Constructec Features Algorithm », l’équipe s’accorde à dire qu’à la suite de plusieurs tests, leur algorithme offre des performances supérieures aux autres. À titre d’exemple, lors d’un Benchmark basé sur le set de test Caltech, son score est de 100 % alors que les meilleurs systèmes disponibles sur le marché ont un score variant entre 95 et 98 %.
Pour rappel, Caltech est un set de test pour la reconnaissance faciale, ainsi que la reconnaissance d’objets tels que les voitures, les motos ou les avions.
Enfin, l’auteur a tenu à rassurer les plus sceptiques d’entre nous, en rappelant que ses travaux n’ont pas pour but de créer un quelconque Terminator du futur, mais qu’ils sont à des fins pacifiques et visent avant tout à améliorer les systèmes de reconnaissance d’objets et à s’affranchir de l’assistance humaine.
Source : Annonce sur le site de la BYU
Baptisé « Evolution-Constructed Features algorithm », il pourrait révolutionner la reconnaissance d’objets. Contrairement aux algorithmes utilisés jusqu’à présent, celui-ci serait soi-même en mesure d’apprendre à reconnaitre les objets.
Le professeur Dah-Jye Lee, auteur et chef de l’équipe de recherche, a confié ce qui suit : «Dans la plupart des cas, c’est l’être humain qui décide des objets sur lesquelles le système doit se focaliser, de ce fait les algorithmes développés sont dictés par ce choix préalablement fait. Dans notre cas, l’approche utilisée diffère, à l’image de photos d’animaux qu’on montre à un enfant, ce dernier sera en mesure d’identifier les animaux en se basant sur ses propres critères, c’est cette approche qui a été utilisée pour notre algorithme, il détecte les caractéristiques de chaque objets et en se basant sur cela, il les catégorise comme étant un piéton, un arbre ou encore un avion ».
Concernant les performances de « Evolution-Constructec Features Algorithm », l’équipe s’accorde à dire qu’à la suite de plusieurs tests, leur algorithme offre des performances supérieures aux autres. À titre d’exemple, lors d’un Benchmark basé sur le set de test Caltech, son score est de 100 % alors que les meilleurs systèmes disponibles sur le marché ont un score variant entre 95 et 98 %.
Pour rappel, Caltech est un set de test pour la reconnaissance faciale, ainsi que la reconnaissance d’objets tels que les voitures, les motos ou les avions.
Enfin, l’auteur a tenu à rassurer les plus sceptiques d’entre nous, en rappelant que ses travaux n’ont pas pour but de créer un quelconque Terminator du futur, mais qu’ils sont à des fins pacifiques et visent avant tout à améliorer les systèmes de reconnaissance d’objets et à s’affranchir de l’assistance humaine.
Source : Annonce sur le site de la BYU
Un ingénieur Google aurait refusé une proposition d'embauche de 500 000 dollars annuel Puisqu'il en faisait déjà six fois plus
Il y a quelques jours, une source anonyme du Business Insider (BI) a partagé l'histoire d'un développeur Google qui a refusé une offre à 500 000 dollars annuel proposés par une startup parce qu'il … gagnerait déjà trois millions par ans en espèces et en RSU (restricted Stock Unit, un mode de rémunération des cadres et dirigeants d'entreprise. L'objectif est ici de leur donner un droit pour obtenir, sous certaines conditions, l'attribution d'actions gratuites dans le futur. ). Vérité ou canular ?
Pour les besoins de notre enquête, analysons certains faits. Selon le bureau américain des statistiques du travail, en 2012 le salaire moyen d'un développeur se chiffrait autour de 93 000 dollars avec un pourcentage relativement faible (10%) qui se sont fait plus de 139 000 dollars cette année là.
Une enquête menée par Glassdoor auprès de 4 400 ingénieurs Google a établi que :
Nous sommes encore loin des 3 millions. Intéressons nous donc au senior. Glassdor a mené l'enquête auprès de 250 ingénieurs senior de l'entreprise.
Les ingénieurs logiciels senior de Google font une compensation moyenne de 210 000 $. Au niveau le plus élevé, ils font 630 000 $, avec 80 000 $ en prime en espèces et 300 000 $ de subventions d'actions soit un peu plus d'un million de dollars par an.
Allant sur cette base, nous sommes encore bien loin des trois millions du départ. Alors au final cette histoire est elle une vaste plaisanterie ? Pas nécessairement. Certaines rumeurs prétendent qu'il s'agirait de Jeff Dean, un virtuose dont le SFGate fait l'éloge en disant de lui qu'il est «largement crédité par les Googlers pour la vitesse fulgurante du célèbre moteur de recherche de la société». Avec la réputation qu'à Google de mettre tous les moyens en oeuvre pour s'approprier ou garder ses meilleurs atouts, cette histoire est tout à fait vraisemblable.
Sur Twitter, Hunter Walk, un ancien Googler Hunter Marche a mis en garde d'autres startups : «la * pire * façon de recruter chez Google est avec de l'argent. Pour ceux qui sont vraiment bon, Google va surenchérir. Donc, ils vous laisserons juste ceux dont ils ne veulent plus». A bon entendeur ...
Source : Business Insider , Bureau américain des statistiques du travail
Pour les besoins de notre enquête, analysons certains faits. Selon le bureau américain des statistiques du travail, en 2012 le salaire moyen d'un développeur se chiffrait autour de 93 000 dollars avec un pourcentage relativement faible (10%) qui se sont fait plus de 139 000 dollars cette année là.
Une enquête menée par Glassdoor auprès de 4 400 ingénieurs Google a établi que :
- la rémunération moyenne totale est de 144 652 dollars (avec des rémunérations comprises en 78 000 $ à 550 000 $)
- le salaire moyen est de 118 958 dollars (entre 78 000 $ et 215 000 $)
- les primes moyenne sont de 20 946 dollars (entre 20$ à 100 000 $)
- les Stock Bonus moyens sont de 30 933 dollars (entre 125 $ et 200 000 $)
Nous sommes encore loin des 3 millions. Intéressons nous donc au senior. Glassdor a mené l'enquête auprès de 250 ingénieurs senior de l'entreprise.
- la rémunération moyenne totale est de 210 865 dollars (avec des rémunérations comprises en 80 000 $ à 630 000 $)
- le salaire moyen est de 149 740 dollars (entre 80 000 $ et 222 000 $)
- les primes moyenne sont de 32 008 dollars (entre 25$ à 80 000 $)
- les Stock Bonus moyens sont de 49 315 dollars (entre 50 $ et 300 000 $)
Les ingénieurs logiciels senior de Google font une compensation moyenne de 210 000 $. Au niveau le plus élevé, ils font 630 000 $, avec 80 000 $ en prime en espèces et 300 000 $ de subventions d'actions soit un peu plus d'un million de dollars par an.
Allant sur cette base, nous sommes encore bien loin des trois millions du départ. Alors au final cette histoire est elle une vaste plaisanterie ? Pas nécessairement. Certaines rumeurs prétendent qu'il s'agirait de Jeff Dean, un virtuose dont le SFGate fait l'éloge en disant de lui qu'il est «largement crédité par les Googlers pour la vitesse fulgurante du célèbre moteur de recherche de la société». Avec la réputation qu'à Google de mettre tous les moyens en oeuvre pour s'approprier ou garder ses meilleurs atouts, cette histoire est tout à fait vraisemblable.
Sur Twitter, Hunter Walk, un ancien Googler Hunter Marche a mis en garde d'autres startups : «la * pire * façon de recruter chez Google est avec de l'argent. Pour ceux qui sont vraiment bon, Google va surenchérir. Donc, ils vous laisserons juste ceux dont ils ne veulent plus». A bon entendeur ...
Source : Business Insider , Bureau américain des statistiques du travail
jeudi 6 février 2014
Facebook offre une grosse prime à un chercheur Qui a découvert une faille permettant de prendre le contrôle d'un de ses serveurs
Reginaldo Silva, chercheur brésilien en sécurité informatique, s’est vu attribuer une coquette somme par Facebook suite à la découverte d’une faille de sécurité, lui permettant de prendre contrôle d’un de ses serveurs et d’accéder à des données sensibles.
Le brésilien n’en est pas à son premier coup d’essai. Par le passé, il s’était déjà vu attribuer une prime minime de 500 dollars par Google. En effet, depuis 2012, ses travaux de recherche portent sur les vulnérabilités d’un protocole largement utilisé sur Internet, à savoir OpenID , plus spécifiquement sur le bug XML External Entity Expansion (XXE).
OpenID est utilisé entre autres par Facebook pour permettre à ses utilisateurs de recouvrir leur mot de passe. Pour cela, un serveur de la firme exécutant le service Yadis (Serveur Yadis) se connecte à un provider OpenID (Ex : Google) pour authentifier l’utilisateur.
C’est dans ce cadre qu’en septembre 2012, les travaux de Silva le conduisent à exploiter la faille XXE pour établir une connexion non autorisée, entre une machine dont il a le contrôle et le serveur Yadis, en se faisant passer pour un provider OpenID authentifié. Après avoir exploité la faille XXE avec succès, à sa grande surprise Silva découvre qu’il est en mesure d’accéder au mot de passe du fichier /etc/passwd, laissant la porte ouverte à une élévation de ses privilèges et au contrôle total du serveur Yadis.
Aussitôt, il notifie sa découverte à l’équipe de sécurité de Facebook et leur propose une démonstration, toutefois sa demande reste vaine et l’équipe en charge de la sécurité du réseau social publie un correctif dans les 3h30 qui suivent, puis il fut recontacté pour démontrer la démarche qui lui aurait permis de prendre le contrôle du serveur.
Vu l’ampleur de la brèche de sécurité et suite à la concertation des responsables, il a été décidé d’offrir une prime d’un montant de 35 000 dollars à Silva, soit la plus grosse prime payée par Facebook jusqu’à aujourd’hui.
Source : Blog du chercheur, Annonce de Facebook
Le brésilien n’en est pas à son premier coup d’essai. Par le passé, il s’était déjà vu attribuer une prime minime de 500 dollars par Google. En effet, depuis 2012, ses travaux de recherche portent sur les vulnérabilités d’un protocole largement utilisé sur Internet, à savoir OpenID , plus spécifiquement sur le bug XML External Entity Expansion (XXE).
OpenID est utilisé entre autres par Facebook pour permettre à ses utilisateurs de recouvrir leur mot de passe. Pour cela, un serveur de la firme exécutant le service Yadis (Serveur Yadis) se connecte à un provider OpenID (Ex : Google) pour authentifier l’utilisateur.
C’est dans ce cadre qu’en septembre 2012, les travaux de Silva le conduisent à exploiter la faille XXE pour établir une connexion non autorisée, entre une machine dont il a le contrôle et le serveur Yadis, en se faisant passer pour un provider OpenID authentifié. Après avoir exploité la faille XXE avec succès, à sa grande surprise Silva découvre qu’il est en mesure d’accéder au mot de passe du fichier /etc/passwd, laissant la porte ouverte à une élévation de ses privilèges et au contrôle total du serveur Yadis.
Aussitôt, il notifie sa découverte à l’équipe de sécurité de Facebook et leur propose une démonstration, toutefois sa demande reste vaine et l’équipe en charge de la sécurité du réseau social publie un correctif dans les 3h30 qui suivent, puis il fut recontacté pour démontrer la démarche qui lui aurait permis de prendre le contrôle du serveur.
Vu l’ampleur de la brèche de sécurité et suite à la concertation des responsables, il a été décidé d’offrir une prime d’un montant de 35 000 dollars à Silva, soit la plus grosse prime payée par Facebook jusqu’à aujourd’hui.
Source : Blog du chercheur, Annonce de Facebook
Des batteries alimentées par du sucre pourraient remplacer celles actuelles à base d'ions lithium Une invention des chercheurs américains
Il y a quelques jours sortait l'article « Investigating the Reaction of BitTorrent Content Publishers to Antipiracy Actions », une étude menée de concert par des équipes françaises, espagnoles et américaines qui traite spécifiquement de l’application de la loi Hadopi en France face aux réseaux Peer-to-Peer (P2P). La conclusion qui pointe un doigt accusateur vers le spécialiste français de l'hébergement, indiquant que celui-ci joue un rôle crucial dans la distribution des contenus par les pirates professionnels, a laissé un goût amer à OVH. Sa riposte ne s'est pas faite attendre longtemps.
Par l’intermédiaire de Romain Beeckman, son responsable juridique, OVH souligne « la profonde méconnaissance des mécanismes issus de la loi Hadopi » : « dans un premier temps, les auteurs rappellent le fonctionnement de la lutte contre le partage de contenus soumis au droit d'auteur selon le principe de la riposte graduée. (...) Selon eux, les FAI joueraient un rôle central dans la surveillance et l’identification des utilisateurs des réseaux P2P partageant des contenus soumis au droit d’auteur ».
En se trompant sur le mode de fonctionnement de la riposte graduée, l’étude démontre une « totale incompréhension des règles juridiques mises en place ». Et ainsi les « conclusions qui en découlent sont du coup fausses et ne tiennent pas debout » explique OVH.
En effet, les auteurs supposent à tort qu'il incombe au FAI la responsabilité de contrôler le réseau. « Seuls la commission Hadopi et les agents assermentés ont pour mission d’identifier les utilisateurs partageant des contenus illicites. Le rôle du FAI se borne à communiquer sur demande, aux agents assermentés de la commission Hadopi, les informations visées par la loi relatives à ses abonnés identifiés comme téléchargeant ou partageant des contenus soumis au droit d'auteur. » rappelle OVH.
« Les insuffisances de l’étude sont particulièrement regrettables dès lors qu’elles mettent directement en cause OVH en le présentant comme un acteur participant aux atteintes au droit d’auteur au niveau mondial » dénonce OVH qui prévoit une action en justice dans l'optique de préserver ses intérêts.
Source : OVH
Par l’intermédiaire de Romain Beeckman, son responsable juridique, OVH souligne « la profonde méconnaissance des mécanismes issus de la loi Hadopi » : « dans un premier temps, les auteurs rappellent le fonctionnement de la lutte contre le partage de contenus soumis au droit d'auteur selon le principe de la riposte graduée. (...) Selon eux, les FAI joueraient un rôle central dans la surveillance et l’identification des utilisateurs des réseaux P2P partageant des contenus soumis au droit d’auteur ».
En se trompant sur le mode de fonctionnement de la riposte graduée, l’étude démontre une « totale incompréhension des règles juridiques mises en place ». Et ainsi les « conclusions qui en découlent sont du coup fausses et ne tiennent pas debout » explique OVH.
En effet, les auteurs supposent à tort qu'il incombe au FAI la responsabilité de contrôler le réseau. « Seuls la commission Hadopi et les agents assermentés ont pour mission d’identifier les utilisateurs partageant des contenus illicites. Le rôle du FAI se borne à communiquer sur demande, aux agents assermentés de la commission Hadopi, les informations visées par la loi relatives à ses abonnés identifiés comme téléchargeant ou partageant des contenus soumis au droit d'auteur. » rappelle OVH.
« Les insuffisances de l’étude sont particulièrement regrettables dès lors qu’elles mettent directement en cause OVH en le présentant comme un acteur participant aux atteintes au droit d’auteur au niveau mondial » dénonce OVH qui prévoit une action en justice dans l'optique de préserver ses intérêts.
Source : OVH
Etude Hadopi : OVH dénonce la « totale ignorance » des auteurs Et en particulier du mode de fonctionnement de la riposte graduée
Il y a quelques jours sortait l'article « Investigating the Reaction of BitTorrent Content Publishers to Antipiracy Actions », une étude menée de concert par des équipes françaises, espagnoles et américaines qui traite spécifiquement de l’application de la loi Hadopi en France face aux réseaux Peer-to-Peer (P2P). La conclusion qui pointe un doigt accusateur vers le spécialiste français de l'hébergement, indiquant que celui-ci joue un rôle crucial dans la distribution des contenus par les pirates professionnels, a laissé un goût amer à OVH. Sa riposte ne s'est pas faite attendre longtemps.
Par l’intermédiaire de Romain Beeckman, son responsable juridique, OVH souligne « la profonde méconnaissance des mécanismes issus de la loi Hadopi » : « dans un premier temps, les auteurs rappellent le fonctionnement de la lutte contre le partage de contenus soumis au droit d'auteur selon le principe de la riposte graduée. (...) Selon eux, les FAI joueraient un rôle central dans la surveillance et l’identification des utilisateurs des réseaux P2P partageant des contenus soumis au droit d’auteur ».
En se trompant sur le mode de fonctionnement de la riposte graduée, l’étude démontre une « totale incompréhension des règles juridiques mises en place ». Et ainsi les « conclusions qui en découlent sont du coup fausses et ne tiennent pas debout » explique OVH.
En effet, les auteurs supposent à tort qu'il incombe au FAI la responsabilité de contrôler le réseau. « Seuls la commission Hadopi et les agents assermentés ont pour mission d’identifier les utilisateurs partageant des contenus illicites. Le rôle du FAI se borne à communiquer sur demande, aux agents assermentés de la commission Hadopi, les informations visées par la loi relatives à ses abonnés identifiés comme téléchargeant ou partageant des contenus soumis au droit d'auteur. » rappelle OVH.
« Les insuffisances de l’étude sont particulièrement regrettables dès lors qu’elles mettent directement en cause OVH en le présentant comme un acteur participant aux atteintes au droit d’auteur au niveau mondial » dénonce OVH qui prévoit une action en justice dans l'optique de préserver ses intérêts.
Source : OVH
Par l’intermédiaire de Romain Beeckman, son responsable juridique, OVH souligne « la profonde méconnaissance des mécanismes issus de la loi Hadopi » : « dans un premier temps, les auteurs rappellent le fonctionnement de la lutte contre le partage de contenus soumis au droit d'auteur selon le principe de la riposte graduée. (...) Selon eux, les FAI joueraient un rôle central dans la surveillance et l’identification des utilisateurs des réseaux P2P partageant des contenus soumis au droit d’auteur ».
En se trompant sur le mode de fonctionnement de la riposte graduée, l’étude démontre une « totale incompréhension des règles juridiques mises en place ». Et ainsi les « conclusions qui en découlent sont du coup fausses et ne tiennent pas debout » explique OVH.
En effet, les auteurs supposent à tort qu'il incombe au FAI la responsabilité de contrôler le réseau. « Seuls la commission Hadopi et les agents assermentés ont pour mission d’identifier les utilisateurs partageant des contenus illicites. Le rôle du FAI se borne à communiquer sur demande, aux agents assermentés de la commission Hadopi, les informations visées par la loi relatives à ses abonnés identifiés comme téléchargeant ou partageant des contenus soumis au droit d'auteur. » rappelle OVH.
« Les insuffisances de l’étude sont particulièrement regrettables dès lors qu’elles mettent directement en cause OVH en le présentant comme un acteur participant aux atteintes au droit d’auteur au niveau mondial » dénonce OVH qui prévoit une action en justice dans l'optique de préserver ses intérêts.
Source : OVH
Facebook ironise la prédiction des universitaires de Princeton Et utilise le même procédé pour annoncer la fin de l'institut
50 participants
Pour répliquer aux prédictions des universitaires, Facebook a, à son tour, mené une recherche scientifique sur une probable disparition de l’université américaine tout en analysant les requêtes effectuées à propos de l’école sur le web. Surprise ou pas, les résultats du réseau social indiquent que l’université pourrait disparaître d’ici la fin d’année. Facebook a aussi utilisé un principe similaire à celui des universitaires en considérant les « J’aime » (like), les documents relatifs à Princeton et les recherches Google concernant l’académie.
Les résultats montrent aussi que le pourcentage des documents de revue de l’établissement a considérablement chuté depuis 2009.
Cependant, le réseau social a assuré qu’il n'accordait pas du crédit à ces statistiques et que c’était juste pour plaisanter.
Source : Facebook
Pwnium 4 : la chasse aux failles de sécurité de Chrome OS lancée Google offrira 2,7 millions de dollars aux experts capables de hacker l'OS
Google a annoncé sur le blog officiel du projet Chromium, le lancement de Pwnium, la compétition annuelle qui vise à améliorer les produits Google issus du projet open source Chromium, tels que Google Chrome et Google Chrome OS (basés respectivement sur Chromium et Chromium OS).
Cette quatrième édition se déroulera au mois de mars à Vancouver à l’occasion de la conférence de sécurité CanSecWest et aura pour thème la sécurité de Chrome OS.
Ainsi, les participants auront à exploiter des failles de sécurité de Chrome OS et à les démontrer pour pouvoir prétendre à la cagnotte et le moins que l’on puisse dire, c’est que Google a mis le paquet. En effet, le montant total avoisine les 2,71828 millions de dollars, réparti comme suit :
De plus, les applications qui peuvent être utilisées ne sont pas restreintes. En effet, toute application incluse dans la version par défaut du Chromebook peut être utilisée. Enfin, par souci d’égalité, des machines virtuelles seront mises à la disposition des plus démunis qui ne peuvent pas s’offrir un Chromebook.
Pour les plus intrépides d’entre nous, sachez que les inscriptions sont ouvertes dès à présent (il suffit d’envoyer un mail à l’adresse suivante :pwnium4@chromium.org) et elles seront clôturées le 10 mars 2014, mais avant cela, n’oubliez pas de consulter les règles du concours ainsi que le blog du projet Chromium, pour plus de détails.
Source : Blog Projet Chromium, Règles du Pwnium 4
Cette quatrième édition se déroulera au mois de mars à Vancouver à l’occasion de la conférence de sécurité CanSecWest et aura pour thème la sécurité de Chrome OS.
Ainsi, les participants auront à exploiter des failles de sécurité de Chrome OS et à les démontrer pour pouvoir prétendre à la cagnotte et le moins que l’on puisse dire, c’est que Google a mis le paquet. En effet, le montant total avoisine les 2,71828 millions de dollars, réparti comme suit :
- 110.000 dollars : si le navigateur ou le système est compromis en mode connecté ou invité ; exploitation de la faille à partir d’une page web.
- 150.000 dollars : si une application persistante est compromise en mode invité d’hôte, même après redémarrage ; exploitation de la faille à partir d’une page web.
- Les participants pourront prétendre entre autres à des bonus conséquents en cas d’exploitation de faille de sécurité inattendue, par exemple : exploiter une faille de type memory corruption sur un navigateur web tournant sur des systèmes 64 bits, exploiter une faille du noyau directement à partir du processus de rendu.
De plus, les applications qui peuvent être utilisées ne sont pas restreintes. En effet, toute application incluse dans la version par défaut du Chromebook peut être utilisée. Enfin, par souci d’égalité, des machines virtuelles seront mises à la disposition des plus démunis qui ne peuvent pas s’offrir un Chromebook.
Pour les plus intrépides d’entre nous, sachez que les inscriptions sont ouvertes dès à présent (il suffit d’envoyer un mail à l’adresse suivante :pwnium4@chromium.org) et elles seront clôturées le 10 mars 2014, mais avant cela, n’oubliez pas de consulter les règles du concours ainsi que le blog du projet Chromium, pour plus de détails.
Source : Blog Projet Chromium, Règles du Pwnium 4
lundi 3 février 2014
DevDocs.io : une plateforme de documentation des langages Web Comprenant plusieurs langages de programmation
Tout développeur qu'il soit débutant ou expérimenté a toujours besoin à un moment d'une bonne documentation, dans DevDocs.io, vous y trouverez toute la documentation nécessaire.
La création d'une page Web entraîne l'utilisation de plusieurs langages, et il est donc difficile de naviguer entre les différentes documentations. La plateformeDevDocs.io contient toutes les documentations des langages Web, et les présente de façon claire :
Seul petit bémol, la documentation est en anglais, mais la page est bien structurée, vous y trouvez la définition de la commande, la syntaxe, une explication des syntaxes, un exemple, etc.
La navigation est simple :
La création d'une page Web entraîne l'utilisation de plusieurs langages, et il est donc difficile de naviguer entre les différentes documentations. La plateformeDevDocs.io contient toutes les documentations des langages Web, et les présente de façon claire :
Seul petit bémol, la documentation est en anglais, mais la page est bien structurée, vous y trouvez la définition de la commande, la syntaxe, une explication des syntaxes, un exemple, etc.
La navigation est simple :
- soit vous sélectionnez un langage, ainsi vous pourrez à l'aide de catégories chercher les commandes voulues ;
- soit vous utilisez le moteur de recherche pour trouver la commande ;
- vous avez aussi la possibilité de sélectionner les langages, évitant ainsi d'avoir tous les langages, la commande se trouve en bas à droite
« Mais qu'est-ce donc que HTML5 ? » Liste des faux concepts d'un développeur
Que suscite le mot HTML5 à l’esprit de nombreuses personnes ? Un développeur du nom de Steve Hansen a parcouru internet ainsi que de nombreux forums pour savoir de quoi il retournait. De ses recherches, le développeur est sorti avec 5 concepts communément admis pour HTML5 qui sont pourtant erronés.
Le premier faux concept en ce qui concerne le HTML5, est le fait que beaucoup de personnes pensent qu’il s’agit d’un logiciel qu’il faudrait installer pour bénéficier des fonctionnalités associées. Ce qui est faux. Un concept qui peut avoir la peau dure, d’autant plus qu’on est généralement amené à installer de nouvelles technologies avant de les utiliser la plupart du temps.
Le deuxième faux concept couramment répandu peut se résumer dans la question : doit-on convertir nos anciennes applications web en HTML5 ? Une question légitime, surtout qu’on sait que, lorsqu’une nouvelle technologie fait surface, le plus gros souci est celui de la compatibilité avec les technologies préexistantes. Une fois de plus, Hansen répond qu’il n’est pas nécessaire de convertir quoi que ce soit, le simple ajout dans la page web de la chaîne de caractères < !DOCTYPE html> est amplement suffisant.
En trois, on retrouve le mythe selon lequel HTML5 seul suffit à donner à une application web l’apparence d’une application native, sur tous les périphériques. Hansen attire l’attention et fait remarquer que le Responsive Design ainsi que l’Adaptative Design sont les technologies utilisées à cet effet.
En quatre, certains ne peuvent s’empêcher de croire que le seul ajout de la ligne < !DOCTYPE html> est largement suffisant pour bénéficier de toutes les fonctionnalités du HTML5, comme la géolocalisation par exemple. À ceux-là, Hansen envoie un message clair : « ils devront retrousser leurs manches, enfoncer les mains dans le cambouis et coder même en JavaScript s’ils veulent vraiment profiter des fonctionnalités du HTML5 ».
Et enfin, le mythe le plus couramment répandu, celui-là même qui a la peau dure, est qu’une application HTLM5 et une application web désignent en fait une seule et même entité. Pour Hansen, ces termes ne sont pas interchangeables, puisque le terme application HTML5 désigne en réalité une combinaison de plusieurs technologies (CSS, JavaScript, HTML, parfois même Java ou encore PHP). « Pourquoi ne dit-on pas aussi application CSS ? », questionne le développeur.
L’avis de l’expert de Developpez.com
Bovino, le Responsable Développement Web chez Developpez.com, a commenté le billet de blog de Steve Hansen. Pour lui, cette analyse est assez intéressante et fait ressortir le flou qui règne autour de la notion de HTML5 pour beaucoup de monde.
« À mon avis, HTML5 rejoint le groupe des noms pompeux balancés à toute sauce par des personnes qui n'en connaissent pas grand-chose », estime Bovino, qui au passage nous fait un bref historique pour étayer ses propos. « On avait déjà eu (pour se limiter aux technologies liées au Web) : AJAX, DHTML, Cloud et bien d'autres, qui font très chic dans les discussions en ville. Démystifier HTML5 me semble donc une initiative vertueuse. »
Le premier faux concept énoncé par Hansen ne semble pas, cependant, convaincre Bovino, qui de par son expérience, estime celui-ci peu fréquent : « il ne me parait pas très fréquent et je n'ai pas le souvenir d'avoir rencontré ce type de remarque ».
Par contre, en ce qui concerne le second, « il est clair que beaucoup de monde comprend difficilement que HTML5 n'est qu'une évolution de HTML et que de ce fait, elle englobe ce qui existait déjà dans les précédentes versions (à l'exception des éléments supprimés ou rendus obsolètes). Si l'on regarde les forums HTML, on se rend compte que beaucoup de monde semble persuadé que pour avoir une page HTML5, il faut obligatoirement utiliser des éléments nouveaux, ce qui est bien entendu faux », affirme fermement Bovino, qui invite par ailleurs à consulter son billet de blog « Le HTML5, c’est pour quand ? », qui répond à cette question.
En ce qui concerne le concept numéro 3, Bovino estime que celui-ci rejoint un peu sa remarque au sujet du premier : « en effet, pour beaucoup de monde, HTML5 est un concept dans lequel ils intègrent tout un amoncellement de notions apparues récemment, dont le développement pour appareils mobiles qui n'a aucun rapport direct avec HTML5, ce serait plutôt du CSS3, mais pas uniquement. »
Le quatrième concept, « il est évident que la différentiation entre le support de HTML5 par les navigateurs et le support des nouveautés apportées par HTML5 est difficile à prendre en compte pour certains. Si tous les navigateurs (y compris IE6) acceptent le doctype HTML5 sans passer en mode de compatibilité, cela ne signifie en rien que les navigateurs ont miraculeusement ‘appris’ comment interpréter des balises ou des API JavaScript pour lesquelles ils n'ont pas de support initial. D'où la nécessité de mettre à jour son navigateur (et au-delà de ça, d'inciter les visiteurs de ses sites à le faire, notamment en leur expliquant comment). »
En ce qui concerne le dernier point, le Responsable Développement Web de Developpez.com trouve ce concept réellement très présent. « Mais là encore, pour une raison déjà évoquée : on retrouve souvent des personnes parlant d'applications Web comme ils parlent de HTML5, c'est-à-dire sans connaitre les notions qui se cachent derrière. De plus, comme une des grandes nouveautés du standard HTML5 est d'aller plus loin que le simple balisage, mais d'intégrer aussi des API JavaScript, beaucoup de confusions en ressortent », affirme-t-il.
En conclusion, Bovino estime que le HTML5 est surtout pour beaucoup de personnes « un truc à la mode qu'il faut placer dans la conversation pour montrer qu'on est moderne », et au final, le véritable faux concept à ses yeux est le fait de croire que « HTML5 est une nouvelle technologie, alors que ce n'est qu'une évolution de technologies déjà existantes (balisage HTML + API JavaScript complémentaires). Ainsi, on peut voir fleurir les annonces d'emploi où il faut maitriser HTML5 (maitriser un standard qui n'est pas encore finalisé) et dans la description du poste, rien n'indique en quoi HTML5 constitue l'ossature indispensable. HTML5 n'est qu'un terme technique qui ne devrait intéresser que les développeurs Web dans la mesure où ça n'apporte rien de plus que des outils techniques aux développeurs. »
Source : Billet de Steve Hansen
Le premier faux concept en ce qui concerne le HTML5, est le fait que beaucoup de personnes pensent qu’il s’agit d’un logiciel qu’il faudrait installer pour bénéficier des fonctionnalités associées. Ce qui est faux. Un concept qui peut avoir la peau dure, d’autant plus qu’on est généralement amené à installer de nouvelles technologies avant de les utiliser la plupart du temps.
Le deuxième faux concept couramment répandu peut se résumer dans la question : doit-on convertir nos anciennes applications web en HTML5 ? Une question légitime, surtout qu’on sait que, lorsqu’une nouvelle technologie fait surface, le plus gros souci est celui de la compatibilité avec les technologies préexistantes. Une fois de plus, Hansen répond qu’il n’est pas nécessaire de convertir quoi que ce soit, le simple ajout dans la page web de la chaîne de caractères < !DOCTYPE html> est amplement suffisant.
En trois, on retrouve le mythe selon lequel HTML5 seul suffit à donner à une application web l’apparence d’une application native, sur tous les périphériques. Hansen attire l’attention et fait remarquer que le Responsive Design ainsi que l’Adaptative Design sont les technologies utilisées à cet effet.
En quatre, certains ne peuvent s’empêcher de croire que le seul ajout de la ligne < !DOCTYPE html> est largement suffisant pour bénéficier de toutes les fonctionnalités du HTML5, comme la géolocalisation par exemple. À ceux-là, Hansen envoie un message clair : « ils devront retrousser leurs manches, enfoncer les mains dans le cambouis et coder même en JavaScript s’ils veulent vraiment profiter des fonctionnalités du HTML5 ».
Et enfin, le mythe le plus couramment répandu, celui-là même qui a la peau dure, est qu’une application HTLM5 et une application web désignent en fait une seule et même entité. Pour Hansen, ces termes ne sont pas interchangeables, puisque le terme application HTML5 désigne en réalité une combinaison de plusieurs technologies (CSS, JavaScript, HTML, parfois même Java ou encore PHP). « Pourquoi ne dit-on pas aussi application CSS ? », questionne le développeur.
L’avis de l’expert de Developpez.com
Bovino, le Responsable Développement Web chez Developpez.com, a commenté le billet de blog de Steve Hansen. Pour lui, cette analyse est assez intéressante et fait ressortir le flou qui règne autour de la notion de HTML5 pour beaucoup de monde.
« À mon avis, HTML5 rejoint le groupe des noms pompeux balancés à toute sauce par des personnes qui n'en connaissent pas grand-chose », estime Bovino, qui au passage nous fait un bref historique pour étayer ses propos. « On avait déjà eu (pour se limiter aux technologies liées au Web) : AJAX, DHTML, Cloud et bien d'autres, qui font très chic dans les discussions en ville. Démystifier HTML5 me semble donc une initiative vertueuse. »
Le premier faux concept énoncé par Hansen ne semble pas, cependant, convaincre Bovino, qui de par son expérience, estime celui-ci peu fréquent : « il ne me parait pas très fréquent et je n'ai pas le souvenir d'avoir rencontré ce type de remarque ».
Par contre, en ce qui concerne le second, « il est clair que beaucoup de monde comprend difficilement que HTML5 n'est qu'une évolution de HTML et que de ce fait, elle englobe ce qui existait déjà dans les précédentes versions (à l'exception des éléments supprimés ou rendus obsolètes). Si l'on regarde les forums HTML, on se rend compte que beaucoup de monde semble persuadé que pour avoir une page HTML5, il faut obligatoirement utiliser des éléments nouveaux, ce qui est bien entendu faux », affirme fermement Bovino, qui invite par ailleurs à consulter son billet de blog « Le HTML5, c’est pour quand ? », qui répond à cette question.
En ce qui concerne le concept numéro 3, Bovino estime que celui-ci rejoint un peu sa remarque au sujet du premier : « en effet, pour beaucoup de monde, HTML5 est un concept dans lequel ils intègrent tout un amoncellement de notions apparues récemment, dont le développement pour appareils mobiles qui n'a aucun rapport direct avec HTML5, ce serait plutôt du CSS3, mais pas uniquement. »
Le quatrième concept, « il est évident que la différentiation entre le support de HTML5 par les navigateurs et le support des nouveautés apportées par HTML5 est difficile à prendre en compte pour certains. Si tous les navigateurs (y compris IE6) acceptent le doctype HTML5 sans passer en mode de compatibilité, cela ne signifie en rien que les navigateurs ont miraculeusement ‘appris’ comment interpréter des balises ou des API JavaScript pour lesquelles ils n'ont pas de support initial. D'où la nécessité de mettre à jour son navigateur (et au-delà de ça, d'inciter les visiteurs de ses sites à le faire, notamment en leur expliquant comment). »
En ce qui concerne le dernier point, le Responsable Développement Web de Developpez.com trouve ce concept réellement très présent. « Mais là encore, pour une raison déjà évoquée : on retrouve souvent des personnes parlant d'applications Web comme ils parlent de HTML5, c'est-à-dire sans connaitre les notions qui se cachent derrière. De plus, comme une des grandes nouveautés du standard HTML5 est d'aller plus loin que le simple balisage, mais d'intégrer aussi des API JavaScript, beaucoup de confusions en ressortent », affirme-t-il.
En conclusion, Bovino estime que le HTML5 est surtout pour beaucoup de personnes « un truc à la mode qu'il faut placer dans la conversation pour montrer qu'on est moderne », et au final, le véritable faux concept à ses yeux est le fait de croire que « HTML5 est une nouvelle technologie, alors que ce n'est qu'une évolution de technologies déjà existantes (balisage HTML + API JavaScript complémentaires). Ainsi, on peut voir fleurir les annonces d'emploi où il faut maitriser HTML5 (maitriser un standard qui n'est pas encore finalisé) et dans la description du poste, rien n'indique en quoi HTML5 constitue l'ossature indispensable. HTML5 n'est qu'un terme technique qui ne devrait intéresser que les développeurs Web dans la mesure où ça n'apporte rien de plus que des outils techniques aux développeurs. »
Source : Billet de Steve Hansen
Inscription à :
Articles (Atom)