dimanche 22 décembre 2013

Performance d'un site web

Performance d’un site web : étude d’un cas pratique et exemples d’optimisations

31 décembre 2012
Tags : 
1 commentaire
La vitesse d’affichage d’un site web est aujourd’hui un critère très important pour le référencement naturel et la réussite d’un projet web. La barrière maximale de 3 secondes de chargement par page est devenue un seuil obligatoire à respecter. L’augmentation des visites depuis les smartphones et tablettes est un facteur de difficultés supplémentaires pour rester en dessous de ces 3 secondes de chargement.
augmenter-vitesse
L’enjeu est simple : si votre site est trop lent le visiteur ne restera pas. Nous pensons clairement chez Kiwano que le critère de performance du site côté client est un critère encore trop sous estimé par les créateurs de sites. Si vous avez aujourd’hui un investissement à faire sur votre site : faîtes le pour améliorer la vitesse ressentie par les utilisateurs. Vous gagnerez des visiteurs fidèles et des places dans les résultats de recherche Google.
Nous vous proposons donc de revoir les techniques pour améliorer la performance de votre site au travers d’un cas concret pour partager avec vous ce qui a été fait sur un autre site.
N’hésitez pas à donner votre avis et partagez votre expérience.

Présentation du sujet d’étude : le site de location de camping-car CampiLoc

campiloc
CampiLoc est un site de location de camping-cars de particulier à particulier. Il propose aux propriétaires de camping-cars de mettre gratuitement une annonce de location sur le site et aux amateurs de locations de camping-car de trouver un camping-car dans la région qu’ils souhaitent.
CampiLoc est un site utilisant une technologie serveur moderne avec un code créé sur mesure ce qui est un vrai atout pour intégrer facilement des optimisations.

Performance côté client

Quand nous parlons de performance d’un site web il est important de rappeler que nous voulons mesurer et améliorer la performance ressentie par le visiteur. Nous ne mesurons donc pas le temps mis par le serveur pour générer la page mais le temps total d’affichage de la page dans le navigateur client (temps serveur + temps total de téléchargement des éléments).

Premier réflexe : vérifier le code serveur

Alors oui, nous allons beaucoup parler de techniques côté client mais il faut également vérifier que le serveur n’est pas lent. Sur le site CampiLoc, l’hébergement est en France sur un serveur dédié suffisamment puissant. Des techniques de cache applicatif serveur des informations ont été employées pour avoir des pages qui répondent au plus vite.

News en page d’accueil

news
Concernant la page d’accueil, un extrait des dernières news du blog est affiché en bas de page. Cette information n’est pas essentielle pour l’utilisateur (et pour Google) car elle reprend un contenu déjà présent sur le blog. Par contre charger un flux RSS externe augmente le temps de génération de la page côté serveur. Il a donc été décidé de charger ce contenu en asynchrone via une requête Ajax.

Réduire le poids des éléments

L’étape suivante consiste à réduire au maximum le poids de tous les éléments renvoyés au client. Selon le site HTTP Archive, pour le top 1000 actuel des sites web, le poids total d’une page fait en moyenne 1137 Ko dont 204 Ko pour le JavaScript, 36 Ko pour le code CSS, 46 Ko pour le code HTML et 614 Ko pour les images.
chart
Concernant le code HTML, CSS et JavaScript, le site n’utilise pas de progiciel ou de thème. Seule la librairie Telerik (basée sur jQuery) est utilisé pour les composants d’interfaces comme les grilles, les calendriers, les sélecteurs de dates, les onglets…
Nous avons donc un code HTML, CSS et JavaScript réduit naturellement car écrit spécifiquement pour les besoins du site.

Minify & GZip CSS

Le code CSS est minifié, c’est à dire que l’ensemble des commentaires ont été supprimés ainsi que les éléments non nécessaires comme les espaces, les points-virgules, les retours à la ligne…
YUI-Compressor
L’outil en ligne YUI Compressor permet de réduire facilement le code CSS tout en garantissant les mêmes fonctionnalités.
Ensuite le code est gzippé automatiquement par le serveur et renvoyé au navigateur qui le décompressera.
Ces techniques ont permis de réduire le code CSS de 99,4 Ko à 79,1 Ko une fois minifié puis enfin à 25,3 Ko une fois compressé soit un gain de 74,1 Ko !

Minify & GZip JavaScript

Côté JavaScript, nous passons de 595,7 Ko à 259,6 Ko une fois minifié puis enfin à 83,6 Ko une fois compressé soit un gain de 512,1 Ko !

Minify HTML et réduction du code HTML

La minification du code HTML n’est pas une opération facile car un retour chariot ou un espace est interprété et affiché par le navigateur. Supprimer un espace ou un retour chariot peut donc avoir des conséquences sur votre affichage.
Une petite optimisation a cependant été faite en supprimant les tabulations et espaces en début de ligne ainsi que les lignes vides.
Le site n’utilise pas HTML5 pour des questions de rétrocompatibilité (et pour éviter de charger un script en plus) mais charge quand même le doctype HTML5 car les navigateurs récents utilisent un moteur HTML5 plus rapide que le moteur HTML4.
Le code HTML est sémantique avec peu de code de structure. Ceci a permis de réduire le poids de l’HTML tout en ayant un bon ratio contenu/structure.
Enfin, le code HTML final est renvoyé compressé au navigateur client.

Réduire le poids des images

Toutes les images utilisées sur le site ont été générées à la bonne taille. Nous voyons encore trop souvent, pendant nos audits de sites, des images trop grandes et réduites dans le code HTML ou CSS. Nous avons donc vérifié que toutes les images étaient fournies à leur taille d’affichage (et ne nous parlez pas d’écran retina svp).
Ensuite, toutes les images ont fait un tour dans un outil d’optimisation en ligne pour réduire leurs poids au maximum sans impacter leur qualité.
kraken
Nous vous conseillons l’excellent outil Kraken Image Optimizer pour optimiser vos images en ligne.

Images des camping-cars

Le site CampiLoc, comme tout site d’annonces en ligne, propose aux propriétaires d’uploader des images pour agrémenter leurs annonces.
Les images chargées par les propriétaires sont des images lourdes et non optimisées pour le web.
exemple image camping-car
Plutôt que rajouter des contraintes de taille et de poids aux propriétaires, l’idée a été de garder les originaux chargés par les propriétaires et de régénérer à la demande, selon la page du site, des images optimisées à la bonne taille pour qu’elles soient les plus légères possibles.

Réduire le nombre de requêtes HTTP

L’étape suivante est de réduire le nombre de requêtes effectuées par le navigateur. Selon le navigateur le nombre de requêtes maximum effectuées en parallèles est variable mais ce nombre n’est jamais important. De plus le délai peut être long (surtout avec une connexion mobile) entre la demande de téléchargement d’un nouvel élément et le début du téléchargement de cet élément. Il est donc recommandé de combiner les requêtes pour réduire au maximum leur nombre nécessaires à l’affichage de la page.

Combiner le code CSS & JavaScript

L’ensemble du code CSS est combiné côté serveur et renvoyé côté client avec dans le nom du fichier combiné avec un hash des noms de fichiers CSS originaux (nous verrons plus loin pourquoi ce hash est important).
La même technique est utilisée pour combiner le code JavaScript.
Nous avons donc réduit le nombre de fichiers pour passer de 10 fichiers CSS à un seul fichier et de 13 fichiers JavaScript à un seul fichier !

Utilisation de sprites pour les images

Les images utilisées par le code CSS doivent être regroupées dans un sprite, c’est à dire une seule grosse image combinant toutes les petites images. Avec un sprite CSS il suffit simplement de modifier la propriété background-position de l’image combinée pour déplacer la zone visible pour avoir l’image finale souhaitée (il faut voir le bloc HTML comme une fenêtre qui ne rend visible qu’une partie du sprite qui est déplacé comme on le souhaite).
explication-sprite
Les composants Telerik utilisent déjà un sprite CSS.
Nous avons donc créé un sprite supplémentaire pour l’ensemble des images spécifiques au site CampiLoc. Nous vous recommandons de construire vos sprites « à la main » car l’utilisation d’un outil automatique créera des zones vides qui augmentent légèrement le poids du sprite.
Ce sprite est ensuite passé entre les mains de Kraken pour réduire son poid au maximum .
extrait-sprite

Cas particulier de la carte de France

Le site CampiLoc propose une carte de France pour faire une recherche rapide des camping-cars disponibles pour une région de France. L’utilisation de la balise Map et Area permet facilement d’avoir des urls différentes (et donc des recherches différentes) en fonction de la zone cliquée sur la carte. Par contre il est important d’avoir un retour utilisateur au survol de la carte pour comprendre quelle recherche va être lancée en fonction de la zone activée.
carte
La méthode habituelle pour changer une image en fonction du survol est de le faire au hover en CSS. Par contre en CSS impossible de récupérer l’Area survolée pour modifier l’image en conséquence. Pour garder cette information, on passe donc par du code JavaScript.
La solution en JavaScript est de modifier l’image en fonction de la zone survolée mais pour éviter le chargement de la nouvelle image il faut précharger l’ensemble des images pour chaque région (c’est la technique employée par leboncoin par exemple).
Comme évoqué précédemment, nous voulons éviter de charger trop d’objets. Nous avons donc créé un sprite contenant l’ensemble des survols (et ne contenant que les survols en orange) que nous positionnons au-dessus de la carte normale. Au survol de la carte, un code JavaScript modifie le background-position pour avoir la bonne image au survol.
Voici un extrait du code JavaScript :
$('area[id^="Map"]').hover(
	function () {
		var nb = ($(this).attr('id').substr(3, 5));
		$("#RealMap").css("background-position", "0 -" + 274 * nb + "px");
	},
	function () {
		$("#RealMap").css("background-position", "0 0");
	}
);

Définir un cache client pour l’ensemble des objets

L’ensemble des éléments CSS, JavaScript et images du site CampiLoc ont un cache client positionné pour 1 an. Ceci permet au visiteur de n’avoir à charger que le code HTML une fois la première page chargée.
Pour invalider le cache client d’un élément, il suffit de renommer le fichier source, dans le cas d’un fichier CSS ou JavaScript le hash calculé par le serveur change et le navigateur chargera le nouveau CSS ou JavaScript combiné dans son cache.

Quelques optimisations complémentaires et statistiques finales

En vrac, voici quelques optimisations supplémentaires appliquées sur le site :
  • Plus de redirection DNS.
  • Le chargement du fichier CSS combiné a été placé dans le <head> de la page et le fichier JavaScript juste avant la balise fermante </body>.
  • Le fichier favicon a été optimisé et peut-être mis en cache par le navigateur.
  • Les tailles des images de contenu ont été définies dans le code HTML.
Avec le code JavaScript Google Analytics, le chargement de la page d’accueil complète représente au total 406,2 Ko pour 19 requêtes HTTP.
stats-campiloc
Le site obtient donc le grade A (92/100) sur YSlow et la note de 96/100 sur Page Speed.

Conclusion

L’ensemble de ces optimisations permet au site CampiLoc d’avoir un poids assez faible et un chargement rapide des ses pages. Nous pensons que ces optimisations améliorent l’expérience utilisateur et contribueront ainsi à améliorer le positionnement du site sur Google.
Vous pouvez analyser votre propre site pour regarder le poids des éléments, le nombre de requêtes HTTP et le cache client. Vous pouvez aussi consulter les conseils de Yahoo et les conseils de Google.
Si vous souhaitez vous aussi un audit complet de votre site n’hésitez pas à nous contacter.
L’amélioration des performances d’un site est un travail quotidien. Il reste bien sûr des optimisations possibles, si vous voyez un point qui pourrait être corrigé n’hésitez pas à le partager dans les commentaires.
- See more at: http://www.kiwano.fr/performance-site-web-vitesse/#sthash.uBfgq5gt.dpuf

Observatoire 2013


samedi 14 décembre 2013

Google et l'avenir du SEO


Pour Google, 2013 a été une année particulièrement riche en termes de mises à jour. Penguin et Panda ont bouleversé le référencement naturel, Colibri a amélioré la pertinence des résultats de recherche et le générateur de mots-clés a fermé ses portes.

Se préparer aux mises à jour des algorithmes

Penguin et Panda ont bouleversé le référencement naturel, Colibri a amélioré la pertinence des résultats de recherche et le générateur de mots-clés a fermé ses portes. De nombreuses personnes se sont même interrogées sur l'avenir du métier de SEO : l'interview Forbes de VUDU marketing en propose d'ailleurs une analyse approfondie. Pour ma part, je pense que Google s'est lancé dans une nouvelle politique antispam. Celle-ci imposerait de nouvelles règles aux professionnels du SEO ainsi qu'à toutes les personnes souhaitant mettre en avant leur site dans les années à venir.
La présence en ligne s'avère en outre indispensable d'autant plus que le marché n'a jamais été aussi compétitif. En effet, l'e-marketing offre désormais d'importantes possibilités de rentabilité tandis que la stratégie du Gray hat a montré ses limites. Les professionnels du SEO devront de ce fait intensifier et adopter une meilleure vision de notre domaine d'expertise. De manière générale, il s'agit d'une démarche stratégique : nos meilleurs joueurs anticipent les actions deGoogle et tentent d'y répondre rapidement. L'infini jeu d'échecs numérique qu'est le SEO continue ainsi, mais se fait désormais suivant des règles plus complexes.
Suite à mes observations, lectures et analyses professionnelles, voici donc quelques conseils à destination des entreprises et des professionnels souhaitant réorganiser leurs stratégies numériques pour 2014.

Le SEO s'améliore

L'observation attentive des mises à jour réalisées cette année (portant notamment sur les sites qui trichent afin d'optimiser leur référencement ou qui ne fournissent aucune information de valeur à l'internaute) permet de prédire le SEO en 2014. Il faut en effet s'attendre à ce que Penguin et Panda continuent la recherche de liens et de contenus de qualité. Garder un œil sur le profil de liens assure ainsi la qualité d'un site. Des contrôles réguliers permettront d'identifier et de supprimer les liens entrants artificiels. En 2014, la réussite du SEO reposera sur la compréhension des démarches actuelles, mais également sur l'importance stratégique et tactique des éventuels changements.
En résumé : le SEO connaît une amélioration notable.

L'importance du marketing de contenu

S'il n'est encore actuellement qu'au stade de buzzword, le marketing de contenu va rapidement devenir une démarche plus mature en 2014. D'un point de vue SEO, Google se penchera sur les entreprises disposant de solides compétences dans ce domaine, car elles représentent ce que le moteur de recherche souhaite soutenir.
Une stratégie de contenu réussie apportera :

  • un contenu pertinent et orienté vers la cible,
  • un partage et un suivi sur les réseaux sociaux,
  • des signes d'activité sur le site,
  • ainsi qu'une meilleure maîtrise du secteur d'activité. 
Toutes les mises à jour récentes de Google ont d'ailleurs été conçues à cette fin. Ainsi pour une entreprise, les évolutions attendues pour 2014 dépendront largement de sa situation vis-à-vis d'une stratégie active de marketing de contenu. Celles disposant de stratégies existantes auront la possibilité de se tourner vers de nouvelles solutions, particulièrement destinées aux mobiles. Les acteurs qui se sont essayés au marketing de contenu pourront d'ores et déjà s'engager davantage et diversifier leurs activités. Les autres peuvent quant à eux se lancer dès à présent.

L'importance des médias sociaux

Les médias sociaux occupent une place importante dans le marketing numérique. Facebook et Twitter ont largement contribué à cette avancée majeure avant que Pinterest, Instagram ainsi que d'autres services de contenus visuels n'alimentent ce type de canal au cours des deux dernières années. La diversification étant actuellement le principal mot d'ordre, être présent sur un seul réseau se révèle insuffisant. Le Content Marketing Institute a d'ailleurs récemment publié une étude portant sur la prospérité des commerçants B2B. Ceux-ci seraient présents sur au moins sept réseaux différents.
Dans les prochaines années, les entreprises et les professionnels du SEO devront se poser les questions suivantes : 

  • considérons-nous l'importance des réseaux sociaux ? 
  • Utilisons-nous les bases de profils solides et d'un contenu réussi ?
  • Le partage social est-il possible sur l'ensemble de nos contenus ? 
  • L'optimisation de notre stratégie de contenu est-elle possible sur les réseaux sociaux ? Sommes-nous actifs sur les médias sociaux essentiels à notre activité ? 
  • Sommes-nous actifs sur les réseaux sociaux essentiels à nos clients ? 
  • Sommes-nous actifs sur les réseaux sociaux essentiels aux moteurs de recherche (voir ci-dessous pour une meilleure analyse de ce type d'investissement) ? 
  • Notre stratégie de marketing suffit-elle pour l'atteinte des objectifs ?
De la même manière que l'activité humaine dépend de la qualité du contenu, les mises à jour de Google tendent à dépendre des signaux sociaux.

Investir dans Google+

En plus d'une activité marketing réussie sur les réseaux sociaux, la présence sur Google+ apparaît comme indispensable. La dernière étude du site Moz portant sur les facteurs de classement révèle que le réseau social de la firme de Mountain View joue un rôle important dans le classement SEO.
Les principaux points à suivre sont : installation de Google Authorshipsur chaque contenu et mise en lien avec un compte Google+. Il en résulte une amélioration du classement dans les pages de résultats du moteur de recherche. Les + 1 collectés jouent en effet un rôle important dans les signaux sociaux qui composent l'algorithme de Google. Leur importance pourrait d'ailleurs croître prochainement.

Hummingbird n'est que la pointe de l'iceberg

2014 sera l'année du SEO mobile. Hummingbird n'est que la partie visible de l'iceberg que Google met en place afin de répondre à l'évolution rapide du paysage numérique : plus de la moitié des Américains seraient équipés de smartphones ou de tablettes.
Les chiffres actuels devraient largement croître après les fêtes de fin d'année. Il est de ce fait important, pour l'amélioration de leur classement SEO, que les professionnels investissent dans la performance de leur site mobile. Pour ce faire, les sites doivent principalement être conçus à destination des terminaux mobiles avant d'être adaptés aux écrans plus grands. Cette démarche doit être la priorité des professionnels en termes de référencement et d'investissement pour l'année 2014.
Certains changements apparus avec l'arrivée de Colibri, notamment la forte croissance de la recherche sémantique et du Knowledge Graph, devraient continuer à prendre de l'ampleur.
De manière concrète, ils ont pour objectif de préparer l'arrivée de la recherche vocale particulièrement adaptée à une utilisation mobile. D'autres applications (qui restent encore floues pour le moment) pourraient toutefois en découler. Elles serviraient entre autres à structurer chaque contenu en vue de l'améliorer et ne garder que les informations pertinentes.

Court ou long ?

Que choisir ? Un contenu long ou court ? La réponse dépend essentiellement de l'auteur du contenu, de la cible visée, de l'information relayée, du contexte, mais également de ce qui est considéré comme étant le mieux adapté. Concrètement, la véritable question serait : quelle forme de contenu assurera un positionnement optimal en 2014 ?
Vocus a récemment cité une étude affirmant que, pour une recherche spécifique de mots-clés, les 10 meilleurs résultats seraient les contenus présentant plus de 2 000 mots. Bien que cette étude ne soit peut-être plus valide, il est important de mentionner que la longueur du contenu apparaît comme un indicateur de l'expertise ainsi que de la valeur proposée à l'internaute.
L'expertise et la valeur étant en effet mises en avant par Google, la longueur minimum souhaitable pour chaque contenu serait passée de près de 550 mots à 1 000 mots et plus. La réalité de l'appareil mobile est cependant tout autre : un utilisateur d'iPhone sera peu enclin à faire défiler 2 000 mots d'un article qui ne l'intéresse que modérément. Les créateurs de contenus mobiles font ainsi face à la nécessité de créer des articles adaptés à ce type de support, qui devront être beaucoup, beaucoup plus courts.
Les solutions proposées tendent à offrir toutes les gammes de contenu. Le lecteur aura la possibilité d'opter pour le contenu le plus adapté à son appareil. En termes d'expérience utilisateur, il s'agit d'une avancée notable. En revanche, l'efficacité de cette méthode vis-à-vis de l'algorithme de référencement reste encore à démontrer.La question du contenu est un sujet de préoccupation, mais il est certain que des évolutions apparaîtront d'où la nécessité de rester attentif.

Publicité et Pay per Click (PPC) ont une relation décalée avec le SEO

Depuis que Google a pris la décision de chiffrer la majorité des recherches, l'accès aux données de mots clés a été limité. Il y a toutefois une exception : les utilisateurs de PPC sur la plate-forme de Google peuvent par exemple toujours y accéder.
L'orientation du budget SEO vers le PPC peut simplement être le résultat de la restriction de l'accès aux données. En outre, il se peut que Google propose un produit haut de gamme afin de rendre ces données disponibles par l'intermédiaire d'un autre canal d'ici l'année prochaine.

Guest Blogging : une tactique efficace sauf sur quelques points

Le Guest Blogging a été largement utilisé au cours de l'année dernière. Il semble qu'il continuera à être l'un des outils les plus efficaces pour la création de liens entrants de qualité ainsi que l'amélioration du trafic web en 2014. Il est toutefois important que le contenu proposé respecte des exigences de qualité et suive des critères stricts durant la sélection des sites cibles.
En d'autres termes, l'approche appliquée pour le Guest Blogging doit être équivalente aux efforts déployés pour améliorer le référencement. Une mauvaise gestion de cet outil suffirait à être pénalisé par une future mise à jour de Penguin.
Cette année s'est révélée particulièrement importante pour l'industrie du SEO. Pour 2014, les mêmes stratégies sont susceptibles d'être appliquées. En réalisant une rétrospective, il est facile de déterminer les évolutions susceptibles de se produire dans les années à venir. Suivre la stratégie du White hat et prêter attention aux évolutions qui se produisent suffiraient ainsi à améliorer la visibilité dans les requêtes en 2014 et au-delà.
Selon vous, quelles seront les nouveautés proposées par Google pour l'année prochaine ?
Comment les préparez-vous ?

vendredi 13 décembre 2013

.FR ou .COM ?????

Référencement: Qu’en pense Google?

On arrive à la partie la plus importante. Un site en .fr apparaîtra-t’il plus facilement sur Google qu’un site en .com ? Oui et non, explications:

Pour Google, un site portant un .fr ou une autre extension associée à un pays sera associé à ce pays ou à cette zone géographique. Ce qui fait que par défaut, un site en .fr sera mieux placé surgoogle.fr qu’un site non associé géographiquement à la France.
Il est possible de associer géographiquement un site d’un domaine générique (.com par exemple) à la France ou à un autre pays grâce à Google Webmasters (http://www.google.com/webmasters/) et d’avoir le même référencement qu’un site en .fr!!! L’opération nécessite quelques compétences en informatique.
Localiser un site manuellement n’est possible qu’avec des domaines génériques. Un site associé par défault à un pays comme un .fr ne pourra pas être associé à d’autres pays que la France par la suite. Il sera donc moins bien placé sur les moteurs de recherche des visiteurs se trouvant hors de France.
Attention, Nous parlons de localisation géographique et non pas de langue! Si vous avez un site en français et souhaitez que votre site soit visible dans d’autres pays francophones comme au Canada, le .com sera sûrement la meilleure solution en terme de référencement.
Au contraire si vous avez un restaurant à Lille ou que vous êtes électricien à Bordeaux, vous cherchez à cibler les gens situés dans votre zone, et n’avez à priori pas d’intérêt à être visible par les visiteurs se trouvant à l’étranger. Le .fr sera la meilleure option, d’ailleurs il est souvent proposé un peu moins cher que le .com!
Voila! J’espère avoir éclairci certains doutes, n’hésitez pas à commenter pour donner votre avis ou poser une question supplémentaire!

samedi 7 décembre 2013

E-mailing en responsive

E-mailing Responsive Design, la panacée ?

« Responsive Design »… Voilà deux mots qui déclenchent forcément des discussions animées dans le monde de l’e-mail marketing. Pour ou contre ? Indispensable, ou gadget ? Évolution incontournable ou simple effet de mode ?
Le Responsive Design désigne une technique de développement de l’e-mail qui permet d’adapter la présentation du message pour maximiser son impact, en fonction du support utilisé par le destinataire au moment de la lecture.
Très concrètement, si un e-mail ainsi construit est ouvert au même moment sur l’écran d’un ordinateur et sur un smartphone, deux rendus très différents peuvent être observés.
C’est une lapalissade aujourd’hui, nous utilisons tous de plus en plus les supports mobiles au quotidien, au point de bouleverser notre rapport à l’e-mail. S’il y a quelques années nous allions à la rencontre de nos messages, confortablement installés derrière nos écrans d’ordinateurs, concentrés sur cette unique activité – aujourd’hui ils nous touchent au moment où ils sont émis, où que l’on soit, quoi que l’on fasse. En réunion, dans le métro, au restaurant, et sur un tout petit écran, le destinataire n’est pas toujours en situation optimale pour capter l’information qui lui est ainsi diffusée.
Proposer au lecteur un email au design adapté, avec une navigation verticale, des blocs lisibles sans zoom manuel, des liens accessibles aux doigts – bref un e-mail en "Responsive Design" - c’est effectivement un premier niveau de réponse.
Exemple d’adaptation Responsive Design (source Livre Blanc, Responsive Design, au-delà de l’effet de mode, NP6, 2013) :


La version sur ordinateur s’adapte à une lecture sur un grand écran. Celle sur mobile, à gauche, répond aux contraintes d’un écran plus réduit (une seule colonne). 

La technique couvre-t-elle toutes les questions relatives à l’attention portée par l’internaute en situation de mobilité ?

Coûteuse et parfois compliquée, impactante techniquement parce qu’elle suppose de revoir la structure de vos newsletters habituelles, la technique même parfaitement maîtrisée n’est pas la baguette magique qui fera exploser vos objectifs. Ne pas prendre en compte tous les aspects de votre projet a priori peut ainsi avoir un effet très déceptif...
Avant tout, il s’agit d’étudier ses résultats, déchiffrer le comportement de ses contacts e-mail : ouvrent-ils effectivement les communications sur mobiles ? Les rouvrent-ils ensuite sur une autre plateforme ? Sont-ils plutôt cliqueurs, et si tel est le cas… le site de destination est-il lui-même adapté à une navigation sur mobile ?
Finalement, un tel projet doit s’inscrire dans une stratégie globale.
Le Responsive Design ne doit pas être pris comme un aboutissement mais au contraire comme un support qui peut, ou pas, aider à atteindre ses objectifs.

Augmentation du ROI, travail sur la notoriété, diffusion d’information, que l’on attende plus ou moins d’interaction avec ses contacts, la stratégie à adopter sera question de curseurs à positionner, à tester, entre l’intégration Responsive Design, le choix éditorial, le niveau de personnalisation, la définition du bon moment d’envoi, celle du bon ciblage… Parce que le meilleur moyen de ne pas être déçu de la réaction d’un mobinaute reste de ne pas lui envoyer la newsletter – tant qu’il est en situation de mobilité.
Et la clé du succès de toute campagne réside dans la qualité de la connaissance de vos contacts. Au-delà des bonnes pratiques diffusées à une échelle très large, ce sont vos propres "clients" qui permettront d’ajuster progressivement votre stratégie e-mail marketing… Par leurs comportements habituels, leur satisfaction – par tout ce qu’ils disent, directement ou indirectement.

mercredi 4 décembre 2013

Google Glass

L'interface Mirror des Google Glass est désormais ouverte à tous les développeurs, et plus seulement à une liste de beta testeurs. Google invite les éditeurs à se lancer.
C'est une nouvelle étape visant à préparer le lancement des Google Glass. Google invite officiellement les développeurs à acquérir ses lunettes connectées, et à commencer à développer des applications. Le groupe ouvre désormais la Mirror API de ses Glass à tous, sans restriction. Cet accès était jusque-là réservé à une liste de beta testeurs. 
L'information intervient quelques jours après la sortie d'un kit de développement, le Glass Development Kit (GDK). Un SDK qui permet de créer des applications natives (baptisée Glassware par Google) reposant sur la surcouche Android des lunettes. 
L'objectif de Google est ainsi de préparer le lancement grand public de ses Google Glass, qui devrait intervenir courant 2014. Objectif : faire en sorte qu'une première offre d'apps soit disponible au sein de la future boutique d'applications qui sera dédiée aux Google Glass.

samedi 9 novembre 2013

Les hôtels Hyatt mettent en avant leur service client 2.0

Publié le  par 

Hyatt, groupe d'hôtellerie de luxe, a fait appel à l'agence We Are Social pour mettre en avant son service client digital interactif.

Les hôtels Hyatt mettent en avant leur service client 2.0
Depuis le 25 octobre et pendant 7 jours, les internautes sont invités à exprimer leurs envies de séjours de rêve sur les réseaux sociaux Twitter, Vine, Instagram, Pinterest et Facebook, accompagnées du hashtag#HYATTaDream.
Le groupe hôtelier Hyatt et l'agence We Are Social organisent en effet une grande campagne pour promouvoir le service 2.0 des différentes hôtels Hyatt®, Park Hyatt®, Andaz®, Grand Hyatt®, Hyatt Regency®, Hyatt Place® et Hyatt House(TM).
Au coeur du dispositif : Aimable, un concierge virtuel, habilité à répondre au plus grand nombre, en temps réel et en vidéo.
En parallèle, pour soutenir cette activation, l'agence conversationnelle We Are Social a mis en oeuvre un dispositif d'achat média sur Facebook et Twitter.
Une campagne d'influence ciblée a également été déployée, destinée à quelques blogueuses à qui l'agence a envoyé une vidéo personnalisée d'Aimable, les invitant à séjourner dans un des hôtels de la marque.
A l'issue de la campagne, 7 gagnants (les plus imaginatifs) remporteront la réalisation de leur séjour de rêve.

Chrome poursuit sa fulgurante progression en France






Le navigateur de Google n'est plus qu'à quelques dizièmes de point des 30% de part de marché en France. Par rapport au mois de septembre, Chrome a réalisé une belle progression (+0,92 point), et est même le seul navigateur avec Android à afficher une hausse d'un mois sur l'autre. Car dans le même temps, IE est passé de 22,06% à 21,53%, Firefox de 20,41% à 20,03% et Safari de 19,24% à 18,84% tandis qu'Android a, lui, légèrement progressé en passant de 6,54% à 6,65%.
Exception faite de Safari, les navigateurs web qui ont perdu du terrain d'un mois sur l'autre, ont également cédé des parts de marché d'une année sur l'autre. Ainsi, c'est le cas d'Internet Explorer (-7,66 points) et Firefox (-3,57 points). A l'opposé, Chrome a grimpé de 2,51 points par rapport à octobre 2012, Safari de 3,98 points et Android de 3,11 points. 
Pour les utilisateurs de PC sous Windows XP, rappelons par ailleurs que Google et Mozilla ont récemment annoncé l'extension du support de Chrome et Firefox jusqu'en avril 2015 pour le premier et jusqu'à une date indéterminée pour le second. 

parts de marché des principaux navigateurs en france en octobre 2013 (chiffres
Parts de marché des principaux navigateurs en France en octobre 2013 (chiffres basés sur les statistiques d'audience de Linternaute.com, premier site français d'actualité en mars 2013). © JDN

vendredi 8 novembre 2013

Linking : arrêtez le massacre !

Linking : arrêtez le massacre !

Malgré la pénalisation des dérives du netlinking par Google, les référenceurs ne se sont pas remis en question et les pratiques n'ont pas radicalement changé, au risque d'être inefficaces voire dangereuses.
Je ne vais pas revenir sur les dérives du netlinking, dont tout le monde a entendu parler avec les mises à jour de l'algorithme de Google de ces deux dernières années et les pénalisations qui s'en sont suivies, mais la prise de conscience n'a pas été complète.
En effet, de très nombreux référenceurs avaient fondé leur stratégie SEO quasi-exclusivement sur le linking... et ne savent faire que ça ! du coup, ils continuent cette stratégie en l'ayant un peu assagie : utilisation de descriptions uniques, variation des textes d'encrage, abandon des annuaires les moins qualitatifs.
Ainsi, comme encore récemment on entendait des créateurs de sites parler exclusivement de balises META lorsqu'on leur parlait de référencement, aujourd'hui on voit de nombreuses agences de référencement parler uniquement d'inscriptions dans des annuaires et de publication de communiqués de presse (CP)...
Là encore, faire appel à son bon sens est le premier outil du référenceur : voyez-vous souvent des annuaires ou des sites de CP dans les résultats de recherche ? non, donc c'est que Google n'accorde pas grand intérêt à ces sites... Et si Google n'accorde pas grand intérêt à ces sites, pensez-vous qu'il accorde beaucoup de poids aux liens qu'ils contiennent ?
Non seulement cette stratégie s'avère généralement inefficace, mais je vois encore des sites qui se font pénaliser à cause d'une campagne de linking qui a été mise en œuvre après Penguin...
Pour moi, la seule conclusion que l'on peut en tirer est : arrêtez de perdre du temps et de l'argent avec des inscriptions annuaires et des publications de CP ! Laissez tomber la solution de facilité au profit d'un linking très qualitatif qui a toujours fonctionné et fonctionnera toujours.
Oubliez donc les notions quantitatives : obtenir un lien par mois de très bonne qualité (lien dans le contenu d'une page importante d'un site d'une thématique connexe), c'est déjà bien !

Les liens de la plus haute qualité  sont très difficiles à obtenir

Et il faut en général se contenter de liens qualitatifs mais un peu moins pérenne, surtout si l'on veut que les choses avancent rapidement. C'est pourquoi l'obtention de liens dans des articles de blog - assez aisée même s'il faut parfois payer - est devenue un enjeu important pour ceux qui font du linking haut de gamme. Si les blogs sont spécialisés sur la même thématique que le site et qu'ils ne comportent pas trop de liens sortants, ces liens peuvent être très qualitatifs, mais au bout d'un certain temps, ils se retrouvent dans les profondeurs du blog, ce qui fait qu'ils n'ont plus le même poids et donc qu'il faut en obtenir régulièrement de nouveaux.
Dans le web anglophone, d'ailleurs, des plateformes de mise en relation entre éditeurs de blog et fournisseurs de contenus comme MyBlogGuest se sont mises en place. Ce guest-blogging permet aux blogueurs d'obtenir des contenus gratuitement en contrepartie de l'insertion d'un lien dans les articles publiés et réciproquement, on peut obtenir un lien gratuitement en échange d'un article. Dans le web francophone, il faut encore souvent en passer par la rémunération du blogueur, mais gageons que le guest-blogging va se développer...
Donc, si vous faites appel à un référenceur ou à une agence de référencement, veillez à ce que la stratégie ne soit pas exclusivement basée sur le linking : il y a aussi l'optimisation du site, les réseaux sociaux...
Sachez également que le travail de netlinking n'est pas toujours nécessaire : si votre site est assez ancien et qu'il a déjà obtenu naturellement quelques bons liens, une simple optimisation peut suffire à faire monter votre site dans les toute premières positions. Et donc si néanmoins une campagne de linking est nécessaire, veillez à ce qu'elle soit très qualitative. Les agences proposant du netlinking haut de gamme sont encore peu nombreuses, mais on commence à en trouver.

Internet mobile : l'audience des groupes, des sites et des applis en France

Internet mobile : l'audience des groupes, des sites et des applis en France

Audience mobilePrès d'un Français sur 2 se connecte chaque mois à l'Internet mobile. Cela représente 25,8 millions de mobinautes au 3e trimestre 2013 soit 3,5 millions de plus qu'il y a un an.
Nouveau chassé-croisé entre Yahoo et Apple au sein de ce classement de l'audience de l'internet mobile, effectué chaque mois par Médiamétrie // Netratings. Le portail américain récupère sa 3e place, à la faveur d'une hausse de son audience de plus de 500 000 visiteurs uniques lors du mois de septembre. Dans le top 10, le groupe Solocal conserve sa 7e place, en dépit d'une chute de 266 000 VU de son audience. Au total, 3 acteurs de ce classement sont à la baisse, le groupe Figaro et Shazam ne faisant guère mieux que Solocal.
Près d'un Français sur 2 se connecte chaque mois à l'Internet mobile. Cela représente 25,8 millions de mobinautes au 3ème trimestre 2013 soit 3,5 millions de plus qu'il y a un an. Les sites et applications de la sous-catégorie "Médias TV / Radio" enregistrent la 2ème plus forte progression par rapport au mois d'août 2013 avec 1 million de mobinautes supplémentaires en 1 mois, soit 8,1 millions de mobinautes au total. A noter l'avancée constante de l'éditeur de jeux King.com dont les applications dépassent le seuil des 4 millions de VU.
Le commerce électronique en France : les chiffres clés
Quels sont les chiffres clés du e-commerce en France selon les secteurs ? Comment évoluent les indicateurs ? Publicité, m-commerce, multicanal... Quelles sont les orientations stratégiques pour 2013 ? Sommaire détaillé