vendredi 20 septembre 2013

SPIP : dédié surtout aux sites sur mesure

CMS : LES MEILLEURES SOLUTIONS OPEN SOURCE AU CRIBLESPIP : dédié surtout aux sites sur mesure

Principalement utilisé à l'origine, en 2001, pour la gestion de sites web personnels, SPIP est depuis également largement utilisé par les entreprises. Ecrit en PHP, SPIP s'appuie sur une base de données MySQL, SQLite ou PostgreSQL. La version 3.0, sortie en 2012, a apporté son lot de nouveautés (back-office, meilleure gestion des modules...). 
diagramme fonctionnel de spip.
Diagramme fonctionnel de SPIP. © Smile
SPIP dispose nativement d'un forum, d'un agenda et d'une messagerie interne. Quelques modules orientés "interactivité / échanges" sont disponibles - dont "Mes favoris" pour gérer des favoris internes au site ou des outils de forums améliorés comme "SPIPBB". D'un point de vue technique, SPIP 3.0 requiert un serveur Apache (ou compatible), PHP 5.1, MySQL 5 et NetPBM. 
Smile indique que SPIP 3 offre une meilleure gestion des modules que la précédente version, et intègre des "dépôts" permettant de rechercher et d'installer directement via le back-office un nouveau module parmi les nombreux actuellement disponibles - dont 340 sont estimés comme stables par la SSLL. En revanche, Smile prévient que la mise en œuvre d'une architecture multi-sites avec SPIP s'avère difficile. 
Les cas d'usage selon Smile
 SPIP obtient un profil relativement polyvalent, même s'il ne parvient pas à exceller dans un domaine particulier. Le bon score obtenu sur l'aspect "Socle Technique" lui permet cependant de briller sur le cas d'usage "Site Sur Mesure".

l'interface back-office de spip.
L'interface back-office de SPIP. © Smile

samedi 14 septembre 2013

Serveur dédié :-)




3 mythes démystifiés : les serveurs dédiés sont-ils à la rescousse de votre SEO ?


L’effet d’héberger votre site web sur un serveur d’hébergement partagé ou dédié aura-t-il un effet positif ou non sur votre référencement SEO?
Les technologies de l’information et des Télécommunications (TIC) sont en constante évolution depuis le début des années 1990. Le secteur des serveurs d’hébergement n’échappe pas à ce changement, d’autant plus que les sites web sont de plus en plus demandant. Les entreprises se questionnent continuellement sur l’effet d’héberger leur site Internet sur différents types de serveurs. Est-ce qu’ils seront pénalisés par Google pour avoir changé de serveur ?

Démystifier l’effet des serveurs sur votre référencement web

Mythes ou Réalités #1

Mythe ou Réalité #1                    ‘‘Un serveur dédié vous protège d’être «Blacklisté»’’
  1. Un serveur dédié vous permet d’avoir un bon dossier dans les yeux des moteurs de recherche. La plupart des compagnies offrent des services d’hébergement partagés ou mutualisés qui sont utilisés par des milliers d’autres webmestres. Le but de la majorité de ces gens est de faire de l’argent en ligne. Ils vont utiliser toutes sortes de scripts, de techniques Black Hat SEO et d’outils de «spamming» pour mieux se positionner sur les moteurs de recherche. Les moteurs de recherche peuvent facilement retracer l’adresse IP de ces sites web frauduleux et pourraient donc «Blacklisté» l’adresse IP qui les héberge.
  2. Selon cette vidéo de Matt Cutts, la majorité du temps, un site web spammy n’affectera pas le positionnement des sites web qui sont hébergés sur le même serveur. Par contre, si la plupart des sites web sur votre serveur partagé sont spammy, vous pourrez subir un contrecoup.
En résumé, vous vous assurez du bon voisinage avec un serveur dédié, puisque vous êtes l’unique personne responsable de tout ce qui se retrouve sur votre serveur.

Mythes ou Réalités #2

Mythe Réalité #2                    ‘‘Le rendement de votre serveur dédié augmente votre positionnement’’

  1. Un serveur dédié permet à vos pages web de se rafraîchir et de se télécharger plus rapidement. Les moteurs de recherche changent constamment leur algorithme. Depuis quelques années, la vitesse de téléchargement et de rafraîchissement est 1 des 200 facteurs pris en considération par Google et Bing. En effet, les moteurs de recherche optimisent leurs algorithmes afin que les résultats de recherche soient les meilleurs possibles. Il est donc naturel qu’ils utilisent des métriques pour déterminer si l’expérience utilisatrice est au niveau. La vitesse de téléchargement d’une page web sur un serveur dédié partagé n’est pas toujours stable, tandis que sur un serveur dédié, vous aurez toujours une vitesse constante. Donc, considérant que la vitesse de vos pages web est maintenant considérée comme un indice de qualité de votre site web par Bing et Google, il est primordial que votre serveur soit rapide. Étant donné que sur un serveur partagé il est difficile de s’assurer du rendement de votre serveur, il est suggéré d’utiliser un serveur dédié.
  2. À noter que l’optimisation du rendement de votre site web n’est pas à 100% reliée à votre serveur. Beaucoup de facteurs se doivent d’être optimisés directement sur votre site web.L’outil PageSpeed insights de Google vous permet d’optimiser la vitesse de votre site web.

En résumé, la vitesse de téléchargement de votre page web est liée à la fiabilité de votre serveur. Ce n’est cependant pas le seul facteur qui influera sur la vitesse de votre site web.


Mythes ou Réalités #3

Mythe ou réalité #3                    ‘‘Votre Datacenter doit être situé dans votre pays’’
  1.  Il est tout à fait raisonnable de penser que si notre «Datacenter» est situé dans notre pays, nous aurons donc des résultats plus rapides et de meilleurs placements dans les résultats de recherche. Google le confirme dans cet article du Google Webmaster Tools blog. Cependant, il insiste sur le fait que c’est un facteur mineur et qu’il essaie de prendre en considération d’autres facteurs, lorsque possible.
  2. Il est important de suggérer à Google votre emplacement géographique. C’est l’un des changements que vous pouvez effectuer directement dans Google Webmaster Tools.
  3. Donc, pour se positionner localement, Google utilisera la localisation du serveur, votre ccTLD et d’autres signaux et information qu’ils peuvent recueillir sur votre site web pour vous positionner. Par exemple :
  • Des adresses locales
  • Des numéros de téléphone local
  • Utilisation de langage local
  • La monnaie
  • Les liens entrants de sites Internet locaux
  • Google Local Business Center

C’est un facteur mineur de l’algorithme, mais c’est tout de même un facteur à considérer si cela est possible afin d’être plus près de vos utilisateurs cibles.

En résumé, pour suivre les meilleures pratiques du web un serveur dédié vous protège d’être «Blacklisté», le rendement de votre serveur dédié peut augmenter vos positionnements dans les résultats de recherche si cela augmente la vitesse de votre site web et l’adresse IP de votre serveur dédié se doit d’être local pour aider votre référencement local. Si votre site web est assez rentable pour avoir un serveur dédié, le coût en vaudra certainement la chandelle.



AUTOUR DU MÊME SUJET


    SEO INFO



    Google Webmaster Tools : "de meilleures données" sur les backlinks


    Google Webmaster Tools : "de meilleures données" sur les backlinks
    Dans les outils pour les webmasters proposés par Google, un nouveau rapport sur les liens a pour but de présenter les backlinks sous la forme d'un échantillon plus représentatif.
    Il y a du nouveau du côté de Google Webmaster Tools. Le bouton "Télécharger d'autres exemples de liens" du menu "Liens vers votre site" génère un nouveau rapport. Le but est clairement précisé dans l'annonce officielle : offrir une meilleure vision sur les liens pointant vers le site analysé, notamment pour ceux qui nettoient leur netlinking, après une pénalité par exemple. De quoi, avance Google, leur permette de "trouver plus facilement les liens sur lesquels ils doivent concentrer leurs efforts".
    Concrètement, ce rapport classait auparavant les liens par ordre alphabétique dans une liste de 100 000 backlinks, ce qui désavantageait les sites recevant de très nombreux liens qui pouvaient avoir une liste coupée à la moitié de l'alphabet – voire avant. Désormais, le rapport va montrer, promet Google, "un échantillon plus représentatif de la gamme complète des backlinks". Le moteur assure que les webmasters pourront désormais mieux voir les exemples des différents domaines de premier niveau (TLD) et noms de domaine.
    La modification est déjà effective sur bon nombre de comptes. Des SEO expliquent "voir des milliers de nouveaux noms de domaine", d'autres se demandent exactement ce que montre désormais le moteur et ce qu'il ne montre pas dans ce nouvel échantillon.

    lundi 19 août 2013

    SEO / LE QUOTIDIEN DES PROS

    SEO : le quotidien des professionnels au crible

    Quelles sont les principales tâches des profesionnels du référencement ? Quels sont les outils, gratuits et payants, qu'ils utilisent le plus ? Une enquête donne les dernières tendances.
    Les résultats d'une enquête sur l'industrie du SEO, réalisée tous les deux ans par SEOMoz, viennent d'être diffusés. Basée sur près de 6 500 réponses récoltées dans le monde via une enquête en ligne, cette enquête révèle plusieurs tendances intéressantes.
    Certes, les répondants sont principalement anglophones (les Etats-Unis et le Royaume-Uni représentant 60% des répondants, contre 1,3% pour la France), et aucune sélection ou retraitement n'a été appliqué pour déterminer l'échantillon. Mais certaines conclusions peuvent néanmoins intéresser les acteurs du SEO de l'Hexagone.

    Analyser les backlinks et contenus de la concurrence : les tâches principales des experts en SEO 
    L'étude a ainsi pu révéler les 10 tâches auxquelles se livrent le plus souvent les répondants, des lecteurs de SEOMoz donc a fortiori tous professionnels du référencement ou très impliqués dans le SEO. Ainsi, analyser les backlinks ou le contenu des concurrents figurent parmi les activités les plus courantes, citées par deux répondants sur trois. Plus impressionnant : près des trois quarts des répondants ont passé du temps, ces douze derniers mois, à gérer, optimiser ou mettre en place au moins une page Facebook. C'est d'ailleurs la réponse qui a été la plus citée.
    A noter également, la très forte proportion de sondés ayant travaillé surGoogle+ (63%) comparé à l'utilisation, très marginale, du réseau social par les internautes. Bon nombre des répondants (presque six sur dix) ont aussi indiqué passer du temps à mettre en place des URLs canoniques pour gérer le contenu dupliqué. D'ailleurs, près du tiers des répondants explique aussi avoir travaillé pour éviter la sanction de Google Panda, filtre qui a mis un coup de projecteur sur les risques liés au contenu dupliqué.
    Selon l'étude, optimiser le SEO local (via Google Adresses, les mots clés géolocalisés, etc.) a pris du temps à 55,1% des sondés ou leur équipe l'année dernière. Juste derrière suivent l'analyse des données de Twitter, pour optimiser l'utilisation du réseau social (41,1%), puis la mise en place de microformats pour les Rich Snippets (40,8%) et l'A/B testing ou les tests multivariables (40,6%).

    Budget logiciel mensuel moyen : entre 100 et 500 dollars
    Autres indicateurs intéressants mis en lumière par l'étude : les outils payants les plus utilisés. Plus de la moitié des répondants indique avoir utilisé Open Site Explorer ces douze derniers mois. Un résultat qui paraît biaisé car cet outil est justement édité par le site SEOMoz - qui a réalisé cette étude en interrogeant ses lecteurs et utilisateurs. Majestic SEO (17,4% des suffrages), Raven (17%) etSEMRush (12,6%) se taillent la part restante.
    Selon cette enquête, près d'un répondant sur dix indique que son entreprise dépense plus de 3 000 dollars pour se fournir en logiciels chaque mois. En tout, 17% payent plus de 1 000 dollars. Pour presque 30% des sondés, le budget se situe entre 100 et 500 dollars.
    23,7% des répondants indiquent cependant ne pas utiliser d'outil payant. Parmi lesoutils gratuits les plus utilisés, figurent Google Webmaster Tools (cité par 82,9% des répondants), loin devant Bing Webmaster Tools, tout de même deuxième (42,1%), l'extension Firebug (40,7%), la déclinaison gratuite et bridée de Majestic SEO (30,9%), Xenu (25,6%) ou SEOBook Tools (22,2%).

    Du côté Web Analytics, c'est un raz-de-marée pour Google Analytics, qui est cité par 92,7% des répondants. Loin derrière : WordPress Stats (16,4%) et Omniture (12,7%) complètent le podium, devant Compete (7,3%), Hubspot (6,9%), WebTrends (6,5%) ou Awstat (6,6%). Les solutions deheatmap, qui permettent de visualiser le comportement des internautes sur son site, sont aussi bien présentes dans le Top 10, avec CrazyEgg (9,2%) ClickTale (6,4%) ou Clicky (5,3%).

    SEO / Le quotidien des PROS

    SEO : le quotidien des professionnels au crible

    Quelles sont les principales tâches des profesionnels du référencement ? Quels sont les outils, gratuits et payants, qu'ils utilisent le plus ? Une enquête donne les dernières tendances.
    Les résultats d'une enquête sur l'industrie du SEO, réalisée tous les deux ans par SEOMoz, viennent d'être diffusés. Basée sur près de 6 500 réponses récoltées dans le monde via une enquête en ligne, cette enquête révèle plusieurs tendances intéressantes.
    Certes, les répondants sont principalement anglophones (les Etats-Unis et le Royaume-Uni représentant 60% des répondants, contre 1,3% pour la France), et aucune sélection ou retraitement n'a été appliqué pour déterminer l'échantillon. Mais certaines conclusions peuvent néanmoins intéresser les acteurs du SEO de l'Hexagone.

    Analyser les backlinks et contenus de la concurrence : les tâches principales des experts en SEO 
    L'étude a ainsi pu révéler les 10 tâches auxquelles se livrent le plus souvent les répondants, des lecteurs de SEOMoz donc a fortiori tous professionnels du référencement ou très impliqués dans le SEO. Ainsi, analyser les backlinks ou le contenu des concurrents figurent parmi les activités les plus courantes, citées par deux répondants sur trois. Plus impressionnant : près des trois quarts des répondants ont passé du temps, ces douze derniers mois, à gérer, optimiser ou mettre en place au moins une page Facebook. C'est d'ailleurs la réponse qui a été la plus citée.
    A noter également, la très forte proportion de sondés ayant travaillé surGoogle+ (63%) comparé à l'utilisation, très marginale, du réseau social par les internautes. Bon nombre des répondants (presque six sur dix) ont aussi indiqué passer du temps à mettre en place des URLs canoniques pour gérer le contenu dupliqué. D'ailleurs, près du tiers des répondants explique aussi avoir travaillé pour éviter la sanction de Google Panda, filtre qui a mis un coup de projecteur sur les risques liés au contenu dupliqué.
    Selon l'étude, optimiser le SEO local (via Google Adresses, les mots clés géolocalisés, etc.) a pris du temps à 55,1% des sondés ou leur équipe l'année dernière. Juste derrière suivent l'analyse des données de Twitter, pour optimiser l'utilisation du réseau social (41,1%), puis la mise en place de microformats pour les Rich Snippets (40,8%) et l'A/B testing ou les tests multivariables (40,6%).

    Budget logiciel mensuel moyen : entre 100 et 500 dollars
    Autres indicateurs intéressants mis en lumière par l'étude : les outils payants les plus utilisés. Plus de la moitié des répondants indique avoir utilisé Open Site Explorer ces douze derniers mois. Un résultat qui paraît biaisé car cet outil est justement édité par le site SEOMoz - qui a réalisé cette étude en interrogeant ses lecteurs et utilisateurs. Majestic SEO (17,4% des suffrages), Raven (17%) etSEMRush (12,6%) se taillent la part restante.
    Selon cette enquête, près d'un répondant sur dix indique que son entreprise dépense plus de 3 000 dollars pour se fournir en logiciels chaque mois. En tout, 17% payent plus de 1 000 dollars. Pour presque 30% des sondés, le budget se situe entre 100 et 500 dollars.
    23,7% des répondants indiquent cependant ne pas utiliser d'outil payant. Parmi lesoutils gratuits les plus utilisés, figurent Google Webmaster Tools (cité par 82,9% des répondants), loin devant Bing Webmaster Tools, tout de même deuxième (42,1%), l'extension Firebug (40,7%), la déclinaison gratuite et bridée de Majestic SEO (30,9%), Xenu (25,6%) ou SEOBook Tools (22,2%).

    Du côté Web Analytics, c'est un raz-de-marée pour Google Analytics, qui est cité par 92,7% des répondants. Loin derrière : WordPress Stats (16,4%) et Omniture (12,7%) complètent le podium, devant Compete (7,3%), Hubspot (6,9%), WebTrends (6,5%) ou Awstat (6,6%). Les solutions deheatmap, qui permettent de visualiser le comportement des internautes sur son site, sont aussi bien présentes dans le Top 10, avec CrazyEgg (9,2%) ClickTale (6,4%) ou Clicky (5,3%).

    dimanche 21 juillet 2013

    Les Français privilégient Facebook et l'e-mail dans leurs rapports aux marques

    4% des Français suivent le compte Twitter d'au moins une marque quand ils sont 43% à le faire sur Facebook.
    Après avoir étudié l'impact des sollicitations via email ou les réseaux sociaux sur les habitudes d'achats des internautes français et avoir décrypté la journée digitale des Français, ExactTarget s'intéresse, dans le cadre de son Digital Café, aux rapports aux marques sur Internet des Allemands, Australiens, Brésiliens, Britanniques et Français.
    Bien qu'ils ne soient pas encore aussi plébiscités que l'email, les réseaux sociaux émergent comme canal de communication.
    On note toutefois des disparités suivant le réseau. Ainsi 4% des Français suivent le compte Twitter d'au moins une marque quand ils sont 43% à le faire sur Facebook. Les Brésiliens sont les seuls à s'impliquer très fortement sur le site de micro-blogging puisque plus d'un consommateur sur quatre (26%) déclare suivre le compte d'une marque. Ils sont suivis des Allemands et Britanniques (7%) et des Australiens (6%). En suivant une marque sur Twitter, les Français attendent de l'information sur de nouveaux produits et de nouvelles offres proposés par l'entreprise (47%). Les Allemands suivent une marque principalement pour se tenir informés des changements dans l'entreprise (27%). Les Anglais souhaitent recevoir plus d'informations liées à leurs intérêts personnels et leurs hobbies ainsi que se tenir au courant de la vie de l'entreprise et de la marque (42%). Seuls les Brésiliens attendent des promotions (49%) ou la possibilité de recevoir des produits gratuitement (43%).
    Sur Facebook, les Australiens (55%) et les Brésiliens (77%) sont les plus impliqués auprès des marques. Les Français (43%) et les Britanniques (45%) devancent les Allemands (39%). Toutefois les Français apparaissent plus matures face aux marques sur Facebook : 39% des consommateurs français ont déclaré être plus sélectifs sur le choix des sociétés auxquelles ils accordent un " like " au cours de l'année passée (source – Digital Café, ExactTarget – août 2012). En France, comme en Allemagne, les consommateurs attendent à la fois les réductions (29% et 32%) et de l'information sur une marque et ses produits (28% et 32%). Les Australiens, les Brésiliens et les Britanniques aiment une marque sur Facebook afin de recevoir des cadeaux (respectivement 52%, 47% et 48%) ou des promotions (46%, 51% et 49%).
    Dans les cinq pays étudiés, l'e-mail reste en tête des moyens utilisés pour se rapprocher d'une marque. 90% des consommateurs français sont inscrits au minimum à une newsletter de marque. Les motivations à s'inscrire sont similaires pour les différentes populations : tous recherchent des remises et des promotions sur des produits et services.
    exact target
    Canaux de communication marques/consommateurs par pays.© ExactTarget
    Méthodologie : le rapport d'ExactTarget réunit les différentes études "Subscribers, Fans & Followers" conduites au niveau national en Allemagne, en Australie, au Brésil, en France et au Royaume Uni. Toutes ont été menées selon la même méthodologie et les mêmes procédures utilisées. Au global, les échantillons représentatifs comprennent 1 292 répondants en Allemagne, 1 229 répondants en Australie, 1 022 répondants au Brésil, 1 545 répondants en France et 1405 répondants au Royaume Uni. Tous sont âgés de 18 ans et plus, avec un minimum de 200 pour chacune des 6 tranches d'âges.