Catégorie : Web

Bing au Canada

Bing est encore très loin de faire de l’ombre à Google en termes de parts de marché. En France, en juillet 2009, près de 90% des recherches sont effectuées via Google, contre seulement 4% pour le moteur de Microsoft.

Aux États-Unis, Bing fait un peu mieux avec presque 9% de part de marché. Les Américains sont en effet moins accrochés à Google que les Français : ils utilisent aussi Yahoo! (19,3%), Ask (3,9%) et AOL (3%). Près des deux tiers (64%) des recherches passent tout de même par Google.

Curieusement, la situation au Canada est plus proche de celle de la France que de celle des États-Unis. En effet, Google totalise (avec Google.com et Google.ca) près de 80% des parts de marché, laissant l’association Bing/Live.com (9%) Yahoo! (7%) loin derrière.

Ces statistiques sont tirées d’une enquête de Hitwise sur le comportement des internautes canadiens en matière de recherche sur Internet. Elle dresse notamment un bilan de l’efficacité des moteurs de recherche.

Selon les résultats de cette enquête, le moteur qui donnerait les résultats les plus satisfaisants pour les Canadiens serait… Bing, avec un taux de satisfaction de plus de 78%. Google Canada serait troisième, derrière Yahoo! Canada. Évidemment, cela démontre que les moteurs de recherche locaux répondent mieux aux attentes des internautes. Une évidence, certes, mais qui doit tout de même être prise en compte lorsque plus d’une recherche sur quatre au Canada se fait par l’intermédiaire d’un moteur de recherche local.

Reste le fait que Bing parvient à surpasser tous les autres moteurs dans cette enquête. La portée de l’étude n’est pas suffisante pour permettre de faire des conclusions, ni même des prédictions, mais cela donne envie de s’intéresser davantage aux rouages de la nouvelle créature de Microsoft, non?

1,2,3… Web

Interpellé par un journaliste lors d’une conférence au Forum Digital de Séoul en 2007, le président de Google Éric Schmidt donna sa vision personnelle du Web 3.0. Il prophétisa que le futur du Web sera composé d’un ensemble d’applications modulaires, rapides et personnalisables, distribuées de manière virale et accessible sur tout et partout. Il mettait ainsi l’emphase sur l’interopérabilité, l’importance des technologies mobiles et la nécessaire simplification du développement logiciel. Évidemment, cette vision du futur servirait les objectifs de long terme de Google, et les clairvoyants pouvaient déjà entrevoir dans les propos d’Éric Schmidt l’ombre de Chrome OS qui se profilait à l’horizon.

Google a donc sa propre définition du Web 3.0, en tant que « futur du Web ». Est-ce que ce Web 3.0 ne pourrait pas être défini de manière plus objective, plus certaine? En faisant le tour des publications portant sur le sujet, nous pouvons rapidement conclure que chaque auteur, chroniqueur et autre gourou du Web possède sa propre définition du mystérieux concept.

Web 1.0, Web 2.0, Web 3.0… La naissance du Web 1.0 est généralement située au début des années 90, et le passage au Web 2.0 en 2004. Le Web 3.0 devrait connaître le jour dans les années à venir. Ces « phases » sont évidemment arbitraires. Derrière ces expressions se cachent tout un ensemble d’évolutions technologiques, de pratiques sociales et culturelles, d’enjeux économiques – bref, un ensemble de facteurs permettant à Internet d’évoluer, mais qu’il serait difficile – et sans doute absurde – de démêler.

Si on se place d’un point de vue strictement chronologique, il n’y a pas là non plus de frontière claire entre les trois paliers du Web. Les dates sont toujours utiles pour servir de points de repères, mais il faut faire attention à ne pas les employer de manière à déformer ou simplifier une réalité complexe. Prenons 1492, par exemple, qui sert souvent à marquer le début de la Renaissance. En se basant sur cette date pour jalonner cette phase de renouveau culturel en Europe, on serait tenté de conclure hâtivement que c’est la découverte des Amériques qui a été le facteur déterminant de cette période. Or la chute de Constantinople ou l’invention de l’imprimerie n’ont-ils pas été des événements tout aussi importants?

La notion de Web 2.0 a été initiée en 2004 par Tim O’Reilly, lors de la conférence Web 2.0. Internet était alors en crise, après l’explosion de la fameuse bulle spéculative. Les adeptes du Web, catastrophés, ne savaient plus à quel saint se vouer. Heureusement que Tim O’Reilly était là pour leur redonner le moral, et donner l’impulsion d’une nouvelle vision du Web basée sur l’intelligence collective. Le Web social était né.

Grâce à des technologies comme Java, RSS et CSS, les internautes ont pu bénéficier de davantage d’interactivité, les sites sont devenus dynamiques et les réseaux sociaux ont donné naissance à de nouvelles formes de collaboration.

Aujourd’hui, nous avons grâce au Web accès à un océan d’informations et de données et la possibilité de faire toujours plus en ligne (acheter des vêtements, s’abonner à un magazine, partager ses photos de vacances, trouver l’âme sœur, payer ses impôts, raconter sa vie, etc.). Au risque de se trouver submergés par toutes ces informations et ces sollicitations et de devenir « infobèses ».

D’un point de vue technique, la multiplication des formats et des métadonnées, les problèmes d’accessibilité et le manque de communication entre les différentes bases de données existantes sont des limites de taille à l’évolution du Web.

L’explosion de la quantité des contenus disponibles pose en effet un grave problème de recherche de l’information. Et pour être trouvées, les informations doivent être correctement indexées, répertoriées, classifiées. Une classification nécessite des règles, des standards, qui sont encore très peu présents, malgré tous les efforts du W3C.

Le World Wide Web Consortium milite en effet depuis plusieurs années pour le développement du Web sémantique, un terme qu’on associe beaucoup au concept de Web 3.0. L’objectif est de rendre le Web plus intelligent, en améliorant l’indexation des informations. Le Web sémantique repose sur l’application de standards stricts et la création d’écosystèmes de données (Linked Data). Le mot d’ordre est donc interopérabilité.

Évidemment, l’introduction de nouvelles pratiques d’indexation nécessite un travail considérable pour les éditeurs et créateurs de contenus. Comment faire pour « sémanticiser » ces milliards de pages Web? Tant que Google fonctionne, l’idée de se mettre à retravailler toutes les métadonnées de toutes les pages et contenus Web n’attire pas les foules… Google n’a jamais été très enclin à se diriger vers le Web sémantique. La situation est en train de changer, avec la compétition de Bing notamment.

Mais il faut faire attention à ne pas confondre nécessairement Web 3.0 et Web sémantique. Comme le Web 2.0, le Web 3.0 sera le fruit de l’émergence et de la diffusion de plusieurs technologies, notamment les technologies mobiles haute vitesse, la géolocalisation et le « cloud computing ». Si le Web 2.0 place l’utilisateur au cœur du système, le Web 3.0 sera davantage orienté sur les données.

En attendant sa naissance, les « gourous du Web » ont créé un nouveau concept : le Web au carré (« Web squared »), une sorte de transition pour faire patienter ceux qui trouvent que le Web sémantique n’arrive pas assez vite à leur goût.

Humain, trop humain…

Internet a toujours été considéré comme un médium « froid », c’est-à-dire distant, déshumanisé. Tous les départements de marketing et de communication font donc bien attention à rendre leur site Web bien humain. Encore plus s’ils œuvrent dans le domaine des technologies. Pensez-y donc, un « produit froid » sur un « médium froid », on approche des surgelés…  Le résultat : le mot d’ordre devient alors « humanisez ! » La manière la plus simple : mettre des photos de « vraies gens » (en passant par istock bien sûr, où les vraies gens sont pas chers). Toutes sortes de tactiques, plus ou moins subtiles, ont été employées pour « humaniser ».

Je ne pense pas que cette stratégie soit vraiment efficace aujourd’hui (l’a-t-elle jamais été?). De nos jours, il me semble que le Web assume cette froideur inhérente à sa nature en la dépassant par une vocation on ne peut plus humaine : socialiser. Eh oui, le Web est devenu social, comme les robots d’Asimov ou le monstre de Frankenstein…

Le Web 3.0 selon Google

Lors d’une conférence au Forum Digital de Séoul en 2007, le P.D.G. de Google et membre du conseil d’administration d’Apple, Éric Emerson Schmidt, a défini ce qu’il considère comme le « futur du Web » :

« Le Web 3.0 sera considéré tel un ensemble d’applications modulaires ayant en commun un certain nombre de caractéristiques : ce sont des applications légères ; les données sont éparpillées dans l’Internet ; les applications peuvent être embarquées sur n’importe quel dispositif, PC ou portable ; elles sont extrêmement rapides et personnalisables ; en outre, elles sont distribuées de façon essentiellement virale, à savoir par les réseaux sociaux, le courriel. Plus besoin d’aller au magasin pour les acheter. C’est un modèle applicatif très différent de ce que nous connaissions jusqu’à présent dans l’informatique … probablement destiné à s’étendre, s’étendre. Les barrières à l’entrée sont très basses et la nouvelle génération d’outils annoncée aujourd’hui par Google et d’autres sociétés le rendent relativement facile à concevoir et à utiliser ; elles résolvent beaucoup de problèmes et fonctionnent sur tout et partout. »

Les grands axes du Web 3.0 seraient donc la simplification et la démocratisation des logiciels, des outils et des données?

De tels développements font partie de la stratégie de Google, qui lutte toujours pour l’avancement de l’Open Source et dont le modèle d’affaires repose sur la publicité.

Pour plus d’infos, voir aussi :

http://pages.usherbrooke.ca/ncliche/wordpress/2007/09/18/le-web-30-selon-google/

http://www.roughtype.com/archives/2007/08/what_is_web_30.php

http://www.readwriteweb.com/archives/eric_schmidt_defines_web_30.php