Le rapport Horizon 2009 – Survol des technologies émergentes

Horizon Report 2009Publié à chaque année depuis 2004, le rapport Horizon a pour objectif d’identifier, parmi les technologies de l’information émergentes, celles qui ont le plus de chances de s’imposer dans le milieu éducationnel au cours des prochaines années. Fruit d’une collaboration entre Educause Learning initiative et le New Media Consortium, ce rapport est le résultat du tamisage de plus d’une centaine de technologies et tendances par un comité d’environ 40 experts du domaine appelé ‘Board of advisors’. Fait intéressant: à chaque année, entre 30 et 50% du Board est renouvelé et on s’assure également qu’environ le tiers des membres provienne de l’extérieur de l’Amérique du Nord.

À la fin de l’exercice, seulement 6 technologies ou tendances sont retenues et regroupées 2 par 2 selon leur horizon potentiel d’adoption, soit:

  • 1) durant l’année courante
  • 2) d’ici 2 à 3 ans
  • 3) d’ici 4 à 5 ans

1) Adoption durant l’année courante

1.1 Technologies mobiles

D’usage déjà très largement répandu dans le grand public, les technologies mobiles connaissent une véritable explosion avec l’arrivée récente des nouvelles générations de téléphones portables qui n’ont plus de téléphone que le nom. La production d’appareils cellulaires dépassant 1,2 milliard par an explique qu’un nombre sans cesse croissant de services soit développé spécifiquement pour cette plateforme. Récemment, on remarque une tendance des manufacturiers à ouvrir leur produits à la communauté des développeurs. Voir, à titre d’exemple les ressources en médecine spécifiquement développées pour le iPhone: iPhone in medicine. Avec l’ajout grandissant de services, on commence également à envisager le remplacemement éventuel de l’ordinateur portable par le cellulaire intelligent (smart phone): Time to Leave the Laptop Behind.

1.2 Le ‘Cloud computing’

Littéralement traduit  par ‘L’informatique dans les nuages’ (beurk!) dans le grand dictionnaire terminologique de l’OLF. On retrouve également: ‘L’informatique via Internet’ dans l’article de Wikipedia dédié à cette question. Le ‘cloud computing’ est en fait une manifestation de cette tendance lourde qui consiste en ce déplacement inexorable, d’abord du stockage de l’information, puis des applications logicielles, du poste de travail vers l’Internet.

Le ‘nuage’ représente ce réseau intangible et abstrait fait d’immenses grappes de serveurs répartis aux quatre coins de la planète et sur lesquels tournent des applications de plus en plus détachées de leur support matériel. On répertorie 3 types de ‘cloud computing’:

  1. Les applications spécialisées utilisant la capacité de traitement et de stockage du nuage pour offrir un service déterminé. Les services de messagerie web tels Gmail se retrouvent dans cette catégorie.
  2. Les services offrant la plateforme de développement, la puissance de traitement et le stockage permettant aux utilisateurs de construire et de déployer de telles applications. Google App Engine, Heroku et Joyent sont des exemples de cette catégorie.
  3. Les services offrant aux utilisateurs la puissance de traitement ainsi que le stockage mais sans plateforme de développement. Amazon offre de tel services.

Évidemment, le fait de ‘délocaliser’ non seulement les données mais également les applications logicielles capables de manipuler ces données ne va pas sans risque. On doit en effet avoir une confiance minimale dans la pérennité du service offert. « Entrusting your data and works to the cloud is also a commitment of trust that the service provider will also be there, even in changing market and other conditions ». Le ‘nuage’, à l’instar de toute tendance, a également ses détracteurs. Parmi ceux-ci, Richard Stallman est sans doute le plus virulent. Il n’y voit qu’une tentative supplémentraire pour les gros joueurs de l’industrie de commercialiser l’Internet en faisant de ses usagers une clientèle captive. Voir son article Cloud computing is a trap.

2) Adoption d’ici 2 à 3 ans

2.1 Le géo-référencement extensif (‘Geo-Everything’)

Les outils permettant de déterminer et de stoker les coordonnées géospatiales d’un objet sont de plus en plus d’usage courant. On cite le cas d’un appareil Nikon capable d’établir automatiquement via GPS le lieu de la prise d’une photo et d’enregistrer ces coordonnées avec le fichier résultant. Mobile Fotos est une application iPhone qui géo-référence les photos avant de les charger automatiquement dans Flickr. D’ailleurs, des sites comme Flickr Maps ou Google Maps permettent de consulter des images associées à des portions de cartes. L’acquisition et le stockage automatique de données géo-référencées offre un terreau particulièrement propice au développement d’outils de recherche dans plusieurs domaines: la sociologie, les sciences de la santé, l’environnement, etc. C’est ainsi que les chercheurs peuvent, par ce biais, étudier la migration des animaux ou la progression d’épidémies. Dans le domaine des arts et de la littérature, de telles technologies permettent de représenter le parcours d’une oeuvre. Un site propose ainsi une catre géographique sur laquelle se retrouvent des photos de lieux évoqués dans les Voyages de Marco Polo.

2.2 Le web personnalisé

La personnalisation du Web est un phénomène qui remonte à la création de pages personnelles. Depuis, un nombre croissant d’outils et de technologies ont favorisé l’accélération de cette tendance. D’un côté, les aggrégateurs de fils RSS, les outils de tagging tels Delicious et les utilitaires offrant la possibilité d’enregistrer et d’organiser des informations sur les ressources du Web tels Zotero permettent à l’utilisateur, sinon d’arnacher l’Internet, du moins d’en faire quelque chose de digestible pour son propre usage.  D’un autre côté, les applications permettant de réaliser très facilement la publication de contenus personnels sont de plus en plus nombreuses et populaires: YouTube, Flickr, Twitter et Picasa, pour n’en citer que quelques unes. Le blogging est entré dans l’usage: WordPress, EduBlog, etc. Toutes ces technologies sont déjà solidement implantées.

Ce qui se dessine cependant comme tendance, c’est l’utilisation des outils du Web personnel comme base d’échange d’information dans le domaine de l’enseignement et de la recherche. On cite le cas de FriendFeed qui permet de regrouper toutes les publications d’un utilisateur et de les organiser dans un flux unique qui est mis à jour dès qu’un contenu est ajouté à l’une ou l’autre des cibles de publications enregistrées: Facebook, Picasa, Delicious, Google Reader, etc. Étudiants et enseignants peuvent utiliser un tel outil pour constituer une forme de portefolio électronique adapté à un contexte d’enseignement.

3) Adoption d’ici 4 à 5 ans

3.1 Les applications ‘sémantico-intelligentes’ (sémantic-aware applications)

Le Web sémantique prophétisé depuis des années par Tim Berners-Lee sera peut-être bientôt une réalité. On reconnaît actuellement que, bien que les données disponible sur le Net puissent être exploitées efficacement par de très puissants moteurs, il n’en est pas du même du sens et de l’information reliés à ces données. Une recherche du terme ‘Turkey’ retournera indistinctement des résultat référant au pays comme au volatile du même nom. Les applications sémantico-intelligentes sont destinées à exploiter automatiquement la valeur sémantique des données de l’Internet et de les combiner de manière appropriée afin d’en tirer les informations et réponses requises dans un contexte donné.

On distingue 2 approches différentes permettant de développer les capacités sémantiques du Web:

  1. L’approche ‘bottom-up’: Cette approche repose sur l’ajout de métadonnées à chaque élément d’information publié sur le Web. Des applications spécialisées peuvent par la suite en faire usage. L’extension pour Firefox Semantifind est un exemple d’outil basé sur cette approche consistant à charger sémantiquement les données à partir de la source.
  2. L’approche ‘top-down’: Elle consiste à développer des capacité d’analyse sémantique permettant aux applications d’interpréter les données traitées sans le support de métadonnées.

L’approche ‘top-down’ semble plus prometteuse à long termes ne serait-ce que parce qu’elle ne requiert pas de cataloguer le Web dans sa totalité.

On note l’apparition récente de boîtes à outils (‘toolkits’) permettant de créer automatiquement des liens entre des concepts: Ainsi de Calais qui propose des applications permettant de charger sémantiquement le contenu de blogs et de sites web.

Les exemples de l’utilisation des technologies du Web sémantique dans le domaine éducationnel sont encore peu nombreux. Sans être strictement créé pour cette fin, Twine est un réseau social basé sur des regroupements sémantiques permettant aux usagers de se regrouper selon leurs intérêts.

Le domaine publicitaire a déjà une longueur d’avance dans la mise en place d’applications relevant du web sémantique. Les liens commerciaux proposés par les métamoteurs ou certains sites web exploitent en effet les relations sémantiques entre une expression de recherche et des produits ou services à offrir. À long terme, les applications sémantico-intelligentes promettent de faire surgir du sens à partir de liens établis automatiquement entre des quantités astronomiques de données, là où l’humain ne serait pas en mesure de le faire.

3.2 Les objets intelligents

Le concept d’objets intelligents (smart objets) réfère aux technologies permettant d’établir un lien entre le monde virtuel et le monde réel. Font partie de cette catégorie: les puces RFID (Radio Frequency IDentification), les QR codes (Quick Response codes) et autres technologies d’étiquetage. La particularité d’un objet intelligent est de contenir des informations relatives à l’article auquel il est associé. Cependant, l’étiquetage d’objets réels n’a de sens que dans la mesure où existent, parallèlement, des application permettant d’exploiter ces données. On sait l’effort immense (en termes de temps et d’argent) que requiert l’application de puces RFID sur la documentation imprimées en bibliothèque.  La gestion simplifiée des collections qui en résulte en vaut-elle la peine à l’heure où les ressources sont de plus en plus électroniques? Pas sûr. D’autres domaine d’application semblent bien plus prometteurs. On parle globalement de l’Internet des objets (Internet of things).

Volià en résumé les tendances mises à jour par le rapport Horizon 2009. L’avenir nous dira dans quelle mesure ces prédictions se réaliseront. Il serait par ailleurs intéressant de remonter dans le passé récent et d’établir, à partir des premiers rapports (2004 et suivants), la fiabilité relative de ce rapport annuel.

Publicités

Étiquettes : , , , , , ,

2 Réponses to “Le rapport Horizon 2009 – Survol des technologies émergentes”

  1. PLC - Bibliofusion Says:

    Très intéressante synthèse, merci et à suivre!

  2. Le rapport Horizon 2009 - Survol des technologies émergentes « BiblioFusion Says:

    […] Via le blogue de Pierre Roberge. […]

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s


%d blogueurs aiment cette page :