L’UQÀM annonce l’arrivée de son nouveau système ‘Virtuose’

2009-04-08

Manitou, le système intégré de gestion de bibliothèques (SIGB) de l’UQAM sera bientôt remplacé par une suite de produits du fournisseur ExLibris incluant Aleph 500, MetaLib et Primo. Le projet sera publicisé sous le nom de ‘Virtuose’. Plus de détails dans cette entrevue au journal de l’UQÀM ainsi que sur le site Web des bibliothèques de l’UQÀM.

Le rapport Horizon 2009 – Survol des technologies émergentes

2009-03-15

Horizon Report 2009Publié à chaque année depuis 2004, le rapport Horizon a pour objectif d’identifier, parmi les technologies de l’information émergentes, celles qui ont le plus de chances de s’imposer dans le milieu éducationnel au cours des prochaines années. Fruit d’une collaboration entre Educause Learning initiative et le New Media Consortium, ce rapport est le résultat du tamisage de plus d’une centaine de technologies et tendances par un comité d’environ 40 experts du domaine appelé ‘Board of advisors’. Fait intéressant: à chaque année, entre 30 et 50% du Board est renouvelé et on s’assure également qu’environ le tiers des membres provienne de l’extérieur de l’Amérique du Nord.

À la fin de l’exercice, seulement 6 technologies ou tendances sont retenues et regroupées 2 par 2 selon leur horizon potentiel d’adoption, soit:

  • 1) durant l’année courante
  • 2) d’ici 2 à 3 ans
  • 3) d’ici 4 à 5 ans

1) Adoption durant l’année courante

1.1 Technologies mobiles

D’usage déjà très largement répandu dans le grand public, les technologies mobiles connaissent une véritable explosion avec l’arrivée récente des nouvelles générations de téléphones portables qui n’ont plus de téléphone que le nom. La production d’appareils cellulaires dépassant 1,2 milliard par an explique qu’un nombre sans cesse croissant de services soit développé spécifiquement pour cette plateforme. Récemment, on remarque une tendance des manufacturiers à ouvrir leur produits à la communauté des développeurs. Voir, à titre d’exemple les ressources en médecine spécifiquement développées pour le iPhone: iPhone in medicine. Avec l’ajout grandissant de services, on commence également à envisager le remplacemement éventuel de l’ordinateur portable par le cellulaire intelligent (smart phone): Time to Leave the Laptop Behind.

1.2 Le ‘Cloud computing’

Littéralement traduit  par ‘L’informatique dans les nuages’ (beurk!) dans le grand dictionnaire terminologique de l’OLF. On retrouve également: ‘L’informatique via Internet’ dans l’article de Wikipedia dédié à cette question. Le ‘cloud computing’ est en fait une manifestation de cette tendance lourde qui consiste en ce déplacement inexorable, d’abord du stockage de l’information, puis des applications logicielles, du poste de travail vers l’Internet.

Le ‘nuage’ représente ce réseau intangible et abstrait fait d’immenses grappes de serveurs répartis aux quatre coins de la planète et sur lesquels tournent des applications de plus en plus détachées de leur support matériel. On répertorie 3 types de ‘cloud computing’:

  1. Les applications spécialisées utilisant la capacité de traitement et de stockage du nuage pour offrir un service déterminé. Les services de messagerie web tels Gmail se retrouvent dans cette catégorie.
  2. Les services offrant la plateforme de développement, la puissance de traitement et le stockage permettant aux utilisateurs de construire et de déployer de telles applications. Google App Engine, Heroku et Joyent sont des exemples de cette catégorie.
  3. Les services offrant aux utilisateurs la puissance de traitement ainsi que le stockage mais sans plateforme de développement. Amazon offre de tel services.

Évidemment, le fait de ‘délocaliser’ non seulement les données mais également les applications logicielles capables de manipuler ces données ne va pas sans risque. On doit en effet avoir une confiance minimale dans la pérennité du service offert. « Entrusting your data and works to the cloud is also a commitment of trust that the service provider will also be there, even in changing market and other conditions ». Le ‘nuage’, à l’instar de toute tendance, a également ses détracteurs. Parmi ceux-ci, Richard Stallman est sans doute le plus virulent. Il n’y voit qu’une tentative supplémentraire pour les gros joueurs de l’industrie de commercialiser l’Internet en faisant de ses usagers une clientèle captive. Voir son article Cloud computing is a trap.

2) Adoption d’ici 2 à 3 ans

2.1 Le géo-référencement extensif (‘Geo-Everything’)

Les outils permettant de déterminer et de stoker les coordonnées géospatiales d’un objet sont de plus en plus d’usage courant. On cite le cas d’un appareil Nikon capable d’établir automatiquement via GPS le lieu de la prise d’une photo et d’enregistrer ces coordonnées avec le fichier résultant. Mobile Fotos est une application iPhone qui géo-référence les photos avant de les charger automatiquement dans Flickr. D’ailleurs, des sites comme Flickr Maps ou Google Maps permettent de consulter des images associées à des portions de cartes. L’acquisition et le stockage automatique de données géo-référencées offre un terreau particulièrement propice au développement d’outils de recherche dans plusieurs domaines: la sociologie, les sciences de la santé, l’environnement, etc. C’est ainsi que les chercheurs peuvent, par ce biais, étudier la migration des animaux ou la progression d’épidémies. Dans le domaine des arts et de la littérature, de telles technologies permettent de représenter le parcours d’une oeuvre. Un site propose ainsi une catre géographique sur laquelle se retrouvent des photos de lieux évoqués dans les Voyages de Marco Polo.

2.2 Le web personnalisé

La personnalisation du Web est un phénomène qui remonte à la création de pages personnelles. Depuis, un nombre croissant d’outils et de technologies ont favorisé l’accélération de cette tendance. D’un côté, les aggrégateurs de fils RSS, les outils de tagging tels Delicious et les utilitaires offrant la possibilité d’enregistrer et d’organiser des informations sur les ressources du Web tels Zotero permettent à l’utilisateur, sinon d’arnacher l’Internet, du moins d’en faire quelque chose de digestible pour son propre usage.  D’un autre côté, les applications permettant de réaliser très facilement la publication de contenus personnels sont de plus en plus nombreuses et populaires: YouTube, Flickr, Twitter et Picasa, pour n’en citer que quelques unes. Le blogging est entré dans l’usage: WordPress, EduBlog, etc. Toutes ces technologies sont déjà solidement implantées.

Ce qui se dessine cependant comme tendance, c’est l’utilisation des outils du Web personnel comme base d’échange d’information dans le domaine de l’enseignement et de la recherche. On cite le cas de FriendFeed qui permet de regrouper toutes les publications d’un utilisateur et de les organiser dans un flux unique qui est mis à jour dès qu’un contenu est ajouté à l’une ou l’autre des cibles de publications enregistrées: Facebook, Picasa, Delicious, Google Reader, etc. Étudiants et enseignants peuvent utiliser un tel outil pour constituer une forme de portefolio électronique adapté à un contexte d’enseignement.

3) Adoption d’ici 4 à 5 ans

3.1 Les applications ‘sémantico-intelligentes’ (sémantic-aware applications)

Le Web sémantique prophétisé depuis des années par Tim Berners-Lee sera peut-être bientôt une réalité. On reconnaît actuellement que, bien que les données disponible sur le Net puissent être exploitées efficacement par de très puissants moteurs, il n’en est pas du même du sens et de l’information reliés à ces données. Une recherche du terme ‘Turkey’ retournera indistinctement des résultat référant au pays comme au volatile du même nom. Les applications sémantico-intelligentes sont destinées à exploiter automatiquement la valeur sémantique des données de l’Internet et de les combiner de manière appropriée afin d’en tirer les informations et réponses requises dans un contexte donné.

On distingue 2 approches différentes permettant de développer les capacités sémantiques du Web:

  1. L’approche ‘bottom-up’: Cette approche repose sur l’ajout de métadonnées à chaque élément d’information publié sur le Web. Des applications spécialisées peuvent par la suite en faire usage. L’extension pour Firefox Semantifind est un exemple d’outil basé sur cette approche consistant à charger sémantiquement les données à partir de la source.
  2. L’approche ‘top-down’: Elle consiste à développer des capacité d’analyse sémantique permettant aux applications d’interpréter les données traitées sans le support de métadonnées.

L’approche ‘top-down’ semble plus prometteuse à long termes ne serait-ce que parce qu’elle ne requiert pas de cataloguer le Web dans sa totalité.

On note l’apparition récente de boîtes à outils (‘toolkits’) permettant de créer automatiquement des liens entre des concepts: Ainsi de Calais qui propose des applications permettant de charger sémantiquement le contenu de blogs et de sites web.

Les exemples de l’utilisation des technologies du Web sémantique dans le domaine éducationnel sont encore peu nombreux. Sans être strictement créé pour cette fin, Twine est un réseau social basé sur des regroupements sémantiques permettant aux usagers de se regrouper selon leurs intérêts.

Le domaine publicitaire a déjà une longueur d’avance dans la mise en place d’applications relevant du web sémantique. Les liens commerciaux proposés par les métamoteurs ou certains sites web exploitent en effet les relations sémantiques entre une expression de recherche et des produits ou services à offrir. À long terme, les applications sémantico-intelligentes promettent de faire surgir du sens à partir de liens établis automatiquement entre des quantités astronomiques de données, là où l’humain ne serait pas en mesure de le faire.

3.2 Les objets intelligents

Le concept d’objets intelligents (smart objets) réfère aux technologies permettant d’établir un lien entre le monde virtuel et le monde réel. Font partie de cette catégorie: les puces RFID (Radio Frequency IDentification), les QR codes (Quick Response codes) et autres technologies d’étiquetage. La particularité d’un objet intelligent est de contenir des informations relatives à l’article auquel il est associé. Cependant, l’étiquetage d’objets réels n’a de sens que dans la mesure où existent, parallèlement, des application permettant d’exploiter ces données. On sait l’effort immense (en termes de temps et d’argent) que requiert l’application de puces RFID sur la documentation imprimées en bibliothèque.  La gestion simplifiée des collections qui en résulte en vaut-elle la peine à l’heure où les ressources sont de plus en plus électroniques? Pas sûr. D’autres domaine d’application semblent bien plus prometteurs. On parle globalement de l’Internet des objets (Internet of things).

Volià en résumé les tendances mises à jour par le rapport Horizon 2009. L’avenir nous dira dans quelle mesure ces prédictions se réaliseront. Il serait par ailleurs intéressant de remonter dans le passé récent et d’établir, à partir des premiers rapports (2004 et suivants), la fiabilité relative de ce rapport annuel.

Un nouveau projet de système à code source libre

2008-08-19

L’Université Duke vient d’obtenir une subvention de 475 700$ de la fondation Andrew W. Mellon dans le cadre d’un projet ambitieux visant à établir les caractéristiques d’une nouvelle génération de système de bibliothèques à code source libre s’appuyant sur une architecture orientées ‘services’ (SOA).

Dans le document de présentation du projet, les auteurs se défendent de vouloir réinventer la roue. En effet, se référant aux projets les plus avancés actuellement dans ce créneau tels Koha et Evergreen ainsi que le ‘eXtensible Catalog’ (lequel, soit dit en passant, n’a encore accouché de rien de concret), ils estiment que: 

« Current open source projects are a step in the right direction but do not address fully the total rethinking of library management systems needed by academic libraries ».

On propose donc de faire table rase et de construire de zéro un nouveau système qui satisfasse aux besoins de la bibliothèque d’aujourd’hui à partir de technologies assurant un maximum d’évolutivité. Plusieurs institutions de haut niveau se sont montrées intéressées. La structure de gestion de projet prévoit d’ailleurs différents niveaux d’implication: D’abord les ‘Core partners’ au sein desquels on retrouve des représentants de l’Université du Kansas, de l’Université de Pensylvanie ainsi que des bibliothèques nationales du Canada et de l’Australie. Gage ultime de sérieux, Marshall Breeding, de l’Université Vanderbilt, est au nombre des des ‘core partners’.  Ces représentants joueront un rôle prépondérant dans la réalisation du projet. Viennent ensuite les ‘Advisory partners’ dont la tâche sera de lire et de commenter les documents déposés par le groupe de projet. Ici également, la liste des partenaires intéressés a de quoi impressionner. On y retrouve les universités de Chicago, de Floride, du Maryland, etc. Enfin, il est possible de participer au projet à titre individuel en assistant aux webcasts ou en commentant les documents déposés.

L’échéancier du projet est assez agressif: Publication d’un document décrivant les caractéristique d’un ‘Open Library Management System’ pour la mi-juillet 2009.

Affaire à suivre. Deux fils RSS sont proposés sur le site.

Le site principal: Open Library Environment Project (OLE Project)

Ubuntu – La version 8.04 maintenant disponible

2008-04-29

La nouvelle version du système d’exploitation Ubuntu baptisée ‘Hardy Heron‘ est officiellement disponible depuis le 24 avril dernier. Ubuntu est une distribution Linux basée sur Debian et orientée ‘grand public’. Sa très grande popularité est due à son étonnante simplicité d’installation. Elle est attrayante au point que certains y voient une alternative viable à Windows pour l’utilisateur final. À telle enseigne que la compagnie Dell offre certains de ses produits sous Ubuntu (sur le site américain du moins). C’est encourageant.

Il n’en demeure pas moins que l’installation et la configuration de programme demeure, dans certains cas, un défi important pour l’usager novice. Le passage en ligne de commande pour effectuer certaines actions est inévitable. Encore un peu trop complexe sans doute pour rivaliser de simplicité avec windows et, à fortiori, le MAC.

Par contre, Ubuntu est une excellente solution pour redonner vie à un vieux PC qui encombre votre garde-robe. Pour une bouchée de pain, je me suis procuré il y a un an un vieux PC chez un revendeur de produits d’occasion. Configuration: (processeur P4 1.4Ghz, 512 Mo RAM, 80 go disque). Cette configuration est tout à fait acceptable pour Ubuntu qui roule depuis sans anicroche. L’installation des mises-à-jour de version est elle-même un jeu d’enfants.

Vous désirez prendre contrôle à distance de votre poste Ubuntu: Essayez FreeNx.

Encore quelques miettes du congrès

2008-04-12

Entendu lors du Congrès:

Un présentateur: « To implement an Open Source solution you have to invest in human ressources and local expertise (…) »
Une question de la salle: « But what if we lack of expertise and human ressources? »
Le présentateur: (un moment de réflexion) « … Well, then, you’re screwed! »

Voilà, résumés très simplement les enjeux reliés à l’Open Source. La plupart des spécialistes s’entendent pour dire qu’il n’y a pas de réelle économie à opter pour une solution à code source libre plutôt que pour un produit commercial. Ce qu’on économise en achat de licenses est au moins partiellement réinvesti en ressources humaines. Le vrai gain est donc ailleurs. En vrac: Plus d’autonomie; la possibilité d’influencer le développement ou d’y participer activement; la possibilité d’adapter le produit à des besoins locaux; le sentiment de faire partie d’une communauté; le refus du mercantilisme. On touche presque au philosophique ici. Et pourquoi pas après tout.