Index des revues

  • Index des revues
    ⇓  Autres articles dans la même rubrique  ⇓

    Vous avez dit performance ?...

    Par Michel NETZER, Bureau des Bibliothèques de la Ville de Paris

    "Performance measurement" : ces deux mots difficilement traduisibles désignent une question qui connaît une vogue croissante depuis quelques années dans le monde des bibliothèques et qui a été largement débattue au cours du congrès. Les données statistiques traditionnellement recueillies font la part belle aux "moyens" et comportent bien souvent des mesures d'activités assez frustes (nombre de prêts, nombre de documents communiqués). Le besoin se fait aujourd'hui sentir d'introduire de nouveaux critères, liés aux notions de service et d'usager, qui puissent mieux rendre compte des résultats obtenus.

    On peut discerner au moins trois types de facteurs susceptibles d'expliquer l'émergence de cette préoccupation. En premier lieu des raisons conjoncturelles : en période de rigueur budgétaire, les gestionnaires du service public se voient contraints de faire des choix, de concentrer leurs moyens sur les services qui répondent réellement aux besoins de la communauté desservie.

    En second lieu, on accorde une attention plus grande au point de vue de l'utilisateur. La réussite d'une bibliothèque se mesure à la satisfaction de l'usager et aux bénéfices qu'il retire personnellement de sa fréquentation. On commence donc à prendre en considération des critères tels que le temps d'attente d'un lecteur pour obtenir un document, la disponibilité des documents, le taux de réponse lors d'une recherche, le nombre de travaux publiés ou d'examens passés "grâce" à la bibliothèque.

    Enfin, le développement des nouvelles techniques exige la mise au point d'outils statistiques appropriés. Pour ne prendre qu'un exemple, la consultation d'une banque de données sera appréhendée en termes de nombre de connexions, de nombre d'heures d'utilisation, de taux de réponse, etc.

    Selon Roswitha Poil (BU de Munster) qui a présenté la communication "Problems of performance evaluation in academic libraries", il faut distinguer deux types d'évaluation.

    L'un, de caractère "objectif", s'appuie sur des mesures chiffrées, par exemple, le nombre d'heures d'ouverture de l'établissement, le délai entre la commande de l'ouvrage et sa mise en service, le pourcentage du fonds utilisé. L'autre type d'évaluation comporte une dimension subjective puisqu'il se fonde sur des enquêtes menées auprès de l'utilisateur (ou du non-utilisateur) et auprès du personnel de la bibliothèque. On utilise à cette fin l'interview, le questionnaire ou l"'observation discrète" du comportement de l'usager.

    Bien que leur utilité soit incontestable, l'interview et le questionnaire sont à manier avec beaucoup de précaution car les réponses obtenues dépendent largement de facteurs individuels ou aléatoires : les attentes d'un usager par rapport à une bibliothèque varient en fonction de la connaissance qu'il peut avoir d'autres établissements, ses réponses peuvent être conditionnées par le moment où est effectuée l'enquête, par la façon dont les questions sont posées...; à cela s'ajoute les difficultés de l'auto-évaluation : un lecteur interrogé sur la recherche qu'il vient de faire dans un catalogue matières pourra s'estimer satisfait d'avoir trouvé une seule référence, même si une recherche mieux faite aurait pu mettre au jour des références plus nombreuses et plus pertinentes...

    A propos de l'évaluation objective, fondée sur des mesures chiffrées, R. Poil insiste sur la nécessité de définir avec précision ce qui doit être pris en compte. Si l'on se propose par exemple de mesurer le délai de livraison des documents demandés par le prêt entre bibliothèques, il faut avoir préalablement déterminé si ce délai se termine avec l'arrivée du document dans la bibliothèque, ou avec le courrier adressé au lecteur pour l'informer de la disponibilité du document, ou encore avec la remise effective du document à l'usager.

    Il est désormais possible de se familiariser avec ces méthodes d'évaluation relativement nouvelles grâce à deux manuels récents : un ouvrage commandé par la section des bibliothèques publiques à Nick Moore et diffusé à titre gracieux par l'UNES-CO, Measuring the performance of public libraries (1989) ; et l'ouvrage intitulé Measuring academic library performance : a practical approach par Nancy Van House, Beth Weil, Charles McClure publié par l'Association of College and Research Libraries (ACRL, division de l'American Library Association). Le manuel de Nick Moore a été testé au cours des derniers mois dans des bibliothèques publiques scandinaves, notamment par Lena Hoglund et Kenneth Sparr qui, tout en se félicitant des progrès dans la connaissance des établissements testés ont mis en évidence les principaux obstacles auxquels ils se sont heurtés.

    Outre des problèmes d'ordre matériel (manque de temps, financement des enquêtes d'opinion), psychologique (motivation du personnel de la bibliothèque), voire déontologique (a-t-on le droit d'observer discrètement ?), la difficulté majeure que pose ce type de démarche réside dans l'insuffisance des points de repère, qui rend assez complexe l'interprétation et l'exploitation des résultats : on ne peut pas toujours rapporter les données obtenues à des résultats plus anciens, ceux-ci étant parfois impossibles à établir, et la comparaison avec d'autres bibliothèques s'avère très délicate, tant ce genre de mesures est étroitement tributaire du contexte local.

    Cette difficulté ne peut que s'amplifier lorsque l'on dispose d'un manuel réalisé pour les bibliothèques d'un pays qui n'est pas le sien, en l'occurrence l'Angleterre. Nick Moore définit des ratios "idéaux" dans le contexte anglo-saxon, par exemple le pourcentage de documents du fonds qui doivent se trouver en circulation à un moment donné (30%) ou l'âge idéal des collections (40% des livres du fonds doivent avoir été publiés dans les cinq dernières années) : Comment utiliser ces données dans un autre pays où l'organisation des bibliothèques, les pratiques de lecture, la situation de l'édition peuvent être très différentes ? Un long chemin reste à parcourir avant que soient définies des conditions de comparabilité. Mais pourquoi ne pas commencer par évaluer l'activité d'un établissement sur une période de plusieurs années, afin d'établir une comparaison dans le temps ? C'est en forgeant qu'on devient forgeron : il s'agit maintenant de nourrir la réflexion lancée à l'IFLA à travers des expériences aussi nombreuses que possible. Souhaitons que ces nouvelles méthodes d'évaluation puissent rapidement passer du stade expérimental à celui de l'application in vivo.