Index des revues

  • Index des revues
    ⇓  Autres articles dans la même rubrique  ⇓

    Statistiques et évaluation

    Par Alban DAUMAS

    A Sydney il y a eu un grand contraste dans les travaux de la section statistiques. Alors que les séances du comité permanent étaient peu suivies : quatre personnes seulement le 29 août, le public était très nombreux pour écouter les trois rapports proposés cette année à notre attention. C'est en effet devant un amphithéâtre comble que parlèrent Clarence R. Walters, du réseau OCLC, Geoffrey Ford de la Bibliothèque de Southampton, et deux bibliothécaires australiens.

    Il est difficile de résumer les exposés des uns et des autres tant ils furent denses, étayés de citations et de références, et sujets à discussions. Notre collègue américain, après avoir fait un historique de l'emploi des statistiques dans les bibliothèques publiques des Etats-Unis, montra comment depuis 1970 environ les choses ont évolué. Depuis cette date les associations professionnelles ont pris une part croissante dans les études de planification et d'évaluation pour les bibliothèques, alors même que de nombreux ouvrages ou articles étaient publiés sur ces sujets. D'autre part les autorités responsables des secteurs de l'information et de la culture, de plus en plus sévères dans leurs attributions de crédits, ont alors demandé très souvent que les bibliothèques aient des plans de développement avec des buts et des objectifs précis, appuyés sur des chiffres vérifiables.

    L'OCLC a mené une enquête à ce propos parmi les 551 bibliothèques publiques qui font partie de son réseau. Près des trois-quarts des bibliothèques qui ont répondu avaient un plan d'action pour une période de cinq ans, étayé par des données statistiques permettant de repérer les fonctions ou travaux posant des problèmes et de comparer les résultats passés avec ceux en cours et ceux jugés souhaitables à atteindre. Clarence R. Walters dans son exposé a pourtant clairement dit qu'àà ce jour la planification des bibliothèques publiques américaines grâce à des statistiques reconnues comme valables par tous n'est pas encore une réussite générale. Il faudra encore bien des efforts et notamment des programmes nouveaux dans les écoles de bibliothécaires (ainsi que des stages de formation continue pour le personnel en place) pour arriver à de meilleurs résultats.

    L'exposé de Geoffrey Ford, qui parla en second, fut moins long. Mais il posait, comme on dit de nos jours, les vraies questions. Peut-on réellement mesurer les bons ou mauvais résultats d'une bibliothèque en termes quantitatifs, a-vons-nous à notre disposition les instruments statistiques adéquats pour juger les différents services d'une bibliothèque ? Dans sa démonstration très serrée notre collègue anglais a beaucoup insisté sur les critères qui devraient nous permettre de retenir ou non tel ou tel indicateur de performance. D'après lui il faut à chaque fois vérifier et être certain que 1 ' indicateur retenu répond à six critères, à savoir:

    • 1) est-il pertinent par rapport au problème que l'on voudrait résoudre grâce à lui;
    • 2) est-il véritablement utile pour montrer les causes des difficultés et les solutions possibles ;
    • 3) est-il vraiment valable pour mesurer ce qu'il est supposé cadrer ;
    • 4) est-il sûr, c'est-à-dire non sujet à des erreurs indécelables ;
    • 5) peut-il être utilisé pour des études comparatives, pour conduire à des changements dans la politique d'une bibliothèque ;
    • 6) est-il pratique en terme de coûts et de temps pour les bibliothécaires et les usagers.

    Les exemples donnés par l'orateur ne furent pas totalement convaincants, ils concernaient les documents d'une bibliothèque et l'information qu'on y trouve.

    Nos deux collègues australiens surent ensuite montrer comment depuis 1975 environ dans leur pays des efforts considérables ont été faits pour définir et arrêter des statistiques cohérentes, reconnues et suivies par tous (au moins sur un plan régional). Il est vrai qu'il existe dans leur pays un Conseil Consultatif des Services Bibliographiques (A.A.C.O.B.S.) et un Conseil des Bibliothèques et de l'Information (A.C.L.I.S.) qui se sont préoccupés vivement de ces questions.

    Pourtant en Australie comme ailleurs il est difficile de trouver des indicateurs de performance très sûrs pour les bibliothèques et nos deux collègues ont étudié avec soin les indicateurs retenus habituellement ainsi que leur définition et les méthodes qui sont utilisées pour collecter les données.

    Reste qu'il ne suffit pas d'avoir de bons indicateurs de performance, il faut encore connaître la technique des statistiques et la façon de faire pour intégrer les résultats obtenus dans un processus de décision. Les discussions au comité permanent de la section des statistiques ont montré qu'il n'y a pas actuellement de normes internationales qui définissent d'une manière suffisamment claire et précise les indicateurs pour les bibliothèques. Le chantier est ouvert. Il faut dire pour terminer qu'en 1989 à Paris il y aura une communication française à la section statistiques et qu'un séminaire spécialisé sera aussi organisé pendant la conférence générale IFLA avec pour titre «Comment, dans nos bibliothèques, utilisons-nous l'argent que nous recevons». Vaste problème !