L'informatique a pénétré le monde des techniques éditoriales depuis environ vingt ans sans que cela ait dans un premier temps affecté de manière importante les produits édités. Les conséquences avaient jusqu'alors porté principalement sur les relations entre les auteurs, les éditeurs et les façonniers du produit que sont les photocompositeurs, les imprimeurs, etc, et très peu sur la forme du produit édité lui-même ainsi que sur ses modes de distribution, de consultation, de réutilisation. Toutes les évolutions tendent cependant vers une normalisation des techniques de codage numérique de l'information et de la structure autorisant, au-delà des barrières de la concurrence, un échange théoriquement universel des informations sous leur forme électronique au cours des diverses étapes de la création et de la fabrication. Il est par ailleurs techniquement possible d'étendre cet échange universel vers la distribution et l'utilisation. La première application commerciale d'envergure en est le produit CD ROM.
Parallèlement à ces modernisations techniques internes au secteur de l'édition, le secteur de l'audiovisuel connaît une évolution technique similaire et très rapide vers le tout-numérique. Là le codage numérique de l'information a d'emblée concerné à la fois toute la chaîne éditoriale et la chaîne de distribution conquérant très vite le grand public. Dans ce secteur aussi la normalisation permettant un échange universel est en cours.
La révolution que nous en sommes en train de vivre dans le domaine de la communication est que ces deux grands secteurs qui ont jusqu'à présent constitué deux filières parallèles indépendantes voient apparaître la possibilité technique d'une complémentarité et d'un mixage des modes de communication dans un seul produit c'est le phénomène multimédia.
Toute la normalisation du codage de l'information pour le texte, l'image, le son et l'image animée se fait aujourd'hui dans le cadre d'un schéma unique pour une architecture de document multimédia autorisant l'échange dans le processus de création, la distribution à travers les réseaux numériques ou sur des supports optiques et magnétiques ainsi que la consultation sur des plateformes de matériels qui visent le grand public.
Les barrières entre les filières traditionnelles de la communication peuvent être franchies, voire transgressées, et les éditeurs d'audiovisuel osent attaquer le marché du livre électronique tandis que les éditeurs de l'imprimé essaient de franchir le pas de la diffusion électronique de l'information textuelle en l'enrichissant d'audiovisuel. Chacun des secteurs s'initie aux techniques de l'autre et se prépare à conquérir sa part d'un marché commun utilisant les mêmes plateformes techniques de consultation, s'appuyant sur des standards compatibles au sein d'une architecture commune.
Tout d'abord il faut noter que toute la normalisation active actuelle a trait à l'information numérique qui seule permet des produits interactifs, c'est à dire la manipulation de l'information par l'utilisateur.
Dans ce domaine, les normes officielles ainsi que les standards des constructeurs ont été développés initialement pour chacun des médias : texte, image, son, image animée. Le fait nouveau, qui permet l'émergence du multimédia, est la volonté de construire un ensemble cohérent de normes sur les monomédia autorisant leur interaction dans une architecture générale intégrée multimédia et hypermédia. Les secteurs sont plus ou moins actifs selon leur ancienneté.
Dans les secteurs les plus anciens qui étaient marqués par une normalisation anarchique visant à répondre de façon pragmatique à des besoins pointus, tel le secteur du codage du texte, on assiste à la mise en oeuvre de nouvelles normes à visée universelle devant permettre l'échange entre des domaines applicatifs différents. On travaille ainsi aujourd'hui à un jeu de caractères codés universel devant couvrir les besoins de tous les systèmes d'écriture, dans tous les domaines y compris les mathématiques, le bibliographique, l'édition ...
Le domaine du codage graphique est celui qui présente aujourd'hui le plus de problèmes de compatibilité entre des normes nationales existantes. C'est un secteur qui n'évolue pas actuellement. C'est ainsi que, pour le videotex, le codage graphique européen n'est pas compatible avec le codage graphique américain.
Le secteur le plus normalisé actuellement est celui de l'image fixe. C'est le secteur stratégique par excellence. Trois normes de codage de la compression de l'image existent ou sont en cours de développement.
JPEG (ISO 10918). Cette norme permet des taux de compression très élevés (de l'ordre d'1 bit par pixel) qui sont très utiles à la fois pour le stockage et pour la transmission sur les réseaux. Quatre modes sont définis dans la norme pour des utilisations variées selon les besoins de l'application. La normalisation JPEG a commencé en 1984. C'est aujourd'hui une norme stabilisée sur laquelle s'appuient un certain nombre d'appels d'offres, notamment au niveau de la Commission des Communautés Européennes. Elle fait autorité mais n'est pas adoptée dans toutes les applications : par exemple le CDI de Philips et le Photo CD de Kodak ne sont pas compatibles JPEG. Par contre Quick Time, l'extension multimédia du système d'exploitation de Macintosh est compatible JPEG(voir ci-dessous les plateformes techniques).
Les normes de compression de fac-simi-lé Groupe 3 et Groupe 4 sont les modes actuellement les plus utilisés pour le codage des images fixes. La compression n'est pas compatible JPEG, mais cela devrait être le cas avec le fac-similé couleur.
JIBIG (ISO CD 11544) est une norme de codage de l'image à deux niveaux dont le développement a commencé en 1988. Cette norme a été mise en chantier pour faciliter la consultation des images : feuilletage de l'image, construction progressive de l'image, télédéchargement et impression sur des équipements ayant des taux de résolution différents, pour améliorer les temps de réponse pour l'utilisateur, minimiser les temps de transmission sur les réseaux et optimiser la taille de l'image lors du stockage. Malheureusement il n'existe pas encore de plateforme matérielle utilisant cette norme faite pour l'utilisateur final.
Le codage de la compression des images de MPEG est compatible à la fois avec la compression JPEG et avec la compression CCITT de la visioconférence et de la vidéoconférence.
Le codage MIC du CD audio permet un débit pouvant atteindre 1,5 Mbit/s. Le développement de MPEG audio a commencé en 1989. Cette norme est utilisée sur les cassettes numériques compactes (DCC) qui viennent d'entrer dans leur phase de commercialisation.
Les grandes tendances techniques concernant les différents média évoluent toutes dans le sens d'une optimisation de la taille de l'information pour diminuer les coûts de stockage et de transfert, une optimisation des techniques de compression et décompression pour rendre l'utilisation plus agréable. Toutes les évolutions se font dans un souci d'utilisation par le grand public. Les normes ont ainsi des options destinées soit aux applications grand public, soit aux applications professionnelles.
L'information numérique prenant une place considérable, on introduit pour les usages grand public, la notion de codage et stockage de la seule partie de l'information qui sera physiologiquement détectable par la vision ou l'ouïe humaines lors de la restitution. On a ainsi dans JPEG la possibilité de coder en éliminant une partie de l'information ou en conservant toute l'information selon le mode de compression avec pertes ou le mode de compression sans pertes.
La décompression peut, elle aussi, être modulée selon les applications. L'affichage d'une image avec décompression séquentielle de l'information, entraînant un affichage lent suivant le balayage des lignes de l'écran dès lors que l'on a affaire à une image de bonne définition, peut être remplacé par une décompression progressive permettant l'affichage rapide d'une image ayant une mauvaise définition, mais donnant une idée de l'intérêt de l'information pour l'utilisateur, suivi de la décompression de la même image avec un meilleur taux de définition. Il y a alors affichage par approximations successives.
Différents médias peuvent être associés dans un même document électronique.
S'il s'agit de documents visuels il faudra indiquer la synchronisation spatiale des différentes composantes. Des normes ont été définies pour des secteurs génériques de services multimédias tels que l'Audiovisuel interactif (ce sont les AVIs), la bureautique, le vidéotex. En ce qui concerne la bureautique, cette synchronisation est définie dans le cadre du codage de la structure logique et/ou physique du document dans une norme telle qu'ODA (Office Document Architecture).
Dès que le son ou l'image animée sont en jeu, il faut une synchronisation temporelle entre les différentes composantes du document. Un tel codage de synchronisation temporelle est prévu dans les extensions hypermédias d'une norme d'édition telle que SGML (Standard Generalized Markup Language).
SGML (ISO 8879) est une norme de codage générique de la structure logique de documents révisables. En association avec toute une famille de normes, SGML permet l'échange de documents électroniques associés avec leur structure logique, leur format, les informations sur la structure physique pour l'affichage ou l'impression, de manière indépendante des logiciels de traitement, des ordinateurs ou de leurs périphériques et indépendamment des applications qui effectuent l'échange.
Les normes associées à SGML sont :
SGML est issu du monde de l'édition et de la photocomposition. C'est une normalisation des pratiques de balisage des textes avant les traitements de composition et d'impression.
Son succès grandissant vient des outils disponibles commercialement pour créer et traiter des documents codés en SGML, ainsi que de son utilisation dans de grands programmes prestigieux : SGML a été adopté par le Département de la Défense aux USA dans le cadre du projet CALS (Computer-Aided Acquisition and Logistics Supports) de chaîne de traitement de la documentation technique de l'armement allant jusqu'à la diffusion de cette information. L'Office Européen des Brevets utilise les principes de codage SGML pour ses produits imprimés, ses bases de données et envisage son extension à ses produits CD-ROM. En France des organismes comme l'Aérospatiale, EDF utilisent ou projettent la mise en place de projets SGML pour leur documentation et sa diffusion.
Enfin SGML gagne rapidement le monde de l'édition traditionnelle et les éditeurs français, sans avoir été des pionniers, s'intéressent à SGML depuis l'origine. Les projets du groupe européen des éditeurs Scientifiques, Techniques et Médicaux regroupant principalement des éditeurs hollandais et allemands sont particulièrement significatifs de l'impact que SGML peut avoir demain dans le monde des bibliothèques scientifiques et médicales. Après avoir travaillé à un codage commun SGML de l'en-tête des articles de périodiques en vue de la distribution sous forme électronique des références bibliographiques, ils examinent actuellement l'extension de ce codage commun à la totalité de l'article lui-même pour une distribution électronique de l'article intégral.
SGML est aussi à la base de projets de bibliothèques électroniques pour le stockage et la diffusion de documents sur des campus universitaires : tel le projet Mercury à Carnegie Mellon University aux Etats-Unis. Dès 1983, l'American Association of Publishers (AAP) s'était intéressée à la mise en place d'un codage commun fondé sur SGML à l'époque en cours de développement, et qui serait utilisé tout au long de la chaîne de l'édition jusqu'à l'utilisation dans les bases de données ou dans les bibliothèques. Les bibliothèques américaines avaient largement participé à ces travaux et aujourd'hui il existe un groupe d'utilisateurs des travaux de l'AAP, au sein d'OCLC : EPSIG (Electronic Publishing Special Interest Gfoup).
SGML initialement développa pour le traitement du texte s'étend au "" xument multimédia / hypermédia par le développement en cours de la norme Hytime : Hypermédia / Time based structuring language. Cette norme permet le codage de la synchronisation temporelle de documents SGML.
SGML reste cependant un outil de professionnel permettant de traiter de grandes quantités d'informations en mettant en oeuvre toute la sophistication et le savoir faire des métiers traditionnels de l'édition.
ODA (Office Document Architecture), ISO 8613 est une norme développée dans le contexte du concept de systèmes répartis et de l'OSI (Open Systems Inter-connection). ODA est plus proche des tous récents développements sur le multimédia du fait que cette norme a été à l'initiative de deux acteurs majeurs : la bureautique et l'industrie des télécommunications. ODA permet l'interactivité et la manipulation des documents. Sa philosophie est très proche d'outils bureautiques qui sont des standards de fait tels que WORD, WORDPERFECT ou POST-SCRIPT. C'est une norme développée en Europe.
ODA souffre de la non disponibilité commerciale d'outils de création et de manipulation de documents ODA. Créé initialement pour des documents bureautiques simples, ODA au travers de la définition de profils de plus en plus sophistiqués ambitionne le traitement du son et des images.
Les progrès rapides de la normalisation convergente accompagnent une évolution technique des matériels et logiciels à la fois dans le domaine du traitement, du stockage et des stations de consultation de l'information multimédia. Cette évolution des plateformes est surtout importante dans le domaine du stockage et des stations de consultation. Elle est très marquée par la volonté de conquérir le secteur grand public, condition économique indispensable pour une généralisation de l'édition électronique multimédia.
Tout support magnétique ou optique peut supporter des informations numériques et est donc un véhicule possible d'informations numériques multimédias.
Cependant les supports de diffusion du numérique déjà présents ou en cours de lancement suivent les usages déjà consacrés par les médias bien implantés dans le grand public, tels les cassettes magnétiques et disques encore plus compacts pour le son. Ils ne sont pas aujourd'hui potentiellement porteurs d'extensions multimédias. Ces nouveaux supports du son numérique sont :
Les supports du multimédia sont les disques optiques issus du CD-audio : le CD-ROM, le CDI, le Photo-CD.
Le CD-ROM est un disque compact dont l'information est exploitée à l'aide d'un micro-ordinateur. C'est ce support qu'a choisi Sony pour le lancement du Livre électronique consultable sur lecteur de CD-ROM baladeur : le Data Discman.
En effet si le CD-ROM est bien connu aujourd'hui dans les bibliothèques comme nouveau support de diffusion des bases de données ou de l'information bibliographique, toutes les tendances actuelles indiquent son utilisation potentielle pour la diffusion de nouveaux types d'informations y compris des applications multimédias. Les récents appels à propositions pour des produits nouveaux destinés à stimuler le marché des informations multimédias tant au niveau européen qu'au niveau français, ainsi que le catalogue des produits diffusés en France, montrent toute l'importance que le CD-ROM peut prendre dans ce domaine. Les produits sont indifféremment destinés au grand public avec une tendance très nette vers les publications à caractère éducatif ou destinées aux professionnels d'un domaine. Citons par exemple "Slee-ping beauty", édité par EBook, destiné aussi bien à l'usage familial que scolaire donnant le texte de l'histoire et par des liens hypertexte la possibilité d'avoir des explications approfondies. En parallèle avec le texte, un narrateur lit l'histoire, illustrée par des images ou des animations. Les prix sont en relation directe avec le public visé et le type de document. Les produits grand public valent entre 600 F et 1 500 F, alors que les produits à usage collectif et/ou professionnel valent entre 2 500 F et 15 000 F et parfois même au-delà.
Autour du CD-ROM multimédia, certaines tendances se dessinent, de nature à renforcer sa position par une synergie économique avec d'autres plateformes. Par exemple Virgin a décidé de diffuser un même produit sur deux plateformes techniques : le CD-ROM multimédia (version PC) et le CDTV (Commodore Dynamic Total Vision). Le CDTV est basé sur une station de jeu Amiga couplée avec un CD-ROM. Un même produit éditorial va ainsi pouvoir, à des tarifs identiques, être disponible dans une version utilisable sur une plateforme de jeu domestique ou dans une version utilisable sur une plate-forme de bureautique domestique. A partir d'une conception unique il y a démultiplication des publics.
Un CD-ROM de taille plus réduite et consultable sur une station portable supporte le Livre électronique de Sony. Il est conçu comme une alternative électronique au papier pour les livres de consultation et les informations principalement textuelles. Le nombre de titres encore limité s'étendra dans tous les domaines en relation avec une consultation nomade puisque la station de lecture est autonome. Les disques coûtent entre 400 et 450 F.
Le CDI (Compact Disc Interactif) de Philips fait son entrée sur le marché grand public. C'est un compact dise qui s'utilise en association avec la télévision. Le lecteur est déjà compatible avec le CD-audio et le Photo-CD. Il s'étendra bientôt au film long métrage, avec une qualité d'image sensiblement égale à celle d'un magnétoscope VHS. Les disques couvrent aussi une large gamme de produits comportant des jeux, des produits éducatifs, des encyclopédies, des éditions d'art, des ouvrages pratiques. Les disques coûtent un peu moins de 400 F.
Dernière évolution grand public du CDROM : le Photo-CD de Kodak qui vient de faire son apparition sur le marché français. Le mode Photo-CD est un standard de fait pour le codage de l'image numérique. Il autorise l'ajout d'images sur un disque existant. Il permet également l'association de texte et de son aux images. Pour accompagner cette extension, les lecteurs de CD-ROM se transforment et l'on voit apparaître des lecteurs de CD compatibles, permettant la lecture de Photo-CD multisession et de CDaudio. Il utilise une extension de la norme CD-XA et un codage spécifique des photographies. Il est prêt à utiliser les normes de la télévision haute définition.
Les stations de consultation des disques supportant des applications multimédia numériques se partagent en deux grandes catégories :
Les stations basées sur la télévision correspondent au CD et au Photo-CD. Elles apparaissent actuellement sur le marché français. Le lecteur de disque coûte environ 5 000 F. Les promoteurs espèrent un marché de deux millions et demi de disques en 1995. Le CDTV de Commodore est un peu à part puisqu'il associe une plateforme Amiga à un lecteur de disque et à une télévision.
Les stations utilisant un micro ordinateur correspondent à une norme de fait établie pour chacune des deux grandes plateformes bureautiques que sont le Macintosh et le Micro-ordinateur PC, afin d'offrir désormais les extensions nécessaires à l'utilisation du multimédia. Une telle station coûte environ 25 000 F. Bien que plus professionnelles que les stations couplées à la télévision, elles concernent ce qui est encore aujourd'hui le haut de gamme de produits qui gagnent le grand public et pénètrent dans les foyers.
Le standard de fait MPC (Multimédia Personal Computer), lancé par Microsoft, a reçu le support de plusieurs constructeurs : Victor, Philips, Olivetti, Media Vision et Commodore (qui continue sa stratégie CD TV / Amiga en parallèle). La configuration matérielle et logicielle de base MPC est : un micro PC 386 avec 4Mo de mémoire RAM, un écran VGA 256 couleurs, une carte son numérique, Windows 3 et ses extensions multimédias.
Quick Time est l'extension multimédia Apple du système d'exploitation des Macintosh pour les données vidéo. La compression-décompression est intégrée dans le système d'exploitation et les algorithmes de compression des images sont conformes à JPEG. La configuration minimum de base est : un processeur 68020, un disque dur, 2Mo de mémoire RAM, le Système 7.
Toutes les annonces faites en 1992 vont dans une même direction : la convergence des plateformes bureautiques professionnelles et des plateformes grand public pour offrir des micro ordinateurs multimédias capables de traiter des données numériques multimédias publiées sur des supports de la famille des CD-ROM.
Enfin le lecteur portable du Livre-électronique de Sony appartient à une catégorie à part : il est autonome sur une station dédiée portable. Il est actuellement plus limité en raison de la taille de l'écran noir et blanc qui ne permet que des graphiques assez pauvres, il se consulte à l'aide d'un clavier miniaturisé comportant toutes les caractéristiques d'un clavier de PC, mais il est possible de diffuser l'image sur un écran de télévision et le son via un amplificateur. Le lecteur coûte environ 4000 F.
Les principaux acteurs de la révolution en cours ont été les éditeurs du secteur son et audiovisuel qui ont su faire converger leurs activités avec les actions du monde de la bureautique et trouver les accords nécessaires avec les acteurs du monde des jeux électroniques. Les acteurs sont essentiellement japonais et nord américains.
L'enjeu devient crucial pour les éditeurs européens qui ont jusqu'à présent regardé avec méfiance l'évolution très rapide des techniques permettant la diffusion électronique de l'information textuelle ainsi que l'émergence du multimédia. Les premiers produits qui ont été développés dans le domaine des dictionnaires, des encyclopédies, de l'éducatif ont souvent été élaborés sans normalisation de la structure de l'information, avec des développements spécifiques. Les éditeurs ont été amenés pour réaliser ces premiers produits à travailler avec des sociétés de conseil en informatique assurant les développements nécessaires au traitement et à la mise en forme de l'information en vue de sa structuration pour une recherche offrant des accès navigationnels. Les produits électroniques correspondant à des produits papiers ont pratiquement tout perdu des métiers du livre, comme si le savoir-faire de la mise en page était devenu inutile pour rendre un texte signifiant dès qu'on l'affiche à l'écran, les nouvelles possibilités de recherche et de parcours du texte remplaçant les anciennes méthodes au lieu de les compléter.
Cependant les éditeurs travaillent de plus en plus à la création de l'information à l'aide de chaînes d'édition électronique utilisant des normes telles que SGML qui les rendent indépendants des constructeurs informatiques et des logiciels. Ils deviennent avec de tels outils potentiellement capables d'étendre le document textuel vers le multimédia et l'hypermédia en conservant une codification normalisée qui les rend indépendants du produit final et leur permet même autour d'une seule information initiale de créer à la fois des produits traditionnels et des produits novateurs, en s'adressant à des façonniers de ces différents produits et tout en restant maîtres de leurs données.
L'année 1992 est celle de la prise de conscience de l'importance pour les éditeurs des produits électroniques et du multimédia comme elle est celle de la commercialisation en France de toutes les nouvelles plateformes de consultation des nouveaux supports. La Foire de Francfort 1992 a montré que le livre électronique commençait à s'étendre au secteur littéraire et les organisateurs ont décidé de faire une place spéciale à l'édition électronique en 1993.
Des éditeurs français ont créé la commission multimédia du Syndicat National de l'Edition, le Game, au printemps de 1992. Cette commission est associée à la préparation des "Assises européennes de l'interactivité et de l'édition multimédia : actif et interactif qui se dérouleront les 21, 22 et 23 janvier 1993 au Palais de Tokyo, à l'initiative du Ministère de la Culture et de l'Education.
Tout comme les éditeurs, les libraires s'interrogent sur la place qu'ils doivent accorder aux nouveaux produits multimédias ainsi que sur les chances de l'émergence d'un marché commun au livre, au son et à l'image animée.
Qu'en sera-t-il demain pour les bibliothèques qui disposent d'une organisation par type de support avec des personnels spécialisés selon ces supports ?