Le présent d'hier et de demain

Réflexions sur les archives et surtout l'archivistique à l'ère du numérique (et parfois même un peu de poésie) – Anouk Dunant Gonzenbach

Médiation numérique en archives

par Anouk Dunant Gonzenbach

Il y a plusieurs mois, le thème de la médiation numérique en bibliothèque était à l’honneur des discussions des forums professionnels et des réseaux sociaux. Qu’en est-il pour les institutions d’archives ? En creusant la question, il me semble que non seulement nous sommes largement concernés par cette question, mais qu’il relève carrément de notre devoir de mettre en place ce genre de chose !

Google permet-il de faire une recherche historique? Est-il encore nécessaire de se rendre aux Archives? Tous les documents des Archives sont-ils accessibles en ligne? Comment se repérer dans un inventaire d’archives? Quels documents sont conservés aux Archives?

Même si on voulait ne s’adresser qu’au monde très pointu des chercheurs expérimentés (mais on est d’accord, hein, ce n’est pas ce que l’on veut) déjà on remarquerait qu’il y aurait moyen de les accompagner sur les outils numériques mieux qu’on ne le fait actuellement.

Donc allons-y, proposons de la médiation numérique. Objectif de l’année (flashback sur janvier 2013). Comment commencer ? Il faut déjà identifier le public-cible. Imaginer un module destiné aux étudiants en histoire dont le séminaire se déroule aux Archives, et un module « public élargi » à l’intention des personnes fréquentant la salle de lecture, pour commencer. Les objectifs ? Présentation des différentes possibilités de recherche, aide pour la préparation d’une session de travail aux archives et pour se repérer dans les différentes institutions d’archives, recherche dans la base de données et consultation optimale des documents numérisés. Nous avons commencé par quelques réflexions sur le module destiné aux étudiants. Par où commencer, ou plutôt sur quelles connaissances préalables des étudiants peut-on s’appuyer ? Nous avons toujours tendance à penser, puisque nous sommes dans notre institution jusqu’au cou, que tout est clair pour tout le monde. Grave erreur à mon avis. On s’y met donc à plusieurs. Le module voit le jour.

Une première partie est consacrée à la présentation de l’institution, brièvement à son histoire, aux missions de l’archiviste ainsi qu’aux principales sources conservées. Confirmation, ce n’était pas clair dès le départ pour tout le monde.

image

Passons aux  outils numériques, mais on commence simplement en présentant le site web institutionnel et ses ressources (par exemple les news, les horaires d’ouverture des différents dépôts, un état général des fonds statique). Je le précise tout de suite, on n’est pas encore sur Facebook, les voies de l’administration sont parfois impénétrables.

Puis vient la présentation de la base de données de descriptions de documents (les inventaires, en fait). Nous expliquons que les inventaires sont saisis sur notre base depuis 1986 et qu’il y a assez peu de saisie rétroactive des inventaires papier (manuscrits et tapuscrits). Ainsi, on ne peut pas partir du principe que tous les documents sont décrits dans la base de données. De plus, cette base de données, au départ uniquement utilisée en interne, a été ouverte au public en 2006 ; les descriptions contenant des données personnelles ne sont pas accessibles au public. Il est important aussi de préciser que ce n’est pas parce qu’une description se trouve sur internet que le document ou le dossier est forcément consultable (il faut donc expliquer les bases légales relatives à la consultation des documents).

Ces points posés, on peut maintenant faire une démonstration de la manière d’effectuer une recherche. Et là, difficulté, comment éviter de parler du concept de fonds d’archives ? A ce stade, pas possible de reculer, il faut simplifier le propos et définir le fonds. Ce qui en l’état actuel de nos bases de données est évidement important pour le lecteur ou l’étudiant qui voudra approfondir une recherche (notre base de données permet la recherche par fonds, par thème ou mot-clé et par cote).

image

Nous expliquons également comment fonctionne la réservation en ligne d’un document (il est possible de le faire sortir en salle de lecture pour un jour précis mais évidemment pas de l’emprunter).

Ensuite, nous montrons comment consulter les images numérisées en précisant les choix et priorités de numérisation des séries.

image

Je passe les autres détails, mais il y a certains points clés sur lesquels nous avons insisté. Je pense que ces messages sont très importants à faire passer :

  • Ce n’est pas parce qu’une recherche dans un base de donnée d’archives ne donne aucun résultat qu’il n’y a pas de documents concernant cette recherche.
  • Ce qui est sur internet est un sous-ensemble de la base de données métiers.
  • Ce n’est pas parce que ce n’est pas sur internet que ça n’existe pas.
  • Seule une petite proportion de nos documents est numérisée.
  • Le contenu des images numérisées ne peut pas être recherché à travers Google (pas – encore- d’OCR sur les images numérisées).

Un retour ? les étudiants prennent même des notes ! Et relèvent l’URL du site institutionnel inscrit en tout gros sur une slide (il faut partir des basiques, c’est décidément certain).

Je pense qu’il y a plusieurs suites à donner à l’évolution de ce genre de projet. Tout d’abord, continuer à faire de la médiation numérique pour le public qui fréquente la salle de lecture. Ensuite faudrait-il peut-être aller à l’Université plus systématiquement dans des séminaires d’histoire, utilisateurs ou non notre institution d’archives. Utiliser et promouvoir le compas d’Infoclio dans le domaine des compétences informationnelles.

Il y a également la question de la médiation numérique en ligne. Là, nous sommes en train de préparer une ébullition de méninges à ce sujet dans la région des archivistes du grand Genève (!), à suivre.

Et puis la question de l’ouverture des archives à d’autres publics. Nos outils sont orientés métier, et quand il s’agit d’expliquer dans les détails le fonctionnement de notre base de données on se rend bien compte que le contenu n’est pas accessible facilement. Nous adapter ? Essentiel.

Et vous, des expériences de médiation numérique en archives ?

Métadonnées intégrées aux images numérisées, partie 2: le choix de deux institutions publiques genevoises

Par Xavier Ciana, Emmanuel Ducry et Anouk Dunant Gonzenbach

Voici le second billet consacré aux métadonnées intégrées aux images numérisées.  Après un précédent panorama des principaux standards de métadonnées, celui-ci présente les choix effectués par deux institutions publiques genevoises en matière de métadonnées images.

Dans le cadre de la diffusion d’archives numérisées (de documents anciens dont les originaux sont conservés),  les deux objectifs principaux qui motivent l’intégration de métadonnées dans des images sont d’identifier la provenance des documents et d’informer sur les conditions d’utilisation.

L’identification ne pose pas de problèmes lorsqu’un document numérisé est consulté dans son contexte, en général sur le site web de l’institution qui l’a numérisé. Par exemple, lorsqu’un registre d’état civil est consulté sur le site d’une collectivité publique, l’interface de consultation servant d’outil de recherche fournit les informations nécessaire à l’identification du registre original ainsi que les éléments de contexte nécessaires à sa compréhension (provenance, date, etc.).

Mais que se passe-t-il lorsqu’un document – ou une partie de celui-ci – est extrait de son contexte puis republié? C’est un axiome du monde numérique : tout document qui peut être lu peut être copié et reproduit. En général, plus un document suscite de l’intérêt, plus il est reproduit et partagé. Et plus les copies sont nombreuses, plus la probabilité est forte que les informations qui accompagnaient le document lors de la publication initiale soient laissées de côté. C’est ici que les métadonnées intégrées jouent un rôle : lorsqu’une personne copie une image avec des métadonnées, elle reproduit également, même sans le savoir, des informations sur cette image.

Les métadonnées intégrées permettent donc de signaler l’institution qui a numérisé une image ainsi que d’identifier cette image sans ambiguïté (grâce à une cote ou un identifiant unique).  Sans informations d’accompagnement ni métadonnées intégrées, il  peut être extrêmement difficile de retrouver  le fonds ou  le dossier  d’origine d’une image isolée.

Le choix des métadonnées liées aux conditions d’utilisation feront l’objet d’un prochain billet.

  • Métadonnées images retenues par les archives d’Etat de Genève

Le choix de départ s’est évidemment porté sur les deux catégories de métadonnées liées aux images numérisées: les métadonnées  Exif et les métadonnées IPTC.

IPTC
Ce type de métadonnées sert en premier lieu à identifier l’institution et à gérer les droits d’utilisation. Les noms du pays, du canton et de l’institution qui met à disposition ses images et qui conserve les originaux est indispensable pour leur identification. En revanche, s’il est prévu de mettre à disposition les images pendant une longue durée, les métadonnées susceptibles de changement sont peu intéressantes à compléter (par exemple l’adresse web ou email de l’institution). Une recherche sur le nom d’une institution permet de retrouver facilement ces informations susceptibles de changer régulièrement.

On constatera qu’aucune cote ou identifiant unique ne figure par parmi ces champs. Dans le cas de ce projet, cette information apparaît uniquement dans le nom du fichier. Ce n’est peut-être pas une solution idéale, mais intégrer la cote dans les  métadonnées IPTC aurait nécessité un post-traitement qui devait être évité dans le cadre de ce projet.

EXIF
Le cas des métadonnées EXIF est un peu particulier. Ces métadonnées techniques relèvent en définitive plus de la conservation à long terme que de la diffusion. Toutefois, tous les appareils d’imagerie numérique produisent ces métadonnées.  Faut-il les conserver ou les supprimer ? Leur taille étant négligeable en regard du poids des images, il a été décidé de les garder. Mais quelles métadonnées EXIF sélectionner parmi le vaste panel proposé par ce modèle ? Quelques contacts menés auprès de diverses institutions ont démontrés des pratiques assez aléatoires. Généralement, on se contente des réglages installés par défaut sur la machine. La question est d’autant plus difficile que l’on entre dans un domaine technique qui devient vite pointu et avec lequel les photographes ont souvent plus d’affinités que les archivistes.

Pour répondre à cette question, la norme américaine Z39.87 “Data Dictionnary – Technical Metatata for Still Image”, qui offre un jeu de métadonnées pour la gestion tout au long du cycle de vie des images “pixellisées” (bitmap ou raster), a servi de point de départ. Cette norme n’est d’ailleurs pas sans lien avec le modèle PREMIS, ce qui est intéressant dans le cas d’une éventuelle réutilisation de ces métadonnées internes. A partir de là, une table d’équivalence entre la version “trial 2002” de cette norme et les spécifications EXIF 2.2 a été utilisée pour identifier  les champs permettant de répondre aux exigences Mandatory (M), Mandatory if Applicable (MA) ou Recommend ® de Z.39.87. Attention, il n’existe pas systématiquement un champ EXIF pour répondre aux exigences de la norme. Certains champs retenus peuvent ainsi ne pas être renseignés. La norme n’est donc pas entièrement respectée, mais on s’en rapproche le plus possible. A partir de là, un jeu de métadonnées techniques minimales a été choisi à l’aide des champs EXIF.

Métadonnées retenues:

image

image

  • Métadonnées images retenues par les archives de la Ville de Genève

XMP
Un des principaux choix à effectuer est le standard à utiliser pour intégrer les métadonnées (IPTC, Exif ou XMP). XMP a été retenu pour les avantages que présente ce format (basé sur XML et RDF, extensible, standard récent) mais également car c’est le seul des trois standards qui permet d’intégrer des métadonnées dans des fichiers qui ne sont pas des images, notamment des PDF. Dans le cadre d’un projet de numérisation, XMP rend possible l’utilisation des mêmes éléments de métadonnées quel que soit le type de fichier produit (JPG et PDF par exemple).

Dublin Core
A l’intérieur d’XMP les métadonnées peuvent être exprimées à l’aide de différents schémas (IPTC Core, Dublin Core, schéma photoshop etc.). Il est donc nécessaire de faire des choix parmi ces standards. Un nombre limité d’éléments Dublin Core a été retenu car ils semblaient bien répondre aux objectifs de base (identifier les images et donner le statut juridique).

Métadonnées retenues:

image

Le jeu de métadonnées Dublin Core est assez central dans XMP, en effet les informations de description élémentaires sont souvent signalées à l’aide de ce schéma. IPTC Core s’appuie également sur certains éléments Dublin Core. Ainsi, plutôt que de créer un nouvel élément ad hoc  pour le titre d’une photographie, IPTC Core recommande l’utilisation de l’élément « titre » de Dublin Core (dc:Title). Puisqu’ils sont fréquemment utilisés, ces éléments Dublin Core sont plutôt bien reconnus et ils ont d’autant plus de chances d’être lus par les différents logiciels de visualisation d’images. Les nombreux logiciels qui reconnaissent les métadonnées IPTC Core seront donc capables d’afficher (au minimum) les éléments communs à Dublin Core et IPTC Core (voir ci-dessous).

image

Références

  • Pour les réflexions qui ont mené à ces études et à la rédaction de ce billet, nous nous sommes aussi inspirés du blog S.I.Lex à lire et là.

Métadonnées intégrées aux images numérisées : partie 1

Par Xavier Ciana, Emmanuel Ducry et Anouk Dunant Gonzenbach

Lors d’un projet de numérisation de documents, il est nécessaire de se pencher sur la question des métadonnées images pour des raisons de gestion documentaire, de droits d’accès, de recherche, d’identification du document, etc.

La problématique abordée ici concerne la numérisation de documents ou registres patrimoniaux à des fins de diffusion. C’est un point qu’il vaut mieux en effet aborder dès le début d’un projet de numérisation. Dans le cas présent, il s’agit d’un projet qui a débuté en 2006 et à cette époque, nous n’avions pas imaginé normaliser ces métadonnées. Ce besoin s’est ensuite fait ressentir et c’est pourquoi nous proposons aujourd’hui cette réflexion.

En Suisse romande, il n’y a pas d’harmonisation des pratiques concernant les métadonnées liées aux images numérisées diffusées en ligne par des institutions d’archives. De plus, on constate que la littérature professionnelle sur le sujet du point de vue archivistique n’est pas complètement aboutie.

La question de ce type de métadonnées sera abordée en 4 billets:

1. Panorama des principaux standards en matière de métadonnées intégrées aux documents numérisés (ci-dessous)
2. Liste des métadonnées retenues par deux institutions publiques genevoises dans le cadre de leurs projets de numérisation
3. Le choix du droit d’utilisation des images
4. Retour d’expérience par rapport à ces choix

LES STANDARDS DES METADONNEES
Les trois standards majeurs en matière de métadonnées intégrée aux images sont :

IPTC-IIM
L’IPTC (International Press Telecommunications Council) développe au début des années 1990 l’Information Interchange Model (IIM), qui est une structure et un jeu d’attributs de métadonnées applicable à des fichiers texte, des images et d’autres types de média. En ce qui concerne les images, les attributs prévus par le modèle IPTC-IIM comportent par exemple : le créateur, le titre, la date, des informations géographiques (pays, région, ville) ou des éléments de description (mots-clés, légende). Au milieu des années 1990, les logiciels d’Adobe – notamment Photoshop – ont permis d’intégrer ces éléments directement dans les fichiers images. Cette façon de faire a dès lors connu un large succès, de nombreuses images ont été « augmentées » de métadonnées et aujourd’hui encore, beaucoup de logiciels de visualisation ou de retouche photographique permettent d’afficher et de modifier ces informations. Par commodité de langage, celles-ci sont généralement appelées « métadonnées IPTC » ou « en-têtes IPTC / IPTC headers ».
A l’heure actuelle, cette manière d’intégrer  les attributs IPTC-IIM directement dans les images est en passe de devenir obsolète, en effet, les auteurs du modèle IPTC-IIM recommandent maintenant d’utiliser le standard XMP pour inclure ces attributs dans des fichiers.

EXIF
Etablie à l’origine par le Japan Electronic Industry Development Association (JEIDA), l’Exif (Exchangeable image file format) est une spécification de formats de fichiers pour les images et sons produits par les appareils photographiques numériques. Cette spécification repose sur des formats existants (tels que JPEG et TIFF pour les images ou RIFF WAV pour les fichiers audio), et y ajoute des balises de métadonnées. Les métadonnées Exif sont typiquement générées automatiquement lors de la création d’une image, c’est-à-dire par l’appareil photo au moment de la prise de vue. La très grande majorité des métadonnées Exif sont techniques, il s’agit d’éléments tel que la taille de l’image, la résolution, la compression ainsi que des données concernant la prise de vue : la date, le temps de pose, la distance focale, l’utilisation d’un flash,  ou encore la position GPS de l’appareil. Le grand avantage des métadonnées Exif est l’automatisation : la plupart des appareils photographiques numériques (notamment les smartphones) créent des données Exif dans les images, même sans aucune intervention de l’utilisateur. De plus, les métadonnées Exif sont largement reconnues et peuvent être lues et affichées par un grand nombre de logiciels de traitement d’images et ceux-ci conservent généralement les données Exif lors des modifications successives des fichiers. Enfin certains sites web exploitent également de manière automatique les métadonnées Exif présentes dans les images, notamment les coordonnées GPS. 

XMP
En 2001, Adobe introduit l’ “Extensible Metadata Platform” (XMP), un standard basé sur XML  et RDF, qui permet d’intégrer des métadonnées dans plusieurs formats de fichiers (TIFF, JPEG, JPEG 2000, PDF, PNG, HTML, PSD etc.). XMP est extensible et peut donc accueillir n’importe quel type de métadonnées du moment que celles-ci sont exprimées en XML. Dès l’origine, XMP incorpore un certain nombre de standards de métadonnées, un des plus importants étant certainement Dublin Core, qui permet d’accueil des métadonnées élémentaires tel qu’auteur, titre, identifiant, date ou encore des informations sur les droits d’auteurs du document. « IPTC Core » est un autre des schémas majeurs inclus dans XMP, il permet d’utiliser les attributs du modèle ITPC-IMM (décrit ci-dessus) à l’intérieur d’XMP. Le schéma « IPTC Core » fait  donc d’XMP le successeur officiel aux métadonnées IPTC.
Un dernier exemple de schéma pouvant être intégré à XMP est VRACore, un standard destiné à la description des objets ou œuvres d’arts représentés dans des photographies. VRACore n’est pas centré sur le fichier image, mais sur l’œuvre originale. Ce standard permet notamment d’en décrire l’auteur, la  taille, les matériaux ou techniques de création, ainsi que signaler le musée ou l’institution qui conserve l’objet original.  
Le champ couvert par les métadonnées XMP est donc très large et comporte aussi bien des informations de description, notamment via Dublin Core, que des données techniques ou encore des éléments de gestion de droits d’auteur ou de workflow.
L’intégration de métadonnées à des images grâce à XMP est intéressante à plusieurs titres : comme les données sont en XML/RDF elles peuvent être exploitées à l’aide d’outils standards. En outre de plus en plus de logiciels récents (notamment Windows 7) sont capables d’afficher et d’exploiter les métadonnées XMP. Enfin, si une institution à des besoins spécifiques, il lui est possible d’intégrer ses propres modèles de métadonnées dans XMP.

Cohabitation des standards
Techniquement, des éléments provenant des trois standards (IPTC-IIM, Exif et XMP) peuvent figurer dans un même fichier sans aucun problème.
Au niveau du contenu des métadonnées, les choses ne sont pas aussi simples : en effet certaines informations peuvent être répétées dans les trois standards, notamment des éléments de base tels que le créateur d’une image, sa date ou encore son droit d’utilisation. Si plusieurs standards sont utilisés simultanément, il est alors nécessaire d’assurer la cohérence des contenus afin d’éviter les disparités (par exemple un même fichier avec une date de création dans Exif et une date différente dans XMP).  Le Metadata Working Group, une coalition réunissant notamment Adobe, Apple et Microsoft, a émis des recommandations afin d’assurer la cohérence et la préservation des métadonnées lors de l’utilisation simultanée de plusieurs standards.

De multiples scénarios de cohabitation sont possibles : un même fichier peut par exemple contenir des métadonnées techniques issues du scanner dans Exif tandis que les métadonnées de description et celles relatives au droit d’auteur sont exprimées dans XMP. Comme on peut le constater dans le schéma ci-dessous, il est également possible de regrouper l’ensemble des données ITPC ou Exif dans XMP.
image

CC-BY

Comment lire les métadonnées ?
Les métadonnées peuvent être à ajoutées à des images dans un but interne à une institution (description, processus de travail etc.), ou dans un but externe (enrichir les informations lors la diffusion). Quelles que soient les raisons initiales qui justifient l’intégration de ces informations à des fichiers images, il est évidemment souhaitable que celles-ci puissent être lues par les plus grand nombre de personnes qui vont consulter ou réutiliser ces images. Cette lecture dépend des logiciels utilisés pour visualiser les images. Si la majorité des logiciels de gestion et traitement de photographies sont capables de lire et de modifier les métadonnées intégrées, ce n’est pas le cas de tous les systèmes d’exploitation et logiciels généralistes. Windows XP utilise son propre système de métadonnées et de commentaires ad hoc appelé “Alternate Data Streams (ADS)” et peut uniquement lire un nombre restreints d’éléments Exif. Pour un utilisateur de Windows XP, la quasi-totalité des métadonnées intégrées dans une image seront donc invisibles. Le support pour lire les métadonnées « de base » (auteur, titre, date, droits, etc.) est meilleur dans les systèmes d’exploitation plus récents. Dans Windows 7, certains éléments des métadonnées issus des trois standards sont directement affichés dans l’explorateur ou figurent dans l’onglet « détail » de chaque fichier. Windows 7 est également capable de faire des recherches dans les métadonnées intégrées. Mac OS X permet lui aussi (dès la version 10.6) de rechercher dans les métadonnées et le logiciel « Aperçu » (utilisé par défaut pour ouvrir les images) affiche des éléments provenant des trois standards.
image

Eléments de métadonnées affichés par l’explorateur Windows 7.
Le nom affiché ci-dessus sous « Auteurs » a été intégré à l’image grâce au standard XMP, dans l’élément Dublin Core « creator ».

Références

Education numérique

Petit cri du cœur au sujet de l’éducation numérique. En effet, à force de  mener des réflexions sur la gouvernance des documents électroniques et leur archivage à long terme, en tant que professionnelle de l’information et en tant que parent, pour moi il tombe quand-même sous le sens qu’il faudrait commencer par éduquer les enfants à la chose numérique.

Quand on pense enfants, on pense dangers des réseaux sociaux, mauvaise utilisation d’internet et contrôle parental. Mais il n’est pas possible ni souhaitable de contrôler tout ce que font nos enfants, comme pour les autres choses de la vie. Il est donc plus pertinent d’éduquer les enfants au bon usage du web et de les responsabiliser.

Comme pour la sensibilisation à l’environnement par exemple, on peut aussi présenter les choses de manière positive. Internet est un outil génial pour autant qu’on l’utilise correctement. D’où l’éducation numérique et l’éducation à l’identité numérique.

Or en Suisse et à Genève, ce sujet n’est pas du tout abordé à l’école. Cela fait deux ou trois ans que je réfléchis à la question et je suis entièrement d’accord avec le professeur Jean-Henry Morin (Université de Genève) dont j’ai fait la connaissance lors d’un cours et qui résume la situation en ces termes : il manque un portage politique de la chose numérique au niveau national. Nous avons un déficit de stratégie numérique, et cela dès la petite enfance.

Pour moi, l’éducation à internet peut s’envisager sous les axes suivants :

  • ce qu’est le web
  • comment effectuer une recherche sur internet ; comment traiter l’information trouvée
  • qu’est-ce que sont les réseaux sociaux, comment se comporter sur les réseaux sociaux
  • comment publier du contenu (site, blog) : aspects techniques et processus
  • les jeux virtuels
  • l’identité numérique / la protection des données

Je reviendrai régulièrement sur ce sujet qui est à la croisée de la vie professionnelle et privée, en espérant présenter un projet d’éducation numérique dans une école.

En attendant, voici un petit film belge sur l’identité numérique (Merci Jean-Henry Morin !): Dave le voyant aux pouvoirs paranormaux

Mon institution d’archives sur Facebook?

Par Anouk Dunant Gonzenbach

Récemment, le café de la République numérique, qui est un nouveau format de rencontre et d’échange proposé aux collaborateurs de l’administration genevoise  (rencontre avec sandwich pendant la pause de midi)  a eu pour thème: Secteur public: faut-il avoir peur des réseaux sociaux?

Stéphane Gilliéron, chef de  projet média et communication 2.0 à l’Etat du Valais, est venu présenter de manière décoiffante la stratégie et les objectifs de l’administration valaisanne relatifs à sa présence sur les réseaux sociaux. Le résumé de son exposé se trouve sur le site de l’OT Lab (Laboratoire d’usages des administrations à l’ère d’internet).

Stéphane Gilliéron a dressé un panorama des réseaux sociaux, qui ne se limitent pas à Twitter et Facebook, mais l’idée est ici de faire ressortir quelques points de son exposé sous l’angle “les services d’archives et Facebook”. En effet, il est devenu presque incontournable pour les bibliothèques d’ouvrir un profil Facebook et les institutions d’archives ont l’air de commencer à s’y mettre, on peut prendre comme exemple les Archives départementales de l’Ain, très actives sur ce réseau social.

– Un pré-requis général pour une administration est la nécessité d’instaurer des directives (policies) sur l’usage des réseaux sociaux par ses collaborateurs. Sans que l’institution soit elle-même sur un réseau social,  une majorité de ses collaborateurs y sont présents et cela peut poser des problèmes déontologiques (fonctionnaires qui s’expriment sur une loi qui les concerne, par exemple).  Le département de la justice de l’Etat de Victoria, Australie, a réalisé un petit film d’animation extrêmement bien pensé expliquant aux employés du gouvernement les éléments clés de leur “social media policy”, à voir ici

– L’administration doit également se doter au plus haut niveau d’une charte d’utilisation et de directives relatives aux services de l’administration présents en tant que tels sur Facebook (exemple du gouvernement de la Catalogne).

– La question des ressources: Une institution d’archives publiques, qui quasiment par définition est en manque de ressources, peut-elle se permettre  de consacrer du temps à initier, alimenter des statuts Facebook et y maintenir sa présence? Je pense qu’on pourrait retourner le problème dans l’autre sens: les services d’archives consacrent déjà du temps à leur site internet, pour publier des actualités,  rédiger un avertissement lorsque la salle de lecture est temporairement fermée, etc. Est-ce que ce temps serait mieux investi si davantage de lecteurs avaient accès à ces informations? Il est douteux que les étudiants en histoire passent leur temps à consulter le site internet d’une institution d’archives pour savoir si par hasard la salle de lecture devait fermer plus tôt tel ou tel jour ou si une nouvelle exposition devait être sur le point d’être inaugurée. Souvent, les lecteurs peuvent s’inscrire pour recevoir les “news” par email, mais le courrier électronique n’est pas  ce qui est le plus utilisé par les universitaires.

– La question du plan de communication: le plan de communication, tout comme la planification des ressources, est à prévoir dès le départ (dans l’administration valaisanne, un service doit satisfaire à ces deux critères avant de pouvoir entrer sur Facebook). La publication d’actualités concernant l’institution suffit-elle, ou est-il nécessaire également d’être plus actif et de relayer des informations concernant l’université, des liens vers des sites historiques, etc.? La question des ressources revient ici évidemment, mais il me semble qu’un service d’archives qui publie régulièrement des actualités sur son site internet et a déjà un plan de communication pourrait également le transposer sur Facebook.

Du moment que nous avons le contenu, des actualités régulières, alors peut-être que oui, il faudrait avoir une présence sur Facebook, histoire de continuer le dépoussiérage et de valoriser un peu plus le travail que nous effectuons. La conclusion générale de Stéphane Gilliéron est un immense encouragement à aller de l’avant (dans le cadre de procédures-cadres adoptées par l’administration), à dépasser les craintes, afin d’améliorer les prestations de l’administration. Selon lui, ce serait vraiment dommage de ne pas utiliser les réseaux sociaux pour mieux communiquer, permettre le mode “conversationnel” et assurer une meilleure visibilité et transparence des services publics.