Le présent d'hier et de demain

Réflexions sur les archives et surtout l'archivistique à l'ère du numérique (et parfois même un peu de poésie) – Anouk Dunant Gonzenbach

L’intégration des données historiques dans un système d’information du territoire (SIT/GIS):  exemple d’une médiation réussie

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

Par Anouk Dunant Gonzenbach et Pierre Flückiger

Le paradoxe de la carte réside dans le fait qu’elle sert à faire état de territoires découverts et à  en  découvrir  de  nouveaux.  A  notre  époque,  les  nouveaux territoires  ne  sont  plus  à découvrir sur la terre mais dans les couches du temps. Aujourd’hui, il est désormais possible de  réunir  chaque  fragment  de connaissance  pour  former  une  vision  globale  grâce  à  la technologie  et  de synthétiser  sur  des  cartes  les connaissances  acquises,  sur  un référentiel unique. Il  est  ainsi  possible  d’exploiter  mieux  les  cartes  historiques  car  la géomatique  offre les  moyens  pour  ce  faire.  L’orientation  et  les  différences d’échelles  de  plans  peuvent désormais   être   confrontées   et   superposées  facilement,   ce   qui   permet   de   nouvelles interprétations historiques.  

La  cartographie  n’est  pas  un  sujet  habituellement  traité  en  archivistique. Lors de la 2e conférence annuelle des archives de l’ICA à Gérone en octobre 2014, nous avons  présenté  comment  les  cartes  et  données  historiques genevoises  ont  été  intégrées  au système   d’information   du   territoire   genevois  (SITG).   Nous avons  souhaité   expliquer   une démarche   illustrée   par un   exemple   d’utilisation   différent   des   sources   historiques   et d’engagement d’activités archivistiques dans un tel projet.

Le texte complet de l’article se trouve ici.

Education numérique à l’école: adultes, ne désertons pas le terrain du numérique!

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

par Anouk Dunant Gonzenbach

En mars 2013, j’ai publié un petit coup de cœur sur le sujet de l’éducation numérique, en énumérant les axes sous lesquels peut selon moi s’envisager cette problématique dans le cadre d’un projet d’école.

Pourquoi un intérêt pour cette question, en fait ? je pense qu’en tant qu’e-archivistes, nous sommes plus geeks que la moyenne, sensibilisés par notre formation classique en histoire à la pertinence des sources, confrontés aux problèmes de pérennité (de l’image par exemple), actifs sur des réseaux sociaux – même si c’est des réseaux de vieux 😉 – et quand à tout cela s’ajoute le fait d’être parent d’enfants qui commencent à vivre tout cela en live, ça remue.

Depuis, avec deux amies de l’association des parents, nous avons étoffé notre projet d’éducation numérique à l’école et l’avons présenté l’an passé à la direction de notre école primaire (4-12 ans). Le timing tombait à pic et ce projet a pu être associé à celui de l’école, à savoir créer un journal en ligne. A la formation technique sur les outils en ligne prévue pour les enseignants, nous avons proposé d’ajouter une réflexion sur l’éducation numérique, donnée par l’association Action Innocence, selon le dispositif suivant :

  • une soirée « formation parents-enseignants » en deux parties : une présentation et réflexion sur les réseaux sociaux et l’identité numérique, puis une discussion en petits groupes mélangés parents-enseignants sur la « charte éthique » journal (à Genève, une école ne peut pas ouvrir un journal en ligne sans s’être mis d’accord sur une charte rédactionnelle).
  • En automne prochain, deux journées d’intervention d’Action Innocence destinées aux classes de l’école,  qui se termineront par une soirée destinée à tous les parents avec spectacle interactif.

Voici quelques éléments de cette première soirée, animée par Sébastien Gendre, dans une présentation percutante, pleine d’humour et passionnante.

Constatation d’introduction, nous n’avons pas vécu ce que le jeunes vivent aujourd’hui. Ils sont des natifs numériques, nous sommes des migrants numériques.

En 2014, 100% des jeunes de 14 à 19 ans sont internautes, à savoir : ils se connectent au moins trois fois par semaine pour 2 activités distinctes. Il n’y a donc pas de retour possible en arrière, cette réalité fait partie de la vie désormais. Je pensais que cette constatation était un acquis de base pour tout le monde. En fait, non. Entendre cela a été très important pour beaucoup des participants.

Remarque 1 : à la citation de Twitter, Whatsapp, Instagram et SnapChat, la quasi-totalité des personnes présentes ouvre de grands yeux, ce qui me surprend. Facebook seul est connu comme réseau social.

Remarque 2 : l’âge moyen des utlisateurs Facebook est de 41 ans (dans les dents, on savait que c’était un réseau de vieux, mais quand-même…).

Remarque 3 : c’est le grand écart numérique entre les lecteurs habituels de ce blog et les parents et enseignants présents.

L’attrait des enfants et des jeunes pour les TIC : 3 points forts sont présentés:

  • Un mode de communication inédit (discuter avec tous les copains en même temps et en continu 24h/24)
  • La volonté de paraître (parler de soi. Le regard des autres est important plus que tout pour les ados. En réalité ils font ce que nous avons toujours fait, mais avec une audience décuplée et un feedback immédiat).
  •  Le phénomène d’amplification du cercle vicieux (par exemple toute une classe se met dans un groupe Whatsapp mais en excluant deux personnes)

Quel est le problème des adultes ?

Les adultes se sentent dépassés par la technologie et sont tentés de démissionner. Mais quelles sont les compétences réelles de jeunes en matière de numérique ? Ils apprennent vite à se servir de nouveaux outils et à être à l’aise avec un le tout dernier jeu, car ils n’ont pas peur d’essayer, de tout casser et leur mode de fonctionnement est : j’apprends par l’erreur. Ils n’ont en revanche que peu de connaissances technologiques (les composants d’un ordinateur par exemple), et encore moins la mesure des implications sociales.

Et de là découle à mon avis le point central de toute la question, exprimé de manière exemplaire par Sébastien Gendre. C’est pour porter ce point plus loin que j’ai eu envie de rédiger ce billet :

Adulte, parent, enseignant : ne désertons pas le terrain numérique :

Le problème n’est fondamentalement pas celui de la technologie et des machines. Les enfants, les ados ont besoin de développer leur esprit critique, leur citoyenneté et leur capacité à faire des choix. Ils ont besoin de recevoir des valeurs. L’enfant ne va pas se développer sans l’adulte.

  • L’éducation numérique va des adultes à l’enfant : c’est la transmission du savoir-être (valeurs, esprit critique, citoyenneté, capacité à faire des choix).
  • L’éducation au numérique peut aller des jeunes aux adultes: c’est la transmission du savoir-faire (technologie).

En tant qu’adulte, parent, enseignant, il est nécessaire de ne pas déserter le terrain numérique. Les adultes doivent donc se positionner et la question fondamentale est la suivante : comment être à côté des jeunes – ou pas.

Accueillir des enfants de neuf ans aux Archives, est-ce possible ?

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

par Anouk Dunant Gonzenbach

A l’invitation du blogue Convergence, j’ai écrit un billet qui fait part d’un retour d’expérience sur des visites de mon institution d’archives adressées à des enfants.

Convergence est le blogue de l’Association des archivistes du Québec. Il a pour objectif d’offrir des renseignements sur la profession et la discipline archivistiques (événements, liens, parutions, etc.), de permettre à la communauté archivistique d’avoir une plateforme dynamique pour aborder certaines questions et de pouvoir partager avec des collègues, espérant ainsi encourager la pratique dans l’esprit d’un débat constructif. Les billets qui le composent expriment l’opinion personnelle de chaque auteur et, par le fait même, ne constituent en aucun cas la position officielle de l’Association des archivistes du Québec. Convergence est le résultat de la fusion des blogues Archivistique, Les archives à l’affiche et Archives au présent.

Alors, une visite pour les enfants, possible?

Les musées proposent des programmes famille, des animations et sont intégrés dans les visites scolaires proposées par les départements de l’instruction publique. Pas les archives. À partir de quel âge est-il possible de sensibiliser les enfants à des documents peu iconographiques ? Je me suis posé la question car :

  • les archives font partie du patrimoine culturel au même titre que les musées
  • c’est peut-être la seule fois que les enfants verront des archives
  • un moyen de semer quelques graines ?
  • je pense nécessaire de montrer à la génération née avec un ordinateur connecté que les sources sont ailleurs que sur le web (participation à l’éducation numérique)
  • il faut faire venir un public différent dans nos institutions

… et ai proposé une visite pour une classe d’enfants de neuf ans (en deux fois, pour ne pas avoir plus de douze enfants à la fois). Ce retour d’expérience est à lire ici.

Communauté de pratique en matière d’archivage numérique: la veille professionnelle

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

Par Anouk Dunant Gonzenbach

A l’initiative de deux collègues engagés dans l’archivage électronique (quel doux euphémisme), une rencontre a été organisée en Suisse romande dans l’idée de mettre en place une communauté de pratique en matière d’archivage numérique, au sein de laquelle se retrouveraient à titre personnel des personnes qui ont affaire à l’archivage électronique au-delà des frontières de notre monde des archives (bibliothécaires, conservateurs, etc.).

 A quels besoins répond la création d’une telle communauté?

Nous ressentons le besoin de créer des synergies parmi nos projets et d’échanger sur des questions pratiques.

Une quinzaine de participants a répondu présent à cette invitation. Nous sommes pour la majorité actifs dans le domaine depuis une petite dizaine d’années et formés sur le tas, ou plutôt auto-formés. Sommes-nous une génération Winkelried, la prochaine bénéficiant d’une réelle formation et engagée comme e-archivistes?

Les études montrent que pour l’instant, les projets d’archivages électroniques ont été pris en main par des personnes dont le critère dominant est la motivation. Cela correspond aux profils réunis autour de la table.

Pour cette première rencontre, nous avons échangé sur le thème des stratégies personnelles de veille.

Force est de constater que personne n’a réussi à mettre en place une stratégie de veille qui fonctionne, car le temps à disposition n’est pas suffisant. Plus personne n’a le temps d’effectuer de la veille sur le temps de travail, alors elle se fait en dehors. Motivés, je vous dis. La discussion en petits groupes a l’avantage de nous permettre de débriefer entre pairs sur nos difficultés (par exemple, quand tu te mailes un tweet au travail pour le lire plus tard, et que finalement tu te le remailes à la maison pour le lire encore plus tard). Nous ressentons également le même vertige devant la multiplication des sujets: tout d’abord il y a eu uniquement l’archivage électronique, puis la problématique de la gouvernance de l’information, puis l’open data, puis les big data…

 Veille : voici notre liste des principales sources d’information:

 Le web

et tout cela et plus en grande partie par : Twitter (dont les très précieux @archiveilleurs)

Les réseaux sociaux

  • Twitter
  • Linkedin (groupes)

 La littérature professionelle

  • Les ouvrages de références (exemple: Françoise Banat-Berger, Laurent Duplouy, Claude Huc, L’archivage numérique à long terme, les débuts de la maturité?, Direction des Archives de France, 2009.)
  • Les revues généralistes (par exemple www.archimag.com)
  •  Les dossiers spécifiques

Les échanges “sur le terrain”:

  • Les colloques et conférences
  • Les réunions de l’association professionnelles (essentiellement les trajets de train et pauses informelles)
  • Les visites d’autres institutions
  • Les collaboration dans des projets trans-institutionnels
  • Les échanges avec les informaticiens dans nos organisations

Le coaching par des groupes d’experts  (Memoriav (patrimoine audio-visuel) , CECO…)

Les réseaux et association professionnelles

Maintenir une pratique personnelle en informatique : les mains dans le cambouis:

  • A domicile, dans les domaines les plus divers possibles
  • Sur le lieu de travail, mais limité par le dispositif de sécurité.

En conclusion, ou plutôt en point de départ de cette communauté de pratique, elle va certainement se développer et s’élargir.  Formalisée désormais (il faut dire qu’on était déjà tous plus ou moins copains par les efforts traversés dans nos cantons respectifs), cette communauté est un solide appui auquel faire appel en cas de doute, de question ou de besoin d’échange.

Mon institution d’archives sur un réseau social: droit d’utilisation des images par Facebook

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

Par Emmanuel Ducry

Dans le cadre d’une réflexion autour de la mise en place d’un site Facebook institutionnel, nous nous sommes retrouvés confrontés à la question des droits sur les images postées sur Facebook.  Nous vous faisons par ici de quelques-unes de nos réflexions.

1.    Réseaux sociaux et licences non exclusive

Les réseaux sociaux parlent souvent de “licence non exclusive”, c’est-à-dire qu’ils s’autorisent à l’utiliser les contenus déposés selon les dispositions définies dans les conditions d’utilisation, mais sans enlever le droit d’auteur au propriétaire de l’image.

Celui-ci peut proposer ses images sous licence, ou les céder à une autre entité sous ses propres conditions. La licence non exclusive est une pratique courante dans le monde des réseaux sociaux, mais son application varie d’une plate-forme à l’autre.

Le droit suisse reconnait la pratique est l’usage de ces contrats de licences par lesquels l’utilisateur d’un bien immatériel donne à autrui la totalité ou une partie de la jouissance du bien tout en restant titulaire des droits. Très souvent mentionnés[1], mais non définis dans le code des obligations, ces contrats de licence sont un droit innomé définit par la jurisprudence[2].  

2.    Facebook et le droit d’auteur de l’utilisateur

Dans le cas de Facebook, sa “déclaration des droits et responsabilités”[3] donne l’information suivante :

 Art. 2 – Partage de votre contenu et de vos informations

Le contenu et les informations que vous publiez sur Facebook vous appartiennent, et vous pouvez contrôler la façon dont nous partageons votre contenu, grâce aux paramètres de confidentialité et des applications. En outre :

  1. Pour le contenu protégé par les droits de propriété intellectuelle, comme les photos ou vidéos (propriété intellectuelle), vous nous donnez spécifiquement la permission suivante, conformément à vos paramètres de confidentialité et des applications : vous nous accordez une licence non-exclusive[4], transférable[5], sous-licenciable[6], sans redevance[7] et mondiale pour l’utilisation des contenus de propriété intellectuelle que vous publiez sur Facebook ou en relation avec Facebook (licence de propriété intellectuelle). Cette licence de propriété intellectuelle se termine lorsque vous supprimez vos contenus de propriété intellectuelle ou votre compte, sauf si votre compte est partagé avec d’autres personnes qui ne l’ont pas supprimé.
  2. Lorsque vous supprimez votre contenu de propriété intellectuelle, ce contenu est supprimé d’une manière similaire au vidage de corbeille sur un ordinateur. Cependant, vous comprenez que les contenus supprimés peuvent persister dans des copies de sauvegarde pendant un certain temps (mais qu’ils ne sont pas disponibles).

En d’autres termes, l’auteur reste propriétaire de ses images, textes ou vidéos, mais accorde à Facebook le droit de les utiliser gratuitement et comme bon lui semble, y compris céder leurs droits d’utilisation à un tiers contre rémunération. Cependant, une fois les fichiers retirés, la licence non-exclusive prend fin et Facebook ne peut plus les utiliser[8]. Les fichiers peuvent encore rester un certain temps sur les serveurs en attente d’être effacés, mais ne seront plus en ligne ni utilisés par Facebook[9].

3.    Utilisation des contenus par Facebook

Facebook donne quelques indications sur la manière dont ces contenus (images, mais aussi textes ou vidéos) pourraient être utilisés.

Il y a tout d’abord la définition que donne l’art. 18 al. 7[10] de la déclaration des droits et responsabilité du mot “utiliser” :

 “Par « utiliser » ou « utilisation », nous entendons l’utilisation, l’exécution, la copie, la diffusion ou l’affichage publics, la distribution, la modification, la traduction et la création de travaux dérivés”.

De même, l’article 10 de cette même déclaration précise que :

 Art. 10 – À propos des publicités et d’autres contenus commerciaux diffusés par Facebook

Notre objectif est de proposer des publicités, et d’autres contenus commerciaux ou sponsorisés, de façon avantageuse pour nos utilisateurs et nos annonceurs. Pour nous aider à y parvenir, vous acceptez les conditions suivantes :

  1. Vous nous autorisez à utiliser vos nom, photo de profil, contenu et informations dans le cadre d’un contenu commercial, sponsorisé ou associé (par exemple une marque que vous aimez) que nous diffusons ou améliorons. Cela implique, par exemple, que vous autorisez une entreprise ou une autre entité à nous rémunérer pour afficher votre nom et/ou la photo de votre profil avec votre contenu ou vos informations sans vous verser de dédommagement. Si vous avez sélectionné un public spécifique pour votre contenu ou vos informations, nous respecterons votre choix lors de leur utilisation.
  2. Nous ne donnons pas votre contenu ou vos informations aux annonceurs sans votre accord.

En résumé, Facebook informe l’utilisateur, qui donne son accord en signant la déclaration des droits. Facebook est donc libre d’utiliser commercialement le contenu mis à disposition par l’utilisateur pour le revendre.

 4.    Le droit d’auteur et la relation utilisateur à utilisateur sur Facebook

Ces règles définissent les relations qui lient l’utilisateur à l’entreprise Facebook elle-même. Mais quelles sont les règles d’utilisation des contenus entre utilisateurs ? Dans ce cadre, on en revient à une stricte application du droit d’auteur/copyright[11] tel que définis dans les législations nationales et leur application internationale par la convention de Bern de 1971[12].

Il faut donc bien comprendre cette double couche légale en matière de réutilisation des contenus à l’intérieur du réseau social Facebook (comme dans d’autres) :

 –       La relation utilisateur – Entreprise (ici Facebook), définie par la licence non exclusive

–       La relation utilisateur – utilisateur, qui s’exerce dans le cadre du droit d’auteur

Conclusion

 –       Utiliser des images sur Facebook n’empêche pas l’institution de les utiliser par ailleurs. Facebook s’arroge tous les droits y compris celui de les vendre, mais l’institution conserve ses droits et peut faire de même de son côté en vertu de la licence non exclusive.

 –       Les contenus placés sous une licence Creative Commons permettant une réutilisation commerciale (telle que la licence CC0[13]) sont tout indiqués pour une publication sur Facebook. Les contenus libérés sur le web selon cette approche ont le mérite d’offrir les mêmes conditions d’utilisation pour les utilisateurs et Facebook.

 –      Il faut veiller à ne pas poster sur Facebook des contenus sur lesquelles l’institution  n’a pas le droit d’auteur En effet, en vertu de sa “politique d’utilisation des données”, Facebook ne sera pas tenu de respecter le droit d’auteur ou un CC-BY exigé par un donateur. Facebook serait en position de revendre les droits en privant leur légitime propriétaire des redevances associées. Celui-ci pourrait alors se retourner contre l’Etat pour leur mise en ligne sur Facebook.


[1] Exemple art. 62, al. 3 LDA (http://www.admin.ch/opc/fr/classified-compilation/19920251/index.html#a10 consulté le 24 février 2014).

[2] Mercedes Novier, “La propriété intellectuelle en droit international privé suisse”, Genève, Droz, 1996, p. 179 et suivantes (http://goo.gl/o7wJbK consulté le 24 février 2014).

[4] C’est-à-dire que Facebook et l’utilisateur possèdent simultanément les droits sur cet objet. Si la licence était exclusive, seul Facebook posséderait les droits.

[5] Facebook peut transférer les droits d’utilisation de votre contenu à qui il veut.

[6] Facebook peut octroyer une licence d’utilisation de votre contenu à qui il veut.

[7] Facebook ne nous versera aucune redevance.

[8] Facebook avait tenté de transformer ce droit d’utilisation temporaire en une licence perpétuelle en février 2009 avant de faire machine arrière quelques semaines plus tard devant le tollé provoqué. 

[9] Un certain nombre de points restent nébuleux, notamment la durée de réutilisation par des tiers des contenus sous licenciés ou vendus par Facebook à des tiers.

Médiation numérique en archives

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

par Anouk Dunant Gonzenbach

Il y a plusieurs mois, le thème de la médiation numérique en bibliothèque était à l’honneur des discussions des forums professionnels et des réseaux sociaux. Qu’en est-il pour les institutions d’archives ? En creusant la question, il me semble que non seulement nous sommes largement concernés par cette question, mais qu’il relève carrément de notre devoir de mettre en place ce genre de chose !

Google permet-il de faire une recherche historique? Est-il encore nécessaire de se rendre aux Archives? Tous les documents des Archives sont-ils accessibles en ligne? Comment se repérer dans un inventaire d’archives? Quels documents sont conservés aux Archives?

Même si on voulait ne s’adresser qu’au monde très pointu des chercheurs expérimentés (mais on est d’accord, hein, ce n’est pas ce que l’on veut) déjà on remarquerait qu’il y aurait moyen de les accompagner sur les outils numériques mieux qu’on ne le fait actuellement.

Donc allons-y, proposons de la médiation numérique. Objectif de l’année (flashback sur janvier 2013). Comment commencer ? Il faut déjà identifier le public-cible. Imaginer un module destiné aux étudiants en histoire dont le séminaire se déroule aux Archives, et un module « public élargi » à l’intention des personnes fréquentant la salle de lecture, pour commencer. Les objectifs ? Présentation des différentes possibilités de recherche, aide pour la préparation d’une session de travail aux archives et pour se repérer dans les différentes institutions d’archives, recherche dans la base de données et consultation optimale des documents numérisés. Nous avons commencé par quelques réflexions sur le module destiné aux étudiants. Par où commencer, ou plutôt sur quelles connaissances préalables des étudiants peut-on s’appuyer ? Nous avons toujours tendance à penser, puisque nous sommes dans notre institution jusqu’au cou, que tout est clair pour tout le monde. Grave erreur à mon avis. On s’y met donc à plusieurs. Le module voit le jour.

Une première partie est consacrée à la présentation de l’institution, brièvement à son histoire, aux missions de l’archiviste ainsi qu’aux principales sources conservées. Confirmation, ce n’était pas clair dès le départ pour tout le monde.

image

Passons aux  outils numériques, mais on commence simplement en présentant le site web institutionnel et ses ressources (par exemple les news, les horaires d’ouverture des différents dépôts, un état général des fonds statique). Je le précise tout de suite, on n’est pas encore sur Facebook, les voies de l’administration sont parfois impénétrables.

Puis vient la présentation de la base de données de descriptions de documents (les inventaires, en fait). Nous expliquons que les inventaires sont saisis sur notre base depuis 1986 et qu’il y a assez peu de saisie rétroactive des inventaires papier (manuscrits et tapuscrits). Ainsi, on ne peut pas partir du principe que tous les documents sont décrits dans la base de données. De plus, cette base de données, au départ uniquement utilisée en interne, a été ouverte au public en 2006 ; les descriptions contenant des données personnelles ne sont pas accessibles au public. Il est important aussi de préciser que ce n’est pas parce qu’une description se trouve sur internet que le document ou le dossier est forcément consultable (il faut donc expliquer les bases légales relatives à la consultation des documents).

Ces points posés, on peut maintenant faire une démonstration de la manière d’effectuer une recherche. Et là, difficulté, comment éviter de parler du concept de fonds d’archives ? A ce stade, pas possible de reculer, il faut simplifier le propos et définir le fonds. Ce qui en l’état actuel de nos bases de données est évidement important pour le lecteur ou l’étudiant qui voudra approfondir une recherche (notre base de données permet la recherche par fonds, par thème ou mot-clé et par cote).

image

Nous expliquons également comment fonctionne la réservation en ligne d’un document (il est possible de le faire sortir en salle de lecture pour un jour précis mais évidemment pas de l’emprunter).

Ensuite, nous montrons comment consulter les images numérisées en précisant les choix et priorités de numérisation des séries.

image

Je passe les autres détails, mais il y a certains points clés sur lesquels nous avons insisté. Je pense que ces messages sont très importants à faire passer :

  • Ce n’est pas parce qu’une recherche dans un base de donnée d’archives ne donne aucun résultat qu’il n’y a pas de documents concernant cette recherche.
  • Ce qui est sur internet est un sous-ensemble de la base de données métiers.
  • Ce n’est pas parce que ce n’est pas sur internet que ça n’existe pas.
  • Seule une petite proportion de nos documents est numérisée.
  • Le contenu des images numérisées ne peut pas être recherché à travers Google (pas – encore- d’OCR sur les images numérisées).

Un retour ? les étudiants prennent même des notes ! Et relèvent l’URL du site institutionnel inscrit en tout gros sur une slide (il faut partir des basiques, c’est décidément certain).

Je pense qu’il y a plusieurs suites à donner à l’évolution de ce genre de projet. Tout d’abord, continuer à faire de la médiation numérique pour le public qui fréquente la salle de lecture. Ensuite faudrait-il peut-être aller à l’Université plus systématiquement dans des séminaires d’histoire, utilisateurs ou non notre institution d’archives. Utiliser et promouvoir le compas d’Infoclio dans le domaine des compétences informationnelles.

Il y a également la question de la médiation numérique en ligne. Là, nous sommes en train de préparer une ébullition de méninges à ce sujet dans la région des archivistes du grand Genève (!), à suivre.

Et puis la question de l’ouverture des archives à d’autres publics. Nos outils sont orientés métier, et quand il s’agit d’expliquer dans les détails le fonctionnement de notre base de données on se rend bien compte que le contenu n’est pas accessible facilement. Nous adapter ? Essentiel.

Et vous, des expériences de médiation numérique en archives ?

Métadonnées intégrées aux images numérisées, partie 2: le choix de deux institutions publiques genevoises

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

Par Xavier Ciana, Emmanuel Ducry et Anouk Dunant Gonzenbach

Voici le second billet consacré aux métadonnées intégrées aux images numérisées.  Après un précédent panorama des principaux standards de métadonnées, celui-ci présente les choix effectués par deux institutions publiques genevoises en matière de métadonnées images.

Dans le cadre de la diffusion d’archives numérisées (de documents anciens dont les originaux sont conservés),  les deux objectifs principaux qui motivent l’intégration de métadonnées dans des images sont d’identifier la provenance des documents et d’informer sur les conditions d’utilisation.

L’identification ne pose pas de problèmes lorsqu’un document numérisé est consulté dans son contexte, en général sur le site web de l’institution qui l’a numérisé. Par exemple, lorsqu’un registre d’état civil est consulté sur le site d’une collectivité publique, l’interface de consultation servant d’outil de recherche fournit les informations nécessaire à l’identification du registre original ainsi que les éléments de contexte nécessaires à sa compréhension (provenance, date, etc.).

Mais que se passe-t-il lorsqu’un document – ou une partie de celui-ci – est extrait de son contexte puis republié? C’est un axiome du monde numérique : tout document qui peut être lu peut être copié et reproduit. En général, plus un document suscite de l’intérêt, plus il est reproduit et partagé. Et plus les copies sont nombreuses, plus la probabilité est forte que les informations qui accompagnaient le document lors de la publication initiale soient laissées de côté. C’est ici que les métadonnées intégrées jouent un rôle : lorsqu’une personne copie une image avec des métadonnées, elle reproduit également, même sans le savoir, des informations sur cette image.

Les métadonnées intégrées permettent donc de signaler l’institution qui a numérisé une image ainsi que d’identifier cette image sans ambiguïté (grâce à une cote ou un identifiant unique).  Sans informations d’accompagnement ni métadonnées intégrées, il  peut être extrêmement difficile de retrouver  le fonds ou  le dossier  d’origine d’une image isolée.

Le choix des métadonnées liées aux conditions d’utilisation feront l’objet d’un prochain billet.

  • Métadonnées images retenues par les archives d’Etat de Genève

Le choix de départ s’est évidemment porté sur les deux catégories de métadonnées liées aux images numérisées: les métadonnées  Exif et les métadonnées IPTC.

IPTC
Ce type de métadonnées sert en premier lieu à identifier l’institution et à gérer les droits d’utilisation. Les noms du pays, du canton et de l’institution qui met à disposition ses images et qui conserve les originaux est indispensable pour leur identification. En revanche, s’il est prévu de mettre à disposition les images pendant une longue durée, les métadonnées susceptibles de changement sont peu intéressantes à compléter (par exemple l’adresse web ou email de l’institution). Une recherche sur le nom d’une institution permet de retrouver facilement ces informations susceptibles de changer régulièrement.

On constatera qu’aucune cote ou identifiant unique ne figure par parmi ces champs. Dans le cas de ce projet, cette information apparaît uniquement dans le nom du fichier. Ce n’est peut-être pas une solution idéale, mais intégrer la cote dans les  métadonnées IPTC aurait nécessité un post-traitement qui devait être évité dans le cadre de ce projet.

EXIF
Le cas des métadonnées EXIF est un peu particulier. Ces métadonnées techniques relèvent en définitive plus de la conservation à long terme que de la diffusion. Toutefois, tous les appareils d’imagerie numérique produisent ces métadonnées.  Faut-il les conserver ou les supprimer ? Leur taille étant négligeable en regard du poids des images, il a été décidé de les garder. Mais quelles métadonnées EXIF sélectionner parmi le vaste panel proposé par ce modèle ? Quelques contacts menés auprès de diverses institutions ont démontrés des pratiques assez aléatoires. Généralement, on se contente des réglages installés par défaut sur la machine. La question est d’autant plus difficile que l’on entre dans un domaine technique qui devient vite pointu et avec lequel les photographes ont souvent plus d’affinités que les archivistes.

Pour répondre à cette question, la norme américaine Z39.87 “Data Dictionnary – Technical Metatata for Still Image”, qui offre un jeu de métadonnées pour la gestion tout au long du cycle de vie des images “pixellisées” (bitmap ou raster), a servi de point de départ. Cette norme n’est d’ailleurs pas sans lien avec le modèle PREMIS, ce qui est intéressant dans le cas d’une éventuelle réutilisation de ces métadonnées internes. A partir de là, une table d’équivalence entre la version “trial 2002” de cette norme et les spécifications EXIF 2.2 a été utilisée pour identifier  les champs permettant de répondre aux exigences Mandatory (M), Mandatory if Applicable (MA) ou Recommend ® de Z.39.87. Attention, il n’existe pas systématiquement un champ EXIF pour répondre aux exigences de la norme. Certains champs retenus peuvent ainsi ne pas être renseignés. La norme n’est donc pas entièrement respectée, mais on s’en rapproche le plus possible. A partir de là, un jeu de métadonnées techniques minimales a été choisi à l’aide des champs EXIF.

Métadonnées retenues:

image

image

  • Métadonnées images retenues par les archives de la Ville de Genève

XMP
Un des principaux choix à effectuer est le standard à utiliser pour intégrer les métadonnées (IPTC, Exif ou XMP). XMP a été retenu pour les avantages que présente ce format (basé sur XML et RDF, extensible, standard récent) mais également car c’est le seul des trois standards qui permet d’intégrer des métadonnées dans des fichiers qui ne sont pas des images, notamment des PDF. Dans le cadre d’un projet de numérisation, XMP rend possible l’utilisation des mêmes éléments de métadonnées quel que soit le type de fichier produit (JPG et PDF par exemple).

Dublin Core
A l’intérieur d’XMP les métadonnées peuvent être exprimées à l’aide de différents schémas (IPTC Core, Dublin Core, schéma photoshop etc.). Il est donc nécessaire de faire des choix parmi ces standards. Un nombre limité d’éléments Dublin Core a été retenu car ils semblaient bien répondre aux objectifs de base (identifier les images et donner le statut juridique).

Métadonnées retenues:

image

Le jeu de métadonnées Dublin Core est assez central dans XMP, en effet les informations de description élémentaires sont souvent signalées à l’aide de ce schéma. IPTC Core s’appuie également sur certains éléments Dublin Core. Ainsi, plutôt que de créer un nouvel élément ad hoc  pour le titre d’une photographie, IPTC Core recommande l’utilisation de l’élément « titre » de Dublin Core (dc:Title). Puisqu’ils sont fréquemment utilisés, ces éléments Dublin Core sont plutôt bien reconnus et ils ont d’autant plus de chances d’être lus par les différents logiciels de visualisation d’images. Les nombreux logiciels qui reconnaissent les métadonnées IPTC Core seront donc capables d’afficher (au minimum) les éléments communs à Dublin Core et IPTC Core (voir ci-dessous).

image

Références

  • Pour les réflexions qui ont mené à ces études et à la rédaction de ce billet, nous nous sommes aussi inspirés du blog S.I.Lex à lire et là.

Métadonnées intégrées aux images numérisées : partie 1

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

Par Xavier Ciana, Emmanuel Ducry et Anouk Dunant Gonzenbach

Lors d’un projet de numérisation de documents, il est nécessaire de se pencher sur la question des métadonnées images pour des raisons de gestion documentaire, de droits d’accès, de recherche, d’identification du document, etc.

La problématique abordée ici concerne la numérisation de documents ou registres patrimoniaux à des fins de diffusion. C’est un point qu’il vaut mieux en effet aborder dès le début d’un projet de numérisation. Dans le cas présent, il s’agit d’un projet qui a débuté en 2006 et à cette époque, nous n’avions pas imaginé normaliser ces métadonnées. Ce besoin s’est ensuite fait ressentir et c’est pourquoi nous proposons aujourd’hui cette réflexion.

En Suisse romande, il n’y a pas d’harmonisation des pratiques concernant les métadonnées liées aux images numérisées diffusées en ligne par des institutions d’archives. De plus, on constate que la littérature professionnelle sur le sujet du point de vue archivistique n’est pas complètement aboutie.

La question de ce type de métadonnées sera abordée en 4 billets:

1. Panorama des principaux standards en matière de métadonnées intégrées aux documents numérisés (ci-dessous)
2. Liste des métadonnées retenues par deux institutions publiques genevoises dans le cadre de leurs projets de numérisation
3. Le choix du droit d’utilisation des images
4. Retour d’expérience par rapport à ces choix

LES STANDARDS DES METADONNEES
Les trois standards majeurs en matière de métadonnées intégrée aux images sont :

IPTC-IIM
L’IPTC (International Press Telecommunications Council) développe au début des années 1990 l’Information Interchange Model (IIM), qui est une structure et un jeu d’attributs de métadonnées applicable à des fichiers texte, des images et d’autres types de média. En ce qui concerne les images, les attributs prévus par le modèle IPTC-IIM comportent par exemple : le créateur, le titre, la date, des informations géographiques (pays, région, ville) ou des éléments de description (mots-clés, légende). Au milieu des années 1990, les logiciels d’Adobe – notamment Photoshop – ont permis d’intégrer ces éléments directement dans les fichiers images. Cette façon de faire a dès lors connu un large succès, de nombreuses images ont été « augmentées » de métadonnées et aujourd’hui encore, beaucoup de logiciels de visualisation ou de retouche photographique permettent d’afficher et de modifier ces informations. Par commodité de langage, celles-ci sont généralement appelées « métadonnées IPTC » ou « en-têtes IPTC / IPTC headers ».
A l’heure actuelle, cette manière d’intégrer  les attributs IPTC-IIM directement dans les images est en passe de devenir obsolète, en effet, les auteurs du modèle IPTC-IIM recommandent maintenant d’utiliser le standard XMP pour inclure ces attributs dans des fichiers.

EXIF
Etablie à l’origine par le Japan Electronic Industry Development Association (JEIDA), l’Exif (Exchangeable image file format) est une spécification de formats de fichiers pour les images et sons produits par les appareils photographiques numériques. Cette spécification repose sur des formats existants (tels que JPEG et TIFF pour les images ou RIFF WAV pour les fichiers audio), et y ajoute des balises de métadonnées. Les métadonnées Exif sont typiquement générées automatiquement lors de la création d’une image, c’est-à-dire par l’appareil photo au moment de la prise de vue. La très grande majorité des métadonnées Exif sont techniques, il s’agit d’éléments tel que la taille de l’image, la résolution, la compression ainsi que des données concernant la prise de vue : la date, le temps de pose, la distance focale, l’utilisation d’un flash,  ou encore la position GPS de l’appareil. Le grand avantage des métadonnées Exif est l’automatisation : la plupart des appareils photographiques numériques (notamment les smartphones) créent des données Exif dans les images, même sans aucune intervention de l’utilisateur. De plus, les métadonnées Exif sont largement reconnues et peuvent être lues et affichées par un grand nombre de logiciels de traitement d’images et ceux-ci conservent généralement les données Exif lors des modifications successives des fichiers. Enfin certains sites web exploitent également de manière automatique les métadonnées Exif présentes dans les images, notamment les coordonnées GPS. 

XMP
En 2001, Adobe introduit l’ “Extensible Metadata Platform” (XMP), un standard basé sur XML  et RDF, qui permet d’intégrer des métadonnées dans plusieurs formats de fichiers (TIFF, JPEG, JPEG 2000, PDF, PNG, HTML, PSD etc.). XMP est extensible et peut donc accueillir n’importe quel type de métadonnées du moment que celles-ci sont exprimées en XML. Dès l’origine, XMP incorpore un certain nombre de standards de métadonnées, un des plus importants étant certainement Dublin Core, qui permet d’accueil des métadonnées élémentaires tel qu’auteur, titre, identifiant, date ou encore des informations sur les droits d’auteurs du document. « IPTC Core » est un autre des schémas majeurs inclus dans XMP, il permet d’utiliser les attributs du modèle ITPC-IMM (décrit ci-dessus) à l’intérieur d’XMP. Le schéma « IPTC Core » fait  donc d’XMP le successeur officiel aux métadonnées IPTC.
Un dernier exemple de schéma pouvant être intégré à XMP est VRACore, un standard destiné à la description des objets ou œuvres d’arts représentés dans des photographies. VRACore n’est pas centré sur le fichier image, mais sur l’œuvre originale. Ce standard permet notamment d’en décrire l’auteur, la  taille, les matériaux ou techniques de création, ainsi que signaler le musée ou l’institution qui conserve l’objet original.  
Le champ couvert par les métadonnées XMP est donc très large et comporte aussi bien des informations de description, notamment via Dublin Core, que des données techniques ou encore des éléments de gestion de droits d’auteur ou de workflow.
L’intégration de métadonnées à des images grâce à XMP est intéressante à plusieurs titres : comme les données sont en XML/RDF elles peuvent être exploitées à l’aide d’outils standards. En outre de plus en plus de logiciels récents (notamment Windows 7) sont capables d’afficher et d’exploiter les métadonnées XMP. Enfin, si une institution à des besoins spécifiques, il lui est possible d’intégrer ses propres modèles de métadonnées dans XMP.

Cohabitation des standards
Techniquement, des éléments provenant des trois standards (IPTC-IIM, Exif et XMP) peuvent figurer dans un même fichier sans aucun problème.
Au niveau du contenu des métadonnées, les choses ne sont pas aussi simples : en effet certaines informations peuvent être répétées dans les trois standards, notamment des éléments de base tels que le créateur d’une image, sa date ou encore son droit d’utilisation. Si plusieurs standards sont utilisés simultanément, il est alors nécessaire d’assurer la cohérence des contenus afin d’éviter les disparités (par exemple un même fichier avec une date de création dans Exif et une date différente dans XMP).  Le Metadata Working Group, une coalition réunissant notamment Adobe, Apple et Microsoft, a émis des recommandations afin d’assurer la cohérence et la préservation des métadonnées lors de l’utilisation simultanée de plusieurs standards.

De multiples scénarios de cohabitation sont possibles : un même fichier peut par exemple contenir des métadonnées techniques issues du scanner dans Exif tandis que les métadonnées de description et celles relatives au droit d’auteur sont exprimées dans XMP. Comme on peut le constater dans le schéma ci-dessous, il est également possible de regrouper l’ensemble des données ITPC ou Exif dans XMP.
image

CC-BY

Comment lire les métadonnées ?
Les métadonnées peuvent être à ajoutées à des images dans un but interne à une institution (description, processus de travail etc.), ou dans un but externe (enrichir les informations lors la diffusion). Quelles que soient les raisons initiales qui justifient l’intégration de ces informations à des fichiers images, il est évidemment souhaitable que celles-ci puissent être lues par les plus grand nombre de personnes qui vont consulter ou réutiliser ces images. Cette lecture dépend des logiciels utilisés pour visualiser les images. Si la majorité des logiciels de gestion et traitement de photographies sont capables de lire et de modifier les métadonnées intégrées, ce n’est pas le cas de tous les systèmes d’exploitation et logiciels généralistes. Windows XP utilise son propre système de métadonnées et de commentaires ad hoc appelé “Alternate Data Streams (ADS)” et peut uniquement lire un nombre restreints d’éléments Exif. Pour un utilisateur de Windows XP, la quasi-totalité des métadonnées intégrées dans une image seront donc invisibles. Le support pour lire les métadonnées « de base » (auteur, titre, date, droits, etc.) est meilleur dans les systèmes d’exploitation plus récents. Dans Windows 7, certains éléments des métadonnées issus des trois standards sont directement affichés dans l’explorateur ou figurent dans l’onglet « détail » de chaque fichier. Windows 7 est également capable de faire des recherches dans les métadonnées intégrées. Mac OS X permet lui aussi (dès la version 10.6) de rechercher dans les métadonnées et le logiciel « Aperçu » (utilisé par défaut pour ouvrir les images) affiche des éléments provenant des trois standards.
image

Eléments de métadonnées affichés par l’explorateur Windows 7.
Le nom affiché ci-dessus sous « Auteurs » a été intégré à l’image grâce au standard XMP, dans l’élément Dublin Core « creator ».

Références

Education numérique

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

Petit cri du cœur au sujet de l’éducation numérique. En effet, à force de  mener des réflexions sur la gouvernance des documents électroniques et leur archivage à long terme, en tant que professionnelle de l’information et en tant que parent, pour moi il tombe quand-même sous le sens qu’il faudrait commencer par éduquer les enfants à la chose numérique.

Quand on pense enfants, on pense dangers des réseaux sociaux, mauvaise utilisation d’internet et contrôle parental. Mais il n’est pas possible ni souhaitable de contrôler tout ce que font nos enfants, comme pour les autres choses de la vie. Il est donc plus pertinent d’éduquer les enfants au bon usage du web et de les responsabiliser.

Comme pour la sensibilisation à l’environnement par exemple, on peut aussi présenter les choses de manière positive. Internet est un outil génial pour autant qu’on l’utilise correctement. D’où l’éducation numérique et l’éducation à l’identité numérique.

Or en Suisse et à Genève, ce sujet n’est pas du tout abordé à l’école. Cela fait deux ou trois ans que je réfléchis à la question et je suis entièrement d’accord avec le professeur Jean-Henry Morin (Université de Genève) dont j’ai fait la connaissance lors d’un cours et qui résume la situation en ces termes : il manque un portage politique de la chose numérique au niveau national. Nous avons un déficit de stratégie numérique, et cela dès la petite enfance.

Pour moi, l’éducation à internet peut s’envisager sous les axes suivants :

  • ce qu’est le web
  • comment effectuer une recherche sur internet ; comment traiter l’information trouvée
  • qu’est-ce que sont les réseaux sociaux, comment se comporter sur les réseaux sociaux
  • comment publier du contenu (site, blog) : aspects techniques et processus
  • les jeux virtuels
  • l’identité numérique / la protection des données

Je reviendrai régulièrement sur ce sujet qui est à la croisée de la vie professionnelle et privée, en espérant présenter un projet d’éducation numérique dans une école.

En attendant, voici un petit film belge sur l’identité numérique (Merci Jean-Henry Morin !): Dave le voyant aux pouvoirs paranormaux

Mon institution d’archives sur Facebook?

Tweet about this on TwitterShare on FacebookShare on LinkedInEmail this to someone

Par Anouk Dunant Gonzenbach

Récemment, le café de la République numérique, qui est un nouveau format de rencontre et d’échange proposé aux collaborateurs de l’administration genevoise  (rencontre avec sandwich pendant la pause de midi)  a eu pour thème: Secteur public: faut-il avoir peur des réseaux sociaux?

Stéphane Gilliéron, chef de  projet média et communication 2.0 à l’Etat du Valais, est venu présenter de manière décoiffante la stratégie et les objectifs de l’administration valaisanne relatifs à sa présence sur les réseaux sociaux. Le résumé de son exposé se trouve sur le site de l’OT Lab (Laboratoire d’usages des administrations à l’ère d’internet).

Stéphane Gilliéron a dressé un panorama des réseaux sociaux, qui ne se limitent pas à Twitter et Facebook, mais l’idée est ici de faire ressortir quelques points de son exposé sous l’angle “les services d’archives et Facebook”. En effet, il est devenu presque incontournable pour les bibliothèques d’ouvrir un profil Facebook et les institutions d’archives ont l’air de commencer à s’y mettre, on peut prendre comme exemple les Archives départementales de l’Ain, très actives sur ce réseau social.

– Un pré-requis général pour une administration est la nécessité d’instaurer des directives (policies) sur l’usage des réseaux sociaux par ses collaborateurs. Sans que l’institution soit elle-même sur un réseau social,  une majorité de ses collaborateurs y sont présents et cela peut poser des problèmes déontologiques (fonctionnaires qui s’expriment sur une loi qui les concerne, par exemple).  Le département de la justice de l’Etat de Victoria, Australie, a réalisé un petit film d’animation extrêmement bien pensé expliquant aux employés du gouvernement les éléments clés de leur “social media policy”, à voir ici

– L’administration doit également se doter au plus haut niveau d’une charte d’utilisation et de directives relatives aux services de l’administration présents en tant que tels sur Facebook (exemple du gouvernement de la Catalogne).

– La question des ressources: Une institution d’archives publiques, qui quasiment par définition est en manque de ressources, peut-elle se permettre  de consacrer du temps à initier, alimenter des statuts Facebook et y maintenir sa présence? Je pense qu’on pourrait retourner le problème dans l’autre sens: les services d’archives consacrent déjà du temps à leur site internet, pour publier des actualités,  rédiger un avertissement lorsque la salle de lecture est temporairement fermée, etc. Est-ce que ce temps serait mieux investi si davantage de lecteurs avaient accès à ces informations? Il est douteux que les étudiants en histoire passent leur temps à consulter le site internet d’une institution d’archives pour savoir si par hasard la salle de lecture devait fermer plus tôt tel ou tel jour ou si une nouvelle exposition devait être sur le point d’être inaugurée. Souvent, les lecteurs peuvent s’inscrire pour recevoir les “news” par email, mais le courrier électronique n’est pas  ce qui est le plus utilisé par les universitaires.

– La question du plan de communication: le plan de communication, tout comme la planification des ressources, est à prévoir dès le départ (dans l’administration valaisanne, un service doit satisfaire à ces deux critères avant de pouvoir entrer sur Facebook). La publication d’actualités concernant l’institution suffit-elle, ou est-il nécessaire également d’être plus actif et de relayer des informations concernant l’université, des liens vers des sites historiques, etc.? La question des ressources revient ici évidemment, mais il me semble qu’un service d’archives qui publie régulièrement des actualités sur son site internet et a déjà un plan de communication pourrait également le transposer sur Facebook.

Du moment que nous avons le contenu, des actualités régulières, alors peut-être que oui, il faudrait avoir une présence sur Facebook, histoire de continuer le dépoussiérage et de valoriser un peu plus le travail que nous effectuons. La conclusion générale de Stéphane Gilliéron est un immense encouragement à aller de l’avant (dans le cadre de procédures-cadres adoptées par l’administration), à dépasser les craintes, afin d’améliorer les prestations de l’administration. Selon lui, ce serait vraiment dommage de ne pas utiliser les réseaux sociaux pour mieux communiquer, permettre le mode “conversationnel” et assurer une meilleure visibilité et transparence des services publics.