entête
entête

Lire sur internet, est-ce toujours lire ?

Thierry Baccino

Il y a plus de 5 000 ans l’homme inventait l’écriture et, au cours des siècles, le support d’écriture (tablettes, volumen, codex ou livre imprimé) se révéla toujours très stable, dans le sens où ce support ne modifiait pas la forme des textes au cours de la lecture. Cette stabilité facilitait notamment la mise en place de stratégies de lecture ou d’inspection visuelle. Or, depuis une trentaine d’années, le texte a tendance à proliférer sur des supports extrêmement variés : e-books, tablettes, smartphones, ordinateurs… qui modifient cette stabilité (le texte devenant dynamique) et entraînent une évolution de notre rapport à l’écrit et à la lecture. Mais sommes-nous capables de faire face à ces formes de lecture différentes et adapter nos capacités mentales ? Rien n’est moins sûr.

Est-ce toujours de la lecture ?

D’abord, est-ce toujours de la lecture ? Les métaphores poétiques ont fleuri pour désigner cette nouvelle activité. On parle de butinage, de surf ou de navigation, je la qualifierai plutôt de pseudo-lecture. Pseudo car surfer sur les pages du web mêlant articles courts, vidéos, audio, animations de toutes sortes n’est pas similaire à une lecture attentive et profonde, que l’on pratique sur un livre imprimé. Sur le web, le lecteur balaie rapidement les titres, initiant une lecture rapide, mais son attention est imparablement attirée par d’autres informations qui apparaissent en simultané et qui peuvent ou non avoir une pertinence pour lui. Le développement des communications actuelles par Twitter ou SMS ne fait qu’accroître le problème. Problème, pourquoi ? Parce qu’une des propriétés essentielles de l’esprit humain consiste à sélectionner les informations qui lui sont nécessaires pour agir, comprendre, raisonner ou mémoriser. Cette propriété est l’attention : mécanisme complexe mais ô combien facilement manipulable.

Le patchwork informationnel des pages du web, de certains manuels scolaires ou magazines, disperse l’attention du lecteur (les psychologues parlent d’attention partagée), rendant la compréhension et la mémorisation plus difficiles. Faites vous-mêmes l’expérience : recherchez une notion sur internet et laissez-vous guider par les pages que votre moteur de recherche identifiera. Au fur et à mesure de votre « navigation », il y a de fortes chances que vous soyez distraits par une information qui n’a peut-être rien à voir avec la notion recherchée et que vous voudrez approfondir sur le champ. Du coup, cela vous éloignera de plus en plus de la notion initiale. L’attention que vous apportiez à la recherche de votre notion a été simplement court-circuitée, d’une manière très simple, en vous fournissant d’autres informations en parallèle. C’est en cela qu’elle est facilement manipulable. Les prestidigitateurs, les camelots, l’ont compris depuis longtemps mais, plus récemment, ce sont les commerciaux de l’internet qui l’ont redécouvert. La conséquence est l’ajout de fenêtres clignotantes, de publicités apparaissant inopinément sur une page, d’e-mails « spammant » votre boîte aux lettres électronique, e-mails dont le seul objectif est d’attirer votre regard et capter une parcelle de cette ressource cognitive très labile, votre attention. Bien sûr, le but ultime est de forcer l’achat d’un produit. Sur ce nouveau marché, il est d’ailleurs assez frappant d’observer à quel point la connaissance n’a plus vraiment de valeur marchande comme autrefois (celle-ci est souvent disponible gratuitement par le biais d’encyclopédies en ligne), et que la plus-value est réalisée par le captage de l’attention de l’internaute (que l’on rétribue sous la forme de nombre de clics sur un bouton…). Or, ces procédés, capteurs d’attention, s’affichent à peu près partout. Sur les sites marchands bien sûr, mais également sur les encyclopédies, les livres électroniques et les documents qui sont transmis par le web, et cela perturbe fortement la gestion des informations par le lecteur. Tout se passe comme si l’utilisateur d’internet avait plusieurs cerveaux et pouvait gérer de grandes quantités d’information en parallèle. Ce n’est pas le cas ! Notre capacité à effectuer des doubles/triples tâches est très limitée.

Dans le champ de la lecture, un exemple frappant de cette gestion difficile d’informations massives facilement disponibles est l’hypertexte. L’idée du départ était louable : rendre disponibles par le biais de liens toutes les informations associées de près ou de loin à une notion. Le lecteur était de plus libre de choisir lui-même son mode de lecture, allant du général vers le plus spécifique (il traçait son chemin dans l’hypertexte). Les limites sont vite apparues : la multiplicité des niveaux entraîne souvent une perte de l’objectif initial de lecture (appelée désorientation cognitive). Le lecteur ne sait plus où il est après avoir digressé dans l’hypertexte. Cette perte du but est d’autant plus forte que le lecteur n’a pas une connaissance établie du contenu du texte à lire. L’attention et la mémoire sont alors largement sollicitées pour relier les informations, retrouver le but initial, et la charge cognitive augmente. Cette désorientation est provoquée par la cohérence, propriété essentielle de la compréhension, qui ne peut plus être établie entre les différents passages lus. L’hypertexte, en outre, est souvent un hypermédia liant des vidéos ou des images au texte. Quelques travaux ont montré que l’intégration de ces différentes sources d’information n’apportait pas forcément un avantage en compréhension. Au contraire, la redondance des informations présentées sous différents formats nuit à la mémorisation et à la compréhension.

Changer le rapport au temps

Outre l’aspect informationnel et attentionnel des documents électroniques qui contraignent le lecteur, la pratique de l’ordinateur et des moyens de communication informatiques a changé notre rapport au temps. Alors qu’avant, l’accès à la connaissance prenait du temps : temps d’accès à la ressource (acheter un livre ou aller le trouver dans une bibliothèque), temps d’assimilation (lire et comprendre), temps de relecture éventuelle (pour des passages importants), tous ces temps ont été considérablement raccourcis : accès immédiat par un moteur de recherche, lecture sélective dans laquelle le chemin de lecture est souvent limité aux titres et aux résumés… Malheureusement, à moins que notre cerveau subisse une mutation massive et rapide, l’assimilation d’un contenu nécessite toujours un temps important (passage d’une mémoire à court terme à une mémoire à long terme), une attention soutenue (c’est-à-dire focalisée) et une répétition incessante (relecture). Enfin, ce temps est aussi lié à la nature même de la lecture profonde et la mémorisation de son contenu par le cerveau. Mémoriser un contenu, d’autant plus si celui-ci est complexe, prend du temps, et nécessite de fréquents retours en arrière, et des opérations de contrôle et de recoupement d’informations. L’importance de cet aspect temporel apparaît lorsque l’on mesure la vitesse de lecture qui varie en fonction du type de lecture à réaliser. Ainsi, on a pu distinguer  1 que les différentes activités sur un texte (rechercher une information, lire pour apprendre, lire pour mémoriser…) correspondaient à des vitesses de lecture différentes (voir tableau).

Illustration
Tableau des différentes vitesses de lecture en fonction de l’activité

Il est clair ainsi que plus rapide est la lecture, moins le traitement du texte (dans son contenu) est important. Les stratégies d’accès à l’information s’en trouvent également modifiées, comme l’illustre la figure ci-dessous en indiquant le parcours du regard du lecteur.

Illustration
Trajectoires du regard en fonction de deux activités applicables sur un document web : balayage (à gauche), lecture (à droite).

Même si cela paraît évident, il est donc crucial de rappeler que plus l’on passe de temps sur un contenu, meilleure est la mémorisation de ce contenu. Ce n’est pourtant pas ce que nous faisons sur internet ! L’information doit y être disponible immédiatement et le temps passé pour appréhender son contenu le plus court possible pour être efficace. Mais est-ce être efficace que de ne pas se rappeler l’instant suivant de ce que l’on a lu précédemment ? D’autant plus que d’autres informations ont pu être lues entretemps, par le simple fait qu’elles nous ont été proposées sous la forme de liens ou de fenêtres impromptues. La compréhension d’un texte (et sa mémorisation) nécessite un temps assez long, qui permet de réaliser les associations nécessaires en mémoire à long terme. C’est seulement à ce prix-là qu’un contenu sera mémorisé, et c’est ce que fait la lecture profonde. Or, sur internet, nous sommes réduits le plus souvent à une lecture de type « reader’s digest » consistant à aller à l’essentiel en éliminant tous les détails qui complètent un contenu et aident bien souvent à sa mise en mémoire. Bien que cela puisse être contraire à certaines idées émises notamment en pédagogie, il ne faut donc pas supprimer tout effort cognitif pour faciliter la mémorisation d’un contenu, d’autant plus si celui-ci est présenté sur un écran.

Tablettes et encre électronique

Enfin, il faut également aborder la question des supports. L’écriture date d’environ 5 000 ans et, au cours des siècles, le support d’écriture (tablettes, volumen, codex ou livre imprimé) se révéla toujours stable, dans le sens où l’information une fois écrite y restait constamment. Cette stabilité facilitait notamment la mise en place de stratégies de lecture ou de recherche d’informations. Or, le support électronique (e-books, tablettes, smartphones, écrans…) détruit cette stabilité, rendant les informations mobiles, déplaçables et effaçables à l’envi. Comment pouvons-nous, en quelques décennies, être capables d’adapter nos comportements de lecture sur ces nouveaux supports alors qu’ils ont été acquis sur des supports stables et rigides depuis des millénaires ? Existe-il vraiment des « digital natives » en lecture, autrement dit des enfants qui apprendraient d’abord à lire sur écran plutôt que sur papier ? Je n’en ai encore jamais rencontré, mais, avec les écrans actuels, je doute qu’ils puissent lire de manière aussi attentive ou profonde que sur papier.

Examinons d’abord l’écran. Celui-ci est encore largement rétro-éclairé, c’est-à-dire que la lumière est émise par l’écran et non pas reçue comme pour un livre (car envoyée par une source externe : soleil ou lampe). De nombreuses études ont montré que ce rétro-éclairage est néfaste pour la lecture, car il génère souvent un fort contraste qui agresse l’œil. Cette agression visuelle se traduit par une prise d’information visuelle réduite nécessitant davantage de fixations oculaires pour lire un texte. La conséquence directe est une fatigue visuelle accrue, avec la possibilité, à terme, de développer des pathologies telles que maux de tête, migraines chroniques, asthénopie (vision floue) et, dans les cas extrêmes, des crises d’épilepsie. Ces pathologies surviennent notamment lors d’une activité répétée de lecture sur des interfaces de mauvaise qualité (interlignage réduit, couleur des lettres peu distincte du fond). Toutefois, ces dernières années, un progrès radical est apparu avec le développement de l’encre électronique et les fameuses tablettes de type e-book (Kindle, Reader, Cybook). Ce support règle définitivement le problème du rétro-éclairage même si des améliorations en termes de rapidité pour changer de page, de taille de l’écran ou de qualité du blanc sont à attendre.

Une autre question liée aux supports est celle des procédés d’affichage. Ainsi, lorsqu’on a voulu passer du livre aux supports électroniques, la question s’est posée de savoir si l’on devait présenter les informations de la même façon que sur papier ou autrement. Ainsi sont nés différents procédés tels que le scrolling (défilement de haut en bas d’un document au moyen d’un curseur), le leading (texte défilant automatiquement de droite à gauche) ou l’hypertexte. Dans l’exemple du scrolling, l’initiative était estimable : placer dans un espace limité un maximum de textes. On pouvait ainsi présenter des livres entiers sur une même page en la faisant défiler en avant ou en arrière. Les limites sont apparues assez rapidement. Il était souvent très difficile de retrouver un mot, une phrase, après avoir fait défiler son texte, pour la simple raison que les mots n’apparaissaient plus à la même place. En effet, sur un livre papier, les mots ont une position spatiale et une seule qui ne varie pas même si l’on tourne les pages. Avec le scrolling, un même mot peut se retrouver en bas ou en haut de l’écran et cette mobilité entraîne une détérioration de notre mémoire spatiale. On a ainsi montré, au début des années 1990, qu’un comportement automatique et donc inconscient du lecteur consistait à repérer la position des mots importants d’un texte. Cette mémoire spatiale des mots (appelée également codage spatial) sert notamment à revenir rapidement sur les mots importants du texte, car ils sont nécessaires à la compréhension. Ces retours en arrière font partie du comportement normal du lecteur et représentent 20 % des fixations oculaires. D’ailleurs, tout lecteur a pu constater la réalité de ce repérage spatial. N’avez-vous jamais fait l’expérience de vous souvenir d’avoir vu un mot ou même une idée à un certain endroit de la page (par exemple, en haut à gauche ou en bas à droite, ou au milieu du livre) ? Il arrive souvent que l’on ne se rappelle même plus du mot exact mais seulement de la position qu’il occupait sur la page. C’est cela, le codage spatial, qui est détruit définitivement par le scrolling et empêche la mémorisation de la position des mots.

Toutefois, les aspects négatifs soulignés ci-dessus ne doivent pas masquer l’avantage énorme de l’outil informatique, et cet article a seulement l’ambition de pointer les améliorations ergonomiques nécessaires à réaliser sur les interfaces de lecture de manière à ce que celles-ci correspondent aux propriétés cognitives du lecteur. Nous ne sommes qu’au début de cette révolution de l’écrit et de la lecture électronique et nul doute que les tentatives actuelles (supports, procédés) apparaîtront aussi rapidement obsolètes que l’est actuellement le cinéma muet en noir/blanc vis-à-vis du film 3D couleur. Par exemple, le développement depuis plusieurs années de la technologie dite encre électronique (e-ink) avec les liseuses permet de bénéficier d’un confort de lecture comparable à celui du papier. Toutefois, des progrès sont encore à attendre en ce qui concerne la vitesse d’affichage et la qualité du blanc restitué par le support afin qu’il devienne une alternative possible aux écrans rétro-éclairés actuels.

Le dépassement du livre papier

Bref, nous entrons dans une ère où peu à peu le livre papier sera dépassé par son corollaire électronique et il s’agit d’adapter au mieux ce nouveau support aux caractéristiques du lecteur. Une ergonomie de la lecture est donc à développer si l’on veut que ces nouveaux supports puissent conserver une qualité visuelle et, à terme, garantir le succès économique et social de cette nouvelle pratique. Sans nul doute, l’aspect dynamique du support électronique sera à conserver, car il apporte de réels avantages dans la gestion d’un contenu textuel en enrichissant par des hyperliens ou des vidéos/sons la compréhension du lecteur, mais encore faut-il que cet aspect dynamique soit contrôlé, encadré par des règles de mise en forme ou de gestion des informations. C’est un travail qui débute seulement, vu la quantité de supports électroniques nouveaux qui sont lancés sur le marché chaque année. Il faudra, dans un premier temps, évaluer précisément la qualité de la lecture par la mise en place de tests de lecture électronique (comme cela a été fait récemment au Lutin pour estimer la qualité de la lecture par les élèves sur les TNI – tableaux numériques interactifs) et dans un second temps de concevoir de nouvelles interfaces qui puissent s’adapter au contenu proposé mais également à la population de lecteurs concernée (enfants, personnes âgées…). •

* Une partie de cet article a fait l’objet d’une publication dans la revue InTexto, 2010, n° 4, p. 4-7.

Quelques références bibliographiques

• Thierry Baccino, La lecture électronique, Grenoble, PUG, 2004.

• Thierry Baccino, Catherine Bellino et Teresa Colombi, Mesure de l’utilisabilité des interfaces, Paris, Hermès Science Publication/Lavoisier, 2005.

• Moussa Diarra, Gérard Kubryk, Olga Megalakaki, Léa Pasqualotti, Liliana Rico-Duarte, Catherine Binon, George Fotiadis, Anne Ronsheim, Claudio Vandi et Thierry Baccino, « The use of interactive white boards for the evaluation of reading activities in the school », article présenté à la conférence internationale “The Future of Education”, Florence, Italie, 16-17 juin 2011.

  1. (retour)↑   Ronald Carver, Reading Rate : a Review of Research and Theory, San Diego, Academic Press, 1990.