Accueil Revues Revue Numéro Article

Hermès, La Revue

2006/2 (n° 45)


ALERTES EMAIL - REVUE Hermès, La Revue

Votre alerte a bien été prise en compte.

Vous recevrez un email à chaque nouvelle parution d'un numéro de cette revue.

Fermer

Article précédent Pages 153 - 164 Article suivant
1

La circulation numérique, multimédia et interopérable de l’information participe d’un effet de lissage global qui nous projetterait sans alternative possible dans le mythe du village global adamique dont la culture et la langue redeviendraient enfin uniques.

2

L’unilinguisme anglophone et la domination unipolaire nord-américaine paraîtraient dès lors être la phase ultime, inéluctable et indépassable de la globalisation technologique. Souvenons-nous cependant, qu’il y a une quarantaine d’années, les industriels de l’informatique textuelle concluaient unanimement que les écritures idéographiques devaient inexorablement disparaître. Et pourtant, la réalité du développement du standard Unicode et de la norme ISO10646, (représentation universelle des caractères sur quatre octets) leur a donné définitivement tort. Le Basic Multilingual Plane (BMP) contenant toutes les écritures du monde sur deux octets (16 bits) est une première étape bien concrète qui a effectivement rendu possible la circulation universelle de toutes les écritures du monde, sur Internet notamment. Presque toutes les écritures y sont effectivement disponibles, mais il en est certaines qui sont de fait plus privilégiées que d’autres : soit par leur ancienneté dans l’historique de l’informatisation [1][1] C’est bien sûr le cas de l’écriture latine non accentuée..., soit par leur proximité fonctionnelle avec l’alphabet latin [2][2] Être une écriture allant de gauche à droite, pouvoir..., soit par la prospérité du bassin de clientèle de telle ou telle écriture et de la (des) langue(s) qui y est (sont) attachée(s).

3

Ainsi, en Asie orientale et en Inde, dans des pays dont certains étaient encore récemment sous domination occidentale, se redéploie un nouveau pôle d’industrialisation des Technologies de l’information et de la communication (TIC), notamment d’ingénierie linguistique. Non contents d’être économiquement et techniquement très performants, ces acteurs asiatiques s’imposent toujours plus dans leurs spécificités culturelles et linguistiques. Ceci a pour conséquence que nombre d’acteurs occidentaux des TIC n’ont pas encore conscience de l’inéluctable redistribution et des proportions réelles de l’extrême développement de ces pays en matière de TIC.

4

Cependant, si la fausse évidence d’évolution unipolaire occidentale et anglophone ne convainc plus aucun décideur sérieux, elle continue d’avoir des effets à court terme sur les marchés financiers ou sur les comportements symboliques des consommateurs, ainsi que sur leurs réflexes de soumission linguistique [3][3] On peut être surpris, par exemple, que l’Assemblée.... Cependant les acteurs non anglophones et non nord-américains des TIC risquent de faire les frais de cette recomposition bipolaire, s’ils ne savent pas profiter en temps opportun de l’actuelle redistribution des opportunités technolinguistiques et technoculturelles.

5

La question de l’affrontement des cultures, des États (ou alliances économico-politiques d’États), des langues et des écritures mérite qu’on s’y arrête un moment : en effet, plus notre monde évolue vers la mondialisation, plus les identités et les sentiments d’appartenance des individus peuvent être pluriels et complexes. Par exemple, un Marocain pourra se ressentir comme appartenant à la fois au Maroc, au monde berbère, au monde arabe, à l’espace africain, à la Francophonie et, de ce fait, solidaire de toutes ses langues partenaires (c’est-à-dire des langues d’Extrême-Orient, d’Europe de l’Est et d’Afrique noire). Il pourra aussi se sentir solidaire bien sûr de la culture islamique, mais aussi sur un tout autre plan de la communauté universitaire et d’une discipline particulière, par exemple les sciences de l’éducation. Notons enfin que le Marocain hypothétique qui nous a servi d’exemple peut se sentir à l’aise dans l’usage de trois alphabets (latin, arabe, tifinagh) et qu’en conséquence il trouvera légitime de défendre l’aménagement technoinformatique de ces trois systèmes d’écriture. Il attendra aussi des différentes communautés nationales ou alliances linguistiques, auxquelles il appartient, qu’elles défendent chacune une ingénierie linguistique et éventuellement il donnera de sa personne pour y contribuer. Il attendra aussi de son espace sub-continental ou continental (le Maghreb puis l’Afrique) qu’il défende un espace de solidarité géographique, sociale et économique. Il attendra aussi des communautés culturelles, religieuses, scientifiques ou professionnelles auxquelles il appartient qu’elles se mobilisent chacune à son niveau pour ménager des espaces communicationnels (en termes de réseaux et de sémantique) donnant une visibilité et permettant l’expression de chacune de ces composantes. Ce simple exemple montre à quel point les chances d’évolution vers une culture mondiale de plus en plus plurielle et cependant inter-solidaire vont grandissant. Les TIC, et surtout l’informatique des années 1970, étaient cohérentes avec l’état culturel et géopolitique du monde de cette époque : la télévision restait globalement limitée à des espaces nationaux, l’informatique traitait essentiellement des textes et l’écriture latine (quelquefois strictement non accentuée) y avait seule droit de cité (sauf exception).

6

Aujourd’hui l’offre technique des TIC et de l’informatique en particulier a radicalement changé d’échelle et elle correspond potentiellement aux nombreux besoins nécessaires pour permettre l’expression plurielle des individus et leur communication interculturelle, intercommunautaire, interlinguistique, interdisciplinaire, internationale ou interprofessionnelle. La seule condition pour que cette communication potentielle advienne tient avant tout à ce que nous le voulions et à ce que nous l’exprimions activement en contribuant à aménager ces espaces sémantiques, ces réseaux, ces ingénieries linguistiques, voire typographiques.

7

En effet, les TIC ne sont pas, comme certains aimeraient le croire, une réalité inéluctable, incontrôlable et inhumaine. Comme le dit avec plus de subtilité et de nuances Simondon (1958), c’est en effet de la pensée humaine mise en conserve et réactivable à la demande. Encore faut-il que cette demande s’exprime et qu’elle corresponde aux besoins réels des utilisateurs. Que ce soient des besoins institutionnels ou des besoins privés, peu de produits et peu de services échapperont au marché. Il importe cependant de contrecarrer tant que faire se peut la spéculation ou la volonté stérile de domination.

8

Pour les TIC (mais aussi pour nombre d’autres produits ou services), la normalisation est une des voies légitimes pour l’expression dialectique des besoins et des spécificités entre les États, les entreprises et les utilisateurs sous la double règle de représentativité des acteurs en présence et de respectabilité industrielle (faisabilité) et scientifique.

9

Dans ce paysage général des TIC, le chantier de la normalisation de l’e-apprentissage est particulièrement stratégique. Il s’agit de rendre communicantes, intercompatibles, réutilisables, non seulement les ressources, mais aussi les infrastructures logicielles et matérielles par-delà les frontières, les langues, les cultures, voire les disciplines. Pour tous les TIC, mais plus encore pour les TICE (Technologies de l’information et de la communication pour l’éducation), la participation de chacun est fondamentale pour défendre ses réalités d’appartenance. Nous insistons ici sur les appartenances culturelles et linguistiques, nous aurions pu ajouter académiques et scientifiques, voire professionnelles. Il est en effet légitime que tel ou tel défende son pays, son entreprise, sa communauté d’intérêt (la publicité, les médias, l’aéronautique, la sécurité, l’armée, la santé…).

10

Contrairement à certaines idées toutes faites (ou à la propagande publicitaire) ce n’est plus isolément tel ou tel industriel qui peut réellement innover en matière de TIC. Ce sont bien les instances de normalisation ISO, IEC, UIT (ou de standardisation collégiale W3C) qui dans les trois décennies précédentes ont construit progressivement un univers multimédia de plus en plus interopérable, performant, intercommunicant à l’échelle mondiale, d’année en année moins coûteux à performance égale. Cependant les produits et les services TIC n’existent que dans le cadre d’une réalité d’entreprise (marchande, mais aussi quand c’est possible coopérative et mutualiste). La quasi-totalité des normes des TIC sont hautement stratégiques dans la mesure où elles permettent de préserver les spécificités des communautés : locuteurs d’une même langue ou habitants d’un même pays ; regroupements des usagers ou des producteurs d’un même domaine d’activité comme le cinéma [4][4] Les choix de normalisation de la vidéo numérique (MPEG),..., la musique ou une discipline académique (médecine, sciences sociales, etc.).

L’Asie comme facteur déterminant de la redistribution mondiale des langues et des cultures, notamment dans les TIC

11

De nombreux facteurs ont contribué au décollement et maintenant à la relative suprématie technoindustrielle de l’Asie orientale et de l’Inde par rapport à l’Europe et aux USA. Notons, par exemple, une tout autre culture de l’entreprise et de son lien avec la collectivité. Sans pour autant rejeter le capitalisme à l’occidentale, on constate de très fortes synergies de recherche-développement entre entreprises ou la planification par l’État d’objectifs prospectifs favorisant les commandes publiques massives et de fortes incitations au développement du marché intérieur de consommation. Par ailleurs, l’État intervient massivement dans des domaines-clés (par exemple l’éducation, mais aussi la santé, la prévention des risques…). On retrouve en cela les traits spécifiques propres au mode de production asiatique. Enfin, la relative opacité de ses langues pour la quasi-totalité des Occidentaux fait que, si l’Asie profite sans difficulté de toutes les sources d’information scientifiques ou industrielles occidentales (grâce à sa connaissance très répandue de l’anglais), l’inverse n’est à l’évidence pas vrai.

12

Les spécificités linguistiques et scripturales sont très importantes pour le développement d’une informatique et même d’une bureautique différente en Asie. La zone entièrement ou partiellement idéographique a été confrontée dès les débuts de l’informatique à d’extrêmes difficultés techniques. Cependant, le mode d’apprentissage de l’écriture, de la langue et du savoir en général est si étroitement lié à la spécificité idéographique qu’il apparaît d’évidence qu’un abandon des idéogrammes, envisagé pour des raisons fort différentes en Chine populaire et au Japon, est définitivement abandonné. La culture dans son ensemble n’est pas dissociable de la structure signifiante du catalogue des idéogrammes qui sont organisés en autant de sous-ensembles cohérents que les quelque 250 clés qui servent de base aux quelque 50 000 idéogrammes chinois et aux 15 000 kanji japonais. C’est d’ailleurs ces clés qui servent d’entrées principales à un dictionnaire idéographique [5][5] Elles sont elles-mêmes ordonnées par ordre de complexité..., les autres idéogrammes composés à partir de ces clés de base s’organisent par ordre croissant du nombre des traits ajoutés à la clé de base de chaque idéogramme. Ces clés et les autres formants graphiques constituant ces idéogrammes trouvent leur origine dans une pictographie signifiante qui permet l’analyse étymologique du chinois ou du japonais. En outre, le classement par clés a pour conséquence que les caractères de ces langues, qui sont souvent équivalents à un mot, s’organisent dans le dictionnaire (en fait dans l’ordre des caractères) par famille sémantique : sous la clé de l’arbre, on trouvera la quasi-totalité de la botanique, mais aussi des notions associées (agriculture, menuiserie…). On comprend de ce fait à la fois l’attachement des locuteurs de ces langues à leur écriture qui va bien au-delà d’une seule convention de notation phonétique du bruit signifiant généré par la langue. Spécificité fondamentale, ces langues notent directement le sens de l’idée indépendamment de la production de parole. Cela influence le territoire linguistique et a des influences cognitives et historiques qui sont pour la plupart des avantages, quelques rares fois des désavantages, par rapport à l’Occident alphabétique.

13

Avantage généré par la notation sémantique plutôt que phonographique, la compréhension de la langue écrite n’est pas corrélée à la forme phonétique, et les variantes du chinois s’écrivent toutes de la même façon. De même, un certain nombre de communautés linguistiques, qui parlent des langues totalement différentes, mais les écrivent en chinois, se comprennent parfaitement dans l’expression écrite. De même encore, les Japonais, qui écrivent dans une langue d’écriture mixte [6][6] En simplifiant beaucoup, on peut dire que le japonais..., partagent avec les Chinois (de façon réciproque) une capacité à communiquer à l’écrit par compréhension du lexique.

14

Les écritures partiellement ou entièrement idéographiques, à cause de leur disparité avec les écritures alphabétiques, ont aussi nécessité toute une série de développements spécifiques en matière de bureautique puis d’informatique. Ces développements particuliers auraient pu être perçus comme autant d’entraves au développement des TIC, mais il se trouve que, dès les années 1970, les Japonais puis les Chinois ont profité de ces difficultés comme d’autant d’opportunités pour développer, avant les autres communautés linguistiques, des outils plus performants pour résoudre les problèmes de bureautique et d’ingénierie linguistique auxquels ils ont été très tôt confrontés. Ainsi la quasi-impossibilité à disposer de machines à écrire a induit le développement précoce, en grand nombre et donc à moindre coût, de photocopieuses de bureau. Les Japonais surtout, mais aussi les Chinois de Hong-Kong et Taiwan, seront parmi les premiers à chercher à développer une informatique compatible avec leurs spécificités d’écriture.

15

Les obstacles étaient nombreux, mais les candidats à la création d’une industrie bureautique asiatique bénéficient là encore d’un marché « frustré ». Les écrans par exemple furent développés très tôt car ils étaient la seule solution permettant d’afficher des données qu’il était impossible d’imprimer sur des imprimantes traditionnelles. Les imprimantes aussi durent se développer selon des solutions originales, elles aussi indispensables à la spécificité linguistique (produire des caractères peu récurrents, écrire en colonnes ou en ligne) en profitant soit du savoir-faire avancé des photocopies, soit d’autres solutions comme le jet d’encre [7][7] Dans les années 1970, les imprimantes développées pour.... Bénéficiant d’une réelle avance et fidèle à ses traditions de co-développement pour la recherche à moyen et long terme (MITI), le Japon devint un acteur incontournable de la standardisation et de la normalisation électronique.

16

Enfin, dès cette époque, le Japon lança sa norme JIS de codification des caractères sur deux octets qui constitua l’amorce d’une nouvelle génération technique de l’informatique textuelle, sur laquelle s’est construit le savoir actuel d’Unicode et du BMP (André et Hudrisier, 2002). En mettant en place une solution d’écriture idéographique fondée sur le code caractère (et non pas sur la production du rendu visuel du caractère comme proposé par certains industriels peu réalistes et ignorants des réalités spécifiques des écritures idéographiques), les Japonais [8][8] Et à leur suite encore Taiwan et Hong-Kong. donnèrent le départ d’une mini, puis d’une micro-informatique obligatoirement intelligente et performante.

17

Le problème le plus évident, mais qu’il fallut bien résoudre comme condition préalable, fut celui d’un traitement complet de l’information dans une chaîne de composants à 16 bits et non pas à 8 bits. La question de la saisie de texte au clavier est plus complexe et nous devons sur ce point distinguer absolument le cas du chinois de celui du japonais.

18

Pour saisir un texte japonais, la spécificité de l’écriture (à la fois idéographique et syllabique) est un avantage par rapport au chinois qui est, lui, totalement idéographique. Le petit Japonais apprend d’abord à écrire avec les 51 kana (deux syllabaires parallèles, hiragana et katakana). Ce n’est qu’ensuite que l’écolier du primaire devra maîtriser un catalogue minimal de 1 000 kanji, puis, à la sortie de ses études secondaires, un minimum de 2000 kanji[9][9] Pour tout ce qui concerne Unicode, le BMP et les questions.... Ces kanji sont, rappelons-le, les caractères chinois dont on a dit qu’ils permettent globalement de noter le lexique alors que les deux syllabaires kana notent le reste (mots grammaticaux et flexions, conjugaisons diverses, transcription phonétique de noms étrangers, onomatopées…). Bien écrire, dans un style soutenu, consiste pour le Japonais à substituer, autant que possible, des kanji pertinents en lieu et place des kana qui peuvent théoriquement transcrire (mais de façon inélégante) toute la langue.

19

Ce mode d’appropriation globale de l’écriture induisait de fait la solution. Le clavier japonais offre optionnellement (par touche contrôle) l’alphabet latin et les touches kana. Le texte japonais sera saisi en kana et le traitement de texte propose la substitution par des kanji. On se retrouve finalement dans des situations de saisie clavier interactives (et non linéaires) comme on les connaît aujourd’hui avec la saisie assistée intelligente de SMS. Le développement et la maîtrise de l’intelligence de ces solutions de traitement de texte a ainsi projeté très précocement les industriels japonais dans une ingénierie linguistique sophistiquée : d’abord des propositions de kanji selon leur fréquence moyenne, celle de l’utilisateur, puis des saisies assistées selon le contexte sémantique.

20

Les solutions chinoises passent obligatoirement par la romanisation normalisée des textes. L’apprentissage est de ce fait moins culturellement naturel. Il n’est pas étroitement lié, comme en japonais, à l’apprentissage de l’écriture. Dans les deux cas, la saisie des textes au clavier favorise l’acquisition informatiquement assistée des idéogrammes [10][10] Tout au moins nous pouvons penser que nous sommes dans... qui sont proposés au scripteur selon le contexte de rédaction.

21

Notons enfin l’existence du CJK, un catalogue normalisé commun de la codification des idéogrammes utilisés en commun par les Chinois (C), les Japonais (J) et plus marginalement par les Coréens (K) et les Vietnamiens. Ce CJK normalise au plus profond des composants informatiques (Unicode et le BMP), un espace d’intercompréhension inter-linguistique (limité au lexique et à sa manifestation écrite).

L’appropriation des mécanismes de normalisation, une opportunité actuelle pour préserver le déploiement des TIC dans leur diversité culturelle et linguistique

22

En Asie, dans les années 1960 et 1970, il n’était pas facile de développer les composants technologiques de base pour déployer une informatique spécifique des langues et écritures dans le respect de leurs disparités. Les états-majors des grandes firmes multinationales qui dominaient alors la recherche et le marché mondial n’ont pas immédiatement pris conscience des problèmes posés : codes caractères, moteurs d’écriture spécifiques, claviers, imprimantes, etc. Les chercheurs et les industriels de cette aire géographique ont dû faire, tout seuls, de nombreux efforts avant que la communauté mondiale de la recherche informatique et électronique s’associe à leurs travaux de recherche-développement. Ils ont notamment dû faire évoluer un paradigme technique de l’informatique alphanumérique qui semblait intangible : le « mot informatique » [11][11] Jusqu’à récemment, l’ASCII étendu (norme ISO8859) impliquait... à 7, puis à 8 bits (l’ASCII [12][12] La norme ISO646 ou ASCII (American Standard Code for...), qui passera à 16, puis à 32 bits. C’est ainsi en grande partie à cause de la complexité des idéogrammes, qu’ils ont dû aussi faire évoluer, beaucoup plus tôt que le reste du monde, la définition (le nombre de points par pouce carré) des écrans, des imprimantes ou des photocopieuses. Tous ces obstacles inhérents à la prise en compte de la diversité culturelle et linguistique de l’Extrême-Orient sont devenus autant d’incitations au développement de leur performance en matière d’informatique et d’électronique ce qui a déterminé en partie leur prospérité informatique actuelle.

23

C’est aussi pourquoi la culture littéraire et poétique indienne est étroitement liée à des jeux mathématiques de haut niveau (Ifrah, 1994) Cette tradition hindouiste est la conséquence de la nécessité de calculer perpétuellement les différents âges, grandeurs ou poids du karma des êtres et des divinités. Cela induit naturellement chez nombre d’Indiens un goût de l’abstraction mathématique qui les prédispose à être sans conteste les meilleurs informaticiens du monde. L’Occident est bien obligé de constater aujourd’hui que l’Inde devient une puissance de premier plan en matière de TIC.

24

Pour autant, quelle sera la place des autres cultures non occidentales dans cette nouvelle recomposition bipolaire opposant l’espace européen et nord-américain à l’espace asiatique ? Il est difficile de répondre, mais j’estime que la prospérité relative des autres aires culturelles sera étroitement fonction de leur prise de conscience des enjeux et de leur faculté à s’investir le plus tôt possible dans des coopérations industrielles avec l’Asie. De ce point de vue soulignons l’importance du Vietnam, du Laos et du Cambodge pour la stratégie francophone.

25

Du côté des recompositions possibles du savoir et de l’intelligence, un des affrontements majeurs pourrait bien être celui des cultures alphabétiques contre celles de l’idéographie. Ainsi, dépassant nos langues, s’affronteraient deux grandes classes d’appréhension du monde : ici des informations textuelles atomiques, possiblement analysées et classées en des infinités de possibles logiques, là-bas des documents ontologiquement situés selon une vision traditionnelle de l’ordre du monde [13][13] Comme nous l’avons souligné plus haut, l’ordonnancement.... On peut penser cet affrontement inéluctable en ce que les grandes étapes du progrès grammatologique (Derrida, 1967) ou, pour le dire autrement, les avancées de la pensée graphique (Goody, 1979) ont le plus souvent induit des prospérités technoculturelles sur l’aire géolinguistique qui se les appropriait. Objectivement, dans un monde de mondialisation multilingue, l’aire géolinguistique idéographique dispose d’atouts sémantiques indéniables pour ce qui est de la communication des concepts et de leur représentation informationnelle. En simplifiant beaucoup, on peut dire qu’une communication interpersonnelle d’une idée (d’un concept) nécessite, dans les langues alphabétiques, des chaînons supplémentaires de codage et décodage phonétique qui alourdissent le processus de communication. C’est de ces avantages sémantiques que l’aire idéographique a déjà commencé à bénéficier en les liant à l’intelligence artificielle, à la TAO (Traduction assistée par ordinateur), à la programmation, à l’ingénierie linguistique en général ou plus trivialement en déployant des interfaces, touches-fonctions beaucoup plus compactes [14][14] 1 idéogramme = 1 ligne de menu..

26

On peut penser cependant que cette prépondérance idéographique sera tempérée par toutes sortes d’autres facteurs. Parmi beaucoup d’autres, citons l’imbrication des écritures alphabétiques, syllabiques et idéographiques dans l’espace asiatique [15][15] Notons le coréen (qui historiquement associe des caractères..., mais aussi les poids démographiques des États, leurs traditions politiques, la poursuite des anciennes alliances…

27

Nous courons le risque évident de connaître des retards de développement dans nombre de territoires et d’aires d’écriture ou de langues minoritaires. En revanche, nous devons considérer comme probable le déploiement à plus ou moins long terme de l’exhaustivité de toutes les cultures et de toutes les langues dans un environnement communicationnel intercommunicant réellement efficace. Beaucoup d’outils existent pour construire collectivement cet environnement qui n’est guère différent de l’aménagement solidaire d’un territoire géographique diversifié, mais évidemment complémentaire.

28

Là aussi, la technologie est en train de connaître une nouvelle mutation, celle du déploiement et de la convergence vers le terminal de téléphonie mobile devenant la plate-forme universelle pour le support de toutes les catégories de médias : téléviseur, caméra, appareil photo, PDA (agenda, micro-ordinateur de poche), lecteur baladeur audiovisuel, terminal de paiement ou d’identification anthropométrique et, bien sûr aussi, télécommande universelle (pour la domotique et la chaîne hi-fi ou vidéo). Au moment où le téléphone mobile connaît une telle convergence, associée à une miniaturisation [16][16] Cependant on assiste à des solutions confortables sur..., il devient en conséquence de moins en moins consommateur d’énergie (le composant interne d’une clé USB est de deux gigas, ce qui permet dès aujourd’hui de construire de tels terminaux sans aucun disque). Dès lors, rien ne s’oppose à la conquête sans frontière du monde par ces plates-formes universelles branchées en permanence, énergétiquement autonomes, mais réalimentables partout dans le monde avec des solutions diverses (réseaux électriques traditionnels, allume-cigares des automobiles, générateurs portables, panneaux solaires, lampes à pétrole générant de l’électricité…).

29

Encore une fois, cette mutation-migration de l’informatique vers le téléphone mobile profitera aux zones de plus grande densité démographiques au monde : l’Asie orientale (avec la Chine comme poids lourd) et l’Inde bien sûr. Ceci étant dit, quels sont les moyens concrets pour profiter de ce redéploiement géographique, linguistique et culturel ?

30

Nous nous limiterons à analyser les TICE, tant on sait que la fracture numérique ne pourra véritablement être comblée que si des efforts très importants se portent précisément en amont des domaines d’usage des TIC, sur le secteur de l’enseignement.

Le cas exemplaire des Technologies de l’information et de la communication pour l’éducation (TICE)

31

Les TICE sont un domaine aujourd’hui largement dominé par le marché de la formation, ce qui est la conséquence logique de leur longue période de gestation. Ce qui signifie que, par rapport à d’autres médias (la vidéo, les traitements de textes, etc.), les TICE sont encore dans leur période de définition et notamment de définition normative. Il faut, cependant, observer les trois éléments suivants.

32

Primo, les normes de la communication et de l’information sont possiblement ouvertes au déploiement de cette indispensable diversité, mais le passage du possible au réel exige avant tout la prise de conscience de la nécessité « d’aménager » et une participation active des acteurs réellement concernés par cette diversité. Il faut d’abord « convaincre » (c’est une question d’ajustement technoculturel aux nouveaux paradigmes du système technique des TIC en réseaux) que l’évolution uninormative des TIC est une sorte de maladie infantile de leur interconnexion mondiale. Il faut ensuite faire admettre comme lieu commun que « l’articulation au moins double » des codes numériques et des familles de langages qui en découlent sont des extensions en continuum de nos cultures linguistiques et sémantiques [17][17] La civilisation post-industrielle dans laquelle nous.... Ce dernier ajustement passe par une sorte de « Risorgimento du numérique » [18][18] Nous pensons que cette recomposition d’une unicité....

33

Secundo, pour qu’il y ait prise de conscience sociale à large échelle du continuum intégrant les technologies sémantiques, les TICE intégrés dans la pluralité des cultures et des langues, il ne faut évidemment pas attendre ce progrès des seuls philosophes et intellectuels. Leur prise de conscience (si elle intervient) ne fera qu’accompagner une démarche volontaire d’aménagement, d’appropriation concrète à la fois des ressources elles-mêmes, de leurs structures et de leur environnement (c’est le niveau normatif). Cette démarche doit être dialectique puisque c’est la construction même des ressources qui met en évidence les besoins de structures et d’environnements normatifs articulés dans la diversité.

34

Tertio, les grandes multinationales qui surfent sans a priori sur la globalité des marchés n’ont pas de patrie culturelle ou linguistique. Elles développeront des structures et des contenus et les vendront partout où elles supposeront des marchés possibles. Mais elles ne s’aventureront que sur des espaces culturels et linguistiques déjà pré-aménagés (notamment institutionnellement et techniquement). Ceci implique donc une sensibilisation et une éducation de tous les niveaux d’une société à ces nouveaux paradigmes avec l’inscription de cette éducation dans la réalité sociale du territoire. Ce n’est donc pas du seul marché libéral qu’il faut attendre les premiers développements d’aménagement. Il faut à l’évidence intervenir sur les espaces de la culture et de l’enseignement, en veillant à ce que les normes mêmes de leur circulation sur le réseau, de leur définition juridique et institutionnelle, préservent leur principe de bien public et de spécificité culturelle. Là aussi une panoplie de mécanismes normatifs possibles pourrait se déployer pour protéger partout la diversité. La difficulté vient de ce que la plus grande expertise de la mise en place d’un e-commerce et d’un e-échange normalisés est actuellement aux mains de ceux qui ont intérêt à les déployer de la façon la plus rustique et unidimensionnelle. Les États qui dominent actuellement le marché de l’information et de la communication (notamment aujourd’hui l’audiovisuel, demain l’e-enseignement marchandisé) s’opposent bien sûr à la mise en place d’une régulation possible de l’échange des biens culturels. Ce sont eux qui proposent à large échelle la formation gratuite des élites partout dans le monde, sous-entendant bien sûr qu’ils seront formés à leur vision unique du monde. Il importe donc, partout où existe un espace d’alternative éducative et académique, qu’elle se déploie dans une alliance la plus multiculturelle qui soit, y compris bien sûr en synergie alternative avec les acteurs même de la vision unique.

35

Comment défendre par la normalisation une garantie de bien public éducationnel, la gratuité d’accès de ses ressources fondamentales, et préserver les spécificités culturelles, linguistiques, disciplinaires ou professionnelles ?

36

Nous ne prétendons pas, ce serait irraisonnable, que la normalisation soit la seule voie possible pour atteindre ces objectifs. Force est cependant de constater que la normalisation et la standardisation sont devenues à la fois l’attracteur et le moteur des dynamiques d’interopérabilité ou de convergence multimédia, et des réseaux de TIC. Ce sont elles encore qui permettent la baisse exponentielle des coûts des TIC à performance égale, mais aussi la mutualisation des opérations de recherche-développement dans l’industrie, en créant un espace de codéveloppement obligatoire pour les grandes innovations, et en ne laissant plus aux entreprises et institutions que la maîtrise innovante du développement des interfaces ou des réseaux, mais aussi la dure concurrence du marché. Dans ce contexte, devenir un acteur amont de la normalisation et de son appropriation est devenu hautement stratégique. La dissémination des TIC dans le monde, et plus précisément celle des TICE, s’apparente aujourd’hui à une partie de poker planétaire. Il faut savoir miser pour participer, affirmer l’importance et la force de sa communauté linguistique ou disciplinaire, démontrer les premiers états de résultats [19][19] Dans un comité de normalisation, l’influence ne se... à même d’imposer tel ou tel choix.

37

D’évidence, beaucoup de nations en développement n’ont pas toujours les moyens d’investir tous azimuts dans le secteur de la normalisation des TIC. Leurs institutions de normalisation, lorsqu’elles existent (Hudrisier, 2005), investissent d’abord dans les normes sanitaires, les transports, l’agriculture, les minerais… et n’ont souvent pas les ressources pour investir aussi dans les TIC. C’est là que prend tout son sens la communauté francophone, qui peut être capable, parallèlement à la montée en puissance des pays asiatiques, de proposer de nouvelles normes pour les TICE, prenant en compte les langues et cultures des pays du Sud, notamment en Afrique (voir les exemples de projets en annexe).


Annexe

Des exemples de projets dans le cadre de la Francophonie

L’AUF : stratégies de normalisation et standardisation des TICE

38

La stratégie de l’Agence universitaire de la Francophonie (AUF) consiste avant tout à pouvoir disposer de réseaux, de plates-formes et de ressources d’e-enseignement les plus interopérables, donc les plus normalisées possible. Cette circulation numérique doit être possible dans la « totalité des langues partenaires de la Francophonie ».

39

Elle a mis en place une Liaison A avec le SC36 [20][20] SC36 : on devrait dire pour être complet ISO/IEC-JTC1-SC36.... Elle a co-réalisé avec le SC36 deux Open Forums (Initiatives 2003 et 2005) dont le dernier dans le cadre du SMSI (Sommet mondial pour la société de l’information) à Tunis en 2005. C’est à Tunis, pendant le SMSI que fut fondé Cartago.

40

Cartago

41

Cartago est un projet de terminologie « large langues » [21][21] Je propose ce concept de terminologie « large langues »... dédié à la mise en place d’un référentiel ouvert et gratuit des concepts de l’éducation. Ce projet Cartago, une alliance entre des partenaires intéressés par la préservation de la diversité des cultures et des langues, a été fondé à l’issue du SMSI de Tunis par des experts du SC36, des membres de la Francophonie, de l’AILF et de l’Union latine. Cartago est ouvert par cooptation et destiné a priori à couvrir le plus grand nombre possible de langues et d’écritures.

L’Institut royal de la culture amazighe (Ircam)

42

L’Institut royal de la culture amazighe (Ircam) est l’un des 577 membres de l’AUF. C’est aussi une institution académique destinée à sauvegarder et promouvoir la culture berbère (notamment par e-enseignement).

43

L’Ircam a une politique volontariste qui lui a permis d’introduire l’alphabet tifinagh (la version traditionnelle de l’écriture berbère) dans le BMP (Basic Multilingual Plane). Forte de ce premier résultat, elle prolonge sa politique en instruisant avec l’aide du Snima (Institut marocain de normalisation) le type de participation du Maroc dans le SC36 ou d’autres comités normatifs des TIC sensibles à la question des langues et cultures.


Références bibliographiques

  • André, J., Hudrisier, H. (dir.), Unicode, écriture du monde ?, Paris, Hermès-Lavoisier, coll. Document numérique, vol. 6, n° 3-4, 2002.
  • Derrida, J., De la grammatologie, Paris, Éditions de Minuit, coll. Critique, 1967.
  • Goody, J., La Raison graphique : la domestication de la pensée sauvage, Paris, Éditions de Minuit, 1979.
  • Hudrisier, H., Tableaux comparatifs des instances de normalisation des TIC en Francophonie, note interne, AUF, 2005.
  • Ifrah, G., Histoire universelle des chiffres : l’intelligence des hommes racontée par les nombres et le calcul, Paris, Robert Laffont, 1994, tome 1, p. 944 à 946.
  • Lucas, N., « Le retour des idéogrammes », in André, J., Hudrisier, H. (dir.), Unicode, écriture du monde ?, Paris, Hermès-Lavoisier, coll. Document numérique, vol. 6, n° 3-4, 2002.
  • Simondon, G., Du mode d’existence des objets techniques, Paris, Aubier, 1958.

Notes

[1]

C’est bien sûr le cas de l’écriture latine non accentuée et à sa suite des écritures latines des langues européennes.

[2]

Être une écriture allant de gauche à droite, pouvoir s’écrire en caractères isolés (ce n’est pas le cas de l’arabe), avoir des caractères qui ne changent pas de forme selon leur position dans le mot, avoir le moins de ligatures ou de combinaisons entre lettres pour créer des bi- ou trigrammes.

[3]

On peut être surpris, par exemple, que l’Assemblée nationale française ait avalisé le fait que tous les brevets d’invention français déposés à l’Inpi doivent l’être obligatoirement en langue anglaise.

[4]

Les choix de normalisation de la vidéo numérique (MPEG), mais aussi du cinéma sont hautement stratégiques. Comme le sont encore davantage les choix nationaux d’un calendrier de passage progressif à la télédiffusion totalement numérique et selon quelles normes.

[5]

Elles sont elles-mêmes ordonnées par ordre de complexité graphique en partant de celles qui sont composées d’un seul trait pour aller vers les toujours plus complexes en nombre de traits.

[6]

En simplifiant beaucoup, on peut dire que le japonais est à la fois idéographique pour le lexique (les kanji) et syllabique pour les flexions et les mots outils (la notation syntaxique par les kana : hiragana et katakana).

[7]

Dans les années 1970, les imprimantes développées pour l’Occident alphabétique étaient fondées sur deux principes : des tampons de frappe mécaniques (obligatoirement en nombre très limités donc adaptés aux seules écritures alphabétiques ou syllabiques) et, technologie plus innovante à l’époque, des imprimantes matricielles à aiguilles. À l’évidence, la technologie du jet d’encre s’avéra capable de produire un nombre infini de formes (exigence des écritures idéographiques), alors que les imprimantes matricielles ne contentèrent personne, pas même la communauté alphabétique pour laquelle elles constituaient une technologie de transition à peine acceptable.

[8]

Et à leur suite encore Taiwan et Hong-Kong.

[9]

Pour tout ce qui concerne Unicode, le BMP et les questions de codification des textes, on peut lire Jacques André et Henri Hudrisier (2002). Sur le cas japonais, voir l’article de Nadine LUCAS (2002).

[10]

Tout au moins nous pouvons penser que nous sommes dans des situations qui permettent l’auto-acquisition du catalogue des idéogrammes, mais parallèlement cette production automatique des caractères fait disparaître, dans les jeunes générations, la pratique calligraphique qui participait d’une mémorisation gestuelle de l’apprentissage du vocabulaire. On ne saurait tout avoir, les avantages de la modernité et aucune perte des processus traditionnels.

[11]

Jusqu’à récemment, l’ASCII étendu (norme ISO8859) impliquait une informatique à mots fixes d’un octet, mais à l’évidence aujourd’hui, l’Unicode, le BMP et la norme sur 4 octets induisent partout une informatique à mots variables (UTF 8 et UTF 16).

[12]

La norme ISO646 ou ASCII (American Standard Code for Information Interchange) a longtemps été utilisée pour le codage des caractères alphanumériques en informatique sur 7 bits. Elle a été inventée par l’Américain Bob Bemer en 1961. Encore aujourd’hui, la table ASCII est grandement utilisée, même si elle est le plus souvent complétée par une table étendue (Wikipédia). Je développerai plus loin ce point particulier.

[13]

Comme nous l’avons souligné plus haut, l’ordonnancement des idéogrammes dans un dictionnaire, organisé selon l’ordre des clés, est un ordre du monde : c’est la logique immuable d’apprentissage de l’écriture liée à celle du vocabulaire.

[14]

1 idéogramme = 1 ligne de menu.

[15]

Notons le coréen (qui historiquement associe des caractères chinois), la grande famille très diversifiée des écritures d’origine indienne (hindi bien sûr), mais aussi le thaï, le laotien, le cambodgien, le tibétain, un grand nombre d’alphabets spécifiques des minorités chinoises (ainsi un billet de banque chinois comporte sept écritures différentes, y compris l’écriture latine), l’arabe, le vietnamien (le quôc-ngu).

[16]

Cependant on assiste à des solutions confortables sur le format d’un agenda de poche dépliable en deux volets égaux : un clavier et un écran tous deux de dimension acceptable.

[17]

La civilisation post-industrielle dans laquelle nous vivons étant extrêmement dépendante des industries du langage et de la communication, il devient indispensable « d’aménager un environnement technolinguistique du territoire », « de convaincre les décideurs politiques et industriels » de s’impliquer dans ces chantiers aussi indispensables que les infrastructures de transport, mais aussi de vulgariser des notions, comme « l’articulation des codes et langages » qui doivent devenir des « lieux communs pour les nouvelles générations ».

[18]

Nous pensons que cette recomposition d’une unicité du territoire numérique, sa vision unitaire dans la diversité des cités et des cultures qui la composent est fortement comparable avec la notion de Risorgimento de l’unité italienne.

[19]

Dans un comité de normalisation, l’influence ne se conquiert pas en « fabriquant quelque chose ». Fabriquer un produit ou un service n’est pas le rôle d’une instance de normalisation. Ce serait confisquer la liberté d’entreprendre que se réserve chacun des participants qui ne sont là que pour définir ensemble les conditions de leur coexistence concurrente et cependant communicante (l’interopérabité normalisée). Cependant, pour parvenir à élaborer en consensus une « feuille de route commune » qui constituera la norme et permettra l’interopérabilité, il est souvent nécessaire d’expérimenter, de démontrer les « premiers états de résultats » dans leur faisabilité qui servent très souvent de fondements pour élaborer les futures normes.

[20]

SC36 : on devrait dire pour être complet ISO/IEC-JTC1-SC36 (ISO, International Standard Organisation ; IEC, International Electronic Commission ; JTC1, Joint Technical Committee n° 1 ; SC36, Sub-Committee n° 36). En fait, c’est l’instance de normalisation où s’élaborent les normes technologiques de l’e-enseignement et de l’e-formation.

[21]

Je propose ce concept de terminologie « large langues » en similarité paranomastique avec le concept de « large bande » (broad band), emprunté à la théorie des filtres et bien connu pour les technologies de l’émission ou de la réception hertzienne. Ces bases de données terminologiques « larges langues », c’est-à-dire capables de contenir simultanément un très grand nombre de langues, dont on voit émerger un bon nombre de projets liés à la mondialisation linguistique, poseront un grand nombre de questions inédites, par exemple : mode d’accès autre qu’alphabétique, notamment par concept et par graphes de concepts, organisation informatique en XML de la base de données.

Résumé

Français

L’interconnexion globale du monde redistribue beaucoup plus en profondeur qu’on ne voudrait l’admettre les enjeux technolinguistiques et technoculturels. L’Extrême-Orient notamment devient un acteur incontournable tant pour la production de contenus que pour les composants et les machines à communiquer. La montée en puissance de cette production la conduit à devenir un acteur de premier plan dans la recherche et la définition normative des TIC. Cette nouvelle donne peut à moyen terme influer radicalement sur le monopole nord-américain. Si la diversité culturelle des sociétés d’écriture partiellement ou entièrement idéographique s’accommode déjà très mal de cette vision unique, elle ne l’exprimera certainement pas par des discours mais plutôt par des actes notamment en tissant de nouvelles alliances.
L’Afrique, le Moyen-Orient, l’Amérique latine, la Francophonie, l’Europe non anglophone et le reste de l’Asie ont sans doute intérêt à s’inscrire dans la redistribution favorisée par l’émergence de cette bipolarité latente, en déployant leur diversité culturelle et en l’instrumentalisant dans les nouveaux paradigmes d’une information structurée, normalisée, et réellement articulée sur la diversité et non plus sur un marché unique, quelquefois dissimulé sous des localisations incertaines.

Mots-clés

  • multilinguisme
  • langues
  • écritures
  • terminologie
  • normes
  • e-apprentissage

English

Knowledge society and how to bring it under controlThe global interconnection of the World reallocates, in a far wider measure than usually admitted, technolinguistic and techno-cultural issues. Specially, Eastern Asia is becoming a major actor, producing contents as well as components and communication equipment. The increasing importance taken by this production helps Eastern Asia to become a major actor in research and in the definition of IT standards. This new deal could, at medium term, radically affect North America’s monopoly. If culturally diverse societies, with partially or entirely ideographic writing, already seem to have difficulties in putting up with this doctrinaire approach, they will certainly not express this through long discourse but rather by acts, like setting up new alliances.
It is in the interest of Africa, the Middle-East, Latin America, French-speaking countries, non-Englishspeaking Europe and the rest of Asia to partake in this redistribution movement currently encouraged by the rise of this latent bipolarisation, by displaying their cultural diversity and using it within the new paradigms of a structured and standardised information that would be truly linked with diversity and no longer with a standardised market, sometimes hidden under uncertain localisations.

Keywords

  • multilingualism
  • languages
  • writings
  • terminology
  • standards
  • e-learning

Plan de l'article

  1. L’Asie comme facteur déterminant de la redistribution mondiale des langues et des cultures, notamment dans les TIC
  2. L’appropriation des mécanismes de normalisation, une opportunité actuelle pour préserver le déploiement des TIC dans leur diversité culturelle et linguistique
  3. Le cas exemplaire des Technologies de l’information et de la communication pour l’éducation (TICE)

Article précédent Pages 153 - 164 Article suivant
© 2010-2017 Cairn.info
Chargement
Connexion en cours. Veuillez patienter...