La fin des encodages nationaux

Une des plaies récurrentes en informatique est l’encodage du texte, ASCII, l’encodage de base ne supporte que les caractère en usage courant en anglais. La solution du XXe siècle a été l’introduction d’extensions nationales, qui ont causé bien des misères. Chacune de ces extension n’est naturellement pas compatible avec les autres, certains pays ont réussi à avoir plusieurs encodages incompatibles (le Japon notamment), d’autres comme la France n’ont pas pensé à défendre tous leurs caractères (la norme Latin-1 ne contient pas la ligature ‘œ’). Bref, il était urgent de passer à autre chose.

Si la conception d’Unicode n’a pas été sans soucis, notamment l’unification Han qui unifie les sinogrames en usage en Chine, au Japon et en Coréen, c’est néanmoins un grand pas en avant. Une nouvelle version de la norme vient de sortir, et en prime, l’index de Google semble indiquer qu’il y a à présent plus de pages Web encodées en utf-8 (l’encodage le plus populaire pour du texte unicode) que de pages en ASCII ou dans un encodage national, comme Latin-1. Cependant, on est encore loin du compte, vu que seule 25% des pages à ce jour utilisent Unicode.

One thought on “La fin des encodages nationaux

  1. C’est une question de temps: la plupart des applications, que ce soit pour machines de bureau ou en ligne, encodent par défaut en UTF-8. Il restera toujours une frange de vieilles pages orphelines avec des encodages nationaux, que personne ne songera à mettre à jour.

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.