Hem : Programvaruvillkor : Definition av teckenkodning

Teckenkodning

Medan vi ser textdokument som textrader, ser datorer dem faktiskt som binär data, eller en serie av enor och nollor. Därför tecken i ett textdokument måste representeras av numeriska koder. För att uppnå detta sparas texten med en av flera typer av teckenkodning.

De mest populära typerna av teckenkodning är ASCII och Unicode. Medan ASCII fortfarande stöds av nästan alla textredigerare används Unicode oftare eftersom det stöder en större teckenuppsättning. Unicode definieras ofta som UTF-8, UTF-16 eller UTF-32, som hänvisar till olika Unicode-standarder. UTF står för "Unicode Transformation Format" och numret anger antalet bitar används för att representera varje karaktär. Från datorns tidiga dagar har karaktärer representerats av minst en bitgrupp (8 bitar), varför olika Unicode-standarder sparar tecken i multiplar om 8 bitar.

Medan ASCII och Unicode är de vanligaste typerna av teckenkodning, kan andra kodningsstandarder också användas för koda textfiler. Till exempel finns flera typer av språkspecifika teckenkodningsstandarder, som västerländska, latinamerikanska, japanska, koreanska och kinesiska. Medan västerländska språk använder liknande tecken kräver östra språk en helt annan teckenuppsättning. Därför skulle en latinsk kodning inte stödja de symboler som behövs för att representera en text sträng på kinesiska. Lyckligtvis stöder moderna standarder som UTF-16 en tillräckligt stor teckenuppsättning för att representera både västerländska och östra bokstäver och symboler.

TechLib - Tech Lib Computer Dictionary

Denna sida innehåller en teknisk definition av teckenkodning. Det förklarar i dataterminologi vad Character Encoding betyder och är ett av många programvaruuttryck i TechLib-ordlistan.

Alla definitioner på TechLib-webbplatsen är skrivna för att vara tekniskt korrekta men också lätta att förstå. Om du tycker att denna teckenkodningsdefinition är till hjälp kan du referera till den med citatlänkarna ovan.