ビットパターン 【bit pattern】
コンピュータではすべての情報を「0」と「1」を並べた2進数で表し、2進数の1桁に相当するデータの最小単位を「ビット」(bit)という。すべてのデータはこのビットを一列に並べたビット列として表現される。
ある長さのビット列があるとき、各ビットは「0」または「1」の値を取ることができ、各ビットの値の組み合わせをビットパターンという。例えば、ビットが2つ並んだ2ビットのデータがあるとき、考えられるビットパターンは「00」「01」「10」「11」の4通り、3ビットなら「000」「001」「010」「011」「100」「101」「110」「111」の8通りである。
ビットパターンの数は1ビットで2通り(「0」または「1」)、2ビットで4通り、3ビットで8通り、4ビットで16通り…とビットが1つ増えるごとに2倍に増えていく。一般にnビットのデータが取り得るビットパターンの数は2n個となる。
また、いくつかの決まった種類の選択肢からなる情報をビットパターンに対応付けて表現したい場合、2nの中で選択肢の数より多い最小の値のnが必要なビット数となる。例えば、26個あるアルファベット大文字に一つずつビットパターンを対応付けた文字コードを作りたければ、24<26<25 であるため4ビット(16パターン)では足りず、最低でも5ビット(32パターン)が必要となる。
(2023.2.6更新)