weiß einer warum das so ist?
Da bist du nicht der Einzige
@Harleax , der da unwissend ist bzw. davon verwirrt ... War ich früher auch
zumal der Unterschied zwischen *B/s und *b(it)/s leicht übersehen werden kann.
Bitraten werden in der Regel für z.B. Übertragunggeschwindigkeiten o.Ä. angegeben, siehe deinen Internetanschluss oder Prozessorarchitektur (64 oder 32 Bit)
Bytes werden z.B. zur Angabe von Kapazitäten o.Ä. genutzt, siehe "mein USB Stick hat 64 GB"
Bit bedeutet einfach nur "
binary dig
it" und ist der "kleinste" Zustand, den dein PC kennt.
Bytes (oder richtig gesagt Oktett, also mit 8 Bit Größe) rührt (glaube ich) daher, dass 8 Bit benötigt werden um ASCII zu kodieren, also die ganzen Zeichen auf deinem Keyboard wie Buchstaben, Zahlen, Satzzeichen etc
Die ASCII Tabelle geht von dem Wert 0 bis zum Wert 255, 8 Bits können eben genauso viele Zustände darstellen (2^8 = 256).
Und weil's noch nicht verwirrend genug ist, füge ich noch ergänzend hinzu, dass es neben
MegaBits &
MegaBytes auch noch
MegaNibbles &
MibiBytes gibt
Falls du dich schonmal gefragt hast, warum Windows bei einer 256 Gigabyte SSD nur ~ 240 Gigabyte anzeigt, der Hund liegt hier begraben
Stichwort Gibibytes
Korrekt wäre, wenn Windows anzeigen würde, dass deine Platte ~240 Gibibyte hätte.
Ein Nibble ist einfach nur ein halbes Oktett, also 4 Bit, benutzt aber kein Mensch