Der 4 GHz Prozessor, da er die Werte zwei Milliarden Mal pro Sekunde testet (doppelt so oft, wie ein 2 GHz Prozessor).
(Aber bei verschiedenen Prozessortypen gibt es andere Faktoren neben der Taktgeschwindigkeit, die bestimmen, wie viel jeder Prozessor pro Sekunde tun kann.)
Erinnert Euch an den letzten Vorteil des Binären:
Da alle möglichen Arten von Daten im Computerspeicher (primären und sekundären) mit der gleichen elektronischen Methode gespeichert werden, können unzählige fehlerfreie Kopien von jedem Datentyp oder Programm gemacht werden.
Jedes System von Symbolen kann in Bitmuster übersetzt werden. Ein Beispiel dafür ist, wie englische Zeichen in Acht-Bit Mustern dargestellt werden. Die Vereinbarung darüber welches Muster welches Zeichen darstellt wird ASCII (American Standard Code for Information Interchange) genannt.
Die Hardware und die Software eines Computersystems befolgen diese Vereinbarung (üblicherweise), wenn die Daten aus "Text" bestehen. (Ihr werdet später noch mehr darüber erfahren.) Andere Datentypen (nicht-alphanumerische Daten) werden mit anderen Methoden dargestellt.
Können Zeichen von anderen Alphabeten als dem Englischen dargestellt werden?