Was sind natürliche Zahlen?

In der Mathematik sind natürliche Zahlen im ursprünglichen Sinne alle positiven ganzen Zahlen ohne die Null. Es ist also die Folge 1, 2, 3, … In neueren Definitionen wird häufig auch die Null eingeschlossen (0, 1, 2, 3, …).

Die Menge der natürlichen Zahlen wird auch durch den Großbuchstaben N mit doppeltem Anfangsstrich dargestellt (hier aus technischen Gründen nur mit normalem Anfangsstrich). Zählt man die Null hinzu, wird zur besseren Kenntlichmachung dem Symbol eine tiefgestellte Null angehängt, also N0. Will man angeben, dass die Null ausdrücklich nicht einbezogen wird, wird dies oft durch die Schreibweise N* verdeutlicht.

In der Programmierung kommen die Integer-Datentypen „unsigned int“ bzw. „unsigned long“ der Menge der natürlichen Zahlen recht nahe. Die genauen Datentypbezeichnungen sind von der jeweiligen Programmiersprache abhängig. Der Unterschied zur mathematischen Definition ist, dass die Datentypen alle einen begrenzten Wertebereich haben („unsigned long“ etwa bis 2 Milliarden), die natürlichen Zahlen aber keine Grenze nach oben aufweisen.

Natürliche Zahlen umfassen keine negativen Werte. Will man auch diese mit einschließen, spricht man allgemein von der Menge der ganzen Zahlen (…, -3, -2, -1, 0, 1, 2, 3, …). Das Gegenstück zu den ganzen Zahlen sind die reellen Zahlen. Bei diesen unterscheidet man zwischen rationalen und irrationalen Zahlen. Rationale Zahlen bilden immer Quotienten zweier ganzen Zahlen (Beispiel: 1/2 oder 23/24). Irrationale Zahlen sind ebenfalls gebrochene Zahlen, lassen sich aber nicht durch einen Ganzzahl-Quotienten darstellen. Ein Beispiel für eine irrationale Zahl ist die Wurzel aus 2. In der Programmierung dienen Gleitkomma-Datentypen zur Abbildung reeller Zahlen (typischerweise „float“, „double“ und „long double“). Die Unterschiede der einzelnen Datentypen liegen im Wertebereich und in der Genauigkeit, mit der die Werte repräsentiert werden.