Naturliga tal är de siffror som används för de mest grundläggande beräkningsoperationerna, samt för att räkna elementen som tillhör vilken uppsättning som helst. På samma sätt kan den definieras som vilken beståndsdel som helst i uppsättningen ℕ eller ℕ = {1, 2, 3, 4,…}; Det bör noteras att, enligt det vetenskapliga område som vi arbetar med, kan denna definition eventuellt inkludera noll, det vill säga ℕ = {0, 1, 2, 3, 4,…}. Enligt din organisation är numret till höger nästa eller successivt, medan det som finns till vänster kommer att vara det regressiva, även om detta är vanligare när de räknas på samma sätt.
I den antika grekisk-romerska världen hänvisades representationen av numeriska kvantiteter till användningen av alfabetets symboler; senare skulle nya symboler inkluderas. Det var dock inte förrän på 1800-talet som uppdraget att upptäcka om naturliga tal verkligen existerade började; var Richard Dedekind den man som var ansvarig för att utveckla ett antal teorier för att bevisa förekomsten av det hela. Detta ledde till olika tidsintellektuella och matematiker, som Giuseppe Peano, Friedrich Ludwig Gottlob Frege och Ernst Zermelo, som slutade etablera helheten inom vetenskapen och tilldela dem en rad egenskaper.
Dessa typer av nummer används normalt för att räkna komponenterna i en uppsättning element; detta, med vetskap om att denna uppsättning är en samling objekt, såsom rutter, figurer, bokstäver, siffror eller personer, som kan betraktas som ett objekt i sig. Dessa identifieras med vissa bokstäver, vanligtvis enligt namnetde får. De naturliga siffrorna har också en serie egenskaper, såsom: det är en helt och ordnad uppsättning på grund av dess arvförhållande; kvantiteterna som motsvarar q och r kommer alltid att bestämmas av a och b. Till detta har vi att varje nummer större än 1 måste gå efter ett annat naturligt tal; att mellan två naturliga tal finns en begränsad kvantitet och att det alltid kommer att finnas ett tal som är större än ett annat eller, eftersom det är detsamma, är det oändligt.