Perché il numero uno non è un numero primo?

Il numero uno non è considerato un numero primo.

I numeri primi sono definiti come quei numeri interi maggiori di 1 che sono divisibili solo per 1 e per sé stessi.

Quindi, perché un numero sia primo, deve avere esattamente due divisori distinti: 1 e il numero stesso.

Il numero 1 ha un solo divisore (cioè se stesso), quindi non soddisfa questa condizione.

Perciò, per convenzione matematica, 1 non è un numero primo.

Nota. Questa definizione è importante perché, se 1 fosse considerato primo, molte proprietà fondamentali della teoria dei numeri, come il teorema fondamentale dell'aritmetica, non funzionerebbero correttamente.

Secondo il teorema fondamentale dell'aritmetica, ogni numero intero maggiore di 1 ha una fattorizzazione unica come prodotto di numeri primi, indipendentemente dall'ordine dei fattori.

Ad esempio, il numero 6 posso scriverlo in questo modo:

$$ 6 = 2 \cdot 3 = 3 \cdot 2  $$

In questo caso la fattorizzazione è unica.

Se includessi 1 come numero primo, questa unicità verrebbe compromessa.

Infatti, potrei moltiplicare per 1 qualsiasi numero primo quante volte voglio, generando infinite fattorizzazioni per lo stesso numero.

Ad esempio, se considerassi 1 come un numero primo, potrei scrivere:

$$ 6 = 2 \cdot 3 = 1 \cdot 2 \cdot 3 = 1 \cdot 1 \cdot 2 \cdot 3 \quad \text{e così via} $$

In questo modo, la fattorizzazione di un numero non sarebbe più unica, poiché potrei aggiungere infiniti fattori 1, senza fine.

Verrebbe meno l'unicità della fattorizzazione.

Per evitare questa ambiguità, si esclude 1 dall'insieme dei numeri primi.

E così via.

 

 


 

Segnalami un errore, un refuso o un suggerimento per migliorare gli appunti

FacebookTwitterLinkedinLinkedin
knowledge base

I numeri primi

FAQ