Perché il numero uno non è un numero primo?
Il numero uno non è considerato un numero primo.
I numeri primi sono definiti come quei numeri interi maggiori di 1 che sono divisibili solo per 1 e per sé stessi.
Quindi, perché un numero sia primo, deve avere esattamente due divisori distinti: 1 e il numero stesso.
Il numero 1 ha un solo divisore (cioè se stesso), quindi non soddisfa questa condizione.
Perciò, per convenzione matematica, 1 non è un numero primo.
Nota. Questa definizione è importante perché, se 1 fosse considerato primo, molte proprietà fondamentali della teoria dei numeri, come il teorema fondamentale dell'aritmetica, non funzionerebbero correttamente.
Secondo il teorema fondamentale dell'aritmetica, ogni numero intero maggiore di 1 ha una fattorizzazione unica come prodotto di numeri primi, indipendentemente dall'ordine dei fattori.
Ad esempio, il numero 6 posso scriverlo in questo modo:
$$ 6 = 2 \cdot 3 = 3 \cdot 2 $$
In questo caso la fattorizzazione è unica.
Se includessi 1 come numero primo, questa unicità verrebbe compromessa.
Infatti, potrei moltiplicare per 1 qualsiasi numero primo quante volte voglio, generando infinite fattorizzazioni per lo stesso numero.
Ad esempio, se considerassi 1 come un numero primo, potrei scrivere:
$$ 6 = 2 \cdot 3 = 1 \cdot 2 \cdot 3 = 1 \cdot 1 \cdot 2 \cdot 3 \quad \text{e così via} $$
In questo modo, la fattorizzazione di un numero non sarebbe più unica, poiché potrei aggiungere infiniti fattori 1, senza fine.
Verrebbe meno l'unicità della fattorizzazione.
Per evitare questa ambiguità, si esclude 1 dall'insieme dei numeri primi.
E così via.