definizione 

Il naturismo e’ un modo di vivere in armonia con la natura caratterizzato dalla pratica della nudita’ in comune che ha lo scopo di favorire il rispetto di se stessi, il rispetto degli altri e quello dell’ambiente“.

Il naturismo è un movimento sano, pacifico, educativo, apolitico e di socializzazione, che non ha nulla a che fare con la trasgressione ma, anzi, è vissuto in un ambiente ideale per tutta la famiglia. Esso promuove la pratica della vita all’aria aperta, dell’esercizio fisico, dell’alimentazione naturale e vegetariana, della medicina naturale, la protezione dell’ambiente, della natura e degli animali; promuove inoltre la lotta contro l’inquinamento, il consumismo, l’abuso dell’alcool e l’uso del tabacco e delle sostanze stupefacenti.