Le naturisme est-il autorisé en France ?
Le naturisme peut être défini comme un mode de vie impliquant une pratique collective de la nudité à la recherche du plaisir. Pour les naturistes, être nu c’est être en accord avec la nature. La pratique consiste à exposer toutes les parties du corps à la vue d’autres personnes outre que soi-même. Pour éviter que cette pratique ne se confonde avec l’exhibitionnisme, des textes de loi ont été votés pour définir les lieux appropriés à un tel exercice. Nous vous proposons de découvrir quelques-unes des réglementations pour le naturisme.