Erkenntnisse des Lebens

Was bedeutet Leben im 21. Jahrhundert? Depression, Leere und Sinnlosigkeit prägen das Bild westlicher Zivilisation. Wir müssen wieder Verantwortung übernehmen. Für uns selbst und für unsere Gesundheit. Körperlich und Geistig. Meinen eigenen Weg dorthin und die Weisheit der ich begegne teile ich auf diesem Blog.