Stadt oder Land: Wo lebt es sich gesünder?

In der Stadt oder auf dem Land, wo wollen wir leben? Diese Frage haben sich die meisten von uns wohl schon gestellt. Eine Umfrage im Auftrag der „Apotheken Umschau“ zeigt, wo die Mehrheit der Deutschen wohnen möchte. In der Stadt gibt es mehr Arbeitsplätze, mehr kulturelle Angebote und die medizinische Versorgung ist besser. Auf dem […]