Reiki :

Définition

Le dictionnaire Oxford donne la définition suivante du mot Reiki : « Le Reiki est une technique de soin énergétique par laquelle le thérapeute canalise et transmet l’énergie au patient par imposition des mains pour activer les processus naturels de guérison. »

Le Reiki est reconnu par les assurances maladie dans plusieurs pays tels que la Suisse, l’Allemagne et utilisé dans les hôpitaux au Canada et aux États-Unis.

Indications

Cette thérapie de soin énergétique, ancienne et très puissante, agit aux niveaux physique, psychologique et spirituel. Elle améliore la santé, favorise la guérison des traumatismes émotionnels, le développement personnel et l’évolution spirituelle.

Parfois, le Reiki aide là où aucun résultat n’avait été atteint auparavant.