Ich habe die Erfahrung gemacht das Frauensport im Allgemeinen nicht ernst genommen wird.
"Das ist "ganz nett" zum ansehen, aber das ist doch kein richtiger Sport." solche Aussagen bekomme ich zu hören....und kratzen an mir gewaltig.
Warum soll das kein richtiger Sport sein? Weil Frauen tasächlich fair bleiben?
Ich habe Jahre lang Handball gespielt. "Das ist ja ganz nett, aber Männer sind doch viel härter. Da hat das Spiel doch mehr Dampf." Komisch nur das sich das im Spiel nie nach Lali angefühlt hat

Deshalb freut es mich doppelt das die Frauen nun schon zum zweiten mal (und das auch noch in Folge) Weltmeister wurden.
Aber ich höre es schon...: "Ja, freut mich auch für sie, aber man kann Frauenfußball doch nicht so ernst nehmen wie Männerfußball. Und außerdem sind das doch alles Mannsweiber."


