Sicher habt ihr mibekommen, dass unsere deutsche Frauen-Fussball-Elf Weltmeister geworden ist.
Bei der "Männer-Fussball-WM" stand hier das ganze Land Kopf. Egal ob die WM nun in Deutschland ausgetragen wurde oder irgendwo anders auf der Welt. Die Fußball-WM ist das Ereignis schlecht hin. Da wird jederzeit ein riieeeeesen Hype drum gemacht und alle sind ganz aus dem Häuschen.
Ich finde, wie das hier bei dem großen Erfolg der Damen-Elf läuft, ist arm. NULL Euphorie, NULL Freude. Das wird nur zur Kenntnis genommen. Villeicht ein bissl mit Lob besudelt. Aber das muss dann auch reichen?
Was soll das?
Also ich habe schon vom "Männer"-Fußball kaum ne Ahnung, ist ganz und gar nicht mein Sport. Vielleicht, weil mir die Zuschauer (oder große Teile davon) einfach zu dämlich sind. Von den ganzen Kosten, die für Polizei und Co. notwendig sind, damit sich die Fans nicht die Köppe einschlagen mal ganz zu schweigen. Krieg ich Plaque. Beim Formel 1 treffen 200.000 Leute aufeinander und alle genießen zusammen das Event, egal ob nun rot, silber oder sonstwie. Da kann man selbst als roter zwischen silbernen laut brüllen... "nur ein kaputter Benz ist ein guter Benz" ohne dass man Sorge haben muss. Insofern... Fußball... rotes Tuch!
Ich schaue mir gern die National-Elf bei EM oder WM an. Da gehts um mehr, als nur so innerdeutschen Wettkampf oder Hass zwischen Braunschweig und Hannover. Da gehts um Deutschlands Sport in der Welt.
Ist der Frauen-Fußball denn um so vieles schlechter, dass er von den ganzen Fußball-Mackern die stuuuundenlang über die Bundesliga diskutieren können nur beschmuntzelt wird? Ist es nicht egal, ob das Männer oder Frauen sind, die da für Deutschland Weltmeister werden?
Klärt mich bitte mal auf.