Warum Statistik keine Angst machen muss
Zahlenwerte und Statistik – das ist für viele ein Gräuel. Entsprechend schrecken quantitative Forschungen ab und gerne wird auf die qualitative Inhaltsanalyse zurückgegriffen. Experteninterviews stehen hoch im Kurs, insbesondere wenn sich statistische Analysen in der Bachelorarbeit dadurch vermeiden lassen. Viele Studierende fürchten sich vor Statistik und vor dem Rechnen allgemein. Schon in der Schule herrscht eine Mathe-Angst vor, selbst bei Schülern, die nicht unter Dyskalkulie leiden [1] [2].
Dieser Ratgeberartikel hat zum Ziel, den Kontext von Zahlen näherzubringen und wie du in einer Bachelorarbeit einfache, statistische Analysen tätigst. In einem Quiz kannst du dein logisches Denken auf die Probe stellen. Lies in der abschließenden FAQ, wie du häufige statistische Stolperfallen umgehst.
Was Zahlen in der Statistik wirklich bedeuten
Im Gegensatz zum Mathematikunterricht in der Schule finden sich in einer Bachelorarbeit – außer natürlich im Studienfach Mathematik – niemals Zahlen ohne Kontext. Der Kontext wird bei Zahlen stets durch das damit Gemeinte verdeutlicht. „4 Kartoffeln + 3 Kartoffeln = 7 Kartoffeln“, so wurde es in der Grundschule gelernt, denn Grundschulkinder, und übrigens auch alle anderen Menschen, können sich unter „Kartoffeln“ etwas vorstellen. Damit sind Zahlen nicht „tot“, sondern beziehen sich auf Referenzobjekte in der Wirklichkeit.
Im Laufe der Schulzeit ändert sich der didaktische Vermittlungsansatz jedoch und Zahlen werden als Menge ohne Realbezüge behandelt. Es wird demzufolge noch in der Grundschule als Lernziel erwartet, dass ein Schüler 4 + 3 ausrechnen kann. In der siebten Klasse wird durch die Algebra eine weitere Abstraktion deutlich, komplexe Formeln müssen gelernt und verstanden werden; „f(x)…“ wird damit endgültig zum prägenden Albtraum vieler Schüler. Der Lebensweltbezug wird immer seltener deutlich, der praktische Nutzen wird teilweise durch ein „gymnasiales Denken“ gerechtfertigt. Der Abischnitt vieler Schüler wird durch Mathe ruiniert, dabei bestünde durch mehr Praxisbezug die Chance, mehr zu verstehen.
Nun zu der guten Nachricht: In der Bachelor- oder Masterarbeit finden sich Zahlen nie in einem leeren Raum. Zahlen sind nicht einfach Zahlen, weil sie Zahlen sind oder eine abstrakte Menge bilden. In einer quantitativen empirischen Forschungsarbeit, insbesondere in den Natur- und Sozialwissenschaften, herrschen stets Bezüge vor. Zahlenwerte werden anwendungsbezogen erhoben. Die Menge lässt sich also konkret benennen: 157 Autos wurden gezählt, an einer Umfrage nahmen 182 Teilnehmer teil, ein Zahnrad dreht sich 21-mal in 60 Sekunden, ein Influencer hat 354.000 Follower usw. Zahlen sind Kennwerte und beziehen sich immer auf ein Objekt oder einen klar benennbaren realen Zustand.
Alltagsnahe Beispiele für Statistik und logisches Denken
Statistik in wissenschaftlichen Arbeiten ist realitätsnah und hat zum Ziel, Phänomene aus unserer Lebenswelt zu eruieren. Überspitzt formuliert ist eine quantitative Bachelorarbeit damit als große Textaufgabe zu verstehen. Der Einführungstext entspricht dabei dem Theorieteil, die Rechnung dem empirischen Teil und die Antwort der Diskussion bzw. dem Fazit.
Die folgenden drei Beispiele zeigen die Praxisnähe von Statistik. Es werden bewusst nur die relevanten Aspekte nähergebracht, womit beispielsweise nicht zur Verdeutlichung gehörende Fragen ausgelassen werden.
Beispiel 1: Statistik-Denkfehler am Centstück
Du möchtest herausfinden, wie viele Menschen im letzten Jahr eine 1‑Cent‑Münze verloren, und wie viele eine gefunden haben. Dazu führst du eine Online-Umfrage durch und das Ergebnis könnte wie folgt aussehen.
Erfahrungsgemäß drängt sich bei einer derartigen Verteilung vielen Menschen der Gedanke auf, dass etwas nicht stimmen könne. Denn wenn innerhalb der letzten zwölf Monate von 100 Personen nur 5 ein Centstück verloren haben, aber 90 eins gefunden haben, scheint etwas nicht zusammenzupassen. Der Gedankengang ließe sich wie folgt visualisieren.
Doch diese hier dargestellte Denkweise ist falsch. Ihr liegen gleich mehrere Irrtümer zugrunde.
Irrtum 1: Prozentuale Verteilung passt nicht
Würde jeder, der ein Centstück verloren hat, eines finden, wäre die Verteilung jeweils 50:50 und nicht 5:95 bzw. 90:10. Gegen diese Interpretation der Daten sprechen die Daten selbst. Der Denkfehler liegt darin, dass lediglich „positiv“ gedacht wird. Die Denkweise umfasst nämlich nur jene Personen, die mit „Ja“ antworteten (gefunden: ja; verloren: ja).
Dieser Denkfehler kann mit unserem Vorstellungsvermögen erklärt werden. Situationen werden im Gehirn bildlich dargestellt. Bei der Aussage „1‑Cent‑Münze verloren“ ist das Gehirn dazu geneigt, beispielsweise ein aus der Geldbörse fallendes Geldstück als Bild im Kopf zu erzeugen. Bei der Aussage „1‑Cent‑Münze gefunden“ könnte das Bild erzeugt werden, wie sich jemand bückt und Geld aufhebt. Doch jene Umfrageteilnehmer, die nichts gefunden haben und jene, die nichts verloren haben, können im inneren Auge auch nicht bildlich dargestellt werden.
Irrtum 2: Jede verlorene 1‑Cent‑Münze wird gefunden
Da die Umfrage auf Sachverhalte in der Realwelt abzielt, muss hier hinterfragt werden, ob jedes verlorene Centstück überhaupt gefunden wird. Doch dies ist unrealistisch. Beispielsweise wird ein im Baggersee beim Baden verlorenes Centstück vielleicht nie gefunden. Damit liegt auch diesbezüglich ein Denkfehler vor, der die obige Interpretation verwirft und bei der Evaluation bedacht werden muss.
Irrtum 3: Zeitlicher Rahmen begrenzt
Die Frage in der Umfrage bezieht sich auf den Zeitraum der „letzten 12 Monate“. Selbst wenn jede verlorene Centmünze gefunden würde, geschähe dies nicht zwingend in dem in der Umfrage abgefragten Zeitraum. Es könnte auch sein, dass jemand ein Centstück gefunden hat, das bereits mehr als ein Jahr rumliegt. Das ändert nichts am Fund selbst. Allerdings würde der Fund nicht als „verlorenes Centstück“ auf der Gegenseite auftauchen.
Einerseits ist es sinnvoll, Fragestellungen und Forschungsaufträge in wissenschaftlichen Arbeiten von vornherein einzugrenzen; wie hier auf die letzten zwölf Monate. Andererseits müssen eben jene Eingrenzungen bei statistischen Auswertungen vor der Evaluation bedacht und nach der Evaluation reflektiert werden.
Irrtum 4: Wissen und Vermutung
Bei genauerer Überlegung besteht die Möglichkeit, dass beispielsweise ein und dieselbe Person mehrere Centstücke verloren haben könnte, die unterschiedliche Personen gefunden haben.
Hier lässt sich ein logischer Bogen zum Theorieteil jener Forschungsarbeit spannen. Denn bereits vor der Durchführung der Forschung sollten nicht nur das Forschungsziel und die Messinstrumente durchdacht werden, sondern auch die Aussagekraft der erwarteten Antworten. Wer hier als Merkmalsträger bloß „1‑Cent‑Münze verlieren“ und „1‑Cent‑Münze finden“ definiert, denkt bereits eingangs zu kurz, denn er trennt nicht zwischen Wissen und Vermutung.
- Wer ein 1‑Cent‑Stück findet, der weiß dies und jeder, der „Ja“ ankreuzt, erinnert sich an seinen 1‑Cent‑Fund. Die Antwort beruht demzufolge auf wiedergegebenem Wissen.
- Wer ein 1‑Cent‑Stück verliert, merkt dies eventuell gar nicht und womöglich fällt demjenigen niemals auf, dass ihm irgendwo eine Centmünze aus dem Portemonnaie gefallen ist. Die diesbezüglich in einer Umfrage gegebene Antwort beruht also eventuell auf einer Vermutung.
Oft werden diese Aspekte in wissenschaftlichen Arbeiten in unzulässiger Weise vermischt. Ähnlich verhält es sich mit objektiv Messbarem (z. B. gemessene Dezibel) und subjektiv Empfundenem (z. B. Lautstärke). Achte also darauf, dass du erhobene Daten richtig einordnest.
Fazit zu Beispiel 1
Es sollte deutlich geworden sein, dass selbst bei vermeintlich einfachen Sachverhalten korrekte Logik kein simpler 1:1‑Rückschluss sein darf, sondern ein Kombinationsdenken über die Faktoren hinaus erfordert.
Die in der quantitativen Forschung einzuhaltenden Gütekriterien sind unter dieser Betrachtung demnach Kriterien zur Interpretationsfindung. Denn Dateninterpretation findet niemals losgelöst von Fakten in einem Vakuum statt. Ein sachlich-neutral ausgeführter, mit aktueller Fachliteratur zitierter und fundierter Theorieteil stellt demzufolge bereits vor der Forschung die inhaltlichen Weichen zur Datenerhebung. Konkret wird dies an der Hypothesenbildung ersichtlich, da sich in der Formulierung der Hypothesen bereits der Grad substanzieller Einarbeitung offenbart.
Bei der Dateninterpretation – wie hier im 1‑Cent‑Münzen-Beispiel – wird deutlich, dass es in praktischer Hinsicht viele Möglichkeiten gibt, die zu dem Umfrageergebnis geführt haben können. In hiesigem Beispiel bleibt die Interpretation folglich das Ergebnis und das Ergebnis ist die Interpretation. Zum einen mag dies der hier ausschnitthaften Darstellung geschuldet sein, zum anderen sind Datenerhebungen in Studienarbeiten häufig dadurch gekennzeichnet, dass sie eher eine Bestandsaufnahme leisten und damit einen Status quo widerspiegeln.
Die deskriptive Statistik, als beschreibende Methode, bietet ausreichend Möglichkeiten zu eben jener Ermittlung von Sachverhalten. Im Beispiel oben wäre deshalb noch eine Kreuzkorrelation möglich gewesen, die ermittelt hätte, ob jene Befragte, die ein Centstück verloren haben, auch angaben, eines gefunden zu haben. Doch auch diese Erkenntnisse bleiben im beschreibenden Rahmen und fördern, ungeachtet der Zielsetzung der Arbeit, vergleichsweise minimale Erkenntnisse zutage.
Beispiel 2: Statistik und Sexualforschung – Reziprozität und Verzerrungen
In diesem Beispiel geht es richtig zur Sache. Denn auf die Frage nach der Anzahl heterosexueller Geschlechtspartner antworten Frauen und Männer unterschiedlich. Im ersten Augenblick scheint der Sachverhalt dem Cent-Münzen-Beispiel zu gleichen: Es gibt erneut zwei Gruppen (diesmal Männer und Frauen statt Centverlierer und Centfinder). Doch da macht die Logik einen Strich durch die Rechnung – buchstäblich.
Die Grafik visualisiert den Kernunterschied der beiden Beispiele.
Im Cent‑Münzen‑Beispiel liegt keine Paarbeziehung zwischen Centverlierern und Centfindern vor. Bereits oben wurden die Gründe diskutiert (Münze gefunden, die länger als zwölf Monate irgendwo lag; Münze unwiederbringlich verloren; Beachtung von Wissen und Vermutung). Aus diesem Grund sind in der Grafik (Beispiel links) keine Pfeile als Paarbeziehungen eingetragen.
Sex jedoch ist zwingend reziprok, d. h. wechselseitig. Ein heterosexueller Kontakt kann nicht alleine stattfinden; ein Mann braucht eine Frau dazu, eine Frau einen Mann (Beispiel rechts). Dies verdeutlichen bidirektionale Pfeile, die statistische Beziehungen deutlich machen. Beim genauen Blick auf die Darstellung wird ersichtlich, dass Mann A mit Frau A einen Sexualkontakt erlebte, Frau A aber auch mit Mann D. Mann B mit Frau C und E usw.; Mann E, Frau B und D hatten keinen gegengeschlechtlichen Kontakt. Das Zählen der Pfeile ist damit das Zählen der Sexualkontakte, womit jeder Pfeil eine Paarbeziehung, d. h. ein Zusammenhang zweier Variablen, darstellt. Von den Männern gehen sechs Pfeile Richtung Frauen, von den Frauen gehen sechs Pfeile Richtung Männer. Diese gleiche Anzahl ist das Kernmerkmal reziproker Beziehungen.
Ist eine Studie repräsentativ, müsste eigentlich diese Reziprozität mathematisch deutlich werden. Denn die Addition der Sexualkontakte von Männern und Frauen müsste die identische Zahl hervorbringen.
Die Befunde der GeSID‑Studie (Gesundheit und Sexualität in Deutschland) postulieren als arithmetische Mittelwerte jedoch, dass jeder Mann durchschnittlich mit 9,8 Frauen Sex hatte. Die Frauen gaben im Durchschnitt an, 6,1 männliche Geschlechtspartner gehabt zu haben. [3] Wie kann das sein?
Erklärung 1: Inhaltliche Fehleinschätzung
Um Daten aus derartigen Studien überhaupt korrekt auswerten zu können, muss sich der Auswertende der vorliegenden Reziprozität von vornherein bewusst sein. Insbesondere statistisch Unerfahrene neigen oft unbewusst dazu, eigene Erfahrungen einfließen zu lassen. Unterbewusst schwingt vielleicht die Frage mit: „Wer hatte Sex der schwanger machte?“ Diese Fragestellung wiese mehr Parallelen zu dem Centstück‑Beispiel auf. Denn wie nicht jedes verlorene Centstück zwangsläufig gefunden wird, macht nicht jeder Sex zwangsläufig schwanger.
Derartige Denkfehler lassen sich umgehen, indem in einer Forschungsarbeit die Zielsetzung bereits zu Beginn klar formuliert wird. Ausdrücklich inbegriffen ist damit auch die Forschungsfrage, womit der Gesamtforschungsauftrag ersichtlich wird. Insbesondere die Hypothesenbildung sollte eine klare Orientierung bieten, um begründete Items für einen Fragebogen bilden zu können. Die statistischen Möglichkeiten sollten demnach nicht erst bei der Evaluation bedacht werden. Denn ist die Umfrage abgeschlossen, liegen die Daten vor und für eine Korrektur ist es zu spät.
Erklärung 2: Die Macht der Repräsentativität
Repräsentativität ist nach Döring „ein exaktes Miniaturabbild der Population“ [4]. Die Stichprobenmerkmale zum Erreichen der Repräsentativität sind damit abhängig von der Zielsetzung der Studie und im Einzelfall zu begründen. [4]
Der statistische Widerspruch der geschlechterspezifischen Angaben zu den heterosexuellen Sexualpartnern ergibt sich also erst dann, wenn davon auszugehen ist, dass es sich um eine repräsentative, gleichmäßig verteilte Gruppe handelt. Würde man nur eine geringe Zahl, beispielsweise nur sieben Personen, nach ihren Sexualkontakten fragen, ergäbe sich ein völlig verzerrtes Bild. Dieses wäre stark von den jeweiligen Einzelantworten geprägt und nicht repräsentativ.
Hinzu kommt, dass sich der sogenannte Ausreißer‑Effekt bei kleinen Stichproben besonders bemerkbar macht [4]. Denn gibt ein Proband einen ungewöhnlich hohen oder niedrigen Wert an, so beeinflusst dieser den arithmetischen Mittelwert in kleinen Stichproben deutlich stärker als in großen. Der Median hingegen ist unempfindlicher gegenüber Ausreißern, weil hier die Zahlen sortiert werden und lediglich die mittleren Werte der sortierten Zahlenreihe berücksichtigt werden.
Erklärung 3: Unklares Item
In statistischen Kontexten ist besonders wichtig, dass Merkmale, Merkmalsträger, Merkmalsausprägung und Variablen eindeutig definiert sind. Deshalb ist es umso wichtiger, Fragen an den Probanden konkret zu formulieren, damit Items eindeutig sind.
Im konkreten Fall weist die GeSID‑Studie auf den Unterschied zwischen „Sex haben“ und „sexuelle Erfahrungen“ hin und dass die Befragten über den Unterschied aufgeklärt worden sind. Erst dies gewährleistete eine Vergleichbarkeit der Antworten, da es sexuelle Praktiken geben könnte, die – je nach individueller Bewertung – dem Sex zuzuordnen sind oder nicht (z. B. Oralverkehr). [3] Begriffsdefinitionen tragen maßgeblich zum Verstehen der Fragestellung bei. Diesbezügliche Reziprozität ergibt sich also nur, wenn alle Befragte das gleiche Begriffsverständnis haben.
Solltest du bei deiner Bachelor- oder Masterarbeit erst im Nachhinein bemerken, dass deine Teilnehmer Fragen eventuell fehlinterpretiert haben könnten, solltest du dies spätestens bei der Reflexion der Ergebnisse unmissverständlich ansprechen. Durch eine ehrliche und saubere Reflexion beweist du, dass dich nicht nur Zahlen interessieren, sondern dir die bestmögliche Beschreibung der Realwelt am Herzen liegt. Zugleich ergeben sich durch eine ehrliche Reflexion Limitationen, die du ebenfalls benennen kannst. Außerdem sind sowohl deine Befunde als auch deine Studienergebnisse anders in die Forschungslandschaft einzuordnen. Begreife Fehler deshalb nicht als zwingende Defizite, sondern als Chance.
Erklärung 4: Hawthorne-Effekt
Der Hawthorne-Effekt beschreibt im Allgemeinen die Reaktivität von Probanden auf die Untersuchungssituation. [4] [5] [6] Vereinfacht gesagt: Jemand, der beobachtet wird und das weiß, handelt anders als jemand, dessen Handlungen mit versteckter Kamera dokumentiert werden. Jemand, der weiß, dass er sich in einer Test- oder Prüfungssituation befindet, handelt anders als jemand, der nicht weiß, dass er getestet wird. Es ist offensichtlich, dass jemand, der befragt wird oder einen Fragebogen ausfüllt, auch weiß, dass seine Antworten ausgewertet werden.
Dieser Effekt führt zu einer Verzerrung. Insbesondere die Einhaltung ethischer Aspekte gebietet, dass Probanden über die Studie einführend aufzuklären sind. Die Erhebung und Evaluation geheimen Ton- oder Filmmaterials sind ethisch umstritten.
Es liegt auf der Hand, dass die Antwortverzerrung umso größer ist, je persönlicher die Fragen sind. Insbesondere Fragen zum Einkommen oder zum Sexualverhalten werden weniger ehrlich beantwortet. Nichtsdestotrotz kannst du den Hawthorne-Effekt auf jeden Fall in deiner Arbeit reflektieren, vielleicht auch unter dem Aspekt, dass du Fragen um- oder neuformuliert hast, um möglichst intime Situationen zu vermeiden. Hier ist es sinnvoll, den Hawthorne-Effekt im Kontext deiner Arbeit bzw. Fragestellungen oder Themenblöcken des Fragebogens zu reflektieren.
Erklärung 5: Soziale Erwünschtheit
Soziale Erwünschtheit bedeutet, dass Probanden bewusst falsche Angaben tätigen, um in einem besseren Licht zu stehen [5] [6]. Inwieweit eine derartige Verzerrung vorliegt, muss im Einzelfall reflektiert werden.
Wann und wie stark das Antwortverhalten verzerrt wird, ist wiederum Gegenstand eigener Forschungen [4] [7]. Als sicher gilt, dass Telefoninterviews, postalisch versendete Fragebögen oder Online-Fragebögen den Effekt der Sozialen Erwünschtheit reduzieren können, da kein Face-to-Face-Kontakt vorherrscht [4].
In der GeSID‑Studie findet sich der Hinweis, dass Männer die Anzahl der Sexualpartnerinnen aus Gründen der sozialen Erwünschtheit übertreiben, um sich als sexuell erfahren und aktiv darzustellen. Frauen hingegen untertreiben, weil mit einer großen Anzahl Sexualpartner Stigmatisierung einhergeht. [3]
Insbesondere in deiner Studienarbeit kannst du hier punkten, indem du hinterfragst, wie sensibel deine Fragen bzw. Antworten waren. Diesbezüglich kannst du reflektieren, inwieweit soziale Erwünschtheit zum Antwortverhalten der Teilnehmenden beitrug. Wichtig ist hier die Plausibilität. Wenn du ehrlich schreibst, dass dieser Aspekt eine Rolle gespielt haben könnte, dann ist dies in den allermeisten Fällen nachvollziehbar und kann leicht begründet werden. Legst du dich hingegen fest, dass beispielsweise 20 % Messfehler auf soziale Erwünschtheit zurückzuführen sind, ist dies nicht plausibel, weil sich dies nicht exakt nachweisen lässt. Fehler im Studiendesign, allgemeine Messfehler oder sonstige Diskrepanzen auf eine „Verzerrung durch soziale Erwünschtheit“ zu schieben, ist hingegen eine unwissenschaftliche Ausrede, fällt Dozenten auf und macht keine gute Figur.
Erklärung 6: Ungewollte Differenzen
Neben den Effekten der absichtlichen Falschantwort könnten auch Unterschiede durch Schätzungen eintreten. Konkret wurden in der GeSID‑Studie Menschen zu ihrer Anzahl der Sexualpartner in ihrem Leben, befragt. Demnach musste jeder addieren. Hier entstehen zum einen Erinnerungsfehler. Zum anderen können Rundungsfehler ausschlaggebend gewesen sein. Insbesondere, wer viele Sexualpartner hatte, tendiert dazu, beim Schätzen „großzügig aufzurunden“ [3].
Hinzu kommt, dass die Anzahl der Sexualpartner im Laufe des Lebens allenfalls mehr werden kann. Ein Minus kann es in dieser Logik nicht geben. In der GeSID‑Studie hatten beispielsweise 26‑ bis 35‑jährige Frauen die meisten Sexualpartner, höhere Altersgruppen weniger. Da es sich um eine Querschnittstudie handelt, können als Erklärungsmöglichkeit unterschiedliche Generationen und damit verbundene Lebensstile herangezogen werden. [3] In einer Bachelorarbeit – die aufgrund ihres zeitlichen Umfangs keine Longitudinaldaten erheben kann – könnte im Rahmen einer Reflexion diesbezüglich die Durchführung einer Längsschnittstudie empfohlen werden.
Erklärung 7: Reflexion des Studiendesigns
Besonders zu hinterfragen ist stets das Studiendesign. Im GeSID‑Beispiel wäre es möglich, dass die Repräsentativität indirekt untergraben worden ist. Beispielsweise wäre es möglich, dass sich die höhere Anzahl an Sexualpartnerinnen bei Männern durch Sex mit Sexarbeiterinnen begründet. Doch exakt diese Personengruppe nahm nicht an der Studie teil. [3]
Achte in deiner Bachelorarbeit stets darauf, dass du das Untersuchungsdesign, das Setting und die Stichprobe reflektierst. Auch hier gilt: Es ist besser, wenn du auf mögliche Abweichungen offen hinweist, als dass du Unklarheiten nicht diskutierst.
Fazit zu Beispiel 2
Die Erklärungsmöglichkeiten verdeutlichen, dass Alternativerklärungen stets bedacht werden müssen. Dies erfordert Reflexionsvermögen und Logik, darüber hinaus handwerkliche Fähigkeiten insbesondere im empirischen Teil. Studienergebnisse müssen deshalb korrekt reflektiert werden. Dies betrifft zum einen die Geeignetheit der Daten im Hinblick auf den Forschungsgegenstand bzw. das zu eruierende Phänomen. Zum anderen sollten Studienergebnisse in die Forschungslandschaft korrekt eingeordnet werden. Konkret findet sich beispielsweise eine Sexualstudie, in der die Befragten glaubten, an einen Lügendetektor angeschlossen zu sein. Dies glich Unterschiede stark aus, womit keine systematische Über- oder Untertreibung nachweisbar war [8].
Zur umsichtigen Einordnung solltest du bereits einführend erwähnen, dass es Studien gibt, die sich mit Sexualverhalten im Allgemeinen befassen [9] [10] [11]. Du begründest damit den thematischen Rahmen für deine eigene Untersuchung. So fällt beispielsweise auf, dass Herbenick an mehreren Studien mitgewirkt hat [9] [11]. Auch eine historische Entwicklung der Sexualforschung sollte nicht fehlen, um – je nach konkretem Forschungsauftrag – Befunde und Forschungsergebnisse zeitlich einordnen zu können. Als Klassiker der Sexualforschung seien hier die Kinsey‑Studien aus der Mitte des 20. Jahrhunderts genannt [12] [13].
Als Fazit lässt sich formulieren: Zahlenangaben zum Sexualverhalten sind stets interpretationsbedürftig und nicht objektiv-absolut.
Es sollte deutlich geworden sein, dass Interpretation und Reflexion in vielerlei Aspekten fließend ineinander übergehen. Bei der Erarbeitung deiner Bachelor- oder Masterarbeit solltest du deshalb entsprechende Ideen zur Reflexion bereits im Schreibprozess separat notieren oder – viel besser noch – an der entsprechenden Stelle in der Arbeit direkt vermerken.
Der Anspruch ist selbst bei rein deskriptiven Auswertungen hoch, da auch Korrelationen oder Paarbeziehungen zielgerichtet zum Forschungsziel getätigt werden müssen und du als Forschender Wesentliches herausfiltern musst. In einem ersten Schritt erfordert dies Klarheit über Begrifflichkeiten. So sind beispielsweise Verhältnisse nicht zu verwechseln mit Merkmalen. Daraus ergibt sich die Wichtigkeit des korrekten Gebrauchs von Fachsprache, was den Fokus auch auf die Einarbeitung lenkt.
Beispiel 3: Statistik und Wahrscheinlichkeiten – das Geburtstagsparadoxon
Während in den vorigen Beispielen das Erkennen von Logik im Vordergrund stand, geht es nun um die Einschätzung von Wahrscheinlichkeiten. Denn nicht immer sind Verzerrungseffekte auf allgemeine Denkfehler oder soziale Erwünschtheit zurückzuführen. Menschliches Denken neigt im Allgemeinen dazu, Unbekanntes in bekannte Muster zu pressen [14] [15]. Besonders große Zahlen können deshalb nur schwer vergegenwärtigt und Wahrscheinlichkeiten oftmals nur ungenau eingeschätzt werden.
Ein Beispiel dafür, wie Wahrscheinlichkeiten verzerren, stellt das Geburtstagsparadoxon dar [16] [17] [18]. Die zugrundeliegende Frage lautet:
„Wie groß ist die Wahrscheinlichkeit, dass zwei zufällig ausgewählte Personen am gleichen Tag Geburtstag haben? (unabhängig vom Jahrgang; Jahr = 365 Tage)“
Die 50-prozentige Wahrscheinlichkeit tritt bereits bei 23 Personen ein, die 99-prozentige bei 57 Personen. Die grafische Darstellung erweckt zwar den Eindruck, als verlaufe die Funktionslinie ab etwa 70 Personen parallel zu 100 %, doch das täuscht. Rein rechnerisch könnte es nämlich sein, dass 365 Personen alle an unterschiedlichen Tagen Geburtstag haben.
entspricht \(\;P \;\approx\; \dfrac{1}{6{,}87 \times 10^{156}}\;\)
Gegenwahrscheinlichkeit in Prozent
Dies ist die Wahrscheinlichkeit, dass sich bei 365 zufällig ausgewählten Personen keine zwei einen Geburtstag teilen. Der Inhalt ist horizontal scrollbar.
Die absolute Wahrscheinlichkeit (100 %) tritt bei 366 Personen ein, da erst dann ausnahmslos jeder Tag des Jahres abgedeckt ist und ein Tag doppelt sein muss. Dies wird durch das Schubfachprinzip (Dirichletscher Schubfachsatz) garantiert [16] [17].
Auch hier wird deutlich: Wohl die wenigsten rechneten mit einer derart großen Zahl. In wissenschaftlichen Arbeiten ist es deshalb wichtig, Ergebnisse nicht nur korrekt anzugeben, sondern auch ihre Herleitung und Logik darzulegen. Handelt es sich also nicht mehr um x gezählte Autos, sondern um pure mathematische Formeln, so freut sich der Leser nicht nur über eine inhaltliche Einordnung, sondern vor allem um eine einführende Erklärung. Exakt diese Hinführung leistet ein fachlicher Theorieteil.
Falsche Einordnung beim Schätzen
Zahlen dieser Größenordnung bzw. dieser Mächtigkeit – wie im obigen Beispiel – sind äußerst selten und selbst in der Astronomie eine Ausnahme. Die Wahrscheinlichkeit, den Lottojackpot zu knacken (ca. 1 : 140.000.000) klingt dagegen realistisch. Allerdings wird die Wahrscheinlichkeit auch hier falsch eingeschätzt.
Stell dir vor, würdest mit dem Auto von Hannover nach Hamburg fahren und würdest die Strecke in 1 mm-Abschnitte einteilen. So ergäben sich 140 Millionen Millimeter. Dann müsstest du exakt den einen Millimeter finden, auf dem ein Steinchen liegt.
Ein weiterer Vergleich:
Du hast deine Sonnenbrille im Urlaub verloren. Deine Begleitung ist sich sicher, dass euer Zimmernachbar sie mitgenommen hat. Bekannt ist über ihn nur, dass er deutsch spricht. Also klingelst du an einem x‑beliebigen Haus im deutschsprachigen Raum und fragst: „Haben Sie meine Sonnenbrille?“ Die Wahrscheinlichkeit, dass derjenige die Sonnenbrille tatsächlich hat, beträgt auch etwa 1 : 140 Millionen.
Das sind völlig surreale Situationen. Millionen Menschen spielen aber regelmäßig Lotto, da die Einschätzung nicht an der mathematischen Wahrscheinlichkeit festgemacht wird, sondern am versprochenen Nutzen.
Verschiedene Einordnungen durch unterschiedliche Perspektive
Beim Geburtstagsparadoxon – wie oben beschrieben – wird gefragt, ob sich irgendwelche zwei Personen in einer Gruppe zufällig denselben Geburtstag teilen. Demnach sind Paarbeziehungen von jedem Teilnehmer ausgehend möglich. Deshalb genügen bereits 23 Personen für eine 50‑prozentige Wahrscheinlichkeit [18]. Anders verhält es sich bei folgender Fragestellung:
„Angenommen, du bist einer von 50 zufällig ausgewählten Personen. Wie groß ist die Wahrscheinlichkeit, dass jemand an deinem Tag Geburtstag hat? (unabhängig vom Jahrgang; Jahr = 365 Tage)“
Dafür gilt:
Bei 23 Personen beträgt die Wahrscheinlichkeit gerade mal 5,9 %, für die 50 %‑ige Wahrscheinlichkeit bedarf es rund 253 Personen. Das Eintreten von Ereignissen ist also abhängig von der Perspektive. Exakt hier liegt ein gedanklicher Kipppunkt, da kognitive Verzerrungen einsetzen [4] [5] [18] [19].
Der Spielcasino-Effekt beschreibt diese Fehleinschätzung: Aus der Vogelperspektive siehst du in einem Casino ständig jemanden gewinnen. Doch die Wahrscheinlichkeit, dass du selbst gewinnst, ist äußerst gering.
Im Glücksspiel wird Mathematik mit Psychologie verbunden. Durch frei wählbare Spieleinsätze oder durch die scheinbare Möglichkeit, einen Spielzug ‚stoppen‘ zu können, entsteht eine Kontrollillusion [20]. Ein kognitiver Fehlschluss ist die Gambler‘s Fallacy (Spielerfehlschluss). „Jetzt muss doch mal Rot kommen.“ könnte ein konkreter Irrtum beim Roulette sein, denn jedes Spiel ist – mathematisch betrachtet – unabhängig von vorangegangenen Spielen. [21] [22]
Beinahe-Gewinne (Near-Miss-Effekt) [23] treten beispielsweise bei Spielautomaten überproportional häufig auf, damit der Spieler seinen Einsatz erhöht [24].
Aus didaktischer Perspektive ist es deshalb wichtig, eine realistische Einschätzung bereits in der Grundschule zu fördern, indem Daten und Grafiken visuell gestaltet und ausgewertet werden. [25]
In deiner wissenschaftlichen Arbeit solltest du deshalb die Perspektive bereits im Forschungsdesign berücksichtigen. Würdest du Gewinnchancen im Glücksspiel ausrechnen und zugleich Spieler befragen, solltest du deren Antworten äußerst kritisch reflektieren.
Falsche Einschätzung des exponentiellen Wachstums
Fehleinschätzungen ergeben sich nahezu überall dort, wo exponentielles Wachstum vorherrscht [26]. Exponentialfunktion bedeutet, dass sich ein Wachstum oder Zerfall in regelmäßigen Abständen um denselben Faktor vervielfacht. [27]
Wird – so ein gedankliches Experiment – ein Blatt Papier in der Dicke von 0,1 mm zehn Mal gefaltet, ist der Stapel 10,24 cm dick, nach 20 Faltungen knapp 105 m, nach 30 Faltungen rund 107 km, und nach 42 Faltungen ca. 440.000 km. Dies liegt über der mittleren Entfernung zum Mond (≈ 384.400 km).
Dieses Wachstum, schlicht in der Funktion x 2 schafft eine stetige Verdopplung. Anders verhält es sich in folgendem Beispiel:
Hätte Jesus im Jahr 0 mit nur einem Euro ein Konto zu 1 % Zinsen eröffnet; wie viel Geld würde er heute im Jahr 2025 besitzen?
Hier liegt zwar keine Verdopplung vor, das Ergebnis ist jedoch gigantisch:
Aus einem Euro wären bis heute rund 563 Millionen Euro geworden. Dabei würde Jesus erst nach 695 Jahren die 1.000 € überschreiten, Millionär wäre er erst im Jahre 1389. Die wuchtigen Auswirkungen des Zinseszinseffekts werden bei größeren Summen umso deutlicher.
In deiner Forschung solltest du derartige Effekte von vornherein bedenken, da sie praktische Relevanz genießen. Je nach Thema der Arbeit sollte insbesondere bei den entwickelten Handlungsempfehlungen darauf geachtet werden, dass diese realistisch anwendbar bleiben.
Falsche Einschätzung der Größe der Unendlichkeit
So wie die praxisnahe Umsetzung von Wahrscheinlichkeiten mit der Psychologie korrespondiert, wird bei der Erklärung der Unendlichkeit oftmals die Philosophie hinzugezogen. Ob das Universum wirklich „unendlich“ ist, ist immer noch Gegenstand wissenschaftlicher Diskurse in der Kosmologie [28]. Die Philosophie hingegen reflektiert seit jeher, ob die Unendlichkeit überhaupt erfahrbar gedacht werden kann, oder ob es sich hierbei um eine bloße Konstruktion handelt [29] [30]. Immanuel Kant zeigte in diesem Kontext auf, dass menschliches Denken bei der Bestimmung des Unendlichkeitsbegriffs an seine Grenzen stößt [31].
In einem Gedankenexperiment illustriert David Hilbert [32]:
Ein Hotel, das unendlich viele Zimmer hat, kann nie ‚voll‘ sein. Selbst wenn sich unendlich viele Gäste im Hotel befänden, könnte jeder Gast ein Zimmer weiterrücken oder seine Zimmernummer multiplizieren und in dieses Zimmer gehen. Damit finden beliebig viele – sogar unendlich viele – weitere Gäste in diesem Hotel Platz.
Nach Hilbert wird deutlich: „Unendlichkeit + x“ bleibt Unendlichkeit; „Unendlichkeit + Unendlichkeit“ bleibt ebenfalls Unendlichkeit. Selbst wenn dieses Hinzufügen unendlich oft wiederholt würde, bliebe das Ergebnis unverändert „Unendlichkeit“. Im Kontext der mengentheoretischen Logik (nach Hilbert) gilt: Für abzählbar unendliche Mengen verändert eine endliche oder sogar unendliche Hinzufügung die Mächtigkeit nicht. Es gibt kein „doppelt unendlich“.
Diese Logik beantwortet eine prominente Schülerfrage: „Was ist länger – eine Halbgerade oder eine Gerade?“ Die Antwort: Da die Halbgerade bereits unendlich lang ist, ist die Gerade nicht länger. Beide sind gleich unendlich, denn sie besitzen dieselbe Mächtigkeit. In der Welt der Unendlichkeiten gibt es kein „mehr“ oder „weniger“ im herkömmlichen Sinne. Unendlich bleibt unendlich. Es spielt also keine Rolle, wie oft eine Gerade „verlängert“ (was in diesem Sinne unmöglich ist) oder die Unendlichkeit vergrößert (was in diesem Sinne unlogisch ist) wird.
Bei der Ermittlung realer Phänomene findet sich Unendlichkeit jedoch so gut wie nie, da Mengen (Anzahl Menschen, sonstige Massen etc.) begrenzt sind.
Das Passwort als überschaubare Einheit
Ein Beispiel für Begrenztheit ist das Knacken eines Passworts. Kann dieses beispielsweise aus Groß- und Kleinbuchstaben sowie Sonderzeichen bestehen, existieren bereits 95 Möglichkeiten bei einer Ziffer. Bei zwei Ziffern sind es bereits 95 x 95 = 9.025 Möglichkeiten. Bei einem achtstelligen Passwort ergeben sich 6,6 Billiarden Möglichkeiten.
Es handelt sich also um eine endliche Menge. Der aktuell (September 2025) leistungsstärkste Computer ist der El Capitan am Lawrence Livermore National Laboratory [33]. Je nach Hashverfahren und eingesetzter Hardware sind hier ca. 300 Milliarden Versuche pro Sekunde möglich, womit das Passwort nach ca. 3 bis 6 Stunden sicher geknackt wäre; um ein 25‑stelliges Passwort – das zufällige 25 Zeichen beinhaltet – sicher zu knacken, bedürfte es hingegen ca. 439 Sextillionen Jahre. Zur Einordnung: Das ist 30 Billionen Mal länger als unser Universum alt ist.
Ein weiteres Gedankenspiel: Würde ein Affe an einer Schreibmaschine unendlich lange tippen, so hätte er sicher das komplette Werk von Shakespeare getippt [34]. Das klingt unmöglich, doch wer ein Shakespeare-Werk als Passwort begreift und verstanden hat, dass Unendlichkeit keine zeitliche Begrenzung bedeutet, versteht auch, weshalb der Affe Shakespeare tippen würde.
Wichtig ist abschließend auch hier die Perspektive: Alle zeitlichen Angaben sind Maximalwerte, denn sie beruhen auf dem Durchprobieren sämtlicher Kombinationen. Wer als Passwort „12345678“, „1a2b3c4d“, „Hallo123“ etc. wählt oder Wörter einbindet, die im Wörterbuch stehen, der muss damit rechnen, dass bei einer gezielten Attacke die korrekte Kombination deutlich schneller gefunden wird. Umgekehrt basiert die Annahme des Shakespeare-tippenden Affen auf der Annahme, dass wirklich alle Tasten benutzt werden.
Prüfe in deiner empirischen Untersuchung also stets, ob Zufall wirklich Zufall ist. Ansonsten besteht die Gefahr statistischer Unstimmigkeiten in scheinbar „objektiven“ Daten. Reflektiere deine statistische Auswertung nicht nur anhand der Befunde und abstrakter Werte. Stelle Bezüge zu Sachverhalten in der Realwelt her.
Statistische Fehler durch sprachliche Irrtümer
Um die Realität zu erfassen ist es unerlässlich, dass du deine Forschungsarbeit mit einem Theorieteil beginnst. Denn dieser dient dazu, den Forschungsgegenstand zu beschreiben. Nur so können Variablen definiert werden, und erst dann kann eine Analyse zielführend stattfinden. Der Theorieteil legt damit den didaktischen Grundstein für eine methodisch schlüssige Evaluation.
Manchmal jedoch entstehen sprachlich-kulturelle Verzerrungen, weil Alltagssprache und Logik nicht deckungsgleich sind. Bei dem Wort „Dorf“ etwa entsteht das Bild eines idyllischen Örtchens – aber sicher nicht einer Großstadt mit 650.000 Einwohnern. Doch genau das ist Düsseldorf.
Mit dem „alten“ Rom assoziieren wir Cäsar vor 2.000 Jahren, mit dem „alten“ London wird wohl eher Sherlock Holmes und das viktorianische Zeitalter gedanklich hervorgerufen. Größen und Zeiträume machen wir also weniger an Kennwerten fest, sondern an sprachlichen Gewohnheiten. Wir definieren unsere Kultur über unsere Wahrnehmung, wozu u. a. auch Kleidung zählt, womit Muster und Assoziationen entstehen, aber auch Stereotype und Klischees [35].
Metaphorische Sprache kann ganze Deutungskonzepte entstehen lassen [36]. Demgegenüber bezeichnet Pörksen nichtssagende Wörter als Plastikwörter [37], andererseits ist Sprache im Wandel [38] und Bedeutungen ändern sich: War ‚Sparen‘ früher positiv besetzt – man warf Geld in eine Sparbüchse, um sich etwas Besonderes zu gönnen –, so ist Sparen heute mit Knappheit und Einschränkungen verbunden, also negativ konnotiert.
In diesem erweiterten Sinne kann damit ein Bogen zu konkreten Analysen getätigt werden. Denn wenn du im Rahmen einer qualitativen Inhaltsanalyse, beispielsweise nach Mayring [39], Antworten zählst, quantifizierst du. Hierbei ist die Kategorienbildung als solche zu reflektieren, aber auch die Art des Interviews. Denn wenn du zu einem Themenbereich Rückfragen gestellt hast und Antworten deshalb ähnlich ausgefallen sind, finden sich diese zwar im Kategoriensystem. Allerdings ist der Rückschluss, dass mehrfach Gesagtes wichtiger ist, nicht korrekt. Quantifizieren bedeutet also nicht zwangsläufig, dass Ergebnisse objektiver oder valider sind.
Statistisches Denken ist logisches Denken
Wie bereits deutlich wurde, entstehen Schwierigkeiten durch abstrakte Werte, große oder kleine Zahlen und mit sprachlich verankerten Denkmustern. Statistik kann hier quasi als Vermittler helfen, jene Intuitionen zu hinterfragen. Dies setzt aber voraus, dass wir uns sowohl der mathematischen Grenzen als auch der sprachlichen Verzerrungen bewusst sind. Logik wiederum knüpft exakt an der Schnittstelle zwischen Kennwerten und Sprache an.
Fehler durch falsche Einheiten
Aufgrund allgemeiner Erfahrung leuchtet jedem ein, dass nach einer Stunde Fahrt mit 100 km/h (Kilometer pro Stunde = Geschwindigkeit) insgesamt 100 km (Kilometer = Strecke) zurückgelegt wurden. Der Unterschied zwischen 100 kW (Kilowatt = Leistung) und 100 kWh (Kilowattstunden = Arbeit) ist weniger gut vorstellbar, weshalb Verwechslungsgefahr besteht. Die Motorleistung eines Autos in PS bzw. kW (Pferdestärken bzw. Kilowatt = Leistung) kann ohne Weiteres nicht mit der Schubkraft eines Flugzeugs in kN (Kilonewton = Kraft) verglichen werden. Steigt ein Düsenjet im 45°-Winkel, sind das 100 % Steigung; eine Unze entspricht einem Gewicht von 28,35 g, eine Feinunze hingegen wiegt 31,1 g. Ein Kilometer entspricht 1.000 m oder 0,62 Meilen bzw. 0,54 Seemeilen. Die Abkürzung von Meilen lautet mi, bei Meilen pro Stunde entfallen i und Schrägstrich: mph. Piloten und Seeleute denken ihre Geschwindigkeit in Knoten (1 Knoten = 1,852 km/h). Zur größten Verwirrung ist das Gradnetz der Erde ebenfalls in Stunden und Minuten eingeteilt.
Die Beispiele verdeutlichen: Wo Verwechslungsgefahr besteht, sind klare Begriffsdefinitionen unerlässlich; zudem müssen Einheiten oftmals umgerechnet werden.
Fehler durch mangelnde Bezüge
Fehlinterpretationen entstehen, wenn Prozentangaben ohne Bezug genannt werden. Wer in seiner Bachelor- oder Masterarbeit angibt, 75 % hätten „Ja“ und 25 % „Nein“ angekreuzt, der muss einen Bezug zu den absoluten Werten herstellen. Denn es macht hinsichtlich der Einordnung einen großen Unterschied, ob die Stichprobe 4 oder 1.000 Personen umfasste (3/1 bzw. 750/250 sind jeweils 75 %/25 %).
Insbesondere bei Wahlumfragen genießt diese Einordnung praktische Relevanz. Auch bei Online-Umfragen im Rahmen von Studienarbeiten kann es sein, dass Teilnehmer einzelne Fragen überspringen oder die Umfrage schließen. Deshalb solltest du N und n stets angeben:
- N = 80 bedeutet, dass insgesamt 80 Personen an einer Umfrage teilgenommen haben. Damit ist N die Stichprobe. [4]
- n = 60 heißt, dass 60 Personen eine Frage beantwortet haben. Damit ist n die Teilmenge aus N. [4]
- Die Population, auch Grundgesamtheit genannt, ist die Gesamtzahl aller Fälle, für die Befunde bzw. Umfrageergebnisse gelten sollen. [4]
Konkret heißt dies: Möchtest du Handlungsempfehlungen für ein Unternehmen erarbeiten, das aus 100 Mitarbeitern (Population) besteht, und 80 nehmen an deiner Umfrage teil (N = 80), aber eine Frage wird von nur 60 Befragten beantwortet (n = 60), dann solltest du diese Bezüge auf jeden Fall herstellen. Denn 25 % der Teilnehmer haben eine Frage nicht beantwortet, die Aussagekraft von 60 % in Bezug zur Population solltest du ebenfalls kritisch reflektieren.
Aber Vorsicht! N und n sind nicht einheitlich definiert! Döring (2023, S. 296) [4] zeigt, dass sie je nach Kontext sowohl für den Stichprobenumfang als auch für die Populationsgröße bzw. für Gesamt- und Teilstichproben stehen.
Möglichkeiten statistischer Auswertung
Zahlen sind mehr als Zahlen, nämlich Kennwerte, weil sie Merkmale in der realen Welt kennzeichnen. – Diese praxisorientierte Erkenntnis vorangestellt, kann bereits erahnt werden, dass es eine Analysetiefe geben muss, die über das reine Auflisten von numerischen Daten hinausgeht. In der Statistik wird deshalb zwischen zwei grundlegenden Ansätzen unterschieden:
- Mittels deskriptiver Statistik beschreibst du Daten. Hier geht es um das Sichtbarmachen von Strukturen (z. B. Alter und Einstellung) und Mustern (z. B. Geschlecht und Verhaltensweisen), um diese zusammenzufassen und zu visualisieren. Dazu werden die erhobenen Daten aufbereitet, sodass Sachverhalte hinsichtlich ihrer Zusammenhänge veranschaulicht werden. [4] [40]
- Mit der Inferenzstatistik kannst du Rückschlüsse auf eine größere Grundgesamtheit ziehen. Im Kern geht es darum, Hypothesentests und Regressionsanalysen durchzuführen, um Unterschiede zu prüfen oder Zusammenhänge zwischen Variablen zu untersuchen. Weitere inferenzstatistische Verfahren sind Konfidenzintervalle zur Schätzung von Populationsparametern sowie die Untersuchung von Wahrscheinlichkeitsverteilungen. [4] [40]
Die beiden Methoden ergänzen sich. So werden in der deskriptiven Statistik Daten sichtbar gemacht, während die Inferenzstatistik überprüft, welche Rückschlüsse verallgemeinerbar sind. [4] [40]
Deskriptive Statistik
Das Ziel der deskriptiven Statistik besteht darin, numerische Daten so aufzubereiten, dass sie verständlich, übersichtlich und interpretierbar werden. Damit bildet die deskriptive Statistik den Ausgangspunkt jeder Datenanalyse. [4] [40] [41] [42] Im Mittelpunkt steht die Beschreibung sowie Strukturierung der vorliegenden Informationen [4] [40]. Es geht damit ausdrücklich nicht darum, Rückschlüsse auf eine größere Grundgesamtheit zu ziehen.
Nichtsdestotrotz zielt die deskriptive Statistik darauf ab, „Aussagen über die Verteilung oder Ausprägung bestimmter Merkmale in einer interessierenden Zielpopulation zu treffen“ [4], weshalb es dennoch erforderlich ist, Daten einer möglichst repräsentativen Stichprobe auszuwerten [4].
Mit Kennwerten lassen sich Unterschiede zwischen Gruppen oder Veränderungen über die Zeit hinweg sichtbar machen [4] [41]. Dies ermöglicht beispielsweise die Ermittlung von Maßen der zentralen Tendenz, wie Mittelwert, Median und Modus [40] [41]. Maße der Streuung, wie Spannweite, Varianz und Standardabweichung, geben wiederum Auskunft darüber, wie stark die Werte innerhalb der Daten variieren [40] [42].
Eine relevante Form der Ermittlung – und der übersichtlichen tabellarischen Darstellung – von Daten sind Kreuztabellen, die Zusammenhänge zwischen zwei Merkmalen sichtbar machen [4] [40] [41]. Damit werden nicht nur Korrelationen deutlich, sondern die Stärke und Richtung von Zusammenhängen wird quantifiziert [4] [40] [41]. Zudem werden auf diese Weise mögliche Ausreißer sichtbar [40]. Auch Balkendiagramme, Kreisdiagramme oder Histogramme visualisieren Verteilungen [40] [41].
Hinsichtlich ihrer Funktion ist die deskriptive Statistik mehr als eine pure Darstellung von Daten [4] [42], weil sie Muster, Zusammenhänge und Auffälligkeiten adressatengerecht herausarbeitet [4]. Der deskriptiven Statistik ist es damit zu verdanken, dass komplexe Datenmengen verstehbar und kommunizierbar werden [41] [42].
Inferenzstatistik
Die Inferenzstatistik hat zum Ziel, von einer Stichprobe auf eine Grundgesamtheit zu schließen. [4] [40] Ein weiteres Ziel besteht somit darin, Beobachtbares einordnen zu können, womit ermittelt wird, ob es sich um Zufall handelt oder Effekte generalisierbar sind [41] [43].
Zu diesem Zweck werden Hypothesentests durchgeführt, ein prominentes Beispiel dafür ist der t‑Test. Dieser ermöglicht den Vergleich von Mittelwerten. Der Chi‑Quadrat‑Test zeigt hingegen etwaige Zusammenhänge zwischen kategorialen Variablen auf. Wer eine Varianzanalyse (ANOVA) tätigt, überprüft Mittelwertunterschiede in mehreren Gruppen. [40] [41] Überdies können Regressionsanalysen durchgeführt werden. Mit ihnen kann ermittelt werden, mit welcher Stärke eine unabhängige Variable eine abhängige Variable vorhersagt [43]. Anhand dieser Methoden kann geklärt werden, ob Unterschiede oder Zusammenhänge in erhobenen Daten statistisch signifikant sind [4] [43].
Konfidenzintervalle geben einen Wertebereich an, in welchem ein unbekannter Parameter der Grundgesamtheit mit hoher Wahrscheinlichkeit liegt [40] [43]. Diese Methode ermöglicht es, Punktwerte nicht nur zu schätzen, sondern die Präzision der Schätzung zu veranschaulichen.
Darüber hinaus existieren weitere Konzepte in der Inferenzstatistik: Das Signifikanzniveau gibt die Grenze zur Entscheidung über Hypothesen an, die Teststärke (Power) beschreibt die Wahrscheinlichkeit, tatsächlich vorhandene Effekte aufzudecken. Demgegenüber verdeutlichen Effektstärken die praktische Relevanz von Unterschieden oder Zusammenhängen, unabhängig von der Signifikanz. [41] All diese Methoden werden angewendet, um Befunde korrekt einzuordnen.
Insgesamt bleibt damit festzustellen, dass die Inferenzstatistik die Basis für evidenzbasierte Forschung bildet. Damit stehen stets verallgemeinerbare Aussagen im Erkenntnisinteresse, womit Ergebnisse nicht nur für die untersuchte Stichprobe, sondern für die Grundgesamtheit gelten. [4] [40] [43]
Praktisches Beispiel einer statistischen Auswertung
Du studierst BWL und gehst gerne feiern. Du hast die Idee, „irgendwas zum Nachtleben“ zu untersuchen. Aus eigener Erfahrung weißt du, dass die meisten Menschen an Wochenenden feiern gehen, dass es Bars und Clubs gibt. Die Ausgehgewohnheiten im Hinblick auf Bars und Clubs sind dein Untersuchungsinteresse.
Zwei Möglichkeiten seien hier herausgearbeitet.
1. Du könntest herausfinden, wie das Ausgehverhalten in Deutschland allgemein ist und ob die Leute lieber in Bars oder in Clubs feiern.
In diesem Fall wäre Deutschland dein Untersuchungsfeld und alle Menschen, die irgendwo feiern, zählen zur Population (Grundgesamtheit). Würdest du 2.500 Feiernde befragen (N = 2.500) und eine Frage würde von 128 Personen nicht beantwortet (diese Frage: n = 2.372), fiele es immer noch schwer, Repräsentativität zu begründen. Denn deine Stichprobe wäre im Verhältnis zur Gesamtbevölkerung sehr klein. Schließlich leben in Deutschland mehr als 83 Millionen Menschen. Insgesamt wird es im Rahmen einer Studienarbeit unmöglich sein, ein derart großes Feld zu untersuchen.
2. Du könntest herausfinden, wie das Ausgehverhalten in einer bestimmten Stadt (z. B. Köln) ist und ob die Leute lieber in Bars oder in Clubs feiern.
Hier wären lediglich jene Menschen, die in Köln feiern, die zu untersuchende Population. Du könntest im Kölner Nachtleben Feiernde per Fragebogen befragen; vielleicht erhältst du auf diese Weise 217 ausgefüllte Fragebögen (N = 217), womöglich beantworteten 9 Befragte eine Frage nicht (diese Frage: n = 208). Diese Durchführung wäre im Rahmen einer Abschlussarbeit realistisch.
Die Unterschiede liegen aber nicht bloß in der Realisierbarkeit und Umsetzung. Denn die bereits eingangs gestellte Forschungsfrage muss auf die bestimmte Stadt zugeschnitten sein. Damit definierst du dein eingegrenztes Untersuchungsfeld sowie dein Untersuchungsinteresse.
Die Hypothesen, die du entwickelst, beziehen sich demnach auf diesen Rahmen und werden mit entsprechender Theorie begründet. So kannst du Items passgenauer bilden, Daten zielführender auswerten und Handlungsempfehlungen praxisnäher formulieren.
Statistiksoftware
Es gibt zahlreiche Programme, die Daten auszuwerten vermögen. Allerdings liegt es in deiner Hand, die richtigen statistischen Methoden anzuwenden. Statistische Evaluationsprogramme sind demnach ein Hilfsmittel, die dir viel Rechenarbeit abnehmen. Quantitative Forschung gibt es deutlich länger als es Computer gibt. In Vor-Computer-Zeiten wurden sämtliche Berechnungen händisch durchgeführt.
Die vier gängigsten computergestützten Möglichkeiten finden sich hier als Kurzüberblick.
IBM: SPSS Statistics
SPSS ist ein Statistikprogramm von IBM [44] und wird u. a. von Marktforschern und Behörden verwendet. Das Programm ermöglicht auch das Datenmanagement sowie die Datendokumentation. [45]
Darüber hinaus existieren Metaanalyse-Funktionen, die frei programmiert worden sind [46]. Fachliteratur empfiehlt eine Skepsis gegenüber Eigenentwicklungen, die nicht von Fachleuten stammen [4].
R / Posit: RStudio
Bei R handelt es sich um eine freie Programmiersprache für statistische Berechnungen und ist eine Open-Source-Software [47]. Der Einstieg fällt – im Vergleich zu SPSS – schwieriger, da Auswertungsskripte selbst geschrieben werden müssen. Es fehlt demnach eine Oberfläche mit entsprechenden Buttons. [4]
Es wird daher empfohlen, die ebenfalls kostenlose Software RStudio von Posit [48] zu installieren. Denn diese ist eine IDE (Integrated Development Environment), womit sich Datensätze übersichtlicher bearbeiten lassen. [40] [49]
Microsoft: Excel
Excel wird von Microsoft herausgegeben, kann einzeln heruntergeladen werden [50] oder ist Bestandteil des Office-Pakets [51]. Gelegentlich ist Office auf einem neuen PC vorinstalliert, in der Regel lediglich als Testversion für Microsoft 365 (ehemals Office 365) [50] [51].
Excel eignet sich hervorragend, um erhobene Daten in Tabellenform zu bringen und als CSV-Datei zu speichern. Einfache Funktionen, wie das Bilden des arithmetischen Mittels, können hier leicht getätigt werden. Darüber hinaus lassen sich einfache Kreuztabellen und Korrelationen mittels Pivot-Tabellen erstellen [52] [53]. Excel eignet sich jedoch nicht für die Durchführung komplexer, statistischer Methoden.
Gelegentlich geben Institute oder Dozenten vor, dass du ein spezielles Programm (in der Regel SPSS) zwingend nutzen musst. Dann bleibt dir leider keine andere Möglichkeit, als diesem Wunsch nachzukommen. Schließlich muss die komplette Kette transparent sein: von der Theorie über die Planung des empirischen Vorgehens, die eigentliche Datenerhebung, die angewandten Evaluationsmethoden, die Befundung und die Rückschlüsse für die Praxis. Dazu solltest du entsprechende Screenshots einbinden oder die erhobenen Daten im Rohformat (als digitaler Anhang auf CD oder USB‑Stick) beifügen oder hochladen.
Wie du Statistik in deiner Bachelorarbeit richtig einsetzt
Eine empirische Untersuchung – gleich ob qualitativ oder quantitativ – fokussiert immer die Kausalität, d. h. die Ursache-Wirkungs-Zusammenhänge und eine wissenschaftliche Methode dient dazu, Zielsetzungen zu erreichen. Diese Sicht vergegenwärtigt, dass kaum eine freie Wahl hinsichtlich der Forschungsmethode besteht – umso weniger, wenn die Zielsetzung vorgegeben ist.
Die Zielsetzung – und natürlich dein Thema – sind wiederum maßgeblich für die Inhalte deiner Arbeit. Daraus folgt, dass der Theorieteil deiner Arbeit dazu dient, den Untersuchungsgegenstand genau zu definieren. Nur dann können Items begründet werden. Bedenke, dass Begriffe oft eindeutig klingen, aber falsche Schlüsse eintreten können, wenn die Prämissen nicht geprüft werden. Daher tragen Begriffsklärungen maßgeblich zur Operationalisierung bei.
Vor der Umfrage solltest du einen Pretest durchführen, die Ergebnisse festhalten und gegebenenfalls Änderungen vornehmen. Damit zeigst du, dass du Messinstrumente überprüft hast, womit du nicht nur in der Theorie geplant, sondern deine Untersuchung praxisorientiert ausgerichtet hast.
Die bei der Evaluation genutzten statistischen Evaluationsmethoden sollten bestenfalls bereits im Forschungsdesign begründet werden. Auch hier beweist du deine Umsicht bereits durch die Planung. Denn je genauer dein Projekt geplant ist, desto leichter wird dir die praktische Durchführung, Auswertung und Reflexion fallen. Sich dies von vornherein zu vergegenwärtigen, ist wichtig, da sich in der gewissenhaften Planung auch das Zeitmanagement offenbart.
In einem Diskussionsteil solltest du dann deine Befunde mit der Theorie synthetisieren. Denn auch in quantitativen Arbeiten gilt: „Befund + Theorie = Ergebnis“. Verrenne dich im Diskussionskapitel nicht in Mutmaßungen und verlasse dich nicht auf deine statistische Intuition, weil deine sachliche Beweisführung damit zahlreichen Irrtümern zum Opfer fallen kann. Beschränke dich auf das quantitativ Nachweisbare, Beobachtbare und Begründbare.
Statistische Aussagen sind nur so „logisch“ wie die definierte Fragestellung und die Operationalisierung. Reflektiere deshalb nicht nur deine Ergebnisse, sondern auch die Fragestellung und das komplette sachanalytische sowie methodische Vorgehen.
Logik-Quiz
Statistik zum Knobeln – jetzt bist du dran!
Die 10‑Fragen‑Challenge
FAQ zur Statistik
Grundlagen der Statistik
Was ist der Unterschied zwischen deskriptiver Statistik und Inferenzstatistik?
Was bedeutet Repräsentativität in der Statistik?
Stichprobe, Population und Einheiten
Was ist der Unterschied zwischen Population und Stichprobe?
Was bedeuten N und n in der Statistik?
Warum sind Einheiten in der Statistik wichtig?
Verzerrungen und Fehlerquellen
Was versteht man unter sozialer Erwünschtheit?
Was ist der Hawthorne-Effekt?
Warum ist der Bezug von Prozentangaben zu absoluten Zahlen wichtig?
Korrelationen und Interpretation
Bedeutet Korrelation automatisch Kausalität?
Warum können große Zahlen in der Statistik täuschen?
Beratung nach Maß
„Statistik ohne Angst!“ – Wenn diese Maxime auch bei der quantitativen Auswertung deiner Bachelor- oder Masterarbeit gilt, dann hast du alles richtig gemacht.
Statistik bedeutet viel Einarbeitung, viel Logik, viel zu verstehen und viel zu übersehen: Relevante Infos wollen herausgefiltert werden, doch wer das Ziel seiner Evaluation kennt und statistische Methoden versteht, kann auch Korrelationen herstellen.
Jährlich betreue ich mehr als 200 Studierende, bereits seit mehr als zehn Jahren. Als ehemaliger Dozent weiß ich, dass eine klare Zielsetzung und ein überzeugender Theoriesockel die Basis jeder gut geplanten Forschung darstellen.
Aus Erfahrung weiß ich: Oft reicht eine deskriptive Analyse. Das Vorgespräch mit deinem Betreuer (bzw. deinen Betreuern) ist äußerst wichtig, um die Weichen für eine erfolgreiche Abschlussarbeit zu stellen.
Hast du Fragen zu deiner Auswertung und fühlst eine „Unlogik“ in deiner Arbeit? Dann kontaktiere mich für ein Gratis-Erstgespräch.
Literaturverzeichnis
Literaturverzeichnis anzeigen
- Krinzinger, Helga, & Kaufmann, Liane (2006): Rechenangst und Rechenleistung. Sprache · Stimme · Gehör, 30(04), 160–164. https://doi.org/10.1055/s-2006-951753
- Kucian, Karin (2021): Mathematikangst, Prädiktion, Prävention und Entwicklung. Zentrum für MR-Forschung, Universitäts-Kinderspital Zürich (Hrsg.); abrufbar unter: [PDF öffnet in neuem Tab] [15.09.2025]
- Matthiesen, Silja; Dekker, Anja; Cerwenka, Susanne, & Briken, Peer (2020): Gesundheit und Sexualität in Deutschland – GeSiD-Zwischenbericht. Universitätsklinikum Hamburg-Eppendorf (UKE), Institut für Sexualforschung; abrufbar unter: [PDF öffnet in neuem Tab] [15.09.2025]
- Döring, Nicola (2023): Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften (6. Aufl.). Berlin: Springer VS. https://doi.org/10.1007/978-3-662-64762-2
- Gerrig, Richard J. & Zimbardo, Philipp (2019): Psychologie (20. Aufl.) München: Pearson.
- Myers, David G., & DeWall, C. Nathan. (2023): Psychologie (13. Aufl., deutschspr. Ausgabe). Springer-Verlag.
- Mitchell, Kirstin R.; Mercer, Caterine H.; Prah, Philip; Clifton, Soazig; Tanton, Clare; Wellings, Kaye & Copas, Andrew (2018): Why Do Men Report More Opposite-Sex Sexual Partners Than Women? Analysis of the Gender Discrepancy in a British National Probability Survey. J Sex Res. 2019 Jan;56(1):1-8. Epub 2018 Jul 25. PMID: 30044926; PMCID: PMC6326215. https://doi.org/10.1080/00224499.2018.1481193
- Alexander, Michele G. & Fisher, Terri D. (2003): Truth and consequences: using the bogus pipeline to examine sex differences in self-reported sexuality. J Sex Res. 2003 Feb; 40(1):27-35. PMID: 12806529. https://doi.org/10.1080/00224490309552164
- Herbenick, Debby; Reece, Michael; Schick, Vanessa; Sanders, Stephanie A.; Dodge, Brian; Fortenberry, J. Dennis, & Reece, Michael (2010): Sexual behavior in the United States: Results from a national probability sample of men and women ages 14–94. The Journal of Sexual Medicine, 7(s5), 255–265. PMID: 21029383. https://doi.org/10.1111/j.1743-6109.2010.02012.x
- Roberts, Holly; Clark, Autumn; Sherman, Cayce; Heitzeg, Megan M. & Hicks, Brian M. (2021): Age, sex, and other demographic trends in sexual behavior in the United States: Initial findings of the sexual behaviors, internet use, and psychological adjustment survey. PLoS One, 16(8): e0255371. PMID: 34358249; PMCID: PMC8345845. https://doi.org/10.1371/journal.pone.0255371
- Ueda, Peter; Mercer, Catherine H.; Ghaznavi, Cyrus & Herbenick, Debby. (2020): Trends in Frequency of Sexual Activity and Number of Sexual Partners Among Adults Aged 18 to 44 Years in the US, 2000–2018. JAMA Network Open, 3(6): e203833. PMID: 32530470; PMCID: PMC7293001. https://doi.org/10.1001/jamanetworkopen.2020.3833
- Kinsey, Alfred C.; Pomeroy, Wardell B. & Martin Clyde E. (1948): Sexual Behavior in the Human Male. Philadelphia: W.B. Saunders.
- Kinsey, Alfred C.; Pomeroy, Wardell B.; Martin, Clyde E. & Gebhard, Paul H. (1953): Sexual Behavior in the Human Female. Philadelphia: W.B. Saunders.
- Anderson, Richard C., & Pearson, P. David (1984): A schema-theoretic view of basic processes in reading comprehension. In P. David Pearson (Hrsg.), Handbook of reading research. New York: Longman, S. 255-291.
- McLeod, Saul (2024): Understanding Accommodation and Assimilation in Psychology https://www.simplypsychology.org/what-is-accommodation-and-assimilation.html [15.09.2025]
- Feller, William (1968): An introduction to probability theory and its applications (Bd. 1; 3. Aufl.). New York: Wiley.
- Ross, Sheldon M. (2019): A first course in probability (10. Aufl.). Boston, MA: Pearson.
- Hand, David J. (2014): The improbability principle: Why coincidences, miracles, and rare events happen every day. New York: Scientific American/Farrar, Straus and Giroux. https://doi.org/10.1007/s00283-014-9492-y
- Tversky, Amos, & Kahneman, Daniel (1982): Kognitive Heuristiken. In: Kahneman, Daniel; Slovic, Paul; & Tversky, Amos (Hrsg.): Urteilen unter Unsicherheit. Heuristiken und Verzerrungen. Bern: Huber, S. 3-20.
- Langer, Ellen J. (1975): The illusion of control. Journal of Personality and Social Psychology, 32(2), S. 311-328. https://doi.org/10.1037/0022-3514.32.2.311
- Tversky, Amos & Kahneman, Daniel (1971): Belief in the law of small numbers. Psychological Bulletin, 76(2), S. 105-110. https://doi.org/10.1037/h0031322
- Clotfelter, Charles T. & Cook, Philip J. (1993): The gambler’s fallacy in lottery play. Management Science, 39(12), S. 1521-1525. https://doi.org/10.1287/mnsc.39.12.1521
- Clark, Luke, Lawrence, Andrew J., Astley-Jones, Frances & Gray, Nick (2009): Gambling near-misses enhance motivation to gamble and recruit win-related brain circuitry. Neuron, 61(3), (S. 481-490). https://doi.org/10.1016/j.neuron.2008.12.031
- Grant, Jon E. & Potenza, Marc N. (2021): Gambling disorder. A clinical guide to treatment (2. Aufl.). Washington, DC: American Psychiatric Association Publishing.
- Biehler, Rolf & Engel, Joachim (2023): Stochastik: Leitidee Daten und Zufall. In: Bruder, Regina; Hefendehl-Hebeker, Lisa; Schmidt-Thieme, Barbara & Weigand, Hans-Georg (Hrsg.): Handbuch der Mathematikdidaktik. Berlin/Heidelberg: Springer Spektrum, S. 221-251. https://doi.org/10.1007/978-3-662-66604-3_8
- vom Hofe, Rudolf, Lotz, Joachim, & Salle, Alexander (2023): Analysis: Leitidee Zuordnung und Veränderung. In: Regina Bruder, Lisa Hefendehl-Hebeker, Barbara Schmidt-Thieme & Hans-Georg Weigand (Hrsg.): Handbuch der Mathematikdidaktik (2. Aufl.), Berlin/Heidelberg: Springer. S. 159-199. https://doi.org/10.1007/978-3-662-66604-3_6
- Königsberger, Konrad (1999): Die Exponentialfunktion und die trigonometrischen Funktionen. In: Analysis 1. Springer-Lehrbuch. Berlin/Heidelberg: Springer, S. 105-140. https://doi.org/10.1007/978-3-642-98067-1_8
- Aurich, Ralf & Steiner, Frank (2024): Betti functionals as a probe for cosmic topology. arXiv preprint. Verfügbar unter: https://arxiv.org/abs/2403.09221
- Aristoteles (ca. 350 v. Chr.): Physik.
- Ryan, Paul J. (2024): Cosmic topology, underdetermination, and spatial infinity. European Journal for Philosophy of Science, 14, Artikel 17. Open Access. https://doi.org/10.1007/s13194-024-00576-7
- Kant, Immanuel (1787): Kritik der reinen Vernunft (2. Aufl.). Riga: Hartknoch.
- Hilbert, David (1926): „Über das Unendliche.“ Mathematische Annalen, 95(1), S. 161-190.
- https://www.hpe.com/emea_europe/en/compute/hpc/lawrence-livermore-national-laboratory.html [15.09.2025]
- Cugler de Moraes Silva, Ergon (2024): To be, or not to be, that is the Question: Exploring the pseudorandom generation of texts to write Hamlet from the perspective of the Infinite Monkey Theorem. arXiv Preprint.
- Kolhoff-Kahl, Iris (2009): Ästhetische Muster-Bildungen. Ein Lehrbuch mit ästhetischen Werkstätten zum Thema Kleid – Körper – Kunst. Schriftenreihe Kontext Kunstpädagogik, Band 21., München: kopaed.
- Lakoff, George, & Johnson, Mark (2008): Metaphors We Live By. With a new Afterword. Chicago/London: University of Chicago Press.
- Pörksen, Uwe (2011): Plastikwörter. Die Sprache einer internationalen Diktatur. (7. Aufl.), Stuttgart: Klett-Cotta.
- Elspaß, Stephan; Nemeth, Attila; Pickl, Simon & Vergeiner, Philip (2025): Sprachvariation und Sprachwandel. LiLA – Linguistik fürs Lehramt, Band 1, 1. Aufl., Paderborn: Brill Schöningh.
- Mayring, Philipp (2022): Qualitative Inhaltsanalyse – Grundlagen und Techniken (13. Aufl.). Weinheim/Basel: Beltz.
- Fahrmeir, Ludwig; Künstler, Rita; Pigeot, Iris & Tutz, Gerhard (2016): Statistik – Der Weg zur Datenanalyse (6. Aufl.). Springer. https://doi.org/10.1007/978-3-540-69739-8
- Schäfer, Thomas (2016): Methodenlehre und Statistik: Einführung in Datenerhebung, deskriptive Statistik und Inferenzstatistik (Basiswissen Psychologie). Berlin/Heidelberg: Springer. https://doi.org/10.1007/978-3-658-11936-2
- Benninghaus, Hans (2007): Deskriptive Statistik: Eine Einführung für Sozialwissenschaftler. (11. Aufl.) Studienskripten zur Soziologie. Wiesbaden: VS Verlag für Sozialwissenschaften.
- Schwarz, Bernd, & Ackel-Eisnach, Kristina (2011): Einführung in die Inferenzstatistik. Ein Lehr- und Arbeitsbuch für Sozialwissenschaftler. Landau: Verlag Empirische Pädagogik. (Reihe Forschung, Statistik & Methoden, Bd. 11).
- https://www.ibm.com/de-de/products/spss-statistics [15.09.2025]
- Streich, Michael (2025): Datenanalyse mit SPSS. Für Seminar-, Projekt-, Bachelor- und Masterarbeiten. Wiesbaden: Springer Gabler. www.doi.org/10.1007/978-3-658-46951-1
- https://mason.gmu.edu/~dwilsonb/ [15.09.2025]
- https://cran.r-project.org/ [15.09.2025]
- https://posit.co/download/rstudio-desktop/ [15.09.2025]
- Groß, Jürgen (2010): Grundlegende Statistik mit R. Eine anwendungsorientierte Einführung in die Verwendung der Statistik-Software R. Wiesbaden: Vieweg+Teubner / Springer Fachmedien. www.doi.org/10.1007/978-3-8348-9677-3
- https://www.microsoft.com/de-de/microsoft-365/p/excel-home/cfq7ttc0pr28 [15.09.2025]
- https://www.microsoft.com/de-de/microsoft-365/get-office-and-microsoft-365-oem-download-page [15.09.2025]
- Weiß, Martin (2021): Excel Pivot-Tabellen für Dummies. 2. Aufl. Weinheim: Wiley-VCH.
- Schuster, Helmut (2020): Microsoft Excel Pivot-Tabellen – Das Praxisbuch. 2. Aufl. Heidelberg: dpunkt.verlag.








