Fragen:Fragen

Aus eLearning - Methoden der Psychologie - TU Dresden
Zur Navigation springen Zur Suche springen

Beispiele für Klausurfragen

Beispiele für Fragen, wie sie in den Klausuren des Moduls M1 an der TU Dresden gestellt werden, finden Sie unter Fragen:Klausurfragen.

Selbstgemachte Klausurfragen

Probieren Sie sich doch einmal aus und fordern Sie ihre Kommilitonen heraus: Denken Sie sich selbst eine hypothetische Klausurfrage, lassen Sie sie beantworten und diskutieren Sie die Fragestellung und die Lösung mit Ihren Kommillitonen. Das alles können Sie auf der Seite Fragen:Selbstgemachte_Klausurfragen.

Fragen von Ihrer Seite

Wenn Sie noch Fragen zu den Inhalten des Elearning Moduls oder der Vorlesungen Einführung in die Methoden bzw. Versuchsplanung haben, können Sie diese hier einstellen. Wenn Sie auf eine Frage stoßen, zu der Sie eine Antwort haben, dann bieten Sie diese an. Wir werden ebenfalls Antworten beitragen und Ihre Diskussion entsprechend kommentieren. Bitte nennen Sie bei Ihrer Frage im Betreff kurz das Themengebiet. Dann ihre Frage (gerne personalisiert mit Ihrem Vornamen).

Neue Frage stellen

Themengebiet: Beispiele

(Name): Dies ist eine Beispielfrage

Micha: Dies ist eine Beispielantwort

Wissenschaftstheorie: objektiv vs. intersubjektiv

Josefine: Was ist der Unterschied zwischen objektiv und intersubjektiv? (es wird auf den nächten Folien nämlich geschrieben: Objektivität (intersubjektiv)

Johannes: Ich glaube, die Bezeichnung „intersubjektiv“ versucht einfach auf begrifflicher Ebene der Tatsache gerecht zu werden, dass es wahre „Objektivität“ in der menschlichen Erkenntnis nicht geben kann. Es geht eher darum, Erfahrungen zwischen verschiedenen Individuen vergleichbar zu machen.

(Caroline): Was ist der Unterschied zwischen objektiv und intersubketiv? (es wird auf den nächten Folien nämlich geschrieben: Objektivität (intersubjektiv)

Antwort (Michael): Ich glaube, die Bezeichnung „intersubjektiv“ versucht einfach auf begrifflicher Ebene der Tatsache gerecht zu werden, dass es wahre „Objektivität“ in der menschlichen Erkenntnis nicht geben kann. Es geht eher darum, Erfahrungen zwischen verschiedenen Individuen vergleichbar zu machen. Also, ein Experiment sollte so durchführbar sein, dass meine daraus folgende (zwangsläufig subjektive) Erfahrung von einem jeden anderen nachvollziehbar wäre, wenn er das Experiment ebenso durchführen würde.

Antwort(Scherbaum): Vielen Dank. Ich hab dem nichts hinzuzufügen:)


Vorlesung Einführung in die Methoden der Psychologie

Modellierung & Simulation

(Adrian): Frage zu Modellierung & empirischem Zirkel (F 61): Wie sind Daten- und Mathematische Modelle einzuordnen und was genau ist der empirische Zirkel? Meinen momentane Antwort wäre, dass Systemdaten mittels statistischer (Daten-)Modelle analysiert werden (= Systemanalyse) und durch Interpretation dann zum abstrakten Modell / der psychologischen Theorie kommt. Die mathematischen Modelle werden dann daraus entworfen und dienen zur Deduktion auf Modelldaten. Empirischer Zirkel wäre für mich einfach das zirkuläre Angleichen von Modell und System bzw. Theorie und empirischer Realität.

Antwort (Scherbaum): Sie beschreiben das im Prinzip richtig. Wenn Sie Lektion 3, Folie 83 (Der Forschungsprozess) betrachten, dann sehen Sie den empirischen Zirkel: durch Beobachtung kommen Sie zur Theorie, oder eben dem Modell, dieses testen Sie und sind dann u.U. gezwungen, das Modell anzupassen. Im Idealfall erhalten Sie also ein immer besseres Modell der Realität. Daten-Modelle bzw. statistische Modelle sind eher Mittel der Beschreibung, denn sie enthalten ja letztlich keine gesetzmäßige Erklärung. Mathematische Modelle gehen einen Schritt von den Daten weg, unterstellen also (im besten Fall) einen gewissen Wirkzusammenhang und liefern damit Erklärungen (wenn auch oft sehr abstrakte).

Erheben und Erhebungsmethoden=

Law of categorical & comparative judgement

(Miriam): (Folie 130 & 142) Beide Male ist die Rede von " "Hochskalieren" durch wiederholte Rangordnungen".

Das Skalieren der Rangordnungen/ Dominanzpaarvergleiche ist doch eben dieser Vorgang des Verrechnens der Ergebnisse mehrerer Urteiler zum Minimieren des Fehlers und dadurch Erhalten des "wahren Wertes" eines Objekts bzw. Erreichen einer Intersubjektivität (möglichst nah an Objektivität) aus den vielen Subjektivitäten der einzelnen Rater. Hat man den wahren Wert, hat man aus der Ordinalskala eine Intervallskala gemacht, da man Abstände zwischen den Objekten hat.. (Oder nicht?)

Fehlt da noch ein Vorgang, bis es eine Intervallskala ist oder wo sind darin die wiederholten Rangordnungen? Oder einfach nur Wiederholung durch viele versch. Urteiler?

Antwort(Scherbaum): Durch wiederholtes urteilen (mehrere Urteiler) erhalten Sie eine intersubjektive Einschätzung. Allerdings auf der Ordinalskala. Sie können nun diese vielen Urteilen und die darin liegende Varianz nutzen, um mittels der beiden Verfahren den Wert der Objekte auf einer Intervallskala abzubilden. Dann wissen Sie nicht nur, "Objekt 1 ist größer als Objekt 2" sondern auch noch "Objekt 1 ist um so und so viel größer als Objekt 2".

Urteilen: Dominanzpaarvergleiche

(Miriam): Beim Erstellen der Rangordnungen durch mehrere Urteiler:
Wie wird die Konkordanz beurteilt? Getrennt von der Rangvergabe? Denn wenn vor Rangvergabe alle Bevorzugungen zusammengezählt werden, lässt sich ja nicht mehr das Ergebnis eines einzelnen Urteilers abtrennen.

Antwort (Scherbaum): Das Zusammenzählen ist sozusagen "der Kurze Weg" zur Rangreihe. Sie haben recht: um die Konkordanz zu beurteilen, müssen Sie die Rangreihe jedes Urteilers ausrechnen und diese dann wieder miteinander vergleichen.

Skalen - Bedingungen für Homomorphismus

(Karla): Meine Fragen zu den Bedingungen für Homomorphismus sind:

1. Verstehe ich das richtig, dass man sich diese drei Fragen (Eindeutigkeitsproblem, Repräsentationsproblem und Bedeutsamkeitsproblem) dann stellen sollte, wenn man eine Skala konstruieren will, um zu überprüfen, ob man überhaupt eine Skala zu dem betrachteten Objekt erstellen kann?
2. Was ist der genaue Unterschied zwischen Bedeutsamkeits- und Eindeutigkeitsproblem? Ich weiß, dass das in der Vorlesung schon mehrfach gefragt wurde, aber ich verstehe den Unterschied immernoch nicht. Für mich sind es nur zwei verschiedene Betrachtungsweisen der Frage: "Welche Transformationen kann ich mit der Skala machen, sodass meine Aussage noch erhalten bleibt und wie lautet diese Aussage?"

Antwort(Scherbaum): zu 1. Ja - wenn Sie ein empirisches Relativ auf einer Skala abbilden wollen, dann müssen Sie festlegen, welche Axiome die Skala erfüllen muss und welche Aussagen Sie machen möchten. zu 2. Im Prinzip haben Sie recht. Einmal frage ich: was darf ich machen, um eine bestimmte Aussage nicht unmöglich zu machen/zu verfälschen. Das andere Mal frage ich: welche Aussagen kann ich noch machen, wenn ich bestimmte Transformationen machen möchte.

(Karla): Wie verhalten sich klassische und probabilistische Testtheorie zueinander? Sind sie ergänzend oder widersprüchlich? Oder keins von beidem?

Antwort (Scherbaum): Die probabilistische Testtheorie habe ich aus 2 Gründen ausgeklammert: 1. ist sie deutlich komplexer und stellt hohe Anforderungen, weshalb oftmals auf die klassische TT zurückgegriffen wird. 2. sind die Testergebnisse, trotz aller, Raffinesse, sehr vergleichbar mit Tests entsprechend der klassischen TT. Die prob. TT ist also anspruchsvoller, deckt sich in den Ergebnissen aber oft mit der klass. TT. Sie werden das in Diagnostik entsprechend noch tiefer beleuchten.

Definition Elementarismus (qualitative & quantitative Forschung, holistisch vs. elementaristisch)

(Miriam): Also, neuer Versuch meine Frage zu stellen:
Definition Elementarismus: Besagt, dass alles (psychische Funktionen) auf seine Elemente zurückzuführen ist. Damit ist der Elementarismus sowohl reduktionistisch (Alles ist auf seine Einzelteile zurückführbar, verstehe diese, verstehe das Ganze --> Wahl der Erklärungsebene) als auch monistisch (Alle Vorgänge auf ein Grundprinzip zurückführbar), genauer materialistisch (dieses Grundprinzip = Materie) und steht damit dem Holismus (Das Ganze ist mehr als die Summe seiner Teile --> natürliche Systeme sind nicht auseinandernehmbar) gegenüber.

Was macht aber den Elementarismus aus, dass er einen eigenen Begriff wert ist? Wo besteht der Unterschied? Kann man die Elemente als chemische Elemente verstehen? Wieso steht bei der Gegenüberstellung von qualitativer und quantitativer Forschung dem Holismus nicht der Reduktionismus oder der Materialismus gegenüber? Außerdem wird der Elementarismus häufig gemeinsam mit Empirismus genannt. Ist das nur, weil Hume, der den Elementarismus als Begriff geprägt hat, beides vertrat oder wo besteht der Zusammenhang?

Antwort (Scherbaum): Der Elementarismus von Wundt ist historisch besonders, denn Wundt war in der Tat von den großen Erfolgen der Chemie mit ihrem Elemente-System inspiriert. Er wollte das Gleiche für die Psyche schaffen - sozusagen ein psychisches Periodensystem. Der Elementarismus Wundts war in sofern auch reduktionistisch, im Sinne das komplexe Gedanken auf das Zusammenspiel psychischer Elemente reduziert werden könnten. Wundts Sichtweise war wiederum empiristisch, denn es ging um Wahrnehmungselemente (für höhere Prozesse hatte er ja seine "Völkerpsychologie vorgesehen"). Hume liefert mit seinem Assoziationismus und seinem Empirismus also die Vorlage für das Gedankengebäude Wundts.

Mixed Methods

(Franziska): Wie kann man sich die "Beziehung" zwischen Triangulation und Mixed Methods vorstellen? Auf der einen Seite hatten wir ja verschiedene Varianten der Triangulation nach Denzin - u.a. auch die Methodentriangulation. Kann man sich unter der Methodentriangulation die "Mixed Methods" vorstellen?
Auf einer anderen Folie hatten wir dann "Typische Mixed Methods Designs" - hier u.a. auch das Triangulationsdesign. Daraus würde ich jetzt entnehmen, dass Mixed Methods der "Oberbegriff" von der Triangulation ist. Wie kann man sich das Zusammenspiel dieser beiden Begriffe vorstellen?


Antwort(Scherbaum): Wenn Sie als Methodentriangulation eine qualitativ-quantitative Kombination nehmen, dann haben Sie ein Mixed Methods Triangulationsdesign. Dieses Design ist dann die Schnittmenge zwischen verschiedenen Mixed Methods Designs und Triangulationsansätzen.

Unterschied Skala und Test

(Franziska): Was genau ist der Unterschied zwischen einer Skala und einem Test? Bei der Skalen- als auch Testkonstruktion muss ich Items auswählen, und sowohl die Skala als auch der Test hilft mir spezielle Konstrukte zu erfassen. Und bei Persönlichkeitstest habe ich auch Antwortmöglichkeiten in Form einer Skala von 1 -5. Wo genau liegt jetzt der Unterschied? 

Antwort (Scherbaum): Sie sehen das im Prinzip richtig: Wenn Sie einen Test konstruieren, betreiben Sie Skalenkonstruktion. Allerdings kann ein Test u.U. aus mehreren Skalen bestehen. Testen und Skalenkonstruktion sind also mitunter gleichzusetzen. In der Vorlesung ist Testen und SK getrennt, denn beim Skalieren geht es um die Konstruktion des Messinstruments an sich (welches Sie dann z.B. auch für Befragungen einsetzen können), beim Testen geht's es dann v.a. um die spezifischen Randaspekte beim Einsatz der Skala, wie z.B. Vorbeugung gegen Täuschung.

Was ist eine Skala?

(Karla): Was genau ist eigentlich eine Skala? Ist ein Item auch eine Skala oder muss eine Skala aus mehreren Items bestehen?

Und wie sieht eine Skala aus, die Beispielsweise bei der Skalierung entsteht? Was bringt mir diese Skala? Ich verstehe das so, dass ich in einem Test z.B. mehrere Items habe, die eine Merkmalsdimension messen. Aber WIE ordne ich diese dann zu einer Skala? Lege ich während der Testkonstruktion vorher fest: Der Merkmalsraum geht von 0 bis 20 und ich habe verschiedene Items, die alle zusammen genau diesen Bereich der Merkmalsausrpägung abdecken? Z.B. misst ein Item dann die Merkmalsausprägung von 0,5 bis 2, ein anderes von 2 bis 3 usw.?
Ich kann mir noch nicht vorstellen, wie die Werte der einzelnen Items dann genau Aufschluss über den Grad der Merkmalsausrpägung geben und wie alle Items zusammenwirken, um eine Skala zu bilden, die die Merkmalsausrpägung abbildet!

Antwort(Scherbaum): Die Kernfrage ist, wie Sie bereits feststellen, wie am Ende der 1 Wert für 1 Person auf der Skala ansteht. Ein schönes Beispiel ist die Likert-Skala: hier summieren Sie einfach die angekreuzten Itemwerte auf (Lektion 5, 95, 96). Wenn Sie die Items allen Kriterien einer Skala entsprechen (siehe Itemanalyse, Lektion 5, 90), dann spiegelt dieser Wert wieder, welche Ausprägung das Merkmal bei dieser Person hat - denn je stärker das Merkmal ausgeprägt ist, desto höher wird die Person auch die Items ankreuzen (Itemcharakteristik). Am Ende geht es Ihnen nicht darum, dass der Skalenwert absolut gesehen sinnvoll ist - ob max. 20 oder 50 Punkte rauskommen, ist egal - dafür gibt es ja die Normierung. Aber mehrere Personen sollten in einem sinnvollen Verhältnis ihrer Merkmalsausprägung abgebildet werden (da ist wieder das empirische und das numerische Relativ).


Physiologie


(Ruben): Thema Physiologie, Grundlagen und Probleme, Lektion 6, F.90: Die Abbildung auf der rechten Seite zeigt das Zustandekommen von Samplingartefakten durch eine zu niedrige Samplingrate/Abtastfrequenz. Allerdings existieren in der Abbildung mehr als doppelt so viele Punkte wie Schwingungen und der Formel nach dürften keine Artefakte auftreten, oder täusche ich mich?

Antwort(Scherbaum): Sie haben genau hingesehen und Sie haben Recht: das Bild zeigt einen Fall, in dem sich Fs sehr an 2*Fmax annähert, aber noch nicht zu niedrig ist. Bereits in diesem Fall ist die Signalwiederherstellung problematisch und nur noch leidlich gut. Anbei finden Sie ein Bild, dass den Fall Fs < 2*Fmax zeigt - die Effekte sind dann entsprechend verheerend. Sampling Artefakt

(Franziska): Die Kernaussage der Folie 103 der Lektion "Erhebungsmethoden" ist doch, dass wir nicht mit Nasenreferenzen im Gamma Bereich messen sollten?! - Dies liegt darin begründet, dass bei Frequenzen von 40-50Hz (wenn wir bspw. entsprechende Bilder betrachten) Sakkaden auftreten, die ihre Schwingung in die Nase weiterleiten und somit das Ergebnis verfälschen. Die Nasenreferenz agiert hierbei also nicht als neutrale Referenz, sondern präsentiert Schwingungen, die durch die Augen ausgelöst wurden - habe ich das so richtig verstanden?

Antwort (Adrian): Du hast damit aus meiner Sicht die Kernaussage erfasst. Hinzuzufügen wäre eventuell noch, dass durch die Nasenreferenz (verfälscht durch die Sakkadenbewegungen der Augen) auf der gegenüberliegenden Seite (okzipital) Aktivierung zu messen ist, die nicht existiert. Diese wurde Gamma-Aktivierung wurde als mögliche Antwort auf das Bindungsproblem betrachtet (Neuronenverbände, die zusammengehören, schwingen mit selber Gamma-Frequenz). Die gezeigten Frequenzen sind aus dem gesamten Gamma-Bereich (über 30 bzw. 30 - 100 Hz), sind jedoch im Kernbereich stärker.

Antwort (Scherbaum): Sie haben das sehr schön beschrieben! :-)

Indexbildung: Beispiel des semantischen Differentials

(Maria): wie komme ich von dem Schritt der Reduktion des Merkmalsraumes zur Gewichtung durch Faktorenanalyse bzw. wie kann ich die Gewichtung ablesen? 

Antwort (Scherbaum): Die Faktorenanalyse liefert zusammen mit den neuen Faktoren auch die Gewichte, wie sehr jede Dimension auf jeden Faktor "lädt". Dementsprechend können Sie diese Gewichte dann in der gewichtet-additiven Variante verwenden.


Klassische Testtheorie

(Lydia): Die Formel für die klassische Testtheorie lautet doch X=T+E, also jeder Testwert (X) ist zusammengesetzt aus einem wahren Merkmalsanteil (T) und einem zufälligen Messfehleranteil (E).

Nun meine Frage: Auf der Folie 84 der Lektion 6 (Erhebungsmethoden) steht T=X+E . Ist das einfach nur verschrieben oder ein anderer Ausdruck für die klassische Testtheorie?


Antwort (Scherbaum): Vielen Dank für den sehr aufmerksamen Hinweis! Das auf Folie 84 ist tatsächlich ein Schreibfehler und sollte X=T+E lauten.


Urteilen: Kategorisieren

Wenn man beim Kategorisieren die Kategorien gebildet hat, wie kommt man dann genau auf die Stärke der Merkmalsausprägung? Sprch: was passiert beim Kodieren genau?

Antwort (Adrian): Das Kodieren bzw. Kategorisieren ist nichts anderes als eine quantitative Inhaltsanalyse, d.h. es geht hier um Häufigkeiten. Es wird die Annahme vertreten, dass die Häufigkeit eines bestimmten Begriffs Aufschluss über den Inhalt eines Textes gibt. Man könnte also sagen „die Stärke der Merkmalsausprägung ist abhängig von der Häufigkeit entsprechender Begriffe“. Z.B. schreibt eine Zeitschrift, in der häufig das Wort „Politik“ fällt, wahrscheinlich mehr über Politik. Der Prozess des Kodierens ist kurz gesagt nichts anderes als Zählen (wie oft etwas vorkommt).

Antwort(Scherbaum): Sie entwerfen also zuerst ein Kategorienschema und dann ordnen die Kodierer/Urteiler jeder Texteinheit eine Kategorie zu.

Erheben: Urteilen: Law of Categorical judgement

Nach der Transformation in z-Werte anhand der Standard-Normalverteilung), Wie kommt man auf den letzen Graphen, wo nur senkrechten Striche zu sehen sind?

Antwort (Scherbaum): Die Balken auf dem letzten Graphen sind die Zeilen-Mittelwerte der Daten - also die Mittelwerte pro Bild über alle Ratingstufen. Die Mittelwerte sind nach der Verzerrung durch die kumulative Normalverteilung repräsentativ für den Wahren Wert des Merkmals (z.B. Grausamkeit) des Bildes.


Signaldetektion: Entscheidungskriterium

Jan-Michael:

Im vorletzten Abschnitt im E-learning (Artikel Signaldetektion, Abschnitt Entscheidungskriterium) steht:

"In der Regel gilt hier ein recht konservatives Entscheidungskriterium, welches die Forschungscommunity auf 0.5% Irrtumswahrscheinlichkeit festgelegt hat. Ein Unterschied wird also nur dann als existent akzeptiert, wenn die vorliegenden Daten sehr sicher durch die Manipulation entstanden sind und nur eine 5% Wahrscheinlichkeit besteht, dieses Daten zu messen, obwohl kein echter Gruppenunterschied da war. "

müsste es nicht heißen:

"In der Regel gilt hier ein recht konservatives Entscheidungskriterium, welches die Forschungscommunity auf 5% Irrtumswahrscheinlichkeit festgelegt hat. Ein Unterschied wird also nur dann als existent akzeptiert, wenn die vorliegenden Daten sehr sicher durch die Manipulation entstanden sind und nur eine 5% Wahrscheinlichkeit besteht, dieses Daten zu messen, obwohl kein echter Gruppenunterschied da war. "

Antwort(Scherbaum): herzlichen Dank für die gut erkannte Anmerkung - ich habe den Fehler ans Elearning Team weitergeleitet, so dass er bald korrigiert wird.

Wurzeln der Psychologie:

Antike

(Anne Berthold): Die Frage bezieht sich zwar auf die Antike, da aber dafür hier keine Kategorie vorhanden ist, stelle ich meine Frage hier. Gehört der Realismus wirklich in den Bereich der Ontologie hinein (wie im Skript) oder lässt sich dieser doch eher in die Epistemologie einordnen (wie im Buch "Psychologie. Wissenschaftstheorie, theoretische Grundlage und Geschichte" von Harald Walach)?

Antwort (Scherbaum): Sie haben recht, dass der Realismus, besonders der naive Realismus, auch einen epistemologischen Anteil mit sich bringt: denn wenn ich annehme, dass die Welt da draußen existiert (ontologische Aussage des Realismus), dann kann ich eben auch annehmen: a) ich kann sie erkennen und b)wenn ich etwas beobachte, dann ist das genau das, was da auch wirklich passiert ist (epistemologische Folge des Ganzen). Diese beiden Annahmen reichen dann hinüber zu einem naiven Empirismus. Allerdings: die Grundposition ist eben erst einmal ontologisch: es gibt da eine objektiv erkennbare Realität. Demgegenüber würde der Idealismus in seiner radikalen Form die ontologische Gegenposition darstellen.

16.-17. Jahrhundert

(Michael) Bei Johannes Keppler steht auf der Folie "(-> Idealismus)". Meine Frage ist wie dieser auf Empirie basierende und eher realistisch wirkende Ansatz zu Idealismus führt? 


Antwort (Scherbaum): Kepplers mathematisches Modell ist sozusagen das Ideal, an das sich die verrauschte Realität nur annähert. Wir beschreiben also die Welt mittels "idealer" Methematik.

18./19. Jahrhundert

(Yvonne): Wie ist es zu verstehen, dass David Hume einerseits die Position des Idealismus einnahm, während andererseits sein Assoziationismus einen vollständigen Materialismus (->Realismus) darstellte?

Antwort(Scherbaum): Sie legen da den Finger in die dualistisch vereinfachende Wunde. Hume verband tatsächlich Empirismus (also Erkenntnis durch Erfahrung) mit (kritischem) Idealismus (wir können die Außenwelt nicht in ihrer vollen Wirklichkeit erkennen). Der Aristotelische Empirismus geht davon aus, dass sich in der realen Ausprägung eines Dinges die dahinterstehende Wirklichkeit verbirgt, was diese erkennbar machen sollte - Aquin treibt dies auf die Spitze, dass wir Gott als höchste Idee in der Natur erkennen können. Hume aber ist da skeptisch: er glaubt, dass wir immer Sinnestäuschungen unterliegen und unser Verstand nicht "sauber" arbeitet - somit bleibt uns nur, Schlüsse aus unserer Wahrnehmung der Realität zu ziehen, selbst wenn diese immer unvollständig/verzerrt sein werden. Eine ausführlichere Erklärung finden Sie bei http://www.textlog.de/hume.html


(Karla): Ich habe eine Frage zu Leibniz und seiner Sicht auf das Leib-Seele-Problem. Im E-Learning-Tool wird Leibniz' Monaden Theorie so beschrieben, dass er Leib und Seele jeweils als unterschiedliche Monaden ansieht, die beide aus einer nicht-materiellen besonderen Substanz bestehen, was eine monistische Sichtweise sei. Das ist ja auch erstmal logisch und nachvollziehbar. Beim Leib-Seele-Problem unter dem Stichwort "dualistischer Parallelismus" wird aber auf Leibniz verwiesen und gesagt, dass er einer der wichtigsten Vetreter sei, da Leib und Seele parallel existieren, aber nicht interagieren, sondern durch Gott in einen harmonischen, synchronisierten Zustand versetzt worden sind. Ich verstehe, warum Leibniz eine parallelistische Sichtweise vertrat, aber d'as "dualistisch" widerspricht sich jetzt ja mit der Aussage, dass er annahm, dass beide aus der selben nicht-materiellen Substanz bestehen. Ist Leibniz jetzt eher der monistischen oder dualistisch-parallelistischen Sichtweise zuzuordnen?

Antwort (Scherbaum): Eine sehr schwierige Frage. Man könnte Leibniz wegen der Monadengeschichte auch dem Eigenschaftsdualismus zuordnen und damit einem neutralen Monismus in Richtung von Spinoza. Da aber die göttliche Synchronisation eine Rolle für ihn spielt, wirft das wieder die Frage auf, ob er nicht doch Substanz-Dualist ist(siehe Wikipedia: <a href="http://de.wikipedia.org/wiki/Dualismus_%28Ontologie%29">[n]</a>). Im Bezug auf die Gedankengebäude, welche ich Ihnen präsentieren wollte, kommt dies auch dem Parallelismus entgegen.


19./20. Jahrhundert

Wie unterscheiden sich Funktionalismus und Identitätstheorie? Beide sagen doch, dass Mentales und Physisches prinzipiell dasselbe sind. Der Funktionalismus sagt: Mentales = funktionale Zustände des Systems und die Identitätstheorie sagt: Mentales = Beschreibung physischer Zustände. Wo ist da der große Unterschied, der die beiden zu unterschiedlichen "Sichtweisen" auf/Theorien über das Leib-Seele-Problem macht?

(Yvonne): Ich versuchs mal (hatte das gleiche Problem): Erst einmal muss man sehen, dass die Identitätstheorie vor dem Funktionalismus stand.
Die Identitätstheorie geht davon aus, dass es im Prinzip keine mentalen Zustände gibt. Das, was wir als solche empfinden, sind nur sprachliche Beschreibungen für spezifische körperliche Zustände,
also mentale Zustände = neuronale Zustände.
So weit so gut, das führte allerdings zu einem Problem: Der gleiche mentale Zustand (z.B. hungrig sein) sieht bei einer Katze, Schnecke, Pferd und einem Menschen ganz verschieden aus. Trotzdem sind sie alle hungrig.
Deshalb kam Frau Putman und hat das Ganze als funktionalen Zustand abstrahiert. Der mentale Zustand des Hungrigseins hat die Funktion für bestimmten Output (Sättigung suchen) zu sorgen. Es ist aber kein spezifischer Zustand, bei dem jede Neuronaktivität exakt definiert sein muss. Das wär bei einer Schnecke und einem Menschen völlig unmöglich. Sondern der „Gesamtausdruck“ muss stimmen.
Wie dieser sogenannte funktionale Zustand aussieht, bleibt quasi jedem selbst überlassen. Was zählt, ist, dass er dafür sorgt, was am Ende rauskommt. Die konkrete physische Realisierung des funktionalen Zustandes könnte somit biologisch, durch eine Seele oder mechanisch sein.
So ist die Idee der Modellierung zu verstehen. Ein Roboter kann auch „mentale Zustände“ haben, weil mentale Zustände nur funktionale sind. Somit müssen seine funktionalen Zustände dafür sorgen, wie ein Mensch zu reagieren.
Somit ist der Unterschied zur Identitätstheorie keine neue Erklärung, sondern nur eine andere Definition von Mentalem. Die ganze Sache auf eine höhere Betrachtungsebene zu heben, nämlich als Funktion, löst zwar nicht das Problem, wie ein mentaler Zustand konkret aussieht, aber lässt sich leichter händeln und ist für die Modellierung auch ganz praktisch.
Ich hoffe, ich konnte helfen :)

Antwort (Scherbaum): Wunderbar beschrieben! Kleine Anmerkung: Bei der Identitätstheorie kommen Sie dank Type und Tokenversion in Probleme - der Funktionalismus war hier ein Lösungsansatz.


Vorhersagen

(Franziska): In der Lektion 3, auf Folie 61, wird ja ein Prognose Modell & dessen Aufbau veranschaulicht. Mir erschließt sich nicht, was das mit dem Erklärungswert (Kausal: Effektgröße - Zusammenhang:Korrelation) auf sich hat. Effektgröße beschreibt doch nur die Stärke des Zusammenhanges/der Korrelation zwischen PV und KV, oder? Meiner Meinung nach beziehen sich die Effektgrößen doch sowohl auf Korrelationen als auch Kausalzusammenhänge oder? Auf der Folie scheint es für Korrelation und Kausalzusammenhänge zwei untersch. Effektgrößen zu geben?

Antwort (Scherbaum): Vorhersagen können Sie bereits, ohne über eine Kausalerklärung zu verfügen. Um zu wissen, wie verlässlich eine Prädiktor Variable zur Vorhersage ist, reicht es, die Korrelationsstärke zwischen PV und KV zu kennen. Bei mehreren PV können Sie diese entsprechend gewichten. Wenn Sie aber eine Kausalerklärung haben, dann wissen Sie, dass und wie verschiedene PV sich auf die KV auswirken (und nicht nur damit zusammenhängen). Das haben Sie oft in Experimenten herausgefunden und hier können Sie Effektstärken berechnen (das r der Korrelation ist übrigens auch ein Effektstärkemaß) und diese zur Gewichtung nutzen.


Vorlesung Versuchsplanung


Stichproben Kennwerte

Konfidenzintervalle:

(Jan-Michael): Im E-Learning gibt es folgendes Beispiel:

In einer Befragung bezüglich der Alter der Studierenden an der TU Dresden haben 100 zufällig ausgewählte Studierenden teilgenommen. Ihr durchschnittliches Alter betrug MW = 22 Jahre. Um eine Aussage über den Mittelwert des Alters der Grundgesamtheit aller Studierenden der TU machen zu können, wird ein Konfidenzintervall berechnet. Es wird ein Konfidenzniveau von 95% gewählt und die Standardabweichung ermittelt (SD = 3 Jahre) und daraus das Konfidenzintervall berechnet. Die Grenzen des berechneten Konfidenzintervalls betragen 21,4 und 22,6

wie kommt man auf 21,4 und 22,6? Ich komme auf [16,1; 27,9].

Antwort (Scherbaum): Eine SD (Standardabweichung) von 3 bedeutet bei Standardfehler SE = SD/Wurzel(n) einen SE = 3/Wurzel(100) = 0,3. Für 95 Konfidenz: SE * 1,96 = 0,588. Das ziehen Sie von 22 ab oder zählen es dazu und Sie haben die Ergebnisse wie im Tool.


Interaktionen & Haupteffekte

Nur Haupteffekte:

(Anica): In der Lektion 4 auf Folie 80 haben wir ein Beispiel für "nur Haupteffekte" gegeben. Trage ich die Werte aus der Tabelle in ein Liniendiagramm ein, erhalte ich 2 Linien: eine für M-->W und eine für W-->M. Die Linie für M-->W hat von 21:00 bis 22:30 einen stärkeren Anstieg, als zwischen 22:30 und 0:00. Der Anstieg der zweiten Linie bleibt konstant. Deshalb habe ich doch nun hier unterschiedliche EHE (z.B. von M-->W von 21:00 bis 22:30 und 22:00 bis 0:00). Die Bedingungen sind gleichgerichtet, kreuzen sich jedoch nicht. Entspräche das nicht einer ordinalen Interaktion, statt "nur Haupteffekte"?

Antwort (Scherbaum): Deskriptiv unterscheiden sich die Linien leicht - wenn Sie sich allerdings die Grafik eine Folie weiter ansehen, dann können Sie bereits an den Fehlerbalken sehen, dass sich diese Unterschiede innerhalb des Fehlers bewegen. Die Autoren (bzw. die Statistik) fanden also nur Haupteffekte.(Caroline): Was ist der Unterschied zwischen objektiv und intersubketiv? (es wird auf den nächten Folien nämlich geschrieben: Objektivität (intersubjektiv)

Antwort (Michael): Ich glaube, die Bezeichnung „intersubjektiv“ versucht einfach auf begrifflicher Ebene der Tatsache gerecht zu werden, dass es wahre „Objektivität“ in der menschlichen Erkenntnis nicht geben kann. Es geht eher darum, Erfahrungen zwischen verschiedenen Individuen vergleichbar zu machen. Also, ein Experiment sollte so durchführbar sein, dass meine daraus folgende (zwangsläufig subjektive) Erfahrung von einem jeden anderen nachvollziehbar wäre, wenn er das Experiment ebenso durchführen würde.

Antwort(Scherbaum): Vielen Dank. Ich hab dem nichts hinzuzufügen:)


Vorlesung Einführung in die Methoden der Psychologie

Modellierung & Simulation

(Adrian): Frage zu Modellierung & empirischem Zirkel (F 61): Wie sind Daten- und Mathematische Modelle einzuordnen und was genau ist der empirische Zirkel? Meinen momentane Antwort wäre, dass Systemdaten mittels statistischer (Daten-)Modelle analysiert werden (= Systemanalyse) und durch Interpretation dann zum abstrakten Modell / der psychologischen Theorie kommt. Die mathematischen Modelle werden dann daraus entworfen und dienen zur Deduktion auf Modelldaten. Empirischer Zirkel wäre für mich einfach das zirkuläre Angleichen von Modell und System bzw. Theorie und empirischer Realität.

Antwort (Scherbaum): Sie beschreiben das im Prinzip richtig. Wenn Sie Lektion 3, Folie 83 (Der Forschungsprozess) betrachten, dann sehen Sie den empirischen Zirkel: durch Beobachtung kommen Sie zur Theorie, oder eben dem Modell, dieses testen Sie und sind dann u.U. gezwungen, das Modell anzupassen. Im Idealfall erhalten Sie also ein immer besseres Modell der Realität. Daten-Modelle bzw. statistische Modelle sind eher Mittel der Beschreibung, denn sie enthalten ja letztlich keine gesetzmäßige Erklärung. Mathematische Modelle gehen einen Schritt von den Daten weg, unterstellen also (im besten Fall) einen gewissen Wirkzusammenhang und liefern damit Erklärungen (wenn auch oft sehr abstrakte).

Erheben und Erhebungsmethoden=

Law of categorical & comparative judgement

(Miriam): (Folie 130 & 142) Beide Male ist die Rede von " "Hochskalieren" durch wiederholte Rangordnungen".

Das Skalieren der Rangordnungen/ Dominanzpaarvergleiche ist doch eben dieser Vorgang des Verrechnens der Ergebnisse mehrerer Urteiler zum Minimieren des Fehlers und dadurch Erhalten des "wahren Wertes" eines Objekts bzw. Erreichen einer Intersubjektivität (möglichst nah an Objektivität) aus den vielen Subjektivitäten der einzelnen Rater. Hat man den wahren Wert, hat man aus der Ordinalskala eine Intervallskala gemacht, da man Abstände zwischen den Objekten hat.. (Oder nicht?)

Fehlt da noch ein Vorgang, bis es eine Intervallskala ist oder wo sind darin die wiederholten Rangordnungen? Oder einfach nur Wiederholung durch viele versch. Urteiler?

Antwort(Scherbaum): Durch wiederholtes urteilen (mehrere Urteiler) erhalten Sie eine intersubjektive Einschätzung. Allerdings auf der Ordinalskala. Sie können nun diese vielen Urteilen und die darin liegende Varianz nutzen, um mittels der beiden Verfahren den Wert der Objekte auf einer Intervallskala abzubilden. Dann wissen Sie nicht nur, "Objekt 1 ist größer als Objekt 2" sondern auch noch "Objekt 1 ist um so und so viel größer als Objekt 2".

Urteilen: Dominanzpaarvergleiche

(Miriam): Beim Erstellen der Rangordnungen durch mehrere Urteiler:
Wie wird die Konkordanz beurteilt? Getrennt von der Rangvergabe? Denn wenn vor Rangvergabe alle Bevorzugungen zusammengezählt werden, lässt sich ja nicht mehr das Ergebnis eines einzelnen Urteilers abtrennen.

Antwort (Scherbaum): Das Zusammenzählen ist sozusagen "der Kurze Weg" zur Rangreihe. Sie haben recht: um die Konkordanz zu beurteilen, müssen Sie die Rangreihe jedes Urteilers ausrechnen und diese dann wieder miteinander vergleichen.

Skalen - Bedingungen für Homomorphismus

(Karla): Meine Fragen zu den Bedingungen für Homomorphismus sind:

1. Verstehe ich das richtig, dass man sich diese drei Fragen (Eindeutigkeitsproblem, Repräsentationsproblem und Bedeutsamkeitsproblem) dann stellen sollte, wenn man eine Skala konstruieren will, um zu überprüfen, ob man überhaupt eine Skala zu dem betrachteten Objekt erstellen kann?
2. Was ist der genaue Unterschied zwischen Bedeutsamkeits- und Eindeutigkeitsproblem? Ich weiß, dass das in der Vorlesung schon mehrfach gefragt wurde, aber ich verstehe den Unterschied immernoch nicht. Für mich sind es nur zwei verschiedene Betrachtungsweisen der Frage: "Welche Transformationen kann ich mit der Skala machen, sodass meine Aussage noch erhalten bleibt und wie lautet diese Aussage?"

Antwort(Scherbaum): zu 1. Ja - wenn Sie ein empirisches Relativ auf einer Skala abbilden wollen, dann müssen Sie festlegen, welche Axiome die Skala erfüllen muss und welche Aussagen Sie machen möchten. zu 2. Im Prinzip haben Sie recht. Einmal frage ich: was darf ich machen, um eine bestimmte Aussage nicht unmöglich zu machen/zu verfälschen. Das andere Mal frage ich: welche Aussagen kann ich noch machen, wenn ich bestimmte Transformationen machen möchte.

(Karla): Wie verhalten sich klassische und probabilistische Testtheorie zueinander? Sind sie ergänzend oder widersprüchlich? Oder keins von beidem?

Antwort (Scherbaum): Die probabilistische Testtheorie habe ich aus 2 Gründen ausgeklammert: 1. ist sie deutlich komplexer und stellt hohe Anforderungen, weshalb oftmals auf die klassische TT zurückgegriffen wird. 2. sind die Testergebnisse, trotz aller, Raffinesse, sehr vergleichbar mit Tests entsprechend der klassischen TT. Die prob. TT ist also anspruchsvoller, deckt sich in den Ergebnissen aber oft mit der klass. TT. Sie werden das in Diagnostik entsprechend noch tiefer beleuchten.

Definition Elementarismus (qualitative & quantitative Forschung, holistisch vs. elementaristisch)

(Miriam): Also, neuer Versuch meine Frage zu stellen:
Definition Elementarismus: Besagt, dass alles (psychische Funktionen) auf seine Elemente zurückzuführen ist. Damit ist der Elementarismus sowohl reduktionistisch (Alles ist auf seine Einzelteile zurückführbar, verstehe diese, verstehe das Ganze --> Wahl der Erklärungsebene) als auch monistisch (Alle Vorgänge auf ein Grundprinzip zurückführbar), genauer materialistisch (dieses Grundprinzip = Materie) und steht damit dem Holismus (Das Ganze ist mehr als die Summe seiner Teile --> natürliche Systeme sind nicht auseinandernehmbar) gegenüber.

Was macht aber den Elementarismus aus, dass er einen eigenen Begriff wert ist? Wo besteht der Unterschied? Kann man die Elemente als chemische Elemente verstehen? Wieso steht bei der Gegenüberstellung von qualitativer und quantitativer Forschung dem Holismus nicht der Reduktionismus oder der Materialismus gegenüber? Außerdem wird der Elementarismus häufig gemeinsam mit Empirismus genannt. Ist das nur, weil Hume, der den Elementarismus als Begriff geprägt hat, beides vertrat oder wo besteht der Zusammenhang?

Antwort (Scherbaum): Der Elementarismus von Wundt ist historisch besonders, denn Wundt war in der Tat von den großen Erfolgen der Chemie mit ihrem Elemente-System inspiriert. Er wollte das Gleiche für die Psyche schaffen - sozusagen ein psychisches Periodensystem. Der Elementarismus Wundts war in sofern auch reduktionistisch, im Sinne das komplexe Gedanken auf das Zusammenspiel psychischer Elemente reduziert werden könnten. Wundts Sichtweise war wiederum empiristisch, denn es ging um Wahrnehmungselemente (für höhere Prozesse hatte er ja seine "Völkerpsychologie vorgesehen"). Hume liefert mit seinem Assoziationismus und seinem Empirismus also die Vorlage für das Gedankengebäude Wundts.

Mixed Methods

(Franziska): Wie kann man sich die "Beziehung" zwischen Triangulation und Mixed Methods vorstellen? Auf der einen Seite hatten wir ja verschiedene Varianten der Triangulation nach Denzin - u.a. auch die Methodentriangulation. Kann man sich unter der Methodentriangulation die "Mixed Methods" vorstellen?
Auf einer anderen Folie hatten wir dann "Typische Mixed Methods Designs" - hier u.a. auch das Triangulationsdesign. Daraus würde ich jetzt entnehmen, dass Mixed Methods der "Oberbegriff" von der Triangulation ist. Wie kann man sich das Zusammenspiel dieser beiden Begriffe vorstellen?


Antwort(Scherbaum): Wenn Sie als Methodentriangulation eine qualitativ-quantitative Kombination nehmen, dann haben Sie ein Mixed Methods Triangulationsdesign. Dieses Design ist dann die Schnittmenge zwischen verschiedenen Mixed Methods Designs und Triangulationsansätzen.

Unterschied Skala und Test

(Franziska): Was genau ist der Unterschied zwischen einer Skala und einem Test? Bei der Skalen- als auch Testkonstruktion muss ich Items auswählen, und sowohl die Skala als auch der Test hilft mir spezielle Konstrukte zu erfassen. Und bei Persönlichkeitstest habe ich auch Antwortmöglichkeiten in Form einer Skala von 1 -5. Wo genau liegt jetzt der Unterschied? 

Antwort (Scherbaum): Sie sehen das im Prinzip richtig: Wenn Sie einen Test konstruieren, betreiben Sie Skalenkonstruktion. Allerdings kann ein Test u.U. aus mehreren Skalen bestehen. Testen und Skalenkonstruktion sind also mitunter gleichzusetzen. In der Vorlesung ist Testen und SK getrennt, denn beim Skalieren geht es um die Konstruktion des Messinstruments an sich (welches Sie dann z.B. auch für Befragungen einsetzen können), beim Testen geht's es dann v.a. um die spezifischen Randaspekte beim Einsatz der Skala, wie z.B. Vorbeugung gegen Täuschung.

Was ist eine Skala?

(Karla): Was genau ist eigentlich eine Skala? Ist ein Item auch eine Skala oder muss eine Skala aus mehreren Items bestehen?

Und wie sieht eine Skala aus, die Beispielsweise bei der Skalierung entsteht? Was bringt mir diese Skala? Ich verstehe das so, dass ich in einem Test z.B. mehrere Items habe, die eine Merkmalsdimension messen. Aber WIE ordne ich diese dann zu einer Skala? Lege ich während der Testkonstruktion vorher fest: Der Merkmalsraum geht von 0 bis 20 und ich habe verschiedene Items, die alle zusammen genau diesen Bereich der Merkmalsausrpägung abdecken? Z.B. misst ein Item dann die Merkmalsausprägung von 0,5 bis 2, ein anderes von 2 bis 3 usw.?
Ich kann mir noch nicht vorstellen, wie die Werte der einzelnen Items dann genau Aufschluss über den Grad der Merkmalsausrpägung geben und wie alle Items zusammenwirken, um eine Skala zu bilden, die die Merkmalsausrpägung abbildet!

Antwort(Scherbaum): Die Kernfrage ist, wie Sie bereits feststellen, wie am Ende der 1 Wert für 1 Person auf der Skala ansteht. Ein schönes Beispiel ist die Likert-Skala: hier summieren Sie einfach die angekreuzten Itemwerte auf (Lektion 5, 95, 96). Wenn Sie die Items allen Kriterien einer Skala entsprechen (siehe Itemanalyse, Lektion 5, 90), dann spiegelt dieser Wert wieder, welche Ausprägung das Merkmal bei dieser Person hat - denn je stärker das Merkmal ausgeprägt ist, desto höher wird die Person auch die Items ankreuzen (Itemcharakteristik). Am Ende geht es Ihnen nicht darum, dass der Skalenwert absolut gesehen sinnvoll ist - ob max. 20 oder 50 Punkte rauskommen, ist egal - dafür gibt es ja die Normierung. Aber mehrere Personen sollten in einem sinnvollen Verhältnis ihrer Merkmalsausprägung abgebildet werden (da ist wieder das empirische und das numerische Relativ).


Physiologie


(Ruben): Thema Physiologie, Grundlagen und Probleme, Lektion 6, F.90: Die Abbildung auf der rechten Seite zeigt das Zustandekommen von Samplingartefakten durch eine zu niedrige Samplingrate/Abtastfrequenz. Allerdings existieren in der Abbildung mehr als doppelt so viele Punkte wie Schwingungen und der Formel nach dürften keine Artefakte auftreten, oder täusche ich mich?

Antwort(Scherbaum): Sie haben genau hingesehen und Sie haben Recht: das Bild zeigt einen Fall, in dem sich Fs sehr an 2*Fmax annähert, aber noch nicht zu niedrig ist. Bereits in diesem Fall ist die Signalwiederherstellung problematisch und nur noch leidlich gut. Anbei finden Sie ein Bild, dass den Fall Fs < 2*Fmax zeigt - die Effekte sind dann entsprechend verheerend. Sampling Artefakt

(Franziska): Die Kernaussage der Folie 103 der Lektion "Erhebungsmethoden" ist doch, dass wir nicht mit Nasenreferenzen im Gamma Bereich messen sollten?! - Dies liegt darin begründet, dass bei Frequenzen von 40-50Hz (wenn wir bspw. entsprechende Bilder betrachten) Sakkaden auftreten, die ihre Schwingung in die Nase weiterleiten und somit das Ergebnis verfälschen. Die Nasenreferenz agiert hierbei also nicht als neutrale Referenz, sondern präsentiert Schwingungen, die durch die Augen ausgelöst wurden - habe ich das so richtig verstanden?

Antwort (Adrian): Du hast damit aus meiner Sicht die Kernaussage erfasst. Hinzuzufügen wäre eventuell noch, dass durch die Nasenreferenz (verfälscht durch die Sakkadenbewegungen der Augen) auf der gegenüberliegenden Seite (okzipital) Aktivierung zu messen ist, die nicht existiert. Diese wurde Gamma-Aktivierung wurde als mögliche Antwort auf das Bindungsproblem betrachtet (Neuronenverbände, die zusammengehören, schwingen mit selber Gamma-Frequenz). Die gezeigten Frequenzen sind aus dem gesamten Gamma-Bereich (über 30 bzw. 30 - 100 Hz), sind jedoch im Kernbereich stärker.

Antwort (Scherbaum): Sie haben das sehr schön beschrieben! :-)

Indexbildung: Beispiel des semantischen Differentials

(Maria): wie komme ich von dem Schritt der Reduktion des Merkmalsraumes zur Gewichtung durch Faktorenanalyse bzw. wie kann ich die Gewichtung ablesen? 

Antwort (Scherbaum): Die Faktorenanalyse liefert zusammen mit den neuen Faktoren auch die Gewichte, wie sehr jede Dimension auf jeden Faktor "lädt". Dementsprechend können Sie diese Gewichte dann in der gewichtet-additiven Variante verwenden.


Klassische Testtheorie

(Lydia): Die Formel für die klassische Testtheorie lautet doch X=T+E, also jeder Testwert (X) ist zusammengesetzt aus einem wahren Merkmalsanteil (T) und einem zufälligen Messfehleranteil (E).

Nun meine Frage: Auf der Folie 84 der Lektion 6 (Erhebungsmethoden) steht T=X+E . Ist das einfach nur verschrieben oder ein anderer Ausdruck für die klassische Testtheorie?


Antwort (Scherbaum): Vielen Dank für den sehr aufmerksamen Hinweis! Das auf Folie 84 ist tatsächlich ein Schreibfehler und sollte X=T+E lauten.


Urteilen: Kategorisieren

Wenn man beim Kategorisieren die Kategorien gebildet hat, wie kommt man dann genau auf die Stärke der Merkmalsausprägung? Sprch: was passiert beim Kodieren genau?

Antwort (Adrian): Das Kodieren bzw. Kategorisieren ist nichts anderes als eine quantitative Inhaltsanalyse, d.h. es geht hier um Häufigkeiten. Es wird die Annahme vertreten, dass die Häufigkeit eines bestimmten Begriffs Aufschluss über den Inhalt eines Textes gibt. Man könnte also sagen „die Stärke der Merkmalsausprägung ist abhängig von der Häufigkeit entsprechender Begriffe“. Z.B. schreibt eine Zeitschrift, in der häufig das Wort „Politik“ fällt, wahrscheinlich mehr über Politik. Der Prozess des Kodierens ist kurz gesagt nichts anderes als Zählen (wie oft etwas vorkommt).

Antwort(Scherbaum): Sie entwerfen also zuerst ein Kategorienschema und dann ordnen die Kodierer/Urteiler jeder Texteinheit eine Kategorie zu.

Erheben: Urteilen: Law of Categorical judgement

Nach der Transformation in z-Werte anhand der Standard-Normalverteilung), Wie kommt man auf den letzen Graphen, wo nur senkrechten Striche zu sehen sind?

Antwort (Scherbaum): Die Balken auf dem letzten Graphen sind die Zeilen-Mittelwerte der Daten - also die Mittelwerte pro Bild über alle Ratingstufen. Die Mittelwerte sind nach der Verzerrung durch die kumulative Normalverteilung repräsentativ für den Wahren Wert des Merkmals (z.B. Grausamkeit) des Bildes.


Wurzeln der Psychologie:

Antike

(Anne Berthold): Die Frage bezieht sich zwar auf die Antike, da aber dafür hier keine Kategorie vorhanden ist, stelle ich meine Frage hier. Gehört der Realismus wirklich in den Bereich der Ontologie hinein (wie im Skript) oder lässt sich dieser doch eher in die Epistemologie einordnen (wie im Buch "Psychologie. Wissenschaftstheorie, theoretische Grundlage und Geschichte" von Harald Walach)?

Antwort (Scherbaum): Sie haben recht, dass der Realismus, besonders der naive Realismus, auch einen epistemologischen Anteil mit sich bringt: denn wenn ich annehme, dass die Welt da draußen existiert (ontologische Aussage des Realismus), dann kann ich eben auch annehmen: a) ich kann sie erkennen und b)wenn ich etwas beobachte, dann ist das genau das, was da auch wirklich passiert ist (epistemologische Folge des Ganzen). Diese beiden Annahmen reichen dann hinüber zu einem naiven Empirismus. Allerdings: die Grundposition ist eben erst einmal ontologisch: es gibt da eine objektiv erkennbare Realität. Demgegenüber würde der Idealismus in seiner radikalen Form die ontologische Gegenposition darstellen.

16.-17. Jahrhundert

(Michael) Bei Johannes Keppler steht auf der Folie "(-> Idealismus)". Meine Frage ist wie dieser auf Empirie basierende und eher realistisch wirkende Ansatz zu Idealismus führt? 


Antwort (Scherbaum): Kepplers mathematisches Modell ist sozusagen das Ideal, an das sich die verrauschte Realität nur annähert. Wir beschreiben also die Welt mittels "idealer" Methematik.

18./19. Jahrhundert

(Yvonne): Wie ist es zu verstehen, dass David Hume einerseits die Position des Idealismus einnahm, während andererseits sein Assoziationismus einen vollständigen Materialismus (->Realismus) darstellte?

Antwort(Scherbaum): Sie legen da den Finger in die dualistisch vereinfachende Wunde. Hume verband tatsächlich Empirismus (also Erkenntnis durch Erfahrung) mit (kritischem) Idealismus (wir können die Außenwelt nicht in ihrer vollen Wirklichkeit erkennen). Der Aristotelische Empirismus geht davon aus, dass sich in der realen Ausprägung eines Dinges die dahinterstehende Wirklichkeit verbirgt, was diese erkennbar machen sollte - Aquin treibt dies auf die Spitze, dass wir Gott als höchste Idee in der Natur erkennen können. Hume aber ist da skeptisch: er glaubt, dass wir immer Sinnestäuschungen unterliegen und unser Verstand nicht "sauber" arbeitet - somit bleibt uns nur, Schlüsse aus unserer Wahrnehmung der Realität zu ziehen, selbst wenn diese immer unvollständig/verzerrt sein werden. Eine ausführlichere Erklärung finden Sie bei http://www.textlog.de/hume.html


(Karla): Ich habe eine Frage zu Leibniz und seiner Sicht auf das Leib-Seele-Problem. Im E-Learning-Tool wird Leibniz' Monaden Theorie so beschrieben, dass er Leib und Seele jeweils als unterschiedliche Monaden ansieht, die beide aus einer nicht-materiellen besonderen Substanz bestehen, was eine monistische Sichtweise sei. Das ist ja auch erstmal logisch und nachvollziehbar. Beim Leib-Seele-Problem unter dem Stichwort "dualistischer Parallelismus" wird aber auf Leibniz verwiesen und gesagt, dass er einer der wichtigsten Vetreter sei, da Leib und Seele parallel existieren, aber nicht interagieren, sondern durch Gott in einen harmonischen, synchronisierten Zustand versetzt worden sind. Ich verstehe, warum Leibniz eine parallelistische Sichtweise vertrat, aber d'as "dualistisch" widerspricht sich jetzt ja mit der Aussage, dass er annahm, dass beide aus der selben nicht-materiellen Substanz bestehen. Ist Leibniz jetzt eher der monistischen oder dualistisch-parallelistischen Sichtweise zuzuordnen?

Antwort (Scherbaum): Eine sehr schwierige Frage. Man könnte Leibniz wegen der Monadengeschichte auch dem Eigenschaftsdualismus zuordnen und damit einem neutralen Monismus in Richtung von Spinoza. Da aber die göttliche Synchronisation eine Rolle für ihn spielt, wirft das wieder die Frage auf, ob er nicht doch Substanz-Dualist ist(siehe Wikipedia: <a href="http://de.wikipedia.org/wiki/Dualismus_%28Ontologie%29">[n]</a>). Im Bezug auf die Gedankengebäude, welche ich Ihnen präsentieren wollte, kommt dies auch dem Parallelismus entgegen.


19./20. Jahrhundert

Wie unterscheiden sich Funktionalismus und Identitätstheorie? Beide sagen doch, dass Mentales und Physisches prinzipiell dasselbe sind. Der Funktionalismus sagt: Mentales = funktionale Zustände des Systems und die Identitätstheorie sagt: Mentales = Beschreibung physischer Zustände. Wo ist da der große Unterschied, der die beiden zu unterschiedlichen "Sichtweisen" auf/Theorien über das Leib-Seele-Problem macht?

(Yvonne): Ich versuchs mal (hatte das gleiche Problem): Erst einmal muss man sehen, dass die Identitätstheorie vor dem Funktionalismus stand.
Die Identitätstheorie geht davon aus, dass es im Prinzip keine mentalen Zustände gibt. Das, was wir als solche empfinden, sind nur sprachliche Beschreibungen für spezifische körperliche Zustände,
also mentale Zustände = neuronale Zustände.
So weit so gut, das führte allerdings zu einem Problem: Der gleiche mentale Zustand (z.B. hungrig sein) sieht bei einer Katze, Schnecke, Pferd und einem Menschen ganz verschieden aus. Trotzdem sind sie alle hungrig.
Deshalb kam Frau Putman und hat das Ganze als funktionalen Zustand abstrahiert. Der mentale Zustand des Hungrigseins hat die Funktion für bestimmten Output (Sättigung suchen) zu sorgen. Es ist aber kein spezifischer Zustand, bei dem jede Neuronaktivität exakt definiert sein muss. Das wär bei einer Schnecke und einem Menschen völlig unmöglich. Sondern der „Gesamtausdruck“ muss stimmen.
Wie dieser sogenannte funktionale Zustand aussieht, bleibt quasi jedem selbst überlassen. Was zählt, ist, dass er dafür sorgt, was am Ende rauskommt. Die konkrete physische Realisierung des funktionalen Zustandes könnte somit biologisch, durch eine Seele oder mechanisch sein.
So ist die Idee der Modellierung zu verstehen. Ein Roboter kann auch „mentale Zustände“ haben, weil mentale Zustände nur funktionale sind. Somit müssen seine funktionalen Zustände dafür sorgen, wie ein Mensch zu reagieren.
Somit ist der Unterschied zur Identitätstheorie keine neue Erklärung, sondern nur eine andere Definition von Mentalem. Die ganze Sache auf eine höhere Betrachtungsebene zu heben, nämlich als Funktion, löst zwar nicht das Problem, wie ein mentaler Zustand konkret aussieht, aber lässt sich leichter händeln und ist für die Modellierung auch ganz praktisch.
Ich hoffe, ich konnte helfen :)

Antwort (Scherbaum): Wunderbar beschrieben! Kleine Anmerkung: Bei der Identitätstheorie kommen Sie dank Type und Tokenversion in Probleme - der Funktionalismus war hier ein Lösungsansatz.


Vorhersagen

(Franziska): In der Lektion 3, auf Folie 61, wird ja ein Prognose Modell & dessen Aufbau veranschaulicht. Mir erschließt sich nicht, was das mit dem Erklärungswert (Kausal: Effektgröße - Zusammenhang:Korrelation) auf sich hat. Effektgröße beschreibt doch nur die Stärke des Zusammenhanges/der Korrelation zwischen PV und KV, oder? Meiner Meinung nach beziehen sich die Effektgrößen doch sowohl auf Korrelationen als auch Kausalzusammenhänge oder? Auf der Folie scheint es für Korrelation und Kausalzusammenhänge zwei untersch. Effektgrößen zu geben?

Antwort (Scherbaum): Vorhersagen können Sie bereits, ohne über eine Kausalerklärung zu verfügen. Um zu wissen, wie verlässlich eine Prädiktor Variable zur Vorhersage ist, reicht es, die Korrelationsstärke zwischen PV und KV zu kennen. Bei mehreren PV können Sie diese entsprechend gewichten. Wenn Sie aber eine Kausalerklärung haben, dann wissen Sie, dass und wie verschiedene PV sich auf die KV auswirken (und nicht nur damit zusammenhängen). Das haben Sie oft in Experimenten herausgefunden und hier können Sie Effektstärken berechnen (das r der Korrelation ist übrigens auch ein Effektstärkemaß) und diese zur Gewichtung nutzen.


Vorlesung Versuchsplanung


Stichproben Kennwerte

Konfidenzintervalle:

(Jan-Michael): Im E-Learning gibt es folgendes Beispiel:

In einer Befragung bezüglich der Alter der Studierenden an der TU Dresden haben 100 zufällig ausgewählte Studierenden teilgenommen. Ihr durchschnittliches Alter betrug MW = 22 Jahre. Um eine Aussage über den Mittelwert des Alters der Grundgesamtheit aller Studierenden der TU machen zu können, wird ein Konfidenzintervall berechnet. Es wird ein Konfidenzniveau von 95% gewählt und die Standardabweichung ermittelt (SD = 3 Jahre) und daraus das Konfidenzintervall berechnet. Die Grenzen des berechneten Konfidenzintervalls betragen 21,4 und 22,6

wie kommt man auf 21,4 und 22,6? Ich komme auf [16,1; 27,9].

Antwort (Scherbaum): Eine SD (Standardabweichung) von 3 bedeutet bei Standardfehler SE = SD/Wurzel(n) einen SE = 3/Wurzel(100) = 0,3. Für 95 Konfidenz: SE * 1,96 = 0,588. Das ziehen Sie von 22 ab oder zählen es dazu und Sie haben die Ergebnisse wie im Tool.


Interaktionen & Haupteffekte

Nur Haupteffekte:

(Anica): In der Lektion 4 auf Folie 80 haben wir ein Beispiel für "nur Haupteffekte" gegeben. Trage ich die Werte aus der Tabelle in ein Liniendiagramm ein, erhalte ich 2 Linien: eine für M-->W und eine für W-->M. Die Linie für M-->W hat von 21:00 bis 22:30 einen stärkeren Anstieg, als zwischen 22:30 und 0:00. Der Anstieg der zweiten Linie bleibt konstant. Deshalb habe ich doch nun hier unterschiedliche EHE (z.B. von M-->W von 21:00 bis 22:30 und 22:00 bis 0:00). Die Bedingungen sind gleichgerichtet, kreuzen sich jedoch nicht. Entspräche das nicht einer ordinalen Interaktion, statt "nur Haupteffekte"?

Antwort (Scherbaum): Deskriptiv unterscheiden sich die Linien leicht - wenn Sie sich allerdings die Grafik eine Folie weiter ansehen, dann können Sie bereits an den Fehlerbalken sehen, dass sich diese Unterschiede innerhalb des Fehlers bewegen. Die Autoren (bzw. die Statistik) fanden also nur Haupteffekte.