sven23 hat geschrieben:In der Regel werden sie unter Beteiligung der HP durchgeführt und das Studiendesign wird mit ihnen abgestimmt.
Weisst Du, wie die HP-ler die (negativen) Ergebnisse kommentieren? - Mich würde weiter interessieren, ob die obengenannten Kategorien a), b) und c) eingehalten werden.
sven23 hat geschrieben:erklärt das nicht, warum sich angebliche Effekte nicht nachweisen lassen.
Wie aber ist erklärbar, dass es diese ziemlich mächtige Wirkungs-Geschichte von HP gibt? - Es wäre mir einfach zu "esoterisch", diese mit Placebo-Effekten (etc.) zu erklären. Dann können wir auch mit Wunderheilungen durch die Heilige Maria kommen (was ich als transzendental orientierter Mensch nicht ausschließe, aber nur ungern als Massenware verkauft wissen würde).
sven23 hat geschrieben:Ist dir wirklich noch nie in den Sinn gekommen, daß das womöglich an der HP liegen könnte?
Kritisch sehe ich zwei Dinge:
Erstens eine Wissenschaftskultur, die gefährdet ist, Realität im Sinne ihrer eigenen Setzungen zu filtern (mir fällt da immer assoziativ Heisenberg ein, der den Gedanken aufgebracht hat, dass die Beobachtung selbst ein Ergebnis verändert). - Zweitens eine HP-Landschaft, die extrem heterogen ist - da hat man den kurzzeit-ausgebildeten Halb-Laien, der Mittel von der Stange verabreicht, genauso wie den absoluten Spezialisten, der bei jedem Patienten jeweils nur EIN Mittel gibt (nach stundenlangen Auswertungen der Gesamtpersönlichkeit und des gesamten (!) Krankheitsbildes).
Insofern bin ich da gar nicht so parteiisch, wie es klingt. - Aber ich komme einfach nicht um die Wirkung im Alltag rum, die ich nur sehr schwerlich ausschließlich als Placebo-Effekte erkennen kann - zumal ich mir vor vielen Jahren einige sehr tiefgreifende "Vorträge" von echten HP-Profis (dabei war übrigens auch ein Zahnarzt) anhören durfte. - Irgendwo ist da noch ein Gap.
sven23 hat geschrieben:Wenn du bessere und objektivere Verfahren kennst, dann her damit.
Ich würde gerne mal einen der obengenannten echten Profis beim Design einer Testreihe dabeihaben - und glaube schon zu wissen, was sie sagen würden: "Ich gebe 100 Leuten der (schein-)identischen Diagnose "Gastritis" 100 verschiedene Mittel - wie soll ich da eine homogene Gruppe für einen randomisierten Test zusammenkriegen?"
sven23 hat geschrieben:Daran kann es nicht liegen.
Da würde mich mal interessieren, was meine ehemaligen Kontakt-Ärzte dazu sagen würden. - Wahrscheinlich würde sich die HP-ler untereinander zerfetzen.
sven23 hat geschrieben:Was draußen sein soll, wird ja nur anekdotisch behauptet. Die Überprüfung in Studien bringt dann regelmäßig was anderes.
Und da sehe ich den Gap: Auch wenn meinetwegen Aspirin NICHT klinisch getestet wäre, würde trotzdem jeder sagen: "Es wirkt gegen Kopfschmerzen" - genau das sagen HP-Patienten auch. - Der Unterschied ist nicht "draußen".
sven23 hat geschrieben:Ich halte kontrollierte Studien für die beste Herangehensweise, du das Sammeln von Anekdoten.
Ich halte kontrollierte Studien vom Grundsatz her schon besser. - Nur gehen bei mir sämtliche Lichter an, wenn diese nicht mit einer stochastisch sehr auffällig hohen Anekdoten-Zahl übereinstimmen. - Stichwort "Gap". - Deshalb würde ich in dieser Situation eine große Feldstudie bevorzugen.
sven23 hat geschrieben:Wenn eine Wirkung da ist, sollte sie sich auch erfassen lassen
Ja - "sollte". - Aber es muss ein Veto-Recht der Realität bestehen, wenn es Schwierigkeiten mit dem "sollte" gibt.
sven23 hat geschrieben:Wenn sie jedoch einer Überprüfung nicht standhält, ist das dann die Schuld der Überprüfer?
Dann gibt es erst mal ein Problem - das aber nicht auf dem Rücken der Realität ausgefochten werden darf.