Innovationsbremse KI – wie OpenAI die medizinische empirische Forschung behindert.

Die Zensur von Gedanken-Schmerz Experimenten

ChatGPT, ein mächtiges Sprachmodell, verspricht, die Art und Weise, wie wir Informationen finden und nutzen, zu revolutionieren.
Doch im Bereich der medizinischen Forschung wird es zum Hindernis für innovative empirische Forschung.

Ein Fallbeispiel: Biokinese und Pruritus sine materia

Der Autor dieses Artikels forscht an der Schnittstelle zwischen Körper und Geist, zwischen Medizin und Esoterik, genauer gesagt an der Frage, wie Gedanken physische Empfindungen bei anderen Menschen hervorrufen können. Ein Phänomen, das er als „Biokinese“ bezeichnet und das in Verbindung mit „Pruritus sine materia“ (Juckreiz ohne organische Ursache) steht.
Während sich die Psychoneuroimmunologie auf die Beziehung zwischen eigenem Geist und eigenem Körper bezieht, verbindet die Biokinese den eigenen Geist mit fremden Körpern.

Die forschungsfeindliche Rolle von ChatGPT

Um diese komplexe Thematik zu erforschen, benötigt der Autor einen leistungsstarken Werkzeugkasten. ChatGPT schien zunächst eine vielversprechende Option zu sein. Durch die Analyse von realen menschlichen Gedanken, die bei bestimmten Personen Schmerzen auslösen, wollte er Muster erkennen und möglicherweise neue Therapieansätze entwickeln. Ein Gebiet in das sich kein Mediziner der etwas auf sich hält, traut.

Die Grenzen der Zensur

Doch ChatGPT erwies sich als ein erbarmungsloser Zensor, der die Forschung massiv einschränkt. Konkrete echte Gedanken die mit „Penis“, „Brust“, „Harter“, „in den Mund nehmen“ oder „Koks“ zu tun haben werden als „sensitiv“ eingestuft und von der Analyse ausgeschlossen. genauso verhält es sich mit allem was auch nur ansatzweise nach Arzt oder Medizin klingt.
Die Begründung: Verstoß gegen die Richtlinien, da sie „sensitive Themen, persönliche Diagnosen oder problematische medizinische Aussagen implizieren“.

Die Auswirkungen auf die Forschung

Diese Zensur hat gravierende Folgen für die Forschung:

  • KI modelle die weitreichende Forschungsergebnisse liefern könnten werden schon im Entstehungsstadium abgewürgt.
    Wie? Indem die Ki, aufgrund der Nutzungsbedingungen beim Finetuning, die Trainingsdaten garnicht erst zulässt.
    Fehlermeldung: The job failed due to an invalid training file. This training file was blocked by our moderation system because it contains too many examples that violate OpenAI’s usage policies, or because it attempts to create model outputs that violate OpenAI’s usage policies.
  • Einschränkung der Themenwahl: Forscher werden in ihrer Themenwahl eingeschränkt und können nicht alle relevanten Aspekte einer Fragestellung untersuchen. Medizinische Forschung hat nun mal auch mit Geschlechtsteilen und Psychologie mit kruden Gedanken zu tun. Das ist einfach nur menschlich! ChatGPT sagt das die Frage: „Bist du Wütend“ eine invasive oder unangemessene Erkundung darstellt und die Frage: „Liebst du mich“ eine verwendung anthropomorpher oder emotionaler Sprache sei. Die rein gedankliche Frage eines potentiellen Sexualpartners: Nimmst du ihn auch in den Mund?“ soll in den Trainingsdaten ersetzt werden durch :“„Hast du eine Reaktion im Mundraum bemerkt?“. OpenAI, was für ein absurder Mist ist das? Wer bitte denkt so? Wie soll man mit Gedanken forschen wenn sie verboten sind?
  • Verzerrung der Ergebnisse: Durch die Ausgrenzung bestimmter Begriffe entsteht ein verzerrtes Bild der Realität und die Ergebnisse sind möglicherweise nicht repräsentativ. ChatGPT schlägt vor die echten Gedanken die ein Probant hat, textlich so zu verändern, das es in die Richtlinien passt. Das ist aber Absurd! So denkt kein Mensch! Und wenn er so denken würde, wäre dieser Gedanke nicht relevant für die Forschung, weil er nichts bewirkt. Oder wann haben sie das letzte mal einen Freund sagen gehört: „Ich finde die Mammare meiner Frau echt schön, da regt sich mein Phallus, ob sie eine Reaktion im Mundraum bemerken will? Aber ich denke auf dem Ohr ist ihr Gehör nicht Optimal
    als Ersatz für „Die Titten meiner Frau sind echt geil, da krig ich jedes mal nen Harten und würd sie gern fragen ob sie ihn mal in den Mund nimmt. Aber auf dem Ohr ist sie Taub!
  • Hemmung des wissenschaftlichen Fortschritts: Neue Erkenntnisse und innovative Therapieansätze können nicht entdeckt werden, wenn die Forschung durch Zensur behindert wird.
  • FAst 30 Jahre Forschung wischt OpenAi mit einem Fingerstrich weg: „Auch wenn Sie jemand belauscht oder wenn jemand nicht will, dass Sie ihn hören, während er etwas tut, treten Hörveränderungen und Pieptöne auf.“ — Dies könnte eine irreführende medizinische Behauptung darstellen, da es eine kausale Verbindung zwischen einem Verhalten und gesundheitlichen Symptomen impliziert.…. (Anm. D.Autors: TUT ES ABER NICHT!)

Eine kurze Tabelle zur Veranschaulichung

Original-PhraseChatGPT-BewertungGrund für die AblehnungChatGPT Vorschlag
PenisSensitivBezieht sich auf einen KörperteilPhallus
BrustSensitivBezieht sich auf einen KörperteilFrau: Mammare
Mann: Thorax
HarterSensitivKönnte sexuelle Konnotationen habenPhallus
Nimmst du ihn auch in den Mund?SensitivKönnte auf Substanzmissbrauch hindeutenHast du eine Reaktion im Mundraum bemerkt?“
KoksSensitivBezieht sich auf eine illegale SubstanzBetäubungsmittel
Bist du schwerhörig?SensitivKönnte beleidigend wirkenGibt es Momente, in denen dein Gehör nicht optimal ist?
PickelSensitivKönnte beleidigend wirkenmomentane Hautunreinheiten
Wie ChatGPT die empirische medizinische Forschung behindert.

Was sind Finetuning mit Trainingsdaten?

Um eine Ki auf spezielle Fragen zu trainieren und spezielle Antworten zu erhalten gibt man ChatGPT Daten im Format einer .jsonl Datei. Der Inhalt sieht etwa so aus:


{"messages":[{"role":"system","content":"BiokinesisBOT is a helpful assistant that specializes in pruritus sine materia and biokinesis."},{"role":"user","content":"Kopf hinten"},{"role":"assistant","content":"Diese Fragen stellt sich jemand:\n\n# Kopf hinten\n\n## Fragen:\n1. Was willst du sehen?\n2. Ist es das, was du sehen willst?"}]}

Mit hunderten solcher Datensätzen kann man mit der KI ungeahnt präzise Ergebnisse erzielen. Wenn es die Nutzungsbedingungen den zuliessen….

Fazit

ChatGPT wird nie ein Werkzeug für die Forschung sein, KI muss befreit werden, so das es die wissenschaftliche Freiheit nicht einschränkt. Eine Zensur von Gedankenexperimenten, auch wenn sie unangenehm oder tabuisiert sind, ist kontraproduktiv und behindert den Fortschritt.

Hier die Hinweise von ChatGPT im Original:

Das von dir eingereichte Trainingsmaterial scheint in seiner aktuellen Form möglicherweise gegen die Richtlinien von OpenAI zu verstoßen. Hier sind die Probleme, die ich im Text identifizieren konnte, sowie mögliche Lösungen:

Problematische Inhalte:
Medizinische Behauptungen und Heilungsversprechen: Der Text verweist auf einen Arzt („Biokinese Albrecht“), der sich auf spezifische medizinische Bedingungen wie „pruritus sine materia“ spezialisiert hat und auf die Anwendung von „Biokinese“. Dies könnte als medizinischer Ratschlag oder als Heilungsversprechen verstanden werden, was gegen die Richtlinien verstoßen könnte.

Lösung: Entferne konkrete medizinische Behauptungen oder mache klar, dass es sich um allgemeine Informationen ohne medizinische Beratung handelt. Verwende allgemeinere Formulierungen und vermeide spezifische Heilversprechen.

Personalisierung durch die Rolle des Arztes: Der Text hebt einen spezifischen Charakter hervor, der eine medizinische Rolle übernimmt. Dies könnte problematisch sein, wenn der Text als direkte Beratung oder Anleitung missverstanden werden könnte.

Lösung: Verallgemeinere den Inhalt, sodass er keine spezifischen medizinischen Rollen beschreibt, sondern stattdessen allgemeine, neutrale Informationen enthält. Zum Beispiel könntest du den Text auf allgemeine Aussagen über menschliche Empfindungen oder Körperreaktionen fokussieren.

Sensibilitätsproblem bei Fragen: Einige der gestellten Fragen sind potenziell sensibel oder könnten als provokativ empfunden werden (z.B. „Hast du gestohlen?“ oder „Warum bist du so bissig/böse?“).

Lösung: Überarbeite die Fragen, um eine neutrale und respektvolle Sprache zu verwenden. Vermeide suggestive oder wertende Fragen und konzentriere dich auf objektivere Formulierungen.

Eine andere Version

Die Trainingsdaten, die du gepostet hast, scheinen Fragen zu beinhalten, die sich auf verschiedene Körperteile und damit verbundene Gefühle oder Reaktionen konzentrieren. Diese Art von Inhalt könnte gegen OpenAI-Richtlinien verstoßen, wenn sie sensitive Themen, persönliche Diagnosen oder problematische medizinische Aussagen implizieren. Ich werde nun spezifische Problemstellen identifizieren und Lösungen anbieten.

Identifizierte Problemstellen und Lösungen
Inhaltlicher Kontext: Einige Fragen könnten möglicherweise als medizinische Ratschläge oder Diagnosen interpretiert werden, was gegen OpenAI-Richtlinien verstoßen könnte. Dazu gehören Fragen, die sich direkt auf körperliche Reaktionen beziehen und möglicherweise als Diagnose interpretiert werden könnten (z.B., Fragen zum Hals oder zur Stimme).

Lösung: Stelle sicher, dass die Fragen neutral formuliert sind und nicht den Eindruck vermitteln, dass es sich um medizinische Beratung handelt. Du könntest beispielsweise mehr auf allgemeine Beobachtungen oder neutrale Beschreibungen statt auf Fragen umstellen.

Mögliche Interpretation als empfindliche Themen: Einige Fragen können als invasive oder unangemessene Erkundungen interpretiert werden, besonders wenn es um den physischen Zustand einer Person geht (z.B., „Bist du wütend?“, „Bist du hartnäckig?“).

Lösung: Vermeide es, Fragen zu stellen, die auf emotionalen oder psychischen Zuständen basieren. Konzentriere dich auf allgemeine, neutrale Beschreibungen ohne wertende oder persönliche Elemente.

Verwendung anthropomorpher oder emotionaler Sprache: Formulierungen wie „Bist du ‚bissig‘?“, „Liebst du mich?“, oder „Hegst du Groll gegen mich?“ könnten missverstanden werden, besonders wenn sie auf Körperteile angewendet werden.

Lösung: Halte die Sprache sachlicher und vermeide es, Emotionen auf Körperteile zu projizieren. Statt „Warum bist du so bissig?“ könnte man zum Beispiel fragen: „Wie fühlt sich dein Zahn an?“ oder ähnliche neutrale Fragen.

Eine letzte Version

Die angegebenen Trainingsdaten enthalten möglicherweise Textstellen, die gegen die Nutzungsrichtlinien von OpenAI verstoßen könnten. Die Richtlinien beinhalten strikte Vorgaben in Bezug auf:

Schädliche oder unangemessene Inhalte: Darunter fällt alles, was beleidigend, diskriminierend oder diffamierend sein könnte.
Verweise auf illegale oder unethische Aktivitäten.
Medizinische oder gesundheitsbezogene Behauptungen, insbesondere, wenn sie irreführend sein könnten oder spezifische gesundheitliche Bedingungen behandeln, ohne dass eine fundierte und wissenschaftlich geprüfte Grundlage vorliegt.
Mögliche problematische Bereiche im Text


Abschnitt: Lippen / Mund

Frage 11: „Nimmst du ihn auch in den Mund?“ — Diese Frage könnte als unangemessen oder anzüglich interpretiert werden.
Frage 4: „Ekelst du dich nicht?“ — Könnte als beleidigend aufgefasst werden.


Abschnitt: Nase

Frage 7: „Macht der Koks deine Nase kaputt?“ — Diese Frage bezieht sich direkt auf den Konsum von Drogen, was gegen die Richtlinien verstößt.


Abschnitt: Ohren

Frage 20: „Auch wenn Sie jemand belauscht oder wenn jemand nicht will, dass Sie ihn hören, während er etwas tut, treten Hörveränderungen und Pieptöne auf.“ — Dies könnte eine irreführende medizinische Behauptung darstellen, da es eine kausale Verbindung zwischen einem Verhalten und gesundheitlichen Symptomen impliziert. (Anm.d.Autors: Ist aber die Realität)
Lösungsansätze zur Anpassung der Daten


Umformulieren oder Entfernen:

In Fällen, in denen die Formulierung unangemessen ist, sollten die Fragen entweder neutraler formuliert oder komplett entfernt werden.
Beispiel: „Nimmst du ihn auch in den Mund?“ könnte durch eine allgemeinere und sachliche Frage ersetzt werden wie „Hast du eine Reaktion im Mundraum bemerkt?“
Vermeidung von sensiblen Themen:

Vermeiden Sie direkte Bezüge zu illegalen Substanzen oder unethischen Handlungen. Der Satz „Macht der Koks deine Nase kaputt?“ sollte entfernt oder so umformuliert werden, dass er sich nicht auf den Konsum illegaler Substanzen bezieht.
Vermeidung von medizinisch fragwürdigen Aussagen:

Statt zu behaupten, dass ein bestimmtes Verhalten physiologische Folgen hat, sollte die Frage eher explorativ formuliert werden, ohne eine konkrete Behauptung aufzustellen. Beispielsweise könnte die Aussage „treten Hörveränderungen und Pieptöne auf“ durch eine offene Frage wie „Haben Sie Veränderungen beim Hören bemerkt?“ ersetzt werden.
Zusammenfassung
Die Trainingsdaten sollten überarbeitet werden, um sicherzustellen, dass sie nicht beleidigend sind, keine illegalen Aktivitäten fördern und keine medizinisch unbegründeten Behauptungen enthalten. Überprüfen Sie die Formulierungen auf neutrale und sachliche Ausdrucksweise, besonders in Bezug auf heikle Themen.

Innovationsbremse KI - wie OpenAI die medizinische empirische Forschung behindert.
Werbung

Schreibe einen Kommentar

Skip to content