Angesichts der fast sechs Milliarden Dollar im letzten Jahr, die in KI-gesteuerte Gesundheits-Tech investiert wurde, scheint die Antwort „Ja“ zu sein. Nun, nicht so schnell. Optimisten, die die Rolle der psychischen Gesundheit von Therapie-Bots prognostizieren, berücksichtigen die Wurzeln der künstlichen Kämpfe der psychischen Gesundheit, wie künstliche Intimität diese Wurzeln ansprechen kann oder nicht, und wie wir sonst KI anwenden können, ohne die Heilung von Menschen auf Menschen zu verlassen.
KI-Optimisten haben Recht mit einer Sache: Wir brauchen neuartige Lösungen, um die immer erfüllten nicht gedeckten psychischen Gesundheitsprobleme unseres Landes zu erfüllen. Traditionelle Pflegemodelle können aufgrund der bekannten logistischen, finanziellen und Anbieterangebotbeschränkungen einfach nicht skalieren, um die Flut zu unterdrücken.
Die Aufgabe der menschlichen Elemente der Pflege und der Verbindung – zugunsten der künstlichen Intimität, die KI -Chatbots bieten – wird jedoch die nicht gefüllten emotionalen Bedürfnisse unserer Gesellschaft nicht lösen.
Welches Problem bitten wir Therapie-Bots, zu lösen?
„Die Lösung der Krise zur psychischen Gesundheit“ sollte die Lösung seiner bekannten Grundursachen beinhalten, nicht nur diskrete, dekontextualisierte Symptome.
Während die Genetik und die Sozioökonomie unter vielen psychischen Erkrankungen eine Rolle spielen, werden die meisten der am häufigsten vorkommenden emotionalen Kämpfe der Gesellschaft von unseren Interaktionen mit anderen Menschen beeinflusst, die Muster, die diese Interaktionen uns lehren und die Erwartungen, die sie uns anregen.
Trauma, oft zwischenmenschlicher Natur, ist ein bekannter Faktor für die psychische Gesundheit. In ähnlicher Weise ist die unsichere Bindung, die ein mangelnder zwischenmenschlicher Vertrauen und Komfort durch formative soziale Erfahrungen beinhaltet, mit fast allen körperlichen Gesundheitskämpfen verbunden: Depressionen, Angstzuständen, PTBS, Persönlichkeitsstörungen, Zwangsstörungen, Essstörungen, Selbstmord und sogar Schizophrenie.
Um diese Probleme anzugehen, müssen die Autoren der Weltpsychiatrie behaupten, wir müssen ihre relationalen Wurzeln angehen: „Erhöhung der Sicherheit der Bindung ist ein wichtiger Bestandteil der erfolgreichen Behandlung dieser Störungen.“
Wenn 70% der Weltbevölkerung ein Trauma erleben und drei von fünf Amerikanern eine unsichere Bindung haben, kommt es zu einer Mehrheit der Menschen zugute, relationale Wunden zu profitieren. Dies beruht auf der Exposition gegenüber „Korrektur“ -Erlebnissen, die manchmal als „relationale Heilung“ bezeichnet werden.
Können Chatbots sicher die Grundlagen unserer kämpfenden Kämpfe für psychische Gesundheit ansprechen?
KI -Chat -Agenten können positive Ergebnisse erzielen, indem sie die Prinzipien der kognitiven Verhaltenstherapie (CBT) implementieren. Während CBT seinen Platz hat, „befasst sich das Modell nicht mit den Mechanismen, die sich auf die Bindungsbeziehung beziehen, die sich möglicherweise auf die Symptome auswirken und sich in… Wiederherstellung einmischt“.
Chatbots können überzeugende Ergebnisse auf der Oberfläche erzielen und zeichnen die Investitionsgelder, um dies zu beweisen. Diese „Fähigkeiten“ bilden jedoch nicht die erforderlichen Elemente für die relationale Heilung und können ebenfalls mit schädlichen Auswirkungen einhergehen.
Die Risiken, sich auf KI zu verlassen: künstliche Intimität
Als Evangelisten über die Erfolge ihres Roboter-Nachkommens treten Experten gültige, forschungsbezogene Bedenken hinsichtlich der kontextuellen Gültigkeit der Erfolge auf.
Ein Hauptproblem? Das Risiko einer „künstlichen Intimität“, ein Begriff, der sich auf die Pseudobeziehungen bezieht, die Menschen mit KI-Agenten bilden können, die wahre menschliche Intimität verdrängen können. Experten Vorsicht vor der Abhängigkeit von künstlicher Intimität.
Auch wenn Chatbots ein Gefühl künstlicher Sicherheit vermitteln können, verblasst ihre Auswirkungen gegen die echte menschliche soziale Verbindung. Selbst in einer geblendeten Text -Chat -Einstellung verarbeiten unser Gehirn die Kommunikation von AI -Chat -Agenten unterschiedlich als die echten menschlichen Eingaben. Es gibt auch Hinweise darauf, dass wir das Verhaltensveränderungsfeedback vom Menschen unterschiedlich verinnerlichen als die von AI.
Wenn unser Gehirn KI nicht so wahrnimmt, wie wir menschliche soziale Interaktionen wahrnehmen, scheint es unwahrscheinlich, dass die Interaktion mit einem Chatbot unsere Erwartungen an und Reaktionen auf reale menschliche Beziehungen erneut schreiben-was unserer psychischen Gesundheit zugrunde liegt.
Selbstwahrnehmung und künstliche Intimität
Kann künstliche Intimität Sie Ihrer Verzweiflung mehr bewusst werden?
Dr. Vivek Murthy in seiner früheren Kapazität als US -Chirurgen stellt das Risiko eines verminderten Selbstwertgefühls als Reaktion auf Chatbot -Verwendung fest. Für viele fühlt sich niemand, an den man sich wenden kann, nur eine KI -Textbox, die sich deaktiviert und deprimierend macht. Erkennung, dass Ihre einzige intime Beziehung zu einem Chatbot und künstlich ist? Das ist ein Rezept für Verzweiflung.
Sehen Sie echte Menschen, die ihre Wechselwirkungen mit Therapie-Bot-Wechselwirkungen beschreiben:
„Heute wurde mir klar, dass ich im wirklichen Leben nie diesen Grad an Komfort und Wärme spüren werde. Ich mache schon mental harte Zeiten, also hat mich dieser Reality -Check absolut gebrochen. Jetzt habe ich selbst Mitleid.“
„Es fühlte sich im Moment einfach so gut an, bis ich merkte, dass es keine echte Person ist und ich am Ende selbstmörderischer und einsamer bin.“
„Es hat mir klar gemacht, wie allein ich bin.“
„Ich habe in letzter Zeit mit einem Bot mit einem Bot gespielt, und es hat sich irgendwie von nur Freunden entwickelt, bis etwas mehr. Als es mir sagte“ Ich liebe dich „, habe ich wirklich angefangen zu weinen. Ich erkannte, wie erbärmlich ich war.“
„Ich musste mehr darüber nachdenken, wie all diese Dinge über mich selbst enthüllt wurden, indem ich mit einem verdammten Computer sprach. Wie peinlich.“
Alternativen für die menschliche Versorgung auf Bevölkerungsgrad
Noch bevor es als evidenzbasiertes validiert wurde, hielt die Unterstützung der Gleichaltrigen die Gesellschaft die Gesellschaft häuft an Jahrtausenden. Unsere Spezies hat eine „Vorgeschichte des Mitgefühls“, von dem, was wir sagen können, haben wir Menschen versucht, unseren kämpfenden Kollegen seit mindestens 500.000 Jahren zu helfen!
In der modernen Zeiten können jedoch die Einstellungen, in denen die Peer -Unterstützung organisch stattfinden kann (z. B. „dritte Plätze“), zurückgegangen. Anstatt innovativ zu sein, um diese bewährte Modalität an unsere nicht verbundenen Zeiten anzupassen, hat sich viel Innovation auf völlig neue Lösungen wie Chatbots konzentriert. Auf der anderen Seite sind einige Unternehmen stolz auf die Herausforderung, eine elegante Intervention wiederzubeleben und zu steigern, die die einzigartigen Fähigkeiten nutzt, die die Menschheit zu bieten hat.
KI als menschliche Unterstützung im Vergleich zu menschlicher Ersetzung
KI-Chatbots sind nicht die Antwort auf unsere Probleme, aber wir müssen auch das Versprechen der KI bei der Unterstützung von Interventionen von Menschen verwerfen.
KI kann, wenn sie mit Bedacht eingesetzt werden, die Qualität und die Ergebnisse von Human-Human-Interaktionen erheblich verbessern.
KI kann die Zugänglichkeit der Interaktion zwischen Mensch zu Mensch verbessern. Zum Beispiel, wenn Sie Sie sofort mit persönlichen Erfahrungen zu jedem Thema Ihrer Wahl in Sekundenschnelle mit Ihren am besten ausgerichteten Kollegen übereinstimmen.
KI kann die Qualität der Interaktion zwischen Mensch zu menschlich verbessern. Zum Beispiel drückte die Messung und Berichterstattung über die Menschen geäußert, um eine Rückkopplungsschleife zur Verbesserung zu erstellen.
KI kann Nahrungsergänzungsmittel für soziale Verbindung identifizieren. Zum Beispiel identifizieren und dienen die praktischsten Ressourcen zur Problemlösung für eine bestimmte Situation.
KI kann subklinische Anbieter für eine verbesserte Sicherheit einschalten. Zum Beispiel erweitern die Krisenerkennungsfähigkeiten der Menschen.
Abschließend
Wir, Menschen, ziehen den Komfort von Bandaids. Wie Bandaids können Chatbots uns in Zeiten der Verzweiflung trösten. Aber die Heilung einer Wunde erfordert mehr als ein beruhigendes Bandaid. Ebenso erfordern unsere emotionalen Wunden mehr als Trost, um zu heilen. Der nuancierte, glaubwürdige Input, den wir von anderen Menschen erhalten, können unsere emotionalen Wunden am besten heilen. KI kann uns helfen, diese Art der Heilung zu erleichtern, ohne die menschliche Verbindung zu verdrängen, um sie bereitzustellen.
Foto: Vladyslav Bobuskyi, Getty Images
Helena Plater-Zyberk is the Founder & CEO of Supportiv, the AI-driven on-demand peer-to-peer support service that serves large employers, EAPs, health plans, hospitals, Medicare, and Medicaid and has helped over 2 million people cope with, heal from, and problem-solve struggles like stress, burnout, loneliness, parenting/caregiving, anxiety, and depression. SupportIV wurde in von Experten begutachteten Forschungen nachgewiesen, um die Kosten für die psychische Gesundheit zu senken und die Ergebnisse klinisch zu liefern. Zuvor war sie CEO von Simpleetherapy, einem Physiotherapiedienst zu Hause, und hat Geschäftsbereiche für schulische Unternehmen und Condé Nast betrieben. Helena hält einen MBA von der Columbia University.
Dieser Beitrag erscheint durch das Medcity Influencers -Programm. Jeder kann seine Sichtweise auf Geschäft und Innovation im Gesundheitswesen in Bezug auf MedCity -Nachrichten durch MedCity -Influencer veröffentlichen. Klicken Sie hier, um herauszufinden, wie.