Ein neues Medikament auf den Markt zu bringen ist erstaunlich ineffizient: Etwa 90% der neuen Medikamente scheitern in klinischen Studien, die Entwicklungszeiten sind 10-15 Jahre und die Kosten können mehr als 2 Milliarden US-Dollar dauern. Es ist schwer, sich ein Bestreben vorzustellen, das eher einen Schub der KI braucht, und die Tech -Industrie, die sich aus den jüngsten Fortschritten befasst, taucht ein.
Aber was uns hierher gebracht hat, uns dorthin zu bringen?
Die Geschichte lehrt uns, dass die richtige Gleichung zum richtigen Zeitpunkt alles ändern kann. Einsteins E = MC2 half bei der Einführung des nuklearen Zeitalters. Neuronale Netze mit genügend Berechnungskapazität und Schulungsdaten zündeten die aktuelle KI -Explosion an. Und in den späten 90ern, als es schwierig war, etwas im Web zu finden, erfanden Sergey Brin und Larry Page den PageRank -Algorithmus, der Google (jetzt Alphabet) zu einem der wertvollsten Unternehmen der Welt machte.
PageRank und andere sogenannte „Zentralitätsalgorithmen“ werden möglicherweise noch nicht mehr gemacht, um die Welt zu verändern. Tatsächlich sind sie möglicherweise der Schlüssel zum nächsten Durchbruch der KI-gesteuerten Arzneimittelentdeckung.
Bei der Anwendung auf Websites identifizieren die Zentralitätsalgorithmen, welche Seiten am meisten verknüpft sind und daher für eine Abfrage am relevantesten sind. Wenn sie auf biomedizinische Daten angewendet werden, können sie die am meisten verknüpften Antworten auf wissenschaftliche Fragen identifizieren und hervorheben, welche Ergebnisse die stärkste experimentelle Unterstützung haben. Entscheidend ist, dass Zentralitätsalgorithmen auf relativ Rohdaten angewendet werden können, einschließlich der massiven Datensätze, die von modernen Hochdurchsatz-Ansätzen generiert werden, damit sie Punkte verbinden können, die noch nie zuvor verbunden wurden, zwischen Datenpunkten, die über unzählige Datenbanken verteilt sind, und anderen Datenquellen. Neue Verbindungen können neuartige Entdeckungen bedeuten. Und Multi-Agent-KI-Systeme revolutionieren diese Fähigkeiten noch mehr als in der Vergangenheit.
Viele Daten, zu wenige Erkenntnisse
Durch Design erzählen wissenschaftliche Veröffentlichungen Geschichten und nur eine Handvoll Geschichten können in jedes Papier passen. So lassen moderne Studien mit ihren dazugehörigen massiven Datensätzen Tausende oder sogar Millionen von Geschichten unermesslich. In Kombination mit anderen Studien nimmt die Anzahl der unerzählten Geschichten möglicherweise exponentiell zu.
Dies ist sofort eine Tragödie und eine massive Chance. Einige dieser Geschichten können neue Strategien zur Heilung von Krebs oder seltenen Krankheiten oder zur Bekämpfung wichtiger Bedrohungen für die öffentliche Gesundheit sein. Und wir vermissen sie einfach, weil wir die Daten, die bereits in unseren virtuellen Händen liegen, nicht verwenden.
Eine schnelle Berechnung des Umschlags gibt ein Gefühl dafür, wie viel Daten wir sprechen: In einer Umfrage von 2022 wurde ungefähr 6.000 öffentlich verfügbare biologische Datenbanken festgestellt. Eine dieser Datenbanken, die Genexpression Ominibus (GEO), ein öffentliches Repository, das vom NCBI gehostet wird, hält derzeit fast 8 Millionen Proben. Wenn wir davon ausgehen, dass jede Stichprobe etwa 10.000 Messungen hat (die Hälfte der etwa 20.000 Gene im menschlichen Genom), erhalten wir ungefähr 80 Milliarden Messungen. Wenn wir mit 6.000 Datenbanken multiplizieren, werden wir auf etwa 500 Billionen Gesamtdatenpunkte. Dies gilt ohne die Zählung von Chemie-Datenbanken, proprietären Datenquellen oder den großen Datensätzen, die in zentralen Datenbanken nicht hinterlegt wurden. Was auch immer die wahre Zahl ist, es besteht kein Zweifel, dass es groß ist und schnell wächst.
Die Gelegenheit
Eine effektive Nutzung einer solchen Datenmenge könnte die Fähigkeit von AI -Ansätzen, aussagekräftige biomedizinische Fortschritte zu liefern, dramatisch steigern. Durch die Kombination von Zentralitätalgorithmen mit einem Konstrukt, das als „Fokusgrafik“ bezeichnet wird, können AI -Agenten diese Daten tatsächlich nutzen, um experimentell unterstützte Ergebnisse aus nachvollziehbaren Quellen zu liefern. In Kombination mit großen Sprachmodellen (LLMs) wie OpenAIs Chatgpt oder Anthropics Claude können fokale graphbasierte Ansätze autonom laufen, wodurch Einblicke in die Treiber von Krankheiten erzeugt werden und möglicherweise neue Wege zur Behandlung neuer Wege, um sie zu behandeln. Solche Aussagen sind verständlich, aber mit ziemlicher Sicherheit verfrüht. Tatsächlich sind wir am Vorabend des nächsten Durchbruchs: eine neue Kombination aus „alten“ Algorithmen, die verspricht, die Entdeckung und Entwicklung neuer Medikamente radikal zu beschleunigen. Ein solcher Fortschritt wird dringend benötigt und kann die volle Breite der verfügbaren Tools und Daten nutzen, kann er schließlich in Reichweite sein.
Foto: MF3D, Getty Images
Als früher Pionier der Microarray -Technologie verfasste Doug Selinger einige der ersten Veröffentlichungen, die experimentelle und rechnerische Ansätze für große Transkriptionsanalysen beschrieben. Nach Abschluss seines Ph.D. Im Labor der George Church in Harvard trat er den Novartis Institutes for Biomedical Research bei, wo seine 14-jährige Karriere die gesamte Arzneimittelentdeckungspipeline umfasste, einschließlich erheblicher Arbeiten in Bezug auf Ziel-ID/Validierung, hoher Durchsatz-Screening und präklinischer Sicherheit.
Im Jahr 2017 gründete Doug Plex Research, um eine neuartige Form der KI zu entwickeln, die auf Suchmaschinenalgorithmen basiert. Die einzigartige Plattform von Plex hat Dutzende von Biotech- und Pharmaunternehmen geholfen, ihre Arzneimittelentdeckungsrohrleitungen zu beschleunigen, indem sie interpretierbare und umsetzbare Analysen massiver chemischer Biologie- und Omics -Datensätze bereitgestellt haben.
Dieser Beitrag erscheint durch das Medcity Influencers -Programm. Jeder kann seine Sichtweise auf Geschäft und Innovation im Gesundheitswesen in Bezug auf MedCity -Nachrichten durch MedCity -Influencer veröffentlichen. Klicken Sie hier, um herauszufinden, wie.