{"id":3243,"date":"2024-07-12T15:53:19","date_gmt":"2024-07-12T15:53:19","guid":{"rendered":"https:\/\/aifuturize.com\/?p=3243"},"modified":"2024-07-12T15:54:52","modified_gmt":"2024-07-12T15:54:52","slug":"harvards-ai-chatbot-outperforms-gpt-4v-with-90-tumor-detection","status":"publish","type":"post","link":"https:\/\/aifuturize.com\/de\/ai-news\/harvards-ai-chatbot-outperforms-gpt-4v-with-90-tumor-detection\/","title":{"rendered":"Harvards KI-Chatbot \u00fcbertrifft GPT-4V bei der 90%-Tumorerkennung"},"content":{"rendered":"<div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-1 fusion-flex-container has-pattern-background has-mask-background nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1302px;margin-left: calc(-5% \/ 2 );margin-right: calc(-5% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-0 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-bg-size:cover;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:2.375%;--awb-margin-bottom-large:0px;--awb-spacing-left-large:2.375%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:2.375%;--awb-spacing-left-medium:2.375%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:2.375%;--awb-spacing-left-small:2.375%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><div class=\"fusion-image-element\" style=\"text-align:center;--awb-margin-bottom:20px;--awb-caption-title-font-family:var(--h2_typography-font-family);--awb-caption-title-font-weight:var(--h2_typography-font-weight);--awb-caption-title-font-style:var(--h2_typography-font-style);--awb-caption-title-size:var(--h2_typography-font-size);--awb-caption-title-transform:var(--h2_typography-text-transform);--awb-caption-title-line-height:var(--h2_typography-line-height);--awb-caption-title-letter-spacing:var(--h2_typography-letter-spacing);\"><span class=\"fusion-imageframe imageframe-none imageframe-1 hover-type-none\" style=\"border:4px solid var(--awb-color3);\"><img decoding=\"async\" width=\"600\" height=\"338\" alt=\"PfadChat\" title=\"PfadChat\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-600x338.webp\" class=\"img-responsive wp-image-3246\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-18x10.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-200x113.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-300x169.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-400x225.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-600x338.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-768x432.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-800x450.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-1024x576.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-1200x675.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht.webp 1280w\" sizes=\"(max-width: 800px) 100vw, 1200px\" \/><\/span><\/div><div class=\"fusion-text fusion-text-1\"><h2>GPT-4V \u00fcbertrifft! KI-Chatbot der Harvard Medical School in Nature mit nahezu 90%-Tumorerkennungsgenauigkeit vorgestellt<\/h2>\n<p>Krebs ist heute eine der h\u00e4ufigsten Todesursachen weltweit. Jedes Jahr sterben Millionen Menschen daran. Die Weltgesundheitsorganisation hat erkl\u00e4rt, dass ein Drittel aller Krebserkrankungen durch Fr\u00fcherkennung und fr\u00fchzeitige Behandlung geheilt werden k\u00f6nnen.<\/p>\n<p>Allerdings ist die Krebsvorsorge im medizinischen Bereich seit jeher eine gro\u00dfe Herausforderung. Insbesondere die genaue Identifizierung und Diagnose von Tumoren ist f\u00fcr die Behandlung der Patienten in der pathologischen Analyse von entscheidender Bedeutung. Traditionelle pathologische Untersuchungen h\u00e4ngen weitgehend von der Expertise und dem Fachwissen von Spezialisten ab.<\/p>\n<p>Mit der Entwicklung gro\u00dfer Modelle wie GPT-4 erforscht man zunehmend die Verwendung <a href=\"https:\/\/aifuturize.com\/de\/\">k\u00fcnstliche Intelligenz (KI)<\/a> zur Unterst\u00fctzung bei der pathologischen Diagnose hat sich allm\u00e4hlich herausgebildet. Viele KI-Systeme weisen jedoch in praktischen Anwendungen immer noch Leistungsdefizite und mangelnde Interaktivit\u00e4t auf.<\/p>\n<p>K\u00fcrzlich entwickelten ein Forschungsteam der Harvard Medical School und seine Mitarbeiter einen visuellen KI-Assistenten f\u00fcr die menschliche Pathologie namens PathChat. Dieses System kann in fast 901 F\u00e4llen Krankheiten anhand von Biopsie-Objekttr\u00e4gern korrekt identifizieren und \u00fcbertrifft damit allgemeine KI-Modelle wie GPT-4V und professionelle medizinische Modelle, die derzeit auf dem Markt erh\u00e4ltlich sind.<\/p>\n<p>Das zugeh\u00f6rige Forschungspapier mit dem Titel <a href=\"https:\/\/www.nature.com\/articles\/s41586-024-07618-3\" target=\"_blank\" rel=\"noopener\">\u201eEin multimodaler generativer KI-Copilot f\u00fcr die Humanpathologie\u201c,<\/a> wurde in der Wissenschaftszeitschrift Nature ver\u00f6ffentlicht.<\/p>\n<div id=\"attachment_3244\" style=\"width: 610px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-3244\" class=\"size-fusion-600 wp-image-3244\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-600x245.webp\" alt=\"Ein multimodaler generativer KI-Copilot f\u00fcr die Humanpathologie\" width=\"600\" height=\"245\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-18x7.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-200x82.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-300x122.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-400x163.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-600x245.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-669x272.webp 669w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-768x313.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-800x326.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-1024x417.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-1200x489.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37.webp 1330w\" sizes=\"(max-width: 600px) 100vw, 600px\" \/><p id=\"caption-attachment-3244\" class=\"wp-caption-text\">Ein multimodaler generativer KI-Copilot f\u00fcr die Humanpathologie<\/p><\/div>\n<div class=\"flex flex-grow flex-col max-w-full\">\n<div class=\"min-h-&#091;20px&#093; text-message flex flex-col items-start whitespace-pre-wrap break-words &#091;.text-message+&amp;&#093;:mt-5 juice:w-full juice:items-end overflow-x-auto gap-2\" dir=\"auto\" data-message-author-role=\"assistant\" data-message-id=\"933e6981-5d22-486a-9e1e-3502ecaa4b18\">\n<div class=\"flex w-full flex-col gap-1 juice:empty:hidden juice:first:pt-&#091;3px&#093;\">\n<div class=\"markdown prose w-full break-words dark:prose-invert dark\">\n<p>Es ist erw\u00e4hnenswert, dass diese bahnbrechende Technologie nicht nur Tumore identifizieren kann, sondern auch mit Benutzern interagieren kann und neue Werkzeuge und Perspektiven f\u00fcr die Diagnose und Forschung in der Pathologie bietet.<\/p>\n<h3>PathChat: KI-Assistent zur multimodalen Pathologieerkennung<\/h3>\n<p>Seit vielen Jahren macht die Computerpathologie bedeutende Fortschritte bei der Analyse pathologischer Morphologiedaten und molekularer Erkennungsdaten. Dieses Nischenforschungsfeld, das durch die Schnittstelle zwischen Pathologie, KI und Computervisionstechnologien entstanden ist, entwickelt sich allm\u00e4hlich zu einem Forschungsschwerpunkt in der medizinischen Bildanalyse.<\/p>\n<p>In der Computerpathologie werden Bildverarbeitungs- und KI-Technologien verwendet, um KI-basierte Computerpathologiemodelle zu erstellen. Diese Modelle erfassen histopathologische Bilder und f\u00fchren vorl\u00e4ufige Bewertungen des morphologischen Erscheinungsbilds dieser Bilder durch, um durch automatisierte Bildanalysetechniken bei der Diagnose, quantitativen Bewertung und Entscheidungsfindung zu helfen.<\/p>\n<p>Angesichts des explosiven Wachstums generativer KI-Technologien, die durch ChatGPT repr\u00e4sentiert werden, werden multimodale Large Language Models (MLLMs) derzeit zunehmend in der computergest\u00fctzten Pathologieforschung und der klinischen Praxis in der Pathologie eingesetzt. Im hochspezialisierten Teilgebiet der anatomischen Pathologie befindet sich die Forschung zum Aufbau allgemeiner, multimodaler KI-Assistenten f\u00fcr die Pathologie jedoch noch in einem fr\u00fchen Stadium.<\/p>\n<p>Im Rahmen dieser Arbeit entwickelte das Forschungsteam einen multimodalen generativen KI-Assistenten speziell f\u00fcr die humanpathologische Forschung \u2013 PathChat. Sie trainierten das System vorab durch selbst\u00fcberwachtes Lernen anhand von \u00fcber 100 Millionen Zellgewebe-Bildfragmenten von mehr als 1 Million Objekttr\u00e4gern. Durch die Kombination mit einem hochmodernen rein visuellen Encoder, UNI, generierten sie ein MLLM, das sowohl visuelle als auch nat\u00fcrliche Spracheingaben verarbeiten kann. Nach der Feinabstimmung anhand eines Datensatzes mit mehr als 450.000 Anweisungsdatenpunkten wurde PathChat erstellt.<\/p>\n<p>Die Forschung ergab, dass PathChat nicht nur multimodale Eingaben verarbeiten, sondern auch pr\u00e4zise auf komplexe pathologiebezogene Anfragen reagieren kann und in fast 901\u00a0TP3T der F\u00e4lle Krankheiten anhand von Biopsieobjekttr\u00e4gern richtig identifiziert.<\/p>\n<div id=\"attachment_3245\" style=\"width: 610px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-3245\" class=\"size-fusion-600 wp-image-3245\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-600x312.webp\" alt=\"Pfadname\" width=\"600\" height=\"312\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-18x9.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-200x104.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-300x156.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-400x208.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-600x312.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-768x399.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-800x416.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-1024x532.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-1200x624.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47.webp 1354w\" sizes=\"(max-width: 600px) 100vw, 600px\" \/><p id=\"caption-attachment-3245\" class=\"wp-caption-text\">Pfadname<\/p><\/div>\n<h3>\u00dcbertrifft GPT-4V mit nahezu 90% Genauigkeit<\/h3>\n<p>Um die Erkennungsleistung von PathChat zu testen, verglich das Forschungsteam PathChat mit dem Open-Source-Modell LLaVA, dem biomedizinspezifischen LLaVA-Med und GPT-4V.<\/p>\n<p>Sie entwickelten das Vergleichsexperiment PathQABench, bei dem pathologische F\u00e4lle aus verschiedenen Organen und Praxen analysiert wurden, um die Erkennungsleistung von PathChat mit LLaVA, LLaVA-Med und GPT-4V zu vergleichen.<\/p>\n<\/div>\n<p>Die Ergebnisse zeigten, dass die diagnostische Genauigkeit von PathChat ohne Bereitstellung eines klinischen Kontexts deutlich h\u00f6her war als bei LLaVA 1.5 und LLaVA-Med. Bei der alleinigen Auswertung von Bildern erreichte PathChat eine Genauigkeit von 78,11 TP3T \u00fcber alle kombinierten Benchmarks hinweg, was 52,41 TP3T h\u00f6her ist als bei LLaVA 1.5 und 63,81 TP3T h\u00f6her als bei LLaVA-Med.<\/p>\n<p>Durch die Einbeziehung des klinischen Kontexts erh\u00f6hte sich die Genauigkeit von PathChat weiter auf 89,51 TP3T, was 39,01 TP3T h\u00f6her ist als bei LLaVA 1.5 und 60,91 TP3T h\u00f6her als bei LLaVA-Med.<\/p>\n<p>Das Vergleichsexperiment ergab, dass PathChat allein aus den visuellen Merkmalen von Bildern erhebliche Vorhersagef\u00e4higkeiten ableiten kann, anstatt sich ausschlie\u00dflich auf den klinischen Kontext zu verlassen. Es kann multimodale Informationen effektiv und flexibel nutzen, um histologische Bilder genau zu diagnostizieren, indem es nicht-visuelle Informationen einbezieht, die durch gew\u00f6hnliche nat\u00fcrliche Sprache bereitgestellt werden.<\/p>\n<p>Um die Genauigkeit der Antworten jedes Modells auf offene Fragen objektiv zu bewerten, rekrutierte das Forschungsteam sieben Pathologen, um ein Bewertungsgremium zu bilden. Durch den Vergleich der Antworten der vier Modelle auf 260 offene Fragen wurde die Genauigkeit der Modellerkennungen analysiert.<\/p>\n<p>Bei offenen Fragen, bei denen die sieben Experten zu einem Konsens gelangen konnten, betrug die Gesamtgenauigkeit von PathChat 78,71 TP3T, was 26,41 TP3T, 48,91 TP3T bzw. 48,11 TP3T h\u00f6her war als bei GPT-4V, LLaVA 1.5 und LLaVA-Med. Insgesamt zeigte PathChat im Vergleich zu den anderen drei Modellen eine bessere Leistung.<\/p>\n<p>Forscher gaben an, dass PathChat subtile morphologische Details in pathologischen Gewebebildern analysieren und beschreiben kann. Neben Bildeingaben kann es auch Fragen beantworten, die pathologisches und allgemeines biomedizinisches Hintergrundwissen erfordern, was es zu einem vielversprechenden Werkzeug zur Unterst\u00fctzung von Pathologen und Forschern macht.<\/p>\n<p>Trotz der hervorragenden Leistung von PathChat in Experimenten gibt es in der praktischen Anwendung noch einige Herausforderungen. Dazu geh\u00f6rt, sicherzustellen, dass das Modell ung\u00fcltige Abfragen identifizieren und fehlerhafte Ausgaben vermeiden kann, die Synchronisierung mit dem neuesten medizinischen Wissen aufrechtzuerhalten und die Tatsache zu ber\u00fccksichtigen, dass die Trainingsdaten von PathChat haupts\u00e4chlich aus historischen Daten stammen, die eher den \u201ewissenschaftlichen Konsens der Vergangenheit\u201c als die neuesten Informationen widerspiegeln k\u00f6nnten.<\/p>\n<p>Forscher gaben an, dass zuk\u00fcnftige Studien die F\u00e4higkeiten von PathChat weiter verbessern k\u00f6nnten, einschlie\u00dflich der Unterst\u00fctzung ganzer Gigapixel-WSI oder mehrerer WSI-Eingaben und der Integration aufgabenspezifischerer Unterst\u00fctzung, wie z. B. pr\u00e4zises Z\u00e4hlen oder Objektlokalisierung. Dar\u00fcber hinaus k\u00f6nnte die Integration von PathChat mit digitalen Objekttr\u00e4gerbetrachtern oder elektronischen Krankenakten seine Praktikabilit\u00e4t in der klinischen Praxis weiter verbessern.<\/p>\n<p>K\u00fcrzlich wurde das multimodale generative KI-Modell PathChat 2 ver\u00f6ffentlicht. Es kann Bilder und Texte aus der Pathologie analysieren, indem es abwechselnd mehrere hochaufl\u00f6sende Bilder und Texte in einen interaktiven Folienbetrachter eingibt und so umfassendere Auswertungen f\u00fcr jeden Konsultationsfall bereitstellt.<\/p>\n<p>Im Vergleich zu PathChat 1 weist es eine deutlich verbesserte Leistung bei der Differentialdiagnose und morphologischen Beschreibung auf. Dar\u00fcber hinaus verf\u00fcgt es \u00fcber erweiterte F\u00e4higkeiten bei Aufgaben wie dem Befolgen von Anweisungen, dem Beantworten offener Fragen und der Berichtszusammenfassung.<\/p>\n<div class=\"video-shortcode\"><iframe class=\"lazyload\" title=\"PathChat 2: Die Zukunft der medizinischen KI\" width=\"1240\" height=\"698\" src=\"data:image\/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%271240%27%20height%3D%27698%27%20viewBox%3D%270%200%201240%20698%27%3E%3Crect%20width%3D%271240%27%20height%3D%27698%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E\" data-orig-src=\"https:\/\/www.youtube.com\/embed\/tRhJpupjVsc?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"mt-1 flex gap-3 empty:hidden juice:-ml-3\">\n<div class=\"items-center justify-start rounded-xl p-1 flex\">\n<div class=\"flex items-center\">\n<div class=\"flex\"><\/div>\n<div class=\"flex items-center pb-0.5 juice:pb-0\">\n<div class=\"&#091;&amp;_svg&#093;:h-full &#091;&amp;_svg&#093;:w-full icon-md h-4 w-4\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div><div class=\"fusion-text fusion-text-2\"><p>Schauen Sie sich die anderen KI-Nachrichten und Technologie-Events gleich an <a href=\"https:\/\/aifuturize.com\/de\/ki-neuigkeiten\/\">hier in AIfuturize<\/a>!<\/p>\n<div id=\"gtx-trans\" style=\"position: absolute; left: 521px; top: 38px;\">\n<div class=\"gtx-trans-icon\"><\/div>\n<\/div>\n<\/div><\/div><\/div><\/div><\/div>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":3246,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[135],"tags":[108,232,629],"class_list":["post-3243","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news","tag-ai-chatbot","tag-ai-medical","tag-cancer-detection"],"_links":{"self":[{"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/posts\/3243"}],"collection":[{"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/comments?post=3243"}],"version-history":[{"count":0,"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/posts\/3243\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/media\/3246"}],"wp:attachment":[{"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/media?parent=3243"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/categories?post=3243"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aifuturize.com\/de\/wp-json\/wp\/v2\/tags?post=3243"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}