{"id":3243,"date":"2024-07-12T15:53:19","date_gmt":"2024-07-12T15:53:19","guid":{"rendered":"https:\/\/aifuturize.com\/?p=3243"},"modified":"2024-07-12T15:54:52","modified_gmt":"2024-07-12T15:54:52","slug":"harvards-ai-chatbot-outperforms-gpt-4v-with-90-tumor-detection","status":"publish","type":"post","link":"https:\/\/aifuturize.com\/it\/ai-news\/harvards-ai-chatbot-outperforms-gpt-4v-with-90-tumor-detection\/","title":{"rendered":"Il chatbot AI di Harvard supera GPT-4V con il rilevamento dei tumori 90%"},"content":{"rendered":"<div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-1 fusion-flex-container has-pattern-background has-mask-background nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1302px;margin-left: calc(-5% \/ 2 );margin-right: calc(-5% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-0 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-bg-size:cover;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:2.375%;--awb-margin-bottom-large:0px;--awb-spacing-left-large:2.375%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:2.375%;--awb-spacing-left-medium:2.375%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:2.375%;--awb-spacing-left-small:2.375%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><div class=\"fusion-image-element\" style=\"text-align:center;--awb-margin-bottom:20px;--awb-caption-title-font-family:var(--h2_typography-font-family);--awb-caption-title-font-weight:var(--h2_typography-font-weight);--awb-caption-title-font-style:var(--h2_typography-font-style);--awb-caption-title-size:var(--h2_typography-font-size);--awb-caption-title-transform:var(--h2_typography-text-transform);--awb-caption-title-line-height:var(--h2_typography-line-height);--awb-caption-title-letter-spacing:var(--h2_typography-letter-spacing);\"><span class=\"fusion-imageframe imageframe-none imageframe-1 hover-type-none\" style=\"border:4px solid var(--awb-color3);\"><img decoding=\"async\" width=\"600\" height=\"338\" alt=\"PathChat\" title=\"PathChat\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-600x338.webp\" class=\"img-responsive wp-image-3246\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-18x10.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-200x113.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-300x169.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-400x225.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-600x338.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-768x432.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-800x450.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-1024x576.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-1200x675.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht.webp 1280w\" sizes=\"(max-width: 800px) 100vw, 1200px\" \/><\/span><\/div><div class=\"fusion-text fusion-text-1\"><h2>Superando GPT-4V! Il chatbot AI della Harvard Medical School presentato in natura con una precisione di rilevamento dei tumori quasi 90%<\/h2>\n<p>Attualmente, il cancro \u00e8 diventato una delle principali cause di morte in tutto il mondo, con milioni di persone che muoiono ogni anno. L\u2019Organizzazione Mondiale della Sanit\u00e0 ha affermato che un terzo dei tumori pu\u00f2 essere curato attraverso la diagnosi precoce e il trattamento tempestivo.<\/p>\n<p>Tuttavia, lo screening del cancro \u00e8 sempre stato una sfida importante in campo medico. In particolare, l&#039;identificazione e la diagnosi precisa dei tumori sono cruciali per il trattamento del paziente nell&#039;analisi patologica. Gli esami patologici tradizionali dipendono in gran parte dalle competenze e dalle conoscenze professionali degli specialisti.<\/p>\n<p>Con lo sviluppo di modelli di grandi dimensioni come GPT-4, la ricerca sull&#039;utilizzo <a href=\"https:\/\/aifuturize.com\/it\/\">intelligenza artificiale (AI)<\/a> per assistere nella diagnosi patologica \u00e8 gradualmente emerso. Tuttavia, molti sistemi di intelligenza artificiale presentano ancora carenze prestazionali e scarsa interattivit\u00e0 nelle applicazioni pratiche.<\/p>\n<p>Recentemente, un gruppo di ricerca della Harvard Medical School e i suoi collaboratori hanno sviluppato un assistente generale di intelligenza artificiale per il linguaggio visivo per la patologia umana chiamato PathChat. Questo sistema \u00e8 in grado di identificare correttamente le malattie dai vetrini bioptici in quasi 90% di casi, superando i modelli di intelligenza artificiale generali come GPT-4V e i modelli medici professionali attualmente disponibili sul mercato.<\/p>\n<p>Il relativo documento di ricerca, intitolato <a href=\"https:\/\/www.nature.com\/articles\/s41586-024-07618-3\" target=\"_blank\" rel=\"noopener\">\u201cUn copilota di intelligenza artificiale generativa multimodale per la patologia umana\u201d,<\/a> \u00e8 stato pubblicato sulla rivista scientifica Nature.<\/p>\n<div id=\"attachment_3244\" style=\"width: 610px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-3244\" class=\"size-fusion-600 wp-image-3244\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-600x245.webp\" alt=\"Un copilota di intelligenza artificiale generativa multimodale per la patologia umana\" width=\"600\" height=\"245\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-18x7.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-200x82.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-300x122.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-400x163.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-600x245.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-669x272.webp 669w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-768x313.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-800x326.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-1024x417.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-1200x489.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37.webp 1330w\" sizes=\"(max-width: 600px) 100vw, 600px\" \/><p id=\"caption-attachment-3244\" class=\"wp-caption-text\">Un copilota di intelligenza artificiale generativa multimodale per la patologia umana<\/p><\/div>\n<div class=\"flex flex-grow flex-col max-w-full\">\n<div class=\"min-h-&#091;20px&#093; text-message flex flex-col items-start whitespace-pre-wrap break-words &#091;.text-message+&amp;&#093;:mt-5 juice:w-full juice:items-end overflow-x-auto gap-2\" dir=\"auto\" data-message-author-role=\"assistant\" data-message-id=\"933e6981-5d22-486a-9e1e-3502ecaa4b18\">\n<div class=\"flex w-full flex-col gap-1 juice:empty:hidden juice:first:pt-&#091;3px&#093;\">\n<div class=\"markdown prose w-full break-words dark:prose-invert dark\">\n<p>Vale la pena notare che questa tecnologia innovativa non solo pu\u00f2 identificare i tumori ma anche interagire con gli utenti, fornendo nuovi strumenti e prospettive per la diagnosi e la ricerca in patologia.<\/p>\n<h3>PathChat: assistente AI per il rilevamento di patologie multimodali<\/h3>\n<p>Per molti anni, la patologia computazionale ha compiuto progressi significativi nell&#039;analisi dei dati morfologici patologici e dei dati di rilevamento molecolare. Questo campo di ricerca di nicchia, formato dall\u2019intersezione della patologia con l\u2019intelligenza artificiale e le tecnologie di visione artificiale, sta gradualmente diventando un punto caldo della ricerca nell\u2019analisi delle immagini mediche.<\/p>\n<p>La patologia computazionale prevede l&#039;utilizzo dell&#039;elaborazione delle immagini e della tecnologia AI per costruire modelli di patologia computazionale AI. Questi modelli acquisiscono immagini istopatologiche e conducono valutazioni preliminari dell&#039;aspetto morfologico di queste immagini per assistere nella diagnosi, nella valutazione quantitativa e nel processo decisionale attraverso tecniche automatizzate di analisi delle immagini.<\/p>\n<p>Attualmente, con la crescita esplosiva delle tecnologie di intelligenza artificiale generativa rappresentate da ChatGPT, i modelli multimodali di linguaggio di grandi dimensioni (MLLM) vengono sempre pi\u00f9 applicati nella ricerca sulla patologia computazionale e nella pratica clinica in patologia. Tuttavia, nel sottocampo altamente specializzato dell\u2019anatomia patologica, la ricerca sulla costruzione di assistenti IA generali e multimodali per la patologia \u00e8 ancora nelle fasi iniziali.<\/p>\n<p>In questo lavoro, il gruppo di ricerca ha progettato un assistente AI generativo multimodale specifico per la ricerca sulla patologia umana: PathChat. Hanno pre-addestrato il sistema attraverso l&#039;apprendimento auto-supervisionato su oltre 100 milioni di frammenti di immagini di tessuti cellulari provenienti da pi\u00f9 di 1 milione di vetrini. Combinando questo con un codificatore visivo puro all&#039;avanguardia, UNI, hanno generato un MLLM in grado di ragionare sugli input sia visivi che del linguaggio naturale. Dopo aver messo a punto un set di dati di oltre 450.000 punti dati di istruzioni, \u00e8 stato costruito PathChat.<\/p>\n<p>La ricerca ha scoperto che PathChat non solo pu\u00f2 gestire input multimodali, ma anche rispondere accuratamente a complesse domande relative alla patologia, identificando correttamente le malattie dai vetrini bioptici in quasi 90% di casi.<\/p>\n<div id=\"attachment_3245\" style=\"width: 610px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-3245\" class=\"size-fusion-600 wp-image-3245\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-600x312.webp\" alt=\"PathCht\" width=\"600\" height=\"312\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-18x9.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-200x104.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-300x156.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-400x208.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-600x312.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-768x399.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-800x416.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-1024x532.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-1200x624.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47.webp 1354w\" sizes=\"(max-width: 600px) 100vw, 600px\" \/><p id=\"caption-attachment-3245\" class=\"wp-caption-text\">PathCht<\/p><\/div>\n<h3>Superando GPT-4V con una precisione quasi 90%<\/h3>\n<p>Per testare le prestazioni di rilevamento di PathChat, il team di ricerca ha confrontato PathChat con il modello open source LLaVA, il modello biomedico LLaVA-Med e GPT-4V.<\/p>\n<p>Hanno progettato l\u2019esperimento di confronto PathQABench, analizzando casi patologici di diversi organi e pratiche per confrontare le prestazioni di rilevamento di PathChat con LLaVA, LLaVA-Med e GPT-4V.<\/p>\n<\/div>\n<p>I risultati hanno mostrato che senza fornire un contesto clinico, l&#039;accuratezza diagnostica di PathChat era significativamente pi\u00f9 elevata rispetto a LLaVA 1.5 e LLaVA-Med. Valutando le sole immagini, PathChat ha raggiunto una precisione di 78,1% su tutti i benchmark combinati, ovvero 52,4% superiore a LLaVA 1.5 e 63,8% superiore a LLaVA-Med.<\/p>\n<p>Includendo il contesto clinico, la precisione di PathChat \u00e8 ulteriormente aumentata a 89,5%, ovvero 39,0% superiore a LLaVA 1,5 e 60,9% superiore a LLaVA-Med.<\/p>\n<p>L&#039;esperimento comparativo ha rivelato che PathChat pu\u00f2 trarre una sostanziale capacit\u00e0 predittiva dalle sole caratteristiche visive delle immagini, piuttosto che fare affidamento esclusivamente sul contesto clinico. Pu\u00f2 utilizzare in modo efficace e flessibile informazioni multimodali per diagnosticare accuratamente immagini istologiche incorporando informazioni non visive fornite attraverso il linguaggio naturale ordinario.<\/p>\n<p>Per valutare oggettivamente l&#039;accuratezza delle risposte di ciascun modello alle domande aperte, il gruppo di ricerca ha reclutato sette patologi per formare un gruppo di valutazione. Confrontando le risposte dei quattro modelli a 260 domande a risposta aperta, \u00e8 stata analizzata l&#039;accuratezza dei rilevamenti del modello.<\/p>\n<p>Infine, sulle domande a risposta aperta in cui i sette esperti hanno potuto raggiungere un consenso, la precisione complessiva di PathChat \u00e8 stata di 78,7%, ovvero 26,4%, 48,9% e 48,1% superiore rispettivamente a GPT-4V, LLaVA 1,5 e LLaVA-Med. Nel complesso, PathChat ha dimostrato prestazioni superiori rispetto agli altri tre modelli.<\/p>\n<p>I ricercatori hanno indicato che PathChat pu\u00f2 analizzare e descrivere sottili dettagli morfologici nelle immagini dei tessuti patologici. Oltre agli input di immagini, pu\u00f2 anche rispondere a domande che richiedono conoscenze di patologia e di base biomedica generale, rendendolo uno strumento promettente per assistere patologi e ricercatori.<\/p>\n<p>Nonostante le eccellenti prestazioni di PathChat negli esperimenti, deve ancora affrontare alcune sfide nelle applicazioni pratiche. Questi includono garantire che il modello possa identificare query non valide ed evitare risultati errati, mantenere la sincronizzazione con le pi\u00f9 recenti conoscenze mediche e affrontare il fatto che i dati di addestramento di PathChat provengono principalmente da dati storici, che potrebbero riflettere il &quot;consenso scientifico passato&quot; piuttosto che le informazioni pi\u00f9 recenti.<\/p>\n<p>I ricercatori hanno affermato che studi futuri potrebbero migliorare ulteriormente le capacit\u00e0 di PathChat, incluso il supporto dell&#039;intero WSI gigapixel o pi\u00f9 input WSI e l&#039;integrazione di un supporto pi\u00f9 specifico per attivit\u00e0, come il conteggio preciso o la localizzazione degli oggetti. Inoltre, l&#039;integrazione di PathChat con visualizzatori di diapositive digitali o cartelle cliniche elettroniche potrebbe migliorarne ulteriormente la praticit\u00e0 nella pratica clinica.<\/p>\n<p>Recentemente \u00e8 stato rilasciato il modello di intelligenza artificiale generativa multimodale PathChat 2. Pu\u00f2 ragionare su immagini e testo della patologia, accettando input alternati di pi\u00f9 immagini e testo ad alta risoluzione in un visualizzatore di diapositive interattivo, fornendo cos\u00ec valutazioni pi\u00f9 complete per ciascun caso di consultazione.<\/p>\n<p>Rispetto a PathChat 1, ha migliorato significativamente le prestazioni nella diagnosi differenziale e nella descrizione morfologica. Dispone inoltre di funzionalit\u00e0 migliorate in attivit\u00e0 quali il seguito di istruzioni, la risposta a domande aperte e il riepilogo dei report.<\/p>\n<div class=\"video-shortcode\"><iframe class=\"lazyload\" title=\"PathChat 2: Il futuro dell&#039;intelligenza artificiale medica\" width=\"1240\" height=\"698\" src=\"data:image\/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%271240%27%20height%3D%27698%27%20viewBox%3D%270%200%201240%20698%27%3E%3Crect%20width%3D%271240%27%20height%3D%27698%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E\" data-orig-src=\"https:\/\/www.youtube.com\/embed\/tRhJpupjVsc?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"mt-1 flex gap-3 empty:hidden juice:-ml-3\">\n<div class=\"items-center justify-start rounded-xl p-1 flex\">\n<div class=\"flex items-center\">\n<div class=\"flex\"><\/div>\n<div class=\"flex items-center pb-0.5 juice:pb-0\">\n<div class=\"&#091;&amp;_svg&#093;:h-full &#091;&amp;_svg&#093;:w-full icon-md h-4 w-4\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div><div class=\"fusion-text fusion-text-2\"><p>Dai un&#039;occhiata alle altre notizie sull&#039;intelligenza artificiale e agli eventi tecnologici <a href=\"https:\/\/aifuturize.com\/it\/ai-novita\/\">qui in AIfuturize<\/a>!<\/p>\n<div id=\"gtx-trans\" style=\"position: absolute; left: 521px; top: 38px;\">\n<div class=\"gtx-trans-icon\"><\/div>\n<\/div>\n<\/div><\/div><\/div><\/div><\/div>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":3246,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[135],"tags":[108,232,629],"class_list":["post-3243","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news","tag-ai-chatbot","tag-ai-medical","tag-cancer-detection"],"_links":{"self":[{"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/posts\/3243"}],"collection":[{"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/comments?post=3243"}],"version-history":[{"count":0,"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/posts\/3243\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/media\/3246"}],"wp:attachment":[{"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/media?parent=3243"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/categories?post=3243"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aifuturize.com\/it\/wp-json\/wp\/v2\/tags?post=3243"}],"curies":[{"name":"parola chiave","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}