{"id":3243,"date":"2024-07-12T15:53:19","date_gmt":"2024-07-12T15:53:19","guid":{"rendered":"https:\/\/aifuturize.com\/?p=3243"},"modified":"2024-07-12T15:54:52","modified_gmt":"2024-07-12T15:54:52","slug":"harvards-ai-chatbot-outperforms-gpt-4v-with-90-tumor-detection","status":"publish","type":"post","link":"https:\/\/aifuturize.com\/es\/ai-news\/harvards-ai-chatbot-outperforms-gpt-4v-with-90-tumor-detection\/","title":{"rendered":"El chatbot de IA de Harvard supera al GPT-4V con la detecci\u00f3n de tumores 90%"},"content":{"rendered":"<div class=\"fusion-fullwidth fullwidth-box fusion-builder-row-1 fusion-flex-container has-pattern-background has-mask-background nonhundred-percent-fullwidth non-hundred-percent-height-scrolling\" style=\"--awb-border-radius-top-left:0px;--awb-border-radius-top-right:0px;--awb-border-radius-bottom-right:0px;--awb-border-radius-bottom-left:0px;--awb-flex-wrap:wrap;\" ><div class=\"fusion-builder-row fusion-row fusion-flex-align-items-flex-start fusion-flex-content-wrap\" style=\"max-width:1302px;margin-left: calc(-5% \/ 2 );margin-right: calc(-5% \/ 2 );\"><div class=\"fusion-layout-column fusion_builder_column fusion-builder-column-0 fusion_builder_column_1_1 1_1 fusion-flex-column\" style=\"--awb-bg-size:cover;--awb-width-large:100%;--awb-margin-top-large:0px;--awb-spacing-right-large:2.375%;--awb-margin-bottom-large:0px;--awb-spacing-left-large:2.375%;--awb-width-medium:100%;--awb-order-medium:0;--awb-spacing-right-medium:2.375%;--awb-spacing-left-medium:2.375%;--awb-width-small:100%;--awb-order-small:0;--awb-spacing-right-small:2.375%;--awb-spacing-left-small:2.375%;\"><div class=\"fusion-column-wrapper fusion-column-has-shadow fusion-flex-justify-content-flex-start fusion-content-layout-column\"><div class=\"fusion-image-element\" style=\"text-align:center;--awb-margin-bottom:20px;--awb-caption-title-font-family:var(--h2_typography-font-family);--awb-caption-title-font-weight:var(--h2_typography-font-weight);--awb-caption-title-font-style:var(--h2_typography-font-style);--awb-caption-title-size:var(--h2_typography-font-size);--awb-caption-title-transform:var(--h2_typography-text-transform);--awb-caption-title-line-height:var(--h2_typography-line-height);--awb-caption-title-letter-spacing:var(--h2_typography-letter-spacing);\"><span class=\"fusion-imageframe imageframe-none imageframe-1 hover-type-none\" style=\"border:4px solid var(--awb-color3);\"><img decoding=\"async\" width=\"600\" height=\"338\" alt=\"RutaChat\" title=\"RutaChat\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-600x338.webp\" class=\"img-responsive wp-image-3246\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-18x10.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-200x113.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-300x169.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-400x225.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-600x338.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-768x432.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-800x450.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-1024x576.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht-1200x675.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/PathCaht.webp 1280w\" sizes=\"(max-width: 800px) 100vw, 1200px\" \/><\/span><\/div><div class=\"fusion-text fusion-text-1\"><h2>\u00a1Superando al GPT-4V! Chatbot de IA de la Facultad de Medicina de Harvard presentado en la naturaleza con una precisi\u00f3n de detecci\u00f3n de tumores de casi 90%<\/h2>\n<p>Actualmente, el c\u00e1ncer se ha convertido en una de las principales causas de muerte en todo el mundo, muriendo millones de personas cada a\u00f1o. La Organizaci\u00f3n Mundial de la Salud ha afirmado que un tercio de los c\u00e1nceres se pueden curar mediante una detecci\u00f3n y un tratamiento tempranos.<\/p>\n<p>Sin embargo, la detecci\u00f3n del c\u00e1ncer siempre ha sido un gran desaf\u00edo en el campo m\u00e9dico. En particular, la identificaci\u00f3n y el diagn\u00f3stico precisos de los tumores son cruciales para el tratamiento del paciente en el an\u00e1lisis patol\u00f3gico. Los ex\u00e1menes patol\u00f3gicos tradicionales dependen en gran medida de la experiencia y el conocimiento profesional de los especialistas.<\/p>\n<p>Con el desarrollo de modelos grandes como el GPT-4, la investigaci\u00f3n sobre el uso <a href=\"https:\/\/aifuturize.com\/es\/\">inteligencia artificial (IA)<\/a> para ayudar en el diagn\u00f3stico patol\u00f3gico ha ido surgiendo gradualmente. Sin embargo, muchos sistemas de IA todav\u00eda enfrentan deficiencias de rendimiento y poca interactividad en aplicaciones pr\u00e1cticas.<\/p>\n<p>Recientemente, un equipo de investigaci\u00f3n de la Facultad de Medicina de Harvard y sus colaboradores desarrollaron un asistente de inteligencia artificial general en lenguaje visual para patolog\u00eda humana llamado PathChat. Este sistema puede identificar correctamente enfermedades a partir de portaobjetos de biopsia en casi el 90% de los casos, superando a los modelos generales de IA como GPT-4V y los modelos m\u00e9dicos profesionales disponibles actualmente en el mercado.<\/p>\n<p>El art\u00edculo de investigaci\u00f3n relacionado, titulado <a href=\"https:\/\/www.nature.com\/articles\/s41586-024-07618-3\" target=\"_blank\" rel=\"noopener\">&quot;Un copiloto de IA generativa multimodal para patolog\u00eda humana&quot;<\/a> ha sido publicado en la revista cient\u00edfica Nature.<\/p>\n<div id=\"attachment_3244\" style=\"width: 610px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-3244\" class=\"size-fusion-600 wp-image-3244\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-600x245.webp\" alt=\"Un copiloto de IA generativa multimodal para patolog\u00eda humana\" width=\"600\" height=\"245\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-18x7.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-200x82.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-300x122.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-400x163.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-600x245.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-669x272.webp 669w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-768x313.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-800x326.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-1024x417.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37-1200x489.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.37.webp 1330w\" sizes=\"(max-width: 600px) 100vw, 600px\" \/><p id=\"caption-attachment-3244\" class=\"wp-caption-text\">Un copiloto de IA generativa multimodal para patolog\u00eda humana<\/p><\/div>\n<div class=\"flex flex-grow flex-col max-w-full\">\n<div class=\"min-h-&#091;20px&#093; text-message flex flex-col items-start whitespace-pre-wrap break-words &#091;.text-message+&amp;&#093;:mt-5 juice:w-full juice:items-end overflow-x-auto gap-2\" dir=\"auto\" data-message-author-role=\"assistant\" data-message-id=\"933e6981-5d22-486a-9e1e-3502ecaa4b18\">\n<div class=\"flex w-full flex-col gap-1 juice:empty:hidden juice:first:pt-&#091;3px&#093;\">\n<div class=\"markdown prose w-full break-words dark:prose-invert dark\">\n<p>Vale la pena se\u00f1alar que esta innovadora tecnolog\u00eda no s\u00f3lo puede identificar tumores sino tambi\u00e9n interactuar con los usuarios, proporcionando nuevas herramientas y perspectivas para el diagn\u00f3stico y la investigaci\u00f3n en patolog\u00eda.<\/p>\n<h3>PathChat: Asistente de IA para detecci\u00f3n de patolog\u00edas multimodal<\/h3>\n<p>Durante muchos a\u00f1os, la patolog\u00eda computacional ha logrado avances significativos en el an\u00e1lisis de datos de morfolog\u00eda patol\u00f3gica y datos de detecci\u00f3n molecular. Este campo de investigaci\u00f3n especializado, formado por la intersecci\u00f3n de la patolog\u00eda con la inteligencia artificial y las tecnolog\u00edas de visi\u00f3n por computadora, se est\u00e1 convirtiendo gradualmente en un punto de investigaci\u00f3n en el an\u00e1lisis de im\u00e1genes m\u00e9dicas.<\/p>\n<p>La patolog\u00eda computacional implica el uso de procesamiento de im\u00e1genes y tecnolog\u00eda de inteligencia artificial para construir modelos de patolog\u00eda computacional de inteligencia artificial. Estos modelos adquieren im\u00e1genes histopatol\u00f3gicas y realizan evaluaciones preliminares de la apariencia morfol\u00f3gica de estas im\u00e1genes para ayudar en el diagn\u00f3stico, la evaluaci\u00f3n cuantitativa y la toma de decisiones mediante t\u00e9cnicas automatizadas de an\u00e1lisis de im\u00e1genes.<\/p>\n<p>Actualmente, con el crecimiento explosivo de las tecnolog\u00edas de IA generativa representadas por ChatGPT, los modelos de lenguaje grande multimodal (MLLM) se aplican cada vez m\u00e1s en la investigaci\u00f3n de patolog\u00eda computacional y la pr\u00e1ctica cl\u00ednica en patolog\u00eda. Sin embargo, en el subcampo altamente especializado de la patolog\u00eda anat\u00f3mica, la investigaci\u00f3n sobre la creaci\u00f3n de asistentes de IA multimodales y generales para patolog\u00eda a\u00fan se encuentra en sus primeras etapas.<\/p>\n<p>En este trabajo, el equipo de investigaci\u00f3n dise\u00f1\u00f3 un asistente de IA generativa multimodal espec\u00edficamente para la investigaci\u00f3n de patolog\u00eda humana: PathChat. Preentrenaron el sistema mediante aprendizaje autosupervisado en m\u00e1s de 100 millones de fragmentos de im\u00e1genes de tejido celular de m\u00e1s de 1 mill\u00f3n de diapositivas. Al combinar esto con un codificador visual puro de \u00faltima generaci\u00f3n, UNI, generaron un MLLM capaz de razonar sobre entradas de lenguaje tanto visual como natural. Despu\u00e9s de realizar ajustes en un conjunto de datos de m\u00e1s de 450.000 puntos de datos de instrucciones, se construy\u00f3 PathChat.<\/p>\n<p>La investigaci\u00f3n encontr\u00f3 que PathChat no solo puede manejar entradas multimodales sino tambi\u00e9n responder con precisi\u00f3n a consultas complejas relacionadas con patolog\u00edas, identificando correctamente enfermedades a partir de portaobjetos de biopsia en casi el 90% de los casos.<\/p>\n<div id=\"attachment_3245\" style=\"width: 610px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-3245\" class=\"size-fusion-600 wp-image-3245\" src=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-600x312.webp\" alt=\"CaminoCaht\" width=\"600\" height=\"312\" srcset=\"https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-18x9.webp 18w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-200x104.webp 200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-300x156.webp 300w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-400x208.webp 400w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-600x312.webp 600w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-768x399.webp 768w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-800x416.webp 800w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-1024x532.webp 1024w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47-1200x624.webp 1200w, https:\/\/aifuturize.com\/wp-content\/uploads\/2024\/07\/Screenshot-2024-07-12-at-23.41.47.webp 1354w\" sizes=\"(max-width: 600px) 100vw, 600px\" \/><p id=\"caption-attachment-3245\" class=\"wp-caption-text\">CaminoCaht<\/p><\/div>\n<h3>Superando al GPT-4V con una precisi\u00f3n cercana a 90%<\/h3>\n<p>Para probar el rendimiento de detecci\u00f3n de PathChat, el equipo de investigaci\u00f3n compar\u00f3 PathChat con el modelo de c\u00f3digo abierto LLaVA, el LLaVA-Med espec\u00edfico para uso biom\u00e9dico y el GPT-4V.<\/p>\n<p>Dise\u00f1aron el experimento de comparaci\u00f3n PathQABench, analizando casos patol\u00f3gicos de diferentes \u00f3rganos y pr\u00e1cticas para comparar el rendimiento de detecci\u00f3n de PathChat con LLaVA, LLaVA-Med y GPT-4V.<\/p>\n<\/div>\n<p>Los resultados mostraron que sin proporcionar un contexto cl\u00ednico, la precisi\u00f3n diagn\u00f3stica de PathChat fue significativamente mayor que la de LLaVA 1.5 y LLaVA-Med. Al evaluar im\u00e1genes solas, PathChat logr\u00f3 una precisi\u00f3n de 78,1% en todos los puntos de referencia combinados, lo que es 52,4% m\u00e1s alto que LLaVA 1.5 y 63,8% m\u00e1s alto que LLaVA-Med.<\/p>\n<p>Con la inclusi\u00f3n del contexto cl\u00ednico, la precisi\u00f3n de PathChat aument\u00f3 a\u00fan m\u00e1s a 89,5%, que es 39,0% m\u00e1s alta que LLaVA 1.5 y 60,9% m\u00e1s alta que LLaVA-Med.<\/p>\n<p>El experimento comparativo revel\u00f3 que PathChat puede obtener una capacidad predictiva sustancial \u00fanicamente de las caracter\u00edsticas visuales de las im\u00e1genes, en lugar de depender \u00fanicamente del contexto cl\u00ednico. Puede utilizar de forma eficaz y flexible informaci\u00f3n multimodal para diagnosticar con precisi\u00f3n im\u00e1genes histol\u00f3gicas incorporando informaci\u00f3n no visual proporcionada a trav\u00e9s del lenguaje natural ordinario.<\/p>\n<p>Para evaluar objetivamente la precisi\u00f3n de las respuestas de cada modelo a preguntas abiertas, el equipo de investigaci\u00f3n reclut\u00f3 a siete pat\u00f3logos para formar un panel de evaluaci\u00f3n. Al comparar las respuestas de los cuatro modelos a 260 preguntas abiertas, se analiz\u00f3 la precisi\u00f3n de las detecciones del modelo.<\/p>\n<p>Finalmente, en preguntas abiertas en las que los siete expertos pudieron llegar a un consenso, la precisi\u00f3n general de PathChat fue 78,7%, que fue 26,4%, 48,9% y 48,1% mayor que GPT-4V, LLaVA 1,5 y LLaVA-Med, respectivamente. En general, PathChat demostr\u00f3 un rendimiento superior en comparaci\u00f3n con los otros tres modelos.<\/p>\n<p>Los investigadores indicaron que PathChat puede analizar y describir detalles morfol\u00f3gicos sutiles en im\u00e1genes de tejidos patol\u00f3gicos. Adem\u00e1s de las entradas de im\u00e1genes, tambi\u00e9n puede responder preguntas que requieren conocimientos patol\u00f3gicos y biom\u00e9dicos generales, lo que la convierte en una herramienta prometedora para ayudar a pat\u00f3logos e investigadores.<\/p>\n<p>A pesar del excelente desempe\u00f1o de PathChat en los experimentos, todav\u00eda enfrenta algunos desaf\u00edos en las aplicaciones pr\u00e1cticas. Estos incluyen garantizar que el modelo pueda identificar consultas no v\u00e1lidas y evitar resultados err\u00f3neos, mantener la sincronizaci\u00f3n con los conocimientos m\u00e9dicos m\u00e1s recientes y abordar el hecho de que los datos de entrenamiento de PathChat provienen principalmente de datos hist\u00f3ricos, que podr\u00edan reflejar un &quot;consenso cient\u00edfico pasado&quot; en lugar de la informaci\u00f3n m\u00e1s reciente.<\/p>\n<p>Los investigadores afirmaron que estudios futuros podr\u00edan mejorar a\u00fan m\u00e1s las capacidades de PathChat, incluido el soporte de WSI de gigap\u00edxeles completos o m\u00faltiples entradas de WSI y la integraci\u00f3n de soporte m\u00e1s espec\u00edfico para tareas, como el recuento preciso o la localizaci\u00f3n de objetos. Adem\u00e1s, la integraci\u00f3n de PathChat con visores de diapositivas digitales o registros m\u00e9dicos electr\u00f3nicos podr\u00eda mejorar a\u00fan m\u00e1s su practicidad en la pr\u00e1ctica cl\u00ednica.<\/p>\n<p>Recientemente, se lanz\u00f3 el modelo de IA generativa multimodal PathChat 2. Puede razonar sobre im\u00e1genes y texto de patolog\u00eda, aceptando entradas alternas de m\u00faltiples im\u00e1genes y texto de alta resoluci\u00f3n en un visor de diapositivas interactivo, proporcionando as\u00ed evaluaciones m\u00e1s completas para cada caso de consulta.<\/p>\n<p>En comparaci\u00f3n con PathChat 1, ha mejorado significativamente el rendimiento en el diagn\u00f3stico diferencial y la descripci\u00f3n morfol\u00f3gica. Tambi\u00e9n tiene capacidades mejoradas en tareas como seguir instrucciones, responder preguntas abiertas y resumir informes.<\/p>\n<div class=\"video-shortcode\"><iframe class=\"lazyload\" title=\"PathChat 2: El futuro de la IA m\u00e9dica\" width=\"1240\" height=\"698\" src=\"data:image\/svg+xml,%3Csvg%20xmlns%3D%27http%3A%2F%2Fwww.w3.org%2F2000%2Fsvg%27%20width%3D%271240%27%20height%3D%27698%27%20viewBox%3D%270%200%201240%20698%27%3E%3Crect%20width%3D%271240%27%20height%3D%27698%27%20fill-opacity%3D%220%22%2F%3E%3C%2Fsvg%3E\" data-orig-src=\"https:\/\/www.youtube.com\/embed\/tRhJpupjVsc?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/div>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"mt-1 flex gap-3 empty:hidden juice:-ml-3\">\n<div class=\"items-center justify-start rounded-xl p-1 flex\">\n<div class=\"flex items-center\">\n<div class=\"flex\"><\/div>\n<div class=\"flex items-center pb-0.5 juice:pb-0\">\n<div class=\"&#091;&amp;_svg&#093;:h-full &#091;&amp;_svg&#093;:w-full icon-md h-4 w-4\"><\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div><div class=\"fusion-text fusion-text-2\"><p>Consulte los otros eventos de tecnolog\u00eda y noticias sobre IA directamente <a href=\"https:\/\/aifuturize.com\/es\/noticias-de-ai\/\">aqu\u00ed en AIfuturize<\/a>!<\/p>\n<div id=\"gtx-trans\" style=\"position: absolute; left: 521px; top: 38px;\">\n<div class=\"gtx-trans-icon\"><\/div>\n<\/div>\n<\/div><\/div><\/div><\/div><\/div>","protected":false},"excerpt":{"rendered":"","protected":false},"author":1,"featured_media":3246,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[135],"tags":[108,232,629],"class_list":["post-3243","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news","tag-ai-chatbot","tag-ai-medical","tag-cancer-detection"],"_links":{"self":[{"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/posts\/3243"}],"collection":[{"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/comments?post=3243"}],"version-history":[{"count":0,"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/posts\/3243\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/media\/3246"}],"wp:attachment":[{"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/media?parent=3243"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/categories?post=3243"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aifuturize.com\/es\/wp-json\/wp\/v2\/tags?post=3243"}],"curies":[{"name":"gracias","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}