{"id":29384,"date":"2025-02-28T17:54:40","date_gmt":"2025-02-28T21:54:40","guid":{"rendered":"https:\/\/www.pedroandretta.info\/index\/?p=29384"},"modified":"2025-02-28T17:55:27","modified_gmt":"2025-02-28T21:55:27","slug":"desenvolvimento-de-modelos-de-prompt-para-triagem-orientada-por-modelos-de-linguagem-ampla-em-revisoes-sistematicas","status":"publish","type":"post","link":"https:\/\/www.pedroandretta.info\/index\/2025\/02\/desenvolvimento-de-modelos-de-prompt-para-triagem-orientada-por-modelos-de-linguagem-ampla-em-revisoes-sistematicas\/","title":{"rendered":"Desenvolvimento de modelos de prompt para triagem orientada por modelos de linguagem ampla em revis\u00f5es sistem\u00e1ticas \/ Annal of Internacional Medicine"},"content":{"rendered":"\n<p><strong>Desenvolvimento de modelos de prompt para triagem orientada por modelos de linguagem ampla em revis\u00f5es sistem\u00e1ticas<\/strong><\/p>\n\n\n\n<p>Entre os LLMs, as variantes Claude-3.5 (Anthropic) e GPT4 tiveram desempenho semelhante, enquanto os modelos Gemini Pro (Google) e GPT3.5 (OpenAI) tiveram desempenho inferior. Os custos de triagem direta para 10.000 cita\u00e7\u00f5es diferiram substancialmente: enquanto a triagem de resumos humanos individuais foi estimada em mais de 83 horas e US$ 1.666,67, nossa abordagem baseada em LLM concluiu a triagem em menos de 1 dia por US$ 157,02.<\/p>\n\n\n\n<p>#Revis\u00e3oSistem\u00e1tica #IA<\/p>\n\n\n\n<p>Dispon\u00edvel em: <a href=\"https:\/\/www.acpjournals.org\/doi\/10.7326\/ANNALS-24-02189\">https:\/\/www.acpjournals.org\/doi\/10.7326\/ANNALS-24-02189<\/a><\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img data-recalc-dims=\"1\" decoding=\"async\" width=\"600\" height=\"215\" src=\"https:\/\/i0.wp.com\/www.pedroandretta.info\/index\/wp-content\/uploads\/2025\/02\/image-91.png?resize=600%2C215&#038;ssl=1\" alt=\"\" class=\"wp-image-29385\" srcset=\"https:\/\/i0.wp.com\/www.pedroandretta.info\/index\/wp-content\/uploads\/2025\/02\/image-91.png?resize=600%2C215&amp;ssl=1 600w, https:\/\/i0.wp.com\/www.pedroandretta.info\/index\/wp-content\/uploads\/2025\/02\/image-91.png?resize=300%2C107&amp;ssl=1 300w, https:\/\/i0.wp.com\/www.pedroandretta.info\/index\/wp-content\/uploads\/2025\/02\/image-91.png?resize=768%2C275&amp;ssl=1 768w, https:\/\/i0.wp.com\/www.pedroandretta.info\/index\/wp-content\/uploads\/2025\/02\/image-91.png?resize=1536%2C550&amp;ssl=1 1536w, https:\/\/i0.wp.com\/www.pedroandretta.info\/index\/wp-content\/uploads\/2025\/02\/image-91.png?resize=1320%2C473&amp;ssl=1 1320w, https:\/\/i0.wp.com\/www.pedroandretta.info\/index\/wp-content\/uploads\/2025\/02\/image-91.png?w=1712&amp;ssl=1 1712w\" sizes=\"(max-width: 600px) 100vw, 600px\" \/><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>Desenvolvimento de modelos de prompt para triagem orientada por modelos de linguagem ampla em revis\u00f5es sistem\u00e1ticas Entre os LLMs, as variantes Claude-3.5 (Anthropic) e GPT4 tiveram desempenho semelhante, enquanto os modelos Gemini Pro (Google) e GPT3.5 (OpenAI) tiveram desempenho inferior. Os custos de triagem direta para 10.000 cita\u00e7\u00f5es diferiram substancialmente: enquanto a triagem de resumos [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"elearning_container_layout":"tg-site-layout--default","elearning_sidebar_layout":"tg-site-layout--default","elearning_remove_content_margin":false,"elearning_sidebar":"default","elearning_transparent_header":"customizer","elearning_logo":0,"elearning_header_style":"default","elearning_menu_item_color":"","elearning_menu_item_hover_color":"","elearning_menu_item_active_color":"","elearning_menu_item_active_style":"","elearning_page_header":true,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[21],"tags":[1994,778],"class_list":["post-29384","post","type-post","status-publish","format-standard","hentry","category-informeci","tag-inteligenciaartificial","tag-revisaosistematica"],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"","views":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/posts\/29384","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/comments?post=29384"}],"version-history":[{"count":0,"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/posts\/29384\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/media?parent=29384"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/categories?post=29384"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pedroandretta.info\/index\/wp-json\/wp\/v2\/tags?post=29384"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}