admin 发布的文章

 为进一步推进医保支付方式改革,加快建立管用高效闭环的医保支付机制。近日,浙江省医疗保障局印发《浙江省全面推进医保支付方式改革三年行动计划》(以下简称《计划》),计划明确从2022年到2024年,分期推进门诊支付方式改革,迭代升级住院DRG支付方式改革。

  ● 2022年底,完成门诊支付方式改革顶层设计和信息系统建设,继续推进浙江省医疗保障疾病诊断相关分组(ZJ-DRG)细分组目录修订工作;

  ● 2023年底,全省所有统筹地区全面实施门诊按人头包干结合门诊病例分组(以下简称:APG)支付方式改革;

  ● 2024年底,实现住院DRG和门诊APG支付改革区域全覆盖、费用全覆盖、人群全覆盖、医疗机构全覆盖,形成贯穿医保支付全周期和管理全流程的改革闭环,全面建成医保基金预算更加合理、分类方法更加科学、协同保障更加有力、资源配置更加有效的医保支付新机制。

  与贵州、安徽、河南、内蒙古、甘肃、等十多个省份DRG/DIP支付方式改革三年行动计划不同的是,浙江省在住院费用DRG支付方式改革全覆盖基础上,推动门诊按人头包干结合APG支付方式改革,狠抓统筹地区、医疗机构、病种分组、医保基金四个方面全面覆盖,实现门诊、住院费用支付方式改革的闭环。

  何为“APG”?

  APG是门诊按人头包干结合门诊病例分组(Ambulatory Patient Groups)英文缩写,主要根据疾病类型、治疗方式、费用消耗对门诊医疗服务进行分类。比如我们平时常见的感冒、高血压病会分到不同的病组。通过对不同类别的病组计算其平均医疗费用,形成相应的病组点数,来反映门诊服务量,门诊基金按照服务量进行分配。

  门诊“APG点数法”付费改革简单来说,就是在门诊付费方面推行门诊点数(APG)与基层签约人头预算和包干使用相结合的付费政策改革。

  医保门诊“APG点数法”支付方式由浙江金华首创,2020年1月,金华市本级及兰溪市率先落地实施,2021年1月起金华市全面实施,并构建“安心医保支付”应用场景。

  公开数据显示,随着“APG点数法”的推进,金华市门诊基金支出年度增长率从19.4%下降至10%,其中市本级门诊基金预计可节省8881万元。

  下面我们来介绍一下金华门诊支付方式改革具体详情:

  金华特色:总额预算+人头包干+APG点数复合支付

  值得注意的是,尽管本次金华市门诊支付改革被简称为“APG点数法付费”,但APG点数法并不是其中的全部。金华市门诊支付改革实际上是在总额预算下按人头包干结合APG点数法的复合支付方式。

  金华门诊支付在设计上基本借鉴了美德两国的门诊支付系统的设计和结构。但在具体设计上又有一些自己的特色。

  首先是对门诊医保基金实行总额预算管理。总额预算按照市、县(市)分统筹区分别管理医保基金,包括参保人员在统筹区内外医保定点医疗机构门诊(含外配电子处方)及定点药店购药等的统筹基金支出。其中,门诊类型包括普通门诊、慢性病种门诊和特殊病种门诊。

  整个统筹区医保基金的支付方式则分为人头包干和APG点数支付两大类,根据具体情况不同来采用不同的支付方式。

  1、人头包干

  推动医疗机构与医保参保人员签约,从而将参保人门诊人头基金包干给签约医疗机构(或医共体)统筹使用。若有结余由医疗机构留用,若有亏损也由其自行承担。

  对于人头包干而言,按人头支付的额度是决定医疗机构盈利或亏损的关键。据介绍,金华市根据前两年全市参保人员的门诊就诊情况,运用大数据分析来确定参保人的门诊人头基金额度。金华市人头包干的门诊类型包括普通门诊和慢性病门诊,暂不包括签约参保人的特病门诊。

  2、APG点数

  对于没有签约的参保人门诊人头基金则由符合条件的医疗机构共同统筹使用,按照APG点数法支付。不同于费率法,金华点数法将病组以点数体现,并根据“以收定支、收支平衡、略有结余”原则实施点值浮动,年底根据此部分基金预算总额和全市医院APG总点数确定每个点数的实际价值,再据此计算出每家医疗机构应得的支付。

  2020年7月,金华东阳市对16家医疗机构涉及各类门诊医疗费用总计3.94亿元的141万条数据进行聚类分组,当地医保局将东阳市级医院APG分组分为761组,基层医院分组347组。最终,通过对全市分组的综合,本次金华市门诊支付试点确定APG分组1391组,并通过利用大数据手段分析历史门诊病例数,合理测算各个病组的平均历史费用,形成医保、医院、患者三方认同的支付标准。

  以门诊手术为主(含麻醉、药品等)的病例分入手术操作APG,其中门诊手术相关费用作为手术操作入组费用,相关检查、检验费用作为辅助服务入组费用。

  以内科药物治疗为主的病例分入内科服务APG,其中内科药物治疗相关费用作为内科服务入组费用,相关检查、检验费用作为辅助服务入组费用。

  以检查、检验为主的病例,以及门诊诊查费、一般诊疗费、需额外进行补偿的耗材、国家谈判药等,均纳入到辅助服务APG。

  APG基准点数=该APG例均费用÷全部APGs例均费用×100。统筹区之间、医疗机构之间、慢性病种药店之间设定级别差异系数。对费用差异不大的APG,可取消差异系数。

  改革优势解析

  1、建立三项机制,让基金支出安全可控

  通过建立门诊总额预算协商谈判机制、门诊“结余留用、超支分担”机制及医保基金总额预算调整机制,激发医药机构内生动力,实现医保基金可控、医疗质量提升、参保人员满意的目标。

  2、实行人头包干+APG点数,让就医秩序更加合理

  把医保门诊统筹基金总额以人头基金额度的形式分类包干。科学确定人头基金额度、分类划分包干类型,推动医保基金向签约服务和基层倾斜,缓解大医院就医压力,“分级诊疗”的良性循环可能逐步形成。

  3、确定支付标准,让医保付费精准高效

  根据临床过程、资源消耗等相似程度,充分考虑门诊诊查费、国家谈判药等因素,将全市门诊病例分为手术操作、内科服务、辅助服务三类APGs,确定分组1391组,并根据大数据手段合理测算形成支付标准,可提高付费效率,让医保付费精准高效。

  相比DRG/DIP,APG的实施难度更大。这需要医疗机构具有较高的诊疗效率、技术规范,较强的医疗水平以及完善的基础设施。同时,当地医保政策的支持也必不可少。基于全国多数地区尚在摸索DRG/DIP的现状,短期内开展APG难度较大。金华率先实施门诊APG试点也说明了当地较强的医疗服务能力和医保机构的大胆探索。

  在系统的设计上,金华APG参照了国外门诊支付系统的结构,并结合当地情况进行了一些创新。比如,它还结合了签约人员人头定额管理,以试图加入健康管理的管理体系。当然,这些设计的最终效果如何,还需要时间来判断。

  任何改革都不可能是一蹴而就,都需要在反复的实践中进行优化修正。可以肯定的是,在DRG/DIP之后,门诊支付改革将会很快来到。


在医院信息系统的建设中,大数据平台、集成平台和数据治理平台是三个核心组成部分,他们相辅相成,共同构建了一个高效、稳定、安全的医疗信息环境:

  • 大数据平台提供了深入分析和智能决策的能力。

  • 集成平台实现了医院内部不同系统间的无缝连接和协同工作。

  • 数据治理平台确保了数据的质量和医院遵守相关法律法规。

通过这三个平台的有机结合,医院能够提升医疗服务质量,优化资源配置,提高运营效率,并最终实现以患者为中心的医疗服务理念。

01大数据平台

大数据平台主要负责处理和分析医院产生的海量数据,包括患者医疗记录、财务数据、运营数据等。它能够支持复杂的数据分析和挖掘工作,帮助医院从数据中获得洞察力,以指导决策制定和优化服务。

主要功能:

  1. 数据采集:收集来自医院各个信息系统的数据。

  2. 数据存储与管理:提供大规模数据集的存储解决方案,并确保数据安全和访问效率。

  3. 数据分析:运用统计分析、机器学习等方法,对数据进行深入分析,以发现潜在的模式和趋势。

  4. 智能挖掘:利用大数据技术预测疾病风险、优化资源分配、提升临床决策支持等。

选择考量:选择大数据平台时,应考虑其数据处理能力、分析工具的多样性、系统的稳定性和扩展性。此外,还需评估平台的安全性,确保患者数据的隐私和合规性。

02集成平台

集成平台是实现医院内部各业务系统之间协同工作的关键,它通过ESB(企业服务总线)技术实现不同系统间的信息共享和业务处理。集成平台可以简化系统间的接口,提高数据交换的效率,减少信息孤岛现象。

主要功能:

互操作性:使不同的系统能够交换信息和协同工作。

  1. 数据共享:简化数据在不同系统间的流动,避免信息孤岛。

  2. 服务协调:协调不同系统提供的服务,以支持复杂的业务流程。

  3. 标准化支持:遵循医疗行业标准,如HL7、FHIR等,以确保不同系统间的兼容性。

选择考量:在选用集成平台时,应考虑其接口的标准化程度、兼容性、以及对现有系统的整合能力。同时,需要评估平台的性能和可靠性,确保它能够稳定地支持医院的日常运营。

03数据治理平台

数据治理平台负责管理和监督医院的数据质量,确保数据的准确性、完整性和一致性。它包括数据的规范性、安全性和可访问性等方面,是医院数据管理的核心。

主要功能:

  1. 数据质量管理:确保数据的准确性、完整性和可靠性。

  2. 数据安全与合规:保护患者隐私,符合医疗数据保护法规。

  3. 元数据管理:维护数据的描述信息,帮助理解数据的结构和含义。

  4. 数据生命周期管理:管理数据从创建到归档或删除的整个生命周期。

选择考量:选择数据治理平台时,需要考虑其对数据质量管理的能力,包括数据的分类、标准化、以及安全访问控制。此外,平台应能够支持数据治理的全生命周期管理,并与医院的其他IT系统无缝集成。

04医院信息科综合考量因素

战略规划:医院信息科应将三种平台的选择与医院的长期信息化战略规划相结合,确保平台选择能够支持医院的未来发展。

成本效益分析:进行成本效益分析,评估不同平台的采购成本、运维费用以及预期的投资回报。

技术兼容性:确保所选平台与现有的医院信息系统兼容,避免重复建设和资源浪费。

安全性:重视数据安全和隐私保护,选择符合国家和行业标准的安全解决方案。

可持续发展:选择能够适应技术发展趋势和医院业务增长的平台,确保长期的可持续发展。


BlogFinder https://bf.zzxworld.com/
十年之约 https://www.foreverblog.cn/
博客志 http://www.jetli.com.cn/
中国博客联盟(已关停,之前这个很热闹,网站应该有上万) zgboke.org
萌 ICP 电报频道 https://t.me/MoeICP
萌站广场 https://icp.gov.moe/aboutus.php

https://zhblogs.ohyee.cc/



我们创建了一个名为“中文博客列表导航”的项目,目标是收录几乎所有的中文博客,目前项目收录的体量大概在三千左右。

不同于一些其他的博客聚合项目,博客列表的收录门槛很低,基本上只要求是个中文博客以及有三篇文章即可。这让我们可以更全面地收录中文博客。

除了您主动向我们提交和我们顺着友情链接“顺藤摸瓜”,我们还会从一些别的聚合项目同步博客,您有可能在没有提交博客的情况下发现您的网站已经被我们收录了。

我们收集了博客的名称、一句话简介、订阅地址、网站地图、博客架构以及我们人工给博客贴上的标签。访客可以在项目主页通过标签筛选来找到对应标签下的博客,也可以在统计图标看看现在大家都在用哪些架构,比如 Hexo 和 Typecho ,或者是大家都在用哪个后缀的域名。订阅地址这些信息在前台隐藏了,不过您可以通过我们公开的 API 查看到我们收集的完整信息。

我们尽可能收集全面,也希望有社会学研究的朋友研究博客的时候可以有一个比较广泛的样本。

当然,因为我们收录的博客太多了,所以我们还需要有人来帮我们实现诸如博客测活之类的自动化。我们也希望可以为这些博客数据找到一些新的用途。


 因为要到一家互联网公司参加自然语言处理实习生面试,对于岗位要求中提到的工作内容--"网页正文内容提取"的相关知识进行了一下突击。重点看了一下网页正文提取所涉及到的各种算法,网上的内容很多,我只是看了其中一小部分,对各类算法做了一个简单的了解,不敢说对其做一个综述,只是以一个学习者的学习习惯来记录我对网页正文提取算法的浅认识,本文并不会对算法进行详细的步骤讲解,只提思路和思想。

  为什么要进行正文提取?

  对于一个单独的网页,往往最有价值的部分是网页的正文。然而就现在的大多数的网站的网页而言,不仅仅包含正文,网页标签等,其他的如广告,网页链接,插件等占据了网页相当一部分的内容。由于现实的需要,我们往往需要对网页的内容进行分析从而提取有价值的信息。一个网页的内容基本包含在正文中,对于新闻类网页尤其。将网页正文之外其他的内容剔除从而降低分析的难度是一种基本的思路。同时正文内容提取的好坏直接影响到接下来分析工作的质量。如何使用最快捷的方法来获取网页的正文同时又保证提取的内容的准确性?人们为这个问题一直努力着!

  网页正文提取的思路及算法

  作为一个刚开始对正文提取没有什么认识的人,比如我,第一想法就是利用HTML网页的标签来判断正文的位置。因为根据网页的编辑和布局习惯,一般会将网页在正文部分放入到<p>,<table>以及<div> 中,并且应该包含<title>和<head>等标签。如果能够利用正则表达式首先找到这些标签的位置,并做相应的判断即可找到正文的内容位置。这是第一种思路,基于标签。

  1. 基于标签

  这是很容易想到的一种思路。基于HTML文件本身的某些结构特点和规范。这里也可以细分:

  • 基于标签窗的算法: 例如<p>段落标签,一般的正文内容都会嵌套其中。<title>标题标签,一般会将论文的标题嵌入,接下来的内容很大程度上应该是正文的内容了。根据写作习惯,标题下方开始写正文,上方<p>标签就应该会频繁出现,主要的思路是标签的某种组合和标签的内容对应。

  • 基于标签密度的算法:对于大多数的网页而言,正文部分的标签明显要少于非正文部分,而且正文当中的标签大部分标签应该属于修饰类标签。这就有一种基于标签统计的思路算法。从某一行开始,标签数量明显减少,到某一行又骤升,这一间隔区域很大程度上就属于网页的正文部分。

  • 基于DOM树的算法:

   什么叫DOM(Document Object Model)树:并没有看到对DOM树的定义,不过很容易理解,下图就很明白体现了一种对应关系。

   在一个网页中标签的位置下左图所示,而对应的DOM树如下又图(图片来源:http://www.w3school.com.cn/htmldom/dom_nodes.asp)所示:

     

    这种算法需要对网站HTML建立DOM树,然后对之进行遍历递归,去除相应的噪音信息之后再从剩余的节点中进行选择。由于要建立DOM树,算法的时间/空间复杂度均较高。

  基于标签的算法都潜在默认了这样的一个信息:即网站的网页生成,制作都遵循了一定的标签使用规范。不过现在的互联网网页五花八门,很难都按常理出牌,所以这在一定程度上降低了算法的准确性和通用性。

  2. 基于内容

  网页按照内容形式分类大概分为:主题型,图片型和目录型。

  对于主体型的网页,例如新闻类,博客类等,主要特点是文字内容比较多。基于这一点,另外一种正文提取思路是基于正文本身的特点。在一定程度上,正文的文字数量要比其他部分多。这在一定程度上有助于形成了区域的区分度。文字数量的骤增和骤减在一定程度上可以作为正文开始和介绍的判读点。

  这类算法在本质上没有多大的差异,只是选择度量文字密度的方式不同而已。有的是基于块,有的是基于行,有的是基于转化函数。算法都很容易理解,也相对比较容易实现。下面的几篇文章就是基于网页内容的算法。

  《基于行块分布函数的通用网页正文抽取》陈鑫

  《基于网页分块的正文信息提取方法》 黄 玲,陈 龙

  博文《我为开源作贡献,网页正文提取--HtmlArticle2》

  3. 基于视觉

  想对于前面两种思路,这类算法的思路有一种"高大上"的感觉。这里不得不提到这类算法的基础:VIPS(Vision-based Page Segementation)算法。

  VIPS算法:利用背景颜色,字体颜色和大小,边框,逻辑块和逻辑块之间的间距等视觉特征,制定相应的规则把页面分割成各个视觉块!(视觉效果真的是千变万化,如何制定规则集始终是个复杂的问题)

  VIPS算法充分利用了Web页面的布局特征。它首先从DOM 树中提取出所有合适的页面块,然后根据这些页面块检测出它们之间所有的分割条,包括水平和垂直方向;最后基于这些分割条.重新构建Web页面的语义结构。对于每一个语义块又可以使用VIPS算法继续分割为更小的语义块。该算法分为页面块提取、分隔条提取和语义块重构3部分,并且是递归调用的过程,直到条件不满足为止.

  相关文献:

  《基于视觉特征的网页正文提取方法研究》安增文,徐杰锋

  《A vision—based page segmentation algorithm》

  4. 基于数据挖掘/机器学习

  看到很多作者对这一思路的普遍评价是"杀鸡焉用牛刀"。

  基本思路是使用一定数量的网页作为训练集,通过训练得到网页正文的一些特点,然后将这些特征作为网页片段是否符合网页正文的判断依据。对于数据挖掘/机器学习算法来讲,训练样本的采集很重要,然而现实是互联网中网页形式千变万化,不太可能取太多数量作为训练样本。这样这种算法的准确性和通用性就受到了制约,同时这类算法前期工作也比较复杂。


基于网页结构的算法确实是一种有效的方式来识别并提取网页中的文章内容。下面是一个更详细的步骤描述,这些步骤描述了如何使用网页结构、文本密度和链接密度等特征来识别并提取文章内容:

  1. 加载并解析网页

    • 使用一个HTML解析库(如Python的BeautifulSoup、lxml,或者JavaScript的DOM解析器等)来加载和解析网页的HTML代码。

  2. 寻找文章主体元素

    • 检查HTML文档是否包含语义化标签,如<article><main><section><content>等。这些标签通常用于标识页面的主要内容区域。

    • 如果没有找到这些语义化标签,则可能需要通过更复杂的CSS选择器或者DOM树遍历来找到文章内容的可能位置。

  3. 计算文本密度

    • 遍历HTML文档的每个元素或区域,并计算它们的文本密度。文本密度通常可以通过元素中纯文本字符的数量与元素总字符数的比例来计算。

    • 文章内容区域的文本密度通常较高,因为它们包含大量的文本内容。

  4. 计算链接密度

    • 同样地,遍历HTML文档的每个元素或区域,并计算它们的链接密度。链接密度可以通过元素中链接(<a>标签)的数量与元素总标签数量的比例来计算。

    • 文章内容区域的链接密度通常较低,因为链接主要用于导航或引用其他资源,而不是文章的主要内容。

  5. 综合评估并提取内容

    • 结合文本密度和链接密度以及其他可能的特征(如元素的类名、ID、位置等),对页面中的不同区域进行综合评估。

    • 识别出最有可能是文章内容的区域,并提取其中的纯文本内容。

  6. 后处理

    • 对提取到的文本内容进行后处理,包括去除HTML标签、去除多余的空格和换行符、处理特殊字符等。

    • 如果需要,还可以进行进一步的文本处理,如分词、词性标注、命名实体识别等,以便于后续的分析或应用。

  7. 测试和验证

    • 使用一组具有不同结构和内容的网页来测试算法的性能和准确性。

    • 根据测试结果对算法进行调整和优化,以提高其适应性和准确性。

需要注意的是,由于网页结构的多样性和复杂性,没有一种算法能够适用于所有类型的网页。因此,在实际应用中,可能需要结合多种算法和技术来综合提取和分析网页中的文章内容。同时,由于网页内容的动态性和变化性,算法也需要具有一定的适应性和鲁棒性,以应对不断变化的网页结构和内容。