欢迎访问一起赢论文辅导网
本站动态
联系我们
 
 
 
 
 
 
 
 
 
 
 
QQ:3949358033

工作时间:9:00-24:00
SCI期刊论文
当前位置:首页 > SCI期刊论文
一种病理图像自动标注的机器学习方法
来源:一起赢论文网     日期:2016-07-29     浏览数:2978     【 字体:

 计算机研究与发展DOI:10.7544?issn1000-1239.2015.20140683Journal of Computer Research and Development 52(9):2135-2144,2015 收稿日期:2014-07-25;修回日期:2014-12-16 基金项目:国家自然科学基金项目(81373883);广东省自然科学基金项目(S2013040012898);广东省省级科技计划基金项目(2013B010404019)一种病理图像自动标注的机器学习方法张 钢 钟 灵 黄永慧(广东工业大学自动化学院 广州 510006)(ipx@gdut.edu.cn)A Machine Learning Method for Histopathological Image Automatic AnnotationZhang Gang,Zhong Ling,and Huang Yonghui(School of Automation,Guangdong University of Technology,Guangzhou510006)Abstract Histopathological image can reveal the reason and severity of diseases,which is importantfor clinical diagnosis.Automatic analysis of histopathological image may release doctors burden formanual annotation which can preserve more time for doctors to focus on special and difficult cases.However,the ambiguous relationship between local regions in a histopathological image andhistopathological characteristics makes it difficult to construct a computer-aid model.An automaticannotation method for histopathological images based on multiple-instance multiple-label(MIML)learning is proposed,aiming at directly modeling the medical experience of doctors,which suggeststhat each annotated term associated with an image corresponds to a local visually recognized region.We propose a self-adaptive region cutting method with constraints,to segment each image into severalvisually disjoint regions,and then perform a feature extraction for each generated region based ontexture and inner structures.The whole image is regarded as a bag and regions as instances,thus animage is expressed as a multiple-instance sample.Then we propose a sparse ensemble multipleinstance multiple-label learning algorithm,S-MIMLGP,based on Bayesian learning,and compare itwith current multiple-instance single label and multiple-instance multiple-label algorithms.Theevaluation on a clinical dataset from the dermatology of a large local hospital shows that the proposedmethod can yield medically acceptable annotation accuracy,hence indicates its effectiveness.Key words histopathological image annotation;histopathological characteristics recognition;multipleinstance multiple-label learning;normalized cut;image feature extraction摘 要 病理图像能够揭示疾病的原因及严重程度,在临床诊断中有重要应用.病理图像中局部区域与病理特性之间不明确的对应关系为建立计算机辅助诊断模型带来了困难.基于全局图像特征表达和等分小块等方法难以有效表达病理特性的局部性.提出一种基于多示例多标签学习的活检病理图像自动标注框架,对病理特性的局部性进行表达.通过带区域约束条件的分割算法把病理图像划分为若干视觉上不连续的区域,对区域进行基于纹理和内部结构的特征提取,把病理图像转化为多示例样本,在此基础上提出一种基于贝叶斯学习的多示例多标签稀疏集成算法.在本地大型三甲医院的皮肤科活检样本数据集上进行方法有效性评估,结果表明该方法能得到医学上可接受的标注准确率,从而说明其有效性.关键词 病理图像标注;病理特性识别;多示例多标签学习;标准分割;图像特征提取中图法分类号 TP391.41  病理图像是对患者病变部位的组织进行切片,在显微镜下进行放大成像得到的图像[1].由于病理图像直接反映出组织内部所发生的病变,是医生进行疾病诊断的重要依据,甚至是进行某些疾病诊断的最终依据.例如在癌症的诊断中,通过对病灶的放射影像学图像进行观察,包括观察是否有阴影、斑块、血管的扩张情况等以及运用血液化验手段可以得出初步的诊断,但要最后确诊必须进行活检,即提取病灶的活体组织进行显微镜下观察以确定其病理特性[2].随着病人数量的日益增加和对疾病准确诊断率的更高要求,病理检查特别是对其显微图像的分析数量成倍增加,导致了病理实验室专家的工作量增加,需要增加更多人员、设备来应对更大量的组织病理学分析需求;大量的一般性病理图像特性识别和诊断花费医生大量精力,使其难以对一些特殊病例花更多精力进行判断;此外,分析病理学图像需要相当专业的知识及丰富的经验,受到读片者当时状态的影响,导致诊断结果不稳定、不能重现甚至在日后转诊时出现相反诊断的情况,对于病人来说具有巨大的风险[3].若能利用计算机辅助系统分担部分病理图像分析工作,在当前医疗资源如此紧张的情况下具有重要意义[4].本文提出一个基于机器学习理论的病理图像自动特性标注的方法,其可行性基于以下2点分析:1)对病理实验室医生的诊断经验分析发现,活检图像的标注有一定的规律性.这种规律对不同的病理特性在活检图像的特定部位上表现出相似的图像特征,包括颜色、纹理、内部结构等.这种规律性结合医生的临床诊断经验,使其能对活检图像进行正确的特性标注.2)对病理特性进行描述的标注词(述语)是统一的,可以使用编程的手段在医生对以往活检图像的镜下诊断文本描述中准确提取出与该活检图像对应的特性描述词.基于第1点,使用恰当的图像特征提取方式,选择适当的机器学习模型,就可以在历史数据中学习到病理学专家这种很难直观表达出来的标注规律.由于在医生的诊断记录中,文本表述的镜下诊断是和活检图像相关联的,基于第2点,通过程序的方式可以从镜下诊断中得到病理特性的标注项,可以直接建立训练数据集.图1展示了一个皮肤病理图像及其镜下诊断的例子,其中标准的病理特性描述词用下划线并加粗标出.Fig.1 Skin biopsy images and their diagnosis throughmicroscopic.图1 皮肤活检图像及其镜下诊断同时也注意到,自动标注病理图像至少有以下2个挑战:1)医生的镜下诊断是一段文本描述,根据医学经验,每个标注词实际上描述了病理图像中某个局部的特性,但医生会根据看到的整幅图像的情况直接写出镜下诊断,不会给出标注词与某个局部区域之间的对应关系.图2展示了一幅后期手工标出了区域和标注词之间对应关系的活检图像.图2中:A代表“角囊肿”;B 代表“角化过度”;C 代表“淋巴细胞浸润”;D 代表“乳头瘤样增生”. Fig.2 Correspondence between local regions andannotation terms.图2 局部区域与标注词之间的对应关系2)即使多幅图像均被标注了同一个标注词,它们之间也可能有极大的差异,这种差异可能反映在颜色、区域大小、形状等方面,对构建学习器是极大的挑战.对于第1个挑战,解决的关键在于理解医生对于活检图像进行标注时的思维活动过程,我们认为医生对图像的标注实质上是对图像的可辨区域进行2136 计算机研究与发展 2015,52(9)识别后根据经验对某些区域标注上特性,其中可辨区域是指有显著边界且连续的图像局部.对一幅病理图像的标注,可以先进行视觉上可辨的连续区域的划分,对每个区域进行标注,所有区域的标注结果就是整个图像的标注结果.在这种思路下,病理图像就转化为局部连续可辨区域的集合,而反映病理特性的标注词与整幅图像的局部区域相关.图3展示了对图2所示的活检图像进行可辨区域后,其与标注词之间的对应关系.Fig.3 Correspondence between visual disjoint regionsand annotation terms.图3 可辨区域与标注词之间的对应关系图3中的可辨区域是通过标准分割(normalizedcut)[5]所产生的,然后再人工标记出每个区域所包含的标注词(其中的字母含义同图2,Dummy表示该区域不与任何的标注词相关联).从图3可以看出,病理图像中的某些区域与一个标注词关联,某些区域不与任何的标注词关联,在另外一些情况下有的区域与多个标注词关联,本文提出在多示例学习的框架中解决这个问题.多示例学习是一种特殊的机器学习框架,最早是在分子活性的研究中被提出来的[6].在多示例学习中,学习样本包含一个或一个以上的示例,而概念标记仅与样本而不是示例相关联.这种关系同样能在病理图像与其局部区域之间反映出来,在多示例学习框架中解决病理特性标注问题是适合的.对于第2个挑战,若能寻找一个最能表达病理特性的图像特征表达方式,就可以很好解决,但这是很困难的.根据我们对医生诊断过程的观察,认为医生在对图像进行标注时考虑了图像纹理、像素密度及其一些特殊的内部结构,因此选择一个对这些特征有良好表达的图像特征表示就能尽可能贴近医生的标注思路.图4展示了本文方法的主要流程.使用标准分割对病理图像进行可辨区域划分;对可辨区域进行提取,表示为一个能覆盖它的最小矩形;对每一个由矩形表示的可辨区域进行特征提取,进而把每幅活检图像表示为一个多示例学习样本;训练学习器模型,把对病理特性的标注问题转化为多示例学习问题求解.Fig.4 Main steps of the proposed method.图4 本文方法的主要步骤1 相关工作在医学图像识别研究中,国内外研究者对医学成像的计算机自动识别进行了大量的研究工作.Bunte等人[7]提出了一种对皮肤表面图像分类的机器学习方法,考虑到皮肤表面图像大多采用基于颜色的特征表示,不同的颜色空间对不同皮肤病的自动识别有不同效果,而不同颜色空间可以通过一个线性变换得到.他们提出对8种不同的颜色空间进行加权,用度量学习的方法学习该权重,使其对当前的训练样本有最好的分类效果,通过加权可以找到一个对当前训练样本集最优的颜色空间表示.但该方法并不适用于一般的病理图像,其原因是病理图像通常被染色,不能单纯通过颜色特征来判断其中的病理特性,而且,病理图像的众多特征之间并不能以线性变换加以联系,这使得难以通过度量学习得到最优的特征表示.张 钢等:一种病理图像自动标注的机器学习方法2137在组织病理图像分析领域,出现了一些与本文相关的工作.Gurcan等人[4]对当时组织病理学图像分析的研究状况进行了回顾,认为对组织病理学图像分析应该包含图像的分块、特征提取、模型训练和识别4个步骤,这与本文的处理思路基本一致.但在这篇综述中,并没有包括区域的视觉边界对图像进行分块的思想方法,也没有包括医生对图像识别的思维过程,仅从数字化图像处理的角度进行回顾,本文认为这可能是不够全面的.Angel等人[8]提出一种使用核学习器进行皮肤癌病理图像分类的方法,他们使用了特征袋集(bag of features)的图像特征表示方法.简单来说,即建立字典(codebook),其中的元素是小块的图像(4×4像素),在元素上记录该元素来源图像的类别.当给出一个测试图像时,先把图像分块,然后查字典,得出该图像中每一小块所属的类别,从而得到一个类别直方图,这样可以直接得到图像的分类结果.这种方法把图像划分为等面积方块,没有考虑病理图像复杂的内部结构,而且直方图的方式表示特征与区域面积相关,这与皮肤病理诊断的寻找特殊结构、纹理的思想方法不完全一致,因此不能解决本研究中复杂的病理图像镜下所见特性的标注问题.Li等人[9]提出使用多示例多标签学习模型对果蝇基因模式图像进行自动标注.由于从基因模式图像数据库中得到的图像组与标注词相关联(由基因研究人员标注出),但标注词实质上描述的是某个图像的某个局部.因此在该工作中把一个图像组看作一个多示例样本,把组中每个图像进行分块,所有小块看作示例,标注词看作概念标记,使用多示例多标签学习框架解决此问题.基因模式图像比较简单,且是灰度图像,因此采用分格的示例划分方法是有效的.在该工作中,采用SIFT特征点[10]的选取作为图像特征表达.这对比较简单的图像较为有效,但活检图像具有丰富的色彩、纹理、内部结构和明显的局部区域边界,不能简单地通过分格方法得到示例表示.2 病理图像区域划分和特征提取2.1 可辨区域划分可辨区域划分是本文工作的一个核心,通过区域划分把图像转化为多示例样本,从而进行多示例学习.如第1节所述,本文通过使用一种对局部区域边界敏感的划分方法得到区域,从而把图像表达为多示例样本,是对医生诊断的思考过程的一个模拟.本文采用带有区域约束条件的标准分割[5]方法把图像划分成连续的局部可辨区域.标准分割是一个图像分割算法,把图像中的每一个像素点看作图的顶点,相邻的像素点所对应的顶点之间有边相连,边的权重是相邻像素点的相似度.形式上,假设图像被表示为图G=(V,E),标准分割的每一轮寻找当前图的2个顶点集S,T,使S∩T=,S∪T=V,且满足:min S,TΣ u∈S,v∈Tw(u,v)Σ u∈S,r∈Vw(u,r)+Σ u∈S,v∈Tw(u,v)Σ v∈T,r∈Vw(v,r烄烆烌烎), (1)其中w(u,v)为边(u,v)的权值,使式(1)值最小的S,T 就是一个对当前顶点集的最优划分.求解式(1)所示的优化问题,可转化为求解一个标准的Rayleigh方程[11],其求解的时间复杂度是O(P×k),其中P 为图像的像素点个数,k为划分的区域的个数.标准分割算法每次分割的实质是寻找当前待分割区域中最显著的分界线,与本文对局部区域概念的界定相一致,医生通过识别病理图像中的显著边界来确定局部区域,这是本文工作采用标准分割的最主要动机.另外,算法上,标准分割每次对一个区域进行二分分割,通过不断地迭代产生更多更小的区域,使医学经验规则可以很容易加入到分割过程,对分割的区域大小和分割的优先程度进行控制,方便设计结合先验知识的自适应的分割算法.原始的标准分割划分区域的个数k需要事先指定,关于k值的设定,有2种可能出现的情况:1)若k 值较小,产生的区域数较少,可能出现某些区域包含多个标注词的情况;2)若k 值较大,产生的区域数较多,可能会出现把原来对应一个标注词的区域细分为若干个.第1种情况有可能产生过于复杂的可辨区域(包含不同的特征或由多个细小的区域组合而成),这会影响区域特征提取的效果.而对于第2种情况,当区域数比较大时,会把某些只对应一个标注词的区域分为多个小区域,也即所谓的示例碎片化问题,粒度过小的示例不能完整表达某个标注词的内在含义.考虑到k值的确定对多示例样本的生成有重要影响,提出采用区域约束的方法来产生自适应区域,不需要预先设置区域个数.引入2个约束条件:1)区域个数的上限kmax;2)区域所包含像素数量t.在算法中要求:若区域数目达到上限kmax,则不再进行分割;2138 计算机研究与发展 2015,52(9)若一个区域包含的像素数量小于2×t,则该区域不会再被考虑分割.以上参数的设置由医学经验值给出,具体值在实验部分给出.标准分割每次进行二分割,即把一个输入区域按式(1)的指标分为2个子区域,由于每次分割会使区域数增加1,一个必须解决的问题是如何选择区域进行分割.考虑到这个区域的选择指标计算在每次分割时都需要进行,且不需要太精确估计,多示例学习模型能够适应一定示例粒度变化,这从以往基于分块多示例图像标注的研究工作中可看出.基于此,提出一种简单的区域选择策略,计算其区域像素颜色值的方差,优先选择方差大的区域进行划分.像素颜色值方差大在一定程度上表明区域的像素结构复杂,可能包含不同的可辨区域,因此可以作为一种区域划分的启发式线索.2.2 特征提取本文采用基于纹理特征和像素密度的图像特征提取方法.由于标准分割得到的可辨区域是不规则的,我们先寻找一个包含不规则区域的平行轴最小矩形,并用黑色像素填充,然后执行特征提取算法.图5展示了不规则区域的平行轴最小矩形表示.  Fig.5 Minimal rectangle with paralleled axisrepresentation for irregular regions.图5 不规则区域的平行轴最小矩形表示特征提取算法的主要思想描述如下:对区域进行颜色空间变换,从RGB转换到LUV 颜色空间;然后对区域进行小块划分,去掉像素为全黑的小块;然后对每一剩下的小块执行离散小波变换,由整个区域的平均LUV值及每个分块的小波系数计算出区域特征,该特征提取算法的详细流程参见文献[12].需要指出的是,LUV颜色空间强调对人眼的颜色和纹理视觉特征的描述,具有视觉统一性,适用于本研究中视觉可辨区域的特征表达.f1,f2,f3分别是区域的平均L,U,V 值,该组特征衡量区域的整体颜色组成;特征f4,f5,f6分别是每个小块的小波变换系数LH,HL,HH 的整个区域平均值,该组特征反映出区域的纹理特征和特殊结构;f7,f8,f9分别是1,2,3阶标准形状系数,该组特征反映的是区域的拓扑形状,即与区域大小无关的形状特征.这样提取出的图像特征是一个9维的实值向量.该方法的时间复杂度与图像划分小块个数有关系,每个小块执行一次离散小波变换,然后取平均,总体的时间复杂度为O(p),其中p 为该区域所包含的方块个数,其他属性的计算都可以在常数时间内完成.这些特征已被成功应用于图像理解和图像检索等领域.这3组图像特征充分反映了区域的可视化特征,我们认为其有足够的表达能力,能表示出本文分割方法得出的区域主要特征.2.3 多示例多标签样本表达在对病理图像进行区域划分和针对区域进行特征提取后,图像被转化为多示例样本,其中的示例为区域,由于划分算法为自适应,最后得到的每个样本中的示例个数可能会不同.对于多标签的生成,我们对每幅病理图像的病理诊断描述文本进行关键词匹配,生成一个布尔向量,其中的每一位指示该病理图像是否包含对应的病理特性.3 病理特性标注模型需要指出的是,病理特性标注的问题不适合用单示例学习算法解决.首先第2节所述局部可辨区域与病理特性标注词之间的关系显示了该问题可以很自然地放在多示例学习框架中进行解决.其次,即使建立一个以局部可辨区域作为输入、以标注词作为输出的单示例学习模型也不现实,这是因为在临床数据集中并没有局部可辨区域与标注词之间的直接对应关系.在临床诊断中,医生对整个病理图像进行分析后给出标注,但绝大多数情况下不会在诊断报告中明确指出哪个区域具有何种病理特性.我们通过观察和调研发现,医生更愿意认为是他们通过对图像整体分析而得出整图的病理特性标注,然后这些标注项由局部可辨区域的“征象”得到印证.我们相信深入分析医生的这种诊断思维将有助于建立更有效的特性标注模型,但显然已经超出了本文所讨论的范围.而本研究关注的是,标注词与局部区域之间的对应关系在诊断数据里面是被隐含的,正是由于这种隐含的关系,使得以区域作为训练和测试样本的单示例学习模型不适用于此问题.张 钢等:一种病理图像自动标注的机器学习方法2139基于以上分析,我们提出使用2种多示例学习模型作为病理特性标注模型,分别是多示例学习模型和多示例多标签学习模型[13].多示例学习模型适用于对单一标签二类分类的问题,而多示例多标签学习能同时判断样本是否含有多个标签.选择这2个模型构建病理特性标注模型的动机在于对医生标注活检图像过程的观察.在研究过程中注意到,病理实验室的医生倾向于认为标注是在综合分析了整图后再作出的最终判断.但在标注过程中我们观察到对于大部分的标注词,医生通过对局部可辨区域的分析就可以进行标注,与前述的假设基本一致.经过深入了解后发现,有经验的医生检查了病理图像后,在脑海中会对该病人所患疾病有个初步假设,根据该假设认为活检图像上应该会有哪些病理特性,然后在活检图像上寻找这些病理特性的“征象”.我们对这个过程中所蕴含的因果关系并不十分清晰,但可以知道在某些情况下标注词与特定的皮肤病关联,因而对一幅病理活检图像而言,其上面的标注词有可能不是完全独立,这正是本文采用多示例多标签学习的动机.对于普通的多示例单标签学习模型也进行评估,其目的是与多示例多标签学习模型进行比较,以验证上述对于医生诊断思维及标注词之间隐含关系假设的合理性.采用Citation-KNN[14]作为多示例学习模型,而对于多示例多标签学习,提出S-MIMLGP算法(sparse-multi instance multi label learning withGaussian process prior).Citation-KNN是一个经典的多示例学习模型,基于类似K 近邻的思想进行测试样本的类别识别.在Citation-KNN 模型中,确定一个测试样本的概念标记不仅通过它的K 个相邻的训练样本,同时也考虑把该样本看作近邻的训练样本的概念标记.在Citation-KNN 算法中,包的相邻关系并不是由欧氏距离所衡量,而是采用平均Hausdorff距离.Citation-KNN算法并不需要训练,但在测试时需要对整个训练数据集进行存储.形式上,设A 和B 是2个多示例样本,则它们之间的平均Hausdorff距离H 定义为H(A,B)=Σa∈Amin b∈Bd(a,b)+Σb∈Bmin a∈Ad(b,a)|A|+|B| .(2)  给定一个测试样本,找出与它距离最近的p 个训练样本,同时找出q 个以测试样本为近邻的训练样本,以这p+q 个样本的训练样本标记的多数作为测试样本的标记.Citation-KNN是一个简单但有效的多示例学习算法,其训练时间复杂度是O(1),每测试一个样本需要计算它与所有训练样本之间的H 距离,需要O(|Dtrain|)次计算.S-MIMLGP算法是对He等人[15]提出的基于高斯先验分布的MIML(multiple-instance multiplelabel)算法的一个SBL(sparse Bayesian learning)[16]扩展,简要描述如下.利用基于高斯先验分布的MIML算法构建一组基学习器G ={g1,g2,…,gm},该组学习器为MIML学习器,能够给出一个测试样本的每种标签的预测概率分布.在构建G 中每个学习器时需要给出基于高斯过程的先验分布矩阵KGP,而在He等人[15]的工作中该先验分布矩阵需要通过最大化边缘分布得到,并且仅是对最大化下界的估计.必须指出,KGP根据已有数据通过贝叶斯方法确定,其中并不包含关于目标问题的先验知识.我们提出用加权集成学习的方式解决GP-MIML学习器的先验分布的确定问题[17],即随机生成q份KGP先验分布矩阵,对应于q 个MIML学习器,由于这些学习器是贝叶斯学习器,输出每个标签的预测分布,因而能够使用SBL的方法确定其最优的权值组合.式(3)给出了组合学习器的表达形式:fens(X)=Σqi=1wifi(X). (3)  为每一个要权重wi加上一个ARD先验分布,有:wi~N(wi|0,α-1i ).通过最大化边缘分布的方法,在给定训练数据集D 的情况下确定αi,就可以得到对wi的有效估计,从而得到fens.由Tipping[18]给出的对上述问题的求解过程可知:一部分αi趋于无穷大,由于均值为0,使其对应的wi为0,从而得到了稀疏的集成学习模型.算法1展示了S-MIMLGP算法的主要步骤.算法1.S-MIMLGP算法.输入:基学习器数量q、训练数据集D;输出:加权组合权重w.① For i=1to q do②  随机产生KGP;③  gi=trainGPMIML(D,KGP);④  把gi加到G 上;⑤ End For⑥ 初始化w;⑦K={Ki|Ki=gi(D),i=1,2,…,q};⑧w=SBL(K,q);⑨ 返回G,w.2140 计算机研究与发展 2015,52(9)在算法1中,行①~⑤随机生成q份KGP,并训练q个MIML学习器;行⑥随机初始化w;行⑦计算G 中所有学习器在D 上的输出值并记录;行⑧使用标准的SBL算法迭代求解w.根据SBL和RVM理论,行⑧会使大部分w 趋向于0,可以得到一个稀疏的集成学习器.由于fi的输出为图像具有各个标签的预测概率,w 是一个标准的权重组合,因此fens的输出可以看作一个预测概率.根据fens的输出进行标注,对于某一标注词,若其对应的预测概率大于0.5,则进行标注,反之不进行标注.提出S-MIMLGP算法的动机主要有2个:1)对先验分布KGP的计算考虑,通过最大化边缘分布的方法进行计算需要较大的计算代价,且仅能得到一个接近下界的估计,直接对其进行计算并不现实;2)学习器构成的可扩展性考虑,本文希望把最终的学习器建立在集成学习的基础上,使有新的图像特征或其他诊断信息加入时可以使用集成学习的方式直接利用已有的结果.S-MIMLGP算法的时间复杂性与单独训练q个基学习器的阶数相同,这是由于SBL算法的时间复杂度低于训练单个MIML学习器的时间复杂度.行⑧的SBL在已有数值矩阵集合K 以及值不太大时可以较快收敛.具体的参数设置参见实验部分.4 实  验在一个由本地大型三甲医院皮肤科提供的病理图像数据集上对本文提出方法的有效性进行测试,同时实现文献[8]中的BOF方法和文献[15]中的基于高斯过程的多示例多标签学习方法(记为GPMIML)作为基准方法进行性能比较.BOF方法是一种基于全图特征提取表达的单示例学习样本构建方法.选择BOF方法作为基准方法之一的动机在于该方法被广泛用于病理图像分析研究中,且该文中的实验评估图像数据集的复杂程度与本文所用的图像类似,BOF方法采用标准的二分类SVM 作为学习器.选用GP-MIML作为基准方法之一的动机在于它与本文的S-MIMLGP算法均是基于贝叶斯学习的概率模型,而本文算法采用稀疏加权的方式降低对先验分布矩阵估计的计算复杂性,对两者进行标注准确率和运行时间上的比较,能够反映本文方法的有效程度.实验数据集中包含了从2010—2012年的2 315个病人的6 972幅皮肤患病部位活检图像,平均每个病人3幅.图像的放大倍数是40倍,大小为1536×2 048,24位真彩色.每个病人的图像都与一段由电子病历系统导出的文本形式的镜下诊断相关联,其中以标注词的形式标出了该病人图像所展现的病理特性.考虑15个标注词的标注:1-角化过度、2-角化不全、3-颗粒层消失、4-棘层肥厚、5-Munro微脓肿、6-痣细胞巢、7-基底层色素增加、8-淋巴细胞浸润、9-棘层变薄、10-基底细胞液化变性、11-角囊肿、12-颗粒层增厚、13-毛囊角栓、14-乳头瘤样增生、15-收缩间隙.通过对镜下诊断的文本匹配,对每一个病人生成一个15维的布尔向量,表示该病人的每一幅图像是否包含上述15个标注词.对于每幅图像,调用自适应的标准分割划分可辨区域,之后进行图像特征提取,其中离散小波变换的方块大小为8×8.对于BOF方法,采用调整大小后的图像作为算法输入,其他参数使用与文献[8]中同样的值.标准分割的区域大小像素限制和区域数目的上限分别设置为1500像素和15个,这2个参数是根据医学经验和区域的肉眼可辨程度得出的.由于标准分割的运算量比较大,且其分割区域与图像的像素精细度没有太大关系,因此把图像先缩小到150×200像素,然后进行标准分割,上述参数是对缩小后图像的限制.若每个划分的区域刚好达到像素下限,则缩小后的图像可以分割出20个区域,实际上这是不可能的,因为根据分割策略在一个区域有小于2×1500像素时就不会再被考虑分割,实际分割产生的区域平均数为12个.包含1500像素区域的平均大小为30×50,一般具有明显医学特征的区域不会小于这个尺寸,得到分割区域后把分割结果按比例放大到原图再进行特征提取.考虑到数据集规模较大,把2 315个病人以3∶7的比例划分为训练组和测试组,训练组病人的图像用于模型训练,测试组病人的所有图像用于评估模型的有效性,共进行10次随机划分,对于每次划分,重复运行10次模型的训练和预测,取这10次运行的平均值作为本次划分的结果,最后以10次划分的平均值和方差作为实验结果进行记录,以说明结果的显著性.对于Citation-KNN算法和BOF方法,分别为每一个标注词训练一个二分类的学习器,即学习器给出图像是否应该被标注对应的项.对于SMIMLGP算法,它输出的是每个标注词被标注的概率,为了转化为布尔类型的结果,输出概率大于0.5则标注该词,反之则不标注该词.3个模型的有效性张 钢等:一种病理图像自动标注的机器学习方法2141分别用单一标注词的正确率(见表1)和HammingLoss[13,19](见表2)进行评估,Hamming Loss指标的计算如式(4)所示:LHL(h,D)=1 nΣ ni=11L|h(Xi)∩Yi|, (4)其中,D 为测试数据集,Xi为其中的第i 个多示例样本,Yi为其对应的标签集合,L 为标签个数,h(Xi)为学习器h输出的标签集合.表1中列出了3个模型对所有病理特性词标注的正确率.对于Citation-KNN算法和BOF方法,每个病理特性词的标注都需要单独训练一个模型,因此其标注正确率由标注正确的图像数目除以总的测试样本个数得到;S-MIMLGP算法对于每一幅测试图像的输出是一个15维向量,通过对应分量的统计得到每一个标注词的标注正确率.在表1中加粗显示了每一个病理特性标注的最高正确率,可以看出,在大多数情况下,基于多示例学习的模型(Citation-KNN算法和S-MIMLGP算法)比BOF方法的正确率高,说明了多示例学习框架在病理图像标注问题上的有效性;Citation-KNN 算法与S-MIMLGP算法的模型对于不同的标注词的有效性并不完全相同,在较多的情况下S-MIMLGP 算法表现优于Citation-KNN算法,说明在多数情况下,考虑标注词之间的联系对学习器的有效性有正面作用,多示例多标签学习模型可以有效利用这种关联.另一方面,对于某些标注词(如1,4,12),多示例单标记学习模型(Citation-KNN)的正确率比较高,即把这些标注词单独进行标注比与其他标注词在一个模型里面进行标注得到的正确率更高.我们认为这可能是由于这些标注词比较独立,与其他标注词的关联性不强引起的,可以通过医学经验把一些独立性较强的标注词放在多示例单标签模型中进行标注.Table 1 Comparison of Per Annotation Term Accuracy and Its Variance表1 单一标注词标注正确率和方差的比较No.Citation-KNN BOF S-MIMLGP GP-MIMLAccuracy?% Variance Accuracy?% Variance Accuracy?% Variance Accuracy?% Variance1 76.2 0.011 71.5 0.014 74.3 0.021 75.4 0.0222 79.7 0.021 76.9 0.016 83.5 0.020 82.1 0.0233 73.4 0.042 75.1 0.021 76.1 0.039 76.2 0.0424 71.3 0.021 66.8 0.014 70.5 0.019 70.9 0.0225 74.9 0.017 72.6 0.017 78.2 0.024 76.5 0.0196 78.3 0.026 75.3 0.019 79.9 0.026 77.0 0.0297 75.1 0.031 73.7 0.030 75.8 0.034 74.2 0.0418 69.6 0.032 67.0 0.029 72.5 0.029 71.6 0.0309 80.4 0.016 75.1 0.011 82.4 0.012 80.5 0.01610 74.2 0.009 73.4 0.008 76.5 0.011 72.3 0.01711 70.3 0.017 68.2 0.008 73.1 0.014 69.9 0.01812 70.2 0.006 70.0 0.009 70.0 0.010 71.2 0.01113 69.9 0.015 67.7 0.010 71.7 0.014 71.6 0.02014 70.3 0.013 71.2 0.017 74.0 0.012 71.0 0.01915 78.1 0.011 73.5 0.018 75.9 0.020 78.9 0.023  表2中的Hamming Loss是一种多标签学习中常使用的正确性度量,它衡量学习器的输出标签与真实标签之间的Hamming距离,给出对整个标注词集的标注正确率.从表2可以看出,S-MIMLGPTable 2 Comparison of Hamming Loss and Variance between Models表2 模型的Hamming Loss和方差比较Citation-KNN BOF S-MIMLGP GP-MIMLAccuracy?% Variance Accuracy?% Variance Accuracy?% Variance Accuracy?% Variance73.4 0.018 70.5 0.015 79.9 0.024 78.2 0.0272142 计算机研究与发展 2015,52(9)算法的表现较优.需要说明的是,由于Citation-KNN算法以及BOF方法所采用的学习器并不是一种多标签学习器,我们以它们分别在每一个标注词上的输出作为一个多标签输出向量,从而可以在同一个指标(Hamming Loss)下比较4种方法对多标签分类的正确率.从表1和表2可以看出,GP-MIML与S-MIMLGP算法的表现比较接近,这是由于4种算法均基于贝叶斯学习且引入了基于高斯过程的先验分布;但GP-MIML学习器需要计算一个优化问题,寻找使边缘分布最大化的先验分布矩阵,计算复杂度较高,对于一些大型的数据集甚至是不能计算的.SMIMLGP算法通过稀疏加权的方式避免了对先验分布矩阵的直接计算.下面给出在同一台测试计算机上2个算法各个步骤的运行时间.对于S-MIMLGP算法,50个基学习器,随机生成先验分布矩阵用时0.05s,训练基学习器(已提取图像特征)用时35.2s,用RVM 寻找稀疏加权用时23.5s,最终平均得到10个学习器被加权,测试一个样本用时1.1s;对于GP-MIML学习器,求最优先验分布矩阵用时255.8s,训练学习器用时1.9s,测试一个样本用时0.3s.可以看出,SMIMLGP算法避免对先验分布矩阵的直接计算,可以提高算法运行的效率.为了进一步说明本文的区域划分方法的有效性,下面比较本文提出的病理图像可辨区域划分方法与另外两种划分方法的效果.本部分的评估进行如下的设置,根据划分及其相应的特征提取方法的不同设置3个数据集D1,D2,D3.其中数据集D1采用本文所提出的分割和特征提取方法;D2为把图像分为大小相等的方格,把方格作为示例.为了对比方便,在数据集D2上采用文献[9]的方法,每一个方格用SIFT特征提取方法,使用MIMLSVM 算法构建多示例多标签学习器模型.D3为基于聚类的区域划分方法,最早是由Chen等人[20]在解决图像分类的问题时提出的.由这3种划分方法得到区域的含义有显著区别.D1的示例是连续的可辨区域;D2完全不考虑视觉特征,其示例为等大小的方格;D3中的示例是对全图像素特征向量进行聚类后得到的簇,但簇中像素并非是连续的,也就是说这里的区域与人眼看到的局部区域的含义是不同的,D3中的区域应该是相似像素的集合.我们在这些不同分割方法产生的数据集上评估S-MIMLGP算法有效性并以MIMLSVM 算法进行对比,其中MIMLSVM 算法为一个多示例多标签学习算法,在文献[9]中使用了MIMLSVM 算法的一个改进版本以及数据集D2的生成算法进行测试.D2的生成参数同文献[9],D3的生成参数同文献[20],其他实验参数同之前的实验相一致.图6给出了不同分割方式下2个算法的正确率(以Hamming Loss为评估指标). Fig.6 Model effectiveness comparison betweendifferent region segmentation methods.图6 不同区域划分方法下的算法有效性比较图6中的横轴为数据集的标号,纵轴是HammingLoss的评价指标,数值越大代表算法对所有标注词的标注效果越好,与表2一致.从图6可以看出2点:1)2个MIML算法在数据集D1的效果比在其他2个数据集上好,说明本文的分割方法在MIML框架中较以往的有效;2)在3个数据集中S-MIMLGP算法的效果都比MIMLSVM 算法要好,我们把这种效果的提升归结于概率模型及先验知识的有效表达.5 结  论本文提出了在多示例学习框架中对皮肤病理图像进行自动标注的方法框架,对医生的诊断思维进行直接建模,采用标准分割划分视觉可辨区域,把病理图像转化为多示例样本.在区域特征提取上,本文从医生的诊断经验出发,使用基于纹理和内部可辨结构的特征提取方法.在多示例单标签与多示例多标签学习框架中进行建模,实验结果表明,与医生诊断过程较为一致的方法比以往组织病理学中常用的方法更有效,考虑标签间关联的多示例多标签学习器在大多数情况下有更好的性能.本文的工作可以推广到病理图像医学分析的其他领域,同时也可以发展为组织病理学的图像分析和图像理解的一个新方法.张 钢等:一种病理图像自动标注的机器学习方法2143参考文献[1] Basra M K,Shahrukh M.Burden of skin diseases [J].Expert Review of Pharmacoeconomics Outcomes Research,2009,9(3):271-283[2] Cerroni L,Argenyi Z,Cerio R,et al.Influence of evaluationof clinical pictures on the histopathologic diagnosis ofinflammatory skin disorders[J].Journal of the AmericanAcademy of Dermatology,2010,63(4):647-652[3] Fogelberg A,Ioffreda M,Helm K F.The utility of digitalclinical photographs in dermatopathology [J].Journal ofCutaneous Medicine and Surgery,2004,8(2):116-121[4] Gurcan M N, Boucheron L E, Can A, et al.Histopathological image analysis: A review [J].IEEEReviews in Biomedical Engineering,2009,2:147-171[5] Shi J,Malik J.Normalized cuts and image segmentation[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2000,22(8):888-905[6] Dietterich T G,Lathrop R H,Lozano-P'erez T.Solving themultiple-instance problem with axis-parallel rectangles[J].Artificial Intelligence,1997,89(1?2):31-71[7] Bunte K,Biehl M,Jonkman M F,et al.Learning effectivecolor features for content based image retrieval indermatology[J].Pattern Recognition,2011,44(9):1892-1902[8] Angel C,Juan C C,Fabio A G.Visual pattern mining inhistology image collections using bag of features[J].JournalArtificial Intelligence in Medicine,2011,52(2):91-106[9] Li Yingxin,Ji Shuiwang,Kumar S,et al.Drosophila geneexpression pattern annotation through multi-instance multilabel learning [J].IEEE?ACM Trans on ComputationalBiology and Bioinformatics,2012,9(1):98-112[10] Lowe D G.Distinctive image features from scale-invariantkeypoints[J].International Journal of Computer Vision,2004,60(2):91-110[11] Golub G H,Van L C F. Matrix Computations [M].Baltimore,MD:Johns Hopkins University Press,1989:601-634[12] Zhang Gang,Shu Xiangyang,Liang Zhaohui,et al.Multiinstance learning for skin biopsy image features recognition[C]??Proc of the 2012IEEE Int Conf on Bioinformatics andBiomedicine.Los Alamitos,CA:IEEE Computer Society,2012:83-88[13] Zhou Zhihua,Zhang Minling,Huang Shengjun,et al.Multiinstance multi-label learning [J]. Artificial Intelligence,2012,176(1):2291-2320[14] Wang Jun,Zucker J D.Solving the multiple-instanceproblem:A lazy learning approach[C]??Proc the 17th IntConf on Machine Learning.San Francisco,CA:MorganKaufmann,2000:1119-1126[15] He Jianjun,Gu Hong, Wang Zhelong.Bayesian multiinstance multi-label learning using Gaussian process prior[J].Machine Learning,2012,88(2):273-295[16] Bishop C M.Pattern Recognition and Machine Learning[M].Berlin:Springer,2006:256-310[17] Zhang Gang,Su Xiangyang,Huang Yongjing,et al.Asparse Bayesian multi-instance multi-label model for skinbiopsy image analysis[C]??Proc of the 5th IEEE Int Conf onBioinformatics and Biomedicine.Piscataway,NJ:IEEE,2013:261-266[18] Tipping M E.Sparse Bayesian learning and the relevancevector machine[J].Journal of Machine Learning Research,2001,1(Jun):211-244[19] Zhang Minling. An Improved multi-label lazy learningapproach [J]. Journal of Computer Research andDevelopment,2012,49(11):2271-2282(in Chinese)(张敏灵.一种新型多标记懒惰学习算法[J].计算机研究与发展,2012,49(11):2271-2282)[20] Chen Yixin,Wang J Z.Image categorization by learning andreasoning with regions [J].Journal of Machine LearningResearch,2004,5(Aug):913-939Zhang Gang,born in 1979.PhD andlecturer in the Guangdong University ofTechnology.Member of China ComputerFederation.His main research interestsinclude data mining,machine learning andbioinformatics.Zhong Ling,born in 1978.PhD andlecturer in the Guangdong University ofTechnology.His research interests includenonlinear image and video processing,machine learning and computer vision.Huang Yonghui,born in 1975.PhD andlecturer in the Guangdong University ofTechnology.Her main research interestsinclude machine learning,image processingand pattern recognition.2144 计算机研究与发展 2015,52(9)

[返回]
上一篇:一种基于多尺度轮廓点空间关系特征的形状匹配方法
下一篇:我国未来生产率提升潜力 与经济增长前景