简介:以卷积神经网络为代表的深度学习算法在医学影像分析领域正引起广泛美注,并取得了令人惊叹的进步。为了进一步提高卷积神经网络在计算机辅助筛查肺结节应用的准确率,本文设计了2种改良的深度卷积神经网络,这些改进加快了神经网络的训练速度.有效地防止了算法的过拟合。相比只采用二维卷积核的其他检测模型,该模型能够有效地学习到CT影像三维重建后的图像特征。通过实验,改进的检测模型在LUNAl6数据集上的准确率明显好于其他模型,这种网络结构也可用于医学影像领域中其他三维图像的检测场景。最后,构建了一套适用于远程医疗的“计算机辅助肺癌筛查与诊断系统”,该系统能够自动检测出CT影像中肺结节,并给出结节的良恶性概率评估。通过该系统的应用,可以有效缓解放射科医生超高的劳动强度,提高阀片效率,服务更多患者;减少漏诊和误诊发生的次数,有助于提高肺结节的诊断准确率;从而促进我国肺癌早筛工作的推广。
简介:摘要目的基于深度卷积神经网络(DCNN)方法自动测量彩色眼底像上全局和局部豹纹分布密度。方法应用研究。将2021年5~ 7月于山东第一医科大学附属青岛眼科医院北部院区行近视手术的患者514例1 028只眼的1 005张彩色眼底像建立人工智能(AI)数据库。采用RGB颜色通道重标定方法(CCR算法)、基于Lab颜色空间的CLAHE算法、多重迭代照度估计的Retinex算法、具有色彩保护的多尺度Retinex算法对图像进行预处理。对比观察上述4种图像增强方法以及使用Dice损失、边缘重叠率损失和中心线损失对豹纹分割模型效果的影响。建立眼底豹纹分割模型识别全图范围内豹纹结构区域;构建眼底组织结构检测模型用于视盘及黄斑中心凹定位。计算视野范围内后极部豹纹密度(FTD )、黄斑区豹纹密度(MTD)、视盘区豹纹密度(PTD )。结果应用CCR算法图像预处理和训练损失组合后,豹纹分割模型的Dice系数、准确率、灵敏度、特异性、约登指数分别达到0.723 4、94.25%、74.03%、96.00%和70.03%。模型自动测量的FTD、MTD、PTD值与人工标注测量值平均绝对误差分别为0.014 3、0.020 7、0.026 7,均方根误差则分别为0.017 8、0.032 3、0.036 5。结论基于DCNN分割和检测方法能自动测量近视患者眼底全局和局部区域的豹纹分布密度,可以更准确地辅助临床监测和评估眼底豹纹改变对近视发展的影响。
简介:摘要:森林资源评估对于准确掌握森林资源现状和变化,森林可持续经营、森林有序利用意义重大。随着遥感数据资源不断丰富,对遥感影像处理方法越来越先进和完善。遥感影像评价正逐渐取代传统调查方法,成为评估森林资源现有状态和变化的重要工具。本文基于无人机调查影像图,通过专家进行预先评估,建立标注数据,构建和训练了深度卷积神经网络森林资源评价模型。经过实验测试和验证,其准确率达到90.2%,召回率也达到82.8%。对比了传统的评价方法,论文提出的基于深度卷积神经网络的评价方法更加客观、准确,更加有效且符合实际。
简介:摘要目的通过深度卷积神经网络(convolutional neural network,CNN)技术实现胃病变内镜图像的快速、准确人工智能辅助诊断。方法收集2012—2018年北京大学人民医院1 121例胃病变的普通白光内镜图像和病理结果。胃病变图像包括消化性溃疡、早期胃癌及高级别上皮内瘤变、进展期胃癌、胃黏膜下肿瘤共4类,另外还包括无病变正常胃黏膜图像。共17 217张图像作为训练集,使用CNN ResNet-34模型训练分类任务,使用全CNN DeepLabv3模型训练像素分割任务。经过训练后的CNN通过一个测试集评估诊断效能,测试集包括237例胃病变,共1 091张普通内镜图像。计算CNN诊断的准确率、敏感度、特异度、阳性预测值、阴性预测值。结果CNN对于早期胃癌及高级别上皮内瘤变的诊断准确率为78.6%(33/42),敏感度为84.4%(27/32),特异度为60.0%(6/10),阳性预测值87.1%(27/31),阴性预测值54.5%(6/11);对于消化性溃疡的诊断准确率为90.4%(47/52),敏感度为92.7%(38/41),特异度为81.8%(9/11);对于进展期胃癌的诊断准确率为88.1%(52/59),敏感度为91.8%(45/49),特异度为70.0%(7/10);对于胃黏膜下肿瘤的诊断准确率为86.0%(43/50),敏感度为89.7%(35/39),特异度为72.7%(8/11)。所有测试集图像识别时间为42 s。结论CNN可以作为早期胃癌及其他胃病变内镜图像的快速辅助识别方法,识别速度快,准确率高。