基于自动像素级标注和ABCD特征的植物病害严重度估计算法研究

《Computers and Electronics in Agriculture》:Automatic pixel-level annotation for plant disease severity estimation

【字体: 时间:2025年12月17日 来源:Computers and Electronics in Agriculture 8.9

编辑推荐:

  本研究针对植物病害严重度估计中像素级标注成本高的问题,提出了一种结合视觉Transformer(ViT)自动标注、轻量级显著目标检测(SOD)和ABCD特征融合的新方法。在咖啡病害数据集上,该方法严重度分类准确率达82%以上,为精准农业提供了高效、低成本的解决方案。

  
植物病害是威胁全球粮食安全和农业生产可持续性的主要因素之一。由真菌、细菌或病毒引起的病害不仅降低作物产量,还严重影响农产品质量。传统的病害严重度评估主要依赖农业专家的肉眼观察和经验判断,这种方法不仅主观性强、效率低下,而且难以在大规模农场中推广应用。随着精准农业和智慧农业的发展,利用人工智能(AI)技术,特别是深度学习(DL)方法,进行自动化、客观的植物病害监测和严重度评估,已成为一个重要的研究方向。
然而,开发高效的深度学习模型面临一个主要瓶颈:训练模型需要大量带有像素级标注的数据集,而手动进行像素级标注(即对图像中每个像素点属于病害区域还是健康区域进行标记)是一项极其耗时、费力且需要专业知识的任务。这种数据标注的困难严重制约了基于语义分割的病害严重度估计方法的发展。为了解决这一问题,研究人员开始探索弱监督语义分割(WSSS)方法,这类方法仅使用图像级标签(例如,整张图片是否含有病害)来生成像素级的伪标签,从而减轻标注负担。
在此背景下,发表在《Computers and Electronics in Agriculture》上的研究论文《Automatic pixel-level annotation for plant disease severity estimation》提出了一种创新的解决方案。该研究由Masoud Rezaei、Dean Diepeveen、Hamid Laga和Ferdous Sohel合作完成,旨在开发一个集自动标注、病灶分割和特征融合于一体的植物病害严重度估计管道,以克服数据标注的难题并提高估计的准确性和效率。
为了开展研究,作者主要运用了几项关键技术:首先,利用预训练的视觉Transformer(ViT)结合梯度加权类激活映射(Grad-CAM)技术,对大麦叶部病害图像进行自动像素级标注,生成用于训练分割模型的伪标签。其次,采用两种先进的轻量级显著目标检测(SOD)模型——MEANet和SeaNet,分别进行病害病斑(病灶)和叶片本体的分割,这些模型基于MobileNetV2编码器,兼顾了精度与计算效率。然后,研究创新性地将从皮肤病损分析中借鉴的ABCD规则(不对称性Asymmetry、边界不规则性Border irregularity、颜色变化Colour variance、直径Diameter)与灰度共生矩阵(GLCM)提取的纹理特征相结合,构建了一个综合特征向量用于严重度分类。最后,使用机器学习(如SVM、随机森林)和深度学习(特征融合网络)方法对咖啡病害数据集进行严重度等级分类。研究所用的大麦图像数据采集自澳大利亚西澳大利亚州的田间试验田,咖啡数据集则来自公开资源。
3. Materials and methods
研究管道主要包括数据采集、自动像素标注、病斑和叶片分割、特征提取以及严重度分类几个核心步骤。数据采集使用RGB传感器在田间获取大麦网斑病(NFNB和SFNB)的图像。自动像素标注环节,利用在病害分类任务上预训练的ViT模型提取特征图,并通过Grad-CAM生成显著图,再经过阈值处理得到二值化的病斑伪标签。病斑分割阶段,使用轻量级SOD模型(MEANet和SeaNet)在生成的伪标签上进行训练,以定位和分割病害区域。叶片分割则针对不同数据集采用了不同策略:对于背景简单的咖啡图像,使用分水岭算法;对于复杂的田间大麦图像,同样训练了SOD模型进行分割。特征提取部分颇具创新性,除了常规的GLCM纹理特征外,首次将用于皮肤癌检测的ABCD特征引入植物病害分析,计算病斑的不对称性、边界不规则性、颜色方差和等效直径等形态学特征,并与纹理特征和病害严重度指数(DSI)融合成特征向量。最后,基于这些特征,采用多种分类器对病害严重度进行等级划分。
4. Results
4.1. Lesion segmentation
在病斑分割任务中,MEANet和SeaNet在两个自动生成的伪标签数据集(Br50和Br70)上进行了评估。定量结果显示,MEANet在Br70数据集上取得了最佳性能,E-measure(Eξ)达到0.8932,S-measure(Sm)为0.7257,F-measure(Fβ)为0.6149。在具有专家标注的咖啡数据集上测试时,MEANet同样优于SeaNet(Eξ: 0.8749, Fβ: 0.6159)。定性分析(图8-11)表明,即使在某些伪标签存在误差的情况下,训练好的SOD模型仍能较好地分割出大麦、小麦、水稻和咖啡图像中的暗褐色病斑,展示了模型的鲁棒性和泛化能力。
4.2. Leaf segmentation
叶片分割方面,在具有真实标注的大麦数据集上,MEANet再次表现更优(Eξ: 0.9530, Fβ: 0.9594)。对于咖啡数据集,简单的分水岭算法结合饱和度掩膜和阴影去除(ShadowRefiner)后处理步骤,取得了极高的分割精度(Eξ: 0.9942, Fβ: 0.9924),说明对于背景干净的图像,传统图像处理方法是高效且准确的。
4.3. Severity classification
严重度分类实验在咖啡数据集上进行。结果表明,仅使用ABCD和GLCM等统计特征(SF)的机器学习方法中,支持向量机(SVM)表现最佳,准确率(ACC)达80.95%,F1-score为60.14%。而将精选的5个统计特征(FF5,包括DSI、等效直径、同质性、紧凑性指数和病斑相关性)与基线深度学习模型(仅使用视觉样本VS)进行特征融合后,分类性能得到进一步提升,准确率达到82.24%,F1-score提升至64.77%,显著高于基线模型(55.50%)。混淆矩阵(图16)显示,特征融合方法(Baseline+FF5)在对样本较少的严重度类别(如“非常高”)的分类上有所改善,表明融合特征有助于模型更好地识别不同严重度等级。
5. Discussion
本研究成功地将弱监督学习策略应用于植物病害严重度估计。通过ViT和Grad-CAM实现的自动像素级标注,有效缓解了深度学习对大量人工标注数据的依赖。轻量级SOD模型MEANet和SeaNet在病斑分割任务中表现出色,其低计算成本使其非常适合资源受限的田间部署环境。最大的创新点在于将皮肤病损分析的ABCD特征体系引入植物病害分析,并与GLCM纹理特征融合。实验结果证明,这些形态学和纹理特征对于区分病害严重度等级具有显著的判别能力。特征融合网络(Baseline+FF5)性能的提升说明,统计特征能够补充深度学习模型从图像中学习到的视觉特征,特别是对于样本不平衡的数据集,能改善对少数类别的识别。
该研究的意义在于为精准农业中的植物病害管理提供了实用工具。通过自动、快速、客观地估计病害严重度,农民可以更精准地决策农药施用的时机和剂量,避免过量使用造成的环境污染和资源浪费,同时确保病害得到有效控制。该方法有望集成到田间监测系统中,实现病害的早期发现和严重度动态追踪,对于保障粮食安全、推动农业可持续发展具有重要价值。
研究的局限性主要在于伪标签的质量依赖于初始分类模型的性能,可能存在信息瓶颈,导致标注不够精确。未来工作可以探索更先进的WSSS方法来生成更高质量的伪标签,并进一步验证ABCD特征在不同作物和病害类型上的普适性。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号