答辩博士:孙经纬
指导老师:周 俊教授
论文题目:面向水稻联合收获机自主作业的作物信息感知与作业速度调控研究
答辩委员会:
主席:
何瑞银 教授/博导 南京农业大学
委员:
赵 湛 研究员/博导江苏大学
蔡国芳 研究员江苏省农机具开发应用中心
陈坤杰 教授/博导 南京农业大学
郑恩来 教授/博导 南京农业大学
秘书:
顾宝兴 南京农业大学
答辩时间:2025年5月24日14:00
答辩地点:滨江校区工学院B442
论文简介:
作物信息感知与作业速度调控是水稻联合收获机智能化等级的体现,也是其自主作业和大田无人农场建设的重要技术环节。目前,配备自动导航系统的水稻联合收获机常采用固定作业参数(离线反复调试),缺少作物信息感知和作业速度预测及调控能力。为保证作业质量,避免堵塞和机械故障,甚至采取低速、半割幅策略,作业自主性差。然而,受耕种方式、水肥管理等诸多因素的影响,不同稻田的作物信息(长势)存在时空差异。因此,面对作物信息差异,如何提高收获机的感知-调控能力和作业自主性,俨然成为其智能化和无人化升级的关键难题。
针对上述问题,本文围绕提升水稻联合收获机感知-调控能力和作业自主性,开展了收获机水稻倒伏检测、收获幅宽和水稻株高测量、水稻密度评估、水稻籽粒含水率在线检测和收获机作业速度自主调控研究,分别进行了算法与模型开发、控制系统平台搭建和田间试验,主要研究内容如下:
1.开发了基于改进DeepLabv3+的水稻联合收获机倒伏检测算法。搭建了水稻联合收获机图像采集系统,采集、制作了包含1690张图像的水稻重度倒伏数据集。分析水稻倒伏特点,基于DeepLabv3+构建了轻量化的水稻重度倒伏检测模型:RL-DeepLabv3+,设计了轻量化的主干网络,引入注意力机制并优化损失函数。模型训练和测试结果显示,RL-DeepLabv3+在不同环境条件下可有效进行水稻重度倒伏检测,模型的平均像素准确率(Mean Pixel Accuracy,mPA)和平均交并比(Mean Intersection over Union,mIoU)分别为94.73%和90.52%,均高于对比模型(DABNet、ENet、PSPNet-MobileNetV2、LiteSeg-ShuffleNet和UNet)。当图像分辨率为640×480和1280×720时,模型在车载工控机的推理速度为50 FPS和21 FPS。该模型倒伏检测精度高,模型权重文件小,应用部署简单,可为水稻联合收获机提供重度倒伏预警,降低倒伏碾压和漏收损失。
2.提出了基于RGB-D图像的水稻联合收获机收获幅宽和株高测量方法。收获幅宽和株高测量的关键是作物分割和立体视觉匹配。基于收获机实际收获场景构建了包含1800张图像的水稻未收获区域数据集,开发了水稻未收获区域分割模型(UANet)。在RGB图像上实现了水稻未收获区域分割和收获边界点提取,基于相机安装位置和收获机姿态变化,构建了动态坐标系统变换模型。结合收获边界点的深度值进行坐标变换,获得其三维世界坐标,根据空间位置关系实现收获幅宽测量。同样地,可获得未收获水稻的三维世界坐标,对其高度数据进行降采样、聚类和滤波后可实现株高测量。试验结果显示,UANet模型的mPA和mIoU分别为98.28%和97.15%。收获边界点的提取成功率为98.33%。静态试验中,幅宽测量误差在3.40%以内,株高测量误差在5.40%以内。动态试验中,幅宽测量误差在4.70%以内,标准差在40 mm以内。株高测量误差在6.30%以内,标准差在30 mm以内;算法速度为5 FPS。该方法能适应复杂的收获场景,具有良好的鲁棒性,为水稻联合收获机速度自主调控提供关键信息,可推广应用于小麦联合收获机。
3.提出了一种基于改进YOLOv5的水稻联合收获机作物密度评估方法。利用单位面积内的视觉稻穗数量来评估水稻密度。在实际收获场景下,采集、制作了包含1668张水稻图像,49937个稻穗的数据集。通过改进YOLOv5开发了收获机稻穗轻量化检测模型:RP-YOLO,具体内容涉及C3(Cross Stage Partial Darknet53)模块、下采样模块、注意力机制和损失函数的优化与改进。基于动态坐标系统变换并结合收获幅宽和水稻株高,将检测框4个顶点的世界坐标变换为像素坐标,利用RP-YOLO实现检测框内的稻穗检测与计数,实现水稻密度计算。试验结果显示,与原始模型(YOLOv5n)相比,RP-YOLO减少了33.33%的浮点运算量,权重文件大小减少了31.90%,推理速度提高了12.63%,平均精度(AP0.5为86.9%)提高了3.82%(AP0.5:0.95为50.7%,提高了6.96%)。与轻量级YOLO模型和非轻量级模型相比,在平均精度和推理速度方面均具有一定优势。田间静态试验中,密度检测结果与人工计数的误差小于9%。动态试验中,水稻密检测结果波动较小,在2块不同长势的稻田中密度标准差分别为5.99株/m2和7.89株/m2。收获机满幅宽时,检测框的像素范围约为2560×1280像素,检测速度达15 FPS。该方法可为水稻联合收获机喂入量监测和作业速度调控提供数据支持。
4.开发了基于介电特性的水稻联合收获机籽粒含水率在线检测方法和装置。根据履带式中小型联合收获机的特点和需求,基于“半主动取样、主动弃样”原则设计了结构简单、紧凑的“电容式”籽粒含水率检测装置。选取平板电容为敏感元件,进行电容极板尺寸优化。基于STM32主控芯片设计了系统硬件电路,利用C和Python语言编写了系统软件算法。通过标定试验,构建了基于电容和温度的水稻籽粒含水率二元二次模型。室内试验结果显示,传感器相对误差范围为[-3.54%,2.97%]。田间试验结果显示,不同田块间含水率检测结果的变化趋势明显,同一块稻田的测量标准差为0.23%,平均绝对偏差0.18%,测量稳定性较好,可用于水稻联合收获机籽粒含水率在线检测,为收获机作业速度调控提供数据支持。
5.提出了一种基于多源信息和数据扩增的水稻联合收获机作业速度自主调控方法。搭建了水稻联合收获机作业速度自主调控平台。为解决农业机械小样本数据难题,提出基于生成对抗网络(Generative Adversarial Networks,GAN)的多变量序列数据生成方法,实现数据扩增。构建了基于作物信息(收获幅宽、水稻株高、密度和籽粒含水率)数据驱动的“端到端”速度预测模型(随机森林模型)。通过卡尔曼滤波进行速度平滑,基于收获机运动特性、滚筒转速阈值及作物倒伏信息进行目标速度优化,基于增量PID实现速度调控。模型测试结果显示,数据扩增后速度预测模型的R²由0.7579提高至0.8696,MSE由0.0609下降至0.0466,优于其他对比模型(集成学习、决策树、K最近邻和支持向量回归),说明GAN数据生成对收获机作业速度预测任务具有积极作用。田间试验结果显示,在2块不同长势的稻田中,速度自主调控系统输出的目标速度标准差分别为0.20 km/h和0.16 km/h,实际跟踪速度标准差分别为0.26 km/h和0.18 km/h,未出现堵塞和明显的“闯动”现象且水稻损失符合标准(Y/T498-2013),这说明速度调控系统运行稳定。该研究可为水稻联合收获机速度自主调控提供一种方案,提高其作业自主性,为水稻全程无人化收获提供参考和技术支持。
本文创新点如下:
1.针对激光雷达硬件成本高、数据运算量大,基于颜色和纹理的图像分割鲁棒性差,提出基于RGB-D图像的水稻联合收获机收获幅宽和作物株高测量方法。在RGB图像基于语义分割算法(UANet)实现水稻分割,基于深度信息和动态坐标系统变换模型实现二维平面与三维世界坐标的匹配。相较于点云分割、传统图像分割和三维立体测量方案,该方法有效降低了算法计算量,提高了算法鲁棒性,可为水稻联合收获机自主作业速度调控提供数据支持。
2.收获机视角下,稻穗、稻叶相互遮挡,稻穗或水稻植株的实际数量难以获取。本文提出利用单位面积内的视觉稻穗数量来评估水稻密度,开发基于改进YOLOv5的水稻联合收获机作物密度评估方法。由于通用深度学习模型存在参数冗余问题,开发了轻量化稻穗检测模型:RP-YOLO,基于动态坐标系统变换并结合收获幅宽和水稻株高,将检测框4个顶点的世界坐标变换为像素坐标,利用RP-YOLO获得检测框中的稻穗数量,实现水稻密度评估。使用视觉稻穗数量估计水稻密度比依赖实际稻穗或植株数量更合理,更符合人工视觉感知,可为水稻联合收获机速度预测提供数据支持。
3.为摆脱基于部件转速、扭矩、机器负载和喂入量等传统速度预测模型的高延迟和误差大缺陷。搭建了水稻联合收获机作业速度自主调控平台,提出基于作物信息(收获幅宽、水稻株高、密度和籽粒含水率)数据驱动的“端到端”速度预测模型。针对农业机械样本数据采集的客观限制,提出一种基于生成对抗网络的多变量序列数据生成方法,实现数据扩增。根据收获机大惯性、高时滞的特点,制定目标作业速度优化策略,结合倒伏检测进行重度倒伏预警,基于增量PID实现作业速度控制。该研究提高了水稻联合收获机的作业自主性,可为水稻全程无人化收获提供参考和技术支持。