• EI
    • CSA
    • CABI
    • 卓越期刊
    • CA
    • Scopus
    • CSCD
    • 核心期刊

融合CLAHE-SV增强Lab颜色特征的水稻覆盖度提取

李金朋, 冯帅, 杨鑫, 李光明, 赵冬雪, 于丰华, 许童羽

李金朋,冯帅,杨鑫,等. 融合CLAHE-SV增强Lab颜色特征的水稻覆盖度提取[J]. 农业工程学报,2023,39(24):195-206. DOI: 10.11975/j.issn.1002-6819.202305119
引用本文: 李金朋,冯帅,杨鑫,等. 融合CLAHE-SV增强Lab颜色特征的水稻覆盖度提取[J]. 农业工程学报,2023,39(24):195-206. DOI: 10.11975/j.issn.1002-6819.202305119
LI Jinpeng, FENG Shuai, YANG Xin, et al. Unsupervised extraction of rice coverage with incorporating CLAHE-SV enhanced Lab color features[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2023, 39(24): 195-206. DOI: 10.11975/j.issn.1002-6819.202305119
Citation: LI Jinpeng, FENG Shuai, YANG Xin, et al. Unsupervised extraction of rice coverage with incorporating CLAHE-SV enhanced Lab color features[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2023, 39(24): 195-206. DOI: 10.11975/j.issn.1002-6819.202305119

融合CLAHE-SV增强Lab颜色特征的水稻覆盖度提取

基金项目: 辽宁省科技厅应用基础研究计划项目(2023JH2/101300120);国家自然科学基金青年项目(32201652)
详细信息
    作者简介:

    李金朋,博士生,研究方向为农业信息化技术。Email:ljp@stu.syau.edu.cn

    通讯作者:

    许童羽,教授,博士生导师,研究方向为精准农业、智慧农业。Email:xutongyu@syau.edu.cn

  • 中图分类号: S127

Unsupervised extraction of rice coverage with incorporating CLAHE-SV enhanced Lab color features

  • 摘要:

    为解决由于阈值不确定和光照强度不稳定所造成的植被覆盖度提取效果不理想的问题,该研究提出一种融合CLAHE-SV(contrast limited adaptive histogram equalization-saturation value)增强Lab颜色空间特征的高斯混合模型聚类算法。以分蘖后期的水稻为对象,利用无人机获取2、3、4和5 m高度下的水稻可见光图像,采用限制对比度自适应直方图均衡化算法(contrast limited adaptive histogram equalization,CLAHE)对HSV颜色空间中饱和度(S)和亮度(V)分量进行增强,并在此基础上应用高斯混合模型(gaussian mixture model,GMM)结合Lab颜色空间的a分量分割图像背景和提取水稻覆盖度,并与GMM-RGB、GMM-HSV、GMM-Lab进行对比分析。结果表明,基于a分量构建的GMM-CLAHE-SV-a与GMM-a模型在不同高度图像中的分割效果均优于RGB、HSV、Lab,其中GMM-CLAHE-SV-a精度最佳。相比于GMM-a,在高度为2 、3 、4 和5 m时GMM-CLAHE-SV-a的总体分割精度均值分别提高了2.16、1.01、1.03和1.26个百分点,Kappa系数均值分别提高了0.0414、0.0173、0.0190和0.0221;覆盖度的平均提取误差分别降低了8.75、7.01、5.93和5.34个百分点,决定系数R2分别提高了0.0960、0.0502、0.0622和0.1906,较好地降低了光强和倒影的影响。与已有方法相比,该算法无需标记训练集或计算阈值,可直接对无人机图像进行处理,具有较高的普适性,可以在复杂的大田环境下快速分割水稻像素并提取植被覆盖度信息。

    Abstract:

    Fractional vegetation cover (FVC) is an essential agronomic index. Quick and accurate acquisition of coverage is very important for the real-time monitoring of crop growth status in breeding and precision agricultural management. Image background segmentation is the key step in canopy cover extraction, and accurately segmenting the image from the background can effectively reduce the error of canopy cover extraction. The performance of traditional segmentation methods largely depends on the quality of the training data set, and is easily affected by the changes in segmentation thresholds and lightintensity during the different growth periods of crops, resulting in image segmentation method with low accuracy anduniversality, which ultimately leads to the problem of unsatisfactory vegetation cover extraction. In order to solve the above issues, in this study, Gaussian Mixture Model clustering was proposed using the Lab color space features enhanced by CLAHE-SV (contrast limited adaptive histogram equalization-saturation value). Taking rice at the late tillering stage as the object, the visible images of rice at 2, 3, 4, and 5 m height were collected by unmanned aerial vehicle (UAV). The saturation (S) and Value (V) components in HSV color space were enhanced by contrast limited adaptive histogram equalization algorithm (CLAHE). Gaussian Mixture Model (GMM) combined with the a-component of Lab color space was applied to segment the image background and extract the rice coverage, and then compared with the GMM-RGB, GMM-HSV, GMM-Lab, and GMM-a. The results show that the two GMM models with the a-component shared a better performance of segmentation than RGB, HSV, and Lab at different heights, where the accuracy of GMM-CLAHE-SV-a was the best. Compared with the GMM-a, the average overall accuracy of GMM-CLAHE-SV-a with image segmentation increased by 2.16, 1.01, 1.03, and 1.26 percentage points, respectively, while the average Kappa coefficient increased by 0.041 4, 0.017 3, 0.019 0, and 0.022 1, respectively, at heights of 2, 3, 4, and 5 m; The average extraction error of coverage decreased by 8.75, 7.01, 5.93, and 5.34 percentage points, respectively, whereas, the fitting accuracies were improved by 0.096 0, 0.050 2, 0.062 2, and 0.190 6, respectively, at heights of 2, 3, 4, and 5 m. The image segmentation and coverage extraction performance of GMM-CLAHE-SV-a were superior to GMM-a, thus effectively reducing the influence of light intensity and reflection. UAV images can be directly processed without labeling the training set or thresholds. The high universality of the improved model can also be expected to quickly segment the rice pixels and extract the fractional vegetation cover information in complex field environments.

  • 农田作物长势信息的快速获取和分析对田间管理、作物早期产量估测等具有重要价值,是开展精准农业研究与实践的基础[1-2]。植被覆盖度(fractional vegetation cover,FVC)作为描述作物生长发育动态差异的长势参数[3],可作为作物产量、地上生物量等的预测因子[4-5],还可评估作物氮素含量等生理生化指标[6]。因此,估测植被覆盖度对作物育种和农田精准管理具有重要意义。

    在传统的植被覆盖度获取方法中,目估法[7]最简单快速,但受人为因素影响,估测结果具有很强的主观性,存在较大误差;采样法[8]通过统计设定样方内植被出现的频率进行覆盖度估计,相较于目估法更为准确,但操作复杂、耗时费力;仪器测量法[9]需要利用空间定量计等专业仪器进行测量,增加了操作和推广使用的难度。因此上述方法受人力、物力等限制,无法快速、准确地获取大范围的植被覆盖度信息。

    随着无人机(unmanned aerial vehicle,UAV)和传感器等相关技术的快速发展,无人机遥感凭借高时效、高分辨率、低成本、操作灵活等优势[10-12],逐渐用于获取大范围田间作物覆盖度[13-14]。一般而言,基于无人机影像提取植被覆盖度的关键在于区分绿色植被与背景[15]。目前,主要的研究方法大体可分为监督学习法和阈值分析法,其中常用的监督学习方法包括分类决策树和随机森林[16]。何勇等[17]利用随机森林算法对多光谱和可见光等无人机遥感影像进行分类,提取图像中油菜花的植被覆盖度,并探究了无人机飞行高度对结果的影响;ZHOU等[18]基于无人机可见光图像,提出一种改进随机森林分类方法,实现玉米叶覆盖度的估计;王泽等[19]基于无人机可见光图像使用决策树分类模型提取了水稻的植被覆盖度,与人工勾绘结果相比具有较好的一致性。阈值分析法主要包括颜色空间阈值法和植被指数阈值法[16]。LI等[20]利用Lab颜色空间的两个半高斯分布拟合纯植被和纯背景像元的直方图,根据高斯分布的参数阈值估测植被覆盖度;牛亚晓等[21]基于无人机可见光图像,利用非线性最小二乘算法对Lab颜色空间的a通道、RGB颜色空间的2G-R-B指数以及HSV颜色空间的H通道进行高斯分布拟合,确定植被与非植被高斯拟合分布的交点为分割阈值进行棉花覆盖度提取;ASHAPURE等[22]基于无人机可见光图像,利用直方图阈值法确定过绿指数(excess green,EXG)、改良绿红植被指数(modified green-red vegetation index,MGRVI)、红绿蓝植被指数(red-green-blue vegetation index,RGBVI)的分割阈值,提取了棉花覆盖度;王猛等[23]利用监督分类与植被指数相结合的方式,在支持向量机(support vector machines,SVM)分类结果基础上,以可见光波段差值植被指数(visible-band difference vegetation index,VDVI)统计直方图中植被与非植被像元交点值作为分割阈值,提取了棉花、花生和玉米的覆盖度;赵静等[24]基于无人机可见光图像,利用监督分类方法结合统计直方图,在可见光波段差值植被指数(visible-band difference vegetation index,VDVI)、过绿指数(excess green,EXG)、归一化绿蓝差值指数(normalized green-blue difference index,NGBDI)中确定覆盖度提取阈值,有效解决了双峰直方图和直方图熵阈值法在低植被密度区域提取结果不理想的问题。

    上述方法虽然有效提取了植被覆盖度信息,但阈值分析法的分类阈值在不同光照条件或不同生育期具有较大的波动性,限制了该方法在田间的进一步应用;监督分类方法需要标记大量数据集进行训练学习,消耗大量的人力和物力。因此,开发一种非监督学习算法,能够在多种情况下较好地自动识别图像中潜在的统计特性,且无需标记大量图像或计算分割阈值,实现植被覆盖度信息快速准确获取具有重要意义。近年来,聚类算法在作物图像分割方面取得的应用进展,为植被覆盖度的非监督提取提供了理论基础。如程浈浈等[25]提出了基于M-LP(马氏距离、光照分布和空间位置)特征加权K-means聚类的冠层分割算法;吴焕丽等[26]提出利用自适应果蝇均值聚类算法在HSV颜色空间下对小麦图像进行分割并提取植被覆盖度。但由于在大田环境下无人机可见光图像的RGB颜色特征受光强影响较大,基于RGB颜色空间的分割方法在稳健性和精准性上较低[27]。Lab颜色空间将颜色属性从光强属性中独立出来,可在一定程度上降低光强变化的影响[28]

    综上,本研究以大田水稻为对象,提出一种基于高斯混合模型(gaussian mixture model,GMM),结合限制对比度自适应直方图均衡化算法(contrast limited adaptive histogram equalization,CLAHE)与HSV颜色空间的饱和度分量(S)和亮度分量(V)增强Lab颜色空间特征的水稻覆盖度提取方法,自动分析图像像素的统计特性,降低光强变化对结果的影响,以期为田块尺度的作物植被覆盖度遥感估计提供新思路。

    田间试验于2022年6月在辽宁省海城市沈阳农业大学试验基地进行,如图1所示。该地区地处东经122°39′18″,北纬40°58′58″,温带大陆性季风气候。试验水稻品种为“沈农9816”,生长周期约165 d,按照当地施肥标准施用氮肥,施肥量为100 kg/hm2

    图  1  试验田俯视图
    Figure  1.  Top view of test field

    于2022年6月25日和6月30日(水稻分蘖后期)11:00—13:00期间,在天气晴朗、无风或微风条件下,采用大疆(DJI)御Mavic2专业版航拍无人机拍摄正射图像,无人机的最大抗风速度为8.5~10.5 m/s,相机焦距为28 mm,拍摄的图像尺寸为5472像素×3648像素,飞行高度分别设置为2 、3 、4 和5 m。共获取240幅正射图像,每个高度拍摄60幅,在每个高度中随机截取15幅1000像素×1000像素的图像,共计60幅图像进行试验。

    利用无人机可见光图像提取水稻冠层覆盖度时,背景会严重影响提取精度,因此需要对水稻与背景进行有效分割,降低背景对提取结果的影响。在无人机获取的水稻图像中,图像的背景主要包括非绿色的水体和倒影。为较好地从背景中分割出水稻像素,本研究基于HSV和Lab颜色空间,通过限制对比度自适应直方图均衡化方法(CLAHE)对HSV颜色空间中的饱和度(S)和亮度(V)进行增强,提高图像中水稻与背景之间像素的颜色差异性,降低水面反射和光照变化对像素颜色值的影响。然后,将增强后的图像转换为Lab颜色空间并提取a分量灰度图像,利用高斯混合模型(GMM)将图像分割为水稻和背景,并基于分割结果提取水稻的冠层覆盖度,覆盖度的计算式如式(1),算法流程如图2所示。

    图  2  水稻覆盖度提取流程
    Figure  2.  Flow chart of rice cover extraction
    $$ F=\frac{N_{\text {rice }}}{N_{\text {rice }}+N_{\text {other }}} \times 100 \text{%} $$ (1)

    式中F表示水稻覆盖度Nrice为水稻像元的统计个数,Nother为背景像元的统计个数。

    合适的颜色空间是进行作物图像分割的基础,对作物覆盖度提取具有至关重要的作用。目前常用的颜色空间主要包括RGB、HSV、Lab等,其中RGB是最常见且较为容易获取的颜色信息,但由于各颜色分量间存在较高的相关性,容易受光照影响,因此在田间多变光照条件下不适合直接进行彩色图像的分割[29];HSV是一种比较直观的颜色空间,分离了图像颜色分量(H)、饱和度分量(S)与亮度分量(V),通过对亮度和饱和度分量进行处理时不会影响颜色分量,避免了RGB颜色空间出现的颜色失真问题[30];Lab作为一种基于人类色彩感知的颜色空间,其特点是独立于设备,受光强变化影响小[31],其中L分量只有亮度信息,ab分量只有颜色信息,因此在ab分量中更易于利用颜色信息分割目标。此外,a分量代表了绿色到红色的分量,其值越小并越接近于负值,图像中的绿色特征就会越明显,牛亚晓等[21, 32]研究表明a分量对绿色信息更为敏感,在图像分割与覆盖度提取方面相比于RGB、HSV等颜色空间中的各分量具有更好的效果。因此,本研究在前人研究的基础上,将获取的无人机RGB图像转换为HSV、Lab颜色空间,并提取Lab中的a分量用于图像分割,具体计算式如下:

    $$ V=\frac{1}{3}(R+G+B) $$ (2)
    $$ S=1-\frac{3}{R+G+B} \min (R, G, B) $$ (3)
    $$ H=\left\{\begin{array}{ll} 0, & R=G=B \\ \varepsilon, & B \leqslant G \\ 2 \pi-\varepsilon, & B>G \end{array}\right. $$ (4)
    $$ \varepsilon =\arccos \frac{R-G+R-B}{2 \sqrt{(R+G)^{2}+(R-B)(G-B)}} $$ (5)
    $$ L=116 f(Y)-16 $$ (6)
    $$ a=500\left(f\left(\frac{X}{0.982}\right)-f(Y)\right) $$ (7)
    $$ b=200\left(f(Y)-f\left(\frac{Z}{1.183}\right)\right) $$ (8)
    $$ f(x)=\left\{\begin{array}{ll} 1.187 x+0.138, & x \leqslant 0.008856 \\ x^{\tfrac{1}{3}}, & x>0.008856 \end{array}\right. $$ (9)
    $$ \left[\begin{array}{l} X \\ Y \\ Z \end{array}\right]=\left[\begin{array}{lll} 0.490 & 0.310 & 0.200 \\ 0.177 & 0.812 & 0.011 \\ 0.000 & 0.010 & 0.990 \end{array}\right]\left[\begin{array}{l} R \\ G \\ B \end{array}\right] $$ (10)

    式中R、G、B分别表示RGB图像中的红、绿、蓝分量,其取值范围为[0,255];X、Y、Z为RGB转换到Lab的过渡值;$f(x) $是校正函数。

    使用CLAHE算法在图像局部区域内执行相应的直方图均衡化操作,并对各小区域都引入对比限幅,以提高图像的对比度并抑制过度放大的噪声信号,增强有效信号,最后使用线性插值算法提高处理速度,具体算法流程如下:

    1)将待处理的原始图像划分成多个连续、大小相等且互不重叠的小区域。

    2)计算每个区域的直方图,每个直方图灰度级记为$ r$,可能出现的灰度级的个数记为$\omega $,每个小区域所对应的直方图函数为$ h(r), 0 \leqslant r \leqslant \omega-1 $。

    3)对每个区域的直方图进行裁剪,剪切规则如下:

    $$ h^{\prime}\left( r \right) =\begin{cases} N_{\mathrm{clip}}h\left( r \right) >N_{\mathrm{clip}}-N_{\mathrm{avg}}\\ h\left( r \right) +N_{\mathrm{avg}}h\left( r \right) \leqslant N_{\mathrm{clip}}-N_{\mathrm{avg}}\\ \end{cases} $$ (11)
    $$ N_{\mathrm{clip}}=\frac{M}{\omega}+T_{\mathrm{cl}}\cdot \left( M-\frac{M}{\omega} \right) $$ (12)
    $$ N_{\mathrm{avg}}=\frac{\sum_{r=0}^{\omega-1}{\left( \max \left( h\left( r \right) -N_{\mathrm{clip}} \right) ,0 \right)}}{\omega} $$ (13)

    式中M为每个小区域内的像素总数,$T_{\mathrm{cl}}$为预先设定的限幅值,$ h(r) $为每个小区域的直方图函数,$ h'(r) $表示该区域裁剪后的直方图,$N_{\mathrm{clip}}$为定义的实际阈值,$N_{\mathrm{avg}}$为需要重新分配给每个直方图的平均像素值,$\omega $为每个小区域内包含的灰度级的个数。

    4)重复步骤1)~3),直到所有被裁剪的像素点重新分配完成;

    5)对处理后的每个小区域进行直方图均衡化处理,并对每个像素进行线性插值处理,计算最终图像中各点的像素值。

    针对监督学习算法需要大量的人为标记和训练图像,且监督学习模型在不同环境条件的图像数据集上可能出现效果不佳等问题,本研究采用GMM进行图像分割,模型参数可以从未标记的图像中获得,可以适用不同环境下获取的图像,算法的主要流程如下:

    1)假设每张无人机图像中包含N个像素,并将该图像表示为

    $${\boldsymbol{X}}=\left[ x_1,x_2,\cdot \cdot \cdot ,x_i,\cdot \cdot \cdot ,x_N \right] $$ (14)
    $${\boldsymbol{x_i}}=\left[ x_{i1},x_{i2},\cdot \cdot \cdot ,x_{ip} \right] ^{\mathrm{T}}$$ (15)

    式中p表示颜色特征数,对于HSV颜色特征,$ p $=3,且$ x_{i 1} $、$ x_{i 2} $、$ x_{i 3} $分别为图像第i个像素的颜色特征H、S、V的值。

    2)图像中的每个像素都被划分为K个类别之一。由于本研究将水稻图像划分为水稻和背景两个部分,所以K=2。定义隐变量Z表示图像像素的类别:

    $${\boldsymbol{Z}}=[z_1\; z_2\;\cdots\; z_i\;\cdot\; z_N]$$ (16)

    式中$ z_{i} $为第i个像素所属的类别

    3)假设观测数据X由高斯混合模型生成,其表达式为

    $$ P\left(x_{i} \mid \theta\right)=\sum_{k=1}^{k} \pi_{i} f\left(x_{i} \mid \mu_{i,} \varphi_{k}\right) $$ (17)

    式中$ \theta=\left\{\left\{\pi_{1}, \pi_{2}, \cdots, \pi_{k}\right\},\left\{\mu_{1}, \mu_{2}, \cdots, \mu_{k}\right\},\left\{\varphi_{1}, \varphi_{2}, \cdots, \varphi_{k}\right\}\right\} $,$ \pi_{i} $表示像素属于第i个类别的概率,$ \mu_{1} $表示第i类所对应高斯分布的均值向量,$ \varphi_{i} $表示第i类所对应高斯分布的协方差矩阵。

    本研究的主要目的是找到最佳的模型参数$ \theta=\{\pi, \mu, \varphi\} $,最大化类别$ z_{i} $的后验概率$\hat{z}_i $:

    $$ \hat{z}_i=\underset{k\in \left\{ 1,2,\cdot \cdot \cdot ,K \right\}}{{\mathrm{arg}}\max}P\left( z_i=k\left| {\boldsymbol{X}} \right. \right) =\underset{k\in \left\{ 1,2,\cdot \cdot \cdot ,K \right\}}{{\mathrm{arg}}\max}P\left( z_i=k\left| x_i,\theta \right. \right) $$ (18)

    通过EM(expectation-maximization)算法最大化高斯混合模型参数的对数似然函数估计最优模型参数,算法的具体步骤如下:

    1)初始化模型参数$ \pi_{k}^{(0)} $、$ \mu_{k}^{(0)} $、$ \varphi_{k}^{(0)} $,本研究采用K-means算法的结果初始化EM算法的参数,以加快算法的收敛速度。利用K-means算法,将像素i的类别记为$ z_{i} $,参数$ \pi_{k}^{(0)} $、$ \mu_{k}^{(0)} $、$ \varphi_{k}^{(0)} $分别初始化为

    $$ \pi_{k}^{(0)}=\frac{N_{k}}{N} $$ (19)
    $$ \mu_{k}^{(0)}=\frac{1}{N_{k}} \sum_{i=1}^{N} I\left(z_{i}=k\right) x_{i} $$ (20)
    $$ {\varphi _k}^{\left( 0 \right)}=\frac{1}{N_k}\sum_{i=1}^N{I\left( z_i=k \right) \left( x_i-{\mu _k}^{\left( 0 \right)} \right)}\left( x_i-{\mu _k}^{\left( 0 \right)} \right) ^{\mathrm{T}} $$ (21)
    $$ N_{k}=\sum_{i=1}^{N} I\left(z_{i}=k\right) $$ (22)
    $$ I(\xi)=\left\{\begin{array}{ll} 1, & \xi \text { 为True } \\ 0, & \xi \text { 为 False } \end{array}\right. $$ (23)

    式中$ N_{k} $为某一类别的像素个数。

    2)根据当前的模型参数,计算观测数据属于类别k的后验概率:

    $$ \gamma_{i k}^{(m)}=P\left(z_{i}=k \mid x_{i}, \theta\right)=\frac{\pi_{k} f\left(x_{i} \mid \mu_{k}, \varphi_{k}\right)}{\displaystyle\sum_{j=1}^{K} \varphi_{j} f\left(x_{i} \mid \mu_{j}, \varphi_{j}\right)} $$ (24)

    3)根据步骤2)计算的$ \gamma_{\sigma_{i k}}^{({m})} $计算新一轮的模型参数:

    $$ \pi_{k}^{(m+1)}=\frac{\displaystyle\sum_{i=1}^{N} \gamma_{i k}^{(m)}}{N}, \quad k=1,2, \cdots, K $$ (25)
    $$ \mu_{k}^{(m+1)}=\frac{\displaystyle\sum_{i=1}^{N} \gamma_{i k}^{(m)} \nu_{i}}{\displaystyle\sum_{i=1}^{N} \gamma_{i k}^{(m)}}, k=1,2, \cdots, K $$ (26)
    $$\begin{aligned} {\varphi _k}^{\left( m+1 \right)}=&\frac{\displaystyle\sum_{i=1}^N{{\gamma _{ik}}^{\left( m \right)}\left( x_i-{\mu _k}^{\left( m+1 \right)} \right) \left( x_i-{\mu _k}^{\left( m+1 \right)} \right) ^{\mathrm{T}}}}{\displaystyle\sum_{i=1}^N{{\gamma _{ik}}^{\left( m \right)}}},\\ &k=1,2,\cdot \cdot \cdot ,K \end{aligned} $$ (27)

    4)重复步骤2)~3),直至参数收敛,得到模型的最优参数。

    由于监督分类算法的准确性在很大程度上依赖于训练样本的质量,通过对训练样本的评价和检验可以避免出现严重的误差[24, 33-34]。因此,本研究利用支持向量机(SVM)对无人机水稻可见光图像进行监督分类,将非监督算法分割的图像与SVM分割的图像进行逐像素比较,计算总体精度(overall accuracy,OA)和Kappa系数评价算法的分割效果,并计算植被覆盖度提取误差$ E_{F} $对获取的植被覆盖度进行精度评价,计算式如下:

    $$ E_F=\frac{\left|F_{\text{svm }}-F_{\text{gmm }}\right|}{F_{\text{svm }}}\times100\text{%} $$ (28)

    式中$ F_{\text {svm }} $为SVM提取的水稻覆盖度,$ F_{\text {gmm }} $为非监督模型提取的水稻覆盖度。

    由于分蘖期水稻植株的茎叶较小,每个训练样本可选取的水稻像素有限,而背景的范围较大便于选取像素。为使训练样本像素个数均匀,本研究在每张图像上选取300个水稻植株样本和30个背景样本作为训练集。通过计算Jeffries-Matusita(JM)距离,选取分离性较好的训练样本进行SVM监督分类,并计算不同高度下SVM分类总体精度和Kappa系数的平均值,结果如图3所示。不同高度的图像训练集中,JM距离的均值大于1.96,总体精度的均值大于99.80%,Kappa系数的均值大于0.9950,说明样本间具有较好的可分离性,SVM算法对水稻与背景的分类效果较好。以单幅图像为例,使用SVM对图像进行监督分类,结果如图4所示,分割后的水稻图像与原图基本重合,因此可以利用SVM监督分类的结果作为本研究的数据真值。

    图  3  SVM分割结果精度
    Figure  3.  Segmentation result accuracy of Support Vector Machines (SVM)
    图  4  SVM分割效果
    Figure  4.  Segmentation results of SVM

    以两种光强变化的图像为例,通过CLAHE-SV方法对两种RGB图像进行增强处理,并分别截取大小为10像素×10像素的水稻、水体和倒影图像,结果如图5所示,两种光强下的RGB图像经过增强后,颜色特征变化相比于原始图像更加明显。其中,在光照较强的条件下,原始水稻叶片颜色受光照影响偏向于白色,而增强后的水稻叶片颜色得到一定改善,呈现为黄绿色。通过在可见光图像上的验证分析,说明基于CLAHE-SV方法可以增强图像的颜色特征。

    图  5  不同光强条件下田间水稻原始和增强图像
    Figure  5.  Original and enhanced images of rice in field under different lighting conditions

    将截取的10像素×10像素的样本图像从RGB颜色空间转换为Lab颜色空间,并提取a分量图像,分别计算a分量中水稻、水体、倒影的像素值,并分析增强前后像素值的变化情况,结果如图6所示。

    图  6  不同光强条件下原始图像与增强图像的a分量像素值分布
    Figure  6.  Pixel value distribution of a-component of original and enhanced images under different lighting conditions

    在两种不同光强条件下的a分量颜色空间中,增强后的水稻像素值明显小于原始图像,且更接近于负值,说明增强后的水稻绿色特征更明显。对于水体而言,增强后的水体像素值明显高于原始图像,说明水体的颜色特征也得到增强,水稻与水体之间的可分性相比于原始图像得到提高。增强后的阴影像素值虽略微高于原始图像,但水稻与阴影的之间可分性相较于原始图像有所提高,主要由于水稻颜色特征增强,增加了水稻与阴影之间的可分度。综上可知,基于CLAHE-SV方法可以增强图像的颜色特征,提高水稻与背景之间的可分离性,为后续的非监督分类提供基础。

    将原始无人机RGB图像进行颜色空间转换得到RGB、HSV、Lab,以及原始和增强后的Lab(a)分量共5种颜色空间,并建立基于各颜色空间的高斯混合模型(GMM-CLAHE-SV-a、GMM-a、GMM-RGB、GMM-Lab、GMM-HSV)。高度2 、3 、4 和5 m下不同光强条件的水稻图像分割结果如图7所示。

    图  7  不同高度下2种光强的水稻分割结果
    Figure  7.  Rice segmentation results of two light intensities at different heights

    通过对比可看出,基于Lab、RGB、HSV颜色空间构建的高斯混合模型分割效果较差(图7e7g),虽然能大致分出水稻像素与背景像素,但出现水稻的过分割现象,可能原因在于水稻与倒影未能有效分离,在进行非监督分类时倒影易被错分为水稻。基于a分量的高斯混合模型分割效果较好(图7d),可以较为准确地分割出水稻与背景。但整体也存在水稻与倒影之间区分不明显,倒影被误分类为水稻的现象(如图8所示)。而基于CLAHE-SV方法增强后的分割效果整体与原始a分量相比,可以更好地区分水稻与倒影,分割的结果图更接近真值图像(图7c)。这与上面颜色特征增强结果分析相一致,增强后的a分量图像中水稻与倒影之间的可分性与原始a分量图像相比得到进一步提高。

    图  8  基于a分量构建高斯混合模型的分割结果
    Figure  8.  Segmentation results of gaussian mixture model based on a-component

    为进一步说明基于不同颜色空间构建的高斯混合模型对无人机水稻图像的分割效果,以监督分类的结果为真值,计算基于各颜色空间的高斯混合模型的总体精度和Kappa系数,结果如图9所示。在不同高度下,基于RGB、HSV、Lab建立的高斯混合模型中,GMM-Lab的精度最高,其次为GMM-RGB,GMM-HSV的精度最低,说明基于Lab颜色空间进行图像分割的效果较好,该结果与已有研究[35]一致。对于高度2 、3 、4 和5 m的图像,GMM-Lab的总体精度均值和Kappa系数均值分别为81.09%、0.6082,82.40%、0.6366,85.89%、0.7014,83.66%、0.6608。但在本研究中发现,由于水稻倒影的影响,基于RGB、HSV、Lab颜色空间进行高斯混合模型分割时无法更好地区分水稻与背景,出现水稻严重过分割现象,使模型的整体分类精度降低。

    图  9  不同高度下基于不同颜色空间构建高斯混合模型的分割精度
    Figure  9.  Segmentation accuracy of gaussian mixture model based on different color space at different heights

    在原始a分量颜色空间和基于CLAHE-SV增强的a分量颜色空间下利用高斯混合模型可以较好地区分水稻与背景,模型精度相较于RGB、HSV、Lab颜色空间有明显提升。GMM-a的总体精度均值和Kappa系数均值分别为91.14%、0.8079,91.76%、0.8211,92.43%、0.8350和91.27%、0.8150;GMM-CLAHE-SV-a的总体精度均值和Kappa系数均值分别为93.30%、0.849 3,92.77%、0.8384,93.46%、0.8540和92.53%、0.8371。因此,本研究提出的GMM-CLAHE-SV-a的算法优于其他几种基于颜色空间建立的高斯混合模型,对于不同光照强度和高度下获取的水稻冠层图像的分割效果均最佳,能够较为准确地区分水稻像素与背景像素。

    通过统计分割后图像中水稻的像素个数计算GMM-a和GMM-CLAHE-SV-a两种模型的平均水稻覆盖度,提取精度评价结果如表1所示。

    表  1  植被覆盖度提取精度
    Table  1.  Extraction accuracy of fractional vegetation cover
    模型
    Model
    拍摄高度
    Shooting height/m
    覆盖度 Coverage/% 提取误差
    Extraction error/%
    绝对误差
    Absolute error/%
    非监督分类
    Unsupervised classification
    SVM监督分类
    SVM supervised classification
    GMM-a 2 43.74 37.69 16.05 6.05
    3 44.37 38.52 15.19 5.85
    4 43.92 38.95 12.76 4.97
    5 45.47 40.41 12.52 5.06
    GMM-CLAHE-SV-a 2 40.44 37.69 7.30 2.75
    3 41.67 38.52 8.18 3.15
    4 41.61 38.95 6.83 2.66
    5 43.31 40.41 7.18 2.90
    下载: 导出CSV 
    | 显示表格

    表1可知,在不同拍摄高度下,利用GMM-CLAHE-SV-a模型获取的水稻覆盖度更接近真实值,且提取误差最小。为进一步验证水稻覆盖度提取精度,以SVM监督分类结果提取的覆盖度为真值,以GMM-a、GMM-CLAHE-SV-a非监督分类结果提取的水稻覆盖度为预测值进行拟合,结果如图10所示。

    图  10  水稻覆盖度真实值与预测值拟合结果
    注:RMSE为均方根误差。
    Figure  10.  Fitting results of true and predicted values of rice cover
    Note: RMSE means root mean square error.

    在高度2、3、4和5 m的图像中,GMM-CLAHE-SV-a模型的决定系数$ R^{2} $分别为0.9577、0.9566、0.9714、0.9471,均方根误差RMSE分别为2.7455%、3.1549%、2.6549%、2.9102%;GMM-a模型的决定系数$ R^{2} $分别为0.8617、0.9064、0.9092、0.7565,均方根误差RMSE分别为6.0461%、5.8472%、4.9666%、5.0664%,前者的拟合优度更好,精度最佳。

    本研究针对已有植被覆盖度提取方法存在的阈值稳定性较低、标记数据集工作量大、普适性较差等问题,以田间水稻为研究对象,利用高斯混合模型(GMM)算法结合颜色空间变换和图像增强方法进行无人机水稻覆盖度非监督提取方法的研究。

    在颜色空间的选取上,已有研究[36-37]表明光强因素会改变图像的颜色特征,从而影响图像分割精度,但可以通过颜色空间变换降低光照影响。因此选取合适的颜色空间对后续的图像处理和分析具有重要意义。LI等[38]通过对田间水稻秧苗和水田的RGB、HSV、Lab、HLS和LUV等颜色模型进行对比发现,RGB的3个颜色分量在水稻秧苗和水田上存在显著的重叠,其他颜色空间虽没有显著重叠,但相比于Lab颜色模型的ab分量,在进行图像分割时更容易受光强等因素产生的噪声影响。本研究基于RGB、HSV、Lab颜色空间进行田间无人机水稻图像分割的结果与上述研究结果一致,即基于Lab颜色空间的分割效果优于RGB和HSV。在此基础上,本研究针对图中水稻与背景的颜色差异,结合Lab颜色空间中a分量的颜色特征,利用GMM算法在a分量图像上进行水稻图像分割,结果表明,在不同高度下,基于a分量的GMM模型(GMM-a)分割效果优于Lab颜色空间,GMM-a模型的总体精度均值在90%以上、Kappa系数均值在0.8以上,这与前人研究结果[2, 21]一致,说明a分量颜色空间能更好地表达绿色植被的颜色特征,更适合用来进行分割水稻像素和提取冠层覆盖度,分析其原因可能在于a分量只表示颜色信息,其值越小且越接近负值,绿色特征越明显。而本研究获取的无人机水稻图像中主要包括绿色的水稻和非绿色的背景,a分量可以较好地体现两者的颜色特征差异,从而提高了模型的精度。

    同时,本研究发现GMM-a存在水稻过分割的现象,主要体现在无法较好地区分水稻叶片与水中的倒影,其主要原因可能是光强影响了水稻颜色特征,降低了叶片与倒影之间的对比度,导致倒影被误分类为水稻。针对此问题,已有研究[39]通过限制对比度自适应直方图均衡化算法(CLAHE)增强图像对比度来降低光照不均匀、阴影等因素对图像的影响。此外,刘黎明[40]利用CLAHE对RGB、HSV、YIQ、YCbCr、Lab共5种颜色空间的增强效果进行对比分析发现,CLAHE在HSV颜色空间上的增强效果优于其他4种彩色图像,但该方法只考虑了亮度信息,未考虑颜色饱和度信息,且该方法在田间水稻图像的应用上鲜有报道。因此本研究在前人研究基础上利用CLAHE算法对HSV颜色空间中的饱和度分量(S)和亮度分量(V)同时进行增强,提高图像的对比度,并将增强后的图像转换为Lab(a)分量颜色空间,再利用GMM算法(GMM-CLAHE-SV-a)进行水稻像素分割。最终结果表明,相比于GMM-a,本研究方法的分割精度得到进一步提升,在高度为2 、3 、4 和5 m时GMM-CLAHE-SV-a图像分割的总体精度均值分别提高了2.16、1.01、1.03和1.26个百分点,Kappa系数均值分别提高了0.0414、0.0173、0.0190和0.0221。在分割结果的基础上提取水稻冠层覆盖度的结果也优于GMM-a,覆盖度的平均提取误差分别降低了8.75、7.01、5.93和5.34个百分点,决定系数R2分别提高了0.0960、0.0502、0.0622和0.1906。

    本研究模型目前只针对分蘖期4种高度较低(2、3、4 和5 m)的图像数据进行处理。在后续研究中考虑采集水稻多生育期(如分蘖期、拔节期等)的其他高度(如10、15 m等)下无人机水稻RGB图像进行研究,进一步验证本研究方法在复杂大田环境下分割水稻像素并提取植被覆盖度的有效性和普适性。

    本文基于无人机水稻的可见光图像,分别利用多种颜色空间构建水稻覆盖度提取的非监督GMM模型,并对其精度进行对比分析,主要结论如下:

    1)相比于RGB、HSV、Lab等颜色空间,a分量对水稻与背景的区分能力更好,更适合进行水稻分割及覆盖度的提取。其中,本研究提出的CLAHE-SV方法可以增强a分量颜色空间下水稻的绿色特征,增加水稻与背景间的对比度,使所构建的模型精度在GMM-a基础上得到进一步提升。

    2)从图像分割结果看,本研究所提出的GMM-CLAHE-SV-a模型在高度为2 、3 、4 和5 m图像中的总体精度均值分别为93.30%、92.76%、93.46%和92.53%;Kappa系数均值分别为0.8493、0.8384、0.8540和0.8371,优于GMM-a算法。

    3)从覆盖度提取结果看,GMM-CLAHE-SV-a模型在高度为2 、3 、4 和5 m图像中的平均提取误差分别为7.30%、8.18%、6.83%和7.18%;决定系数R2分别为0.9577、0.9566、0.9714和0.9471。相比于GMM-a,本研究的方法具有更小的提取误差,所提取的植被覆盖度更接近于真实值。

  • 图  1   试验田俯视图

    Figure  1.   Top view of test field

    图  2   水稻覆盖度提取流程

    Figure  2.   Flow chart of rice cover extraction

    图  3   SVM分割结果精度

    Figure  3.   Segmentation result accuracy of Support Vector Machines (SVM)

    图  4   SVM分割效果

    Figure  4.   Segmentation results of SVM

    图  5   不同光强条件下田间水稻原始和增强图像

    Figure  5.   Original and enhanced images of rice in field under different lighting conditions

    图  6   不同光强条件下原始图像与增强图像的a分量像素值分布

    Figure  6.   Pixel value distribution of a-component of original and enhanced images under different lighting conditions

    图  7   不同高度下2种光强的水稻分割结果

    Figure  7.   Rice segmentation results of two light intensities at different heights

    图  8   基于a分量构建高斯混合模型的分割结果

    Figure  8.   Segmentation results of gaussian mixture model based on a-component

    图  9   不同高度下基于不同颜色空间构建高斯混合模型的分割精度

    Figure  9.   Segmentation accuracy of gaussian mixture model based on different color space at different heights

    图  10   水稻覆盖度真实值与预测值拟合结果

    注:RMSE为均方根误差。

    Figure  10.   Fitting results of true and predicted values of rice cover

    Note: RMSE means root mean square error.

    表  1   植被覆盖度提取精度

    Table  1   Extraction accuracy of fractional vegetation cover

    模型
    Model
    拍摄高度
    Shooting height/m
    覆盖度 Coverage/% 提取误差
    Extraction error/%
    绝对误差
    Absolute error/%
    非监督分类
    Unsupervised classification
    SVM监督分类
    SVM supervised classification
    GMM-a 2 43.74 37.69 16.05 6.05
    3 44.37 38.52 15.19 5.85
    4 43.92 38.95 12.76 4.97
    5 45.47 40.41 12.52 5.06
    GMM-CLAHE-SV-a 2 40.44 37.69 7.30 2.75
    3 41.67 38.52 8.18 3.15
    4 41.61 38.95 6.83 2.66
    5 43.31 40.41 7.18 2.90
    下载: 导出CSV
  • [1] 刘忠,万炜,黄晋宇,等. 基于无人机遥感的农作物长势关键参数反演研究进展[J]. 农业工程学报,2018,34(24):60-71. doi: 10.11975/j.issn.1002-6819.2018.24.008

    LIU Zhong, WANG Wei, HUANG Jinyu, et al. Progress on key parameters inversion of crop growth based on unmanned aerial vehicle remote sensing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(24): 60-71. (in Chinese with English abstract) doi: 10.11975/j.issn.1002-6819.2018.24.008

    [2]

    NIU Y X, ZHANG H H, HAN W T, et al. A fixed-threshold method for estimating fractional vegetation cover of maize under different levels of water stress[J]. Remote Sensing, 2021, 13(5): 1009. doi: 10.3390/rs13051009

    [3]

    JAY S, BARET F, DUTARTRE D, et al. Exploiting the centimeter resolution of UAV multispectral imagery to improve remote-sensing estimates of canopy structure and biochemistry in sugar beet crops[J]. Remote Sensing of Environment, 2019, 231: 110898. doi: 10.1016/j.rse.2018.09.011

    [4]

    COY A, RANKINE D, TAYLOR M, et al. Increasing the accuracy and automation of fractional vegetation cover estimation from digital photographs[J]. Remote Sensing, 2016, 8(7): 474. doi: 10.3390/rs8070474

    [5]

    DE LA CASA A, OVANDO G, BRESSANINI L, et al. Soybean crop coverage estimation from NDVI images with different spatial resolution to evaluate yield variability in a plot[J]. Isprs Journal of Photogrammetry and Remote Sensing, 2018, 146: 531-547. doi: 10.1016/j.isprsjprs.2018.10.018

    [6]

    HUNT E R, HORNECK D A, SPINELLI C B, et al. Monitoring nitrogen status of potatoes using small unmanned aerial vehicles[J]. Precision Agriculture, 2018, 19(2): 314-333. doi: 10.1007/s11119-017-9518-5

    [7] 章文波,符素华,刘宝元. 目估法测量植被覆盖度的精度分析[J]. 北京师范大学学报(自然科学版),2001(3):402-408. doi: 10.3321/j.issn:0476-0301.2001.03.026

    ZHANG Wenbo, FU Suhua, LIU Baoyuan. Error assessment of visual estimation plant coverage[J]. Journal of Beijing Normal University(Natural Science), 2001(3): 402-408. (in Chinese with English abstract) doi: 10.3321/j.issn:0476-0301.2001.03.026

    [8] 胡健波,张璐,黄伟,等. 基于数码照片的草地植被覆盖度快速提取方法[J]. 草业科学,2011,28(9):1661-1665.

    HU Jianbo, ZHANG Lu, HUANG Wei, et al. Quickly determining grassland cover using the digital image[J]. Pratacultural Science, 2011, 28(9): 1661-1665. (in Chinese with English abstract)

    [9] 赵静,闫春雨,杨东建,等. 基于无人机多光谱遥感的台风灾后玉米倒伏信息提取[J]. 农业工程学报,2021,37(24):56-64.

    ZHAO Jing, YAN Chunyu, YANG Dongjian, et al. Extraction of maize lodging information after typhoon based on UAV multispectral remote sensing[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(24): 56-64. (in Chinese with English abstract)

    [10]

    WAN L, CEN H Y, ZHU J P, et al. Grain yield prediction of rice using multi-temporal UAV-based RGB and multispectral images and model transfer - a case study of small farmlands in the South of China[J]. Agricultural and Forest Meteorology, 2020, 291: 108096. doi: 10.1016/j.agrformet.2020.108096

    [11] 汪沛,罗锡文,周志艳,等. 基于微小型无人机的遥感信息获取关键技术综述[J]. 农业工程学报,2014,30(18):1-12. doi: 10.3969/j.issn.1002-6819.2014.18.001

    WANG Pei, LUO Xiwen, ZHOU Zhiyan, et al. Key technology for remote sensing information acquisition based on micro UAV[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2014, 30(18): 1-12. (in Chinese with English abstract) doi: 10.3969/j.issn.1002-6819.2014.18.001

    [12] 刘杨,黄珏,孙乾,等. 利用无人机数码影像估算马铃薯地上生物量[J]. 遥感学报,2021,25(9):2004-2014.

    LIU Yang, HUANG Jue, SUN Qian, et al. Estimation of plant height and above ground biomass of potato based on UAV digital image[J]. National Remote Sensing Bulletin, 2021, 25(9): 2004-2014. (in Chinese with English abstract)

    [13]

    YANG G J, LI L Y, COY A, et al. Improving the estimation of fractional vegetation cover from UAV RGB imagery by colour unmixing[J]. Isprs Journal of Photogrammetry and Remote Sensing, 2019, 158: 23-34. doi: 10.1016/j.isprsjprs.2019.09.017

    [14] 戴建国,薛金利,赵庆展,等. 利用无人机可见光遥感影像提取棉花苗情信息[J]. 农业工程学报,2020,36(4):63-71.

    DAI Jianguo, XUE Jinli, ZHAO Qingzhan, et al. Extraction of cotton seedling growth information using UAV visible light remote sensing images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(4): 63-71. (in Chinese with English abstract)

    [15]

    LI Y A, HUANG Z Y, CAO Z G, et al. Performance evaluation of crop segmentation algorithms[J]. Ieee Access, 2020, 8: 36210-36225. doi: 10.1109/ACCESS.2020.2969451

    [16] 刘琳,郑兴明,姜涛,等. 无人机遥感植被覆盖度提取方法研究综述[J]. 东北师大学报(自然科学版),2021,53(4):151-160.

    LIU Lin, ZHENG Xingming, JIANG Tao, et al. Extraction method of fractional vegetation cover from unmanned aerial vehicle remote sensing: A review[J]. Journal of Northeast Normal University(Natural Science Edition), 2021, 53(4): 151-160. (in Chinese with English abstract)

    [17] 何勇,杜晓月,郑力源,等. 无人机飞行高度对植被覆盖度和植被指数估算结果的影响[J]. 农业工程学报,2022,38(24):63-72. doi: 10.11975/j.issn.1002-6819.2022.24.007

    HE Yong, DU Xiaoyue, ZHENG Liyuan, et al. Effects of UAV flight height on estimated fractional vegetation cover and vegetation index[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(24): 63-72. (in Chinese with English abstract) doi: 10.11975/j.issn.1002-6819.2022.24.007

    [18]

    ZHOU C Q, YE H B, XU Z F, et al. Estimating maize-leaf coverage in field conditions by applying a machine learning algorithm to uav remote sensing images[J]. Applied Sciences-Basel, 2019, 9(11): 2389. doi: 10.3390/app9112389

    [19] 王泽,周钦阳,刘聪,等. 基于无人机和地面图像的田间水稻冠层参数估测与评价[J]. 作物学报,2022,48(5):1248-1261. doi: 10.3724/SP.J.1006.2022.02065

    WANG Ze, ZHOU Qinyang, LIU Cong, et al. Estimation and evaluation of paddy rice canopy characteristics based on images from UAV and ground camera[J]. Acta Agronomica Sinica, 2022, 48(5): 1248-1261. (in Chinese with English abstract) doi: 10.3724/SP.J.1006.2022.02065

    [20]

    LI L Y, MU X H, MACFARLANE C, et al. A half-Gaussian fitting method for estimating fractional vegetation cover of corn crops using unmanned aerial vehicle images[J]. Agricultural and Forest Meteorology, 2018, 262: 379-390. doi: 10.1016/j.agrformet.2018.07.028

    [21] 牛亚晓,张立元,韩文霆. 基于Lab颜色空间的棉花覆盖度提取方法研究[J]. 农业机械学报,2018,49(10):240-249. doi: 10.6041/j.issn.1000-1298.2018.10.027

    NIU Yaxiao, ZHANG Liyuan, HAN Wenting. Extraction methods of cotton coverage based on Lab color space[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(10): 240-249. (in Chinese with English abstract) doi: 10.6041/j.issn.1000-1298.2018.10.027

    [22]

    ASHAPURE A, JUNG J H, CHANG A J, et al. A comparative study of RGB and multispectral sensor-based cotton canopy cover modelling using multi-temporal UAS data[J]. Remote Sensing, 2019, 11(23): 2757. doi: 10.3390/rs11232757

    [23] 王猛,隋学艳,梁守真,等. 利用无人机遥感技术提取农作物植被覆盖度方法研究[J]. 作物杂志,2020(3):177-183. doi: 10.16035/j.issn.1001-7283.2020.03.027

    WANG Meng, SUI Xueyan, LIANG Shouzhen, et al. Research on the method of extracting crop vegetation coverage using UAV remote sensing technology[J]. Crops, 2020(3): 177-183. (in Chinese with English abstract) doi: 10.16035/j.issn.1001-7283.2020.03.027

    [24] 赵静,杨焕波,兰玉彬,等. 基于无人机可见光图像的夏季玉米植被覆盖度提取方法[J]. 农业机械学报,2019,50(5):232-240.

    ZHAO Jing, YANG Huanbo, LAN Yubin, et al. Extraction method of summer corn vegetation coverage based on visible light image of unmanned aerial vehicle[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(5): 232-240. (in Chinese with English abstract)

    [25] 程浈浈,祁力钧,程一帆,等. 基于M-LP特征加权聚类的果树冠层图像分割方法[J]. 农业机械学报,2020,51(4):191-198,260.

    CHENG Zhenzhen, QI Lijun, CHENG Yifan, et al. Fruit tree canopy image segmentation method based on M-LP features weighted clustering[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(4): 191-198,260. (in Chinese with English abstract)

    [26] 吴焕丽,崔可旺,张馨,等. 基于改进K-means图像分割算法的细叶作物覆盖度提取[J]. 农业机械学报,2019,50(1):42-50.

    WU Huanli, CUI Kewang, ZHANG Xin, et al. lmproving accuracy of fine leaf crop coverage by improved K-means algorithm[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(1): 42-50. (in Chinese with English abstract)

    [27] 张志斌,罗锡文,臧英,等. 基于颜色特征的绿色作物图像分割算法[J]. 农业工程学报,2011,27(7):183-189. doi: 10.3969/j.issn.1002-6819.2011.07.032

    ZHANG Zhibin, LUO Xiwen, ZANG Ying, et al. Segmentation algorithm based on color feature for green crop plants[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2011, 27(7): 183-189. (in Chinese with English abstract) doi: 10.3969/j.issn.1002-6819.2011.07.032

    [28]

    GUO W, RAGE U K, NINOMIYA S. Illumination invariant segmentation of vegetation for time series wheat images based on decision tree model[J]. Computers and Electronics in Agriculture, 2013, 96: 58-66. doi: 10.1016/j.compag.2013.04.010

    [29]

    WEI X G, WU L L, GE D, et al. Prediction of the maturity of greenhouse grapes based on imaging technology[J]. Plant Phenomics, 2022, 2022: 9753427.

    [30]

    HUANG L S, LI T K, DING C L, et al. Diagnosis of the severity of fusarium head blight of wheat ears on the basis of image and spectral feature fusion[J]. Sensors, 2020, 20(10): 2887. doi: 10.3390/s20102887

    [31]

    LARIJANI M R, ASLI-ARDEH E A, KOZEGAR E, et al. Evaluation of image processing technique in identifying rice blast disease in field conditions based on KNN algorithm improvement by K-means[J]. Food Science & Nutrition, 2019, 7(12): 3922-3930.

    [32] 许高建,沈杰,徐浩宇. 基于Lab颜色空间下的小麦赤霉病图像分割[J]. 中国农业大学学报,2021,26(10):149-156. doi: 10.11841/j.issn.1007-4333.2021.10.15

    XU Gaojian, SHEN Jie, XU Haoyu. lmage segmentation of wheat scab based on Lab color space[J]. Journal of China Agricultural University, 2021, 26(10): 149-156. (in Chinese with English abstract) doi: 10.11841/j.issn.1007-4333.2021.10.15

    [33] 杭艳红,苏欢,于滋洋,等 . 结合无人机光谱与纹理特征和覆盖度的水稻叶面积指数估算[J]. 农业工程学报,2021,37(9):64-71.

    HANG Yanhong, SU Huan, YU Ziyang, et al. Estimation of rice leaf area index combining UAV spectrum, texture features and vegetation coverage[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(9): 64-71. (in Chinese with English abstract)

    [34] 孟沌超,赵静,兰玉彬,等. 基于像元二分法的冬小麦植被覆盖度提取模型[J]. 华南农业大学学报,2020,41(3):126-132.

    MENG Dunchao, ZHAO Jing, LAN Yubin, et al. Vegetation coverage extraction model of winter wheat based on pixel dichotomy[J]. Journal of South China Agricultural University, 2020, 41(3): 126-132. (in Chinese with English abstract)

    [35] 曹英丽,林明童,郭忠辉,等. 基于Lab颜色空间的非监督GMM水稻无人机图像分割[J]. 农业机械学报,2021,52(1):162-169.

    CAO Yingli, LIN Mingtong, GUO Zhonghui, et al. Unsupervised GMM for rice segmentation with UAV images based on Lab color space[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(1): 162-169. (in Chinese with English abstract)

    [36]

    ZHANG D Y, ZHOU X G, ZHANG J, et al. Detection of rice sheath blight using an unmanned aerial system with high-resolution color and multispectral imaging[J]. Plos One, 2018, 13(5): 0187470.

    [37]

    YU K, KIRCHGESSNER N, GRIEDER C, et al. An image analysis pipeline for automated classification of imaging light conditions and for quantification of wheat canopy cover time series in field phenotyping[J]. Plant Methods, 2017, 13( 1 ): 15. doi: 10.1186/s13007-017-0168-4

    [38]

    LI H W, LI Z H, DONG W H, et al. An automatic approach for detecting seedlings per hill of machine-transplanted hybrid rice utilizing machine vision[J]. Computers and Electronics in Agriculture, 2021, 185: 106178.

    [39]

    SONG W J, MU X H, YAN G J, et al. Extracting the green fractional vegetation cover from digital images using a shadow-resistant algorithm (SHAR-LABFVC)[J]. Remote Sensing, 2015, 7(8): 10425-10443. doi: 10.3390/rs70810425

    [40] 刘黎明. CLAHE算法在不同彩色空间中的图像增强效果评估[J]. 舰船电子对抗,2016,39(6):62-68. doi: 10.16426/j.cnki.jcdzdk.2016.06.014

    LIU Liming. Image enhancement effect evaluation of CLAHE algorithm in different color spaces[J]. Shipboard Electronic Countermeasure, 2016, 39(6): 62-68. (in Chinese with English abstract) doi: 10.16426/j.cnki.jcdzdk.2016.06.014

  • 期刊类型引用(2)

    1. 尉金强,杜文正,孙晓艳,聂婷,唐圣金. 基于目标HSV(色调-饱和度-亮度)空间图像自适应分割的直线检测算法. 火箭军工程大学学报. 2024(05): 59-68 . 百度学术
    2. 王鹏,王雪峰,赵溪月. 基于双目视觉系统的幼龄格木生长因子测定. 森林与环境学报. 2024(06): 628-638 . 百度学术

    其他类型引用(1)

图(10)  /  表(1)
计量
  • 文章访问数:  133
  • HTML全文浏览量:  15
  • PDF下载量:  56
  • 被引次数: 3
出版历程
  • 收稿日期:  2023-05-15
  • 修回日期:  2023-12-21
  • 网络出版日期:  2024-01-16
  • 刊出日期:  2023-12-30

目录

/

返回文章
返回