混合卷积神经网络用于高光谱小麦品种鉴别
李国厚1, 李泽旭1, 金松林1, 赵文义2, 潘细朋3, 梁政4, 秦莉5, 张卫东1,*
1.河南科技学院信息工程学院, 河南 新乡 453003
2.北京邮电大学人工智能学院, 北京 100876
3.桂林电子科技大学计算机与信息安全学院, 广西 桂林 541004
4.安徽大学互联网学院, 安徽 合肥 230039
5.宁波大学信息科学与工程学院, 浙江 宁波 315211
*通讯作者 e-mail: zwd_wd@163.com

作者简介: 李国厚, 1968年生, 河南科技学院信息工程学院教授 e-mail: 527636704@qq.com

摘要

不同品种的小麦满足了市场的不同需求, 同时也会带来小麦品种混杂的风险。 为了提高小麦品种的纯度进而提高选种、 育种、 加工等环节的经济价值, 小麦种子的鉴别起到关键作用。 传统的小麦品种纯度理化分析鉴别方法, 鉴定时间长且破坏种子, 已不能满足现代农业的迫切需要。 高光谱成像作为近年来发展迅速的一种快速、 高效、 无损的新型鉴别技术, 在种子品种鉴别领域取得了显著成效。 然而, 已有的大多数高光谱分类方法仅利用光谱信息, 没有充分考虑空间信息, 分类效果较差。 为了解决上述问题, 利用高光谱成像设备采集8个品种的小麦种子正背面的高光谱图像, 基于这些高光谱数据集, 提出一种基于注意力机制的混合卷积神经网络的高光谱小麦品种鉴别方法, 主要利用三维卷积和二维卷积的互补优势特性提取小麦的有价值特征, 进而提高小麦品种的鉴别效果。 具体而言, 首先提取小麦品种的感兴趣区域, 并利用多元散射校正方法削弱由于散射水平差异带来的同一品种的光谱差异。 同时, 利用主成分分析方法减少三维数据的无用光谱波段, 进而保留并压缩对鉴别小麦品种有价值的特征。 随后, 利用三维卷积获取空间维度和不同光谱间的特征信息, 二维卷积获取空间信息和图像的自身固有的特征信息, 并在二维卷积模型中引入注意力机制进一步增强图像的特征信息的提取。 最后在全连接层实现同一区域不同小麦品种的鉴别。 实验表明, 所提出的方法比其他方法具有较好的分类性能, 分类准确率达97.92%。 此外, 所提出的方法对小样本数据也具有较好的分类性能。 总的来说, 提出的方法对于高光谱小麦种子鉴别具有较好的有效性和鲁棒性, 为小麦种子的在线鉴别提供了一种新的方法。

关键词: 高光谱成像; 小麦品种; 注意力机制; 混合卷积
中图分类号:S123 文献标志码:A
Mix Convolutional Neural Networks for Hyperspectral Wheat Variety Discrimination
LI Guo-hou1, LI Ze-xu1, JIN Song-lin1, ZHAO Wen-yi2, PAN Xi-peng3, LIANG Zheng4, QIN Li5, ZHANG Wei-dong1,*
1. College of Information Engineering, Henan Institute of Science and Technology, Xinxiang 453003, China
2. Artificial Intelligence Academy, Beijing University of Posts and Telecommunications, Beijing 100876, China
3. College of Computer and Information Security, Guilin University of Electronic Science and Technology, Guilin 541004, China
4. Internet Academy, University of Anhui, Hefei 230039, China
5. Faculty of Electrical Engineering Computer Science, Ningbo University, Ningbo 315211, China
*Corresponding author
Abstract

Different varieties of wheat meet the market's diverse needs, but it also brings the risk of mixed wheat varieties. To improve the purity of wheat varieties and thus the economic value of the selection, breeding, and processing, the identification of wheat seeds plays a key role. Traditional methods of physical and chemical analysis of wheat variety purity take a long time to identify and destroy seeds, which can no longer meet the urgent needs of modern agriculture. Hyperspectral imaging is a new, fast, efficient, and nondestructive identification technique that has achieved remarkable results in seed variety identification. Unfortunately, most existing methods use only spectral information without considering spatial information sufficiently to produce unsatisfactory classification results. A hyperspectral imaging device was used to acquire hyperspectral images of the front and back of wheat seeds of eight varieties in the paper. Meanwhile, we propose a hyperspectral wheat variety identification method based on a hybrid convolutional neural network with an attention mechanism, which mainly uses the advantageous complementary features of 3D convolution and 2D convolution to extract valuable features of wheat for driving the identification of wheat varieties. Precisely, we first extract the regions of interest of wheat varieties and use multiple scattering correction methods to weaken the spectral differences of the same variety due to differences in scattering levels. Meanwhile, we use principal component analysis to reduce the useless spectral bands of 3D data and thus retain and compress the valuable features for identifying wheat varieties. Subsequently, a 3D convolution module acquires spatial dimension and feature information between different spectra, a 2D convolution module is used to obtain spatial features and the image's inherent feature information, and an attention mechanism is introduced into the 2D convolution model to refine the features. Finally, the identification of different wheat varieties in the same region is achieved at the fully connected layer. Extensive experiments on our collected dataset show that the proposed method performs better than the state-of-the-art methods, and its classification accuracy reaches 97.92%. Besides, the proposed method has better classification performance for a small sample. In short, the proposed method has good effectiveness and robustness for hyperspectral wheat seed identification and provides a new method for the online identification of wheat seeds.

Keyword: Hyperspectral imaging; Wheat varieties; Attention mechanism; Mixed convolution
引言

与可见光图像相比, 高光谱成像技术不仅能够较好地反映种子的形状和大小, 还能够反映样本内部的化学成分差异。 同时, 机器学习和深度学习在计算机视觉领域广泛应用于识别、 分隔、 检测等[1]。 因此可利用该技术辅助机器学习或深度学习进行种子的快速、 高效及无损鉴别[2, 3, 4]。 高光谱成像技术能够捕获小麦种子的光谱和空间信息, 深度学习能够充分挖掘和利用高光谱图像内部的像元依赖关系, 进而实现种子的鉴别。

传统的高光谱图像鉴别方法主要以提取数据的光谱特征为主, 但受天气、 光强、 噪声等因素干扰, 所捕获的光谱信息和高光谱图像之间存在非线性, 限制了传统方法的鉴别能力。 Wei等[5]将随机子空间线性判别和高光谱技术应用于大豆品种的无损鉴别, 但其鉴别性能不稳定。 朱启兵等[6]利用支持向量数据描述方法构建高光谱玉米鉴别模型, 分类精度达到92.28%, 并解决了传统分类器对新类别样本的错分问题。 Mahesh等[7]将线性判别分析和二次判别方法结合起来对小麦种子高光谱图像进行鉴别, 但小样本严重制约该模型的鉴别能力。 总的来说, 不足的样本和有限的特征限制了传统鉴别方法的性能。

基于机器学习的高光谱图像分类方法依据光谱特性手动或半自动地提取特征。 例如, Fabiyi等[8]提出一种基于随机森林方法的水稻种子分类器, 将RGB和高光谱水稻图像相结合, 取得良好的分类效果。 Miao等[9]将流形学习算法中的t分布随机邻域嵌入机制引入到高光谱图像分类中, 对8个品种糯玉米种子的分类精度达到97.5%。 Wang等[10]采用高光谱成像技术对四种大豆品种进行分类, 并建立基于全波长的支持向量机分类模型, 分类准确率为95.19%。 Sivakumar等[11]在近红外和短波红外区域使用高光谱成像技术采集豆类粉的光谱数据, 并使用最小二乘判别分析对其进行鉴别, 分类模型精度可达95%。 Shao等[12]采用高光谱成像技术对蜂蜜建立了纯蜂蜜和掺假蜂蜜的样本分析模型, 并使用支持向量机进行分类, 但分类性能欠佳。 张航等[13]使用支持向量机对小麦种子高光谱图像进行分类, 但随着小麦种子的品种增多, 分类精度不断下降。 上述研究表明, 传统方法和机器学习方法都过于依赖光谱信息, 而高光谱图像存储具有“ 同谱异物性” 和“ 同物异谱性” , 想要准确鉴别变得颇为不易。

基于深度学习的方法结合高光谱技术逐渐应用到种子鉴别领域。 例如: Nie等[14]使用深度卷积神经网络建立了杂交种子品种分类模型, 六种杂交黄秋葵种子和杂交丝瓜种子的分类精度达到95%。 Zhao等[15]使用一维和二维卷积对小麦种子的高光谱图像进行分类, 分类精度为95.65%。 Wu等[16]提出一种带加权损失的深度卷积神经网络, 根据老化时间将高光谱成像的水稻种子分为三类, 为每一类分配适当的权重, 获得的最高精度为97.69%。 Gai等[17]提出一种基于一维卷积神经网络的光谱分析模型对具有瘀伤苹果的高光谱图像进行鉴别, 精度可达95.79%。 Liu等[18]提出一种基于改进ResNet18高光谱图像的大豆品种鉴别方法, 分类精度为97.36%。 Hao等[19]对枸杞的高光谱图像和纹理数据进行融合, 通过选取最佳波长构建不同区域的枸杞光谱鉴别模型, 使用二维卷积神经网络的分类精度可达97.34%。 由此可见, 深度学习相较于传统方法和机器学习, 具有非常明显的优势, 能够较好地解决非线性、 小样本和过拟合等问题。

深度学习是一种对数据进行表征学习的方法, 一般通过无监督或半监督的方式学习数据的特征, 用来取代人工获取的特征。 卷积神经网络具备较强的特征提取和模型表达能力, 又是最典型的深度学习模型之一, 因此本文以不同品种的小麦高光谱图像为研究对象, 基于卷积神经网络提出一种基于注意力机制的三维卷积和二维卷积混合卷积网络模型(attention-based mix convolutional neural network, AMCNN)。 该网络模型中的三维卷积可以提取空间和光谱信息, 但是会增加计算复杂度, 而二维卷积能够提取空间信息和图像纹理信息, 两者的结合能够加强空间和光谱之间的信息融合, 减少复杂度和算法运行时间。 加入注意力机制又能够提取图像纹理信息, 提高了鉴别的准确性。 试验结果表明, 本文提出的方法具有良好的鉴别性能, 为小麦品种鉴别及分类提供了一种新的思路。

1 实验部分

AMCNN的网络框架, 由三维卷积层、 二维卷积层和全连接层组成, 如图1所示。 (1)首先对数据进行预处理, 即感兴趣区域提取、 主成分分析降维和多元散射校正, 然后将处理好的数据输入AMCNN模型。 (2)AMCNN模型的三维卷积层中包括三个三维卷积, 每次卷积运算后添加批次规则化层(batch normalization, BN), 以减少过拟合并加速收敛。 (3)AMCNN模型的二维卷积层中包括三个二维卷积, 在每个卷积操作后引入注意力机制, 它会沿着通道维度和空间维度推断注意力图, 然后将注意力图乘以输入特征图进行自适应特征优化。 Leaky ReLU用于三维卷积层和二维卷积层模块的激活函数, 防止神经元在输入为负时无效, 充分利用三维和二维卷积模块的自动学习特征能力。 (4)AMCNN模型的全连接层使用LogSoftmax作为模型最后一层的输出, 将原本由CrossEntropy Loss损失函数处理的Log工作提到预测概率分布中, 跳过了中间的存储步骤, 防止中间数值的下溢出, 使得数据更加稳定。

图1 AMCNN框架示意图Fig.1 AMCNN framework diagram

1.1 混合卷积模块

传统的二维卷积模块中, 卷积仅应用于空间维度, 覆盖前一层的所有特征图, 以计算二维鉴别特征图。 但是高光谱图像需要捕获多个频带中编码的光谱信息及空间信息。 二维卷积无法处理光谱信息。 引入的三维卷积可以从高光谱图像中提取不同光谱间的特征关系, 三维卷积模块首先用于人类行为识别[20], 能够在空间和时间维度中同时捕捉特征, 但增加了计算代价。

三维卷积是通过三维内核与三维数据进行卷积实现。 在高光谱图像中, 利用三维内核在输入层的多个连续频段上生成卷积的特征图, 获取空间维度和光谱间的特征, 在三维卷积中, 第i层第j个特征图中的激活值 vi, jx, y, z的表达如式(1)

vi, jx, y, z=φ(bi, j+τ=1dl-1λ=-ηηρ=-γγσ=-δδωi, j, τσ, ρ, λ×vi-1, τx+σ, y+ρ, z+λ)(1)

式(1)中, φ 是激活函数; bi, j是第i层第j个特征图的偏差参数; dl-1是第l-1层的特征图数量, η γ δ 分别表示三维卷积核的长、 宽和高; ωi, j, τσ, ρ, γ表示卷积核连接特征图j在(σ , ρ , γ )位置的权重值, 这里σ , ρ , γ 是卷积期间在三个维度上的索引。

在二维卷积中, 输入数据用二维卷积核进行卷积。 卷积是通过计算输入数据和内核之间的点积之和来实现的, 内核跨越输入数据以覆盖整个空间信息。 通过激活函数传递卷积特征, 在模型中引入非线性。 其中第i层第j个特征图在空间位置(x, y)处的激活函数 vi, jx, y被定义如式(2)

vi, jx, y=φ(bi, j+τ=1dl-1ρ=-γγσ=-δδωi, j, τσ, ρ×vi-1, τx+σ, y+ρ)(2)

参数详情如式(1)。

1.2 注意力机制模块

卷积注意力模块(convolutional block attention model, CBAM)[21]是一种简单高效的用于前馈神经网络的注意力模块, 也是一个轻量级通用模块, 所以它可以嵌入任何卷积架构中, 而无需考虑模块损失并进行端到端训练。 主要网络架构是由一个通道注意力模块和一个空间注意力模块组成, 如图2所示。

图2 CBAM模块示意图Fig.2 CBAM module schematic

通道注意力机制是在空间维度上压缩特征图以得到一维矢量, 然后对其进行操作, 不仅考虑平均池化(average pool), 还考虑最大池化(max pool), 发送聚合特征映射的空间信息到共享网络, 然后压缩输入特征图的空间维数, 最后将MLP输出的特征进行基于element-wise的加和操作, 再经过sigmoid激活操作以生成通道注意力图。 平均池化对特征图上的各像素点都有反馈。 在进行梯度反向传播计算时, 最大值池化仅对特征图中响应最大的地方有梯度的反馈, 通道注意力机制的表达式见式(3)

Mc(F)=σ(MLP(AvgPool(F))+MLP(MaxPool(F)))=σ(W1(W0(Favgc))+W1(W0(Fmaxc)))(3)

空间注意力机制是压缩通道中的特征图, 通道维度上分别进行平均池化和最大池化。 将生成的通道注意力图和输入特征图做乘法操作, 进行最大池化操作以从通道上提取最大值; 进行平均池化操作的目的是提取通道平均值。 最大池化和平均池化均以高乘以宽的次数进行提取, 然后对提取的特征图进行融合获得一个2通道特征映射。 空间注意力机制的表达式见式(4)

Ms(F)=σ(f3×3([AvgPool(F); MaxPool(F)]))=σ(f3×3([Favgs; Fmaxs]))(4)

式(4)中, σ 为sigmoid操作, 3× 3表示卷积核的大小。

1.3 损失函数

使用交叉熵损失函数CrossEntropy Loss作为损失函数, 用于评估实际输出与期望输出之间的接近程度。 交叉熵原本是信息论中的概念, 用来估算平均编码的长度。 在深度学习中, 一般作为多分类问题的损失函数, 交叉熵刻画的是两个概率分布的距离, 交叉熵值越小, 两个概率分布越接近。 对于给定的两个概率分布pq, 其表达如式(5)

H(p, q)=i=1np(xi)log1q(xi)=-i-1np(xi)logq(xi)(5)

式(5)中, p(xi)表示正确分布, q(xi)表示预测分布。 实际上交叉熵度量的是预测值和真实标签值之间的信息损失, 其与KL散度的表达式见式(6)

DKL(pq)=i=1np(xi)logp(xi)-i=1np(xi)logq(xi)=-H(p)+H(p, q)(6)

显然, 只有当q(xi)=p(xi)时, DKL(pq)有最小值, 这意味着预测的结果越接近越好。

2 结果与讨论
2.1 实验数据

高光谱图像采集系统如图3所示, 采集设备是SOC710便携式可见/近红外成像光谱仪, 其光谱范围为400~1 000 nm, 光谱分辨率为4.687 5 nm, 共128个波段, 图像像素为696× 520。 原始高光谱图像采用ENVI 5.3软件进行数据格式转换, 并截取感兴趣区域。

图3 高光谱图像采集系统示意图Fig.3 Schematic diagram of hyperspectral image acquisition system

实验采用的小麦种子是从河南、 山东两省选取出的8类优质小麦, 如表1所示。 首先, 收集图像数据。 为了确保每个样本上光谱数据能够最好地展示出来, 采集了每个小麦种子的背面(小麦种子的凸面)和正面(小麦种子的凹面)数据。 从每个小麦种子品种中采集60个样本, 每个品种样本共采集120张图片。 选取了8个品种的小麦种子, 共获得960个高光谱图像数据, 尺寸为696× 520× 128, 如图4所示。

表1 小麦品种信息表 Table 1 Wheat variety information sheet

图4 小麦种子部分光谱波段示意图
(a): 第10波段; (b): 第20波段; (c): 第30波段; (d): 第40波段; (e): 第50波段; (f): 第60波段; (g): 第70波段; (h): 第80波段; (i): 第90波段; (j): 第100波段; (k): 第110波段; (l): 第120波段
Fig.4 Schematic diagram of some spectral bands of wheat seeds
(a): Band 10; (b): Band 20; (c): Band 30; (d): Band 40; (e): Band 50; (f): Band 60; (g)Band 70; (h): Band 80; (i): Band 90; (j): Band 100; (k): Band 110; (l): Band 120

2.2 收敛分析

计算机具体配置为AMD Ryzen 7 3700X 8-Core CPU、 16GB运行内存、 NVIDIA Geforce GTX 1650 super显卡、 4GB显存。 软件环境为在64位Windows 11下的Python3.6和torch-gpu-1.10.1。

训练模型时, 为了防止模型过拟合, 全连接层使用Dropout, 即在全连接层中的节点有20%的概率为0。 使用Adam优化器, 基于分类结果选择了最优学习率0.01, 并使用指数衰减学习率, 以在后期获取更加稳定的模型。 采用批量训练的方法, 设置批量大小为36。 经过120次迭代后, 损失率趋于稳定。 如图5所示, 模型训练中的收敛曲线在前30次迭代中迅速下降; 经过80次迭代后, 模型的损失值稳定且趋近于0, 表现出良好的性能和稳定性。

图5 AMCNN的收敛曲线Fig.5 Convergence curve of the AMCNN

2.3 多分类评估

按照“ 训练集:测试集=9:1” 的原则进行随机划分, 选取support vector machine (SVM)[22]、 K-nearest neighbor (KNN)[23]、 stochastic gradient descent (SGD)[24]、 random forest (RF)[25]四类机器学习模型和dual convolutional neural network (DCNN)[26]、 residual networks (ResNet)[27]、 hybrid spectral net (HybridSN)[28]三类深度学习模型, 共7类作为对比模型, 评价指标使用F1-sorce、 Recall、 Precision和Accuracy的加权平均来进行验证。 Accuracy为分类结果正确的样本(包括正负样本)占所有样本的比例。 Precision表示分类出的正确的正样本占所有分类结果为正样本的比例。 Recall表示分类结果正确的正样本占所有正样本的比例。 F1-sorce由Precision和Recall共同决定。 以上指标的值越高, 模型分类效果越好。 分类结果如表2所示。

表2 AMCNN模型与其他分类模型分类结果 Table 2 Recognition results of AMCNN model and other classification models

整体而言, AMCNN网络在所有指标上均显著优于其他模型, AMCNN网络的Accuracy为97.92%, 比机器学习的Accuracy高约1.04%~3.13%, 比其他深度学习模型的Accuracy高约2.08%~3.13%, 改善了小麦高光谱分类的效果。 而且AMCNN算法表现也很突出, 整体结果可以看出, 在样本比较少时, 由于深度学习依赖于大量数据集, 在整个测试集上表现并不突出, 而机器学习能够在这种情况下表现出其优势, 本文提出的AMCNN由于综合了高光谱的空间和光谱信息, 能够在训练集数量较少的情况下表现出较高的分类准确率。

AMCNN网络模型测试集样本分类的混淆矩阵如图6所示, 分析能够得出, AMCNN网络模型对8种小麦种子的品种鉴别准确率均超过了90%, 其中郑麦101、 郑麦366、 百农AK58、 济麦22、 周麦28的鉴别准确率最高为100%, 原因是这5个品种的小麦种子与其他品种的小麦种子在亲缘关系上无交集, 因而特征存在较大差异, 易于鉴别。 郑麦7698和百农207的鉴别较差, 且与中育9307三者之间存在错误鉴别样本, 原因是这三者不仅产地相同, 且都是由周麦16杂交获得。

图6 测试集中AMCNN模型的分类混淆矩阵Fig.6 Classification confusion matrix of the AMCNN model in the test set

2.4 消融研究

为证明本方法中每个模块的有效性, 对提出的网络进行消融实验, 包括无注意力模块(-w/o AM)、 无BN层(-w/o BN)以及无三维卷积(-w/o 3DCNN)和无二维卷积(-w/o 2DCNN)。 评价指标包括F1-sorce、 Recall、 Precision和Accuracy的加权平均。 每次修改一项, 其余参数设置与原网络保持一致, 以进行公平比较, 消融结果如表3所示。

表3 消融实验 Table 3 Ablation experiment

相较于无二维卷积的模型, 无三维卷积的模型分类准确率下降了5.21%。 这是由于光谱的“ 同谱异物性” 和“ 同物异谱性” 造成的。 实验结果表明, 三维卷积的引入改进了模型, 提高了分类精度。 这是因为高光谱图像具有很强的波段相关性, 通过在不同特征图上的滑动卷积运算, 可以更好地提取每个图像的特征, 有助于提高分类模型的精度。 无BN层和无注意力模块的分类准确率相较于原网络分别下降了2.08%和1.04%, 说明BN层和注意力模块影响着网络, 能有效提高分类效果。

3 结论

提出了一种AMCNN模型, 利用高光谱成像技术对小麦种子进行无损鉴别, 结合三维卷积和二维卷积, 引入注意力机制模块, 能够在样本数量较小的情况下进行分类, 且准确率能达到97.92%, 在7类对比实验中取得了较好的结果, 证明了本文提出的网络模型的可行性和有效性。

尽管本文提出的网络可以提高小样本数据的分类精度, 但在对一些多样化种子进行分类时, 由于年份、 产地不同, 可能会导致模型泛化能力不足。 近年来, 迁移学习技术用于改善深度神经网络模型泛化能力, 但在基于深度卷积神经网络的高光谱种子品种鉴定领域仍然有待试验, 需要进一步进行研究。 在未来的工作中, 我们将扩大小麦种子的种类和数量, 以验证我们的AMCNN模型。

参考文献
[1] Sun Ke, Wang Zhengjie, Tu Kang, et al. Scientific Reports, 2016, 6(1): 37994(https:doi.org/10.1038/srep37994). [本文引用:1]
[2] Jin Songlin, Zhang Weidong, Yang Pengfei, et al. Computers and Electrical Engineering, 2022, 101: 108077. [本文引用:1]
[3] Huang Min, Tang Jinya, Yang Bao, et al. Computers and Electronics in Agriculture, 2016, 122: 139. [本文引用:1]
[4] Jin Baichuan, Zhang Chu, Jia Liangquan, et al. ACS Omega, 2022, 7(6): 4735. [本文引用:1]
[5] Wei Yanlin, Li Xiaofeng, Pan Xin, et al. Sensors, 2020, 20(23): 6980. [本文引用:1]
[6] ZHU Qi-bing, FENG Zhao-li, HUANG Min, et al(朱启兵, 冯朝丽, 黄敏, ). Spectroscopy and Spectral Analysis(光谱学与光谱分析), 2013, 33(2): 517. [本文引用:1]
[7] Sivakumar Mahesh, Jayas Digvir S, Paliwal Jitendra, et al. Transactions of the ASABE, 2014, 57(1): 63. [本文引用:1]
[8] Fabiyi Samson Damilola, Vu Hai, Tachtatzis Christos, et al. IEEE Access, 2020, 8: 22493. [本文引用:1]
[9] Miao Aimin, Zhuang Jiajun, Tang Yu, et al. Sensors, 2018, 18(12): 4391. [本文引用:1]
[10] Wang L, Pang L, Yan L, et al. Journal of Applied Spectroscopy, 2022, 89(1): 84. [本文引用:1]
[11] Sivakumar Chitra, Chaudhry Muhammad Mudassir Arif, Paliwal Jitendra. LWT, 2022, 154: 112799. [本文引用:1]
[12] Shao Yuanyuan, Shi Yukang, Xuan Guantao, et al. Vibrational Spectroscopy, 2022, 118: 103340. [本文引用:1]
[13] ZHANG Hang, YAO Chuan-an, JIANG Meng-meng, et al(张航, 姚传安, 蒋梦梦, ). Journal of Triticeae Crops(麦类作物学报), 2019, 39(1): 96. [本文引用:1]
[14] Nie Pengcheng, Zhang Jinnuo, Feng Xuping, et al. Sensors and Actuators B: Chemical, 2019, 296: 126630. [本文引用:1]
[15] Zhao Xin, Que Haotiao, Sun Xiulan, et al. Infrared Physics & Technology, 2022, 125: 104270. [本文引用:1]
[16] Wu Na, Weng Shizhuang, Chen Jinxin, et al. Computers and Electronics in Agriculture, 2022, 196: 106850. [本文引用:1]
[17] Gai Zhaodong, Sun Laijun, Bai Hongyi, et al. Spectrochimica Acta Part A: Molecular and Biomolecular Spectroscopy, 2022, 279: 121432. [本文引用:1]
[18] Liu Hongyu, Qu Fuheng, Yang Yong, et al. Journal of Physics: Conference Series, 2022, 2284(1): 012017. [本文引用:1]
[19] Hao Jie, Dong Fujia, Li Yalei, et al. Infrared Physics & Technology, 2022, 125: 104286. [本文引用:1]
[20] Ji Shuiwang, Xu Wei, Yang Ming, et al. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 35(1): 221. [本文引用:1]
[21] Woo Sanghyun, Park Jongchan, Lee Joon-Young, et al. CBAM: Convolutional Block Attention Module, European Conference on Computer Vision, 2018. 3. [本文引用:1]
[22] Chen Yingnong, Thaipisutikul Tipajin, Han Chinchuan, et al. Remote Sensing, 2021, 13(1): 130. [本文引用:1]
[23] Liu Ziwei, Jiang Jinbao, Du Ying, et al. IEEE Access, 2021, 9: 147527. [本文引用:1]
[24] Tang Haojin, Huang Zhiquan, Li Yanshan, et al. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 1. [本文引用:1]
[25] Li Qiaosi, Wong Frankie Kwan Kit, Fung Tung. Remote Sensing of Environment, 2021, 258: 112403. [本文引用:1]
[26] LI Guan-dong, ZHANG Chun-ju, GAO Fei, et al(李冠东, 张春菊, 高飞, ). Chinese Journal of Graphical Imagery(中国图象图形学报), 2019, 24(4): 639. [本文引用:1]
[27] Paoletti Mercedes E, Haut Juan Mario, Fernand ez-Beltran Ruben, et al. IEEE Transactions on Geoscience and Remote Sensing, 2018, 57(2): 740. [本文引用:1]
[28] Roy S K, Krishna G, Dubey S R, et al. IEEE Geoscience and Remote Sensing Letters, 2019, 17(2): 277. [本文引用:1]