锐单电子商城 , 一站式电子元器件采购平台!
  • 电话:400-990-0325

RS2022/云检测:考虑域偏移问题的卫星图像半监督云检测Semi-Supervised Cloud Detection in Satellite ...

时间:2023-11-21 05:37:01 2202传感器

Semi-Supervised Cloud Detection in Satellite Images by Considering the Domain Shift Problem考虑区域偏移的卫星图像半监督云检测

  • 0.摘要
  • 1.概述
  • 2.拟议方法
    • 2.1. 传统的半监督分割框架
    • 2.2. 提出的半监督云检测框架
    • 2.3. 缩小域分布间隙
      • 2.3.1. 适应特征级领域
      • 2.3.2. 适应输出级领域
    • 2.4. 生成可靠的伪标签
      • 2.4.1. 选择候选标签
      • 2.4.2. 可信区域从候选标签中选择
      • 2.4.3. 自我训练L~st~损失
    • 2.5.网络架构
      • 2.5.1. 云检测网络
      • 2.5.2. 鉴别器网络
  • 3.实验
    • 3.1.网络训练设置
    • 3.2.消融实验
      • 3.2.1.消融损失函数
      • 3.2.2.特征层数的消融
      • 3.2.3.消融阈值
      • 3.2.4.分析超参数
    • 3.3.与其他先进方法进行比较
    • 3.4.计算复杂度分析
  • 参考文献

开源代码

0.摘要

在半监督云检测方面,我们正在努力通过有限数量的像素级标记图像和大量未标记图像学习一个有前途的云检测模型。然而,由于地球表面的云形状和陆地覆盖类型不同,从同一卫星传感器获得的遥感图像往往存在数据分布漂移问题。因此,标记卫星图像与未标记卫星图像之间存在区域分布空白。为了解决这个问题,我们在半监督学习(SSL)域转移问题考虑在网络中。通过特征级和输出级的域适配,减少了标记图像与无标记图像的域分布差距,提高了SSL网络预测结果的准确性。在Landsat-8 OLI和GF-1 WFV多光谱图像上的实验结果表明,在使用有限数量的标记样本时,提出了半监督云检测网络(SSCDnet)能实现有前途的云检测性能,优于几种最先进的云检测性能SSL方法。

1.概述

随着地球观测技术的发展,越来越多的光学卫星被发射到地球观测任务中。光学卫星获得的遥感图像可用于环境保护[1]、全球气候变化[2]、水文[3]、农业[4]、城市发展[5]和军事侦察[6]。然而,由于60%的地球表面被云覆盖,获得了光学遥感(RS)图像经常被云污染[7]。在气象领域,遥感图像的云信息在天气预报中非常有用[8],云覆盖可以降低卫星图像的质量。因此,通过云检测提高遥感图像的质量至关重要。
在过去的几十年里,从遥感图像中检测了广泛关注。提出了许多先进的云检测技术。本文大致将这些方法分为基于规则和机器学习的方法。大多数基于规则的方法都自光谱/空间域[9-12]。利用可见光、短波红外线和热波段的反射率变化来区分云和晴空像素。基于规则的方法有明显的缺陷,即强烈依赖于特定的传感器模型,泛化性差。例如,为Sentinel-2和Landsat 卫星图像开发4/5/7/8Fmask算法[9-11](MFC)方法[12]仅为GF-1广域视图(WFV)卫星图像开发。此外,基于机器学习的云检测方法因其强大的数据适应性而备受关注。基于机器学习的最具代表性的云检测方法是支持向量机最大的[13、14](SVM)[15,16]和神经网络[17,18]。然而,这些方法在很大程度上取决于手工制作的特点,如颜色、纹理和形态特征,以区分云和晴空像素
近年来,随着深度学习的发展,深度卷积神经网络(DCNN)该方法发展迅速,广泛应用于遥感图像的云检测。例如,U-Net和SegNet变体云检测框架[19-23]和多尺度/级特征集成云检测框架[24-28]。此外,开发了先进的卷积神经网络(CNN)模型,如CDnetV2[7]和ACDnet用于从云雪共存的遥感图像中检测云。提出了轻型神经网络,如[30–用于从遥感图像中检测像素云。然而,过去大多是基于它的CNN基于监督学习框架的云检测方法。尽管这些基于CNN云检测方法取得了令人印象深刻的性能,但它们严重依赖于大量具有强像素注释的训练数据。最近的一些云检测工作,如无监督域自适应(UDA)[33,34]和域转换策略[35]已经开始探索如何避免使用像素注释进行云检测网络训练。然而,这些无像素注释并不是真正的无标签方法,因为它们依赖于其他标签数据集。
获取数据标签是一项昂贵而耗时的任务,尤其是像素注释。如cityscapes从像素大小到1024×在2048年高分辨率城市场景图像中标记像素级注释通常需要1.5小时。像素大小为8k×8k根据这种经验,可能需要更多的时间来标记整个场景的遥感图像。虽然单独标记云像素样本更容易,但可能需要三到四个小时才能包含大量细云,这无疑增加了手动标记的高成本。未标记的遥感图像比标记的图像更容易获得[37]。因此,迫切需要研究如何利用大量未标记的数据来提高云检测模型的性能。
本文提出使用半监督学习(SSL)训练云检测网络的方法[38,39]。因为SSL该方法可以降低手动数据集标记的高成本。在半监督分割框架中,如DAN[37]和s4GAN[40],分割网络(云检测网络)能够同时利用大量未标记样本和有限数量的标记样本进行网络参数学习。SSL方法的核心是自我训练[41]策略,可以利用大量未标记样本生成的伪标签来监督分段网络训练[42]。这也意味着准确的伪标签是自我训练的关键。所以,最先进的SSL方法(如[40,43])侧重于改进未标记样本的伪标签,以改进SSL网络性能。
为传统自然图像的分割开发SSL网络,如[38–由于遥感图像不同于传统的
相机自然图像,卫星图像云检测的良好性能可能无法实现。此外,由于不同卫星图像上的云形状和土地覆盖类型不同,数据漂移可能发生在有限数量的标记样本和大量未标记样本之间。由于数据漂移问题,用标记样本训练SSL未标记样本的网络很难推广。在训练期间,当网络输入未标记的数据时,SSL网络可能会产生低确定性的预测结果[40]。未标记样本的预测结果确定性较低,无法生成准确的伪标签,这使得自我训练不利于提供在线训练的监督信号。
为了解决这个问题,我们考虑了SSL框架域转移问题。本文受UDA启发方法[44],提出半监督云检测网络(SSCDnet)应用特征级[45]和输出级[46、47]域适应解决数据漂移问题。本文采用了两个可用的云覆盖验证数据集,即Landsat-8 OLI (Operational Land Imager)[48]云覆盖验证数据集(https://landsat.usgs.gov/ Landsat-8 -cloud-cover-assessment-validation-data,访问2022年4月24日GF-1 WFV云和云阴影覆盖验证数据集(http://sendimage.whu.edu.cn/en/mfc-validation-data/, accessed on 24 April 2022),全面评估拟议SSCDnet。基于监督,这两个数据集被广泛用于评估cnn云检测方法性能[19 - 23,27]
综上所述,本文的主要贡献如下

  • 我们提出了一个半监督云检测框架,名为SSCDnet,该框架从有限数量的像素级标记样本和大量未标记样本中学习云检测的知识。
  • 为了减少域分布差距,我们考虑了标记图像与未标记图像之间的域转移,并提出了特征级和输出级的域适应方法。
  • 我们提出了一种获得可靠伪标记的双阈值伪标记方法,这有助于避免噪声标签对自我训练的影响,进一步改进SSCDnet的性能。

2.拟议方法

本节详细介绍了提出的内容SSCDnet,包括传统的半监督分割框架和提出SSCDnet整体工作流、特征/输出域适应、可信伪标签标签、云检测网络和识别器网络结构。

2.1. 传统的半监督分割框架

在这里插入图片描述

图1。传统的半监督分割框架。

在传统的半监督分割框架[37-40]中,如图1所示,分割网络G使用大量未标记样本和有限数量的标记样本来培训网络参数。在这个框架中,有两个数据集,即标记数据集Ml = {xl, yl}无标记数据集Mu = {xu},其中xl和xu是分割网络G的输入数据,yl是xl/sup>的像素级标签。pl和pu分别代表xl和xu的预测结果。pˆu代表pu的伪标签。
在训练过程中,给定一个标记为图像xl的输入,分割网络G由一个标准的交叉熵损失Lce监督。当使用未标记的数据xu时,分割网络被一个自我训练的损失Lst进一步监督。即我们用预测结果pu生成的伪标签pˆu作为“ground truth”进行自训练,以增强语义分割网络G。因此,分割网络G的总训练目标LG定义如下:

λst权值用于最小化目标LG
如图2所示,不同地方的遥感图像由于地球表面云的形状和土地覆盖类型的不同,彼此之间的域分布差距较大。因此,SSL的训练数据集中有标记的样本和没有标记的样本之间存在数据漂移。在SSL框架中,由于数据漂移问题,用标记样本训练的分割网络G很难推广到未标记的样本。对于未标记样品,很难产生高度确定的预测结果。低确定性的预测结果会导致低质量的伪标签,从而影响自训练损失Lst提供的监督信号,进而影响分割网络g的性能。因此,提高未标记样本预测结果的确定性是半监督学习框架的关键。

2.2. 提出的半监督云检测框架

图3。拟议SSCDnet的详细结构。

在本文中,我们在半监督学习(SSL)框架中考虑了域转移问题,以提高分割网络的泛化能力,生成可信的伪标签进行自我训练。我们采用UDA策略对标准SSL网络进行改进,提出了一种改进的半监督云检测网络,如图3所示。UDA方法能够帮助语义分割网络学习不同表示层的域不变特征,如输入级(像素级)[49],特征级[45],或输出级[46,47]。
与传统的SSL框架不同,我们在网络中间层和终端层分别采用特征级和输出级域适配,以减少域分布间隙,提高SSCDnet的泛化性能。对于未标记的样本,高度泛化的网络能够产生高度确定的预测结果。为了进一步提高伪标签的质量,我们没有直接利用未标记样本的预测结果进行网络训练,而是提出了一种可信的伪标签标注方法,以获得高质量的伪标签。具体来说,类似于[40,43],我们利用outputlevel域适应的反馈信息来获得高质量的候选标签。然后,我们使用阈值策略从高质量的候选标签中获得可信区域。最后,通过自我训练损失,将可信区域作为网络训练的地面真实标签
在训练过程中,给定一个标记为xl的输入图像,其对应的预测结果为pl,云检测网络由一个标准的交叉熵损失Lce[27]监督。当输入未标记数据xu时,分割网络G预测其对应的结果pu。然后,利用所提出的可信伪标签标注方法,由预测结果pu生成伪标签pˆu。伪标签pˆu作为自训练的“ground truth”来增强语义分割网络g。因此,在输入未标记数据时,进一步对语义分割网络进行自训练损失Lst和特征级域适应损失Lfda以及输出级域适应损失Loda的监督。半监督云检测网络名为SSCDnet,其总损耗定义如下:

其中λst、λoda和λfda是三个调节参数,用于最小化目标LG
在训练过程中,我们最小化LG来更新分割网络g的参数。本文提出的特征/输出级域适应策略和可信伪标签标注方法的详细信息将在下面的小节中介绍。

2.3. 缩小域分布间隙

2.3.1. 特征级的领域适应

图4。提出的类相关特征对齐模块的结构。

为了减少特征层上的域分布差距,我们提出了一种类相关特征对齐(CRFA)策略。如图4所示,我们使用每个类(即云类和背景类)的预测得分图作为注意力图,获得类相关特征。然后,我们设计一个标准的二值分类网络作为判别器,帮助分割网络G生成域不变的特征表示,从而在特征层面上减少标记样本和未标记样本的域分布差距。因此,本文提出的CRFA域适应包括两个阶段:(i)类相关特征选择和(ii)类相关特征对齐。
其中Hkl∈RW×H×C和Hku∈RW×H×C分别表示从网络G的第k个中间隐含层提取的已标记样本和未标记样本的特征。p˜il(:,:, 1)和p˜il(:,:, 2)分别表示标记样品的云和背景区域的空间注意图。然后对被标记样本的特征Hkl∈RW×H×C的云相关特征Ckl∈RW×H×C和背景相关特征Bkl∈RW×H×C定义如下:

式中F(·)为采样算子,包括下采样算子和上采样算子。同样,我们可以获得未标记样本的特征Hku∈RW×H×C的云相关特征Ckul∈RW×H×C和背景相关特征Bku∈RW×H×C
在获得这些类相关的特征之后,我们将这些特征输入到识别器中,如图4所示。对于鉴别器训练,鉴别器D(k,1)crfa和D(k,2)crfa使用领域分类交叉熵损失[44]作为目标函数。它们的定义如下:

对于分割网络训练,判别器(D(k,1)crfa和D(k,2)crfa)提供的对抗目标定义如下:

因此,第k个中间隐藏特征的类相关特征对齐损失Lkcrfa定义如下:

由于本文提出的特征级域适应是在多个中间层进行的,因此特征级域适应损失Lfda由所有中间层的CRFA损失{Lkcrfa}K k=1提供,即

式中Lkcrfa为第k个中间隐藏特征的特征域适应损失。

2.3.2. 输出级领域适应

图5。拟议CROA的结构

我们不是直接对齐预测结果,而是通过提出的类相关输出对齐(CROA)方法,分别对从标记样本和未标记样本中提取的云和背景目标图像进行对齐。与CRFA方法相似,CROA方法建立在标准的对抗性学习框架上。CROA由两个鉴别器组成,分别用于对云图和背景图进行对齐。如图5所示,我们使用两个标准的二进制分类网络作为鉴别器,以减少有标记数据集和无标记数据集在输出层面的域分布差距,提高无标记样本xu预测结果zu的确定性。
如图5所示,我们使用从原始图像中提取的云和背景对象作为不同鉴别器的输入数据。其中zuc = pu(:,:, 1)⊗xu, zub = pu(:,:, 2)⊗xu表示未标记样品中提取的云和背景物。类似地,让zlc = pl(:,:, 1)⊗xl和zlb = pl(:,:, 2)⊗xl表示已标记样本中提取的云和背景对象,其中⊗表示逐像素乘法。
在鉴别器训练中,鉴别器D1croa和D2croa都以交叉熵域分类损失[44]为目标函数。鉴别器损失定义如下:

对于分割网络训练,这些鉴别器提供的对抗目标定义如下:

因此,输出级域适应目标Loda定义如下:

如图6所示,我们在GF-1 WFV图像上展示了应用或不应用域适应的可视化实验结果。结果表明,应用域适应能够改进分割网络,对未标记样本产生较高的确定性预测结果,如图6c所示。较高的确定性预测结果保证了我们能够获得可信的伪标签进行自我训练,从而提高了网络的云检测性能。更详细的信息可以在章节4.1(消融研究)中找到。

图6。未标记遥感图像的实验结果。(a)输入GF-1 WFV图像;(b)未应用的域适应结果;©应用的域适应结果。

2.4. 可信赖的伪标签生成

伪标签标签是SSL框架中自我训练的主要工作[38 - 40,43,50]。在自我训练过程中,分割模型预测的伪标签作为“ground truth”,为网络训练提供额外的监督信号,这使得分割网络能够利用未标记的数据。本文提出了一种双阈值伪标记方法,可以有效地从伪标记中获取可信区域。我们使用可信区域作为网络训练的地面真相。

2.4.1. 候选标签选择

图7。用于自我训练的双阈值伪标记方法。

如图7所示,我们将未标记的图像xu采样到分割网络G中,得到其对应的预测概率图pu = G(xu),以及提取的云和背景对象zuc和zub。我们首先使用来自输出级域适应的反馈信息来获得候选标签。具体来说,我们基于输出级域适应的两个鉴别器得分在线选择高质量的伪标签,即

其中τ1为临界值。式(16)为输出级域适应反馈信息。我们将满足式(16)的这些预测标签作为候选标签。如果不满意,直接设自我训练损失Lst = 0。

2.4.2. 从候选标签中选择可信区域

在获得候选标签后,我们设置一个置信阈值τ2来发现可信区域,即:

公式(17)表明,如果这些区域的预测概率大于τ2,我们将这些可信区域作为自训练的基础真值

2.4.3. 自我训练Lst损失

根据上述方法,定义自训练损失Lst为:

其中pˆu是通过使用独热编码方案从预测映射pu生成的伪标签。pu(w,h,c)表示c通道(h,w)位置的预测概率。

2.5.网络架构

2.5.1. 云检测网络

与大多数SSL方法相似[40,43],我们使用DeepLabv2[51]作为我们的主云检测框架,并以ResNet-101[52]为骨干提取语义分割信息。DeepLabv2使用atrous空间金字塔池化(ASPP)模块[51],该模块融合了多个不同采样率的并行扩展卷积层[53],以捕获多尺度特征,实现鲁棒性云检测。在本文中,我们将预测概率图的分辨率设为输入图像的1/8 × 1/8大小,以便与之前基于DeepLabv2的半监督作品(如[37,40])进行公平的比较。然后,我们直接上采样预测概率映射到与输入图像相同的大小,以获得最终的预测结果。

2.5.2. 鉴别器网络

在本文中,我们设计了一个标准的二进制分类网络作为CRFA和CROA模块的鉴别器。图8说明了设计的鉴别器的详细结构。该鉴别器包含四个卷积层、一个全局平均池化层和一个全连接层。具体来说,卷积层有4 × 4个核。CRFA和CROA模块的4个卷积层的通道分别为{256,192,128,64}和{64,128,256,512}。每个卷积层共享相同的步幅(stride = 2),同时有一个Leaky-ReLU激活(slope = 0.2)和一个dropout层(dropout-rate = 0.5)。经过这些卷积运算后,设计一个全局平均池化层和一个全连接层,对每个输入图像进行置信度评分。

图8。提出的鉴别器网络结构

3.实验

3.1.网络训练设置

SSCDnet在PyTorch框架下进行培训(https://pytorch.org/,于2022年4月24日访问)。操作系统为Ubuntu 14.04,搭载NVIDIA GTX 1080 Ti GPU。我们分别使用SGD算法[55]和Adam优化器[56]对分割(发生器)和鉴别器网络进行优化。在训练过程中,这两个数据集共享以下参数设置。即生成器和鉴别器网络的学习率分别为2.5 × 10−4和1 × 10−4。训练衰减策略是“poly”[57]。小批量大小、动量和重量衰减数分别为4、0.9和5 × 10−4。SSCDnet分别在Landsat-8 OLI和GF-1 WFV数据集上训练20和15个epoch
此外,为了提高性能,我们使用在ImageNet数据集[58]上预训练的模型来微调骨干网(ResNet-101)的参数。我们在Conv4_x和Conv5_x残差块K = 2的末尾进行特征级域适应任务。我们对GF-1数据集设置权重参数λst = 1.0, λfda = 0.001, λoda = 0.1,对Landsat-8 OLI数据集设置权重参数λst = 1.0, λfda = 0.001, λoda = 0.01。此外,我们通过经验设置阈值参数τ1 = 0.6和τ2 = 0.55对GF-1和Landsat-8 OLI数据集都能准确地生成可信的伪标签。

3.2.消融实验

3.2.1.损失函数的消融

表2:GF-1 WFV数据上不同消融网络的云提取精度(%)。其中1/200、1/100、1/40和1/20是数据集中用作标签数据的总训练图像的部分,其余的数据没有标签。粗体表示本文中的最大值。

3.2.2.特征层数的消融

3.2.3.阈值的消融

3.2.4.超参数的分析

3.3.与其他先进方法的对比

Table6。不同比较网络对GF-1 WFV数据的云提取精度(%)。所有结果都是所有测试图像的平均结果。


表7。Landsat-8 OLI数据上不同比较网络的云提取精度(%)。所有结果均为所有测试图像的平均结果。

3.4.计算复杂度分析

参考文献

  1. Zhao, S.; Wang, Q.; Li, Y .; Liu, S.; Wang, Z.; Zhu, L.; Wang, Z. An overview of satellite remote sensing technology used in China’s environmental protection. Earth Sci. Inform. 2017, 10, 137–148. [CrossRef]
  2. Yang, J.; Gong, P .; Fu, R.; Zhang, M.; Chen, J.; Liang, S.; Xu, B.; Shi, J.; Dickinson, R. The role of satellite remote sensing in climate change studies. Nat. Clim. Chang. 2013, 3, 875–883. [CrossRef]
  3. Schmugge, T.J.; Kustas, W.P .; Ritchie, J.C.; Jackson, T.J.; Rango, A. Remote sensing in hydrology . Adv. Water Resour. 2002, 25, 1367–1385. [CrossRef]
  4. Shanmugapriya, P .; Rathika, S.; Ramesh, T.; Janaki, P . Applications of remote sensing in agriculture—A Review. Int. J. Curr.
    Microbiol. Appl. Sci. 2019, 8, 2270–2283. [CrossRef]
  5. Kabisch, N.; Selsam, P .; Kirsten, T.; Lausch, A.; Bumberger, J. A multi-sensor and multi-temporal remote sensing approach to detect land cover change dynamics in heterogeneous urban landscapes. Ecol. Indic. 2019, 99, 273–282. [CrossRef]
  6. Bachagha, N.; Wang, X.; Luo, L.; Li, L.; Khatteli, H.; Lasaponara, R. Remote sensing and GIS techniques for reconstructing the military fort system on the Roman boundary (Tunisian section) and identifying archaeological sites. Remote Sens. Environ. 2020, 236, 111418. [CrossRef]
  7. Guo, J.; Yang, J.; Yue, H.; Tan, H.; Hou, C.; Li, K. CDnetV2: CNN-Based Cloud Detection for Remote Sensing Imagery with Cloud-Snow Coexistence. IEEE T rans. Geosci. Remote Sens. 2020, 59, 700–713. [CrossRef]
  8. Sliwa, B.; Falkenberg, R.; Liebig, T.; Piatkowski, N.; Wietfeld, C. Boosting vehicle-to-cloud communication by machine learningenabled context prediction. IEEE T rans. Intell. T ransp. Syst. 2019, 21, 3497–3512. [CrossRef]
  9. Zhu, Z.; Wang, S.; Woodcock, C.E. Improvement and expansion of the Fmask algorithm: Cloud, cloud shadow, and snow detection for Landsats 4–7. 8, and Sentinel 2 images. Remote Sens. Environ. 2015, 159, 269–277. [CrossRef]
  10. Qiu, S.; He, B.; Zhu, Z.; Liao, Z.; Quan, X. Improving Fmask cloud and cloud shadow detection in mountainous area for Landsats-8 images. Remote Sens. Environ. 2017, 199, 107–119. [CrossRef]
  11. Qiu, S.; Zhu, Z.; He, B. Fmask 4.0: Improved cloud and cloud shadow detection in Landsats 4–8 and Sentinel-2 imagery . Remote Sens. Environ. 2019, 231, 111205. [CrossRef]
  12. Li, Z.; Shen, H.; Li, H.; Xia, G.; Gamba, P .; Zhang, L. Multi-feature combined cloud and cloud shadow detection in GaoFen-1 wide field of view imagery. Remote Sens. Environ. 2017, 191, 342–358. [CrossRef]
  13. Alonso-Montesinos, J.; Martínez-Durbán, M.; del Sagrado, J.; del Águila, I.; Batlles, F. The application of Bayesian network classifiers to cloud classification in satellite images. Renew. Energy 2016, 97, 155–161. [CrossRef]
  14. Xu, L.; Wong, A.; Clausi, D.A. A novel Bayesian spatial–temporal random field model applied to cloud detection from remotely sensed imagery . IEEE T rans. Geosci. Remote Sens. 2017, 55, 4913–4924. [CrossRef]
  15. Latry , C.; Panem, C.; Dejean, P . Cloud detection with SVM technique. In Proceedings of the 2007 IEEE International Geoscience and Remote Sensing Symposium, Barcelona, Spain, 23–27 July 2007; pp. 448–451.
  16. Ishida, H.; Oishi, Y .; Morita, K.; Moriwaki, K.; Nakajima, T.Y . Development of a support vector machine based cloud detection method for MODIS with the adjustability to various conditions. Remote Sens. Environ. 2018, 205, 390–407. [CrossRef]
  17. Hughes, M.J.; Hayes, D.J. Automated detection of cloud and cloud shadow in single-date Landsat imagery using neural networks and spatial post-processing. Remote Sens. 2014, 6, 4907–4926. [CrossRef]
  18. Jang, J.d.; Viau, A.A.; Anctil, F.; Bartholomé, E. Neural network application for cloud detection in SPOT VEGETATION images.
    Int. J. Remote Sens. 2006, 27, 719–736. [CrossRef]
  19. Jeppesen, J.H.; Jacobsen, R.H.; Inceoglu, F.; Toftegaard, T.S. A cloud detection algorithm for satellite imagery based on deep learning. Remote Sens. Environ. 2019, 229, 247–259. [CrossRef]
  20. Wieland, M.; Li, Y .; Martinis, S. Multi-sensor cloud and cloud shadow segmentation with a convolutional neural network. Remote Sens. Environ. 2019, 230, 111203. [CrossRef]
  21. Chai, D.; Newsam, S.; Zhang, H.K.; Qiu, Y .; Huang, J. Cloud and cloud shadow detection in Landsat imagery based on deep convolutional neural networks. Remote Sens. Environ. 2019, 225, 307–316. [CrossRef]
  22. Drönner, J.; Korfhage, N.; Egli, S.; Mühling, M.; Thies, B.; Bendix, J.; Freisleben, B.; Seeger, B. Fast cloud segmentation using convolutional neural networks. Remote Sens. 2018, 10, 1782. [CrossRef]
  23. Lopez, J.; Santos, S.; Atzberger, C.; Torres, D. Convolutional Neural Networks for Semantic Segmentation of Multispectral Remote Sensing Images. In Proceedings of the 2018 IEEE 10th Latin-American Conference on Communications (LATINCOM), Guadalajara, Mexico, 14–16 November 2018; pp. 1–5.
  24. Zhan, Y .; Wang, J.; Shi, J.; Cheng, G.; Yao, L.; Sun, W. Distinguishing cloud and snow in satellite images via deep convolutional network. IEEE Geosci. Remote Sens. Lett. 2017, 14, 1785–1789. [CrossRef]
  25. Morales, G.; Huamán, S.G.; Telles, J. Cloud Detection in High-Resolution Multispectral Satellite Imagery Using Deep Learning.
    In Proceedings of the International Conference on Artificial Neural Networks, Rhodes, Greece, 4–7 October 2018; pp. 280–288.
  26. Li, Z.; Shen, H.; Cheng, Q.; Liu, Y .; You, S.; He, Z. Deep learning based cloud detection for medium and high resolution remote sensing images of different sensors. ISPRS J. Photogramm. Remote Sens. 2019, 150, 197–212. [CrossRef]
  27. Yang, J.; Guo, J.; Yue, H.; Liu, Z.; Hu, H.; Li, K. CDnet: CNN-Based Cloud Detection for Remote Sensing Imagery . IEEE T rans.
    Geosci. Remote Sens. 2019, 57, 6195–6211. [CrossRef]
  28. Shao, Z.; Pan, Y .; Diao, C.; Cai, J. Cloud Detection in Remote Sensing Images Based on Multiscale Features-Convolutional Neural Network. IEEE T rans. Geosci. Remote Sens. 2019, 57, 4062–4076. [CrossRef]
  29. Chen, Y .; W eng, Q.; T ang, L.; Liu, Q.; Fan, R. An Automatic Cloud Detection Neural Network for High-Resolution Remote Sensing Imagery With Cloud–Snow Coexistence. IEEE Geosci. Remote Sens. Lett. 2022, 19, 6004205. [CrossRef]
  30. Zhang, Z.; Iwasaki, A.; Xu, G.; Song, J. Cloud detection on small satellites based on lightweight U-net and image compression. J.
    Appl. Remote Sens. 2019, 13, 026502. [CrossRef]
  31. Zhang, J.; Li, X.; Li, L.; Sun, P .; Su, X.; Hu, T.; Chen, F. Lightweight U-Net for cloud detection of visible and thermal infrared remote sensing images. Opt. Quantum Electron. 2020, 52, 397. [CrossRef]
  32. Li, J.; Wu, Z.; Hu, Z.; Jian, C.; Luo, S.; Mou, L.; Zhu, X.X.; Molinier, M. A Lightweight Deep Learning-Based Cloud Detection Method for Sentinel-2A Imagery Fusing Multiscale Spectral and Spatial Features. IEEE T rans. Geosci. Remote Sens. 2021, 60, 1–19.
    [CrossRef]
  33. Guo, J.; Yang, J.; Yue, H.; Li, K. Unsupervised Domain Adaptation for Cloud Detection Based on Grouped Features Alignment and Entropy Minimization. IEEE T rans. Geosci. Remote Sens. 2021, 1–13. [CrossRef]
  34. Guo, J.; Yang, J.; Yue, H.; Liu, X.; Li, K. Unsupervised Domain-Invariant Feature Learning for Cloud Detection of Remote Sensing Images. IEEE T rans. Geosci. Remote Sens. 2022, 60, 5405715. [CrossRef]
  35. Guo, J.; Yang, J.; Yue, H.; Chen, Y .; Hou, C.; Li, K. Cloud Detection From Remote Sensing Imagery Based on Domain Translation Network. IEEE Geosci. Remote Sens. Lett. 2022, 19, 5000805. [CrossRef]
  36. Cordts, M.; Omran, M.; Ramos, S.; Rehfeld, T. The Cityscapes Dataset for Semantic Urban Scene Understanding. arXiv 2016, arXiv:1604.01685.
  37. Zhang, Y .; Yang, L.; Chen, J.; Fredericksen, M.; Hughes, D.P .; Chen, D.Z. Deep Adversarial Networks for Biomedical Image Segmentation Utilizing Unannotated Images. In Proceedings of the Medical Image Computing and Computer Assisted Intervention (MICCAI 2017), Quebec City , QC, Canada, 11–13 September 2017; pp. 408–416.
  38. Hong, S.; Noh, H.; Han, B. Decoupled Deep Neural Network for Semi-supervised Semantic Segmentation. arXiv 2015, arXiv:1506.04924.
  39. Mostafa S, I.; Arash, V .; Mani, R.; William G, M. Semi-Supervised Semantic Image Segmentation with Self-correcting Networks.
    arXiv 2020, arXiv:1811.07073.
  40. Mittal, S.; Maxim, T.; Thomas, B. Semi-Supervised Semantic Segmentation with High- and Low-level Consistency . IEEE T rans.
    Pattern Anal. Mach. Intell. 2021, 43, 1369–1379. [CrossRef]
    [PubMed]
  41. Massih-Reza, A.; Vasilii, F.; Loic, P .; Emilie, D.; Yury , M. Self-Training: A Survey . arXiv 2022, arXiv:2202.12040.
  42. Rajat, R.; Alexis, B.; Honglak, L.; Benjamin, P .; Andrew, Y .N. Self-taught learning: Transfer learning from unlabeled data. In Proceedings of the Twenty-fourth International Conference on Machine Learning, Corvalis, OR, USA, 20–24 June 2007.
  43. Hung, W.; Tsai, Y .; Liou, Y .; Lin, Y .Y .; Yang, M.H. Adversarial Learning for Semi-Supervised Semantic Segmentation. arXiv 2018, arXiv:1802.07934.
  44. Goodfellow, I.; Pouget-Abadie, J.; Mirza, M.; Xu, B.; Warde-Farley , D.; Ozair, S.; Courville, A.; Bengio, Y . Generative adversarial networks. In Proceedings of the Advances in Neural Information Processing Systems, Montreal, QC, Canada, 8–13 December 2014; pp. 2672–2680.
  45. Ren, Z.; Lee, Y .J. Cross-Domain Self-Supervised Multi-task Feature Learning Using Synthetic Imagery . In Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City , UT, USA, 18–22 June 2018; pp. 762–771.
  46. Tuan-Hung, V .; Himalaya, J.; Maxime, B.; Matthieu, C.; Patrick, P . ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation. arXiv 2019, arXiv:1811.12833.
  47. Tsai, Y .; Sohn, K.; Schulter, S.; Chandraker, M. Domain Adaptation for Structured Output via Discriminative Patch Representations.
    In Proceedings of the 2019 IEEE/CVF International Conference on Computer Vision, Seoul, Korea, 27 October–2 November 2019; pp. 1456–1465.
  48. Foga, S.; Scaramuzza, P .L.; Guo, S.; Zhu, Z.; Dilley , R.D., Jr.; Beckmann, T.; Schmidt, G.L.; Dwyer, J.L.; Hughes, M.J.; Laue, B. Cloud detection algorithm comparison and validation for operational Landsat data products. Remote Sens. Environ. 2017, 194, 379–390. [CrossRef]
  49. Chen, Y .; Lin, Y .; Yang, M.; Huang, J. CrDoCo: Pixel-Level Domain Transfer With Cross-Domain Consistency . In Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, CA, USA, 16–20 June 2019; pp. 1791–1800.
  50. Souly , N.; Spampinato, C.; Shah, M. Semi Supervised Semantic Segmentation Using Generative Adversarial Network. In Proceedings of the 2017 IEEE International Conference on Computer Vision (ICCV), V enice, Italy , 22–29 October 2017; pp. 5689–5697.
  51. Chen, L.; Papandreou, G.; Kokkinos, I.; Murphy, K.; Yuille, A.L. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs. IEEE T rans. Pattern Anal. Mach. Intell. 2018, 40, 834–848. [CrossRef]
    [PubMed]
  52. He, K.; Zhang, X.; Ren, S.; Sun, J. Deep Residual Learning for Image Recognition. In Proceedings of the The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las V egas, NV , USA, 27–30 June 2016.
  53. Yu, F.; Koltun, V . Multi-Scale Context Aggregation by Dilated Convolutions. arXiv 2016, arXiv:1511.07122.
  54. Geirhos, R.; Rubisch, P .; Michaelis, C.; Bethge, M.; Wichmann, F.A.; Brendel, W. ImageNet-trained CNNs are biased towards texture; increasing shape bias improves accuracy and robustness. arXiv 2018, arXiv:1811.12231.
  55. Bengio, Y . Practical recommendations for gradient-based training of deep architectures. In Neural Networks: T ricks of the T rade; Springer: Berlin/Heidelberg, Germany , 2012; pp. 437–478.
  56. Kingma, D.; Ba, J. Adam: A Method for Stochastic Optimization. arXiv 2014, arXiv:1412.6980v9.
  57. Chen, L.C.; Papandreou, G.; Schroff, F.; Adam, H. Rethinking atrous convolution for semantic image segmentation. arXiv 2017, arXiv:1706.05587.
  58. Russakovsky , O.; Deng, J.; Su, H.; Krause, J.; Satheesh, S.; Ma, S.; Huang, Z.; Karpathy , A.; Khosla, A.; Bernstein, M.; et al.
    Imagenet large scale visual recognition challenge. Int. J. Comput. Vis. 2015, 115, 211–252. [CrossRef]
  59. Everingham, M.; Van Gool, L.; Williams, C.K.I.; Winn, J.; Zisserman, A. The PASCAL Visual Object Classes Challenge 2012 (VOC2012) Results. Available online: http://host.robots.ox.ac.uk/pascal/VOC/voc2012/ (accessed on 24 April 2022).
锐单商城拥有海量元器件数据手册IC替代型号,打造电子元器件IC百科大全!

相关文章