锐单电子商城 , 一站式电子元器件采购平台!
  • 电话:400-990-0325

火灾探测和监测系统的最新进展回顾

时间:2022-09-23 13:00:00 hoa传感器

摘 要

森林火灾是影响最大的自然灾害之一,对人类和环境造成了巨大的破坏。由于传感器和技术的快速发展,以及计算机视觉算法的成功,新的和完整的自动火灾监测和检测解决方案已被曝光。然而,在过去的几年里,直到2015年,只提出了少数文献综述。为了填补这一空白,我们在本文中对这一问题进行了最新的全面回顾。首先,我们介绍了这些系统的一般描述和对可靠性、灵活性和效率的比较分析。然后,我们介绍了基于视觉的火灾检测方法,我们主要关注深度卷积神经网络(CNN)的技术。
关键词 火灾检测、火灾监测、视觉系统、深度卷积神经网络

1 简介

森林火灾一直是对森林财富产生灾难性影响的主要环境灾害之一。它们很快就会失去控制,需要巨大的努力、时间和资源来消灭它们。最近的统计数据显示,过去10年平均每年发生33次.森林大火863起,损失51亿美元。此外,Lee2017年的一项研究表明,世界上每年约有33人.9万人死于野火。在早期阶段,检测、监测和扑灭森林火灾的系统对这些令人震惊的数字至关重要。
早期的火灾监测和探测系统(FMDS)它是基于传统的方法,如通过现场或视频监控进行人工监控。然而,由于人类监督能力的限制,这些技术存在一些不准确和错误的检测。由于这些原因,研究人员一直致力于利用技术进步实现火灾探测系统的自动化。
为了减少火灾的影响,提出了几种改善火灾的方法FMDS可靠性。基于视觉的火灾检测方法是最常见、最有趣的。火灾监测FMDS的第一个层次,这一层次对于在视觉传感器获得的图像中检测和定位火灾是至尖重要的。
由于其重要性,自动火灾检测吸引了研究界,并提出了大量的解决方案。据我们所知,在过去的几年里,只有少数综合文献涵盖了这个问题。我们主要引用它YUAN2015年等人[4],Cetin等人在2014年,Alkhatib和Mahdipour2013年等人的作品。自2015年以来,由于传感器、技术的快速发展和深度学习算法的成功,提出了新的研究和完整的解决方案。因此,本文提供了森林火灾监测火灾监测和检测的最新和全面的观点,我们认为这有助于理解问题、主要挑战、陷阱和技术现状。
本文的其余部分组织如下:在第二节,我们回顾了用于检测和监测火灾系统的技术。我们在第三节介绍了它vision基于深度学习技术的火灾检测方法。最后,在第四节得出结论。

2 火灾探测检测系统

FMDS其主要目的是在早期阶段提供评估环境因素及其对环境的影响、探测火灾甚至预测火灾的机制。FMDS地面系统、卫星系统和无人驾驶航空器系统可分为三类。

2.1 地面系统

传统的地面系统,又称基于人类监督的地面系统。火灾探测和监测是通过在当地监测区域或分析当地传感器(如火焰、烟雾、热探测器和气体传感器)提供的数据进行的。
为了提高系统效率,探测火灾的确切位置,还集成了
环境传感器。这些传感器用于探测白天和晚上的火灾和烟雾,并确定其特性。陆地系统中使用的主要传感器是视觉或红外传感器(IR)相机、红外光谱仪、光探测和测距系统(LIDAR)。

2.2 基于卫星的系统

卫星系统是基于空间传感器的最发达的火灾遥感设备。这些传感器以其可靠性和大面积监测而闻名,因为它们以各种空间和时间分辨率获取图像。空间传感器广泛应用于地球观测,如道路提取、建筑检测、土地覆盖分类、火灾检测和监测。在这项任务中,几个传感器被用来评估火灾期间的环境特征和随后的环境变化。
从1990年到2000年,高级甚至高分辨率辐射计(AVHRR)由于烧毁区域的环境特征被用来分析获得的图像AVHRR能够长期重建烧毁地区的数据集。在1998年和2000年,SPOT-VEGETATION (Systeme Pour TObservation de la Terre Vegetation)和MODIS由于高质量的光谱、时间分辨率和数据量的光谱、时间分辨率和数据的可能性,也用于探测火灾和绘制烧毁区地图。高到中等分辨率的传感器(Landsat TM/ETM )由于其空间、光谱和辐射分辨率比,它也被用于这项任务AVHRR更高。最近,新的欧洲卫星Sentinel-2A被应用于FMDS,由于它具有较高的空间分辨率、光谱和测量地理测量性能。
还开发了一些计算火灾引起土壤和植被变化程度的技术,如归一化植被指数(NDVI)、植被覆盖指数(VCI) 、综合燃烧指数(CBI)以及表面粗糙度指数(SRI)。这些技术的计算方法是将火后指数减去火前指数。

2.3 无人驾驶飞机(UAUs)系统

无人机是没有人类飞行员的飞机。由于这一技术的发展,它们被用于民用和军事目的。无人机通过数据传输系统与地面站进行通信。该系统不仅传达地面的实时命令,还传达来自无人机的信息。这些信息可能迟,通常是间歇性的。数据直接通过短距离光程传输,最长可达150公里,或间接在卫星或空中矢量(飞机或无人机)上传播。
监控系统包括以下步骤:(i)使用不同类型的传感器寻找潜在的火灾,包括视觉摄像头(白天)和/或红外摄像头(白天和晚上),(ii)用特定的al-gorithms检测火灾并通知滴防操作员,(iii)在火灾诊断的初始化中,寻找与火灾有关的信息,如其位置和演变程度,(iv)火灾预测的初始化,利用车载远程监控传感器提供的信息实时预测火灾的演变。
1961年,无人机首次被美国林业局和森林火灾实验室用于收集森林火灾数据。后来,从2006年到2010年,NASA无人机系统传感器任务与美国林务局共14次。在10分钟内收集、处理和交付独立的地理空间数据。此外,多光谱传感器还可以集成必理和可视化数据,以提供近实时信息。此外,无人机与基于计算机视觉的遥感系统相结合,提高了实时数据收集的效率,并在地理协调中确定了火灾的当前位置。

2.4 森林火灾探测系统的比较

地面系统位于望点,可实时检测火灾。然而,这些系统的灵活性并不能掩盖它们的缺点,主要是由于人工错误估计、视觉估计不准确、火灾定位精度低、火灾和烟雾蔓延预测困难造成的。
与地面和无人机系统相比,卫星系统具有大面积监控和更高的数据采集频率等优点。然而,由于这些系统的时间分辨率较低,没有早期野火探测的条件。事实上,获取地球图像需要两天时间。此外,天气条件也会影响空间分辨率和图像质量。
很容易得出结论,由于无人机的低成本和可靠的数据传输,它对火灾探测和监测具有重要意义。此外,与地面和卫星系统相比,无人机用于早期火灾检测,因为它实时监控系统、更高的数据采集频率和火灾定位的准确性。

3 基于视觉的火灾探测

提出了大量基于视觉的火灾检测技术。为了突出机器学习技术的最新进展,我们选择将其分为基于特征和深度学习的方法。
读者可以参考更多的早期工作YUAN等人、Cye-tin等人、Alkhatib等人和Mahdipour等人的评论。
数据集:一些数据集被用来训练和测试学习方法,特别是卷积神经网络(CNNs)方法。它们包含从森林环境中的不同火灾实验和室内外环境中获得的大量视频。数据包括火灾、非火灾、烟雾和非烟雾的正负序列/图像。火灾检测数据集是数据集的例子Flickr用于火焰和烟雾检测的数据集和数据集FIRESENSE视频数据库包括11个火焰检测正面视频和16个负面视频,13个烟雾检测正面视频和9个负面视频。
然而,由于许多原因,即使该领域有许多现有的开放数据集,研究人员也不容易获得真实数据。评估没有标准的开源数据集FMDS,这使得比较最先进的方法有点关键。

3.1 基于特征的火灾检测

基于颜色的方法是解决这个问题最简单、最常用的技术。它们包括在将像素值转换为特定的颜色空间后定义一个范围。例如,RGB色彩空间通道与HSV色彩空间饱和成分的组合被证明对提取火灾和烟雾像素有效。YCbCr用于构建火焰像素分类的通用色度模型。YUV由于与RGB与色彩空间相比,它能有效分离亮度和色度。
然而,基于颜色的火灾探测方法的性能受到定义烟雾特征的复杂性的限制,在大多数情况下,烟雾会与云混淆。通过分析火焰和烟雾的光谱、时间和空间特征,解决了这个问题。在同一方向上,一种基于火焰颜色和湿度的方法提高了室内外环境中火灾检测的可靠性。
结合从监控摄像机获得的视频中提取的不同火焰特征(颜色、形状和火焰运动)的组合,以减少火灾引起的错误报警。
Kim等人还提出了融合立体红外热像仪和FMCW雷达。该方法将立体红外视觉的距离误差间隔从1%和19%减少到1%和2%,并在以低能见度和高温为特征的火灾烟雾环境中表现出良好效率。
一些人提出了一种基于静态和动态纹理特征的新方法。首先, YCbCr用于分割输入图像的颜色空间。静态特征是通过混合纹理描述符获得的,动态纹理特征是通过二维时空小波分解和三维体积小波分解获得的。该方法在VisiFirc测试了由真实世界图像形成的数据集和数据集。检测率达95.65%同时显示了减少相同火灾颜色的移动物体引起的错误报警的能力。

3.2 深度学习方法

近年来,人们回顾和讨论了深度学习的方法。可分为四类。在这些类别中,基于卷积神经网络(CNN)该技术广泛应用于火灾监测和检测任务中。出于这个原因,我们将在本节重点讨论CNN的深度学习方法Zhang基于完整的训练图像和细粒度斑块火灾分类器的深度CNN模型。他们是第一个使用补丁符号的人。该模型首先测试了完整的图像。若含火灾,则使用神经网络分类器检测精确位置。使用他们的基准数据集,检测准确率为97%,检测准确率为90%。其中提出了一个CNN模型用于识别真实视频序列中的火灾。该模型只检测红火。该方法显示了时间成本的减少,比例从6到60。实现更好的分类精度,表明使用NN检测视频中的火灾是非常有希望的,因为它在一些架构中提取复杂的特征并对火灾进行分类。
此外,Lee等人将深度CNN用于检测航空图像中的野火系统,因为其准确性高,而且不需要手工制作特征提取器。尽管CNN被广泛用于计算机视觉中的物体分类,但它们在火灾检测任务中的应用并不高。由于这个原因,许多CNN架构,如AlexNet、GoogLeNet、VGG13、改进的GoogLeNet和改进的VGG13,已经使用高分辨率的航空图像进行测试。对这些架构的评估表明,GoogLeNet和改进的VGG13具有更高的准确性和更好的性能。
Zhao等人提出了自己的深度CNN架构,称为"Fire_Net",用于检测、定位和识别航空图像中的野火。这个模型包含15层。在第一层,显著性检测方法被用来提取图像中的主要物体区域并计算其颜色和纹理特征。在第二层,两个逻辑回归分类器被用来识别ROI的每个特征向量是属于火焰还是烟雾,如果是阳性,则对这些区域进行分割。使用真实的野火航拍图像进行训练,证明了检测核心火区和提取火区的巨大性能,甚至是非常小的点火区。
在[30]和[29]中,提出丁两个CNN模型用于检测和定位监视视频中的火灾。第一个模型是受GoogleNet架构的后发,第二个模型是基于SqueezeNet架构。选择这些模型的原因有很多,如其合理的计算复杂性、更好的分类性能以及与其他模型相比在FPGA上实现的更高可行性。使用各种数据集,测试结果达到了较高的火灾检测精度,证明可以将火灾灾害降到最低,并在现实世界的监挫网络中实现该系统。最近,基于CNN模型的区域被高度运用于通用的物体检测方法。这些模型被用来同时检测物体并预测它们在每个位置的物体性分数。
R-CNN[9]是一种区域CNN模型,被证明在实时生成高质量区域建议方面具有最佳性能。出于这个动机,这个模型在[38]中被用来检测烟雾。真实森林和合成烟雾图像的测试结果证明了这一解决方案在实际早期火灾监测检测中的可行性。Young等人也使用更快的R-CNN来实时检测和定位火灾。使用各种图像,如森林火灾、煤气灶火灾和蜡烛火焰,获得了检测准确率为99.24%和平均预精确度为0.7863的出色表现。
在同一方向上,Shen等人采用了基于CNN模型的其他区域,YOLO(You Only Look Once)统一的深度学习模型,以检测火焰从视频。获得了良好的准确性和高精度的火焰检测,并证明可以作为火灾检测的实时模型。

4 总结

在本文中,对火灾监测和检测系统进行了广泛的文献调查。这些系统的主要目标是实时探测和了解火灾的演变。对地面、卫星和无人机系统在可靠性、灵活性和效率方面的比较分析表明,由于无人机的低成本和可靠的数据传输以及最重要的实时必理,它对火灾探测和监测具有重大意义。我们还介绍了基于视觉的火灾检测技术的最新回顾,同时重点介绍了基于深度学习算法的技术。与经典方法相比,后者在解决火灾检测和识别问题方面表现得更加稳健和高效。

参考文献

  1. Lee, W., Kim, S., Lee, Y. T., Lee, H. W., and Choi, M.: Deep neural networks for wild fire detection with unmanned aerial vehicle. In: 2017 IEEE International Conference on Con-sumer Electronics (ICCE). IEEE, p. 252-253. IEEE (2017).
  2. Dimitropoulos, K., Gunay, O., Kose, K., Erden, F., Chaabene, F., Tsalakanidou, F. … and Cetin, E.: Flame detection for video-based early fire warning for the protection of cultural heritage. In: Euro-Mediterranean Conference. Springer, Berlin, Heidelberg, p. 378-387 (2012).
  3. San-Miguel-Ayanz, Jesus, and Nicolas Ravail.: Active fire detection for fire emergency management: Potential and limitations for the operational use of remote sensing. Natural Hazards, 35(3), 361-376 (2005).
  4. Yuan, Chi, Youmin Zhang, and Zhixiang Liu.: A survey on technologies for automatic forest fire monitoring, detection, and fighting using unmanned aerial vehicles and remote sensing techniques. Canadian journal of forest research, vol. 45, no 7, p. 783-792 (2015).
  5. Alkhatib, Ahmad AA.: A review on forest fire detection techniques. International Journal of Distributed Sensor Networks, vol. 10, no 3, p. 597368 (2014).
  6. Mahdipour, Elham, and Chitra Dadkhah. : Automatic fire detection based on soft comput-ing techniques: review from 2000 to 2010. Artificial intelligence review, vol. 42, no 4, p. 895-934(2014).
  7. Çetin, A. E., Dimitropoulos, K., Gouverneur, B., Grammalidis, N., Günay, O., Habiboǧlu, Y. H., and Verstockt, S.: Video fire detection–review. Digital Signal Processing, vol. 23, no 6, p. 1827-1843 (2013). 8
  8. Den Breejen, E., Breuers, M., Cremer, F., Kemp, R., Roos, M., Schutte, K., and De Vries, J. S…: Autonomous forest fire detection. In: Proc. 3rd Int. Conf. on Forest Fire Research. p. 2003-2012 (1998).
  9. Ren, S., He, K., Girshick, R., and Sun, J.: Faster r-cnn: Towards real-time object detection with region proposal networks. In Advances in neural information processing systems .pp. 91-99 (2015).
  10. Olsson, H., Egberth, M., Engberg, J., Fransson, J. E., and Pahlén, T. G.: Current and emerging operational uses of remote sensing in Swedish forestry. In: McRoberts, Ronald E.; Reams, Gregory A.; Van Deusen, Paul C.; McWilliams, William H., eds. Proceedings of the seventh annual forest inventory and analysis symposium; October 3-6, 2005; Port-land, ME. Gen. Tech. Rep. WO-77. Washington, DC: US Department of Agriculture, For-est Service. 39-46. Vol. 77. (2007).
  11. Wilson, Carl C., and James B. Davis.: Forest fire laboratory at Riverside and fire research in California: Past, present, and future. Gen. Tech. Rep. PSW-105. Berkeley, Calif.: Pa-cific Southwest Research Station, Forest Service, US Department of Agriculture. 22 p, vol. 105 (1988).
  12. Tranchitella, M., Fujikawa, S., Ng, T. L., Yoel, D., Tatum, D., Roy, P., and Hinkley, E…: Using tactical unmanned aerial systems to monitor and map wildfires. In: AIAA In-fotech@ Aerospace 2007 Conference and Exhibit. p. 2749 (2007).
  13. Ambrosia, V. G., Wegener, S., Zajkowski, T., Sullivan, D. V., Buechel, S., Enomoto, F., and Hinkley, E.: The Ikhana unmanned airborne system (UAS) western states fire imaging missions: from concept to reality (2006–2010). Geocarto International, vol. 26, no 2, p. 85- 101 (2011).
  14. Merino, L., Caballero, F., de Dios, J. R. M., Maza, I., and Ollero, A.: Automatic forest fire monitoring and measurement using unmanned aerial vehicles. In: Proceedings of the 6th International Congress on Forest Fire Research. Edited by DX Viegas. Coimbra, Portugal. (2010).
  15. Zhang, Youmin, and Jin Jiang.: Bibliographical review on reconfigurable fault-tolerant control systems. Annual reviews in control, vol. 32, no 2, p. 229-252 (2008).
  16. Martínez-de Dios, J. R., Merino, L., Caballero, F., and Ollero, A.: Automatic forest-fire measuring using ground stations and unmanned aerial systems. Sensors, vol. 11, no 6, p. 6328-6353 (2011).
  17. Navarro, G., Caballero, I., Silva, G., Parra, P. C., Vázquez, Á. and Caldeira, R.: Evaluation of forest fire on Madeira Island using Sentinel-2A MSI imagery. International Journal of Applied Earth Observation and Geoinformation 58: 97-106 (2017).
  18. Ruiz, J. A. M., Riaño, D., Arbelo, M., French, N. H., Ustin, S. L., and Whiting, M. L.: Burned area mapping time series in Canada (1984–1999) from NOAA-AVHRR LTDR: A comparison with other remote sensing products and fire perimeters. Remote Sensing of Environment, 117, 407-414 (2012).
  19. Zhao, Z. Q., Zheng, P., Xu, S. T., & Wu, X.: Object detection with deep learning: A re-view. arXiv preprint arXiv:1807.0551 (2018).
  20. Zhao, Y., Ma, J., Li, X., and Zhang, J. : Saliency detection and deep learning-based wild-fire identification in uav imagery. Sensors 18.3: 712 (2018).
  21. Shen, D., Chen, X., Nguyen, M., and Yan, W. Q: Flame detection using deep learning. In 2018 4th International Conference on Control, Automation and Robotics (ICCAR). IEEE, (2018).
  22. Redmon, J., Divvala, S., Girshick, R., and Farhadi, A.:You only look once: Unified, real-time object detection. In The IEEE Conference on Computer Vision and Pattern Recogni-tion (CVPR), pp. 779- (2016). 9
  23. Iandola, F. N., Han, S., Moskewicz, M. W., Ashraf, K., Dally, W. J., and Keutzer, K.: Squeezenet: Alexnet-level accuracy with 50x fewer parameters and< 0.5 mb model size. arXiv preprint arXiv: 1602.07360 (2016).
  24. Zhang, Q., Xu, J., Xu, L., and Guo, H.: Deep convolutional neural networks for forest fire detection. In: Proceedings of the 2016 International Forum on Management, Education and Information Technology Application. Atlantis Press (2016).
  25. Di Lascio, R., Greco, A., Saggese, A., & Vento, M.: Improving fire detection reliability by a combination of videoanalytics. In: International Conference Image Analysis and Recog-nition. Springer, Cham,p. 477-484 (2014).
  26. Foggia, P., Saggese, A., & Vento, M.:Real-time fire detection for video-surveillance appli-cations using a combination of experts based on color, shape, and motion. In IEEE Trans-actions on Circuits and Systems for Video Technology, vol. 25, no 9, p. 1545-1556 (2015).
  27. Kim, Jong-Hwan, Joseph W. Starr, and Brian Y. Lattimer.; Firefighting robot stereo in-frared vision and radar sensor fusion for imaging through smoke. Fire Technology, vol. 51, no 4, p. 823-845 (2015).
  28. Bosch, I., A. Serrano, and L. Vergara.: Multisensor network system for wildfire detection using infrared image processing. The Scientific World Journal (2013).
  29. Muhammad, K., Ahmad, J., Mehmood, I., Rho, S., and Baik, S. W.: Convolutional Neural Networks Based Fire Detection in Surveillance Videos. In: IEEE Access, Volume: 6: 18174-18183 (2018).
  30. Muhammad, K., Ahmad, J., Lv, Z., Bellavista, P., Yang, P., & Baik, S. W.: Efficient Deep CNN-Based Fire Detection and Localization in Video Surveillance Applications. In: IEEE Transactions on Systems, Man, and Cybernetics: Systems 99: 1-16 (2018).
  31. Chen, Thou-Ho, Ping-Hsueh Wu, and Yung-Chuen Chiou.: An early fire-detection method based on image processing. In: 2004 International Conference on Image Processing, 2004. ICIP '04. IEEE, p. 1707-1710 (2004).
  32. Celik, Turgay, and Hasan Demirel.: Fire detection in video sequences using a generic color model. Fire Safety Journal, vol. 44, no 2, p. 147-158 (2009).
  33. Marbach, Giuseppe, Markus Loepfe, and Thomas Brupbacher.: An image processing technique for fire detection in video images. Fire safety journal, vol. 41, no 4, p. 285-289 (2006).
  34. Ho, Chao-Ching.: Machine vision-based real-time early flame and smoke detection. Measurement Science and Technology, vol. 20, no 4, p. 045502 (2009).
  35. Celik, Turgay, Hasan Demirel, and H. Ozkaramanli.: Automatic fire detection in video sequences. In: 2006 14th European Signal Processing Conference. IEEE, p. 1-5(2006).
  36. Yu, Chunyu, Zhibin Mei, and Xi Zhang. : A real-time video fire flame and smoke detection algorithm. Procedia Engineering, vol. 62, p. 891-898 (2013).
  37. Kim, Young-Jin, and Eun-Gyung Kim.:Fire Detection System using Faster R-CNN.INTERNATIONAL CONFERENCE ON FUTURE INFORMATION & COMMUNICATION ENGINEERING. Vol. 9. No. 1. (2017).
  38. Zhang, Qi-xing, et al. “Wildland Forest Fire Smoke Detection Based on Faster R-CNN using Synthetic Smoke Images.” Procedia engineering 211: 441-446 (2018).
  39. Frizzi, S., Kaabi, R., Bouchouicha, M., Ginoux, J. M., Moreau, E., & Fnaiech, F.: Convolutional neural network for video fire and smoke detection. In: IECON 2016 - 42nd Annual Conference of the IEEE Industrial Electronics Society. IEEE, (2016).
  40. Prema, C. Emmy, S. S. Vinsley, and S. Suresh. : Efficient flame detection based on static and dynamic texture analysis in forest fire detection. Fire Technology 54.1: 255-288 (2018). 10
  41. Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton.: Imagenet classification with deep convolutional neural networks. In: Advances in Neural Information Processing Systems 25 (NIPS 2012). p. 1097-1105(2012).
  42. Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., and Rabinovich, A.: Going deeper with convolutions. In: IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1-9 (2015).
  43. Simonyan, Karen, and Andrew Zisserman. : Very deep convolutional networks for largescale image recognition. arXiv preprint arXiv:1409.1556 (2014).
  44. Chu, Thuan, and Xulin Guo.: Remote sensing techniques in monitoring post-fire effects and patterns of forest recovery in boreal forest regions: a review. Remote Sensing 6.1: 470-520 (2013).
  45. FireInfo, https://www.nifc.gov/fireInfo/nfn.htm, last accessed 2018/07/09.
  46. Statistics, https://www.iii.org/fact-statistic/facts-statistics-wildfires, last accessed 2018/07/04.
  47. AVHRR Homepage, http://noaasis.noaa.gov/NOAASIS/ml/avhrr.html, last accessed 2018/07/04.
  48. MODIS Web, https://modis.gsfc.nasa.gov/, last accessed 2018/07/04.
  49. Fire dataset, http://signal.ee.bilkent.edu.tr/VisiFire/,last accessed 2018/07/09.
    50.UAVs, http://dronestpe.e-monsite.com/pages/un-drone-comment-ca-marche.html, last ac-cessed 2018/07/09.
  50. LandsatHome,https://landsat.gsfc.nasa.gov/the-thematic-mapper/,last accessed 2018/09/10.
  51. Flickr dataset, http://conteudo.icmc.usp.br/pessoas/junio/DatasetFlicker/DatasetFlickr.htm/ , last accessed 2018/07/09.
  52. Firesense dataset, https://zenodo.org/record/836749#.W22IN870mUk, last accessed 2018/07/09.
  53. SPOT Homepage, http://www.spot-vegetation.com/index.html, last accessed 2018/09/10.
  54. Sentinel Homepage, https://sentinel.esa.int/web/sentinel/home, last accessed 2018/09/10.
锐单商城拥有海量元器件数据手册IC替代型号,打造电子元器件IC百科大全!

相关文章