INFORMATION & COMMUNICATIONS 2018
(Sum. No 185)
基于深度卷积神经网络的火灾预警算法研究
林作永,谌瑶
(五邑大学信息工程学院,广东江门529000)
摘要:烟雾检测在火灾预防中起着非常重要的作用,针对传统方法中检测精度低、开阔空间难以检测的问题,文章提出了
基于深度卷积神经网络的火灾烟雾检测方法。近年来,卷积神经网络在各种目标检测中发挥着越来越重要的作用,各类
应用于目标检测的神经网络框架也被提出并应用到实际生活当中,文章通过替换特征提取器(例如InceptionNet和残差 网络)和参数优化来改进现有的目标检测框架 Faster R-CNN, Single Shot MultiBox Detector(SSD),Region-based Fully Convolutional Networks(R-FCN)并将其应用在火灾烟雾检测上。在烟雾检测数据上,mAP最高达到了 56.04%,与现有 的烟雾检测方法相比,文章方法在检测精度上和速度上都取得了较好的结果。关键词:火灾烟雾;目标检测;Tensorflow; Faster R-CNN; SSD; R-FCN;特征提取网络 中图分类号:TP183
文献标识码:A
文章编号:1673-1131(2018)05-0038-05
Research on Fire Warning Algorithm Based on Deep Convolutional Neural Network
Lin Zuoyong ,Shen Yao
(Information Engineering Institute, Wujd University, Jiangmen 529020, China)
Abstract:The smoke detection plays a very important role in prevention of fire. But the accuracy of smoke detection is low and difficult to detect in open space by traditional methods. In this paper, we introduce an improved object detection method based on deep convolution neural network(CNN) to address this issue. In recent years, various neural network frameworks for object detection have also been proposed and applied to real life.This paper improved the existing object detection framework such as Faster R-CNN, Single Shot MultiBox Detector (SSD), Region-based Fully Convolutional Networks (R-FCN) by substituting the feature extractor (such as InceptionNet and ResNet) and parameter optimization.The experiments result demonstrate the mAP reached 56.04% on the smoke detection dataset. Compared with the existing smoke detection methods, the method of the present invention has achieved good results both in smoke detection accuracy and speed.
KeywordsrFire Smoke; Object Detection; Tensorflow; Faster R-CNN; SSD; R-FCN; Feature Extraction Network
〇引言
在预防和监控火灾情况时,烟雾通常拥有着非接触和大 范围检测的特点,通过对烟雾的检测,可以更快和有效地发现 火灾发生的地点以及火灾情况,使得烟雾检测在火灾预防中 扮演着重要的角色。当前国内外在火灾烟雾检测方面主要以 传感器检测为主,往往存在着布置范围不当、
检测范围小、耗材成本大的问题,随着数字图像处理技术 在机器学习领域的不断发展,基于图像的火灾检测技术开始 逐步应用在火灾检测领域[1]。在这之后,更多的基于图像的火 灾烟雾检测的方法被提出,Chen等提出了基于烟雾静态特征 和动态特征的检测算法B],这个方法在特定环境下的检测效果 比较好,但是变换环境后效果会变得不理想。Mena、Malpica 等提出了将遥感技术和神经网络技术相结合的检测森林火灾 烟雾的方法[3],这种方法虽然提高了检测准确率但是对硬件设 备要求很高。Yuan等提出了利用滑动窗口对疑似烟雾区域进 行分析,然后通过运动量的变化来进行烟雾检测w,这种方法 与本文所采用的利用候选窗口来提高检测准确率有着相近的 思路,但是这种方法存在着检测速度慢的问题,本文通过利用 RPN网络有效地提高了检测速度。
综上所述,本文在提高火灾烟雾检测准确率和多种移动 平台移植的可能性的基础上,提出了利用FasterR-CNN[5],SSD[6], R-FCNmS种深度卷积目标检测框架对火灾烟雾进行检测。 本文选用了 tensorflow™来搭建各个目标检测框架,tensorflow 不仅支持PC平台,而且在移动平台上也有着广泛的应用,为 未来能够在移动平台上实现高效率的烟雾检测提供了有力的
保证。论文[5_7]中都只是提供了一个特定的特征提取器,而本
文则利用tensorflow将这三种构架和特征提取器分离,使用了 多个不同的特征提取器来进行训练,在这里特征提取器则采 用 InceptionResnetV2M,InceptionV2【1M,Reset V2【u],MobileNet 多个特征提取网络,由于SSD对特征提取器的敏感程度并 不高M,所以在SSD的测试中只是使用了 InceptionV2和Mo- bileNet这两个特征提取网络来进行测试。
通过利用tensorflow,可以灵活和统一的构建三个目标检 测框架(Faster R-CNN, R-FCN和SSD),也可以通过灵活地调 整特征提取器、图像分辨率和检查框架来进行大量的实验,从 而调整出最适合对火灾烟雾检测的检测框架以及特征提取网 络。在实验中,我们采用的是一颗I7-6850K+4张NVIDIA TITIAN XP, 在训练速度上有着很大的提高以及取得了比较好的 检测效果。
1火灾烟雾检测算法
近年来,神经网络成为目标检测的主要手段,Grishick等 人提出的R-CNN[14]是最早将卷积网络应用到目标检测中的方 法,R-CNN是直接从输入图像中裁剪外部生成的预选框,并在 这些裁剪后的预选框上运行神经网络分类器,但是这种方法 在每一个候选区都要提取一遍特征,而且区域会有重叠度,会 出现大量的重复计算,导致检测速度很慢。FAST 10_[15]通 过推送整个图像一次通过特征提取器,然后从中间层裁剪,从 而减轻了这个问题,使裁剪特征提取所需要的计算能够共享。 但是这两种方法都依赖于selective search生成候选区域,非常 耗时,在Faster R-CNN中,通过使用候选区域生成网络(Region
38
信息通信
Proposal Network,RPN)来得到候选区域,对候选区域的分类 和边框回归仍然使用Fast R-CNN,虽然Faster R-CNN的精度 和Fast R-CNN差不多,但是速度却提高了十倍。1.1 Faster R-CNN
从 R-CNN 到 Fast R-CNN 再到 Faster R-CNN,目标检测 的四个基本步骤(候选区域生成,特征提取,分类,位置精修) 被统一到一个深度网络框架之内。在候选区域生成步骤,经 典的检测方法例如〇pencvadaboost[ia使用滑动窗口加图像金字 塔生成检测框或者像R-CNN使用SS(Selective search)方法生 成检测框都非常耗时,Faster R-CNN则直接使用RPN生成检 测框,它与目标检测框架共享特征提取网络的卷积层,这也是 Faster R-CNN相对于经典检测方法的巨大优势,能够极大地 提升检测框的生成速度。RPN是一种全卷积网络(FullyCon- volutionalNetworks,FCN)[1'可以针对生成建议检测框的任务 进行端到端的训练,它在ccmV5-3的特征图上用一个滑动窗口 生成一个对应的特征提取网络为N维长度的全连接特征,然后 在这个特征后生成两个分支的全连接层即分类层(els layer)和 窗口回归层(regress layer),窗口回归层用于预测proposal的中 心锚点对应的proposal的坐标和宽高,分类层用来判定proposal 是前景还是背景,滑动窗口保证了这两个全连接层关联了 conv5-3的全部特征空间,连接方式如图1所示,本文中通过在 不同的卷积层上的特征图生成候选框来提高检测准确率。
在Faster R-CNN中,候选区域(anchor),又称为铺点,在 上述的滑动窗口中,考虑9个可能的候选窗口,即三种面积乘 以三种比例,这些候选窗口就被称为锚点。在计算损失值的 时候,与ground truth重叠比例最大的铺点记为前景样本,在剩 下的锚点中比例大于0.7的也记为前景样本,而小于0.3的记 为背景样本,剩余的锚点舍弃掉。训练RPN的损失值是由分 类损失(即softmax loss)和回归损失(即LI loss)组成,计算分 类损失主要是计算铺点对应的groundtruth标定结果和预测结 果,而计算回归损失需要预测框、锚点和groundtmth。最终损 失函数定义为:
吻财,.})
七J-Zr’W) ⑴
1.2 SSD
在SSD中引入了与上诉提到的Faster R-CNN中的类似 的锚点,就是一些目标的预选框,后续在通过softmax分类和 bounding box regression获得真实目标的位置。与Faster R- CNN相比,它整合了利用RPN网络生成预选区域和使用全连 接层来分类两个步骤,并在处理图像的时候同时来预测边界
框和类。在SSD中,输入一个图像和其标签后,它会使用特征 提取网络来产生大小不同的特征图,在这些图中,都会使用一 个卷积滤波器来评估边界框,基本类似于Faster R-CNN的锚 点,在生成边界框的同时就开始对其进行偏移和分类概率的 预测。
在Faster R-CNN中,RPN网络会对每个分类目标确定一 个目标最小概率值,在SSD中则跳过了这个步骤,结果就是会 生成更多的边界框,但是大部分都是负样本。为了解决这个 问题,SSD利用了非极大值抑制(non maximum suppression, NMS)技术来将这些高度重叠的边界框整合成一个,然后使用 hard negative mining技术在训练过程中让类保持平衡。由于 SSD跳过了 region proposal这一步,不需要同时考虑图像的每
林作永等:基于深度卷积神经网络的火灾预警算法研究
个位置以及每个边界的分类,所以他在速度上要比FastR-CNN 要快出很多,而且由于这个特性,导致更换特征提取器对物体
的检测效果提升也并不明显,对小目标的检测效果也不如Faster R-CNN。1.3 R-FCN
Faster R-CNN通过在所有的region proposal上共享一个 卷积神经网络来改善检测速度,于是便诞生了通过最大共享 计算来提升检测速度的R-FCN。在目标检测上有这样一个问 题,目标分类需要特征具有位置不变性,而检测需要对目标的 位置可变性做出准确的反应,例如FasterR-CNN在ROIpooling 前都是具备平移不变性的,而在这之后就不具备了,于是 会引入相当数目的按区域操作层,牺牲了训练和检测效率。R- FCN为了解决这个问题,提出了位置敏感分数图(position-sensitive score maps) , 每个位置的敏感分数图都代表了 一个目 标 类的相关位置,这些分数图本质上讲都是卷积特征图,会被用 来训练识别每个目标的特定位置。
简单地来讲,R-FCN会去处理每个候选区域,然后将这些 候选区域切割成子区域,然后在子区域上来判定这个区域是 不是包含了目标的部分区域,系统会对所有的类别重复这个 过程,如果产生的子区域能够判定这是所需要检测目标的部 分区域,那么候选区域就会通过softmax来分类候选目标。由 于这种特性,R-FCN就可以同时处理位置可变性和位置不变 性,使得整个网络中的计算都是共享的,相比Faster R-CNN速 度提高了好几倍而且可以达到接近FasterR-CNN的准确率。
2火灾烟雾检测算法实现
2.1特征提取器
进行烟雾检测的第一步是需要选用合适的特征提取器来 对图像进行特征提取,网络结构层的数量和参数直接影响检 测框架的存储效率、检测速度和检测效果,这里我们总共选用 了 Inception Resnet V2,Inception V2,ResnetV2, MobileNet 这 4 种特征提取器来进行比较检测,这些网络结构在tensorflow上 都有开源的实现方式,通过多种特征提取网络的实验对比,选 出最适合烟雾检测的检测框架,值得注意的是,Resnet V2是第 一次出现在Faster R-CNN框架中使用,之前没有出现在任何 目标检测文献之中,这里采用的是152层的ResnetV2结构。
在tensorflow中实现三种检测框架使用的不是论文M的 感兴趣区域池化操作,而是使用tensorflow的裁剪和调整大小 函数,而且在不同的特征提取器上选取不同卷积层上生成的特 征提取图来进行裁剪,通过在MSCOCO数据集上的测试,mAP 均达到或超过原论文,在烟雾数据集的检测上也表现出色。
候选区域生成器
图像
特征提取器
候
合分类
选框
I
框精修
(a) Faster R-CNN
39
信息通信(b)SSD
I选域生器
分
全连
标 g回
征
(c)R-FCN
图1三种检测框架的层次图
2.2烟雾检测候选框生成
采集到的原始烟雾图片包括了烟雾和背景,所以为了保 证检测速度和效率,我们预先找出烟雾可能出现的位置,利用 图像中的纹理、边缘、颜色等信息来生成烟雾检测的预选框, 在预选框的选择中,尽量在选取较少窗口的情况下能够保证
较高的召回率。在通过特征提取器产生的全连接特征中,可 以将其看成一个通道图像,这样就可以对于该图像的每一个 位置考虑多种不同大小和不同面积的候选窗口,然后再通过 两个全连接层即分类层和框回归层(SSD中在这里不进行候 选框分类的特征提取而是直接对候选框进行分类得到每一个 区域类别的得分),分类层用于判定候选框是前景还是背景, 框回归层用于预测候选区域的中心点的坐标,这一切都是完 全通过网络自身来完成判断和修正。候选框生成流程如图2。
图2候选框生成
3实验设置
在本文中,使用tensorflow作为实验平台构建了 FasterR- CNN, SSD, R-FCN 三种检测框架,使用 tensorflow 可以有效地更换特征提取器,实现在多种不同的特征提取网络下三种检 测框架的检测效果。本实验采用了 1000张火灾烟雾图片作
为训练集,400张作为验证集来进行训练,提前使用coco数据 集来进行预训练,然后利用预训练模型对烟雾数据集进行训 练以提高检测效果。3.1构架配置
在所有的目标检测网络框架中,首先需要将特征提取器 应用于输入的图像来提取特征,而且其网络结构层的数量和 参数直接影响检测框架的存储效率、检测速度和检测效果,所 以在特征提取器的选择上是非常重要的。本文选用了 Inception R- esnet V2, Inception V2,Resnet,MobileNet 这 4 种特征提取器 来进行比较,表1是这四种网络在ImageNet图像分类准确率。
40
林作永等:基于深度卷积神经网络的火灾预警算法研究
表1四个特征提取网络在ImageNET分类准确率排名
ModelAccuracyMobileNet71.1Inception V2
73.9RcsnetV2 15277.8Inception Resnet V2
80.4
3.2参数设置
我们这里采用tensorflow深度学习框架来进行实验。在 实验中,FasterR-CNN和R-FCN采用随机梯度下降法(SGD) 来对参数进行更新,量大小(bitch size)设置为1,而SSD的批 量大小设置为24,三种框架SGD动量设置均为0.9,对烟雾数 据集IoU阈值设定为0.6,初始学习率设定为0.0003,迭代总 次数设定为20万次,并且在迭代次数达到12万次和16万次
时基本学习率降低至十分之一,步长均设定为16,由于特征提 取网络不同,训练的时间也不相同,所有的网络均使用了在
coco预训练后的冻结模型进行预训练,训练coco数据集时IoU 阈值设定为0.95。4实验结果和分析 4.1准确率和吋间
参数确定之后,我们先后对MSCOCO数据集和采集的火 灾烟雾数据集进行了测试,MSCOCO数据集的训练经过了 voc2007, voc2012,MSCOCO三个数据集的训练。表2描述了 不同模型每次迭代所需要的时间和不同模型的mAP。可以看 出SSD和R-FCN在训练上有着明显的速度优势,在检测方面 的速度排名与迭代时间也是一致的,同样,速度的提高牺牲了 准确率,其中使用MobileNet的SSD有着最快的迭代速度和 检测速度,但是其准确率最低,而使用InceptionResnet V2特征 提取器的Faster R-CNN取得了最好的检测精度,但是速度却 非常缓慢。通过对比我们发现,特征提取器对检测精度的影 响与表1中各个网络模型在Imagenet上的图像分类准确率排 名是一致的,本文新提出的利用Rensnet V2作为特征提取器 在速度和检测精度上同时拥有这良好的表现,这里以 MSCOCO数据集作为参考标准,训练速度在比InceptionResnet V2 快接近一倍的基础上接近了其平均检测精度。
表2不同模型在coco数据集上的速度(ms)
MODELSSPEEDCOCOmAP
Faster R-CNN
43023SSD24721R-FCN26027ssd_mobilenct_v 114221ssd一inception一v215324faster一rcnn一inception一v221028faster_rcnn_icp_resnet_v268037r-fcn_resnct_v2_ 15227031fastcr_rcnn_resnct_v2_ 152
320
33
4.2检测实例
图3表现了不同模型在火灾烟雾数据集上每次迭代所需 要的时间和不同模型的mAP。图4到图6展示了实际的烟雾 检测效果,主要比较了三个主要检测框架和在不同框架下使
用不同特征提取器的烟雾检测结果,大部分检测框架都表现 出色。图4可以看出,在相同的检测框架下,使用inception V2 特征提取网络可以取得更加精确的检测效果,相对的,检测也
信息通信
需要耗费更长的时间,与所需要的迭代时间成正比图5可以 看出Faster R-CNN在检测效果上有着非常明显的优势,甚至 可以对不规则烟雾的边角进行多次选框来达到最优的检测效 果,R-FCN在检测精度上稍逊Faster R-CNN但是在检测速度 上却有着非常大的提升。SSD在图5(c)中出现了较大的检测 偏差,虽然检测到了烟雾却在检测框范围上大了许多,相对的, 它拥有着最快的检测速度。图6显示了在不同环境下对烟雾 的检测效果,在不同的背景环境和开阔空间下也取得了非常 好的准确率和召回率。
TfMES
800 600 400 200
0
MobileNET Inception Kesnet V2 Inception
V2 152 Reset V2
■ Faster fl>CNN
■ R-FCN
mSSO(a) mAP
60 40
:MobileNETIII InceptionIII
V Resnet V2 Inception
2 152 Reset V2
■ Faster R-CNN _R FCN _SSD
(b)
围3不同据的迭代速度(ms廂mAP(百分比)
(a)Faster R-CNN (b)Faster R-CNN(ICP_V2)
(icp_ies_v2)
(c)Faster R-CNN
(d)Faster R-CNNCMoblie)
Crenset_v2)
图4不同特征提取器下的Faster R-CNN烟雾检测效果
林作永等:基于深度卷积神经网络的火灾预警算法研究
(a)Faster R-CNN (b)R-FCN
(c)SSD
图5三种不同检测框架的烟雾检测效果
(c)
围6 FasterR-CNN在不同环境下的烟雾检测效果5结语
针对传统方法检测精度低和开阔空间难以检测的问题,本
文提出了基于深度卷积神经网络的烟雾检测,利用tensorflow 验证和实现原始Faster R-CNN, SSD, R-FCN检测框架,并且使 用 Inception Res- net VS’bicqjtion'NqRe犯etv2,Moblienet 来替
换原特征提取网络,经过大量的实验和参数调优在MSCOCO 数据集和烟雾检测数据集上均实现了较好的检测效果,相对于 传统方法通过对烟雾颜色、运动轨迹、边缘特征和背景做区分 来进行检测的方法,基于深度卷积神经网络不仅取得了更好的 检测精度,在检测速度上也有着非常大的提升。通过这些实验 我们可以有效地对比各个目标检测框架存在的性能优劣以及 应用场景范围,也验证了特征提取器对目标检测框架的影响。 由于时间和机器性能限制,本文只测试了文中提到的几种特征 提取器的检测效果,在后续工作中会测试更多的特征提取网络。
参考文献:
[1] Zhao J,Tow J,Katupitiya J.Qn-tree fruit recognition using
texture properties and color data[C]//Intelligeat Robots and
41
信息通信
Systems, 2005.(IR〇S 2005). 2005 IEEE/RSJ International Conference on. IEEE, 2005:263-268.⑵ CheaTHj'VinYHjHuangSF,玟 alThesmokedetecticxifa'eaify &»-alanmng system base on video piocessing[C]//intelligeQt M-MSP06. butematianai Conference oa IEEE, 2006:427-430.[3] Mena J B, Malpica J A. Colw image segmentation based on
three levels of texture statistical evaluation [J]. Applied mathematics and computation, 2005,161(1): 1-17.⑷ Yuan F N, Liao G X,Zhang Y M, et al. Feature extraction 細
computer vision based fire detection[J]. Journal of University of Science & Technology of China, 2006,36(0:39-43.[5] Rct. S, He K, Giishick R, et al. Faster R-CNN: Towards realtime object detection with region proposal networks [C]//Ad-
vances in neural infixrmatiaa processing systems. 2015:91-99.[6] Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot raulti-
box detector[C]//European conference on computer vision. Springer, Cham, 2016:21-37.[7] Dai J, Li Y, He K, et al. R-fcn: Object detection via region-
based ftilly convolutional networks[C]//Advaiices in neural infcmnation processing systems. 2016:379-387.[8] Abadi M, Agarwal A, Barfaam P, et al. Tensorflow: Large- scale machine learning on heterogeneous distributed sys-
tems[J]. arXiv preprint arXiv:1603.04467,2016.[9] Szegedy C, Ioflfe S, Vanhoucke V, et al. Inception-v4, Incep-
ticm-ResNet and fhe Impact of Residual Connections on Uaming[C]//AAAI. 2017:4278-4284.[10] Ioffe S, Szegedy C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[C]//In-
林作永等:基于深度卷积神经网络的火灾预警算法研究
temational Conference on Machine Learning. 2015:448-456.
[11] He K, Zhang X, Ren S, et al. Identity mappings in deq> re
sidual networks[C]//European Conference on Computer vision. Springer International Publishing, 2016:630-645.[12] Howard A G, Zhu M, Chen B, et al. Mobilenets: Efficient convolutional neural networks far mobile vision applica-
tions[J]. arXiv preprint arXiv:1704.04861,2017.[13] Huang J, Rafhod V, Sun C, et al. Speed/accuracy trade-offs
for modem convolutional object detect(B^[J]. arXivprq>rint arXiv:161U0012s2016.[14] Gixahick R, Donahue J, Darrell T, et al. Rich feature hiCTar- chies for accurate object detection and semantic segmenta-
tion[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014:580-587.[15] Girshick R. Fast r-cnn[C]//Proceedings of the IEEE interna
tional conference cm computer vision. 2015: 1440-144$.[16] R tsch G, Onoda T, MUller K R, Soft margins for AdaBoost
[J], Machine learning, 2001,42(3): 287-320.[17] Long J, Shelhamer E, Darnell T. Fully convolutiGnal net-
WOTks for semantic segmentation [C]//Proceedings of the IEEE Conference cm Computer Vision and Pattern Recognition. 2015:3431-3440.基金项目:国家自然科学基金(61771347, 61372193);广东髙等学校优秀髀;©#^项目(SYQ2014001);广东省#M噺魏目(2015KTSCX143);广东省髀创新项目 C2015KQNCX165,2015KQNCXm);五邑大鲜阵榊湛^(2015zkl0)
作者简介:林作永,男,河南信阳人,硕士研究生,主要研究方向为图像处理、机器学习。
(上接第37页)
5结语
本文提出的两级波束成形方案将基站的波束成形矩阵分解成小区层波束成形矩阵和簇层波束成形矩阵,有效抑制了边缘用户的小区间干扰和簇间干扰,经过仿真对比实验,表明所提的方案有效提高了边缘用户的服务质量。
4仿真分析
假设基站间距为lkm,将离基站距离大于400米的用户 视为小区边缘用户,假设每个基站天线数目均为100,每个小
区的用户数量相同,目标SINR值设为10dB。将所本文波束 成形方案与传统的迫零波束成形,以及基于迫零法CoMP* 案进行比较。小区边缘用户S1NR及所有用户平均SINR随 天线数的变化规律如图1所示,所提出的两级波束成形方案, 边缘用户的信干噪比都保持在10dB以上,多基站协作的方案 次之,迫零波束成形方案,边缘用户的信干噪比较小,信号质 量较差;所提方案更加有效地抑制了小区间和簇间干扰,因此 用户平均S1NR性能在三种方案中也是最优的。
参考文献:
[1] Shin W, Vaezi M, Lee B, et al. Coordinated Beamformiag
for Multi-Cell MEMO-NOMA [J]. IEEE Communications Letters, 2017,21(l):84-87.
[2] Liu A, Lau V. Hierarchical Inteiference Mitigation for
Massive MEMO Cellular Networks[J]. IEEE Transactions on Signal Processing, 2014,62(18):4786-4797.
[3] Liu A, Lau V K N. Two-Stage Subspace Constrained Preco-
ding in Massive M1MO Cellular Systems[J]. IEEE Transactions on Tireless Communications, 2015,14{6):3271-3279.[4] Mei J, Zhao L, Zheng EC, et al. Energy-efficient dual-layer
coordinated beamformiog scheme in multi-cell massive multiple-input - multiple-output systems[J]. let Communications, 2017,11(0:30-38.作翻T介:鲁经纬(1990_),男,_
,湖北省隞{丨市,硕士研究生,
图1 S1NR性能比较
单位:中南民族大学电子信息工S学院,研究方向:无线通信。
42
因篇幅问题不能全部显示,请点此查看更多更全内容