(12)发明专利申请
(10)申请公布号 CN 112381132 A(43)申请公布日 2021.02.19
(21)申请号 202011253000.4(22)申请日 2020.11.11
(71)申请人 上汽大众汽车有限公司
地址 201805 上海市嘉定区安亭于田路123
号(72)发明人 赖哲渊 姚明江
(74)专利代理机构 上海东信专利商标事务所
(普通合伙) 31228
代理人 杨丹莉 李丹(51)Int.Cl.
G06K 9/62(2006.01)G06K 9/00(2006.01)G06T 7/246(2017.01)G06T 7/277(2017.01)
权利要求书2页 说明书6页 附图3页
CN 112381132 A(54)发明名称
一种基于多个摄像头融合的目标物跟踪方法和系统(57)摘要
本发明公开了一种基于多个摄像头融合的目标物跟踪方法,其包括步骤:100:从若干摄像头拍摄的图像中实时提取需要跟踪的目标物信
采用经过训练的深度残差编码器对输入息;200:
其中的目标物检测框内的图像进行识别;300:存储目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标物外观特征编码及其对应的时间戳,并将其作为对应的历史数据;400:目标物检测框在图像中的历史位置信息,对目标物检测框在图像中的当前位置进行预测;500:基于设定的第一阈值筛选出小于第一阈值的候选目标物;600:基于设定的第二阈值筛选出小于第二阈值的候选匹配目标物;700:采用匈牙利算法从候选匹配目标物中为当前检测的当前目标物进行匹配指派,以实现跟踪。
CN 112381132 A
权 利 要 求 书
1/2页
1.一种基于多个摄像头融合的目标物跟踪方法,其特征在于,包括步骤:100:从若干个摄像头拍摄的图像中实时提取需要跟踪的目标物信息,所述目标物信息至少包括:目标物检测框在图像中的位置信息、目标物检测框内的图像、目标物类别和目标物ID;
200:采用经过训练的深度残差编码器对输入其中的目标物检测框内的图像进行识别,以输出对应的目标物外观特征编码;所述深度残差编码器的数量与目标物类别的数量对应;
300:存储目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标物外观特征编码及其对应的时间戳,并将其作为对应的历史数据;
400:目标物检测框在图像中的历史位置信息,对目标物检测框在图像中的当前位置进行预测,以得到目标物检测框的预测位置;
500:基于当前检测的当前目标物检测框的位置,计算其与对应的目标物检测框的预测位置之间的欧式距离,并基于设定的第一阈值筛选出小于第一阈值的候选目标物;
600:基于当前检测的当前目标物外观特征编码,计算其与候选目标物的外观特征编码的余弦距离,并基于设定的第二阈值筛选出小于第二阈值的候选匹配目标物;
700:采用匈牙利算法从候选匹配目标物中为当前检测的当前目标物进行匹配指派,以实现跟踪。
2.如权利要求1所述的基于多个摄像头融合的目标物跟踪方法,其特征在于,所述目标物至少包括行人和车辆。
3.如权利要求1所述的基于多个摄像头融合的目标物跟踪方法,其特征在于,在步骤400中,采用卡尔曼滤波器对目标物检测框在图像中的当前位置进行预测。
4.如权利要求1所述的基于多个摄像头融合的目标物跟踪方法,其特征在于,在步骤100和步骤200之间还包括预处理步骤:将目标物检测框内的图像缩放至深度残差编码器的输入尺寸。
5.如权利要求1所述的基于多个摄像头融合的目标物跟踪方法,其特征在于,目标物检测框在图像中的位置信息包括检测框中心点的像素位置以及检测框的长度和宽度。
6.如权利要求1所述的基于多个摄像头融合的目标物跟踪方法,其特征在于,还包括步骤800:当没有从候选匹配目标物中为当前检测的目标物匹配到对应的目标物时,为该当前检测的目标物赋予新的ID,并将其作为历史数据存储。
7.如权利要求1所述的基于多个摄像头融合的目标物跟踪方法,其特征在于,所述深度残差编码器采用MOT行人重识别数据集和车载摄像头采集数据集进行训练。
8.一种基于多个摄像头融合的目标物跟踪系统,其特征在于,包括:目标物检测模块,其从若干个摄像头拍摄的图像中实时提取需要跟踪的目标物信息,所述目标物信息至少包括:目标物检测框在图像中的位置信息、目标物检测框内的图像、目标物类别和目标物ID;
目标物重识别编码模块,其包括与目标物类别的数量对应的深度残差编码器,所述各深度残差编码器分别基于输入的目标物检测框内的图像,而输出对应的目标物外观特征编码;
数据库,其接收所述目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标
2
CN 112381132 A
权 利 要 求 书
2/2页
物外观特征编码及其对应的时间戳,并将其作为对应的历史数据进行存储;
在线匹配跟踪模块,其包括位置预测子模块、距离计算子模块和匈牙利匹配子模块,其中:
位置预测子模块基于数据库中存储的目标物检测框在图像中的历史位置信息,对目标物检测框在图像中的当前位置进行预测,以得到目标物检测框的预测位置;
距离计算子模块,其先计算当前检测的当前目标物检测框的位置与对应的目标物检测框的预测位置之间的欧式距离,并基于设定的第一阈值从数据库中筛选出小于第一阈值的候选目标物;然后计算当前检测的当前目标物的外观特征编码和候选目标物的外观特征编码的余弦距离,并基于设定的第二阈值从数据库中筛选出小于第二阈值的候选匹配目标物;
匈牙利匹配子模块,其采用匈牙利算法从候选匹配目标物中为当前检测的当前目标物进行匹配指派,以实现跟踪。
9.如权利要求8所述的基于多个摄像头融合的目标物跟踪系统,其特征在于,所述数据库包括匹配数据库和云端数据库,所述云端数据库保存目标物的所有历史数据,所述匹配数据库保存目标物的设定帧数的历史数据。
10.如权利要求8所述的基于多个摄像头融合的目标物跟踪系统,其特征在于,所述目标物重识别编码模块还包括预处理子模块,所述预处理子模块将所述目标物检测框内的图像缩放至深度残差编码器的输入尺寸。
3
CN 112381132 A
说 明 书
一种基于多个摄像头融合的目标物跟踪方法和系统
1/6页
技术领域
[0001]本发明涉及一种目标物跟踪方法和系统,尤其涉及一种基于摄像头的目标物跟踪方法和系统。
背景技术
[0002]近年来,随着自动驾驶技术的快速发展,自动驾驶汽车运用在日常生活中的可能性也越来越大。其中,利用车载摄像头进行物体检测和跟踪是自动驾驶汽车在自动驾驶感知中的重要环节。[0003]目前,现有的多物体再现跟踪方法一般均是在检测的基础上进行的,且几乎都是基于车载前视摄像头。目前主流的跟踪方法包括:基于光流跟踪、基于线性速度假设来预测物体位置并通过交并比(IOU)匹配等。[0004]但是,上述这些方法的问题是当检测物体有长时间遮挡时会带来较大的估计偏差,将已经出现过的物体打上了新的标签(ID)且不同物体的ID发生交换的可能性较高;另一方面,单个摄像头的视野范围有限,而在诸如环视等多个摄像头的场景中,跟踪物体很容易丢失,算法几乎不适用,继而影响到预测和规划。[0005]基于此,本发明基于车辆自动驾驶场景,考虑到自动驾驶车的摄像头数量较多,期望获得一种基于多个摄像头融合的目标物跟踪方法,该方法可以在自动驾驶过程中分别对目标物,例如车辆和行人进行训练重识别,从而提取目标物的外观特征,并基于其相似度作为匹配的基准,以提高目标物的跟踪准确度。发明内容
[0006]本发明的目的之一在于提供一种基于多个摄像头融合的目标物跟踪方法,该目标物跟踪方法可以在自动驾驶过程中分别对目标物,例如车辆和行人进行训练重识别,从而提取目标物的外观特征,并基于其相似度作为匹配的基准,以提高目标物的跟踪准确度。[0007]为了实现上述目的,本发明提出了一种基于多个摄像头融合的目标物跟踪方法,其包括步骤:[0008]100:从若干个摄像头拍摄的图像中实时提取需要跟踪的目标物信息,所述目标物信息至少包括:目标物检测框在图像中的位置信息、目标物检测框内的图像、目标物类别和目标物ID;[0009]200:采用经过训练的深度残差编码器对输入其中的目标物检测框内的图像进行识别,以输出对应的目标物外观特征编码;所述深度残差编码器的数量与目标物类别的数量对应;
[0010]300:存储目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标物外观特征编码及其对应的时间戳,并将其作为对应的历史数据;[0011]400:目标物检测框在图像中的历史位置信息,对目标物检测框在图像中的当前位置进行预测,以得到目标物检测框的预测位置;
4
CN 112381132 A[0012]
说 明 书
2/6页
500:基于当前检测的当前目标物检测框的位置,计算其与对应的目标物检测框的
预测位置之间的欧式距离,并基于设定的第一阈值筛选出小于第一阈值的候选目标物;[0013]600:基于当前检测的当前目标物外观特征编码,计算其与候选目标物的外观特征编码的余弦距离,并基于设定的第二阈值筛选出小于第二阈值的候选匹配目标物;[0014]700:采用匈牙利算法从候选匹配目标物中为当前检测的当前目标物进行匹配指派,以实现跟踪。
[0015]在本发明所述的基于多个摄像头融合的目标物跟踪方法与现有跟踪技术的区别在于:现有传统跟踪技术大多基于目标物位置进行预测和判断,很难在多个不同摄像头中确定目标物是否是同一个,目标物ID经常容易丢失;而本发明所述的基于多个摄像头融合的目标物跟踪方法分别对车辆和行人进行训练重识别,提取目标物的外观特征,以其相似度作为匹配的基准,从而有效提高目标物的跟踪准确度。[0016]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪方法中,所述目标物至少包括行人和车辆。[0017]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪方法中,在步骤400中,采用卡尔曼滤波器对目标物检测框在图像中的当前位置进行预测。[0018]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪方法中,在步骤100和步骤200之间还包括预处理步骤:将目标物检测框内的图像缩放至深度残差编码器的输入尺寸。
[0019]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪方法中,目标物检测框在图像中的位置信息包括检测框中心点的像素位置以及检测框的长度和宽度。[0020]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪方法中,还包括步骤800:当没有从候选匹配目标物中为当前检测的目标物匹配到对应的目标物时,为该当前检测的目标物赋予新的ID,并将其作为历史数据存储。[0021]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪方法中,所述深度残差编码器采用MOT行人重识别数据集和车载摄像头采集数据集进行训练。[0022]相应地,本发明的另一目的在于提供一种基于多个摄像头融合的目标物跟踪系统,该目标物跟踪系统可以用于实施本发明上述的目标物跟踪方法。[0023]为了实现上述目的,本发明提出了一种基于多个摄像头融合的目标物跟踪系统,其包括:
[0024]目标物检测模块,其从若干个摄像头拍摄的图像中实时提取需要跟踪的目标物信息,所述目标物信息至少包括:目标物检测框在图像中的位置信息、目标物检测框内的图像、目标物类别和目标物ID;
[0025]目标物重识别编码模块,其包括与目标物类别的数量对应的深度残差编码器,所述各深度残差编码器分别基于输入的目标物检测框内的图像,而输出对应的目标物外观特征编码;
[0026]数据库,其接收所述目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标物外观特征编码及其对应的时间戳,并将其作为对应的历史数据进行存储;[0027]在线匹配跟踪模块,其包括位置预测子模块、距离计算子模块和匈牙利匹配子模块,其中:
5
CN 112381132 A[0028]
说 明 书
3/6页
位置预测子模块基于数据库中存储的目标物检测框在图像中的历史位置信息,对
目标物检测框在图像中的当前位置进行预测,以得到目标物检测框的预测位置;[0029]距离计算子模块,其先计算当前检测的当前目标物检测框的位置与对应的目标物检测框的预测位置之间的欧式距离,并基于设定的第一阈值从数据库中筛选出小于第一阈值的候选目标物;然后计算当前检测的当前目标物的外观特征编码和候选目标物的外观特征编码的余弦距离,并基于设定的第二阈值从数据库中筛选出小于第二阈值的候选匹配目标物;
[0030]匈牙利匹配子模块,其采用匈牙利算法从候选匹配目标物中为当前检测的当前目标物进行匹配指派,以实现跟踪功。[0031]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪系统中,所述数据库包括匹配数据库和云端数据库,所述云端数据库保存目标物的所有历史数据,所述匹配数据库保存目标物的设定帧数的历史数据。[0032]进一步地,在本发明所述的基于多个摄像头融合的目标物跟踪系统中,所述目标物重识别编码模块还包括预处理子模块,所述预处理子模块将所述目标物检测框内的图像缩放至深度残差编码器的输入尺寸。
[0033]本发明所述的基于多个摄像头融合的目标物跟踪方法和系统相较于现有技术具有如下所述的优点和有益效果:[0034](1)本发明提出了一种适用于车辆自动驾驶场景跨摄像头的多物体跟踪方法,能够利用多个摄像头的空间布置实现更大范围视野的跟踪;[0035](2)本发明可以通过行人和车辆重识别的数据集分别训练目标物重识别编码模块中的深度残差编码器,以实现基于输入的目标物检测框内的图像,输出对应的目标物外观特征编码,从而提高目标物的跟踪准确度;附图说明
[0036]图1示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪系统在一种实施方式下的跟踪算法整体模块示意图。
[0037]图2示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪系统在一种实施方式下的目标物重识别编码模块神经网络训练示意图。
[0038]图3示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪系统在一种实施方式下的数据库模块示意图。
[0039]图4示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪方法在一种实施方式下的步骤流程图。
具体实施方式
[0040]下面将结合说明书附图和具体的实施例对本发明所述的基于多个摄像头融合的目标物跟踪方法和系统做进一步的解释和说明,然而该解释和说明并不对本发明的技术方案构成不当限定。
[0041]图1示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪系统在一种实施方式下的跟踪算法整体模块示意图。
6
CN 112381132 A[0042]
说 明 书
4/6页
如图1所示,在本实施方式中,本发明所述的目标物跟踪系统可以包括:目标物检
测模块、目标物重识别编码模块、数据库和在线匹配跟踪模块。[0043]在本发明所述的目标物跟踪系统中,目标物检测模块能够从若干个摄像头拍摄的图像中实时提取需要跟踪的目标物信息,该目标物信息至少包括:目标物检测框在图像中的位置信息、目标物检测框内的图像、目标物类别和目标物ID。目标物检测模块将实时提取的需要跟踪的目标物信息传输至目标物重识别编码模块,而在目标物重识别编码模块中可以包括与目标物类别的数量对应的深度残差编码器,各深度残差编码器分别基于输入的目标物检测框内的图像,而输出对应的目标物外观特征编码。[0044]相应地,本发明所述的目标物跟踪系统中的数据库可以有效存储目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标物外观特征编码及其对应的时间戳,并将其作为对应的历史数据。
[0045]在线匹配跟踪模块可以接收当前目标物重识别编码模块的输出和数据库进行特征匹配,完成目标物的重识别和跟踪。[0046]需要说明的是,在本发明中,在线匹配跟踪模块中的位置预测子模块能够基于上述数据库中存储的目标物检测框在图像中的历史位置信息,对目标物检测框在图像中的当前位置进行预测,以得到目标物检测框的预测位置;在线匹配跟踪模块中的距离计算子模块可以先计算当前检测的当前目标物检测框的位置与对应的目标物检测框的预测位置之间的欧式距离,并基于设定的第一阈值从数据库中筛选出小于第一阈值的候选目标物;然后计算当前检测的当前目标物的外观特征编码和候选目标物的外观特征编码的余弦距离,并基于设定的第二阈值从数据库中筛选出小于第二阈值的候选匹配目标物;筛选出候选匹配目标物后,可以通过匈牙利匹配子模块,采用匈牙利算法从候选匹配目标物中为当前检测的当前目标物进行匹配指派,以实现跟踪。[0047]此外,在本实施方式中,本发明所述的目标物跟踪系统中的目标物重识别编码模块还包括预处理子模块,预处理子模块可以将所述目标物检测框内的图像缩放至深度残差编码器的输入尺寸。[0048]另外,需要注意的是,在本实施方式中,本发明所述的基于多个摄像头融合的目标物跟踪系统中的目标物可以至少包括行人和车辆。
[0049]图2示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪系统在一种实施方式下的目标物重识别编码模块神经网络训练示意图。[0050]如图2所示,在本实施方式中,本发明所述目标物跟踪系统的目标物重识别编码模块引入了深度残差编码器(或称为深度残差网络)来提取目标物外观特征编码。此深度残差编码器由2个卷积层,1个池化层,6个残差模块和1个全连接层组成。深度残差编码器训练阶段的数据一部分来源于公开的MOT行人重识别数据集,另一部分来源于车载摄像头采集数据集,深度残差编码器采用MOT行人重识别数据集和车载摄像头采集数据集进行训练。[0051]在本实施方式中,在深度残差编码器训练阶段,考虑到同一目标物在不同摄像头中的姿态和完整程度有很大区别,因此在预处理模块,使用数据增强来对数据集进行扩充。具体地,通过随机挑选数据集中1/3的行人和车辆,随机裁去底部和顶部部分像素,再缩放至原先尺寸。增强的数据集更好的模拟了多摄像头场景中存在的不对齐问题。目标物重识别编码模块针对行人和车辆单独训练出2个对应的权重,能更好地对同一类目标物的特征
7
CN 112381132 A
说 明 书
5/6页
进行区分。深度残差网络的输出是128维的特征向量,作为目标物外观特征编码。
[0052]图3示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪系统在一种实施方式下数据库模块的示意图。[0053]如图3所示,在本实施方式中,本发明所述的基于多个摄像头融合的目标物跟踪系统中的数据库可以包括:匹配数据库和云端数据库。[0054]在本发明中,目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标物外观特征编码及其对应的时间戳需要上传至云端数据库和匹配数据库中。其中,云端数据库记录了所有目标物的特征编码,一方面可以用来调整匹配数据库保存的帧数,增加算法的鲁棒性;另一方面,可在有监控需求的场景中能快速找到某目标物的特征和出现过的时间序列。[0055]相应地,数据库中的匹配数据库仅保存目标物(或称为跟踪器)的设定帧数的历史数据,同时具有数据更新和删除机制。在本实施方式中,匹配数据库中可以仅保存目标物过去100帧的记录。当目标物(或称为跟踪器)没有与新的一帧所有摄像头的目标物匹配到时,对目标物丢失时间进行累加,当丢失时间超过阈值时,从匹配数据库中删除该目标物(或称为跟踪器)。
[0056]图4示意性地显示了本发明所述的基于多个摄像头融合的目标物跟踪方法在一种实施方式下的步骤流程图。[0057]需要说明的是,在本发明中,还公开了一种基于多个摄像头融合的目标物跟踪方法。如图4所示,并同时结合参考图1-图3可以得到本发明所述的基于多个摄像头融合的目标物跟踪方法,该目标物跟踪方法可以包括如下步骤:[0058]100:从若干个摄像头拍摄的图像中实时提取需要跟踪的目标物信息,所述目标物信息至少包括:目标物检测框在图像中的位置信息、目标物检测框内的图像、目标物类别和目标物ID;[0059]200:采用经过训练的深度残差编码器对输入其中的目标物检测框内的图像进行识别,以输出对应的目标物外观特征编码;所述深度残差编码器的数量与目标物类别的数量对应;
[0060]300:存储目标物检测框在图像中的位置信息、目标物类别、目标物ID、目标物外观特征编码及其对应的时间戳,并将其作为对应的历史数据;[0061]400:目标物检测框在图像中的历史位置信息,对目标物检测框在图像中的当前位置进行预测,以得到目标物检测框的预测位置;[0062]500:基于当前检测的当前目标物检测框的位置,计算其与对应的目标物检测框的预测位置之间的欧式距离,并基于设定的第一阈值筛选出小于第一阈值的候选目标物;[0063]600:基于当前检测的当前目标物外观特征编码,计算其与候选目标物的外观特征编码的余弦距离,并基于设定的第二阈值筛选出小于第二阈值的候选匹配目标物;[0064]700:采用匈牙利算法从候选匹配目标物中为当前检测的当前目标物进行匹配指派,以实现跟踪。
[0065]在本发明所述的目标物跟踪方法中,在步骤400中,可以采用卡尔曼滤波器对目标物检测框在图像中的当前位置进行预测。[0066]此外,在本实施方式中,上述步骤100和步骤200之间还可以包括预处理步骤:将目
8
CN 112381132 A
说 明 书
6/6页
标物检测框内的图像缩放至深度残差编码器的输入尺寸。[0067]另外,在一些其他的实施方式中,本发明所述的基于多个摄像头融合的目标物跟踪系统中,目标物检测框在图像中的位置信息可以包括检测框中心点的像素位置以及检测框的长度和宽度。
[0068]需要说明的是,在本发明所述的基于多个摄像头融合的目标物跟踪方法中,在上述步骤800中,当没有从候选匹配目标物中为当前检测的目标物匹配到对应的目标物时,为该当前检测的目标物赋予新的ID,并将其作为历史数据存储。
[0069]参阅图4并结合上述目标物跟踪方法的步骤100-700可知,本发明上述的目标物跟踪方法基于本发明所述的目标物跟踪系统实施。[0070]在图4所示的实施方式中,本发明所述的目标物跟踪方法所要跟踪的目标物被称为跟踪器。在图4所示的流程中,目标检测模块对输入的图像序列进行检测,从当前帧的图像得到跟踪器检测框后,输入到经过训练的深度残差编码器中,从而输出对应的跟踪器外观特征编码。
[0071]而系统中的在线匹配跟踪模块在处理前一帧时,根据每个跟踪器检测框中心位置的历史信息,用卡尔曼滤波预器测该跟踪器在当前帧可能出现的位置,得到跟踪器检测框的预测位置。[0072]相应地,在本实施方式中,在线匹配跟踪模块的距离计算部分包括两步筛选:[0073]第一步,计算当前帧检测框和每个跟踪器检测框预测位置的欧式距离;第二步,对于满足第一步欧氏距离小于阈值的跟踪器,计算其外观特征编码与候选跟踪器的外观特征编码的最小余弦距离,将其视为跟踪器和检测目标物的相似度,从而筛选出和检测目标物相似度小于阈值的跟踪器,视为潜在的候选匹配跟踪器。其中,第一步筛选的意义在于:对跟踪器的位置做了约束,减少了候选跟踪器的数量,降低了第二步筛选的计算负担。[0074]在本实施方式中,对于上述检测目标物和潜在匹配跟踪器,采用匈牙利算法对其进行指派,若匹配到相应的跟踪器后,则给目标物赋予跟踪器的ID,同时更新匹配数据库信息,完成当前目标物的跟踪;若对于当前检测目标物没有匹配到相应的跟踪器,则说明该当前检测目标物是新出现的目标物,赋予其新的ID,并上传至匹配数据库中作为跟踪器。[0075]需要说明的是,在上述技术方案中,对于没匹配到目标物的剩余跟踪器,说明在当前帧中,该跟踪器消失了,则更新其丢失时间,超过阈值时从匹配数据库中删除,说明该跟踪器不会再被摄像头观察到。
[0076]本发明保护范围中现有技术部分并不局限于本申请文件所给出的实施例,所有不与本发明的方案相矛盾的现有技术,包括但不局限于在先专利文献、在先公开出版物,在先公开使用等等,都可纳入本发明的保护范围。[0077]此外,本案中各技术特征的组合方式并不限本案权利要求中所记载的组合方式或是具体实施例所记载的组合方式,本案记载的所有技术特征可以以任何方式进行自由组合或结合,除非相互之间产生矛盾。[0078]还需要注意的是,以上所列举的实施例仅为本发明具体实施例。显然本发明不局限于以上实施例,随之做出的类似变化或变形是本领域技术人员能从本发明公开的内容直接得出或者很容易便联想到的,均应属于本发明的保护范围。
9
CN 112381132 A
说 明 书 附 图
1/3页
图1
10
CN 112381132 A
说 明 书 附 图
2/3页
图2
图3
11
CN 112381132 A
说 明 书 附 图
3/3页
图4
12
因篇幅问题不能全部显示,请点此查看更多更全内容