CN110619309B - 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法 - Google Patents

一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法 Download PDF

Info

Publication number
CN110619309B
CN110619309B CN201910887709.0A CN201910887709A CN110619309B CN 110619309 B CN110619309 B CN 110619309B CN 201910887709 A CN201910887709 A CN 201910887709A CN 110619309 B CN110619309 B CN 110619309B
Authority
CN
China
Prior art keywords
convolution
feature map
octave
result
yolov3
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910887709.0A
Other languages
English (en)
Other versions
CN110619309A (zh
Inventor
陈东亮
朱健立
李庆新
王汝杰
王琳琛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Tiandy Information Systems Integration Co ltd
Tiandy Technologies Co Ltd
Original Assignee
Tianjin Tiandy Information Systems Integration Co ltd
Tiandy Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Tiandy Information Systems Integration Co ltd, Tiandy Technologies Co Ltd filed Critical Tianjin Tiandy Information Systems Integration Co ltd
Priority to CN201910887709.0A priority Critical patent/CN110619309B/zh
Publication of CN110619309A publication Critical patent/CN110619309A/zh
Application granted granted Critical
Publication of CN110619309B publication Critical patent/CN110619309B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明创造提供了一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法,包括如下步骤:S1.采集视频流并输送视频帧;S2.将帧图补边;S3.缩放图片;S4.送入基于YOLOv3和八度卷积的检测端到端模型合并结果并过滤。本发明创造所述的一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法保证了最新网络模块在caffe框架下的向前兼容性,降低了不同嵌入式平台对算法的维护成本,模型部署方便,抛弃繁琐的级联架构而使用可在前向计算中直接获得结果的端到端架构,大幅降低了开发难度。

Description

一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法
技术领域
本发明创造属于计算机视觉领域,尤其是涉及一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法。
背景技术
目前人脸检测主流方法为深度学习中的基于MTCNN或FasterRcnn人脸目标检测方法,两者从神经网络结构上看皆为级联结构,MTCNN由PNet、RNet、ONet三部分构成,由PNet给出大量目标候选框,RNet和ONet分别进行过滤得到最终结果,FasterRcnn不同之处在于有Rcnn部分将RPN给出的大量候选框映射到原图上,再进行加权筛选。在嵌入式平台上部署过程中,级联结构可能带来大量运算消耗,频繁切换cpu和嵌入式核更加剧了算法等待,且由于方法本征问题必须使用较大参数量的模型才能达到较好的效果,这也增大了芯片内存的占用。
发明内容
有鉴于此,本发明创造旨在克服上述现有技术中存在的缺陷,提出一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法。
为达到上述目的,本发明创造的技术方案是这样实现的:
一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法包括如下步骤:
S1.采集视频流并输送视频帧;
S2.将帧图补边;
S3.缩放图片;
S4.送入基于YOLOv3和八度卷积的检测端到端模型合并结果并过滤,到端模型利用se模块和mobilenet v3模块将feature map进行采样,叠加,过滤。
进一步的,所述步骤S1中视频帧为1080P视频帧。
进一步的,所述步骤S2中补边按照宽高比为1:1进行补边,所获图片为1920*1920像素。
进一步的,所述步骤S4中模型结构如下:
A1.主干网络部分采用多个使用se模块和hswish激活函数激活的mobilenet v3模块相连接,并且模块中涉及到的普通卷积层和分离卷积层均使用八度卷积实现;
A2.在下采样至最小尺寸feature map处连接到第一个yolo层上给出较大目标的检测框;
A3.将最小尺寸feature map进行上采样,和骨干网络上两倍于最小尺寸的feature map进行叠加,并连接到第二个yolo层上给出中等大小目标的检测框;
A4.将两倍于最小尺寸feature map进行上采样,和骨干网络上四倍于最小尺寸的feature map进行叠加,并连接到第三个yolo层上给出较大目标的检测框;
A5.收集所有候选框,进行NMS操作过滤多余框,给出最终的检测结果。
进一步的,所述步骤S4中mobilenet v3具体结构如下:
B1.模块开始是mobilenet v2模块的基本结构,一个1x1的八度卷积用来扩张维度,一个3x3的深度可分离八度卷积用来提高精度并降低模型参数量,一个1x1的八度卷积用来压缩维度;
B2.Mobilenet v2模块与一个se模块相连接,用来对不同通道上的feature map按权重进行整合,然后与其自身相叠加;
B3.叠加后的结果进入hswish激活函数进行激活,可有效提高模型精度并降低前向耗时。
进一步的,所述步骤S4中八度卷积实现结构如下:
C1.输入的feature map都分为高频和低频部分,尺寸分别为WxHxaC、W/2xH/2x(1-a)C,其中a为设定的超参数,在训练网络前就根据经验认为确定好的一个常数,训练时这个常数不会改变,W、H、C分别为原输入的宽、高、通道数;
C2.高频部分要与高频-低频卷积核、高频-高频卷积核分别进行卷积得到高频与低频结果;
C3.低频部分要与低频-高频卷积核、低频-低频卷积核分别进行卷积得到高频与低频结果;
C4.将C3中高频结果进行上采样后和C2中高频结果进行叠加,得到输出的高频部分;
C5.将C3中低频结果进行上采样后和C2中低频结果进行叠加,得到输出的低频部分。
进一步的,所述feature map为特征映射图。
进一步的,所述se模块对前序输入进来的特征图的每个通道的特征图乘以一个训练出来的参数权重实现了通道层面上的注意力机制。
相对于现有技术,本发明创造具有以下优势:
本发明在尽可能的提高了人脸检测精度和召回率的同时,将算法运行时内存的占用量降低了50%左右,单帧检测耗时减少了三分之一左右,保证了最新网络模块在caffe框架下的向前兼容性,降低了不同嵌入式平台对算法的维护成本,模型部署方便,抛弃繁琐的级联架构而使用可在前向计算中直接获得结果的端到端架构,大幅降低了开发难度。
附图说明
构成本发明创造的一部分的附图用来提供对本发明创造的进一步理解,本发明创造的示意性实施例及其说明用于解释本发明创造,并不构成对本发明创造的不当限定。在附图中:
图1为本发明创造实施例所述的检测流程图;
图2为本发明创造实施例所述的YOLOv3架构图;
图3为本发明创造实施例所述的mobilenet v3模块图;
图4为本发明创造实施例所述的八度卷积示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明创造中的实施例及实施例中的特征可以相互组合。
在本发明创造的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明创造和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明创造的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明创造的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本发明创造的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明创造中的具体含义。
下面将参考附图并结合实施例来详细说明本发明创造。
一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法包括如下步骤:
S1.采集视频流并输送视频帧;
S2.将帧图补边;
S3.缩放图片;
S4.送入基于YOLOv3和八度卷积的检测端到端模型合并结果并过滤;
所述视频帧为1080P视频帧。
所述补边按照宽高比为1:1进行补边,所获图片为1920*1920像素。
模型结构如下:
A1.主干网络部分采用多个使用se模块和hswish激活函数激活的mobilenet v3模块相连接,并且模块中涉及到的普通卷积层和分离卷积层均使用八度卷积实现;
A2.在下采样至最小尺寸feature map处连接到第一个yolo层上给出较大目标的检测框;
A3.将最小尺寸feature map进行上采样,和骨干网络上两倍于最小尺寸的feature map进行叠加,并连接到第二个yolo层上给出中等大小目标的检测框;
A4.将两倍于最小尺寸feature map进行上采样,和骨干网络上四倍于最小尺寸的feature map进行叠加,并连接到第三个yolo层上给出较大目标的检测框;
A5.收集所有候选框,进行NMS操作过滤多余框,给出最终的检测结果。
所述mobilenet v3具体结构如下:
B1.模块开始是mobilenet v2模块的基本结构,一个1x1的八度卷积用来扩张维度,一个3x3的深度可分离八度卷积用来提高精度并降低模型参数量,一个1x1的八度卷积用来压缩维度;
B2.Mobilenet v2模块与一个se模块相连接,用来对不同通道上的feature map按权重进行整合,然后与其自身相叠加;
B3.叠加后的结果进入hswish激活函数进行激活,可有效提高模型精度并降低前向耗时。
八度卷积实现结构如下:
C1.输入的feature map都分为高频和低频部分,尺寸分别为WxHxaC、W/2xH/2x(1-a)C,其中a为设定的超参数,W,H,C分别为原输入的宽、高、通道数;
C2.高频部分要与高频-低频卷积核、高频-高频卷积核分别进行卷积得到高频与低频结果;
C3.低频部分要与低频-高频卷积核、低频-低频卷积核分别进行卷积得到高频与低频结果;
C4.将C3中高频结果进行上采样后和C2中高频结果进行叠加,得到输出的高频部分;
C5.将C3中低频结果进行上采样后和C2中低频结果进行叠加,得到输出的低频部分。
在训练本发明所述的深度学习模型时,应使用TensorFlow或PyTorch深度学习框架对基于mobilenet v3和八度卷积的YOLO v3模型进行代码实现,实现过程涉及到如下几点细节:
(1)Yolo层中包含参数用来标识所选用候选框的长宽比,此数值需要由kmeans聚类算法对训练数据中的Ground Truth框进行计算,获得结果后填入anchors参数方可进行训练;
(2)主干网络上的第一个八度卷积输入地低频部分是由输入层进行池化下采样获得的,最后一个八度卷积是由输入的低频部分上采样后与输入的高频部分叠加获得的,在实际代码中均可用普通卷积层、池化层、上采样层实现;
(3)部署到嵌入式平台上的模型中,由于hswish激活函数中包含ReLU6函数,而此函数本身是caffe框架所不支持的(嵌入式平台一般只支持caffe框架),本发明提出ReLU6函数可用ReLU函数通过加减操作代替,具体公式如下:
ReLU6(x)=6-ReLU(6–ReLU(x))
(4)feature map为特征映射图。
(5)se模块对前序输入进来的特征图的每个通道的特征图乘以一个训练出来的参数权重实现了通道层面上的注意力机制。
以上所述仅为本发明创造的较佳实施例而已,并不用以限制本发明创造,凡在本发明创造的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明创造的保护范围之内。

Claims (4)

1.一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法,其特征在于:
包括如下步骤:
S1.采集视频流并输送视频帧;
S2.将帧图补边;
S3.缩放图片;
S4.送入基于YOLOv3和八度卷积的检测端到端模型合并结果并过滤,所述到端模型利用se模块和mobilenet v3模块将feature map进行采样、叠加、过滤;
所述步骤S4中模型结构如下:
A1.主干网络部分采用多个使用se模块和hswish激活函数激活的mobilenet v3模块相连接,并且模块中涉及到的普通卷积层和分离卷积层均使用八度卷积实现;
A2.在下采样至最小尺寸feature map处连接到第一个yolo层上给出较大目标的检测框;
A3.将最小尺寸feature map进行上采样,和骨干网络上两倍于最小尺寸的featuremap进行叠加,并连接到第二个yolo层上给出中等大小目标的检测框;
A4.将两倍于最小尺寸feature map进行上采样,和骨干网络上四倍于最小尺寸的feature map进行叠加,并连接到第三个yolo层上给出较大目标的检测框;
A5.收集所有候选框,进行NMS操作过滤多余框,给出最终的检测结果;
所述步骤S4中八度卷积实现结构如下:
C1.输入的feature map都分为高频和低频部分,尺寸分别为WxHxaC、W/2xH/2x(1-a)C,其中a为设定的超参数,W、H、C分别为原输入的宽、高、通道数;
C2.高频部分要与高频-低频卷积核、高频-高频卷积核分别进行卷积得到高频与低频结果;
C3.低频部分要与低频-高频卷积核、低频-低频卷积核分别进行卷积得到高频与低频结果;
C4.将C3中高频结果进行上采样后和C2中高频结果进行叠加,得到输出的高频部分;
C5.将C3中低频结果进行上采样后和C2中低频结果进行叠加,得到输出的低频部分。
2.根据权利要求1所述的一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法,其特征在于:所述步骤S1中视频帧为1080P视频帧。
3.根据权利要求1所述的一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法,其特征在于:所述步骤S2中补边按照宽高比为1:1进行补边,所获图片为1920*1920像素。
4.根据权利要求1所述的一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法,其特征在于:所述步骤S4中mobilenet v3具体结构如下:
B1.模块开始是mobilenet v2模块的基本结构,一个1x1的八度卷积用来扩张维度,一个3x3的深度可分离八度卷积用来提高精度并降低模型参数量,一个1x1的八度卷积用来压缩维度;
B2.Mobilenet v2模块与一个se模块相连接,用来对不同通道上的feature map按权重进行整合,然后与其自身相叠加;
B3.叠加后的结果进入hswish激活函数进行激活,可有效提高模型精度并降低前向耗时。
CN201910887709.0A 2019-09-19 2019-09-19 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法 Active CN110619309B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910887709.0A CN110619309B (zh) 2019-09-19 2019-09-19 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910887709.0A CN110619309B (zh) 2019-09-19 2019-09-19 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法

Publications (2)

Publication Number Publication Date
CN110619309A CN110619309A (zh) 2019-12-27
CN110619309B true CN110619309B (zh) 2023-07-18

Family

ID=68923727

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910887709.0A Active CN110619309B (zh) 2019-09-19 2019-09-19 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法

Country Status (1)

Country Link
CN (1) CN110619309B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111246217B (zh) * 2020-01-19 2022-02-01 中国石油大学(华东) 基于八度卷积的压缩视频动作识别方法
CN111325120A (zh) * 2020-02-09 2020-06-23 南通大学 一种适用于嵌入式系统的目标检测方法
CN111444772A (zh) * 2020-02-28 2020-07-24 天津大学 基于nvidia tx2的行人检测方法
CN113536824B (zh) * 2020-04-13 2024-01-12 南京行者易智能交通科技有限公司 一种基于YOLOv3的乘客检测模型的改进方法,及模型训练方法
CN111721770A (zh) * 2020-06-12 2020-09-29 汕头大学 一种基于分频卷积的自动化裂缝检测方法
CN112257527B (zh) * 2020-10-10 2022-09-02 西南交通大学 基于多目标融合与时空视频序列的手机检测方法
CN112232214A (zh) * 2020-10-16 2021-01-15 天津大学 一种基于深度特征融合和注意力机制的实时目标检测方法
CN112733749B (zh) * 2021-01-14 2022-04-12 青岛科技大学 融合注意力机制的实时行人检测方法
CN113191335A (zh) * 2021-05-31 2021-07-30 景德镇陶瓷大学 基于深度学习的日用陶瓷类型识别方法
CN114005020B (zh) * 2021-11-05 2024-04-26 河北工业大学 一种基于M3-YOLOv5的指定移动目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034119A (zh) * 2018-08-27 2018-12-18 苏州广目信息技术有限公司 一种基于优化的全卷积神经网络的人脸检测方法
CN109359556A (zh) * 2018-09-21 2019-02-19 四川长虹电器股份有限公司 一种基于低功耗嵌入式平台的人脸检测方法及系统
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN109034119A (zh) * 2018-08-27 2018-12-18 苏州广目信息技术有限公司 一种基于优化的全卷积神经网络的人脸检测方法
CN109359556A (zh) * 2018-09-21 2019-02-19 四川长虹电器股份有限公司 一种基于低功耗嵌入式平台的人脸检测方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于级联网络的快速人脸检测算法;包晓安等;《浙江理工大学学报(自然科学版)》;20181203(第03期);全文 *

Also Published As

Publication number Publication date
CN110619309A (zh) 2019-12-27

Similar Documents

Publication Publication Date Title
CN110619309B (zh) 一种基于八度卷积和YOLOv3的嵌入式平台人脸检测方法
CN109118459A (zh) 图像显著性物体检测方法和装置
CN110047058B (zh) 一种基于残差金字塔的图像融合方法
CN107657606A (zh) 一种显示装置的亮度缺陷检测方法与装置
JP2020119568A (ja) コンピュータビジョンのシステムおよび方法
CN101123677B (zh) 改善图像锐度的方法、装置及集成电路
CN110533623B (zh) 一种基于监督学习的全卷积神经网络多聚焦图像融合方法
CN105894549A (zh) 一种全景辅助泊车系统、装置及全景图像显示方法
CN111179167A (zh) 一种基于多阶段注意力增强网络的图像超分辨方法
CN109670529A (zh) 一种用于快速语义分割的可分离分解残差模块设计方法
HUE026753T2 (hu) Eljárás és hordozható készülék vonalkódok detektálására
CN111898668A (zh) 一种基于深度学习的小目标物体检测方法
CN102630019A (zh) 去马赛克的方法和装置
CN111626960A (zh) 图像去雾方法、终端及计算机存储介质
CN111553867A (zh) 一种图像去模糊方法、装置、计算机设备及存储介质
CN110675330A (zh) 基于通道级注意力机制的编码-解码网络的图像去雨方法
CN111144484B (zh) 一种图像识别方法及装置
CN108103999B (zh) 基于多目数据采集的阻车器控制系统
CN109632037A (zh) 一种基于图像智能识别的城市内涝积水深度检测方法
CN104345423B (zh) 一种图像采集方法及图像采集设备
CN112785517B (zh) 一种基于高分辨率表征的图像去雾方法和装置
CN114119443A (zh) 一种基于多光谱相机的图像融合系统
CN109934342B (zh) 神经网络模型训练方法、深度图像修复方法及系统
CN105760878A (zh) 选择聚焦最佳的尿沉渣显微镜图像的方法及装置
CN109102460A (zh) 一种图像处理方法、图像处理装置及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230525

Address after: No. 8, Huake 2nd Road, Haitai, Huayuan Industrial Zone (Huanwai), Binhai New Area, Tianjin, 300392

Applicant after: TIANDY TECHNOLOGIES Co.,Ltd.

Applicant after: TIANJIN TIANDY INFORMATION SYSTEMS INTEGRATION Co.,Ltd.

Address before: Room a220, complex building, No.8, Haitai Huake 2nd Road, Huayuan Industrial Zone, Binhai New Area, Tianjin, 300384

Applicant before: TIANJIN TIANDI JIYE TECHNOLOGY CO.,LTD.

GR01 Patent grant
GR01 Patent grant