CN117542045B - 一种基于空间引导自注意力的食品识别方法及系统 - Google Patents
一种基于空间引导自注意力的食品识别方法及系统 Download PDFInfo
- Publication number
- CN117542045B CN117542045B CN202410033038.2A CN202410033038A CN117542045B CN 117542045 B CN117542045 B CN 117542045B CN 202410033038 A CN202410033038 A CN 202410033038A CN 117542045 B CN117542045 B CN 117542045B
- Authority
- CN
- China
- Prior art keywords
- feature
- image features
- attention
- self
- food
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 26
- 238000012216 screening Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 10
- 230000008569 process Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 abstract 3
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000009246 food effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于空间引导自注意力的食品识别方法及系统,涉及计算机视觉领域。本发明根据图像特征图获取目标位置编码,并根据编码引导自注意力机制只计算存在目标的位置,同时将图像特征图进行拆分处理,并以级联方式处理拆分的图像特征图,从而达到节约计算量的目的,另外根据目标位置编码的计算方式,也可以达到节约大量计算量,并为自注意力计算提供先验知识。
Description
技术领域
本发明属于计算机视觉领域,特别涉及一种基于空间引导自注意力的食品识别方法及系统。
背景技术
自注意力机制是深度学习领域中备受瞩目的特征处理技术。自注意力机制通过学习特征之间的相互依赖关系,使得模型能够准确地捕捉上下文信息,无论是在自然语言处理还是计算机视觉任务中都展现了出色的性能。然而,尽管自注意力机制取得了显著的成就,但目前这种机制仍然存在问题,例如运算量大,模型复杂度高等。如果能够在一个模型中用更少的计算量,仍充分利用自注意力机制的优势,就能够在特征的表达和信息的处理速度上取得双赢的效果。
发明内容
本发明提供一种基于空间引导自注意力的食品识别方法及系统,旨在减少传统自注意力的计算量,并通过空间注意力关注目标存在位置,从而提高食品的识别效果。
本发明对于传统自注意力机制作出了改进,提供一种基于空间引导自注意力的食品识别方法,包括以下步骤:
S1、获取食品摄像头视频,每秒对摄像头进行抽帧,获得食品待检测图像;
S2、构建空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行融和,得到和图像特征维度相同的优化图像特征,并进行输出;
S3、构建食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成;
S4、将食品待检测图像输入进食品检测模型,获得食品检测结果。
优选地,S2中的空间引导自注意力模块,如果输入图像特征为Xi位置编码s的计算为s=MAX(SAttn(Xi)),SAttn为空间注意力操作,MAX为阈值筛选,将图像特征中非目标位置重置为0后的特征图X′i计算为X′i=Xi⊙Mask(s),⊙表示逐位置相乘,Mask(s)是一个与s具有相同形状的矩阵,其中s所指定的位置的元素为1,其他位置为0,对x应用这样的掩码操作,就可以得到经过s筛选后的特征图,然后每个拆分特征图的优化特征的计算为其中X′ij代表特征图X′i的第j个拆分特征图,/>分别代表生成Q、K、V的权重矩阵,Attn代表自注意力计算,然后将所有的优化特征进行融和,得到和图像特征维度相同的优化图像特征/>的计算为其中h为拆分的特征图数量,/>为线性层,目的是将输出的优化图像特征投影回与输入图像特征一致的维度。
本发明还提供一种基于空间引导自注意力的食品识别系统,其特征在于,包括食品图像数据采集模块、食品检测模块,通过食品图像数据采集模块采集所要检测的食品目标图像,食品检测模块内置食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成,对于空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行融和,得到和图像特征维度相同的优化图像特征,并进行输出。
与现有技术相比,本发明具有以下技术效果:
本发明提供的技术方案首先根据图像特征图获取目标位置编码,并根据编码引导自注意力机制只计算存在目标的位置,同时将图像特征图进行拆分处理,并以级联方式处理拆分的图像特征图,从而达到节约计算量的目的,另外根据目标位置编码的计算方式,也可以达到节约大量计算量,并为自注意力计算提供先验知识。
附图说明
图1是本发明提供的食品识别流程图;
图2是本发明提供的空间引导自注意力结构图。
具体实施方式
本发明旨在提出一种基于空间引导自注意力的食品识别方法及系统,根据图像特征图获取目标位置编码,并根据编码引导自注意力机制只计算存在目标的位置,同时将图像特征图进行拆分处理,并以级联方式处理拆分的图像特征图,从而达到节约计算量的目的,另外根据目标位置编码的计算方式,也可以达到节约大量计算量,并为自注意力计算提供先验知识。
请参见图1所示,本申请实施例中的一种基于空间引导自注意力的食品识别方法:
S1、获取食品摄像头视频,每秒对摄像头进行抽帧,获得食品待检测图像;
S2、构建空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行融和,得到和图像特征维度相同的优化图像特征,并进行输出;
S3、构建食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成;
S4、将食品待检测图像输入进食品检测模型,获得食品检测结果。
进一步,如图2所示,从摄像头获得食品图像后,将600×600分辨率的3通道图像输入进骨干网络,骨干网络使用RetinaNet网络,并输出维度为(600,600,3)图像特征图,将图像特征输入进空间注意力机制中,获得360000个像素位置得分,得分从0到1分布,按照阈值0.6进行筛选,获得存在目标的位置,并形成目标编码,根据目标编码对应位置,将特征图中不存在目标位置的值重置为0,然后拆分图像特征图为3个特征块,每个特征块维度为(200,200,3),首先将拆分特征1进行自注意力计算,得到优化特征1,然后将优化特征1与拆分特征2进行相加,并进行自注意力计算,得到优化特征2,然后将优化特征2与拆分特征3进行相加,并进行自注意力计算,得到优化特征3,将三个优化特征进行融和,并进行线性层运算,得到优化图像特征,其维度为(600,600,3),将优化图像特征输入到检测头,检测头使用RetinaNet网络检测头,并最终得到食品检测结果。
进一步,S2中的空间引导自注意力模块,如果输入图像特征为Xi位置编码s的计算为s=MAX(SAttn(Xi)),SAttn为空间注意力操作,MAX为阈值筛选,将图像特征中非目标位置重置为0后的特征图X′i计算为X′i=Xi⊙Mask(s),⊙表示逐位置相乘,Mask(s)是一个与s具有相同形状的矩阵,其中s所指定的位置的元素为1,其他位置为0,对x应用这样的掩码操作,就可以得到经过s筛选后的特征图,然后每个拆分特征图的优化特征的计算为其中X′ij代表特征图X′i的第j个拆分特征图,/>分别代表生成Q、K、V的权重矩阵,Attn代表自注意力计算,然后将所有的优化特征进行融和,得到和图像特征维度相同的优化图像特征/>的计算为其中h为拆分的特征图数量,/>为线性层,目的是将输出的优化图像特征投影回与输入图像特征一致的维度。
本实施例提供一种基于空间引导自注意力的食品识别系统,其特征在于,包括食品图像数据采集模块、食品检测模块,通过食品图像数据采集模块采集所要检测的食品目标图像,食品检测模块内置食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成,对于空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行融和,得到和图像特征维度相同的优化图像特征,并进行输出。
以上仅是本发明的优选实施方式,应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (3)
1.一种基于空间引导自注意力的食品识别方法,其特征在于,包括以下步骤:
S1、获取食品摄像头视频,每秒对摄像头进行抽帧,获得食品待检测图像;
S2、构建空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行融合,得到和图像特征维度相同的优化图像特征,并进行输出;
S3、构建食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成;
S4、将食品待检测图像输入进食品检测模型,获得食品检测结果。
2.据权利要求1所述的一种基于空间引导自注意力的食品识别方法,其特征在于,S2中的空间引导自注意力模块,如果输入图像特征为X′i位置编码s的计算为s=MAX(SAttn(Xi)),SAttn为空间注意力操作,MAX为阈值筛选,将图像特征中非目标位置重置为0后的特征图X′i计算为X′i=Xi⊙Mask(s),⊙表示逐位置相乘,Mask(s)是一个与s具有相同形状的矩阵,其中s所指定的位置的元素为1,其他位置为0,对x应用这样的掩码操作,就可以得到经过s筛选后的特征图,然后每个拆分特征图的优化特征的计算为其中X′ij代表特征图X′i的第j个拆分特征图,/>分别代表生成Q、K、V的权重矩阵,Attn代表自注意力计算,然后将所有的优化特征进行融合,得到和图像特征维度相同的优化图像特征/>的计算为其中h为拆分的特征图数量,/>为线性层,目的是将输出的优化图像特征投影回与输入图像特征一致的维度。
3.一种基于空间引导自注意力的食品识别系统,其特征在于,包括食品图像数据采集模块、食品检测模块,通过食品图像数据采集模块采集所要检测的食品目标图像,食品检测模块内置食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成,对于空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行融合,得到和图像特征维度相同的优化图像特征,并进行输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410033038.2A CN117542045B (zh) | 2024-01-10 | 2024-01-10 | 一种基于空间引导自注意力的食品识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410033038.2A CN117542045B (zh) | 2024-01-10 | 2024-01-10 | 一种基于空间引导自注意力的食品识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117542045A CN117542045A (zh) | 2024-02-09 |
CN117542045B true CN117542045B (zh) | 2024-05-10 |
Family
ID=89782731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410033038.2A Active CN117542045B (zh) | 2024-01-10 | 2024-01-10 | 一种基于空间引导自注意力的食品识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117542045B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5546475A (en) * | 1994-04-29 | 1996-08-13 | International Business Machines Corporation | Produce recognition system |
CN111259940A (zh) * | 2020-01-10 | 2020-06-09 | 杭州电子科技大学 | 一种基于空间注意力地图的目标检测方法 |
CN113902926A (zh) * | 2021-12-06 | 2022-01-07 | 之江实验室 | 一种基于自注意力机制的通用图像目标检测方法和装置 |
CN114648535A (zh) * | 2022-03-21 | 2022-06-21 | 北京工商大学 | 一种基于动态transformer的食品图像分割方法及系统 |
CN115862005A (zh) * | 2022-12-28 | 2023-03-28 | 中国科学院计算技术研究所 | 一种食品检测系统、模型训练方法和食品检测方法 |
CN116778346A (zh) * | 2023-08-23 | 2023-09-19 | 济南大学 | 一种基于改进自注意力机制的管线识别方法及系统 |
CN117372853A (zh) * | 2023-10-16 | 2024-01-09 | 中国石油大学(华东) | 一种基于图像增强和注意力机制的水下目标检测算法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110956217A (zh) * | 2019-12-06 | 2020-04-03 | 广东美的白色家电技术创新中心有限公司 | 食物成熟度识别方法、装置以及计算机存储介质 |
-
2024
- 2024-01-10 CN CN202410033038.2A patent/CN117542045B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5546475A (en) * | 1994-04-29 | 1996-08-13 | International Business Machines Corporation | Produce recognition system |
CN111259940A (zh) * | 2020-01-10 | 2020-06-09 | 杭州电子科技大学 | 一种基于空间注意力地图的目标检测方法 |
CN113902926A (zh) * | 2021-12-06 | 2022-01-07 | 之江实验室 | 一种基于自注意力机制的通用图像目标检测方法和装置 |
CN114648535A (zh) * | 2022-03-21 | 2022-06-21 | 北京工商大学 | 一种基于动态transformer的食品图像分割方法及系统 |
CN115862005A (zh) * | 2022-12-28 | 2023-03-28 | 中国科学院计算技术研究所 | 一种食品检测系统、模型训练方法和食品检测方法 |
CN116778346A (zh) * | 2023-08-23 | 2023-09-19 | 济南大学 | 一种基于改进自注意力机制的管线识别方法及系统 |
CN117372853A (zh) * | 2023-10-16 | 2024-01-09 | 中国石油大学(华东) | 一种基于图像增强和注意力机制的水下目标检测算法 |
Non-Patent Citations (3)
Title |
---|
Food Image Recognition Algorithm Base on Improved VGG16;Haizhuang Liu 等;《2021 IEEE 2nd International Conference on Information Technology, Big Data and Artificial Intelligence (ICIBA)》;20220203;第899-903页 * |
Windows Attention Based Pyramid Network for Food Segmentation;Xiaoxiao Dong 等;《2021 IEEE 7th International Conference on Cloud Computing and Intelligent Systems (CCIS)》;20220414;第213-217页 * |
改进注意力模型的食品图像识别方法;姜枫 等;《计算机工程与应用》;20230516;第1-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN117542045A (zh) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN110516536B (zh) | 一种基于时序类别激活图互补的弱监督视频行为检测方法 | |
CN110619655A (zh) | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 | |
CN109919032B (zh) | 一种基于动作预测的视频异常行为检测方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
WO2019136591A1 (zh) | 基于弱监督时空级联神经网络的显著目标检测方法及系统 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN113822383B (zh) | 一种基于多域注意力机制的无人机检测方法及系统 | |
CN111476133B (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN113486894B (zh) | 一种卫星图像特征部件语义分割方法 | |
CN113536925B (zh) | 一种基于引导注意力机制的人群计数方法 | |
CN115984701A (zh) | 一种基于编解码结构的多模态遥感图像语义分割方法 | |
CN113920581A (zh) | 一种时空卷积注意力网络用于视频中动作识别的方法 | |
CN110852199A (zh) | 一种基于双帧编码解码模型的前景提取方法 | |
CN111882581B (zh) | 一种深度特征关联的多目标跟踪方法 | |
CN115937819A (zh) | 基于多模态融合的三维目标检测方法及系统 | |
CN110598746A (zh) | 一种基于ode求解器自适应的场景分类方法 | |
CN112785626A (zh) | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 | |
CN116403152A (zh) | 一种基于空间上下文学习网络的人群密度估计方法 | |
CN116402851A (zh) | 一种复杂背景下的红外弱小目标跟踪方法 | |
CN113902753A (zh) | 基于双通道和自注意力机制的图像语义分割方法及系统 | |
CN111368637B (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
CN117542045B (zh) | 一种基于空间引导自注意力的食品识别方法及系统 | |
CN117011655A (zh) | 基于自适应区域选择特征融合方法、目标跟踪方法及系统 | |
CN116703996A (zh) | 基于实例级自适应深度估计的单目三维目标检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240417 Address after: 502-1, Floor 5, Jinan Science and Technology Market, No. 160, Shanda Road, Lixia District, Jinan City, Shandong Province, 250013 Applicant after: Shandong Jishi Information Technology Co.,Ltd. Country or region after: China Address before: No. 336, nanxinzhuang West Road, Shizhong District, Jinan City, Shandong Province, 250024 Applicant before: University of Jinan Country or region before: China |
|
GR01 | Patent grant | ||
GR01 | Patent grant |