CN117542045A - 一种基于空间引导自注意力的食品识别方法及系统 - Google Patents
一种基于空间引导自注意力的食品识别方法及系统 Download PDFInfo
- Publication number
- CN117542045A CN117542045A CN202410033038.2A CN202410033038A CN117542045A CN 117542045 A CN117542045 A CN 117542045A CN 202410033038 A CN202410033038 A CN 202410033038A CN 117542045 A CN117542045 A CN 117542045A
- Authority
- CN
- China
- Prior art keywords
- feature
- attention
- image features
- self
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 25
- 238000012216 screening Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 2
- 230000007246 mechanism Effects 0.000 abstract description 10
- 230000008569 process Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 abstract 3
- 230000000694 effects Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000009246 food effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/68—Food, e.g. fruit or vegetables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于空间引导自注意力的食品识别方法及系统,涉及计算机视觉领域。本发明根据图像特征图获取目标位置编码,并根据编码引导自注意力机制只计算存在目标的位置,同时将图像特征图进行拆分处理,并以级联方式处理拆分的图像特征图,从而达到节约计算量的目的,另外根据目标位置编码的计算方式,也可以达到节约大量计算量,并为自注意力计算提供先验知识。
Description
技术领域
本发明属于计算机视觉领域,特别涉及一种基于空间引导自注意力的食品识别方法及系统。
背景技术
自注意力机制是深度学习领域中备受瞩目的特征处理技术。自注意力机制通过学习特征之间的相互依赖关系,使得模型能够准确地捕捉上下文信息,无论是在自然语言处理还是计算机视觉任务中都展现了出色的性能。然而,尽管自注意力机制取得了显著的成就,但目前这种机制仍然存在问题,例如运算量大,模型复杂度高等。如果能够在一个模型中用更少的计算量,仍充分利用自注意力机制的优势,就能够在特征的表达和信息的处理速度上取得双赢的效果。
发明内容
本发明提供一种基于空间引导自注意力的食品识别方法及系统,旨在减少传统自注意力的计算量,并通过空间注意力关注目标存在位置,从而提高食品的识别效果。
本发明对于传统自注意力机制作出了改进,提供一种基于空间引导自注意力的食品识别方法,包括以下步骤:
S1、获取食品摄像头视频,每秒对摄像头进行抽帧,获得食品待检测图像;
S2、构建空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征,并进行输出;
S3、构建食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成;
S4、将食品待检测图像输入进食品检测模型,获得食品检测结果。
优选地,S2中的空间引导自注意力模块,如果输入图像特征为位置编码 s 的计算为/>,SAttn 为空间注意力操作,MAX 为阈值筛选,将图像特征中非目标位置重置为0后的特征图/>计算为/>,⊙表示逐位置相乘,Mask(s)是一个与 s 具有相同形状的矩阵,其中 s 所指定的位置的元素为1,其他位置为0,对 x应用这样的掩码操作,就可以得到经过 s 筛选后的特征图,然后每个拆分特征图的优化特征/>的计算为/>其中/>代表特征图/>的第j个拆分特征图,/>分别代表生成Q、K、V的权重矩阵,Attn代表自注意力计算,然后将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征/>的计算为,其中h为拆分的特征图数量,/>为线性层,目的是将输出的优化图像特征投影回与输入图像特征一致的维度。
本发明还提供一种基于空间引导自注意力的食品识别系统,其特征在于,包括食品图像数据采集模块、食品检测模块,通过食品图像数据采集模块采集所要检测的食品目标图像,食品检测模块内置食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成,对于空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征,并进行输出。
与现有技术相比,本发明具有以下技术效果:
本发明提供的技术方案首先根据图像特征图获取目标位置编码,并根据编码引导自注意力机制只计算存在目标的位置,同时将图像特征图进行拆分处理,并以级联方式处理拆分的图像特征图,从而达到节约计算量的目的,另外根据目标位置编码的计算方式,也可以达到节约大量计算量,并为自注意力计算提供先验知识。
附图说明
图1是本发明提供的食品识别流程图;
图2是本发明提供的空间引导自注意力结构图。
具体实施方式
本发明旨在提出一种基于空间引导自注意力的食品识别方法及系统,根据图像特征图获取目标位置编码,并根据编码引导自注意力机制只计算存在目标的位置,同时将图像特征图进行拆分处理,并以级联方式处理拆分的图像特征图,从而达到节约计算量的目的,另外根据目标位置编码的计算方式,也可以达到节约大量计算量,并为自注意力计算提供先验知识。
请参见图1所示,本申请实施例中的一种基于空间引导自注意力的食品识别方法:
S1、获取食品摄像头视频,每秒对摄像头进行抽帧,获得食品待检测图像;
S2、构建空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征,并进行输出;
S3、构建食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成;
S4、将食品待检测图像输入进食品检测模型,获得食品检测结果。
进一步,如图2所示,从摄像头获得食品图像后,将600×600分辨率的3通道图像输入进骨干网络,骨干网络使用RetinaNet网络,并输出维度为(600,600,3)图像特征图,将图像特征输入进空间注意力机制中,获得360000个像素位置得分,得分从0到1分布,按照阈值0.6进行筛选,获得存在目标的位置,并形成目标编码,根据目标编码对应位置,将特征图中不存在目标位置的值重置为0,然后拆分图像特征图为3个特征块,每个特征块维度为(200,200,3),首先将拆分特征1进行自注意力计算,得到优化特征1,然后将优化特征1与拆分特征2进行相加,并进行自注意力计算,得到优化特征2,然后将优化特征2与拆分特征3进行相加,并进行自注意力计算,得到优化特征3,将三个优化特征进行连接,并进行线性层运算,得到优化图像特征,其维度为(600,600,3),将优化图像特征输入到检测头,检测头使用RetinaNet网络检测头,并最终得到食品检测结果。
进一步,S2中的空间引导自注意力模块,如果输入图像特征为位置编码 s 的计算为/>,SAttn 为空间注意力操作,MAX 为阈值筛选,将图像特征中非目标位置重置为0后的特征图/>计算为/>,⊙表示逐位置相乘,Mask(s)是一个与 s 具有相同形状的矩阵,其中 s 所指定的位置的元素为1,其他位置为0,对 x应用这样的掩码操作,就可以得到经过 s 筛选后的特征图,然后每个拆分特征图的优化特征/>的计算为/>其中/>代表特征图/>的第j个拆分特征图,/>分别代表生成Q、K、V的权重矩阵,Attn代表自注意力计算,然后将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征/>的计算为,其中h为拆分的特征图数量,/>为线性层,目的是将输出的优化图像特征投影回与输入图像特征一致的维度。
本实施例提供一种基于空间引导自注意力的食品识别系统,其特征在于,包括食品图像数据采集模块、食品检测模块,通过食品图像数据采集模块采集所要检测的食品目标图像,食品检测模块内置食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成,对于空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征,并进行输出。
以上仅是本发明的优选实施方式,应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (3)
1.一种基于空间引导自注意力的食品识别方法,其特征在于,包括以下步骤:
S1、获取食品摄像头视频,每秒对摄像头进行抽帧,获得食品待检测图像;
S2、构建空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征,并进行输出;
S3、构建食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成;
S4、将食品待检测图像输入进食品检测模型,获得食品检测结果。
2.据权利要求1所述的一种基于空间引导自注意力的食品识别方法,其特征在于,S2中的空间引导自注意力模块,如果输入图像特征为位置编码s的计算为/>,SAttn为空间注意力操作,MAX 为阈值筛选,将图像特征中非目标位置重置为0后的特征图计算为/>,⊙表示逐位置相乘,Mask(s) 是一个与 s 具有相同形状的矩阵,其中 s 所指定的位置的元素为1,其他位置为0,对 x 应用这样的掩码操作,就可以得到经过 s 筛选后的特征图,然后每个拆分特征图的优化特征/>的计算为其中/>代表特征图/>的第j个拆分特征图,分别代表生成Q、K、V的权重矩阵,Attn代表自注意力计算,然后将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征/>的计算为,其中h为拆分的特征图数量,/>为线性层,目的是将输出的优化图像特征投影回与输入图像特征一致的维度。
3.一种基于空间引导自注意力的食品识别系统,其特征在于,包括食品图像数据采集模块、食品检测模块,通过食品图像数据采集模块采集所要检测的食品目标图像,食品检测模块内置食品检测模型,模型由骨干网络、空间引导自注意力模块、检测头组成,对于空间引导自注意力模块,输入图像特征到该模块,将图像特征进行空间注意力操作,得到图像每个像素的空间位置得分,将得分进行阈值筛选,将得分高的像素位置视为存在目标位置,并将这些位置形成图像特征对应的目标位置编码,然后根据目标位置编码,将图像特征中非目标位置重置为0,然后将图像特征拆分为多个特征块,依次计算每个特征块,单个特征块生成对应Q、K、V,并进行自注意力计算,输出该特征块对应的优化特征,除第一个计算的特征块,每一个特征块和上一特征块对应的优化特征进行相加运算,然后再进行自注意力计算,所有特征块计算完毕,将所有的优化特征进行连接,得到和图像特征维度相同的优化图像特征,并进行输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410033038.2A CN117542045B (zh) | 2024-01-10 | 2024-01-10 | 一种基于空间引导自注意力的食品识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410033038.2A CN117542045B (zh) | 2024-01-10 | 2024-01-10 | 一种基于空间引导自注意力的食品识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117542045A true CN117542045A (zh) | 2024-02-09 |
CN117542045B CN117542045B (zh) | 2024-05-10 |
Family
ID=89782731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410033038.2A Active CN117542045B (zh) | 2024-01-10 | 2024-01-10 | 一种基于空间引导自注意力的食品识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117542045B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118072303A (zh) * | 2024-04-22 | 2024-05-24 | 济南大学 | 一种基于MLP高效token交互的食品识别方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5546475A (en) * | 1994-04-29 | 1996-08-13 | International Business Machines Corporation | Produce recognition system |
CN111259940A (zh) * | 2020-01-10 | 2020-06-09 | 杭州电子科技大学 | 一种基于空间注意力地图的目标检测方法 |
CN113902926A (zh) * | 2021-12-06 | 2022-01-07 | 之江实验室 | 一种基于自注意力机制的通用图像目标检测方法和装置 |
CN114648535A (zh) * | 2022-03-21 | 2022-06-21 | 北京工商大学 | 一种基于动态transformer的食品图像分割方法及系统 |
US20220262143A1 (en) * | 2019-12-06 | 2022-08-18 | Guangdong Midea White Home Appliance Technology Innovation Center Co., Ltd. | Method of Identifying Level of Doneness of Food, Device, and Computer Storage Medium |
CN115862005A (zh) * | 2022-12-28 | 2023-03-28 | 中国科学院计算技术研究所 | 一种食品检测系统、模型训练方法和食品检测方法 |
CN116778346A (zh) * | 2023-08-23 | 2023-09-19 | 济南大学 | 一种基于改进自注意力机制的管线识别方法及系统 |
CN117372853A (zh) * | 2023-10-16 | 2024-01-09 | 中国石油大学(华东) | 一种基于图像增强和注意力机制的水下目标检测算法 |
-
2024
- 2024-01-10 CN CN202410033038.2A patent/CN117542045B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5546475A (en) * | 1994-04-29 | 1996-08-13 | International Business Machines Corporation | Produce recognition system |
US20220262143A1 (en) * | 2019-12-06 | 2022-08-18 | Guangdong Midea White Home Appliance Technology Innovation Center Co., Ltd. | Method of Identifying Level of Doneness of Food, Device, and Computer Storage Medium |
CN111259940A (zh) * | 2020-01-10 | 2020-06-09 | 杭州电子科技大学 | 一种基于空间注意力地图的目标检测方法 |
CN113902926A (zh) * | 2021-12-06 | 2022-01-07 | 之江实验室 | 一种基于自注意力机制的通用图像目标检测方法和装置 |
CN114648535A (zh) * | 2022-03-21 | 2022-06-21 | 北京工商大学 | 一种基于动态transformer的食品图像分割方法及系统 |
CN115862005A (zh) * | 2022-12-28 | 2023-03-28 | 中国科学院计算技术研究所 | 一种食品检测系统、模型训练方法和食品检测方法 |
CN116778346A (zh) * | 2023-08-23 | 2023-09-19 | 济南大学 | 一种基于改进自注意力机制的管线识别方法及系统 |
CN117372853A (zh) * | 2023-10-16 | 2024-01-09 | 中国石油大学(华东) | 一种基于图像增强和注意力机制的水下目标检测算法 |
Non-Patent Citations (3)
Title |
---|
HAIZHUANG LIU 等: "Food Image Recognition Algorithm Base on Improved VGG16", 《2021 IEEE 2ND INTERNATIONAL CONFERENCE ON INFORMATION TECHNOLOGY, BIG DATA AND ARTIFICIAL INTELLIGENCE (ICIBA)》, 3 February 2022 (2022-02-03), pages 899 - 903 * |
XIAOXIAO DONG 等: "Windows Attention Based Pyramid Network for Food Segmentation", 《2021 IEEE 7TH INTERNATIONAL CONFERENCE ON CLOUD COMPUTING AND INTELLIGENT SYSTEMS (CCIS)》, 14 April 2022 (2022-04-14), pages 213 - 217 * |
姜枫 等: "改进注意力模型的食品图像识别方法", 《计算机工程与应用》, 16 May 2023 (2023-05-16), pages 1 - 9 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118072303A (zh) * | 2024-04-22 | 2024-05-24 | 济南大学 | 一种基于MLP高效token交互的食品识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117542045B (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yeh et al. | Lightweight deep neural network for joint learning of underwater object detection and color conversion | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN111639692A (zh) | 一种基于注意力机制的阴影检测方法 | |
CN110619655A (zh) | 一种融合光流信息和Siamese框架的目标跟踪方法及装置 | |
CN110738207A (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
CN117542045B (zh) | 一种基于空间引导自注意力的食品识别方法及系统 | |
WO2019136591A1 (zh) | 基于弱监督时空级联神经网络的显著目标检测方法及系统 | |
CN114463677B (zh) | 一种基于全局注意力的安全帽配戴检测方法 | |
CN110136162B (zh) | 无人机视角遥感目标跟踪方法及装置 | |
CN113822383B (zh) | 一种基于多域注意力机制的无人机检测方法及系统 | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
Ma et al. | Fusioncount: Efficient crowd counting via multiscale feature fusion | |
CN112070768A (zh) | 基于Anchor-Free的实时实例分割方法 | |
CN115984701A (zh) | 一种基于编解码结构的多模态遥感图像语义分割方法 | |
CN110598746A (zh) | 一种基于ode求解器自适应的场景分类方法 | |
CN112785626A (zh) | 一种基于多尺度特征融合的孪生网络小目标跟踪方法 | |
CN111368637B (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
CN116402851A (zh) | 一种复杂背景下的红外弱小目标跟踪方法 | |
CN112766102A (zh) | 一种基于空谱特征融合的无监督高光谱视频目标跟踪方法 | |
CN117079098A (zh) | 一种基于位置编码的空间小目标检测方法 | |
CN116912674A (zh) | 基于改进的YOLOv5s网络模型复杂水环境下目标检测方法及系统 | |
CN115240121A (zh) | 一种用于增强行人局部特征的联合建模方法和装置 | |
CN113902753A (zh) | 基于双通道和自注意力机制的图像语义分割方法及系统 | |
CN117132621A (zh) | 一种基于全局多尺度策略特征增强的目标跟踪方法 | |
CN113269808B (zh) | 视频小目标跟踪方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240417 Address after: 502-1, Floor 5, Jinan Science and Technology Market, No. 160, Shanda Road, Lixia District, Jinan City, Shandong Province, 250013 Applicant after: Shandong Jishi Information Technology Co.,Ltd. Country or region after: China Address before: No. 336, nanxinzhuang West Road, Shizhong District, Jinan City, Shandong Province, 250024 Applicant before: University of Jinan Country or region before: China |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |