CN110223343B - 一种方向包围盒交叉面积确定方法 - Google Patents

一种方向包围盒交叉面积确定方法 Download PDF

Info

Publication number
CN110223343B
CN110223343B CN201910376338.XA CN201910376338A CN110223343B CN 110223343 B CN110223343 B CN 110223343B CN 201910376338 A CN201910376338 A CN 201910376338A CN 110223343 B CN110223343 B CN 110223343B
Authority
CN
China
Prior art keywords
rect
small
rect0
envelope
flag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910376338.XA
Other languages
English (en)
Other versions
CN110223343A (zh
Inventor
李远玥
高志军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seizet Technology Shenzhen Co Ltd
Original Assignee
Seizet Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seizet Technology Shenzhen Co Ltd filed Critical Seizet Technology Shenzhen Co Ltd
Priority to CN201910376338.XA priority Critical patent/CN110223343B/zh
Publication of CN110223343A publication Critical patent/CN110223343A/zh
Application granted granted Critical
Publication of CN110223343B publication Critical patent/CN110223343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种方向包围盒交叉面积确定方法,该包括以下步骤:1)获取预测包络框rect0与实际包络框rect的形状参数和位置参数;2)根据预测包络框rect0与实际包络框rect的形状参数和位置参数确定预测包络框rect0与实际包络框rect的交叉类别;3)若预测包络框rect0与实际包络框rect无交叉,则交叉面积为0;若预测包络框rect0与实际包络框rect有交叉,且rect的中心在rect0中,转入步骤5),否则转入步骤4);4)将rect0分解成四个小rect1;5)将rect0分解成四个小rect;6)计算四个小rect形状参数和位置参数,然后计算每个小rect与rect的交叉面积,计算得到总交叉面积值。本发明提出了一种计算速度快、预测精度高的方向包围盒交叉面积确定方法。

Description

一种方向包围盒交叉面积确定方法
技术领域
本发明涉及图像识别技术,尤其涉及一种方向包围盒交叉面积确定方法。
背景技术
目标检测领域常用的物体包络框为AABB(轴对齐矩形边界框),对于某些细长物体的检测,AABB包络框中所包含的有效面积占比过小,不利于进行后续分析。而使用OBB方向包围盒(定向边界框)来包络目标物体可以大大提高包络框中的有效区域,OBB的交叉情况见图1。使用预测包络框与实际包络框的交叉面积比(简称IOU)来表征预测框效果是当今的一种主流方法。鉴于OBB的IOU计算的解析方程解过于复杂,且该方程式包含大量的分段函数,不利于反向传播,导致整体模型的收敛性很差。因此,需要提出一种新的IOU模型。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种方向包围盒交叉面积确定方法。
本发明解决其技术问题所采用的技术方案是:一种方向包围盒交叉面积确定方法,包括:
1)获取预测包络框rect0与实际包络框rect的形状参数和位置参数;所述形状参数包括包络框矩形的宽和高以及矩形旋转角度,位置参数为包络框矩形的中心点坐标;
其中,对预测包络框rect0,(x、y)表示中心点坐标,(w、h)表示矩形的宽和高,angle表示矩形旋转角度;
2)根据预测包络框rect0与实际包络框rect的形状参数和位置参数确定预测包络框rect0与实际包络框rect的交叉类别,所述交叉类别包括:a:无交叉;b:有交叉,且rect的中心在rect0中;c:有交叉,且rect的中心不在rect0中;
3)若预测包络框rect0与实际包络框rect无交叉,则交叉面积为0;若预测包络框rect0与实际包络框rect有交叉,且rect的中心在rect0中,转入步骤5),否则转入步骤4);
4)将rect0分解成四个小rect,分解方法如下:
首先,选择rect的中心点与rect0矩形中距离rect的中心点最短的边,并记录最短距离在该边上的另一端点,然后将该边平移至rect的中心点处,获得rect0的扩展矩形;
以rect的中心点分别做四个小rect的第一角点,四个小rect的角度保持与rect0相同,以rect0的4个角点分别做四个小rect第一角点的对角角点,获得以rect0的扩展矩形为对象的四个小rect的分解中间结果;
对rect0的四个小rect的分解中间结果,取其在rect内的部分且不在rect0内的部分作为四个小rect中的两个,取其在rect内的部分作为四个小rect中的剩余两个,获得最终的rect0的四个小rect的分解结果;
获得包含四个小矩形类别的(flag,flag,flag,flag),其中flag等于-1或者1,-1和1的数量均为两个,将其设置为flag_vector;
5)将rect0分解成四个小rect,分解方法如下:
首先,以rect的中心点分别做四个小rect的第一角点,四个小rect的角度保持与rect0相同,以rect0的4个角点分别做四个小rect第一角点的对角角点,获得rect0的四个小rect的分解中间结果;
对rect0的四个小rect的分解中间结果,取其在rect内的部分,获得最终的rect0的四个小rect的分解结果;将(1,1,1,1)设置为flag_vector;
6)计算四个小rect形状参数和位置参数,然后计算每个小rect与rect的交叉面积,得到一组包含四个值的一维向量(A1,A2,A3,A4),将该向量称之为area_vector,然后用flag_vector乘以area_vector,计算得到总交叉面积值。
按上述方案,所述步骤6)中计算四个小rect形状参数和位置参数的步骤如下:
首先,根据矩形rect0的参数(x、y、w、h、angle),求出四个顶点的坐标:(corner_x1,corner_y1)、(corner_x2,corner_y2)、(corner_x3,corner_y3)、(corner_x4,corner_y4);
然后,根据rect、rect0的坐标,计算出四个小rect的参数,计算公式如下:
Figure BDA0002051793870000041
对于第一个小矩形rect1,其参数为(x1,y1,w1,h1,angle1),各参数的计算公式如下:
Figure BDA0002051793870000042
Figure BDA0002051793870000043
w1=Length_1*cosα
L1=Length1*sinα
angle1=θ
其中,α=sin-1((corner_y1-Y)/Length_1)-θ。
按上述方案,所述步骤6)中一维向量(A1,A2,A3,A4)的计算方法如下:
1)生成训练数据,随机生成多组OBB矩形框的形状参数和位置参数,利用已经有的图像软件(halcon)计算出交叉面积,并保存数据;
2)输入主rect参数、四个小rect参数,计算交叉面积值;该神经网络包括5层:输入层、隐藏层1、隐藏层2、隐藏层3、输出层。输入层包括:25节点,分别是主rect的5个参数、四个小rect的5个参数,隐藏层1包括60个节点,隐藏层2包括30个节点,隐藏层3包含30个节点,输出层包括4个节点。
按上述方案,所述步骤5)中计算得到flag_vector,通过神经网络实现。
按上述方案,所述神经网络包括4层:输入层、隐藏层1、隐藏层2、输出层;
输入层包括:25节点,分别是主rect的5个参数、四个小rect的5个参数,隐藏层1包括60个节点,隐藏层2包括30个节点,输出层包括4个节点;输出为包含四个小矩形类别的(flag,flag,flag,flag),其中flag等于-1或者1,-1和1的数量均为两个。
按上述方案,所述步骤2)中的分类模型可通过数学计算或神经网络实现。
按上述方案,所述神经网络包括4层:输入层、隐藏层1、隐藏层2、输出层;
输入层10节点为预测包络框rect0与实际包络框rect的形状参数和位置参数:(x1,y1,w1,h1,angle1,x2,y2,w2,h2,angle2),隐藏层1包括50个节点,隐藏层2包括20个节点,输出层包括3个节点。
本发明产生的有益效果是:
1.本发明提出了一种将一个副obb分解成四个以主rect中心为角点小obb,提高模型的收敛速度、预测精度。
2.本发明提出了一种使用神经网络计算IOU的方法,是神经网络在计算IOU中的首次应用。
3.本发明提出了一种IOU计算方法,该IOU共包括三个子神经网络。每个网络结点少,易于收敛,训练速度快。由于模型小,预测时候的运行速度也很快。
4.提出了一种基于halcon快速获取,OBB输入输出数据的方法。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明背景技术中OBB的交叉情况示意图;
图2是本发明实施例的方法流程图;
图3是本发明实施例的预测包络框分解示意图;
图4是本发明实施例的预测包络框分解示意图;
图5是本发明实施例的预测包络框分解示意图;
图6是本发明实施例的神经网络模型结构示意图;
图7是本发明实施例的神经网络模型结构示意图;
图8是本发明实施例的神经网络模型结构示意图.
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图2所示,一种方向包围盒交叉面积确定方法,包括:
1)获取预测包络框rect0与实际包络框rect的形状参数和位置参数;所述形状参数包括w、h、angle,位置参数包括x、y
其中,(x、y)表示中心点坐标,(w、h)表示矩形的宽和高,angle表示矩形旋转角度;
2)根据预测包络框rect0与实际包络框rect的形状参数和位置参数确定预测包络框rect0与实际包络框rect的交叉类别,所述交叉类别包括:a:无交叉;b:有交叉,且rect的中心在rect0中;c:有交叉,且rect的中心不在rect0中;
分类模型通过数学计算或神经网络实现。
如图6,神经网络包括4层:输入层、隐藏层1、隐藏层2、输出层;
输入层10节点为预测包络框rect0与实际包络框rect的形状参数和位置参数:(x1,y1,w1,h1,angle1,x2,y2,w2,h2,angle2),隐藏层1包括50个节点,隐藏层2包括20个节点,输出层包括3个节点。
3)若预测包络框rect0与实际包络框rect无交叉,则交叉面积为0;若预测包络框rect0与实际包络框rect有交叉,且rect的中心在rect0中,转入步骤5),否则转入步骤4);
4)将rect0分解成四个小rect,分解方法如下:
首先,选择rect的中心点与rect0矩形中距离rect的中心点最短的边,并记录最短距离在该边上的另一端点,然后将该边平移至rect的中心点处,获得rect0的扩展矩形;
以rect的中心点分别做四个小rect的第一角点,四个小rect的角度保持与rect0相同,以rect0的4个角点分别做四个小rect第一角点的对角角点,获得以rect0的扩展矩形为对象的四个小rect的分解中间结果;
对rect0的四个小rect的分解中间结果,取其在rect内的部分且不在rect0内的部分作为四个小rect中的两个,取其在rect内的部分作为四个小rect中的剩余两个,获得最终的rect0的四个小rect的分解结果;
获得包含四个小矩形类别的(flag,flag,flag,flag),其中flag等于-1或者1,-1和1的数量均为两个,将其设置为flag_vector;如图5;
5)将rect0分解成四个小rect,分解方法如下:以rect的中心点分别做四个小rect的角点,以rect0的4个角点分别做四个小rect的角点另一个角点,四个小rect的角度保持与rect0相同;将(1,1,1,1)设置为flag_vector;如图3和图4;
步骤5)中计算得到flag_vector,通过神经网络实现。
如图7,神经网络包括4层:输入层、隐藏层1、隐藏层2、输出层;
输入层包括:25节点,分别是主rect的5个参数、四个小rect的5个参数,隐藏层1包括60个节点,隐藏层2包括30个节点,输出层包括4个节点;输出为包含四个小矩形类别的(flag,flag,flag,flag),其中flag等于-1或者1,-1和1的数量均为两个;
6)计算四个小rect形状参数和位置参数,然后计算每个小rect与rect的交叉面积,得到一组包含四个值的一维向量(A1,A2,A3,A4),将该向量称之为area_vector,然后用flag_vector乘以area_vector,计算得到总交叉面积值。
步骤6)中计算四个小rect形状参数和位置参数的步骤如下:
首先,根据矩形rect0的参数(x、y、w、h、angle),求出四个顶点的坐标:(corner_x1,corner_y1)、(corner_x2,corner_y2)、(corner_x3,corner_y3)、(corner_x4,corner_y4);具体计算公式如下:
dx=w/2
dy=h/2
Figure BDA0002051793870000101
(corner_x1,corner_y1)=(X-L*cos(β+θ),Y+L*sin(β+θ))
(corner_x2,corner_y2)=(X+L*cos(θ-β),Y+L*sin(θ-β))
(corner_x3,corner_y3)=(X-L*cos(θ-β),Y-L*sin(θ-β))
(corner_x4,corner_y4)=(X+L*cos(β+θ),Y-L*sin(β+θ))
其中θ=angle
Figure BDA0002051793870000102
然后,根据rect、rect0的坐标,计算出四个小rect的参数,计算公式如下:
Figure BDA0002051793870000103
对于第一个小矩形rect1,其参数为(x1,y1,w1,h1,angle1),各参数的计算公式如下:
Figure BDA0002051793870000111
Figure BDA0002051793870000112
w1=Length_1*cosα
L1=Length1*sinα
angle1=θ
其中α=sin-1((corner_y1-Y)/Length_1)-θ
步骤6)中一维向量(A1,A2,A3,A4)的计算方法如下:
1)生成训练数据,随机生成多组OBB矩形框的形状参数和位置参数,利用已经有的图像软件(halcon)计算出交叉面积,并保存数据;训练数据基于现有图像软件halcon生成随机数据获取;
2)输入主rect参数、四个小rect参数,计算交叉面积值;该神经网络包括5层,如图8:输入层、隐藏层1、隐藏层2、隐藏层3、输出层。输入层包括:25节点,分别是主rect的5个参数、四个小rect的5个参数,隐藏层1包括60个节点,隐藏层2包括30个节点,隐藏层3包含30个节点,输出层包括4个节点。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (7)

1.一种方向包围盒交叉面积确定方法,其特征在于,包括:
1)获取预测包络框rect0与实际包络框rect的形状参数和位置参数;所述形状参数包括包络框矩形的宽和高以及矩形旋转角度,位置参数为包络框矩形的中心点坐标;
2)根据预测包络框rect0与实际包络框rect的形状参数和位置参数确定预测包络框rect0与实际包络框rect的交叉类别,所述交叉类别包括:a:无交叉;b:有交叉,且rect的中心在rect0中;c:有交叉,且rect的中心不在rect0中;
3)若预测包络框rect0与实际包络框rect无交叉,则交叉面积为0;若预测包络框rect0与实际包络框rect有交叉,且rect的中心在rect0中,转入步骤5),否则转入步骤4);
4)将rect0分解成四个小rect,分解方法如下:
首先,选择rect的中心点与rect0矩形中距离rect的中心点最短的边,并记录最短距离在该边上的另一端点,然后将该边平移至rect的中心点处,获得rect0的扩展矩形;
以rect的中心点分别做四个小rect的第一角点,四个小rect的角度保持与rect0相同,以rect0的4个角点分别做四个小rect第一角点的对角角点,获得以rect0的扩展矩形为对象的四个小rect的分解中间结果;
对rect0的四个小rect的分解中间结果,取其在rect内的部分且不在rect0内的部分作为四个小rect中的两个,取其在rect内的部分作为四个小rect中的剩余两个,获得最终的rect0的四个小rect的分解结果;
获得包含四个小矩形类别的(flag,flag,flag,flag),其中flag等于-1或者1,-1和1的数量均为两个,将其设置为flag_vector;
转入步骤6);
5)将rect0分解成四个小rect,分解方法如下:
首先,以rect的中心点分别做四个小rect的第一角点,四个小rect的角度保持与rect0相同,以rect0的4个角点分别做四个小rect第一角点的对角角点,获得rect0的四个小rect的分解中间结果;
对rect0的四个小rect的分解中间结果,取其在rect内的部分,获得最终的rect0的四个小rect的分解结果;将(1,1,1,1)设置为flag_vector;
6)计算四个小rect形状参数和位置参数,然后计算每个小rect与rect的交叉面积,得到一组包含四个值的一维向量(A1,A2,A3,A4),将该向量称之为area_vector,然后用flag_vector乘以area_vector,计算得到总交叉面积值。
2.根据权利要求1所述的方向包围盒交叉面积确定方法,其特征在于,所述步骤6)中计算四个小rect形状参数和位置参数的步骤如下:
首先,根据矩形rect0的参数(x、y、w、h、angle),求出四个顶点的坐标:(corner_x1,corner_y1)、(corner_x2,corner_y2)、(corner_x3,corner_y3)、(corner_x4,corner_y4);
然后,根据rect、rect0的坐标,计算出四个小rect的参数,计算公式如下:
Figure FDA0002970730430000031
对于第一个小矩形rect1,其参数为(x1,y1,w1,h1,angle1),各参数的计算公式如下:
Figure FDA0002970730430000032
Figure FDA0002970730430000033
w1=Length_1*cosα
L1=Length_1*sinα
angle1=θ
其中α=sin-1((corner_y1-Y)/Length_1)-θ。
3.根据权利要求1所述的方向包围盒交叉面积确定方法,其特征在于,所述步骤6)中一维向量(A1,A2,A3,A4)的计算方法如下:
1)生成训练数据,随机生成多组OBB矩形框的形状参数和位置参数,利用已经有的图像软件halcon计算出交叉面积,并保存数据;
2)输入实际包络框rect参数、四个小rect参数,计算交叉面积值;神经网络包括5层:输入层、隐藏层1、隐藏层2、隐藏层3、输出层, 输入层包括:25节点,分别是实际包络框rect的5个参数、四个小rect的5个参数,隐藏层1包括60个节点,隐藏层2包括30个节点,隐藏层3包含30个节点,输出层包括4个节点。
4.根据权利要求1所述的方向包围盒交叉面积确定方法,其特征在于,所述步骤5)中计算得到flag_vector,通过神经网络实现。
5.根据权利要求4所述的方向包围盒交叉面积确定方法,其特征在于,所述步骤5)中计算得到flag_vector的神经网络包括4层:输入层、隐藏层1、隐藏层2、输出层;
输入层包括:25节点,分别是实际包络框rect的5个参数、四个小rect的5个参数,隐藏层1包括60个节点,隐藏层2包括30个节点,输出层包括4个节点;输出为包含四个小矩形类别的(flag,flag,flag,flag),其中flag等于-1或者1,-1和1的数量均为两个。
6.根据权利要求1所述的方向包围盒交叉面积确定方法,其特征在于,所述步骤2)中的分类模型可通过数学计算或神经网络实现。
7.根据权利要求6所述的方向包围盒交叉面积确定方法,其特征在于,所述神经网络包括4层:输入层、隐藏层1、隐藏层2、输出层;
输入层包括10节点,为预测包络框rect0与实际包络框rect的形状参数和位置参数:(x1,y1,w1,h1,angle1,x2,y2,w2,h2,angle2),隐藏层1包括50个节点,隐藏层2包括20个节点,输出层包括3个节点。
CN201910376338.XA 2019-05-07 2019-05-07 一种方向包围盒交叉面积确定方法 Active CN110223343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910376338.XA CN110223343B (zh) 2019-05-07 2019-05-07 一种方向包围盒交叉面积确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910376338.XA CN110223343B (zh) 2019-05-07 2019-05-07 一种方向包围盒交叉面积确定方法

Publications (2)

Publication Number Publication Date
CN110223343A CN110223343A (zh) 2019-09-10
CN110223343B true CN110223343B (zh) 2021-06-04

Family

ID=67820594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910376338.XA Active CN110223343B (zh) 2019-05-07 2019-05-07 一种方向包围盒交叉面积确定方法

Country Status (1)

Country Link
CN (1) CN110223343B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111105411B (zh) * 2019-12-30 2023-06-23 创新奇智(青岛)科技有限公司 一种磁瓦表面缺陷检测方法
CN111695567B (zh) * 2020-07-10 2021-03-05 中国水利水电科学研究院 一种改进的倾斜矩形范围框标注方式
CN114266800B (zh) * 2021-12-24 2023-05-05 中设数字技术股份有限公司 一种平面图形的多矩形包围盒生成方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9208538B2 (en) * 2012-11-07 2015-12-08 Google Inc. Rotated rectangle drawing on electronic devices
US9547805B1 (en) * 2013-01-22 2017-01-17 The Boeing Company Systems and methods for identifying roads in images
CN106980895A (zh) * 2017-02-22 2017-07-25 中国科学院自动化研究所 基于旋转区域的卷积神经网络预测方法
CN108960135B (zh) * 2018-07-03 2021-10-12 西北工业大学 基于高分辨遥感图像的密集舰船目标精确检测方法

Also Published As

Publication number Publication date
CN110223343A (zh) 2019-09-10

Similar Documents

Publication Publication Date Title
CN110223343B (zh) 一种方向包围盒交叉面积确定方法
US11763168B2 (en) Progressive modification of generative adversarial neural networks
JP5742275B2 (ja) 幾何学変換を行うためのシステム、方法、コンピュータプログラム及び記憶媒体
WO2021052283A1 (zh) 处理三维点云数据的方法和计算设备
CN111242122B (zh) 一种轻量级深度神经网络旋转目标检测方法和系统
WO2022017131A1 (zh) 点云数据的处理方法、智能行驶控制方法及装置
CN107566688A (zh) 一种基于卷积神经网络的视频防抖方法及装置
US20230249076A1 (en) Collision data processing method and apparatus, storage medium, program product, and electronic device
JP2019159940A (ja) 点群特徴抽出装置、点群特徴抽出方法及びプログラム
WO2022052750A1 (zh) 360度图像的显著性预测方法及系统
CN111738276A (zh) 基于多核卷积神经网络的图像处理方法、装置及设备
CN107707899A (zh) 包含运动目标的多视角图像处理方法、装置及电子设备
CN116188931A (zh) 一种基于融合特征进行点云目标检测的处理方法和装置
KR100956747B1 (ko) 신경망회로와 병렬처리 프로세서를 결합한 컴퓨터구조 및그를 이용한 처리방법
KR20230073751A (ko) 레이아웃 기반의 동일 화풍 영상 생성 시스템 및 방법
Qian et al. Impdet: Exploring implicit fields for 3d object detection
Sun et al. Decoupled feature pyramid learning for multi-scale object detection in low-altitude remote sensing images
EP4024343A1 (en) Viewpoint image processing method and related device
CN105808930B (zh) 基于服务器集群网络的预条件共轭梯度区域网平差方法
WO2022017129A1 (zh) 目标对象检测方法、装置、电子设备及存储介质
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置
CN113487713B (zh) 一种点云特征提取方法、装置及电子设备
CN114998496A (zh) 一种基于场景航拍图及稀疏点云的正射影像快速生成方法
CN112417958B (zh) 一种遥感影像旋转目标检测方法
JP2022547873A (ja) 点群データ処理方法及び装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant