CN112446916A - 确定无人车停靠位的方法和装置 - Google Patents
确定无人车停靠位的方法和装置 Download PDFInfo
- Publication number
- CN112446916A CN112446916A CN201910824186.5A CN201910824186A CN112446916A CN 112446916 A CN112446916 A CN 112446916A CN 201910824186 A CN201910824186 A CN 201910824186A CN 112446916 A CN112446916 A CN 112446916A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- matrix
- coordinate system
- conversion matrix
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000004044 response Effects 0.000 claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 280
- 238000006243 chemical reaction Methods 0.000 claims description 145
- 230000009466 transformation Effects 0.000 claims description 69
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
- G05D3/12—Control of position or direction using feedback
- G05D3/20—Control of position or direction using feedback using a digital comparing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30264—Parking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本公开的实施例公开了确定无人车停靠位的方法和装置。该方法的一具体实施方式包括:响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像;基于第一图像,确定车载标签与基准标签之间的夹角;控制无人车的承载台按照夹角进行旋转,以使无人车旋转夹角所指示的角度;控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像;基于第二图像,确定车载标签与基准标签之间的距离,以得到无人车的停靠位。该实施方式可以准确地得到无人车的最终停靠位,避免出现因无人车在基准停车位停靠不准确导致的无人车自动配送失败的情况。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及确定无人车停靠位的方法和装置。
背景技术
随着人工智能技术的兴起,人们生活中越来越多的产品开始趋于智能化。例如,现有的物品配送中,可以采用无人车实现货物自动配送。
无人车的自动配送,通常需要依赖无人车的导航定位系统将无人车停靠到预设的基准停靠位,而后机器人可以对停靠在基准停靠位的无人车执行开门、上货等操作,从而实现无人车的自动配货。
相关技术中,无人车在利用自身的定位导航系统停靠时,往往不能准确地将无人车停靠到基准停靠位,机器人在无法确定无人车的最终停靠位的情况下无法为无人车配货,从而会造成无人车自动配货失败。
发明内容
本公开的实施例提出了确定无人车停靠位的方法和装置。
第一方面,本公开的实施例提供了一种确定无人车停靠位的方法,该方法包括:响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像;基于第一图像,确定车载标签与基准标签之间的夹角;控制无人车的承载台按照夹角进行旋转,以使无人车旋转夹角所指示的角度;控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像;基于第二图像,确定车载标签与基准标签之间的距离,以得到无人车的停靠位。
在一些实施例中,基于第一图像,确定车载标签与基准标签之间的夹角,包括:基于第一图像,确定相机坐标系与车载标签坐标系之间的第一转换矩阵;基于第一转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第三转换矩阵和第三转换矩阵的旋转矩阵,其中,第二转换矩阵为相机坐标系与基准标签坐标系之间的转换矩阵;确定第三转换矩阵的旋转矩阵的迹,以得到车载标签与基准标签之间的夹角。
在一些实施例中,基于第二图像,确定车载标签与基准标签之间的距离,包括:基于第二图像,确定相机坐标系与车载标签坐标系之间的第四转换矩阵;基于第四转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第五转换矩阵和第五转换矩阵的平移矩阵,其中,第二转换矩阵为相机坐标系与基准标签坐标系之间的转换矩阵;基于所确定的第五转换矩阵的平移矩阵、第二转换矩阵和预设的第六转换矩阵,在机器人坐标系中确定车载标签与基准标签之间的距离,其中,第六转换矩阵为相机坐标系与机器人坐标系之间的转换矩阵。
在一些实施例中,第二转换矩阵通过如下步骤确定:控制相机对基准标签进行图像采集;基于采集到的基准标签的图像,确定相机坐标系与基准标签坐标系之间的第二转换矩阵。
在一些实施例中,确定第三转换矩阵的旋转矩阵的迹,以得到车载标签与基准标签之间的夹角,包括:确定转换矩阵的旋转矩阵的迹;利用罗德里格旋转公式,基于转换矩阵的旋转矩阵的迹,得到车载标签与基准标签之间的夹角。
在一些实施例中,第一转换矩阵、第二转换矩阵、第三转换矩阵为4×4矩阵,第三转换矩阵的旋转矩阵为3×3矩阵。
在一些实施例中,第四转换矩阵、第五转换矩阵、第六转换矩阵为4×4矩阵,第五转换矩阵的平移矩阵为3×1矩阵。
在一些实施例中,车载标签和基准标签为棋盘格标签或二维码标签。
第二方面,本公开的实施例提供了一种确定无人车停靠位的装置,装置包括:第一图像采集单元,被配置成响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像;夹角确定单元,被配置成基于第一图像,确定车载标签与基准标签之间的夹角;旋转单元,被配置成控制无人车的承载台按照夹角进行旋转,以使无人车旋转夹角所指示的角度;第二图像采集单元,被配置成控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像;距离确定单元,被配置成基于第二图像,确定车载标签与基准标签之间的距离,以得到无人车的停靠位。
在一些实施例中,夹角确定单元进一步被配置成:基于第一图像,确定相机坐标系与车载标签坐标系之间的第一转换矩阵;基于第一转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第三转换矩阵和第三转换矩阵的旋转矩阵,其中,第二转换矩阵为相机坐标系与基准标签坐标系之间的转换矩阵;确定第三转换矩阵的旋转矩阵的迹,以得到车载标签与基准标签之间的夹角。
在一些实施例中,距离确定单元进一步被配置成:基于第二图像,确定相机坐标系与车载标签坐标系之间的第四转换矩阵;基于第四转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第五转换矩阵和第五转换矩阵的平移矩阵,其中,第二转换矩阵为相机坐标系与基准标签坐标系之间的转换矩阵;基于所确定的第五转换矩阵的平移矩阵、第二转换矩阵和预设的第六转换矩阵,在机器人坐标系中确定车载标签与基准标签之间的距离,其中,第六转换矩阵为相机坐标系与机器人坐标系之间的转换矩阵。
在一些实施例中,第二转换矩阵通过如下步骤确定:控制相机对基准标签进行图像采集;基于采集到的基准标签的图像,确定相机坐标系与基准标签坐标系之间的第二转换矩阵。
在一些实施例中,夹角确定单元进一步被配置成:确定转换矩阵的旋转矩阵的迹;利用罗德里格旋转公式,基于转换矩阵的旋转矩阵的迹,得到车载标签与基准标签之间的夹角。
在一些实施例中,第一转换矩阵、第二转换矩阵、第三转换矩阵为4×4矩阵,第三转换矩阵的旋转矩阵为3×3矩阵。
在一些实施例中,第四转换矩阵、第五转换矩阵、第六转换矩阵为4×4矩阵,第五转换矩阵的平移矩阵为3×1矩阵。
在一些实施例中,车载标签和基准标签为棋盘格标签或二维码标签。
本公开的实施例提供的确定无人车停靠位的方法和装置,在接收到无人车的停车信息时可以控制相机采集无人车上的车载标签,得到第一图像,之后基于所得到的第一图像可以确定车载标签和基准标签之间的夹角,而后控制无人车的承载台按照夹角进行旋转从而使无人车可以旋转夹角所指示的角度,然后控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像,最后基于所得到的第二图像可以确定车载标签和基准标签之间的距离,从而实现了准确地得到无人车的最终停靠位,避免出现无人车自动配货失败的情况。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一些实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的确定无人车停靠位的方法的一个实施例的流程图;
图3A-3B是根据本公开的实施例的确定无人车停靠位的方法的一个应用场景的示意图;
图4是根据本公开的确定无人车停靠位的方法的又一个实施例的流程图;
图5是根据本实施例的确定车载标签与基准标签之间的距离的一个实现方式的流程图;
图6是根据本公开的确定无人车停靠位的装置的一个实施例的结构示意图;
图7是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的确定无人车停靠位的方法或确定无人车停靠位的装置的示例性系统架构100。
如图1所示,系统架构100可以包括相机101、承载台102,网络103和服务器104。网络103用以在相机101和服务器104之间提供通信链路的介质,网络103还可以在机器人102和服务器104之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
相机101可以通过网络103与服务器104进行交互,相机101可以接收服务器104发送的控制信息等,并且相机101还可以将采集到的图像发送到服务器104。承载台102可以通过网路103与服务器104进行交互,以接收或发送消息。可选地,系统架构100还可以包括机器人等,机器人可以通过网络103与服务器104进行交互,以接收或发送消息。其中,机器人可以对无人车执行上货、开门等操作。
服务器104可以是提供各种服务的服务器,例如对相机101采集到的图像进行图像处理的后台服务器。后台服务器可以对接收到的相机101采集到的第一图像和第二图像等进行处理,并将处理结果(例如无人车的最终停靠位)反馈给承载台102和机器人等。
需要说明的是,本公开的实施例所提供的确定无人车停靠位的方法可以由服务器104执行。相应地,确定无人车停靠位的装置可以设置于服务器104中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
作为示例,上述系统架构100可以用在货物的无人配送站中。服务器104可以为无人配送站的后台服务器,承载台102可以用于按照服务器104发送的控制指令进行旋转,以使停置在承载台102上的无人车进行旋转,相机101可以对无人车上的车载标签进行图像采集,以使服务器104可以基于相机101采集到的图像确定无人车的停靠位,机器人可以为无人配送站中的无人车开门机器人或无人车上货机器人。在确定无人车的停靠位后,无人配送站中的开门机器人或上货机器人可以基于无人车的停靠位准确地为无人车开门或上货。
应该理解,图1中的相机、承载台、机器人、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的相机、承载台、机器人、网络和服务器。
继续参考图2,示出了根据本公开的确定无人车停靠位的方法的一个实施例的流程200。该确定无人车停靠位的方法,包括以下步骤:
步骤201,响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像。
在本实施例中,在无人车停靠完成后,确定无人车停靠位的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式接收到无人车的停车信息,该停车信息可以用于表征无人车停靠完成。而后,上述执行主体可以控制相机对无人车上的车载标签进行图像采集,从而得到显示有车载标签的第一图像。其中,无人车上的车载标签可以预先设置在无人车的固定位置处,相机可以为用于采集二维图像的普通相机或用于采集三维图像的深度相机等。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,基于第一图像,确定车载标签与基准标签之间的夹角。
通常,无人车停靠完成时,无人车理论上应当停靠在预设的基准停靠位。其中,基准标签为预先设置在基准停靠位上的标签。当该基准标签与无人车上的车载标签之间的相对位置满足预设条件时,例如基准标签和车载标签向垂直于基准停靠位的投影重叠,则可以确定无人车准确地停靠到预设的基准停靠位。若基准标签与无人车上的车载标签之间的相对位置不满足预设条件,则可以确定无人车没有准确地停靠到基准停靠位,此时可以通过基准标签和车载标签之间的位置关系来确定无人车与基准停靠位之间的位置关系。在已知基准停靠位的位置的前提下,由无人车与基准停靠位之间的位置关系即可以确定无人车的位置。
在本实施例中,基于步骤201得到的第一图像,上述执行主体(例如图1所示的服务器)可以采用各种方式处理所得到的第一图像,从而可以利用第一图像的处理结果确定出无人车上的车载标签和基准标签之间的夹角。作为示例,上述相机可以为深度相机,采集到的第一图像可以为深度图像,上述执行主体可以从第一图像中提取车载标签的深度信息,从而确定出车载标签的空间位置,在已知基准标签的空间位置的情况下,可以根据车载标签的空间位置和基准标签的空间位置确定出车载标签和基准标签之间的夹角。该夹角可以用于表征无人车偏离基准停靠位的角度。
步骤203,控制无人车的承载台按照夹角进行旋转,以使无人车旋转夹角所指示的角度。
在本实施例中,基于步骤202所确定的夹角,上述执行主体可以控制无人车的承载台按照所确定的夹角进行旋转。这里,承载台可以用于承载停置的无人车。因此,控制承载台的旋转可以使得停置在承载台上的无人车旋转夹角所指示的角度。可以理解的是,上述执行主体在控制无人车旋转夹角所指示的角度时,无人车上的车载标签同时也可以旋转上述夹角所指示的角度。旋转后的无人车向基准停靠位的投影与基准停靠位平行,因此车载标签向基准停靠位的投影与基准标签也平行。
通常,上述夹角的角度可以有正负之分,对应的上述执行主体可以控制承载台按照顺时针或逆时针的方向旋转,从而使得无人车和车载标签可以按照顺时针或逆时针的方向旋转。
步骤204,控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像。
在本实施例中,无人车上的车载标签旋转上述夹角所指示的角度之后,上述执行主体可以控制相机对旋转后的车载标签进行图像采集,从而可以得到第二图像。该第二图像中可以显示有旋转后的车载标签。
步骤205,基于第二图像,确定车载标签与基准标签之间的距离,以得到无人车的停靠位。
在本实施例中,基于步骤204得到的第二图像,上述执行主体可以采用各种方式处理所得到的第二图像,从而可以利用第二图像的处理结果确定出无人车上的车载标签和基准标签之间的距离。可以理解的是,以预设的基准停靠位为参照位置,在已知基准停靠位的情况下,上述执行主体根据车载标签和基准标签之间的距离可以确定出无人车的最终停靠位。
作为示例,上述相机可以为深度相机,采集到的第二图像可以为深度图像,上述执行主体可以从第二图像中提取旋转后的车载标签的深度信息,从而确定出旋转后的车载标签的空间位置。在已知基准标签的空间位置的情况下,根据旋转后的车载标签的空间位置和基准标签的空间位置可以确定出车载标签和基准标签之间的距离。该距离可以表征无人车偏离基准停靠位的距离。
相关技术中,无人车停靠时往往无法准确地停靠在基准停靠位,此种情况下机器人无法得知无人车的具体位置,从而会导致机器人按照预定的程序无法准确地为无人车开门、上货。上述实施例提供的确定无人车停靠位的方法,可以通过相机采集得到第一图像纠正无人车与基准停靠位之间的偏差角度,而后通过相机采集得到第二图像可以确定无人车与基准停靠位之间的距离,从而使得机器人可以根据无人车与基准停靠位之间的距离确定出无人车的最终停靠位,并根据无人车的最终停靠位更改预定的程序,从而可以准确地为无人车开门、上货,避免出现无人车自动配货失败的情况。
继续参见图3A-3B,图3A-3B是根据本实施例的确定无人车停靠位的方法的应用场景的一个示意图。在图3A-3B的应用场景中,在接收到无人车的停车信息之后,后台服务器可以控制预设的相机301对无人车上的车载标签302进行图像采集得到第一图像;之后后台服务器可以基于第一图像确定车载标签302和基准标签303之间的夹角;而后后台服务器可以控制无人车的承载台304按照夹角进行旋转,以使无人车可以旋转上述夹角所指示的角度,此时车载标签302向基准停靠位的投影和基准标签303平行,如图3A所示;然后后台服务器可以控制相机301对旋转后的无人车上的车载标签302进行图像采集得到第二图像,最后基于第二图像可以确定车载标签302和基准标签303之间的距离a和b,如图3B所示,从而可以得到无人车的最终停靠位。
本公开的上述实施例提供的确定无人车停靠位的方法,在接收到无人车的停车信息时可以控制相机采集无人车上的车载标签,得到第一图像,之后基于所得到的第一图像可以确定车载标签和基准标签之间的夹角,而后控制无人车的承载台按照夹角进行旋转从而使无人车可以旋转夹角所指示的角度,然后控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像,最后基于所得到的第二图像可以确定车载标签和基准标签之间的距离,从而实现了准确地得到无人车的最终停靠位,避免出现无人车自动配货失败的情况。
进一步参考图4,其示出了根据本公开的实施例的确定无人车停靠位的方法的又一个实施例的流程400。该确定无人车停靠位的方法的流程400,包括以下步骤:
步骤401,响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像。
在本实施例中,在无人车停靠完成后,确定无人车停靠位的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式接收到无人车的停车信息,该停车信息可以用于表征无人车停靠完成。而后,上述执行主体可以控制相机对无人车上的车载标签进行图像采集,从而得到显示有车载标签的第一图像。其中,无人车上的车载标签可以预先设置在无人车的固定位置处,相机可以为用于采集二维图像的普通相机。
步骤402,基于第一图像,确定相机坐标系与车载标签坐标系之间的第一转换矩阵。
在本实施例中,基于步骤401得到的车载标签的第一图像,上述执行主体可以利用相机位姿估计的方法确定相机坐标系和车载标签坐标系之间的第一转换矩阵Tc。这里,相机位姿估计可以是通过若干个已知坐标的特征点和各特征点在第一图像中的成像,计算得到相机位姿及空间坐标。这里,特征点可以预先确定,例如,特征点可以为车载标签的四个角点。由此可见,利用相机位姿估计的方法只需要特征点的三维坐标、第一图像中的像素的二维坐标、相机内参矩阵等即可以确定相机坐标系和车载标签坐标系之间的转换矩阵,并可以将转换矩阵确定为第一转换矩阵Tc。
在本实施例的一些可选的实现方式中,上述车载标签和基准标签可以为棋盘格标签或二维码标签。将车载标签和基准标签设置为棋盘格标签或二维码标签,可以便于在采集得到的图像中精准地匹配以及识别出车载标签和基准标签。进一步地,将车载标签和基准标签设置为棋盘格标签或二维码标签,可以更容易的确定出用于相机位姿估计的各特征点的顺序。
步骤403,基于第一转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第三转换矩阵和第三转换矩阵的旋转矩阵。
在本实施例中,上述执行主体可以预先确定出第二转换矩阵Tb,该第二转换矩阵Tb可以为相机坐标系和基准标签坐标系之间的转换矩阵。基于步骤402所确定的第一转换矩阵Tc,上述执行主体利用所确定的第一转换矩阵Tc和第二转换矩阵Tb,可以计算得到车载标签坐标系和基准标签坐标系之间转换矩阵,并将该转换矩阵确定为第三转换矩阵T。具体地,上述第三转换矩阵T可以通过如下公式计算得到:
在本实施例的一些可选的实现方式中,上述第二转换矩阵Tb可以通过如下步骤得到:控制相机对基准标签进行图像采集得到包含该基准标签的图像;而后采用如步骤402中所述的相机位姿估计的方法,基于采集到的包含基准标签的图像可以确定出相机坐标系和基准标签坐标系之间的第二转换矩阵Tb,这里不再赘述。
在本实施例的一些可选的实现方式中,上述第一转换矩阵、第二转换矩阵、第三转换矩阵为4×4矩阵,第三转换矩阵的旋转矩阵为3×3矩阵。将第一转换矩阵、第二转换矩阵、第三转换矩阵设置为4×4矩阵,可以更加方便的确定各转换矩阵的逆矩阵,从而可以提高第三转换矩阵T的计算效率。
步骤404,确定第三转换矩阵的旋转矩阵的迹,以得到车载标签与基准标签之间的夹角。
在本实施例中,基于步骤404所得到的第三转换矩阵T中的旋转矩阵R33,上述执行主体可以计算出该旋转矩阵R33的迹,而后利用旋转矩阵R33的迹,可以得到从车载标签到基准标签所需要旋转的轨迹,从而确定出车载标签和基准标签之间的夹角。
在本实施例的一些可选的实现方式中,上述执行主体可以采用罗德里格旋转公式,基于转换矩阵T的旋转矩阵的迹,得到车载标签和基准标签之间的夹角。利用罗德里格旋转公式求解车载标签和基准标签的夹角的公式可以如下所示:
在本实施例的一些可选的实现方式中,上述执行主体还可以利用旋转矩阵R33求解欧拉角的方式,得到车载标签和基准标签之间的夹角。
步骤405,控制无人车的承载台按照夹角进行旋转,以使无人车旋转夹角所指示的角度。
在本实施中,基于步骤404所确定的夹角,上述执行主体可以控制无人车的承载台按照所确定的夹角进行旋转。这里,承载台可以用于承载停置的无人车。因此,控制承载台的旋转可以使得停置在承载台上的无人车旋转夹角所指示的角度。可以理解的是,上述执行主体在控制无人车旋转夹角所指示的角度时,无人车上的车载标签同时也可以旋转上述夹角所指示的角度。旋转后的无人车向基准停靠位的投影与基准停靠位平行,因此车载标签向基准停靠位的投影与基准标签也平行。
步骤406,控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像。
在本实施例中,无人车上的车载标签旋转上述夹角所指示的角度之后,上述执行主体可以控制相机对旋转后的车载标签进行图像采集,从而可以得到第二图像。该第二图像中可以显示有旋转后的车载标签。
步骤407,基于第二图像,确定车载标签与基准标签之间的距离,以得到无人车的停靠位。
在本实施例中,基于步骤406得到的第二图像,上述执行主体可以采用各种方式处理所得到的第二图像,从而可以利用第二图像的处理结果确定出无人车上的车载标签和基准标签之间的距离。可以理解的是,以预设的基准停靠位为参照位置,在已知基准停靠位的情况下,上述执行主体根据车载标签和基准标签之间的距离可以确定出无人车的最终停靠位。
请继续参考图5,其示出了根据本实施例的步骤407中确定车载标签和基准标签之间的距离的一个实现方式的流程。该确定车载标签和基准标签之间的距离的方法,包括如下步骤:
步骤501,基于第二图像,确定相机坐标系与车载标签坐标系之间的第四转换矩阵。
在本实现方式中,与步骤402类似,上述执行主体采用步骤402中所述的相机位姿估计的方法,基于所得到的第二图像,可以确定相机坐标系和车载标签坐标系之间的第四转换矩阵Tc’。
步骤502,基于第四转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第五转换矩阵和第五转换矩阵的平移矩阵。
在本实现方式中,基于步骤501得到的第四转换矩阵和预设的第二转换矩阵Tb,上述执行主体可以计算车载标签坐标系和基准标签坐标系之间的第五转换矩阵T’,并由该第五旋转矩阵T’得到该第五旋转矩阵T’的平移矩阵t'31。这里,第二转换矩阵Tb可以为相机坐标系和基准标签坐标系之间的转换矩阵。
具体地,上述第五旋转矩阵T’可以通过如下公式计算得到:
步骤503,基于所确定的第五转换矩阵的平移矩阵、第二转换矩阵和预设的第六转换矩阵,在机器人坐标系中确定车载标签与基准标签之间的距离。
在本实施例中,上述执行主体可以预先确定相机坐标系和机器人坐标系之间的转换矩阵,并将该转换矩阵确定为第六转换矩阵T1。可以理解的是,该第六转换矩阵T1可以通过对机器人坐标系和相机坐标系进行标定得到。基于步骤502确定的第五转换矩阵T’的平移矩阵、第二转换矩阵Tb和预设的第六转换矩阵T1,上述执行主体可以在机器人坐标系中确定车载标签和基准标签之间的距离。具体地,车载标签和基准标签之前的距离ΔV1可以通过如下公式计算得到:
可选地,上述第四转换矩阵、第五转换矩阵、第六转换矩阵可以为4×4矩阵,第五转换矩阵的平移矩阵可以为3×1矩阵。将第四转换矩阵、第五转换矩阵、第六转换矩阵设置为4×4矩阵,可以更加方便的确定各转换矩阵的逆矩阵,从而可以提高第五转换矩阵T’和车载标签和基准标签之前的距离ΔV1的计算效率。
可选地,对于无人车来说,可以存在预设在不同位置的多个机器人(例如上货机器人和开门机器人),对于任一机器人均可以采用上述公式计算在该机器人坐标系中车载标签和基准标签之前的距离。
与图2相比,本申请的上述实施例提供的确定无人车停靠位的方法400,基于普通相机采集到的图像可以采用坐标系转换的方式确定车载标签与基准标签之间的夹角和距离,从而降低了确定无人车停靠位的成本。
进一步参考图6,作为对上述各图所示方法的实现,本公开提供了一种确定无人车停靠位的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的确定无人车停靠位的装置600包括:第一图像采集单元601、夹角确定单元602、旋转单元603、第二图像采集单元604和距离确定单元605。其中,第一图像采集单元,被配置成响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像;夹角确定单元,被配置成基于第一图像,确定车载标签与基准标签之间的夹角;旋转单元,被配置成控制无人车的承载台按照夹角进行旋转,以使无人车旋转夹角所指示的角度;第二图像采集单元,被配置成控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像;距离确定单元,被配置成基于第二图像,确定车载标签与基准标签之间的距离,以得到无人车的停靠位。
在本实施例的一些可选的实现方式中,夹角确定单元602进一步被配置成:基于第一图像,确定相机坐标系与车载标签坐标系之间的第一转换矩阵;基于第一转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第三转换矩阵和第三转换矩阵的旋转矩阵,其中,第二转换矩阵为相机坐标系与基准标签坐标系之间的转换矩阵;确定第三转换矩阵的旋转矩阵的迹,以得到车载标签与基准标签之间的夹角。
在本实施例的一些可选的实现方式中,距离确定单元605进一步被配置成:基于第二图像,确定相机坐标系与车载标签坐标系之间的第四转换矩阵;基于第四转换矩阵和预设的第二转换矩阵,确定车载标签坐标系与基准标签坐标系之间的第五转换矩阵和第五转换矩阵的平移矩阵,其中,第二转换矩阵为相机坐标系与基准标签坐标系之间的转换矩阵;基于所确定的第五转换矩阵的平移矩阵、第二转换矩阵和预设的第六转换矩阵,在机器人坐标系中确定车载标签与基准标签之间的距离,其中,第六转换矩阵为相机坐标系与机器人坐标系之间的转换矩阵。
在本实施例的一些可选的实现方式中,第二转换矩阵通过如下步骤确定:控制相机对基准标签进行图像采集;基于采集到的基准标签的图像,确定相机坐标系与基准标签坐标系之间的第二转换矩阵。
在本实施例的一些可选的实现方式中,夹角确定单元602进一步被配置成:确定转换矩阵的旋转矩阵的迹;利用罗德里格旋转公式,基于转换矩阵的旋转矩阵的迹,得到车载标签与基准标签之间的夹角。
在本实施例的一些可选的实现方式中,第一转换矩阵、第二转换矩阵、第三转换矩阵为4×4矩阵,第三转换矩阵的旋转矩阵为3×3矩阵。
在本实施例的一些可选的实现方式中,第四转换矩阵、第五转换矩阵、第六转换矩阵为4×4矩阵,第五转换矩阵的平移矩阵为3×1矩阵。
在本实施例的一些可选的实现方式中,车载标签和基准标签为棋盘格标签或二维码标签。
装置600中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置600及其中包含的单元,在此不再赘述。
下面参考图7,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器)700的结构示意图。图7示出的服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像;基于第一图像,确定车载标签与基准标签之间的夹角;控制无人车的承载台按照夹角进行旋转,以使无人车旋转夹角所指示的角度;控制相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像;基于第二图像,确定车载标签与基准标签之间的距离,以得到无人车的停靠位。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一图像采集单元、夹角确定单元、旋转单元、第二图像采集单元和距离确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一图像采集单元还可以被描述为“响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (13)
1.一种确定无人车停靠位的方法,包括:
响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像;
基于所述第一图像,确定所述车载标签与基准标签之间的夹角;
控制所述无人车的承载台按照所述夹角进行旋转,以使所述无人车旋转所述夹角所指示的角度;
控制所述相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像;
基于所述第二图像,确定所述车载标签与所述基准标签之间的距离,以得到所述无人车的停靠位。
2.根据权利要求1所述的方法,其中,所述基于所述第一图像,确定所述车载标签与基准标签之间的夹角,包括:
基于所述第一图像,确定相机坐标系与车载标签坐标系之间的第一转换矩阵;
基于所述第一转换矩阵和预设的第二转换矩阵,确定所述车载标签坐标系与所述基准标签坐标系之间的第三转换矩阵和所述第三转换矩阵的旋转矩阵,其中,所述第二转换矩阵为所述相机坐标系与所述基准标签坐标系之间的转换矩阵;
确定所述第三转换矩阵的旋转矩阵的迹,以得到所述车载标签与所述基准标签之间的夹角。
3.根据权利要求1或2任意一项所述的方法,其中,所述基于所述第二图像,确定所述车载标签与所述基准标签之间的距离,包括:
基于所述第二图像,确定相机坐标系与车载标签坐标系之间的第四转换矩阵;
基于所述第四转换矩阵和预设的第二转换矩阵,确定所述车载标签坐标系与所述基准标签坐标系之间的第五转换矩阵和所述第五转换矩阵的平移矩阵,其中,所述第二转换矩阵为所述相机坐标系与所述基准标签坐标系之间的转换矩阵;
基于所确定的第五转换矩阵的平移矩阵、所述第二转换矩阵和预设的第六转换矩阵,在机器人坐标系中确定所述车载标签与所述基准标签之间的距离,其中,所述第六转换矩阵为所述相机坐标系与所述机器人坐标系之间的转换矩阵。
4.根据权利要求2所述的方法,其中,所述第二转换矩阵通过如下步骤确定:
控制所述相机对所述基准标签进行图像采集;
基于采集到的基准标签的图像,确定所述相机坐标系与所述基准标签坐标系之间的第二转换矩阵。
5.根据权利要求2所述的方法,其中,所述确定所述第三转换矩阵的旋转矩阵的迹,以得到所述车载标签与所述基准标签之间的夹角,包括:
确定所述转换矩阵的旋转矩阵的迹;
利用罗德里格旋转公式,基于所述转换矩阵的旋转矩阵的迹,得到所述车载标签与所述基准标签之间的夹角。
6.根据权利要求2所述的方法,其中,所述第一转换矩阵、第二转换矩阵、第三转换矩阵为4×4矩阵,所述第三转换矩阵的旋转矩阵为3×3矩阵。
7.根据权利要求3所述的方法,其中,所述第四转换矩阵、第五转换矩阵、第六转换矩阵为4×4矩阵,所述第五转换矩阵的平移矩阵为3×1矩阵。
8.根据权利要求1所述的方法,其中,所述车载标签和所述基准标签为棋盘格标签或二维码标签。
9.一种确定无人车停靠位的装置,包括:
第一图像采集单元,被配置成响应于接收到停车信息,控制相机对无人车上的车载标签进行图像采集,得到第一图像;
夹角确定单元,被配置成基于所述第一图像,确定所述车载标签与基准标签之间的夹角;
旋转单元,被配置成控制所述无人车的承载台按照所述夹角进行旋转,以使所述无人车旋转所述夹角所指示的角度;
第二图像采集单元,被配置成控制所述相机对旋转后的无人车上的车载标签进行图像采集,得到第二图像;
距离确定单元,被配置成基于所述第二图像,确定所述车载标签与所述基准标签之间的距离,以得到所述无人车的停靠位。
10.根据权利要求9所述的装置,其中,所述夹角确定单元进一步被配置成:
基于所述第一图像,确定相机坐标系与车载标签坐标系之间的第一转换矩阵;
基于所述第一转换矩阵和预设的第二转换矩阵,确定所述车载标签坐标系与所述基准标签坐标系之间的第三转换矩阵和所述第三转换矩阵的旋转矩阵,其中,所述第二转换矩阵为所述相机坐标系与所述基准标签坐标系之间的转换矩阵;
确定所述第三转换矩阵的旋转矩阵的迹,以得到所述车载标签与所述基准标签之间的夹角。
11.根据权利要求9或10任意一项所述的装置,其中,所述距离确定单元进一步被配置成:
基于所述第二图像,确定相机坐标系与车载标签坐标系之间的第四转换矩阵;
基于所述第四转换矩阵和预设的第二转换矩阵,确定所述车载标签坐标系与所述基准标签坐标系之间的第五转换矩阵和所述第五转换矩阵的平移矩阵,其中,所述第二转换矩阵为所述相机坐标系与所述基准标签坐标系之间的转换矩阵;
基于所确定的第五转换矩阵的平移矩阵、所述第二转换矩阵和预设的第六转换矩阵,在机器人坐标系中确定所述车载标签与所述基准标签之间的距离,其中,所述第六转换矩阵为所述相机坐标系与所述机器人坐标系之间的转换矩阵。
12.一种电子设备/终端/服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910824186.5A CN112446916A (zh) | 2019-09-02 | 2019-09-02 | 确定无人车停靠位的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910824186.5A CN112446916A (zh) | 2019-09-02 | 2019-09-02 | 确定无人车停靠位的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112446916A true CN112446916A (zh) | 2021-03-05 |
Family
ID=74734188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910824186.5A Pending CN112446916A (zh) | 2019-09-02 | 2019-09-02 | 确定无人车停靠位的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446916A (zh) |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100581086B1 (ko) * | 2004-12-13 | 2006-05-22 | 한국전자통신연구원 | RFID Tag LED를 이용한 로봇 위치 측정 방법 및장치 |
KR100784125B1 (ko) * | 2006-09-28 | 2007-12-12 | 전자부품연구원 | 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법 |
US20140236412A1 (en) * | 2013-02-20 | 2014-08-21 | Electronics And Telecommunications Research Institute | Apparatus and method for automatically parking vehicle |
US20140241587A1 (en) * | 2013-02-26 | 2014-08-28 | Soon Ki JUNG | Apparatus for estimating of vehicle movement using stereo matching |
WO2014169692A1 (en) * | 2013-04-15 | 2014-10-23 | Tencent Technology (Shenzhen) Company Limited | Method,device and storage medium for implementing augmented reality |
CN104835173A (zh) * | 2015-05-21 | 2015-08-12 | 东南大学 | 一种基于机器视觉的定位方法 |
US20160307048A1 (en) * | 2015-04-17 | 2016-10-20 | General Electric Company | Simulating camera node output for parking policy management system |
CN106444846A (zh) * | 2016-08-19 | 2017-02-22 | 杭州零智科技有限公司 | 移动终端的定位和控制方法、装置及无人机 |
CN106954045A (zh) * | 2017-03-23 | 2017-07-14 | 长沙冰眼电子科技有限公司 | 车辆视场跟随显示系统 |
WO2017131334A1 (ko) * | 2016-01-25 | 2017-08-03 | 충북대학교 산학협력단 | 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법 |
CN107139178A (zh) * | 2017-05-10 | 2017-09-08 | 哈尔滨工业大学深圳研究生院 | 一种无人机及其基于视觉的抓取方法 |
CN108416428A (zh) * | 2018-02-28 | 2018-08-17 | 中国计量大学 | 一种基于卷积神经网络的机器人视觉定位方法 |
CN108875689A (zh) * | 2018-07-02 | 2018-11-23 | 上海西井信息科技有限公司 | 无人驾驶车辆对位方法、系统、设备及存储介质 |
CN108897324A (zh) * | 2018-07-25 | 2018-11-27 | 吉林大学 | 一种无人车停靠的控制方法、装置、设备及存储介质 |
US20190015988A1 (en) * | 2017-07-11 | 2019-01-17 | Seiko Epson Corporation | Robot control device, robot, robot system, and calibration method of camera for robot |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN110120076A (zh) * | 2019-05-22 | 2019-08-13 | 广东工业大学 | 一种位姿确定方法、系统、电子设备及计算机存储介质 |
CN110136227A (zh) * | 2019-04-26 | 2019-08-16 | 杭州飞步科技有限公司 | 高精地图的标注方法、装置、设备及存储介质 |
-
2019
- 2019-09-02 CN CN201910824186.5A patent/CN112446916A/zh active Pending
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100581086B1 (ko) * | 2004-12-13 | 2006-05-22 | 한국전자통신연구원 | RFID Tag LED를 이용한 로봇 위치 측정 방법 및장치 |
KR100784125B1 (ko) * | 2006-09-28 | 2007-12-12 | 전자부품연구원 | 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법 |
US20140236412A1 (en) * | 2013-02-20 | 2014-08-21 | Electronics And Telecommunications Research Institute | Apparatus and method for automatically parking vehicle |
US20140241587A1 (en) * | 2013-02-26 | 2014-08-28 | Soon Ki JUNG | Apparatus for estimating of vehicle movement using stereo matching |
WO2014169692A1 (en) * | 2013-04-15 | 2014-10-23 | Tencent Technology (Shenzhen) Company Limited | Method,device and storage medium for implementing augmented reality |
US20160307048A1 (en) * | 2015-04-17 | 2016-10-20 | General Electric Company | Simulating camera node output for parking policy management system |
CN104835173A (zh) * | 2015-05-21 | 2015-08-12 | 东南大学 | 一种基于机器视觉的定位方法 |
WO2017131334A1 (ko) * | 2016-01-25 | 2017-08-03 | 충북대학교 산학협력단 | 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법 |
CN106444846A (zh) * | 2016-08-19 | 2017-02-22 | 杭州零智科技有限公司 | 移动终端的定位和控制方法、装置及无人机 |
CN106954045A (zh) * | 2017-03-23 | 2017-07-14 | 长沙冰眼电子科技有限公司 | 车辆视场跟随显示系统 |
CN107139178A (zh) * | 2017-05-10 | 2017-09-08 | 哈尔滨工业大学深圳研究生院 | 一种无人机及其基于视觉的抓取方法 |
US20190015988A1 (en) * | 2017-07-11 | 2019-01-17 | Seiko Epson Corporation | Robot control device, robot, robot system, and calibration method of camera for robot |
CN108416428A (zh) * | 2018-02-28 | 2018-08-17 | 中国计量大学 | 一种基于卷积神经网络的机器人视觉定位方法 |
CN108875689A (zh) * | 2018-07-02 | 2018-11-23 | 上海西井信息科技有限公司 | 无人驾驶车辆对位方法、系统、设备及存储介质 |
CN108897324A (zh) * | 2018-07-25 | 2018-11-27 | 吉林大学 | 一种无人车停靠的控制方法、装置、设备及存储介质 |
CN109444911A (zh) * | 2018-10-18 | 2019-03-08 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN110136227A (zh) * | 2019-04-26 | 2019-08-16 | 杭州飞步科技有限公司 | 高精地图的标注方法、装置、设备及存储介质 |
CN110120076A (zh) * | 2019-05-22 | 2019-08-13 | 广东工业大学 | 一种位姿确定方法、系统、电子设备及计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6775263B2 (ja) | 測位方法及び装置 | |
US20180225524A1 (en) | Moving-object position estimating system, information processing apparatus and moving-object position estimating method | |
CN109767130A (zh) | 用于控制车辆的方法和装置 | |
CN107909378B (zh) | 车辆信息审核方法及装置、存储介质、电子设备 | |
EP3796262B1 (en) | Method and apparatus for calibrating camera | |
CN109871019B (zh) | 自动驾驶用于获取坐标的方法和装置 | |
US11487289B1 (en) | Autonomous vehicle repair | |
CN110059623B (zh) | 用于生成信息的方法和装置 | |
CN109829447B (zh) | 用于确定车辆三维框架的方法和装置 | |
CN112116655A (zh) | 目标对象的图像的位置信息确定方法和装置 | |
CN116182878B (zh) | 道路曲面信息生成方法、装置、设备和计算机可读介质 | |
CN111382695A (zh) | 用于检测目标的边界点的方法和装置 | |
CN114333404A (zh) | 一种停车场寻车方法、装置、车辆及存储介质 | |
CN111220147B (zh) | 终端的定位修正方法、装置 | |
CN109345567A (zh) | 物体运动轨迹识别方法、装置、设备和存储介质 | |
CN113129366B (zh) | 单目slam初始化方法、装置及电子设备 | |
CN109981982B (zh) | 控制方法、装置以及系统 | |
CN111340880A (zh) | 用于生成预测模型的方法和装置 | |
CN112446916A (zh) | 确定无人车停靠位的方法和装置 | |
CN111383337B (zh) | 用于识别对象的方法和装置 | |
CN115393423A (zh) | 目标检测方法和装置 | |
CN115082516A (zh) | 一种目标跟踪方法、装置、设备及介质 | |
CN115848358B (zh) | 车辆泊车方法、装置、电子设备和计算机可读介质 | |
CN113256715B (zh) | 机器人的定位方法和装置 | |
CN113068006B (zh) | 图像呈现方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |