CN114715175A - 目标对象的确定方法、装置、电子设备以及存储介质 - Google Patents
目标对象的确定方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN114715175A CN114715175A CN202210489041.6A CN202210489041A CN114715175A CN 114715175 A CN114715175 A CN 114715175A CN 202210489041 A CN202210489041 A CN 202210489041A CN 114715175 A CN114715175 A CN 114715175A
- Authority
- CN
- China
- Prior art keywords
- pointing
- objects
- information
- vehicle
- occupant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种目标对象的确定方法、装置、电子设备以及存储介质,涉及电子设备技术领域。该方法包括:获取位于车辆内的乘员的指点信息,确定与指点信息对应的指点区域,并获取与指点区域对应的一个或多个待选择对象,响应于乘员针对一个或多个待选择对象的选择指令,从一个或多个待选择对象中确定目标对象。本申请通过位于车辆内的乘员的指点信息和选择指令,直观的对目标对象进行指示,可以便于后续交互任务的展开,提升了交互的自然感和效率。
Description
技术领域
本申请涉及电子设备技术领域,更具体地,涉及一种目标对象的确定方法、装置、电子设备以及存储介质。
背景技术
随着科学技术的发展,车辆的使用越来越广泛,功能越来越多,已经成为人们日常生活中的必备之一。其中,位于车辆内的乘员存在对车辆内或车辆外的对象进行指点的需求,但是,目前针对乘员的指点识别不够准确,造成后续的交互任务不便展开,导致乘员的交互体验不佳。
发明内容
鉴于上述问题,本申请提出了一种目标对象的确定方法、装置、电子设备以及存储介质,以解决上述问题。
第一方面,本申请实施例提供了一种目标对象的确定方法,所述方法包括:获取位于车辆内的乘员的指点信息;确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象;响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
第二方面,本申请实施例提供了一种目标对象的确定装置,所述装置包括:指点信息获取模块,用于获取位于车辆内的乘员的指点信息;待选择对象获取模块,用于确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象;目标对象确定模块,用于响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
第三方面,本申请实施例提供了一种电子设备,包括存储器和处理器,所述存储器耦接到所述处理器,所述存储器存储指令,当所述指令由所述处理器执行时所述处理器执行上述方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述方法。
本申请实施例提供的目标对象的确定方法、装置、电子设备以及存储介质,获取位于车辆内的乘员的指点信息,确定与指点信息对应的指点区域,并获取与指点区域对应的一个或多个待选择对象,响应于乘员针对一个或多个待选择对象的选择指令,从一个或多个待选择对象中确定目标对象,从而通过位于车辆内的乘员的指点信息和选择指令,直观的对目标对象进行指示,可以便于后续交互任务的展开,提升了交互的自然感和效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了本申请一实施例提供的目标对象的确定方法的流程示意图;
图2示出了本申请实施例利用多次指点的不同角度,对被遮挡的目标对象或不精确的指点方向消除歧义的示意图;
图3示出了本申请一实施例提供的目标对象的确定方法的流程示意图;
图4示出了本申请实施例在AR眼镜中预览指点方向时,通过手指移动,改变选取的对象的示意图;
图5示出了本申请一实施例提供的目标对象的确定方法的流程示意图;
图6示出了本申请一实施例提供的目标对象的确定方法的流程示意图;
图7示出了本申请实施例扩大选择范围时,圆锥形区域为围绕指点方向构建的选择区域的示意图;
图8示出了本申请一实施例提供的目标对象的确定方法的流程示意图;
图9示出了本申请实施例提供的基于深度摄像头的人体关键点的追踪结果;
图10示出了本申请实施例提供的基于深度摄像头的手指的追踪结果;
图11示出了本申请实施例提供的动作捕捉系统的布置示意图;
图12示出了本申请实施例提供的用于全身动作捕捉的反光标志贴附位置的示意图;
图13示出了本申请实施例提供的眼镜式眼动仪的示意图;
图14示出了本申请实施例提供的AR手柄/VR手柄的示意图;
图15示出了本申请的图8所示的目标对象的确定方法的步骤S510的一实施例的流程示意图;
图16示出了本申请的图8所示的目标对象的确定方法的步骤S510的一实施例的流程示意图;
图17示出了本申请一实施例提供的目标对象的确定方法的流程示意图;
图18示出了本申请一实施例提供的目标对象的确定装置的模块框图;
图19示出了本申请实施例用于执行根据本申请实施例的目标对象的确定方法的电子设备的框图;
图20示出了本申请实施例的用于保存或者携带实现根据本申请实施例的目标对象的确定方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
随着车辆的智能化进程,位于车辆内的乘员(包含驾驶者及乘客)的交互体验变得越发重要。特别是自动驾驶技术的发展,将使得更多的驾驶者变为乘客,对人车交互体验的需求进一步增加。这些交互体验中往往涉及对车内或者车外物体的指点,这里的“指点”不仅是狭义的举起手指的指点动作,而是广义的用户传达的任何可以用来指示方位的信息,例如,用户的脸部朝向、目光注视方向、激光笔(实体或虚拟的)指点的方位等。指点信息可以以不同的方式表达,如一个点的坐标、一条射线、一个三维或二维选框等。按照指点的对象是否移动,可分为静态对象(如建筑物、交通指示牌、车道线、山河之类的自然地貌等)和动态对象(如其他车辆、行人等)两类。这些对象并不限于仅存于现实世界中,例如,在未来虚实融合的世界中,可以对虚拟对象进行指点,如虚拟现实广告牌。按照交互目的,可分为信息查询、指定行驶路线及方式等。以下列出一些常见的涉及对车外对象指点的交互场景:
在车辆接载乘客时,指向车外的目标乘客,例如“停在那个红帽子的女士旁边”。
对行驶的策略进行限定,例如“为那两个老人让行”。
对可视范围内的建筑询问其相关信息,例如“那就是杨浦大桥吧?”、“这个写字楼还有停车位吗?”等等。
在路边临时泊车时,指向路边的参照物,以准确指示停车位置,例如“停在这辆红车后面”。
在高速路行驶时,对路面的其他车辆进行指点,例如“离这辆大货车远一点”、“举报那辆车危险行驶”。
在行驶中,对路况信息进行标记,例如“上报那里有一起交通事故”、“标记那辆车为故障车辆”。
以车外目标为参照,对行驶路线进行调整,往往在自驾游中会遇到该类场景,例如“沿着这条河开”、“去那片湖边停下拍个照”。
在当前的日常生活中,以上场景往往是由驾驶者满足对应需求。随着车辆智能化与自动驾驶技术的日渐发展和普及,未来的智能车辆需要能够解决此类需求,而首当其冲的问题是如何确定车内乘员指点的是车内或者车外的哪个物体。
针对上述问题,发明人经过长期的研究发现,并提出了本申请实施例提供的目标对象的确定方法、装置、电子设备以及存储介质,通过位于车辆内的乘员的指点信息和选择指令,直观的对目标对象进行指示,可以便于后续交互任务的展开,提升了交互的自然感和效率。其中,具体的目标对象的确定方法在后续的实施例中进行详细的说明。
请参阅图1,图1示出了本申请一实施例提供的目标对象的确定方法的流程示意图。该方法用于通过位于车辆内的乘员的指点信息和选择指令,直观的对目标对象进行指示,可以便于后续交互任务的展开,提升了交互的自然感和效率。在具体的实施例中,该目标对象的确定方法可以应用于如图18所示的目标对象的确定装置200以及配置有目标对象的确定装置200的电子设备100(图19)。下面将以电子设备为例,说明本实施例的具体流程,当然,可以理解的,本实施例所应用的电子设备可以包括车辆、车机系统等,在此不做限定。下面将针对图1所示的流程进行详细的阐述,所述目标对象的确定方法具体可以包括以下步骤:
步骤S110:获取位于车辆内的乘员的指点信息。
在本实施例中,位于车辆内的乘员可以包括驾驶员和/或乘客。即,位于车辆内的乘员可以包括位于车辆主驾驶位的人员、可以包括位于车辆副座位的人员、可以包括车辆后座的人员、可以包括车辆内站立的人员等,在此不做限定。
在一些实施方式中,可以获取位于车辆内的乘员的数量,并根据位于车辆内的乘员的数量的不同,确定不同的获取位于车辆内的乘员的指点信息的方式。作为一种方式,在位于车辆内的乘员的数量为一个的情况下,则可以直接获取该一个乘员的指点信息。作为又一种方式,在位于车辆内的乘员的数量为至少两个的情况下,则可以从至少两个乘员中确定一个目标乘员,并获取该目标乘员的指点信息,例如,从至少两个乘员中确定驾驶员作为目标乘员,从至少两个乘员中确定满足预设身份的乘员作为目标乘员等,该预设身份可以包括车辆的主人身份。作为再一种方式,在位于车辆的乘员的数量为至少两个的情况下,则可以获取该至少两个乘员的指点信息,并从至少两个乘员的指点信息中选择一个乘员的指点信息。
在一些实施方式中,位于车辆内的乘员可以通过多种方式表达指点。例如:直接用手指指向某个对象;通过手机、平板电脑等设备的相机,指向某个对象;通过头戴式增强现实(Augmented reality,AR)设备的朝向近似乘员的面部朝向,从而选取乘员视线正中的某个对象;通过AR设备控制器常用的虚拟射线,在AR设备中选取某个对象;通过虚拟现实(Virtual reality,VR)设备控制器常用的虚拟射线,在VR设备中选取某个对象;通过眼动追踪,以乘员的注视点为指点的方向,获取该方向的某个对象。
其中,在本实施例中,所获取的位于车辆内的乘员的指点信息,可以为位于车辆内的乘员在世界坐标系下的指点信息,即,该位于车辆内的乘员的指点信息与该车辆所指点的对象在同一坐标系下。
步骤S120:确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象。
在本实施例中,在获取位于车辆内的乘员的指点信息的情况下,则可以确定该指点信息对应的指点区域,并获取与该指点区域对应的一个或多个待选择对象。其中,一个或多个待选择对象可以但不限于包括:建筑物、交通指示牌、车道线、山河、其他车辆、行人、虚拟现实广告牌、动物。
在一些实施方式中,该指点信息可以理解为包括指点起点和指点方向的一条射线。该指点起点可以定义为乘员的某一位置,例如头部、两眼连线中点、胸口等,也可以定义为特定设备的位置,如手机摄像头的位置、AR/VR手柄的位置等,该指点方向可以定义为起点至用户指尖的连线方向、用户面部的朝向方向、用户目光注视的方向等。其中,在获取车辆内的乘员的指点信息(指点起点和指点方向)的情况下,可以获取与指点方向相交的区域,并将与该指点方向相交的区域确定为指点区域。
在一些实施方式中,在确定指点区域的情况下,则可以获取与指点区域对应的一个或多个待选择对象。作为一种可实施的方式,在确定指点区域的情况下,则可以获取位于该指点区域内的一个或多个对象,并将位于该指点区域内的一个或多个对象确定为与指点区域对应的一个或多个待选择对象。作为又一种可实施的方式,在确定指点区域的情况下,则可以获取与该指点区域相交的一个或多个对象,并将与该指点区域相交的一个或多个对象确定为与指点区域对应的一个或多个待选择对象。
步骤S130:响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
其中,在获得一个或多个待选择对象的情况下,则可以供乘员对一个或多个待选择对象进行选择或确定,以从一个或多个待选择对象中确定目标对象,其中,在待选择对象的数量为多个时,则可以基于乘员触发的选择指令进行目标对象的选择以及确定,在待选择对象的数量为一个时,则可以基于乘员触发的选择指令进行目标对象的确定。在本实施例中,在获得一个或多个待选择对象的情况下,则可以对乘员针对一个或多个待选择对象的选择指令进行监听,在监听到乘员针对一个或多个待选择对象的选择指令的情况下,则可以响应于该乘员针对一个或多个待选择对象的选择指令,从一个或多个待选择对象中确定目标对象。
在一些实施方式中,在获得一个或多个待选择对象的情况下,则可以输出该一个或多个待选择对象,乘员可以基于输出的一个或多个待选择对象触发针对一个或多个待选择对象的选择指令,则可以响应于乘员针对一个或多个待选择对象的选择指令,从一个或多个待选择对象中确定目标对象。其中,输出多个待选择对象可以包括:同时显示多个待选择对象、依次显示多个待选择对象、语音播报该多个待选择对象等,在此不做限定。
作为一种方式,在获得一个或多个待选择对象的情况下,则可以向乘员显示该指点区域(一个或多个待选择对象),例如,可以通过头戴式AR设备的头显、手机的屏幕、车辆的车窗等显示设备或者显示空间上的预览,显示乘员当前预选的单个待选择对象,乘员通过移动手指、转变视线、转动头部、移动手机、点击屏幕等方式,改变预选的待选择对象,并获得视觉反馈,从而可以从一个或多个待选择对象中确定目标对象。
作为又一种方式,在获得一个或多个待选择对象的情况下,则可以利用车辆移动时的持续指点,从一个或多个待选择对象中确定目标对象。即,车辆移动时的连续指点,可以视为从不同角度对同一目标对象的多次指点,通过计算多次指点中的一个或多个待选择对象的交集,可以更精确地从一个或多个待选择对象中确定目标对象。例如,如图2所示,在行驶过程中,乘员在t1~t3的不同位置上均对汽车做出指点,尽管单次指点都被垃圾桶或自行车遮挡,造成歧义,但是通过多次指点,可以确定汽车为乘员指点的目标对象。
作为再一种方式,在获得一个或多个待选择对象的情况下,则可以利用用户的语音指令,从一个或多个待选择对象中确定目标对象。即,用户的语音指令,往往带有对目标对象的描述,如类型(车辆、行车、指示牌、建筑物等)描述、位置(相对位置等)描述、行为(是否运动、运动轨迹等)描述,通过对语音指令进行解析,可以提取到这些目标对象的特征,与一个或多个待选择对象的特征信息分别进行对比,可以有效的从一个或多个待选择对象中筛选出目标对象。
作为另一种方式,在获得一个或多个待选择对象的情况下,则可以通过语音助手,或者语音与显示相结合的方式,向乘员询问指点的目标对象,并接收乘员基于该询问的答复,以根据答复从一个或多个待选择对象中确定目标对象。例如,在乘员对其他车辆进行指点时,如手边有多辆其他车辆,会造成遮挡和干扰,语音助手可以寻求对车辆的差异化特征进行确认,从而使用户可以更准确的选取目标,例如,可以询问用户“是那辆正在转弯的京A号牌的蓝色SUV吗?”,同时在车辆的车机上显示该车辆的图像,或通过AR眼镜直接显示该车辆的实际位置。在该示例中,包含了目标物体的类型(SUV车辆)、外观特征(蓝色)、语义信息(京A号牌)、运动状态(正在转弯)等多重信息,这样可以有效的从一个或多个待选择对象中确定目标对象。
本申请一实施例提供的目标对象的确定方法,获取位于车辆内的乘员的指点信息,确定与指点信息对应的指点区域,并获取与指点区域对应的一个或多个待选择对象,响应于乘员针对一个或多个待选择对象的选择指令,从一个或多个待选择对象中确定目标对象,从而通过位于车辆内的乘员的指点信息和选择指令,直观的对目标对象进行指示,可以便于后续交互任务的展开,提升了交互的自然感和效率。
请参阅图3,图3示出了本申请一实施例提供的目标对象的确定方法的流程示意图。在本实施例中,待选择对象的数量为多个,下面将针对图3所示的流程进行详细的阐述,所述目标对象的确定方法具体可以包括以下步骤:
步骤S210:获取位于车辆内的乘员的指点信息。
步骤S220:确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的多个待选择对象。
其中,步骤S210-步骤S220的具体描述请参阅步骤S110-步骤S120,在此不再赘述。
步骤S230:向所述乘员显示所述指点区域,并在所述指点区域中通过标识信息标识从所述多个待选择对象中预选的第一待选择对象。
在一些实施方式中,在获得多个待选择对象的情况下,则可以从多个待选择对象中预选一个待选择对象作为第一待选择对象,其中,该第一待选择对象可以为多个待选择对象中随机选择的一个待选择对象,可以为多个待选择对象中经评估为乘员最有可能指点的一个待选择对象;也可以为多个待选择对象中距离乘员最近的一个待选择对象等,在此不做限定。
在一些实施方式中,在确定预选的第一待选择对象的情况下,则可以向乘员显示该指点区域,并在该指点区域中通过标识信息标识该第一待选择对象。作为一种方式,该标识信息可以包括射线,则可以在指点区域中通过射线指向该第一待选择对象。作为又一种方式,该标识信息可以包括目标符号,则可以在指点区域中在第一待选择对象上添加该目标符号。作为再一种方式,该标识信息可以包括目标框选控件,则可以在指点区域中通过目标框选控件框选第一待选择对象等,在此不做限定。
在一些实施方式中,可以通过AR头显、手机屏幕、车辆车窗等显示设备或显示空间显示该指点区域。
步骤S240:在接收到所述乘员触发的对象切换指令的情况下,从所述多个待选择对象中确定与所述对象切换指令对应的第二待选择对象。
在本实施例中,在显示指点区域的过程中,可以对乘员基于该指点区域触发的指令进行监听,在监听到乘员基于该指点区域触发的指令的情况下,则可以执行与该指令对应的操作。
在一些实施方式中,在显示指点区域的过程中,可以对乘员基于该指点区域触发的指令进行监听,在监听到乘员触发的对象切换指令的情况下,则可以响应于该乘员触发的对象切换指令,从多个待选择对象中确定与对象切换指令对应的第二待选择对象。其中,在检测到乘员移动手指的情况下,则可以确定乘员触发对象切换指令;在检测到乘员转变视线的情况下,则可以确定乘员触发对象切换指令;在检测到乘员转动头部的情况下,则可以确定乘员触发对象切换指令;在检测到乘员移动手机的情况下,则可以确定乘员触发对象切换指令;在检测到乘员点击屏幕的情况下,则可以确定乘员触发对象切换指令等,在此不做限定。
在一些实施方式中,在监听到乘员触发的对象切换指令的情况下,则可以对该对象切换指令进行解析,以获取该对象切换指令所指示的待选择对象,并将该对象切换指令所指示的待选择对象确定为第二待选择对象。例如,若对象切换指令由乘员手指移动触发,则可以获取手指移动后所指示的待选择对象,并将手指移动后所指示的待选择对象确定为第二待选择对象;若对象切换指令由乘员点击屏幕触发,则可以获取点击屏幕的位置所对应的待选择对象,并将点击屏幕的位置所对应的待选择对象确定为第二待选择对象。
在一些实施方式中,在显示指点区域的过程中,可以对乘员基于该指点区域触发的指令进行监听,在监听到乘员触发的对象确认指令的情况下,则可以将第一待选择对象确定为目标对象,其中,对象确认指令可以由乘员语音触发、点头触发、眨眼触发、点击屏幕触发等,在此不做限定。
步骤S250:在所述指点区域中,将所述标识信息从标识所述第一待选择对象切换为标识所述第二待选择对象,并将所述第二待选择对象确定为所述目标对象。
在本实施例中,在确定第二待选择对象的情况下,则可以在该指点区域中,将该标识信息从标识第一待选择对象切换为标识第二待选择对象,并将该第二待选择对象确定为目标对象。作为一种方式,在该标识信息为射线的情况下,则可以在指点区域中,将指向第一待选择对象的射线切换为指向第二待选择对象。作为又一种方式,在该标识信息为目标符号的情况下,则可以将指点区域中,将添加于第一待选择对象上的目标符号切换为添加于第二待选择对象上。作为再一种方式,在该标识信息为目标框选控件的情况下,则可以在指点区域中,将框选于第一待选择对象的目标框选控件切换为框选于第二待选择对象等,在此不做限定。
如图4所示,在AR眼镜的交互中,乘员初始选择的待选择对象(第一待选择对象)为汽车,以射线A标出,当乘员移动手指时,射线也做出相应的移动,从而跟随手指的移动选择作为目标对象的待选择对象(第二待选择对象)为自行车,以射线B标出。
作为一种可实施的方式,在将标识信息从标识第一待选择对象切换为标识第二待选择对象的情况下,则可以直接将该第二待选择对象确定为目标对象。
作为又一种可实施的方式,在将标识信息从标识第一待选择对象切换为标识第二待选择对象的情况下,可以对乘员基于该指点区域触发的指令进行监听,在监听到乘员触发的对象确认指令的情况下,则可以将第二待选择对象确定为目标对象。
本申请一实施例提供的目标对象的确定方法,相较于图1所示的目标对象的确定方法,本实施例还向乘员显示指点区域,并在指点区域中通过标识信息标识预选的第一待选择对象,在接收到乘员触发的对象切换指令的情况下,可以确定与对象切换指令对应的第二待选择对象,在指点区域中,将标识信息从标识第一待选择对象切换为标识第二待选择对象,并将第二待选择对象确定为目标对象,从而可以提升目标对象确定的准确性,以及提升用户的交互体验。
请参阅图5,图5示出了本申请一实施例提供的目标对象的确定方法的流程示意图。下面将针对图5所示的流程进行详细的阐述,所述目标对象的确定方法具体可以包括以下步骤:
步骤S310:获取位于车辆内的乘员的指点信息。
步骤S320:确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象。
其中,步骤S310-步骤S320的具体描述请参阅步骤S110-步骤S120,在此不再赘述。
步骤S330:获取所述一个或多个待选择对象各自对应的目标特征信息,其中,所述一个或多个待选择对象各自对应的目标特征信息不同。
在本实施例中,在获得一个或多个待选择对象的情况下,则可以获取一个或多个待选择对象各自对应的目标特征信息,其中,一个或多个待选择对象各自对应的目标特征信息不同。
在一些实施方式中,在获得一个或多个待选择对象的情况下,则可以分别对一个或多个待选择对象各自对应的特征信息进行提取,以获得一个或多个待选择对象各自对应特征信息,在获得一个或多个待选择对象各自对应的特征信息的情况下,可以将一个或多个待选择对象各自对应的特征信息进行比较,以获取一个或多个待选择对象各自对应的目标特征信息,即,获取一个或多个待选择对象各自对应的差异化特征信息(用于区分其他待选择对象的特征信息)。
步骤S340:基于所述一个或多个待选择对象各自对应的目标特征信息,向所述乘员输出询问信息。
在本实施例中,在获得一个或多个待选择对象各自对应的目标特征信息的情况下,则可以基于一个或多个待选择对象各自对应的目标特征信息,向乘员输出询问信息。例如,输出“是那辆正在转弯的京A号牌的蓝色SUV吗?”的询问信息。
作为一种方式,在获得一个或多个待选择对象各自对应的目标特征信息的情况下,则可以基于一个或多个待选择对象各自对应的目标特征信息,通过语音助手向乘员输出语音形式的询问信息。作为又一种方式,在获得一个或多个待选择对象各自对应的目标特征信息的情况下,则可以基于一个或多个待选择对象各自对应的目标特征信息,通过显示待选择对象的图像的形式向乘员输出询问信息。作为再一种方式,在获得一个或多个待选择对象各自对应的目标特征信息的情况下,则可以基于一个或多个待选择对象各自对应的目标特征信息,在通过语音助手向乘员输出语音形式的询问信息的同时,通过显示待选择对象的图像的形式向乘员输出询问信息。
步骤S350:响应于所述乘员针对所述询问信息的应答信息,从所述一个或多个待选择对象中确定所述目标对象。
在本实施例中,在向乘员输出询问信息的过程中,则可以对乘员针对该询问信息的反应进行检测,其中,在检测到乘员针对该询问信息的应答信息的情况下,则可以响应于该乘员针对该询问信息的应答信息,从一个或多个待选择对象中确定目标对象。
在一些实施方式中,在应答信息表征确定的情况下,如应答信息为“对的”、“是的”、“正确”的情况下,则可以将询问信息所对应的待选择对象确定为目标对象。
在一些实施方式中,在应答信息表征否定的情况下,如应答信息为“不对”、“不是”、“不确定”的情况下,则可以重新向乘员输出询问信息。
本申请一实施例提供的目标对象的确定方法,相较于图1所示的目标对象的确定方法,本实施例还获取一个或多个待选择对象各自对应的差异化特征信息,基于一个或多个待选择对象各自对应的差异化特征信息,向乘员输出询问信息,响应于乘员针对询问信息的应答信息,从一个或多个待选择对象中确定目标对象,从而可以提升目标对象确定的准确性,以及提升用户的交互体验。
请参阅图6,图6示出了本申请一实施例提供的目标对象的确定方法的流程示意图。在本实施例中,指点信息包括指点起点和指点方向,下面将针对图6所示的流程进行详细的阐述,所述目标对象的确定方法具体可以包括以下步骤:
步骤S410:获取位于车辆内的乘员的指点起点和指点方向。
在本实施例中,指点信息包括指点起点和指点方向。
步骤S420:基于所述指点起点和所述指点方向构造圆锥形区域,作为所述指点区域。
在一些实施方式中,在获得指点起点和指点方向的情况下,则可以基于该指点起点和指点方向确定目标对象。其中,在获得指点起点和指点方向的情况下,则可以检测该指点方向上是否存在相交的对象,在确定该指点方向上仅存在一个相交的对象的情况下,则可以将该一个相交的对象确定为目标对象;在确定该指点方向上存在多个相交的对象的情况下,则可以将多个相交的对象中距离指点起点最近的对象确定为目标对象。
其中,可以理解的是,乘员的指点方向并不一定完全正确,并且容易受到车辆颠簸的影响,会进一步地降低指点的准确性。因此,为了提升指点的准确性,则可以基于该指点起点和指点方向构造圆锥形区域,并将所构造的圆锥形区域确定为指点区域。其中,圆锥形区域可以为围绕指点方向构建的选择圆锥,可以将其想象成为手电筒发出的光锥。其中,该圆锥形区域的大小可以改变,例如该圆锥形区域的代销可以基于用户的操作而改变,可以基于环境的改变而改变等,在此不做限定。
步骤S430:获取与所述圆锥形区域相交且未被遮挡的多个对象,作为与所述指点区域对应的所述一个或多个待选择对象。
在一些实施方式中,在确定圆锥形区域的情况下,则可以获取与该圆锥形区域相交且未被遮挡的多个对象,并将与该圆锥形区域相交且未被遮挡的多个对象,确定为与指点区域对应的一个或多个待选择对象。
其中,与该圆锥形区域相交的对象可以包括:位于圆锥形区域内的对象,或者与圆锥形区域的边缘相交的对象。
在一些实施方式中,未被遮挡可以包括:遮挡比例小于比例阈值,其中,该比例阈值可以根据需求进行更新,可以将遮挡比例小于比例阈值的对象确定为未被遮挡的对象。例如,若比例阈值为10%,则可以将遮挡比例小于10%的对象确定为未被遮挡的对象;若比例阈值为5%,则可以将遮挡比例小于5%的对象确定为未被遮挡的对象等,在此不做限定。
在一些实施方式中,未被遮挡可以包括:遮挡面积小于面积阈值,其中,该面积阈值可以根据需求进行更新,可以将遮挡面积小于面积阈值的对象确定为未被遮挡的对象。例如,若面积阈值为5平方,则可以将遮挡面积小于5平方的对象确定为未被遮挡的对象;若若面积阈值为3平方,则可以将遮挡面积小于3平方的对象确定为未被遮挡的对象等,在此不做限定。
如图7所示,圆锥为围绕指点方向构建的选择圆锥,可以将其想象为手电筒发出的光锥,照亮的目标即可以作为待选择对象,在图7中,房子和车辆由于与圆锥形区域相交,均会被作为待选择对象,而骑自行车的人和自行车由于与圆锥形区域不相交,不会被作为待选择对象。
步骤S440:响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
其中,步骤S440的具体描述请参阅步骤S130,在此不再赘述。
本申请一实施例提供的目标对象的确定方法,相较于图1所示的目标对象的确定方法,本实施例还获取位于车辆内的乘员的指点起点和指点方向,基于指点起点和指点方向构造圆锥形区域作为指点区域,获取与圆锥形区域相交且未被遮挡的多个对象,作为与指点区域对应的一个或多个待选择对象,从而可以提升所获取的指点信息的准确性,进而提升目标对象确定的准确性。
请参阅图8,图8示出了本申请一实施例提供的目标对象的确定方法的流程示意图。下面将针对图8所示的流程进行详细的阐述,所述目标对象的确定方法具体可以包括以下步骤:
步骤S510:获取位于所述车辆内的检测装置检测到的所述乘员在检测装置坐标系下的指点信息。
在本实施例中,车辆内可以设置有检测装置,可以通过该检测装置对乘员的指点信息进行检测以获得该乘员的指点信息,可以理解的是,通过检测装置检测到的乘员的指点信息,为该乘员在该检测装置对应的检测装置坐标系下的指点信息,因此,可以获取位于车辆内的检测装置检测到的该乘员在检测装置坐标系下的指点信息。
在一些实施方式中,该检测装置可以包括深度摄像头、动作捕捉系统、头戴式增强现实设备、眼动仪、增强现实手柄、虚拟现实手柄以及移动终端中的一种或几种的组合。
其中,从乘员的角度,指点信息本质是定义一条射线,与该射线相交的对象即为所指点的目标对象。定义这条射线的两个关键信息是指点起点和指点方向,射线的起点可以定义为人体的某一位置,例如头部、两眼连线中点、胸口等,也可以定义为特定设备的位置,如手机摄像头的位置、AR/VR手柄的位置等。射线方向可以定义为起点至乘员指尖连线、用户面部的朝向、用户目光注视方向等。表1列出了若干指点行为中对指点起点和指点方向的定义和检测方法,如表1所示:
表1
下面对表1中所涉及的方式进行详细的说明。
作为第一种方式,以检测装置为深度摄像头为例。
深度摄像头可以在一定视角范围内获取物体表面的采样点与传感器之间的距离。早期的深度摄像头主要采用结构光的原理进行深度感知,当前的深度摄像头往往使用飞行时间(Time of Flight,TOF)的原理进行深度感知。当与人体关键点识别与追踪算法结合时,深度摄像头可以用于识别用户头部位置及朝向(如图9所示)及手指(如图10所示),从而可以检测头部指点、眼手连线这两类指点行为。
作为第二种方式,以检测装置为动作捕捉系统为例。
动作捕捉系统实现了与深度摄像头类似的功能,可以追踪包括人体在内的物体。如图11所示,其核心元件是一组附带红外光源的红外摄像机C,使用前需要将这些摄像机布置在所需使用空间的四周,并对其相对位置等系统参数进行标定。如图12所示,使用时,将特制的若干反光标志D(retroreflective marker)贴附于物体表面,即可利用多摄像机系统对这些标志进行识别和追踪,从而实现对物体的追踪。与深度摄像头类似,动作捕捉系统也可以检测头部指点、眼手连线这两类指点行为。
作为第三种方式,以检测装置为头戴式增强现实设备为例。
其中,头戴式增强现实设备可以包括AR眼镜。头戴式增强显示设备包含显示部件和各类传感器,其显示部件往往在用户的眼睛附近,其最为重要的传感器之一为若干惯性测量单元(Inertial Measurement Unit,IMU),从而可以检测头戴式增强现实设备的位姿信息,进而判断用户头部的位姿信息。头戴式增强现实设备的形态设计定义了乘员需要以何种方式佩戴,头部位置、眼部位置、面部朝向相对于头戴式增强现实设备的空间关系相对固定且可以较为精确地预先标定,所以头戴式增强现实设备可以支持头部指点的指点行为。
头戴式增强现实设备的另一重要传感器为若干摄像头,包括对用户手指的识别、定位以及追踪。引入多颗摄像头可以组成双目甚至三目摄像头组,从而实现更精准的定位。利用用户手指位置,头戴式增强现实设备可以支持眼手连线的指点行为。
如果内嵌了眼动追踪传感器,头戴式增强现实设备甚至可以追踪用户注视方向,从而支持注视目标对象的指点行为。
作为第四种方式,以检测装置为眼动仪为例。
其中,眼动仪可以为桌面式眼动仪。桌面式眼动仪一般采取光学的方式检测乘员的注视方向,其原理是利用一组已知位置的红外光源照射眼睛,同时利用红外摄像头获取乘员眼睛的图像,通过分析红外光源在眼球上的反光点与瞳孔中心点的相对位置,得到眼球转动的方向,即乘员注视的方向。对桌面眼动仪而言,为了允许用户自由地移动头部,常使用双目红外摄像头的方式,从而可以获取用户眼睛的位置,结合眼睛位置与注视方向,即可支持注视目标对象的指点行为。
其中,眼动仪可以为眼镜式眼动仪。如图13所示,眼镜式眼动仪原理与桌面式眼动仪一致,但因为采用眼镜的设备形态,所以摄像头与乘员眼睛的位置相对固定,可以预先标定眼睛位置,简化了实时追踪的计算难度。同时,因为其可穿戴性,眼镜式眼动仪可支持注视目标的指点行为,而且其眼动追踪能力可以内嵌于AR眼镜等头戴式设备内。其主要部件为每个眼睛对应八个微型红外光源和两个微型摄像头。
作为第五种方式,以检测装置为增强现实手柄/虚拟现实手柄为例。
其中,如图14所示,AR/VR手柄一般内置有IMU,用于感知AR/VR手柄的空间位姿。VR手柄可以含有特殊的红外LED灯带,其位置可以被VR头显上的红外传感器或摄像头识别并追踪。手柄的位置和朝向可以定义一条射线,支持乘员用手柄指点的行为。
作为第六种方式,以检测装置为移动终端为例。
其中,移动终端的摄像头也可以用于进行方向指示。在最简单的实现中,可以定义摄像头的传感器中心点为指点的起点,以摄像头的光学中轴,即连接传感器中心点与镜头光学中心点的轴线,为指点的方向,乘员通过控制移动终端移动来指点不同的目标对象。
请参阅图15,图15示出了本申请的图8所示的目标对象的确定方法的步骤S510的一实施例的流程示意图。在本实施例中,该检测装置包括头戴式增强现实设备,下面将针对图15所示的流程进行详细的阐述,所述方法具体可以包括以下步骤:
步骤S511A:在所述头戴式增强现实设备佩戴于所述乘员的头部的情况下,确定所述乘员的头部在头戴式增强现实设备坐标系下的位姿信息。
在本实施例中,检测装置为头戴式增强显示设备。
在一些实施方式中,可以对头戴式增强现实设备是否处于佩戴状态进行检测,其中,在检测到头戴式增强现实设备佩戴于乘员的头部的情况下,则可以确定乘员的头部在头戴式增强现实设备坐标系下的位姿信息。作为一种方式,头戴式增强现实设备可以包括多个IMU,则头戴式增强现实设备可以通过多个IMU检测该头戴式增强现实设备的位姿信息,并基于检测到的头戴式增强现实设备的位姿信息,以及头戴式增强现实设备和乘员的头部的相对位置关系,确定乘员的头部在头戴式增强现实坐标系下的位姿信息。
作为一种可实施的方式,头戴式增强现实设备与乘员的头部的相对位置关系可以相对固定且预先标定,则可以基于头戴式增强现实设备的位姿信息,以及头戴式增强现实设备和乘员的头部的相对位置关系,确定乘员的头部在头戴式增强现实设备坐标系下的位姿信息。
步骤S512A:基于所述乘员的头部在头戴式增强现实设备坐标系下的位姿信息,确定所述乘员在头戴式增强现实设备坐标系下的指点信息。
在本实施例中,在确定乘员的头部在头戴式增强现实设备坐标系下的位姿信息的情况下,则可以基于乘员的头部在头戴式增强现实设备坐标系下的位姿信息,确定乘员在头戴式增强现实设备坐标系下的指点信息。作为一种可实施的方式,乘员的面部可以用于执行指点行为,即,乘员的面部可以作为指点起点,乘员的面部朝向可以作为指点方向,因此,在获得乘员的头部在头戴式增强现实设备坐标系下的位姿信息的情况下,则可以获取该乘员的面部位置和面部朝向,以基于面部位置和面部朝向确定乘员在头戴式增强现实设备坐标系下的指点信息。
作为一种应用场景,乘员在佩戴头戴式增强现实设备的情况下,可以以乘员的面部为指点起点,以乘员的面部朝向为指点方向,确定乘员对应的指点信息进行对象的指点,若乘员的头部转动,则可以以乘员转动后的面部为指点指点,以乘员转动后的面部朝向为指点方向,确定乘员对应的指点信息进行对象的指点。作为一种可实施的方式,若乘员的头部转动,可以获取乘员的头部的转动角度,在转动角度大于角度阈值的情况下,则可以以乘员转动后的面部为指点指点,以乘员转动后的面部朝向为指点方向,确定乘员对应的指点信息进行对象的指点;在转动角度小于或等于角度阈值的情况下,则可以保持原指点信息进行对象的指点。
请参阅图16,图16示出了本申请的图8所示的目标对象的确定方法的步骤S510的一实施例的流程示意图。在本实施例中,该检测装置包括移动终端,下面将针对图16所示的流程进行详细的阐述,所述方法具体可以包括以下步骤:
步骤S511B:在所述移动终端处于握持状态下通过摄像头进行图像采集的情况下,获取所述摄像头的中心点和所述摄像头的光学中轴。
在本实施例中,检测装置为移动终端。其中,移动终端可以包括手机、平板电脑等,在此不做限定。
在一些实施方式中,可以对移动终端是否处于握持状态下通过摄像头进行图像采集进行检测,其中,在检测到移动终端处于握持状态下通过摄像头进行图像采集的情况下,则可以获取摄像头的中心点和摄像头的光学中轴,即连接传感器中心点与镜头光学中心点的轴线。
作为一种可实施的方式,移动终端所包括的摄像头的数量可以为一个或多个。其中,在移动终端包括的摄像头的数量为一个时,则可以直接获取该一个摄像头的中心点和光学中轴;在移动终端包括的摄像头的数量为多个时,则可以确定多个摄像头各自的中心点,基于多个摄像头各自的中心点,计算获得多个摄像头的中心点;可以确定多个摄像头各自的光学中轴,基于多个摄像头各自的光学中轴,计算获得多个摄像头的光学中轴。
步骤S512B:基于所述摄像头的中心点和所述摄像头的光学中轴,确定所述乘员在移动终端坐标系下的指点信息。
在本实施例中,在获得摄像头的中心点和摄像头的光学中轴的情况下,则可以基于摄像头的中心点和摄像头的光学中轴,确定乘员在移动终端坐标系下的指点信息。作为一种可实施的方式,在获得摄像头的中心点的情况下,则可以将该摄像头的中心点确定为指点起点,在获得摄像头的光学中轴的情况下,则可以将该光学中轴确定为指点方向,即可以获得包括指点起点和指点方向的指点信息。
步骤S520:获取所述车辆在世界坐标系下的位姿信息,以及获取所述检测装置在车辆坐标系下的位姿信息。
在本实施例中,可以获取车辆在世界坐标系下的位姿信息。
其中,智能车辆的感知能力是自动驾驶技术中的关键组成部分,输出车辆在世界中的位姿(即定位能力)、交通要素(如车道线、红绿灯、标志牌、路面箭头等)、可行驶区域、以及动态的交通参与者信息(如其他车辆、行人以及他们的朝向、速度、行为等)。
在一些实施方式中,自动驾驶或辅助驾驶技术中常用的定位技术包括:全球导航卫星系统、惯性导航、扫描匹配。这些技术结合使用,可以给出车辆车身在世界坐标系中的位置和朝向。
全球导航卫星系统(Global Navigation Satellite System,GNSS),是一类定位系统的统称,其原理是检测车辆与多颗卫星的距离,因为这些卫星的位置已知,从而可以推算出车辆在地球表面的精确位置。全球卫星定位系统(GPS)、北斗系统、准天顶卫星系统等,都属于GNSS的范畴。由于卫星信号传播中的电磁干扰、卫星时间的误差、以及元器件内部的噪声等因素,GNSS定位在实用中存在较大的误差,无法达到厘米级的定位精度。使用载波相位差分技术(Real Time Kinematic,RTK),可以消除一部分此类误差,达到厘米级定位精度。GNSS的使用需要能较好地接受来自卫星的电磁波信号,因而在地下或有建筑物遮挡的情况下无法实现定位。
惯性导航(Inertial Navigation System)利用IMU提供的线性加速度和角速度信息,可以在短时间内较准确地估算车辆的相对位移和旋转,从而可以较好地补充GNSS定位的不足。
扫描匹配(Scan Matching)由机器人领域的经典算法,同步定位与建图(Simultaneous Localization and Mapping,SLAM)转化而来。SLAM的核心思想是希望机器人从未知环境的未知地点出发,在运动过程中通过重复观测到的地图特征(比如,墙角,柱子等)定位自身位置和姿态,再根据自身位置增量式的构建地图,从而达到同时定位和地图构建的目的。在自动驾驶应用中,自动驾驶的使用范围往往仅限于城市内或城市间的铺装道路路网,所以SLAM算法中的建图部分可以前置,即通过专门的采集车辆及高精度的传感器(面向车外,用于自动驾驶的传感器),预先构建高精度地图,例如可以包括对交通要素的分割和标记与地标等信息。
在智能车辆行驶过程中,其传感器(面向车外,用于自动驾驶的传感器),如激光雷达、毫米波雷达、双目摄像头等,也会产生大量的实时数据,通过将其与高精度地图中的信息进行比对,可以计算得知该实时数据与高精地图中的哪段数据最为匹配,从而得知车辆在高精地图中的位姿,即获得车辆在世界坐标系下的位姿信息。
车辆的空间定位结果表达了车辆在三维空间中的位置和姿态(即位姿),其中,位置通常以三维坐标点表示,朝向通常以四元数、三维正交矩阵、欧拉角等方式表达。具体的数学表达与计算方式为公开知识,在此不做展开。
其中,所描述的车辆定位结果可以以矩阵的方式进行表达。设Rw为从车辆坐标系到世界坐标系的旋转变换矩阵,tw为旋转之后从车辆坐标系到世界坐标系的位移向量,则可以定义从车辆坐标系到世界坐标系的转换矩阵Mw:
对于本实施例所讨论的三维空间,Rw为三阶矩阵,tw为三维向量,Mw为四阶矩阵。利用Mw矩阵,可以将以车辆坐标系表达的点或向量转换成世界坐标系内的表达。当转换车辆坐标系内的点[x,y,z]时,在其后添加1,构建一个四维向量[x,y,z,1],从而可以在矩阵乘法中应用两个坐标系之间的位移。当转换车辆坐标系内的向量[x,y,z]时,在其后添加0,构建一个四维向量[x,y,z,0],从而可以在矩阵乘法中忽略两个坐标系之间的位移,仅应用旋转变换。
在本实施例中,可以获取检测装置在车辆坐标系下的位姿信息。
其中,所描述的检测装置在车辆内的定位结果可以以矩阵的方式进行表达。设Rc为从检测装置坐标系到车辆坐标系的旋转变换矩阵,tc为旋转之后从检测装置坐标系到车辆坐标系的位移向量,则可以定义从检测装置坐标系到车辆坐标系的转换矩阵Mc:
对于本实施例所讨论的三维空间,Rc为三阶矩阵,tc为三维向量,Mc为四阶矩阵。利用Mc矩阵,可以将以检测装置坐标系表达的点或向量转换成车辆坐标系内的表达。当转换检测装置坐标系内的点[x,y,z]时,在其后添加1,构建一个四维向量[x,y,z,1],从而可以在矩阵乘法中应用两个坐标系之间的位移。当转换检测装置坐标系内的向量[x,y,z]时,在其后添加0,构建一个四维向量[x,y,z,0],从而可以在矩阵乘法中忽略两个坐标系之间的位移,仅应用旋转变换。
在一些实施方式中,按照检测装置是否固定于车内,可以分为两类。
作为一种方式,如果检测装置固定于车内,如深度摄像头、动作捕捉系统、桌面式眼动仪,可以直接精确测量检测装置相对于车内固定特征点的位置,例如后车窗上沿中心点、B/C柱中心线/上端/下端等,从而测定检测装置在车内的位置,即确定tc。为确定Rc,可以分别在车辆和检测装置上安装与对应坐标系对齐的加速度计(accelerometer),并在其静止情况下,测定加速度(即重力)方向,通过重力加速度在两个不同坐标系中的朝向不同,可以计算得出两坐标系间的旋转关系。设在车辆坐标系中测得重力加速度矢量为gc,在检测装置坐标系中测得为gs,二者关系满足gc=Rc·gs,则可通过矩阵运算及3阶旋转变换矩阵的性质(行列式为1的3阶正交阵)计算得出Rc。基于此,可以确定检测装置在车辆坐标系下的位姿信息。
作为又一种方式,如果检测装置相对于车身位置不固定,如AR眼镜、眼镜式眼动仪、手机等,则可以利用SLAM算法(见前文对SLAM算法的介绍),分析检测装置的摄像头获取的连续视频数据,识别并追踪车内固定特征点,从而能实时检测检测装置自身在车舱内的位姿。另一种获取非固定式检测装置相对于车身的位姿信息的方法是利用动作捕捉的原理,在检测装置上贴附反光标志,即可通过车内固定的动作捕捉系统(见上一段对固定检测装置的位姿确定方法)定位其位姿。这两种方法均直接输出Mc矩阵。基于此,可以确定检测装置在车辆坐标系下的位姿信息。
步骤S530:基于所述车辆在世界坐标系下的位姿信息和所述检测装置在车辆坐标系下的位姿信息,将所述乘员在检测装置坐标系下的指点信息转换至所述乘员在世界坐标系下的指点信息。
在本实施例中,在获得车辆在世界坐标系下的位姿信息和检测装置在车辆坐标系下的位姿信息,则可以基于车辆在世界坐标系下的位姿信息和检测装置在车辆坐标系下的位姿信息,将乘员在检测装置坐标系下的指点信息转换至乘员在世界坐标系下的指点信息。
在一些实施方式中,前述方式中已经构建了从检测装置坐标系到车辆坐标系的转换矩阵和从车辆坐标系到世界坐标系的转换矩阵,以及获取了乘员在检测装置坐标系下的指点信息,综合起来,可以将检测装置坐标系内的指点信息依次转换至车辆坐标系和世界坐标系。假设检测装置获取的指点信息包括指点起点ps和指点方向vs,则可以以下矩阵计算表达世界坐标系中的指点信息(指点起点pw、指点方向vw):
步骤S540:确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象。
步骤S550:响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
其中,步骤S540-步骤S550的具体描述请参阅步骤S120-步骤S130,在此不再赘述。
本申请一实施例提供的目标对象的确定方法,相较于图1所示的目标对象的确定方法,本实施例还获取位于车辆内的检测装置检测到的乘员在检测装置坐标系下的指点信息,获取车辆在世界坐标系下的位姿信息,以及获取检测装置在车辆坐标系下的位姿信息,基于车辆在世界坐标系下的位姿信息和检测装置在车辆坐标系下的位姿信息,将乘员在检测装置坐标系下的指点信息转换至乘员在世界坐标系下的指点信息,从而通过坐标系的转换,可以准确获得指点信息在世界坐标系中的位置,以提升目标对象确定的准确性。
请参阅图17,图17示出了本申请一实施例提供的目标对象的确定方法的流程示意图。下面将针对图17所示的流程进行详细的阐述,所述目标对象的确定方法具体可以包括以下步骤:
步骤S610:获取位于车辆内的乘员的指点信息。
步骤S620:确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象。
步骤S630:响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
其中,步骤S610-步骤S630的具体描述请参阅步骤S110-步骤S130,在此不再赘述。
步骤S640:控制所述车辆执行与所述目标对象关联的操作。
在本实施例中,在确定目标对象的情况下,则可以控制车辆执行与目标对象关联的操作,以实现车辆的智能控制。
在一些实施方式中,控制车辆执行与目标对象关联的操作可以包括:对车辆外的地标进行查询。其中,基于目前的方法,乘员需要打开电子设备的地图软件,定位车辆所在的位置,并识别方向,再尝试从地图上找出对应地标的位置进行查询,而基于本方案,乘员可以直接用手指指向车辆外的地标,用语音手势或者语音的方式进行查询。
在一些实施方式中,控制车辆执行与目标对象关联的操作可以包括:将车辆外的地标“拿”在手里,并与车辆内的信息系统进行交互。其中,乘员指点车辆外的地标,并拖动至车辆的车机显示装置上,以保存该地标建筑物信息或添加导航路线。
在一些实施方式中,控制车辆执行与目标对象关联的操作可以包括:在平面地图的二维信息控件内,可以查询地标名称、搜索大楼的商户、记录并上传路况信息;在车辆实时感知的三维信息空间内,可以追踪目标乘客、完成接乘任务等,在此不做限定。
在一些实施方式中,控制车辆执行与目标对象关联的操作可以包括:将车辆的天窗打开,将车辆的天窗关闭,将车辆的车门打开,将车辆的车门关闭等,在此不做限定。
本申请一实施例提供的目标对象的确定方法,相较于图1所示的目标对象的确定方法,本实施例还控制车辆执行与目标对象关联的操作,从而实现车辆的自动控制,提升用户的驾驶体验。
请参阅图18,图18示出了本申请一实施例提供的目标对象的确定装置的模块框图。下面将针对图18所示的框图进行阐述,所述目标对象的确定装置200包括:指点信息获取模块210、待选择对象获取模块220以及目标对象确定模块230,其中:
指点信息获取模块210,用于获取位于车辆内的乘员的指点信息。
进一步地,所述指点信息获取模块210包括:第一指点信息获取子模块、位姿信息获取子模块以及第二指点信息获取子模块,其中:
第一指点信息获取子模块,用于获取位于所述车辆内的检测装置检测到的所述乘员在检测装置坐标系下的指点信息。
进一步地,所述检测装置包括头戴式增强现实设备,所述第一指点信息获取子模块包括:第一位姿获取单元以及第一指点信息获取单元,其中:
第一位姿获取单元,用于在所述头戴式增强现实设备佩戴于所述乘员的头部的情况下,确定所述乘员的头部在头戴式增强现实设备坐标系下的位姿。
第一指点信息获取单元,用于基于所述乘员的头部在头戴式增强现实设备坐标系下的位姿,确定所述乘员在头戴式增强现实设备坐标系下的指点信息。
进一步地,所述检测装置包括移动终端,所述第一指点信息获取子模块包括:摄像头参数获取单元和第二指点信息获取单元,其中:
摄像头参数获取单元,用于在所述移动终端处于握持状态下通过摄像头进行图像采集的情况下,获取所述摄像头的中心点和所述摄像头的光学中轴。
第二指点信息获取单元,用于基于所述摄像头的中心点和所述摄像头的光学中轴,确定所述乘员在移动终端坐标系下的指点信息。
位姿信息获取子模块,用于获取所述车辆在世界坐标系下的位姿信息,以及获取所述检测装置在车辆坐标系下的位姿信息。
第二指点信息获取子模块,用于基于所述车辆在世界坐标系下的位姿信息和所述检测装置在车辆坐标系下的位姿信息,将所述乘员在检测装置坐标系下的指点信息转换至所述乘员在世界坐标系下的指点信息。
待选择对象获取模块220,用于确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象。
进一步地,所述指点信息包括指点起点和指点方向,所述待选择对象获取模块220包括:指点区域构造子模块和待选择对象获取子模块,其中:
指点区域构造子模块,用于基于所述指点起点和所述指点方向构造圆锥形区域,作为所述指点区域。
待选择对象获取子模块,用于获取与所述圆锥形区域相交且未被遮挡的一个或多个对象,作为与所述指点区域对应的所述一个或多个待选择对象。
目标对象确定模块230,用于响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
进一步地,若所述待选择对象的数量为多个,所述目标对象确定模块230包括:第一待选择对象标识子模块、第二待选择对象确定子模块以及第二待选择对象标识子模块,其中:
第一待选择对象标识子模块,用于向所述乘员显示所述指点区域,并在所述指点区域中通过标识信息标识从所述多个待选择对象中预选的第一待选择对象。
第二待选择对象确定子模块,用于在接收到所述乘员触发的对象切换指令的情况下,从所述多个待选择对象中确定与所述对象切换指令对应的第二待选择对象。
第二待选择对象标识子模块,用于在所述指点区域中,将所述标识信息从标识所述第一待选择对象切换为标识所述第二待选择对象,并将所述第二待选择对象确定为所述目标对象。
进一步地,所述目标对象确定模块230包括:目标特征信息获取子模块、询问信息输出子模块以及目标对象确定子模块,其中:
目标特征信息获取子模块,用于获取所述一个或多个待选择对象各自对应的目标特征信息,其中,所述一个或多个待选择对象各自对应的目标特征信息不同。
询问信息输出子模块,用于基于所述一个或多个待选择对象各自对应的目标特征信息,向所述乘员输出询问信息。
目标对象确定子模块,用于响应于所述乘员针对所述询问信息的应答信息,从所述一个或多个待选择对象中确定所述目标对象。
进一步地,所述目标对象的确定装置200还包括:操作控制模块,其中:
操作控制模块,用于控制所述车辆执行与所述目标对象关联的操作。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
请参阅图19,其示出了本申请实施例提供的一种电子设备100的结构框图。本申请中的电子设备100可以包括一个或多个如下部件:处理器110、存储器120以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器120中并被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
其中,处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(ProgrammableLogic Array,PLA)中的至少一种硬件形式来实现。处理器110可集成中央处理器(CentralProcessing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责待显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储电子设备100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
请参阅图20,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质300中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质300可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质300包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质300具有执行上述方法中的任何方法步骤的程序代码310的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码310可以例如以适当形式进行压缩。
综上所述,本申请实施例提供的目标对象的确定方法、装置、电子设备以及存储介质,获取位于车辆内的乘员的指点信息,确定与指点信息对应的指点区域,并获取与指点区域对应的一个或多个待选择对象,响应于乘员针对一个或多个待选择对象的选择指令,从一个或多个待选择对象中确定目标对象,从而通过位于车辆内的乘员的指点信息和选择指令,直观的对目标对象进行指示,可以便于后续交互任务的展开,提升了交互的自然感和效率。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (11)
1.一种目标对象的确定方法,其特征在于,所述方法包括:
获取位于车辆内的乘员的指点信息;
确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象;
响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
2.根据权利要求1所述的方法,其特征在于,若所述待选择对象的数量为多个,所述响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象,包括:
向所述乘员显示所述指点区域,并在所述指点区域中通过标识信息标识从所述多个待选择对象中预选的第一待选择对象;
在接收到所述乘员触发的对象切换指令的情况下,从所述多个待选择对象中确定与所述对象切换指令对应的第二待选择对象;
在所述指点区域中,将所述标识信息从标识所述第一待选择对象切换为标识所述第二待选择对象,并将所述第二待选择对象确定为所述目标对象。
3.根据权利要求1所述的方法,其特征在于,所述响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象,包括:
获取所述一个或多个待选择对象各自对应的目标特征信息,其中,所述一个或多个待选择对象各自对应的目标特征信息不同;
基于所述一个或多个待选择对象各自对应的目标特征信息,向所述乘员输出询问信息;
响应于所述乘员针对所述询问信息的应答信息,从所述一个或多个待选择对象中确定所述目标对象。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述指点信息包括指点起点和指点方向,所述确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象,包括:
基于所述指点起点和所述指点方向构造圆锥形区域,作为所述指点区域;
获取与所述圆锥形区域相交且未被遮挡的一个或多个对象,作为与所述指点区域对应的所述一个或多个待选择对象。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述获取位于车辆内的乘员的指点信息,包括:
获取位于所述车辆内的检测装置检测到的所述乘员在检测装置坐标系下的指点信息;
获取所述车辆在世界坐标系下的位姿信息,以及获取所述检测装置在车辆坐标系下的位姿信息;
基于所述车辆在世界坐标系下的位姿信息和所述检测装置在车辆坐标系下的位姿信息,将所述乘员在检测装置坐标系下的指点信息转换至所述乘员在世界坐标系下的指点信息。
6.根据权利要求5所述的方法,其特征在于,所述检测装置包括头戴式增强现实设备,所述获取位于所述车辆内的检测装置检测到的所述乘员在检测装置坐标系下的指点信息,包括:
在所述头戴式增强现实设备佩戴于所述乘员的头部的情况下,确定所述乘员的头部在头戴式增强现实设备坐标系下的位姿信息;
基于所述乘员的头部在头戴式增强现实设备坐标系下的位姿信息,确定所述乘员在头戴式增强现实设备坐标系下的指点信息。
7.根据权利要求5所述的方法,其特征在于,所述检测装置包括移动终端,所述获取位于所述车辆内的检测装置检测到的所述乘员在检测装置坐标系下的指点信息,包括:
在所述移动终端处于握持状态下通过摄像头进行图像采集的情况下,获取所述摄像头的中心点和所述摄像头的光学中轴;
基于所述摄像头的中心点和所述摄像头的光学中轴,确定所述乘员在移动终端坐标系下的指点信息。
8.根据权利要求1-3任一项所述的方法,其特征在于,在所述响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象之后,还包括:
控制所述车辆执行与所述目标对象关联的操作。
9.一种目标对象的确定装置,其特征在于,所述装置包括:
指点信息获取模块,用于获取位于车辆内的乘员的指点信息;
待选择对象获取模块,用于确定与所述指点信息对应的指点区域,并获取与所述指点区域对应的一个或多个待选择对象;
目标对象确定模块,用于响应于所述乘员针对所述一个或多个待选择对象的选择指令,从所述一个或多个待选择对象中确定目标对象。
10.一种电子设备,其特征在于,包括存储器和处理器,所述存储器耦接到所述处理器,所述存储器存储指令,当所述指令由所述处理器执行时所述处理器执行如权利要求1-8任一项所述的方法。
11.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210489041.6A CN114715175A (zh) | 2022-05-06 | 2022-05-06 | 目标对象的确定方法、装置、电子设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210489041.6A CN114715175A (zh) | 2022-05-06 | 2022-05-06 | 目标对象的确定方法、装置、电子设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114715175A true CN114715175A (zh) | 2022-07-08 |
Family
ID=82230517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210489041.6A Pending CN114715175A (zh) | 2022-05-06 | 2022-05-06 | 目标对象的确定方法、装置、电子设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114715175A (zh) |
-
2022
- 2022-05-06 CN CN202210489041.6A patent/CN114715175A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6763448B2 (ja) | 視覚強化ナビゲーション | |
CN108571974B (zh) | 使用摄像机的车辆定位 | |
Martin-Martin et al. | Jrdb: A dataset and benchmark of egocentric robot visual perception of humans in built environments | |
EP3361278B1 (en) | Autonomous vehicle localization based on walsh kernel projection technique | |
US11094112B2 (en) | Intelligent capturing of a dynamic physical environment | |
US10849543B2 (en) | Focus-based tagging of sensor data | |
EP2936240B1 (en) | Infotainment system | |
JP2023531330A (ja) | マシン学習を使用した自律マシン・アプリケーションのためのセンサ融合 | |
US20120224060A1 (en) | Reducing Driver Distraction Using a Heads-Up Display | |
US11092690B1 (en) | Predicting lidar data using machine learning | |
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
JP2023131069A (ja) | 自律システム及びアプリケーションのためのニューラル・ネットワークを使用したマップ情報の物体データ・キュレーション | |
Li et al. | A survey of adas perceptions with development in china | |
Laflamme et al. | Driving datasets literature review | |
JP2022132075A (ja) | 自律運転アプリケーションにおけるディープ・ニューラル・ネットワーク知覚のためのグラウンド・トゥルース・データ生成 | |
CN111833443A (zh) | 自主机器应用中的地标位置重建 | |
CN115082690B (zh) | 目标识别方法、目标识别模型训练方法及装置 | |
US20210382560A1 (en) | Methods and System for Determining a Command of an Occupant of a Vehicle | |
CN114715175A (zh) | 目标对象的确定方法、装置、电子设备以及存储介质 | |
EP3871192B1 (en) | Orientation determination for mobile computing devices | |
KR102482829B1 (ko) | 차량용 ar 디스플레이 장치 및 ar 서비스 플랫폼 | |
CN112543949A (zh) | 使用图像内容分析来发现和评估会面位置 | |
US20220309693A1 (en) | Adversarial Approach to Usage of Lidar Supervision to Image Depth Estimation | |
CN115423932A (zh) | 道路标注方法、可读介质、程序产品和电子设备 | |
CN117351161A (zh) | 基于视觉语义的建图方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |