CN117270688A - 基于ar场景的防碰撞方法及装置 - Google Patents

基于ar场景的防碰撞方法及装置 Download PDF

Info

Publication number
CN117270688A
CN117270688A CN202311213944.2A CN202311213944A CN117270688A CN 117270688 A CN117270688 A CN 117270688A CN 202311213944 A CN202311213944 A CN 202311213944A CN 117270688 A CN117270688 A CN 117270688A
Authority
CN
China
Prior art keywords
image
scene
distance
mobile device
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311213944.2A
Other languages
English (en)
Inventor
贺三元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ant Blockchain Technology Shanghai Co Ltd
Original Assignee
Ant Blockchain Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ant Blockchain Technology Shanghai Co Ltd filed Critical Ant Blockchain Technology Shanghai Co Ltd
Priority to CN202311213944.2A priority Critical patent/CN117270688A/zh
Publication of CN117270688A publication Critical patent/CN117270688A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

本说明书实施例提供了基于AR场景的防碰撞方法及装置。该方法可由包括图像采集装置的移动设备执行,该方法包括:利用图像采集装置,确定AR场景对应的真实场景中的至少一个物体到移动设备的第一距离;对于确定出的各个第一距离中的最小距离,响应于该最小距离低于距离阈值,在该AR场景中进行提示。

Description

基于AR场景的防碰撞方法及装置
技术领域
本说明书实施例属于计算机技术领域,尤其涉及基于AR场景的防碰撞方法及装置。
背景技术
增强现实(Augmented Reality,AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
目前,用户可以使用包括图像采集装置的移动设备(如智能手机等)加载AR场景,并通过拿着该移动设备走动而实现在该AR场景中游走。
发明内容
本发明的目的在于提供一种基于AR场景的防碰撞方法,能在用户走到真实场景中的物体旁边时自动在AR场景中进行提示,从而避免用户沉浸在AR场景中时碰撞到真实场景中的物体。
本说明书第一方面提供一种基于AR场景的防碰撞方法,由包括图像采集装置的移动设备执行,所述方法包括:利用所述图像采集装置,确定AR场景对应的真实场景中的至少一个物体到所述移动设备的第一距离;对于确定出的各个第一距离中的最小距离,响应于所述最小距离低于距离阈值,在所述AR场景中进行提示。
本说明书第二方面提供一种基于AR场景的防碰撞装置,应用于包括图像采集装置的移动设备,所述装置包括:确定单元,被配置成利用所述图像采集装置,确定AR场景对应的真实场景中的至少一个物体到所述移动设备的第一距离;提示单元,被配置成对于确定出的各个第一距离中的最小距离,响应于所述最小距离低于距离阈值,在所述AR场景中进行提示。
本说明书第三方面提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行如第一方面描述的方法。
本说明书第四方面提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现如第一方面描述的方法。
本说明书第五方面提供一种计算机程序产品,当该计算机程序产品在计算机中执行时,令计算机执行如第一方面描述的方法。
本说明书实施例提供的方案,可以由移动设备利用其包括的图像采集装置,确定AR场景对应的真实场景中的至少一个物体到该移动设备的第一距离,并在确定出的各个第一距离中的最小距离低于距离阈值时,在该AR场景中进行提示。由此,能在用户走到真实场景中的物体旁边时自动在AR场景中进行提示,从而避免用户沉浸在AR场景中时碰撞到真实场景中的物体。
附图说明
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本说明书实施例可以应用于其中的一个应用场景的示意图;
图2是本说明书实施例中基于AR场景的防碰撞方法的流程图;
图3是本说明书实施例中测距过程的示意图;
图4是本说明书实施例中测距子过程的示意图;
图5是本说明书实施例中在AR场景中展示的提示信息的示意图;
图6是本说明书实施例中基于AR场景的防碰撞方法的流程图;
图7是本说明书实施例中基于AR场景的防碰撞装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
如前所述,用户可以使用包括图像采集装置的移动设备(如智能手机等)加载AR场景,并通过拿着该移动设备走动而实现在该AR场景中游走。在用户在AR场景中游走的过程中,用户周围的真实场景中可能存在大件物体,例如墙、桌子、椅子和/或柜子等,当用户沉浸在AR场景中时,可能会碰撞到真实场景中的大件物体。
本说明书实施例提供了一种基于AR场景的防碰撞方法,能在用户走到真实场景中的物体旁边时自动在AR场景中进行提示,从而避免用户沉浸在AR场景中时碰撞到真实场景中的物体。
参看图1,其是本说明书实施例可以应用于其中的一个应用场景的示意图。在图1所示的应用场景中,可以包括用户的移动设备101,及移动设备101包括的图像采集装置102(例如后置摄像头)。其中,移动设备101可以为智能手机或平板电脑等电子设备。
在图1所示的应用场景中,用户可以使用移动设备101加载AR场景,并在该AR场景的空间里面游走。移动设备101可以利用图像采集装置102,确定该AR场景对应的真实场景中的至少一个物体(例如图1中示意性示出的墙)到移动设备101的距离。以该至少一个物体为图1中示出的墙为例,当墙到移动设备101的距离低于距离阈值时,移动设备101可以在该AR场景中进行提示,以避免用户真的撞到墙上。
下面,结合具体的实施例,介绍本说明书实施例提供的基于AR场景的防碰撞方案。
参看图2,其是本说明书实施例中基于AR场景的防碰撞方法的流程图。该方法可由如图1中所示的移动设备101执行。
如图2所示,在步骤S201,利用图像采集装置102,确定AR场景对应的真实场景中的至少一个物体到移动设备101的第一距离。
其中,AR场景对应的真实场景可以是当前位于用户前方的真实场景。步骤S201可以在检测到移动设备101发生移动之后执行,或者每隔预定间隔时长执行一次。该预定间隔时长可以根据实际需求配置,在此不做具体限定。
在利用图像采集装置102确定AR场景对应的真实场景中的至少一个物体到移动设备101的第一距离时,可以采用各种测距方法。
具体地,在一种实施方式中,图像采集装置102可以包括深度摄像头,深度摄像头可以捕捉拍摄对象的深度信息,该深度信息可以包括拍摄对象到深度摄像头的距离。基于此,可以利用深度摄像头对AR场景对应的真实场景进行拍摄,从深度摄像头获取基于本次拍摄而产生的深度信息,之后基于该深度信息,确定该真实场景中的至少一个物体到移动设备101的第一距离。以该至少一个物体为如图1中所示的墙为例,当该深度信息包括一个距离值时,可以将该距离值确定为墙到移动设备101的第一距离。
在另一种实施方式中,可以通过执行如图3所示的测距过程,确定AR场景对应的真实场景中的至少一个物体到移动设备101的第一距离。其中,图3是本说明书实施例中测距过程的示意图。
如图3所示,在步骤S301,利用图像采集装置102采集AR场景对应的真实场景的第一图像。
具体地,移动设备101可以控制图像采集装置102对AR场景对应的真实场景进行拍摄,从而得到第一图像。
在步骤S303,对第一图像进行物体检测得到第一检测结果,第一检测结果包括至少一个物体各自在第一图像中的位置信息。
其中,该位置信息例如可以包括但不限于其对应的物体的中心点坐标。可选地,第一检测结果还可以包括上述至少一个物体各自归属的物体类别。单个物体类别例如可以为墙、桌子、椅子和柜子等中的任一项。
在一种实施方式中,在对第一图像进行物体检测时,例如可以对第一图像进行轮廓提取,将提取出的各个轮廓分别与预设的物体轮廓集合中的物体轮廓进行匹配,以确定该各个轮廓是否为物体轮廓。对于该各个轮廓中的任一轮廓,当确定该任一轮廓为物体轮廓时,可以基于第一图像中的该任一轮廓,确定该任一轮廓对应的物体的位置信息,并将该位置信息归入第一检测结果。进一步地,物体轮廓集合中的物体轮廓可以对应物体类别,可以将物体轮廓集合中与该任一轮廓相匹配的物体轮廓对应的物体类别确定为该任一轮廓对应的物体归属的物体类别,并将该物体的位置信息和所归属的物体类别对应归入第一检测结果。
在另一种实施方式中,可以利用预训练的物体检测模型对第一图像进行物体检测,得到第一检测结果。例如,可以将第一图像输入物体检测模型,使得物体检测模型对第一图像进行物体检测,并输出第一检测结果。需要说明,物体检测模型可以位于移动设备101中,或者位于与移动设备101通信的服务器中,在此不做具体限定。
在步骤S305,基于图像采集装置102的参数信息和第一检测结果,确定上述至少一个物体到移动设备101的第一距离。
具体地,在一种实施方式中,图像采集装置102的参数信息可以包括焦距、第一位置和第二位置,第一位置为图像采集装置102在采集第一图像时所处的位置,第二位置为图像采集装置102在采集第二图像时所处的位置,第二图像为第一图像的上一张图像。需要说明,图像采集装置102的焦距可以是标定的;移动设备101还可以包括陀螺仪,第一位置和第二位置可以是从陀螺仪中读取的。在步骤S305中,可以执行如图4所示的子步骤S3051-S3059。其中,图4是本说明书实施例中测距子过程的示意图。
如图4所示,在子步骤S3051,确定第一位置和第二位置之间的第二距离;其中,第一位置为图像采集装置102在采集第一图像时所处的位置,第二位置为图像采集装置102在采集第二图像时所处的位置,第二图像为第一图像的上一张图像。
假设第一位置的坐标为(x1,y1,z1),第二位置的坐标为(X2,y2,z2),第一位置和第二位置之间的第二距离B可以通过如下所示的公式(1)计算得到:
在子步骤S3053,获取第二图像对应的第二检测结果,第二检测结果包括第二图像中的物体的位置信息。
具体地,移动设备101在对第二图像进行物体检测后,可以缓存第二图像对应的第二检测结果,移动设备101可以从本地获取第二检测结果。
在子步骤S3055,对于第一图像示出的至少一个物体中的任一物体,基于该任一物体在第一图像中的位置信息和第二检测结果,确定该任一物体是否包含在第二图像中。
作为示例,可以基于上述任一物体在第一图像中的位置信息获取上述任一物体的轮廓,以及基于第二检测结果包括的物体的位置信息获取第二图像中的物体的轮廓,通过将上述任一物体的轮廓与第二图像中的物体的轮廓进行匹配,可以确定上述任一物体是否包含在第二图像中。
在子步骤S3057,响应于确定上述任一物体包含在第二图像中,基于上述任一物体在第一图像和第二图像中的位置信息确定视差值。
具体地,可以基于上述任一物体在第一图像和第二图像中的中心点坐标确定视差值。以上述任一物体在第一图像中的中心点坐标为(x3,y3),在第二图像中的中心点坐标为(x4,y4)为例,可以基于x3和x4确定视差值,例如将x3和x4的差值确定为视差值;或者,可以基于y3和y4确定为视差值,例如将y3和y4的差值确定为视差值。
在子步骤S3059,基于焦距、第二距离和视差值,确定上述任一物体到移动设备101的第一距离。
具体地,以焦距为f,第二距离为B,基于上述任一物体在第一图像和第二图像中的中心点坐标而确定视差值为d为例,上述任一物体到移动设备101的第一距离Z可以通过如下所示的公式(2)计算得到:
需要说明,公式(2)可以根据三角形相似原理推理得到。三角形相似原理简单来说就是当两个三角形之间相似时,其周长、面积、体积等存在一定的关系。由于三角形相似原理是公知技术,在此不再过多赘述。另外,图4所示的测距子过程可以适用于图像采集装置102为单目摄像头的情况。
在另一种实施方式中,图像采集装置102可以为双目摄像头,第一图像可以为两张图像,图像采集装置102的参数信息可以包括焦距f和双目摄像头的中心距B,中心距B可以为双目摄像头中的两个摄像头的光心的距离。其中,焦距f和中心距B可以是标定的。在这样的情况下,在步骤S305中,可以基于上述至少一个物体中的任一物体在该两张图像中的位置信息确定视差值d,之后利用与上述公式(2)类似的公式,基于焦距f、中心距B和视差值d,计算该任一物体到移动设备101的第一距离Z。需要说明,当该两个摄像头横向排列时,可以基于该任一物体在该两张图像中的中心点坐标的横坐标值确定视差值d。当该两个摄像头纵向排列时,可以基于该任一物体在该两张图像中的中心点坐标的纵坐标值确定视差值d。
前文中介绍了多种测距方法。应该理解,具体采用的测距方法可以根据实际需求设计,在此不做具体限定。
继续参看图2,在步骤S203,对于确定出的各个第一距离中的最小距离,响应于最小距离低于距离阈值,在AR场景中进行提示。
作为一个示例,可以在AR场景中展示提示信息,该提示信息可以用于提示用户快要撞到物体。例如,移动设备101可以在AR场景中展示如图5中标号501指向的提示信息“亲,您快要撞到物体了,请小心哦!”其中,图5是本说明书实施例中在AR场景中展示的提示信息的示意图。应该理解,该提示信息的内容是示例性内容,具体的提示内容可根据实际需求设计,在此不做具体限定。
进一步地,第一检测结果还可以包括上述至少一个物体各自归属的物体类别。在AR场景中展示的提示信息可以示出上述最小距离对应的物体归属的物体类别。以上述至少一个物体为如图1中所示的墙为例,上述最小距离为墙到移动设备101的距离,在上述最小距离低于距离阈值时,在AR场景中例如可以展示提示信息“亲,您快要撞到墙了,请小心哦!”
图2对应的实施例提供的方案,可以由移动设备利用其包括的图像采集装置,确定AR场景对应的真实场景中的至少一个物体到该移动设备的第一距离,并在确定出的各个第一距离中的最小距离低于距离阈值时,在该AR场景中进行提示。由此,能在用户走到真实场景中的物体旁边时自动在AR场景中进行提示,从而避免用户沉浸在AR场景中时碰撞到真实场景中的物体。
实践中,在AR场景中进行提示时,除了采用展示提示信息的提示方式外,还可以采用其他的提示方式。例如,由于刚体模型具有碰撞效果,用户在AR场景中无法穿过刚体模型,因而可以通过采用在AR场景中展示刚体模型的方式来达到进行提示的目的。
具体地,参看图6,其是本说明书实施例中基于AR场景的防碰撞方法的流程图。该方法可由移动设备101执行。
如图6所示,在步骤S601,利用图像采集装置102,确定AR场景对应的真实场景中的至少一个物体到移动设备101的第一距离。
其中,关于步骤S601的解释,可参考前文中对步骤S201的相关说明,在此不再赘述。
在步骤S603,对于确定出的各个第一距离中的最小距离,响应于最小距离低于距离阈值,获取目标刚体模型。
具体地,在一种实施方式中,可以获取预设的适用于不同物体的通用刚体模型,并将该通用刚体模型确定为目标刚体模型。其中,该通用刚体模型可以是一个简单的三维模型,其形状例如可以是正方体或长方体等。
在另一种实施方式中,在第一检测结果包括上述至少一个物体各自归属的物体类别的情况下,该物体类别可以包含在预设的物体类别集合中,该物体类别集合中的物体类别可以被预设有对应的物体刚体模型,该物体刚体模型的形状可以基于该物体类别的物体的形状而确定。基于此,可以获取针对上述最小距离对应的物体归属的物体类别预设的物体刚体模型,并将该物体刚体模型确定为目标刚体模型。
在步骤S605,在AR场景中展示目标刚体模型。
需要说明,目标刚体模型的展示位置可以与上述最小距离有关。具体地,可以基于上述最小距离在AR场景中确定渲染位置,并在AR场景中的该渲染位置处渲染目标刚体模型。其中,用户在AR场景中到该渲染位置的距离例如可以与上述最小距离相同。
在图6对应的实施例提供的方案中,可以由移动设备利用其包括的图像采集装置确定AR场景对应的真实场景中的至少一个物体到移动设备的第一距离,并在确定出的各个第一距离中的最小距离低于距离阈值时,获取目标刚体模型,以及在AR场景中展示目标刚体模型。由此,能在用户走到真实场景中的物体旁边时,把物体自动生成刚体模型放到AR场景中,以对用户进行提示,从而避免用户沉浸在AR场景中时碰撞到真实场景中的物体。
图7是本说明书实施例中基于AR场景的防碰撞装置的结构示意图。该装置可以应用于包括图像采集装置的移动设备,并且可以执行如图2至图4、图6所示的方法。该装置可以包括:确定单元701,被配置成利用图像采集装置,确定AR场景对应的真实场景中的至少一个物体到移动设备的第一距离;提示单元702,被配置成对于确定出的各个第一距离中的最小距离,响应于该最小距离低于距离阈值,在AR场景中进行提示。
本说明书实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,其中,当该计算机程序在计算机中执行时,令计算机执行如图2至图4、图6所示的方法。
本说明书实施例还提供了一种计算设备,包括存储器和处理器,其中,该存储器中存储有可执行代码,该处理器执行该可执行代码时,实现如图2至图4、图6所示的方法。
本说明书实施例还提供了一种计算机程序产品,其中,当该计算机程序产品在计算机中执行时,令计算机执行如图2至图4、图6所示的方法。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为服务器系统。当然,本申请不排除随着未来计算机技术的发展,实现上述实施例功能的计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
虽然本说明书一个或多个实施例提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或终端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。例如若使用到第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本发明是参照根据本发明实施例的方法、装置(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储、石墨烯存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
本领域技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
以上所述仅为本说明书一个或多个实施例的实施例而已,并不用于限制本说明书一个或多个实施例。对于本领域技术人员来说,本说明书一个或多个实施例可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在权利要求范围之内。

Claims (12)

1.一种基于AR场景的防碰撞方法,由包括图像采集装置的移动设备执行,所述方法包括:
利用所述图像采集装置,确定AR场景对应的真实场景中的至少一个物体到所述移动设备的第一距离;
对于确定出的各个第一距离中的最小距离,响应于所述最小距离低于距离阈值,在所述AR场景中进行提示。
2.根据权利要求1所述的方法,其中,所述在所述AR场景中进行提示,包括:
在所述AR场景中展示提示信息,所述提示信息用于提示所述用户快要撞到物体。
3.根据权利要求1所述的方法,其中,所述在所述AR场景中进行提示,包括:
获取目标刚体模型;
在所述AR场景中展示所述目标刚体模型。
4.根据权利要求3所述的方法,其中,所述获取目标刚体模型,包括:
获取预设的适用于不同物体的通用刚体模型,并将所述通用刚体模型确定为目标刚体模型。
5.根据权利要求3所述的方法,其中,所述在所述AR场景中展示所述目标刚体模型,包括:
基于所述最小距离,在所述AR场景中确定渲染位置;
在所述AR场景中的所述渲染位置处渲染所述目标刚体模型。
6.根据权利要求1所述的方法,其中,所述利用所述图像采集装置,确定AR场景对应的真实场景中的至少一个物体到所述移动设备的第一距离的步骤,在检测到所述移动设备发生移动之后执行,或者每隔预定间隔时长执行一次。
7.根据权利要求1-6之一所述的方法,其中,所述利用所述图像采集装置,确定AR场景对应的真实场景中的至少一个物体到所述移动设备的第一距离,包括:
利用所述图像采集装置采集所述真实场景的第一图像;
对所述第一图像进行物体检测得到第一检测结果,所述第一检测结果包括所述至少一个物体各自在所述第一图像中的位置信息;
基于所述图像采集装置的参数信息和所述第一检测结果,确定所述至少一个物体到所述移动设备的第一距离。
8.根据权利要求7所述的方法,其中,所述对所述第一图像进行物体检测得到第一检测结果,包括:
利用预训练的物体检测模型对所述第一图像进行物体检测,得到第一检测结果。
9.根据权利要求7所述的方法,其中,所述参数信息包括焦距、第一位置和第二位置,所述第一位置为所述图像采集装置在采集所述第一图像时所处的位置,所述第二位置为所述图像采集装置在采集第二图像时所处的位置,所述第二图像为所述第一图像的上一张图像;以及
所述基于所述图像采集装置的参数信息和所述第一检测结果,确定所述至少一个物体到所述移动设备的第一距离,包括:
确定所述第一位置和所述第二位置之间的第二距离;
获取所述第二图像对应的第二检测结果,所述第二检测结果包括所述第二图像中的物体的位置信息;
对于所述至少一个物体中的任一物体,基于所述任一物体在所述第一图像中的位置信息和所述第二检测结果,确定所述任一物体是否包含在所述第二图像中;
响应于确定所述任一物体包含在所述第二图像中,基于所述任一物体在所述第一图像和所述第二图像中的位置信息确定视差值;
基于所述焦距、所述第二距离和所述视差值,确定所述任一物体到所述移动设备的第一距离。
10.一种基于AR场景的防碰撞装置,应用于包括图像采集装置的移动设备,所述装置包括:
确定单元,被配置成利用所述图像采集装置,确定AR场景对应的真实场景中的至少一个物体到所述移动设备的第一距离;
提示单元,被配置成对于确定出的各个第一距离中的最小距离,响应于所述最小距离低于距离阈值,在所述AR场景中进行提示。
11.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-9中任一项所述的方法。
12.一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-9中任一项所述的方法。
CN202311213944.2A 2023-09-19 2023-09-19 基于ar场景的防碰撞方法及装置 Pending CN117270688A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311213944.2A CN117270688A (zh) 2023-09-19 2023-09-19 基于ar场景的防碰撞方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311213944.2A CN117270688A (zh) 2023-09-19 2023-09-19 基于ar场景的防碰撞方法及装置

Publications (1)

Publication Number Publication Date
CN117270688A true CN117270688A (zh) 2023-12-22

Family

ID=89220771

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311213944.2A Pending CN117270688A (zh) 2023-09-19 2023-09-19 基于ar场景的防碰撞方法及装置

Country Status (1)

Country Link
CN (1) CN117270688A (zh)

Similar Documents

Publication Publication Date Title
CN117372631B (zh) 一种多视角图像生成模型的训练方法、应用方法
JP2021527877A (ja) 3次元人体姿勢情報の検出方法および装置、電子機器、記憶媒体
JP6945639B2 (ja) 画像処理方法及び装置
CN109829937A (zh) 使用遮挡来检测并跟踪三维对象
CN116977525B (zh) 一种图像渲染方法、装置、存储介质及电子设备
CN111238450A (zh) 视觉定位方法及装置
WO2021046793A1 (zh) 图像采集方法、装置及存储介质
US20180240264A1 (en) Information processing apparatus and method of generating three-dimensional model
CN115880685B (zh) 一种基于votenet模型的三维目标检测方法和系统
CN116309823A (zh) 一种位姿的确定方法、装置、设备及存储介质
CN116245961B (zh) 一种基于多类传感器信息的融合感知方法及系统
CN117270688A (zh) 基于ar场景的防碰撞方法及装置
CN116740114B (zh) 一种基于凸包检测的目标物边界拟合方法及装置
CN117726907B (zh) 一种建模模型的训练方法、三维人体建模的方法以及装置
CN115862668B (zh) 机器人基于声源定位判断交互对象的方法和系统
CN116152299B (zh) 一种运动状态的检测方法、装置、存储介质及电子设备
CN114663362B (zh) 一种融合方法、装置以及设备
CN117893696B (zh) 一种三维人体数据生成方法、装置、存储介质及电子设备
JP7459357B1 (ja) 画像認識方法、装置、デバイスおよび記憶媒体
CN117911630B (zh) 一种三维人体建模的方法、装置、存储介质及电子设备
CN117876610B (zh) 针对三维构建模型的模型训练方法、装置、存储介质
CN117726760B (zh) 一种用于视频的三维人体重建模型的训练方法及装置
CN116309924B (zh) 一种模型训练的方法、图像展示的方法及装置
CN117893692B (zh) 一种基于对称视图的三维重建方法、装置及存储介质
CN116740197B (zh) 一种外参的标定方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination