CN108404402B - 用于防止主体间冲突的方法和设备 - Google Patents
用于防止主体间冲突的方法和设备 Download PDFInfo
- Publication number
- CN108404402B CN108404402B CN201810244879.2A CN201810244879A CN108404402B CN 108404402 B CN108404402 B CN 108404402B CN 201810244879 A CN201810244879 A CN 201810244879A CN 108404402 B CN108404402 B CN 108404402B
- Authority
- CN
- China
- Prior art keywords
- user
- image
- application
- subject
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
提供一种用于防止主体间冲突的方法和设备。该设备包括:输出单元,被配置为向显示设备发送第一图像和第二图像,其中,第一图像是基于参与该计算机游戏的第一用户的形态而生成的,第二图像是基于参与该计算机游戏的第二用户的形态而生成的;以及控制单元,被配置为预测第一用户与第二用户之间冲突的可能性,并根据该预测的结果,控制通过所述输出单元向所述显示设备发送指示所述冲突的可能性的警告信息。
Description
本申请是申请日为2015年3月17日,申请号为“201580000721.5”,发明名称为“用于防止主体间冲突的方法和设备”的发明专利申请的分案申请。
技术领域
本申请涉及一种用于防止主体间冲突的方法和设备。
背景技术
已经开发这样的计算机游戏:该计算机游戏是基于参与该计算机游戏的用户的手势而被执行的。例如,已经开发在其中根据用户的活动来确定任务是否完成的计算机游戏。
发明内容
技术问题
当正在执行计算机游戏时,根据用户的活动,该用户可能与位置靠近该用户的另一用户或被布置为靠近该用户的事物冲突。
技术方案
需要开发用于防止参与计算机游戏的用户与另一用户或事物冲突的方法和装置。
有益效果
装置100或用于执行内容的设备101可基于每个主体的形态信息而确定包含各主体能达到的点的活动范围,并预测这些主体是否会相互冲突。因此,装置100或用于执行内容的设备101可预先防止主体间冲突。此外,如果预测主体间会相互冲突,则装置100或用于执行内容的设备101可生成警告信息或暂停执行内容。
此外,还能通过在介质(例如计算机可读介质)中/上的计算机可读代码/指令来实现其它实施例,以控制至少一个处理元件来实现上述任何实施例。该介质可对应于允许存储和/或传输该计算机可读代码的任何介质/媒介。
附图说明
从以下结合附图所作的描述中,本公开的某些实施例的以上和其它方面、特征和优点将会更清楚,其中:
图1A和图1B示出的是显示根据本公开的实施例的防止多个主体间冲突的方法的例子的概念图;
图1C示出的是示出根据本公开的实施例的用于执行内容的设备与用于输出图像和声音的设备相互独立地并存的例子的配置图;
图1D示出的是用于说明根据本公开的实施例的由服务器执行的运行内容的例子的示意图;
图2示出的是显示根据本公开的实施例的防止多个主体间冲突的方法的例子的流程图;
图3示出的是用于说明根据本公开的实施例的由装置获取主体的形态信息的例子的示意图;
图4A和图4B示出的是用于说明根据本公开的实施例的由装置执行的获取用户的形态信息的例子的示意图;
图5示出的是显示根据本公开的实施例的在装置的屏幕上输出用户的形态信息的例子的示意图;
图6A和图6B示出的是用于说明根据本公开的实施例的由装置执行的添加客体的例子的示意图;
图7A和图7B示出的是用于说明根据本公开的实施例的由装置执行的删除客体的例子的示意图;
图8示出的是显示根据本公开的实施例的向装置的屏幕输出主体的活动范围的例子的示意图;
图9A、图9B和图9C示出的是用于说明根据本公开的实施例的由装置执行的基于用户输入的设置信息确定主体的活动范围的例子的示意图;
图10A和10B示出的是用于说明根据本公开的实施例的由装置执行的确定主体的活动范围的例子的示意图;
图11示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息的例子的示意图;
图12示出的是显示根据本公开的实施例的向装置的屏幕输出多个用户中每一个用户的形态信息和活动范围的例子的示意图;
图13A示出的是显示根据本公开的实施例的在装置的屏幕上输出多个客体的例子的示意图;
图13B示出的是显示根据本公开的实施例的装置不执行内容的例子的示意图;
图14A和图14B示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息并确定所述多个主体的活动范围的例子的示意图;
图15A和图15B示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息并确定所述多个主体的活动范围的例子的示意图;
图16A和图16B示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息并确定所述多个主体的活动范围的例子的示意图;
图17示出的是示出根据本公开的实施例的由装置执行的获取主体的形态信息并确定该主体的活动范围的例子的流程图;
图18示出的是用于说明根据本公开的实施例的由装置执行的基于主体的形态信息和移动路径确定该主体的活动范围的例子的示意图;
图19示出的是用于说明根据本公开的实施例的由装置执行的预测第一主体与第二主体是否会相互冲突的例子的流程图;
图20A、图20B和图20C是用于说明根据本公开的实施例的由装置执行的将主体间的最短距离与预定的距离值相比较的例子的示意图;
图21A、图21B和图21C示出的是显示根据本公开的实施例的在装置确定主体会相互冲突的情况下输出到该装置的屏幕的图像的例子的示意图;
图21D示出的是显示根据本公开的实施例的在暂停执行内容后由装置执行的恢复执行内容的例子的示意图;
图22示出的是用于说明根据本公开的实施例的由装置执行的将主体间的最短距离与预定的距离值相比较的例子的示意图;
图23A、图23B和图23C示出的是显示根据本公开的实施例的在装置确定用户会相互冲突的情况下输出到该装置的屏幕的图像的例子的示意图;
图24示出的是用于说明根据本公开的实施例的由装置执行的设置安全区或危险区的例子的示意图;
图25示出的是用于说明根据本公开的实施例的在主体超出安全区或主体进入危险区的情况下由装置执行的输出警告信息的例子的示意图;
图26示出的是用于说明根据本公开的实施例的由装置执行的指定危险事物的例子的示意图;
图27示出的是用于说明根据本公开的实施例的在主体靠近危险事物的情况下由装置执行的输出警告信息的例子的示意图;
图28示出的是用于说明根据本公开的实施例的由装置执行的向另一装置发送警告信息的例子的示意图;
图29是根据本公开的实施例的装置的例子的框图;
图30是根据本公开的实施例的装置的例子的框图;以及
图31是根据本公开的实施例的用于执行内容的系统的例子的框图。
贯穿附图,应注意,同样的附图标号被用于描述相同或相似的元件、特征和结构。
具体实施方式
最佳模式
本公开的各方面将解决至少上述问题和/或缺点并提供至少下述优点。因此,本公开的一个方面在于提供用于防止主体间冲突的方法和设备。
本公开的另一方面在于提供非暂时性计算机可读记录存储介质,其上存储有计算机程序,该计算机程序在被计算机执行时执行所述方法。
附加的方面将部分地在随后的描述中被阐述,部分地将从描述中变得清楚,或者可通过所提出的各种实施例的实践而被获知。
根据本公开的一个方面,提供一种用于执行计算机游戏的设备。该设备包括:输出单元,被配置为向显示设备发送第一图像和第二图像,其中,第一图像是基于参与该计算机游戏的第一用户的形态而生成的,第二图像是基于参与该计算机游戏的第二用户的形态而生成的;以及控制单元,被配置为预测第一用户与第二用户之间冲突的可能性,并根据该预测的结果,控制通过所述输出单元向所述显示设备发送指示所述冲突的可能性的警告信息。
该控制单元可确定第一区域,第一区域包含随着第一用户在一定区域中活动第一用户的一部分能达到的最远点;以及该控制单元可确定第二区域,第二区域包含随着第二用户在一定区域中活动第二用户的一部分能达到的最远点。
如果第一区域与第二区域相互交叠,则该控制单元可确定存在第一用户与第二用户之间冲突的可能性。
该控制单元可预测第一用户的移动路径和第二用户的移动路径,并通过还考虑所预测的第一用户和第二用户的移动路径来确定第一区域和第二区域。
所述移动路径可以是基于所述计算机游戏的详情而被预测的。
第一图像和第二图像可均包括由外部相机生成的图像。
该警告信息可包括从外部显示设备输出的图像或者从外部显示设备输出的声音。
如果确定存在第一用户与第二用户之间冲突的可能性,则该控制单元可暂停执行所述计算机游戏。
根据本公开的另一个方面,提供一种执行计算机游戏的方法。该方法包括:基于参与该计算机游戏的第一用户的形态来生成第一图像;基于参与该计算机游戏的第二用户的形态来生成第二图像;向显示设备发送第一图像和第二图像;预测第一用户与第二用户之间冲突的可能性;以及基于预测的结果,向所述显示设备发送指示所述冲突的可能性的警告信息。
该方法还可包括:确定第一区域,其中,第一区域包含随着第一用户在一定区域中活动第一用户的一部分能达到的最远点;以及确定第二区域,其中,第二区域包含随着第二用户在一定区域中活动第二用户的一部分能达到的最远点。
生成警告信息的步骤可包括:如果第一区域与第二区域相互交叠,则生成所述警告信息。
该方法还可包括预测第一用户的移动路径,其中,确定第一区域的步骤包括通过还考虑所预测的移动路径来确定第一区域。
所述移动路径可以是基于所述计算机游戏的详情而被预测的。
第一图像和第二图像可均包括由外部相机生成的图像。
该警告信息可包括从外部显示设备输出的图像或者从外部显示设备输出的声音。
该方法还可包括:如果确定存在第一用户与第二用户之间冲突的可能性,则暂停执行所述计算机游戏。
根据本公开的一个方面,提供一种用于执行计算机游戏的设备。该设备包括:输出单元,被配置为向显示设备发送第一图像和第二图像,其中,第一图像是基于参与该计算机游戏的用户的形态而生成的,第二图像是基于位置靠近该用户的至少一个主体的形态而生成的;以及控制单元,被配置为预测该用户与主体之间冲突的可能性,并根据该预测的结果,控制通过所述输出单元向所述显示设备发送指示所述冲突的可能性的警告信息。
根据本公开的一个方面,提供一种用于执行计算机游戏的设备。该设备包括:输出单元,被配置为向显示设备发送第一图像和第二图像,其中,第一图像是基于参与该计算机游戏的用户的形态而生成的,第二图像是基于位置靠近该用户的至少一个主体的形态而生成的;以及控制单元,被配置为基于外部输入信息来设置危险区,并且在该控制单元确定该用户进入该危险区时,控制通过所述输出单元向所述显示设备发送指示该用户进入危险区的可能性的警告信息。
根据本公开的一个方面,提供一种用于执行计算机游戏的设备。该设备包括:输入单元,被配置为接收图像信号的输入;以及控制单元,被配置为:控制设置与第一客体对应的第一区域和与第二客体对应的第二区域,其中,第一客体和第二客体包含在所述图像信号中;测量第一区域与第二区域之间的距离;如果所测量的距离的值小于预定值,则输出预定消息。
第一区域可包含随着第一主体在一定场所中活动第一主体的一部分能达到的最远点,其中,第一主体对应于第一客体;第二区域可包含随着第二主体在一定场所中活动第二主体的一部分能达到的最远点,其中,第二主体对应于第二客体。
该控制单元可预测第一主体的移动路径和第二主体的移动路径,并通过还考虑所预测的移动路径来确定第一区域和第二区域。
所述移动路径可以是基于所述计算机游戏的详情而被预测的。
如果所测量的距离的值小于预定值,则该控制单元可暂停执行所述计算机游戏。
从以下结合附图公开本公开的各种实施例的详细描述中,本公开的其它方面、优点和突出特征将对本领域技术人员而言变得清楚。
具体模式
提供参照附图的以下描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。虽然以下描述包括各种特定细节以帮助所述理解,但是这些特定细节将被认为仅仅是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可做出在此描述的各种实施例的各种改变和修改。此外,为了清晰和简洁,公知的功能和构造的描述可被省略。
在以下描述和权利要求中使用的术语和词汇不限于文献含义,而仅被发明人用于实现对本公开的清晰和一致的理解。因此,对本领域技术人员而言应该清楚的是:提供本公开的各种实施例的以下描述仅用于例示目的而并非为了限制由所附权利要求及其等同物限定的本公开的目的。
将理解:除非上下文清晰地另有指示,否则单数形式包括复数的指示物。因此,例如,引用“组件表面”包括引用一个或多个这样的表面。
这里使用的术语将被简要描述,而发明构思将在下面被更详细描述。
考虑到发明构思中提供的功能而在这里采用通用和广泛使用的术语,这些术语可根据本领域普通技术人员的意图、先例或新技术的出现而改变。另外,在一些情况下,申请人可任意地选择特定术语。那么,申请人将在对发明构思的描述中提供这些术语的含义。因此,应该理解:在这里使用的术语应被理解为具有与它们在相关技术的语境中的含义一致的含义并且将不在理想化或过分正式的意义上被解读,除非在此被如此明确限定。
还将理解:当在这里使用时,术语“包括”和/或“具有”说明存在组件,但是并不排除存在或添加一个或多个其它组件,除非另有说明。此外,在这里使用的术语诸如“单元”或“模块”等表示用于处理至少一个功能或操作的实体。这些实体可由硬件、软件或硬件与软件的组合来实现。
在这里使用的“装置”指包含在某个设备中并达到某种目的的元件。更详细地,某个设备可没有限制地包含在发明构思的实施例中,该设备包含可执行显示的屏幕和用于接收用户输入的信息的接口,接收用户的输入,因而达到某种目的。
现在将参照附图更全面地描述发明构思,在附图中示出了发明构思的各种实施例。然而,可按照许多不同形式来实施发明构思,并且不应该将发明构思理解为限于在此阐述的实施例。在对发明构思的描述中,当认为对相关技术的某些详细解释会不必要地模糊发明构思的实质时,可省略所述详细解释。贯穿对附图的说明,同样的附图标号表示同样的元件。
图1A和图1B示出的是显示根据本公开的实施例的防止多个主体间冲突的方法的例子的概念图。
参见图1A和图1B,示出了位于装置100前方的人或事物120和121、以及客体110和111,其中,在使用包含在装置100中的相机拍摄人或事物120和121并输出到装置100的屏幕的时候获取客体110和111。在下文中,客体110和111分别指的是显示输出到装置100的屏幕的人或事物120和121的图像110和111。此外,在下文中,主体120或121指人或事物120或121。换句话说,相机拍摄主体120或121,作为主体120或121的图像的客体110或111被输出到装置100的屏幕。为便于描述,在图1A和图1B中描述客体110和111是由装置100执行的内容的用户的图像,但客体110和111并不限于此。
主体可以是参与内容的用户或者不参与内容的人或事物。客体110可以是通过拍摄使用内容的人而获取的图像或者通过拍摄不使用内容的人而获取的图像。此外,客体110可以是通过拍摄人拥有的事物或者在人所位于的空间中放置的事物而获取的图像。这里,事物可对应于动物、植物或者布置在空间中的家具。内容指可被控制以识别用户的活动的程序。例如,内容可以是在用户做某种活动时执行的计算机游戏(诸如跳舞游戏、运动游戏等),或者是将用户的活动输出到装置100的屏幕的程序。
如果假设执行计算机游戏,客体110和111两者可都是参与该计算机游戏的用户的图像。或者,客体110和111中的一个可以是参与该计算机游戏的用户的图像,另一个可以是不参与该计算机游戏的人的图像或者可以是事物的图像。作为一个例子,如果假设正在执行跳舞游戏,客体110和111可分别是一起享受该跳舞游戏的用户的图像。作为另一个例子,客体110和客体111中的一个可以是享受该跳舞游戏的用户的图像,另一个可以是靠近该用户并观看该用户玩的跳舞游戏的人的图像。作为另一个例子,客体110和111中的一个可以是用户的图像,另一个可以是经过该用户旁边的人或动物的图像或者被放置为靠近该用户的事物的图像。例如,当正在执行跳舞游戏时,多个人中的一些人可被设置为参与该跳舞游戏的人(即用户),其他人可被设置为不参与该跳舞游戏的人(即非用户)。
在下文中,人或动物的图像称为动态客体,不能自主活动或行走的事物或植物的图像称为静态客体。
作为一个例子,所显示的客体可包括参与计算机游戏的第一用户和第二用户的图像。作为另一个例子,客体可包括参与计算机游戏的用户的图像和不参与计算机游戏的人的图像。作为另一个例子,客体可包括参与计算机游戏的用户的图像和靠近该用户的动物的图像。作为另一个例子,客体可包括参与计算机游戏的用户的图像和被放置为靠近该用户的事物(例如家具)的图像。
客体110和111包括参与计算机游戏的第一用户和第二用户的图像的例子在后面参照图11予以描述。客体110和111包括参与计算机游戏的用户的图像和不参与计算机游戏的人的图像的例子在后面参照图14予以描述。此外,客体110和111分别包括参与计算机游戏的用户的图像和靠近该用户的动物的图像的例子在后面参照图15予以描述。客体110和111分别包括参与计算机游戏的用户的图像和被放置为靠近该用户的事物的图像的例子在后面参照图16予以描述。
此外,客体可以是由用户设置的虚拟角色。例如,用户可通过设置内容而生成实际上并不存在的虚拟角色作为客体。
参见图1A,用户120和121在他们相互间隔预定的距离或更远的情况下使用内容。例如,如果假设内容是跳舞游戏,则由于用户120和121相互隔开从而他们不会相互冲突,用户120和121可安全地做某种活动。
参见图1B,由于用户120和121相互靠近(即在预定的距离以内),如果用户120和121中至少一个用户做某种活动,则其他用户120和121可能与该至少一个用户冲突。
这里描述的冲突指用户120和121之间的物理接触。或者,冲突指用户120与位置靠近用户120的另一人、动物、植物或家具接触。换句话说,冲突指用户120的一部分与事物121的一部分接触。作为一个例子,如果一个用户的一部分(诸如他/她的头、手臂、躯干或腿)接触到另一个用户的一部分,则理解为这两个用户相互冲突。作为另一个例子,如果一个用户的一部分(诸如他/她的头、手臂、躯干或腿)接触到桌子,则理解为该用户与桌子相互冲突。
如果主体相互冲突,则与这些主体之一对应的人或动物可能会受伤,或者与所述主体对应的事物可能会被打坏或损坏。因此,装置100可预测主体间冲突的可能性。如果确定主体间冲突的可能性高,则装置100可输出某种警告信息。该警告信息可以是从装置100的屏幕输出的光、颜色或某种图像,或者从包含在装置100中的扬声器输出的声音。此外,如果装置100正在执行内容,则作为警告信息的例子,装置100可停止或暂停执行内容。
根据由装置100输出的警告信息,与客体对应的人或动物可停止活动,因而可防止客体间冲突。
在图1A和图1B中示出装置100执行内容(例如计算机游戏)并输出图像和/或声音,但执行内容并输出图像和声音不限于此。此外,相机可以是与装置100分离的设备,或者可包含在装置100内。此外,用于执行内容的设备与用于输出图像和声音的设备可相互分离地并存。
图1C示出的是示出根据本公开的实施例的用于执行内容的设备与用于输出图像和声音的设备相互独立地并存的例子的配置图。
参见图1C,系统1包括用于执行内容的设备101、显示设备102和相机103。如果假设该内容是计算机游戏,则用于执行内容的设备101指游戏控制台。
相机103捕获参与计算机游戏的用户或者位置靠近该用户的至少一个客体的图像,并将所捕获的图像发送给用于执行内容的设备101。所捕获的图像指显示该用户或该至少一个客体的形态的图像。
用于执行内容的设备101将从相机103发送来的图像发送给显示设备102。此外,如果确定存在主体间冲突的可能性,用于执行内容的设备101生成指示存在所述冲突的可能性的警告信息。此外,用于执行内容的设备101将该警告信息发送给显示设备102。作为一个例子,客体112可包括第一用户120的图像和第二用户121的图像。作为另一个例子,客体112可包括参与计算机游戏的用户120的图像和不参与计算机游戏的人121。作为另一个例子,客体112可包括参与计算机游戏的用户120的图像和位置靠近用户120的动物121的图像。作为另一个例子,客体112可包括参与计算机游戏的用户120和位置靠近用户120的事物121(例如家具)。
显示设备102输出从用于执行内容的设备101发送来的所述图像或警告信息。该警告信息可以是从显示设备102的屏幕输出的光、颜色或某种图像,或者是从包含在显示设备102中的扬声器输出的声音,等等。
如上面参照图1A至图1C所述,内容由装置100或用于执行内容的设备101执行。然而,内容的执行不限于此。换句话说,内容可由服务器执行,装置100或显示设备102可输出该内容的执行屏幕。
图1D示出的是用于说明根据本公开的实施例的由服务器执行内容的例子的示意图。
参见图1D,服务器130可通过网络连接到装置104。用户122请求服务器130执行内容。例如,用户122可通过装置104登录到服务器130,并选择在服务器130中存储的内容以便执行该内容。
在执行内容时,服务器130将待输出的图像发送给装置104。例如,如果内容是计算机游戏,则服务器130可将该计算机游戏的初始设置屏幕或执行屏幕发送给装置104。
装置104或相机105将由相机105捕获的图像发送给服务器130。由相机105捕获的图像(即包括客体113和114的图像)被输出到装置104的屏幕。装置104可组合并输出所述内容的执行屏幕与由相机105捕获的图像。例如,如果所述内容是跳舞游戏,则装置104可将显示要求用户122做的活动的图像与通过拍摄用户122获取的图像一起输出。
图1D中示出的主体123可以是人、动物、植物或事物(例如家具)。换句话说,主体123可以是与用户122一起享受所述内容的另一用户,或者是靠近用户122的人。或者,主体123可以是位置靠近用户122的动物、植物或事物。
当正在执行内容时,如果预测主体122和123会相互冲突,服务器130或装置104可生成警告信号。
作为一个例子,主体122和123之间冲突的可能性可由所述服务器130预测。如果预测主体122和123会相互冲突,服务器130可通知装置104存在主体122和123之间冲突的可能性,装置104可输出警告信号。
作为另一个例子,主体122和123之间冲突的可能性可由装置104预测。换句话说,服务器130可只执行内容,而可由装置104预测主体122和123之间冲突的可能性以及输出警告信号。
在下文中,参照图2至图27描述由装置(例如装置100、装置104等)执行的防止主体间冲突的例子。
图2示出的是显示根据本公开的实施例的防止多个主体间冲突的方法的例子的流程图。
参见图2,防止多个主体间冲突的方法包括多个操作,这些操作由如图29中所示的装置100或如图31中所示的用于执行内容的设备101按时序处理。因此,应该理解,关于图29中所示的装置100或图31中所示的用于执行内容的设备101要提供的描述也可应用于参照图2所述的方法,即使不再提供这些描述也是如此。
在操作210,装置100获取表示第一主体的形态的第一客体和表示第二主体的形态的第二客体。这里描述的形态是主体的外形,包括主体的长度和体积以及主体的形状。作为一个例子,如果假设客体是人的图像,该客体包含指示该人的外形的全部信息,诸如该人的从头到脚的整体形状、身高、腿长度、躯干厚度、手臂厚度、腿厚度等等。作为另一个例子,如果假设客体是椅子的图像,则该客体包含指示该椅子的外形的全部信息,诸如该椅子的形状、高度、腿厚度等等。
作为一个例子,如果假设装置100执行内容,则第一客体指的是使用该内容的一个用户的图像,而第二客体指的是使用该内容的另一个用户的图像或者不使用该内容的主体的图像。如果第二客体是不使用内容的主体的图像,则第二客体指的是或者动态客体或者静态客体。人或动物的图像称为动态客体,不能自主活动或行走的事物或植物的图像称为静态客体。这里描述的内容指的是要求用户的活动的程序。例如,基于用户的活动而执行的游戏可对应于所述内容。
作为另一个例子,如果假设不执行内容,则第一客体和第二客体分别指的是或者动态客体或者静态客体。上面描述了静态客体和动态客体的含义。例如,如果假设装置100被安装在靠近人行横道的位置,则穿过该人行横道行走的行人或在车行道上行驶的车辆的图像可对应于动态客体,位置靠近人行道的障碍物的图像可对应于静态客体。
在下文中描述第一客体和第二客体分别是通过拍摄单个主体(即人、动物、植物或事物)而获取的图像,但第一客体和第二客体不限于此。换句话说,第一客体或第二客体可以是通过将多个客体一起拍摄而获取的图像。
装置100可通过由相机捕获的图像获取第一图像和第二图像。基于第一图像和第二图像,装置100不仅可获取与对应于客体的主体(即人、动物、植物或事物)的实际形态有关的信息(在下文称为形态信息),而且可获取关于所述主体与相机之间的距离的信息以及关于多个主体之间的距离的信息。此外,根据所述相机的类型,装置100可获取关于所述主体和背景的颜色的信息。
例如,所述相机可以是深度相机。深度相机指的是用于生成不仅包含要拍摄的目标的形态而且包含关于空间的三维(3D)信息(换句话说,关于所述要拍摄的目标与相机之间的距离的信息或者关于要拍摄的目标之间的距离的信息)的图像的相机。作为一个例子,深度相机可指立体相机,该立体相机用于通过使用由处在彼此不同的位置的两个相机捕获的图像,生成包含空间的3D信息的图像。作为另一个例子,深度相机可指的是这样的一种相机,该相机用于通过使用射向空间并由该空间内的事物反射回该相机的光的模式,生成包含该空间的3D信息的图像。作为另一个例子,深度相机可以是这样的一种相机,该相机用于基于与射向包含客体的空间并由存在于该空间内的事物反射回该相机的光对应的电荷量,生成包含该空间的3D信息的图像。然而,所述相机不限于此,可没有限制地对应于可捕获包含关于客体的形态和空间的信息的图像的任何相机。
此外,装置100可基于存储单元(例如图30中示出的存储单元2940)中存储的数据,获取对应于主体的主体的形态信息。换句话说,可被预先获取的主体的形态信息可存储在存储单元中。在那种情况下,装置100可读取存储在存储单元中的形态信息。
将参照图3至16提供的描述可对应于在执行内容之前要进行的操作。例如,如果假设内容是计算机游戏,则在下文参照图3至16提供的描述可对应于在开始该计算机游戏之前将要执行的操作。
在下文中,参照图3描述由装置(例如装置100)执行的获取形态信息的例子。
图3示出的是用于说明根据本公开的实施例的由装置执行的获取形态信息的例子的示意图。
参见图3,示出了用户310、装置100和相机320。在下文中,为便于描述,描述了装置100包含用于显示图像的屏幕,而相机320和装置100是相互分离的装置。然而,相机320和装置100不限于此。换句话说,相机320可包含在装置100中。此外,描述了相机320是一种相机,该相机用于通过使用射向包含客体的空间并由该空间内的客体和事物反射回该相机的光而生成图像。然而,如参照图2所述,相机320不限于此。
如果装置100的屏幕和触摸板形成分层结构以构成触摸屏,则该屏幕既可用作输出单元也可用作输入单元。该屏幕可包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、3D显示器和电泳显示器中至少一个。根据该屏幕的实现类型,装置100可包含两个或更多屏幕。所述两个或更多屏幕可通过使用铰链被布置成相互面对。
相机320向包含用户310的空间发射光,并获取由用户310反射的光。然后,相机320通过使用所获取的光生成关于用户310的形态的数据。
相机320将关于用户310的形态的数据发送给装置100,装置100通过使用所发送的数据获取用户310的形态信息。然后,装置100将包含用户310的形态信息的客体输出到装置100的屏幕。这样,用户310的形态信息可被输出到装置100的屏幕。此外,装置100也可通过使用从相机320发送来的数据,获取关于相机320与用户310之间的距离的信息。
在下文中,参照图4描述由装置100执行的通过使用从相机320发送来的数据获取用户310的形态信息的例子。
图4A和4B示出的是用于说明根据本公开的实施例的由装置获取用户的形态信息的例子的示意图。
参见图4A和4B,分别示出了从发送自相机320的数据中提取的数据的例子和通过使用所提取的数据来估计的用户的形态410的例子。在一个实施例中,由装置100进行所述估计。
装置100从发送自相机320的数据中提取预定范围的区域。该预定范围的区域指的是用户所处的区域。换句话说,相机320向空间发射光,然后,如果所发射的光从存在于该空间中的事物(包括用户)被反射并反射回相机320,则相机320通过使用被反射回相机320的光,计算与每个像素对应的深度值。所计算的深度值可表示为与像素对应的点的亮度。换句话说,如果由相机320发射的光从靠近相机320的位置被反射并反射回相机320,则与该位置对应的暗点可被显示。如果由相机320发射的光从远离相机320的位置被反射并返回相机320,与该位置对应的亮点可被显示。因此,装置100可通过使用从相机320发送来的数据(例如与每个像素对应的点),确定位于所述光射向的空间中的事物(包括用户)的形态以及该事物与相机320之间的距离。
装置100可从发送自相机320的数据中提取与用户所处的区域对应的数据,并通过从所提取的数据中消除噪声而获取关于用户的形态的信息。此外,装置100可通过将通过从所提取的数据中消除噪声而获取的数据与在存储单元2940中存储的人的各种姿势相比较,估计表示用户的形态的骨架。此外,装置100可通过使用所估计的骨架来估计用户的形态410,并通过使用所估计的用户的形态410来获取用户的形态信息。
在下文中,参照图5描述输出由装置100获取的用户的形态信息的例子。
图5是示出的是根据本公开的实施例的在装置的屏幕上输出用户的形态信息的例子的示意图。
参见图5,用户的形态信息可被输出到装置100的屏幕510。例如,用户的身高520、手臂长度530、腿长度540可被输出到屏幕510。此外,关于用户的性别550的信息可被输出到屏幕510。用户的性别550可由装置100通过分析从相机320发送来的数据来确定,或者可由用户直接输入。
此外,与用户对应的客体560可被输出到屏幕510。客体560可以是与由相机320获取的数据对应的形态,或者可以是由用户的形态信息生成的虚拟形态。例如,客体560可以是由相机320拍摄的形态,或者可以是通过组合身高520、手臂长度530、腿长度540和性别550而生成的虚拟形态。此外,可基于由用户直接输入的信息来确定客体560的形态。例如,客体560可以是为了在客体560中反映用户的形态信息而生成的游戏角色。
可在屏幕510上显示用于询问用户是否可存储用户的形态信息的图标570。如果身高520、手臂长度530、腿长度540、性别550和客体560中至少一个不应被存储(例如需要修改),则用户选择指示“否”的图标。于是,装置100可再次获取用户的形态信息,相机320可被重新操作。如果用户选择指示“是”的图标,则用户的形态信息被存储在包含在装置100内的存储单元2940中。
如上面参照图3至图5所述,装置100可通过使用从相机发送来的数据来标识用户,并获取所标识的用户的形态信息。装置100也可基于用户输入的信息,添加人或事物或者删除由相机320捕获的主体。换句话说,用户可添加虚拟主体或不包含在由相机320发送的数据中的主体。此外,用户可删除由相机320拍摄并在装置100的屏幕上显示的客体。在下文中,参照图6A至图7B描述由装置100在屏幕上附加显示客体或删除所显示的客体的例子。
图6A和图6B是用于说明根据本公开的实施例的由装置添加客体的例子的示意图。
参见图6A,在装置100的屏幕上示出表示用户的客体610。假设图6A中示出的客体610是内容的用户的图像。
由相机320发送的数据可能不包含关于拍摄空间中的全部信息。换句话说,根据诸如相机320的性能或周围环境之类的影响,相机320可能不生成包含与位于拍摄空间中的人、动物、植物和事物有关的全部信息的数据。用户可任意设置虚拟客体(即表示虚拟主体的图像),装置100可获取关于所设置的虚拟客体的形态信息。
作为一个例子,即使在靠近用户的位置实际上存在狗,由相机320生成的数据也可能不包含关于这条狗的形态的信息。于是,用户可通过包含在装置100内的输入单元(例如输入单元2910)输入狗的形态620,装置100可基于所输入的狗的形态620输出表示狗的客体。在这种情况下,装置100可通过使用表示狗的客体620与表示用户的客体610之间的比例,估计狗的形态信息(例如狗的尺寸或腿长度)。
作为另一个例子,即使在靠近用户的位置实际上不存在椅子,用户也可通过包含在装置100内的输入单元2910输入该椅子的形态630。此外,装置100可基于所输入的该椅子的形态630向屏幕输出表示该椅子的客体。装置100可通过使用表示该椅子的客体630与表示用户的客体610之间的比例,估计该椅子的形态信息(例如该椅子的形状或尺寸)。或者,该装置可输出表示该椅子的简单客体,诸如盒子之类,如图6A中所示。
参见图6B,表示用户的客体610以及由用户添加的客体621和631被输出到装置100的屏幕。装置100可将基于用户输入的信息而添加的客体621和631输出到屏幕。
图7A和图7B示出的是用于说明根据本公开的实施例的由装置执行的删除客体的例子的示意图。
参见图7A,在装置100的屏幕上示出客体710、720和730。假设图7A中示出的客体710是表示内容的用户的客体。
在输出到屏幕的客体中,可能存在对于用户使用内容而言不必要的客体。例如,如果假设内容是跳舞游戏,则在输出到屏幕的客体中,可能存在表示当用户正在做活动时与用户冲突的可能性低的主体的客体。于是,用户可删除表示与用户冲突的可能性低的主体的该客体。
例如,即使桌子和椅子存在于用户附近,由于椅子与用户之间的距离长,因此即使在用户做某种活动时用户与椅子间冲突的可能性也可能非常低。在这种情况下,用户可通过输入单元2910删除表示椅子的客体730。
图7B示出表示用户的客体710以及没有被用户删除的客体720。装置100可不向屏幕输出将基于用户输入的信息而删除的客体730。
返回参见图2,在操作220,装置100通过使用第一主体的形态信息,确定包含第一主体的至少一部分能达到的点的第一区域。此外,在操作230,装置100通过使用第二主体的形态信息,确定包含第二主体的至少一部分能达到的点的第二区域。
例如,如果假设客体是人的图像,则主体的一部分指的是用户身体的一部分,诸如用户的头、躯干、手臂或腿之类。在下文中,为便于描述,包含主体的至少一部分能达到的点的区域被定义为“活动范围”。例如,包含人通过伸展他/她的手臂或腿可达到的全部点的区域可称为“活动范围”。
作为一个例子,主体的活动范围可以是包含当用户在指定区域内保持静止时该用户的一部分可达到的点的区域。作为另一个例子,主体的活动范围可以是包含当用户正在沿着某条路径移动时该用户的一部分可达到的点的区域。作为另一个例子,主体的活动范围可以是包含随着用户在指定场所内活动该用户的一部分可达到的点的区域。
后面参照图8至图9B以及图11至图16B描述当用户在指定区域内保持静止时该用户的一部分可达到的点的组合构成主体的活动范围的例子。
此外,后面参照图10A和图10B描述随着用户在某个场所内活动该用户的一部分可达到的点的组合构成主体的活动范围的例子。此外,后面参照图17和图18描述当用户正在沿着某条路径移动时该用户的一部分可达到的点的组合构成主体的活动范围的例子。
图8是示出根据本公开的实施例的向装置的屏幕输出主体的活动范围的例子的示意图。
参见图8,装置100通过使用主体的形态信息确定该主体的活动范围。装置100考虑到在主体的形态信息中包含的长度的值(例如,如果假设该主体为人,则为该人的身高、手臂长度、腿长度等等)而确定当用户在场所内保持静止时该用户的一部分能达到的点,并通过将所确定的点相互组合而确定该用户的活动范围。
作为一个例子,装置100可基于在存储单元(例如存储单元2940)中存储的映射表而确定主体的活动范围。映射表指的是示出根据由客体表示的主体的类型的该主体的活动范围与该主体的尺寸(例如,如果该主体是人,则为该主体的身高、手臂长度或腿长度)之间的比例的表。例如,映射表可包含指示人的活动范围的半径等于该人的手臂长度的四分之三或该人的腿长度的五分之四的信息。此外,映射表可包含关于根据内容的类型用户可做的活动的信息。例如,在足球游戏中用户可做的活动可不同于在跳舞游戏中用户可做的活动。因此,在用户参与足球游戏时可确定的活动范围可不同于在用户参与跳舞游戏时可确定的活动范围。映射表可包含关于根据内容的类型用户可做的活动的信息,并针对每个活动存储活动范围的尺寸,其中,在该活动范围的尺寸中反映用户的身体尺寸。因此,装置100可随着内容的类型不同而确定不同的活动范围。
作为另一个例子,装置100可基于主体的各部分的长度值之和来确定活动范围。如果假设客体是人的图像,则装置100可将与该人的手臂长度的两倍相应的长度确定为活动范围的直径。
装置100可将由装置100确定的活动范围输出到屏幕810。输出到屏幕810的活动范围在该活动范围构成圆的情况下可对应于该圆的直径,或在该活动范围构成矩形的情况下可对应于构成该矩形的边的长度。换句话说,用户可基于输出到屏幕810的信息820来确定活动范围。如果表示用户的客体830被输出到屏幕810,则该活动范围可被显示为在该客体附近的图像840。
例如,装置100计算活动范围与客体830的长度之间的比例。例如,如果假设与客体830对应的人的身高是175.2cm而该人的活动范围是1.71m,则装置100计算出该活动范围与该人的身高之比为:171/175.2=0.976。此外,装置100通过使用所计算的比例以及在屏幕810上显示的客体830的长度值,计算出将在客体830附近显示的图像840的长度。例如,如果假设在屏幕810上显示的客体830的长度是5cm,则装置100计算出将在客体830附近显示的图像840的长度为:0.976×5cm=4.88cm。与由装置100计算的长度对应的图像840被显示在屏幕810上。例如,图像840的形状可以是圆形,其直径值等于由装置100计算的长度。
如参照图8所述,装置100基于主体(例如用户)的形态信息来确定该主体的活动范围。装置100可基于用户输入的设置信息来确定该主体的活动范围。在这种情况下,在确定该主体的活动范围时可不考虑由装置100获取的形态信息。
图9A至图9C示出的是用于说明根据本公开的实施例的由装置执行的基于用户输入的设置信息确定主体的活动范围的例子的示意图。
参见图9A,客体920被输出到装置100的屏幕910。用户可通过输入单元(例如输入单元2910)将用于设置活动范围的设置信息发送给装置100。
例如,用户可通过输入单元(例如输入单元2910),根据输出到屏幕910的客体920设置某个区域930。可以以圆、多边形或直线的形状示出由用户设置的区域930,客体920位于该形状的中心。装置100可将由用户设置的区域930输出到屏幕910。
参见图9B,装置100可基于由用户设置的区域930确定主体的活动范围。例如,如果假设由用户设置的区域930是圆形,则装置100可将具有圆柱体形状的区域确定为活动范围,其中,该圆柱体的底面是由用户设置的圆形,该圆柱体的长度对应于通过将用户的身高乘以特定比率而得到的值。与用户的身高相乘的该比率可被存储在包含于装置100内的存储单元(例如存储单元2940)中。
装置100可将由该装置确定的活动范围输出到屏幕910。如果活动范围为圆形,则该圆的直径可被输出到屏幕910作为该活动范围。如果活动范围为矩形形状,则该矩形的边长可被输出到屏幕910作为该活动范围。换句话说,可向屏幕910输出信息940,通过信息940用户可识别活动范围的尺寸。如果客体920被输出到屏幕910,则该活动范围可被显示为将包含客体920的图像950。
参见图9C,装置100可确定用户960的活动范围以便在该活动范围中反映用户960的姿势。例如,当表示用户960的客体971被输出时,装置100可使用在装置100的屏幕上显示的指导或指示980,请求用户960做某个姿势。
装置100可向屏幕输出将由用户960做出的第一姿势972并实时输出由相机320拍摄的用户960的外形973。因此,用户960可实时检查用户960的当前形状是否与第一姿势972相同。
当用户960的第一姿势972被拍摄时,装置100将用户960的形态信息(例如用户960的身高、手臂长度、腿长度等等)和用户960的第一姿势972两者一起考虑来计算用户960的活动范围。例如,如果假设用户960的一条腿的长度是1.5m且用户960的胸部的宽度是0.72m,则装置100可计算出与第一姿势972对应的用户960的活动范围为3.72m,其中,当用户960舒展他/她的手臂时做出第一姿势972。
装置100可向屏幕输出所计算的活动范围的值991,并输出用户960的活动范围作为将包含客体971的图像974。
这里,可根据内容的详情选择将由用户960做出的多个姿势。例如,如果内容是跳舞游戏,则装置100可针对当用户960享受跳舞游戏时要做的多个姿势中的每一个姿势,预先计算活动范围。
换句话说,如果确定了根据第一姿势972的用户960的第一活动范围991,则装置100向屏幕输出第二姿势975并实时输出由相机320拍摄的用户960的外形977。然后,装置100根据第二姿势975计算用户960的活动范围992。然后,装置100可在客体附近输出用户960的活动范围992作为图像976。
图10A和图10B是用于说明根据本公开的实施例的由装置确定主体的活动范围的例子的示意图。
参见图10A,示出了活动范围1020的左边与活动范围1020的右边相对于客体1010的中心对称的例子。如果假设主体是人,则该人站在某个位置时伸展他/她的手臂或腿的范围可以是该人的活动范围。因此,装置100可将中心位于该人的躯干的圆柱体确定为活动范围1020。
参见图10B,示出了活动范围1040的左边与活动范围1040的右边相对于客体1030的中心不对称的例子。如果假设主体是人,则该人的移动可能不是对称的。例如,如图10B中所示,如果该人向前移动一条腿而另一条腿保持在原位,则该人身体的左边与该人身体的右边相对于该人身体的中心可能不是对称的。
因此,装置100可基于随着主体在某个区域中活动该主体的各部分能达到的最远点的组合,确定该主体的活动范围。
如参照图8至图10B所述,装置100可获取主体的形态信息并通过使用该形态信息来确定该主体的活动范围。此外,装置100可基于用户的设置来确定主体的活动范围。装置100可获取多个主体中每一个的形态信息,并针对多个主体中每一个确定活动范围。
在下文中,参照图11至图16B描述由装置执行的针对多个主体中每一个确定活动范围的例子。
图11示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息的例子的示意图。
参见图11,示出了多个用户1110和1120的例子。为便于描述,图11中示出了总共两个用户1110和1120,但多个用户1110和1120不限于此。
装置100获取多个用户1110和1120中每一个的形态信息。参照图3至图4B描述了由装置100获取多个用户1110和1120中每一个的形态信息的例子。例如,装置100可通过使用与由相机320捕获的图像对应的数据,获取多个用户1110和1120中每一个的形态信息。相机320可捕获图像,使得该图像包含多个用户1110和1120全体。相机320也可捕获包含第一用户1110的第一图像,然后捕获包含第二用户1120的第二图像。
图12示出的是显示根据本公开的实施例的向装置100的屏幕输出多个用户中每一个的形态信息和活动范围的例子的示意图。
参见图12,第一用户的形态信息和活动范围1220以及第二用户的形态信息和活动范围1230可被输出到屏幕1210。参照图8至图10描述了由装置100执行的确定第一用户的活动范围和第二用户的活动范围的例子。在图12中,假设存在总共两个用户。然而,如上所述,用户的数量不限。因此,输出到屏幕1210的形态信息和活动范围可能相应于用户的数量而增加或减少。
此外,图12示出第一用户的形态信息和活动范围1220与第二用户的形态信息和活动范围1230被同时输出,但该输出不限于此。例如,第一用户的形态信息和活动范围1220与第二用户的形态信息和活动范围1230可根据时间的流逝而被交替输出。
图13A示出的是示出根据本公开的实施例的在装置的屏幕上输出多个客体的例子的示意图。
参见图13A,装置100可将多个客体1320和1330输出到屏幕1310。因此,分别与客体1320和1330对应的各主体当前所处的点可被实时检查。
装置100可将各主体的活动范围1340和1350与客体1320和1330一起显示。因此,可基于各主体的当前位置而实时检查各主体的活动范围是否相互交叠。
如果各主体的活动范围1340和1350相互交叠,则装置100可不执行内容。例如,如果内容是计算机游戏,则装置100可不执行该计算机游戏。在下文中,参照图13B更详细描述这种情形。
图13B示出的是显示根据本公开的实施例的装置不执行内容的例子的示意图。
参见图13B,描述了客体1320和1330是参与计算机游戏的各用户的图像。如果第一用户1320的活动范围1340与第二用户1330的活动范围1350交叠,则装置100可不执行该计算机游戏。
例如,装置100可在屏幕1310上显示图像1360或输出声音以指示活动范围1340与活动范围1350交叠,然后可不执行该计算机游戏。随着第一用户1320或第二用户1330移动,如果活动范围1340与活动范围1350不相互交叠,则此后装置100可执行该计算机游戏。
在下文中,参照图14A至图16B描述确定内容的用户的活动范围以及不使用该内容的人、动物或事物的活动范围的例子。
图14A和图14B示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息并确定所述多个主体的活动范围的例子的示意图。
参见图14A和图14B,图14A中示出的多个主体1410和1420分别表示使用内容的用户1410和不使用该内容的非用户1420。非用户1420可能存在于靠近用户1410的区域中。例如,如果假设该内容是计算机游戏,则用户1410指的是参与该计算机游戏的人,而非用户1420指的是不参与该计算机游戏的人。
装置100获取用户1410的形态信息和非用户1420的形态信息,并确定用户1410和非用户1420各自的活动范围。如上所述,装置100可通过从相机320发送来的数据,获取用户1410和非用户1420各自的形态信息。
图14B示出输出到装置100的屏幕1430的用户1410和非用户1420各自的形态。装置100可将用户1410的活动范围1440和非用户1420的活动范围1450与表示用户1410的客体和表示非用户1420的客体一起显示。因此,可基于用户1410和非用户1420的当前位置,实时检查用户1410和非用户1420的活动范围是否相互交叠。
图15A和图15B示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息并确定所述多个主体的活动范围的另一个例子的示意图。
参见图15A和图15B,多个主体1510和1520分别表示内容的用户1510和动物1520。
装置100获取用户1510和动物1520各自的形态信息,并计算活动范围。如上所述,装置100可通过使用相机320来获取用户1510和动物1520各自的形态信息。
图15B示出输出到装置100的屏幕1530的用户1510和动物1520各自的形态。装置100可将用户1510的活动范围1540和动物1520的活动范围1550与表示用户1510的客体和表示动物1520的客体一起显示。
图16A和图16B示出的是用于说明根据本公开的实施例的由装置执行的获取多个主体的形态信息并确定所述多个主体的活动范围的例子的示意图。
参见图16A和图16B,多个主体1610、1620和1630分别指内容的用户1610以及事物1620和1630。在图16A中,事物1620和1630被示出为存在于靠近用户1610的区域中的障碍物,诸如家具之类。
装置100获取用户1610和障碍物1620或1630各自的形态信息,并计算活动范围。如上所述,装置100可通过使用相机320来获取用户1610和障碍物1620或1630各自的形态信息。
图16B示出输出到装置100的屏幕1640的用户1610和障碍物1620或1630各自的形态。装置100可将用户1610和障碍物1620或1630之中用户1610的活动范围1650与表示用户1610的客体和表示障碍物1620或1630的客体一起显示。
图17示出的是例示根据本公开的实施例的由装置执行的获取主体的形态信息并确定该主体的活动范围的例子的流程图。
参见图17,各操作由如图29中所示的装置100或如图31中所示的用于执行内容的设备101按时序处理。因此,应该理解,参照图1至16提供的描述也可应用于参照图17描述的操作,即使这里不再提供这些描述也是如此。
此外,参照图17描述的操作1710与参照图2描述的操作210基本上相同。因此,这里不提供关于操作1710的详细描述。
在操作1720,装置100预测第一主体的移动路径和第二主体的移动路径。
第一主体和第二主体可以是内容的用户,该内容可以是要求用户活动和移动的游戏。例如,如果假设该内容是跳舞游戏或战斗游戏,可能存在以下情况:按照由该内容的详情作出的指示,用户可能必须在同一地方活动或者移动到另一地方。
装置100分析内容的详情,并基于所分析的内容的详情而预测第一客体的移动路径和第二客体的移动路径。例如,装置100可通过读取在存储单元(例如存储单元2940)中存储的内容的详情而分析该内容的详情。因此,不管用户使用的内容的类型如何,装置100都可防止主体间冲突。
如果第一主体是内容的用户而第二主体是内容的非用户,装置100仅预测该用户的移动路径。换句话说,装置100不预测非用户的移动路径。可在执行该内容之前将第一主体预先设置为用户而将第二主体预先设置为非用户。因此,装置100可确定第一主体和第二主体中哪一主体是用户。
在操作1730,装置100基于第一主体的形态信息和移动路径来确定第一区域。换句话说,装置100基于第一主体的形态信息和移动路径来确定第一主体的活动范围。
在操作1740,装置100基于第二主体的形态信息和移动路径来确定第二区域。换句话说,装置100基于第二主体的形态信息和移动路径来确定第二主体的活动范围。如果第二主体是内容的非用户,则装置100可通过仅使用第二主体的形态信息来确定第二主体的活动范围。
在下文中,参照图18描述由装置基于主体的形态信息和移动路径确定该主体的活动范围的例子。
图18示出的是用于说明根据本公开的实施例的由装置执行的基于主体的形态信息和移动路径确定该主体的活动范围的例子的示意图。
参见图18,示出了从左向右移动的第一用户1810和从右向左移动的第二用户1820。
装置100可基于第一用户1810的形态信息,确定第一用户1810在第一用户1810的初始位置的活动范围1831。换句话说,装置100可确定当第一用户1810在初始位置保持静止时第一用户1810的活动范围1831。
可能存在以下情况:按照由装置100执行的内容的详情,用户可能必须沿特定方向移动。也可能存在以下情况:按照该内容的详情,当用户正在移动时用户可能必须做特定活动。如果假设第一用户1810在从左向右移动时必须做特定活动,则装置100确定在第一用户1810的移动路径上的第一用户1810的各位置的活动范围1832和1833。
装置100可通过合并所有被确定的活动范围1831至1833,确定第一用户1810的最终活动范围1830。
装置100可通过使用与确定第一用户1810的活动范围的方法相同的方法,确定第二用户1820的活动范围。换句话说,装置100确定在第二用户1820的初始位置的活动范围1841,并确定在第二用户1820的移动路径上的第二用户1820的各位置的活动范围1842至1844。此外,装置100可通过合并所确定的活动范围1841至1844,确定第二用户1820的最终活动范围1840。
装置100可考虑到当用户1810和1820正在移动时用户1810和1820要做的活动,确定活动范围1831至1833以及活动范围1841至1844。例如,装置100可通过使用在存储单元(例如存储单元2940)中存储的映射表来计算活动范围。根据内容所要求的活动类型,映射表包括与除了通过使用用户1810和1820的形态信息而确定的活动范围以外的必要的活动范围有关的信息。例如,如果内容所要求的活动是用户在用一只脚迈一步时伸展一个手臂的活动,则该映射表可包含指示另外需要相当于通过使用用户1810和1820的形态信息而确定的活动范围的1.7倍的活动范围的信息。
在图18中描述了用户1810和1820在二维(2D)空间中移动的例子,但用户在其中移动的空间不限于此。换句话说,可能存在以下情况:按照内容的详情,用户1810和1820可能必须在3D空间中移动。因此,即使在用户1810和1820要在3D空间中移动的情况下,装置100也可按照参照图18描述的方法确定用户1810和1820各自的活动范围。
返回参见图2,在操作240,装置100基于第一范围与第二范围是否相互交叠,预测第一主体与第二主体是否会相互冲突。换句话说,装置100基于第一主体的活动范围是否与第二主体的活动范围交叠,预测第一主体与第二主体是否会相互冲突。预测第一主体与第二主体是否会相互冲突是指在第一主体与第二主体没有相互冲突时预测第一主体与第二主体间冲突的可能性。例如,如果第一主体的活动范围与第二主体的活动范围之差的值小于某个值,装置100可确定第一主体与第二主体会相互冲突。
在下文中,参照图19描述由装置执行的预测第一主体是否会与第二主体冲突的例子。
图19示出的是用于说明根据本公开的实施例的由装置执行的预测第一主体与第二主体是否会相互冲突的例子的流程图。
参见图19,各操作由如图29中所示的装置100或如图31中所示的用于执行内容的设备101按时序处理。因此,应该理解,参照图1提供的描述也可应用于参照图19描述的操作,即使这里不再提供这些描述也是如此。
在操作1910,装置100计算第一主体与第二主体之间的最短距离。考虑到第一主体的活动范围和第二主体的活动范围来计算该最短距离。更详细地,装置100从第一主体的活动范围所包含的各点中选择最靠近第二主体的第一点。此外,装置100从第二主体的活动范围所包含的各点中选择最靠近第一主体的第二点。此外,装置100计算第一点与第二点之间的距离,并将所计算的距离确定为第一主体与第二主体之间的最短距离。
在操作1920,装置100确定该最短距离是否大于预定的距离值。该预定的距离值可以是预先存储在存储单元(例如存储单元2940)中的值或者由用户输入的值。
在下文中,参照图20A至图20C描述由装置执行的将最短距离与预定的距离值相比较的例子。
图20A至20C示出的是用于说明根据本公开的实施例的由装置执行的将主体间的最短距离与预定的距离值相比较的例子的示意图。
参见图20A,示出了第一用户的活动范围2010与第二用户的活动范围2020相互交叠的例子。换句话说,第一用户的活动范围2010包含有第二用户的活动范围2020。
在这种情况下,由装置100计算的第一用户与第二用户之间的最短距离的值为0。换句话说,该最短距离的值为0的情况包括:第一用户的活动范围2010与第二用户的活动范围2020交叠的情况;以及第一用户的活动范围2010在某一点与第二用户的活动范围2020接触的情况。
因此,如果第一用户与第二用户之间的最短距离的值为0,则装置100确定该最短距离的值小于预定的距离值。
参见图20B,示出的示意图显示用户之间的最短距离的值为m的情况。这里,预定的距离值k被假定为大于m的值。
第一用户的活动范围2030与第二用户的活动范围2040不相互交叠,也没有在某一点相互接触。装置100从第一用户的活动范围2030所包含的各点中选择最靠近第二用户的第一点,并从第二用户的活动范围2040所包含的各点中选择最靠近第一用户的第二点。然后,装置100将从第一点到第二点的距离确定为第一用户与第二用户之间的最短距离m。
由于最短距离m小于预定的距离值k,因此装置100执行图19中示出的操作1930。
参见图20C,所示出的示意图显示了用户之间的最短距离的值为n的情况。这里,预定的距离值k被假定为小于n的值。
第一用户的活动范围2050与第二用户的活动范围2060不相互交叠,也没有在某一点相互接触。装置100从第一用户的活动范围2050所包含的各点中选择最靠近第二用户的第一点,并从第二用户的活动范围2060所包含的各点中选择最靠近第一用户的第二点。然后,装置100将从第一点到第二点的距离确定为第一用户与第二用户之间的最短距离n。
由于最短距离n大于预定的距离值k,因此装置100执行图19中示出的操作1940。
返回参见图19,如果最短距离大于预定的距离值k,则在操作1940装置100确定第一主体与第二主体不会相互冲突。这里,第一主体与第二主体不会相互冲突的情形包括以下情形:即使第一主体或第二主体做与当前活动不同的活动,第一主体与第二主体也不可能相互冲突。此外,如果该最短距离小于预定的距离值k,则在操作1930装置100确定第一主体与第二主体会相互冲突。在这种情况下,第一主体与第二主体会相互冲突的情形包括以下情形:如果第一主体或第二主体做与当前活动不同的活动,则存在第一主体与第二主体相互冲突的可能性。
图21A至图21C示出的是显示根据本公开的实施例的在装置确定主体会相互冲突的情况下输出到该装置的屏幕的图像的例子的示意图。
图21A和图21B示出向屏幕2110输出动态客体(例如表示用户的图像)的例子。图21C示出向屏幕输出动态客体(例如表示用户的图像)和静态客体(例如表示家具的图像)的例子。
参见图21A至图21C,如果预测主体会相互冲突,则装置100可输出指示主体会相互冲突的警告信息。警告信息可以是从装置100的屏幕输出的光、颜色或某种图像,或者从包含在装置100中的扬声器输出的声音。此外,如果装置100正在执行内容,则作为警告信息的例子,装置100可暂停执行内容。
例如,装置100可向屏幕2110输出指示警告信息的图像2120和2130。作为一个例子,参见图21A,装置100可通过输出指示用户间冲突的可能性高的图像2120,请求一个用户移动到远离另一个用户的地方。即使第一用户的活动范围2140与第二用户的活动范围2150不相互交叠,如果活动范围2140与活动范围2150之间的最短距离的值小于预定的距离值k,则装置100也可输出指示第一用户与第二用户间冲突的可能性高的图像2120。
作为另一个例子,参见图21B,装置100可暂停执行目前被执行的内容,同时输出指示用户间冲突的可能性非常高的图像2130。如果第一用户的活动范围2140与第二用户的活动范围2150相互交叠,则装置100可暂停执行目前被执行的内容,同时输出图像2130。
参见图21C,如果椅子2180位于用户的活动范围2170内,则装置100可输出请求将椅子2180移出用户的活动范围2170的图像2160。
在暂停执行内容后,如果各主体的活动范围变得彼此远离以致它们之间的距离的值大于预定的值,则装置100重新执行该内容。在下文中,参照图21D描述由装置执行的在暂停执行内容后恢复执行内容的例子。
图21D示出的是显示根据本公开的实施例的由装置执行的在暂停执行内容后恢复执行内容的例子的示意图。
参见图21D,在执行内容时,如果预测第一用户2191与第二用户2192会相互冲突,则装置100可暂停执行该内容,并输出指示第一用户2191与第二用户2192会相互冲突的图像2195。即使在暂停执行该内容时,相机320也持续拍摄第一用户2191和第二用户2192。因此,装置100可检查在暂停执行内容后第一用户2191与第二用户2192之间的距离是增大还是减小了。
在暂停执行内容后,如果第一用户2191和/或第二用户2192从当前位置移动,则他们之间的距离可能增大。换句话说,第一用户2191可能沿某个方向移动以致第一用户2191变得远离第二用户2192,或者第二用户2192可能沿某个方向移动以致第二用户2192变得远离第一用户2191。随着第一用户2191和第二用户2192中至少一个移动,如果第一用户2191的活动范围2193与第二用户2192的活动范围2194之间的距离的值变得大于预定的值,则装置100可恢复执行内容。换句话说,随着第一用户2191和第二用户2192中至少一个移动,如果确定第一用户2191与第二用户2192不可能相互冲突,则装置100可恢复执行内容。在这种情况下,装置100可向屏幕输出指示恢复执行内容的图像2196。
如上所述,装置100可基于各主体的形态信息而确定活动范围,并预测各主体是否会相互冲突。因此,装置100可预先防止主体间冲突。
图22示出的是用于说明根据本公开的实施例的由装置100执行的将主体间的最短距离与预定的距离值相比较的例子的示意图。
参见图22,示出了第一主体2210和第二主体2220都是内容的用户。然而,第一主体2210和第二主体2220不限于此。换句话说,第二主体2220可以是内容的非用户,或者可对应于诸如动物、植物或家具之类的事物。
如上面参照图18所述,装置100可基于第一用户2210和第二用户2220的移动路径以及第一用户2210和第二用户2220要做的活动中至少一个,确定第一用户2210的活动范围2230和第二用户2220的活动范围2240。装置100基于第一用户2210的活动范围2230和第二用户2220的活动范围2240,计算第一客体2210与第二客体2220之间的最短距离k,并基于该最短距离k,预测第一用户2210与第二用户2220之间冲突的可能性。上面参照图19至图20C描述了由装置100执行的预测用户间冲突的可能性的方法。
图23A至图23C示出的是显示根据本公开的实施例的在装置确定用户会相互冲突的情况下输出到该装置的屏幕的图像的例子的示意图。
参见图23A至图23C,如果预测用户会相互冲突,则装置100可向屏幕2310输出指示客体会相互冲突的图像2320。作为一个例子,如图23A中所示,装置100可向屏幕2310输出通知用户他们之间可能冲突的图像2320。作为另一个例子,如图23B中所示,装置100可暂停执行内容,同时向屏幕2310输出通知用户他们之间可能冲突的图像2330。在图像2320和2330被输出到屏幕2310后,如果用户重调他们的位置,则装置100基于重调后的位置来重新预测用户之间冲突的可能性。如图23C中所示,如果确定用户之间不可能冲突,则装置100可继续执行内容而不向屏幕2310输出图像2320和2330。
如参照图2至图23C所述,装置100可基于主体的活动范围而预测主体间冲突的可能性。装置100可设置空间中的安全区或危险区。于是,如果主体超出安全区或主体进入危险区,则装置100可输出警告信息。
在下文中,参照图24描述由装置设置危险区或安全区的例子。此外,参照图25描述在主体超出安全区或主体进入危险区的情况下由装置执行的输出警告信息的例子。
图24示出的是用于说明根据本公开的实施例的由装置执行的设置安全区或危险区的例子的示意图。
参见图24,示出了由装置100向屏幕2410输出显示一个空间的图像的例子。这里所述的空间指的是由相机320拍摄的空间。装置100可通过使用从相机320发送来的数据,向屏幕2410输出指示一个空间的图像。此外,装置100可将该空间分类并设置为安全区2420或危险区2430。
作为一个例子,装置100可基于用户输入的信息而设置安全区2420和危险区2430。用户可将用于将该空间分类为安全区2420或危险区2430的信息输入到被输出到屏幕2410的图像。例如,用户可在该图像中选择某个区域,并将所选择的区域指定为安全区2420或危险区2430。如果用户将所选择的区域指定为安全区2420,则在该图像中的空间中除安全区2420以外的剩余区域被确定为危险区2430。
作为另一个例子,装置100可自动地将空间指定为安全区2420或危险区2430而无需用户干预。例如,装置100可将该图像中的没有事物存在的空的空间指定为安全区2420,而将该图像中的有事物存在的空间指定为危险区2430。
在装置100将空间指定为安全区2420或危险区2430后,如果主体超出安全区2420或进入危险区2430,则装置100可输出警告信息。在下文中,参照图25描述由装置100执行的输出警告信息的例子。
图25示出的是用于说明根据本公开的实施例的在主体超出安全区或主体进入危险区的情况下由装置执行的输出警告信息的例子的示意图。
参见图25,示出了在输出到装置100的屏幕2510的图像中设置了安全区2520和危险区2530的例子。图25示出安全区2520与危险区2530之间的边界2540被显示在屏幕2510上的例子。然而,边界2540可不被显示。
如果由客体2550表示的主体超出安全区2520(或进入危险区2530),则装置100可输出警告信息。例如,如果假设该主体是玩跳舞游戏的用户,则在玩跳舞游戏时该用户的身体的一部分超出安全区2520(即,如果被输出到屏幕2510的客体2550超出安全区2520)的情况下,装置100可输出警告信息。该警告信息可以是从装置100的屏幕2510输出的光、颜色、某种图像等,或者从包含在装置100中的扬声器输出的声音。此外,如果装置100正在执行内容,则作为警告信息的例子,装置100可暂停执行内容。
例如,如果用户超出安全区2520,则装置100可显示指示客体2550移到安全区2520的图像2560,或者可暂停执行内容。
装置100可将存在于空间中的一些事物指定为危险事物,并且在主体非常接近这些危险事物的情况下输出警告信息。
在下文中,参照图26描述由装置指定危险事物的例子。此外,参照图27描述在主体靠近危险事物的情况下由装置执行的输出警告信息的例子。
图26示出的是用于说明根据本公开的实施例的由装置执行的指定危险事物的例子的示意图。
参见图26,示出了由装置100执行的向屏幕2610输出显示一个空间的图像的例子。该空间指由相机320拍摄的空间。装置100可通过使用从相机320发送来的数据,向屏幕2610输出显示一个空间的图像。此外,装置100可将存在于该空间中的一些事物指定为危险事物组2620。
作为一个例子,装置100可基于用户输入的信息来指定危险事物组2620。用户可将用于指定危险事物组2620的信息输入到被输出到屏幕2610的图像。例如,用户可从该图像中选择某事物,并将所选择的事物指定为危险事物组2620。
作为另一个例子,装置100可自动地指定危险事物组2620而无需用户干预。例如,装置100可将在图像中示出的空间中存在的所有事物指定为危险事物组2620。或者,装置100可将具有符合预定标准的特征的事物指定为危险事物组2620。例如,装置100可将具有尖锐表面或尖角的所有客体指定为危险事物组2620。
在装置100指定危险事物组2620后,如果主体靠近危险事物组2620,则装置100可输出警告信息。在下文中,参照图27描述由装置执行的输出警告信息的例子。
图27是用于说明根据本公开的实施例的在主体靠近危险事物的情况下由装置执行的输出警告信息的例子的示意图。
参见图27,示出了在输出到装置100的屏幕2710的图像中指定危险事物2720的例子。如果被输出到屏幕2710的客体2730非常接近危险事物2720(实际上,如果由客体2730表示的主体非常接近危险事物2720),则装置100可输出警告信息2740。例如,如果婴儿非常接近危险事物2720,则装置100可输出警告信息2740。上面参照图25描述了警告信息的例子。
如上面参照图2至图27所述,装置100可自主输出警告信息。然而,输出警告信息不限于此。换句话说,如果警告信息将被输出,则装置100可发送警告信息信号给另一装置。
图28示出的是用于说明根据本公开的实施例的由装置执行的向另一装置发送警告信息的例子的示意图。
参见图28,装置100可自主输出警告信息或者发送警告信息给另一装置2800。例如,如果被输出到装置100的屏幕的表示婴儿的客体2810非常接近危险事物2820,则装置100可自主输出警告图像2830,并同时向与装置100连接的另一装置2800发送警告信息。然后,另一装置2800可输出警告图像2840。这里,装置100与另一装置2800可通过使用有线或无线通信方法而相互连接。
图28示出警告图像2830和2840作为警告信息的例子,但警告信息的例子不限于此。装置100和另一装置2800可输出作为例子参照图25描述的警告信息。
图29是根据本公开的实施例的装置的例子的框图。
参见图29,装置100包括输入单元2910、控制单元2920和输出单元2930。
图29中示出的装置100包括用于执行上面参照图1至图28描述的防止多个主体间冲突的方法的组件。因此,应该理解,参照图1至图28提供的描述也可应用于图29中示出的装置100,即使这里不再提供这些描述也是如此。
图29中示出的装置100仅包括参照当前的实施例描述的部件。因此,本领域的普通技术人员能理解,除了图29中示出的部件以外,还可包括其它的通用部件。
输入单元2910从相机320接收由相机320捕获的图像。例如,输入单元2910可包括有线通信接口或无线通信接口。输入单元2910可通过有线通信接口和无线通信接口中至少一个,从相机320接收图像。
该有线通信接口可包括高清多媒体接口(HDMI)、数字视频接口(DVI)等,但不限于此。
该无线通信接口可包括蓝牙通信单元、低功耗蓝牙(BLE)通信单元、短距离通信接口、Wi-Fi通信单元、ZigBee通信单元、红外数据协会(IrDA)通信单元、Wi-Fi直连(WFD)通信单元、超宽带(UWB)通信单元或Ant+通信单元,但不限于此。
该无线通信接口可在移动通信网络上向/从基站、外部终端(例如相机103)和服务器中至少一个发送/接收无线信号。该无线信号可包括语音呼叫信号、可视电话呼叫信号或者被用来收发文本或多媒体消息的各种形式的数据。
输入单元2910包括用于输入数据使得用户可控制装置100的单元。例如,输入单元2910可包括键盘、圆顶开关、触摸板(可以是电容覆盖型、电阻覆盖型、红外光束型、表面声波型、积分应变计型或者压电型)、微动轮或微动开关,但不限于此。
控制单元2920获取第一主体的形态信息和第二主体的形态信息。作为一个例子,如果假设执行内容,则第一主体可指的是内容的用户。第二主体可指的是与第一主体一起使用内容的另一个用户,或者可指不使用内容的非用户。第二主体可以是动物、植物或诸如家具之类的事物。这里描述的内容指的是要求用户的活动的程序。例如,基于用户的活动而执行的计算机游戏诸如跳舞游戏或运动游戏之类可对应于该内容。
形态信息指的是指示主体的形态的信息。形态包括主体的长度和体积以及主体的形状。作为一个例子,如果假设主体是人,则形态信息包含指示人的外形的全部信息,诸如人的身高、手臂长度、腿长度、躯干厚度、手臂厚度、腿厚度等等。如果假设主体是椅子,则形态信息包含指示该椅子的外形的全部信息,诸如该椅子的高度、宽度等等。
控制单元2920通过使用第一主体的形态信息来确定第一主体的活动范围,通过使用第二主体的形态信息来确定第二主体的活动范围。活动范围指的是包含主体的至少一部分能达到的点的范围。作为一个例子,主体的活动范围可以是包含当该主体保持在指定区域内时该主体的一部分可达到的点的范围。作为另一个例子,主体的活动范围可以是包含当该主体正在沿着某条路径移动时该主体的一部分可达到的点的范围。作为另一个例子,主体的活动范围可以是包含随着该主体在某个区域内活动该主体的一部分可达到的点的范围。
如果内容要求用户移动,则控制单元2920可基于用户的移动路径来确定用户的活动范围。此外,控制单元2920可基于用户输入的信息来确定主体的活动范围。
控制单元2920基于第一主体的活动范围与第二主体的活动范围是否相互交叠,预测第一主体与第二主体是否会相互冲突。预测第一主体与第二主体是否会相互冲突是指的是在第一主体与第二主体没有相互冲突时预测第一主体与第二主体间冲突的可能性。例如,如果第一用户的活动范围与第二用户的活动范围之差的值小于某个值,则控制单元2920可确定第一用户与第二用户相互冲突。
输出单元2930向装置100的屏幕输出图像或者通过包含在装置100内的扬声器输出警告信息。例如,输出单元2930可向屏幕输出表示主体的客体,并通过该屏幕或扬声器输出警告信号。
此外,可通过使用软件模块来操作输入单元2910、控制单元2920和输出单元2930全部或者其中一部分,但输入单元2910、控制单元2920和输出单元2930的操作不限于此。
此外,可由一个或多个处理器来操作输入单元2910、控制单元2920和输出单元2930,但输入单元2910、控制单元2920和输出单元2930的操作不限于此。
图30是根据本公开的实施例的装置的例子的框图。
图30中示出的装置100包括用于执行上面参照图1至图28描述的防止多个主体间冲突的方法的组件。因此,应该理解,参照图1至图28提供的描述也可应用于图30中示出的装置100,即使这里不再提供这些描述也是如此。
图30中示出的装置100仅包括参照当前的实施例描述的部件。因此,本领域的普通技术人员能理解,除了图30中示出的部件以外,还可包括其它的通用部件。
参见图30,控制单元2920读取并分析在存储单元2940中存储的内容所包含的详情。例如,如果假设主体包括内容的用户并且正在执行该内容,则控制单元2920通过分析该内容中包含的详情而获取关于该主体的移动路径的信息。此外,控制单元2920通过使用所获取的信息来确定主体的活动范围。上面参照图29描述了操作控制单元2920的另一个例子。
控制单元2920生成警告信息。更详细地,如果确定主体会相互冲突,则控制单元2920生成警告信息。警告信息可以是从装置100的屏幕输出的光、颜色、某种图像等,或者从包含在装置100中的扬声器输出的声音。此外,如果该装置正在执行内容,则作为警告信息的例子,装置100可暂停执行内容。
存储单元2940存储关于主体的形态信息和活动范围的数据。此外,存储单元2940存储为了确定主体的活动范围而必需的映射表。存储单元2940存储由装置100执行的内容的详情。
图31是根据本公开的实施例的用于执行内容的系统的例子的框图。
参见图31,系统1包括用于执行内容的设备101、显示设备102和相机103。如果假设该内容是计算机游戏,则用于执行内容的设备101指的是游戏控制台。
用于执行内容的设备101、显示设备102和相机103可通过缆线相互连接,并通过该缆线(即通过使用有线通信方法)相互收发数据。或者,用于执行内容的设备101、显示设备102和相机103可通过使用无线通信方法而相互收发数据。在下文中,描述包含在用于执行内容的设备101中的输入单元3110和输出单元3130。然而,对应于输入单元3110和输出单元3130的部件可分别包含在相机103和显示设备102中。
相机103捕获主体的图像(即客体),并将所捕获的图像发送给用于执行内容的设备101。上面参照图1至图28描述了操作相机103的例子。
包含在用于执行内容的设备101中的输入单元3110、控制单元3120和存储单元3140的操作已参照图29至图30作了描述。因此,这里不提供其详细描述。
输出单元3130向显示设备102发送显示客体的形态的图像或警告信息。例如,输出单元3130可包括有线通信接口或无线通信接口。输出单元3130可通过上述接口中至少一个向显示设备102发送该图像或警告信息。
该有线通信接口可包括HDMI、数字视频接口等,但不限于此。
该无线通信接口可包括蓝牙通信接口、低功耗蓝牙(BLE)通信接口、近场通信(NFC)接口、Wi-Fi通信接口、ZigBee通信接口、红外数据协会(IrDA)通信接口、Wi-Fi直连(WFD)通信接口、超宽带(UWB)通信接口或Ant+通信接口,但不限于此。
此外,该无线通信接口可在移动通信网络上与基站、外部终端(例如显示设备102)和服务器中至少一个收发无线信号。该无线信号可包括语音信号、可视电话呼叫信号或者被用来收发文本或多媒体消息的各种形式的数据。
显示设备102输出从用于执行内容的设备101接收的所述图像或警告信息。
如上所述,根据一个或多个上述实施例,装置100或用于执行内容的设备101可基于每个主体的形态信息来确定包含各主体能达到的点的活动范围,并预测这些主体是否会相互冲突。因此,装置100或用于执行内容的设备101可预先防止主体间冲突。此外,如果预测主体间会相互冲突,则装置100或用于执行内容的设备101可生成警告信息或暂停执行内容。
此外,还能通过在介质(例如计算机可读介质)中/上的计算机可读代码/指令实现其它实施例,以控制至少一个处理元件来实现上述任何实施例。该介质可对应于允许存储和/或传输该计算机可读代码的任何介质。
能以各种方式在介质上记录/传送该计算机可读代码,介质的例子包括:记录介质,诸如磁存储介质(例如ROM、软盘、硬盘等)和光存储介质(例如CD-ROM或DVD);以及传输介质,诸如因特网传输介质。因此,介质可以是包含或承载信号或信息的这样规定和可测的结构,诸如承载根据一个或多个实施例的比特流的装置。介质也可以是分布式网络,使得以分布式存储/传送和执行该计算机可读代码。此外,处理元件可能包括处理器或计算机处理器,而且多个处理元件可被分布和/或包含在单个装置中。
应该理解,在此描述的实施例应被视为仅是描述性的而不为了限制目的。每个实施例中的特征或方面的描述一般应被视为适用于其它实施例中的其它相似特征或方面。
虽然已经参照本公开的各种实施例示出并描述本公开,但是本领域技术人员应理解,在不脱离由所附权利要求及其等同物限定的本公开的精神和范围的情况下,可在其中做出在形式和细节方面的各种改变。
Claims (15)
1.一种电子装置,包括:
相机;
至少一个处理器,被配置为:
使用相机捕获图像,
确定第一对象和第二对象的位置,并基于应用的内容预测第一对象和第二对象中的至少一个向另一位置的移动,其中,第一对象和第二对象包括在捕获的图像中;
基于预测出的移动,预测第一对象和第二对象是否将相互冲突;
基于在所述应用被执行的情况下预测出第一对象和第二对象将相互冲突,控制暂停所述应用的执行;
基于在所述应用被暂停的情况下预测出第一对象和第二对象将不会相互冲突,控制恢复所述应用的执行。
2.如权利要求1所述的电子装置,其中,所述至少一个处理器还被配置为:控制将指示所述应用的执行状态的信息发送到显示设备。
3.如权利要求1所述的电子装置,其中,所述至少一个处理器还被配置为:
确定第一区域,其中,第一区域包括随着第一对象在一定区域中移动,第一对象的一部分能达到的最远点;以及
确定第二区域,其中,第二区域包括随着第二对象在一定区域中移动,第二对象的一部分能达到的最远点。
4.如权利要求3所述的电子装置,其中,所述至少一个处理器还被配置为:如果第一区域与第二区域相互交叠,则预测在第一对象与第二对象之间存在冲突的可能性。
5.如权利要求3所述的电子装置,其中,所述至少一个处理器还被配置为:
确定第一对象和第二对象中的至少一个的位置;
基于所述应用的详情,预测第一对象和第二对象中的所述至少一个向另一位置的移动;
通过进一步考虑预测出的移动来确定第一区域和第二区域中的至少一个。
6.如权利要求4所述的电子装置,其中,所述至少一个处理器还被配置为:基于预测出的可能性,控制将指示所述冲突的警告信息发送到显示设备。
7.如权利要求1所述的电子装置,其中,第一对象和第二对象中的至少一个包括参与所述应用的用户。
8.一种用于执行应用的方法,所述方法包括:
使用相机捕获图像,
确定第一对象和第二对象的位置,并基于应用的内容预测第一对象和第二对象中的至少一个向另一位置的移动,其中,第一对象和第二对象包括在捕获的图像中;
基于预测出的移动,预测第一对象和第二对象是否将相互冲突;
基于在所述应用被执行的情况下预测出第一对象和第二对象将相互冲突,控制暂停所述应用的执行;
基于在所述应用被暂停的情况下预测出第一对象和第二对象将不会相互冲突,控制恢复所述应用的执行。
9.如权利要求8所述的方法,还包括:控制将指示所述应用的执行状态的信息发送到显示设备。
10.如权利要求8所述的方法,还包括:
确定第一区域,其中,第一区域包括随着第一对象在一定区域中移动,第一对象的一部分能达到的最远点;以及
确定第二区域,其中,第二区域包括随着第二对象在一定区域中移动,第二对象的一部分能达到的最远点。
11.如权利要求10所述的方法,还包括:如果第一区域与第二区域相互交叠,则预测在第一对象与第二对象之间存在冲突的可能性。
12.如权利要求10所述的方法,还包括:
确定第一对象和第二对象中的至少一个的位置;
基于所述应用的详情,预测第一对象和第二对象中的所述至少一个向另一位置的移动;
通过进一步考虑预测出的移动来确定第一区域和第二区域中的至少一个。
13.如权利要求11所述的方法,还包括:
基于预测出的可能性,控制将指示所述冲突的警告信息发送到显示设备。
14.如权利要求8所述的方法,其中,第一对象和第二对象中的至少一个包括参与所述应用的用户。
15.一种非暂时性计算机可读存储介质,其中,所述非暂时性计算机可读存储介质存储用于执行应用的计算机程序,其中,所述计算机程序包括执行以下操作的指令:
使用相机捕获图像,
确定第一对象和第二对象的位置,并基于应用的内容预测第一对象和第二对象中的至少一个向另一位置的移动,其中,第一对象和第二对象包括在捕获的图像中;
基于预测出的移动,预测第一对象和第二对象是否将相互冲突;
基于在所述应用被执行的情况下预测出第一对象和第二对象将相互冲突,控制暂停所述应用的执行;
基于在所述应用被暂停的情况下预测出第一对象和第二对象将不会相互冲突,控制恢复所述应用的执行。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140033695 | 2014-03-21 | ||
KR10-2014-0033695 | 2014-03-21 | ||
KR10-2014-0169178 | 2014-11-28 | ||
KR1020140169178A KR20150110283A (ko) | 2014-03-21 | 2014-11-28 | 객체들 사이의 충돌을 방지하는 방법 및 장치. |
KR1020150018872A KR102373462B1 (ko) | 2014-03-21 | 2015-02-06 | 대상체들 사이의 충돌을 방지하는 방법 및 장치. |
KR10-2015-0018872 | 2015-02-06 | ||
CN201580000721.5A CN105190487B (zh) | 2014-03-21 | 2015-03-17 | 用于防止主体间冲突的方法和设备 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580000721.5A Division CN105190487B (zh) | 2014-03-21 | 2015-03-17 | 用于防止主体间冲突的方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108404402A CN108404402A (zh) | 2018-08-17 |
CN108404402B true CN108404402B (zh) | 2021-07-20 |
Family
ID=54341464
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580000721.5A Active CN105190487B (zh) | 2014-03-21 | 2015-03-17 | 用于防止主体间冲突的方法和设备 |
CN201810244879.2A Active CN108404402B (zh) | 2014-03-21 | 2015-03-17 | 用于防止主体间冲突的方法和设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580000721.5A Active CN105190487B (zh) | 2014-03-21 | 2015-03-17 | 用于防止主体间冲突的方法和设备 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20150110283A (zh) |
CN (2) | CN105190487B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017120915A1 (zh) * | 2016-01-15 | 2017-07-20 | 邓娟 | 周边动态监控技术的数据采集方法和头戴虚拟设备 |
CN107233733B (zh) * | 2017-05-11 | 2018-07-06 | 腾讯科技(深圳)有限公司 | 目标对象的处理方法和装置 |
US20190033989A1 (en) * | 2017-07-31 | 2019-01-31 | Google Inc. | Virtual reality environment boundaries using depth sensors |
JP6911730B2 (ja) * | 2017-11-29 | 2021-07-28 | 京セラドキュメントソリューションズ株式会社 | 表示装置、画像処理装置、処理実行方法、処理実行プログラム |
CN108854066B (zh) * | 2018-06-21 | 2024-03-12 | 腾讯科技(上海)有限公司 | 游戏中行为状态处理方法、装置、计算机设备和存储介质 |
KR102174695B1 (ko) * | 2018-11-15 | 2020-11-05 | 송응열 | 객체 움직임 인식 방법 및 장치 |
KR20240024471A (ko) | 2022-08-17 | 2024-02-26 | 배재대학교 산학협력단 | 객체 탐지를 활용한 근로자 충돌 안전 관리 시스템 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102163077A (zh) * | 2010-02-16 | 2011-08-24 | 微软公司 | 使用碰撞体来捕捉屏幕对象 |
WO2013052855A3 (en) * | 2011-10-07 | 2013-05-30 | Google Inc. | Wearable computer with nearby object response |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6884171B2 (en) * | 2000-09-18 | 2005-04-26 | Nintendo Co., Ltd. | Video game distribution network |
JP2005121531A (ja) * | 2003-10-17 | 2005-05-12 | Navitime Japan Co Ltd | 携帯ナビゲーション装置およびその制御方法ならびに制御プログラム |
US7489265B2 (en) * | 2005-01-13 | 2009-02-10 | Autoliv Asp, Inc. | Vehicle sensor system and process |
CN101380520B (zh) * | 2007-09-05 | 2012-01-18 | 财团法人工业技术研究院 | 调整惯性感测范围与灵敏度的方法及惯性感测互动装置与系统 |
US8419545B2 (en) * | 2007-11-28 | 2013-04-16 | Ailive, Inc. | Method and system for controlling movements of objects in a videogame |
CN102685382B (zh) * | 2011-03-18 | 2016-01-20 | 安尼株式会社 | 图像处理装置和方法、及移动体防碰撞装置 |
CN103635240B (zh) * | 2011-07-01 | 2015-12-16 | 英派尔科技开发有限公司 | 基于姿势的游戏的安全方案 |
-
2014
- 2014-11-28 KR KR1020140169178A patent/KR20150110283A/ko unknown
-
2015
- 2015-03-17 CN CN201580000721.5A patent/CN105190487B/zh active Active
- 2015-03-17 CN CN201810244879.2A patent/CN108404402B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102163077A (zh) * | 2010-02-16 | 2011-08-24 | 微软公司 | 使用碰撞体来捕捉屏幕对象 |
WO2013052855A3 (en) * | 2011-10-07 | 2013-05-30 | Google Inc. | Wearable computer with nearby object response |
Also Published As
Publication number | Publication date |
---|---|
CN105190487B (zh) | 2018-04-17 |
CN108404402A (zh) | 2018-08-17 |
CN105190487A (zh) | 2015-12-23 |
KR20150110283A (ko) | 2015-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10905944B2 (en) | Method and apparatus for preventing a collision between subjects | |
CN108404402B (zh) | 用于防止主体间冲突的方法和设备 | |
JP5784213B2 (ja) | 骨格追跡を使用した物理的表面上への仮想投影上での選択的な手のオクルージョン | |
EP3800532B1 (en) | Automated monitoring of a scene | |
JP2022532825A (ja) | ヘッドマウントディスプレイに対する動的な障害物衝突警告を生成するシステムおよび方法 | |
US20120327203A1 (en) | Apparatus and method for providing guiding service in portable terminal | |
US10691290B2 (en) | Virtual-reality based control method and apparatus | |
US20240338070A1 (en) | Platformization Of Mixed Reality Objects In Virtual Reality Environments | |
US11073902B1 (en) | Using skeletal position to predict virtual boundary activation | |
Kang et al. | SafeXR: alerting walking persons to obstacles in mobile XR environments | |
US11151795B2 (en) | Systems and methods of creating virtual pop-up spaces | |
US11715332B2 (en) | System and method for eye-tracking | |
KR102373462B1 (ko) | 대상체들 사이의 충돌을 방지하는 방법 및 장치. | |
JP7374581B2 (ja) | ロボット、画像処理方法及びプログラム | |
JP2016224302A (ja) | 視線誘導装置、視線誘導方法、および視線誘導プログラム | |
US20240242414A1 (en) | Electronic device and method for creating avatar in virtual space | |
Yu | Empowering Visually Impaired Individuals With Holistic Assistance Using Real-Time Spatial Awareness System | |
KR20210116838A (ko) | 제스처에 기초하여, 음성 입력을 처리하는 전자 장치 및 그 동작 방법 | |
CN115808978A (zh) | 增强现实展示处理方法、装置及电子设备 | |
KR20190027197A (ko) | 자동 이동 기능을 지원하는 게임 서비스를 제공하는 장치, 방법 및 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |