CN102375539A - 信息处理设备、信息处理方法和程序 - Google Patents

信息处理设备、信息处理方法和程序 Download PDF

Info

Publication number
CN102375539A
CN102375539A CN201110236550XA CN201110236550A CN102375539A CN 102375539 A CN102375539 A CN 102375539A CN 201110236550X A CN201110236550X A CN 201110236550XA CN 201110236550 A CN201110236550 A CN 201110236550A CN 102375539 A CN102375539 A CN 102375539A
Authority
CN
China
Prior art keywords
user
virtual
dimensional space
messaging device
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201110236550XA
Other languages
English (en)
Inventor
野田卓郎
小森显博
佐藤齐昭
繁田修
山本一幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102375539A publication Critical patent/CN102375539A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/013Head-up displays characterised by optical features comprising a combiner of particular shape, e.g. curvature
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/06Curved planar reformation of 3D line structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本公开提供一种信息处理设备、信息处理方法和程序。该信息处理设备包括:获取部分,被配置为将用户身体的曲线运动获取为操作;显示控制部分,被配置为在虚拟三维空间中显示对象;以及处理执行部分,被配置为基于所获取的操作对所述对象执行处理。所述对象可以被基于设置在所述虚拟三维空间中的用户的虚拟位置布置在第一曲面上,所述第一曲面与所述曲线运动相对应。

Description

信息处理设备、信息处理方法和程序
技术领域
本公开涉及一种信息处理设备、信息处理方法和程序。尤其,本公开涉及一种用于基于用户身体的运动获取操作指令的信息处理设备、信息处理方法和程序。
背景技术
近年来,开发了用于基于用户身体的运动获取对诸如PC(个人计算机)的信息处理设备的操作指令的技术。通过这样的方式来获取用户身体的运动:例如,通过使用附到用户的标记、由用户掌握的控制器或者斑点图案的图像分析等认出诸如用户的手的身体部分,并进一步使用诸如三角测量或TOF(飞行时间)的三维测量方法来识别认出的身体部分的位置。
作为这种技术的例子,JP2009-528514A公开了使用用户姿势作为计算机应用的输入的技术,该用户姿势通过使用斑点图案的图像分析来识别。另外,JP2008-530661A公开了一种将用户存在的物理空间映射到系统上的虚拟空间上并将在物理空中获取的用户的运动反映到光标控制中的技术。
发明内容
然而,当用户尝试在水平地伸展胳膊的同时沿左到右的方向移动其手时,手的运动路径将是基于肩关节作为中心的近似弓形线,这意味着用户的自然身体运动不一定是直线的。相反,在很多PC等的应用中,预测了例如水平方向、竖直方向或深度方向上的沿直线的运动。
因此,当将用户身体的运动用作对如JP2009-528514A和JP2008-530661A中所公开的信息处理设备的操作指令时,例如存在这样的问题:用户应该有意地调整其身体的运动,使得该运动成为沿直线的运动,以发出期望的操作指令,从而,在一些情况下,用户可能被迫做出不自然的身体运动。
有鉴于此,期望提供一种新颖并改进的信息处理设备、信息处理方法和程序,使用该设备、方法和程序,用户可以通过自然的身体运动发出对显示对象的期望的操作指令。
根据本公开的实施例,提供一种信息处理设备,包括:获取部分,被配置为将用户身体的曲线运动获取为操作;显示控制部分,被配置为在虚拟三维空间中显示对象;以及处理执行部分,被配置为基于所获取的操作对对象执行处理。对象可以被基于设置在虚拟三维空间中的用户的虚拟位置布置在第一曲面上,第一曲面与曲线运动相对应。
根据这种结构,用户可以认出基于用户在虚拟三维空间中的虚拟位置布置在与作为用户的自然运动的曲线运动相对应的曲面上的对象。因此,用户变得更容易在将对象在虚拟三维空间中的布置与用户的身体运动彼此链接的同时掌握它们。因此,用户可以被引导通过其身体的自然的曲线运动操作对象。另外,因为对象被布置在虚拟三维空间中与用户的曲线运动相对应的曲面上,所以对象可以基于用户的曲线运动在用户打算的方向上操作。
获取部分可以获取用户的身体的中心部分的位置,以及可以基于中心部分的位置设置用户的虚拟位置。
获取部分可以获取距用户的身体的实际距离,以及可以基于该实际距离设置从用户的虚拟位置到对象的虚拟距离。
获取部分可以获取用户的身体的尺寸,以及可以基于该尺寸设置从用户的虚拟位置到对象的虚拟距离。
对象还可以被基于用户的虚拟位置布置在第二曲面上,第二曲面对应于曲线运动。从用户的虚拟位置到布置在第二曲面上的对象的虚拟距离可以比从用户的虚拟位置到布置在第一曲面上的对象的虚拟距离长。
对象可以具有前面和侧面,且可以布置对象,使得前面朝向用户的虚拟位置。
用户的虚拟位置可以是虚拟三维空间中的点。
曲线运动可以是近似弓形运动,以及第一曲面可以是以点为中心的近似球面。
用户的虚拟位置可以是虚拟三维空间中的直线。
曲线运动可以是近似弓形运动,以及第一曲面可以是以直线为中心的近似圆柱面。
根据本公开的另一实施例,提供一种信息处理方法,包括:将用户身体的曲线运动获取为操作;在虚拟三维空间中显示对象;以及基于所获取的操作对对象执行处理。对象可以被基于设置在虚拟三维空间中的用户的虚拟位置布置在第一曲面上,第一曲面与曲线运动相对应。
根据本公开的另一实施例,提供一种程序,用于使计算机运行为:获取部分,被配置为将用户身体的曲线运动获取为操作;显示控制部分,被配置为在虚拟三维空间中显示对象;以及处理执行部分,被配置为基于所获取的操作对对象执行处理。对象可以被基于设置在虚拟三维空间中的用户的虚拟位置布置在第一曲面上,第一曲面与曲线运动相对应。
根据上述本公开的实施例,用户可以通过自然的身体运动向显示的对象发出期望的操作指令。
附图说明
图1是示出根据本公开第一实施例的信息处理设备的示意性结构的图;
图2是示出根据第一实施例的信息处理设备的功能和结构的框图;
图3是例示第一实施例中显示的对象的布置的图;
图4是例示根据第一实施例中用户的位置设置基准点的例子的图;
图5A是例示根据第一实施例中用户的位置设置虚拟距离的例子的图;
图5B是例示根据第一实施例中用户的位置设置虚拟距离的例子的图;
图6A是例示根据第一实施例中用户的尺寸设置虚拟距离的例子的图;
图6B是例示根据第一实施例中用户的尺寸设置虚拟距离的例子的图;
图7是例示根据本公开第二实施例中显示的对象的布置的图;
图8是例示本公开第三实施例中显示的对象的布置的图。
具体实施方式
在下文,将参照附图详细描述本公开的优选实施例。请注意:在本说明书和附图中,具有基本相同功能和结构的结构元件用相同附图标记表示,并且省略对这些结构元件的重复说明。
说明将按照以下顺序给出:
1.第一实施例
1-1.设备结构
1-2.对象的显示
2.第二实施例
3.第三实施例
4.结论
(1.第一实施例)
(1-1.设备结构)
首先,将参照图1和图2描述根据本公开第一实施例的设备结构。
图1是示出根据本公开第一实施例的信息处理设备100的示意性结构的图。参照图1,信息处理设备100使其显示屏幕200显示虚拟三维空间210和布置在虚拟三维空间210中的对象220。当用户U移动身体部分P1时,信息处理设备100的获取部分110将运动M获取为操作。信息处理设备100基于所获取的操作对对象220执行处理。
信息处理设备100例如可以是诸如PC的设备。信息处理设备100具有获取部分110。信息处理设备100的获取部分110和显示屏幕200可以如示出的那样被提供为集成的单元,或者被分开提供。另外,信息处理设备100可以被实现为由网络上连接到获取部分110和显示屏幕200的服务器提供的功能。下面描述信息处理设备100的功能和结构。
显示屏幕200例如可以是在LCD(液晶显示器)、PDP(等离子体显示面板)或者有机EL(电致发光)面板上显示图像的设备。显示屏幕200可以如示出的那样与信息处理设备100集成,或与信息处理设备100分开提供。显示屏幕200显示虚拟三维空间210和布置在虚拟三维空间210中的对象220。显示屏幕200例如可以用诸如头戴式显示器的另一个显示设备代替。下面描述对象220的显示。
这里,当集成信息处理设备100和显示屏幕200时,考虑例如下面的情况:信息处理设备100是平板电脑,且显示屏幕200是其显示部分。可选择地,信息处理设备100可以是电视,显示屏幕200可以是其屏幕。此外,当分开提供信息处理设备100和显示屏幕200时,例如可以考虑下面的情况:信息处理设备100是桌上型PC,显示屏幕200是连接到PC的显示器。可选择地,信息处理设备100可以是由服务器提供的功能,显示屏幕200可以是经由网络连接到服务器的电视。
用户U通过身体部分P1的运动M操作显示在显示屏幕200上的对象220。尽管这里将手示出为身体部分P1,但是身体部分P1可以是用户U的另一身体部分,诸如左手、肘、肩、脸、膝或脚。用户U的身体的运动M由信息处理设备100的获取部分110获取。这时,获取部分110可以通过将从用户U看去的水平方向、竖直方向和深度方向分别作为x轴、y轴和z轴,来获取用户U的身体的运动M。
人体的运动典型地是以基于关节作为中心的近似弓形运动为基础。因此,在很多情况下,用户U的身体的运动M被捕获为沿曲线的运动。例如,用户U的手的运动可以被认为是基于用户U的肩为中心的近似弓形运动。在这种情况下,除非移动肩的位置,手的运动路径可以被包含于以用户U的肩作为中心的近似球面中。此外,在这种情况下,如果肩的位置通过膝盖弯曲和伸展训练等沿竖直方向移动,则手的运动路径可以被认为以用户U的躯干为轴形成近似圆柱面。如上所述,用户U的运动可以是基于用户U的关节位置、用户U的躯干或用户U的身体中心的近似弓形运动,且用户U的运动路径可以形成表示为近似弧的集合的面,诸如近似球面或近似圆柱面。
图2示出根据本公开第一实施例的信息处理设备100的功能和结构的框图。参照图2,信息处理设备100包括:获取部分110、显示控制部分120、处理执行部分130以及存储部分140。请注意:存储部分140不必包括在信息处理设备100中。
获取部分110将用户U的身体的曲线运动M获取为操作。例如,获取部分110通过使用附到身体部分P1的标记、由身体部分P1掌握的控制器或身体部分P1的斑点图案的图像分析等认出身体部分P1,并进一步使用诸如三角测量或TOF的三维测量方法来识别身体部分P1的位置。同样地,如下面描述的,获取部分110可以获取用户U的身体的中心部分P2的位置。此外,获取部分110可以获取从显示屏幕200到用户U的身体的距离。获取部分110还可以获取用户U的身体尺寸。此外,为了获取用户U的诸如对象220的选择的操作,获取部分110可以例如获取身体部分P1的状态,诸如手是否握拳。为了实现上述功能,获取部分110例如可以包括照相机或红外发射和接收部分。另外,获取部分110还可以包括用于分析和测量目的的处理器。可以用下面描述的CPU(中央处理单元)来实现处理器的功能。
显示控制部分120显示虚拟三维空间210中的对象220。显示控制部分120使显示屏幕200显示虚拟三维空间210和布置在虚拟三维空间210中的对象220。显示控制部分120可以根据由处理执行部分130执行的处理移动对象220或改变对象220的显示。显示控制部分120例如可以是执行用于显示图像的算法处理的GPU(图形处理单元)。显示控制部分120的功能可以用下面描述的CPU来实现。在下面描述对象220的显示。
处理执行部分130基于由获取部分110获取的操作对由显示控制部分120显示的对象220执行处理。对对象220执行的处理例如可以是基于用户U的操作选择一个或更多布置的对象220的处理,或者是基于用户U的操作移动一个或更多所选择的对象220的处理。当由处理执行部分130执行的处理涉及诸如对象220的移动的显示的改变时,处理执行部分130经由显示控制部分120对对象220执行处理。处理执行部分130的功能可以由执行存储于存储部分140中的程序的CPU实现。
存储部分140存储用于信息处理设备100中的处理的数据。例如,存储部分140可以是诸如这样的存储设备:例如,RAM(随机存取存储器)或ROM(只读存储器)。可选择地,存储部分140可以是可移除存储介质,诸如光盘、磁盘或者半导体存储器,或者可以是存储设备和可移除存储介质的结合。存储部分140可以存储用于通过由CPU执行来实现信息处理设备100的每个部分的功能的程序。这种程序可以例如通过存储在可移除存储介质中,或者经由通信部分(未示出)从网络下载来提供。
请注意:信息处理设备100的上述部件不必包括于单个底架(chassis)中。例如,这种部件可以被布置在网络上的不同空间中,使得可以以合作的方式经由网络提供信息处理设备100的功能。
(1-2.对象的显示)
接下来,将参照图3到图6描述根据本公开第一实施例的对象220的显示。
图3是例示在本公开第一实施例中显示的对象220的布置的图。参照图3,对象220被布置在作为以基准点230为中心的近似球面的第一曲面240上,基准点230设置在虚拟三维空间210中。
虚拟三维空间210是由信息处理设备100的显示控制部分120显示在显示屏幕200上的虚拟三维空间。x轴、y轴和z轴如图所示被设置在虚拟三维空间210中。x轴、y轴和z轴可以分别是显示屏幕200的水平方向、竖直方向和深度方向。这里,用户U的身体的运动M可以由获取部分110基于分别作为x轴、y轴和z轴的从用户U看去的水平方向、竖直方向和深度方向来获取。即,与用户U的身体的运动M相对应的坐标系可以被设置在虚拟三维空间210中。
对象220是显示在虚拟三维空间210中的图标,诸如例如表示音乐内容、电影内容等的图标,用于选择内容的指针以及表示要对该内容执行的操作的按钮。尽管在这里对象220被示出为表示内容的近似板状图标,但对象220不限于此。例如,对象220例如可以具有各种形状,诸如表示指针的手型图标。可选择地,对象220可以表示要由处理执行部分130基于信息处理设备100的获取部分110获取的操作执行的处理。作为该处理的例子,可以基于用户U的操作选择对象220,并通过用户U的操作移动所选择的对象220。
这里,对象220被布置在作为以基准点230为中心的近似球面的第一曲面240上。基准点230是设置为用户U在虚拟三维空间210中的虚拟位置的点。例如,基准点230可以被设置为用户U的身体的虚拟中心。请注意:基准点230不必与用户U的实际观察点相关。如上所述,用户U的身体的运动M可以被认作基于用户U的身体的中心作为中心的近似弓形运动。因此,第一曲面240是与用户U的曲线运动M相对应的曲面,第一曲面240是以设置为用户U的虚拟位置的基准点230作为中心的近似球面。
从基准点230到布置在该第一曲面240上的多个对象220的每一个的距离近似相等。例如,距沿深度方向位于基准点230前面的对象220a的距离Da与距位于对象220a右侧的对象220b的距离Db近似相等。这意味着虚拟三维空间210的水平方向上的对象220不沿水平方向上的直线布置,而是沿以基准点230为中心的近似弓形线布置。同样,虚拟三维空间210的竖直方向上的对象220不沿竖直方向上的直线布置,而是沿以基准点230为中心的近似弓形线布置。
请注意:从基准点230到每一个对象220的虚拟距离D可以是预设的值。可选择地,例如,可以提供根据用户U的胳膊的长度调整虚拟距离D的功能。作为其它选择,可以基于用户U的位置、尺寸等调整虚拟距离D。
利用对象220的前述布置,用户U例如从显示屏幕200的显示认出对象220与作为身体部分P1的手的近似弓形运动(自然运动)相对应的布置。另外,用户U被引导以通过进行手的作为自然运动的近似弓形运动来沿水平方向或竖直方向操作对象220。因为对象220在虚拟三维空间210中被与用户U的手的近似弓形运动相对应的布置,对象220可以通过由用户按照被引导地进行的近似弓形运动M,实际地如用户U打算的一样沿水平方向或竖直方向操作。
每个对象220可以具有前面和侧面,并可以被布置使得前面朝向基准点230。在图中所示的示例中,阴影部分对应于每个对象220的前面。通过以这种方式调整每个对象220面对的方向,在对象220例如是表示与用户U的手相对应的指针的图标时,可以允许图标被感知为倾斜,从而向用户U反馈手的实际倾斜。从而,用户U可以容易地掌握虚拟三维空间210的深度的感觉。
(根据用户的位置设置基准点)
图4是例示根据本公开第一实施例中用户U的位置设置基准点230的例子的图。参照图4,信息处理设备100的获取部分110获取用户U的身体的中心部分P2的位置,并且基于身体的中心部分P2设置基准点230。
在此,获取部分110获取用户U的身体的中心部分P2的位置。尽管在这里面部被示出为身体的中心部分P2,但是身体的中心部分P2可以是用户U的另一个身体部分,诸如肩、膝或腰部。显示控制部分120基于由获取部分110获取的身体的中心部分P2的位置设置基准点230的位置。例如,显示控制部分120可以在虚拟三维空间210中设置基准点230,使得其水平位置与如图所示的身体的中心部分P2的位置相对应。显示控制部分120还可以设置基准点230,使得其在虚拟三维空间210中的竖直位置对应于身体的中心部分P2的位置。
如上所述,基于基准点230设置第一曲面240,并且在第一曲面240上布置对象220。当以这种方式将对象220布置在虚拟三维空间210中时,即使用户U位于远离显示屏幕200的中心处,用户U也可以认出对象220被沿近似弓形线布置在与用户U的位置相对应的各位置。从而,用户U可以在将对象220在虚拟三维空间210中的布置以及用户U的身体的运动M彼此链接(link)起来的同时,更容易地掌握它们。因此,用户U可以被引导通过身体部分P1自然的、近似弓形的运动来操作对象220。
(根据用户位置设置虚拟距离)
图5A和图5B是各自例示根据本公开第一实施例中用户U的位置设置虚拟距离D的例子的图。参照图5A和图5B,信息处理设备100的获取部分110获取距用户U的身体的实际距离d。基于实际距离d设置从基准点230到对象220的虚拟距离D。
此处,获取部分110获取距用户U的身体的实际距离d。尽管这里的实际距离d示出为从显示屏幕200到用户U的身体的距离,但是实际距离d不限于此,例如可以是从获取部分110到用户U的身体的距离。显示控制部分120基于由获取部分110获取的实际距离d设置从基准点230到布置在第一曲面240上的对象220的虚拟距离D。
例如,图5A示出从显示屏幕200到用户U的身体的实际距离d相对长的情况。在这种情况下,显示控制部分120将从基准点230到布置在第一曲面240上的对象220的虚拟距离D设置为相对大的值。即,显示对象220,使得它们看起来在虚拟三维空间210中看起来远离。
此外,图5B示出从显示屏幕200到用户U的身体的实际距离d比图5A中所示距离短的情况。在这种情况下,显示控制部分120将从基准点230到布置在第一曲面240上的对象220的虚拟距离D设置为比图5A中所示的虚拟距离小的值。即,显示对象220,使得它们看起来在虚拟三维空间210中比在图5A中所示的近。
尽管这里简化地示出了x-z平面,虚拟距离D还可以包括如图3所示虚拟三维空间210中的y轴方向上的分量。
当对象220以如上所述的虚拟距离D布置时,用户U例如认出在其向显示屏幕200靠近时,对象220被显示逐渐向其靠近,好像对象220包围着他/她。从而,用户U在将对象220在虚拟三维空间210中的布置以及用户U的身体的运动M彼此链接的同时,变得更容易地掌握它们。因此,用户U可以被引导通过身体部分P1的自然的、近似弓形的运动操作对象220。
(根据用户的尺寸设置虚拟距离)
图6A和图6B是各自例示根据本公开第一实施例中用户U的尺寸设置虚拟距离D的例子的图。参照图6A和图6B,信息处理设备100的获取部分110获取用户U的身体尺寸S,并且基于该尺寸S设置从基准点230到对象220的虚拟距离D。
此处,获取部分110获取用户U的身体尺寸S。尺寸S可以例如是如图所示用户U的身体在水平方向上的长度。尺寸S可以是用户U的身体的各种尺寸,诸如用户U的身体在竖直方向上的长度、手的尺寸或胳膊的长度。显示控制部分120基于由获取部分110获取的尺寸S设置从基准点230到布置在第一曲面240上的对象220的虚拟距离D。
例如,图6A示出用户U的身体尺寸S相对长的情况。在这种情况下,显示控制部分120将从基准点230到布置在第一曲面240上的对象220的虚拟距离D设置为相对大的值。即,显示对象220,使得它们在虚拟三维空间210中沿具有大半径的近似弓形线布置。
此外,图6B示出用户U的身体尺寸S小于图6A中所示身体尺寸S的情况。在这种情况下,显示控制部分120将从基准点230到布置在第一曲面240上的对象220的虚拟距离D设置为比图6A中所示的虚拟距离D小的值。即,显示对象220,使得它们沿具有比图6A中所示的半径小的半径的近似弓形线布置。
尽管这里简化地示出了x-z平面,虚拟距离D还可以包括如图3中所示的虚拟三维空间210中的沿y轴方向的分量。
当以如上所述设置的虚拟距离D布置对象220时,用户U认出对象220接近用户U显示,好像对象220以与用户U的身体尺寸S相对应的半径围绕着他/她。从而,用户U变得更容易在将对象220在虚拟三维空间210中的布置以及用户U的身体的运动M彼此链接的同时掌握它们。因此,用户U可以被引导来通过身体部分P1的自然的、接近弓形的运动来操作对象220。
(2.第二实施例)
接下来,将参照图7描述本公开的第二实施例。本公开的第二实施例不同于第一实施例之处在于:显示的对象的布置。然而,其它功能和结构与第一实施例的功能和结构大致相同。因此,在此省略对其详细描述。
图7是例示在本公开第二实施例中显示的对象220的布置的图。参照图7,对象220还基于基准点230布置在与用户U的曲线运动相对应的第二曲面250上。从基准点230到布置在第二曲面250上的对象220的虚拟距离D2比从基准点230到布置在第一曲面240上的对象220的虚拟距离D1长。
第二曲面250可以是与第一曲面240同以基准点230作为中心的近似球面。信息处理设备100的显示控制部分120可以在虚拟三维空间210中以交叠方式显示第一曲面240上的显示对象220,以及第二曲面250上的显示对象220。例如,第一曲面240和第二曲面250可以被选择性地使用,使得当对象220是表示内容的图标时,在第一曲面240上显示表示频繁观看的内容的图标,在第二曲面250上显示表示较低频率观看的内容的图标。
当如上所述使用第一曲面240和第二曲面250以交叠的方式布置对象220时,变得可以在虚拟三维空间210中显示更多的对象220。此外,用户U可以通过将手从其身体移开使对象220显示得距其更远,并可以通过将手移动得距其身体更近使对象220显示得距其更近。因此,用户U可以更直观地进行例如相互交换第一曲面240上的对象220和第二曲面250上的对象220的操作。
请注意:在第一实施例中描述的根据用户U的位置设置基准点230、根据用户U的身体的实际距离d设置虚拟距离D以及根据用户U的尺寸S设置虚拟距离D可以简单地应用于本实施例中。在这种情况下,显示控制部分120增加或减小从基准点230到布置在第一曲面240上的对象220的虚拟距离D1,以及从基准点230到布置在第二曲面250上的对象220的虚拟距离D2。虚拟距离D1和D2可以例如以保持在它们之间的预定比例增大或减小,或者彼此独立地增大或减小。
(3.第三实施例)
接下来,参考图8描述本公开的第三实施例。本公开的第三实施例与第一实施例的不同之处在于显示的对象的布置。然而,其它功能和结构与第一实施例的功能和结构大致相同。因此,这里省略其详细描述。
图8是例示本公开第三实施例中显示的对象220的布置的图。参照图8,对象220被布置在第一曲面340上,第一曲面340是以设置在虚拟三维空间210中的基准线330为中心的近似圆柱面。
基准线330是设置为用户U在虚拟三维空间210中的虚拟位置的直线。基准线330可以例如被设置为与用户U的虚拟身体轴相对应的直线。请注意:基准线330不必与用户U的实际观察点相关。如上所述,用户U的身体的运动M可以是基于用户U的身体轴作为中心的近似弓形运动。因此,在虚拟三维空间210中,第一曲面340是以被设置为用户U的虚拟位置的基准线330为中心的近似圆柱面,是基于基准线330的与用户U的曲线运动M相对应的曲面。
从基准线330上的点到在第一曲面340的相同竖直位置中布置的多个对象220中的每一个对象的距离近似相等。例如,从基准线330上的点335到对象220c的距离Dc近似等于从基准线330上的点335到与对象220位于相同竖直位置处的对象220d的距离Dd。这意味着从用户U看去对象220在水平方向上的布置不是水平方向上的直线,而是以基准线330上的点为中心的近似弓形线。
尽管这里的基准线330被示出为虚拟三维空间210的竖直方向上的直线,但基准线330不限于此,而可以是设置为用户U的虚拟位置的任何直线。例如,基准线330可以是虚拟三维空间210的水平方向上的直线。在该情况下,基准线330可以被设置为连接用户U的虚拟右肩和左肩的线。
利用对象220的前述布置,用户U根据显示屏幕200的显示认出例如对象220与作为身体部分P1的手的作为自然运动的近似弓形运动相对应地布置。因此,用户U被引导通过进行手的作为自然运动的近似弓形运动沿水平方向操作对象220。因为对象220被与虚拟三维空间210中的用户U的手的近似弓形运动相对应地布置,所以对象220可以通过由用户按照被引导的那样执行近似弓形运动M,实际按照用户U的意图在水平方向上进行操作。此外,对象220被沿竖直方向上的直线布置。例如,当对象220利用由信息处理设备100提供的功能沿虚拟三维空间210的水平方向频繁操作时,在对象210不频繁操作的竖直方向上的直线上布置对象220将使得可以显示向用户U提供稳定的感觉的虚拟三维空间210。
请注意:在第一实施例中描述的根据用户U的位置设置基准点230、根据距用户U的身体的实际距离设置虚拟距离D以及根据用户U的尺寸S设置虚拟距离D可以被相似地应用于本实施例中。在这种情况下,考虑垂直于基准线330的平面,像基准线330是y轴方向上的直线时的x-z平面。然后,可以通过与第一实施例中的基准点230相同的方式处理基准线330来设置对象220的布置。
另外,在本实施例中,除了第一曲面340之外还可以设置第二曲面,并且也如在第二实施例中一样将对象220布置在第二曲面上。在这种情况下,第二曲面可以是与第一曲面340一样以基准线330为中心的近似圆柱面。
(4.结论)
在本公开的前述实施例中,提供了一种信息处理设备,包括:获取部分,被配置为将用户身体的曲线运动获取为操作;显示控制部分,被配置为在虚拟三维空间中显示对象;以及处理执行部分,被配置为基于所获取的操作对对象执行处理,其中,对象被基于设置在虚拟三维空间中的用户的虚拟位置布置在第一曲面上,第一曲面与曲线运动相对应。
在本公开的前述实施例中,提供了一种信息处理方法,包括:将用户身体的曲线运动获取为操作;在虚拟三维空间中显示对象;以及基于所获取的操作对对象执行处理,其中,对象被基于设置在虚拟三维空间中的用户的虚拟位置布置在第一曲面上,第一曲面与曲线运动相对应。
在本公开的前述实施例中,提供了一种程序,用于使计算机运行为:获取部分,被配置为将用户身体的曲线运动获取为操作;显示控制部分,被配置为在虚拟三维空间中显示对象;以及处理执行部分,被配置为基于所获取的操作对对象执行处理,其中,对象被基于设置在虚拟三维空间中的用户的虚拟位置布置在第一曲面上,第一曲面与曲线运动相对应。
在本公开的前述实施例中,获取部分110可以获取用户U的身体的中心部分P2的位置,且可以基于中心部分P2的位置设置基准点230或基准线330。根据这种结构,可以使显示的对象220的布置对应于与显示屏幕200相对的用户U的位置。因此,可以使用户U在将对象220在虚拟三维空间210中的布置以及用户U的身体的运动M更高效地彼此链接的同时掌握它们,并且可以引导用户U通过其身体的自然的曲线运动操作对象220。
在本公开的前述实施例中,获取部分110可以获取距用户U的身体的实际距离d,并且可以基于实际距离d设置从基准点230或基准线330到对象220的虚拟距离D。根据这种结构,可以根据用户U的位置是靠近显示屏幕200还是远离显示屏幕200来改变距虚拟三维空间210中的对象220的距离。因此,可以使用户在将对象220在虚拟三维空间210中的布置以及用户U的身体的运动M更高效地彼此链接的同时掌握它们,并且可以引导用户U通过其身体的自然的曲线运动操作对象220。
在本公开的前述实施例中,获取部分110可以获取用户U的身体尺寸S,并且可以基于该尺寸S设置从基准点230或基准线330到对象220的虚拟距离D。根据这种结构,可以根据用户的身体尺寸S改变距虚拟三维空间210中的对象220的距离。即,对于具有相对大的身体的用户U,对象220可以被显示在虚拟三维空间210中距其相对远的位置处,且对于具有相对小身体的用户U,如儿童,对象220可以被显示在虚拟三维空间210中靠其相对近的位置处。例如,当用户U打算通过移动其手来移动对象220时,对象220可以被布置于与用户U的胳膊长度相对应的位置处。因此,可以使用户U在更高效地将对象220在虚拟三维空间210中的布置以及用户U的身体的运动M彼此链接的同时掌握它们,并且可以引导用户U通过其身体的自然的曲线运动操作对象220。
在本公开的前述实施例中,对象220也可以基于基准点230或基准线330布置在与曲线运动M相对应的第二曲面250上。另外,从基准点230或基准线330到布置在第二曲面250上的对象220的虚拟距离D2可以比从基准点230或基准线330到布置在第一曲面240上的对象的虚拟距离D1长。根据这种结构,可以在虚拟三维空间210中布置更多对象220。另外,用户U可以在虚拟三维空间210中认出这样布置使得它们沿远离用户U的身体的方向彼此交叠的对象220,并且用户U可以被引导通过沿远离身体的方向进行自然运动沿对象220的交叠的方向操作对象220。
在本公开的前述实施例中,每个对象220可以具有前面和各侧面,并且被布置为使得前面朝向基准点230或基准线330。根据这种结构,用户U可以容易地掌握虚拟三维空间210的深度的感觉。
在本公开的前述实施例中,用户U的虚拟位置可以被设置为虚拟三维空间210中的基准点230。根据这种结构,可以使用户U沿水平方向和竖直方向中的每一个方向将对象220的布置链接到用户U的身体的运动M,并且可以引导用户U通过其身体的自然的曲线运动操作对象220。
在本公开的前述实施例中,曲线运动M可以是近似弓形运动,且第一曲面240可以是以基准点230为中心的球面。另外,第二曲面250也可以是像第一曲面240一样的近似球面。根据这种结构,可以将对象220布置在与用户U沿竖直方向和水平方向的作为自然身体运动的近似弓形运动相对应的第一曲面240或第二曲面250上,该近似弓形运动例如是诸如以用户U的肩为中心的用户U的手的近似弓形运动。
在本公开的前述实施例中,用户U的虚拟位置可以被设置为虚拟三维空间210中的基准线330。根据这种结构,可以使用户U沿诸如水平方向或竖直方向的特定方向将对象220的布置链接到用户U的身体的运动M,并可以引导用户U通过其身体的自然的曲线运动操作对象。此外,沿其它方向上的直线布置对象220将使得可以显示向用户U提供稳定的感觉的虚拟三维空间210。
根据本公开的前述实施例,曲线运动M可以是近似弓形的运动,且第一曲面340可以是以基准线330为中心的近似圆柱面。另外,第二曲面可以是像第一曲面340一样的近似圆柱面。根据这种结构,可以将对象220布置在与用户U沿诸如竖直方向或水平方向的特定方向的作为自然身体运动的近似弓形运动相对应的第一曲面340或第二曲面上,该近似弓形运动例如像是用户U以其躯干为中心的手的近似弓形运动。
尽管参照附图详细描述了本公开的优选实施例,但是本公开不限于此。对本领域技术人员明显地,可以有各种修改或者变化,只要它们落入所附的权利要求书和等同物的技术范围内。应理解这些修改或者变化也在本公开的技术范围内。
例如,尽管前述实施例示出了第一曲面和第二曲面中的每一个是近似球面或近似圆柱面的示例,但本公开不限于此。例如,第一曲面和第二曲面中的每一个可以是基于基准点或基准线的另一个二次曲面,诸如椭圆面、椭圆抛物面、椭圆柱面、双曲柱面或抛物柱面。
另外,尽管前述实施例示出了垂直于深度方向的方向是水平方向和竖直方向的示例,但本公开不限于此。例如,代替使用水平方向和竖直方向,可以使用从左下角延伸到右上角的对角线方向,以及从左上角延伸到右下角的对角线方向。这种方向不必要彼此相正交,可以例如根据由信息处理设备提供的功能来适当地设置。
此外,尽管前述实施例示出了第一曲面和第二曲面,本公开不限于此。例如,可以像针对第一曲面的第二曲面一样,设置针对第二曲面的第三曲面。即,虚拟三维空间中布置对象的曲面的数目不限于两个,可以是任意数目。
本公开包含涉及2010年8月19日在日本专利局提交的日本优先权专利申请JP 2010-184007中公开的主题,其整体内容通过引用包含于此。

Claims (12)

1.一种信息处理设备,包括:
获取部分,被配置为将用户身体的曲线运动获取为操作;
显示控制部分,被配置为在虚拟三维空间中显示对象;以及
处理执行部分,被配置为基于所获取的操作对所述对象执行处理,
其中,所述对象被基于设置在所述虚拟三维空间中的所述用户的虚拟位置布置在第一曲面上,所述第一曲面与所述曲线运动相对应。
2.根据权利要求1所述的信息处理设备,其中
所述获取部分获取所述用户的身体的中心部分的位置,以及
基于所述中心部分的位置设置所述用户的所述虚拟位置。
3.根据权利要求1或2所述的信息处理设备,其中
所述获取部分获取距所述用户的身体的实际距离,以及
基于所述实际距离设置从所述用户的虚拟位置到所述对象的虚拟距离。
4.根据权利要求1或2所述的信息处理设备,其中
所述获取部分获取所述用户的身体的尺寸,以及
基于所述尺寸设置从所述用户的虚拟位置到所述对象的虚拟距离。
5.根据权利要求1所述的信息处理设备,其中
所述对象还被基于所述用户的所述虚拟位置布置在第二曲面上,所述第二曲面对应于所述曲线运动,以及
从所述用户的虚拟位置到布置在所述第二曲面上的对象的虚拟距离比从所述用户的虚拟位置到布置在所述第一曲面上的对象的虚拟距离长。
6.根据权利要求1所述的信息处理设备,其中所述对象具有前面和侧面,且布置所述对象,使得所述前面朝向所述用户的虚拟位置。
7.根据权利要求1或2所述的信息处理设备,其中所述用户的虚拟位置是所述虚拟三维空间中的点。
8.根据权利要求7所述的信息处理设备,其中
所述曲线运动是近似弓形运动,以及
所述第一曲面是以所述点为中心的近似球面。
9.根据权利要求1或2所述的信息处理设备,其中所述用户的虚拟位置是所述虚拟三维空间中的直线。
10.根据权利要求9所述的信息处理设备,其中
所述曲线运动是近似弓形运动,以及
所述第一曲面是以所述直线为中心的近似圆柱面。
11.一种信息处理方法,包括:
将用户身体的曲线运动获取为操作;
在虚拟三维空间中显示对象;以及
基于所获取的操作对所述对象执行处理,
其中,所述对象被基于设置在所述虚拟三维空间中的所述用户的虚拟位置布置在第一曲面上,所述第一曲面与所述曲线运动相对应。
12.一种程序,用于使计算机运行为:
获取部分,被配置为将用户身体的曲线运动获取为操作;
显示控制部分,被配置为在虚拟三维空间中显示对象;以及
处理执行部分,被配置为基于所获取的操作对所述对象执行处理,
其中,所述对象被基于设置在所述虚拟三维空间中的所述用户的虚拟位置布置在第一曲面上,所述第一曲面与所述曲线运动相对应。
CN201110236550XA 2010-08-19 2011-08-12 信息处理设备、信息处理方法和程序 Pending CN102375539A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010184007A JP5609416B2 (ja) 2010-08-19 2010-08-19 情報処理装置、情報処理方法およびプログラム
JP2010-184007 2010-08-19

Publications (1)

Publication Number Publication Date
CN102375539A true CN102375539A (zh) 2012-03-14

Family

ID=45595055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110236550XA Pending CN102375539A (zh) 2010-08-19 2011-08-12 信息处理设备、信息处理方法和程序

Country Status (3)

Country Link
US (2) US9411410B2 (zh)
JP (1) JP5609416B2 (zh)
CN (1) CN102375539A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331168A (zh) * 2014-11-28 2015-02-04 广东欧珀移动通信有限公司 显示调整方法和电子设备
CN106200921A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN109254660A (zh) * 2018-08-31 2019-01-22 歌尔科技有限公司 内容显示方法、装置及设备
CN109643206A (zh) * 2016-06-28 2019-04-16 株式会社尼康 控制装置、显示装置、程序及检测方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11064910B2 (en) 2010-12-08 2021-07-20 Activbody, Inc. Physical activity monitoring system
JP5646532B2 (ja) * 2012-03-26 2014-12-24 ヤフー株式会社 操作入力装置、操作入力方法、及び、プログラム
US10102345B2 (en) 2012-06-19 2018-10-16 Activbody, Inc. Personal wellness management platform
US9230064B2 (en) 2012-06-19 2016-01-05 EZ as a Drink Productions, Inc. Personal wellness device
US10133849B2 (en) 2012-06-19 2018-11-20 Activbody, Inc. Merchandizing, socializing, and/or gaming via a personal wellness device and/or a personal wellness platform
JP6195893B2 (ja) * 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
US9229476B2 (en) 2013-05-08 2016-01-05 EZ as a Drink Productions, Inc. Personal handheld electronic device with a touchscreen on a peripheral surface
US9262064B2 (en) * 2013-07-09 2016-02-16 EZ as a Drink Productions, Inc. Handheld computing platform with integrated pressure sensor and associated methods of use
US10124246B2 (en) 2014-04-21 2018-11-13 Activbody, Inc. Pressure sensitive peripheral devices, and associated methods of use
JP2016091192A (ja) * 2014-10-31 2016-05-23 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP6097377B1 (ja) * 2015-11-27 2017-03-15 株式会社コロプラ 画像表示方法及びプログラム
JP6805524B2 (ja) * 2016-03-30 2020-12-23 富士通株式会社 入力装置、入力プログラム、及び入力方法
JP2016165153A (ja) * 2016-06-08 2016-09-08 株式会社コロプラ コンテンツ視聴のための装置および方法、並びにコンテンツ視聴動作をコンピュータに制御させるコンピュータ・プログラム
JP6189496B1 (ja) * 2016-07-20 2017-08-30 株式会社コロプラ 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体
US10831332B2 (en) * 2017-02-23 2020-11-10 The Florida International University Board Of Trustees User interface element for building interior previewing and navigation
US10503456B2 (en) * 2017-05-05 2019-12-10 Nvidia Corporation Method and apparatus for rendering perspective-correct images for a tilted multi-display environment
CN107329566B (zh) * 2017-06-23 2020-03-24 联想(北京)有限公司 虚拟对象处理方法及其系统、虚拟现实设备
WO2019045144A1 (ko) * 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US10671237B2 (en) * 2017-10-16 2020-06-02 Microsoft Technology Licensing, Llc Human-machine interface for presenting a user interface on a virtual curved visual surface
JP2019086911A (ja) * 2017-11-02 2019-06-06 三菱自動車工業株式会社 車載ユーザーインターフェース装置
US10585294B2 (en) * 2018-02-19 2020-03-10 Microsoft Technology Licensing, Llc Curved display on content in mixed reality
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
JP7058198B2 (ja) * 2018-08-21 2022-04-21 グリー株式会社 画像表示システム、画像表示方法及び画像表示プログラム
CA3057507C (en) * 2018-10-03 2023-08-22 Khaled Shariff Virtual reality system and method for displaying on a real-world display a viewable portion of a source file projected on an inverse spherical virtual screen
US10854169B2 (en) 2018-12-14 2020-12-01 Samsung Electronics Co., Ltd. Systems and methods for virtual displays in virtual, mixed, and augmented reality
JP2019123503A (ja) * 2019-02-25 2019-07-25 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
JP2019197554A (ja) * 2019-06-13 2019-11-14 株式会社コロプラ コンテンツ視聴のための装置および方法、並びにコンテンツ視聴動作をコンピュータに制御させるコンピュータ・プログラム
JP2022063133A (ja) * 2020-10-09 2022-04-21 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及び情報処理方法
JP7100100B2 (ja) * 2020-10-26 2022-07-12 パイオニア株式会社 虚像表示装置、制御方法、プログラム、及び記憶媒体
CN114461057A (zh) * 2020-11-09 2022-05-10 华为技术有限公司 Vr显示控制方法、电子设备及计算机可读存储介质
US11531448B1 (en) * 2022-06-01 2022-12-20 VR-EDU, Inc. Hand control interfaces and methods in virtual reality environments

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130677A (en) * 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US20030077556A1 (en) * 1999-10-20 2003-04-24 French Barry J. Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
US20050059488A1 (en) * 2003-09-15 2005-03-17 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US20090300551A1 (en) * 2008-06-03 2009-12-03 French Barry J Interactive physical activity and information-imparting system and method
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3786294B2 (ja) * 1995-10-02 2006-06-14 ソニー株式会社 画像制御装置および方法
JPH10232757A (ja) * 1997-02-19 1998-09-02 Sharp Corp メディア選択装置
US20020040377A1 (en) * 1998-09-25 2002-04-04 Newman Edward G. Computer with audio interrupt system
US6636246B1 (en) * 2000-03-17 2003-10-21 Vizible.Com Inc. Three dimensional spatial user interface
JP2006209563A (ja) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd インターフェース装置
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
WO2007096893A2 (en) 2006-02-27 2007-08-30 Prime Sense Ltd. Range mapping using speckle decorrelation
JP2008089985A (ja) * 2006-10-02 2008-04-17 Pioneer Electronic Corp 画像表示装置
JP5262681B2 (ja) * 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US20100309197A1 (en) * 2009-06-08 2010-12-09 Nvidia Corporation Interaction of stereoscopic objects with physical objects in viewing area
US8271905B2 (en) * 2009-09-15 2012-09-18 International Business Machines Corporation Information presentation in virtual 3D

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130677A (en) * 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US20030077556A1 (en) * 1999-10-20 2003-04-24 French Barry J. Education system challenging a subject's physiologic and kinesthetic systems to synergistically enhance cognitive function
US20050059488A1 (en) * 2003-09-15 2005-03-17 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
CN101810003A (zh) * 2007-07-27 2010-08-18 格斯图尔泰克股份有限公司 增强的基于相机的输入
US20090300551A1 (en) * 2008-06-03 2009-12-03 French Barry J Interactive physical activity and information-imparting system and method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104331168A (zh) * 2014-11-28 2015-02-04 广东欧珀移动通信有限公司 显示调整方法和电子设备
CN104331168B (zh) * 2014-11-28 2018-01-16 广东欧珀移动通信有限公司 显示调整方法和电子设备
CN106200921A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN109643206A (zh) * 2016-06-28 2019-04-16 株式会社尼康 控制装置、显示装置、程序及检测方法
CN106200921B (zh) * 2016-06-28 2019-08-20 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
US11635827B2 (en) 2016-06-28 2023-04-25 Nikon Corporation Control device, display device, program, and detection method
CN109254660A (zh) * 2018-08-31 2019-01-22 歌尔科技有限公司 内容显示方法、装置及设备
CN109254660B (zh) * 2018-08-31 2020-11-17 歌尔光学科技有限公司 内容显示方法、装置及设备
US11348311B2 (en) 2018-08-31 2022-05-31 Goertek Inc. Content display method, apparatus and device for three-dimensional scene

Also Published As

Publication number Publication date
JP2012043195A (ja) 2012-03-01
US9411410B2 (en) 2016-08-09
US20120047465A1 (en) 2012-02-23
US20160313800A1 (en) 2016-10-27
US10241582B2 (en) 2019-03-26
JP5609416B2 (ja) 2014-10-22

Similar Documents

Publication Publication Date Title
CN102375539A (zh) 信息处理设备、信息处理方法和程序
Mendes et al. A survey on 3d virtual object manipulation: From the desktop to immersive virtual environments
US11221730B2 (en) Input device for VR/AR applications
US11119581B2 (en) Displacement oriented interaction in computer-mediated reality
US8395620B2 (en) Method and system for tracking of a subject
EP3639117B1 (en) Hover-based user-interactions with virtual objects within immersive environments
Argelaguet et al. A survey of 3D object selection techniques for virtual environments
US20200310561A1 (en) Input device for use in 2d and 3d environments
KR101318244B1 (ko) 3차원 사용자 인터페이스 구현 시스템 및 구현 방법
Babic et al. Pocket6: A 6dof controller based on a simple smartphone application
US9547371B2 (en) User interface apparatus and method for controlling the same
Katzakis et al. INSPECT: extending plane-casting for 6-DOF control
Cui et al. Mid-air interaction with optical tracking for 3D modeling
Bai et al. Asymmetric Bimanual Interaction for Mobile Virtual Reality.
Kamuro et al. 3D Haptic modeling system using ungrounded pen-shaped kinesthetic display
Cui et al. Interactive shape modeling using leap motion controller
Liu et al. COMTIS: Customizable touchless interaction system for large screen visualization
Abdullah et al. A virtual environment with haptic feedback for better distance estimation
JP2011215692A (ja) 3次元3自由度回転パラメータ処理装置
Henschke et al. Extending the index finger is worse than sitting: Posture and minimal objects in 3D pointing interfaces
Poupyrev 3d manipulation techniques
Wu et al. An empirical practice of design and evaluation of freehand interaction gestures in virtual reality
Sato et al. 3D freeform design: interactive shape deformations by the use of CyberGlove
Ma et al. Remote Object Taking and Movement in Augment Reality
Oshita et al. Character motion control by hands and principal component analysis

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20120314