CN107710105A - 操作输入装置和操作输入方法 - Google Patents
操作输入装置和操作输入方法 Download PDFInfo
- Publication number
- CN107710105A CN107710105A CN201680038643.2A CN201680038643A CN107710105A CN 107710105 A CN107710105 A CN 107710105A CN 201680038643 A CN201680038643 A CN 201680038643A CN 107710105 A CN107710105 A CN 107710105A
- Authority
- CN
- China
- Prior art keywords
- indicator
- posture
- user
- operation input
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
位置/姿势获取单元730获取关于穿戴可穿戴显示设备的用户的姿势的信息。操作输入单元790通过用户动作接收操作输入。指示器显示单元780使得可穿戴显示设备显示指示在做出动作时用户的姿势的改变量的指示器。当姿势的改变量超过预定阈值时,操作输入单元790通过动作接收操作输入。
Description
技术领域
本发明涉及用于可穿戴显示器中的输入操作的装置和方法。
背景技术
正在开发的系统在头戴式显示器中显示全景视频。在该系统中,当穿戴头戴式显示器的用户转动头部时,显示与视线的方向对应的全景图像。通过使用头戴式显示器,可以增加沉浸在视频中的感觉并且提高诸如游戏的应用的可操作性。此外,漫游系统也正在开发中。在漫游系统中,穿戴头戴式显示器的用户可以通过物理移动在作为视频显示的空间内虚拟地四处走动。
发明内容
技术问题
穿戴诸如头戴式显示器的可穿戴显示器的用户在使用诸如控制器或键盘的输入设备向系统输入操作时遇到困难。通过动作(gesture)输入操作是一种方法,但用户可能感觉到压力,因为用户不知道对于该动作移动多少。
本发明是鉴于上述问题而完成的,并且本发明的目的在于提供一种操作输入装置以及操作输入方法,其能够在可穿戴显示器中容易地输入操作。
对于问题的解决方案
为了解决上述问题,根据本发明的模型的操作输入装置包括:姿势获取单元,其获取关于穿戴可穿戴显示装置的用户的姿势的信息;操作输入单元,其接收通过用户的动作的操作输入;以及指示器显示单元,使得可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量。当姿势的改变量超过预定阈值时,操作输入单元通过姿势接收操作输入。
本发明的另一模型是操作输入方法。该方法包括:获取关于穿戴可穿戴显示装置的用户的姿势的信息的姿势获取步骤;接收通过用户的动作的操作输入的操作输入步骤;以及使得可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量的指示器显示步骤。当姿势的改变量超过预定阈值时,操作输入步骤通过姿势接收操作输入。
应该注意的是,上述组件的任意组合,以及本发明在方法、装置、系统、计算机程序、数据结构、记录介质等中的表述的任意变形作为本发明的模型也是有效的。
发明的有益效果
根据本发明,可以在可穿戴显示器中容易地输入操作。
附图说明
图1是头戴式显示器的外观图。
图2是头戴式显示器的功能配置图。
图3是根据本实施例的全景图像生成系统的配置图。
图4是根据本实施例的全景图像生成设备的功能配置图。
图5(a)至5(c)是用于描述在头戴式显示器中显示的全景图像和内容列表的视图。
图6(a)至6(c)是用于描述在头戴式显示器中显示的指示器的刻度改变的视图。
图7(a)至7(c)是用于描述对于水平摆动头部的动作,姿势的改变量和指示器的刻度之间的关系的视图。
图8(a)至8(c)是用于描述对于垂直摆动头部的动作(点头),姿势的改变量和指示器的刻度之间的关系的视图。
图9(a)至9(c)是用于描述对于倾斜头部的动作,姿势的改变量和指示器的刻度之间的关系的视图。
图10(a)和10(b)是用于描述对于点头动作,姿势的初始位置和操作阈值之间的关系的视图。
图11(a)至11(e)是用于描述垂直摆动头部的动作和指示器的形状之间的对应关系的视图。
图12(a)至12(e)是用于描述水平摆动头部的动作和指示器的形状之间的对应关系的视图。
图13(a)至13(e)是用于描述倾斜头部的动作和指示器的形状之间的对应关系的视图。
具体实施方式
图1是头戴式显示器100的外观图。头戴式显示器100包括主体部分110、额区接触部分120和颞区接触部分130。
头戴式显示器100是穿戴在用户的头部上的显示装置,用于观看在显示器中显示的静止图像、运动图像等并收听从头戴式耳机输出的声音、音乐等。
内置于头戴式显示器100或外部安装在头戴式显示器100上的姿势传感器可以测量诸如穿戴头戴式显示器100的用户的头部的旋转角度和倾斜度的姿势信息。
头戴式显示器100是“可穿戴显示装置(wearable display apparatus)”的示例。可穿戴显示装置不限于狭义上的头戴式显示器100,而是包括诸如眼镜、眼镜式显示器、眼镜式照相机、头戴式耳机、耳麦(带麦克风的头戴式耳机)、听筒、耳环、耳挂式照相机、帽子、带照相机的帽子或头带的任何可穿戴显示装置。
图2是头戴式显示器100的功能配置图。
控制单元10是处理和输出诸如图像信号和传感器信号、指令和数据的信号的主处理器。输入接口20接收来自用户的操作信号和设置信号,并将该信号提供给控制单元10。输出接口30接收来自控制单元10的图像信号,并使得显示器显示该图像信号。背光32向液晶显示器提供背光。
通信控制单元40经由网络适配器42或天线44通过有线或无线通信将从控制单元10输入的数据发送到外部。此外,通信控制单元40经由网络适配器42或天线44通过有线或无线通信从外部接收数据,并将数据输出到控制单元10。
存储单元50临时存储要由控制单元10处理的数据、参数、操作信号等。
姿势传感器64检测诸如头戴式显示器100的主体部分110的旋转角度和倾斜度等的姿势信息。姿势传感器64通过陀螺仪传感器、加速度传感器、角加速度传感器等适当的组合实现。
外部输入/输出终端接口70是用于连接诸如通用串行总线(USB)控制器的外围设备的接口。外部存储器72是诸如闪存的外部存储器。
时钟单元80根据从控制单元10接收的设置信号来设置时间信息,并将时间数据提供给控制单元10。
控制单元10可以将图像和文本数据提供给输出接口30以将图像和文本数据显示在显示器中,或者提供给通信控制单元40,以将图像和文本数据发送到外部。
图3是根据本实施例的全景图像生成系统的配置图。头戴式显示器100通过用于无线通信或用于诸如USB的外围设备的连接的接口300连接到游戏机200。游戏机200可以进一步经由网络连接到服务器。在这种情况下,服务器可以向游戏机200提供诸如多个用户可以经由网络参与的游戏的在线应用。头戴式显示器100可以连接到计算机或移动终端,而不是游戏机200。
要在头戴式显示器100中显示的全景图像可以是预先捕获的360度全景静止图像或全景移动图像,或者可以是诸如游戏空间的人造全景图像。此外,全景图像可以是经由网络分布的远程位置的现场视频。
图4是根据本实施例的全景图像生成设备700的功能配置图。该图描绘了侧重于功能的方块图。这些功能块可以仅通过硬件、软件或其组合的各种方式来实现。
全景图像生成设备700安装在与头戴式显示器100连接的游戏机200中。然而,全景图像生成设备700的至少一部分功能可以安装在头戴式显示器100的控制单元10中。可替代地,全景图像生成设备700的至少一部分功能可以安装在经由网络连接到游戏机200的服务器中。
变焦指示获取单元710获取用户经由头戴式显示器100的输入接口20指示的变焦倍率。将由变焦指示获取单元710获取的变焦倍率提供给灵敏度调整单元720和全景图像处理750单元。
位置和姿势获取单元730基于由头戴式显示器100的运动传感器检测出的位置信息和由姿势传感器64检测出的姿势信息,获取穿戴头戴式显示器100的用户的头部的位置和姿势。游戏机200的照相机可以检测头戴式显示器100的运动以获取用户头部的位置。
位置和姿势获取单元730基于从灵敏度调整单元720指示的灵敏度获取用户的头部的位置和姿势。例如,当用户转动头部时,姿势传感器64检测用户头部的角度改变。然而,灵敏度调整单元720指示位置和姿势获取单元730忽略检测到的角度改变直到角度改变超过预定值。
此外,灵敏度调整单元720基于从变焦指示获取单元710获取的变焦倍率调整头部角度检测的灵敏度。随着变焦倍率的增加,头部角度检测的灵敏度降低。由于变焦收缩了视角,所以降低头部角度检测的灵敏度可以减小头部摆动时显示图像的振动。
三轴地磁传感器、三轴加速度传感器和三轴陀螺仪(角速度)传感器中的至少一个的组合可以作为运动传感器来检测用户的头部的前后、左右、以及上下运动。此外,通过组合关于用户的头部的位置的信息,可以提高头部的运动检测的精度。
坐标变换单元740基于由位置和姿势获取单元730获得的头戴式显示器100的姿势执行坐标变换,以生成在头戴式显示器100中显示的图像。
全景图像处理单元750从全景图像存储单元760中读取全景图像数据,并且利用由变焦指示获取单元710特定的变焦倍率,生成与头戴式显示器100的位置和姿势对应的全景图像。然后,全景图像处理单元750将全景图像提供给图像供应单元770。这里,全景图像数据可以是预先创建的运动图像或静止图像内容,或者可以是通过渲染获得的计算机图形。此外,可以经由网络接收在远程位置处捕获的全景图像并将其存储在全景图像存储单元760中。
全景图像存储单元760存储多种类型的全景图像。全景图像是以各个固定点为中心的周围空间的图像的示例。对于整个天体的全景图像,周围空间(全景空间)是由球体表示。
在本实施例中,在世界坐标系中确定全景球体的中心的坐标及其半径。在世界坐标系中,多个全景球体以在全景球体之间方向对齐的方式布置。穿戴头戴式显示器100的用户可以在观看显示器中相应的全景球体的图像的同时通过物理移动来虚拟地穿过世界坐标系中的全景空间。在世界坐标系中,用户可以停留在一个全景球体中或从一个全景球体移动到另一个全景球体。
操作输入单元790接收通过用户的预定动作的操作输入。操作的示例包括对内容列表中包括的内容的选择和执行、全景图像的放大和缩小等。当在动作产生时用户的姿势的改变量超过预定的阈值时,操作输入单元790接收通过该动作的操作输入。该阈值将被称为“操作阈值(operation threshold value)”。除非姿势的改变量超过操作阈值,否则不接收通过用户的动作的操作输入,并且仅在姿势的改变量超过操作阈值之后,执行操作。
由操作输入单元790接收的操作输入被发送到未示出的控制单元,并且执行与操作输入对应的操作。
操作阈值可以根据在用户做动作时的姿势的初始位置来调整。例如,当做出点头动作时,根据头部的倾斜度将操作阈值设为不同的值。如果头部从一开始就朝向斜下方,与面部朝向前方的情况相比,难以进一步使头部倾斜。因此,操作阈值设置为低。
此外,操作阈值可以针对每个用户来调整。当有想要极大地改变姿势(或者可以容易地改变姿势)的用户和不想很大地改变姿势(或者难以改变姿势)的用户时,用户可以自己定制操作阈值。此外,根据用户是否是直立的、坐着的还是躺着的,姿势的改变的容易度和运动范围是不同的。因此,可以根据用户的姿态来调整操作阈值。
指示器显示单元780基于由位置和姿势获取单元730获取的关于用户的姿势的信息和由灵敏度调整单元720获取的关于姿势检测的灵敏度的信息来生成指示器的图像,并且将指示器的图像提供给图像供应单元770。指示器指示在做出动作时的姿势的改变量。例如,姿势的改变量由指示器的刻度指示。
指示器显示单元780可以在指示器中显示操作阈值。例如,指示器的刻度中对应于阈值的值可以显示为某种标记显示,以作为操作阈值。可替代地,指示器的最大刻度可以照原样用作操作阈值。操作阈值用作输入操作之前的“间隙(backlash)”。因此,即使通过动作显示指示器,操作也不会输入,除非指示器的刻度前进并超过了操作阈值。这样,用户可以观察指示器来确定是否通过改变姿势直到刻度超过操作阈值来输入操作,或者在不改变姿势的情况下取消操作。
指示器显示单元780可以根据用户在做动作时的姿势的初始位置来调整用于在指示器中显示姿势的改变量的灵敏度。例如,当做出点头动作时,根据头部的倾斜度来改变用于在指示器中显示的改变量的灵敏度。如果头部从一开始就朝向斜下方,与面部朝向前方的情况相比,难以进一步使头部倾斜。因此,用于在指示器中显示姿势的改变量的灵敏度设置为高。利用这种配置,即使头部稍微倾斜,指示器中的改变量也会很大。换句话说,指示器的刻度的前进可以更快。
图像供应单元770将由全景图像处理单元750生成的全景图像数据和由指示器显示单元780生成的指示器图像数据提供给头戴式显示器100。
穿戴头戴式显示器100的用户可以在用户做出特定动作时查看显示在屏幕上的指示器的同时,观看与用户的位置和姿势对应的全景图像。当用户想要执行对应于特定动作的操作时,用户可以通过改变姿势直到在指示器中显示的用户的姿势的改变量超过操作阈值,来输入操作。
“操作输入装置(operation input apparatus)”至少包括位置和姿势获取单元730、指示器显示单元780和操作输入单元790。可以在头戴式显示器100中提供该配置的一部分或全部。在下文中,将描述根据本实施例的操作输入装置的操作。
图5(a)至5(c)是用于描述在头戴式显示器100中显示的全景图像和内容列表的视图。
如图5(a)所示,内容列表显示在全景图像的中央。在内容列表中,全景球体的缩略图图像500a至500d沿水平方向布置。全景球体的缩略图图像围绕用户在虚拟空间中的位置周围360度布置,并且用户可以通过在水平方向上转动头部在内容列表中观看全景球体缩略图图像。
如图5(b)所示,当用户转动头部使得全景球体的缩略图图像500b到达前方时,突出显示前方的缩略图图像500b,并且指示器510显示在缩略图图像500b的下方。这里,突出显示涉及例如放大缩略图图像或在缩略图图像周围显示帧。可替代地,该配置可以是使得当在缩略图图像500b到达前方并且停止转动头部(称为“空闲(idling)”)之后经过了预定的时间段时,突出显示缩略图图像500b,并且显示指示器510。
当用户做出例如在显示指示器510的同时水平摆动头部的动作时,在指示器510中指示器510的刻度与如图5(c)所示的姿势的改变量成比例地前进。这里,指示器510具有操作按钮的形状,并且操作按钮的背景颜色从上方涂刷,与水平摆动的头部的角度成比例。应该注意,当头部水平摆动时,用户正在观看的整个全景图像也水平移动。
当头部水平摆动直到超过预定操作阈值时,指示器510的内部被完全涂刷。然后,接收特定操作的输入并开始其执行。此处执行的操作是将全景图像切换到与所选缩略图图像500b对应的全景球体。在切换到另一个全景球体的全景图像时,可以应用诸如淡出、淡入等的效果,而不是突然地切换。
图6(a)至6(c)是用于描述在头戴式显示器100中显示的指示器520的刻度改变的视图。
指示器520具有弧形形状,并且在用户倾斜头部时显示。倾斜头部的动作对应于放大或缩小全景图像。例如,向右倾斜头部的姿势对应于放大,而向左倾斜头部的姿势对应于缩小。
如图6(a)所示,当用户首先做出稍微向左倾斜头部的动作时,显示用于缩小的指示器520。当用户将头部进一步向左倾斜时,指示器520的刻度前进,如图6(b)所示。这里,指示器520内的背景颜色正在被涂刷。当通过进一步向左向更深的方向倾斜头部而超过操作阈值时,,指示器520的刻度移动到如图6(c)所示的终点。然后,接收缩小的操作输入,并且缩小全景图像。这里应该注意的是,通过倾斜头部的运动用户正在观看的全景图像也与姿势的改变成比例地转向。
图7(a)至7(c)是用于描述对于水平摆动头部的动作,姿势的改变量和指示器的刻度之间的关系的视图。如图7(a)所示,初始位置是面部朝向前方的姿势。通过继续该姿势一段时间(空闲),指示器530显示在全景图像中。这里,指示器530具有操作按钮的形状,并且背景颜色是透明的。
如图7(b)所示,当头部水平摆动并且面部的方向超过指示为“0%”的角度时,指示器530的背景颜色从左侧涂刷。背景颜色的涂刷方向与头部摆动的方向是相同的水平方向。
如图7(c)所示,当头部进一步继续水平摆动并且面部的方向超过指示为“100%”的角度时,指示器530的背景颜色被完全涂刷。然后,接收操作的输入并开始其执行。
图8(a)至8(c)是用于描述对于垂直摆动头部的动作(点头),姿势的改变量和指示器的刻度之间的关系的视图。如图8(a)所示,当面部朝向前方的初始位置的姿势持续了一段时间时,在全景图像中显示具有操作按钮形状的指示器540。此时,指示器540的背景颜色是透明的。
如图8(b)所示,当头部垂直摆动并且面部倾斜度超过“0%”处的角度时,指示器540的背景颜色从上方涂刷。背景颜色的涂刷方向与头部摆动的方向是相同的垂直方向。
如图8(c)所示,当头部进一步继续垂直摆动并且面部倾斜度超过“100%”处的角度时,指示器540的背景颜色被完全涂刷。然后,接收操作的输入并开始其执行。
图9(a)至9(c)是用于描述对于倾斜头部的动作,姿势的改变量和指示器的刻度之间的关系的视图。如图9(a)所示,当头部从在头部处于直立位置的初始位置的姿势略微倾斜时,在全景图像中显示具有弧形形状的指示器550。当头部向左倾斜时显示具有左弧形形状的指示器,而当头部向右倾斜时显示具有右弧形形状的指示器。此时,指示器550的背景颜色是透明的。
如图9(b)所示,当头部进一步倾斜并且面部的转动超过“0%”处的角度时,指示器550的背景颜色被涂刷。
如图9(c)所示,当头部进一步继续倾斜并且面部的转动超过“100%”处的角度时,指示器550的背景颜色被完全涂刷。然后,接收操作的输入并开始其执行。
除了上述以外还有各种各样的动作,诸如向前推面部、快速地将头部水平摆动几次、以及向上抬起面部。通过将每个动作与特定操作相关联,可以显示对于相应动作的适当指示器。
例如,当选择并执行内容列表中的特定内容的缩略图图像时,在移动到特定内容的全景球体之后显示全景图像。此时,水平快速摆动头部回到原始内容的全景球体,并显示原始的全景图像。此时,水平摆动头部的次数和速度可以根据用户的姿态而不同。例如,当用户躺下时,移动头部并不容易。因此,与用户直立时相比,即使头部摆动次数减少或头部摆动速度减小,仍然可能输入操作。此外,在用户躺下的同时,与用户直立时相比,操作阈值可以被设置为低。
此外,当内容列表中的内容的缩略图图像位于用户的头部之上时,用户需要向上移动面部以选择内容。但是,在这种状态下水平摆动头部并不容易。在水平摆动头部的这种姿势不容易的情况下,在头部不移动的空闲状态下经过一段时间之后,指示器的刻度可以在不摆动头部的情况下前进。然后,在经过一段时间之后,可以自动输入选择操作,并且可以选择内容。例如,在与地理位置信息相关联的内容的情况下,内容的缩略图图像可以布置在由虚拟空间中的位置信息指示的方向上。在这种情况下,内容的缩略图图像不一定布置在用户可以容易地转动面部的姿势位置处。如上所述,利用在面部朝向内容的缩略图图像的方向经过一段时间之后输入操作的配置,用户不会被迫不自然地改变姿势。
图10(a)和10(b)是用于描述对于点头动作,姿势的初始位置和操作阈值之间的关系的视图。
如图10(a)所示,穿戴头戴式显示器100的用户的面部朝向前方时,点头动作的运动范围宽。因此,可以将操作阈值设置为高。另一方面,如图10(b)所示,当面部从开始就面向斜下方时,点头动作的运动范围窄。因此,可以将操作阈值设置为低。除了这种动作之外,在水平摆动头部的动作的情况下,当面部已经在水平方向上朝向倾斜时,水平摆动头部的运动范围窄。因此,将操作阈值设置为低。
以这种方式,当输入操作时根据用户的姿势的初始位置来调整操作阈值。指示器中的操作阈值可以由指示器本身的长度来表示,并且当操作阈值低时,指示器本身的长度就会缩短。可替代地,可以将指示器的刻度的中间的值作为操作阈值,将作为操作阈值的刻度通过标记或颜色来高亮显示,以使操作阈值可识别。
可替代地,作为另一种方法,可以根据用户的姿势的初始位置来调整指示器中用于指示姿势的改变量的灵敏度,而不改变相对于姿势的改变量的操作阈值。例如,如图10(b)所示,当姿势的运动范围窄时,相对于姿势的改变量指示器的刻度的前进度增加。这样,即使姿势的改变量小,刻度也能够达到操作阈值。在这种情况下,不需要改变指示器本身的长度或改变作为操作阈值的刻度的位置。
此外,在一些情况下,姿势的运动范围根据用户是否是站立、坐着还是躺下而改变。因此,可以根据用户的身体姿态将操作阈值设为不同的值。例如,当用户躺下时,与用户站立或坐着时相比,水平移动头部是困难的。当用户躺下时,可能会降低操作阈值,或者相对于姿势的改变量,指示器的刻度的前进可能会增加。此外,当用户躺下时,不是通过摆动头部,而是随着在显示指示器的状态下用户保持在该位置的时间的流逝,指示器的刻度前进。然后,经过一段时间之后,操作可以自动输入。
图11(a)至11(e)是用于描述垂直摆动头部的动作和指示器的形状之间的对应关系的视图。图11(b)至图11(e)示出了当做出如图11(a)所示的垂直摆动头部的动作时,多种类型的指示器的形状和姿势的改变量的显示模型。
图11(b)示出了线形指示器。显示垂直线形指示器以提示用户做垂直摆动头部的动作。随着垂直摆动头部的角度增加,刻度在向下方向上前进。当摆动头部的角度改变量超过操作阈值时,刻度达到最大值并输入操作。
图11(c)示出了具有按钮形状的指示器。这种类型的指示器通过涂刷按钮内部的背景颜色来显示刻度。随着垂直摆动头部的角度增加,按钮的内部从上到下逐渐被涂刷。当摆动头部的角度改变量超过操作阈值时,按钮的背景颜色被完全涂刷并输入操作。
图11(d)示出了改变其形状的指示器。这种类型的指示器通过与姿势的改变量的增加成比例地沿垂直方向延伸指示器本身来指示改变量。随着垂直摆动头部的角度增加,指示器本身垂直延伸。当摆动头部的角度改变量超过操作阈值时,指示器延伸到最大长度。之后,指示器恢复到初始尺寸并输入操作。
图11(e)示出了以小单元的多个指示器的阵列构成指示器及其刻度的情况。这种类型的指示器通过与姿势的改变的增加成比例地增加指示器阵列中沿向下方向被点亮的指示器来指示改变量。随着垂直摆动头部的角度增加,被点亮的指示器的数量增加。当摆动头部的角度改变量超过操作阈值时,指示器阵列中的所有指示器被点亮并输入操作。
图12(a)至12(e)是用于描述水平摆动头部的动作和指示器的形状之间的对应关系的视图。图12(b)至图12(e)示出了当做出如图12(a)所示的水平摆动头部的动作时,多种类型的指示器的形状和姿势的改变量的显示模型。
图12(b)示出了线形指示器。显示水平线形指示器以提示用户做水平摆动头部的动作。随着水平摆动头部的角度增加,刻度在向右方向上前进。当摆动头部的角度改变量超过操作阈值时,刻度达到最大值并输入操作。
图12(c)示出了具有按钮形状的指示器。随着水平摆动头部的角度增加,按钮的内部从左到右逐渐被涂刷。当摆动头部的角度改变量超过操作阈值时,按钮的背景颜色被完全涂刷并输入操作。
图12(d)示出了改变其形状的指示器。随着水平摆动头部的角度增加,指示器本身水平延伸。当摆动头部的角度改变量超过操作阈值时,指示器延伸到最大长度。之后,指示器恢复到初始尺寸并输入操作。
图12(e)示出了以小单元的多个指示器的阵列构成指示器及其刻度的情况。随着水平摆动头部的角度增加,被点亮的指示器的数量在水平方向上增加。当摆动头部的角度改变量超过操作阈值时,指示器阵列中的所有指示器被点亮并输入操作。
图13(a)至13(e)是用于描述倾斜头部的动作和指示器的形状之间的对应关系的视图。图13(b)至图13(e)示出了当做出如图13(a)所示的倾斜头部的动作时,多种类型的指示器的形状和姿势的改变量的显示模型。
图13(b)示出了线形指示器。显示具有弧形形状的指示器以提示用户进行倾斜头部的动作。对于使头部向左倾斜的姿势,显示具有左弧形形状的指示器。对于将头部向右倾斜的动作,显示具有右弧形形状的指示器。随着倾斜头部的角度增加,刻度沿着弧线前进。当倾斜头部的角度改变量超过操作阈值时,刻度达到最大值并输入操作。
图13(c)示出了具有按钮形状的指示器。随着倾斜头部的角度增加,具有弧形形状的按钮的内部沿弧线逐渐被涂刷。当摆动头部的角度改变量超过操作阈值时,按钮的背景颜色被完全涂刷并输入操作。
图13(d)示出了改变其形状的指示器。随着倾斜头部的角度增加,指示器本身呈弧形形状延伸。当倾斜头部的角度改变量超过操作阈值时,指示器延伸到最大值并输入操作。
图13(e)示出以小单元的多个指示器的阵列构成指示器及其刻度的情况。随着倾斜头部的角度增加,被点亮的指示器的数量以弧形形状增加。当倾斜头部的角度改变量超过操作阈值时,指示器阵列中的所有指示器被点亮并输入操作。
如上所述,根据本实施例中的操作输入方法,用户可以通过在用户穿戴诸如头戴式显示器100的可穿戴显示装置的状态下做出诸如移动头部的动作来容易地输入操作。由于不需要操作控制器、键盘等,用户可以将焦点保持在头戴式显示器100中显示的视频上,并且沉浸感不会被干扰。当用户做出输入操作的动作时,指示器自动显示,允许用户直观地识别改变姿势的方向和改变姿势多少。因此,用户在输入操作时不会感到压力。此外,由于直到超过操作阈值才接收通过动作的操作输入,所以即使做出的动作是错误的,也可以容易地取消操作。
已经基于上述实施例描述了本发明。本实施例仅是示例性的,本领域技术人员应该理解,可以对各部件及其工艺的组合进行各种修改,并且这种修改也在本发明的范围内。将描述这种修改。
在上面的描述中,已经作为示例给出了通过诸如摆动或倾斜穿戴头戴式显示器100的用户的头部的动作改变姿势。不过,除此之外,还可能有其他动作。当通过照相机、运动传感器等可以检测用户身体的运动时,可以通过使用例如挥手、抬手、握手、跺脚、站着、和坐着的动作改变姿态来输入操作。
参考符号列表10控制单元、20输入接口、30输出接口、32背光、40通信控制单元、42网络适配器、44天线、50存储单元、64姿势传感器、70外部输入/输出终端接口、72外部存储器、80时钟单元、100头戴式显示器、110主体部分、120额区接触部分、130颞区接触部分、200游戏机、700全景图像生成设备、710变焦指示获取单元、720灵敏度调整单元、730位置和姿势获取单元、740坐标变换单元、750全景图像处理单元、760全景图像存储单元、770图像供应单元、780指示器显示单元、790操作输入单元。
工业实用性本发明可以用于可穿戴显示器中的操作输入技术。
权利要求书(按照条约第19条的修改)
1.一种操作输入装置包括:
姿势获取单元,获取关于穿戴可穿戴显示装置的用户的姿势的信息;
操作输入单元,接收通过所述用户的动作的操作输入;以及
指示器显示单元,使得所述可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量,
其中,当所述姿势的改变量超过预定阈值时,所述操作输入单元通过所述姿势接收所述操作输入,
根据所述动作做出时所述用户的姿势的初始位置调整所述指示器中用于显示所述姿势的改变量的灵敏度。
2.根据权利要求1所述的操作输入装置,
其中,所述指示器显示单元显示所述指示器中的所述预定阈值。
3.根据权利要求1或2所述的操作输入装置,
其中,所述预定阈值根据在所述动作做出时所述用户的姿态而设置为不同值。
4.根据权利要求1或2所述的操作输入装置,
其中,所述预定阈值根据在所述动作做出时所述用户的姿势的运动范围的宽度而设置为不同值。
5.根据权利要求1或2所述的操作输入装置,
其中,所述预定阈值根据在所述动作做出时所述用户的姿势的初始位置而设置为不同值。
6.根据权利要求1或2所述的操作输入装置,
其中,所述动作做出时所述用户的姿势的初始位置是所述用户的头部的初始倾斜。
7.根据权利要求1至6的任一项所述的操作输入装置,
其中,所述指示器显示单元显示垂直指示器,使得所述用户执行点头运动。
8.根据权利要求1至6的任一项所述的操作输入装置,
其中,所述指示器显示单元显示水平指示器,使得所述用户执行水平摆动头部的运动。
9.根据权利要求1至6的任一项所述的操作输入装置,
其中,所述指示器显示单元显示弧形指示器,使得所述用户执行倾斜头部的运动。
10.一种操作输入方法包括:
姿势获取步骤,获取关于穿戴可穿戴显示装置的用户的姿势的信息;
操作输入步骤,接收通过所述用户的动作的操作输入;以及
指示器显示步骤,使得所述可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量,
其中,当所述姿势的改变量超过预定阈值时,所述操作输入步骤通过所述姿势接收所述操作输入,并且
根据所述动作做出时所述用户的姿势的初始位置调整所述指示器中用于显示所述姿势的改变量的灵敏度。
11.一种使计算机实现以下功能的程序:
姿势获取功能,获取关于穿戴可穿戴显示装置的用户的姿势的信息;
操作输入功能,接收通过所述用户的动作的操作输入;以及
指示器显示功能,使得所述可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量,
其中,当所述姿势的改变量超过预定阈值时,所述操作输入功能通过所述姿势接收所述操作输入,并且
根据所述动作做出时所述用户的姿势的初始位置调整所述指示器中用于显示所述姿势的改变量的灵敏度。
Claims (11)
1.一种操作输入装置包括:
姿势获取单元,获取关于穿戴可穿戴显示装置的用户的姿势的信息;
操作输入单元,接收通过所述用户的动作的操作输入;以及
指示器显示单元,使得所述可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量,
其中,当所述姿势的改变量超过预定阈值时,所述操作输入单元通过所述姿势接收所述操作输入。
2.根据权利要求1所述的操作输入装置,
其中,所述指示器显示单元显示所述指示器中的所述预定阈值。
3.根据权利要求1或2所述的操作输入装置,
其中,所述预定阈值根据在所述动作做出时所述用户的姿态而设置为不同值。
4.根据权利要求1或2所述的操作输入装置,
其中,所述预定阈值根据在所述动作做出时所述用户的姿势的运动范围的宽度而设置为不同值。
5.根据权利要求1或2所述的操作输入装置,
其中,所述预定阈值根据在所述动作做出时所述用户的姿势的初始位置而设置为不同值。
6.根据权利要求1或2所述的操作输入装置,
其中,根据所述动作做出时所述用户的姿势的初始位置调整所述指示器中用于显示所述姿势的改变量的灵敏度。
7.根据权利要求1至6的任一项所述的操作输入装置,
其中,所述指示器显示单元显示垂直指示器,使得所述用户执行点头运动。
8.根据权利要求1至6的任一项所述的操作输入装置,
其中,所述指示器显示单元显示水平指示器,使得所述用户执行水平摆动头部的运动。
9.根据权利要求1至6的任一项所述的操作输入装置,
其中,所述指示器显示单元显示弧形指示器,使得所述用户执行倾斜头部的运动。
10.一种操作输入方法包括:
姿势获取步骤,获取关于穿戴可穿戴显示装置的用户的姿势的信息;
操作输入步骤,接收通过所述用户的动作的操作输入;以及
指示器显示步骤,使得所述可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量,
其中,当所述姿势的改变量超过预定阈值时,所述操作输入步骤通过所述姿势接收所述操作输入。
11.一种使计算机实现以下功能的程序:
姿势获取功能,获取关于穿戴可穿戴显示装置的用户的姿势的信息;
操作输入功能,接收通过所述用户的动作的操作输入;以及
指示器显示功能,使得所述可穿戴显示装置显示指示器,以指示用户在做出动作时姿势的改变量,
其中,当所述姿势的改变量超过预定阈值时,所述操作输入功能通过所述姿势接收所述操作输入。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-136711 | 2015-07-08 | ||
JP2015136711A JP2017021461A (ja) | 2015-07-08 | 2015-07-08 | 操作入力装置および操作入力方法 |
PCT/JP2016/069618 WO2017006857A1 (ja) | 2015-07-08 | 2016-07-01 | 操作入力装置および操作入力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107710105A true CN107710105A (zh) | 2018-02-16 |
CN107710105B CN107710105B (zh) | 2020-12-29 |
Family
ID=57685521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680038643.2A Active CN107710105B (zh) | 2015-07-08 | 2016-07-01 | 操作输入装置和操作输入方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180188802A1 (zh) |
EP (1) | EP3321776B1 (zh) |
JP (1) | JP2017021461A (zh) |
CN (1) | CN107710105B (zh) |
WO (1) | WO2017006857A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110347239A (zh) * | 2018-04-04 | 2019-10-18 | 佳能株式会社 | 电子装置、电子装置的控制方法和计算机可读介质 |
CN110554784A (zh) * | 2018-05-31 | 2019-12-10 | 广东虚拟现实科技有限公司 | 输入方法、装置、显示设备及存储介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10607398B2 (en) * | 2016-07-04 | 2020-03-31 | Colopl, Inc. | Display control method and system for executing the display control method |
JP6746835B2 (ja) * | 2017-03-13 | 2020-08-26 | 株式会社コナミデジタルエンタテインメント | 表示制御装置及びプログラム |
JP2019016316A (ja) | 2017-07-11 | 2019-01-31 | 株式会社日立エルジーデータストレージ | 表示システム、及び表示システムの表示制御方法 |
JP6623362B2 (ja) * | 2018-03-08 | 2019-12-25 | 株式会社コナミデジタルエンタテインメント | 表示制御装置及びプログラム |
WO2020031367A1 (ja) | 2018-08-10 | 2020-02-13 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2019176164A1 (en) * | 2018-11-12 | 2019-09-19 | Ootaki Architect&Craftsmen Ltd. | Auxiliary pedal system |
EP3979234A4 (en) * | 2019-05-30 | 2022-08-03 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
JP7004771B2 (ja) * | 2020-06-26 | 2022-01-21 | 知行 宍戸 | デバイスコントローラー |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100259471A1 (en) * | 2007-11-16 | 2010-10-14 | Nikon Corporation | Control device, head-mount display device, program, and control method |
CN102681659A (zh) * | 2011-01-06 | 2012-09-19 | 三星电子株式会社 | 通过动作控制的显示设备及其动作控制方法 |
US20120242560A1 (en) * | 2011-03-24 | 2012-09-27 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
US20130036389A1 (en) * | 2011-08-05 | 2013-02-07 | Kabushiki Kaisha Toshiba | Command issuing apparatus, command issuing method, and computer program product |
CN102981670A (zh) * | 2012-09-07 | 2013-03-20 | 友达光电股份有限公司 | 移动位置坐标产生方法 |
CN103713730A (zh) * | 2012-09-29 | 2014-04-09 | 炬才微电子(深圳)有限公司 | 应用于智能终端的空中手势识别方法及装置 |
JP2014222495A (ja) * | 2013-05-13 | 2014-11-27 | 公立大学法人広島市立大学 | インタフェース装置 |
CN104185807A (zh) * | 2011-08-09 | 2014-12-03 | 谷歌公司 | 双眼头戴式显示器的激光对准 |
JP2014235634A (ja) * | 2013-06-04 | 2014-12-15 | 国立大学法人 筑波大学 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
CN104238743A (zh) * | 2013-06-21 | 2014-12-24 | 卡西欧计算机株式会社 | 信息处理装置以及信息处理方法 |
US20150062160A1 (en) * | 2013-08-30 | 2015-03-05 | Ares Sakamoto | Wearable user device enhanced display system |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10039445B1 (en) * | 2004-04-01 | 2018-08-07 | Google Llc | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
JP5754074B2 (ja) * | 2010-03-19 | 2015-07-22 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
US9727132B2 (en) * | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
JP5365684B2 (ja) * | 2011-12-27 | 2013-12-11 | 株式会社ニコン | 制御装置、及びヘッドマウントディスプレイ装置 |
US9007301B1 (en) * | 2012-10-11 | 2015-04-14 | Google Inc. | User interface |
JP5974928B2 (ja) * | 2013-02-22 | 2016-08-23 | ソニー株式会社 | 表示制御装置、表示装置、表示制御方法、およびプログラム |
US10268276B2 (en) * | 2013-03-15 | 2019-04-23 | Eyecam, LLC | Autonomous computing and telecommunications head-up displays glasses |
US10228242B2 (en) * | 2013-07-12 | 2019-03-12 | Magic Leap, Inc. | Method and system for determining user input based on gesture |
US9529513B2 (en) * | 2013-08-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Two-hand interaction with natural user interface |
WO2015170641A1 (ja) * | 2014-05-08 | 2015-11-12 | Necソリューションイノベータ株式会社 | 操作画面表示装置、操作画面表示方法および非一過性の記録媒体 |
US9965029B2 (en) * | 2015-03-30 | 2018-05-08 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10156908B2 (en) * | 2015-04-15 | 2018-12-18 | Sony Interactive Entertainment Inc. | Pinch and hold gesture navigation on a head-mounted display |
JP6439935B2 (ja) * | 2015-05-07 | 2018-12-19 | パナソニックIpマネジメント株式会社 | 表示制御方法、ヘッドマウントディスプレイ、およびプログラム |
JP6400197B2 (ja) * | 2015-05-29 | 2018-10-03 | 京セラ株式会社 | ウェアラブル装置 |
JP5944600B1 (ja) * | 2015-08-28 | 2016-07-05 | 株式会社タカラトミー | 頭部装着型ディスプレイを備えた情報処理装置 |
JP6407824B2 (ja) * | 2015-09-01 | 2018-10-17 | 株式会社東芝 | メガネ型ウエアラブル端末およびこの端末を用いる方法 |
US20170123605A1 (en) * | 2015-11-02 | 2017-05-04 | Le Holdings (Beijing) Co., Ltd. | Method and electronic device for displaying list contents |
-
2015
- 2015-07-08 JP JP2015136711A patent/JP2017021461A/ja active Pending
-
2016
- 2016-07-01 WO PCT/JP2016/069618 patent/WO2017006857A1/ja unknown
- 2016-07-01 CN CN201680038643.2A patent/CN107710105B/zh active Active
- 2016-07-01 US US15/740,608 patent/US20180188802A1/en not_active Abandoned
- 2016-07-01 EP EP16821326.2A patent/EP3321776B1/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100259471A1 (en) * | 2007-11-16 | 2010-10-14 | Nikon Corporation | Control device, head-mount display device, program, and control method |
CN102681659A (zh) * | 2011-01-06 | 2012-09-19 | 三星电子株式会社 | 通过动作控制的显示设备及其动作控制方法 |
US20120242560A1 (en) * | 2011-03-24 | 2012-09-27 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
US20130036389A1 (en) * | 2011-08-05 | 2013-02-07 | Kabushiki Kaisha Toshiba | Command issuing apparatus, command issuing method, and computer program product |
CN104185807A (zh) * | 2011-08-09 | 2014-12-03 | 谷歌公司 | 双眼头戴式显示器的激光对准 |
CN102981670A (zh) * | 2012-09-07 | 2013-03-20 | 友达光电股份有限公司 | 移动位置坐标产生方法 |
CN103713730A (zh) * | 2012-09-29 | 2014-04-09 | 炬才微电子(深圳)有限公司 | 应用于智能终端的空中手势识别方法及装置 |
JP2014222495A (ja) * | 2013-05-13 | 2014-11-27 | 公立大学法人広島市立大学 | インタフェース装置 |
JP2014235634A (ja) * | 2013-06-04 | 2014-12-15 | 国立大学法人 筑波大学 | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム |
CN104238743A (zh) * | 2013-06-21 | 2014-12-24 | 卡西欧计算机株式会社 | 信息处理装置以及信息处理方法 |
US20150062160A1 (en) * | 2013-08-30 | 2015-03-05 | Ares Sakamoto | Wearable user device enhanced display system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110347239A (zh) * | 2018-04-04 | 2019-10-18 | 佳能株式会社 | 电子装置、电子装置的控制方法和计算机可读介质 |
CN110554784A (zh) * | 2018-05-31 | 2019-12-10 | 广东虚拟现实科技有限公司 | 输入方法、装置、显示设备及存储介质 |
CN110554784B (zh) * | 2018-05-31 | 2023-07-14 | 广东虚拟现实科技有限公司 | 输入方法、装置、显示设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2017006857A1 (ja) | 2017-01-12 |
EP3321776A4 (en) | 2018-12-19 |
EP3321776B1 (en) | 2020-09-30 |
CN107710105B (zh) | 2020-12-29 |
EP3321776A1 (en) | 2018-05-16 |
JP2017021461A (ja) | 2017-01-26 |
US20180188802A1 (en) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107710105A (zh) | 操作输入装置和操作输入方法 | |
JP6518582B2 (ja) | 情報処理装置および操作受付方法 | |
JP6560974B2 (ja) | 情報処理装置および操作受付方法 | |
US20200193634A1 (en) | Information processing apparatus and image generating method | |
EP3751522A1 (en) | Method, apparatus and device for view switching of virtual environment, and storage medium | |
CN110427110B (zh) | 一种直播方法、装置以及直播服务器 | |
CN110141857A (zh) | 虚拟角色的面部显示方法、装置、设备及存储介质 | |
JP6235790B2 (ja) | 表示制御システム、表示制御装置、表示制御プログラム、および表示制御方法 | |
US20190219824A1 (en) | Information processing apparatus and image generating method | |
CN109643159A (zh) | 在增强和/或虚拟现实环境中利用六自由度控制器操纵虚拟对象 | |
US11845007B2 (en) | Perspective rotation method and apparatus, device, and storage medium | |
CN107656615A (zh) | 大量同时远程数字呈现世界 | |
CN110263617B (zh) | 三维人脸模型获取方法及装置 | |
CN109906424A (zh) | 用于虚拟现实系统的输入控制器稳定技术 | |
JP6290467B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム | |
JP6321263B1 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
US11675488B2 (en) | Method and apparatus for constructing building in virtual environment, device, and storage medium | |
JP6227732B1 (ja) | 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム | |
CN111445568A (zh) | 人物表情编辑方法、装置、计算机存储介质和终端 | |
JP6554139B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
GB2582106A (en) | Display device and display device control method | |
JP2018192238A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6856572B2 (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム | |
KR20190099650A (ko) | 서브모터를 이용한 모션 입력 장치 및 모션 입력 방법 | |
WO2023162668A1 (ja) | 情報処理装置および床面高さ調整方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |