CN112384879A - 头戴式显示器和设定方法 - Google Patents

头戴式显示器和设定方法 Download PDF

Info

Publication number
CN112384879A
CN112384879A CN201880095194.4A CN201880095194A CN112384879A CN 112384879 A CN112384879 A CN 112384879A CN 201880095194 A CN201880095194 A CN 201880095194A CN 112384879 A CN112384879 A CN 112384879A
Authority
CN
China
Prior art keywords
unit
mounted display
head
user
start point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880095194.4A
Other languages
English (en)
Inventor
吉泽和彦
桥本康宣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of CN112384879A publication Critical patent/CN112384879A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

在头戴式显示器(100),存储部(71)存储应用。摄像部(74)拍摄用户的部位,位置确定部(73)确定头戴式显示器(100)的位置和方向。检测部(75)具有由摄像部(74)拍摄到的图像来检测用户(1)所示的位置,设定部(76)基于由检测部(75)所检测到的结果以及由位置确定部(73)所确定的位置和方向来设定表示起始点的位置。

Description

头戴式显示器和设定方法
技术领域
本发明涉及头戴式显示器和设定方法。
背景技术
存在在信息处理装置的显示部显示多个窗口,根据操作输入进行窗口的转换的技术(例如专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2015-43135号公报
发明内容
发明所要解决的问题
在上述专利文献1中公开的技术中,进行在位置被固定的信息处理装置的显示部显示的窗口的控制。
此处,设想确定了显示应用(显示应用的窗口)的绝对坐标的头戴式显示器。在这种情况下,在用户操作应用的时,可能需要用户与使用的应用牵涉到的位置一致地运动。其结果是,存在操作变得复杂的可能性。
本发明的目的在于提供能够简易地操作应用的头戴式显示器。
本发明的上述及其它目的和新的特征应能通过本说明书的阐述和附图而明确。
用于解决问题的技术方案
作为用于解决上述问题的技术方案方式,使用要求的权利范围所记载的技术。
列举一例为一种能够存储应用的头戴式显示器,其包括:拍摄佩戴着头戴式显示器的用户的部位的摄像部;基于摄像部所拍摄到的图像来检测用户所指示的位置的检测部;确定头戴式显示器的位置和方向的位置确定部;和设定部,其基于检测部所检测到的结果以及位置确定部所确定的位置和方向来设定关于操作区域的信息,其中该操作区域是操作所述应用的区域。
发明的效果
通过使用本发明的技术,能够简易地操作应用。
附图说明
图1是表示本实施方式的头戴式显示器的概略图。
图2是说明可见区域的图。
图3是说明头戴式显示器的硬件结构的图。
图4是头戴式显示器的功能块图。
图5是说明起始点的设定方法的图。
图6是说明起始点的其它指定方法的图。
图7是说明计算从头戴式显示器到起始点的距离的方法的图。
图8是表示设定起始点的处理顺序的流程图。
图9是用于说明用户佩戴着的头戴式显示器中的到设定起始点为止的状态的图。
图10是用于说明起始点的显示控制的图。
图11是表示起始点的显示控制的处理的流程图。
图12是用于说明设定了起始点时的起始点的显示例的图。
图13是表示头戴式显示器朝向与起始点不同的方向的情况下的例子的图。
图14是表示头戴式显示器使应用向起始点移动的例子的图。
图15是说明在菜单中选择了“调出”后的状态的图。
图16是说明用户朝向起始点所处的方向的情况下的图。
图17是说明用户再次朝向左方的情况下的图。
图18是表示应用的显示控制的处理顺序的流程图。
图19是说明设定起始点的例子的图。
图20是说明在起始点的位置配置有监视器的情况下,以该监视器为起始点重新设定的例子的图。
图21是表示使起始点向监视器链接的处理顺序的流程图。
图22是表示以监视器为起始点的情况下的、应用的显示控制的处理顺序的流程图。
具体实施方式
以下,使用附图说明本发明的实施方式的例子。
参照图1(图1的(a)~图1的(c))说明本实施方式的头戴式显示器的概略。图1是表示头戴式显示器100的概略图。具体而言,图1的(a)是用户1佩戴着头戴式显示器100的状态下的头戴式显示器100的俯视图。图1的(b)是头戴式显示器100的正视图。图1的(c)是头戴式显示器100的侧视图。
头戴式显示器100是在用户1在头部佩戴着的状态,使用户1可可见地显示、执行应用的装置。头戴式显示器100具有可对外界进行拍摄的第1摄像部133a和第1摄像部133b。此外,头戴式显示器100具有作为透射型的显示单元的透射显示部131。此外,如图1的(c)所示,头戴式显示器100具有声音输出部141(例如声音输出部141a)。另外,也可以取代透射显示部131使用非透射型的显示单元。在这种情况下,头戴式显示器100在该显示单元显示摄像结果。
头戴式显示器100存储有1个或多个应用,根据来自用户1的操作指示,在透射显示部131显示该应用。另外,头戴式显示器100存储有表示显示应用的位置的信息(例如绝对位置坐标),基于该信息显示应用。
接着,使用图2说明能够由用户1可见的区域的可见区域。图2是说明可见区域的图。此处,可见区域是指用户1能够通过透射显示部131进行可见的角度范围。该可见区域与外界的哪个区域对应,取决于头戴式显示器100相对于外界朝向哪个方向,用户1能够通过改变头部的方向,在可见区域内可见任意的方向。进一步,头戴式显示器100在与用户1的周围的外界空间重叠展开的虚拟的空间配置虚拟目标(例如,在上述透射显示部131显示的应用的显示画面、操作画面等)。由此,用户1可见该虚拟目标。此外,用户1能够通过对头戴式显示器100进行规定的操作输入来操作该虚拟目标。虚拟目标以配置在外界的特定的位置的方式可见。另外,在使用非透射型的显示单元的情况下,由第1摄像部133摄像的范围成为可见区域。
如上所述,头戴式显示器100运行头戴式显示器100存储的应用。本实施方式的头戴式显示器100设定作为用户1操作(例如编辑处理的操作)应用的区域的操作区域(起始点)。此处,应用和起始点(home position,原始位置)的位置相对于外界固定。
接着,使用图3说明头戴式显示器100的硬件结构。图3是说明头戴式显示器100的硬件结构的图。头戴式显示器100具有主控制部101,经总线102控制各种装置。该主控制部101为CPU(Central Processing Unit:中央处理器)等。此外,头戴式显示器100具有RAM103、存储器110、传感器部150、通信部160和扩展I/F部170。传感器部150具有GPS接收部151、陀螺仪传感器152、地磁传感器153和加速度传感器154。
此外,头戴式显示器100具有操作输入部120、透射显示部131、图像信号处理部132、第1摄像部133、第2摄像部134、声音输出部141、声音信号处理部142和声音输入部143。操作输入部120具有操作键121和触摸传感器122。通过上述的结构要素进行动作来发挥头戴式显示器100的后述的功能。
主控制部101是通过执行存储器110中存储的各种信息处理程序来实现各种功能的运算处理装置。RAM103为实现各种程序时的工作区。存储器110是主控制部101存储由第1摄像部133和第2摄像部134拍摄到的图像和各种信息的部分。
传感器部150是取得用于确定头戴式显示器100的位置和方向的信息的部分。传感器部150具有GPS接收部151、陀螺仪传感器152、地磁传感器153和加速度传感器154。
GPS接收部151取得接收GPS信号而得到的GPS信息。陀螺仪传感器152具有进行头戴式显示器100的移动方位的检测的功能,取得表示与头戴式显示器100的方向变化相关的角速度数据的陀螺仪信息。地磁传感器153是基于地磁检测表示头戴式显示器100的绝对方位的角度的一种方位检测装置。作为这样的角度,例如能够列举方位角。加速度传感器154具有检测头戴式显示器100的加速度和倾斜角的至少一者的功能。
这样,传感器部150能够头检测戴式显示器100的位置、方向。
通信部160是无线通信的部分。例如进行近距离无线通信。扩展I/F部170是用于与周边设备连接的接口。
操作输入部120是受理操作输入的部分。操作键121是在头戴式显示器100的规定位置(例如戴在用户1的耳朵的部分)设置的物理按键。触摸传感器122是在透射显示部131等设置的输入用传感器。
透射显示部131是透视型(透射型)的显示装置。图像信号处理部132是分析第1摄像部133或第2摄像部134的图像,将该分析结果向主控制部101等输出的部分。
第1摄像部133是对外界进行拍摄的部分。第2摄像部134是对用户1的眼睛进行拍摄的部分。声音输出部141是输出声音的扬声器等。声音信号处理部142是对由声音输入部143输入的声音进行分析的部分。声音输入部143是输入用户1的声音的部分,是麦克风等。
接着,使用图4进行头戴式显示器100的功能说明。图4是头戴式显示器100的功能块图。头戴式显示器100具有存储部71、设定受理部72、位置确定部73、摄像部74、检测部75、设定部76和应用控制部77(应用控制部)。
存储部71是存储各种信息的部分。例如,存储部71存储有多个应用。此外,存储部71也可以存储由摄像部74拍摄到的图像数据。
设定受理部72是响应用户1的表示设定请求的操作来受理操作区域设定请求的部分。设定受理部72在受理该操作区域设定请求时,向位置确定部73、摄像部74和检测部75通知已经受理该操作区域设定请求的意思。设定受理部72在受理该操作区域设定请求时,转变为起始点设定模式。起始点设定模式是进行起始点的设定的模式。
另外,设定受理部72也可以取代受理用户1的表示设定请求的操作,在接通头戴式显示器100的电源时,未设定操作区域的情况下,关于设定请求,从本装置的控制部(例如主控制部101)受理操作区域设定请求。
此外,设定受理部72是响应用户1的表示使用指示的操作来受理操作区域使用请求的部分。设定受理部72在受理该操作区域使用请求时,向位置确定部73、摄像部74和检测部75通知已经受理该操作区域使用请求的意思。设定受理部72在受理该操作区域使用请求时,转变为起始点使用模式。起始点使用模式是进行起始点的使用(显示)的模式。
位置确定部73是确定头戴式显示器100的位置和方向(指向方向)的部分。位置确定部73例如通过传感器部150实现。位置确定部73在从设定受理部72接收到受理了上述操作区域设定请求的意思或受理了操作区域使用请求的意思时,确定头戴式显示器100的位置和方向。位置确定部73确定头戴式显示器100的位置和方向,将所确定的位置和方向向设定部76发送。此外,位置确定部73在为起始点使用模式的情况下,将所确定的位置和方向向应用控制部77发送。
摄像部74是拍摄佩戴着头戴式显示器100的用户1的部位的部分。摄像部74通过第1摄像部133和第2摄像部134等实现。摄像部74在从设定受理部72接收到受理了操作区域设定请求的意思的通知或受理了操作区域使用请求的意思时,将拍摄到的结果向检测部75发送。摄像部74例如拍摄包含上述的可见区域之处,或拍摄用户1的眼睛周边等。摄像部74将拍摄的结果向检测部75发送。
检测部75是基于由摄像部74拍摄到的图像,检测用户1所指示的位置的部分。检测部75在从设定受理部72接收到受理了操作区域设定请求的意思的通知或受理了操作区域使用请求的意思,从摄像部74接收到拍摄的结果时,检测用户1所指示的位置。
检测部75在作为拍摄的结果,从摄像部74取得包含可见区域之处的图像的情况下,对该图像进行公知的图像分析处理,确定该可见区域中包含的手指的运动。即,检测部75检测用户1的手势,确定基于该手势的位置。
例如,检测部75从由摄像部74拍摄到的结果,检测由用户1表示区域的手势,确定由该检测到的结果表示的区域。检测部75检测用户1的手指的动作,确定基于该手指的动作的区域(操作区域)的位置。检测部75将表示该区域的位置的信息向设定部76发送。表示该区域的位置的信息例如是基于由手指指定的位置的信息。
此外,检测部75在作为由摄像部74拍摄的结果而取得拍摄了用户1的眼睛周边的图像的情况下,对该图像进行公知的图像分析处理,检测用户1的视线的前方的位置。例如,检测部75作为该用户1的视线的前方的位置,检测透射显示部131上的视线的前方的位置。在这种情况下,检测部75作为关于操作区域的信息,将表示该位置的信息向设定部76发送。
设定部76是基于由检测部75检测到的结果和由位置确定部73确定的位置,设定与用于使存储部71中存储的应用操作的区域即操作区域(起始点)相关的信息(例如关于该操作区域的位置)的部分。
设定部76在取得由位置确定部73确定的位置和方向以及表示由检测部75检测到的结果所示的区域的信息的情况下,将表示该区域的信息以及由该位置确定部73确定的位置和方向设定至存储部71。
设定部76根据由位置确定部73确定的位置和方向以及由检测部75检测到的结果,将根据基于视线的前方的位置或手指的动作的区域的位置所确定的区域的信息设定至存储部71。
此外,设定部76在确定与基于由检测部75检测到的结果的位置对应的监视器的情况下,也可以在操作区域的位置设定该监视器的位置。例如,设定部76在从摄像部74取得与由检测部75检测到的位置对应的图像,并将预先存储的监视器的模板与该图像进行比较,在检测到监视器的情况下,将该监视器的识别信息作为关于操作区域的信息设定。
应用控制部77是根据用户1的操作请求,使存储部71中存储的应用在透射显示部131的操作区域显示的部分。应用控制部77在通过用户1的操作请求而受到规定的应用的编辑操作请求的情况下,在操作区域显示该应用,并且设定成能够编辑该应用的状态。
此外,应用控制部77在已经在存储部71存储有关于起始点的信息的情况下,从位置确定部73适当地取得头戴式显示器100的位置、方向,基于该位置和方向,判断起始点是否包含可见区域。应用控制部77在判断为起始点包含可见区域时,将该起始点的区域向透射显示部131输出。
此外,应用控制部77在已经设定了关于操作区域的信息的情况下(关于操作区域的信息为设定完毕的情况下),确定与该位置对应的监视器时,重新将该监视器设定至新的操作区域的位置。
此外,应用控制部77存储有应用的显示位置,基于该显示位置来显示应用。该显示位置是根据用户的位置、朝向等确定的位置。另外,存储部71也可以存储应用的显示位置。
<起始点的设定>
接着,使用图5说明起始点的设定方法。图5是说明起始点的设定方法的图。作为前提,基于操作输入部120受理的操作,设定成起始点的设定模式。
当如上述那样设定成起始点的设定模式时,摄像部74对图5的(a)所示的可见区域进行规定期间拍摄,拍摄图5的(a)所示那样的用户1的手指。例如,检测部75检测从矩形区域的上部中央部分到矩形区域的下部中央部分的手指的轨迹。
即,检测部75使用由摄像部74拍摄到的结果来检测图5的(a)所示那样的手指的运动(手势),基于该手指的运动确定用户1的指定区域(矩形区域),作为起始点设定。进一步,检测部75基于可见区域与透射显示部131的区域的差异,决定起始点的基准位置。
例如,检测部75基于可见区域中的位置关系和可见区域与透射显示部131的区域的大小的差异,决定透射显示部131的起始点的基准位置。此处,使用图5的(b)说明上述基准位置的决定方法。图5的(b)表示透射显示部131的显示区域。
此外,检测部75计算高度V、距离VU、距离VP与距离VL的比率。高度V是透射显示部131的高度。距离VU是从透射显示部131的上部到起始点的上部的距离。距离VP是从起始点的上部到起始点下部的距离。距离VL是从起始点下部到透射显示部131的下部的距离。
此外,检测部75计算透射显示部131的宽度H、从透射显示部131的左部到起始点的左部的距离HL、从起始点的左部到起始点右部的距离HP、从起始点右部到透射显示部131的右部的距离HR的比率。
检测部75计算从头戴式显示器100到手指的位置的距离,基于该距离和上述计算出的比率确定基准位置P。该基准位置P表示在透射显示部131中显示的位置,通过将由位置确定部73确定的当前位置和指向方向组合,能够确定起始点的在外界的绝对位置。基本上,此处求得的在外界的绝对位置就是起始点,不过作为变形例,也可以将图5的(b)中表示的可见区域内的特定位置作为起始点设定。在该变形例的情况下,能够总可见到起始点。
另外,检测部75也可以不像上述那样考虑比率,而直接按指定的区域确定位置。
在图5的(a)中,列举用手指从起始点的上部中央部分至起始点的下部中央部分地进行描画的情况下的例子,也可以利用其它方法指定起始点。此处,使用图6说明起始点的其它指定方法。图6是说明起始点的其它指定方法的图。例如,也可以如图6的(a)所示那样,从起始点的右上部向左下部沿起始点的区域进行指定。此外,还可以如图6的(b)所示那样,从起始点的右上部到左下部沿起始点的区域的对角线进行指定。
此外,检测部75基于摄像结果,计算从头戴式显示器100到起始点的基准位置的距离。使用图7的(a)和图7的(b)说明计算从头戴式显示器100到起始点的距离的方法。图7是说明计算从头戴式显示器100到起始点的距离的方法的图。图7的(a)是用户1佩戴着头戴式显示器100的状态下的头戴式显示器100的俯视图,是表示水平角的图。图7的(b)是头戴式显示器100的侧视图,是表示仰俯角的图。
具体而言,检测部75基于所拍摄的图像的手指的位置来计算图7的(a)所示的相对于头戴式显示器100的指向方向的、起始点AR的基准位置的水平角α。此外,检测部75基于所拍摄的图像的手指的位置来计算图7的(b)所示的相对于头戴式显示器100的指向方向的、起始点基准位置的仰俯角β。
检测部75基于与摄像范围的中央部分的距离、上述水平角α和仰俯角β计算与起始点AR的基准位置的距离L。
另外,检测部75将从头戴式显示器100到起始点AR的基准位置的距离、起始点AR的宽度和高度、以及起始点AR的基准位置发送至设定部76。据此,设定部76将从头戴式显示器100到起始点AR的基准位置的距离L、起始点的宽度、起始点的高度、起始点的基准位置P作为关于起始点的信息,存储至存储部71。另外,起始点的基准位置P的绝对坐标当然能够从位置确定部73取得的头戴式显示器100的位置、指向方向、上述水平角α、仰俯角β和距离L计算出来。
此处,使用图8,说明设定起始点AR的顺序。图8是表示设定起始点AR的处理顺序的流程图。首先,当设定受理部72根据用户1的表示设定请求的操作,受理操作区域设定请求时,成为起始点设定模式(步骤S1:是(Yes))。另外,在设定受理部72未受理操作区域设定请求的情况下(步骤S1:否(No)),结束处理。
当设定受理部72受理操作区域设定请求时,向位置确定部73、摄像部74和检测部75通知受理了该操作区域设定请求的意思。摄像部74据此开始摄像动作(有效化),并将摄像结果向检测部75发送(步骤S2)。
位置确定部73通过GPS接收部151等取得头戴式显示器100的当前位置(步骤S3)。此外,位置确定部73通过地磁传感器153等取得指向方向(头戴式显示器100所朝向的方向)(步骤S4)。此外,检测部75从摄像部74取得摄像结果,并基于该摄像结果确定用户1的运动,基于该摄像结果计算与用户1的手指的距离(步骤S5)。此外,检测部75基于上述摄像结果确定起始点的高度、宽度(步骤S6)。此外,检测部75基于至用户1的手指的距离计算基准位置P。检测部75将从头戴式显示器100到起始点AR的基准位置的距离L、起始点的宽度、起始点的高度和起始点的基准位置P向设定部76发送(步骤S7)。
设定部76在取得上述基准位置P和起始点AR的高度、宽度时,在透射显示部131显示起始点AR的确认讯息,进行设定确认(步骤S8)。
当通过用户1的操作输入,完成表示设定认可的输入时(步骤S8:是),将设定部76距离L、起始点AR的高度、宽度和基准位置P设定至存储部71。此外,设定部76将由位置确定部73确定的当前位置和指向方向也作为关于起始点AR的信息,在存储部71设定(步骤S9)。
此外,设定部76向摄像部74通知设定完成的意思,摄像部74令摄像状态为关闭(无效化)(步骤S10)。此外,设定部76解除起始点设定模式。另外,在步骤S8中,通过用户1的操作输入,完成表示设定否认的输入时(步骤S8:否),转移至步骤S3。
接着,使用图9和图10说明用户1移动时的起始点AR的显示例。首先,使用图9说明到用户1佩戴着的头戴式显示器100中设定起始点AR为止的步骤。图9是用于说明用户1佩戴着的头戴式显示器100中,设定起始点AR为止的状态的图。
图9的(a)是用户1的房间的简图。如图9的(a)所示,在用户1的房间中,有床600、桌子601、椅子602、书架603、电视桌604和电视机605。
图9的(b)是表示用户1坐在椅子602上的状态的图。佩戴着头戴式显示器100的用户1在椅子602就坐的状态下,操作操作输入部120,头戴式显示器100据此设定关于起始点AR的信息。
接着,使用图10说明起始点的显示控制。图10是用于说明起始点AR的显示控制的图。图10的(a)是表示用户1在看与起始点不同的场所(头戴式显示器100朝向与起始点不同的方向)的例子的图。如图10的(a)所示,在头戴式显示器100的方向(可见区域)上没有基准位置P的情况下,头戴式显示器100不显示起始点AR。
此外,图10的(b)表示头戴式显示器100朝向起始点AR的方向(即在可见区域有基准位置P)的例子。如图10的(b)所示,在头戴式显示器100朝向起始点AR的方向的情况下,在可见区域含有基准位置P,因此头戴式显示器100显示起始点AR。此时的起始点的显示方式既可以保持设定时的朝向不变,也可以改为朝向用户1的方向。
接着,使用图11说明进行起始点AR的显示控制的处理顺序。图11是表示进行起始点AR的显示控制的处理的流程图。在通过用户1的操作输入指定了起始点使用模式时(步骤S11:是),应用控制部77取得存储部71中存储的关于起始点AR的信息(当前位置、指向方向、距离L、起始点的宽度、高度、基准位置P)(步骤S12)。
接着,应用控制部77从位置确定部73取得当前位置信息(步骤S13)。此外,应用控制部77从位置确定部73取得指向方向(步骤S14)。
应用控制部77对存储部71中存储的关于起始点AR的信息与由位置确定部73确定的当前位置信息和指向方向进行比较。应用控制部77在该比较的结果是起始点的基准位置P在可见区域内(步骤S15:是)、且从头戴式显示器100到起始点的基准位置P的距离为规定值以内的情况下(步骤S16:是),在透射显示部131显示起始点(步骤S17)。另外,在与步骤S15的条件不一致的情况下(步骤S15:否)或与步骤S16的条件不一致的情况下(步骤S16:否),前进至步骤S18。
<向起始点的应用移动>
接着,使用图12~图17说明使头戴式显示器100显示的应用向起始点移动的方法。
首先,使用图12说明设定了起始点的时的起始点的显示例。图12是用于说明设定了起始点时的起始点的显示例的图。图12的(a)是表示用户1坐在椅子602上的状态的图。在该状态下,头戴式显示器100根据来自用户1的操作请求设定起始点。
图12的(b)是在该状态下,在头戴式显示器100的透射显示部131显示的图像的例子。如图12的(b)所示,头戴式显示器100显示应用AP1(应用A)、应用AP2(应用B),并且在透射显示部131显示起始点。
接着,在图13表示头戴式显示器100朝向与起始点不同的方向的情况下的例子。图13的(a)是头戴式显示器100朝向与起始点不同的方向的例子。图13的(b)是表示在图13的(a)的状态下,向头戴式显示器100的透射显示部131显示的图像的例子的图。
如图13的(b)所示,头戴式显示器100不显示起始点,而在透射显示部131显示分配至该方向的应用AP3(应用C)、应用AP4(应用D)、应用AP5(应用E)、应用AP6(应用F)。
接着,在图14表示头戴式显示器100使应用移动至起始点的例子。如图14所示,在图13的(b)的状态下,当通过用户1的操作输入而选择应用AP5时,显示菜单。在该菜单中,选择“调出”。该“调出”是表示在起始点进行调出的菜单。
在菜单中,使用图15说明选择“调出”后的状态。如图15的(a)所示,与图13的(a)一样,用户1朝向的方向不变。图15的(b)是表示菜单选择后的透射显示部131的显示状态的图。如图15的(b)所示,被选择而被指定“调出”的应用AP5正向起始点移动,因此从显示对象排除。在这种情况下,应用控制部77存储该应用AP5的移动前的位置和移动后的位置。另外,调出应用AP5后,头戴式显示器100也可以以比移动前浅的颜色显示移动前的应用AP5的位置。由此,用户1能够可见移动前的应用AP5的位置,能够在该移动前的应用AP5的区域调整应用的显示位置时作为参考。
接着,使用图16说明用户1朝向起始点的所在的方向的情况。图16的(a)是用户1改变姿态而使得头戴式显示器100朝向可见区域内包含起始点在内的方向的状态。
图16的(b)是表示上述的状态下的、在头戴式显示器100的透射显示部131显示的图像的例子的图。如图16的(b)所示,应用控制部77在起始点AR的位置配置显示应用AP5。此外,应用控制部77在通过用户1的输入操作而受理了对应用AP5的菜单显示请求的情况下,显示菜单,当选择“返回”时,将应用AP5从显示对象排除。
接着,使用图17再次说明用户1朝向左方的情况。图17的(a)是用户1改变姿态而使得头戴式显示器100朝向左方的状态。图17的(b)是表示上述的状态下的、在头戴式显示器100的透射显示部131显示的图像的例子的图。
如图17的(b)所示,应用控制部77对于应用AP5选择了“返回”菜单,由此将应用AP5返回至原来的位置进行显示。
接着,使用图18说明应用的显示控制的处理顺序。图18是表示应用的显示控制的处理顺序的流程图。首先,在为起始点使用模式的情况下(步骤S21:是),位置确定部73取得头戴式显示器100的当前位置(步骤S22)。此外,位置确定部73取得指向方向(步骤S23)。应用控制部77从位置确定部73取得上述当前位置和指向方向,基于所存储的应用的显示位置,显示与当前位置和指向方向相应的应用(步骤S24)。
应用控制部77在检测到选择了任意的应用的情况下(步骤S25:是),显示菜单(步骤S26)。应用控制部77确定所选择的命令(步骤S27)。如果所确定的命令为“返回”,则应用控制部77使所选择的应用移动至原来的位置(步骤S29),前进至步骤S30。此外,如果所确定的命令为“调出”,则应用控制部77使所选择的应用向起始点移动(步骤S28),前进至步骤S30。此外,应用控制部77在选择了“调出”“返回”以外的菜单的情况下,不做任何处理地前进至步骤S30。在步骤S30中,没有表示起始点使用模式的结束的指示的情况下(步骤S30:否),前进至步骤S22。此外,在步骤S30中,有表示起始点的结束的指示的情况下(步骤S30:是),结束处理。
<与监视器的链接处理>
接着,说明在起始点AR的位置具有监视器的情况下,以将该监视器作为起始点AR的方式进行链接的例子。首先说明设定起始点AR的例子。图19的(a)是表示用户1坐在椅子602上的状态的图。佩戴着头戴式显示器100的用户1在椅子602就坐的状态下,操作操作输入部120来设定起始点AR。图19的(b)是表示上述的状态下的、在头戴式显示器100的透射显示部131显示的图像的例子的图。如图19的(b)所示,应用控制部77在透射显示部131显示起始点AR。
接着,使用图20说明在起始点AR的位置配置有监视器700的情况下,将该监视器700作为起始点AR重新进行设定的例子。
图20的(a)是表示在用户1坐在椅子602上的状态下,在用户1前配置有监视器的例子的图。
在这样的状态下,应用控制部77判断在起始点的范围内是否配置有监视器。例如,应用控制部77对摄像部74的摄像结果与预先存储的监视器的模板进行比较而判断是否存在监视器。
应用控制部77在判断为存在监视器的情况下,在透射显示部131显示询问是否与该监视器连接的讯息。当按与监视器连接的意思,进行用户1的操作输入时,应用控制部77与监视器进行近距离无线通信,当成为能够与该监视器进行信息的发送和接收的状态时,取得该监视器的识别信息,将该监视器的识别信息作为关于起始点AR的信息进行追加。这样,应用控制部77作为设定修正部发挥作用。
而且,应用控制部77如图20的(b)所示那样,将该监视器作为起始点AR显示。此外,作为变形例,也可以为在能够在可见区域可见监视器700的情况下,将该监视器700的画面作为新的起始点设定的方法。在这种情况下,根据需要也可以返回不与监视器链接的原来的起始点设定。
接着,使用图21说明使起始点AR链接至监视器的处理顺序。图21是表示使起始点AR链接至监视器700的处理顺序的流程图。图21所示的步骤S31~步骤S35与图11所示的步骤S11~步骤S15分别相同,省略因此说明。
在步骤S36中,应用控制部77对摄像部74的摄像结果与预先存储的监视器700的模板进行比较,判断在起始点的范围内是否存在监视器700(步骤S36)。在起始点AR的范围内存在监视器700的情况下(步骤S36:是),应用控制部77输出询问是否与监视器700链接的讯息(步骤S37)。在通过用户操作,被进行表示链接解除的指定的情况下,解除与监视器700的链接(步骤S40),前进至步骤S41。另外,在起始点AR的范围内不存在监视器700的情况下(步骤S36:否),前进至步骤S41。
在步骤S37中,进行了与监视器链接的意思的用户操作的情况下(步骤S37:是),可链接的监视器700有多个时,显示监视器700的一览表,受理监视器700的选择(步骤S38)。另外,在监视器700仅为1个的情况下,也可以省略步骤S38的处理。应用控制部77与所选择的监视器700链接(在该监视器再次设定起始点)(步骤S39),前进至步骤S41。
在步骤S41中,被指示了结束起始点使用模式的意思的情况下(步骤S41:是),结束处理。此外,在步骤S41中,未被进行结束起始点使用模式的意思的指示的情况下(步骤S41:否),前进至步骤S33。
接着,使用图22说明以监视器700为起始点的情况下的、应用的显示控制的处理顺序。图22是表示以监视器700为起始点AR的情况下的、应用的显示控制的处理顺序的流程图。另外,图22所示的步骤S51~步骤S57、步骤S62与图18所示的步骤S21~步骤S27、步骤S30分别相同,因此省略说明。
在步骤S57中,如果所确定的命令为“返回”,则没有使在监视器700显示的对象,因此应用控制部77所选择的应用的监视器输出(步骤S60),该应用移动至原来的位置(步骤S61),前进至步骤S62。
此外,在步骤S57中,如果所确定的命令为“调出”,则应用控制部77结束所选择的应用的显示(步骤S58),使该应用在作为起始点的监视器700显示(步骤S59),前进至步骤S62。此外,应用控制部77在选择了“调出”“返回”以外的菜单的情况下,不做任何处理地前进至步骤S62。
如上所述,在头戴式显示器100中,存储部71存储应用。摄像部74拍摄用户的部位,位置确定部73确定头戴式显示器100的位置和方向。检测部75基于由摄像部74拍摄到的图像来检测用户1的状态,设定部76基于由检测部75检测到的结果和由位置确定部73确定的位置和方向,设定表示起始点的位置。
头戴式显示器100通过用户的输入指定设定操作应用的区域,因此能够使应用在用户容易操作的位置操作。
具体而言,摄像部74拍摄包含用户1的手指部分,检测部75根据该摄像结果检测用户1的手势,设定部76使用基于该手势的位置来设定与起始点相关的位置。在这种情况下,头戴式显示器100基于用户1的手指动作(手势)结果设定与起始点相关的位置,因此能够不通过复杂的操作输入而通过直观而简易的操作来设定起始点。
此外,摄像部74拍摄用户1的眼睛周边,检测部75使用摄像部74得到的摄像结果检测用户的视线,检测基于该视线的位置,设定部76使用基于视线的位置设定与起始点相关的位置。在这种情况下,头戴式显示器100也能够不通过复杂的操作输入,而通过直观而简易的操作来设定起始点。
此外,当在基于由检测部75检测到的位置和由位置确定部73确定的位置的位置存在监视器700时,设定部76将该监视器700的位置设定为与起始点AR相关的位置。在这种情况下,头戴式显示器100能够通过基于用户1的手势等的直观的操作,将监视器700作为起始点AR设定。
此外,在由设定部76设定了与起始点AR相关的位置的情况下,应用控制部77在与该位置对应的位置新确定了监视器700时,将该监视器的位置重新作为起始点重新设定。由此,头戴式显示器100能够在设定起始点后,不需要用户1的表示新的位置指定的操作而将监视器的位置设定为起始点。
此外,应用控制部77能够通过以根据规定的输入操作将存储部71中存储的应用显示于起始点的方式进行控制,在用户容易操作的位置显示应用。
在上述实施方式中,虽然没有特别阐述,但也可以设定多个起始点。此外,在这种情况下,既可以基于头戴式显示器100的当前位置决定对象的起始点,也可以以通过用户操作指定的起始点为优先。
对位置确定部73基于经度纬度等当前位置确定位置的情况进行了阐述,不过也可以通过其它各种方法确定位置。例如,也可以确定基于成为基准的物体(成为地标的物体)的相对位置。
在上述的实施方式中,虽然没有特别阐述,但也可以通过声音输入进行命令指定(例如“调出”等)的指定。
在上述实施方式中,对作为与起始点相关的信息,在当前位置和指向方向以外设定距离L,起始点的宽度、高度,和基准位置P的情况进行了阐述,不过关于距离L,起始点的宽度、高度,也可以保存预先确定的值,而设定当前位置和指向方向、基准位置P。
上述本发明的功能等例如也可以通过利用集成电路等进行设计实现其一部分或全部。此外,也可以通过对微处理器单元等实现各自的功能等的动作程序进行解释、执行而以软件实现。还可以同时使用硬件和软件。
此外,图中所示的控制线和信息线,仅展示在说明上被认为需要的部分,并不一定展示制品上的所有的控制线和信息线。实际上也可以认为几乎所有的结构相互连接。
此外,图中所示的控制线和信息线,仅展示在说明上被认为需要的部分,并不一定展示制品上的所有的控制线和信息线。实际上也可以认为几乎所有的结构相互连接。
附图标记的说明
1…用户、71…存储部、72…设定受理部、73…位置确定部、74…摄像部、75…检测部、76…设定部、77…应用控制部、100…头戴式显示器、101…主控制部、103…RAM、110…存储器、120…操作输入部、121…操作键、122…触摸传感器、131…透射显示部、132…图像信号处理部、133…第1摄像部、134…第2摄像部、141…声音输出部、142…声音信号处理部、143…声音输入部、150…传感器部、151…GPS接收部、152…陀螺仪传感器、153…地磁传感器、154…加速度传感器、160…通信部、170…扩展I/F部。

Claims (7)

1.一种能够存储应用的头戴式显示器,其特征在于,包括:
拍摄佩戴着所述头戴式显示器的用户的部位的摄像部;
基于所述摄像部所拍摄到的图像来检测所述用户所指示的位置的检测部;
确定所述头戴式显示器的位置和方向的位置确定部;和
设定部,其基于所述检测部所检测到的结果以及所述位置确定部所确定的位置和方向来设定关于操作区域的信息,其中该操作区域是操作所述应用的区域。
2.如权利要求1所述的头戴式显示器,其特征在于:
所述检测部基于所述摄像部所拍摄到的图像来检测所述用户的手势所指示的位置。
3.如权利要求1所述的头戴式显示器,其特征在于:
所述摄像部拍摄所述用户的眼睛周边,
所述检测部通过所述摄像部来检测所述用户的视线所指示的位置。
4.如权利要求1~3中任一项所述的头戴式显示器,其特征在于:
所述设定部在确定了与基于所述检测部所检测到的结果的位置对应的显示单元的情况下,将所述显示单元的位置设定为所述关于操作区域的信息。
5.如权利要求1~3中任一项所述的头戴式显示器,其特征在于:
还包括设定修正部,其在由所述设定部设定了所述关于操作区域的信息的情况下,在确定了与基于所述检测部所检测到的结果的位置对应的显示单元时,将该显示单元的信息改设为新的所述关于操作区域的信息。
6.如权利要求1~5中任一项所述的头戴式显示器,其特征在于:
还包括应用控制部,其按照规定的输入操作,使用关于设定完成的操作区域的信息来使所存储的应用显示于所述操作区域。
7.一种由能够存储应用的头戴式显示器执行的设定方法,其特征在于,包括:
拍摄用户的部位的摄像步骤;
基于在所述摄像步骤中拍摄到的图像,检测佩戴着所述头戴式显示器的用户所指示的位置的检测步骤;
确定所述头戴式显示器的位置和方向的位置确定步骤;和
设定步骤,基于在所述检测步骤中检测到的结果以及在所述位置确定步骤中确定的位置和方向来设定关于操作区域的信息,其中该操作区域是操作所述应用的区域。
CN201880095194.4A 2018-07-04 2018-07-04 头戴式显示器和设定方法 Pending CN112384879A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/025354 WO2020008559A1 (ja) 2018-07-04 2018-07-04 ヘッドマウントディスプレイおよび設定方法

Publications (1)

Publication Number Publication Date
CN112384879A true CN112384879A (zh) 2021-02-19

Family

ID=69060809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880095194.4A Pending CN112384879A (zh) 2018-07-04 2018-07-04 头戴式显示器和设定方法

Country Status (4)

Country Link
US (4) US11341940B2 (zh)
JP (1) JP7077405B2 (zh)
CN (1) CN112384879A (zh)
WO (1) WO2020008559A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014609A1 (ja) * 2020-07-14 2022-01-20 ソニーグループ株式会社 情報処理装置、及び情報処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6149403B2 (ja) * 2013-01-07 2017-06-21 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
JP5848732B2 (ja) 2013-08-26 2016-01-27 シャープ株式会社 情報処理装置
DE102014009303B4 (de) * 2014-06-26 2020-07-23 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US20160210780A1 (en) * 2015-01-20 2016-07-21 Jonathan Paulovich Applying real world scale to virtual content
JP6788327B2 (ja) * 2015-02-27 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
JP2018084886A (ja) 2016-11-22 2018-05-31 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
US10255658B2 (en) * 2016-08-09 2019-04-09 Colopl, Inc. Information processing method and program for executing the information processing method on computer

Also Published As

Publication number Publication date
US11837198B2 (en) 2023-12-05
US12087256B2 (en) 2024-09-10
JP7077405B2 (ja) 2022-05-30
US11580939B2 (en) 2023-02-14
US20240054975A1 (en) 2024-02-15
US11341940B2 (en) 2022-05-24
US20210158784A1 (en) 2021-05-27
WO2020008559A1 (ja) 2020-01-09
US20230169939A1 (en) 2023-06-01
US20220246114A1 (en) 2022-08-04
JPWO2020008559A1 (ja) 2021-07-08

Similar Documents

Publication Publication Date Title
JP4991458B2 (ja) 画像表示装置及びその制御方法
US20130314547A1 (en) Controlling apparatus for automatic tracking camera, and automatic tracking camera having the same
US10917560B2 (en) Control apparatus, movable apparatus, and remote-control system
US20110063457A1 (en) Arrangement for controlling networked PTZ cameras
EP3062286B1 (en) Optical distortion compensation
WO2017033619A1 (ja) 撮像システム及び撮像制御方法
US20030202102A1 (en) Monitoring system
JP6976719B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP2008040576A (ja) 画像処理システム及び該システムを備えた映像表示装置
JP6380787B2 (ja) 撮像装置、カメラ、表示装置、撮像方法、表示方法、及びプログラム
JP6566626B2 (ja) 撮像装置
US12087256B2 (en) Head mounted display and setting method
JP7498330B2 (ja) 仮想オブジェクト操作方法およびヘッドマウントディスプレイ
JP6881004B2 (ja) 表示装置
KR102617252B1 (ko) 전자 장치 및 그 파노라마 촬영 모드 자동 전환 방법
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
JP7356293B2 (ja) 電子機器およびその制御方法
JP4544262B2 (ja) 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法
US11516404B2 (en) Control apparatus and control method
US20230316559A1 (en) Network system and information processing method
JP2017184043A (ja) 制御装置、制御方法、撮像システム及びプログラム
JP7191521B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
EP2819409A1 (en) Terminal device, image capture system, and image capture method
WO2020110283A1 (ja) 表示装置
JP2021179704A (ja) 画像形成システムおよび画像形成装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Kyoto Japan

Applicant after: MAXELL, Ltd.

Address before: Kyoto Japan

Applicant before: MAXELL HOLDINGS, Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220308

Address after: Kyoto Japan

Applicant after: MAXELL HOLDINGS, Ltd.

Address before: Kyoto Japan

Applicant before: MAXELL, Ltd.