CN106094202A - 显示系统和头戴式显示器 - Google Patents

显示系统和头戴式显示器 Download PDF

Info

Publication number
CN106094202A
CN106094202A CN201610261914.2A CN201610261914A CN106094202A CN 106094202 A CN106094202 A CN 106094202A CN 201610261914 A CN201610261914 A CN 201610261914A CN 106094202 A CN106094202 A CN 106094202A
Authority
CN
China
Prior art keywords
display
user
setting screen
image
head mounted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610261914.2A
Other languages
English (en)
Other versions
CN106094202B (zh
Inventor
大山国晃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Publication of CN106094202A publication Critical patent/CN106094202A/zh
Application granted granted Critical
Publication of CN106094202B publication Critical patent/CN106094202B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00246Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with an optical device, e.g. an optical viewing aid
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种显示系统和头戴式显示器。显示系统具备若干个终端和头戴式显示器。头戴式显示器在其与若干个终端之间进行无线通信。头戴式显示器具备主控制部和显示控制部。主控制部对使用者的视线方向进行检测。主控制部基于检测出的视线方向,来确定出若干个终端中的一个终端。显示控制部使主控制部所确定的终端的至少一种设置画面被显示成使用者可见。

Description

显示系统和头戴式显示器
技术领域
本发明涉及一种显示系统和头戴式显示器。
背景技术
近年来,一直在进行一种技术开发,可以通过该技术来使用头戴式显示器进行图像形成装置的设置。头戴式显示器是可穿戴终端或者可穿戴计算机的一种。头戴式显示器以使用者可见的方式对图像进行显示。换言之,头戴式显示器对信息进行显示。例如,在进行一种技术开发,通过该技术来使用视网膜投影方式的单眼型头戴式显示器进行图像形成装置的设置。
具体来说,头戴式显示器主体通电后,指定的图像形成装置的设置画面或者操作面板被投影到视网膜上。比较典型的是,指定的图像形成装置所具备的操作面板上显示的设置画面被投影到视网膜上。或者,指定的图像形成装置所具备的操作面板投影到视网膜上。使用者视野范围的至少一部分被拍摄,使用者为了对设置画面或者操作面板进行操作而在拍摄范围(使用者视野范围)内移动手指时,拍摄的图像被解析,使用者的手指移动被检测到。然后,对移动后的手指指尖的坐标与投影在视网膜上的设置画面或者操作面板所含的各按键的坐标进行比较,判断出使用者操作的按键。另外,视网膜投影方式也称为透射方式。
发明内容
然而,在已知的技术中,不能将若干个图像形成装置(若干个终端)都作为设置对象。
本发明是鉴于上述课题而作出的,其目的在于提供一种显示系统和头戴式显示器,能够将若干个终端都作为设置对象。
本发明的显示系统具备:若干个终端、头戴式显示器。所述头戴式显示器在其与所述若干个终端之间进行无线通信。所述头戴式显示器具备主控制部和显示控制部。所述主控制部对使用者的视线方向进行检测。所述主控制部基于检测出的所述视线方向,确定出所述若干个终端中的一个终端。所述显示控制部使所述主控制部所确定的所述终端的操作面板或者至少一种设置画面显示成所述使用者可见。
本发明的头戴式显示器在其与若干个终端之间进行无线通信。所述头戴式显示器具备主控制部和显示控制部。所述主控制部对使用者的视线方向进行检测,并基于检测出的所述视线方向来确定出所述若干个终端中的一个终端。所述显示控制部使所述主控制部所确定的所述终端的操作面板或者至少一种设置画面显示成所述使用者可见。
根据本发明,能够将若干个终端都作为设置对象。
附图说明
图1是表示实施方式所涉及的显示系统的结构图。
图2是表示实施方式所涉及的头戴式显示器的图。
图3是表示实施方式所涉及的头戴式显示器的结构框图。
图4是表示实施方式所涉及的图像形成装置的结构框图。
图5是表示在实施方式所涉及的显示系统中显示的图像的图。
图6是表示在实施方式所涉及的显示系统中显示的图像的图。
图7是表示在实施方式所涉及的显示系统中显示的图像的图。
图8是表示在实施方式所涉及的显示系统中显示的图像的图。
图9是表示在实施方式所涉及的显示系统中显示的图像的图。
图10中(a)~(c)都是表示在实施方式所涉及的显示系统中显示的图像的图。
图11是表示实施方式所涉及的显示系统的动作的流程图。
具体实施方式
以下,参照附图对实施方式进行说明。其中,在图中对相同或者相当的部分使用同样的附图标记,不再重复说明。
首先,参照图1,对本实施方式所涉及的显示系统10的结构进行说明。图1是表示显示系统10的结构图。如图1所示,显示系统10具备:头戴式显示器20和若干个图像形成装置40。本实施方式中,显示系统10具备两个图像形成装置40。具体来说,显示系统10具备第一图像形成装置40a和第二图像形成装置40b。
显示系统10对若干个图像形成装置40进行各种设置。具体来说,头戴式显示器20可以将若干个图像形成装置40(若干个固定终端)中的任何一个图像形成装置40的设置画面显示成使用者可见。图像形成装置40的设置画面是用于对该图像形成装置40进行各种设置的画面。比较典型的是,头戴式显示器20对图像形成装置40所具备的操作面板上显示的设置画面进行显示。呈现出所显示设置画面的图像形成装置40是当前的设置对象。头戴式显示器20检测使用者相对于所显示的设置画面进行的手指移动。然后,头戴式显示器20将对应于使用者手指移动的信号发送给当前的设置对象。其结果,当前的设置对象的设置被更新。另外,在以下的说明中,有时将“呈现出所显示设置画面的图像形成装置40”记载为“作为当前设置对象的图像形成装置40”。
本实施方式中的头戴式显示器20是视频透射式的头戴式显示器。头戴式显示器20具备环境图像获取部21。环境图像获取部21获取被推测为进入使用者视野的周边环境图像。例如,环境图像获取部21包含CMOS图像传感器(Complementary Metal Oxide Semiconductor Image Sensor)或CCD图像传感器(Charge Coupled Device Image Sensor)等拍摄元件。
穿戴了头戴式显示器20的使用者可以看到环境图像获取部21所获取的周边环境图像。还有,在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)存在一个图像形成装置40的情况下,头戴式显示器20让使用者可以看到周边环境图像以及周边环境图像内的图像形成装置40的设置画面。也就是说,显示周边环境图像,同时也显示周边环境图像内的图像形成装置40的设置画面。还有,在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)存在若干个图像形成装置40的情况下,头戴式显示器20让使用者可以看到周边环境图像以及周边环境图像内的若干个图像形成装置40中的一个图像形成装置40的设置画面。
头戴式显示器20再通过对周边环境图像进行的图像解析,判断在周边环境图像内是否有使用者的手。在该判断结果是周边环境图像内有使用者的手的情况下,头戴式显示器20通过对周边环境图像进行的图像解析,检测出使用者的手指移动。
本实施方式中,头戴式显示器20可以在其与各图像形成装置40之间进行无线通信。在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)存在一个图像形成装置40的情况下,头戴式显示器20将第一请求信号发送给环境图像获取部21的拍摄范围内的图像形成装置40。第一请求信号是对设置画面信息进行请求的信号。还有,头戴式显示器20接收从作为第一请求信号发送目的地的图像形成装置40发送来的设置画面信息。头戴式显示器20基于接收的设置画面信息,对设置画面进行显示。在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)存在若干个图像形成装置40的情况下,头戴式显示器20将第一请求信号发送给环境图像获取部21的拍摄范围内的若干个图像形成装置40中的某一个。其结果,周边环境图像内的若干个图像形成装置40中的一个图像形成装置40的设置画面被显示。
头戴式显示器20在存在于周边环境图像内的全部图像形成装置40各自的附近,例如显示气球之类的图标。而且,头戴式显示器20将第二请求信号发送给存在于环境图像获取部21的拍摄范围内的全部图像形成装置40。第二请求信号是对使用状况信息进行请求的信号。由此,头戴式显示器20接收从作为第二请求信号发送目的地的图像形成装置40发送来的使用状况信息。然后,头戴式显示器20根据周边环境图像内的全部图像形成装置40各自的使用状况,改变所对应的图标。本实施方式中,图标颜色被设置成对应于使用状况的颜色。例如,与可使用的图像形成装置40相对应的图标颜色设置成绿色,与其他人使用中的图像形成装置40相对应的图标颜色设置成黄色,与不可使用的图像形成装置40相对应的图标颜色设置成红色。由此,使用者能够容易地判断出当前可使用的图像形成装置40。因此,提高使用者的便利性。
接下来,参照图2和图3,对头戴式显示器20的结构进行说明。图2是表示头戴式显示器20的图。具体来说,图2表示从使用者的脸侧(眼球侧)看到的头戴式显示器20。换言之,图2表示头戴式显示器20的内侧。
如图2所示,本实施方式中的头戴式显示器20是双眼型头戴式显示器。因此,头戴式显示器20具备配置在使用者左右眼(眼球)前方的两个显示器22(显示部)。还有,头戴式显示器20在两个显示器22上显示相同的图像。例如,显示器22由液晶显示器或有机电致发光(有机EL)显示器等显示元件构成。
头戴式显示器20还具备左右的一对眼球图像获取部23。左右的一对眼球图像获取部23配置成可以获取使用者左右眼(眼球)的图像。眼球图像获取部23所获取的眼球图像用于检测使用者的视线方向。头戴式显示器20基于检测出的视线方向,确定出周边环境图像内使用者注视着的图像形成装置40。然后,头戴式显示器20显示所确定的图像形成装置40的设置画面。因此,在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)存在若干个图像形成装置40的情况下,在周边环境图像内存在的若干个图像形成装置40之间,使用者注视的图像形成装置40切换后,显示的设置画面也跟着切换。
本实施方式中,眼球图像获取部23具有:近红外线LED(Light EmittingDiode)231和红外摄像机232。例如,红外摄像机232可以包含CCD图像传感器或InGaAs/T2SL(Type II Super Lattice)传感器等拍摄元件。
在眼球图像获取部23具有近红外线LED231和红外摄像机232的情况下,利用近红外线LED231将近红外线照射到使用者眼球上。红外摄像机232对近红外线照射的使用者眼球进行拍摄。其结果,获取到眼球图像。头戴式显示器20从眼球图像中检测角膜反射点和瞳孔,根据它们的位置关系检测出使用者的视线方向。也就是说,本实施方式中,通过角膜反射法检测使用者的视线方向。
头戴式显示器20基于检测出的视线方向,对使用者注视的位置进行检测。另外,在以下的说明中,有时将“使用者注视的位置”记载为“注视点”。本实施方式中,注视点在显示器22所显示的周边环境图像内。头戴式显示器20基于周边环境图像内的图像形成装置40与注视点的位置关系,确定出使用者注视着的图像形成装置40。
而且,头戴式显示器20使对应于使用者注视着的图像形成装置40的图标颜色为特殊颜色。由此,使用者能够容易地判断出作为当前设置对象的图像形成装置40。另外,头戴式显示器20也可以使对应于使用者注视着的图像形成装置40的图标进行闪烁。或者,头戴式显示器20也可以使对应于使用者注视着的图像形成装置40的图标颜色为特殊颜色,同时使该图标进行闪烁。
在注视点离开了周边环境图像内的全部图像形成装置40的情况下,在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)存在的可使用的图像形成装置40中,头戴式显示器20使离头戴式显示器20最近的图像形成装置40的设置画面显示得较浅。然后,较浅显示的设置画面所对应的图像形成装置40被使用者注视后,或者显示较浅的设置画面被使用者注视后,头戴式显示器20使显示的设置画面变深(以正常浓度显示)。
图3是表示头戴式显示器20的结构框图。如图3所示,除了环境图像获取部21、显示器22和眼球图像获取部23,头戴式显示器20还具备:显示控制部24、无线通信接口(I/F)25、位置检测部26、朝向检测部27、主控制部28和存储部29。
显示控制部24由主控制部28进行控制,使显示器22对图像进行显示。具体来说,显示控制部24使显示器22对环境图像获取部21所获取的周边环境图像进行显示。还有,显示控制部24使显示器22对图像形成装置40的设置画面进行显示。而且,显示控制部24使显示器22对图标进行显示。另外,本实施方式中,显示控制部24是对显示器22进行驱动的驱动电路。
无线通信接口25用于其与图像形成装置40之间的无线通信。例如,无线通信方式是Bluetooth(日本注册商标)等近距离无线通信方式。不过,无线通信方式不限于近距离无线通信方式。
位置检测部26对头戴式显示器20的当前位置进行检测。换言之,位置检测部26对穿戴了头戴式显示器20的使用者的当前位置进行检测。例如,位置检测部26具有GPS(Global Positioning System)功能。
朝向检测部27对头戴式显示器20的朝向进行检测。换言之,朝向检测部27对穿戴了头戴式显示器20的使用者的面部朝向进行检测。例如,朝向检测部27包含电子罗盘。
主控制部28是通过执行存储部29中存储的程序来进行数值计算、信息处理或机器控制等各种处理的控制设备。例如,主控制部28可以包含CPU(CentralProcessing Unit)或者MPU(Micro Processing Unit)等运算装置。
存储部29对程序或设置信息进行存储。还有,存储部29对图标的图像或映射信息等进行存储。映射信息包含实际空间(三维空间)内的各图像形成装置40的坐标(位置)信息。例如,存储部29可以由RAM(Random Access Memory)和ROM(Read Only Memory)构成。存储部29可以包含HDD(Hard Disk Drive)。
本实施方式中,主控制部28通过执行存储部29中存储的程序,来作为第一判断部31、视线方向检测部32、终端确定部33和第二判断部34。因此,主控制部28执行第一判断部31、视线方向检测部32、终端确定部33和第二判断部34负责的各处理。
第一判断部31对于在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)是否存在图像形成装置40(固定终端)进行判断。本实施方式中,第一判断部31对环境图像获取部21所获取的周边环境图像进行图像解析,判断在周边环境图像中是否含有图像形成装置40。例如,在周边环境图像中是否含有图像形成装置40的判断可以通过匹配处理来执行。具体来说,利用图像解析,周边环境图像所含的轮廓被提取。存储部29对表示各图像形成装置40的轮廓的基准轮廓数据组进行存储,第一判断部31将提取的轮廓与预先存储的基准轮廓数据组进行对照(匹配处理)。通过该对照,判断在周边环境图像中是否含有图像形成装置40。
在通过第一判断部31判断出在穿戴了头戴式显示器20的使用者的视野内(周边环境图像内)存在图像形成装置40的情况下,主控制部28使显示器22显示图标。
本实施方式中,首先,基于存储部29中存储的映射信息、位置检测部26所检测出的头戴式显示器20的当前位置(使用者的当前位置)的信息、朝向检测部27所检测出的头戴式显示器20的朝向(使用者的面部朝向)的信息,主控制部28确定出存在于环境图像获取部21的拍摄范围中(周边环境图像内)的图像形成装置40。
接下来,主控制部28通过无线通信接口25,向所确定的图像形成装置40发生第二请求信号。即,头戴式显示器20请求存在于环境图像获取部21的拍摄范围中的图像形成装置40进行使用状况信息的发送。
然后,无线通信接口25接收到所确定的图像形成装置40发送的使用状况信息后,主控制部28使显示器22显示包含图标的周边环境图像。具体来说,在周边环境图像内所确定的图像形成装置40的附近,对颜色与使用状况相对应的图标进行显示。
视线方向检测部32基于眼球图像获取部23所获取的眼球图像,通过角膜反射法检测出使用者的视线方向。在周边环境图像内存在若干个图像形成装置40(若干个固定终端)的情况下,终端确定部33基于视线方向检测部32所检测出的视线方向,确定出存在于周边环境图像内的若干个图像形成装置40中的一个。显示控制部24使显示器22对终端确定部33所确定的图像形成装置40的设置画面进行显示。
具体来说,终端确定部33确定出使用者注视着的图像形成装置40。即,终端确定部33基于视线方向,检测出显示器22上显示的周边环境图像内的使用者注视点。然后,终端确定部33执行第一检测处理。具体来说,终端确定部33在周边环境图像内检测出包含注视点的图像形成装置40。第一检测处理是基于周边环境图像内的图像形成装置40与注视点的位置关系而进行的。通过该第一检测处理,确定出使用者注视着的图像形成装置40。
主控制部28通过无线通信接口25,向终端确定部33的第一检测处理所确定的图像形成装置40发送第一请求信号。即,请求第一检测处理所确定的图像形成装置40进行设置画面信息的发送。主控制部28基于无线通信接口25所接收的设置画面信息,使显示器22对设置画面进行显示。设置画面配置在(显示在)显示器22所显示的图像内的特殊区域。
还有,在周边环境图像内存在若干个图像形成装置40的情况下,在存在于周边环境图像内的若干个图像形成装置40之间,使用者注视的图像形成装置40发生切换后,终端确定部33的第一检测处理所确定的图像形成装置40也发生切换。在每次终端确定部33的第一检测处理所确定的图像形成装置40发生切换时,主控制部28发送第一请求信号。因此,使用者注视的图像形成装置40发生切换后,显示器22上显示的设置画面发生切换。换言之,某个图像形成装置40的设置画面被显示后,直到注视点被包含在周边环境图像内的其它图像形成装置40中为止,显示的设置画面都不切换。
另一方面,在第一检测处理的结果是在周边环境图像内未检测出包含注视点的图像形成装置40的情况下,终端确定部33进行第二检测处理。换言之,在注视点离开了图像形成装置40的情况下,执行第二检测处理。因此,在使用者没有注视图像形成装置40的情况下,执行第二检测处理。具体来说,终端确定部33从环境图像获取部21的拍摄范围内存在的可使用的图像形成装置40中,检测(确定)出满足初始条件的图像形成装置40。更详细来说,终端确定部33检测出离头戴式显示器20最近的图像形成装置40。该第二检测处理可以基于存在于周边环境图像内的各图像形成装置40的使用状况的信息、位置检测部26所检测出的头戴式显示器20的当前位置的信息、存储部29中存储的映射信息来执行。
主控制部28通过无线通信接口25,向终端确定部33的第二检测处理所确定的图像形成装置40发送第一请求信号。即,请求第二检测处理所确定的图像形成装置40进行设置画面信息的发送。主控制部28基于无线通信接口25所接收的设置画面信息,使显示器22将设置画面显示得较浅。设置画面配置在(显示在)显示器22所显示的图像内的特殊区域。
然后,使用者的视线(注视点)移动,注视点被包含在某个图像形成装置40的图像中时,通过终端确定部33的第一检测处理,确定出使用者注视着的图像形成装置40。因此,在显示器22上显示使用者注视着的图像形成装置40的设置画面。例如,注视点被包含在周边环境图像内的满足初始条件的图像形成装置40中时,显示较浅的设置画面就以正常浓度显示。还有,本实施方式中,显示较浅的设置画面被使用者注视时,也就是说,注视点被包含在显示较浅的设置画面中时,显示较浅的设置画面就以正常浓度显示。
本实施方式的主控制部28使对应于作为当前设置对象的图像形成装置40的图标颜色为特殊颜色。而且,主控制部28使对应于作为当前设置对象的图像形成装置40的图标进行闪烁。
第二判断部34基于环境图像获取部21所获取的周边环境图像,判断在使用者的视野内(周边环境图像中)是否存在手(指定对象)。在利用第二判断部34判断出在周边环境图像中存在手的期间,主控制部28对显示器22上显示的设置画面的切换进行限制。也就是说,在周边环境图像中存在手的期间,即使注视点在周边环境图像内移动到与作为当前设置对象的图像形成装置40不同的其它图像形成装置40中,显示器22上显示的设置画面也不切换。例如,在周边环境图像内是否存在手(指定对象)的判断处理可以通过匹配处理来执行。
通过这样对设置画面的切换进行限制,即使使用者在周边环境图像内暂时看一下其它图像形成装置40(不是作为当前设置对象的图像形成装置40),设置画面也不被切换,之后使用者可以继续进行设置操作。使用者完成设置操作,手不再存在于周边环境图像内之后,与使用者视线方向相对应的设置画面的切换成为可能。另外,主控制部28也可以是:在手被检测出而使设置画面的切换被限制着的状态中,在使用者于周边环境图像内注视其它图像形成装置40(不是作为当前设置对象的图像形成装置40)在设定时间以上的情况下,对设置画面进行切换。或者,主控制部28也可以是:在手被检测出而使设置画面的切换被限制着的状态中,在使用者进行了用于选择其它图像形成装置40(不是作为当前设置对象的图像形成装置40)的操作的情况下,对设置画面进行切换。
本实施方式中,再进一步,在第一检测处理或者第二检测处理所确定的图像形成装置40的设置画面有若干种的情况下,显示控制部24使显示器22对表示这些若干种设置画面处于彼此部分叠加且在一定方向相互错开的状态下的图像进行显示。还有,显示控制部24根据视线方向检测部32所检测出的视线方向,对若干种设置画面中位于最上层(最上面)的设置画面进行切换。
具体来说,主控制部28基于设置画面信息,生成表示处于彼此部分叠加且在一定方向相互错开的状态下的若干种设置画面的图像。还有,主控制部28基于视线方向检测部32所检测出的视线方向,执行第三检测处理。第三检测处理是从若干种设置画面中检测出包含注视点的设置画面的处理。在该第三检测处理的结果是注视点被包含在与当前位于最上层的设置画面不同的设置画面中的情况下,主控制部28对显示器22所显示的若干种设置画面的图像进行更新,使包含注视点的设置画面位于最上层。另外,也可以在利用第二判断部34判断出手存在于周边环境图像内的期间,对位于最上层的设置画面的切换进行限制。通过这样对设置画面的切换进行限制,能够对图像形成装置40的设置途中切换设置画面的问题发生进行抑制。
接下来,参照图4,对图像形成装置40的结构进行说明。图4是表示图像形成装置40的结构框图。如图4所示,图像形成装置40具备:操作面板41、FAX通信部42、图像形成部43、无线通信接口(I/F)44、控制部45和存储部46。
操作面板41包含按钮等输入装置和液晶显示器等显示装置。使用者对操作面板41(输入装置)进行操作,从而图像形成装置40执行对应于该操作的处理。使用者通过操作面板41(输入装置),可以使图像形成装置40执行各种处理。显示装置对各种设置画面进行显示。另外,显示装置也可以是触控面板。这种情况下,显示装置也用作输入装置。
FAX通信部42连接在公共电话线上,在其与目标传真机之间进行通信。
图像形成部43在纸张等记录介质上形成图像。例如,图像形成部43可以是电子照相方式的图像形成部或者喷墨方式的图像形成部。典型的电子照相方式的图像形成部包含:感光鼓、光学扫描装置、显影装置和转印部件。光学扫描装置在感光鼓的周面上形成静电潜像。显影装置将调色剂供给到感光鼓的周面上,对静电潜像进行显影。其结果,在感光鼓的周面上形成调色剂像。调色剂像由转印部件转印到记录介质上。典型的喷墨方式的图像形成部具备线状打印头或者串行头之类的记录头。记录头向记录介质喷出墨滴。墨滴命中记录介质,从而在记录介质上形成图像。
无线通信接口44用于其与头戴式显示器20之间的无线通信。也就是说,图像形成装置40的无线通信接口44的无线通信方式与头戴式显示器20的无线通信接口25的无线通信方式相同。
控制部45是通过执行存储部46中存储的程序来进行数值计算、信息处理或机器控制等处理的控制设备。例如,控制部45可以包含CPU或者MPU等运算装置。
存储部46对程序或设置信息进行存储。例如,存储部46中存储了各种设置画面的信息。例如,存储部46可以由RAM和ROM构成。存储部46可以包含HDD。
在无线通信接口44接收到来自头戴式显示器20的第一请求信号后,控制部45将存储部46中存储的设置画面的信息通过无线通信接口44发送给头戴式显示器20。还有,在无线通信接口44接收到来自头戴式显示器20的第二请求信号后,控制部45将图像形成装置40的使用状况的信息通过无线通信接口44发送给头戴式显示器20。
接下来,参照图5~图9和图10(a)~图10(c),对显示系统10中显示的图像(显示器22上显示的图像)进行说明。图5~图9和图10(a)~图10(c)都是表示显示系统10中显示的图像的图。另外,图6~图9和图10(a)~图10(c)中,视线方向如箭头所示。还有,表示视线方向的箭头的顶端所指的位置是使用者的注视点。
图5~图9表示在周边环境图像内存在两个图像形成装置40(第一图像形成装置40a和第二图像形成装置40b)的情况下所显示的设置画面。
如图5所示,在周边环境图像内存在第一图像形成装置40a和第二图像形成装置40b的情况下,在第一图像形成装置40a的附近显示“图标1”,在第二图像形成装置40b的附近显示“图标2”。具体来说,本实施方式中,在第一图像形成装置40a的正上方显示“图标1”,第二图像形成装置40b的正上方显示“图标2”。
在使用者没有注视第一图像形成装置40a和第二图像形成装置40b中的任何一个的情况下,如图5所示,满足初始条件的图像形成装置40的设置画面被显示在特殊位置(本实施方式中,显示器22所显示的周边环境图像的左侧端部)。也就是说,存在于环境图像获取部21的拍摄范围内且可使用的图像形成装置40中,离头戴式显示器20最近的图像形成装置40的设置画面被显示。图5中,显示着第一图像形成装置40a的“设置画面1”。还有,此时,第一图像形成装置40a的“设置画面1”显示得比正常浓度浅。图5中,用虚线来表示“设置画面1”以较浅浓度显示。
然后,如图6所示,使用者注视第一图像形成装置40a时,“设置画面1”以正常浓度显示。还有,如图7所示,使用者注视第二图像形成装置40b时,第二图像形成装置40b的“设置画面2”以正常浓度显示。另外,图6~图9中,用实线来表示设置画面以正常浓度显示。
如图8所示,为了改变第一图像形成装置40a的设置,使用者相对于显示器22所显示的周边环境图像内的“设置画面1”移动手指时,手61存在于周边环境图像内。因此,从“设置画面1”到其它设置画面的切换被限制。具体来说,如图9所示,即使使用者注视第二图像形成装置40b,在显示器22上也继续显示“设置画面1”,不显示第二图像形成装置40b的“设置画面2”。
还有,如图10(a)~图10(c)所示,在使用者注视着的图像形成装置40呈现若干种设置画面的情况下,显示器22对表示这些若干种设置画面处于彼此部分叠加且在一定方向相互错开的状态下的图像进行显示。例如,如图10(a)~图10(c)所示,若干种设置画面显示成使用者可以看到各设置画面的Tab标签部(表示“Copy”、“Send”、“Box”、“FAX”的各单词的部分)。Tab标签部表示设置画面的种类。在图10(a)~图10(c)中,例示了Copy功能的设置画面、Send功能的设置画面、Box功能的设置画面和FAX功能的设置画面。另外,Send功能是将图像形成装置中保存的图像数据发送给其它图像形成装置或外部PC(个人计算机)的功能。还有,Box功能是按每个使用者进行图像数据保存的功能。
如图10(a)所示,使用者注视与当前位于最上层的Copy设置画面不同的设置画面(Send设置画面)时,位于最上层的设置画面由Copy设置画面切换为Send设置画面,如图10(b)所示。还有,如图10(b)所示,使用者注视与当前位于最上层的Send设置画面不同的设置画面(Box设置画面)时,位于最上层的设置画面由Send设置画面切换为Box设置画面,如图10(c)所示。
接下来,参照图1~图4和图11,对本实施方式所涉及的显示系统10的动作进行说明。图11是表示显示系统10的动作的流程图。头戴式显示器20的电源为ON后,环境图像获取部21所获取的周边环境图像作为使用者的视野信息被显示(映射)在头戴式显示器20的显示器22上(步骤S1)。
接下来,利用第一判断部31(主控制部28),执行图像形成装置40是否存在于周边环境图像内的判断(步骤S2)。本实施方式中,图像形成装置40是可以利用显示系统10进行设置操作的图像形成装置(终端)。在第一判断部31(主控制部28)判断出图像形成装置40未存在于周边环境图像内的情况下(步骤S2的No),处理移动到步骤S3。然后,头戴式显示器20的显示器22所显示的视野信息(周边环境图像)被更新(步骤S3),处理返回到步骤S2。之后,直到图像形成装置40被包含在周边环境图像中为止,重复步骤S2和步骤S3的各处理。
第一判断部31(主控制部28)判断出图像形成装置40存在于周边环境图像内(步骤S2的Yes),则处理移动到步骤S4。
步骤S4中,在周边环境图像内,图标显示在图像形成装置40的附近。接下来,利用视线方向检测部32(主控制部28)检测使用者的视线方向。然后,终端确定部33(主控制部28)基于视线方向检测部32所检测出的视线方向,执行第一检测处理。即,执行用于检测出使用者注视着的图像形成装置40的处理(步骤S5)。其结果,在未检测出使用者注视着的图像形成装置40的情况下(步骤S5的No),处理返回步骤S3。另一方面,在检测出使用者注视着的图像形成装置40的情况下(步骤S5的Yes),处理移动到步骤S6。
步骤S6中,与使用者注视着的图像形成装置40相对应的图标以闪烁状态进行显示。还有,使用者注视着的图像形成装置40的设置画面被显示。
接下来,第二判断部34(主控制部28)进行手是否存在于周边环境图像内的判断(步骤S7)。然后,在第二判断部34(主控制部28)判断出手不存在于周边环境图像内的情况下(步骤S7的No),处理返回到步骤S3。另一方面,在第二判断部34(主控制部28)判断出手存在于周边环境图像内的情况下(步骤S7的Yes),头戴式显示器20的主控制部28的状态改变为限制设置画面进行切换的状态(步骤S8)。
接下来,第二判断部34(主控制部28)进行手是否存在于周边环境图像内的判断(步骤S9)。然后,在第二判断部34(主控制部28)判断出手不存在于周边环境图像内的情况下(步骤S9的No),处理返回到步骤S3。另一方面,在第二判断部34(主控制部28)判断出手存在于周边环境图像内的情况下(步骤S9的Yes),头戴式显示器20的主控制部28进行使用者对图像形成装置40的设置操作是否完成的判断(步骤S10)。例如,头戴式显示器20的主控制部28通过设置画面内的“OK”按钮是否被操作,检测出使用者对图像形成装置40的设置操作是否完成。然后,在主控制部28判断出使用者对图像形成装置40的设置操作未完成的情况下(步骤S10的No),处理返回到步骤S9。另一方面,在主控制部28判断出使用者对图像形成装置40的设置操作已完成的情况下(步骤S10的Yes),处理结束。
上述,参照附图对本发明的实施方式进行了说明。根据本发明实施方式,存在于使用者视野内的若干个图像形成装置40中,只有使用者注视的图像形成装置40的设置画面被显示。因此,能够切换显示若干个图像形成装置40(若干个终端)的设置画面。于是,能够将若干个图像形成装置40(若干个终端)都作为设置对象,能够提高使用者的便利性。
还有,在通过使用者的注视而选择的图像形成装置40呈现若干种设置画面的情况下,表示这些若干种设置画面处于彼此部分叠加且在一定方向相互错开的状态下的图像被显示。然后,能够根据使用者的视线方向(注视点),改变将要成为使用者操作对象的设置画面。因此,能够提高使用者的便利性。
还有,在使用者的视野内检测出手(指定对象)时,设置画面的切换被限制。由此,使用者可以在设置操作中不用在意自己的目光观察点来进行设置操作。还有,通过将手移动到使用者的视野外(环境图像获取部21的拍摄范围外),使设置画面的切换限制被解除。于是,可以容易地显示其它图像形成装置40(终端)的设置画面。因此,能够提高使用者的便利性。具体来说,使用者能够连续地进行存在于自己的视野内的若干个图像形成装置40(若干个终端)各自的设置操作。
另外,本发明不限于上述的实施方式,可以在不脱离其要旨的范围内以各种方式进行实施。
例如,本发明实施方式中,作为设置对象的终端是图像形成装置40,但本发明不限于此。本发明能够应用于呈现设置画面的各种终端中。例如,本发明能够应用于个人计算机等电子设备中。
还有,本发明实施方式中,左右的一对显示器22显示相同的图像,但本发明不限于此。也可以通过左右的一对显示器22显示三维图像(3D图像)。也就是说,左右的显示器22中显示拍摄角度错开的两幅图像,来使使用者可以立体地看到图像。由此,在显示若干种设置画面时,可以将若干种设置画面在纵深方向上相互错开显示。这种情况下,头戴式显示器20的主控制部28基于使用者的视线方向,对实际空间内的使用者注视点的三维坐标进行检测。还有,头戴式显示器20的主控制部28通过比较实际空间内的注视点的三维坐标与三维图像内的各设置画面的三维坐标,来对使用者注视着的设置画面进行确定。
本发明实施方式中,根据与使用者的手指移动相对应的信号,来更新图像形成装置40的设置,但本发明不限于此。例如,也可以取代使用者的手指,根据与特殊形状的操作部件(例如,特殊形状的笔的顶端)的移动相对应的信号,来更新图像形成装置40的设置。
还有,本发明实施方式中,基于检测出的使用者视线方向,确定出使用者注视着的图像形成装置40,但本发明不限于此。例如,也可以基于使用者的视线方向来检测出使用者注视着的图标。这种情况下,使显示器22显示与使用者注视着的图标相对应的图像形成装置40的设置画面。
还有,本发明实施方式中,通过匹配处理执行了在周边环境图像中是否包含图像形成装置40的判断,但本发明不限于此。在周边环境图像中是否包含图像形成装置40也可以基于实际空间中的各图像形成装置40的坐标(位置)、头戴式显示器20的当前位置(使用者的当前位置)、头戴式显示器20的朝向(使用者的面部朝向)来进行判断。
还有,本发明实施方式中,存在于使用者视野内(环境图像获取部21的拍摄范围)的图像形成装置40是基于实际空间中的各图像形成装置40的坐标(位置)、头戴式显示器20的当前位置(使用者的当前位置)、头戴式显示器20的朝向(使用者的面部朝向)而确定的,但本发明不限于此。例如,存在于使用者视野内的图像形成装置40也可以通过匹配处理来确定。或者,也可以是:给各图像形成装置40标上各自固有的标记,对周边环境图像进行图像解析,确定标记,从而确定出存在于使用者视野内的图像形成装置40。
还有,本发明实施方式中,在使用者视野内检测出手的情况下,设置画面的切换和位于最上层的设置画面的切换被限制,但本发明不限于此。例如,也可以取代使用者的手,在检测出特殊形状的操作部件(例如,特殊形状的笔的顶端)的情况下,设置画面的切换和位于最上层的设置画面的切换被限制。
还有,本发明实施方式的头戴式显示器20是视频透射式的头戴式显示器,但本发明不限于此。头戴式显示器20可以是光学透射式的头戴式显示器。光学透射式的头戴式显示器可以让使用者直接看到外界(使用者的周边环境)。这种情况下,显示控制部24可以是投影装置。显示控制部24可以将设置画面和图标投影(成像)在半反射镜等光学元件或者使用者的视网膜上。或者,显示器22可以是液晶显示元件之类让光通过的显示元件。还有,在使用光学透射式的头戴式显示器的情况下,通过对实际空间中的使用者注视点的三维坐标与实际空间中的各图像形成装置40的三维坐标进行比较,能够确定出使用者注视着的图像形成装置40。注视点的三维坐标可以基于头戴式显示器20的当前位置(使用者的当前位置)、头戴式显示器20的朝向(使用者的面部朝向)、视线方向进行计算。
还有,本发明实施方式的头戴式显示器20是双眼型头戴式显示器,但本发明不限于此。头戴式显示器20可以是单眼型或者两眼型的头戴式显示器。单眼型是使左右眼中的一只可以看到计算机图像的方式,两眼型是使左右眼可以分别看到不同的计算机图像的方式。利用两眼型,也可以让使用者看到三维图像(3D图像)。
例如,使用视频透射式的头戴式显示器来显示三维图像,从而使用者能够在没有不适感的情况下查看周边环境。还有,使用光学透射式的头戴式显示器,可以显示图标的立体图像,就像图标实际存在于使用者直接看到的图像形成装置的上方一样。在使用视频透射式的头戴式显示器来显示三维图像的情况下,通过对实际空间内的使用者注视点的三维坐标与三维图像内的各图像形成装置40的三维坐标进行比较,能够确定出使用者注视着的图像形成装置40。还有,在使用光学透射式的头戴式显示器来显示图标的立体图像的情况下,通过对实际空间内的使用者注视点的三维坐标与三维图像内的图标的三维坐标进行比较,能够确定出与使用者注视着的图标相对应的图像形成装置40。
还有,本发明实施方式中,利用了角膜反射法来检测使用者的视线方向,但本发明不限于此。例如,也可以是:通过拍摄可见光的摄像机来获取眼球图像,并对眼球图像进行解析,再基于虹膜相对于内眼角的位置来检测视线方向。
还有,本发明实施方式中,在头戴式显示器20的显示器22上显示图像形成装置40的设置画面,但本发明不限于此。例如,也可以是图像形成装置40所具备的操作面板的图像被显示在显示器22上。
还有,本发明实施方式中,图标的颜色根据所对应的图像形成装置40的使用状况进行变化,但本发明不限于此。例如,也可以是图标的形状根据所对应的图像形成装置40的使用状况进行变化。

Claims (9)

1.一种显示系统,具备:
若干个终端;和
头戴式显示器,所述头戴式显示器在其与所述若干个终端之间进行无线通信,
所述头戴式显示器具备:
主控制部,对使用者的视线方向进行检测,并基于检测出的所述视线方向来确定出所述若干个终端中的一个终端;和
显示控制部,使所述主控制部所确定的所述终端的操作面板或者至少一种设置画面显示成所述使用者可见。
2.根据权利要求1所述的显示系统,其特征在于,
所述主控制部从所述若干个终端中确定出所述使用者所注视的一个终端。
3.根据权利要求1或者权利要求2所述的显示系统,其特征在于,
所述显示控制部使图标在所述若干个终端的每一个的附近显示成所述使用者可见。
4.根据权利要求3所述的显示系统,其特征在于,
所述主控制部基于所述视线方向,从所述图标中检测出所述使用者所注视的一个图标,并从所述若干个终端中确定出与检测出的所述图标相对应的一个终端。
5.根据权利要求1或者权利要求2所述的显示系统,其特征在于,
所述至少一种设置画面含有若干种设置画面,
所述主控制部生成处于彼此部分叠加且在一定方向相互错开的状态下的所述若干种设置画面的图像,
所述显示控制部使处于彼此部分叠加且在一定方向相互错开的状态下的所述若干种设置画面被显示,
所述主控制部根据所述视线方向,对所述若干种设置画面中位于最上层的设置画面进行切换。
6.根据权利要求1或者权利要求2所述的显示系统,其特征在于,
还具有环境图像获取部,所述环境图像获取部对进入到所述使用者的视野内的周边环境的图像进行获取,
所述主控制部基于所述环境图像获取部所获取的所述周边环境的图像,判断目标对象是否存在于所述使用者的视野内,并在判断出所述目标对象存在的期间,对所述设置画面的切换进行限制。
7.根据权利要求5所述的显示系统,其特征在于,
还具有环境图像获取部,所述环境图像获取部对进入到所述使用者的视野内的周边环境的图像进行获取,
所述主控制部基于所述环境图像获取部所获取的所述周边环境的图像,判断目标对象是否存在于所述使用者的视野内,并在判断出所述目标对象存在的期间,对所述设置画面的切换和位于所述最上层的所述设置画面的切换进行限制。
8.根据权利要求1或者权利要求2所述的显示系统,其特征在于,
所述主控制部基于所述视线方向,检测出所述使用者注视着的位置的三维坐标,并基于检测出的所述三维坐标,确定出所述若干个终端中的一个终端。
9.一种头戴式显示器,在其与若干个终端之间进行无线通信,具备:
主控制部,对使用者的视线方向进行检测,并基于检测出的所述视线方向来确定出所述若干个终端中的一个终端;和
显示控制部,使所述主控制部所确定的所述终端的操作面板或者至少一种设置画面显示成所述使用者可见。
CN201610261914.2A 2015-04-28 2016-04-25 显示系统和头戴式显示器 Expired - Fee Related CN106094202B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015092142A JP6507827B2 (ja) 2015-04-28 2015-04-28 表示システム
JP2015-092142 2015-04-28

Publications (2)

Publication Number Publication Date
CN106094202A true CN106094202A (zh) 2016-11-09
CN106094202B CN106094202B (zh) 2018-12-04

Family

ID=55808986

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610261914.2A Expired - Fee Related CN106094202B (zh) 2015-04-28 2016-04-25 显示系统和头戴式显示器

Country Status (4)

Country Link
US (1) US10025382B2 (zh)
EP (1) EP3088995B1 (zh)
JP (1) JP6507827B2 (zh)
CN (1) CN106094202B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111837174A (zh) * 2018-06-25 2020-10-27 麦克赛尔株式会社 头戴式显示器、头戴式显示器协作系统及其方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018120521A (ja) * 2017-01-27 2018-08-02 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
JP6958141B2 (ja) * 2017-09-05 2021-11-02 富士フイルムビジネスイノベーション株式会社 情報処理装置、画像形成装置、および、プログラム
JP2019061556A (ja) * 2017-09-27 2019-04-18 京セラドキュメントソリューションズ株式会社 通信システム及びウェアラブル端末
JP7135444B2 (ja) * 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7263869B2 (ja) 2019-03-22 2023-04-25 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11500511B1 (en) 2021-05-25 2022-11-15 Capital One Services, Llc Augmented reality system visualization

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102207819A (zh) * 2010-03-29 2011-10-05 索尼公司 信息处理器、信息处理方法和程序
US20120057228A1 (en) * 2010-09-02 2012-03-08 Sony Corporation Display apparatus
JP2012053342A (ja) * 2010-09-02 2012-03-15 Sony Corp 表示装置
CN102402011A (zh) * 2010-09-10 2012-04-04 索尼公司 三维图像显示设备和图像显示装置
CN102411210A (zh) * 2010-09-17 2012-04-11 索尼公司 显示设备
US20130293468A1 (en) * 2012-05-04 2013-11-07 Kathryn Stone Perez Collaboration environment using see through displays
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
US20140313119A1 (en) * 2013-04-23 2014-10-23 Lg Electronics Inc. Portable device including index display region and method for controlling the same
US8893164B1 (en) * 2012-05-16 2014-11-18 Google Inc. Audio system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339266A (ja) * 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
JP2006146803A (ja) * 2004-11-24 2006-06-08 Olympus Corp 操作装置及び遠隔操作システム
US8578301B2 (en) * 2006-11-22 2013-11-05 Skadool, Inc. Hierarchical events
JP5293154B2 (ja) 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5651386B2 (ja) * 2010-06-23 2015-01-14 ソフトバンクモバイル株式会社 眼鏡型表示装置
JP2012029164A (ja) * 2010-07-26 2012-02-09 Konica Minolta Business Technologies Inc 携帯端末及び装置管理方法
US9773345B2 (en) * 2012-02-15 2017-09-26 Nokia Technologies Oy Method and apparatus for generating a virtual environment for controlling one or more electronic devices
KR102056221B1 (ko) * 2013-07-12 2019-12-16 삼성전자주식회사 시선인식을 이용한 장치 연결 방법 및 장치
JP5885714B2 (ja) * 2013-08-28 2016-03-15 京セラドキュメントソリューションズ株式会社 画像形成システムおよび出力指示プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102207819A (zh) * 2010-03-29 2011-10-05 索尼公司 信息处理器、信息处理方法和程序
US20120057228A1 (en) * 2010-09-02 2012-03-08 Sony Corporation Display apparatus
JP2012053342A (ja) * 2010-09-02 2012-03-15 Sony Corp 表示装置
CN102402011A (zh) * 2010-09-10 2012-04-04 索尼公司 三维图像显示设备和图像显示装置
CN102411210A (zh) * 2010-09-17 2012-04-11 索尼公司 显示设备
US20130293468A1 (en) * 2012-05-04 2013-11-07 Kathryn Stone Perez Collaboration environment using see through displays
US8893164B1 (en) * 2012-05-16 2014-11-18 Google Inc. Audio system
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
US20140313119A1 (en) * 2013-04-23 2014-10-23 Lg Electronics Inc. Portable device including index display region and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111837174A (zh) * 2018-06-25 2020-10-27 麦克赛尔株式会社 头戴式显示器、头戴式显示器协作系统及其方法

Also Published As

Publication number Publication date
EP3088995B1 (en) 2017-12-13
US20160320836A1 (en) 2016-11-03
US10025382B2 (en) 2018-07-17
CN106094202B (zh) 2018-12-04
JP2016206617A (ja) 2016-12-08
JP6507827B2 (ja) 2019-05-08
EP3088995A1 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
CN106094202A (zh) 显示系统和头戴式显示器
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
KR101890542B1 (ko) 디스플레이 향상을 위한 시스템 및 방법
CN104755023B (zh) 图像显示设备和信息输入设备
CN210166824U (zh) 一种可穿戴装置
EP3227760B1 (en) Pointer projection for natural user input
EP4011274A1 (en) Eye tracking using eyeball center position
JP6957993B2 (ja) ユーザの解答に対する自信レベルを推定する情報処理プログラム、情報処理装置及び情報処理方法
JP5655644B2 (ja) 視線検出装置及び視線検出方法
CN106132284A (zh) 光学眼动追踪
CN106537295A (zh) 信息处理系统、信息处理装置、操作装置以及附属设备
CN109002164A (zh) 头戴显示设备的显示方法、装置及头戴显示设备
CN104718742B (zh) 显示装置和显示方法
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
JP6092173B2 (ja) 電子装置とその操作方法
JP3050808B2 (ja) 位置指示装置
CN111291746A (zh) 影像处理系统及影像处理方法
JP6319220B2 (ja) 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム
JP2020123032A (ja) 評価装置、評価方法、及び評価プログラム
CN110462690B (zh) 图像显示系统
JP6613865B2 (ja) 読書範囲検出装置、読書範囲検出方法及び読書範囲検出用コンピュータプログラム
US11863860B2 (en) Image capture eyewear with context-based sending
KR102189783B1 (ko) 이석증의 질병예측정보 표시방법
US20230161164A1 (en) Information processing apparatus, information processing method, head mounted display housing, and head mounted display system
JP2023062575A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181204

Termination date: 20210425

CF01 Termination of patent right due to non-payment of annual fee