JP6387825B2 - 表示システム、及び、情報表示方法 - Google Patents

表示システム、及び、情報表示方法 Download PDF

Info

Publication number
JP6387825B2
JP6387825B2 JP2014263853A JP2014263853A JP6387825B2 JP 6387825 B2 JP6387825 B2 JP 6387825B2 JP 2014263853 A JP2014263853 A JP 2014263853A JP 2014263853 A JP2014263853 A JP 2014263853A JP 6387825 B2 JP6387825 B2 JP 6387825B2
Authority
JP
Japan
Prior art keywords
display
image
unit
information
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014263853A
Other languages
English (en)
Other versions
JP2016126365A (ja
Inventor
一彦 宮坂
一彦 宮坂
小林 直樹
小林  直樹
高野 正秀
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014263853A priority Critical patent/JP6387825B2/ja
Priority to US14/963,962 priority patent/US10175923B2/en
Publication of JP2016126365A publication Critical patent/JP2016126365A/ja
Application granted granted Critical
Publication of JP6387825B2 publication Critical patent/JP6387825B2/ja
Priority to US16/211,760 priority patent/US10579320B2/en
Priority to US16/749,226 priority patent/US11231897B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Multimedia (AREA)

Description

本発明は、表示システム、及び、情報表示方法関する。
従来、作業を行う人を支援するため、頭部に装着するヘッドマウントディスプレイ(Head Mounted Display:HMD)と呼ばれる表示装置を使用する例が知られている(例えば、特許文献1、2参照)。特許文献1記載のシステムは、作業者用HMDユニットが備えるカメラ装置で撮像した視界画像を、管理者用HMDユニットに送信し、管理者用HMDユニットにおいて作業者の作業状態を見ることを可能とする。また、特許文献2記載のサーバーは、輸送機のパイロットが装着するHMDに対し、目的の地点、物資、スケジュール等に関する情報を送信する。HMDを有するクライアント装置は、サーバーから送信された情報と、輸送機の位置情報、向き情報等に基づき仮想空間情報をHMDに表示する。この仮想空間情報には、矢印や文字で表現される各種の情報が含まれる。
特開2007−320715号公報 特開2012−138005号公報
上述したように、従来の手法では、作業を支援する側または支援される側のHMDに視界画像や文字等による情報を表示していたが、よりわかりやすい態様で多くの情報を伝達することが望まれていた。
本発明は上記事情に鑑みてなされたものであり、頭部装着型の表示装置を装着した人に対し、わかりやすい態様で多くの情報を伝達できるようにすることを目的とする。
上記目的を達成するために、本発明の表示システムは、頭部装着型の第1表示装置及び第2表示装置を備え、前記第1表示装置は、外景を視認可能に画像を表示する第1表示部と、前記第1表示部で視認可能な外景の少なくとも一部を含む範囲を撮像する撮像部と、前記撮像部の撮像画像に基づき生成される案内対象情報を、前記第2表示装置に送信し、前記第2表示装置から案内情報を受信する第1通信部と、前記第1通信部で受信した案内情報に基づく画像を前記第1表示部に表示させる第1制御部と、を備え、前記第2表示装置は、外景を視認可能に画像を表示する第2表示部と、前記第1表示装置から案内対象情報を受信し、前記第1表示装置に案内情報を送信する第2通信部と、前記第2通信部が受信した案内対象情報に基づき前記第2表示部に画像を表示させる表示制御部と、操作を検出する操作検出部と、前記案内対象情報に基づく画像を表示中に前記操作検出部が検出する操作を示す情報と、前記操作と前記案内対象情報とを関連付ける情報とを含む前記案内情報を生成して、前記第2通信部で送信する第2制御部と、を備えること、を特徴とする。
本発明によれば、第1表示装置で撮像された撮像画像に基づく案内対象情報を第2表示装置に送信し、第2表示装置が案内対象情報に基づき画像を表示し、この画像の表示中の操作と案内対象情報とを関連付ける情報を含む案内情報が、第1表示装置に送信される。このため、第2表示装置の操作により、第1表示装置に対して、第1表示装置における撮像画像に関連付けた操作に関する情報を提供できるので、第1表示装置の使用者に対し、わかりやすい態様で多くの情報を伝達できる。
また、本発明は、上記表示システムにおいて、前記第1表示装置が備える前記第1制御部は、前記撮像部の撮像画像を含む案内対象情報を生成し、前記第2表示装置が備える前記操作検出部は、位置指示操作を検出し、前記第2制御部は、前記操作検出部が検出した位置指示操作の指示位置を、案内対象情報に含まれる撮像画像に対応付ける情報を含む案内情報を生成すること、を特徴とする。
本発明によれば、第2表示装置において位置指示操作を行うことができ、第1表示装置において、第2表示装置の位置指示操作の指示位置を撮像画像に対応付けることができる。このため、第1表示装置の使用者に対し、第2表示装置で行う位置指示操作の内容を伝えることができる。
また、本発明は、上記表示システムにおいて、前記第2表示装置が備える前記第2制御部は、前記操作検出部が検出した位置指示操作の指示位置に関する情報と、指示体の画像とを含む案内情報を生成し、前記第1表示装置が備える前記第1制御部は、前記第1表示部によって、前記第1通信部が受信した案内情報に含まれる指示位置に対応する位置に、指示体の画像を表示させること、を特徴とする。
本発明によれば、第2表示装置において位置指示操作を行うことで、この位置指示操作による指示位置に対応して、第1表示装置が指示体の画像を表示する。このため、第2表示装置の操作によって、第1表示装置の使用者に対して位置を指し示すことができる。
また、本発明は、上記表示システムにおいて、前記第1表示装置が備える前記第1制御部は、前記第1表示部によりGUI(Graphical User Interface)操作用の画像を表示させ、前記GUI操作用の画像の表示位置と前記第2通信部が受信した案内情報に含まれる指示位置とに基づいて、操作を検出すること、を特徴とする。
本発明によれば、第2表示装置で位置指示操作を行うことにより、第1表示装置に対するGUI操作を行い、第1表示装置を制御できる。
また、本発明は、上記表示システムにおいて、前記第1表示装置が備える前記第1制御部は、前記第1通信部で受信した案内情報に含まれる操作を示す情報に基づき、前記第1表示装置に対する操作を検出すること、を特徴とする。
本発明によれば、第2表示装置で操作を行うことにより、第1表示装置を制御できる。
また、本発明は、上記表示システムにおいて、前記第2表示装置が備える前記第2制御部は、前記第2通信部が受信した案内対象情報が撮像画像を含む場合に、この撮像画像を前記第2表示部に表示させ、撮像画像の表示中に前記操作検出部が検出する操作に基づいて撮像画像を編集し、編集後の撮像画像を含む前記案内情報を生成すること、を特徴とする。
本発明によれば、第1表示装置で撮像した撮像画像を編集して、第1表示装置の使用者に見せることができる。
また、本発明は、上記表示システムにおいて、前記第2表示装置は、前記第1表示装置が備える撮像部の撮像条件を指定する情報を前記第2通信部で送信し、前記第1表示装置の第1制御部は、前記第2表示装置から撮像条件を受信して、受信した撮像条件に基づき撮像部を制御し、前記撮像部の撮像画像に基づき生成される案内対象情報を前記第2表示装置に送信すること、を特徴とする。
本発明によれば、第2表示装置から撮像条件を指定して、指定した撮像条件で撮像された撮像画像に基づく案内対象情報を、第2表示装置が取得できる。このため、第2表示装置の使用者は、第1表示装置の環境における所望の情報を得ることができる。
また、本発明は、上記表示システムにおいて、前記第2表示装置は、前記撮像条件として撮像方向及び/又はズーム倍率を指定する情報を前記第2通信部で送信し、前記第1表示装置の第1制御部は、前記第2表示装置から受信した撮像条件に基づき、前記撮像部の撮像方向及び/又はズーム倍率を制御すること、を特徴とする。
本発明によれば、第2表示装置から撮像方向、或いはズーム倍率を指定して、指定した撮像条件で撮像された撮像画像に基づく案内対象情報を、第2表示装置が取得できる。このため、第2表示装置の使用者は、第1表示装置の環境における所望の撮像画像に関する情報を得ることができる。
また、上記目的を達成するために、本発明は、頭部装着型の表示装置であって、外景を視認可能に画像を表示する表示部と、前記表示部で視認可能な外景の少なくとも一部を含む範囲を撮像する撮像部と、前記撮像部の撮像画像に基づき生成される案内対象情報を外部の装置に送信し、前記外部の装置から案内情報を受信する通信部と、前記通信部で受信した案内情報に基づいて画像の表示位置を算出し、前記表示部により、算出した表示位置に前記案内情報に基づく画像を表示させる制御部と、を備えること、を特徴とする。
本発明によれば、外景の一部を含む範囲の撮像画像に基づく案内対象情報を外部の装置に送信し、外部の装置から受信する案内情報に従って画像を表示する。これにより、外部の装置に対して、実行中の作業に関する情報を送信し、外部の装置が送信する情報を、使用者に効果的に見せることができる。
また、上記目的を達成するために、本発明は、外景を視認可能に画像を表示する第1表示部を備えた第1表示装置、及び、外景を視認可能に画像を表示する第2表示部を備えた第2表示装置を用いる情報表示方法であって、前記第1表示装置により、前記第1表示部で視認可能な外景の少なくとも一部を含む範囲を撮像し、撮像画像に基づき生成される案内対象情報を、前記第2表示装置に送信し、前記第2表示装置により、前記第1表示装置から案内対象情報を受信し、受信した案内対象情報に基づき前記第2表示部に画像を表示させ、案内対象情報に基づく画像の表示中の操作を検出し、検出した操作を示す情報および検出した操作と案内対象情報とを関連付ける情報を含む案内情報を生成して、第2通信部で送信し、前記第1表示装置により、前記第2表示装置が送信した案内情報を受信し、受信した案内情報に基づく画像を前記第1表示部に表示させること、を特徴とする。
本発明によれば、第1表示装置で撮像された撮像画像に基づく案内対象情報を第2表示装置に送信し、第2表示装置が案内対象情報に基づき画像を表示し、この画像の表示中の操作と案内対象情報とを関連付ける情報を含む案内情報が、第1表示装置に送信される。このため、第2表示装置の操作により、第1表示装置に対して、第1表示装置における撮像画像に関連付けた操作に関する情報を提供できるので、第1表示装置の使用者に対し、わかりやすい態様で多くの情報を伝達できる。
また、上記目的を達成するために、本発明は、外景を視認可能に画像を表示する表示部と、前記表示部で視認可能な外景の少なくとも一部を含む範囲を撮像する撮像部とを備える頭部装着型の表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターにより、前記撮像部の撮像画像に基づき生成される案内対象情報を外部の装置に送信し、前記外部の装置から案内情報を受信し、受信した案内情報に基づいて画像の表示位置を算出し、前記表示部により、算出した表示位置に前記案内情報に基づく画像を表示させること、を特徴とする。
本発明によれば、表示装置により、外景の一部を含む範囲の撮像画像に基づく案内対象情報を外部の装置に送信し、外部の装置から受信する案内情報に従って画像を表示できる。このため、外部の装置に対して、実行中の作業に関する情報を送信し、外部の装置が送信する情報を、使用者に効果的に見せることができる。
また、本発明は、このプログラムを記憶した記憶媒体として構成してもよい。
第1実施形態の表示システムの概略構成図。 頭部装着型表示装置の外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 指令サイトの頭部装着型表示装置を構成する各部の機能ブロック図。 作業サイトの頭部装着型表示装置を構成する各部の機能ブロック図。 表示システムの動作を示すフローチャート。 頭部装着型表示装置の表示例を示す図。 第2実施形態の表示システムの動作を示すフローチャート。 第2実施形態の表示システムの動作を示すフローチャート。 第2実施形態の頭部装着型表示装置の表示例を示す図。 第3実施形態の表示システムの動作を示すフローチャート。 第4実施形態の表示システムの動作を示すフローチャート。
[第1実施形態]
図1は、本発明を適用した実施形態に係る表示システム1の概略構成図である。
この図1に示すように、表示システム1は、複数のHMD100を、通信ネットワーク4を介して相互に通信可能に接続したシステムである。図1には3台のHMD100を通信ネットワーク4に接続する例を示すが、表示システム1が備えるHMD100の数に制限はない。
本実施形態において表示システム1は、異なる機能を有する2種類のHMD100を備え、各々のHMD100を、それぞれ、HMD100A、100Bとする。以下では、HMD100A、100Bを区別する必要のない場合、HMD100と記載する。
HMD100A、100Bは、図1に示すように使用者が頭部に装着する表示装置であり、頭部装着型表示装置(ヘッドマウントディスプレイ、Head Mounted Display)とも呼ばれる。HMD100A、100Bは、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のHMDである。
なお、以下の説明では、HMD100A、100Bによって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
表示システム1は、作業を行う作業者がHMD100Bを装着し、作業者に対して指示や管理を行う指令者がHMD100Aを装着し、指令者と作業者の間で指示や管理のための情報を送受信する。指令者がいる指令サイトAと、作業者が作業を行う作業サイトBとは、通信ネットワーク4に接続可能であれば地理的制約はなく、遠隔地であってもよいし、近接した場所であってもよい。
表示システム1は、作業者が装着するHMD100Bが、作業者の視界を撮像し、撮像画像を含む作業情報(案内対象情報)をHMD100Aに送信する機能を有する。HMD100Aは、作業情報を受信して、作業者の視界の撮像画像を表示する。指令者は、HMD100Aを操作し、説明用のコンテンツの選択、説明のために指示体(例えば、腕、手または指)を動かす動作等を行い、HMD100AからHMD100Bに、選択されたコンテンツ及び指示体の動きを示すデータを含む指示情報(案内情報)が送信される。HMD100Aは外景を視認可能な、いわゆるシースルー型の表示装置である。このため、指令者は、HMD100Aが表示する作業者の視界を見ながら、操作を行う。
HMD100Bは、HMD100Aが送信する指示情報を受信して、コンテンツの画像や指示体の動きを示す画像を、画像表示部20に表示する。HMD100Bはシースルー型の表示装置であるため、作業者は、画像表示部20が表示する画像を見ながら、手元を見て作業を行うことができる。
これにより、表示システム1では、作業サイトBで作業を行う作業者の視界を、指令サイトAにいる指令者が視認し、作業者のHMD100Bに対し、指示体やコンテンツを利用して、作業の案内や説明等を行うことができる。作業者は、コンテンツの画像や指示体の動きを見ながら作業を行うことができる。
通信ネットワーク4は、公衆回線網、専用線、携帯電話回線を含む無線通信回線、及び、これらの回線のバックボーン通信回線など、各種の通信回線またはその組合せで実現され、その具体的構成は限定されない。通信ネットワーク4は、遠隔地を接続できる広域通信回線網であってもよいし、特定の施設や建物内に敷設されたLAN(Local Area Network)であってもよい。また、通信ネットワーク4、上記各種通信回線を接続するサーバー装置、ゲートウェイ装置、ルーター装置等のネットワーク機器を含んでもよい。また、通信ネットワーク4が複数の通信回線で構成されてもよい。指令サイトAには通信ネットワーク4に接続するアクセスポイント3Aが設置され、作業サイトBには、通信ネットワーク4に接続するアクセスポイント3Bが設置される。無線アクセスポイント3A、3Bは、アクセスポイントやルーター等の通信装置であり、HMD100A、100Bと通信ネットワーク4とのデータ通信を中継する。
HMD100Aは、無線アクセスポイント3を介して他のHMD100Bとデータ通信を実行する。なお、それぞれのHMD100Aは、他のHMD100Bとの間で、例えばアドホックモードで直接、無線通信を実行してもよいし、有線の通信回線によりHMD100A、100Bが接続されてもよい。すなわち、表示システム1は、HMD100A及びHMD100Bが通信可能であれば、その構成は特に限定されない。
HMD100Aは、使用者である指令者が頭部に装着する画像表示部20、及び、画像表示部20を制御する制御装置10Aを備える。画像表示部20は、使用者の頭部に装着された状態で使用者に虚像を視認させる。制御装置10Aは、使用者がHMD100Aを操作するコントローラーとしても機能する。
また、HMD100Bは、画像表示部20、及び、制御装置10Bを備える。画像表示部20はHMD100Aと共通であり、使用者である作業者の頭部に装着された状態で、使用者に虚像を視認させる。制御装置10Bは、制御装置10Aと同様に画像表示部20を制御し、使用者がHMD100Bを操作するコントローラーとしても機能する。制御装置10Aと制御装置10Bは外観において共通であり、機能的構成は相違するが、この相違点については後述する。
図2は、HMD100Aの外観構成を示す説明図である。HMD100Bは、外観上はHMD100Aと同一であるため、HMD100Bの構成について図示及び説明を省略する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図4参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図4参照)と調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板20Aは、光透過性がほぼゼロのもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
カメラ61は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ61の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ61は、頭部装着型表示装置100の表側方向、換言すれば、頭部装着型表示装置100Aを装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板20Aを通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。カメラ61は、制御部140の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
図3は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、および、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板262に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、および、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板261に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。
なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
画像表示部20は、制御装置10Aに接続部40を介して接続する。接続部40は、制御装置10Aに接続される本体コード48、右コード42、左コード44、及び、連結部材46を備える。右コード42及び左コード44は、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続される。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有する。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸する。イヤホンプラグ30の近傍にはマイク63が設けられる。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がる。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
右コード42、左コード44、及び、本体コード48は、デジタルデータを伝送可能であればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード42と左コード44とを一本のコードにまとめた構成としてもよい。
画像表示部20と制御装置10Aとは、接続部40を介して各種信号を伝送する。本体コード48の連結部材46とは反対側の端部、及び、制御装置10Aには、互いに嵌合するコネクター(図示略)が設けられる。本体コード48のコネクターと制御装置10Aのコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置10Aと画像表示部20とを接離できる。
制御装置10Aは、HMD100を制御する。制御装置10Aは、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10Aは、使用者が手指で操作するトラックパッド14を備える。
決定キー11は、押下操作を検出して、制御装置10Aで操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、HMD100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、HMD100の電源オン/オフを切り替えるスイッチである。
図2を参照して説明した内容に関し、HMD100Bの構成はHMD100Aと共通である。すなわち、上記説明において制御装置10Aを制御装置10Bに代えた構成となる。
図4は、HMD100Aを構成する各部の機能ブロック図である。また、図5はHMD100Bを構成する各部の機能ブロック図である。
図4に示すように、HMD100Aは、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス114を備える。インターフェイス114は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置10Aは、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52を有する。
入力情報取得部110は、上記のトラックパッド14、方向キー16、電源スイッチ18等を含む操作部135に接続される。入力情報取得部110は、操作部135から入力される信号に基づき、操作部135における操作内容を検出し、操作内容を示す操作データを制御部140に出力する。また、制御装置10Aは、電源部(図示略)を備え、制御装置10A及び画像表示部20の各部に電源を供給する。
記憶部120は、不揮発性の記憶装置であって、制御部140が実行する種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス114を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部120は、検出用データ122、メニュー画像データ123、送信画像データ124、及び指示コンテンツデータ125を記憶する。
検出用データ122は、画像データから作業対象物の画像を検出するために利用されるデータである。作業対象物とは、HMD100Bを装着した作業者が行う作業の対象であり、作業時に作業者の視界に位置すると考えることができる。検出用データ122は、例えば、画像データから作業対象物の画像を抽出する処理に用いるデータを含み、より具体的には、作業対象物の画像の特徴量のデータを含む。特徴量は、色の特徴量であっても形状の特徴量であってもよく、処理対象の画像データの色数や解像度に対応して、複数の特徴量を含んでもよい。表示システム1では、HMD100Bを装着する作業者が対象とする作業対象物が事前に判明している場合に、この作業対象物に関する検出用データ122が、記憶部120に記憶される。
メニュー画像データ123は、画像表示部20にメニュー画像を表示するための画像のデータである。メニュー画像は、例えば、操作用のアイコンが列をなして配置されたメニューバー、或いは、アイコンが円形の枠内に配置されたダイヤル型のメニュー等である。
送信画像データ124は、HMD100AがHMD100Bに送信する指示情報に用いられる画像データであり、例えば、腕、手、指、或いは指示棒等の指示体の画像の画像データである。詳細は後述するが、指示情報には、カメラ61が撮像する指示体の撮像画像を含めることができるが、撮像画像の代わりに、予め用意された指示体の画像を用いることもできる。送信画像データ124は、撮像画像の代わりに指示情報に含めることが可能な画像データである。送信画像データ124は、例えば、作業者の腕や手指を模した画像の画像データであるが、矢印等の記号で構成されるポインターの画像の画像データであってもよく、その種類や内容は制限されない。
指示コンテンツデータ125は、HMD100AがHMD100Bに送信するコンテンツのデータであり、テキストデータ、静止画像データ、動画像データ、及び音声データ等を含むことができる。
制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。3軸センサー113により、制御部140は、制御装置10Aの動きを検出することができ、例えば制御装置10Aを振る等の操作を検出できる。また、3軸センサー113は9軸センサーに置き換えてもよい。この場合、制御部140は、3軸の加速度センサー、3軸の角速度センサー、及び3軸の地磁気センサーの検出値を取得し、例えば、制御装置10Aの姿勢、向き、動きを検出できる。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10Aの現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス114に有線接続された場合、制御部140は、コンテンツデータをインターフェイス114より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス114は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、及び、表示制御部170として機能する。また、制御部140は、上記プログラムを実行し、通信制御部181、受信情報処理部182、操作検出部183、操作時表示制御部184、送信画像取得部185、指示情報生成部186、及び、音声処理部187として機能する。
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10Aと画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
通信制御部181は、通信部117を制御して、HMD100Bとの間の通信を制御する。通信制御部181は、HMD100Bから作業情報を受信し、受信した作業情報を受信情報処理部182に出力する。また、指示情報生成部186が生成する指示情報を、HMD100Bに送信する処理を行う。
受信情報処理部182は、通信制御部181が受信した作業情報を解析して、作業情報に含まれる画像データを抽出する。受信情報処理部182は、例えば、記憶部120が記憶する検出用データ122を用い、作業情報に含まれる画像データから作業対象物の画像を検出する。
操作検出部183は、HMD100Aを装着した指令者の操作を検出する。操作検出部183は、入力情報取得部110から入力される操作データに基づき、操作部135の操作を検出する。また、操作検出部183は、カメラ61を利用して、HMD100Aを装着する指令者の操作を検出する。この場合、操作検出部183は、カメラ61の撮像画像データから、指令者が使用する指示体の画像を検出する。指令者が使用する指示体は、例えば、指令者の腕、手、指、指示棒等を含む。操作検出部183は、撮像画像における指示体の画像の位置に基づき、指示体の指示位置を特定する。また、操作検出部183は、特定した指示位置が、予め設定されたパターンに該当する軌跡を形成する場合に、操作を検出してもよい。この動作は、指令者が指示体を動かして、その動きの種類により異なる指示を行う、いわゆるジェスチャー操作である。
操作時表示制御部184は、操作検出部183が操作を検出する間の、画像表示部20の表示を制御する。操作時表示制御部184は、記憶部120からメニュー画像データ123等を読み出し、画像処理部160及び表示制御部170を制御して、メニュー画像等を表示させる。これにより、例えば、指令者が指示体や操作部135で操作を行う場合に、指示体の動きの指標や目安となる文字や画像、或いは、位置入力を可能とするメニューバー画像を、画像表示部20に表示させることができる。
送信画像取得部185は、HMD100Bに送信する指示情報に含める指示体の画像を取得する。送信画像取得部185は、カメラ61で指示体を撮像した場合には、カメラ61の撮像画像から指示体の画像を抽出して取得する。また、指令者の操作または事前の設定で、指示体の画像を記憶部120から取得するよう設定された場合、送信画像取得部185は送信画像データ124を取得する。
指示情報生成部186は、HMD100Bに送信する指示情報を生成する。指示情報は、HMD100AがHMD100Bに送信するデータであり、本実施形態では、コンテンツの画像データ及び/又は音声データ、指示体の画像データ、音声処理部187が生成する指令者の音声のデータ、指示体の位置または動きを示すデータを含む。
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
画像表示部20は、上述したようにカメラ61及び距離センサー64を備える。また、画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、9軸センサー66と、視線センサー68とを備える。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部140は、9軸センサー66の検出値に基づき、画像表示部20の傾きの大きさと傾きの向きを推定できる。
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、距離センサー64、9軸センサー66及び視線センサー68を接続するインターフェイスである。カメラ61の撮像データ、距離センサー64の検出結果、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果、及び、視線センサー68の検出結果は、インターフェイス25を介して制御部140に送られる。
右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、受信部53、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10Aと画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。
左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、受信部54、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。
受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10Aと画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
図5に示すように、HMD100Bは、図4を参照して説明した画像表示部20と、制御装置10Bとを接続した構成を有する。
制御装置10Bは、制御部140(図4)に代えて制御部300を有し、記憶部120(図4)に代えて340を有する。他の構成は図4に示した制御装置10Aと共通である。
記憶部340は、記憶部120と同様の不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部340は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部340は、設定データ341を記憶する。設定データ341は、制御部300が使用する各種の設定値を含む。設定データ341が含む設定値は、予め操作部135の操作で入力された値であってもよいし、通信部117またはインターフェイス114を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部340は、不揮発性の記憶装置であって、制御部300が実行する種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部340は、検出用データ343、メニュー画像データ345、送信画像データ124、及び指示コンテンツデータ125を記憶する。
検出用データ343は、画像データから作業対象物の画像を検出するために利用されるデータである。検出用データ343は、例えば、画像データから作業対象物の画像を抽出する処理に用いるデータを含み、より具体的には、作業対象物の画像の特徴量のデータを含む。特徴量は、色の特徴量であっても形状の特徴量であってもよく、処理対象の画像データの色数や解像度に対応して、複数の特徴量を含んでもよい。記憶部340が記憶する検出用データ343は、設定データ121と同一であってもよいし、設定データ121とは異なるデータであってもよい。
メニュー画像データ345は、画像処理部303及び表示制御部305により表示されるメニュー画像のデータである。
制御部300は、制御部140と同様、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部300は、記憶部340が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)301、画像処理部303、表示制御部305、及び、表示制御部305として機能する。また、制御部300は、通信制御部311、撮像制御部313、作業情報生成部315、受信情報解析部317、指示検出部319、表示位置算出部321、操作検出部323、表示情報生成部325、及び、音声処理部329として機能する。
画像処理部303は、コンテンツに含まれる画像信号を取得する。画像処理部303は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部303は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部303は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部303は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部300のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部303は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部303は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部303は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。送信部51、52は、トランシーバーとして機能し、制御装置10Bと画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部305は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部305は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
通信制御部311は、通信部117を制御して、HMD100Aとの間の通信を制御する。通信制御部311は、作業情報生成部315が生成する送信情報を含むデータを、HMD100Aに送信する処理を行う。また、通信制御部311は、HMD100Aが送信するデータを受信し、受信したデータを受信情報解析部317に出力する。
撮像制御部313は、カメラ61を制御して撮像を実行させ、撮像画像データを取得する。
作業情報生成部315は、HMD100Aに送信するデータを取得し、取得したデータに基づき作業情報を生成する。作業情報生成部315は、カメラ61の撮像画像データを取得する。また、作業情報生成部315は、距離センサー64、9軸センサー66、及び視線センサー68の少なくとも一部のセンサーの検出値を取得してもよく、この場合、カメラ61の撮像画像データ、及び、センサーの検出値を含む作業情報を生成する。作業情報生成部315が検出値を取得するセンサーは予め設定されるが、HMD100AがHMD100Bに設定用のコマンドを送信して、取得する検出値を指定してもよい。また、作業情報生成部315は、カメラ61の撮像画像データそのものに限らず、撮像画像データから生成した画像データを含む作業情報を生成してもよい。
受信情報解析部317は、通信制御部311が受信したデータを解析する。本実施形態では、受信情報解析部317は、通信制御部311が受信した指示情報に含まれる指示体の画像データ、コンテンツの画像データ、音声データ、及び、その他の等を抽出する。また、受信情報解析部317は、通信制御部311が受信した指示情報から、指示体の位置や動きを示すデータを抽出する。
指示検出部319は、受信情報解析部317が抽出したデータから、指示体による操作を行うことを示すデータを検出する。指令者はHMD100Aを操作して、指示体による位置指示操作を行い、この位置指示操作によってHMD100Bを制御することが可能である。この場合、HMD100Aが送信する指示情報に含まれる位置指示操作に関するデータを、HMD100Bが、GUIの操作として検出する。HMD100Aが送信する指示情報には、指令者の操作をGUIの操作として検出するか否かを指定するデータが含まれ、このデータを指示検出部319が検出する。
表示位置算出部321は、受信情報解析部317が抽出した画像データに基づき画像を表示する位置を算出する。受信情報解析部317が抽出する画像データは、指示体の画像データ、コンテンツの画像データ、及びその他の画像データである。これらのデータに基づき、表示位置算出部321は、指示体の画像の表示位置、コンテンツの画像データの表示位置、及び、その他の画像の表示位置を算出する。また、表示位置算出部321は、各画像の表示サイズを算出してもよい。また、指示検出部319が、指令者の操作をGUIの操作とすることを指示するデータを検出した場合、表示位置算出部321は、GUI操作を行うためのメニュー画像の表示位置を算出する。
操作検出部323は、受信情報解析部317が抽出した指示体の位置や動きを示すデータをGUIの操作として検出する場合に、操作を検出する。操作検出部323は、表示位置算出部321が算出したメニュー画像のアイコン等の表示位置と、指示体の画像の表示位置とに基づき、GUIの操作を検出する。
表示情報生成部325は、画像表示部20により表示する画面の表示情報を生成する。表示情報生成部325は、受信情報解析部317が抽出した画像データに基づく画像を、表示位置算出部321が算出した表示位置に配置して、一画面分の表示情報を生成する。表示情報生成部325が生成する表示情報は、表示制御部170及び表示制御部305の動作により、画像表示部20に送信され、画像表示部20が表示する。
音声処理部329は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部329は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部329は、ディジタル音声データに対して予め設定された処理を行ってもよい。
このように構成される表示システム1において、HMD100Bは表示装置、及び第1表示装置に相当し、HMD100Aは第2表示装置に相当する。HMD100Bが備える画像表示部20は第1表示部に相当し、通信部117は第1通信部に相当し、制御部300は制御部及び第1制御部に相当し、カメラ61は撮像部に相当する。また、HMD100Aが備える画像表示部20は第2表示部に相当し、通信部117は第2通信部に相当し、制御部140は第2制御部に相当する。
図6は、表示システム1の動作を示すフローチャートであり、(A)はHMD100Aの動作を示し、(B)はHMD100Bの動作を示す。図6には、1台のHMD100Aと、1台のHMD100Bとが動作する例を示す。
HMD100Bでは、撮像制御部313がカメラ61を制御して撮像を実行して撮像画像データを取得し(ステップS21)、作業情報生成部315が各センサーの検出値を取得する(ステップS22)。
続いて、作業情報生成部315は、ステップS21の撮像画像データと、ステップS22で取得した検出値のデータとを含む作業情報を生成し、このデータを通信制御部311がHMD100Aに送信する(ステップS23)。
HMD100Aでは、HMD100Bから送信された作業情報を、通信制御部181が受信し、受信した作業情報を受信情報処理部182が解析する(ステップS11)。受信情報処理部182は、受信した作業情報から撮像画像のデータを抽出して、画像処理部160及び表示制御部170により、撮像画像を表示させる(ステップS12)。また、通信制御部181が受信した作業情報にセンサーの検出値が含まれる場合、受信情報処理部182は、センサーの検出値を撮像画像に重ねて表示するデータを生成し、画像処理部160及び表示制御部170で表示させてもよい。
続いて、HMD100Aでは、指令者の操作によりコンテンツが選択され(ステップS13)、指令者が作業者に指示等をするための操作が行われる(ステップS14)。ステップS13では、例えば、テキストと画像を含む支援用のコンテンツが選択される。ステップS14では、例えば、通信制御部181が受信して表示中の画像について、作業者に注目させる位置を指し示す操作が行われる。ステップS14の操作は、操作部135の操作、または、指令者がHMD100Aの前方で指示体を動かす操作である。この操作は操作検出部183により検出され(ステップS15)、操作検出部183は検出した操作のデータを生成する。
操作検出部183は、検出した操作の操作位置や操作の軌跡を、表示中のHMD100Bの撮像画像に対応付けるデータを生成する(ステップS16)。これにより、作業者の視界において特定の位置を示すデータが得られる。送信画像取得部185は、ステップS14の操作中にカメラ61が撮像した撮像画像から指示体の画像を切り出し、或いは、記憶部120から送信画像データ124を読み出して、送信画像を取得する(ステップS17)。
指示情報生成部186は、送信画像取得部185が取得した指示体の画像の画像データと、操作位置や操作の軌跡を示すデータと、操作位置や操作の軌跡をHMD100Bの撮像画像と対応付けるデータとを含む指示情報を生成して送信する(ステップS18)。
制御部140は、動作の終了条件が成立したか否かを判定し(ステップS19)、終了条件が成立していない場合は(ステップS19;NO)、ステップS11に戻る。また、終了条件が成立した場合は(ステップS19;YES)、本処理を終了する。終了条件は、例えば操作部135の操作により、動作終了やHMD100Aのシャットダウンが指示されること等が挙げられる。
HMD100Bは、HMD100Aが送信する指示情報を通信制御部311で受信し(ステップS24)、受信した指示情報を受信情報解析部317が解析して画像データを抽出する(ステップS25)。次いで、表示位置算出部321が各画像データに基づいて画像を表示する位置を算出する(ステップS26)。さらに、表示情報生成部325が、算出した表示位置に画像を配置した表示情報を生成して、画像処理部303及び表示制御部305により表示させる(ステップS27)。
制御部300は、動作の終了条件が成立したか否かを判定し(ステップS28)、終了条件が成立していない場合は(ステップS28;NO)、ステップS23に戻る。また、終了条件が成立した場合は(ステップS28;YES)、本処理を終了する。終了条件は、例えば操作部135の操作により、動作終了やHMD100Bのシャットダウンが指示されること等が挙げられる。
図7は、HMD100A、100Bにおける表示例を示す図であり、(A)はHMD100Aを装着した指令者の視野VRAを示し、(B)はHMD100Bを装着した作業者の視野VRB1を示す。また、(C)はHMD100Aを装着した指令者の視野VRAの別の例を示し、(D)はHMD100Bを装着した別の作業者の視野VRB2を示す。なお、図7(A)〜(D)の各図は指令者または作業者の右眼の視野の例を示しており、左眼の視野は各図と同一または左右対称であるため図示を省略する。
ここで、指示情報生成部186が生成する指示情報(案内情報)において、操作と作業情報とを関連付ける情報、或いは、作業情報に含まれる撮像画像に対応付ける情報の具体的な態様は、特に制限されない。上記の例では、操作位置や操作の軌跡をHMD100Bの撮像画像と対応付けるデータとして説明したが、単に操作位置や操作の軌跡そのものを上記情報としてもよい。また、ファイル名による対応付け、データのタイプ、ID、属性、位置等により、操作位置や操作の軌跡をHMD100Bの撮像画像と対応付けるデータであってもよく、結果として対応を認識できる情報であればよい。
図7(A)に示す指令者の視野VRAでは、ハーフミラー261Aに相当する領域が表示領域401となり、この表示領域401に、右LCD241(図4)に描画される画像が表示される。図7(A)の例では表示領域401に、通常操作用画面402が表示されている。通常操作用画面402は、OS150の機能やOS150上で動作するアプリケーションプログラムの機能により表示される画面であり、図7(A)の例ではファイル及びフォルダーの操作に係る画面である。
HMD100Aは、HMD100Bから作業情報を受信した場合に、図7(A)に示すようにHMD100Bの撮像画像を表示する(図6のステップS12)。表示領域401に、撮像画像表示用の表示領域403が設けられ、表示領域403に撮像画像が表示される。ハーフミラー261Aは外景を透過するので、指令者には、指令者が操作する指示体2が表示領域401越しに視認される。なお、図7(A)の例で、指示体2は指令者の手である。指令者は、表示領域401に表示される作業対象物の画像404に対し、例えば、指示体2で指し示す操作を行う。HMD100Aは、操作検出部183により指示体2が指示した指示位置405を検出し、指示位置405と、表示領域403に表示中の撮像画像との相対位置を算出する。
図7(B)に示す作業者の視野VRB1では、ハーフミラー261Aに相当する領域が表示領域451となり、表示領域451に、右LCD241(図5)に描画される画像が表示される。ハーフミラー261Aは外景を透過するので、作業者の視野にある作業対象物452が表示領域451越しに視認される。そして、表示領域451には、指令者が指示体2で指し示した指示位置454を指す指示体の画像453が表示される。指示体の画像453は、HMD100BがHMD100Aから受信する(図6のステップS24)指示情報に含まれる画像データに基づき表示される。また、指示位置454の位置は、指示情報に含まれるデータで指定される。
図7(A)及び(B)に示すように、HMD100Aを装着する指令者には、作業者の視野を撮像した撮像画像が見えるので、作業者の視野を見ながら作業に関する指示等を行うことができる。また、指令者が指示体2で指示した指示位置がHMD100Aにより検出され、撮像画像に対する指示位置を示すデータがHMD100Bに送信されるので、作業者は実際の視野における外景に重なるように、指示体の画像453を見ることができる。このため、作業者は、実際に外景として見える作業対象物に重なる画像による指示を受けることができる。また、指示体の画像453は、HMD100AがHMD100Bに送信するデータに基づき表示されるので、HMD100Aは、指示体の画像を実際の指示体2の撮像画像とするか、予め用意された画像とするかを選択できる。ここで、指示体の画像を表示するための画像データをHMD100Bの記憶部340に記憶しておき、HMD100AがHMD100Bに送信する指示情報に、HMD100Bが記憶する画像を指定するデータを含めても良い。
図1に示したように、表示システム1は、複数のHMD100Bを通信ネットワーク4に接続して使用できる。この場合、HMD100Aでは、複数のHMD100Bから作業情報を受信して表示できる。
図7(C)はHMD100Aが2つのHMD100Bから受信した作業情報に基づき撮像画像を表示する例を示す。図7(C)の例では、表示領域401に、撮像画像を表示する2つの表示領域409、410が配置される。表示領域409には一方のHMD100Bが送信した作業情報に基づく画像が表示される。また、表示領域410には他方のHMD100Bが送信した作業情報に基づく画像が表示される。これら表示領域409、410に表示された画像に対し、指示体2による指示が行われた場合、HMD100Aは、指示された位置に対応する作業情報を送信したHMD100Bに対して、指示情報を生成して送信する。
また、表示システム1が複数のHMD100Bを含む場合に、いずれかのHMD100BにHMD100Aが送信する作業情報を、他のHMD100Bに送信してもよい。この場合の表示例を図7(D)に示す。図7(D)には、図7(B)に例示した指示情報を、他のHMD100Bが受信した場合の表示例を示す。
HMD100Bを装着した別の作業者の視野VRBには、ハーフミラー261Aに相当する表示領域461に、作業対象物の画像462が表示され、指示位置464を指し示す指示体の画像463が表示される。視野VRB2には、図7(B)に示した作業者の視野VRB1とは異なり、作業対象物が見えておらず、無関係な外景が見えている。HMD100Aが送信する指示情報にHMD100Bの撮像画像が含まれていれば、図7(D)に示すように、表示領域461に作業対象物の画像462を表示できる。この例では、いずれかの作業者に対して送信した指示情報の内容を、他の作業者が知ることができる。
以上説明したように、本発明を適用した第1実施形態に係る表示システム1は、頭部装着型のHMD100B及びHMD100Aを備える。HMD100Bは、外景を視認可能に画像を表示する画像表示部20と、画像表示部20で視認可能な外景の少なくとも一部を含む範囲を撮像するカメラ61とを備える。また、カメラ61の撮像画像に基づき生成される作業情報をHMD100Aに送信し、HMD100Aから指示情報を受信する通信部117と、通信部117で受信した指示情報に基づく画像を画像表示部20に表示させる制御部300と、を備える。HMD100Aは、画像表示部20と、HMD100Bから作業情報を受信し、HMD100Bに指示情報を送信する通信部117とを備える。また、通信部117が受信した作業情報に基づき画像表示部20に画像を表示させる表示制御部305と、操作検出部183と、操作検出部183が検出する操作と作業情報とを関連付ける情報とを含む指示情報を生成して送信する制御部140と、を備える。
このため、HMD100Bが撮像した撮像画像に基づく作業情報をHMD100Aに送信し、HMD100Aが作業情報に基づき画像を表示し、この画像の表示中の操作と作業情報とを関連付ける情報を含む指示情報が、HMD100Bに送信される。このため、HMD100Aの操作により、HMD100Bに対して、HMD100Bにおける撮像画像に関連付けた操作に関する情報を提供できるので、HMD100Bを装着する作業者に対し、わかりやすい態様で多くの情報を伝達できる。
また、HMD100Bの制御部300は、カメラ61の撮像画像を含む作業情報を生成し、HMD100Aが備える操作検出部183は、位置指示操作を検出する。制御部140は、操作検出部183が検出した位置指示操作の指示位置を、作業情報に含まれる撮像画像に対応付ける情報を含む指示情報を生成する。このため、HMD100Aで行われる位置指示操作の指示位置を、HMD100Bの撮像画像に対応付けることができる。このため、HMD100Bを装着する作業者に対し、HMD100Aで行う位置指示操作の内容を伝えることができる。
また、制御部140は、操作検出部183が検出した位置指示操作の指示位置に関する情報と、指示体の画像とを含む指示情報を生成する。制御部300は、通信部117で指示情報を受信し、受信した指示情報に含まれる指示位置に対応する位置に、指示体の画像を表示させる。HMD100Aの位置指示操作による指示位置に対応して、HMD100Bが指示体の画像を表示するので、HMD100Aの操作によって、HMD100Bを装着する作業者に対して位置を指し示すことができる。
表示システム1の適用例について、具体例を挙げて説明する。
表示システム1は、例えば、作業者が機器を操作する作業を行う場合に、機器の操作を説明し、案内するなど、遠隔地から指令者が機器の操作に関する情報を提供して、作業を支援する目的で使用できる。具体的には、パーソナルコンピューターを作業対象物として、セットアップやアプリケーションプログラムの操作を行う場合に適用できる。また、例えば、工作機械、工業機械、家庭用各種電子機器などの機械を作業対象物として、機械の操作やメンテナンスを行う場合に適用できる。すなわち、各種機械のメンテナンスを行う作業者が、ユーザーの依頼に応じて作業対象の機械の設置場所を訪問し、メンテナンスを行う場合に、習熟度の低い作業者を指令者が支援する用途で表示システム1を使用できる。
このような場合、遠隔地の作業サイトBにいる作業者とサービスセンター等の指令サイトAにいる指令者が情報を共有し、指令サイトAの指令者は作業者のHMD100BにAR画像を表示させて、指示、表示の変更ができる。そして、HMD100Bにより、指令サイトAにいる指令者の手や手指による操作をバーチャル画像として見せて、支援できる。この場合、指令サイトAにおいて指令者の前に作業サイトBの作業対象物と同じ機器を置いて実際に操作しながら説明することも有効である。指令者にとっては、現場の現物の特定部位に対して位置指示操作により指示や教示を行うことができ、シンプルな操作で効率よく支援できる。
他の適用例として、HMD100Aから送信する指示情報に、名刺の画像データやテキストを含めることで、作業者に名刺を見せることができる。この場合、指令者の腕を模した画像の画像データを指示情報に含めることで、HMD100Bに、名刺を差し出す腕を表示させて、バーチャルな名刺交換を実現できる。
この名刺交換を、指令サイトAの指令者と作業サイトBの作業者との間で実行し、その後に、上記実施形態で説明した動作を実行してもよい。
さらに、HMD100Aがコンテンツのデータを指示情報に含めてHMD100Bに送信することで、HMD100Bの画像表示部20に、テキストや画像を含むコンテンツを表示させることができる。この場合、コンテンツのテキストや画像の表示位置は、画像表示部20を透過して視認される現実の作業対象物の位置に合わせて、作業対象物の視認を妨げない位置とすることが好ましい。
また、コンテンツのデータとして、音声データを指示情報に含めて、HMD100AからHMD100Bに送信してもよい。コンテンツの音声データは、予め記憶部120に記憶されたデータであってもよいし、指令者の音声をマイク63で集音した音声データであってもよい。
さらに、指示体の画像として、指令者役のアバターや指令者の実際の顔、上半身、或いは全身の画像を利用することで、作業員の代わりにコンシューマーを対象としたサービスを実現することも可能である。この場合、指令者はコールセンターのスタッフ、家庭教師や塾の講師スタッフ等となる。このシステムの用途は、電子機器のソフトウェアのインストールや操作の案内またはトレーニング、語学教育、資格試験等の受験指導、運手免許等の公的資格のための講習、スポーツの指導等も挙げられる。また、例えば、外国語会話の講習では、受講者がHMD100Bを装着し、講師がHMD100Aを装着し、HMD100Bが、講師の口の形を、鏡に映った受講者の口の像に重なるようにAR表示して、視覚的に発音を教授することができる。
また、学習やスポーツの指導を行う場合、指導する側が指令サイトAにおいてHMD100Aを使用し、指導を受ける側が作業サイトBにおいてHMD100Bを使用する。このような場合を含み、指令サイトAは、指導或いは管理を行う者がいる「管理サイト」と呼ぶことができ、HMD100Aは管理用装置といえる。また、作業サイトB、Cは、指導や教授を受けて学習を実行する者や作業を実行する者がいる「実行サイト」と呼ぶことができ、HMD100B、100Cは実行側装置といえる。そして、HMD100B、100CからHMD100Aに送信する作業情報は、案内対象情報、或いは実行側情報と呼ぶことができ、指示情報は、案内情報、指導情報、或いは、管理情報と呼ぶことができる。
指導の具体例としては、数学、英語、国語、社会科、文字の書き順等の学習課目について、指導を受ける者が装着するHMD100BまたはHMD100Cに表示される内容により教授、指導が行われる。パーソナルコンピューター等の機器の操作方法をガイドする目的で使用する場合も同様である。また、英会話の指導を行う場合は、HMD100Aを装着する指導者の口、及び、HMD100B、100Cを装着する受講者(学習者、実行者)の口を撮影し、これらの撮影画像を含む作業情報と指示情報とを送受信することで、より効果的な学習・指導を行える。
その他の適用例としては、HMD100Bを装着した人に対し、HMD100Aを装着した指令者が道案内や周辺の建物等の案内を行うことで、例えば観光地における観光ガイドや道案内に適用できる。
また、HMD100A、100B、100Cにおいて、特定の情報を、ポップアップ、ブリンキング、蛍光色で表示する等して、目立つように表示してもよい。また、表示される画像の表示色や表示輝度を、画像表示部20を透過する外景の視認性が高まるように変更してもよい。この場合、画像表示部20が表示する画像が、外景に対して相対的に視認性が低下するので、この表示画像に含まれる文字や画像を補助的に見せる効果がある。
表示システム1では、HMD100Bを装着した作業者の視点における撮像画像を、遠隔地のHMD100Aで見ることができ、作業者は、指令者がHMD100Aにおいて行う位置指示操作の内容を見ることができる。位置指示操作の内容は、例えば指示体の画像453により、AR表示することができる。すなわち、HMD100Bでは、作業者が外景として見る作業対象物452に重なるように、指示体の画像453が表示され、この指示体の画像453と作業対象物452との位置により、AR(Augmented Reality、拡張現実)としての表示効果が期待できる。このAR表示の効果を高めるため、HMD100Bは、指示体の画像453等を表示する際に、右表示駆動部22と左表示駆動部24とで視差を有する画像を表示してもよい。この場合、制御部300は、作業対象物の種類や作業内容に対応して、視差の方向及び大きさを決定する。制御部300の表示情報生成部325は、指示情報に基づいて視差を有する画像を生成して、画像処理部303及び表示制御部305により表示させる。また、制御部300は、距離センサー64により作業対象物までの距離を検出してもよい。この場合、制御部300は、検出した作業対象物までの距離に基づき、AR表示する指示体の画像の視差の方向及び大きさを算出してもよい。例えば、予め設定された距離条件に基づき、視差を設けてもよい。この場合、HMD100B、100Vを装着する作業者の手が届く範囲内を示す画像について、立体的に視認される。また、HMD100Aにおいて、視差を設けた画像を表示して、指令者が立体的に画像を視認できるようにしてもよい。
また、図7(C)及び(D)を参照して説明したように、作業サイトCでHMD100Bを装着した作業者が、作業サイトBの作業者の作業操作を、遠隔地からAR画像として見ることができる。これにより、作業手順等の作業支援の内容を共有できる。
また、HMD100Aにより2以上の表示領域に、HMD100Aの表示とHMD100Bの撮像画像、或いは、2以上のHMD100Bの撮像画像を表示すれば、指令者が多くの状況を視認できる。
ここで、図7(C)に示すように、2以上の表示領域に2以上のHMD100Bに対応する画像を表示する場合、各表示領域におけるポインター等の形状、色を変えることで、各表示領域の混同を防止する構成も考えられる。
その他、表示システム1の適用範囲は何ら制限されず、他の用途への利用も勿論可能である。
[第2実施形態]
図8及び図9は、第2実施形態における表示システム1の動作を示すフローチャートである。図8(A)はHMD100Aの動作を示し、図8(B)はHMD100Bの動作を示す。また、図10は、第2実施形態におけるHMD100A、100Bの表示例を示す図である。
第2実施形態の表示システム1は、上記第1実施形態で説明した表示システム1と同様に構成されるため、表示システム1の各部の構成について図示及び説明を省略する。また、図8及び図9のフローチャートにおいて第1実施形態で説明した動作(図6)と共通する動作については、同一のステップ番号を付す。
第2実施形態では、HMD100Bのカメラ61で撮像した撮像画像を含む作業情報がHMD100Aに送信され、HMD100Aで表示される点等は第1実施形態と同様である。第2実施形態では、HMD100Aで行われる位置指示操作により、HMD100Bの制御が可能である。
図8(A)に示すHMD100Aの動作において、ステップS11〜S17は上記第1実施形態で説明した通りである。
ステップS17において、送信画像取得部185が送信画像を取得した後、操作部135の操作により、HMD100Bに対するメニュー操作を行うか否かが指定される(ステップS31)。そして、指示情報生成部186は、メニュー操作を行うか否かを指定するデータを含む指示情報を生成し、HMD100Bに送信する(ステップS32)。ステップS32で生成される指示情報は、送信画像取得部185が取得した指示体の画像の画像データと、操作位置や操作の軌跡を示すデータと、操作位置や操作の軌跡をHMD100Bの撮像画像と対応付けるデータとを含む。
図8(B)に示すHMD100Bの動作において、ステップS21〜S27は上記第1実施形態で説明した通りである。
HMD100Bは、HMD100Aが送信する指示情報を通信制御部311で受信し、この指示情報に基づく表示情報を生成して、画像処理部303及び表示制御部305により表示させる(ステップS27)。
続いて、制御部300は、操作検出処理を実行する(ステップS35)。
図9は、HMD100Bが実行する操作検出処理を詳細に示すフローチャートである。
この操作検出処理において、HMD100Bの操作検出部323は、ステップS24で受信した指示情報から、メニュー操作を行うか否かを指定するデータを抽出し、このデータに基づきメニュー操作を行うか否かを判定する(ステップS41)。メニュー操作を行わないと判定した場合は(ステップS41;NO)、図8(B)のステップS28に移行する。
メニュー操作を行うと判定した場合(ステップS41;YES)、操作検出部323は、メニュー画像の表示位置を決定し、メニュー画像を表示する(ステップS42)。ここで、メニュー画像の表示位置は、HMD100Aが送信する指示情報に含まれるデータで指定されてもよいし、予め設定された位置であってもよい。また、操作検出部323が自動的に位置を決定してもよい。次いで、操作検出部323は、指示情報から操作位置を示すデータを取得し(ステップS43)、取得した操作位置がメニュー画像に対応する位置であるか否かを判定する(ステップS44)。
ここで、操作位置がメニュー画像に対応する位置でないと判定した場合(ステップS44;NO)、制御部300はステップS28に移行する。
操作検出部323は、操作位置がメニュー画像に対応する位置である場合(ステップS44)、メニュー画像に対する操作を検出する(ステップS45)。このステップS45で、操作検出部323は、メニュー画像に配置される複数のアイコン等の操作用画像のうち、操作位置に対応する操作用画像を特定する。制御部300は、操作検出部323が特定した操作用画像に対応付けられた動作を実行し(ステップS46)、当該動作の後にステップS28に移行する。
図10(A)はHMD100Aを装着した指令者の視野VRAを示し、(B)はHMD100Bを装着した作業者の視野VRB1を示す。また、(C)はHMD100Aを装着した指令者の視野VRAの別の例を示し、(D)はHMD100Bを装着した別の作業者の視野VRB2を示す。なお、図10(A)〜(D)の各図は指令者または作業者の右眼の視野の例を示しており、左眼の視野は各図と同一または左右対称であるため図示を省略する。
図10(A)に示す指令者の視野VRAでは、表示領域401に、通常操作用画面402が表示され、撮像画像表示用の表示領域403に、HMD100Bの撮像画像が表示される。操作部135の操作により、メニュー操作を行うことが指定された場合、表示領域401にメニュー画像411が表示される。メニュー画像411は、HMD100Aに対する操作を行う画像ではなく、HMD100Bに対する操作を行うために表示される画像である。メニュー画像411は、例えば、ボタン形状の複数のアイコン(操作用画像)が配置される。各アイコンには、それぞれ、HMD100Bで実行する動作が対応付けられる。この種の動作としては、例えば、表示拡大/縮小、描画開始/終了、描画する図形の指定、描画色の指定等が挙げられる。メニュー画像411は、操作時表示制御部184がメニュー画像データ123に基づいて表示させる。
メニュー画像411に対して指示体2による操作が行われると、操作検出部183が操作を検出し、操作位置を特定する。また、操作検出部183は、操作時のメニュー画像411及びメニュー画像411に含まれるアイコン等の操作部の位置を取得する。指示情報生成部186は、指示情報生成部186がメニュー画像411を表示させた状態で、操作検出部183が操作を検出した場合、メニュー操作を指示するデータを、指示情報に含ませる。また、指示情報生成部186は、操作検出部183が検出した操作の操作位置と、操作検出部183が取得したメニュー画像411等の位置を含む指示情報を生成する。
これにより、HMD100AからHMD100Bに対し、指令者がHMD100Aで行った操作の操作位置と、操作時のメニュー画像411等の位置と、メニュー操作を指定するデータとを含む指示情報が送信される。HMD100Bの表示位置算出部321は、メニュー画像411等の位置に合わせて、図10(B)に示すようにメニュー画像471を表示させる。なお、メニュー画像471が有するアイコン等の操作部の配置は、HMD100Aにおけるメニュー画像411と同一または類似していることが好ましい。このため、HMD100Aが生成し送信する指示情報には、メニュー画像411の種類や構成を指定するデータを含めてもよい。表示位置算出部321は、指示情報に基づいて指示体の画像453を表示する。指示検出部319は、指示体の画像453の表示位置が、メニュー画像471のアイコン等の操作部の表示位置に重なる場合、指示検出部319は当該操作部に対する操作を検出する。
従って、指令者がHMD100Aにおいて指示体2で位置指示操作を行うと、この位置指示操作に対応して、HMD100Bが操作を検出し、HMD100Bに動作を実行させることができる。このため、指令者がHMD100Bを遠隔操作することが可能となる。
また、表示システム1が複数のHMD100Bを含んで構成される場合、HMD100Aは、複数のHMD100Bから作業情報を受信して表示する。
図10(C)はHMD100Aが2つのHMD100Bから受信した作業情報に基づき撮像画像を表示する例を示す。表示領域401に配置された表示領域409、410のうち、メニュー画像による操作の対象となる側の表示領域(ここでは表示領域409)にはメニュー画像413が表示される。このメニュー画像413の位置に合わせて指示体2を用いた操作が行われると、表示領域409に対応するHMD100Bに対し、操作位置とメニュー画像413等の位置とを含む指示情報が送信される。また、表示領域409に対する操作中、表示領域401には、他のHMD100Bの作業情報に基づく表示が継続される。
また、表示システム1が複数のHMD100Bを含む場合に、いずれかのHMD100BにHMD100Aが送信する作業情報を、他のHMD100Bに送信してもよい。この場合の表示例を図10(D)に示す。図10(D)に示すように、HMD100Bが、例えば図10(B)に示すように表示領域451に表示した内容を、他のHMD100Bにおいて表示できる。表示領域461を表示するHMD100Bの外景に、作業対象物が含まれているとは限らない。このため、表示領域461には、指示体の画像463、メニュー画像473とともに、HMD100Bが撮像した作業対象物の画像462が表示される。また、表示領域461の表示を行うHMD100Bは、HMD100Aによる操作の対象となっていないため、このHMD100Bは指示体2の操作に対応した動作を実行しなくてもよい。また、このHMD100Bが、他のHMD100Bと同様に、指示体2の操作に対応した動作を行ってもよい。この場合、HMD100Aを装着する指令者が複数のHMD100Bを操作できる。
このように、制御部300は、通信部117で受信した指示情報に含まれる操作を示す情報に基づき、HMD100Bに対する操作を検出する。より具体的には、制御部300は、画像表示部20によりGUI操作用の画像であるメニュー画像471を表示させる。指示検出部319は、メニュー画像471の表示位置と、通信部117が受信した指示情報に含まれる操作位置とに基づいて操作を検出する。このため、HMD100Aで位置指示操作を行うことにより、HMD100Bに対するGUI操作を行い、HMD100Bを制御できる。
[第3実施形態]
図11は、第3実施形態における表示システム1の動作を示すフローチャートである。図11(A)はHMD100Aの動作を示し、図11(B)はHMD100Bの動作を示す。
第3実施形態の表示システム1は、上記第1実施形態で説明した表示システム1と同様に構成されるため、表示システム1の各部の構成について図示及び説明を省略する。また、図11のフローチャートにおいて第1実施形態で説明した動作(図6)と共通する動作については、同一のステップ番号を付す。
第3実施形態では、HMD100Bのカメラ61で撮像した撮像画像を含む作業情報がHMD100Aに送信され、HMD100Aで表示される点は第1実施形態と同様である。第3実施形態では、HMD100Aの位置指示操作により、HMD100Bが撮像した撮像画像を編集し、編集した撮像画像をHMD100Bで表示できる。
図11(A)に示すHMD100Aの動作において、ステップS11〜S15は上記第1実施形態で説明した通りである。第3実施形態の表示システム1では、ステップS14においてコンテンツに対応する操作が行われ、この操作を操作検出部183が検出した後、さらに、表示中の撮像画像に対する操作を行うことができる(ステップS51)。操作検出部183は、撮像画像に対する操作を検出し(ステップS52)、ステップS15及びS52で検出された操作を撮像画像に対応付ける(ステップS53)。具体的には、操作検出部183は、ステップS15で検出した操作位置を、撮像画像に対する相対位置として示すデータを生成する。また、操作検出部183は、ステップS52で検出した操作により編集された撮像画像のデータを生成する。
続いて、送信画像取得部185が送信画像を取得し(ステップS54)、指示情報生成部186は、送信画像取得部185が取得した指示体の画像の画像データと、操作検出部183が生成したデータとを含む指示情報を生成して送信する(ステップS55)。送信画像取得部185が送信画像を取得する処理は、例えばステップS17と同様の処理である。
また、図11(B)に示すHMD100Bの動作は、上記第1実施形態で説明した通りである。すなわち、HMD100Bは、HMD100Aが送信する指示情報を受信し(ステップS24)、受信した指示情報を受信情報解析部317が解析して画像データを抽出する(ステップS25)。このステップS25では、HMD100Aにおいて編集された、HMD100Bの撮像画像データ、及び、指示体の画像データが抽出される。次いで、表示位置算出部321が画像を表示する位置を算出し(ステップS26)、表示情報生成部325が表示情報を生成して、画像処理部303及び表示制御部305により表示させる(ステップS27)。
この第3実施形態の表示システム1によれば、制御部140が、HMD100Bから受信した作業情報が撮像画像を含む場合に、この撮像画像を画像表示部20に表示させ、撮像画像の表示中に操作検出部183が検出する操作に基づいて撮像画像を編集する。そして、編集後の撮像画像を含む指示情報を生成してHMD100Bに送信する。HMD100Bは、編集された撮像画像を含む指示情報を受信して、編集された撮像画像を画像表示部20により表示する。
これにより、HMD100Bの視野にある作業対象物に対する操作を、指令者が仮想的に行った結果を、作業者に見せることができる。このため、作業対象物に対する作業に関して、作業者に、より多くの情報を提供できる。
また、第3実施形態では、HMD100Bが撮像した撮像画像をHMD100Aで編集する例を説明したが、例えば、HMD100BからHMD100Aに文書データや図面データを送信し、この文書データや図面データをHMD100Aで編集してもよい。この場合、編集後の文書データや図面データがHMD100Bに送信され、HMD100Bは、編集後の文書データや図面データに基づき表示を行う。これにより、文書の編集や図面作成・編集の作業に関して、指令者が編集を行って、作業者に対し、いわゆる手本を見せることができる。
[第4実施形態]
図12は、第4実施形態における表示システム1の動作を示すフローチャートである。図12(A)はHMD100Aの動作を示し、図12(B)はHMD100Bの動作を示す。
第4実施形態の表示システム1は、上記第1実施形態で説明した表示システム1と同様に構成されるため、表示システム1の各部の構成について図示及び説明を省略する。また、図12のフローチャートにおいて第1実施形態で説明した動作(図6)と共通する動作については、同一のステップ番号を付す。
第4実施形態では、HMD100Bのカメラ61で撮像する方向を、HMD100Aにより制御可能とする。このため、HMD100Aを装着する指令者の指示により、HMD100Bのカメラ61の撮像方向を制御できる。必要であれば、カメラ61の撮像方向を変更、調整するため、カメラ61の台座部分に、カメラ61の方向を変更可能なボールジョイントや回転機構を設け、カメラ61を動かすマニピュレーター等を設ければよい。このマニピュレーターは制御部300の制御により動作すればよく、撮像制御部313が制御を行う構成としてもよい。
図12(A)に示すHMD100Aの動作において、ステップS11〜S12は上記第1実施形態で説明した通りである。
第4実施形態の表示システム1では、HMD100Aで撮像画像を表示した後、撮像方向を指示する操作が可能である(ステップS71)。HMD100Aの制御部140は、操作検出部183で検出した操作に基づき撮像方向を指示する情報を生成して、通信部117で送信する(ステップS72)。
図12(B)に示すHMD100Bの動作において、ステップS21〜S23は上記第1実施形態で説明した通りである。
HMD100Bは、HMD100Aが送信する指示を受信し(ステップS81)、受信した指示に従って、操作検出部183がカメラ61の撮像方向を更新する(ステップS82)。その後、操作検出部183は、スタビライズ処理を開始する(ステップS82)。このスタビライズ処理では、作業者の動きによりHMD100Bの位置や方向が変化することで、カメラ61の撮像方向を安定させることが容易でない場合に、撮像画像を安定させる処理である。具体的には、カメラ61が、撮像素子やレンズをシフトさせる光学ブレ補正機能を有する場合には、操作検出部183はカメラ61のブレ補正機能により撮像画像の揺れを補正する。また、操作検出部183は、カメラ61の撮像画像データに対し、揺れを補正する画像処理を行ってもよい。
HMD100Aにおいて、指令者は、HMD100Bの撮像画像のキャプチャを指示する操作を行える。すなわち、HMD100Bが撮像した撮像画像データは、HMD100BからHMD100Aに常時送信する構成としてもよいが、消費電力量の削減やデータ通信量の削減のため、HMD100Bにおける作業者の指示に応じて、送信される。本実施形態では、HMD100Aを指令者が操作して、画像の送信を指示できる。制御部140は、指令者の操作を検出して、キャプチャの指示を生成してHMD100Bに送信する(ステップS73)。
HMD100Bにおいて、制御部300は、キャプチャの指示を受信し(ステップS84)、カメラ61による撮像を実行させる(ステップS85)。カメラ61が常時撮像を実行する構成である場合、制御部300は、ステップS85で撮像画像データを取得する。制御部300は、取得した撮像画像データを含む作業情報を生成して、HMD100Aに送信する(ステップS86)。ステップS86で送信する作業情報は、ステップS23で送信する情報と同じ情報であってもよいし、撮像画像データを含んでいれば、他の態様のデータであってもよい。
HMD100Aは、HMD100Bから送信される作業情報を受信して解析し(ステップS74)、HMD100Bで撮像した撮像画像を、画像表示部20により表示する(ステップS75)。
この第4実施形態の表示システム1によれば、HMD100Aによって、HMD100Bのカメラ61が撮像する撮像条件を指定し、HMD100Bが、指定された撮像条件に基づきカメラ61を制御する。このため、指令サイトAと作業サイトBとが遠隔地である場合に、HMD100Aを使用する指令者が見たい方向、場所を見ることができる。撮像条件は、例えば、HMD100Bの撮像方向を含む。撮像方向は、カメラ61の撮像範囲(画角)の中心軸の向く方向として定義できる。HMD100BがHMD100Aに送信する撮像画像データは、作業者の視点に追随しない撮像画像であり、指令者の指示により撮像方向を制御できる。このため、指令者は、HMD100Bの環境である作業サイトBに関し、所望の情報を得ることができ、作業支援、指示等を効率よく行える。また、撮像方向を実際に変更する制御はHMD100Bの制御部300が行うため、HMD100Aの負荷の増大、通信するデータ量の増大を回避できる。さらに、制御部300の制御によりスタビライズ処理を実行するので、作業者の動きに追従せず、揺れの少ない画像を、HMD100Aにおいて見ることができる。
第4の実施形態では、HMD100Bは、カメラ61の撮像画像そのものを送信する場合に限定されず、撮像画像から生成した情報をHMD100Aに送信してもよい。この場合、HMD100Aは、撮像画像を表示する処理の代わりに、撮像画像に基づきHMD100Bが生成した情報を、表示し、或いは音声により出力すればよい。
また、第4実施形態において、撮像条件として、ズーム倍率を指定してもよい。すなわち、撮像方向だけでなく、HMD100Bのカメラ61におけるズーム倍率を指定する指示を、HMD100Aが送信してもよい。ズーム倍率を制御することで、HMD100Bで撮像する倍率だけでなく、撮像範囲を調整できる。また、HMD100Aが撮像方向を指定する方法は、例えば、HMD100Bのカメラ61の撮像画像に写った特定の被写体、対象物が撮像画像に収まるように指定する方法を採用してもよい。この場合、制御部300が、撮像画像データを解析して、当該特定の被写体、対象物が撮像範囲に収まるように撮像方向やズーム倍率を制御すればよい。
また、ステップS72で送信される情報のように、HMD100Aが送信し、撮像条件を指定する情報は、指示情報に含めてもよい。この場合、制御部300は、指示情報を受信して解析する一連の処理において、図12(B)の動作を実行できる。
第4実施形態では、HMD100Bの制御部300が、カメラ61の撮像範囲(画角)の一部を切り出してHMD100Aに送信する構成としてもよい。この場合、制御部300は、HMD100Aの制御により撮像方向を変更する場合に、カメラ61の撮像画像から切り出す範囲を更新する。例えば、HMD100B、100Cのカメラ61を広角レンズで構成すれば、このような実施態様を容易に実現できる。
なお、本発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記実施形態では、HMD100A、100Bは、画像表示部20と制御装置10A、10Bとが分離され、接続部40を介して接続された構成として説明した。本発明はこれに限定されず、制御装置10A、10Bと画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、HMD100A、100Bは、少なくとも、表示を行う画像表示部20が、使用者(作業者、指令者)の頭部に装着される装置であればよく、制御装置10A、10Bの装着状態は限定されない。このため、制御装置10A、10Bとして、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10A、10Bとして、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10A、10Bが画像表示部20と分離して構成され、制御装置10A、10Bと画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有する構成としてもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導く部品であってもよく、ハーフミラー面を利用してもよい。
さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光板261、左導光板262に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4及び図5に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図4,図5に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10A内の記憶装置に記憶されてもよいし、制御部140が備えるROMに記憶してもよい。制御部300が実行するプログラムは、記憶部340または制御装置10B内の記憶装置に記憶されてもよいし、制御部300が備えるROMに記憶してもよい。さらに、制御部140が実行するプログラムを、HMD100Aに外部接続される記憶装置や記憶媒体に格納してもよい。制御部300が実行するプログラムも同様に、HMD100Bに外部接続される記憶装置や記憶媒体に格納してもよい。或いは、これらの記憶装置や記憶媒体から、プログラムを、記憶部120、340に取り込んで実行することも可能である。また、外部の装置に記憶されたプログラムを通信部117又はインターフェイス114を介して取得して実行する構成としてもよい。また、制御装置10A、10Bに形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図4に示す制御部140や図5に示す制御部300が、画像表示部20にも設けられた構成としてもよく、この場合、制御装置10A、10Bの制御部と画像表示部20の制御部とが機能を分担してもよい。
1…表示システム、2…指示体、3…無線アクセスポイント、10A、10B…制御装置、20…画像表示部(表示部、第1表示部、第2表示部)、40…接続部、47…メニュー画像、48…本体コード、61…カメラ(撮像部)、63…マイク、64…距離センサー、66…9軸センサー、68…視線センサー、100A…HMD(第2表示装置)、100B…HMD(表示装置、第1表示装置)、110…入力情報取得部、113…3軸センサー、114…インターフェイス、115…GPS、117…通信部(第1通信部、第2通信部)、120…記憶部、121…設定データ、122…検出用データ、123…メニュー画像データ、124…送信画像データ、125…指示コンテンツデータ、135…操作部、140…制御部(第2制御部)、160…画像処理部、170…表示制御部、181…通信制御部、182…受信情報処理部、183…操作検出部、184…操作時表示制御部、185…送信画像取得部、186…指示情報生成部、187…音声処理部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、261A…ハーフミラー、262…左導光板、262A…ハーフミラー、300…制御部(制御部、第1制御部)、303…画像処理部、305…表示制御部、311…通信制御部、313…撮像制御部、315…作業情報生成部、317…受信情報解析部、319…指示検出部、321…表示位置算出部、323…操作検出部、325…表示情報生成部、329…音声処理部、340…記憶部、341…設定データ、343…検出用データ、345…メニュー画像データ、A…指令サイト、B、C…作業サイト、LE…左眼、RE…右眼、L…画像光、OL…外光、VRA、VRB、VRB1、VRB2…視野。

Claims (11)

  1. 頭部装着型の第1表示装置及び第2表示装置を備え、
    前記第1表示装置は、
    外景を視認可能に画像を表示する第1表示部と、
    前記第1表示部で視認可能な外景の少なくとも一部を含む範囲を撮像する撮像部と、
    前記撮像部の撮像画像に基づき生成される案内対象情報を前記第2表示装置に送信し、前記第2表示装置から案内情報を受信する第1通信部と、
    前記第1通信部で受信した案内情報に基づく画像を前記第1表示部に表示させる第1制御部と、を備え、
    前記第2表示装置は、
    外景を視認可能に画像を表示する第2表示部と、
    前記第1表示装置から案内対象情報を受信し、前記第1表示装置に案内情報を送信する第2通信部と、
    前記第2通信部が受信した案内対象情報に基づき前記第2表示部に画像を表示させる表示制御部と、
    第2操作用画像を前記第2表示部により表示させ、位置指示操作を検出する操作検出部と、
    前記第2通信部が受信した案内対象情報に基づく画像の表示中に前記操作検出部が検出する位置指示操作の指示位置を示す情報と、前記操作検出部が検出する操作と前記第2通信部が受信した案内対象情報とを関連付ける情報と、前記第2表示部における第2操作用画像の表示位置を示す情報と、を含む案内情報を生成して、前記第2通信部で送信する第2制御部と、を備え
    前記第1表示装置の前記第1制御部は、前記第1通信部で受信した案内情報に含まれる第2操作用画像の表示位置に合わせて、前記第1表示部に第1操作用画像を表示させ、前記案内情報に含まれる指示位置を示す情報に基づいて前記第1表示部に指示体の画像を表示させ、前記第1表示部の指示体の画像の表示位置と前記第1操作用画像の表示位置とに基づいて、前記第1操作用画像を用いる操作を検出すること、
    を特徴とする表示システム。
  2. 前記第1表示装置が備える前記第1制御部は、前記第1表示部の指示体の画像の表示位置と前記第1操作用画像の表示位置とに基づいて、前記第1操作用画像を用いる操作を検出した場合に、検出した操作に対応付けられた動作実行すること、
    を特徴とする請求項記載の表示システム。
  3. 複数の前記第1表示装置を備え、
    前記第2表示装置の前記表示制御部は、前記第2通信部によって複数の前記第1表示装置から案内対象情報を受信した場合、受信した案内対象情報に基づく画像のそれぞれを前記第2表示部により表示させ、
    前記操作検出部は、複数の前記第1表示装置のうち、操作の対象となる前記第1表示装置から受信した案内対象情報に基づく画像とともに前記第2操作用画像を表示させ、
    前記第2制御部は、操作の対象となる前記第1表示装置に対して案内情報を送信すること、
    を特徴とする請求項1または2に記載の表示システム。
  4. 前記第1表示装置が備える前記第1制御部は、前記撮像部の撮像画像を含む案内対象情報を生成し、
    記第2制御部は、前記操作検出部が検出した位置指示操作の指示位置を、案内対象情報に含まれる撮像画像に対応付ける情報を含む案内情報を生成すること、
    を特徴とする請求項1または2に記載の表示システム。
  5. 前記第2表示装置が備える前記第2制御部は、前記操作検出部が検出した位置指示操作の指示位置に関する情報と、指示体の画像とを含む案内情報を生成し、
    前記第1表示装置が備える前記第1制御部は、前記第1表示部によって、前記第1通信部が受信した案内情報に含まれる指示位置に対応する位置に、前記案内情報に含まれる指示体の画像を表示させること、
    を特徴とする請求項記載の表示システム。
  6. 前記第2表示装置が備える前記第2制御部は、前記第2通信部が受信した案内対象情報が撮像画像を含む場合に、この撮像画像を前記第2表示部に表示させ、撮像画像の表示中に前記操作検出部が検出する操作に基づいて撮像画像を編集し、編集後の撮像画像を含む前記案内情報を生成すること、
    を特徴とする請求項1から5のいずれかに記載の表示システム。
  7. 前記第2表示装置は、前記第1表示装置が備える撮像部の撮像条件を指定する情報を前記第2通信部で送信し、
    前記第1表示装置の第1制御部は、前記第2表示装置から撮像条件を受信して、受信した撮像条件に基づき撮像部を制御し、前記撮像部の撮像画像に基づき生成される案内対象情報を前記第2表示装置に送信すること、
    を特徴とする請求項1から6のいずれかに記載の表示システム。
  8. 前記第2表示装置は、前記撮像条件として撮像方向及び/又はズーム倍率を指定する情報を前記第2通信部で送信し、
    前記第1表示装置の第1制御部は、前記第2表示装置から受信した撮像条件に基づき、前記撮像部の撮像方向及び/又はズーム倍率を制御すること、
    を特徴とする請求項7記載の表示システム。
  9. 前記第1表示装置は、前記第1表示部の動きを検出するセンサーを備え、
    前記第1制御部は、前記撮像部の撮像画像、及び、前記センサーの検出値を含む案内対象情報を生成し、
    前記第2表示装置が備える前記第2制御部は、前記第2通信部が受信した案内対象情報が撮像画像及び前記センサーの検出値を含む場合に、前記撮像画像を前記第2表示部に表示させ、前記センサーの検出値を前記撮像画像に重ねて表示させること、
    を特徴とする請求項1から8のいずれかに記載の表示システム。
  10. 記第2表示装置が備える前記第2制御部は、前記第2通信部が受信した案内対象情報に含まれる撮像画像の表示中に前記操作検出部が検出する操作の操作位置及び操作の軌跡の少なくともいずれかを表示中の撮像画像に対応付ける処理を行い、操作位置及び操作の軌跡の少なくともいずれかを示す情報と、操作位置及び操作の軌跡の少なくともいずれかを撮像画像と対応付ける情報とを含む前記案内情報を生成して送信すること、
    を特徴とする請求項6記載の表示システム。
  11. 外景を視認可能に画像を表示する第1表示部を備えた第1表示装置、及び、外景を視認可能に画像を表示する第2表示部を備えた第2表示装置を用いる情報表示方法であって、
    前記第1表示装置により、前記第1表示部で視認可能な外景の少なくとも一部を含む範囲を撮像し、撮像画像に基づき生成される案内対象情報を、前記第2表示装置に送信し、
    前記第2表示装置により、前記第1表示装置から案内対象情報を受信し、受信した案内対象情報に基づき前記第2表示部に画像を表示させ、第2操作用画像を前記第2表示部により表示させ、案内対象情報に基づく画像の表示中の位置指示操作を検出し、検出した操作を示す情報、前記第2表示部における第2操作用画像の表示位置を示す情報、および検出した操作と案内対象情報とを関連付ける情報を含む案内情報を生成して、第2通信部で送信し、
    前記第1表示装置により、前記第2表示装置が送信した案内情報を受信し、受信した案内情報に基づく画像を前記第1表示部に表示させ、受信した案内情報に含まれる第2操作用画像の表示位置に合わせて、前記第1表示部に第1操作用画像を表示させ、前記案内情報に含まれる指示位置を示す情報に基づいて前記第1表示部に指示体の画像を表示させ、前記第1表示部の指示体の画像の表示位置と前記第1操作用画像の表示位置とに基づいて、前記第1操作用画像を用いる操作を検出すること、
    を特徴とする情報表示方法。
JP2014263853A 2014-12-26 2014-12-26 表示システム、及び、情報表示方法 Active JP6387825B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014263853A JP6387825B2 (ja) 2014-12-26 2014-12-26 表示システム、及び、情報表示方法
US14/963,962 US10175923B2 (en) 2014-12-26 2015-12-09 Display system, display device, information display method, and program
US16/211,760 US10579320B2 (en) 2014-12-26 2018-12-06 Display system, display device, information display method, and program
US16/749,226 US11231897B2 (en) 2014-12-26 2020-01-22 Display system, display device, information display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014263853A JP6387825B2 (ja) 2014-12-26 2014-12-26 表示システム、及び、情報表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018153067A Division JP6590050B2 (ja) 2018-08-16 2018-08-16 表示装置、表示システム、表示装置の制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2016126365A JP2016126365A (ja) 2016-07-11
JP6387825B2 true JP6387825B2 (ja) 2018-09-12

Family

ID=56164235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014263853A Active JP6387825B2 (ja) 2014-12-26 2014-12-26 表示システム、及び、情報表示方法

Country Status (2)

Country Link
US (3) US10175923B2 (ja)
JP (1) JP6387825B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104195B2 (en) 2006-12-20 2015-08-11 Lincoln Global, Inc. Welding job sequencer
US10994358B2 (en) 2006-12-20 2021-05-04 Lincoln Global, Inc. System and method for creating or modifying a welding sequence based on non-real world weld data
US9937577B2 (en) 2006-12-20 2018-04-10 Lincoln Global, Inc. System for a welding sequencer
US9196169B2 (en) 2008-08-21 2015-11-24 Lincoln Global, Inc. Importing and analyzing external data using a virtual reality welding system
US9318026B2 (en) 2008-08-21 2016-04-19 Lincoln Global, Inc. Systems and methods providing an enhanced user experience in a real-time simulated virtual reality welding environment
US9280913B2 (en) 2009-07-10 2016-03-08 Lincoln Global, Inc. Systems and methods providing enhanced education and training in a virtual reality environment
US9773429B2 (en) 2009-07-08 2017-09-26 Lincoln Global, Inc. System and method for manual welder training
US10032388B2 (en) 2014-12-05 2018-07-24 Illinois Tool Works Inc. Augmented and mediated reality welding helmet systems
JP6492638B2 (ja) * 2014-12-25 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
US9972215B2 (en) * 2015-08-18 2018-05-15 Lincoln Global, Inc. Augmented reality interface for weld sequencing
JP6733401B2 (ja) * 2016-07-28 2020-07-29 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
US10133532B2 (en) 2015-09-25 2018-11-20 Seiko Epson Corporation Display system, display device, information display method, and program
KR20180017736A (ko) * 2016-08-10 2018-02-21 (주) 씽크브릿지 Hmd 및 그 hmd의 제어 방법
JP6867566B2 (ja) * 2016-10-21 2021-04-28 サン電子株式会社 画像表示装置及び画像表示システム
JP6434476B2 (ja) 2016-12-06 2018-12-05 ファナック株式会社 拡張現実シミュレーション装置及び拡張現実シミュレーションプログラム
JP6275891B1 (ja) * 2017-01-27 2018-02-07 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
CN110419075A (zh) 2017-02-15 2019-11-05 夏普株式会社 显示控制装置、显示控制装置的控制方法以及控制程序
US10779917B2 (en) * 2018-02-20 2020-09-22 Ivoclar Vivadent Ag Computer implemented method for modifying a digital three-dimensional model of a dentition
JP7226836B2 (ja) * 2018-11-06 2023-02-21 日本電気株式会社 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム
WO2020188721A1 (ja) * 2019-03-18 2020-09-24 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP6823688B2 (ja) * 2019-06-06 2021-02-03 株式会社ベルシステム24ホールディングス 複合現実技術を用いたカスタマーサポート支援装置及び装着型情報処理端末
US11611705B1 (en) * 2019-06-10 2023-03-21 Julian W. Chen Smart glasses with augmented reality capability for dentistry
US11372474B2 (en) * 2019-07-03 2022-06-28 Saec/Kinetic Vision, Inc. Systems and methods for virtual artificial intelligence development and testing
JP2021068145A (ja) 2019-10-23 2021-04-30 セイコーエプソン株式会社 頭部装着型表示装置の動作方法および頭部装着型表示装置
JP7310535B2 (ja) 2019-10-23 2023-07-19 セイコーエプソン株式会社 表示装置の制御方法および制御装置
WO2023203853A1 (ja) * 2022-04-20 2023-10-26 株式会社サンタ・プレゼンツ 遠隔体験システム
WO2024036364A1 (en) * 2022-08-14 2024-02-22 Artificial Intelligence Centre Of Excellence Pty Ltd Augmented reality systems, devices and methods

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128310A (ja) * 1995-11-06 1997-05-16 Hitachi Ltd 情報共有装置および情報共有方法
JP4288843B2 (ja) 2000-10-25 2009-07-01 沖電気工業株式会社 遠隔作業支援システム
JP2006260191A (ja) 2005-03-17 2006-09-28 Olympus Corp 遠隔指示システム
JP2007065944A (ja) 2005-08-31 2007-03-15 Hitachi Ltd 計算機情報の表示方法およびシステム
JP2007320715A (ja) 2006-05-31 2007-12-13 Seikatsu Kyodo Kumiai Coop Sapporo 作業関連情報提供システム、及び作業関連情報提供方法
JP2008113317A (ja) * 2006-10-31 2008-05-15 Konica Minolta Holdings Inc 遠隔作業支援システム
KR101304461B1 (ko) * 2006-12-04 2013-09-04 삼성전자주식회사 제스처 기반 사용자 인터페이스 방법 및 장치
JP2011109463A (ja) * 2009-11-18 2011-06-02 Konica Minolta Opto Inc 撮影装置および遠隔作業支援システム
JP5570410B2 (ja) 2010-12-27 2014-08-13 新日鉄住金ソリューションズ株式会社 輸送支援システム及び輸送支援方法
JP5960796B2 (ja) * 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
JP2013016020A (ja) 2011-07-04 2013-01-24 Nec Corp 作業支援システム、装置、方法及びプログラム
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
US8994672B2 (en) * 2012-04-09 2015-03-31 Sony Corporation Content transfer via skin input
JP2014149718A (ja) * 2013-02-01 2014-08-21 Nec Corp 撮影指示装置、撮影指示方法、及びプログラム
JP5770782B2 (ja) * 2013-05-23 2015-08-26 株式会社オプティム オペレータ端末、ユーザ端末、所要時間通知方法、及びオペレータ端末用プログラム

Also Published As

Publication number Publication date
US11231897B2 (en) 2022-01-25
US20190114134A1 (en) 2019-04-18
US20200159482A1 (en) 2020-05-21
US10175923B2 (en) 2019-01-08
US20160188277A1 (en) 2016-06-30
JP2016126365A (ja) 2016-07-11
US10579320B2 (en) 2020-03-03

Similar Documents

Publication Publication Date Title
US11231897B2 (en) Display system, display device, information display method, and program
US10642564B2 (en) Display system, display device, information display method, and program
JP6590050B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6693060B2 (ja) 表示システム、表示装置、表示装置の制御方法、及び、プログラム
US9898868B2 (en) Display device, method of controlling the same, and program
KR101773892B1 (ko) 표시 장치, 두부 장치형 표시 장치, 표시 시스템 및 표시 장치의 제어 방법
CN105739095B (zh) 显示装置以及显示装置的控制方法
CN110060614B (zh) 头部佩戴型显示装置及其控制方法、显示系统
US9870048B2 (en) Head-mounted display device, method of controlling the same, and computer program
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018142857A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016224086A (ja) 表示装置、表示装置の制御方法、及び、プログラム
US20160021360A1 (en) Display device, method of controlling display device, and program
JP2018182570A (ja) 視線情報共有方法および視線情報共有システム
JP2016122177A (ja) 表示装置、及び、表示装置の制御方法
JP2017134575A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2019534493A (ja) 拡張現実感のための装置および方法
JP6540426B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JP6252002B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6733401B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016033763A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2017182413A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2016116066A (ja) 表示装置、及び、表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180730

R150 Certificate of patent or registration of utility model

Ref document number: 6387825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150