JP2018085595A - Head-mounted display device and method for controlling the same - Google Patents

Head-mounted display device and method for controlling the same Download PDF

Info

Publication number
JP2018085595A
JP2018085595A JP2016226624A JP2016226624A JP2018085595A JP 2018085595 A JP2018085595 A JP 2018085595A JP 2016226624 A JP2016226624 A JP 2016226624A JP 2016226624 A JP2016226624 A JP 2016226624A JP 2018085595 A JP2018085595 A JP 2018085595A
Authority
JP
Japan
Prior art keywords
processing
unit
head
imaging
processing mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016226624A
Other languages
Japanese (ja)
Inventor
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016226624A priority Critical patent/JP2018085595A/en
Publication of JP2018085595A publication Critical patent/JP2018085595A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology that can appropriately adjust an amount of data to be processed depending on various scenes in a head-mounted display device.SOLUTION: A head-mounted display device comprises: an image display part that enables a user to visually recognize a virtual image; an image display control part that controls operation of the image display part; an outside scene imaging camera that picks up an image of an outside scene; and an imaging processing part that performs image processing on data of a picked-up image picked-up by the outside scene imaging camera to create processed image data, the imaging processing part settable to either one of a first processing mode or a second processing mode of processing a larger amount of data per unit time than the first processing mode. The imaging processing part includes an object determination part that determines whether or not a predetermined object is present in an image indicated by the processed image data; when the object determination part determines the object to be present, the imaging processing part switches a processing mode from the first processing mode to the second processing mode.SELECTED DRAWING: Figure 11

Description

本発明は、頭部装着型表示装置に関する。   The present invention relates to a head-mounted display device.

使用者の頭部に装着されて、使用者の眼前に位置する画像表示部に虚像を形成する頭部装着型表示装置が知られている(例えば、特許文献1)。また、現実環境にコンピューターを用いて情報を付加提示する拡張現実感(AR、Augmented Reality)と呼ばれる技術が知られている(例えば、特許文献1)。   A head-mounted display device that is mounted on a user's head and forms a virtual image on an image display unit positioned in front of the user's eyes is known (for example, Patent Document 1). In addition, a technique called augmented reality (AR) in which information is additionally presented using a computer in a real environment is known (for example, Patent Document 1).

特開2003−296757号公報JP 2003-296757 A

近年、頭部装着型表示装置は、外景を撮像するカメラを備える場合がある。カメラによって撮像した撮像画像データは、解析したり、画像表示部や外部の表示部に画像を表示したりするために、様々な処理が施される。様々な処理の一例としては、解像度変換処理や、明るさの調整(ガンマ補正)や、ノイズ除去処理や、2D/3D変換処理や、対象物を抽出するために対象物の背景を除去するための背景除去処理などが挙げられる。   In recent years, a head-mounted display device may include a camera that captures an outside scene. The captured image data captured by the camera is subjected to various processing in order to analyze it or display an image on an image display unit or an external display unit. Examples of various processes include resolution conversion processing, brightness adjustment (gamma correction), noise removal processing, 2D / 3D conversion processing, and removal of the background of an object to extract the object. And background removal processing.

しかしながら、様々なシーンにおいて、頭部装着型表示装置が撮像画像データを同じ条件下でデータ処理した場合、不必要にデータ処理量が高くなる場合がある。不必要にデータ処理量が高くなると、撮像画像データの処理時間が長くなったり、撮像画像データの処理のための消費電力が高くなったりする不具合が生じ得る。よって、様々なシーンに応じて、データ処理量を適切に調整できる技術が望まれている。   However, in various scenes, if the head-mounted display device processes captured image data under the same conditions, the data processing amount may be unnecessarily high. If the amount of data processing is unnecessarily high, there may be a problem that the processing time of the captured image data becomes long or the power consumption for processing the captured image data increases. Therefore, a technique that can appropriately adjust the data processing amount in accordance with various scenes is desired.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、虚像を使用者に視認させる画像表示部と、前記画像表示部の動作を制御する画像表示制御部と、外景を撮像する外景撮像用カメラと、前記外景撮像用カメラが撮像した撮像画像データを画像処理して処理画像データを生成する撮像処理部であって、前記撮像画像データを処理するための第1処理モードと、前記第1処理モードよりも単位時間当たりのデータ処理量の多い第2処理モードであって、前記撮像画像データを処理するための第2処理モードとのいずれかに設定可能な撮像処理部と、を備え、前記撮像処理部は、前記処理画像データが表す画像内に予め定めた対象物が存在するか否かを判別する対象物判別部を有し、前記撮像処理部は、前記対象物判別部によって前記対象物が存在すると判別された場合に、処理モードを前記第1処理モードから前記第2処理モードに切り換える。この形態によれば、対象物が存在すると判別された場合に第1処理モードから第2処理モードに切り換えることから、対象物が存在する場合と存在しない場合とでデータ処理量を適切に調整できる。 (1) According to one aspect of the present invention, a head-mounted display device is provided. The head-mounted display device includes an image display unit that allows a user to visually recognize a virtual image, an image display control unit that controls the operation of the image display unit, an outside scene imaging camera that captures an outside scene, and the outside scene imaging unit. An imaging processing unit that performs image processing on captured image data captured by a camera to generate processed image data, the first processing mode for processing the captured image data, and a unit time than the first processing mode A second processing mode with a large amount of data processing, and an imaging processing unit that can be set to any one of the second processing mode for processing the captured image data, the imaging processing unit, An object determining unit configured to determine whether or not a predetermined object exists in the image represented by the processed image data, and the imaging processing unit is determined by the object determining unit that the object exists; If Switches the processing mode from the first processing mode in the second processing mode. According to this aspect, since it is switched from the first processing mode to the second processing mode when it is determined that the object exists, the data processing amount can be appropriately adjusted depending on whether the object exists or not. .

(2)上記形態の頭部装着型表示装置であって、さらに、前記外景撮像用カメラの撮像領域のうちで一定の対象物検出領域において、前記対象物の候補となる物体の存在を検出するための物体検出部を備え、前記撮像処理部は、前記物体検出部によって前記物体が存在することが検出された場合に、前記第1処理モードを実行してもよい。この形態によれば、物体検出部によって物体が存在することが検出された場合に第1処理モードが実行されることで、外景撮像用カメラによる外景の撮像を不必要に行う可能性を低減できる。これにより、撮像処理部によるデータ処理の負荷を軽減できる。 (2) The head-mounted display device according to the above aspect, further detecting the presence of an object that is a candidate for the target in a certain target detection area in the imaging area of the outside scene imaging camera. The imaging processing unit may execute the first processing mode when the object detecting unit detects the presence of the object. According to this aspect, the first processing mode is executed when the object detection unit detects the presence of an object, thereby reducing the possibility of unnecessary imaging of the outside scene by the outside scene imaging camera. . Thereby, the data processing load by the imaging processing unit can be reduced.

(3)上記形態の頭部装着型表示装置であって、前記一定の対象物検出領域は、前記使用者が前記物体を視認できる範囲内であり、かつ、奥行き方向において前記使用者が水平に手を延ばしたときに前記使用者の手が届く範囲内であってもよい。この形態によれば、対象物検出領域が、物体を視認できる範囲内であり、かつ、手が届く範囲内であることで、使用者が対象物を容易に確認できる。 (3) In the head-mounted display device according to the above aspect, the certain object detection area is within a range where the user can visually recognize the object, and the user is level in the depth direction. It may be within the reach of the user's hand when reaching out. According to this aspect, the object can be easily confirmed by the user because the object detection area is within a range where the object can be visually recognized and within a reachable range.

(4)上記形態の頭部装着型表示装置であって、前記物体を視認できる範囲は、水平方向において、前記使用者の視線方向に対して一方の側が60度以下の範囲であり、他方の側が60度以下の範囲であり、垂直方向において、前記視線方向よりも上側が30度以下の範囲であり、前記視線方向よりも下側が40度以下の範囲であってもよい。この形態によれば、使用者が対象物をより容易に確認できる。 (4) In the head-mounted display device of the above aspect, the range in which the object can be visually recognized is a range in which one side is 60 degrees or less with respect to the user's line-of-sight direction in the horizontal direction. The side may be a range of 60 degrees or less, and in the vertical direction, the upper side of the line-of-sight direction may be a range of 30 degrees or less, and the lower side of the line-of-sight direction may be a range of 40 degrees or less. According to this form, the user can confirm the object more easily.

(5)上記形態の頭部装着型表示装置であって、さらに、前記使用者の頭部の動きを検出し、経時的に検出した前記頭部の動きに基づいて前記使用者の頭部の動き量を算出する頭部動き検出部と、前記使用者の視線方向を検出し、経時的に検出した前記視線方向に基づいて前記使用者の視線方向の変化量を算出する視線方向検出部と、を備え、前記撮像処理部は、処理モードが前記第1処理モードであるときに、前記動き量が第1閾値を超え、かつ、前記変化量が第2閾値を超えている場合は、前記対象物判別部の判別結果に拘わらず前記処理モードを前記第1処理モードに維持してもよい。この形態によれば、動き量が第1閾値を超え、かつ、変化量が第2閾値を超えている場合に、第1処理モードを維持できる。 (5) In the head-mounted display device according to the above aspect, the movement of the user's head is further detected, and the movement of the user's head is detected based on the movement of the head detected over time. A head movement detection unit that calculates a movement amount; a gaze direction detection unit that detects a gaze direction of the user and calculates a change amount of the gaze direction of the user based on the gaze direction detected over time; When the processing mode is the first processing mode, the imaging processing unit, when the amount of motion exceeds a first threshold and the amount of change exceeds a second threshold, The processing mode may be maintained in the first processing mode regardless of the determination result of the object determination unit. According to this aspect, the first processing mode can be maintained when the amount of motion exceeds the first threshold and the amount of change exceeds the second threshold.

(6)上記形態の頭部装着型表示装置であって、前記撮像処理部は、前記第1処理モードと前記第2処理モードとの少なくともいずれ一方のモードにおいて、第1のフレームを構成する前記処理画像データ内の前記対象物が位置する画素領域を含む一定画素領域を設定し、前記第1のフレームの次に撮像された第2のフレームを構成する前記撮像画像データに対して前記一定画素領域に対応する範囲のデータを抽出し、抽出したデータに対して画像処理を行ってもよい。この形態によれば、対象物を含まない領域のデータに対しては画像処理を行う必要がないので、撮像処理部によるデータ処理の負荷をさらに軽減できる。 (6) In the head-mounted display device according to the above aspect, the imaging processing unit configures the first frame in at least one of the first processing mode and the second processing mode. A fixed pixel region including a pixel region where the object is located in the processed image data is set, and the fixed pixel is set with respect to the captured image data constituting the second frame imaged next to the first frame. Data in a range corresponding to the region may be extracted, and image processing may be performed on the extracted data. According to this aspect, since it is not necessary to perform image processing on data in a region that does not include an object, the load of data processing by the imaging processing unit can be further reduced.

(7)上記形態の頭部装着型表示装置であって、前記撮像処理部は、さらに、前記第2処理モードにおいて、経時的に撮像された複数フレームの前記撮像画像データに基づいて前記対象物の動きを検出する対象物動き検出部を備え、前記画像表示制御部は、前記対象物動き検出部によって検出された前記対象物の動きに基づいて前記虚像の表示内容を変化させてもよい。この形態によれば、対象物の動きを検出する際には、単位時間当たりのデータ処理量の多い第2処理モードを実行しているので、対象物の動きを精度良く検出できると共に、対象物の動きに基づいた虚像の表示内容を精度良く変化させることができる。 (7) In the head-mounted display device according to the above aspect, the imaging processing unit may further include the object based on the captured image data of a plurality of frames captured over time in the second processing mode. An object motion detector that detects the movement of the object, and the image display controller may change the display content of the virtual image based on the motion of the object detected by the object motion detector. According to this aspect, when detecting the movement of the object, since the second processing mode with a large amount of data processing per unit time is executed, the movement of the object can be accurately detected, and the object is detected. The display content of the virtual image based on the movement of the image can be accurately changed.

(8)上記形態の頭部装着型表示装置であって、前記対象物は、使用者の手であってもよい。この形態によれば、使用者の手の動きに基づいて虚像の表示内容を変化できる。 (8) In the head mounted display device according to the above aspect, the object may be a user's hand. According to this form, the display content of the virtual image can be changed based on the movement of the user's hand.

(9)上記形態の頭部装着型表示装置であって、前記第1処理モードは、前記外景撮像用カメラによって第1フレームレートで前記外景を撮像させる第1撮像モードを含み、前記第2処理モードは、前記外景撮像用カメラによって前記第1フレームレートよりも高い第2フレームレートで前記外景を撮像させる第2撮像モードを含んでもよい。この形態によれば、外景撮像用カメラのフレームレートを変更することで、第1処理モードと第2処理モードとのいずれかの処理モードを設定できる。 (9) In the head mounted display device according to the above aspect, the first processing mode includes a first imaging mode in which the outside scene is captured at a first frame rate by the outside scene imaging camera, and the second processing is performed. The mode may include a second imaging mode in which the outside scene is imaged at a second frame rate higher than the first frame rate by the outside scene imaging camera. According to this aspect, it is possible to set one of the first processing mode and the second processing mode by changing the frame rate of the outside scene imaging camera.

(10)上記形態の頭部装着型表示装置であって、前記第1処理モードは、前記外景撮像用カメラによって第1解像度で前記外景を撮像させる第1解像度モードを含み、前記第2処理モードは、前記外景撮像用カメラによって前記第1解像度よりも高い第2解像度で前記外景を撮像させる第2解像度モードを含んでもよい。この形態によれば、外景撮像用カメラの解像度を変更することで、第1処理モードと第2処理モードとのいずれかの処理モードを設定できる。 (10) In the head-mounted display device according to the above aspect, the first processing mode includes a first resolution mode in which the outside scene is captured at a first resolution by the outside scene imaging camera, and the second processing mode May include a second resolution mode in which the outside scene is imaged at a second resolution higher than the first resolution by the outside scene imaging camera. According to this aspect, it is possible to set one of the first processing mode and the second processing mode by changing the resolution of the outside scene imaging camera.

(11)上記形態の頭部装着型表示装置であって、前記第1処理モードは、前記外景撮像用カメラが撮像した前記撮像画像データを構成する複数のフレームの一部の前記フレームを間引いて、間引いた後の前記撮像画像データを画像処理するモードを含み前記第2処理モードは、前記第1処理モードよりも多い前記フレームから構成される前記撮像画像データを画像処理するモードを含んでもよい。この形態によれば、画像処理する撮像画像データのフレーム数を変更することで、第1処理モードと第2処理モードとのいずれかの処理モードを設定できる。 (11) In the head-mounted display device according to the above aspect, in the first processing mode, a part of the plurality of frames constituting the captured image data captured by the outside scene imaging camera is thinned out. The second processing mode including a mode for performing image processing on the captured image data after thinning out may include a mode for performing image processing on the captured image data configured with more frames than in the first processing mode. . According to this aspect, it is possible to set one of the first processing mode and the second processing mode by changing the number of frames of captured image data to be subjected to image processing.

(12)本発明の他の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は、虚像を使用者に視認させる画像表示部と、前記画像表示部の動作を制御する画像表示制御部と、外景を撮像して撮像画像データを生成する外景撮像用カメラと、前記外景撮像用カメラの動作を制御する撮像処理部と、前記外景撮像用カメラの撮像領域のうちで一定の対象物検出領域に、物体の存在を検出するための物体検出部と、を備え、前記撮像処理部は、前記物体検出部によって前記物体が存在することが検出された場合に、前記外景撮像用カメラによって前記外景の撮像を開始させてもよい。この形態によれば、物体が存在することが検出された場合に外景撮像用カメラによって外景の撮像を開始させることで、対象物検出領域に物体が存在する場合と存在しない場合とでデータ処理量を適切に調整できる。 (12) According to another aspect of the present invention, a head-mounted display device is provided. The head-mounted display device includes an image display unit that allows a user to visually recognize a virtual image, an image display control unit that controls an operation of the image display unit, and an outside scene imaging unit that captures an outside scene and generates captured image data. A camera, an imaging processing unit that controls the operation of the outside scene imaging camera, an object detection unit for detecting the presence of an object in a certain target detection area among the imaging areas of the outside scene imaging camera, The imaging processing unit may start imaging the outside scene by the outside scene imaging camera when the object detecting unit detects that the object is present. According to this aspect, when the presence of an object is detected, the outside scene imaging camera starts imaging of the outside scene, so that the data processing amount depends on whether the object exists in the target object detection area or not. Can be adjusted appropriately.

(13)上記形態の頭部装着型表示装置であって、前記一定の対象物検出領域は、前記使用者が前記物体を視認できる範囲内であり、かつ、奥行き方向において前記使用者が水平に手を延ばしたときに前記使用者の手が届く範囲内であってもよい。この形態によれば、対象物検出領域が、物体を視認できる範囲内であり、かつ、手が届く範囲内であることで、使用者が対象物を容易に確認できる。 (13) In the head-mounted display device according to the above aspect, the certain target object detection area is within a range where the user can visually recognize the object, and the user is level in the depth direction. It may be within the reach of the user's hand when reaching out. According to this aspect, the object can be easily confirmed by the user because the object detection area is within a range where the object can be visually recognized and within a reachable range.

(14)上記形態の頭部装着型表示装置であって、前記物体を視認できる範囲は、水平方向において、前記使用者の視線方向に対して一方の側が60度以下の範囲であり、他方の側が60度以下の範囲であり、垂直方向において、前記視線方向よりも上側が30度以下の範囲であり、前記視線方向よりも下側が40度以下の範囲であってもよい。この形態によれば、使用者が対象物をより容易に確認できる。 (14) In the head-mounted display device according to the above aspect, the range in which the object can be visually recognized is a range in which one side is 60 degrees or less with respect to the user's line-of-sight direction in the horizontal direction. The side may be a range of 60 degrees or less, and in the vertical direction, the upper side of the line-of-sight direction may be a range of 30 degrees or less, and the lower side of the line-of-sight direction may be a range of 40 degrees or less. According to this form, the user can confirm the object more easily.

(15)上記形態の頭部装着型表示装置であって、前記撮像処理部は、前記外景の撮像を実行している際に、経時的に撮像された複数フレームの撮像画像データに基づいて前記対象物の動きを検出する対象物動き検出部を備え、前記画像表示制御部は、前記対象物動き検出部によって検出された前記対象物の動きに基づいて前記虚像の表示内容を変化させてもよい。この形態によれば、対象物の動きに基づいた虚像の表示内容を精度良く変化させることができる。 (15) In the head-mounted display device according to the above aspect, the imaging processing unit is configured to perform imaging based on a plurality of frames of captured image data captured over time when the outside scene is captured. An object motion detection unit for detecting the motion of the object, wherein the image display control unit may change the display content of the virtual image based on the motion of the object detected by the object motion detection unit. Good. According to this form, the display content of the virtual image based on the movement of the object can be changed with high accuracy.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置、頭部装着型表示装置の制御方法、頭部装着型表示装置を含む画像表示システム、これらの装置、方法、システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを配布するためのサーバー装置、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device, a head-mounted display device control method, an image display system including a head-mounted display device, and the like. The present invention can be realized in the form of a computer program for realizing the functions of the apparatus, method, and system, a server apparatus for distributing the computer program, a storage medium storing the computer program, and the like.

第1実施形態における頭部装着型表示装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus in 1st Embodiment. 使用者から見た画像表示部の要部構成を示す図である。It is a figure which shows the principal part structure of the image display part seen from the user. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. CPUの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of CPU functionally. 対象物検出領域を説明するための第1の図である。It is a 1st figure for demonstrating a target object detection area | region. 対象物検出領域を説明するための第2の図である。It is a 2nd figure for demonstrating a target object detection area | region. 記憶部について説明するための図である。It is a figure for demonstrating a memory | storage part. コンテンツ対応テーブルを説明するための図である。It is a figure for demonstrating a content corresponding table. 使用者に視認される視野の一例を示す第1の図である。It is a 1st figure which shows an example of the visual field visually recognized by the user. 使用者に視認される視野の一例を示す第2の図である。It is a 2nd figure which shows an example of the visual field visually recognized by the user. CPUが実行する処理フローである。It is the processing flow which CPU performs. CPUが実行する処理フローの他の例である。It is another example of the processing flow which CPU performs. HMDを備える表示システムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of a display system provided with HMD. 表示システムが用いられる一つのシーンを説明するための図である。It is a figure for demonstrating one scene where a display system is used. 使用者に視認される視野の一例を示す第1の図である。It is a 1st figure which shows an example of the visual field visually recognized by the user. 使用者に視認される視野の一例を示す第2の図である。It is a 2nd figure which shows an example of the visual field visually recognized by the user. 他の処理フローが実行される一つのシーンを示す図である。It is a figure which shows one scene in which another processing flow is performed. CPUが実行する他の処理フローである。It is another processing flow which CPU performs. 切出処理を説明するための図である。It is a figure for demonstrating a cutting-out process. 第3変形例におけるHMDの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of HMD in a 3rd modification. 第4変形例におけるHMDの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of HMD in a 4th modification. 第6変形例におけるHMDの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of HMD in a 6th modification.

A.第1実施形態:
図1は、本発明の第1実施形態における頭部装着型表示装置(HMD)100の概略構成を示す説明図である。図2は、使用者Psから見た画像表示部20の要部構成を示す図である。図3は、HMD100の構成を機能的に示すブロック図である。図4は、CPU140の構成を機能的に示すブロック図である。
A. First embodiment:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device (HMD) 100 according to the first embodiment of the present invention. FIG. 2 is a diagram illustrating a main configuration of the image display unit 20 as viewed from the user Ps. FIG. 3 is a block diagram functionally showing the configuration of the HMD 100. FIG. 4 is a block diagram functionally showing the configuration of the CPU 140.

HMD100(図1)は、使用者Psの頭部に装着された状態において使用者Psに虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。   HMD100 (FIG. 1) is provided with the image display part 20 which makes the user Ps visually recognize a virtual image in the state with which the user Ps was mounted | worn, and the control part (controller) 10 which controls the image display part 20. Yes.

画像表示部20は、使用者Psの頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者Psが画像表示部20を装着した際に使用者Psの右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者Psが画像表示部20を装着した際の使用者Psの眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is worn on the head of the user Ps, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, and a left optical image display unit 28. It is out. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user Ps when the user Ps wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user Ps when the user Ps wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者Psが画像表示部20を装着した際の使用者Psの側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者Psが画像表示部20を装着した際の使用者Psの側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者Psの頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER, which is the other end of the right optical image display unit 26, to a position corresponding to the temporal region of the user Ps when the user Ps wears the image display unit 20. It is a member provided. Similarly, the left holding unit 23 extends from the end EL that is the other end of the left optical image display unit 28 to a position corresponding to the temporal region of the user Ps when the user Ps wears the image display unit 20. It is a member provided by being stretched. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the head of the user Ps like a temple of glasses.

右表示駆動部22は、右保持部21の内側、換言すれば、使用者Psが画像表示部20を装着した際の使用者Psの頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を区別せず「保持部」として説明する。同様に、右表示駆動部22および左表示駆動部24を区別せず「表示駆動部」として説明し、右光学像表示部26および左光学像表示部28を区別せず「光学像表示部」として説明する。   The right display driving unit 22 is disposed inside the right holding unit 21, in other words, on the side facing the user Ps' head when the user Ps wears the image display unit 20. Further, the left display driving unit 24 is disposed inside the left holding unit 23. Hereinafter, the right holding unit 21 and the left holding unit 23 will be described as “holding units” without being distinguished from each other. Similarly, the right display drive unit 22 and the left display drive unit 24 are described as “display drive units” without being distinguished from each other, and the right optical image display unit 26 and the left optical image display unit 28 are not distinguished from each other as “optical image display units”. Will be described.

表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図3参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図3参照)と調光板とを含んでいる。導光板261、262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者Psの眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者Psの眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者Psの眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   The display driving unit includes a liquid crystal display (hereinafter referred to as “LCD”) 241, 242, projection optical systems 251, 252, and the like (see FIG. 3). Details of the configuration of the display driving unit will be described later. The optical image display unit as an optical member includes light guide plates 261 and 262 (see FIG. 3) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving unit to the eyes of the user Ps. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 (the side opposite to the eye side of the user Ps). The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. In addition, by adjusting the light transmittance of the light control plate, it is possible to adjust the external light quantity that enters the eyes of the user Ps and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

画像表示部20(図1)は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右表示駆動部22に接続され、左コード44は、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 (FIG. 1) further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 in which the main body cord 48 branches into two, and a connecting member 46 provided at the branch point. . The right cord 42 is connected to the right display driving unit 22, and the left cord 44 is connected to the left display driving unit 24. The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46と反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that fits to each other is provided on each end of the main body cord 48 on the opposite side of the connecting member 46 and the control section 10. The connector of the main body cord 48 and the connector of the control section 10 are provided. The control unit 10 and the image display unit 20 are connected to or disconnected from each other by the fitting / releasing. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。   The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes a lighting unit 12, a touch pad 14, a cross key 16, and a power switch 18. The lighting unit 12 notifies the operation state of the HMD 100 (for example, ON / OFF of the power supply) by its light emission mode. For example, an LED (Light Emitting Diode) can be used as the lighting unit 12. The touch pad 14 detects a contact operation on the operation surface of the touch pad 14 and outputs a signal corresponding to the detected content. As the touch pad 14, various touch pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The cross key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power state of the HMD 100 by detecting a slide operation of the switch.

制御部10(図3)は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51,52とを備え、各部は図示しないバスにより相互に接続されている。   The control unit 10 (FIG. 3) includes an input information acquisition unit 110, a storage unit 120, a power source 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, a transmission unit (Tx) 51, 52, and each part is connected to each other by a bus (not shown).

入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。   The input information acquisition unit 110 acquires a signal corresponding to an operation input to the touch pad 14, the cross key 16, the power switch 18, and the like, for example. The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like.

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば、リチウムポリマーバッテリー、リチウムイオンバッテリーなどの二次電池を用いることができる。さらに、二次電池に替えて、一次電池や燃料電池でもよいし、無線給電を受けて動作するようにしてもよい。さらには、太陽電池とキャパシターから給電を受けるようにしてもよい。無線通信部132は、無線LANやBluetooth(登録商標)、iBeacon(登録商標)といった所定の無線通信規格に則って、他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛星からの信号を受信することにより、自身の現在位置を検出する。   The power supply 130 supplies power to each part of the HMD 100. As the power source 130, for example, a secondary battery such as a lithium polymer battery or a lithium ion battery can be used. Further, instead of the secondary battery, a primary battery or a fuel cell may be used, or the wireless battery may be operated by receiving wireless power feeding. Furthermore, you may make it receive electric power supply from a solar cell and a capacitor. The wireless communication unit 132 performs wireless communication with other devices in accordance with a predetermined wireless communication standard such as a wireless LAN, Bluetooth (registered trademark), or iBeacon (registered trademark). The GPS module 134 detects its current position by receiving a signal from a GPS satellite.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer PC, a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板26と、左光学像表示部28としての左導光板28と、外景撮像用カメラ61と、9軸センサー66と、を備える。また、画像表示部20は、第1内側カメラ62と、第2内側カメラ64と、距離検出センサー68と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 26 as a right optical image display unit 26, a left light guide plate 28 as a left optical image display unit 28, and an outside scene imaging. Camera 61 and 9-axis sensor 66. The image display unit 20 includes a first inner camera 62, a second inner camera 64, and a distance detection sensor 68.

外景撮像用カメラ61(図1)は、使用者Psが画像表示部20を装着した際の使用者Psの眉間に対応する位置に配置されている。そのため、外景撮像用カメラ61は、使用者Psが画像表示部20を頭部に装着した状態において、使用者Psが向いている方向の外部の景色である外景を撮像する。外景撮像用カメラ61は、単眼カメラである。外景撮像用カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。なお、本実施形態では、外景撮像用カメラ61は、望遠機能を有し、望遠での撮影を行うことが可能となっている。望遠機能としては、光学ズーム、デジタルズームのいずれによるものであってもよい。さらに、外景撮像用カメラ61は、USB接続等の外付けのカメラであってもよい。   The outside scene imaging camera 61 (FIG. 1) is disposed at a position corresponding to the eyebrow of the user Ps when the user Ps wears the image display unit 20. Therefore, the outside scene imaging camera 61 captures an outside scene that is an external scene in the direction in which the user Ps is facing in a state where the user Ps wears the image display unit 20 on the head. The outside scene imaging camera 61 is a monocular camera. The outside scene imaging camera 61 is a digital camera including an imaging element such as a CCD or CMOS, an imaging lens, and the like. In the present embodiment, the outside scene imaging camera 61 has a telephoto function and can perform telephoto shooting. The telephoto function may be based on either optical zoom or digital zoom. Furthermore, the external scene imaging camera 61 may be an external camera such as a USB connection.

第1内側カメラ62(図2)および第2内側カメラ64(図2)は、外景撮像用カメラ61と同様に、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。第1内側カメラ62および第2内側カメラ64は、HMD100の内側方向、換言すれば、画像表示部20の装着状態における使用者Psと対向する方向を撮像する。第1内側カメラ62は使用者Psの右眼REを撮像するために用いられ、第2内側カメラ64は使用者Psの左眼LEを撮像するために用いられる。第1内側カメラ62の画角の広さは、使用者Psの右眼RE全体を撮像可能な範囲に設定されることが好ましい。また、第2内側カメラ64の画角の広さは、使用者Psの左眼LE全体を撮像可能な範囲に設定されることが好ましい。第1内側カメラ62および第2内側カメラ64は、外景撮像用カメラ61と同様に、制御部10(図3)の制御に従って撮像を実行し、得られた撮像画像データを制御部10へ出力する。   The first inner camera 62 (FIG. 2) and the second inner camera 64 (FIG. 2) are digital cameras including an imaging element such as a CCD or CMOS, an imaging lens, and the like, similar to the outside scene imaging camera 61. The first inner camera 62 and the second inner camera 64 image the inner direction of the HMD 100, in other words, the direction facing the user Ps when the image display unit 20 is worn. The first inner camera 62 is used to image the right eye RE of the user Ps, and the second inner camera 64 is used to image the left eye LE of the user Ps. The width of the angle of view of the first inner camera 62 is preferably set within a range where the entire right eye RE of the user Ps can be imaged. Moreover, it is preferable that the angle of view of the second inner camera 64 is set to a range in which the entire left eye LE of the user Ps can be imaged. The first inner camera 62 and the second inner camera 64 execute imaging in accordance with the control of the control unit 10 (FIG. 3), and output the obtained captured image data to the control unit 10, as with the outside scene imaging camera 61. .

図2に示す状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。使用者Psは、これらハーフミラー261、281を含む左右の導光板26、28の全体を透過して外景を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。   In the state shown in FIG. 2, the back sides of the right light guide plate 26 and the left light guide plate 28 can be visually recognized, and the half mirror 261 for irradiating the right eye RE with the image light and the left eye LE for irradiating the image light. The half mirror 281 can be visually recognized as a substantially rectangular area. The user Ps views the outside scene through the entire left and right light guide plates 26 and 28 including the half mirrors 261 and 281, and visually recognizes a rectangular display image at the position of the half mirrors 261 and 281.

距離検出センサー68(図1)は、前部フレーム27の中央付近に2つ設けられている。距離検出センサー68は、予め設定された測定領域に位置する測定対象物までの距離を検出するために用いられる。測定領域は、HMD100の表側領域(外景撮像用カメラ61の撮像領域と重複する領域)とすることができる。距離検出センサー68は、例えば、レーザー距離センサーであり、赤外領域の光(赤外線)を発光する発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。また、距離検出センサー68は、例えば、超音波センサーであり、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。距離検出センサー68は、検出結果を制御部10へ出力する。   Two distance detection sensors 68 (FIG. 1) are provided near the center of the front frame 27. The distance detection sensor 68 is used to detect a distance to a measurement object located in a preset measurement region. The measurement area can be a front area of the HMD 100 (an area overlapping with the imaging area of the outside scene imaging camera 61). The distance detection sensor 68 is, for example, a laser distance sensor, and includes a light emitting unit that emits light in the infrared region (infrared rays), and a light receiving unit that receives reflected light that is reflected from the light to be measured by the light source. Can be configured. In this case, the distance is obtained by triangular distance measurement processing or distance measurement processing based on a time difference. The distance detection sensor 68 is, for example, an ultrasonic sensor, and may be configured by a transmission unit that emits ultrasonic waves and a reception unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance is obtained by distance measurement processing based on the time difference. The distance detection sensor 68 outputs the detection result to the control unit 10.

9軸センサー66(図3)は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーであり、本実施形態では使用者Psの右側のこめかみに対応する位置に配置されている。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者Psの頭部に装着されているときには、CPU140によって使用者Psの頭部の動きを検出するために用いられる。検出された使用者Psの頭部の動きから画像表示部20の向きが特定される。   The 9-axis sensor 66 (FIG. 3) is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). In this embodiment, the position corresponds to the temple on the right side of the user Ps. Is arranged. Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is attached to the head of the user Ps, the CPU 140 detects the movement of the head of the user Ps. Used. The direction of the image display unit 20 is specified from the detected movement of the head of the user Ps.

右表示駆動部22(図3)は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 (FIG. 3) includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, and a right LCD control that functions as a display element. The unit 211 and the right LCD 241 and the right projection optical system 251 are included. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号と、垂直同期信号と、水平同期信号と、右眼用画像データとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光を、画像を表す有効な画像光へと変調する。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal, the vertical synchronization signal, the horizontal synchronization signal, and the right eye image data input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby converting the illumination light emitted from the right backlight 221 into an image. Modulate into effective image light to represent.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板26は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者Psの右眼REに導く。光学像表示部は、画像光を用いて使用者Psの眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いてもよいし、半透過反射膜を用いてもよい。なお、HMD100が画像光を出射することを、本明細書では「画像(または虚像)を表示する」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 26 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user Ps while reflecting the image light along a predetermined optical path. The optical image display unit can use any method as long as a virtual image is formed in front of the user Ps using image light. For example, a diffraction grating may be used, or a transflective film may be used. Also good. Note that the emission of image light by the HMD 100 is also referred to as “displaying an image (or virtual image)” in this specification.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。右LCD241と同様に、左LCD242は、マトリクス状に配置された各画素位置の液晶を駆動することによって、左LCD242を透過する光の透過率を変化させることにより、左バックライト222から照射される照明光を、画像を表す有効な画像光へと変調する。なお、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出してもよい。   The left display drive unit 24 has the same configuration as the right display drive unit 22. That is, the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, and a left LCD control unit 212 that functions as a display element. And a left LCD 242 and a left projection optical system 252. Similar to the right LCD 241, the left LCD 242 is irradiated from the left backlight 222 by changing the transmittance of light transmitted through the left LCD 242 by driving the liquid crystal at each pixel position arranged in a matrix. The illumination light is modulated into effective image light representing the image. In this embodiment, the backlight method is adopted, but image light may be emitted using a front light method or a reflection method.

CPU140(図4)は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)150、画像処理部160、画像表示制御部162、撮像処理部164、音声処理部170、物体検出部172、頭部動き検出部173、視線方向検出部176、として機能する。   The CPU 140 (FIG. 4) reads out and executes the computer program stored in the storage unit 120, thereby operating the operating system (OS) 150, the image processing unit 160, the image display control unit 162, the imaging processing unit 164, and the audio processing. Unit 170, object detection unit 172, head movement detection unit 173, and line-of-sight direction detection unit 176.

画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給することで、画像表示部20を制御する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データDataとを生成し、送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデータの画像データDataとして、1フレームごとに記憶部120内のDRAMに格納する。   The image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. Then, the image processing unit 160 controls the image display unit 20 by supplying the generated signal to the image display unit 20 via the connection unit 40. The signal supplied to the image display unit 20 differs between the analog format and the digital format. In the case of the analog format, the image processing unit 160 generates and transmits a clock signal PCLK, a vertical synchronization signal VSync, a horizontal synchronization signal HSync, and image data Data. Specifically, the image processing unit 160 acquires an image signal included in the content. For example, in the case of a moving image, the acquired image signal is an analog signal generally composed of 30 frame images per second. The image processing unit 160 separates a synchronization signal such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync from the acquired image signal, and generates a clock signal PCLK by a PLL circuit or the like according to the period. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like. The image processing unit 160 stores the converted digital image signal as image data Data of RGB data in the DRAM in the storage unit 120 for each frame.

一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データDataとを生成し、送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データDataに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。   On the other hand, in the case of the digital format, the image processing unit 160 generates and transmits the clock signal PCLK and the image data Data. Specifically, when the content is in digital format, the clock signal PCLK is output in synchronization with the image signal, so that the generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and the A / D conversion of the analog image signal are performed. It becomes unnecessary. The image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be executed.

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データData1」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data Data2”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

画像表示制御部162は、画像表示部20の動作を制御する。画像表示制御部162は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、画像表示制御部162は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。画像表示制御部162は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。同様に、画像表示制御部162は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。   The image display control unit 162 controls the operation of the image display unit 20. The image display control unit 162 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the image display control unit 162 uses the control signal to drive ON / OFF of the right LCD 241 by the right LCD control unit 211, drive ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD. By individually controlling the ON / OFF of the left LCD 242 by the control unit 212 and the ON / OFF of the left backlight 222 by the left backlight control unit 202, the right display driving unit 22 and the left display driving unit 24 are controlled. Each controls the generation and emission of image light. The image display control unit 162 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. Similarly, the image display control unit 162 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

また、画像表示制御部162は、後述する撮像処理部164によって生成された処理画像データ中の予め定められた対象物の動きに基づいて虚像(画像)の表示内容を変化させる。対象物は、表示内容を変化させるトリガーとなる物体であればよく、例えば、使用者Psの手やペンなどが挙げられる。画像表示制御部162によって実行される表示内容の変化についての具体例は後述する。   Further, the image display control unit 162 changes the display content of the virtual image (image) based on a predetermined movement of the object in the processed image data generated by the imaging processing unit 164 described later. The target object may be an object serving as a trigger for changing the display content, and examples thereof include the hand of the user Ps and a pen. A specific example of the display content change executed by the image display control unit 162 will be described later.

撮像処理部164は、外景撮像用カメラ61が撮像した撮像画像データを画像処理して、処理画像データを生成する。具体的には、撮像処理部164は、撮像画像データを虚像として表示するための表示画像処理や、撮像画像データから対象物を抽出するための対象物抽出処理が挙げられる。表示画像処理としては、例えば、ガンマ補正、輝度補正、コントラスト補正、ノイズ除去、輪郭強調等が挙げられる。また、対象物抽出処理としては、対象物の背景を除去する処理や対象物の輪郭を抽出する処理が挙げられる。   The imaging processing unit 164 performs image processing on the captured image data captured by the outside scene imaging camera 61 to generate processed image data. Specifically, the imaging processing unit 164 includes display image processing for displaying captured image data as a virtual image, and object extraction processing for extracting an object from the captured image data. Examples of display image processing include gamma correction, luminance correction, contrast correction, noise removal, and contour enhancement. Examples of the object extraction process include a process for removing the background of the object and a process for extracting the outline of the object.

撮像処理部164は、撮像画像データを処理するための第1処理モードM1と、撮像画像データを処理するための第2処理モードM2であって、第1処理モードM1とは処理するデータ容量が異なる第2処理モードM2とのいずれかに設定可能である。第2処理モードM2は、第1処理モードM1よりも単位時間当たりのデータ処理量が多い。本実施形態では、第1処理モードM1は、外景撮像用カメラ61によって第1フレームレートで外景を撮像させるモード(第1撮像モード)である。また本実施形態では、第2処理モードM2は、外景撮像用カメラ61によって第1フレームレートよりも高い第2フレームレートで外景を撮像させるモード(第2撮像モード)である。第1フレームレートは、処理画像データ中に存在する物体を表すデータが、予め定めた対象物を表す対象物データであることを後述する対象物判別部166が判別できる程度のフレームレートであればよい。第1フレームレートは、例えば、1fps以上10fps以下の範囲においていずれかの値に設定される。第2フレームレートは、経時的に並んだ複数のフレームごとの処理画像データに基づいて、対象物の動きを追跡できる程度のフレームレートであればよい。第2フレームレートは、例えば、30fps以上の値に設定される。なお、第2フレームレートは、CPU140の負荷が過大になる可能性を低減するために、120fps以下であってもよい。   The imaging processing unit 164 has a first processing mode M1 for processing captured image data and a second processing mode M2 for processing captured image data, and the first processing mode M1 has a data capacity to process. It can be set to any one of different second processing modes M2. The second processing mode M2 has a larger data processing amount per unit time than the first processing mode M1. In the present embodiment, the first processing mode M1 is a mode (first imaging mode) in which an outside scene is captured by the outside scene imaging camera 61 at the first frame rate. In the present embodiment, the second processing mode M2 is a mode (second imaging mode) in which the outside scene imaging camera 61 images the outside scene at a second frame rate higher than the first frame rate. The first frame rate is a frame rate that allows an object determination unit 166 described later to determine that data representing an object present in the processed image data is object data representing a predetermined object. Good. For example, the first frame rate is set to any value in the range of 1 fps to 10 fps. The second frame rate may be a frame rate that can track the movement of the object based on the processed image data for each of a plurality of frames arranged with time. For example, the second frame rate is set to a value of 30 fps or more. The second frame rate may be 120 fps or less in order to reduce the possibility that the load on the CPU 140 becomes excessive.

撮像処理部164は、対象物判別部166を有する。対象物判別部166は、処理画像データが表す画像内に予め定めた対象物が存在するか否かを判別する。対象物判別部166は、対象物抽出処理が行われた処理画像データと、後述する対象物データ129とをパターンマッチングや統計的識別法による比較を行うことで、処理画像データが表す画像内に対象物が存在するか否かを判別する。つまり、処理画像データが表す画像内に対象物が存在する場合には、外景撮像用カメラ61が撮像した撮像領域内に対象物が存在すると判別し、処理画像データ中に対象物が存在しない場合には、外景撮像用カメラ61が撮像した撮像領域内に対象物が存在しないと判別する。撮像処理部164が、第1処理モードM1を実行中において、対象物判別部166によって対象物が撮像領域内に存在すると判別された場合、撮像処理部164は処理モードを第1処理モードM1から第2処理モードM2に切り換えて実行する。   The imaging processing unit 164 includes an object determination unit 166. The object determination unit 166 determines whether or not a predetermined object exists in the image represented by the processed image data. The object discriminating unit 166 compares the processed image data on which the object extraction process has been performed with the object data 129 described later by pattern matching or a statistical identification method, so that the image represented by the processed image data is included. It is determined whether or not an object exists. That is, when the target object is present in the image represented by the processed image data, it is determined that the target object is present in the imaging region captured by the outside scene imaging camera 61, and the target object is not present in the processed image data. Is determined that there is no object in the imaging area imaged by the outside scene imaging camera 61. When the imaging processing unit 164 is executing the first processing mode M1, when the target determination unit 166 determines that the target is present in the imaging region, the imaging processing unit 164 changes the processing mode from the first processing mode M1. The operation is switched to the second processing mode M2.

撮像処理部164は、対象物動き検出部178を有する。対象物動き検出部178は、外景撮像用カメラ61によって経時的に撮像された複数フレームの撮像画像データに基づいて対象物の動きを検出する。具体的には、複数フレームの撮像画像データから対象物を抽出した処理画像データを生成し、処理画像データ内における対象物の位置の変化によって対象物の動きを検出する。   The imaging processing unit 164 includes an object motion detection unit 178. The target object motion detection unit 178 detects the motion of the target object based on the captured image data of a plurality of frames captured over time by the outside scene image capturing camera 61. Specifically, processed image data obtained by extracting an object from captured image data of a plurality of frames is generated, and the movement of the object is detected by a change in the position of the object in the processed image data.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and transmits the acquired audio signal to a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. To supply. For example, when a Dolby (registered trademark) system is adopted, processing is performed on an audio signal, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, respectively.

物体検出部172は、距離検出センサー68から検出データ(距離情報)を取得し、検出結果に基づいて、外景撮像用カメラ61の撮像領域のうちで一定の対象物検出領域において対象物の候補となる物体の存在を検出する。具体的には、物体の距離情報が、対象物検出領域内に位置する場合には、対象物検出領域に物体が位置することを検出する。対象物検出領域は、撮像領域と同じ領域であってもよいし、撮像領域の内側であって撮像領域よりも狭い領域であってもよい。対象物検出領域は、使用者Psが右導光板26および左導光板28を透過して視認する実際の視野のうち色が弁別できる範囲に設定することが好ましい。この対象物検出領域の詳細は後述する。   The object detection unit 172 obtains detection data (distance information) from the distance detection sensor 68, and based on the detection result, the object detection unit 172 detects object candidates in a certain object detection area in the imaging area of the outside scene imaging camera 61. The presence of an object is detected. Specifically, when the distance information of the object is located within the object detection area, it is detected that the object is located in the object detection area. The object detection area may be the same area as the imaging area, or may be an area inside the imaging area and narrower than the imaging area. The object detection area is preferably set in a range in which the color can be discriminated in the actual visual field that the user Ps visually recognizes through the right light guide plate 26 and the left light guide plate 28. Details of the object detection area will be described later.

頭部動き検出部173は、使用者Psの頭部の動きを検出する。具体的には、9軸センサー66から取得した検出データに基づいて使用者Psの頭部の動きを検出する。また、頭部動き検出部173は、経時的に検出した使用者Psの頭部の動きに基づいて、使用者Psの頭部の動き量(例えば、一定時間に移動した動部の移動量)を算出する。動き量は、例えば、一定時間に変化した回転角の合計であってもよいし、一定時間に変化した水平方向および垂直方向の移動量であってもよいし、回転角の合計と移動量とを組み合わせて用いてもよい。   The head movement detection unit 173 detects the movement of the head of the user Ps. Specifically, the movement of the head of the user Ps is detected based on the detection data acquired from the 9-axis sensor 66. Further, the head movement detection unit 173 moves the amount of movement of the head of the user Ps based on the movement of the head of the user Ps detected over time (for example, the amount of movement of the moving unit that has moved for a certain time). Is calculated. The amount of movement may be, for example, the sum of the rotation angles that have changed over a certain period of time, the amount of movement in the horizontal direction and the vertical direction that has changed over a period of time, or the sum of the rotation angles and the amount of movement. May be used in combination.

視線方向検出部176は、使用者Psの視線方向を検出する。具体的には、第1内側カメラ62によって撮像された使用者Psの右眼REの画像と、第2内側カメラ64によって撮像された使用者Psの左眼LEの画像から、両眼RE,LEの黒目の向きを検出する。そして、視線方向検出部176は、検出した黒目の向きから使用者Psの視線方向を推定する。視線方向は、右眼と左眼との中間点から使用者Psが注視している注視点に向かう方向であるともいえる。また、視線方向検出部176は、経時的に推定した視線方向に基づいて使用者Psの視線方向の変化量(例えば、一定時間に変化した視線方向の変化量)を算出する。変化量は、例えば、一定時間における視線方向の角度変化量の合計であってもよい。   The gaze direction detection unit 176 detects the gaze direction of the user Ps. Specifically, from the image of the right eye RE of the user Ps imaged by the first inner camera 62 and the image of the left eye LE of the user Ps imaged by the second inner camera 64, both eyes RE, LE Detect the direction of black eyes. Then, the gaze direction detection unit 176 estimates the gaze direction of the user Ps from the detected direction of the black eye. It can be said that the line-of-sight direction is a direction from an intermediate point between the right eye and the left eye toward the gazing point that the user Ps is gazing at. Further, the line-of-sight direction detection unit 176 calculates the amount of change in the line-of-sight direction of the user Ps based on the line-of-sight direction estimated over time (for example, the amount of change in the line-of-sight direction that has changed over time). The amount of change may be, for example, the total amount of angle change in the line-of-sight direction over a fixed time.

図5は、対象物検出領域を説明するための第1の図である。図6は、対象物検出領域を説明するための第2の図である。図5および図6を用いて対象物検出領域の好ましい範囲について説明する。対象物検出領域は、使用者Psが物体を視認できる範囲Rx,Rzに設定することが好ましい。物体を視認できる範囲Rx,Rzとしては、以下の範囲(a)〜(d)のいずれかに設定してもよい。
(a)色が弁別できる範囲:
色、輝度が変化する場合の色を弁別できる範囲Rxa,Rza。
(b)誘導視野の範囲:
視覚情報による座標系誘導効果が生じ、臨場感を引き起こす範囲Rxb,Rzb。
(c)安定注視野の範囲:
眼球・頭部運動で無理なく物体を注視でき、効果的な情報受容ができる範囲Rxc、Rzc。
(d)有効視野の範囲:
眼球運動だけで瞬時に情報受容できる範囲Rxd,Rzd。
FIG. 5 is a first diagram for explaining the object detection area. FIG. 6 is a second diagram for explaining the object detection area. A preferable range of the object detection area will be described with reference to FIGS. 5 and 6. The target object detection area is preferably set in the ranges Rx and Rz where the user Ps can visually recognize the object. The ranges Rx and Rz in which the object can be visually recognized may be set in any of the following ranges (a) to (d).
(A) Range in which color can be distinguished:
Ranges Rxa and Rza that can discriminate colors when the color and brightness change.
(B) Guidance field range:
Ranges Rxb and Rzb that cause a coordinate system induction effect by visual information and cause realism.
(C) Range of stable focus field:
Ranges Rxc and Rzc that allow the user to gaze at the object comfortably with eyeball and head movements and to receive information effectively.
(D) Effective visual field range:
Ranges Rxd, Rzd where information can be received instantly only by eye movement.

色が弁別できる範囲のうち水平方向の範囲Rxaは、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して一方の側が60度以下の範囲であり、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して他方の側が60度以下の範囲である。つまり、対象物検出領域は、水平方向の角度が120度以下の範囲であってもよい。また、図6に示すように、色が弁別できる範囲のうち垂直方向の範囲Rzaは、視線方向EDよりも上側が30度以下の範囲であり、かつ、視線方向EDよりも下側が40度以下の範囲である。   The horizontal range Rxa among the ranges in which the colors can be distinguished is a range of 60 degrees or less on one side with respect to the line-of-sight direction ED (straight line-of-sight direction ED) and the line-of-sight direction ED ( The other side is in a range of 60 degrees or less with respect to the straight line-of-sight direction (ED). That is, the target object detection area may have a horizontal angle of 120 degrees or less. Further, as shown in FIG. 6, the range Rza in the vertical direction among the ranges in which the color can be distinguished is a range of 30 degrees or less above the line-of-sight direction ED and 40 degrees or less below the line-of-sight direction ED. Range.

誘導視野の範囲のうち水平方向の範囲Rxbは、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して一方の側が50度以下の範囲であり、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して他方の側が50度以下の範囲である。つまり、対象物検出領域は、水平方向の角度が100度以下の範囲であってもよい。また、図6に示すように、誘導視野の範囲のうち垂直方向の範囲Rzbは、視線方向EDよりも上側が35度以下の範囲であり、かつ、視線方向EDよりも下側が50度以下の範囲である。   The range Rxb in the horizontal direction in the range of the guidance visual field is a range of 50 degrees or less on one side with respect to the line-of-sight direction ED (straight line-of-sight direction ED), and the line-of-sight direction ED (straight) The other side is within a range of 50 degrees or less with respect to the line-of-sight direction ED). That is, the object detection area may be in a range where the horizontal angle is 100 degrees or less. Further, as shown in FIG. 6, the vertical range Rzb of the guidance visual field range is a range of 35 degrees or less above the line-of-sight direction ED and 50 degrees or less below the line-of-sight direction ED. It is a range.

安定注視野の範囲のうち水平方向の範囲Rxcは、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して一方の側が45度以下の範囲であり、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して他方の側が45度以下の範囲である。つまり、対象物検出領域は、水平方向の角度が90度以下の範囲であってもよい。また、図6に示すように、安定注視野の範囲のうち垂直方向の範囲Rzcは、視線方向EDよりも上側が30度以下の範囲であり、かつ、視線方向EDよりも下側が40度以下の範囲である。   The horizontal range Rxc of the stable gazing range is a range of 45 degrees or less on one side with respect to the line-of-sight direction ED (straight line-of-sight direction ED), and the line-of-sight direction ED ( The other side is in a range of 45 degrees or less with respect to the straight line-of-sight direction (ED). That is, the object detection area may be in a range where the horizontal angle is 90 degrees or less. Further, as shown in FIG. 6, the range Rzc in the vertical direction of the range of the stable gaze field is a range of 30 degrees or less above the line-of-sight direction ED and 40 degrees or less below the line-of-sight direction ED. Range.

有効視野の範囲のうち水平方向の範囲Rxdは、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して一方の側が15度以下の範囲であり、正面を向いた視線方向ED(まっすぐな視線方向ED)に対して他方の側が15度以下の範囲である。つまり、対象物検出領域は、水平方向の角度が30度以下の範囲であってもよい。また、図6に示すように、有効視野の範囲のうち垂直方向の範囲Rzdは、視線方向EDよりも上側が8度以下の範囲であり、かつ、視線方向EDよりも下側が12度以下の範囲である。   Of the effective visual field range, the horizontal range Rxd is a range of 15 degrees or less on one side with respect to the line-of-sight direction ED (straight line-of-sight direction ED), and the line-of-sight direction ED (straight) The other side with respect to the line-of-sight direction ED) is within a range of 15 degrees or less. That is, the target object detection area may be in a range where the horizontal angle is 30 degrees or less. Further, as shown in FIG. 6, the vertical range Rzd of the effective visual field range is a range of 8 degrees or less above the line-of-sight direction ED and 12 degrees or less below the line-of-sight direction ED. It is a range.

また、対象物検出領域は、奥行き方向において、使用者Psが正面側に水平に手を延ばしたときに、右眼REと左眼LEとの中間点CEから使用者Psの手の先端までの範囲Ryに設定することが好ましい。範囲Ryは、例えば1メートル以内である。つまり、対象物検出領域は、使用者が物体を視認できる角度(角度Rx、Rz)の範囲内であり、かつ、奥行き方向において使用者Psが水平に手を延ばしたときに使用者Psの手が届く範囲内であることが好ましい。対象物検出領域が使用者が物体を視認できる範囲内であり、かつ、手が届く範囲内であることで、使用者Psが対象物を容易に確認できる。特に、対象物が使用者Psの手である場合、対象物検出領域の奥行き方向が手の届く範囲内であることで、手以外の他の物体が対象物検出領域に位置する状況を低減できるので、対象物の検出精度を向上できる。   Further, the object detection area is a region from the intermediate point CE between the right eye RE and the left eye LE to the tip of the user Ps hand when the user Ps extends his hand horizontally in the depth direction. It is preferable to set the range Ry. The range Ry is within 1 meter, for example. That is, the target object detection area is within the range of angles (angles Rx, Rz) at which the user can visually recognize the object, and when the user Ps extends his hand horizontally in the depth direction, It is preferable that the value is within a range that can be reached. The user Ps can easily confirm the target object because the target object detection region is within a range where the user can visually recognize the object and within a range where the hand can reach. In particular, when the object is the hand of the user Ps, the depth direction of the object detection area is within the reach of the hand, so that the situation where objects other than the hand are located in the object detection area can be reduced. Therefore, the detection accuracy of the object can be improved.

図7は、記憶部120について説明するための図である。記憶部120は、CPU140における処理に供する種々のデータが記憶されている。例えば、記憶部120には、コンテンツデータ122と、コンテンツ対応テーブル124と、閾値データ126と、対象物データ129とが記憶されている。   FIG. 7 is a diagram for explaining the storage unit 120. The storage unit 120 stores various data used for processing in the CPU 140. For example, the storage unit 120 stores content data 122, a content correspondence table 124, threshold data 126, and object data 129.

コンテンツデータ122は、制御部10の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータ(画像データ、映像データ、音声データ等)が含まれている。なお、コンテンツデータ122には、双方向型のコンテンツのデータが含まれてもよい。双方向型のコンテンツとは、制御部10によって使用者Psの操作を取得して、取得した操作内容に応じた処理を制御部10が実行し、処理内容に応じたコンテンツを画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデータには、使用者Psの操作を取得するためのメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理を定めるデータ等を含みうる。   The content data 122 includes content data (image data, video data, audio data, etc.) including images and videos displayed by the image display unit 20 under the control of the control unit 10. The content data 122 may include interactive content data. The interactive content is the operation of the user Ps acquired by the control unit 10, the control unit 10 executes processing according to the acquired operation content, and the content according to the processing content is stored in the image display unit 20. Means the type of content to display. In this case, the content data may include image data of a menu screen for acquiring the operation of the user Ps, data for defining a process corresponding to an item included in the menu screen, and the like.

コンテンツ対応テーブル124は、予め定められた対象物の動きと、予め定められた対象物の動きに応じて画像表示部20に表示するコンテンツとが対応付けられている。本実施形態では、予め定められた対象物の動きは使用者Psの手の動きであり、具体的にはジェスチャーの変化(手の形状の変化)である。なお、予め定められた対象物の動きは、上記に限定されるものではなく、画像表示部20の表示内容を変化させるトリガーとなる動きであればよい。例えば、予め定められた対象物の動きは、使用者Psの手の形状変化を伴わない移動(手を右から左に移動させること等)や、ペンの移動(ペンの速度や、ペンの移動方向)などであってもよい。コンテンツ対応テーブル124と、コンテンツ対応テーブル124を参照して実行される画像表示部20の表示内容の変化については後述する。   In the content correspondence table 124, the movement of the predetermined object is associated with the content displayed on the image display unit 20 in accordance with the movement of the predetermined object. In the present embodiment, the predetermined movement of the object is the movement of the hand of the user Ps, and specifically, a gesture change (change in the shape of the hand). Note that the predetermined movement of the object is not limited to the above, and any movement that serves as a trigger for changing the display content of the image display unit 20 may be used. For example, the movement of a predetermined object may be a movement without changing the shape of the hand of the user Ps (such as moving the hand from right to left) or a pen movement (pen speed or pen movement). Direction). The content correspondence table 124 and changes in the display content of the image display unit 20 executed with reference to the content correspondence table 124 will be described later.

閾値データ126は、撮像処理部164のモードを変更するか否かを決定するための第1閾値127および第2閾値128を有する。   The threshold data 126 includes a first threshold 127 and a second threshold 128 for determining whether to change the mode of the imaging processing unit 164.

第1閾値127は、頭部動き検出部173によって検出された使用者Psの頭部の動き量の基準値である。第1閾値127は、使用者Psが意図して頭部を動かしているか否かを判定するための基準値であり、基準値を超えた場合に使用者Psが意図して頭部を動かしていることを推定できる値に設定することが好ましい。第1閾値127は、例えば、一定時間(例えば、0.5秒間)における回転角を指標とする場合には20度以上に設定されてもよい。また第1閾値127は、一定時間(例えば、0.5秒間)における頭部の移動量を指標とする場合は、10cm〜30cmのいずれかの値に設定されてもよい。   The first threshold 127 is a reference value of the amount of movement of the head of the user Ps detected by the head movement detection unit 173. The first threshold value 127 is a reference value for determining whether or not the user Ps is intentionally moving the head. When the reference value is exceeded, the user Ps intentionally moves the head. It is preferable to set to a value that can be estimated. For example, the first threshold 127 may be set to 20 degrees or more when the rotation angle in a certain time (for example, 0.5 seconds) is used as an index. The first threshold 127 may be set to any value between 10 cm and 30 cm when the amount of movement of the head in a certain time (for example, 0.5 seconds) is used as an index.

第2閾値128は、視線方向検出部176によって検出された角度変化量の基準値である。第2閾値128は、使用者Psが意図して注目している注目物体から視線を移動させたか否かを判定するための基準値であり、基準値を超えた場合に使用者Psが意図して視線方向を変化させていることを推定できる値に設定することが好ましい。第2閾値128は、一定時間(例えば、0.5秒間)における視線方向の角度変化量であり、例えば、角度変化量は20度以上の値が設定されてもよい。   The second threshold 128 is a reference value for the amount of change in angle detected by the line-of-sight direction detection unit 176. The second threshold value 128 is a reference value for determining whether or not the line of sight has been moved from the target object that the user Ps is paying attention to. The second threshold value 128 is intended by the user Ps when the reference value is exceeded. It is preferable to set the value so that it is possible to estimate that the line-of-sight direction is changed. The second threshold 128 is the amount of change in the viewing direction angle for a fixed time (for example, 0.5 seconds). For example, the angle change amount may be set to a value of 20 degrees or more.

対象物データ129は、対象物判別部166(図4)で判別するための対象物データである。対象物データ129は、例えば、人間の手を表すデータであったり、ペンを表すデータであってもよい。また、対象物データ129は、使用者Psなどのよって適宜変更可能であってもよい。   The object data 129 is object data for discrimination by the object discrimination unit 166 (FIG. 4). The object data 129 may be, for example, data representing a human hand or data representing a pen. Further, the object data 129 may be appropriately changed depending on the user Ps or the like.

図8は、コンテンツ対応テーブル124を説明するための図である。図9は、使用者Psに視認される視野VRの一例を示す第1の図である。図10は、使用者Psに視認される視野VRの一例を示す第2の図である。   FIG. 8 is a diagram for explaining the content correspondence table 124. FIG. 9 is a first diagram illustrating an example of a visual field VR visually recognized by the user Ps. FIG. 10 is a second diagram illustrating an example of the visual field VR visually recognized by the user Ps.

コンテンツ対応テーブル124(図8)は、予め定められた対象物の動きと、画像表示部20に表示するコンテンツとを規定する。つまり、コンテンツ対応テーブル124は、予め定められた対象物の動きと、対象物の動きに応じて変化させる画像表示部20の表示内容とを規定する。対象物の動きが第1の動きの場合に、ブラウザーが画像表示部20に表示される。第1の動きは、例えば、使用者Psのジェスチャーの変化であり、手をグーの状態からパーの状態に変化させる動きである。対象物の動きが第2の動きの場合に、電話のコンテンツ(例えば、登録者名および登録者名の電話番号を表す画像)が画像表示部20に表示される。第2の動きは、例えば、使用者Psのジェスチャーの変化であり、手をパーの状態からチョキの状態に変化させる動きである。対象物の動きが第3の動きの場合に、メールのコンテンツを画像表示部20に表示させる。第3の動きは、例えば、使用者Psのジェスチャーの変化であり、手をチョキの状態からパーの状態に変化させる動きである。対象物の動きが第4の動きの場合に、画像表示部20に表示されているコンテンツを非表示にする。   The content correspondence table 124 (FIG. 8) defines a predetermined movement of the object and content to be displayed on the image display unit 20. That is, the content correspondence table 124 defines a predetermined movement of the object and display contents of the image display unit 20 that are changed according to the movement of the object. When the movement of the object is the first movement, a browser is displayed on the image display unit 20. The first movement is, for example, a change in the gesture of the user Ps, and is a movement that changes the hand from a goo state to a par state. When the movement of the object is the second movement, the telephone content (for example, an image representing the registrant name and the telephone number of the registrant name) is displayed on the image display unit 20. The second movement is, for example, a change in the gesture of the user Ps, and is a movement that changes the hand from a par state to a choke state. When the movement of the object is the third movement, the mail content is displayed on the image display unit 20. The third movement is, for example, a change in the gesture of the user Ps, and is a movement that changes the hand from a choke state to a par state. When the movement of the object is the fourth movement, the content displayed on the image display unit 20 is not displayed.

図9に示すように、使用者PsがHMD100を起動してタッチパッド14などを操作することでHMD100が特定のモード(受付モード)になった場合、使用者Psは光学像表示部26,28を透過した外景SCと、画像表示部20に表示されたメニュー画像VIとを視認できる。メニュー画像VIは、各種の選択画像VIa〜VIdを含む。ブラウザー選択画像VIaは、選択されることでブラウザーの画面が画像表示部20に表示される。電話選択画像VIbは、選択されることで電話をするための画像が画像表示部20に表示される。また、メール選択画像VIcは、選択されることでメールのコンテンツ画像VIB(図10)を画像表示部20に表示させる。エンド選択画像VIdは、選択されることで画像表示部20に表示されているコンテンツ画像を非表示にする。つまり、エンド選択画像VIdは、選択されることで起動中のコンテンツが終了する。使用者Psは、タッチパッド14や十字キー16を用いて各種の選択画像VIa〜VIdを選択してもよいし、ジェスチャーの変化を撮像処理部164に検出させることで各種の選択画像VIa〜VIdに対応するコンテンツを実行してもよい。例えば、使用者Psは、外景撮像用カメラ61の撮像領域内の対象物検出領域に手を位置させて、コンテンツ対応テーブル124に規定された手の動きを行う。   As illustrated in FIG. 9, when the user Ps activates the HMD 100 and operates the touch pad 14 or the like so that the HMD 100 enters a specific mode (acceptance mode), the user Ps displays the optical image display units 26 and 28. And the menu image VI displayed on the image display unit 20 can be visually recognized. The menu image VI includes various selection images VIa to VId. When the browser selection image VIa is selected, the browser screen is displayed on the image display unit 20. When the telephone selection image VIb is selected, an image for making a telephone call is displayed on the image display unit 20. Further, when the mail selection image VIc is selected, a mail content image VIB (FIG. 10) is displayed on the image display unit 20. The end selection image VId is selected to hide the content image displayed on the image display unit 20. That is, the active content ends when the end selection image VId is selected. The user Ps may select various selection images VIa to VId by using the touch pad 14 or the cross key 16, or the various selection images VIa to VId by causing the imaging processing unit 164 to detect a change in gesture. The content corresponding to may be executed. For example, the user Ps moves his / her hand as defined in the content correspondence table 124 by placing his / her hand in the object detection area within the imaging area of the outside scene imaging camera 61.

図11は、CPU140が実行する処理フローである。図11に示す処理フローは、HMD100が特定のモード(受付モード)になったことをトリガーに開始される。まず、物体検出部172は、対象物検出領域に物体が存在するか否かを検出する(ステップS12)。物体が存在しない場合(ステップS12:No)、繰り返しステップS12を実行する。物体が存在することを検出した場合(ステップS12:Yes)、撮像処理部164は、第1処理モードM1を実行する(ステップS14)。つまり、撮像処理部164は、外景撮像用カメラ61によって第1フレームレートで外景を撮像させる。撮像処理部164は、第1フレームレートで撮像された各フレームの撮像画像データを画像処理して処理画像データを生成する。次に、対象物判別部166は処理画像データが表す画像内に、記憶部120に記憶された予め定めた対象物データが表す対象物が存在するか否かを判別する(ステップS16)。対象物が存在しないと判別された場合(ステップS16:No)、さらに生成された処理画像データに対してステップS16を繰り返し実行する。   FIG. 11 is a processing flow executed by the CPU 140. The processing flow shown in FIG. 11 is triggered by the fact that the HMD 100 has entered a specific mode (acceptance mode). First, the object detection unit 172 detects whether or not an object exists in the target object detection area (step S12). If there is no object (step S12: No), step S12 is repeatedly executed. When it is detected that an object is present (step S12: Yes), the imaging processing unit 164 executes the first processing mode M1 (step S14). That is, the imaging processing unit 164 causes the outside scene imaging camera 61 to capture an outside scene at the first frame rate. The imaging processing unit 164 generates processed image data by performing image processing on the captured image data of each frame imaged at the first frame rate. Next, the object determination unit 166 determines whether or not the object represented by the predetermined object data stored in the storage unit 120 exists in the image represented by the processed image data (step S16). When it is determined that the object does not exist (step S16: No), step S16 is repeatedly executed on the generated processed image data.

対象物が存在すると判別された場合(ステップS16:Yes)、閾値判定を行う(ステップS18)。閾値判定は、頭部の動き量が第1閾値127を超え、かつ、視線方向の変化量が第2閾値128を超えているか否かを撮像処理部164が判定する。この判定に用いられる一定時間の終点は、例えば、ステップ16で対象物が存在すると判定された処理画像データの元となる撮像画像データが生成された時間(撮影時刻)であってもよい。なお、ステップS18は省略してもよい。   When it is determined that an object exists (step S16: Yes), threshold determination is performed (step S18). In the threshold determination, the imaging processing unit 164 determines whether the amount of head movement exceeds the first threshold 127 and whether the amount of change in the line-of-sight direction exceeds the second threshold 128. The end point of the fixed time used for this determination may be, for example, the time (shooting time) when the captured image data that is the basis of the processed image data determined to be present in step 16 is generated. Note that step S18 may be omitted.

頭部の動き量が第1閾値127を超えていることと、視線方向の変化量が第2閾値128を超えていることの少なくともいずれか一方を満たさない場合は(ステップS18:No)、撮像処理部164は、処理モードを第1処理モードM1から第2処理モードM2に切り換える(ステップS20)。これにより撮像処理部164は第2処理モードM2を実行する。つまり、撮像処理部164は、外景撮像用カメラ61によって第2フレームレートで外景を撮像させる。撮像処理部164は、第2フレームレートで撮像された各フレームの撮像画像データを画像処理して処理画像データを生成する。一方で、頭部の動き量が第1閾値127を超え、かつ、視線方向の変化量が第2閾値128を超えている場合は、ステップS14に戻る。つまり、処理モードが第1処理モードM1であるときに、動き量が第1閾値127を超え、かつ、変化量が第2閾値128を超えている場合は、物体が存在することを検出したか否かに拘わらず処理モードを第1処理モードM1に維持する。なお、ステップS18は省略してもよい。   When at least one of the head movement amount exceeding the first threshold 127 and the line-of-sight direction change amount exceeding the second threshold 128 is not satisfied (step S18: No), imaging is performed. The processing unit 164 switches the processing mode from the first processing mode M1 to the second processing mode M2 (step S20). Thereby, the imaging processing unit 164 executes the second processing mode M2. That is, the imaging processing unit 164 causes the outside scene imaging camera 61 to capture an outside scene at the second frame rate. The imaging processing unit 164 generates processed image data by performing image processing on the captured image data of each frame captured at the second frame rate. On the other hand, if the amount of head movement exceeds the first threshold 127 and the amount of change in the line-of-sight direction exceeds the second threshold 128, the process returns to step S14. That is, when the processing mode is the first processing mode M1, if the amount of motion exceeds the first threshold 127 and the amount of change exceeds the second threshold 128, is it detected that an object is present? Regardless of whether or not, the processing mode is maintained at the first processing mode M1. Note that step S18 may be omitted.

次に、対象物動き検出部178は、第2フレームレートで撮像された撮像画像データに基づいて、対象物の動きを検出する(ステップS22)。詳細には、撮像処理部164は、第2フレームレートで撮像された各フレームの撮像画像データを、対象物の動きを検出するために画像処理して処理画像データを生成する。そして、対象物動き検出部178は、生成された処理画像データをもとに対象物の動きを検出する。   Next, the object motion detection unit 178 detects the motion of the object based on the captured image data captured at the second frame rate (step S22). Specifically, the imaging processing unit 164 generates processed image data by performing image processing on the captured image data of each frame imaged at the second frame rate in order to detect the motion of the object. Then, the object motion detection unit 178 detects the motion of the object based on the generated processed image data.

次に、撮像処理部164は、検出した対象物の動きに対応するコンテンツがあるかどうかを判定する(ステップS24)。具体的には、撮像処理部164は、記憶部120に記憶されたコンテンツ対応テーブル124(図8)を参照して、検出した対象物の動きに対応するコンテンツがあるかどうかを判定する。対応するコンテンツがある場合は、対象物の動きに応じたコンテンツ(例えば、メールのコンテンツ)を実行して、画像表示制御部162は、コンテンツの画面を画像表示部20に表示させる(ステップS25)。つまり、画像表示制御部162は、対象物動き検出部178によって検出された対象物の動きに基づいて虚像の表示内容を変化させる。   Next, the imaging processing unit 164 determines whether there is content corresponding to the detected movement of the object (step S24). Specifically, the imaging processing unit 164 refers to the content correspondence table 124 (FIG. 8) stored in the storage unit 120 and determines whether there is content corresponding to the detected movement of the target object. If there is corresponding content, the content corresponding to the movement of the object (for example, mail content) is executed, and the image display control unit 162 displays the content screen on the image display unit 20 (step S25). . That is, the image display control unit 162 changes the display content of the virtual image based on the motion of the object detected by the object motion detection unit 178.

上記第1実施形態によれば、撮像処理部164は、対象物が存在すると判別された場合に第1処理モードM1から第2処理モードM2に切り換えることから(図11のステップS14〜ステップS20)、対象物が存在する場合と存在しない場合とでデータ処理量を適切に調整できる。つまり、対象物の動きを検出する際には、データ処理量の多い第2処理モードM2を実行し、対象物の存在を判別する際には、データ処理量の少ない第1処理モードM1を実行することで、撮像処理部164によるデータ処理の負荷を軽減できるとともに、HMD100の消費電力を低減できる。また、第1実施形態によれば、外景撮像用カメラ61のフレームレートを変更することで、第1処理モードM1と第2処理モードM2とのいずれかの処理モードを設定できる。   According to the first embodiment, the imaging processing unit 164 switches from the first processing mode M1 to the second processing mode M2 when it is determined that an object is present (steps S14 to S20 in FIG. 11). The amount of data processing can be adjusted appropriately depending on whether or not the object is present. That is, the second processing mode M2 with a large amount of data processing is executed when detecting the movement of the object, and the first processing mode M1 with a small amount of data processing is executed when determining the presence of the object. By doing so, the data processing load by the imaging processing unit 164 can be reduced, and the power consumption of the HMD 100 can be reduced. Further, according to the first embodiment, it is possible to set one of the first processing mode M1 and the second processing mode M2 by changing the frame rate of the outside scene imaging camera 61.

また上記第1実施形態によれば、物体検出部172によって物体が存在することが検出された場合に第1処理モードM1が実行される(図11のステップS12,S14)。これにより、外景撮像用カメラ61による外景の撮像を不必要に行う可能性を低減できる。これにより、撮像処理部164によるデータ処理の負荷をさらに軽減できる。   Further, according to the first embodiment, the first processing mode M1 is executed when the object detection unit 172 detects the presence of an object (steps S12 and S14 in FIG. 11). Accordingly, it is possible to reduce the possibility of unnecessarily capturing the outside scene with the outside scene imaging camera 61. Thereby, the data processing load by the imaging processing unit 164 can be further reduced.

また上記第1実施形態によれば、撮像処理部164は、動き量が第1閾値127を超え、かつ、変化量が第2閾値128を超えている場合に、対象物判別部166の判別結果に拘わらず第1処理モードを維持している(図11のステップS18:Yes)。動き量が第1閾値127を超え、かつ、変化量が第2閾値128を超えている場合、使用者Psは対象物の動きに着目していないことが想定される。よって、この場合においては、対象物の動きを解析するための処理モードである第2処理モードM2に設定する必要がない。これにより、撮像処理部164によるデータ処理の負荷をさらに軽減できる。   Further, according to the first embodiment, the imaging processing unit 164 determines the determination result of the object determination unit 166 when the amount of motion exceeds the first threshold 127 and the amount of change exceeds the second threshold 128. Regardless, the first processing mode is maintained (step S18 in FIG. 11: Yes). When the amount of movement exceeds the first threshold 127 and the amount of change exceeds the second threshold 128, it is assumed that the user Ps is not paying attention to the movement of the object. Therefore, in this case, it is not necessary to set the second processing mode M2, which is a processing mode for analyzing the motion of the object. Thereby, the data processing load by the imaging processing unit 164 can be further reduced.

また上記第1実施形態によれば、対象物動き検出部178は、第2処理モードM2において撮像された複数フレームの撮像画像データに基づいて対象物の動きを検出し、画像表示制御部162は、検出された対象物の動きに基づいて虚像の表示内容を変化させている(図11のステップS20〜ステップS25)。対象物の動きを検出する際には、単位時間当たりのデータ処理量の多い第2処理モードM2を実行しているので、対象物の動きを精度良く検出できると共に、対象物の動きに基づいた虚像の表示内容を精度良く変化させることができる。また上記第1実施形態によれば、対象物が使用者Psの手であることで、使用者Psの手の動きに基づいて虚像の表示内容を変化できる。これにより、使用者PsがHMD100をより直感的に操作できる。   Further, according to the first embodiment, the object motion detection unit 178 detects the movement of the object based on the captured image data of a plurality of frames captured in the second processing mode M2, and the image display control unit 162 The display content of the virtual image is changed based on the detected movement of the object (step S20 to step S25 in FIG. 11). When detecting the movement of the object, the second processing mode M2 with a large amount of data processing per unit time is executed, so that the movement of the object can be detected with high accuracy and based on the movement of the object. The display content of the virtual image can be changed with high accuracy. Moreover, according to the said 1st Embodiment, the display content of a virtual image can be changed based on a motion of the user's Ps hand because a target object is the user's Ps hand. Thereby, the user Ps can operate the HMD 100 more intuitively.

図12は、CPU140が実行する処理フローの他の例である。CPU140は、図11に示す処理フローに代えて図12に示す処理フローを実行してもよい。ここで、図11と同様の内容のステップについては、図11と同一の符号を付している。図12に示す処理フローと、図11に示す処理フローとの異なる主な点は、対象物検出領域に物体が存在することが検出された場合に、撮像処理部164は第2処理モードM2を実行する点と、ステップS18を省略した点である。   FIG. 12 is another example of the processing flow executed by the CPU 140. The CPU 140 may execute the processing flow shown in FIG. 12 instead of the processing flow shown in FIG. Here, steps having the same contents as those in FIG. 11 are denoted by the same reference numerals as those in FIG. The main difference between the processing flow shown in FIG. 12 and the processing flow shown in FIG. 11 is that the imaging processing unit 164 sets the second processing mode M2 when it is detected that an object is present in the object detection region. The point to be executed and the point that step S18 is omitted.

まず、物体検出部172は対象物検出領域に物体が存在するか否かを検出する(ステップS12)。物体が存在しない場合は(ステップS12:No)、繰り返しステップS12を実行する。物体が存在することを検出した場合(ステップS12:Yes)、撮像処理部164は、第2処理モードを実行する(ステップS20a)。つまり、撮像処理部164は、外景撮像用カメラ61によって第2フレームレートで外景を撮像させる。撮像処理部164は、第2フレームレートで撮像された各フレームの撮像画像データを画像処理して処理画像データを生成する。上記のように、ステップS20aは、対象物検出領域に物体が存在する場合に、外景撮像用カメラ61を起動して撮像を開始させる処理である。よって、本処理フローを用いる場合、撮像処理部164は、第1処理モードM1(図4)を有していなくてもよい。   First, the object detection unit 172 detects whether or not an object exists in the target object detection area (step S12). When there is no object (step S12: No), step S12 is repeatedly executed. When it is detected that an object is present (step S12: Yes), the imaging processing unit 164 executes the second processing mode (step S20a). That is, the imaging processing unit 164 causes the outside scene imaging camera 61 to capture an outside scene at the second frame rate. The imaging processing unit 164 generates processed image data by performing image processing on the captured image data of each frame captured at the second frame rate. As described above, step S20a is a process for starting imaging by activating the outside scene imaging camera 61 when an object is present in the object detection region. Therefore, when this processing flow is used, the imaging processing unit 164 may not have the first processing mode M1 (FIG. 4).

次に、対象物判別部166は、処理画像データが表す画像内に、記憶部120に記憶された予め定めた対象物データが表す対象物が存在するか否かを判別する(ステップS21)。対象物が存在しないと判別された場合(ステップS21:No)、さらに生成された処理画像データに対してステップS21を繰り返し実行する。   Next, the object determination unit 166 determines whether or not the object represented by the predetermined object data stored in the storage unit 120 exists in the image represented by the processed image data (step S21). If it is determined that the object does not exist (step S21: No), step S21 is repeatedly executed on the generated processed image data.

対象物が存在すると判別された場合(ステップS21:Yes)、第2フレームレートで撮像された各フレームの撮像画像データに基づいて、対象物の動きを検出する(ステップS22)。次に、撮像処理部164は、図11に示す処理フローと同様にステップS24以降の処理を実行する。   If it is determined that the object exists (step S21: Yes), the movement of the object is detected based on the captured image data of each frame imaged at the second frame rate (step S22). Next, the imaging processing unit 164 executes the processing from step S24 onward in the same manner as the processing flow shown in FIG.

この処理フローによれば、物体検出部172によって物体が存在することが検出された場合に、撮像処理部164は、外景撮像用カメラ61に対して外景の撮像を開始させている。こうすることで、対象物検出領域に物体が存在する場合と存在しない場合とでデータ処理量を適切に調整できる。つまり、対象物検出領域に対象物の候補となる物体が存在しない状況において、外景撮像用カメラ61による外景を撮像しないことで、撮像処理部164のデータ処理量が不必要に過大になる可能性を低減できる。   According to this processing flow, when the object detection unit 172 detects the presence of an object, the imaging processing unit 164 causes the outside scene imaging camera 61 to start imaging the outside scene. By doing so, the amount of data processing can be adjusted appropriately depending on whether or not an object is present in the object detection area. In other words, in a situation where there is no candidate object in the target detection area, there is a possibility that the data processing amount of the imaging processing unit 164 becomes unnecessarily excessive by not imaging the outside scene by the outside scene imaging camera 61. Can be reduced.

B.第2実施形態:
図13は、HMD100を備える表示システム1の概略構成を示す説明図である。第2実施形態では、第1実施形態のHMD100と、サーバー60を経由してHMD100の通信を行うパーソナルコンピューター(PC)250とを備える表示システム1を例に、HMD100の使用例について説明する。具体的には、第2実施形態の表示システム100は、例えば、工場などでHMD100を装着した使用者Psに遠隔から作業内容などの指示を行う遠隔支援システムとして用いることができる。
B. Second embodiment:
FIG. 13 is an explanatory diagram illustrating a schematic configuration of the display system 1 including the HMD 100. In the second embodiment, a usage example of the HMD 100 will be described using the display system 1 including the HMD 100 of the first embodiment and a personal computer (PC) 250 that performs communication of the HMD 100 via the server 60 as an example. Specifically, the display system 100 according to the second embodiment can be used, for example, as a remote support system that remotely instructs the user Ps wearing the HMD 100 in a factory or the like, such as work contents.

HMD100は、通信キャリアを介して無線通信でインターネットINTに接続されている。PC250は、通信キャリアBSを介して無線通信でインターネットINTに接続されている。サーバー60は、有線通信でインターネットINTに接続されている。この結果、サーバー60、HMD100、PC250は互いにインターネットINTを介してデータ通信できる。通信キャリアBSは、送受信アンテナや、無線基地局、交換局を含む。   The HMD 100 is connected to the Internet INT by wireless communication via a communication carrier. The PC 250 is connected to the Internet INT by wireless communication via the communication carrier BS. The server 60 is connected to the Internet INT by wired communication. As a result, the server 60, the HMD 100, and the PC 250 can perform data communication with each other via the Internet INT. The communication carrier BS includes a transmission / reception antenna, a radio base station, and an exchange station.

図14は、表示システム1が用いられる一つのシーンを説明するための図である。図14に示すシーンは、HMD100の使用者Psが工場内で製品602を生産しているシーンである。製品602は、作業台601に配置されている。使用者Psは、製品602の組み立てや不良品の検査などを行う。   FIG. 14 is a diagram for explaining one scene in which the display system 1 is used. The scene shown in FIG. 14 is a scene in which the user Ps of the HMD 100 is producing the product 602 in the factory. The product 602 is disposed on the work table 601. The user Ps performs assembly of the product 602, inspection of defective products, and the like.

図15は、使用者Psに視認される視野VRの一例を示す第1の図である。図16は、使用者Psに視認される視野VRの一例を示す第2の図である。HMD100が起動して、タッチパッド14などを操作することでHMD100が特定のモード(受付モード)になった場合、使用者Psは光学像表示部26,28を透過した外景SCと、画像表示部20に表示されたメニュー画像VI1とを視認できる(図15)。   FIG. 15 is a first diagram illustrating an example of a visual field VR visually recognized by the user Ps. FIG. 16 is a second diagram illustrating an example of the visual field VR visually recognized by the user Ps. When the HMD 100 is activated and the HMD 100 enters a specific mode (acceptance mode) by operating the touch pad 14 or the like, the user Ps transmits the outside scene SC that has passed through the optical image display units 26 and 28, and the image display unit. The menu image VI1 displayed at 20 can be visually recognized (FIG. 15).

メニュー画像VI1は、ヘルプ選択画像VI2と通話選択画像VI3とエンド選択画像VI4とを含む。ヘルプ選択画像VI2は、選択されることで製品602の組立手順内容や検査手順内容などの手順内容が画像VI5として表示される(図16)。通話選択画像VI3は、選択されることで予め定められた相手(本実施形態では、PC250を操作する遠隔作業支援者)との通話が可能となり、通話に関する画像(通話時間画像など)が画像表示部20に表示される。エンド選択画像VI4は、選択されることで起動中のコンテンツ(例えば、手順内容の画像VI4)が終了する。使用者Psは、タッチパッド14や十字キー16を用いて各種の選択画像VI2〜VI4を選択してもよいし、ジェスチャーの変化を撮像処理部164に検出させることで各種の選択画像VI2〜VI4に対応するコンテンツを実行してもよい。例えば、使用者Psは、外景撮像用カメラ61の撮像領域内の対象物検出領域に手を位置させて、コンテンツ対応テーブル124(図8)に規定された手の動きを行う。ここで、コンテンツ対応テーブル124は、第2実施形態のシーンに対応した内容に変更される。この変更は、シーンごとに対応した複数のコンテンツ対応テーブル124を記憶部120に記憶させておき、使用者Psがシーンに応じて対応するコンテンツ対応テーブル124を選択してもよい。第2実施形態の場合、第1の動きによってヘルプ選択画像VI2に対応するコンテンツを実行し(画像VI4を表示し)、第2の動きによって通話選択画像VI3に対応するコンテンツを実行し、第3の動きによってエンド選択画像VI4に対応するコンテンツを実行する。   Menu image VI1 includes help selection image VI2, call selection image VI3, and end selection image VI4. When the help selection image VI2 is selected, procedure contents such as assembly procedure contents and inspection procedure contents of the product 602 are displayed as an image VI5 (FIG. 16). The call selection image VI3 can be selected to make a call with a predetermined partner (in this embodiment, a remote work supporter who operates the PC 250), and an image related to the call (such as a call time image) is displayed as an image. Displayed on the unit 20. When the end selection image VI4 is selected, the active content (for example, the image VI4 of the procedure details) ends. The user Ps may select various selection images VI2 to VI4 by using the touch pad 14 or the cross key 16, or the various selection images VI2 to VI4 by causing the imaging processing unit 164 to detect a change in gesture. The content corresponding to may be executed. For example, the user Ps moves his / her hand as defined in the content correspondence table 124 (FIG. 8) by placing his / her hand in the object detection area within the imaging area of the outside scene imaging camera 61. Here, the content correspondence table 124 is changed to the content corresponding to the scene of the second embodiment. For this change, a plurality of content correspondence tables 124 corresponding to each scene may be stored in the storage unit 120, and the user Ps may select the content correspondence table 124 corresponding to the scene. In the case of the second embodiment, the content corresponding to the help selection image VI2 is executed by the first movement (image VI4 is displayed), the content corresponding to the call selection image VI3 is executed by the second movement, and the third The content corresponding to the end selection image VI4 is executed by the movement of.

CPU140が実行する処理フローは、上記第1実施形態の図11に示す処理フローや、第1実施形態の変形態様である図12に示す処理フローと同様の処理フローを採用できる。ここで、外景撮像用カメラ61が起動した以降である、図11のステップS14以降や図12のステップS20a以降においては、外景撮像用カメラ61が撮像した撮像画像データを画像処理して、PC250に送信してもよい。こうすることで、PC250側にいる遠隔作業支援者は、PC250の表示部258を介して外景撮像用カメラ61によって撮像された画像を確認できる。また、使用者Psが対象物検出領域で予め定められた対象物の動きを行う場合、製品602について遠隔作業支援者からの指示を受けたいという要望が高いと推定される。図11や図12に示す処理フローにおいて、対象物の動きを検出するステップ22ではフレームレートが高い第2フレームレートで外景撮像用カメラ61によって外景SCを撮像させる。よって、遠隔作業支援者は、第2フレームレートで撮像された動画像を表示部258で視認できるので、製品602やその周辺の状況をより詳細に把握できる。これにより、遠隔作業支援者は、使用者Psに対してより適切な指示を行うことができる。   The processing flow executed by the CPU 140 can employ a processing flow similar to the processing flow shown in FIG. 11 of the first embodiment and the processing flow shown in FIG. 12 which is a modification of the first embodiment. Here, after the outside scene imaging camera 61 is activated, after step S14 in FIG. 11 and after step S20a in FIG. 12, the captured image data captured by the outside scene imaging camera 61 is subjected to image processing, and is sent to the PC 250. You may send it. In this way, the remote operation supporter on the PC 250 side can check the image captured by the outside scene imaging camera 61 via the display unit 258 of the PC 250. Further, when the user Ps moves a predetermined object in the object detection area, it is estimated that there is a high demand for receiving an instruction from the remote operation supporter for the product 602. In the processing flow shown in FIGS. 11 and 12, in the step 22 for detecting the movement of the object, the outside scene SC is imaged by the outside scene imaging camera 61 at the second frame rate having a high frame rate. Therefore, since the remote work support person can visually recognize the moving image captured at the second frame rate on the display unit 258, the remote work supporter can grasp the product 602 and the surrounding situation in more detail. Thereby, the remote operation supporter can give a more appropriate instruction to the user Ps.

上記第2実施形態によれば、上記第1実施形態と同様の構成を有する限りにおいて第1実施形態と同様の効果を奏する。例えば、撮像処理部164は、対象物が存在すると判別された場合に第1処理モードM1から第2処理モードM2に切り換えることから(図11のステップS14〜ステップS20)、対象物が存在する場合と存在しない場合とでデータ処理量を適切に調整できる。つまり、対象物の動きを検出する際には、データ処理量の多い第2処理モードM2を実行し、対象物の存在を判別する際には、データ処理量の少ない第1処理モードM1を実行することで、撮像処理部164によるデータ処理の負荷を軽減できるとともに、HMD100の消費電力を低減できる。   According to the said 2nd Embodiment, as long as it has the structure similar to the said 1st Embodiment, there exists an effect similar to 1st Embodiment. For example, the imaging processing unit 164 switches from the first processing mode M1 to the second processing mode M2 when it is determined that the object exists (step S14 to step S20 in FIG. 11), and thus the object exists. The amount of data processing can be adjusted appropriately depending on whether or not it exists. That is, the second processing mode M2 with a large amount of data processing is executed when detecting the movement of the object, and the first processing mode M1 with a small amount of data processing is executed when determining the presence of the object. By doing so, the data processing load by the imaging processing unit 164 can be reduced, and the power consumption of the HMD 100 can be reduced.

C.第2実施形態の変形態様:
上記第2実施形態では、上記第1実施形態の図11や図12と同様の処理フローを採用可能であったが、他の処理フローを採用してもよい。図17は、他の処理フローが実行される一つのシーンを示す図である。図17に示すシーンは、不具合が発生した製品を使用者Psが修理するシーンであり、PC250側の遠隔作業支援者が表示部258に表示された外景撮像用カメラ61によって撮像された動画像を見て使用者Psに指示を出したりするシーンである。図17では、製品604と製品605のうち、製品605に不具合が発生しと仮定する。使用者Psや遠隔作業支援者は、記憶部120の対象物データ129に、製品605を判別するための情報(例えば、製品605の形状データ)を予め記憶させる。
C. Variations of the second embodiment:
In the second embodiment, a processing flow similar to that in FIGS. 11 and 12 of the first embodiment can be employed, but other processing flows may be employed. FIG. 17 is a diagram showing one scene in which another processing flow is executed. The scene shown in FIG. 17 is a scene in which the user Ps repairs a product in which a problem has occurred. This is a scene in which an instruction is given to the user Ps. In FIG. 17, it is assumed that a defect occurs in the product 605 among the products 604 and 605. The user Ps or the remote operation supporter stores in advance information for identifying the product 605 (for example, shape data of the product 605) in the object data 129 of the storage unit 120.

図18は、CPU140が実行する他の処理フローである。図18に示す処理フローは、例えば図17に示すシーンで実行される。以下に説明する他の処理フローのように、図11や図12に示す処理フローでは、物体検出部172は対象物検出領域に物体が存在するか否かを検出するステップを有していたが(ステップS12)、省略してもよい。   FIG. 18 is another processing flow executed by the CPU 140. The processing flow shown in FIG. 18 is executed in the scene shown in FIG. 17, for example. Like the other processing flows described below, in the processing flow shown in FIG. 11 and FIG. 12, the object detection unit 172 has a step of detecting whether or not an object exists in the target object detection area. (Step S12) may be omitted.

図18に示す処理フローは、HMD100が特定のモード(受付モード)になったことをトリガーに開始される。まず、撮像処理部164は外景撮像用カメラ61を起動させて、第1処理モードM1を実行する(ステップS40)。第1処理モードM1は、上記第1実施形態と同様の内容であり、外景撮像用カメラ61によって第1フレームレートで外景を撮像させるモードである。撮像処理部164は、第1フレームレートで撮像された各フレームの撮像画像データを画像処理して処理画像データを生成する。また、第1フレームレートで撮像された各フレームは、画像処理してPC250(図13)に送信される。   The processing flow shown in FIG. 18 is triggered by the fact that the HMD 100 has entered a specific mode (acceptance mode). First, the imaging processing unit 164 activates the outside scene imaging camera 61 and executes the first processing mode M1 (step S40). The first processing mode M1 has the same contents as in the first embodiment, and is a mode in which an outside scene is imaged at the first frame rate by the outside scene imaging camera 61. The imaging processing unit 164 generates processed image data by performing image processing on the captured image data of each frame imaged at the first frame rate. Each frame imaged at the first frame rate is subjected to image processing and transmitted to the PC 250 (FIG. 13).

次に、対象物判別部166は処理画像データが表す画像内に、記憶部120に記憶された予め定めた対象物データが表す対象物(製品605)が存在するか否かを判別する(ステップS42)。対象物が存在しないと判別された場合(ステップS42:No)、さらに生成された処理画像データに対してステップS42を繰り返し実行する。   Next, the object discriminating unit 166 discriminates whether or not the object (product 605) represented by the predetermined object data stored in the storage unit 120 exists in the image represented by the processed image data (Step 605). S42). If it is determined that the object does not exist (step S42: No), step S42 is repeatedly executed on the generated processed image data.

対象物が存在すると判別された場合(ステップS42:Yes)、撮像処理部164は、処理モードを第1処理モードM1から第2処理モードM2に切り換える(ステップS44)。これにより撮像処理部164は第2処理モードM2を実行する。つまり、撮像処理部164は、外景撮像用カメラ61によって第2フレームレートで外景を撮像させる。撮像処理部164は、第2フレームレートで撮像された各フレームの撮像画像データを画像処理して処理画像データを生成する。また、第2フレームレートで撮像された各フレームは、画像処理してPC250(図13)に送信される。なお、ステップS42とステップS44との間に図11に示すステップS18を実行してもよい。   When it is determined that the object exists (step S42: Yes), the imaging processing unit 164 switches the processing mode from the first processing mode M1 to the second processing mode M2 (step S44). Thereby, the imaging processing unit 164 executes the second processing mode M2. That is, the imaging processing unit 164 causes the outside scene imaging camera 61 to capture an outside scene at the second frame rate. The imaging processing unit 164 generates processed image data by performing image processing on the captured image data of each frame captured at the second frame rate. Each frame imaged at the second frame rate is subjected to image processing and transmitted to the PC 250 (FIG. 13). Note that step S18 shown in FIG. 11 may be executed between step S42 and step S44.

上記変更態様によれば、対象物が存在すると判別された場合に第1処理モードM1から第2処理モードM2に切り換えることから、対象物が存在する場合と存在しない場合とでデータ処理量を適切に調整できる。また、対象物が存在する場合は、第1フレームレートよりも高い第2フレームレートで撮像された撮像画像データを処理してPC250側に送信することから、PC250側の遠隔作業支援者は対象物をより精度良く観察できる。よって、遠隔作業支援者はより適切な指示を使用者Psに出すことができる。   According to the above change mode, when it is determined that the object is present, the first processing mode M1 is switched to the second processing mode M2, so that the data processing amount is appropriately set depending on whether the object exists or not. Can be adjusted. In addition, when there is an object, the captured image data captured at the second frame rate higher than the first frame rate is processed and transmitted to the PC 250 side. Can be observed with higher accuracy. Therefore, the remote operation supporter can give a more appropriate instruction to the user Ps.

D.処理モードの変形態様:
上記各実施形態では、第1処理モードM1は外景撮像用カメラ61によって第1フレームレートで撮像させる第1撮像モードであり、第2処理モードM2は外景撮像用カメラ61によって第1フレームレートよりも高い第2フレームレートで外景を撮像させる第2撮像モードであった。しかしながら、第2処理モードM2の単位時間当たりのデータ処理量が、第1処理モードM1の単位時間当たりのデータ処理量よりも多ければ、各処理モードを実現するための内容は上記に限定されるものではない。以下に、第1処理モードM1と第2処理モードM2の変形態様について説明する。
D. Variations in processing modes:
In each of the above embodiments, the first processing mode M1 is a first imaging mode in which the outside scene imaging camera 61 captures images at the first frame rate, and the second processing mode M2 is performed by the outside scene imaging camera 61 more than the first frame rate. This was the second imaging mode in which an outside scene was imaged at a high second frame rate. However, if the data processing amount per unit time in the second processing mode M2 is larger than the data processing amount per unit time in the first processing mode M1, the contents for realizing each processing mode are limited to the above. It is not a thing. Hereinafter, modifications of the first processing mode M1 and the second processing mode M2 will be described.

第1処理モードM1は、外景撮像用カメラ61によって第1解像度で外景を撮像させる第1解像度モードであってもよく、第2処理モードM2は、外景撮像用カメラ61によって第1解像度よりも高い第2解像度で外景を撮像させる第2解像度モードであってもよい。第1解像度は、処理画像データ中に存在する物体を表すデータが予め定めた対象物を表す対象物データであるかを対象物判別部166が判別できる程度の解像度であればよい。   The first processing mode M1 may be a first resolution mode in which an outside scene is captured by the outside scene imaging camera 61 at a first resolution, and the second processing mode M2 is higher than the first resolution by the outside scene imaging camera 61. A second resolution mode may be used in which an outside scene is captured at the second resolution. The first resolution may be a resolution that allows the object determination unit 166 to determine whether data representing an object existing in the processed image data is object data representing a predetermined object.

また、第1処理モードM1は、所定のフレームレート(例えば、上記第2フレームレート)で外景撮像用カメラ61が撮像した複数のフレームの撮像画像データの一部のフレームを間引いて、間引いた後の撮像画像データを画像処理するモード(間引きモード)であってもよい。また、第2処理モードM2は、第1処理モードM1よりも多いフレームから構成される撮像画像データを画像処理するモード(通常モード)であってもよい。単位時間当たりに画像処理するフレーム数は、第2処理モードM2の方が第1処理モードM1よりも多い。第2処理モードM2は、例えば、所定のフレームレート(例えば、上記第2フレームレート)で外景撮像用カメラ61が撮像した複数のフレームの撮像画像データの全てを画像処理する。また、第1処理モードM1は、第1撮像モードと第1解像度モードと間引きモードとの2つ以上を組み合わせて実行してもよい。また、第2処理モードM2は、第2撮像モードと第2解像度モードと通常モードとの2つ以上を組み合わせて実行してもよい。   Further, in the first processing mode M1, after thinning out some frames of the captured image data of a plurality of frames captured by the outside scene imaging camera 61 at a predetermined frame rate (for example, the second frame rate), A mode (thinning-out mode) for image processing of the captured image data may be used. Further, the second processing mode M2 may be a mode (normal mode) in which captured image data composed of more frames than the first processing mode M1 is subjected to image processing. The number of frames for image processing per unit time is greater in the second processing mode M2 than in the first processing mode M1. In the second processing mode M2, for example, all the captured image data of a plurality of frames captured by the outside scene imaging camera 61 at a predetermined frame rate (for example, the second frame rate) is subjected to image processing. The first processing mode M1 may be executed by combining two or more of the first imaging mode, the first resolution mode, and the thinning mode. The second processing mode M2 may be executed by combining two or more of the second imaging mode, the second resolution mode, and the normal mode.

また、第1処理モードM1と第2処理モードM2との少なくともいずれか一方のモードにおいて、撮像処理部164は以下に説明する切出処理を行ってもよい。図19は、切出処理を説明するための図である。図19は処理画像データIMGDの一例である。第1のフレームを構成する処理画像データIMGDに基づき、対象物判別部166が対象物hd(本例では手hd)を判別した場合、撮像処理部164は対象物hdが位置する画素領域IMGR2を含む一定画素領域IMGR1を設定する。図19に示す例では、撮像処理部164は、対象物hdが位置する画素領域IMGR2よりも大きい領域の一定画素領域IMGR1が設定される。本実施形態では撮像画像データと処理画像データとでは、画素数は同じであり、また一定画素領域IMGR1も同じである。撮像処理部164は、第1のフレームの次に外景撮像用カメラ61によって撮像された第2のフレームを構成する撮像画像データに対しては一定画素領域IMGR1に対応する範囲のデータを抽出し、抽出したデータに対して画像処理を行う。本例では、一定画素領域IMGR1に対応する範囲は、一定画素領域IMGR1と同じ領域であり、画素の座標で特定できる。抽出したデータに対して画像処理を行って、例えば、対象物動き検出部178による対象物の動きを検出するために用いてもよい。また、抽出したデータに対して画像処理を行って、1フレーム前の処理画像データIMGDにおける一定画素領域IMGR1の画素データと差し替えてもよい。抽出したデータに対して画像処理を行うことで、対象物を含まない領域のデータに対しては画像処理を行う必要がない。これにより、撮像処理部164によるデータ処理の負荷をさらに軽減できる。   In at least one of the first processing mode M1 and the second processing mode M2, the imaging processing unit 164 may perform a clipping process described below. FIG. 19 is a diagram for explaining the extraction process. FIG. 19 shows an example of the processed image data IMGD. When the object determination unit 166 determines the object hd (in this example, the hand hd) based on the processed image data IMGD constituting the first frame, the imaging processing unit 164 captures the pixel region IMGR2 where the object hd is located. A constant pixel region IMGR1 including the same is set. In the example illustrated in FIG. 19, the imaging processing unit 164 sets a constant pixel area IMGR1 that is larger than the pixel area IMGR2 where the object hd is located. In the present embodiment, the captured image data and the processed image data have the same number of pixels and the same fixed pixel region IMGR1. The imaging processing unit 164 extracts data in a range corresponding to the certain pixel region IMGR1 for the captured image data constituting the second frame imaged by the outside scene imaging camera 61 next to the first frame, Image processing is performed on the extracted data. In this example, the range corresponding to the fixed pixel region IMGR1 is the same region as the fixed pixel region IMGR1, and can be specified by the coordinates of the pixel. You may perform image processing with respect to the extracted data, for example, in order to detect the motion of the target object by the target object motion detection part 178, for example. Alternatively, the extracted data may be subjected to image processing and replaced with pixel data of the fixed pixel region IMGR1 in the processed image data IMGD one frame before. By performing image processing on the extracted data, it is not necessary to perform image processing on data in a region that does not include the object. Thereby, the data processing load by the imaging processing unit 164 can be further reduced.

E.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
E. Variations:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

E−1.第1変形例:
上記各実施形態において、対象物は特定の印の画像である印画像であってもよい。印画像としては、QRコード(登録商標)やバーコードなどが挙げられる。撮像処理部164は、印画像を読み取って印画像に対応する虚像を画像表示部20に表示させてもよい。例えば、第1処理モードM1で、物体が印画像であることを判別し、次に第2処理モードM2で印画像を読み取ってもよい。
E-1. First modification:
In the above embodiments, the object may be a mark image that is an image of a specific mark. Examples of the stamp image include a QR code (registered trademark) and a barcode. The imaging processing unit 164 may read the mark image and display a virtual image corresponding to the mark image on the image display unit 20. For example, it may be determined in the first processing mode M1 that the object is a mark image, and then the mark image may be read in the second processing mode M2.

E−2.第2変形例:
上記各実施形態では、外景撮像用カメラ61は単眼カメラであったが、ステレオカメラであってもよい。また、視線方向の検出は、第1内側カメラ62と第2内側カメラ64の撮像画像に基づいて行っていたが、これに限定されるものではなく、例えば、筋電センサーを用いて行ってもよい。
E-2. Second modification:
In each of the above embodiments, the outside scene imaging camera 61 is a monocular camera, but may be a stereo camera. Further, the detection of the line-of-sight direction is performed based on the captured images of the first inner camera 62 and the second inner camera 64. However, the present invention is not limited to this, and may be performed using a myoelectric sensor, for example. Good.

E−3.第3変形例:
図20は、第3変形例におけるHMDの外観の構成を示す説明図である。図20に示す例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者Psの右眼および左眼の斜め上にそれぞれ配置されている。画像表示部20xは、図示は省略しているが、上記第各実施形態と同様に、距離検出センサー68、外景撮像用カメラ61、9軸センサー66、第1内側カメラ62、第2内側カメラ64などの上記各実施形態を実施するための構成を備えている。
E-3. Third modification:
FIG. 20 is an explanatory diagram showing an external configuration of the HMD in the third modification. In the example shown in FIG. 20, the image display unit 20 x includes a right optical image display unit 26 x instead of the right optical image display unit 26, and includes a left optical image display unit 28 x instead of the left optical image display unit 28. Yes. The right optical image display unit 26x and the left optical image display unit 28x are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely above the right eye and the left eye of the user Ps when the HMD is worn. Yes. Although not shown in the figure, the image display unit 20x is similar to the first embodiment described above in the distance detection sensor 68, the outside scene imaging camera 61, the 9-axis sensor 66, the first inner camera 62, and the second inner camera 64. A configuration for implementing each of the above embodiments is provided.

E−4.第4変形例:
図21は、第4変形例におけるHMDの外観の構成を示す説明図である。図21に示す例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者Psの右眼および左眼の斜め下にそれぞれ配置されている。画像表示部20yは、図示は省略しているが、上記第各実施形態と同様に、距離検出センサー68、外景撮像用カメラ61、9軸センサー66、第1内側カメラ62、第2内側カメラ64などの上記各実施形態を実施するための構成を備えている。このように、光学像表示部は使用者Psの眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者Psの眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者Psの眼を完全に覆わない態様のHMDとして実現することもできる。
E-4. Fourth modification:
FIG. 21 is an explanatory diagram showing the configuration of the appearance of the HMD in the fourth modification. In the case of the example shown in FIG. 21, the image display unit 20 y includes a right optical image display unit 26 y instead of the right optical image display unit 26, and includes a left optical image display unit 28 y instead of the left optical image display unit 28. Yes. The right optical image display unit 26y and the left optical image display unit 28y are formed to be smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely below the right eye and the left eye of the user Ps when the HMD is worn. Yes. Although not shown, the image display unit 20y has a distance detection sensor 68, an outside scene imaging camera 61, a nine-axis sensor 66, a first inner camera 62, and a second inner camera 64, as in the first embodiment. A configuration for implementing each of the above embodiments is provided. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the eyes of the user Ps. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the eyes of the user Ps, in other words, the optical image display unit covers the eyes of the user Ps. It can also be realized as an HMD that is not completely covered.

E−5.第5変形例:
上記実施形態では、右導光板26および左導光板28が外光を透過する、いわゆる透過型のHMD100について説明した。しかし、本発明は、例えば、外景を視認できない状態で画像を表示する、いわゆる非透過型のHMD100に適用することもできる。また、これらのHMD100では、上記実施形態で説明した実空間に重畳して画像を表示するAR表示のほか、撮像した実空間の画像と仮想画像とを組み合わせて表示するMR(Mixed Reality)表示、あるいは、仮想空間を表示するVR(Virtual Reality)表示を行うこともできる。また本発明は、AR、MR、VR表示のいずれも行わない装置にも適用できる。
E-5. Fifth modification:
In the above embodiment, the so-called transmission type HMD 100 in which the right light guide plate 26 and the left light guide plate 28 transmit external light has been described. However, the present invention can also be applied to, for example, a so-called non-transmissive HMD 100 that displays an image in a state where an outside scene cannot be visually recognized. In addition, in these HMDs 100, in addition to the AR display that displays an image superimposed on the real space described in the above embodiment, an MR (Mixed Reality) display that displays a combination of the captured real space image and a virtual image, Or VR (Virtual Reality) display which displays virtual space can also be performed. The present invention can also be applied to an apparatus that does not perform any of AR, MR, and VR display.

E−6.第6変形例:
上記各実施形態におけるHMD100の機能ブロック図は図3に示す構成であったが、上記に限定されるものではなく他の機能ブロック図であってもよい。以下に各実施形態とは異なる機能ブロックを有するHMD100aについて説明する。図22は、HMD100aの構成を機能的に示すブロック図である。上記実施形態のHMD100の構成と同様の構成については同一符号を付すと共に説明を適宜省略する。
E-6. Sixth modification:
The functional block diagram of the HMD 100 in each of the above embodiments has the configuration shown in FIG. 3, but is not limited to the above, and may be another functional block diagram. Hereinafter, the HMD 100a having functional blocks different from the respective embodiments will be described. FIG. 22 is a block diagram functionally showing the configuration of the HMD 100a. The same components as those of the HMD 100 of the above embodiment are denoted by the same reference numerals and description thereof is omitted as appropriate.

制御装置10aは、プログラムを実行してHMD100aを制御するメインプロセッサー140aと、記憶部と、入出力部と、センサー類と、インターフェイスと、電源部130aとを備える。メインプロセッサー140aには、これらの記憶部、入出力部、センサー類、インターフェイス、電源部130aがそれぞれ接続されている。メインプロセッサー140aは、制御装置10aが内蔵しているコントローラー基板120aに実装されている。メインプロセッサー140aは、上記各実施形態のCPU140と同様の処理を実行できる。例えば、メインプロセッサー140aは、図4に示す機能部を少なくとも備える。   The control device 10a includes a main processor 140a that executes a program to control the HMD 100a, a storage unit, an input / output unit, sensors, an interface, and a power supply unit 130a. The storage unit, input / output unit, sensors, interface, and power supply unit 130a are connected to the main processor 140a. The main processor 140a is mounted on a controller board 120a built in the control device 10a. The main processor 140a can execute the same processing as the CPU 140 of each of the above embodiments. For example, the main processor 140a includes at least the functional unit illustrated in FIG.

記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140aによって実行されるコンピュータープログラム、および、処理されるデーターを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140aが実行するコンピュータープログラムや、メインプロセッサー140aによって処理される各種のデーターを記憶する。不揮発性記憶部121には、図7に示す記憶部120が記憶するデータを少なくとも記憶する。本実施形態において、これらの記憶部はコントローラー基板120aに実装されている。   The storage unit includes a memory 118 and a nonvolatile storage unit 121. The memory 118 constitutes a work area that temporarily stores a computer program executed by the main processor 140a and data to be processed. The nonvolatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The non-volatile storage unit 121 stores a computer program executed by the main processor 140a and various data processed by the main processor 140a. The nonvolatile storage unit 121 stores at least data stored in the storage unit 120 illustrated in FIG. In the present embodiment, these storage units are mounted on the controller board 120a.

入出力部には、トラックパッド14aと、操作部110aとが含まれている。操作部110aには、例えばボタン11と、LEDインジケーター12aと、十字キー16とが含まれる。メインプロセッサー140aは、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。   The input / output unit includes a track pad 14a and an operation unit 110a. The operation unit 110a includes, for example, a button 11, an LED indicator 12a, and a cross key 16. The main processor 140a controls these input / output units and acquires signals output from the input / output units.

センサー類には、6軸センサー111と、磁気センサー113と、GPS(Global Positioning System)115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。GPS受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10aの現在位置の座標を検出する。これらセンサー類(6軸センサー111、磁気センサー113、GPS115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140aへと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140aからの指示に応じてもよい。   The sensors include a six-axis sensor 111, a magnetic sensor 113, and a GPS (Global Positioning System) 115. The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Inertial Measurement Unit) in which these sensors are modularized. The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor. The GPS receiving unit 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects the coordinates of the current position of the control device 10a. These sensors (six-axis sensor 111, magnetic sensor 113, GPS 115) output detection values to the main processor 140a according to a sampling frequency designated in advance. The timing at which each sensor outputs a detection value may be in accordance with an instruction from the main processor 140a.

インターフェイスには、無線通信部117と、音声コーデック181と、外部コネクター184と、外部メモリーインターフェイス186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェイス196とが含まれている。これらは、外部とのインターフェイスとして機能する。無線通信部117は、HMD100aと外部機器との間における無線通信を実行する。無線通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。無線通信部117は、例えば、Bluetooth(登録商標)、Wi−Fiを含む無線LAN等の規格に準拠した無線通信を行う。   The interface includes a wireless communication unit 117, an audio codec 181, an external connector 184, an external memory interface 186, a USB (Universal Serial Bus) connector 188, a sensor hub 192, an FPGA 194, and an interface 196. ing. These function as an interface with the outside. The wireless communication unit 117 performs wireless communication between the HMD 100a and an external device. The wireless communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like (not shown), or is configured as a device in which these are integrated. The wireless communication unit 117 performs wireless communication based on standards such as a wireless LAN including Bluetooth (registered trademark) and Wi-Fi, for example.

音声コーデック181は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック181は、マイクや右イヤホン32や左イヤホン34を備えるヘッドセットを介して入出力される音声を加工処理する機能を備えていてもよい。さらに、音声コーデック181は、内蔵されているヘッドセットを介して入出力される音声信号について、アナログ音声信号からデジタル音声データーへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。A/Dコンバーターは、マイク(図示せず)を介して入力されるアナログ音声信号を、デジタル音声データーに変換してメインプロセッサー140aへ出力する。D/Aコンバーターは、メインプロセッサー140aから出力されるデジタル音声データーをアナログ音声信号に変換して、右イヤホン32および左イヤホン34(図1)へと出力する。音声インターフェイス182は、ヘッドセットとの間で、音声信号を入出力するインターフェイスである。   The audio codec 181 is connected to the audio interface 182, and encodes / decodes an audio signal input / output via the audio interface 182. The audio codec 181 may have a function of processing audio input / output via a headset including a microphone, the right earphone 32, and the left earphone 34. Furthermore, the audio codec 181 is an A / D converter that converts analog audio signals to digital audio data for audio signals that are input / output via the built-in headset, and D that performs the reverse conversion. / A converter may be provided. The A / D converter converts an analog audio signal input via a microphone (not shown) into digital audio data and outputs the digital audio data to the main processor 140a. The D / A converter converts the digital audio data output from the main processor 140a into an analog audio signal, and outputs the analog audio signal to the right earphone 32 and the left earphone 34 (FIG. 1). The audio interface 182 is an interface for inputting / outputting audio signals to / from the headset.

外部コネクター184は、メインプロセッサー140aに対して、メインプロセッサー140aと通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140aが実行するコンピュータープログラムのデバッグや、HMD100aの動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスや、無線LANインターフェイス、Bluetoothインターフェイス等の無線接続に対応したインターフェイスを採用できる。   The external connector 184 is a connector for connecting an external device (for example, a personal computer, a smartphone, a game machine, etc.) that communicates with the main processor 140a to the main processor 140a. The external device connected to the external connector 184 can be a content supply source, and can be used for debugging a computer program executed by the main processor 140a and collecting an operation log of the HMD 100a. The external connector 184 can employ various modes. As the external connector 184, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, a memory card interface, or an interface corresponding to a wireless connection such as a wireless LAN interface or a Bluetooth interface can be adopted.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスである。外部メモリーインターフェイス186は、例えば、カード型記録媒体を装着してデーターの読み書きを行うメモリーカードスロットと、インターフェイス回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェイスである。USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェイス回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。   The external memory interface 186 is an interface to which a portable memory device can be connected. The external memory interface 186 includes, for example, a memory card slot in which a card-type recording medium is mounted and data is read and written, and an interface circuit. The size, shape, standard, etc. of the card type recording medium can be selected as appropriate. The USB connector 188 is an interface that can connect a memory device, a smartphone, a personal computer, or the like that conforms to the USB standard. The USB connector 188 includes, for example, a connector conforming to the USB standard and an interface circuit. The size, shape, USB standard version, etc. of the USB connector 188 can be selected as appropriate.

また、HMD100aは、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140aの制御に従って振動を発声する。HMD100aは、例えば、操作部110aに対する操作を検出した場合や、HMD100aの電源がオンオフされた場合等に予め定められた振動パターンでバイブレーター19により振動を発生させる。   In addition, the HMD 100 a includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor, and the like, and utters vibrations under the control of the main processor 140a. The HMD 100a causes the vibrator 19 to generate vibration with a predetermined vibration pattern when, for example, an operation on the operation unit 110a is detected or when the power of the HMD 100a is turned on / off.

センサーハブ192およびFPGA194は、インターフェイス(I/F)196を介して画像表示部20aに接続されている。センサーハブ192は、画像表示部20aが備える各種センサーの検出値を取得して、メインプロセッサー140aに出力する。FPGA194は、メインプロセッサー140aと画像表示部20aの各部との間で送受信されるデーターの処理およびインターフェイス196を介した伝送を実行する。インターフェイス196は、画像表示部20aの右表示ユニット22aと、左表示ユニット24aとに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20a内部に敷設され、右表示ユニット22aと左表示ユニット24aとのそれぞれが、制御装置10aのインターフェイス196に接続される。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20a via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20a and outputs them to the main processor 140a. The FPGA 194 executes processing of data transmitted and received between the main processor 140a and each unit of the image display unit 20a and transmission via the interface 196. The interface 196 is connected to each of the right display unit 22a and the left display unit 24a of the image display unit 20a. In the example of this embodiment, the connection cable 40 is connected to the left holding unit 23, the wiring connected to the connection cable 40 is laid inside the image display unit 20a, and each of the right display unit 22a and the left display unit 24a is It is connected to the interface 196 of the control device 10a.

電源部130aは、制御装置10aが動作するための電力を供給する。バッテリー136は、充電可能な電池である。電源制御回路135は、バッテリー136の残容量の検出と、OS143への充電の制御を行う。電源制御回路135は、メインプロセッサー140aに接続され、バッテリー136の残容量の検出値や、バッテリー136の電圧の検出値をメインプロセッサー140aへと出力する。なお、電源部130aが供給する電力に基づいて、制御装置10aから画像表示部20aへと電力を供給してもよい。電源部130aから制御装置10aの各部および画像表示部20aへの電力の供給状態を、メインプロセッサー140aにより制御可能な構成としてもよい。   The power supply unit 130a supplies power for operating the control device 10a. The battery 136 is a rechargeable battery. The power control circuit 135 detects the remaining capacity of the battery 136 and controls the charging of the OS 143. The power supply control circuit 135 is connected to the main processor 140a, and outputs the detected value of the remaining capacity of the battery 136 and the detected value of the voltage of the battery 136 to the main processor 140a. Note that power may be supplied from the control device 10a to the image display unit 20a based on the power supplied by the power supply unit 130a. The power supply state from the power supply unit 130a to each unit of the control device 10a and the image display unit 20a may be configured to be controllable by the main processor 140a.

右表示ユニット22aは、表示ユニット基板210aと、OLEDユニット221aと、外景撮像用カメラ61と、第1内側カメラ62と、照度センサー65aと、LEDインジケーター67aと、温度センサー217aと、距離検出センサー68と、を備える。表示ユニット基板210aには、インターフェイス196に接続されるインターフェイス(I/F)211aと、受信部(Rx)213aと、EEPROM(Electrically Erasable Programmable Read-Only Memory)215aとが実装されている。受信部213aは、インターフェイス211aを介して制御装置10aから入力されるデーターを受信する。受信部213aは、OLEDユニット221aで表示する画像の画像データーを受信した場合に、受信した画像データーをOLED駆動回路へと出力する。   The right display unit 22a includes a display unit substrate 210a, an OLED unit 221a, an outside scene imaging camera 61, a first inner camera 62, an illuminance sensor 65a, an LED indicator 67a, a temperature sensor 217a, and a distance detection sensor 68. And comprising. An interface (I / F) 211a connected to the interface 196, a receiving unit (Rx) 213a, and an EEPROM (Electrically Erasable Programmable Read-Only Memory) 215a are mounted on the display unit substrate 210a. The receiving unit 213a receives data input from the control device 10a via the interface 211a. When receiving the image data of the image displayed by the OLED unit 221a, the receiving unit 213a outputs the received image data to the OLED drive circuit.

EEPROM215aは、各種のデーターをメインプロセッサー140aが読み取り可能な態様で記憶する。EEPROM215aは、例えば、画像表示部20aのOLEDユニット221a、241aの発光特性や表示特性に関するデーター、右表示ユニット22aまたは左表示ユニット24aのセンサー特性に関するデーター等を記憶する。具体的には、例えば、OLEDユニット221a、241aのガンマ補正に係るパラメーター、後述する温度センサー217a、239aの検出値を補償するデーター等を記憶する。これらのデーターは、HMD100aの工場出荷時の検査によって生成され、EEPROM215aに書き込まれる。出荷後は、メインプロセッサー140aがEEPROM215aのデーターを読み込んで各種の処理に利用する。   The EEPROM 215a stores various data in a manner that can be read by the main processor 140a. The EEPROM 215a stores, for example, data on the light emission characteristics and display characteristics of the OLED units 221a and 241a of the image display unit 20a, data on the sensor characteristics of the right display unit 22a or the left display unit 24a, and the like. Specifically, for example, parameters relating to gamma correction of the OLED units 221a and 241a, data for compensating detection values of temperature sensors 217a and 239a described later, and the like are stored. These data are generated by factory inspection of the HMD 100a and written in the EEPROM 215a. After shipment, the main processor 140a reads the data in the EEPROM 215a and uses it for various processes.

外景撮像用カメラ61は、インターフェイス211aを介して入力される信号に従って撮像を実行し、撮像画像データーあるいは撮像結果を表す信号を制御装置10aへと出力する。照度センサー65aは、画像表示部20aを装着する使用者の前方からの外光を受光するように配置される。照度センサー65aは、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67aは、外景撮像用カメラ61の近傍に配置される。LEDインジケーター67aは、外景撮像用カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。   The outside scene imaging camera 61 executes imaging in accordance with a signal input via the interface 211a, and outputs captured image data or a signal representing an imaging result to the control device 10a. The illuminance sensor 65a is disposed so as to receive external light from the front of the user wearing the image display unit 20a. The illuminance sensor 65a outputs a detection value corresponding to the amount of received light (received light intensity). The LED indicator 67a is disposed in the vicinity of the outside scene imaging camera 61. The LED indicator 67a lights during execution of imaging by the outside scene imaging camera 61 to notify that imaging is being performed.

温度センサー217aは、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217aは、OLEDパネル(図示せず)の裏面側に実装される。温度センサー217aは、例えばOLED駆動回路と同一の基板に実装されてもよい。この構成により、温度センサー217aは主としてOLEDパネルの温度を検出する。なお、温度センサー217aは、OLEDパネルあるいはOLED駆動回路に内蔵されてもよい。例えば、OLEDパネルがSi−OLEDとしてOLED駆動回路と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217aを実装してもよい。   The temperature sensor 217a detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 217a is mounted on the back side of an OLED panel (not shown). For example, the temperature sensor 217a may be mounted on the same substrate as the OLED drive circuit. With this configuration, the temperature sensor 217a mainly detects the temperature of the OLED panel. The temperature sensor 217a may be built in the OLED panel or the OLED drive circuit. For example, when the OLED panel is mounted as an integrated circuit on an integrated semiconductor chip together with an OLED drive circuit as a Si-OLED, the temperature sensor 217a may be mounted on the semiconductor chip.

左表示ユニット24aは、表示ユニット基板230aと、OLEDユニット241aと、温度センサー239aと、第2内側カメラ64と、を備える。表示ユニット基板230aには、インターフェイス196に接続されるインターフェイス(I/F)231aと、受信部(Rx)233aと、6軸センサー235aと、磁気センサー237aとが実装されている。受信部233aは、インターフェイス231aを介して制御装置10aから入力されるデーターを受信する。受信部233aは、OLEDユニット241aで表示する画像の画像データーを受信した場合に、受信した画像データーをOLED駆動回路(図示せず)へと出力する。   The left display unit 24a includes a display unit substrate 230a, an OLED unit 241a, a temperature sensor 239a, and a second inner camera 64. An interface (I / F) 231a connected to the interface 196, a receiving unit (Rx) 233a, a 6-axis sensor 235a, and a magnetic sensor 237a are mounted on the display unit substrate 230a. The receiving unit 233a receives data input from the control device 10a via the interface 231a. When receiving the image data of the image displayed by the OLED unit 241a, the receiving unit 233a outputs the received image data to an OLED drive circuit (not shown).

6軸センサー235aは、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235aは、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237aは、例えば、3軸の地磁気センサーである。温度センサー239aは、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239aは、OLEDパネル(図示せず)の裏面側に実装される。温度センサー239aは、例えばOLED駆動回路と同一の基板に実装されてもよい。この構成により、温度センサー239aは主としてOLEDパネルの温度を検出する。温度センサー239aは、OLEDパネルあるいはOLED駆動回路に内蔵されてもよい。詳細は温度センサー217aと同様である。   The 6-axis sensor 235a is a motion sensor (inertia sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235a may employ an IMU in which the above sensors are modularized. The magnetic sensor 237a is a triaxial geomagnetic sensor, for example. The temperature sensor 239a detects a temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 239a is mounted on the back side of an OLED panel (not shown). For example, the temperature sensor 239a may be mounted on the same substrate as the OLED drive circuit. With this configuration, the temperature sensor 239a mainly detects the temperature of the OLED panel. The temperature sensor 239a may be incorporated in the OLED panel or the OLED drive circuit. The details are the same as those of the temperature sensor 217a.

右表示ユニット22aの外景撮像用カメラ61、照度センサー65a、温度センサー217aと、左表示ユニット24aの6軸センサー235a、磁気センサー237a、温度センサー239aは、制御装置10aのセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140aの制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データーの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22aおよび左表示ユニット24aが備える各センサーの検出値をメインプロセッサー140aへ出力する。FPGA194は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデーター形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。FPGA194は、メインプロセッサー140aの制御に従ってLEDインジケーター67aへの通電を開始および停止させることで、LEDインジケーター67aを点灯または消灯させる。   The external view imaging camera 61, the illuminance sensor 65a, the temperature sensor 217a of the right display unit 22a, and the 6-axis sensor 235a, the magnetic sensor 237a, and the temperature sensor 239a of the left display unit 24a are connected to the sensor hub 192 of the control device 10a. . The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140a. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22a and the left display unit 24a to the main processor 140a at a preset timing. The FPGA 194 may have a cache function that temporarily holds the detection value of each sensor. The sensor hub 192 may have a conversion function (for example, a conversion function to a unified format) of a signal format or a data format of a detection value of each sensor. The FPGA 194 turns on or off the LED indicator 67a by starting and stopping energization of the LED indicator 67a according to the control of the main processor 140a.

E−7.第7変形例:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
E-7. Seventh modification:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

1…表示システム、10…制御部、10a…制御装置、11…ボタン、12…点灯部、12a…LEDインジケーター、14…タッチパッド、14a…トラックパッド、16…十字キー、18…電源スイッチ、19…バイブレーター、20,20a,20x,20y…画像表示部、21…右保持部、22…右表示駆動部、22a…右表示ユニット、23…左保持部、24…左表示駆動部、24a…左表示ユニット、26,26x,26y…右光学像表示部、27…前部フレーム、28,28x,28y…左光学像表示部、30…イヤホンプラグ、32…右イヤホン、34…左イヤホン、40…接続部(接続ケーブル)、42…右コード、44…左コード、46…連結部材、48…本体コード、51…送信部、52…送信部、53…受信部、60…サーバー、61…外景撮像用カメラ、62…第1内側カメラ、64…第2内側カメラ、65a…照度センサー、66…9軸センサー、67a…LEDインジケーター、68…距離検出センサー、100…表示システム、110…入力情報取得部、110a…操作部、111…6軸センサー、113…磁気センサー、115…GPS受信部、117…無線通信部、118…メモリー、120…記憶部、120a…コントローラー基板、121…不揮発性記憶部、122…コンテンツデータ、124…コンテンツ対応テーブル、126…閾値データ、127…第1閾値、128…第2閾値、129…対象物データ、130…電源、130a…電源部、132…無線通信部、134…GPSモジュール、135…電源制御回路、136…バッテリー、140…CPU、140a…メインプロセッサー、160…画像処理部、162…画像表示制御部、164…撮像処理部、166…対象物判別部、170…音声処理部、172…物体検出部、173…頭部動き検出部、176…視線方向検出部、178…対象物動き検出部、180…インターフェイス、181…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、196…インターフェイス、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、213a…受信部、215a…EEPROM、217a…温度センサー、221…右バックライト、221a…OLEDユニット、222…左バックライト、230a…表示ユニット基板、231a…インターフェイス、233a…受信部、235a…6軸センサー、237a…磁気センサー、239a…温度センサー、241a…OLEDユニット、250…PC、251…右投写光学系、252…左投写光学系、258…表示部、261,281…ハーフミラー、601…作業台、602、604、605…製品、ED…視線方向、EL…端部、ER…端部、IMGD…処理画像データ、IMGR1…一定画素領域、IMGR2…画素領域、INT…インターネット、LE…左眼、Ps…使用者、RE…右眼、SC…外景、VR…視野、hd…手(対象物)     DESCRIPTION OF SYMBOLS 1 ... Display system, 10 ... Control part, 10a ... Control apparatus, 11 ... Button, 12 ... Lighting part, 12a ... LED indicator, 14 ... Touch pad, 14a ... Track pad, 16 ... Cross key, 18 ... Power switch, 19 ... Vibrators 20, 20a, 20x, 20y ... Image display part, 21 ... Right holding part, 22 ... Right display driving part, 22a ... Right display unit, 23 ... Left holding part, 24 ... Left display driving part, 24a ... Left Display unit, 26, 26x, 26y ... right optical image display unit, 27 ... front frame, 28, 28x, 28y ... left optical image display unit, 30 ... earphone plug, 32 ... right earphone, 34 ... left earphone, 40 ... Connection part (connection cable), 42 ... right cord, 44 ... left cord, 46 ... connecting member, 48 ... main body cord, 51 ... transmission part, 52 ... transmission part, 53 ... reception part, 6 DESCRIPTION OF SYMBOLS ... Server, 61 ... Camera for outside scene imaging, 62 ... First inner camera, 64 ... Second inner camera, 65a ... Illuminance sensor, 66 ... Nine-axis sensor, 67a ... LED indicator, 68 ... Distance detection sensor, 100 ... Display system 110 ... input information acquisition unit, 110a ... operation unit, 111 ... 6-axis sensor, 113 ... magnetic sensor, 115 ... GPS reception unit, 117 ... wireless communication unit, 118 ... memory, 120 ... storage unit, 120a ... controller board, 121 ... Non-volatile storage unit, 122 ... Content data, 124 ... Content correspondence table, 126 ... Threshold value data, 127 ... First threshold value, 128 ... Second threshold value, 129 ... Target data, 130 ... Power source, 130a ... Power source unit, 132: wireless communication unit, 134: GPS module, 135: power control circuit, 136: battery 140, CPU, 140a, main processor, 160, image processing unit, 162, image display control unit, 164, imaging processing unit, 166, object discrimination unit, 170, audio processing unit, 172, object detection unit, 173 ... Head movement detection unit, 176 ... Gaze direction detection unit, 178 ... Object movement detection unit, 180 ... Interface, 181 ... Audio codec, 182 ... Audio interface, 184 ... External connector, 186 ... External memory interface, 188 ... USB Connector, 192 ... Sensor hub, 196 ... Interface, 201 ... Right backlight controller, 202 ... Left backlight controller, 211 ... Right LCD controller, 212 ... Left LCD controller, 213a ... Receiver, 215a ... EEPROM, 217a ... temperature sensor, 221 ... right backlight, 2 21a ... OLED unit, 222 ... left backlight, 230a ... display unit board, 231a ... interface, 233a ... receiving unit, 235a ... 6-axis sensor, 237a ... magnetic sensor, 239a ... temperature sensor, 241a ... OLED unit, 250 ... PC 251 ... Right projection optical system, 252 ... Left projection optical system, 258 ... Display unit, 261,281 ... Half mirror, 601 ... Workbench, 602, 604,605 ... Product, ED ... Gaze direction, EL ... End, ER ... End, IMGD ... Processed image data, IMGR1 ... Constant pixel area, IMGR2 ... Pixel area, INT ... Internet, LE ... Left eye, Ps ... User, RE ... Right eye, SC ... Outside view, VR ... Field of view, hd ... hand (object)

Claims (17)

頭部装着型表示装置であって、
虚像を使用者に視認させる画像表示部と、
前記画像表示部の動作を制御する画像表示制御部と、
外景を撮像する外景撮像用カメラと、
前記外景撮像用カメラが撮像した撮像画像データを画像処理して処理画像データを生成する撮像処理部であって、前記撮像画像データを処理するための第1処理モードと、前記第1処理モードよりも単位時間当たりのデータ処理量の多い第2処理モードであって、前記撮像画像データを処理するための第2処理モードとのいずれかに設定可能な撮像処理部と、を備え、
前記撮像処理部は、前記処理画像データが表す画像内に予め定めた対象物が存在するか否かを判別する対象物判別部を有し、
前記撮像処理部は、前記対象物判別部によって前記対象物が存在すると判別された場合に、処理モードを前記第1処理モードから前記第2処理モードに切り換える、頭部装着型表示装置。
A head-mounted display device,
An image display unit for allowing a user to visually recognize a virtual image;
An image display control unit for controlling the operation of the image display unit;
An outside scene imaging camera for imaging the outside scene;
An image processing unit that performs image processing on captured image data captured by the outside scene image capturing camera to generate processed image data, the first processing mode for processing the captured image data, and the first processing mode A second processing mode with a large amount of data processing per unit time, the imaging processing unit being settable to any one of the second processing mode for processing the captured image data,
The imaging processing unit includes an object determination unit that determines whether or not a predetermined object exists in an image represented by the processed image data,
The head-mounted display device that switches the processing mode from the first processing mode to the second processing mode when the imaging processing unit determines that the target is present by the target determination unit.
請求項1に記載の頭部装着型表示装置であって、さらに、
前記外景撮像用カメラの撮像領域のうちで一定の対象物検出領域において、前記対象物の候補となる物体の存在を検出するための物体検出部を備え、
前記撮像処理部は、前記物体検出部によって前記物体が存在することが検出された場合に、前記第1処理モードを実行する、頭部装着型表示装置。
The head-mounted display device according to claim 1, further comprising:
An object detection unit for detecting the presence of an object that is a candidate for the object in a certain object detection area in the imaging area of the camera for capturing an outside scene;
The imaging processing unit is a head-mounted display device that executes the first processing mode when the object detection unit detects the presence of the object.
請求項2に記載の頭部装着型表示装置であって、
前記一定の対象物検出領域は、前記使用者が前記物体を視認できる範囲内であり、かつ、奥行き方向において前記使用者が水平に手を延ばしたときに前記使用者の手が届く範囲内である、頭部装着型表示装置。
The head-mounted display device according to claim 2,
The certain object detection area is within a range where the user can visually recognize the object, and within a range where the user can reach when the user extends his hand horizontally in the depth direction. A head-mounted display device.
請求項3に記載の頭部装着型表示装置であって、
前記物体を視認できる範囲は、
水平方向において、前記使用者の視線方向に対して一方の側が60度以下の範囲であり、他方の側が60度以下の範囲であり、
垂直方向において、前記視線方向よりも上側が30度以下の範囲であり、前記視線方向よりも下側が40度以下の範囲である、頭部装着型表示装置。
The head-mounted display device according to claim 3,
The range in which the object can be viewed is
In the horizontal direction, one side is a range of 60 degrees or less with respect to the user's line-of-sight direction, and the other side is a range of 60 degrees or less,
A head-mounted display device in which, in the vertical direction, the upper side of the line-of-sight direction is a range of 30 degrees or less and the lower side of the line-of-sight direction is a range of 40 degrees or less.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
前記使用者の頭部の動きを検出し、経時的に検出した前記頭部の動きに基づいて前記使用者の頭部の動き量を算出する頭部動き検出部と、
前記使用者の視線方向を検出し、経時的に検出した前記視線方向に基づいて前記使用者の視線方向の変化量を算出する視線方向検出部と、を備え、
前記撮像処理部は、
処理モードが前記第1処理モードであるときに、前記動き量が第1閾値を超え、かつ、前記変化量が第2閾値を超えている場合は、前記対象物判別部の判別結果に拘わらず前記処理モードを前記第1処理モードに維持する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4, further comprising:
A head movement detection unit that detects movement of the user's head and calculates a movement amount of the user's head based on the movement of the head detected over time;
A gaze direction detection unit that detects the gaze direction of the user and calculates a change amount of the gaze direction of the user based on the gaze direction detected over time,
The imaging processing unit
When the processing mode is the first processing mode, if the amount of motion exceeds the first threshold and the amount of change exceeds the second threshold, regardless of the determination result of the object determination unit A head-mounted display device that maintains the processing mode in the first processing mode.
請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、
前記撮像処理部は、前記第1処理モードと前記第2処理モードとの少なくともいずれ一方のモードにおいて、第1のフレームを構成する前記処理画像データ内の前記対象物が位置する画素領域を含む一定画素領域を設定し、前記第1のフレームの次に撮像された第2のフレームを構成する前記撮像画像データに対して前記一定画素領域に対応する範囲のデータを抽出し、抽出したデータに対して画像処理を行う、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 5,
The imaging processing unit includes a pixel region in which at least one of the first processing mode and the second processing mode includes a pixel region in which the target object in the processed image data constituting the first frame is located. A pixel area is set, data in a range corresponding to the certain pixel area is extracted from the captured image data constituting the second frame imaged next to the first frame, and the extracted data is A head-mounted display device that performs image processing.
請求項1から請求項6までのいずれか一項に記載の頭部装着型表示装置であって、
前記撮像処理部は、さらに、
前記第2処理モードにおいて、経時的に撮像された複数フレームの前記撮像画像データに基づいて前記対象物の動きを検出する対象物動き検出部を備え、
前記画像表示制御部は、前記対象物動き検出部によって検出された前記対象物の動きに基づいて前記虚像の表示内容を変化させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 6,
The imaging processing unit further includes:
In the second processing mode, an object motion detection unit that detects the motion of the object based on the captured image data of a plurality of frames captured over time,
The image display control unit is a head-mounted display device that changes display contents of the virtual image based on the movement of the object detected by the object movement detection unit.
請求項7に記載の頭部装着型表示装置であって、
前記対象物は、使用者の手である、頭部装着型表示装置。
The head-mounted display device according to claim 7,
The head mounted display device, wherein the object is a user's hand.
請求項1から請求項8までのいずれか一項に記載の頭部装着型表示装置であって、
前記第1処理モードは、前記外景撮像用カメラによって第1フレームレートで前記外景を撮像させる第1撮像モードを含み、
前記第2処理モードは、前記外景撮像用カメラによって前記第1フレームレートよりも高い第2フレームレートで前記外景を撮像させる第2撮像モードを含む、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 8,
The first processing mode includes a first imaging mode in which the outside scene is imaged at a first frame rate by the outside scene imaging camera;
The head mounted display device, wherein the second processing mode includes a second imaging mode in which the outside scene is imaged at a second frame rate higher than the first frame rate by the outside scene imaging camera.
請求項1から請求項9までのいずれか一項に記載の頭部装着型表示装置であって、
前記第1処理モードは、前記外景撮像用カメラによって第1解像度で前記外景を撮像させる第1解像度モードを含み、
前記第2処理モードは、前記外景撮像用カメラによって前記第1解像度よりも高い第2解像度で前記外景を撮像させる第2解像度モードを含む、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 9,
The first processing mode includes a first resolution mode in which the outside scene is imaged at a first resolution by the outside scene imaging camera;
The head-mounted display device, wherein the second processing mode includes a second resolution mode in which the outside scene is imaged at a second resolution higher than the first resolution by the outside scene imaging camera.
請求項1から請求項10までのいずれか一項に記載の頭部装着型表示装置であって、
前記第1処理モードは、前記外景撮像用カメラが撮像した前記撮像画像データを構成する複数のフレームの一部の前記フレームを間引いて、間引いた後の前記撮像画像データを画像処理するモードを含み
前記第2処理モードは、前記第1処理モードよりも多い前記フレームから構成される前記撮像画像データを画像処理するモードを含む、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 10,
The first processing mode includes a mode in which a part of a plurality of frames constituting the captured image data captured by the outside scene imaging camera is thinned, and the captured image data after the thinning is subjected to image processing. The head-mounted display device, wherein the second processing mode includes a mode for performing image processing on the captured image data composed of more frames than in the first processing mode.
頭部装着型表示装置であって、
虚像を使用者に視認させる画像表示部と、
前記画像表示部の動作を制御する画像表示制御部と、
外景を撮像して撮像画像データを生成する外景撮像用カメラと、
前記外景撮像用カメラの動作を制御する撮像処理部と、
前記外景撮像用カメラの撮像領域のうちで一定の対象物検出領域に、物体の存在を検出するための物体検出部と、を備え、
前記撮像処理部は、
前記物体検出部によって前記物体が存在することが検出された場合に、前記外景撮像用カメラによって前記外景の撮像を開始させる、頭部装着型表示装置。
A head-mounted display device,
An image display unit for allowing a user to visually recognize a virtual image;
An image display control unit for controlling the operation of the image display unit;
An outside scene imaging camera that images the outside scene and generates captured image data;
An imaging processor for controlling the operation of the outside scene imaging camera;
An object detection unit for detecting the presence of an object in a certain target detection region in the imaging region of the outside scene imaging camera;
The imaging processing unit
A head-mounted display device that, when the object detection unit detects the presence of the object, starts imaging the outside scene with the outside scene imaging camera.
請求項12に記載の頭部装着型表示装置であって、
前記一定の対象物検出領域は、前記使用者が前記物体を視認できる範囲内であり、かつ、奥行き方向において前記使用者が水平に手を延ばしたときに前記使用者の手が届く範囲内である、頭部装着型表示装置。
The head-mounted display device according to claim 12,
The certain object detection area is within a range where the user can visually recognize the object, and within a range where the user can reach when the user extends his hand horizontally in the depth direction. A head-mounted display device.
請求項13に記載の頭部装着型表示装置であって、
前記物体を視認できる範囲は、
水平方向において、前記使用者の視線方向に対して一方の側が60度以下の範囲であり、他方の側が60度以下の範囲であり、
垂直方向において、前記視線方向よりも上側が30度以下の範囲であり、前記視線方向よりも下側が40度以下の範囲である、頭部装着型表示装置。
The head-mounted display device according to claim 13,
The range in which the object can be viewed is
In the horizontal direction, one side is a range of 60 degrees or less with respect to the user's line-of-sight direction, and the other side is a range of 60 degrees or less,
A head-mounted display device in which, in the vertical direction, the upper side of the line-of-sight direction is a range of 30 degrees or less and the lower side of the line-of-sight direction is a range of 40 degrees or less.
請求項12から請求項14までのいずれか一項に記載の頭部装着型表示装置であって、
前記撮像処理部は、前記外景の撮像を実行している際に、経時的に撮像された複数フレームの撮像画像データに基づいて前記対象物の動きを検出する対象物動き検出部を備え、
前記画像表示制御部は、前記対象物動き検出部によって検出された前記対象物の動きに基づいて前記虚像の表示内容を変化させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 12 to 14,
The imaging processing unit includes an object motion detection unit that detects a motion of the object based on captured image data of a plurality of frames captured over time when imaging of the outside scene is performed,
The image display control unit is a head-mounted display device that changes display contents of the virtual image based on the movement of the object detected by the object movement detection unit.
外景を撮像する外景撮像用カメラを備える頭部装着型表示装置の制御方法であって、
(a)前記外景撮像用カメラによって前記外景を撮像させ撮像画像データを取得する工程と、
(b)前記撮像画像データを画像処理して処理画像データを生成する工程と、
(c)前記処理画像データが表す画像内に予め定めた対象物が存在するか否かを判別する工程と、
(d)前記工程(c)において、前記対象物が存在すると判別された場合に、処理モードを第1処理モードから第2処理モードに切り換える工程と、を備え、
前記第1処理モードは、前記撮像画像データを処理するための処理モードであり、
前記第2処理モードは、前記第1処理モードよりも単位時間当たりのデータ処理量の多い処理モードであって、前記撮像画像データを処理するための処理モードである、制御方法。
A method for controlling a head-mounted display device including an outside scene imaging camera that images an outside scene,
(A) capturing the outside scene by the outside scene imaging camera and obtaining captured image data;
(B) image-processing the captured image data to generate processed image data;
(C) determining whether or not a predetermined object exists in the image represented by the processed image data;
(D) including a step of switching the processing mode from the first processing mode to the second processing mode when it is determined in step (c) that the object exists.
The first processing mode is a processing mode for processing the captured image data,
The control method, wherein the second processing mode is a processing mode having a larger data processing amount per unit time than the first processing mode, and is a processing mode for processing the captured image data.
外景を撮像する外景撮像用カメラを備える頭部装着型表示装置の制御方法であって、
(a)前記外景撮像用カメラの撮像領域のうちで一定の対象物検出領域に、物体の存在を検出する工程と、
(b)前記工程(a)において前記物体が存在することが検出された場合に、前記外景撮像用カメラによって前記外景の撮像を開始させる工程と、を備える、制御方法。
A method for controlling a head-mounted display device including an outside scene imaging camera that images an outside scene,
(A) detecting the presence of an object in a certain object detection region in the imaging region of the outside scene imaging camera;
(B) a step of starting imaging of the outside scene by the outside scene imaging camera when the presence of the object is detected in the step (a).
JP2016226624A 2016-11-22 2016-11-22 Head-mounted display device and method for controlling the same Pending JP2018085595A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016226624A JP2018085595A (en) 2016-11-22 2016-11-22 Head-mounted display device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016226624A JP2018085595A (en) 2016-11-22 2016-11-22 Head-mounted display device and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2018085595A true JP2018085595A (en) 2018-05-31

Family

ID=62237730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016226624A Pending JP2018085595A (en) 2016-11-22 2016-11-22 Head-mounted display device and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2018085595A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026550A1 (en) * 2021-08-26 2023-03-02 ソニーグループ株式会社 Wearable display device, detection method, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023026550A1 (en) * 2021-08-26 2023-03-02 ソニーグループ株式会社 Wearable display device, detection method, and recording medium

Similar Documents

Publication Publication Date Title
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
US10785472B2 (en) Display apparatus and method for controlling display apparatus
US9898868B2 (en) Display device, method of controlling the same, and program
US10635182B2 (en) Head mounted display device and control method for head mounted display device
CN110068926B (en) Display device
US11536964B2 (en) Head-mounted display apparatus, display control method, and computer program
JP6155622B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
US9792710B2 (en) Display device, and method of controlling display device
CN108535868B (en) Head-mounted display device and control method thereof
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US10718948B2 (en) Head-mounted display apparatus, display control method, and computer program
US20190222774A1 (en) Head-mounted display apparatus, display system, and method of controlling head-mounted display apparatus
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
JP2018124721A (en) Head-mounted type display device and control method of head-mounted type display device
JP2016133399A (en) Head-mounted display device and method of controlling head-mounted display device, and computer program
CN114531951A (en) Automatic video capture and compositing system
JP2016024208A (en) Display device, method for controlling display device, and program
US11216066B2 (en) Display device, learning device, and control method of display device
JP6135162B2 (en) Head-mounted display device, head-mounted display device control method, and image display system
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP2018085595A (en) Head-mounted display device and method for controlling the same
JP2016033763A (en) Display device, method for controlling display device, and program
JP2018091882A (en) Head-mounted display, program, and method for controlling head-mounted display