JP2019004274A - Imaging display device - Google Patents

Imaging display device Download PDF

Info

Publication number
JP2019004274A
JP2019004274A JP2017116506A JP2017116506A JP2019004274A JP 2019004274 A JP2019004274 A JP 2019004274A JP 2017116506 A JP2017116506 A JP 2017116506A JP 2017116506 A JP2017116506 A JP 2017116506A JP 2019004274 A JP2019004274 A JP 2019004274A
Authority
JP
Japan
Prior art keywords
unit
imaging
image
imaging unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017116506A
Other languages
Japanese (ja)
Inventor
宮崎 浩
Hiroshi Miyazaki
浩 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Copal Corp
Original Assignee
Nidec Copal Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Copal Corp filed Critical Nidec Copal Corp
Priority to JP2017116506A priority Critical patent/JP2019004274A/en
Publication of JP2019004274A publication Critical patent/JP2019004274A/en
Pending legal-status Critical Current

Links

Images

Abstract

To display a high quality image even when an imaging element having a relatively small number of pixels is used in head mounted display for an augmented reality device.SOLUTION: An imaging display device includes a first imaging unit that captures an image in a first direction, a second imaging unit that captures an image in a second direction, a first display unit that displays a first image generated on the basis of the image captured by the first imaging unit, a second display unit that displays a second image generated on the basis of the image captured by the second imaging unit, a sight line detection unit that detects the sight line of a user, and a drive unit that adjusts the directions of the first imaging unit and the second imaging unit according to the sight line detected by the sight line detection unit.SELECTED DRAWING: Figure 2

Description

本発明の一態様は、拡張現実装置のための頭部装着型の撮像表示装置等に関する。   One embodiment of the present invention relates to a head-mounted imaging display device or the like for an augmented reality device.

頭部装着型の画像表示装置(ヘッド・マウント・ディスプレイ)については、従来から種々の装置が開発されている。このような画像表示装置では、使用者の視線(眼球の動き)に応じて表示する画像を変化させる構成が採用されることがあった。このような装置については、例えば特許文献1または特許文献2などに開示されている。   Various devices have been developed for head-mounted image display devices (head-mounted displays). In such an image display device, a configuration in which an image to be displayed is changed in accordance with a user's line of sight (movement of the eyeball) may be employed. Such an apparatus is disclosed in, for example, Patent Document 1 or Patent Document 2.

特開2011−197736号公報JP 2011-197736 A 特開平9−284676号公報Japanese Patent Laid-Open No. 9-284676

一方で近年、撮像した現実の画像に、所定の画像や情報などを組み合わせて使用者の目の前に表示する拡張現実(Argumented Reality)装置が開発されている。このような拡張現実装置においては、従来の頭部装着型の画像表示装置のように、使用者の視線に応じて表示する画像を変化させる構成が採用されうる。しかし、従来の仮想現実装置を拡張現実装置にそのまま適用しようとすると、非常に画素数が多い撮像素子と広角レンズを用いる必要があるなどの課題があった。   On the other hand, in recent years, an augmented reality device that displays a captured image in combination with a predetermined image or information in front of the user's eyes has been developed. In such an augmented reality device, a configuration in which an image to be displayed is changed according to a user's line of sight, like a conventional head-mounted image display device, can be adopted. However, when the conventional virtual reality device is applied to the augmented reality device as it is, there is a problem that it is necessary to use an image sensor and a wide-angle lens having a very large number of pixels.

本発明は、上記の課題などを解決するために次のような手段を採る。なお、以下の説明において、発明の理解を容易にするために図面中の符号等を括弧書きで付記するが、本発明の各構成要素はこれらの付記したものに限定されるものではなく、当業者が技術的に理解しうる範囲にまで広く解釈されるべきものである。   The present invention employs the following means in order to solve the above-described problems. In the following description, in order to facilitate understanding of the invention, reference numerals and the like in the drawings are appended in parentheses, but each component of the present invention is not limited to these appendices. It should be construed broadly to the extent that contractors can technically understand.

本発明の一の手段は、
第1方向の画像を撮像する第1撮像部(11)と、
第2方向の画像を撮像する第2撮像部(12)と、
前記第1撮像部により撮像された画像に基づいて生成された第1画像を表示する第1表示部(14)と、
前記第2撮像部により撮像された画像に基づいて生成された第2画像を表示する第2表示部(15)と、
使用者の視線を検出する視線検出部(16)と、
前記視線検出部で検出された前記視線に応じて前記第1撮像部(11)及び前記第2撮像部(12)の向きを調整する駆動部(13)と、を備える、
撮像表示装置である。
One means of the present invention is to
A first imaging unit (11) that captures an image in a first direction;
A second imaging unit (12) that captures an image in the second direction;
A first display unit (14) for displaying a first image generated based on an image captured by the first imaging unit;
A second display unit (15) for displaying a second image generated based on the image captured by the second imaging unit;
A line-of-sight detection unit (16) for detecting the line of sight of the user;
A drive unit (13) that adjusts the orientation of the first imaging unit (11) and the second imaging unit (12) according to the line of sight detected by the line-of-sight detection unit,
An imaging display device.

上記構成の撮像表示装置では、例えば、使用者の視線に応じて右目及び左目に対応する撮像部の向きを駆動部で調整しながら撮像するため、広角レンズ及び撮像素子などの構成を用いる構成と比較して、比較的画素数が少ない撮像素子を撮像部として用いた構成にすることなどが可能となる。また、実際の目の動きに合わせた動作となるため、自然な画像を表示することなどができる。   In the imaging display device having the above-described configuration, for example, a configuration using a configuration of a wide-angle lens, an imaging element, or the like is used to perform imaging while adjusting the orientation of the imaging unit corresponding to the right eye and the left eye with the drive unit according to the user's line of sight. In comparison, an imaging device having a relatively small number of pixels can be used as an imaging unit. In addition, since the operation is in accordance with the actual eye movement, a natural image can be displayed.

上記撮像表示装置において、好ましくは、
前記視線検出部は、使用者の眼球の位置を検出することにより視線を検出する。
In the imaging display device, preferably
The line-of-sight detection unit detects the line of sight by detecting the position of the user's eyeball.

上記構成の撮像表示装置では、使用者の視線を精度良く検出しながら、撮像して表示する画像の向きを調整することができる。   In the imaging display device having the above-described configuration, it is possible to adjust the orientation of an image to be captured and displayed while accurately detecting the user's line of sight.

上記撮像表示装置において、好ましくは、
前記第1方向及び前記第2方向は、使用者の左右の眼球の向きに対応する方向である。
In the imaging display device, preferably
The first direction and the second direction are directions corresponding to the directions of the left and right eyeballs of the user.

上記構成の撮像表示装置では、視差のある2つの画像を表示することで、表示部に表示された画像を使用者が立体的に感じられる構成とすることができる。   In the imaging display device having the above configuration, by displaying two images with parallax, the image displayed on the display unit can be configured to make the user feel three-dimensional.

上記撮像表示装置において、好ましくは、
前記第1画像は、前記第1撮像部により1秒前より後に撮像された画像に基づいて生成された画像であり、
前記第2画像は、前記第2撮像部により1秒前より後に撮像された画像に基づいて生成された画像である。
In the imaging display device, preferably
The first image is an image generated based on an image captured after 1 second by the first imaging unit,
The second image is an image generated based on an image captured after one second by the second imaging unit.

上記構成の撮像表示装置では、使用者が略リアルタイムで拡張現実を体験することを可能にする構成にすることができる。   The imaging display device having the above configuration can be configured to allow the user to experience augmented reality in substantially real time.

上記撮像表示装置において、好ましくは、
前記駆動部は、前記第1撮像部及び前記第2撮像部を一方向に往復移動させる。
In the imaging display device, preferably
The driving unit reciprocates the first imaging unit and the second imaging unit in one direction.

上記構成の撮像表示装置では、第1撮像部及び第2撮像部を一方向にのみ移動させる構成とすることで、比較的簡易な制御が可能で、比較的簡易な構成とすることができる。例えば、眼球の移動範囲が比較的広い横方向にのみ第1撮像部及び第2撮像部を移動させる構成とし、比較的簡易な構成で、眼球の移動に合わせて移動する撮像部を備える構成とすることなどが可能となる。   In the imaging display device having the above configuration, the first imaging unit and the second imaging unit are moved in only one direction, so that relatively simple control is possible and a relatively simple configuration can be achieved. For example, a configuration in which the first imaging unit and the second imaging unit are moved only in the lateral direction in which the movement range of the eyeball is relatively wide, and a configuration having an imaging unit that moves in accordance with the movement of the eyeball with a relatively simple configuration. It is possible to do.

図1は、ヘッドマウントディスプレイの外観斜視図である。FIG. 1 is an external perspective view of a head mounted display. 図2は、ヘッドマウントディスプレイの機能ブロック図である。FIG. 2 is a functional block diagram of the head mounted display. 図3は、ヘッドマウントディスプレイの動作を示すフローチャートである。FIG. 3 is a flowchart showing the operation of the head mounted display.

本発明の画像処理装置は、ヘッドマウントディスプレイなどの拡張現実装置であって、表示部で表示する画像の基礎となる周辺画像を撮像する撮像部を、使用者の視線に合わせて移動させる構成としている点を特徴のひとつとしている。   The image processing apparatus according to the present invention is an augmented reality device such as a head-mounted display, and has a configuration in which an imaging unit that captures a peripheral image that is a basis of an image displayed on a display unit is moved in accordance with a user's line of sight. This is one of the features.

本発明に係る具体的な実施形態について、以下の構成に従って説明する。ただし、以下で説明する実施形態はあくまで本発明の一例にすぎず、本発明の技術的範囲を限定的に解釈させるものではない。なお、各図面において、同一の構成要素には同一の符号を付しており、その説明を省略する場合がある。
1.実施形態
2.変形例
3.補足事項
Specific embodiments according to the present invention will be described according to the following configuration. However, the embodiment described below is merely an example of the present invention and does not limit the technical scope of the present invention. In addition, in each drawing, the same code | symbol is attached | subjected to the same component and the description may be abbreviate | omitted.
1. Embodiment 2. FIG. Modified example 2. Supplementary matter

<1.実施形態>
本発明の実施形態について、図面を参照しながら説明する。図1は、本実施形態のヘッドマウントディスプレイの外観斜視図である。図2は、本実施形態のヘッドマウントディスプレイの機能ブロック図である。
<1. Embodiment>
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an external perspective view of the head mounted display of the present embodiment. FIG. 2 is a functional block diagram of the head mounted display of the present embodiment.

図1に示されるように、本実施形態のヘッドマウントディスプレイは、本体部1、及び装着具21〜23を含んで構成される。装着具22及び23は使用者(ヘッドマウントディスプレイの装着者)の頭部の周囲を囲むように配置され、装着具21は使用者の額から後頭部に向かって頭頂部を通って伸びるよう配置される。図1及び図2に示されるように、ヘッドマウントディスプレイの本体部1は、制御部10、第1撮像部11、第2撮像部12、駆動部13、第1表示部14、第2表示部15、及び視線検出部16を含んで構成される。   As shown in FIG. 1, the head mounted display of the present embodiment is configured to include a main body 1 and mounting tools 21 to 23. The wearing tools 22 and 23 are arranged so as to surround the periphery of the head of the user (head mounted display wearer), and the wearing tool 21 is arranged to extend from the user's forehead toward the back of the head through the top of the head. The As shown in FIGS. 1 and 2, the main body 1 of the head mounted display includes a control unit 10, a first imaging unit 11, a second imaging unit 12, a driving unit 13, a first display unit 14, and a second display unit. 15 and the line-of-sight detection unit 16.

<第1撮像部11、第2撮像部12>
第1撮像部11及び第2撮像部12は、少なくともレンズ及び撮像素子を含んでおり、それぞれ被写体の画像を取得可能に構成される。図1に示されるように、第1撮像部11及び第2撮像部12は、本体部1の外側に向かって配置される。第1撮像部11及び第2撮像部12は、それぞれ使用者の右目及び左目に対応した位置に配置される。つまり、第1撮像部11と第2撮像部12とは、互いに所定の距離だけ横方向に間隔を空けて配置されることで、第1撮像部11により撮像された画像と、第2撮像部12により撮像された画像とが視差を有する画像となる。第1撮像部11及び第2撮像部12は、取得した画像を制御部10に出力する。
<First imaging unit 11 and second imaging unit 12>
The first imaging unit 11 and the second imaging unit 12 include at least a lens and an imaging element, and are configured to be able to acquire an image of a subject. As shown in FIG. 1, the first imaging unit 11 and the second imaging unit 12 are arranged toward the outside of the main body unit 1. The 1st imaging part 11 and the 2nd imaging part 12 are arrange | positioned in the position corresponding to a user's right eye and left eye, respectively. That is, the first imaging unit 11 and the second imaging unit 12 are arranged at a predetermined distance from each other in the lateral direction so that an image captured by the first imaging unit 11 and the second imaging unit 12 is an image having parallax. The first imaging unit 11 and the second imaging unit 12 output the acquired image to the control unit 10.

<駆動部13>
駆動部13は、制御部10の制御により、第1撮像部11及び第2撮像部12を横方向及び縦方向に移動させる。駆動部13は、例えば横方向の回転台と、縦方向の回転台とを組み合わせて構成される。
<Drive unit 13>
The drive unit 13 moves the first imaging unit 11 and the second imaging unit 12 in the horizontal direction and the vertical direction under the control of the control unit 10. The drive unit 13 is configured by combining, for example, a horizontal turntable and a vertical turntable.

より具体的には、駆動部13は、制御部10の制御により、視線検出部16で検出された使用者の視線の動きに対応して、第1撮像部11及び第2撮像部12の向きを調整する。   More specifically, the driving unit 13 controls the orientations of the first imaging unit 11 and the second imaging unit 12 in accordance with the movement of the user's line of sight detected by the line-of-sight detection unit 16 under the control of the control unit 10. Adjust.

<第1表示部14、第2表示部15>
第1表示部14及び第2表示部15は、制御部10の制御により、それぞれ第1撮像部11及び第2撮像部12で撮像された画像に基づいて生成された画像を、使用者が視認できるよう表示する。第1表示部14及び第2表示部15は、本体部1において、それぞれ使用者の右目前、及び左目前に配置される。使用者は、右目では第1表示部14のみを視認でき、左目では第2表示部15のみを視認でき、もう一方の表示部は視認できないようになっている。第1表示部14及び第2表示部15には、視差を有する画像が表示されるため、使用者は第1表示部14及び第2表示部15に表示されるこれらの画像を立体的に感じることができる。
<First display unit 14 and second display unit 15>
The first display unit 14 and the second display unit 15 allow the user to visually recognize images generated based on images captured by the first imaging unit 11 and the second imaging unit 12, respectively, under the control of the control unit 10. Display as you can. The first display unit 14 and the second display unit 15 are disposed in the main body unit 1 in front of the user's right eye and in front of the left eye, respectively. The user can see only the first display unit 14 with the right eye, can see only the second display unit 15 with the left eye, and cannot see the other display unit. Since images having parallax are displayed on the first display unit 14 and the second display unit 15, the user feels these images displayed on the first display unit 14 and the second display unit 15 three-dimensionally. be able to.

<視線検出部16>
視線検出部16は、従来から知られる使用者の視線を検出する機能を有しており、検出した使用者の視線に関する情報を制御部10に出力する。例えば、視線検出部16は、使用者の眼球の位置を連続的に検出することで使用者の視線を検出する。例えば、視線検出部16は、右目及び左目の前に配置されたカメラ(撮像装置)またはセンサなどを利用し、使用者の右目及び左目の眼球の位置を検出することで使用者の視線を検出する。ヘッドマウントディスプレイを装着することで使用者の目の近傍が暗い場合には、赤外線カメラなどを利用することが好ましい。
<Gaze detection unit 16>
The line-of-sight detection unit 16 has a function of detecting a user's line of sight conventionally known, and outputs information related to the detected line of sight of the user to the control unit 10. For example, the line-of-sight detection unit 16 detects the user's line of sight by continuously detecting the position of the user's eyeball. For example, the line-of-sight detection unit 16 detects the user's line of sight by detecting the positions of the eyeballs of the user's right eye and left eye using a camera (imaging device) or a sensor disposed in front of the right eye and the left eye. To do. When the vicinity of the user's eyes is dark by wearing the head mounted display, it is preferable to use an infrared camera or the like.

なお、本明細書において眼球の位置とは、具体的には眼球における瞳孔または虹彩の位置を指す。また、眼球の中心位置とは、眼球における瞳孔または虹彩の中心部を指す。また、視線とは、球面上の瞳孔または虹彩の中心部の法線方向を指す。   In the present specification, the position of the eyeball specifically refers to the position of the pupil or iris in the eyeball. The center position of the eyeball refers to the center of the pupil or iris in the eyeball. The line of sight indicates the normal direction of the center of the pupil or iris on the spherical surface.

<制御部10>
制御部10は、例えばCPUなどの演算装置であって、図2に示されるように、第1撮像部11、第2撮像部12、駆動部13、第1表示部14、第2表示部15、及び視線検出部16との間でデータのやり取りを行って、これらの構成の動作を制御する。
<Control unit 10>
The control unit 10 is an arithmetic device such as a CPU, for example, and as illustrated in FIG. 2, the first imaging unit 11, the second imaging unit 12, the driving unit 13, the first display unit 14, and the second display unit 15. And exchanges data with the line-of-sight detection unit 16 to control the operation of these components.

制御部10は、視線検出部16を制御して、使用者の眼球の位置から、使用者の視線を確認する。制御部10は、視線検出部16による視線の検出結果に基づいて駆動部13を制御し、第1撮像部11及び第2撮像部12の向きを、視線の向きに合うように調整する。制御部10は、第1撮像部11及び第2撮像部12で撮像した画像を、メモリ(図示省略)に一時的に記憶させる。制御部10は、第1表示部14及び第2表示部15に表示するために第1撮像部11及び第2撮像部12の撮像結果に重畳させる画像情報を生成する。制御部10は、所定の画像が重畳されるなどの処理が施された、第1撮像部11及び第2撮像部12の撮像結果に基づいて加工された画像を、第1表示部14及び第2表示部15に表示させる。   The control unit 10 controls the line-of-sight detection unit 16 to confirm the user's line of sight from the position of the user's eyeball. The control unit 10 controls the drive unit 13 based on the line-of-sight detection result by the line-of-sight detection unit 16 and adjusts the orientations of the first imaging unit 11 and the second imaging unit 12 to match the direction of the line of sight. The control unit 10 temporarily stores an image captured by the first imaging unit 11 and the second imaging unit 12 in a memory (not shown). The control unit 10 generates image information to be superimposed on the imaging results of the first imaging unit 11 and the second imaging unit 12 for display on the first display unit 14 and the second display unit 15. The control unit 10 performs processing such as superimposition of a predetermined image on the first display unit 14 and the first display unit 14 and displays images processed based on the imaging results of the first imaging unit 11 and the second imaging unit 12. 2 Display on the display unit 15.

制御部10による各構成の制御の流れについては、以下の動作説明において具体的に説明する。   The flow of control of each component by the control unit 10 will be specifically described in the following operation description.

<動作>
次に、本実施形態のヘッドマウントディスプレイの動作について、図3のフローチャートを参照しながら説明する。なお、ここで説明する動作は、ヘッドマウントディスプレイにおける表示画像を、撮像した画像に同期させながら調整する動作のみである。
<Operation>
Next, the operation of the head mounted display of this embodiment will be described with reference to the flowchart of FIG. Note that the operations described here are only operations for adjusting the display image on the head mounted display while synchronizing with the captured image.

<S100〜S120>
使用者がヘッドマウントディスプレイを装着して拡張現実機能を動作させると(S100)、制御部10は、視線検出部16により連続的に撮像される使用者の左右の目の画像を取得する(S110)。制御部10は、取得された使用者の左右の目の画像から、使用者の眼球の中心位置を特定することで、使用者の視線を確認する(S120)。なお、これらの視線の検出処理は、制御部10ではなく視線検出部16により行われてもよい。
<S100 to S120>
When the user wears the head mounted display and operates the augmented reality function (S100), the control unit 10 acquires images of the left and right eyes of the user that are continuously imaged by the line-of-sight detection unit 16 (S110). ). The control part 10 confirms a user's eyes | visual_axis by pinpointing the center position of a user's eyeball from the acquired user's right and left eye image (S120). Note that these line-of-sight detection processes may be performed by the line-of-sight detection unit 16 instead of the control unit 10.

<S130〜S140>
次に、制御部10は、使用者の眼球の中心位置が、直前の状態に対して変化したかどうかを確認する(S130)。使用者の眼球の中心位置が変化していれば(S130でY)、制御部10は駆動部13を動作させ、第1撮像部11及び第2撮像部12を、それぞれ使用者の視線の方向に向くよう移動させて調整する(S140)。一方、使用者の眼球の中心位置が変化していなければ(S130でN)、そのままでS140の処理を行う。
<S130 to S140>
Next, the control unit 10 checks whether or not the center position of the user's eyeball has changed with respect to the immediately preceding state (S130). If the center position of the user's eyeball has changed (Y in S130), the control unit 10 operates the drive unit 13 to move the first imaging unit 11 and the second imaging unit 12 in the direction of the user's line of sight. (S140). On the other hand, if the center position of the user's eyeball has not changed (N in S130), the process of S140 is performed as it is.

<S150〜S160>
次に、S130及びS140の処理を経て、第1撮像部11及び第2撮像部12が使用者の視線に合った方向に向いた状態で、制御部10は、第1撮像部11及び第2撮像部12を動作させて被写体を撮像する(S150)。次に、制御部10は、第1撮像部11及び第2撮像部12で撮像した画像に所定の画像を組み合わせて、第1表示部14及び第2表示部15に表示させる(S160)。第1表示部14及び第2表示部15に表示される(組み合わされる)画像は、例えば、実際の画像に物体、人物、またはキャラクターなどを立体的になるよう視差を持たせた2枚の画像である。第1表示部14及び第2表示部15に画像を表示したら、S120の処理から繰り返す。
<S150 to S160>
Next, through the processing of S130 and S140, the control unit 10 is in a state where the first imaging unit 11 and the second imaging unit 12 are oriented in a direction that matches the user's line of sight. The imaging unit 12 is operated to image the subject (S150). Next, the control unit 10 combines the predetermined images with the images captured by the first imaging unit 11 and the second imaging unit 12 and causes the first display unit 14 and the second display unit 15 to display them (S160). The images displayed (combined) on the first display unit 14 and the second display unit 15 are, for example, two images having parallax so that an object, a person, a character, or the like is stereoscopically formed on an actual image. It is. If an image is displayed on the 1st display part 14 and the 2nd display part 15, it will repeat from the process of S120.

なお、S110〜S160の処理は、所定時間(例えば1秒)に表示する静止画(フレーム)数に応じた時間毎に、繰り返し行われる。例えば、1秒間に30枚の静止画を表示する場合には、S110〜S160の処理は1/30秒毎に繰り返し行われる。   Note that the processing of S110 to S160 is repeatedly performed every time corresponding to the number of still images (frames) displayed in a predetermined time (for example, 1 second). For example, when displaying 30 still images per second, the processing of S110 to S160 is repeated every 1/30 seconds.

上記のように、本実施形態の構成を採用したヘッドマウントディスプレイでは、使用者の視線に応じて第1撮像部11及び第2撮像部12の向きを駆動部13で調整し、第1撮像部11及び第2撮像部12で撮像した画像に所定の画像を組み合わせて第1表示部14及び第2表示部15に表示する構成としている。この構成により、撮像した画像を、使用者の視線に合わせて部分的に切り出して表示する構成と比較すると、表示部に同じ画素数の画像を表示する場合には、本実施形態の構成の方が画素数の少ない撮像素子を撮像部として用いることができる。そのため、本実施形態の構成では比較的安価な構成とすることができる。   As described above, in the head mounted display adopting the configuration of the present embodiment, the directions of the first imaging unit 11 and the second imaging unit 12 are adjusted by the driving unit 13 in accordance with the user's line of sight, and the first imaging unit. 11 and the second imaging unit 12 are combined with a predetermined image and displayed on the first display unit 14 and the second display unit 15. Compared with the configuration in which the captured image is partially cut out and displayed in accordance with the user's line of sight, the configuration of the present embodiment is used when an image having the same number of pixels is displayed on the display unit. However, an image sensor having a small number of pixels can be used as the image pickup unit. Therefore, the configuration of the present embodiment can be a relatively inexpensive configuration.

一方で、撮像部の撮像素子として同じ画素数の撮像素子を利用する場合には、本実施形態の構成の方が有効画素が多くなるため、高品質で精細な画像を表示することができる。   On the other hand, when an image sensor having the same number of pixels is used as the image sensor of the imaging unit, the configuration of the present embodiment has more effective pixels, so that a high-quality and fine image can be displayed.

また、本実施形態の視線検出部16は、使用者の眼球の位置を検出することで視線を検出し、第1撮像部11及び第2撮像部12の向きを調整している。そのため、使用者の視線を精度良く検出しながら、撮像して表示する画像の向きを調整することができる。   Further, the line-of-sight detection unit 16 of the present embodiment detects the line of sight by detecting the position of the user's eyeball, and adjusts the orientation of the first imaging unit 11 and the second imaging unit 12. Therefore, it is possible to adjust the orientation of an image to be captured and displayed while accurately detecting the user's line of sight.

また、本実施形態では、第1方向及び第2方向は、それぞれ右目及び左目の眼球の向きに対応する方向であるため、表示部に立体的な画像を表示することが可能となっている。   In the present embodiment, since the first direction and the second direction are directions corresponding to the directions of the right eye and the left eye, respectively, it is possible to display a stereoscopic image on the display unit.

また、本実施形態では、第1表示部14及び第2表示部15で撮像した画像を、リアルタイムで加工して第1表示部14及び第2表示部15に表示している。そのため、使用者が略リアルタイムで拡張現実を体験することが可能となっている。なお、リアルタイム性を維持するため、第1表示部14及び第2表示部15で撮像してから表示するまでの遅延時間は、1秒以下にすることが好ましい。この遅延時間は、スムーズな表示にするためには、1/10秒以下にすることがさらに好ましい。   In the present embodiment, the images captured by the first display unit 14 and the second display unit 15 are processed in real time and displayed on the first display unit 14 and the second display unit 15. Therefore, the user can experience augmented reality in substantially real time. In addition, in order to maintain real-time property, it is preferable that the delay time from when the first display unit 14 and the second display unit 15 capture an image to when the image is displayed is 1 second or less. This delay time is more preferably set to 1/10 seconds or less for smooth display.

<2.変形例>
次に、上記の実施形態の変形例について説明する。本変形例では、上記実施形態の構成のうち、変形可能な部分についての説明とし、上記実施形態と共通の構成及び機能についてはその説明を省略している。
<2. Modification>
Next, a modification of the above embodiment will be described. In this modified example, the description of the deformable portion of the configuration of the above embodiment is omitted, and the description of the configuration and functions common to the above embodiment is omitted.

上記実施形態で説明したフローチャートでは、眼球の中心位置が変化したか否かに応じて、制御部10が第1撮像部11及び第2撮像部12の向きを移動させていたが、制御部10は、眼球の中心位置の変化にかかわらず、検出された眼球の中心位置に応じて第1撮像部11及び第2撮像部12の向きを決定してもよい。   In the flowchart described in the above embodiment, the control unit 10 moves the orientations of the first imaging unit 11 and the second imaging unit 12 depending on whether or not the center position of the eyeball has changed. May determine the orientation of the first imaging unit 11 and the second imaging unit 12 according to the detected center position of the eyeball, regardless of the change in the center position of the eyeball.

また、上記実施形態では、第1撮像部11及び第2撮像部12で撮像した画像に所定の画像を組み合わせて第1表示部14及び第2表示部15に表示していたが、第1表示部14及び第2表示部15に表示される画像は、第1撮像部11及び第2撮像部12の撮像結果に所定のフィルタリング処理などを施した画像であってもよい。つまり、第1表示部14及び第2表示部15に表示される画像は、第1撮像部11及び第2撮像部12の撮像結果に基づいて任意の処理を施された画像であってもよい。   Moreover, in the said embodiment, although the predetermined image was combined with the image imaged with the 1st imaging part 11 and the 2nd imaging part 12, and it displayed on the 1st display part 14 and the 2nd display part 15, a 1st display The images displayed on the unit 14 and the second display unit 15 may be images obtained by performing a predetermined filtering process on the imaging results of the first imaging unit 11 and the second imaging unit 12. That is, the images displayed on the first display unit 14 and the second display unit 15 may be images that have been subjected to arbitrary processing based on the imaging results of the first imaging unit 11 and the second imaging unit 12. .

また、上記実施形態では、駆動部13は、第1撮像部11及び第2撮像部12を、横方向の回転台、及び縦方向の回転台によって移動させていたが、駆動部13は横方向の回転台のみであってもよい。すなわち、人間の目は、縦方向の移動範囲よりも横方向の移動範囲の方が広いため、横方向のみの視線の動きに追従するよう駆動部13を構成してもよい。この場合、第1撮像部11及び第2撮像部12を横方向及び縦方向の双方に動作させる構成と比較して、駆動部13の構成が簡易になる。また、このような構成において、縦方向の目の動きに対しては、視野に含まれる部分のみを切り出して(抽出して)表示する方法を採用してもよい。   Moreover, in the said embodiment, although the drive part 13 moved the 1st imaging part 11 and the 2nd imaging part 12 with the horizontal turntable and the vertical turntable, the drive part 13 is horizontal. Only the turntable may be used. That is, since the human eye has a wider horizontal movement range than the vertical movement range, the drive unit 13 may be configured to follow the movement of the line of sight only in the horizontal direction. In this case, the configuration of the drive unit 13 is simplified as compared to the configuration in which the first imaging unit 11 and the second imaging unit 12 are operated in both the horizontal direction and the vertical direction. In such a configuration, a method of cutting out (extracting) and displaying only a portion included in the field of view may be adopted for the vertical eye movement.

<3.補足事項>
以上、本発明の実施形態及び変形例についての具体的な説明を行った。上記説明は、あくまで一実施形態としての説明であって、本発明の範囲はこの一実施形態に留まらず、当業者が把握可能な範囲にまで広く解釈されるものである。
<3. Supplementary items>
Heretofore, specific descriptions have been given of the embodiments and modifications of the present invention. The above description is merely an embodiment, and the scope of the present invention is not limited to this embodiment, but should be broadly interpreted to the extent that a person skilled in the art can grasp.

本発明の撮像表示装置は、拡張現実装置用のヘッドマウントディスプレイなどとして好適に利用される。   The imaging display device of the present invention is suitably used as a head mounted display for an augmented reality device.

1…本体部
10…制御部
11…第1撮像部
12…第2撮像部
13…駆動部
14…第1表示部
15…第2表示部
16…視線検出部
21〜23…装着具



DESCRIPTION OF SYMBOLS 1 ... Main-body part 10 ... Control part 11 ... 1st imaging part 12 ... 2nd imaging part 13 ... Drive part 14 ... 1st display part 15 ... 2nd display part 16 ... Line-of-sight detection parts 21-23 ... Wearing tool



Claims (5)

第1方向の画像を撮像する第1撮像部と、
第2方向の画像を撮像する第2撮像部と、
前記第1撮像部により撮像された画像に基づいて生成された第1画像を表示する第1表示部と、
前記第2撮像部により撮像された画像に基づいて生成された第2画像を表示する第2表示部と、
使用者の視線を検出する視線検出部と、
前記視線検出部で検出された前記視線に応じて前記第1撮像部及び前記第2撮像部の向きを調整する駆動部と、を備える、
撮像表示装置。
A first imaging unit that captures an image in a first direction;
A second imaging unit that captures an image in the second direction;
A first display unit that displays a first image generated based on an image captured by the first imaging unit;
A second display unit for displaying a second image generated based on the image captured by the second imaging unit;
A line-of-sight detector that detects the line of sight of the user;
A drive unit that adjusts the orientation of the first imaging unit and the second imaging unit according to the line of sight detected by the line of sight detection unit,
Imaging display device.
前記視線検出部は、使用者の眼球の位置を検出することにより視線を検出する、
請求項1に記載の撮像表示装置。
The line-of-sight detection unit detects the line of sight by detecting the position of the user's eyeball;
The imaging display device according to claim 1.
前記第1方向及び前記第2方向は、使用者の左右の眼球の向きに対応する方向である、
請求項1または請求項2に記載の撮像表示装置。
The first direction and the second direction are directions corresponding to the directions of the left and right eyeballs of the user.
The imaging display device according to claim 1 or 2.
前記第1画像は、前記第1撮像部により1秒前より後に撮像された画像に基づいて生成された画像であり、
前記第2画像は、前記第2撮像部により1秒前より後に撮像された画像に基づいて生成された画像である、
請求項1から請求項3のいずれか1項に記載の撮像表示装置。
The first image is an image generated based on an image captured after 1 second by the first imaging unit,
The second image is an image generated based on an image captured after one second by the second imaging unit.
The imaging display device according to any one of claims 1 to 3.
前記駆動部は、前記第1撮像部及び前記第2撮像部を一方向に往復移動させる、
請求項1から請求項4のいずれか1項に記載の撮像表示装置。

The driving unit reciprocally moves the first imaging unit and the second imaging unit in one direction;
The imaging display device according to any one of claims 1 to 4.

JP2017116506A 2017-06-14 2017-06-14 Imaging display device Pending JP2019004274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017116506A JP2019004274A (en) 2017-06-14 2017-06-14 Imaging display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017116506A JP2019004274A (en) 2017-06-14 2017-06-14 Imaging display device

Publications (1)

Publication Number Publication Date
JP2019004274A true JP2019004274A (en) 2019-01-10

Family

ID=65006282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017116506A Pending JP2019004274A (en) 2017-06-14 2017-06-14 Imaging display device

Country Status (1)

Country Link
JP (1) JP2019004274A (en)

Similar Documents

Publication Publication Date Title
US9191658B2 (en) Head-mounted display and position gap adjustment method
JP5967597B2 (en) Image display device and image display method
CN106796344B (en) System, arrangement and the method for the enlarged drawing being locked on object of interest
JP6454851B2 (en) 3D gaze point location algorithm
US10401953B2 (en) Systems and methods for eye vergence control in real and augmented reality environments
WO2016092950A1 (en) Spectacle-type display device for medical use, information processing device, and information processing method
JP6518578B2 (en) Display control apparatus and display control method
US20170344112A1 (en) Gaze detection device
JP2013258614A (en) Image generation device and image generation method
JP2014219621A (en) Display device and display control program
WO2016163183A1 (en) Head-mounted display system and computer program for presenting real space surrounding environment of user in immersive virtual space
CN108710206A (en) A kind of method and apparatus of anti-dazzle and visual fatigue applied to VR displays
CN111213375B (en) Information processing apparatus, information processing method, and program
JP4580678B2 (en) Gaze point display device
JP6576639B2 (en) Electronic glasses and control method of electronic glasses
US20200213467A1 (en) Image display system, image display method, and image display program
US20220012922A1 (en) Information processing apparatus, information processing method, and computer readable medium
CN106708249B (en) Interaction method, interaction device and user equipment
JP6500570B2 (en) Image display apparatus and image display method
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP2020042206A (en) Image display control apparatus and image display control program
JP7078568B2 (en) Display device, display control method, and display system
GB2595909A (en) Gaze tracking apparatus and systems
JP2015007722A (en) Image display device
JP2019004274A (en) Imaging display device