JP2005172851A - Image display apparatus - Google Patents

Image display apparatus Download PDF

Info

Publication number
JP2005172851A
JP2005172851A JP2003408106A JP2003408106A JP2005172851A JP 2005172851 A JP2005172851 A JP 2005172851A JP 2003408106 A JP2003408106 A JP 2003408106A JP 2003408106 A JP2003408106 A JP 2003408106A JP 2005172851 A JP2005172851 A JP 2005172851A
Authority
JP
Japan
Prior art keywords
image
user
image display
video signal
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003408106A
Other languages
Japanese (ja)
Inventor
Toyomi Fujino
豊美 藤野
Tadao Yoshida
忠雄 吉田
Hajime Yano
肇 矢野
Hiroaki Oishi
宏明 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003408106A priority Critical patent/JP2005172851A/en
Publication of JP2005172851A publication Critical patent/JP2005172851A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display apparatus which has an advantage of user friendliness by enabling a user to easily and securely check the user's environment. <P>SOLUTION: The image display apparatus 10 is equipped with a wearing section 12, a display unit 14, a plurality of cameras 20, a headphone 21, a controller 22, or the like. In the state that the wearing section 12 is worn on the head of the user, a screen 15 of the display unit 14 is arranged within a user's visual field and an image is displayed on the screen 15. The cameras 20 are composed of first to seventh cameras and are arranged so that the image of approximately all areas surrounding the user can be imaged and each image signal acquired by imaging is supplied to the controller 22 as an environment image signal which shows the user's environment. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は頭部または顔面に装着される画像表示装置に関する。   The present invention relates to an image display device mounted on a head or a face.

従来からヘッドマウントディスプレイと称される画像表示装置が使用されている。
このような画像表示装置は、ユーザーの頭部または顔面に装着される装着部と、装着部に支持され装着部がユーザーに装着された状態でユーザーの視野内に配置されるスクリーンと、入力映像信号に基づいてスクリーンに画像を表示する画像表示手段とを備えており、前記スクリーンとして液晶パネルを用いたもの(例えば特許文献1参照)やホログラフィックオプティカルエレメントを用いたもの(例えば特許文献2参照)が提案されている。
このような画像表示装置は、例えばビデオプレーヤ、DVDプレーヤ、テレビジョン放送を受信するチューナー、あるいはゲーム機器などから供給される映像信号を入力して前記スクリーンに画像を表示させるように構成されている。
特開平6−78248号公報 特開平10−301055号公報
Conventionally, an image display device called a head mounted display has been used.
Such an image display device includes a mounting unit that is mounted on the user's head or face, a screen that is supported by the mounting unit and that is mounted in the user's field of view while the mounting unit is mounted on the user, and an input video Image display means for displaying an image on a screen based on a signal, and using a liquid crystal panel as the screen (for example, see Patent Document 1) or using a holographic optical element (for example, see Patent Document 2) ) Has been proposed.
Such an image display apparatus is configured to input a video signal supplied from, for example, a video player, a DVD player, a tuner that receives a television broadcast, or a game device and display an image on the screen. .
JP-A-6-78248 JP 10-301055 A

ところで、このような画像表示装置を装着して画像を見ている場合に、ユーザーが自らの周囲の状況を確認する必要が生じると、例えばスクリーンを構成する液晶パネルなどを含む光学系を透過状態(シースルー状態)に切り替え、該光学系を介して外界の画像を視認するようにしている。
しかしながら、このような光学系を介した場合には光が減少するため外界の画像が暗くなるため外界をはっきり視認する上で不利であった。また、周囲の状況を確認するためには頭を動かして自らの回りを観察する必要があり、入力映像信号に基づいてスクリーンに表示されている画像を観察しながら外界の画像を見て周囲の状況を確認することも困難であり、使い勝手がよいものとはいえなかった。
本発明はこのような事情に鑑みなされたものであり、本発明の目的はユーザーが頭を動かすことなく自らの周囲の状況を容易にかつ確実に確認することができ、また、スクリーンに表示される画像を視認しつつ自らの周囲の状況を確認することができるなど、使い勝手を高める上で有利な画像表示装置を提供することにある。
By the way, when such an image display device is mounted and an image is being viewed, if the user needs to check the situation of his / her surroundings, for example, the optical system including the liquid crystal panel constituting the screen is in a transparent state. The display is switched to (see-through state), and an image of the outside world is visually recognized through the optical system.
However, when such an optical system is used, the light is reduced and the image of the outside world becomes dark, which is disadvantageous in clearly visualizing the outside world. In addition, in order to confirm the surrounding situation, it is necessary to move around the head and observe the surroundings. While observing the image displayed on the screen based on the input video signal, It was difficult to check the situation, and it was not easy to use.
The present invention has been made in view of such circumstances, and the object of the present invention is to allow the user to easily and reliably confirm the situation of his / her surroundings without moving his / her head, and to be displayed on the screen. It is an object of the present invention to provide an image display device that is advantageous in improving usability, such as being able to confirm the surrounding situation while visually recognizing an image.

上述の目的を達成するため、本発明の撮像装置は、ユーザーの頭部または顔面に装着される装着部と、前記装着部に支持され前記装着部が前記ユーザーに装着された状態で前記ユーザーの視野内に配置されるスクリーンと、入力映像信号に基づいて前記スクリーンに画像を表示する画像表示手段とを有する画像表示装置であって、前記装着部またはスクリーンに支持され前記装着部が前記ユーザーに装着された状態で前記ユーザーの周囲の一部またはほぼ全域を撮像し前記ユーザーの周囲の状況を表す周囲映像信号を生成する撮像手段と、前記画像表示装置の外部から供給される外部供給映像信号と、前記撮像手段から供給される前記周囲映像信号との双方に基づいて前記入力映像信号を生成して前記画像表示手段に供給することによって、前記外部供給映像信号による第1の画像と、前記周囲映像信号信号による第2の画像とを前記スクリーンに表示させる制御手段とを備えることを特徴とする。   In order to achieve the above-described object, an imaging apparatus of the present invention includes a mounting unit that is mounted on a user's head or face, and the user's head in a state that the mounting unit is supported by the mounting unit and the mounting unit is mounted on the user. An image display device having a screen arranged in a field of view and an image display means for displaying an image on the screen based on an input video signal, wherein the mounting unit or the mounting unit supported by the screen is provided to the user. An image pickup means for picking up an image of a part or almost the entire area of the user in a mounted state and generating a surrounding video signal representing the situation of the user; and an externally supplied video signal supplied from the outside of the image display device And generating the input video signal based on both the ambient video signal supplied from the imaging means and supplying the input video signal to the image display means, A first image by Kigaibu supply video signals, characterized in that it comprises a control means for displaying a second image by the surrounding video signal signal to the screen.

そのため、本発明によれば、画像表示装置の外部から供給される外部供給映像信号と、撮影手段から供給される周囲映像信号との双方に基づいて入力映像信号を生成して画像表示手段に供給することによって、前記外部供給映像信号による第1の画像と、前記周囲映像信号信号による第2の画像とをスクリーンに表示させるようにしたので、ユーザーは、自らの周囲の状況を確認する必要が生じた場合に、スクリーンに第2の画像を表示させれば周囲の状況を頭を動かすこと無く、かつ、確実に周囲の状況を視認することができる。また、スクリーンに第1の画像を表示しつつ第2の画像を表示すれば、ユーザーは第1の画像を見ながら周囲の状況を確認することができ、使い勝手を高めることができる。   Therefore, according to the present invention, an input video signal is generated based on both an externally supplied video signal supplied from the outside of the image display device and an ambient video signal supplied from the photographing means and supplied to the image display means. As a result, the first image based on the externally supplied video signal and the second image based on the ambient video signal signal are displayed on the screen, so the user needs to check his / her surrounding conditions. In such a case, if the second image is displayed on the screen, the surrounding situation can be surely visually recognized without moving the head. Further, if the second image is displayed while displaying the first image on the screen, the user can check the surrounding situation while viewing the first image, and the usability can be improved.

ユーザーが自らの周囲の状況を容易にかつ確実に確認できるようにするという目的を、ユーザーの周囲の状況を表す周囲映像信号を生成する撮像手段と、外部供給映像信号による第1の画像と、周囲映像信号信号による第2の画像とをスクリーンに表示させる制御手段とを設けることで実現した。   For the purpose of enabling the user to easily and reliably confirm the surrounding situation of the user, an imaging means for generating a surrounding video signal representing the surrounding situation of the user, a first image by an externally supplied video signal, This is realized by providing control means for displaying the second image based on the ambient video signal signal on the screen.

次に本発明の実施例1について図面を参照して説明する。
図1は実施例1の画像表示装置の構成を示す斜視図、図2は実施例1の画像表示装置が装着された状態を示す説明図、図3は実施例1の画像表示装置における撮像手段の配置を示す説明図、図4は実施例1の画像表示装置の構成を示すブロック図、図5は実施例1の画像表示装置の構成を示す説明図、図6は実施例1の画像表示装置の光学系の構成図である。
図1、図2に示すように、画像表示装置10は、装着部12、表示ユニット14、複数のカメラ20、ヘッドホン21、コントローラ22などを備えている。
装着部12は、帯板状の前板1202と、該前板1202の長手方向両端にそれぞれ屈曲可能に連結された帯板状の2つの側板1204と、2つの側板1204の先端を接続する伸縮可能なベルト1206とによって環状に構成されている。そして、図2に示すように、装着部12の内側にユーザーUの頭部を位置させ、前板1202、2つの側板1204、ベルト1206のそれぞれを前頭部、左右の側頭部、後頭部に当て付けた状態でベルト1206を伸縮調整することにより装着部12が頭部に装着される。
Next, Embodiment 1 of the present invention will be described with reference to the drawings.
1 is a perspective view showing a configuration of an image display apparatus according to a first embodiment, FIG. 2 is an explanatory diagram showing a state in which the image display apparatus according to the first embodiment is mounted, and FIG. 3 is an imaging unit in the image display apparatus according to the first embodiment. 4 is a block diagram showing the configuration of the image display apparatus according to the first embodiment, FIG. 5 is an explanatory diagram showing the configuration of the image display apparatus according to the first embodiment, and FIG. 6 is an image display according to the first embodiment. It is a block diagram of the optical system of an apparatus.
As shown in FIGS. 1 and 2, the image display apparatus 10 includes a mounting unit 12, a display unit 14, a plurality of cameras 20, headphones 21, a controller 22, and the like.
The mounting portion 12 includes a strip-shaped front plate 1202, two strip-shaped side plates 1204 that are connected to both longitudinal ends of the front plate 1202 in a bendable manner, and an expansion / contraction that connects the tips of the two side plates 1204. The belt 1206 is configured in a ring shape. Then, as shown in FIG. 2, the user U's head is positioned inside the mounting portion 12, and the front plate 1202, the two side plates 1204, and the belt 1206 are respectively placed on the front head, the left and right side heads, and the back head. The mounting portion 12 is mounted on the head by adjusting the expansion and contraction of the belt 1206 in the applied state.

表示ユニット14はゴーグル状に形成された支持体1402を有し、支持体1402の上部中央が連結部1404を介して装着部12の前板1202前部中央に連結されている。
図5、図6に示すように、支持体1402には、バックライト1406、左右目用液晶表示パネルであるLCD1408、スクリーンとしての左右目用ハーフミラー1410、左右目用凹面ハーフミラー1412、液晶シャッター1413、レンズ1414が設けられている。
バックライト1406は、左右目用のLCD1408の上方から照明する構成となっており、後述するコントローラ22からの入力映像信号に基づいて、左目用のLCD1408には左目用の映像が表示され、右目用のLCD1408には右目用の映像が表示されるようになっている。すなわち、バックライト1406およびLCD1408によって画像表示手段が構成されている。
液晶シャッター1413はシャッター手段を構成するものであり、凹面ハーフミラー1412の前方で凹面ハーフミラー1412の全域を覆うように配置され、少なくとも光を透過する透過状態と、光を透過しない不透過状態(遮蔽状態)とに切り替え可能に構成されている。また、シャッター手段としてメカニカルシャッターを使用することもできる。また、液晶シャッター1413の前方を覆うように光を透過可能な材料で構成された保護カバーを設けることは任意である。
装着部12がユーザーUの頭部に装着され、液晶シャッター1413が不透過状態で、LCD1408、1408に表示された映像はハーフミラー1410、1410により反射され、更に凹面ハーフミラー1412、1412で拡大されて反射され、再びハーフミラー1410、1410を通りレンズ1414を介して利用者の目に結像されるように構成されている。すなわち、ハーフミラー1410および凹面ハーフミラー1412によってスクリーン15が構成されており、このスクリーン15は装着部12がユーザーUに装着された状態でユーザーUの視野内に配置されることになる。
本実施例では、スクリーン15を介して利用者の目で結像される映像は虚像となる。
このようにして利用者の目で見る画面の大きさは、LCD1408での映像が目に入射するときの視野角と、目で見ている全視野角の比であらわすことができる。例えば、視野角を30度に設定していると、2メートルの虚像距離に換算でき、これは52型の大画面を見ていることに相当する。
また、凹面ハーフミラー1412は、光を透過するシースルー機能を備えているため、液晶シャッター1413が透過状態になると、LCD1408からの映像を見ながら、同時に通常の目で見える外界の様子を凹面ハーフミラー1412と液晶シャッター1413を介して見ることができるようになっている。
The display unit 14 has a support body 1402 formed in a goggle shape, and the upper center of the support body 1402 is connected to the front center of the front plate 1202 of the mounting part 12 via a connection part 1404.
As shown in FIGS. 5 and 6, the support 1402 includes a backlight 1406, an LCD 1408 that is a liquid crystal display panel for left and right eyes, a left and right eye half mirror 1410, a left and right eye concave half mirror 1412, and a liquid crystal shutter. 1413 and a lens 1414 are provided.
The backlight 1406 is configured to illuminate from above the left-and-right LCD 1408. Based on an input video signal from the controller 22 described later, the left-eye LCD 1408 displays a left-eye image and the right-eye LCD 1408. The right eye image is displayed on the LCD 1408. That is, the backlight 1406 and the LCD 1408 constitute image display means.
The liquid crystal shutter 1413 constitutes shutter means, and is disposed so as to cover the entire area of the concave half mirror 1412 in front of the concave half mirror 1412. At least a light transmitting state and a light non-transmitting state (not transmitting light) It is configured to be switchable to a shielding state. A mechanical shutter can also be used as the shutter means. Further, it is optional to provide a protective cover made of a material that can transmit light so as to cover the front of the liquid crystal shutter 1413.
The mounting unit 12 is mounted on the head of the user U, the liquid crystal shutter 1413 is impermeable, and the images displayed on the LCDs 1408 and 1408 are reflected by the half mirrors 1410 and 1410, and further enlarged by the concave half mirrors 1412 and 1412. Then, the light is reflected again, passes through the half mirrors 1410 and 1410, and forms an image on the eyes of the user via the lens 1414. That is, the screen 15 is constituted by the half mirror 1410 and the concave half mirror 1412, and this screen 15 is arranged in the field of view of the user U with the mounting portion 12 mounted on the user U.
In this embodiment, the image formed by the user's eyes through the screen 15 is a virtual image.
In this way, the size of the screen viewed by the user's eyes can be represented by the ratio of the viewing angle when the image on the LCD 1408 enters the eye and the total viewing angle viewed by the eye. For example, if the viewing angle is set to 30 degrees, it can be converted into a virtual image distance of 2 meters, which corresponds to viewing a large 52-inch screen.
In addition, since the concave half mirror 1412 has a see-through function to transmit light, when the liquid crystal shutter 1413 is in a transmission state, the concave half mirror can be used to view the external environment at the same time while viewing an image from the LCD 1408. 1412 and the liquid crystal shutter 1413 can be seen.

図1、図2に示すように、カメラ20は第1乃至第7カメラ2002、2004、2006、2008、2010、2012、2014の合計7個のカメラから構成され、撮像手段を構成している。各カメラ20は、いずれも不図示の撮影光学系と、この撮影光学系で結像された像を撮像するCCDあるいはCMOSセンサなどの撮像素子と、該撮像素子から出力される撮像信号に基づいて映像信号を生成する信号処理回路などを備えている。
各カメラ20は、装着部12がユーザーUに装着された状態で以下のように配設されている。
第1カメラ2002は、支持体1402の前部左端部に設けられその光軸が前方を指向している。
第2カメラ2004は、支持体1402の前部右端部に設けられその光軸が前方を指向している。
第3カメラ2006は、連結部1404の前部に設けられその光軸が前方を指向している。
第4カメラ2008は、左側の側板1204の前方寄り箇所に設けられその光軸が左側方を指向している。
第5カメラ2010は、右側の側板1204の前方寄り箇所に設けられその光軸が右側方を指向している。
第6カメラ2012は、左側の側板1204の後方寄り箇所に設けられその光軸が後方を指向している。
第7カメラ2014は、右側の側板1204の後方寄り箇所に設けられその光軸が後方を指向している。
本実施例では、図3に示すように、各カメラ20の撮影光学系の画角(視野角)は次のように設定されている。なお、図3では、符号Fが前方、符号Lが左方、符号Rが右方、符号Bが後方、符号Wが広角、符号Sが標準、符号Zが望遠を示す。
第1カメラ2002(FW):広角
第2カメラ2004(FZ):望遠
第3カメラ2006(FS):標準
第4カメラ2008(LW):広角
第5カメラ2010(RW):広角
第6カメラ2012(BW):広角
第7カメラ2014(BZ):望遠
なお、複数のカメラ20の一部あるいは全部を撮影倍率(レンズ倍率)が調整可能なズーム式の撮影光学系で構成してもよい。倍率調整(ズーム調整)は手動で行なってもよいし、カメラ20にモータなどの駆動源を有するズーム調整機構を設けるとともに、このズーム調整機構を中央制御部2202コントローラ22から制御することで行なってもよい。
また、複数のカメラ20の一部あるいは全部に雲台を設けて指向方向(撮影方向)を可変できるように構成してもよい。指向方向の変更は手動で行なってもよいし、雲台にモータなどの駆動源を有する方向調整機構を設けるとともに、この方向調整機構をコントローラ22から制御することで行なってもよい。
また、カメラ20として、鉛直方向上方を指向するものを設ければ、ユーザーUの上方の状況を撮像することができる他、例えば頭部を90度近く傾けたときに頭部が向いている方向の状況を前記カメラ20によって撮像することができ、広い範囲の状況を撮像する上で有利となる。
これら7個のカメラ20は、ユーザーUの周囲のほぼ全域を撮像できるように配設されており、撮像して得られた各映像信号がユーザーUの周囲の状況を示す周囲映像信号としてコントローラ22に供給されるように構成されている。
As shown in FIGS. 1 and 2, the camera 20 is composed of a total of seven cameras, ie, first to seventh cameras 2002, 2004, 2006, 2008, 2010, 2012, and 2014, and constitutes imaging means. Each camera 20 is based on an imaging optical system (not shown), an imaging element such as a CCD or CMOS sensor that captures an image formed by the imaging optical system, and an imaging signal output from the imaging element. A signal processing circuit for generating a video signal is provided.
Each camera 20 is arranged as follows in a state in which the mounting unit 12 is mounted on the user U.
The first camera 2002 is provided at the front left end of the support 1402 and its optical axis is directed forward.
The second camera 2004 is provided at the front right end of the support 1402 and its optical axis is directed forward.
The third camera 2006 is provided at the front portion of the connecting portion 1404 and its optical axis is directed forward.
The fourth camera 2008 is provided near the front side of the left side plate 1204, and its optical axis is directed to the left side.
The fifth camera 2010 is provided near the front side of the right side plate 1204 and its optical axis is directed to the right side.
The sixth camera 2012 is provided near the rear side of the left side plate 1204 and its optical axis is directed rearward.
The seventh camera 2014 is provided near the rear side of the right side plate 1204 and its optical axis is directed rearward.
In this embodiment, as shown in FIG. 3, the angle of view (viewing angle) of the photographing optical system of each camera 20 is set as follows. In FIG. 3, symbol F indicates the front, symbol L indicates the left, symbol R indicates the right, symbol B indicates the rear, symbol W indicates the wide angle, symbol S indicates the standard, and symbol Z indicates the telephoto.
1st camera 2002 (FW): Wide angle 2nd camera 2004 (FZ): Telephoto 3rd camera 2006 (FS): Standard 4th camera 2008 (LW): Wide angle 5th camera 2010 (RW): Wide angle 6th camera 2012 ( BW): Wide angle Seventh camera 2014 (BZ): Telephoto A part or all of the plurality of cameras 20 may be configured by a zoom-type photographing optical system capable of adjusting a photographing magnification (lens magnification). The magnification adjustment (zoom adjustment) may be performed manually, or may be performed by providing the camera 20 with a zoom adjustment mechanism having a drive source such as a motor and controlling the zoom adjustment mechanism from the central control unit 2202 controller 22. Also good.
Further, a pan head may be provided in a part or all of the plurality of cameras 20 so that the directing direction (shooting direction) can be changed. The directivity direction may be changed manually, or by providing a direction adjustment mechanism having a drive source such as a motor on the pan head and controlling the direction adjustment mechanism from the controller 22.
Further, if a camera 20 that is directed upward in the vertical direction is provided, the situation above the user U can be imaged, and for example, the direction in which the head is facing when the head is tilted nearly 90 degrees This situation can be imaged by the camera 20, which is advantageous for imaging a wide range of situations.
These seven cameras 20 are arranged so as to be able to image almost the entire area around the user U, and each video signal obtained by imaging is a controller 22 as an ambient video signal indicating a situation around the user U. It is comprised so that it may be supplied to.

ヘッドホン21は、左右の側板1204の下部からユーザーUの左右の耳にそれぞれ装着可能に構成されており、コントローラ22から供給される音声信号を再生するように構成されている。   The headphones 21 are configured to be attachable to the left and right ears of the user U from below the left and right side plates 1204, respectively, and are configured to reproduce audio signals supplied from the controller 22.

次に、図4を参照してコントローラ22の構成について説明する。
コントローラ22は、中央制御部2202(特許請求の範囲の制御手段に相当)、RAM2204、インターフェース部2206、音声処理部2208、操作部2209、GPSセンサ2210、歩行センサ2212、イーサーネット用インターフェース2214などを備えている。
インターフェース部2206は、外部機器(テレビチューナー、DVDプレーヤー、ビデオプレーヤーなど)30から供給される外部供給映像信号および外部供給音声信号を入力する入力機能と、カメラ20からの周囲映像信号やマイク33からの音声信号を記録装置(レコーダー)32に出力する出力機能とを備える。
音声処理部2208は、外部機器30からインターフェース部2206を介して供給される音声信号を増幅してヘッドホン21に供給したり、外部端子34を介してスピーカーに供給したり、LINE端子36を介して外部機器に出力する出力機能と、マイク38を介して音声信号を入力しインターフェース部2206を介して記録装置32に出力する出力機能とを有している。
操作部2209は、中央制御部2202に対して動作を指示するためのスイッチなどから構成されている。
GPSセンサ部2210は、GPS(Global Positionig System)における衛星からの電波を受信することにより画像表示装置10が存在している地球上の位置を測位し、その測位データ(位置情報)を生成する機能を有している。
歩行センサ2212は、ユーザーUの身体に取着され、ユーザーUが歩行状態にあるか静止状態にあるかを検知する機能を有している。
このような歩行センサ2212として、例えば、鉛直方向(verltical)の加速度を検知する第1の加速度センサと進行方向(horiszontal)の加速度を検知する第2の加速度センサとを備えるものがある。
具体的には、図7に示すように、鉛直・進行方向の加速度が検出された際に、鉛直方向の加速度に加えて進行方向への加速度に着目し、鉛直方向の加速度のピーク検出によって推測される歩行動作の開始時刻から半サイクル分の期間における進行方向への加速度を積分し、この値が一定値以上であれば歩行動作があったものとして検出する(例えば、信学技報告第12回複合現実感研究会,PRMU2002−180,pp.67−72(2003))。
イーサーネット用インターフェース2214は、中央制御部2202と外部の情報処理装置との間でデータ通信を司るものである。
中央制御部2202は、マイクロコンピュータおよび映像信号の処理回路などを含んでいる。
中央制御部2202は、各カメラ20から供給される周囲映像信号を入力し画像処理を行なう機能、操作部2209の操作に基づいてLCD1408に映像信号を供給する機能、音声処理部2208を制御する機能、GPSセンサ2210および歩行センサ2212からの検知信号を処理する機能、イーサーネット用インターフェース2214を介して外部の情報処理装置との間でデータ通信を行なう機能などを有している。
更に詳しく説明すると、中央制御部2202は、外部機器30から供給される外部供給映像信号と、各カメラ20から供給される周囲映像信号との双方に基づいて入力映像信号を生成してLCD1408に供給することによって、前記外部供給映像信号による第1の画像と、前記周囲映像信号信号による第2の画像とをスクリーン15に表示させる制御手段を構成している。
また、中央制御部2202は、操作部2209の操作に基づいて各カメラ20から供給される周囲映像信号を選択してLCD1408に供給するように構成されている。
RAM2204は、中央制御部2202がデータ処理や画像処理処理を行なう際に必要となるワーキングエリアを構成するものである。
Next, the configuration of the controller 22 will be described with reference to FIG.
The controller 22 includes a central control unit 2202 (corresponding to the control means in the claims), a RAM 2204, an interface unit 2206, an audio processing unit 2208, an operation unit 2209, a GPS sensor 2210, a walking sensor 2212, an Ethernet interface 2214, and the like. I have.
The interface unit 2206 has an input function for inputting an externally supplied video signal and an externally supplied audio signal supplied from an external device (TV tuner, DVD player, video player, etc.) 30, an ambient video signal from the camera 20, and a microphone 33. And an output function for outputting the audio signal to a recording device (recorder) 32.
The audio processing unit 2208 amplifies an audio signal supplied from the external device 30 via the interface unit 2206 and supplies the amplified audio signal to the headphones 21, supplies it to the speaker via the external terminal 34, or via the LINE terminal 36. It has an output function for outputting to an external device, and an output function for inputting an audio signal via the microphone 38 and outputting it to the recording device 32 via the interface unit 2206.
The operation unit 2209 includes a switch for instructing the central control unit 2202 to operate.
The GPS sensor unit 2210 has a function of measuring the position on the earth where the image display device 10 is present by receiving radio waves from a satellite in GPS (Global Positioning System) and generating the positioning data (position information). have.
The walking sensor 2212 is attached to the body of the user U and has a function of detecting whether the user U is in a walking state or a stationary state.
As such a walking sensor 2212, for example, there is one that includes a first acceleration sensor that detects vertical acceleration and a second acceleration sensor that detects acceleration in a traveling direction.
Specifically, as shown in FIG. 7, when vertical / traveling direction acceleration is detected, attention is paid to acceleration in the traveling direction in addition to the acceleration in the vertical direction, and estimation is performed by peak detection of the acceleration in the vertical direction. The acceleration in the direction of travel in the period of half a cycle from the start time of the walking motion that is performed is integrated, and if this value is equal to or greater than a certain value, it is detected that there was a walking motion (for example, the 12th IEICE Tech Report Times mixed reality study group, PRMU 2002-180, pp. 67-72 (2003)).
The Ethernet interface 2214 controls data communication between the central control unit 2202 and an external information processing apparatus.
The central control unit 2202 includes a microcomputer, a video signal processing circuit, and the like.
The central control unit 2202 has a function of inputting an ambient video signal supplied from each camera 20 and performing image processing, a function of supplying a video signal to the LCD 1408 based on an operation of the operation unit 2209, and a function of controlling the audio processing unit 2208. , A function of processing detection signals from the GPS sensor 2210 and the walking sensor 2212, a function of performing data communication with an external information processing apparatus via the Ethernet interface 2214, and the like.
More specifically, the central control unit 2202 generates an input video signal based on both the externally supplied video signal supplied from the external device 30 and the surrounding video signal supplied from each camera 20 and supplies the input video signal to the LCD 1408. Thus, a control unit is configured to display the first image based on the externally supplied video signal and the second image based on the ambient video signal signal on the screen 15.
Further, the central control unit 2202 is configured to select and supply the surrounding video signal supplied from each camera 20 to the LCD 1408 based on the operation of the operation unit 2209.
The RAM 2204 constitutes a working area required when the central control unit 2202 performs data processing and image processing.

次に、上述のように構成された画像表示装置10の動作について説明する。
まず、コンテンツ(画像や音声)を視聴するコンテンツ視聴時の動作について説明する。
ユーザーUは、コンテンツを再生するDVDプレーヤーなどの外部機器30をインターフェース部2206に接続し、画像表示装置10の装着部12を頭部に装着し、スクリーン15を自らの視野内に配置する。また、ヘッドホン21を耳に装着する。
次いで、ユーザーUが外部機器30から供給される外部供給映像信号を選択する操作を操作部2209に対して行なうと、中央制御部2202は、外部機器30から供給される外部供給映像信号に基づいて入力映像信号を生成してLCD1408に供給することによって、前記外部供給映像信号による第1の画像をスクリーン15に表示させるとともに、外部機器30から供給される外部供給音声信号を音声処理部2208を介してヘッドホン21に供給する。なお、液晶シャッター1413は不透過状態となっている。
これにより、ユーザーUはスクリーン15に表示される第1の画像を観るとともに、ヘッドホン21から出力される音声を聴く。
ここで、ユーザーUが周囲の状況を確認する必要が生じた場合、ユーザーUが各カメラ20から供給される周囲映像信号を選択する操作を操作部2209に対して行なうと、中央制御部2202は、カメラ20から供給される周囲映像信号に基づいて入力映像信号を生成してLCD1408に供給することによって、前記周囲映像信号による第2の画像をスクリーン15に表示させる。
第2の画像のスクリーン15への表示は次のように行なうことができる。
(1)各カメラ20から供給される7系統の周囲映像信号の中から選択された1系統の周囲映像信号による画像のみをスクリーン15に表示させる。
(2)各カメラ20から供給される7系統の周囲映像信号の中から選択された複数の周囲映像信号による画像のそれぞれを同時にスクリーン15に表示させる。
また、前記(1)、(2)のそれぞれの場合に、第2の画像と第1の画像を同時にスクリーン15に表示させるようにしてもよい。
また、スクリーン15に表示する第1、第2の画像の倍率は任意に設定すればよく、拡大表示あるいは縮小表示することができる。
また、中央制御部2202は、歩行センサ2212によってユーザーUが歩行状態にあるか静止状態にあるかを常時監視しており、ユーザーUが静止状態から歩行状態に移行したと判断した場合には、前記静止状態で第1の画像をスクリーン15に表示させていたとしても、強制的に第2の画像をスクリーン15に表示させる。
Next, the operation of the image display device 10 configured as described above will be described.
First, an operation at the time of content viewing for viewing content (image or sound) will be described.
The user U connects an external device 30 such as a DVD player that reproduces content to the interface unit 2206, wears the mounting unit 12 of the image display device 10 on the head, and places the screen 15 in his field of view. Moreover, the headphones 21 are worn on the ears.
Next, when the user U performs an operation for selecting an externally supplied video signal supplied from the external device 30 on the operation unit 2209, the central control unit 2202 is based on the externally supplied video signal supplied from the external device 30. By generating the input video signal and supplying it to the LCD 1408, the first image based on the externally supplied video signal is displayed on the screen 15, and the externally supplied audio signal supplied from the external device 30 is sent via the audio processing unit 2208. To the headphones 21. Note that the liquid crystal shutter 1413 is in an opaque state.
As a result, the user U views the first image displayed on the screen 15 and listens to the sound output from the headphones 21.
Here, when the user U needs to check the surrounding situation, when the user U performs an operation for selecting the surrounding video signal supplied from each camera 20 on the operation unit 2209, the central control unit 2202 Then, an input video signal is generated based on the ambient video signal supplied from the camera 20 and supplied to the LCD 1408, whereby the second image based on the ambient video signal is displayed on the screen 15.
The second image can be displayed on the screen 15 as follows.
(1) Only an image based on one system of surrounding video signals selected from the seven systems of surrounding video signals supplied from each camera 20 is displayed on the screen 15.
(2) Each of the images of a plurality of surrounding video signals selected from the seven systems of surrounding video signals supplied from each camera 20 is simultaneously displayed on the screen 15.
Further, in each of the cases (1) and (2), the second image and the first image may be displayed on the screen 15 at the same time.
Further, the magnification of the first and second images displayed on the screen 15 may be arbitrarily set, and can be enlarged or reduced.
In addition, the central control unit 2202 constantly monitors whether the user U is in a walking state or a stationary state by the walking sensor 2212, and when determining that the user U has shifted from a stationary state to a walking state, Even if the first image is displayed on the screen 15 in the stationary state, the second image is forcibly displayed on the screen 15.

以上説明したように本実施例によれば、画像表示装置10の外部から供給される外部供給映像信号と、カメラ20から供給される周囲映像信号との双方に基づいて入力映像信号を生成してLCD1408に供給することによって、前記外部供給映像信号による第1の画像と、前記周囲映像信号信号による第2の画像とをスクリーン15に表示させるようにしたので、ユーザーUは、自らの周囲の状況を確認する必要が生じた場合に、スクリーン15に第2の画像を表示させれば、頭を動かすこと無く、かつ、周囲の状況を直ちに確実に視認することができる。
また、ユーザーUが自らの周囲の状況を確認する必要が生じた場合に、液晶シャッター1413を透過状態にしてもユーザーUは前方の状況を視認することはできる。しかしながら、この場合には、凹面ハーフミラー1412と液晶シャッター1413からなる光学系を介して外界の様子を見るので、充分な視界を確保することが難しく、また、光学系によって透過する光が低減するため視認できる外界が暗くなり、視認性を確保する上で不利となる。これに対して本実施例では、スクリーン15に表示される第2の画像によってユーザーUの周囲を全周にわたって視認することができるので、視界を確保する上でも、外界の画像の明るさを確保する上でも有利となる。
また、スクリーン15に第1の画像を表示しつつ第2の画像を表示するようにした場合には、ユーザーは第1の画像を見ながら周囲の状況を確認することができ、使い勝手を高める上で有利となる。
また、歩行センサ2212によってユーザーUが静止状態から歩行状態に移行したと判断した場合に、前記静止状態で第1の画像をスクリーン15に表示させていたとしても、強制的に第2の画像をスクリーン15に表示させるように構成した場合には、ユーザーUが特別な操作を行なうことなく、周囲の状況を視認することができ、使い勝手を高める上でさらに有利である。
As described above, according to this embodiment, the input video signal is generated based on both the externally supplied video signal supplied from the outside of the image display device 10 and the ambient video signal supplied from the camera 20. Since the first image based on the externally supplied video signal and the second image based on the ambient video signal signal are displayed on the screen 15 by being supplied to the LCD 1408, the user U can change his / her surrounding situation. If the second image is displayed on the screen 15 when it is necessary to check the situation, it is possible to immediately and reliably visually recognize the surrounding situation without moving the head.
In addition, when the user U needs to check the situation around him / her, even if the liquid crystal shutter 1413 is in the transmissive state, the user U can visually recognize the situation in front. However, in this case, since the appearance of the outside world is viewed through the optical system including the concave half mirror 1412 and the liquid crystal shutter 1413, it is difficult to secure a sufficient field of view, and light transmitted by the optical system is reduced. Therefore, the external world which can be visually recognized becomes dark, and it becomes disadvantageous when ensuring visibility. On the other hand, in the present embodiment, since the second image displayed on the screen 15 can visually recognize the periphery of the user U over the entire circumference, the brightness of the image in the outside world can be ensured even in ensuring the field of view. This is also advantageous.
In addition, when the second image is displayed while displaying the first image on the screen 15, the user can check the surrounding situation while viewing the first image, thereby improving usability. Is advantageous.
Further, when the walking sensor 2212 determines that the user U has shifted from the stationary state to the walking state, even if the first image is displayed on the screen 15 in the stationary state, the second image is forcibly displayed. When configured to display on the screen 15, the user U can visually recognize the surrounding situation without performing a special operation, which is further advantageous in improving usability.

また、カメラ20の撮影倍率を、ユーザーUの肉眼よりも大きく、すなわち、凹面ハーフミラー1412と液晶シャッター1413を介して外界の様子を見る場合よりも望遠側へ設定することで、視線方向の観察したい対象物を肉眼よりも拡大して詳細に観察することが可能である。
また、カメラ20の撮影倍率を、ユーザーUの肉眼よりも小さく、すなわち、凹面ハーフミラー1412と液晶シャッター1413を介して外界の様子を見る場合よりも広角側へ設定することで、視線方向の観察したい視野範囲を肉眼よりも広角に観察することが可能である。
また、カメラ20の撮影倍率を、ユーザーUの肉眼と同等に、すなわち、凹面ハーフミラー1412と液晶シャッター1413を介して外界の様子を見る場合と同等の大きさに設定することで、凹面ハーフミラー1412と液晶シャッター1413を通して前方を視認する場合に光量が低下してしまうという不具合を解消することができる。
さらに、カメラ20に赤外線暗視カメラ機能を持たせれば、夜間における周辺景色の視認性をも向上できる。
また、複数のカメラ20をユーザーUの周囲の全域、すなわち360度にわたって隙間なく撮像できるように配設すれば、ユーザーUの周囲を連続的に観察可能となることは勿論である。
また、ユーザーUの周囲全天球を撮影できるように水平方向を指向するカメラ20に加えて、水平方向に対して上下に傾斜した方向、あるいは、鉛直方向上方および鉛直方向下方を指向するカメラ20を設けてもよい。
また、複数のカメラ20のうち、光軸がほぼ平行で光軸と直交する方向に間隔をおいて配置される2つのカメラ、例えば正面方向に向けられた第1、第2のカメラ2002、2004を等しい撮影倍率に設定して撮影すれば、これら2つのカメラで得られた画像に基づいて3D画像を表示させることが可能である。
また、画像表示装置10に対してビデオカメラなどの別の撮像装置を接続し、該撮像装置から供給される映像信号をカメラ20からの周囲映像信号と同様にスクリーン15に表示させることもできる。
なお、上述した実施例において、カメラ20の個数は7個に限定されるものではなく、各カメラ20の撮像範囲や画角に応じてカメラ20の個数を増減することができる。
また、歩行センサ2212によってユーザーUが静止状態から歩行状態に移行したと判断された場合には、第1の画像および第2の画像の双方の画像の表示を停止するようにしてもよい。
また、本実施例では撮影手段を構成する複数のカメラ20がユーザーUのほぼ全域を撮像できるように構成したが、ユーザーUの周囲の状況を撮像することができればよいのであり、撮影手段がユーザーUの周囲の一部を撮像するように構成されていてもよいことは勿論である。
In addition, the photographic magnification of the camera 20 is set larger than that of the user U's naked eye, that is, the viewing direction is observed by setting the camera 20 to the telephoto side rather than viewing the external environment through the concave half mirror 1412 and the liquid crystal shutter 1413. It is possible to observe in detail the target object to be magnified from the naked eye.
In addition, the photographic magnification of the camera 20 is set to be smaller than that of the user U's naked eye, that is, to the wide angle side as compared with the case where the external environment is viewed through the concave half mirror 1412 and the liquid crystal shutter 1413, so It is possible to observe the desired visual field range at a wider angle than the naked eye.
Further, by setting the photographing magnification of the camera 20 to be the same as that of the user U's naked eye, that is, the same size as when viewing the external environment via the concave half mirror 1412 and the liquid crystal shutter 1413, the concave half mirror The problem that the amount of light is reduced when the front is visually recognized through the liquid crystal shutter 1413 and the liquid crystal shutter 1413 can be solved.
Furthermore, if the camera 20 has an infrared night vision camera function, the visibility of surrounding scenery at night can be improved.
Of course, if the plurality of cameras 20 are arranged so that the entire area around the user U, that is, 360 degrees can be imaged without gaps, the periphery of the user U can be continuously observed.
Further, in addition to the camera 20 that is oriented in the horizontal direction so that the entire celestial sphere around the user U can be photographed, the camera 20 that is oriented in the direction inclined up and down with respect to the horizontal direction, or in the vertical direction and in the vertical direction. May be provided.
Of the plurality of cameras 20, two cameras that are substantially parallel to each other and arranged at intervals in a direction orthogonal to the optical axis, for example, first and second cameras 2002 and 2004 directed in the front direction. Can be displayed on the basis of images obtained by these two cameras.
Further, another image pickup device such as a video camera can be connected to the image display device 10, and a video signal supplied from the image pickup device can be displayed on the screen 15 in the same manner as the surrounding video signal from the camera 20.
In the embodiment described above, the number of cameras 20 is not limited to seven, and the number of cameras 20 can be increased or decreased according to the imaging range and angle of view of each camera 20.
In addition, when the walking sensor 2212 determines that the user U has transitioned from the stationary state to the walking state, display of both the first image and the second image may be stopped.
Further, in this embodiment, the plurality of cameras 20 constituting the photographing unit is configured to be able to capture almost the entire area of the user U. However, it is only necessary that the situation around the user U can be captured. Of course, it may be configured to image a part of the periphery of U.

次に本発明の実施例2について図面を参照して説明する。
実施例2が実施例1と異なるのは、撮像手段が単一のカメラ20Aと反射鏡2016で構成されている点である。
図8は実施例2の画像表示装置の構成を示す斜視図であり、以下では実施例1と同一または同様の部分には同一の符号を付して説明する。
図8に示すように、カメラ20Aは、装着部12の前板1202の中央から斜め上後方に延在する支持部1216の先端に固定されている。より詳細には、装着部12を頭部に装着した状態でカメラ20Aはその撮影光学系の光軸を鉛直方向の上方に向くように支持部1216を介して配設されている。
カメラ20Aの撮影光学系の光軸上に反射鏡2016が設けられており、カメラ20Aはこの反射鏡2016で反射された像を撮像するように構成されている。
反射鏡2016は、前記光軸と一致する中心軸を有し断面が二次曲線を描く円錐状に形成され、前記中心軸を中心に360度にわたって延在している。言い換えれば、反射鏡2016は、ユーザーUの周囲のほぼ全周に臨むように形成されている。前記中心軸を中心にして360度の範囲の状況をカメラ20Aの撮影光学系に導くように構成されている。
カメラ20Aで撮像された画像は円環状に湾曲した画像となる。したがって、中央制御部2202によって前記撮像された画像に対して所定の画像処理を行ない。パノラマ状(横長の矩形状)に延在する視覚的に自然な画像に変換する。
中央制御部2202は、所定の画像処理によって得られた視覚的に自然な画像を、実施例1の場合と同様に前記第2の画像として扱い、スクリーン15に表示させる。
ただし、第2の画像が前記中心軸を中心として360度にわたって延在する矩形状の画像となるため、そのまま第2の画像をスクリーン15に表示すると視覚的に不自然となる。したがって、前記第2の画像を、前記中心軸を中心として例えば90度毎に分割して前方、左右の側方、後方の画像の4つに分割し、適宜切り替えて表示すれば視覚的にも自然となり好ましい。
なお、このような反射鏡2016を用いたカメラ20A、および、このようなカメラ20Aで撮像した画像に対して前記所定の画像処理を行なって視覚的に自然な画像を得る技術は従来公知である。
このような実施例2によれば、実施例1の作用効果に加えてカメラ20Aの数が1個で済むため、小型化を図るとともにコストを削減する上で有利となる。
また、カメラ20として180度程度の視野角を有する魚眼レンズが組み込まれた撮影光学系を備えたカメラを用いることもできる。この場合には、2つのカメラのうち一方のカメラをその光軸が前方を指向し、他方のカメラをその光軸が後方を指向するように配設し、これら2つのカメラで撮像した画像を画像処理することによって視覚的に自然な画像を生成し、実施例2と同様に取り扱えばよい。この場合には、実施例1の作用効果に加えてカメラ20Aの数が2個で済むため、小型化を図るとともにコストを削減する上で有利となる。
Next, a second embodiment of the present invention will be described with reference to the drawings.
The second embodiment is different from the first embodiment in that the imaging unit is composed of a single camera 20 </ b> A and a reflecting mirror 2016.
FIG. 8 is a perspective view showing the configuration of the image display apparatus according to the second embodiment. Hereinafter, the same or similar parts as those in the first embodiment are denoted by the same reference numerals.
As shown in FIG. 8, the camera 20 </ b> A is fixed to the tip of a support portion 1216 that extends obliquely upward and rearward from the center of the front plate 1202 of the mounting portion 12. More specifically, the camera 20A is disposed via the support portion 1216 so that the optical axis of the photographing optical system faces upward in the vertical direction with the mounting portion 12 mounted on the head.
A reflecting mirror 2016 is provided on the optical axis of the photographing optical system of the camera 20A, and the camera 20A is configured to capture an image reflected by the reflecting mirror 2016.
The reflecting mirror 2016 is formed in a conical shape having a central axis that coincides with the optical axis, and a cross section of which forms a quadratic curve, and extends 360 degrees around the central axis. In other words, the reflecting mirror 2016 is formed so as to face almost the entire circumference of the user U. It is configured to guide the situation in the range of 360 degrees around the central axis to the photographing optical system of the camera 20A.
An image captured by the camera 20A is an annularly curved image. Therefore, the central control unit 2202 performs predetermined image processing on the captured image. The image is converted into a visually natural image extending in a panoramic shape (a horizontally long rectangular shape).
The central control unit 2202 treats the visually natural image obtained by the predetermined image processing as the second image as in the case of the first embodiment, and displays it on the screen 15.
However, since the second image becomes a rectangular image extending 360 degrees around the central axis, if the second image is displayed on the screen 15 as it is, it becomes visually unnatural. Therefore, if the second image is divided into, for example, every 90 degrees about the central axis and divided into four images of the front, left and right sides, and the rear, and the images are switched appropriately and displayed visually. Natural and preferable.
It should be noted that a camera 20A using such a reflecting mirror 2016 and a technique for obtaining a visually natural image by performing the predetermined image processing on an image captured by such a camera 20A are conventionally known. .
According to the second embodiment, since the number of cameras 20A is only one in addition to the function and effect of the first embodiment, it is advantageous for downsizing and cost reduction.
Further, as the camera 20, a camera provided with a photographing optical system incorporating a fisheye lens having a viewing angle of about 180 degrees can be used. In this case, one of the two cameras is arranged so that its optical axis is directed forward, and the other camera is arranged so that its optical axis is directed rearward. Images captured by these two cameras are taken. A visually natural image may be generated by image processing and handled in the same manner as in the second embodiment. In this case, since the number of cameras 20A is only two in addition to the operational effects of the first embodiment, it is advantageous in reducing the size and cost.

次に本発明の実施例3について説明する。
実施例3は、ユーザーUが周囲の状況を確認する必要が生じた場合に、図3に示す液晶シャッター1413および凹面ハーフミラー1412を介して外界の様子を視認すると同時にスクリーン15に表示された縮小画像をも視認できるようにしている。
実施例3の液晶シャッター1413は、中央制御部2202の制御により、その濃淡、すなわち光の透過率を変えることができるように構成されている。そのため、透過率を変えることで、液晶シャッター1413を透過する外部の像と、スクリーン15による画像とのコントラスト比を変えることができる。また、この液晶シャッター1413は、その全域にわたって均一に光の透過率を変えるのではなく、複数に分割した領域の透過率の制御を各領域毎に独立して行なえるように構成されている。
次に、実施例3の画像表示装置10の作用効果について説明する。
図9(A)は液晶シャッター1413が透過状態あるいは半透過状態でスクリーン15に前記外部供給映像信号による第1の画像が表示されている様子を示す。この場合には、液晶シャッター1413および凹面ハーフミラー1412を介して外界画像102が視認され、該外界画像102の中央箇所(視界中央)に第1の画像104が重ね合わされた状態で表示されている。
このような表示状態では、外界画像102および第1の画像104の様子を細部まで同時に観察することは甚だ困難であり、一般に二重に表示された映像の一方を意識的に集中して観察した場合には、他方の映像の認識力は著しく低下することが知られている。
したがって、外界画像102を細部まで観察する必要が生じた際には、図9(B)に示すようにスクリーン15による第1の画像104の表示を一時的に停止することで外界画像102のみを視認できるようにすることができる。
また、図9(C)に示すように、第1の画像104をユーザーUの視野の端に縮小表示するように構成すれば、外界画像102の観察に支障が生じないようにするとともに、視線を縮小表示した第1の画像104へ移動することでその画像の概容を認識することができる。なお、ユーザーUの視野については次に詳述する。
縮小表示する第1の画像104は、その背景に外界画像102が透過したシースルー状態で表示されてもよいが、液晶シャッター1413により縮小表示する第1の画像104の領域を部分的に不透過とするか、あるいは、透過率を低下させることで第1の画像104を見やすくすることができる。
また、これとは逆に、バックライト1406およびLCD1408を制御することによって縮小表示する第1の画像104の輝度を下げることにより、背景の外界画像102を見やすくすることもできる。
図9(B)、(C)に示すように、ユーザーUが外界画像102を容易に視認できるようにすれば、ユーザーUが周囲の状況を容易に確認する上で有利であり、また、ユーザーUが画像表示装置10を頭部に装着したままで外界画像102の観察に支障なく歩行することが可能となる。
Next, a third embodiment of the present invention will be described.
In the third embodiment, when it is necessary for the user U to check the surrounding situation, the reduction of the environment displayed on the screen 15 at the same time as the situation of the outside world is visually recognized via the liquid crystal shutter 1413 and the concave half mirror 1412 shown in FIG. The images are visible.
The liquid crystal shutter 1413 according to the third embodiment is configured so that the density, that is, the light transmittance can be changed under the control of the central control unit 2202. Therefore, by changing the transmittance, the contrast ratio between the external image transmitted through the liquid crystal shutter 1413 and the image by the screen 15 can be changed. Further, the liquid crystal shutter 1413 is configured not to change the light transmittance uniformly over the entire area but to control the transmittance of the divided areas independently for each area.
Next, functions and effects of the image display device 10 according to the third embodiment will be described.
FIG. 9A shows a state in which the first image based on the externally supplied video signal is displayed on the screen 15 with the liquid crystal shutter 1413 in a transmissive state or a semi-transmissive state. In this case, the external image 102 is visually recognized through the liquid crystal shutter 1413 and the concave half mirror 1412, and the first image 104 is displayed in a state where the first image 104 is superimposed on the central portion (the visual center) of the external image 102. .
In such a display state, it is extremely difficult to observe the details of the external image 102 and the first image 104 at the same time, and generally one of the images displayed twice is consciously concentrated and observed. In some cases, it is known that the recognition ability of the other video is significantly reduced.
Therefore, when it becomes necessary to observe the external image 102 in detail, only the external image 102 is displayed by temporarily stopping the display of the first image 104 on the screen 15 as shown in FIG. 9B. It can be made visible.
Further, as shown in FIG. 9C, if the first image 104 is configured to be reduced and displayed at the end of the field of view of the user U, the observation of the external image 102 is not hindered, and the line of sight Is moved to the first image 104 displayed in a reduced size, the outline of the image can be recognized. The visual field of the user U will be described in detail next.
The first image 104 to be reduced may be displayed in a see-through state in which the external image 102 is transmitted through the background, but the region of the first image 104 to be reduced and displayed by the liquid crystal shutter 1413 is partially opaque. Alternatively, the first image 104 can be easily viewed by reducing the transmittance.
On the contrary, by controlling the backlight 1406 and the LCD 1408 to reduce the luminance of the first image 104 to be reduced and displayed, it is possible to make the background external image 102 easier to see.
As shown in FIGS. 9B and 9C, if the user U can easily visually recognize the external image 102, it is advantageous for the user U to easily check the surrounding situation, and the user U It becomes possible for U to walk without hindering the observation of the external image 102 while wearing the image display device 10 on the head.

次に、ユーザーUの視野について説明する。
図10は標準的な人間の垂直方向の視野特性を示し、この図によれば通常の視野は水平方向Hより10°〜15°下方に向いている(図示、立っているときの通常の視線から座っているときの通常の視線までの範囲)ことがわかる。
図11は標準的な人間の水平方向の視野特性を示し、この図によれば、文字を認識できる視野は約20°(図示、文字認識限界の範囲)であることがわかる。
そこで本実施例では、第1の画像104をユーザーUの視野の端に縮小表示するにあたり、図12に示すように、通常の視線(水平方向より10°下方とする)を中心Cとして立体角20°以内には第1の画像104を表示しないようにする。言い換えれば、立体角20°の範囲を除く範囲に第1の画像104が縮小表示されるようにしている(図9(C))。
こうすることにより、図9(C)に示すように通常の視線方向では表示像に妨げられることなく外界画像102を見ることができ、第1の画像104を見たい場合には視線を第1の画像104へ移動させることにより、第1の画像104と外界画像102とを融合して見ることができる。
第1の画像104を表示しない範囲は前述の立体角20°の範囲を最低限とし、それ以上に表示しない範囲を広げればユーザーUの視野を広く確保できるのでユーザーUが歩行することができる。
また、図9(B)に示すように第1の画像104を全く表示せず、外界画像102のみを表示できるようにすれば、ユーザーUは外界画像102を視認しつつ歩行することができる。
また、上述したように、第1の画像104が縮小されることなく通常の大きさでユーザーUの視野に表示される通常表示状態と、第1の画像104がユーザーUの視野の端に縮小表示される状態、または、第1の画像104が非表示となる縮小または非表示状態との切り替え動作は、操作部2209に設けた映像切替スイッチを手動操作することで行なってもよいし、歩行センサ2212によるユーザーUの歩行検出によって行なってもよい。
前記映像切替スイッチと歩行センサ2212を併用する場合には、歩行時にユーザーUが前記映像切替スイッチを操作しても歩行センサ2212の歩行検知による前記切替動作を優先として前記通常表示状態に遷移できないようにするとともに、歩行センサ2212による歩行停止を認識した後に前記映像切替スイッチの操作が可能となるようにすれば、ユーザーUは外界画像102を歩行時には確実に視認することができる。
Next, the visual field of the user U will be described.
FIG. 10 shows a standard human visual field characteristic, according to which the normal field of view is 10 ° to 15 ° below the horizontal direction H (shown, normal line of sight when standing) To the normal line of sight when sitting.
FIG. 11 shows a standard human visual field characteristic. According to this figure, it can be seen that the visual field capable of recognizing characters is about 20 ° (shown in the character recognition limit range).
Therefore, in this embodiment, when the first image 104 is reduced and displayed at the end of the field of view of the user U, as shown in FIG. 12, a solid angle with a normal line of sight (10 ° below the horizontal direction) as the center C is obtained. The first image 104 is not displayed within 20 °. In other words, the first image 104 is reduced and displayed in a range excluding the range of the solid angle of 20 ° (FIG. 9C).
By doing so, as shown in FIG. 9C, the external image 102 can be viewed without being obstructed by the display image in the normal viewing direction, and when the first image 104 is desired to be viewed, the first viewing line is displayed. By moving to the image 104, the first image 104 and the external image 102 can be merged and viewed.
The range in which the first image 104 is not displayed is minimized to the above-described range of the solid angle of 20 °, and if the range in which the first image 104 is not displayed is widened, the user U's field of view can be ensured and the user U can walk.
Further, as shown in FIG. 9B, if the first image 104 is not displayed at all and only the external image 102 can be displayed, the user U can walk while viewing the external image 102.
In addition, as described above, the normal display state in which the first image 104 is displayed in the normal size of the user U without being reduced, and the first image 104 is reduced to the end of the visual field of the user U. The switching operation between the displayed state or the reduced or non-displayed state in which the first image 104 is hidden may be performed by manually operating a video switch provided in the operation unit 2209 or walking. The detection may be performed by detecting the walking of the user U by the sensor 2212.
When the video changeover switch and the walking sensor 2212 are used in combination, even if the user U operates the video changeover switch during walking, the switching operation based on the walking detection of the walking sensor 2212 is prioritized so that the normal display state cannot be changed. In addition, if the video switch can be operated after recognizing the stop of walking by the walking sensor 2212, the user U can surely see the external image 102 during walking.

次に本発明の実施例4について説明する。
実施例4は、ユーザーUの視線検出を用いて前記通常表示状態と前記縮小または非表示状態との切り替え動作を行なうようにしている。
図13は実施例4における画像表示装置10の構成を簡素化して示す構成図である。
図13に示すように、ユーザーUに臨むハーフミラー1410の箇所に視線検出センサ1416が設けられており、該視線検出センサ1416はユーザーUの視線がハーフミラー1410のどの領域を指向しているか、言い換えればユーザーUがどの領域を注視しているかを検出し、検出している領域を示す注視領域データをコントローラ22(中央制御部2202)に供給するように構成されている。このような視線検出の方法は、カメラシステムのファインダーを覗いた際にファインダー内のどこを注視しているかを認識する方法として従来公知である。
また、液晶シャッターからなる液晶シャッター1413の外面に明るさセンサ1418(例えば光センサ、フォトダイオード)が設けられており、該明るさセンサ1418は外界の明るさを検出し明るさを示す明るさ検出信号を中央制御部2202に供給するように構成されている。
また、液晶シャッタードライバ1413Aは、中央制御部2202の指令により液晶液晶シャッター1413の透過率及び該液晶シャッター1413の動作範囲(透過率を調整する範囲)を調節するように構成されている。
中央制御部2202が液晶シャッター1413の動作範囲を調整することにより、縮小表示する第1の画像104の部分にだけシャッターをかける(透過率を低下させる)ことで第1の画像104の視認性を上げることができるように構成されている。
また、中央制御部2202が明るさセンサ1418で検知した明るさに応じて液晶シャッタードライバ1413Aを介して液晶シャッター1413の透過率を自動的に調節することにより、ユーザーUが外界画像102と第1の画像104とを融合して見られるようにこれらの明るさの比率を適当な範囲に保つことができるように構成されている。
また、図15に示すように、前記縮小または非表示状態では、スクリーン15のうちユーザーUの視野の端に、再表示操作領域106を示すアイコン108が表示されるように構成されており、中央制御部2202は、視線検出センサ1416によってユーザーUが非歩行時にアイコン108、すなわち再表示操作領域106を所定時間注視したことが検知されると、スクリーン15を、前記縮小または非表示状態から前記通常表示状態に切り替えるように、言い換えると第1の画像104を拡大表示するように構成されている。
Next, a fourth embodiment of the present invention will be described.
In the fourth embodiment, a switching operation between the normal display state and the reduced or non-display state is performed using the user U's line-of-sight detection.
FIG. 13 is a configuration diagram illustrating a simplified configuration of the image display apparatus 10 according to the fourth embodiment.
As shown in FIG. 13, a line-of-sight detection sensor 1416 is provided at a location of the half mirror 1410 facing the user U, and the line-of-sight detection sensor 1416 indicates in which region of the half mirror 1410 the line of sight of the user U is directed. In other words, it is configured to detect which area the user U is gazing at and to supply gazing area data indicating the detected area to the controller 22 (central control unit 2202). Such a line-of-sight detection method is conventionally known as a method for recognizing where in the viewfinder the user is gazing when looking through the viewfinder of the camera system.
In addition, a brightness sensor 1418 (for example, an optical sensor or a photodiode) is provided on the outer surface of a liquid crystal shutter 1413 formed of a liquid crystal shutter, and the brightness sensor 1418 detects the brightness of the outside world and detects the brightness indicating the brightness. The signal is configured to be supplied to the central control unit 2202.
Further, the liquid crystal shutter driver 1413A is configured to adjust the transmittance of the liquid crystal liquid crystal shutter 1413 and the operation range of the liquid crystal shutter 1413 (range in which the transmittance is adjusted) according to a command from the central control unit 2202.
The central control unit 2202 adjusts the operation range of the liquid crystal shutter 1413 so that only the portion of the first image 104 to be reduced is put on the shutter (decreasing the transmittance), thereby improving the visibility of the first image 104. It is configured so that it can be raised.
Further, the user U automatically adjusts the transmittance of the liquid crystal shutter 1413 via the liquid crystal shutter driver 1413A in accordance with the brightness detected by the brightness sensor 1418 by the central control unit 2202 so that the user U and the first image 102 The ratio of these brightnesses can be maintained in an appropriate range so that the image 104 can be seen in combination.
Further, as shown in FIG. 15, in the reduced or non-display state, an icon 108 indicating the re-display operation area 106 is displayed at the end of the field of view of the user U in the screen 15. When the gaze detection sensor 1416 detects that the user U is gazing at the icon 108, that is, the re-display operation area 106 for a predetermined time, the control unit 2202 moves the screen 15 from the reduced or non-display state to the normal state. In other words, the first image 104 is enlarged and displayed so as to switch to the display state.

次に、図14のフローチャートを参照して実施例4の動作について説明する。
中央制御部2202は、歩行センサ2212の検知信号に基づいてユーザーUが歩行しているか否かを監視している(ステップS10)。
歩行が検知されなければ、視線検出センサ1416によってユーザーUがアイコン108、すなわち再表示操作領域106を所定時間注視したか否か、すなわち画像拡大要求の有無を判定する(ステップS12)。画像拡大要求が無ければステップS10に戻り、画像拡大要求が有れば前記通常表示状態であるか否か、すなわち第1の画像104が拡大表示中であるか否かを判定する(ステップS14)。拡大表示中であればステップS10に戻り、拡大表示中でなければ、第1の画像104をスクリーン15に拡大表示する(ステップS16)。
また、ステップS10で歩行が検知された場合には、第1の画像104が拡大表示中であるか否かを判定し(ステップS18)、拡大表示中であればスクリーン15を前記縮小または非表示状態にし(ステップS20)、拡大表示中でなければステップS10に戻る。
したがって、実施例4によれば、ユーザーUの視線検出を用いて前記通常表示状態と前記縮小または非表示状態との切り替え動作を行なうので、ユーザーUがスイッチを操作すること無く切り替え動作を行なうことができ操作性を向上させる上で有利となる。
さらに、ユーザーUが歩行中の場合には第1の画像104の拡大表示を停止し、拡大要求も受け付けないので、ユーザーUの歩行時には外界画像102の視認性を確保することができる。
なお、再表示操作領域106をアイコン108で示す代りに縮小表示されている第1の画像104で示すようにしてもよい。
Next, the operation of the fourth embodiment will be described with reference to the flowchart of FIG.
The central control unit 2202 monitors whether or not the user U is walking based on the detection signal of the walking sensor 2212 (step S10).
If no walking is detected, it is determined by the gaze detection sensor 1416 whether or not the user U gazes at the icon 108, that is, the redisplay operation area 106 for a predetermined time, that is, whether or not there is an image enlargement request (step S12). If there is no image enlargement request, the process returns to step S10, and if there is an image enlargement request, it is determined whether or not the normal display state is present, that is, whether or not the first image 104 is being enlarged (step S14). . If the enlarged display is being performed, the process returns to step S10. If the enlarged display is not being performed, the first image 104 is enlarged and displayed on the screen 15 (step S16).
If walking is detected in step S10, it is determined whether or not the first image 104 is being enlarged and displayed (step S18). If enlarged and displayed, the screen 15 is reduced or not displayed. The state is set (step S20), and if not enlarged display, the process returns to step S10.
Therefore, according to the fourth embodiment, since the switching operation between the normal display state and the reduced or non-display state is performed using the user's U line of sight detection, the user U can perform the switching operation without operating the switch. This is advantageous in improving operability.
Furthermore, when the user U is walking, the enlarged display of the first image 104 is stopped and no enlargement request is accepted, so that the visibility of the external image 102 can be ensured when the user U is walking.
Note that the redisplay operation area 106 may be represented by a reduced first image 104 instead of the icon 108.

次に本発明の実施例5について説明する。
実施例5は、第1の画像と第2の画像の双方を同時にスクリーン15に表示させるようにしている。
図16に示すように、液晶シャッター1413が透過状態とされることで、該液晶シャッター1413および凹面ハーフミラー1412を介して外界画像102が視認されている。そして、外界画像102の中央箇所(視界中央)に外部供給映像信号による第1の画像104が重ね合わされた状態で表示され、さらに、外界画像102の端(ユーザーUの視野の端)に第2の映像110が表示されている。第2の画像110は、前記外界画像102のほぼ全域に相当するものであり、例えばカメラ20のうち、正面を指向している広角に設定されている第1カメラ2002(FW)から供給される周囲映像信号によるものであり、スクリーン15に表示されるように縮小して表示されている。
したがって、本実施例によれば、外界画像102に相当する第2の画像110を縮小してスクリーン15の端に表示するので、第1の画像104によって外界画像102の一部または全部が隠されていても、視線を第2の画像110に移すことによって周囲の状況を確認することができ、ユーザーUが特別な操作を行なうことなく、周囲の状況を視認することができ、使い勝手を高める上で有利である。
また、スクリーン15の端に表示する第2の画像110としては、前述のように外界画像102のほぼ全域に相当する画像を縮小表示したものに限らず、第1の画像104によって隠された外界画像102の部分に相当する画像のみを縮小表示あるいは外界画像102と同倍率で表示するようにしても上述と同様の作用効果を得ることができる。
Next, a fifth embodiment of the present invention will be described.
In the fifth embodiment, both the first image and the second image are displayed on the screen 15 at the same time.
As shown in FIG. 16, the external image 102 is visually recognized through the liquid crystal shutter 1413 and the concave half mirror 1412 when the liquid crystal shutter 1413 is set to the transmissive state. Then, the first image 104 based on the externally supplied video signal is displayed in a superimposed state at the center location (view center) of the external image 102, and the second image is displayed at the end of the external image 102 (the end of the field of view of the user U). The image 110 is displayed. The second image 110 corresponds to almost the entire area of the external image 102 and is supplied from, for example, the first camera 2002 (FW) of the camera 20 that is set to a wide angle that faces the front. This is based on the surrounding video signal, and is reduced and displayed so as to be displayed on the screen 15.
Therefore, according to the present embodiment, since the second image 110 corresponding to the external image 102 is reduced and displayed on the edge of the screen 15, part or all of the external image 102 is hidden by the first image 104. Even if it is, the surrounding situation can be confirmed by moving the line of sight to the second image 110, and the surrounding situation can be visually recognized without the user U performing a special operation. Is advantageous.
In addition, the second image 110 displayed on the edge of the screen 15 is not limited to an image corresponding to almost the entire area of the external image 102 as described above, and is not limited to the external image hidden by the first image 104. Even if only the image corresponding to the portion of the image 102 is reduced or displayed at the same magnification as that of the external image 102, the same effect as described above can be obtained.

次に本発明の実施例6について説明する。
実施例6は、外界画像102に第2の画像110を重ね合わせて表示させるようにしている。
図17(A)に示すように、液晶シャッター1413が透過状態とされることで、該液晶シャッター1413および凹面ハーフミラー1412を介して外界画像102が視認されている。この際ユーザーUは静止しているものとする。
ここで、ユーザーUが操作部2209に設けられた映像切替用のスイッチを操作することにより、図17(B)に示すように、例えば正面を指向する望遠に設定されている第2カメラ2004(FZ)の周囲映像信号による第2の画像110がスクリーン15の中央に外界画像102に重ね合わされた状態で表示される。
そして、ユーザーUが静止した状態から歩き始めると歩行センサ2212によって歩行が検知され、これにより中央制御部2202は、図17(C)に示すように、第2の画像110をスクリーン15の端(ユーザーUの視野の端)に縮小表示させる。
したがって、本実施例によれば、ユーザーUが観察したい対象物を肉眼よりも第2の画像110として拡大表示させ、詳しく見ることができる。また、ユーザーUの歩行時には、面倒な操作をすることなく、第2の画像110を視野の端に縮小表示させることで視野を確保することができる。
Next, a sixth embodiment of the present invention will be described.
In the sixth embodiment, the second image 110 is superimposed on the external image 102 and displayed.
As shown in FIG. 17A, the external image 102 is visually recognized through the liquid crystal shutter 1413 and the concave half mirror 1412 when the liquid crystal shutter 1413 is set to the transmissive state. At this time, it is assumed that the user U is stationary.
Here, when the user U operates a video switching switch provided in the operation unit 2209, as shown in FIG. 17B, for example, the second camera 2004 ( FZ) is displayed in a state where the second image 110 based on the surrounding video signal is superimposed on the external image 102 at the center of the screen 15.
Then, when the user U starts walking from a stationary state, walking is detected by the walking sensor 2212, whereby the central control unit 2202 displays the second image 110 on the end of the screen 15 (see FIG. 17C). The image is reduced and displayed on the edge of the visual field of the user U.
Therefore, according to the present embodiment, the object that the user U wants to observe can be enlarged and displayed as the second image 110 by the naked eye and can be viewed in detail. In addition, when the user U is walking, the field of view can be ensured by reducing the second image 110 at the end of the field of view without troublesome operations.

なお、第2の画像110を表示させるにあたり次のような構成とすることができる。
(1)カメラ20を撮影倍率が調整可能なズーム式とし、その撮影倍率を中央制御部2202によって調整できるように構成する。視線検出センサ1416によってユーザーUの視線が所定の時間一定の方向を向いていれば、ユーザーUがその方向にある物体を注視していると判断し、カメラ20ズームによる拡大を自動的に行う。
このように構成すればユーザーUは面倒な操作をすることなく物体の画像を拡大して視認することができる。
(2)カメラ20に撮像方向を任意の方向に可変できる所謂パンティルター機能を設け、中央制御部2202の制御によって任意の方向の映像をスクリーン15に表示させるように構成する。パンティルターの方向制御は、例えば操作部2209に設けたジョイスティックや十字キー等を操作することによって行なうこともできるし、音声認識装置等を設けユーザーUの音声指示によって行なうこともできる。あるいは、前述の視線検出センサ1416を用い、第2の画像110で表示される画像の中心とユーザーUの視線方向とが一致するようにパンティルターの方向制御を行なうようにしてもよい。
(3)また指定した対象物を画像認識などの手法によって認識し、カメラ20が該対象物の方向を自動的に向く、所謂自動追尾を行なうように構成してもよい。
(4)カメラ20は、前述したように撮影倍率が異なっていてもよい。例えば、同じ方向に向けた撮影倍率の異なるカメラ20からの周囲映像信号を選択してスクリーン15に表示すれば同じ映像の表示倍率を切り替えて観察することができる。
It should be noted that the following configuration can be used for displaying the second image 110.
(1) The camera 20 is configured to be a zoom type whose shooting magnification can be adjusted, and the shooting magnification can be adjusted by the central control unit 2202. If the line of sight of the user U is directed in a certain direction for a predetermined time by the line of sight detection sensor 1416, it is determined that the user U is gazing at an object in that direction, and enlargement by the camera 20 zoom is automatically performed.
If comprised in this way, the user U can enlarge and visually recognize the image of an object, without performing troublesome operation.
(2) The camera 20 is provided with a so-called pantilter function that can change the imaging direction in an arbitrary direction, and is configured to display an image in an arbitrary direction on the screen 15 under the control of the central control unit 2202. The pantilter direction control can be performed by operating a joystick or a cross key provided in the operation unit 2209, for example, or can be performed by a voice recognition device or the like provided by a voice recognition device. Alternatively, the above-described line-of-sight detection sensor 1416 may be used to control the direction of the pantilter so that the center of the image displayed in the second image 110 matches the line-of-sight direction of the user U.
(3) The designated object may be recognized by a method such as image recognition, and so-called automatic tracking may be performed in which the camera 20 automatically faces the object.
(4) The camera 20 may have different shooting magnifications as described above. For example, if the surrounding video signals from the cameras 20 with different shooting magnifications directed in the same direction are selected and displayed on the screen 15, the same video display magnification can be switched and observed.

(5)スクリーン15に表示する第2の画像110は、1つのカメラ20の画像に限らず複数のカメラ20の画像であってもよい。
例えば、図18に示すように、第1カメラ2002(FW)、第2カメラ2004(FZ)、第3カメラ2006(FS)、第4カメラ2008(LW)、第5カメラ2010(RW)、第6カメラ2012(BW)、第7カメラ2014(BZ)のそれぞれによる7種類の第2の画像110を同時にスクリーン15に表示させる。
そして、選択された第2カメラ2004(FZ)による第2の画像110がスクリーン15の中央に拡大表示され、残り6個のカメラ20の名称(FW、FS、LW、RW、BW、BZ)の各アイコン110Aが、これら各カメラ20による第2の画像110に代えてスクリーン15の端(視野の端)に表示される。なお、各アイコン110Aに代えて各カメラ20による第2の画像110を縮小表示してもよいことは勿論である。
縮小表示された複数のカメラ20による第2の画像110のうち、どのカメラ20の第2の画像110を中央へ拡大表示させるかの選択は、操作部2209に設けたスイッチの選択操作あるいは音声認識システム等による選択でもよいが、前述した視線検出センサ1416を利用してもよい。すなわち、ユーザーUが拡大して表示したいアイコン110Aまたは縮小された第2の画像110を所定時間注視した場合に、そのアイコン110Aまたは縮小された第2の画像110に対応するカメラ20の第2の画像110を拡大表示するようにすればよい。このような構成によれば、複数のカメラ20の選択操作が容易に行なえ、操作性を向上する上で有利となる。
(5) The second image 110 displayed on the screen 15 is not limited to the image of one camera 20 and may be images of a plurality of cameras 20.
For example, as shown in FIG. 18, the first camera 2002 (FW), the second camera 2004 (FZ), the third camera 2006 (FS), the fourth camera 2008 (LW), the fifth camera 2010 (RW), the first camera Seven types of second images 110 from the six cameras 2012 (BW) and the seventh camera 2014 (BZ) are simultaneously displayed on the screen 15.
Then, the second image 110 by the selected second camera 2004 (FZ) is enlarged and displayed at the center of the screen 15, and the names of the remaining six cameras 20 (FW, FS, LW, RW, BW, BZ) are displayed. Each icon 110 </ b> A is displayed at the end of the screen 15 (the end of the field of view) instead of the second image 110 by each camera 20. Of course, the second image 110 from each camera 20 may be reduced and displayed instead of each icon 110A.
Of the second images 110 by the plurality of cameras 20 displayed in a reduced scale, selection of which camera 20 the second image 110 is enlarged and displayed in the center is performed by selecting a switch provided in the operation unit 2209 or performing voice recognition. The selection may be performed by a system or the like, but the above-described line-of-sight detection sensor 1416 may be used. That is, when the user U gazes at the icon 110A to be enlarged and displayed or the reduced second image 110 for a predetermined time, the second of the camera 20 corresponding to the icon 110A or the reduced second image 110 is displayed. The image 110 may be enlarged and displayed. According to such a configuration, the selection operation of the plurality of cameras 20 can be easily performed, which is advantageous in improving operability.

(6)図19に示すように、スクリーン15には、1つの第2の画像110を拡大表示し、かつ、1つの第2の画像110のみを縮小表示するようにしておき、縮小表示する第2の画像110を操作部2209のスイッチや音声認識システム等で選択するように構成する。そして、選択された縮小表示された第2の画像110の拡大表示の実行、非実行を前述した視線検出センサ1416を利用して行なうようにしてもよい。すなわち、ユーザーUが拡大して表示したい縮小表示されている第2の画像110を所定時間注視した場合に、その縮小表示された第2の画像110に対応するカメラ20の第2の画像110を拡大表示するようにすればよい。
このような構成によれば、図18に比較して縮小表示される第2の画像110の数を減らすことができるので、縮小表示された第2の画像110で隠される外界画像102の部分を少なくでき、視認できる外界画像102の面積を確保する上で有利となる。
(6) As shown in FIG. 19, on the screen 15, one second image 110 is enlarged and displayed, and only one second image 110 is reduced and displayed. The second image 110 is selected by a switch of the operation unit 2209, a voice recognition system, or the like. Then, execution or non-execution of the enlarged display of the selected second reduced image 110 may be performed using the above-described line-of-sight detection sensor 1416. That is, when the user U gazes at the reduced second image 110 that he / she wants to enlarge and displays for a predetermined time, the second image 110 of the camera 20 corresponding to the reduced second image 110 is displayed. An enlarged display may be performed.
According to such a configuration, the number of second images 110 displayed in a reduced size can be reduced as compared with FIG. 18, so that the portion of the external image 102 hidden by the second image 110 displayed in a reduced size can be reduced. This is advantageous in securing the area of the external image 102 that can be reduced.

(7)図18、図19に示す第2の画像110の縮小表示を行なうことなく、スクリーン15に拡大表示される第2の画像110を、操作部2209の切替スイッチや音声認識による指示で選択されたカメラ20による第2の画像110に切り替えるようにすれば、縮小表示された第2の画像110で隠される外界画像102の部分がなくなるので、視認できる外界画像102の面積を確保する上でさらに有利となる。
これらユーザーUの周囲を撮影する複数のカメラ20による第2の画像110のうち、どのカメラ20による第2の画像110をスクリーン15に拡大表示させるかの選択は、例えば操作部2209に設けたジョイスティックや十字キー等の操作や音声認識装置等を用いたユーザーUによる左右方向への指示で可能である。あるいは、前述の視線検出センサ1416を用い、ユーザーUの視線方向と同じ方向を指向するカメラ20による第2の画像110を選択するようにしてもよい。この場合、スクリーン15に表示される各カメラ20による第2の画像110のうち、互いにオーバーラップする画像エリアは画像処理によって連続表示されることが望ましい。
上述した(1)乃至(7)の構成の何れにおいても、ユーザーUの歩行が検知された場合には、少なくとも通常の視野中心範囲への画像の表示を停止するようにすることが外界画像102の視認を確実に行なう上で好ましい。
(7) The second image 110 to be enlarged and displayed on the screen 15 without performing the reduced display of the second image 110 shown in FIGS. 18 and 19 is selected by a changeover switch of the operation unit 2209 or an instruction by voice recognition. If the second image 110 is switched to the second image 110 by the camera 20, the portion of the external image 102 hidden by the reduced second image 110 is eliminated, so that the area of the external image 102 that can be visually recognized is secured. Further advantageous.
Of the second images 110 taken by the plurality of cameras 20 that capture the surroundings of the user U, the selection of which camera 20 the second image 110 to be displayed on the screen 15 is enlarged is, for example, a joystick provided on the operation unit 2209 It is possible by an operation in the left and right directions by the user U using an operation such as a cross key or a voice recognition device. Or you may make it select the 2nd image 110 by the camera 20 which orient | assigns the same direction as the gaze direction of the user U using the above-mentioned gaze detection sensor 1416. FIG. In this case, it is desirable that image areas that overlap each other in the second images 110 by the cameras 20 displayed on the screen 15 are continuously displayed by image processing.
In any of the configurations (1) to (7) described above, when the walking of the user U is detected, at least the display of the image in the normal visual field center range should be stopped. This is preferable for ensuring visual recognition.

次に実施例7について説明する。
実施例7は、カメラ20で撮像した画像を記録装置に記録するようにしている。
図4に示すように、本実施例では、コントローラ22のインターフェース部2206に記録装置32が接続され、カメラ20からの周囲映像信号およびマイク33からの音声信号が記録装置32に出力され、記録装置32によって映像と音声の記録が可能となるように構成されている。
記録装置32はビデオカメラに使用される磁気記録装置・光ディスク記録装置・半導体メモリー記録装置等のいずれであってもよい。
記録装置32は画像表示装置10のコントローラ22に一体化されたものでも、接続ケーブルや無線にてコントローラ22に接続される形態でもよく、ユーザーUが携行するものでもよい。
複数のカメラ20の周囲映像信号を記録装置32に記録するには、記録装置32の記録レートの範囲内にて、複数のカメラ20からの周囲映像信号及びマイク33からの音声信号を、同時にもしくは時分割に記録するものとし、再生時には記録されている各カメラ20の周囲映像信号を選択的に再生可能なものとする。
また、記録装置32へは複数のカメラ20からの周囲映像信号をすべて記録するものでも、選択された一部を記録するものでもよく、記録装置32は一台に限らず複数台用いてもよい。
Next, Example 7 will be described.
In the seventh embodiment, an image captured by the camera 20 is recorded in a recording device.
As shown in FIG. 4, in this embodiment, the recording device 32 is connected to the interface unit 2206 of the controller 22, and the ambient video signal from the camera 20 and the audio signal from the microphone 33 are output to the recording device 32. 32 is configured so that video and audio can be recorded.
The recording device 32 may be any of a magnetic recording device, an optical disk recording device, a semiconductor memory recording device, etc. used in a video camera.
The recording device 32 may be integrated with the controller 22 of the image display device 10, may be connected to the controller 22 by a connection cable or wirelessly, or may be carried by the user U.
In order to record the surrounding video signals of the plurality of cameras 20 on the recording device 32, the surrounding video signals from the plurality of cameras 20 and the audio signals from the microphones 33 may be simultaneously or within the range of the recording rate of the recording device 32. It is assumed that recording is performed in a time-sharing manner, and the recorded surrounding video signal of each camera 20 can be selectively reproduced during reproduction.
The recording device 32 may record all the surrounding video signals from the plurality of cameras 20, or may record a selected part. The recording device 32 is not limited to one, and a plurality of recording devices 32 may be used. .

次に操作について説明する。
まず、液晶シャッター1413の透過率を調節することにより、凹面ハーフミラー1412とハーフミラー1410を介して外界画像102が視認できるようにする。
この状態で、操作部を操作してカメラ20からの周囲映像信号およびマイク33からの音声信号を記録装置32に出力するとともに、記録装置32によって映像と音声の記録を開始させる。
すると、ユーザーUの移動に伴ってユーザーUの外部の状況を示す周囲映像信号と周囲音声信号とが記録装置32に記録される。
このような構成によれば、ユーザーUの移動に伴ってユーザーUの外部の状況を示す周囲映像信号と周囲音声信号とが記録装置32に記録されるので、記録装置32に記録された周囲映像信号と周囲音声信号を再生することによりユーザーUの視覚的および聴覚的な体験を再現することができる。
また、実施例3、4、5、6で説明したように、ユーザーUは、録画したい対象を肉眼で観察しながら、必要に応じてカメラ20による第2の画像110の概容をスクリーン15によって縮小画面で確認したり、瞬時に拡大表示して記録画面の詳細を確認することができる。
これにより「ビデオ撮影に気を取られて撮影対象を観察することができない」といったストレスを感じること無くビデオ撮影と撮影対象の観察を同時に行うことができる。
実施例7においても、実施例1乃至実施例6で説明した画像表示装置10の構成が適用可能であり、これら各実施例におけるカメラ20によって生成される周囲映像信号、すなわち第2の画像を記録することができる。
Next, the operation will be described.
First, the external image 102 is made visible through the concave half mirror 1412 and the half mirror 1410 by adjusting the transmittance of the liquid crystal shutter 1413.
In this state, the operation unit is operated to output the ambient video signal from the camera 20 and the audio signal from the microphone 33 to the recording device 32, and the recording device 32 starts recording video and audio.
Then, with the movement of the user U, an ambient video signal and an ambient audio signal indicating a situation outside the user U are recorded in the recording device 32.
According to such a configuration, as the user U moves, the ambient video signal and the ambient audio signal indicating the situation outside the user U are recorded in the recording device 32, so that the ambient video recorded in the recording device 32 is recorded. By reproducing the signal and the ambient audio signal, the visual and auditory experience of the user U can be reproduced.
Further, as described in the third, fourth, fifth, and sixth embodiments, the user U reduces the outline of the second image 110 by the camera 20 with the screen 15 as necessary while observing an object to be recorded with the naked eye. You can check on the screen or instantly zoom in and check the details of the recording screen.
As a result, it is possible to simultaneously perform the video shooting and the observation of the shooting target without feeling the stress that “the shooting target cannot be observed due to the video shooting”.
Also in the seventh embodiment, the configuration of the image display device 10 described in the first to sixth embodiments can be applied, and the ambient video signal generated by the camera 20 in each of these embodiments, that is, the second image is recorded. can do.

また、本実施例の画像表示装置
10は、ユーザーUの周囲の状況を記録するビデオカメラとしてだけでなく、ユーザーUの行動履歴の記録装置として活用することが可能である。
ユーザーUが外部の景色を観察し通常に行動しながら、記録装置32にてカメラ20からの周囲映像信号を記録しユーザーUの体験した内容を意識することなく自然に記録することができる。
例えば、ユーザーUの正面方向を撮影する広角に設定された第1カメラ2002(FW)について説明すると、第1カメラ2002によって記録される周囲映像信号はユーザーUの顔の正面方向となるので概ねユーザーUの視線と合致し、マイクによる音声情報と同時にユーザーUの観察した映像情報を、ビデオカメラの操作を意識すること無く記録することができる。
しかし、通常ユーザーUの観察する映像情報はユーザーUの顔の正面方向だけに限らず、視線の移動により顔の正面方向から上下及び左右方向へ移動させることが可能である。
このため、第1カメラ2002にてユーザーUの視線移動による映像情報を逃さずに記録する為には、該第1カメラ2002の画角は、ユーザーUの視線の上限〜視線の下限、及び右目の可視範囲〜左眼の可視範囲を含むように設定されていることが望ましい。
さらに視線検出センサ1416を利用してユーザーUの視線方向を検出し、記録装置32へユーザーUの視線情報を同時に記録することで、再生時にユーザーUの視線方向を示す情報(ユーザーUの視線位置)を第2の画像110に重畳して表示すれば記録時のユーザーUの視点、すなわちユーザーUが何を注視していたのかが再生された第2の画像110の中から認識可能となる。
In addition, the image display apparatus 10 according to the present embodiment can be used not only as a video camera that records the situation around the user U but also as a recording apparatus for the user U's action history.
While the user U observes the external scenery and acts normally, the recording device 32 can record the surrounding video signal from the camera 20 and record it naturally without being aware of the contents experienced by the user U.
For example, the first camera 2002 (FW) set to a wide angle that captures the front direction of the user U will be described. Since the surrounding video signal recorded by the first camera 2002 is the front direction of the user U's face, the user is generally the user. The video information observed by the user U can be recorded without being aware of the operation of the video camera at the same time as the voice information from the microphone, which coincides with the line of sight of U.
However, the video information normally observed by the user U is not limited to the front direction of the user U's face, but can be moved vertically and horizontally from the front direction of the face by moving the line of sight.
For this reason, in order to record the video information generated by the movement of the user's line of sight with the first camera 2002 without missing the angle of view of the first camera 2002, the upper limit of the line of sight of the user U to the lower limit of the line of sight and the right eye It is desirable to set to include the visible range of the left eye to the visible range of the left eye.
Further, the line-of-sight detection sensor 1416 is used to detect the line-of-sight direction of the user U, and the line-of-sight information of the user U is recorded on the recording device 32 at the same time. ) Superimposed on the second image 110, the viewpoint of the user U at the time of recording, that is, what the user U was gazing at can be recognized from the reproduced second image 110.

また、前述した歩行センサ2212を構成する第1の加速度センサ、第2の加速度センサを用いてユーザーUの行動による撮像装置の揺れを認識し撮像画像がぶれないように所謂手ぶれ補正機能を有することが可能である。
この手ぶれ補正はカメラ20による画像を記録する際に補正を行ってもよいが、補正を行わずに画像と共に前記加速度センサーの出力情報を記録し、再生時にブレ補正を行うか否かの選択を行えるようにしてもよい。
これにより、記録時のブレ補正での消費電力を低減させると共に、再生時に補正選択を行なわない、あるいは補正量を低減する等の選択によって、ユーザーUの動きに応じた臨場感の有る画像を再生することも可能となる。
この様な複数のカメラ20により、ユーザーUの周囲すべての方向を同時に記録可能にしていればユーザーUの行動時の周辺状況を洩れなく記録することが可能となりより利便性が向上する。
再生時に複数の周囲映像信号のどれを選択表示するかは鑑賞者による任意の選択が可能であるが、記録されたユーザーUの視線情報から視線方向の画像を選択すればユーザーUの体験映像を再現できる。
ユーザーUの行動履歴として、前述した周囲の映像情報、音声情報、ユーザーUの視線情報に加えて、さらに以下の情報を記録できるようにすればより詳細な情報が保存可能となる。
(1)GPSセンサ2210で生成された測位データを記録装置32に記録すれば、ユーザーUの移動状況や行動した場所情報を記録できる。
(2)2軸以上の加速度センサーにより、歩行の開始/停止、歩行速度、階段の昇降、頭部の変動等の行動様式を判定し記録すると共に、画像ブレの補正データーとして利用する。
(3)体温、心拍数、呼吸数、発汗量等を検出する種々のセンサをさらに設け、これらのセンサから得られる身体状況のデーターを記録して、運動状況や体調・感情の変化を判断する。
In addition, the first acceleration sensor and the second acceleration sensor that constitute the walking sensor 2212 described above have a so-called camera shake correction function so as to recognize the shaking of the imaging device due to the action of the user U and prevent the captured image from blurring. Is possible.
This camera shake correction may be performed when an image is recorded by the camera 20, but the output information of the acceleration sensor is recorded together with the image without performing the correction, and whether or not to perform the blur correction at the time of reproduction is selected. You may be able to do it.
This reduces power consumption during blur correction during recording, and reproduces images with a sense of realism according to the movement of the user U by selecting not to perform correction selection during playback or to reduce the correction amount. It is also possible to do.
If such a plurality of cameras 20 can record all directions around the user U at the same time, it is possible to record the surrounding situation during the action of the user U without any omission and the convenience is further improved.
It is possible for the viewer to select which of the surrounding video signals is selected and displayed during playback. However, if an image in the line-of-sight direction is selected from the recorded line-of-sight information of the user U, the experience video of the user U can be obtained. Can be reproduced.
As the action history of the user U, more detailed information can be stored if the following information can be recorded in addition to the surrounding video information, audio information, and line-of-sight information of the user U.
(1) If the positioning data generated by the GPS sensor 2210 is recorded in the recording device 32, the movement status of the user U and the information on the place where the user U has acted can be recorded.
(2) Using an acceleration sensor of two or more axes, it determines and records behavior modes such as walking start / stop, walking speed, ascending / descending stairs, head variation, etc., and uses it as image blur correction data.
(3) Various sensors for detecting body temperature, heart rate, respiration rate, sweating amount, etc. are further provided, and physical condition data obtained from these sensors is recorded to determine changes in exercise status, physical condition, and emotion. .

なお、上述した各実施例において、画像表示装置10は、ユーザーUの両目に対して画像を表示するように構成されているが、片目に対して画像を表示する構成であってもよい。
また、スクリーン15は、図6に示すようにハーフミラーを用いることでスクリーン15を透過して外界画像102を視認する所謂シースルー機能を有する構成に限定されるものではなく、ホログラム素子を使用して構成されたシースルー機能を有するものでもよい。また、カメラ20の周囲映像信号に基づいて外界画像102に相当する視野を確保できる場合には、シースルー機能を有さない所謂フリーシェイプドプリズムタイプのものであってもよい。
また、画像表示装置10の装着部12の構成は図1に示す構成に限定されるものではなく、眼鏡のようにユーザーUの両耳と鼻梁の部分で支持される構成であってもよいし、ヘルメットのように頭部に被ることで支持される構成であってもよい。
In each of the above-described embodiments, the image display device 10 is configured to display an image for both eyes of the user U, but may be configured to display an image for one eye.
Further, the screen 15 is not limited to a configuration having a so-called see-through function for visually recognizing the external image 102 through the screen 15 by using a half mirror as shown in FIG. It may have a configured see-through function. In addition, when a field of view corresponding to the external image 102 can be secured based on the surrounding video signal of the camera 20, a so-called free-shaped prism type that does not have a see-through function may be used.
In addition, the configuration of the mounting unit 12 of the image display device 10 is not limited to the configuration illustrated in FIG. 1, and may be a configuration that is supported by both ears and nose bridge portions of the user U like glasses. The structure supported by covering a head like a helmet may be sufficient.

実施例1の画像表示装置の構成を示す斜視図である。1 is a perspective view illustrating a configuration of an image display device according to a first embodiment. 実施例1の画像表示装置が装着された状態を示す説明図である。It is explanatory drawing which shows the state with which the image display apparatus of Example 1 was mounted | worn. 実施例1の画像表示装置における撮像手段の配置を示す説明図である。FIG. 3 is an explanatory diagram illustrating an arrangement of imaging units in the image display apparatus according to the first embodiment. 実施例1の画像表示装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image display device according to a first embodiment. 実施例1の画像表示装置の構成を示す説明図である。1 is an explanatory diagram illustrating a configuration of an image display device according to Embodiment 1. FIG. 実施例1の画像表示装置の光学系の構成図である。1 is a configuration diagram of an optical system of an image display apparatus according to Embodiment 1. FIG. 歩行センサの原理説明図である。It is principle explanatory drawing of a walk sensor. 実施例2の画像表示装置の構成を示す斜視図である。FIG. 6 is a perspective view illustrating a configuration of an image display device according to a second embodiment. スクリーン15に表示される画像の説明図である。FIG. 10 is an explanatory diagram of an image displayed on the screen 15. 標準的な人間の垂直方向の視野特性を示す説明図である。It is explanatory drawing which shows the visual field characteristic of a normal human perpendicular | vertical direction. 標準的な人間の水平方向の視野特性を示す説明図である。It is explanatory drawing which shows the visual field characteristic of a standard human horizontal direction. 標準的な人間の視野特性を示す説明図である。It is explanatory drawing which shows a standard human visual field characteristic. 実施例4における画像表示装置10の構成を簡素化して示す構成図The block diagram which simplifies and shows the structure of the image display apparatus 10 in Example 4. FIG. 実施例4における動作フローチャートである。10 is an operation flowchart according to the fourth embodiment. 実施例4におけるスクリーン15に表示される画像の説明図である。14 is an explanatory diagram of an image displayed on a screen 15 in Embodiment 4. FIG. 実施例5におけるスクリーン15に表示される画像の説明図である。FIG. 10 is an explanatory diagram of an image displayed on a screen 15 in the fifth embodiment. 実施例6におけるスクリーン15に表示される画像の説明図である。FIG. 10 is an explanatory diagram of an image displayed on a screen 15 in Example 6. 実施例6におけるスクリーン15に表示される画像の説明図である。FIG. 10 is an explanatory diagram of an image displayed on a screen 15 in Example 6. 実施例6におけるスクリーン15に表示される画像の説明図である。FIG. 10 is an explanatory diagram of an image displayed on a screen 15 in Example 6.

符号の説明Explanation of symbols

10……画像表示装置、12……装着部、14……表示ユニット、1406……バックライト、1408……LCD、1410……ハーフミラー、1412……凹面ハーフミラー、1413……液晶シャッター、15……スクリーン、20……カメラ、22……コントローラ。   DESCRIPTION OF SYMBOLS 10 ... Image display apparatus, 12 ... Mounting part, 14 ... Display unit, 1406 ... Backlight, 1408 ... LCD, 1410 ... Half mirror, 1412 ... Concave half mirror, 1413 ... Liquid crystal shutter, 15 ... screen, 20 ... camera, 22 ... controller.

Claims (10)

ユーザーの頭部または顔面に装着される装着部と、
前記装着部に支持され前記装着部が前記ユーザーに装着された状態で前記ユーザーの視野内に配置されるスクリーンと、
入力映像信号に基づいて前記スクリーンに画像を表示する画像表示手段とを有する画像表示装置であって、
前記装着部またはスクリーンに支持され前記装着部が前記ユーザーに装着された状態で前記ユーザーの周囲の一部またはほぼ全域を撮像し前記ユーザーの周囲の状況を表す周囲映像信号を生成する撮像手段と、
前記画像表示装置の外部から供給される外部供給映像信号と、前記撮像手段から供給される前記周囲映像信号との双方に基づいて前記入力映像信号を生成して前記画像表示手段に供給することによって、前記外部供給映像信号による第1の画像と、前記周囲映像信号信号による第2の画像とを前記スクリーンに表示させる制御手段と、
を備えることを特徴とする画像表示装置。
A wearing part to be worn on the user's head or face;
A screen that is supported by the mounting portion and disposed within the field of view of the user in a state where the mounting portion is mounted on the user;
An image display device having image display means for displaying an image on the screen based on an input video signal,
An imaging unit that is supported by the mounting unit or the screen and that captures an image of a part or almost the entire area around the user in a state where the mounting unit is mounted on the user, and generates an ambient video signal that represents the situation around the user; ,
By generating the input video signal based on both the externally supplied video signal supplied from the outside of the image display device and the ambient video signal supplied from the imaging means, and supplying the input video signal to the image display means Control means for displaying on the screen a first image based on the externally supplied video signal and a second image based on the ambient video signal signal;
An image display device comprising:
前記制御手段による前記第1の画像および第2の画像の表示は、前記第1の画像および第2の画像の何れか一方を選択して前記画像表示手段に表示させることでなされることを特徴とする請求項1記載の画像表示装置。   The display of the first image and the second image by the control means is performed by selecting any one of the first image and the second image and displaying the selected image on the image display means. The image display device according to claim 1. 前記制御手段による前記第1の画像および第2の画像の表示は、前記第1の画像および第2の画像の双方を同時に前記画像表示手段に表示させることでなされることを特徴とする請求項1記載の画像表示装置。   The display of the first image and the second image by the control means is performed by causing the image display means to display both the first image and the second image at the same time. 1. The image display device according to 1. 前記スクリーンは、その全域にわたって延在するシャッター手段を含んで構成され、前記シャッター手段は光の少なくとも一部を透過する透過状態と、光を透過しない非透過状態とに切り替え可能に構成されていることを特徴とする請求項1記載の画像表示装置。   The screen includes shutter means extending over the entire area, and the shutter means is configured to be switchable between a transmissive state that transmits at least part of light and a non-transmissive state that does not transmit light. The image display device according to claim 1. 前記撮像手段は複数個のカメラを有し、前記撮像手段によるユーザーの周囲のほぼ全域の撮像は、前記複数のカメラを互いに指向方向が異なるように配置することでなされることを特徴とする請求項1記載の画像表示装置。   The imaging unit includes a plurality of cameras, and imaging of almost the entire area around the user by the imaging unit is performed by arranging the plurality of cameras so that their directing directions are different from each other. Item 2. The image display device according to Item 1. 前記撮像手段は互いに指向方向が同一となるように配置された少なくとも2つのカメラを有することを特徴とする請求項1記載の画像表示装置。   The image display apparatus according to claim 1, wherein the imaging unit includes at least two cameras arranged so that their directivity directions are the same. 前記撮像手段は単一のカメラと前記ユーザーの周囲のほぼ全域に臨むように設けられた反射鏡を有し、前記撮像手段によるユーザーの周囲のほぼ全域の撮像は、前記カメラが前記反射鏡を介して撮影することでなされることを特徴とする請求項1記載の画像表示装置。   The imaging means has a single camera and a reflecting mirror provided so as to face almost the whole area around the user. The imaging means picks up the whole area around the user by the imaging means. The image display device according to claim 1, wherein the image display device is made by taking a picture through the camera. 前記撮像手段は撮影倍率が調整可能に構成されていることを特徴とする請求項1記載の画像表示装置。   The image display apparatus according to claim 1, wherein the imaging unit is configured to be capable of adjusting a shooting magnification. 前記撮像手段は撮影方向が調整可能に構成されていることを特徴とする請求項1記載の画像表示装置。   The image display apparatus according to claim 1, wherein the imaging unit is configured to be capable of adjusting a shooting direction. 前記撮像手段は、前記周囲映像信号を外部の記録装置に接続可能な形態で出力するように構成されていることを特徴とする請求項1記載の画像表示装置。   The image display apparatus according to claim 1, wherein the imaging unit is configured to output the ambient video signal in a form connectable to an external recording apparatus.
JP2003408106A 2003-12-05 2003-12-05 Image display apparatus Pending JP2005172851A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003408106A JP2005172851A (en) 2003-12-05 2003-12-05 Image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003408106A JP2005172851A (en) 2003-12-05 2003-12-05 Image display apparatus

Publications (1)

Publication Number Publication Date
JP2005172851A true JP2005172851A (en) 2005-06-30

Family

ID=34729945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003408106A Pending JP2005172851A (en) 2003-12-05 2003-12-05 Image display apparatus

Country Status (1)

Country Link
JP (1) JP2005172851A (en)

Cited By (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007119712A1 (en) * 2006-04-13 2007-10-25 Opt Corporation Camera apparatus, and image processing apparatus and image processing method
JP2008033219A (en) * 2006-07-27 2008-02-14 Korea Electronics Telecommun Face-mounted display apparatus for mixed reality environment
WO2008029570A1 (en) * 2006-09-08 2008-03-13 Sony Corporation Display device and display method
WO2008038473A1 (en) * 2006-09-27 2008-04-03 Sony Corporation Display apparatus and display method
JP2008083289A (en) * 2006-09-27 2008-04-10 Sony Corp Imaging display apparatus, and imaging display method
JP2008096867A (en) * 2006-10-16 2008-04-24 Sony Corp Display device, and display method
JP2008096868A (en) * 2006-10-16 2008-04-24 Sony Corp Imaging display device, and imaging display method
EP1920715A2 (en) 2006-11-07 2008-05-14 Sony Corporation Imaging and display device
EP1921844A2 (en) 2006-11-07 2008-05-14 Sony Corporation Imaging apparatus and method
JP2008185609A (en) * 2007-01-26 2008-08-14 Sony Corp Display device and display method
JP2008250166A (en) * 2007-03-30 2008-10-16 Shimadzu Corp Head-mounted type display device
JP2009043003A (en) * 2007-08-08 2009-02-26 Denso Corp Driving support apparatus
JP2009534958A (en) * 2006-04-24 2009-09-24 胡超 Glasses type integrated stereoscopic video frequency multimedia device
JP2009253786A (en) * 2008-04-09 2009-10-29 Seiko Epson Corp Head-mounted image display device
US20100091139A1 (en) * 2007-03-12 2010-04-15 Sony Corporation Image processing apparatus, image processing method and image processing system
JP2010097472A (en) * 2008-10-17 2010-04-30 Kddi Corp Display system, display method and program
JP2010521347A (en) * 2007-03-05 2010-06-24 ザ・ボーイング・カンパニー Electrically dimmable combiner for head-up displays
WO2010103995A1 (en) * 2009-03-12 2010-09-16 ブラザー工業株式会社 Head mount display
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
JP2011091789A (en) * 2009-09-24 2011-05-06 Brother Industries Ltd Head-mounted display
US8294776B2 (en) 2006-09-27 2012-10-23 Sony Corporation Imaging apparatus and imaging method
JP2013510491A (en) * 2009-11-05 2013-03-21 サンドル レーリンツ Free horizon binocular display with built-in video signal source
JP2013077013A (en) * 2012-11-20 2013-04-25 Sony Corp Display device and display method
JP2013083994A (en) * 2012-11-30 2013-05-09 Sony Corp Display unit and display method
JP2013110764A (en) * 2013-02-19 2013-06-06 Sony Corp Imaging display device, and imaging display method
JP2013174898A (en) * 2013-04-10 2013-09-05 Sony Corp Imaging display device, and imaging display method
JP2013210643A (en) * 2013-04-26 2013-10-10 Sony Corp Display device and display method
JP2013214856A (en) * 2012-04-02 2013-10-17 Seiko Epson Corp Head-mounted display device
JP2013235119A (en) * 2012-05-09 2013-11-21 Sony Corp Display unit and image display method
JP2014010460A (en) * 2013-08-22 2014-01-20 Sony Computer Entertainment Inc Video observing device and method for controlling transmission factor
JP2014044334A (en) * 2012-08-27 2014-03-13 Toshiba Corp Display device, display method and program
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
CN103784298A (en) * 2013-11-20 2014-05-14 中国科学院光电技术研究所 Head-mounted individualized eye aberration correcting and vision training device
JP2014093703A (en) * 2012-11-06 2014-05-19 Sony Computer Entertainment Inc Head mount display, movement detection device, movement detection method and video presentation system
JP2014115457A (en) * 2012-12-10 2014-06-26 Sony Corp Information processor and recording medium
JP2014127968A (en) * 2012-12-27 2014-07-07 Seiko Epson Corp Display device and control method for display device
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
JP2015028654A (en) * 2014-09-24 2015-02-12 ソニー株式会社 Head-mounted type display device and display method
JP2015046885A (en) * 2014-09-24 2015-03-12 ソニー株式会社 Display device and display method
CN104469464A (en) * 2013-09-25 2015-03-25 精工爱普生株式会社 Image display device, method of controlling image display device, computer program, and image display system
JP2015064476A (en) * 2013-09-25 2015-04-09 セイコーエプソン株式会社 Image display device, and method of controlling image display device
JP2015087523A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device, method for controlling head-mounted display device, and image display system
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP5720068B1 (en) * 2014-10-27 2015-05-20 治幸 岩田 Smart glasses with self-photographing function
CN104714302A (en) * 2013-12-17 2015-06-17 精工爱普生株式会社 Head mounted display device
JP2015523583A (en) * 2012-03-28 2015-08-13 マイクロソフト コーポレーション Augmented reality light guide display
JP2015213226A (en) * 2014-05-02 2015-11-26 コニカミノルタ株式会社 Wearable display and display control program therefor
JP2015215619A (en) * 2015-06-10 2015-12-03 ソニー株式会社 Display device, display method, and program
US9229236B2 (en) 2012-12-27 2016-01-05 Seiko Epson Corporation Head-mounted display with half mirror area
JP2016033763A (en) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 Display device, method for controlling display device, and program
JP2016034091A (en) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 Display device, control method of the same and program
EP2998779A1 (en) * 2014-09-22 2016-03-23 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Head mounted display
JP2016509380A (en) * 2012-11-29 2016-03-24 チェイス, スティーヴンCHASE, Stephen Video headphones, systems, platforms, methods, equipment, and media
KR101610912B1 (en) * 2014-08-11 2016-04-12 주식회사 에스.제이테크 Motion pattern analysis method using panorama videos
JP2016059607A (en) * 2014-09-18 2016-04-25 ローム株式会社 Visual aid system and visual aid device
WO2016072131A1 (en) * 2014-11-04 2016-05-12 株式会社ソニー・インタラクティブエンタテインメント Headmount display and brightness adjustment method
JP2016080971A (en) * 2014-10-21 2016-05-16 ローム株式会社 Visual assistance system
WO2016092950A1 (en) * 2014-12-11 2016-06-16 ソニー株式会社 Spectacle-type display device for medical use, information processing device, and information processing method
JP2016134668A (en) * 2015-01-16 2016-07-25 株式会社ブリリアントサービス Electronic spectacle and electronic spectacle control method
JP2016131782A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Head wearable display device, detection device, control method for head wearable display device, and computer program
WO2016158080A1 (en) * 2015-03-30 2016-10-06 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
JP2016532178A (en) * 2013-06-08 2016-10-13 株式会社ソニー・インタラクティブエンタテインメント System and method for transitioning between transmissive mode and non-transmissive mode in a head mounted display
JP2016534379A (en) * 2013-09-26 2016-11-04 ヴァレオ ビジョンValeo Vision Data display glasses with anti-glare screen
EP3092544A1 (en) * 2014-01-10 2016-11-16 Nokia Technologies Oy Display of a visual representation of a view
JP2017502570A (en) * 2013-12-03 2017-01-19 ノキア テクノロジーズ オーユー Displaying information on the head mounted display
JP2017037525A (en) * 2015-08-11 2017-02-16 京セラ株式会社 Wearable device and output system
US9696548B2 (en) 2012-06-29 2017-07-04 Sony Corporation Stereoscopic video observation device and transmittance control method
JP2017130210A (en) * 2017-02-16 2017-07-27 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device
US9753284B2 (en) 2012-01-24 2017-09-05 Sony Corporation Display device
US9791701B2 (en) 2013-02-20 2017-10-17 Sony Corporation Display device
WO2018003205A1 (en) * 2016-06-27 2018-01-04 富士フイルム株式会社 Spectacles with image display function
JP2018029968A (en) * 2013-06-07 2018-03-01 株式会社ソニー・インタラクティブエンタテインメント Transitioning gameplay on head-mounted display
US9921646B2 (en) 2013-03-25 2018-03-20 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
EP3204816A4 (en) * 2014-10-07 2018-06-20 Elbit Systems Ltd. Head-mounted displaying of magnified images locked on an object of interest
JP2018141826A (en) * 2017-02-27 2018-09-13 セイコーエプソン株式会社 Image display device
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
JP2019521429A (en) * 2016-06-02 2019-07-25 タレス ディフェンス アンド セキュリティー, インコーポレイテッドThales Defense & Security, Inc. Compact vision inertial navigation system with extended dynamic range
JP2019153347A (en) * 2013-03-06 2019-09-12 クアルコム,インコーポレイテッド Disabling augmented reality (AR) devices at real speed
US10426668B2 (en) 2014-09-18 2019-10-01 Rohm Co., Ltd. Binocular display apparatus
US10478717B2 (en) 2012-04-05 2019-11-19 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
JP2020002514A (en) * 2018-06-29 2020-01-09 大成建設株式会社 Helmet
KR20200027569A (en) * 2017-08-03 2020-03-12 페이스북 테크놀로지스, 엘엘씨 Audio output assembly for head mounted display
JP2020048210A (en) * 2017-02-06 2020-03-26 日本電信電話株式会社 Determination device, image processing device, and determination program
US10642040B2 (en) 2014-03-17 2020-05-05 Sony Corporation Display apparatus and optical apparatus
JP2020171031A (en) * 2016-05-02 2020-10-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Shooting and sharing head-mounted display content
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
JP7039672B1 (en) 2020-10-29 2022-03-22 ソフトバンク株式会社 Controls, programs, and control methods

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0226870U (en) * 1988-08-04 1990-02-21
JPH0678248A (en) * 1992-08-28 1994-03-18 Sony Corp Visual device
JPH09211382A (en) * 1996-02-07 1997-08-15 Canon Inc Optical device
JPH10142552A (en) * 1996-11-12 1998-05-29 Nec Corp Head mounted display
JPH10301055A (en) * 1997-04-25 1998-11-13 Sony Corp Image display device
JP2000134640A (en) * 1998-10-27 2000-05-12 Sony Corp Receiver, position recognition device therefor, position recognition method therefor and virtual image stereoscopic synthesizer
JP2000132329A (en) * 1998-10-27 2000-05-12 Sony Corp Device and method for recognizing surface and virtual image solid synthesizer
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2002288647A (en) * 2001-03-26 2002-10-04 Mitsubishi Heavy Ind Ltd In-field support system
JP2002354505A (en) * 2001-05-29 2002-12-06 Vstone Kk Stereoscopic system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0226870U (en) * 1988-08-04 1990-02-21
JPH0678248A (en) * 1992-08-28 1994-03-18 Sony Corp Visual device
JPH09211382A (en) * 1996-02-07 1997-08-15 Canon Inc Optical device
JPH10142552A (en) * 1996-11-12 1998-05-29 Nec Corp Head mounted display
JPH10301055A (en) * 1997-04-25 1998-11-13 Sony Corp Image display device
JP2000134640A (en) * 1998-10-27 2000-05-12 Sony Corp Receiver, position recognition device therefor, position recognition method therefor and virtual image stereoscopic synthesizer
JP2000132329A (en) * 1998-10-27 2000-05-12 Sony Corp Device and method for recognizing surface and virtual image solid synthesizer
JP2001356875A (en) * 2000-06-13 2001-12-26 Toshiba Corp Pointer display system
JP2002288647A (en) * 2001-03-26 2002-10-04 Mitsubishi Heavy Ind Ltd In-field support system
JP2002354505A (en) * 2001-05-29 2002-12-06 Vstone Kk Stereoscopic system

Cited By (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288354A (en) * 2006-04-13 2007-11-01 Opt Kk Camera device, image processing apparatus, and image processing method
WO2007119712A1 (en) * 2006-04-13 2007-10-25 Opt Corporation Camera apparatus, and image processing apparatus and image processing method
JP2009534958A (en) * 2006-04-24 2009-09-24 胡超 Glasses type integrated stereoscopic video frequency multimedia device
JP2008033219A (en) * 2006-07-27 2008-02-14 Korea Electronics Telecommun Face-mounted display apparatus for mixed reality environment
KR101352660B1 (en) * 2006-09-08 2014-01-23 소니 주식회사 Display device and display method
US9733701B2 (en) 2006-09-08 2017-08-15 Sony Corporation Display device and display method that determines intention or status of a user
US8860867B2 (en) 2006-09-08 2014-10-14 Sony Corporation Display device and display method
US9261956B2 (en) 2006-09-08 2016-02-16 Sony Corporation Display device and display method that determines intention or status of a user
US8368794B2 (en) 2006-09-08 2013-02-05 Sony Corporation Display device and display method that determines intention or status of a user
WO2008029570A1 (en) * 2006-09-08 2008-03-13 Sony Corporation Display device and display method
JP2008065169A (en) * 2006-09-08 2008-03-21 Sony Corp Display device and display method
CN101506868A (en) * 2006-09-08 2009-08-12 索尼株式会社 Display device and display method
US10466773B2 (en) 2006-09-08 2019-11-05 Sony Corporation Display device and display method that determines intention or status of a user
TWI384256B (en) * 2006-09-27 2013-02-01 Sony Corp Display device, display method
EP2071558A4 (en) * 2006-09-27 2011-06-22 Sony Corp Display apparatus and display method
WO2008038473A1 (en) * 2006-09-27 2008-04-03 Sony Corporation Display apparatus and display method
US10481677B2 (en) 2006-09-27 2019-11-19 Sony Corporation Display apparatus and display method
EP2071558A1 (en) * 2006-09-27 2009-06-17 Sony Corporation Display apparatus and display method
US8294776B2 (en) 2006-09-27 2012-10-23 Sony Corporation Imaging apparatus and imaging method
CN101512632B (en) * 2006-09-27 2012-11-07 索尼株式会社 Display apparatus and display method
US8982013B2 (en) 2006-09-27 2015-03-17 Sony Corporation Display apparatus and display method
JP2008083289A (en) * 2006-09-27 2008-04-10 Sony Corp Imaging display apparatus, and imaging display method
JP2008083290A (en) * 2006-09-27 2008-04-10 Sony Corp Display apparatus, and display method
US9179057B2 (en) 2006-09-27 2015-11-03 Sony Corporation Imaging apparatus and imaging method that acquire environment information and information of a scene being recorded
US9772686B2 (en) 2006-10-16 2017-09-26 Sony Corporation Imaging display apparatus and method
US9182598B2 (en) 2006-10-16 2015-11-10 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
US8681256B2 (en) 2006-10-16 2014-03-25 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
US8514149B2 (en) 2006-10-16 2013-08-20 Sony Corporation Imaging display apparatus and method
US9665167B2 (en) 2006-10-16 2017-05-30 Sony Corporation Imaging display apparatus and method
US8624798B2 (en) 2006-10-16 2014-01-07 Sony Corporation Imaging display apparatus and method
US8253760B2 (en) 2006-10-16 2012-08-28 Sony Corporation Imaging display apparatus and method
US9846304B2 (en) 2006-10-16 2017-12-19 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
JP2008096868A (en) * 2006-10-16 2008-04-24 Sony Corp Imaging display device, and imaging display method
WO2008047889A1 (en) * 2006-10-16 2008-04-24 Sony Corporation Display device and display method
JP2008096867A (en) * 2006-10-16 2008-04-24 Sony Corp Display device, and display method
CN103399403A (en) * 2006-10-16 2013-11-20 索尼株式会社 Display device and display method
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
EP2060231A2 (en) 2006-11-07 2009-05-20 Sony Corporation Imaging and display
EP1921844A2 (en) 2006-11-07 2008-05-14 Sony Corporation Imaging apparatus and method
EP1920715A2 (en) 2006-11-07 2008-05-14 Sony Corporation Imaging and display device
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
US8009219B2 (en) 2006-12-07 2011-08-30 Sony Corporation Image display system, display apparatus, and display method
JP2008185609A (en) * 2007-01-26 2008-08-14 Sony Corp Display device and display method
JP2010521347A (en) * 2007-03-05 2010-06-24 ザ・ボーイング・カンパニー Electrically dimmable combiner for head-up displays
US20100091139A1 (en) * 2007-03-12 2010-04-15 Sony Corporation Image processing apparatus, image processing method and image processing system
JP2008250166A (en) * 2007-03-30 2008-10-16 Shimadzu Corp Head-mounted type display device
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
US9972116B2 (en) 2007-08-06 2018-05-15 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10937221B2 (en) 2007-08-06 2021-03-02 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10262449B2 (en) 2007-08-06 2019-04-16 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10529114B2 (en) 2007-08-06 2020-01-07 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US9568998B2 (en) 2007-08-06 2017-02-14 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
JP2009043003A (en) * 2007-08-08 2009-02-26 Denso Corp Driving support apparatus
JP2009253786A (en) * 2008-04-09 2009-10-29 Seiko Epson Corp Head-mounted image display device
JP2010097472A (en) * 2008-10-17 2010-04-30 Kddi Corp Display system, display method and program
WO2010103995A1 (en) * 2009-03-12 2010-09-16 ブラザー工業株式会社 Head mount display
JP2010213214A (en) * 2009-03-12 2010-09-24 Brother Ind Ltd Head-mounted display
JP2011091789A (en) * 2009-09-24 2011-05-06 Brother Industries Ltd Head-mounted display
JP2013510491A (en) * 2009-11-05 2013-03-21 サンドル レーリンツ Free horizon binocular display with built-in video signal source
US9753284B2 (en) 2012-01-24 2017-09-05 Sony Corporation Display device
US10018846B2 (en) 2012-01-24 2018-07-10 Sony Corporation Display device
US11068049B2 (en) 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
JP2015523583A (en) * 2012-03-28 2015-08-13 マイクロソフト コーポレーション Augmented reality light guide display
US10388073B2 (en) 2012-03-28 2019-08-20 Microsoft Technology Licensing, Llc Augmented reality light guide display
US9269193B2 (en) 2012-04-02 2016-02-23 Seiko Epson Corporation Head-mount type display device
JP2013214856A (en) * 2012-04-02 2013-10-17 Seiko Epson Corp Head-mounted display device
US10478717B2 (en) 2012-04-05 2019-11-19 Microsoft Technology Licensing, Llc Augmented reality and physical games
US9558540B2 (en) 2012-05-09 2017-01-31 Sony Corporation Display instrument and image display method
US10540822B2 (en) 2012-05-09 2020-01-21 Sony Corporation Display instrument and image display method
JP2013235119A (en) * 2012-05-09 2013-11-21 Sony Corp Display unit and image display method
US9972135B2 (en) 2012-05-09 2018-05-15 Sony Corporation Display instrument and image display method
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US9696548B2 (en) 2012-06-29 2017-07-04 Sony Corporation Stereoscopic video observation device and transmittance control method
US9563058B2 (en) 2012-08-27 2017-02-07 Kabushiki Kaisha Toshiba Display device, display method, and readable medium
JP2014044334A (en) * 2012-08-27 2014-03-13 Toshiba Corp Display device, display method and program
US10241331B2 (en) 2012-11-06 2019-03-26 Sony Interactive Entertainment Inc. Head mounted display, motion detector, motion detection method, image presentation system and program
CN103809687A (en) * 2012-11-06 2014-05-21 索尼电脑娱乐公司 Head mounted display, motion detector, motion detection method, image presentation system and program
JP2014093703A (en) * 2012-11-06 2014-05-19 Sony Computer Entertainment Inc Head mount display, movement detection device, movement detection method and video presentation system
US9448405B2 (en) 2012-11-06 2016-09-20 Sony Corporation Head mounted display, motion detector, motion detection method, image presentation system and program
CN103809687B (en) * 2012-11-06 2017-10-13 索尼电脑娱乐公司 Head mounted display, motion detector and method, image presentation system and program
JP2013077013A (en) * 2012-11-20 2013-04-25 Sony Corp Display device and display method
JP2016509380A (en) * 2012-11-29 2016-03-24 チェイス, スティーヴンCHASE, Stephen Video headphones, systems, platforms, methods, equipment, and media
JP2013083994A (en) * 2012-11-30 2013-05-09 Sony Corp Display unit and display method
JP2014115457A (en) * 2012-12-10 2014-06-26 Sony Corp Information processor and recording medium
JP2014127968A (en) * 2012-12-27 2014-07-07 Seiko Epson Corp Display device and control method for display device
US9229236B2 (en) 2012-12-27 2016-01-05 Seiko Epson Corporation Head-mounted display with half mirror area
JP2013110764A (en) * 2013-02-19 2013-06-06 Sony Corp Imaging display device, and imaging display method
US9791701B2 (en) 2013-02-20 2017-10-17 Sony Corporation Display device
US10613329B2 (en) 2013-02-20 2020-04-07 Sony Corporation Display device with transmissivity controlled based on quantity of light
JP2019153347A (en) * 2013-03-06 2019-09-12 クアルコム,インコーポレイテッド Disabling augmented reality (AR) devices at real speed
US11217026B2 (en) 2013-03-06 2022-01-04 Qualcomm Incorporated Disabling augmented reality (AR) devices at speed
US9921646B2 (en) 2013-03-25 2018-03-20 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
JP2013174898A (en) * 2013-04-10 2013-09-05 Sony Corp Imaging display device, and imaging display method
JP2013210643A (en) * 2013-04-26 2013-10-10 Sony Corp Display device and display method
CN110227258A (en) * 2013-06-07 2019-09-13 索尼电脑娱乐公司 Change game process on head-mounted display
US10870049B2 (en) 2013-06-07 2020-12-22 Sony Interactive Entertainment Inc. Transitioning gameplay on a head-mounted display
CN110227258B (en) * 2013-06-07 2023-04-07 索尼电脑娱乐公司 Transitioning gameplay on head-mounted display
JP2018029968A (en) * 2013-06-07 2018-03-01 株式会社ソニー・インタラクティブエンタテインメント Transitioning gameplay on head-mounted display
JP2016532178A (en) * 2013-06-08 2016-10-13 株式会社ソニー・インタラクティブエンタテインメント System and method for transitioning between transmissive mode and non-transmissive mode in a head mounted display
JP2014010460A (en) * 2013-08-22 2014-01-20 Sony Computer Entertainment Inc Video observing device and method for controlling transmission factor
JP2015064476A (en) * 2013-09-25 2015-04-09 セイコーエプソン株式会社 Image display device, and method of controlling image display device
CN104469464B (en) * 2013-09-25 2020-03-06 精工爱普生株式会社 Image display device, method for controlling image display device, computer program, and image display system
CN104469464A (en) * 2013-09-25 2015-03-25 精工爱普生株式会社 Image display device, method of controlling image display device, computer program, and image display system
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
JP2016534379A (en) * 2013-09-26 2016-11-04 ヴァレオ ビジョンValeo Vision Data display glasses with anti-glare screen
JP2015087921A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
JP2015087523A (en) * 2013-10-30 2015-05-07 セイコーエプソン株式会社 Head-mounted display device, method for controlling head-mounted display device, and image display system
CN103784298A (en) * 2013-11-20 2014-05-14 中国科学院光电技术研究所 Head-mounted individualized eye aberration correcting and vision training device
JP2017502570A (en) * 2013-12-03 2017-01-19 ノキア テクノロジーズ オーユー Displaying information on the head mounted display
CN104714302A (en) * 2013-12-17 2015-06-17 精工爱普生株式会社 Head mounted display device
EP3092544A1 (en) * 2014-01-10 2016-11-16 Nokia Technologies Oy Display of a visual representation of a view
JP2017509194A (en) * 2014-01-10 2017-03-30 ノキア テクノロジーズ オサケユイチア View visual representation display
US10321124B2 (en) 2014-01-10 2019-06-11 Nokia Technologies Oy Display of a visual representation of a view
US10642040B2 (en) 2014-03-17 2020-05-05 Sony Corporation Display apparatus and optical apparatus
JP2015213226A (en) * 2014-05-02 2015-11-26 コニカミノルタ株式会社 Wearable display and display control program therefor
JP2016034091A (en) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 Display device, control method of the same and program
JP2016033763A (en) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 Display device, method for controlling display device, and program
KR101610912B1 (en) * 2014-08-11 2016-04-12 주식회사 에스.제이테크 Motion pattern analysis method using panorama videos
US10426668B2 (en) 2014-09-18 2019-10-01 Rohm Co., Ltd. Binocular display apparatus
JP2016059607A (en) * 2014-09-18 2016-04-25 ローム株式会社 Visual aid system and visual aid device
EP4254049A3 (en) * 2014-09-22 2023-12-20 K. Mizra LLC Head mounted display
WO2016048145A1 (en) * 2014-09-22 2016-03-31 Nederlandse Organisatie Voor Toegepast-Natuurwetenschappelijk Onderzoek Tno Head mounted display
US10302947B2 (en) 2014-09-22 2019-05-28 Nederlandse Organisatie Voor Toegepast-Natuurwetenschappelijk Onderzoek Tno Head mounted display
EP2998779A1 (en) * 2014-09-22 2016-03-23 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Head mounted display
JP2015046885A (en) * 2014-09-24 2015-03-12 ソニー株式会社 Display device and display method
JP2015028654A (en) * 2014-09-24 2015-02-12 ソニー株式会社 Head-mounted type display device and display method
EP3204816A4 (en) * 2014-10-07 2018-06-20 Elbit Systems Ltd. Head-mounted displaying of magnified images locked on an object of interest
JP2016080971A (en) * 2014-10-21 2016-05-16 ローム株式会社 Visual assistance system
JP5720068B1 (en) * 2014-10-27 2015-05-20 治幸 岩田 Smart glasses with self-photographing function
JP2016086321A (en) * 2014-10-27 2016-05-19 治幸 岩田 Smart glass with self-shooting function
WO2016068092A1 (en) * 2014-10-27 2016-05-06 岩田治幸 Smart glasses with self-imaging function
JP2016090773A (en) * 2014-11-04 2016-05-23 株式会社ソニー・コンピュータエンタテインメント Head-mounted display and brightness adjustment method
WO2016072131A1 (en) * 2014-11-04 2016-05-12 株式会社ソニー・インタラクティブエンタテインメント Headmount display and brightness adjustment method
US10162185B2 (en) 2014-11-04 2018-12-25 Sony Interactive Entertainment Inc. Head-mounted display and brightness control method
WO2016092950A1 (en) * 2014-12-11 2016-06-16 ソニー株式会社 Spectacle-type display device for medical use, information processing device, and information processing method
JP2016134668A (en) * 2015-01-16 2016-07-25 株式会社ブリリアントサービス Electronic spectacle and electronic spectacle control method
JP2016131782A (en) * 2015-01-21 2016-07-25 セイコーエプソン株式会社 Head wearable display device, detection device, control method for head wearable display device, and computer program
WO2016158080A1 (en) * 2015-03-30 2016-10-06 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
JP2015215619A (en) * 2015-06-10 2015-12-03 ソニー株式会社 Display device, display method, and program
JP2017037525A (en) * 2015-08-11 2017-02-16 京セラ株式会社 Wearable device and output system
JP2020171031A (en) * 2016-05-02 2020-10-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Shooting and sharing head-mounted display content
JP2022009355A (en) * 2016-05-02 2022-01-14 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Shooting and sharing head-mounted display content
JP2019521429A (en) * 2016-06-02 2019-07-25 タレス ディフェンス アンド セキュリティー, インコーポレイテッドThales Defense & Security, Inc. Compact vision inertial navigation system with extended dynamic range
US10795162B2 (en) 2016-06-27 2020-10-06 Fujifilm Corporation Image displayable eyeglasses
JPWO2018003205A1 (en) * 2016-06-27 2019-01-10 富士フイルム株式会社 Glasses with video display function
WO2018003205A1 (en) * 2016-06-27 2018-01-04 富士フイルム株式会社 Spectacles with image display function
JP2020048210A (en) * 2017-02-06 2020-03-26 日本電信電話株式会社 Determination device, image processing device, and determination program
JP2017130210A (en) * 2017-02-16 2017-07-27 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device
JP7091605B2 (en) 2017-02-27 2022-06-28 セイコーエプソン株式会社 Image display device
JP2018141826A (en) * 2017-02-27 2018-09-13 セイコーエプソン株式会社 Image display device
KR102506073B1 (en) 2017-08-03 2023-03-07 메타 플랫폼즈 테크놀로지스, 엘엘씨 Audio Output Assembly for Head Mounted Displays
JP2020532895A (en) * 2017-08-03 2020-11-12 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Audio output assembly for head-mounted displays
KR20200027569A (en) * 2017-08-03 2020-03-12 페이스북 테크놀로지스, 엘엘씨 Audio output assembly for head mounted display
JP7359532B2 (en) 2018-06-29 2023-10-11 大成建設株式会社 Helmet
JP2020002514A (en) * 2018-06-29 2020-01-09 大成建設株式会社 Helmet
JP2022072285A (en) * 2020-10-29 2022-05-17 ソフトバンク株式会社 Control apparatus, program, and control method
JP7039672B1 (en) 2020-10-29 2022-03-22 ソフトバンク株式会社 Controls, programs, and control methods

Similar Documents

Publication Publication Date Title
JP2005172851A (en) Image display apparatus
JP5309448B2 (en) Display device and display method
US9733701B2 (en) Display device and display method that determines intention or status of a user
JP4373286B2 (en) Head-mounted display device
JP5228307B2 (en) Display device and display method
US6549231B1 (en) Image recording apparatus
JP3387326B2 (en) Video observation system
JP6252849B2 (en) Imaging apparatus and method
EP1921844A2 (en) Imaging apparatus and method
JP2005252732A (en) Imaging device
JP2008067219A (en) Imaging apparatus and imaging method
JP2009251154A (en) Head mounted type video display
JP2009021914A (en) Imaging display system, imaging display device, and control method of imaging display device
JP2013210643A (en) Display device and display method
JPH07255669A (en) Eye condition detector and indicator
JP3676391B2 (en) Head-mounted image display device
JP2005321479A (en) Head mounted type display device
JP3310325B2 (en) Head mounted display device and system using the same
JP2009075610A (en) See-through type display device with hazard prevention function and hazard prevention method when see-through type display device is used
JP6160654B2 (en) Display device, display method, and program
JP2008113317A (en) Remote operation support system
KR20070113067A (en) Portable stereo vision camera
JP2007219069A (en) Image display
JP2005252734A (en) Head-mounted camera
JP2005303842A (en) Head-mounting camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060719

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090810

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100914