JP5598790B2 - Video display system - Google Patents
Video display system Download PDFInfo
- Publication number
- JP5598790B2 JP5598790B2 JP2009237758A JP2009237758A JP5598790B2 JP 5598790 B2 JP5598790 B2 JP 5598790B2 JP 2009237758 A JP2009237758 A JP 2009237758A JP 2009237758 A JP2009237758 A JP 2009237758A JP 5598790 B2 JP5598790 B2 JP 5598790B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- video display
- user
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 claims description 67
- 238000013500 data storage Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 230000001360 synchronised effect Effects 0.000 claims description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims description 5
- 238000000034 method Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 3
- 206010025482 malaise Diseases 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Landscapes
- Projection Apparatus (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、利用者が見る映像表示部の看視領域に部分映像を表示する映像表示システムに関するものである。 The present invention relates to a video display system that displays a partial video in a viewing area of a video display unit viewed by a user.
特開平9-284676号公報(特許文献1)、特許第3796776号公報(特許文献2)、特開平9-93700号公報(特許文献3)、特許第2550832号公報(特許文献4)等には、利用者の頭部に実装したヘッドフォンに搭載したセンサによってユーザが向いている方向を検出し、利用者が実装したヘッドマウントディスプレイに表示する画像を検出した方向に応じて切り替える技術が開示されている。ヘッドマウントディスプレイでは、高い没入感が得られる半面、画面酔いという症状が指摘されている。 Japanese Patent Application Laid-Open No. 9-284676 (Patent Document 1), Japanese Patent No. 3796776 (Patent Document 2), Japanese Patent Application Laid-Open No. 9-93700 (Patent Document 3), Japanese Patent No. 2550832 (Patent Document 4), etc. A technique is disclosed in which a direction in which a user is facing is detected by a sensor mounted on a headphone mounted on a user's head, and an image displayed on a head-mounted display mounted by the user is switched according to the detected direction. Yes. On the head-mounted display, a high immersive feeling is obtained, but the symptoms of screen sickness have been pointed out.
そこで画面酔いを防止するために、壁やスクリーンに映像を投影し、利用者が見ている映像の音像を定位させる技術が開発された。例えば、特開2003-284196号公報(特許文献5)には、映像を移動させて再生した場合にも移動する映像の方向に音像を定位させることができる音像定位信号処理装置に関する技術が開示されている。この公報には、360°の画像から矩形画像を切り出す機能を持ち、かつキー操作によって自由な視点に変化させることを可能とし、さらにその画像の変化した角度の情報によって映像と音像を定位させることを可能とする技術が具体的に開示されている。 Therefore, in order to prevent screen sickness, a technology has been developed to project the image on the wall or screen and to localize the sound image of the image viewed by the user. For example, Japanese Patent Laid-Open No. 2003-284196 (Patent Document 5) discloses a technique related to a sound image localization signal processing apparatus that can localize a sound image in the direction of a moving image even when the image is moved and reproduced. ing. This gazette has a function to cut out a rectangular image from a 360 ° image, and can be changed to a free viewpoint by key operation, and further, the image and sound image can be localized by information on the changed angle of the image. The technology that enables the above is specifically disclosed.
特許文献5に示された技術では、画面酔いは防止できるものの、キー操作によって映像を視点に変化させる必要があるため、利用者が直感的に向いた方向に映像を表示することができない問題がある。 Although the technique disclosed in Patent Document 5 can prevent screen sickness, it is necessary to change the video to the viewpoint by key operation, and thus the problem is that the video cannot be displayed in the direction that the user is intuitively facing. is there.
本発明の目的は、ヘッドマウントディスプレイを用いることなく、またキー操作を必要とすることなく、利用者が直感的に見た方向に映像を表示することができる映像表示システムを提供することにある。 An object of the present invention is to provide an image display system that can display an image in a direction intuitively viewed by a user without using a head-mounted display and without requiring a key operation. .
上記目的に加えて、本発明の他の目的は、簡単な構成で、しかも少ない消費電力により利用者が直感的に見た方向に映像を表示することができる映像表示システムを提供することにある。 In addition to the above object, another object of the present invention is to provide an image display system that can display an image in a direction intuitively viewed by a user with a simple configuration and low power consumption. .
上記目的に加えて、本発明の他の目的は、利用者がヘッドフォンを装着するだけで、利用者が直感的に見た方向に映像を表示することができる映像表示システムを提供することにある。 In addition to the above object, another object of the present invention is to provide a video display system capable of displaying video in a direction intuitively viewed by the user simply by wearing the headphones. .
上記目的に加えて、本発明の他の目的は、映像を表示する投射スクリーンの形状の如何にかかわらず違和感のない映像を表示することができる映像表示システムを提供することにある。 In addition to the above object, another object of the present invention is to provide a video display system capable of displaying a video with no sense of incongruity regardless of the shape of the projection screen that displays the video.
上記目的に加えて、利用者が直感的に見た方向に映像を表示し且つ音像を提供することができる映像表示システムを提供することにある。 In addition to the above object, an object of the present invention is to provide a video display system capable of displaying a video in a direction intuitively viewed by a user and providing a sound image.
上記目的に加えて、児童の行動を観察することが容易な映像表示システムを提供することにある。 In addition to the above object, an object of the present invention is to provide a video display system that makes it easy to observe the behavior of children.
本発明の映像表示システムは、基本的な構成要素として、映像表示部と、看視領域特定部と、映像データ蓄積部と、部分映像表示装置とを備えている。映像表示部は、利用者が体と頭を動かして見ることができる位置に配置されるものである。典型的な映像表示部としては、投射スクリーンを用いることができる。しかしながら映像表示部としては、液晶ディスプレイ等の電気的な表示機器を用いてもよい。看視領域特定部は、利用者が見ている映像表示部の看視領域を特定する。利用者が見ている映像表示部の看視領域の特定技術としては、公知の技術を利用すればよく、任意である。ここで本願明細書において「看視領域」とは、利用者が頭を動かすことなく見ることができる視覚範囲内にある所定の領域を意味する。看視領域の最大範囲は視覚範囲と一致することになるが、看視領域は視覚範囲より狭くてもよいのは勿論である。映像データ蓄積部は、映像表示部全体に映像を表示するために必要な映像データを蓄積している。映像データは、映像表示部全体に映像を表示するための全データであり、静止画データまたは動画データのいずれでもよい。部分映像表示装置は、看視領域特定部の出力に基づいて、看視領域特定部が特定する看視領域に表示されるべき部分映像についての部分映像データを映像データ蓄積部から取得する。そして部分映像表示装置は、映像表示部上の利用者が見ている看視領域に部分映像を表示する。 The video display system of the present invention includes a video display unit, a viewing area specifying unit, a video data storage unit, and a partial video display device as basic components. The video display unit is arranged at a position where the user can see his / her body and head. As a typical image display unit, a projection screen can be used. However, an electrical display device such as a liquid crystal display may be used as the video display unit. The watching area specifying unit specifies the watching area of the video display unit viewed by the user. As a technique for specifying the viewing area of the video display unit viewed by the user, a known technique may be used and is arbitrary. Here, the “viewing area” in the present specification means a predetermined area within the visual range that the user can see without moving his / her head. Although the maximum range of the viewing area coincides with the visual range, the viewing area may of course be narrower than the visual range. The video data storage unit stores video data necessary for displaying video on the entire video display unit. The video data is all data for displaying video on the entire video display unit, and may be either still image data or moving image data. The partial video display device acquires partial video data for the partial video to be displayed in the viewing area specified by the viewing area specifying unit from the video data storage unit based on the output of the viewing area specifying unit. The partial video display device displays the partial video in the viewing area that the user is viewing on the video display unit.
本発明によれば、映像表示部上の利用者が見ている看視領域に部分映像が表示され、その他の映像表示部上には映像が表示されない。そのため本発明によれば、ヘッドマウントディスプレイを用いることなく、またキー操作を必要とすることなく、利用者が直感的に見た方向に映像を表示することができる。言い換えると、本発明によれば、利用者が見ていない領域を含む映像表示部全体に映像を表示することがないため、従来全体映像を表示するために必要とされた複雑な映像表示装置を必要としない。そのため、映像表示のために必要とされる消費電力を従来よりも大幅に低減することができる。 According to the present invention, the partial video is displayed in the viewing area viewed by the user on the video display unit, and no video is displayed on the other video display units. Therefore, according to the present invention, it is possible to display an image in a direction that the user views intuitively without using a head mounted display and without requiring a key operation. In other words, according to the present invention, since the video is not displayed on the entire video display unit including the area that is not viewed by the user, the complicated video display device conventionally required to display the entire video is provided. do not need. Therefore, the power consumption required for video display can be greatly reduced as compared with the conventional case.
映像表示部として投射スクリーンを用いる場合には、看視領域特定部を、利用者の頭部に装着されて頭部の姿勢方位を検出するジャイロ機能を備えた頭部姿勢方位検出部と、頭部姿勢方位検出部が出力する姿勢方位から看視領域を決定する看視領域決定部とを備えているものを用いることができる。このようなジャイロ機能を備えた頭部姿勢方位検出部については、前述の特許文献1乃至4にも具体的な構成が開示されている。看視領域決定部は、頭部姿勢方位検出部が検出した姿勢方位に基づいて、看視領域を決定する。具体的には、頭部姿勢方位検出部が検出した姿勢方位に延びる仮想線が、看視領域の中心または中心近傍を通るように、看視領域を原則的に定めることができる。なお後述するように、投射スクリーンが境界部を有する場合には、例外的に看視領域の位置を検出した姿勢方位に関連して予め定めた基準に従って、看視領域を定めることも許容される。 When a projection screen is used as the video display unit, the viewing area specifying unit is mounted on the user's head and includes a head posture / azimuth detection unit having a gyro function that detects the posture / orientation of the head, It is possible to use one that includes a viewing area determination unit that determines a viewing area from the attitude direction output from the body orientation detection unit. Regarding the head posture / orientation detection unit having such a gyro function, the above-described Patent Documents 1 to 4 also disclose specific configurations. The viewing area determination unit determines the viewing area based on the posture direction detected by the head posture direction detection unit. Specifically, the viewing area can be determined in principle so that a virtual line extending in the attitude direction detected by the head attitude direction detection unit passes through the center of the viewing area or the vicinity of the center. As will be described later, when the projection screen has a boundary portion, it is also permitted to define the viewing area according to a predetermined criterion related to the posture orientation in which the position of the viewing area is exceptionally detected. .
なお投射スクリーンは、専用のスクリーンの他に、建物の壁や天井であってもよい。また投射スクリーンを用いる場合には、部分映像表示装置として、利用者の頭部に装着されて看視領域に部分映像を投射するプロジェクタを備えているものを用いることができる。なお本願明細書において「プロジェクタ」とは、CRTに表示された画像を、光学系を使って拡大し、投影するCRTプロジェクタや、液晶パネルを内蔵し、放電光を利用した光源ランプからの光を透過させ、これをレンズを使ってスクリーン上に拡大投射する液晶プロジェクタ等の公知のプロジェクタ装置の少なくとも投射部分を含むものである。 The projection screen may be a wall or ceiling of a building other than a dedicated screen. When a projection screen is used, a partial video display device equipped with a projector that is mounted on the user's head and projects the partial video onto the viewing area can be used. In this specification, the term “projector” refers to a CRT projector that enlarges and projects an image displayed on a CRT using an optical system, and a light from a light source lamp that uses a discharge light. The projector includes at least a projection portion of a known projector device such as a liquid crystal projector that transmits the light and enlarges and projects it on a screen using a lens.
投射スクリーンを用いる場合に、このような構成を採用すると、基本的な投射のための装置は、利用者に実装されることになるため、どこでも投射スクリーンがあれば、映像の表示をすることができる。 If such a configuration is adopted when a projection screen is used, a device for basic projection will be mounted on the user, so that if there is a projection screen anywhere, an image can be displayed. it can.
なお部分映像表示装置は、投射スクリーンの形状に応じて、投射スクリーンに投射された映像が、利用者から見て歪みが補正された映像になるように、看視領域に応じて部分映像データを補正するデータ補正部を更に備えているのが好ましい。このデータ補正部は、部分映像データを補正して映像の歪みを補正するので、公知のプロジェクタの投射技術において種々開発されている補正技術を応用することが可能である。部分映像の投射においても、この公知の補正技術を応用することにより、違和感のない部分映像を利用者に見せることができる。 Note that the partial video display device displays the partial video data according to the viewing area so that the video projected on the projection screen becomes a video with distortion corrected when viewed from the user according to the shape of the projection screen. It is preferable to further include a data correction unit for correction. Since the data correction unit corrects the image distortion by correcting the partial image data, it is possible to apply various correction techniques that have been developed in the projection technology of a known projector. Even in the projection of the partial video, by applying this known correction technique, it is possible to show the partial video without any sense of incongruity to the user.
なお投射スクリーンとして、2以上の投射面が境界部を形成するように組み合わされて構成された多面投射スクリーンを用いる場合には、データ補正部は、この境界部を基準にして使用する補正式を変更すればよい。例えば傾斜しない平面と傾斜面との間には、必ず境界部が形成される。また傾斜しない平面に投射する場合と、傾斜面に投射する場合とでは、映像の歪み方は異なる。そこで境界部を境にして補正式を変えれば、適切な補正を実行することができる。 In addition, when using the multi-surface projection screen comprised combining two or more projection surfaces so that a boundary part may be formed as a projection screen, a data correction part uses the correction formula used on the basis of this boundary part. Change it. For example, a boundary portion is always formed between a non-inclined plane and an inclined surface. Further, the method of image distortion differs between when projecting on a non-inclined plane and when projecting on an inclined surface. Therefore, if the correction formula is changed at the boundary, appropriate correction can be executed.
また利用者に違和感のない映像を見せるために、映像データを得る際に使用するレンズの種類に応じて必要となる標準レンズを通して得られる映像データへの変換を不要にできるように、映像データから切り取る部分映像データの切取領域を設定する切取領域設定部を設けてもよい。この場合にも、部分映像表示装置には、投射スクリーンの形状に応じて、投射スクリーンに投射された映像が、利用者から見て歪みが補正された映像になるように、部分映像データを補正するデータ補正部を設けるのが好ましい。なお切取領域設定部は、境界部を基準にして映像データから切り取る部分映像データの切取領域の形状及び大きさを変更するのが好ましい。なお切取領域の形状及び大きさを決定するための基礎データは、使用する投射スクリーンの形及び映像データを得る際に使用するレンズの種類に応じて、事前の試験により求めておけばよい。このような切取領域設定部を設けると、例えば魚眼レンズを通して取得した映像データを標準レンズを通して得られる映像データに変換する変換ステップを省略することができる。 In addition, in order to show the user an uncomfortable image, the conversion from the image data to the image data obtained through the standard lens required according to the type of lens used when obtaining the image data is eliminated. A cut area setting unit for setting a cut area of the partial video data to be cut may be provided. Also in this case, the partial video display device corrects the partial video data so that the video projected on the projection screen becomes a video with distortion corrected when viewed from the user, according to the shape of the projection screen. It is preferable to provide a data correction unit. It should be noted that the cut area setting unit preferably changes the shape and size of the cut area of the partial video data cut from the video data with reference to the boundary. The basic data for determining the shape and size of the cut-out area may be obtained by a preliminary test according to the shape of the projection screen to be used and the type of lens used for obtaining the image data. By providing such a cut-out area setting unit, for example, a conversion step for converting video data acquired through a fisheye lens into video data obtained through a standard lens can be omitted.
映像データは、魚眼レンズを備えたカメラを用いて撮影されたものを用いることができる。なお魚眼レンズを備えたカメラを用いて撮影された映像データに基づいて投射スクリーンに映像を投射する場合に、魚眼レンズから得られる画像から矩形画像を出力する際の補正方法や、リアルタイムで動作させるための変換の高速化に関する技術は、すでに種々提案されている。例えば、特開2007-13791号公報及び特開2009-75646号公報には、魚眼レンズ等の画像を切り出したときの画像の劣化を抑える技術が開示されている。またWO2004/102479号公報には、魚眼画像の周辺部の画素欠落を防ぐ技術が開示されている。さらに特開2008-311890号公報には、歪みの少ない広角画像を作る技術が開示されている。さらに特開2000-11166号公報及び特開2004-157999号公報には、魚眼補正変換の高速化を図る技術が開示され、特開2009-176273号公報には、ユーザがパラメータを予め指定することにより魚眼変換の演算負担を軽減する技術が開示されている。また魚眼レンズにより得た画像または360°の画像から、見たい画像を切り取る機能をもち、さらに画像を切り替えたり拡大縮小を行う技術については、特開平11-243508号公報、特開平6-36020号公報、特開2006-287942号公報、特開2000-83242号公報等に開示されている。したがってこれら公知技術を使用すれば、魚眼レンズにより得た画像のデータから部分映像データを得ることは簡単にできる。なおこれらの公知技術には、本発明のように、見たい方向を直観的に選択するための技術は開示も示唆もされていない。 Video data captured using a camera equipped with a fisheye lens can be used. When projecting video on a projection screen based on video data captured using a camera equipped with a fisheye lens, a correction method for outputting a rectangular image from an image obtained from a fisheye lens, or for operating in real time Various techniques for speeding up conversion have already been proposed. For example, Japanese Patent Application Laid-Open Nos. 2007-13791 and 2009-75646 disclose techniques for suppressing image deterioration when an image such as a fisheye lens is cut out. In addition, WO2004 / 102479 discloses a technique for preventing pixel loss at the periphery of a fisheye image. Furthermore, Japanese Patent Laid-Open No. 2008-311890 discloses a technique for creating a wide-angle image with little distortion. Furthermore, Japanese Patent Laid-Open No. 2000-11166 and Japanese Patent Laid-Open No. 2004-157999 disclose a technique for speeding up fisheye correction conversion, and Japanese Patent Laid-Open No. 2009-176273 discloses a user specifying parameters in advance. Thus, a technique for reducing the computational burden of fisheye conversion is disclosed. Japanese Patent Application Laid-Open No. 11-243508 and Japanese Patent Application Laid-Open No. 6-36020 have a function of cutting an image desired to be viewed from an image obtained by a fisheye lens or a 360 ° image, and further switching and enlarging / reducing the image. JP-A-2006-287942, JP-A-2000-83242 and the like. Therefore, if these known techniques are used, partial video data can be easily obtained from image data obtained by a fisheye lens. These known techniques do not disclose or suggest a technique for intuitively selecting a desired direction as in the present invention.
なお映像表示部全体に表示される映像と同期する音像を利用者に聞かせるための音響データを備えた音響データ蓄積部と、映像と同期する音像を利用者に提供する音像生成部とを更に備えていてもよい。なお映像に対する音像の定位技術については、特許文献5等に記載されている。映像と同期する音像を利用者に提供すれば、ライブ等の音楽映像を臨場感を持って利用者に提供することができる。この場合においては、音像生成部のスピーカ部を利用者の頭部に装着されるヘッドフォンとし、ヘッドフォンにプロジェクタを装着するようにしてもよい。このようにすると基本的に投射スクリーンとヘッドフォンとがあれば、簡単に利用者が直感的に見た方向に映像を表示することができる。 An audio data storage unit having audio data for letting the user hear a sound image synchronized with the image displayed on the entire image display unit, and a sound image generating unit for providing the user with a sound image synchronized with the image You may have. Note that a sound image localization technique for a video is described in Patent Document 5 and the like. If a sound image synchronized with the video is provided to the user, music video such as live music can be provided to the user with a sense of reality. In this case, the speaker unit of the sound image generation unit may be a headphone worn on the user's head, and the projector may be worn on the headphone. In this way, basically, if there is a projection screen and headphones, it is possible to easily display an image in a direction intuitively viewed by the user.
なおカメラにより撮影した映像のコンテンツは何でもよい。魚眼レンズを備えたカメラとして児童に装着されている監視カメラを用いると、児童を監視する監視者が直感的に見た方向だけに映像を表示することができるので、直感を最大限利用した監視が可能になる。 The content of the video shot by the camera may be anything. If a surveillance camera attached to a child is used as a camera equipped with a fisheye lens, the image can be displayed only in the direction that the supervisor who monitors the child intuitively sees, so that the surveillance using the intuition is maximized. It becomes possible.
以下図面を参照して本発明の実施の形態について説明する。以下に説明する実施の形態は、例えば、自宅で、ビデオやDVDなどのライブ映像等を、ヘッドマウントディスプレイを用いることなく、またキー操作を必要とすることなく、自宅などライブハウス以外の場所にいても、ライブの臨場感を楽しむことのできる映像表示システムを提供するものである。従来、魚眼レンズ等の広範囲の画像を変換し、その一部を表示して見渡すことのできるCubicVRという技術がある。CubicVRとは一周360°だけではなく真上や真下も見ることができる球面パノラマのことである。素材として一周をカバーする写真を撮り、繋ぎ合わせることで周囲を見渡すことが可能となる。だが、CubicVRは実際に人が動いているわけではなく、マウス操作でディスプレイ上の映像が回転して動いているので、長時間動画像を見ると画面酔いのようになることがある。本実施の形態の映像表示システムでは、利用者の自然な動きに連動して投射スクリーンに表示される映像(画面)が変化する。 Embodiments of the present invention will be described below with reference to the drawings. In the embodiment described below, for example, at home, live images such as videos and DVDs can be placed in a place other than a live house such as a home without using a head-mounted display or requiring key operations. Even so, it is intended to provide a video display system that allows you to enjoy a live presence. Conventionally, there is a technology called CubicVR that can convert a wide range of images such as a fisheye lens and display a part of the image. Cubic VR is a spherical panorama that can be seen not only at 360 ° per circle but also directly above and below. It is possible to look around the surroundings by taking a picture that covers the entire circumference as a material and connecting them together. However, CubicVR does not mean that people are actually moving, and the images on the display are rotated and moved by mouse operation, so if you watch a moving image for a long time, you may become screen sick. In the video display system of the present embodiment, the video (screen) displayed on the projection screen changes in conjunction with the natural movement of the user.
図1は、本発明の映像表示システムの第1の実施の形態の構成を示すブロック図である。図2は、映像表示装置の使用状態を説明するために用いる図である。図1の映像表示システム1は、基本的な構成要素として、投射スクリーン(映像表示部)3と、看視領域特定部5と、境界部設定部7と、映像データ蓄積部9と、部分映像表示装置11と、音像生成装置13とを備えている。図2に示すように、本実施の形態では、映像表示部としての投射スクリーン3は、利用者Pの前方に位置する前方投射面31と、前方投射面31との間に所定の角度を形成するように前方投射面31の左側端部と連続し、利用者P側に延びる左側投射面32と、前方投射面31との間に所定の角度を形成するように前方投射面31の右側端部と連続し、利用者P側に延びる右側投射面33とを備えている。なお投射スクリーンの形状は、図2の形状に限定されるものではなく、種々の形状のものを用いることができる。 FIG. 1 is a block diagram showing the configuration of the first embodiment of the video display system of the present invention. FIG. 2 is a diagram used for explaining a use state of the video display device. The video display system 1 in FIG. 1 includes, as basic components, a projection screen (video display unit) 3, a viewing area specifying unit 5, a boundary setting unit 7, a video data storage unit 9, and a partial video. A display device 11 and a sound image generation device 13 are provided. As shown in FIG. 2, in the present embodiment, the projection screen 3 as the video display unit forms a predetermined angle between the front projection surface 31 located in front of the user P and the front projection surface 31. The right end of the front projection surface 31 is formed so as to form a predetermined angle between the front projection surface 31 and the left projection surface 32 that is continuous with the left end portion of the front projection surface 31 and extends toward the user P side. And a right projection surface 33 extending to the user P side. The shape of the projection screen is not limited to the shape shown in FIG. 2, and various shapes can be used.
看視領域特定部5は、利用者が見ている投射スクリーン3の看視領域WRを特定するために、頭部姿勢方位検出部5Aと看視領域決定部5Bとを備えている。本実施の形態で用いる頭部姿勢方位検出部5Aは、利用者Aの頭部に装着されて頭部の姿勢方位を検出するジャイロ機能を備えている。前述の特許文献1乃至4にも、ジャイロ機能を備えた頭部姿勢放棄検出部の具体的な構成が開示されている。そして看視領域決定部5Bは、頭部姿勢方位検出部5Aが出力する姿勢方位から看視領域WRを決定する。看視領域WRとは、利用者が頭を動かすことなく見ることができる視覚範囲を最大範囲とする所定の領域である。看視領域WRは、後述する部分映像を投射する領域と重なる領域である。利用者Pは、看視領域WRの周囲も看視領域WRと一緒に見ていることになる。頭部姿勢方位検出部5Aは、利用者の頭部に装着されて、図3(A)及び(B)に示すように、利用者の頭部の水平回転角θ(−π/2≦θ≦π/2)と仰俯角φ(−π/4≦φ≦π/4)の情報を取得する。頭部姿勢方位検出部5Aに利用できる具体的なセンサとしては、MicroStrain社の3DM(商標)を用いることができる。この3DMは、磁力計と加速度計が直交に配置された構造のセンサで、姿勢方位即ち方位角の情報即ちYaw(水平回転角θ)、Pitch(仰俯角φ)及びRoll(レンズ回転)を広い測定範囲で計測することができる。看視領域決定部5Bは、頭部姿勢方位検出部5Aが検出した姿勢方位に延びる仮想線が、看視領域WRの中心または中心近傍を通るように、看視領域WRを原則的に定める。なお本実施の形態では、後述するように、投射スクリーンが境界部を有する場合には、例外的に看視領域の位置を検出した姿勢方位に関連して予め定めた基準に従って、定めることも許容する。後述する部分映像を表示する領域(投射領域)及び該領域に表示する部分映像を定める(映像データから切り取る部分映像データの領域)を定めるために、看視領域WRを決定する。 The watching area specifying unit 5 includes a head posture / azimuth detecting unit 5A and a watching area determining unit 5B in order to specify the watching area WR of the projection screen 3 that the user is looking at. The head orientation detection unit 5A used in the present embodiment has a gyro function that is attached to the user A's head and detects the orientation of the head. Patent Documents 1 to 4 described above also disclose a specific configuration of the head posture abandonment detection unit having a gyro function. Then, the viewing area determination unit 5B determines the viewing area WR from the posture direction output by the head posture direction detection unit 5A. The viewing area WR is a predetermined area whose maximum range is a visual range that the user can see without moving his / her head. The watching area WR is an area that overlaps an area for projecting a partial video described later. The user P sees the periphery of the viewing area WR together with the viewing area WR. The head posture / azimuth detection unit 5A is attached to the user's head and, as shown in FIGS. 3A and 3B, the horizontal rotation angle θ (−π / 2 ≦ θ of the user's head). ≦ π / 2) and elevation angle φ (−π / 4 ≦ φ ≦ π / 4) are acquired. As a specific sensor that can be used for the head posture / azimuth detection unit 5A, 3DM (trademark) manufactured by MicroStrain can be used. This 3DM is a sensor having a structure in which a magnetometer and an accelerometer are arranged orthogonally, and has a wide range of posture direction, that is, azimuth information, that is, Yaw (horizontal rotation angle θ), Pitch (elevation angle φ), and Roll (lens rotation). It can be measured in the measurement range. The viewing area determination unit 5B basically determines the viewing area WR so that a virtual line extending in the posture direction detected by the head posture direction detection unit 5A passes through the center or the vicinity of the center of the viewing area WR. In this embodiment, as will be described later, when the projection screen has a boundary portion, it can be determined according to a predetermined standard related to the posture orientation in which the position of the viewing area is exceptionally detected. To do. In order to determine a region (projection region) for displaying a partial video, which will be described later, and a partial video to be displayed in the region (region of partial video data cut out from the video data), the viewing region WR is determined.
境界部設定部7は、投射スクリーン3の前方投射面31と左側投射面32との間の境界部BL1及びBL2の位置を決定する。具体的には、最初に利用者Pが境界部BL1を見て、その時点で図示しない境界部登録用の入力スイッチを押す。この入力スイッチが押されたときの、姿勢方位の情報が頭部姿勢方位検出部5Aから取得されて、境界部BL1の位置が設定される。同様にして、利用者Pが境界部BL2を見て、その時点で図示しない境界部登録用の入力スイッチを押す。この入力スイッチが押されたときの、姿勢方位の情報が頭部姿勢方位検出部5Aから取得されて、境界部BL2の位置が設定される。これら境界部BL1及びBL2の位置情報は、看視領域決定部5Bが決定した看視領域WRの情報と一緒に部分映像表示装置11に与えられる。そして境界部BL1及びBL2の位置情報は、後述するデータ補正部11Bによる補正演算で使用される。 The boundary setting unit 7 determines the positions of the boundary portions BL1 and BL2 between the front projection surface 31 and the left projection surface 32 of the projection screen 3. Specifically, first, the user P looks at the boundary portion BL1 and presses an input switch for boundary portion registration (not shown) at that time. Information on posture orientation when this input switch is pressed is acquired from the head posture orientation detection unit 5A, and the position of the boundary portion BL1 is set. Similarly, the user P looks at the boundary portion BL2 and presses an input switch for boundary portion registration (not shown) at that time. Information on posture orientation when this input switch is pressed is acquired from the head posture orientation detection unit 5A, and the position of the boundary portion BL2 is set. The position information of the boundary portions BL1 and BL2 is given to the partial video display device 11 together with the information on the viewing area WR determined by the viewing area determination section 5B. The position information of the boundary portions BL1 and BL2 is used in correction calculation by the data correction unit 11B described later.
映像データ蓄積部9は、投射スクリーン(映像表示部)3全体に映像を表示するために必要な映像データを蓄積している。映像データは、映像表示部(投射スクリーン)3全体に映像を表示するための全データであり、静止画データまたは動画データのいずれでもよい。もし従来のように複数台の映像表示装置を使用すれば、投射スクリーン3全体に映像を投射することはできるが、本発明では、投射スクリーン全体に映像を投射することは行わず、利用者が看視する看視領域WRだけに、その看視領域に投射されるべき部分映像を表示する。なお映像データから、部分映像のための部分映像データを取得する技術に関しては後に説明する。なお映像データ蓄積部9内の映像データは、後述する音像生成装置13内の音像データ蓄積部13Aに蓄積された対応する音響データと同期して利用される。 The video data storage unit 9 stores video data necessary for displaying video on the entire projection screen (video display unit) 3. The video data is all data for displaying video on the entire video display unit (projection screen) 3 and may be either still image data or moving image data. If a plurality of video display devices are used as in the prior art, the video can be projected on the entire projection screen 3, but in the present invention, the video is not projected on the entire projection screen. A partial image to be projected on the viewing area is displayed only in the viewing area WR to be viewed. A technique for acquiring partial video data for a partial video from video data will be described later. Note that the video data in the video data storage unit 9 is used in synchronization with the corresponding acoustic data stored in the sound image data storage unit 13A in the sound image generation device 13 described later.
部分映像表示装置11は、部分映像表示部11Aとデータ補正部11Bとから構成され、看視領域特定部5の看視領域決定部5Bの出力に基づいて、看視領域決定部5Bが特定する看視領域WRに表示されるべき部分映像についての部分映像データを映像データ蓄積部9から取得する(切り取る)。後に詳しく説明するように部分映像データは、投射領域WRが境界部BLに対してどのような位置にあるかに基づいて、データ補正部11Bにより補正される。そして部分映像表示部11Aは、補正された部分映像データに基づいて、投射スクリーン3上の利用者が見ている看視領域WRに部分映像を表示する。 The partial video display device 11 includes a partial video display unit 11A and a data correction unit 11B, and the viewing area determination unit 5B identifies the viewing area determination unit 5B based on the output of the viewing area determination unit 5B. Partial video data for a partial video to be displayed in the viewing area WR is acquired (cut out) from the video data storage unit 9. As will be described in detail later, the partial video data is corrected by the data correction unit 11B based on the position of the projection region WR relative to the boundary portion BL. Then, the partial video display unit 11A displays the partial video in the viewing area WR viewed by the user on the projection screen 3 based on the corrected partial video data.
本実施の形態では、部分映像表示装置11として、利用者の頭部に装着されて看視領域に部分映像を投射するプロジェクタを用いる。なお本実施の形態では、プロジェクタ内に部分映像表示部11Aとデータ補正部11Bとが内蔵されている。プロジェクタとしては、CRTに表示された画像を、光学系を使って拡大し、投影するCRTプロジェクタや、液晶パネルを内蔵し、放電光を利用した光源ランプからの光を透過させ、これをレンズを使ってスクリーン上に拡大投射する液晶プロジェクタ等の公知の構造のプロジェクタ装置を小型化して補正機能を付加したものを用いることができる。本実施の形態では、図2に示すように、プロジェクタからなる部分映像表示装置11は、利用者Pの頭部に装着されるヘッドフォンHPの中央部に実装される。すなわち部分映像表示装置11は、利用者Pの頭部の頂部付近に実装される。ヘッドフォンに部分映像表示装置11を構成するプロジェクタを装着すると、基本的に投射スクリーンとヘッドフォンとがあれば、簡単に利用者が直感的に見た方向に部分映像を表示することができる。なおデータ補正部11Bは、映像データ蓄積部9が配置される映像表示装置本体側に設けられてもよい。 In the present embodiment, a projector that is attached to the user's head and projects a partial video onto the viewing area is used as the partial video display device 11. In the present embodiment, a partial video display unit 11A and a data correction unit 11B are built in the projector. As a projector, a CRT projector that enlarges and projects an image displayed on a CRT using an optical system and a liquid crystal panel are built in, and light from a light source lamp using discharge light is transmitted through the lens. It is possible to use a projector device having a known structure such as a liquid crystal projector that is enlarged and projected onto a screen, to which a correction function is added. In the present embodiment, as shown in FIG. 2, the partial video display device 11 composed of a projector is mounted at the center of a headphone HP that is worn on the head of the user P. That is, the partial video display device 11 is mounted near the top of the user P's head. When the projector constituting the partial video display device 11 is mounted on the headphones, the partial video can be easily displayed in the direction intuitively viewed by the user if there is basically a projection screen and headphones. The data correction unit 11B may be provided on the video display device main body side where the video data storage unit 9 is disposed.
音像生成装置13は、投射スクリーン3(映像表示部)全体に表示される映像と同期する音像を利用者に聞かせるための音響データを備えた音響データ蓄積部13Aと、映像と同期する音像を利用者に提供する音像生成部13Bと、スピーカ13Cとを更に備えていている。映像に対する音像の定位技術については、特許文献5等に記載されているので省略する。映像と同期する音像を利用者に提供すれば、ライブ等の音楽映像を臨場感を持って利用者に提供することができる。本実施の形態では、音像生成装置13のスピーカ13Cは利用者の頭部に装着されるヘッドフォンHPに実装されている。 The sound image generation device 13 includes an acoustic data storage unit 13A having acoustic data for letting the user hear a sound image synchronized with the image displayed on the entire projection screen 3 (image display unit), and a sound image synchronized with the image. A sound image generating unit 13B provided to the user and a speaker 13C are further provided. Since the sound image localization technology for video is described in Patent Document 5 and the like, it will be omitted. If a sound image synchronized with the video is provided to the user, music video such as live music can be provided to the user with a sense of reality. In the present embodiment, the speaker 13C of the sound image generation device 13 is mounted on a headphone HP that is worn on the user's head.
図2(A)乃至(C)に示すように、本実施の形態によれば、投射スクリーン3上の利用者Pが見ている看視領域WRに部分映像が表示され、その他の映像表示部上には映像が表示されない。そのため、ヘッドマウントディスプレイを用いることなく、またキー操作を必要とすることなく、利用者が直感的に見た方向に映像を表示することができる。言い換えると、本実施の形態によれば、利用者Pが見ていない領域を含む投射スクリーン3全体に映像を表示することがないため、従来全体映像を表示するために必要とされた複雑な映像表示装置を必要としない。そのため、映像表示のために必要とされる消費電力を従来よりも大幅に低減することができる。 As shown in FIGS. 2A to 2C, according to the present embodiment, the partial video is displayed on the viewing area WR viewed by the user P on the projection screen 3, and the other video display units are displayed. No video is displayed on the top. Therefore, it is possible to display an image in a direction intuitively viewed by the user without using a head-mounted display and without requiring a key operation. In other words, according to the present embodiment, since the video is not displayed on the entire projection screen 3 including the area that is not viewed by the user P, the complicated video that has been conventionally required to display the entire video. No display device is required. Therefore, the power consumption required for video display can be greatly reduced as compared with the conventional case.
前述のデータ補正部11Bは、投射スクリーン3の形状に応じて、投射スクリーン3に投射された映像が、利用者Pから見て歪みが補正された映像になるように、看視領域WRに応じて映像データ蓄積部9から切り出した部分映像データを補正する。例えば、図4に示すように、投射スクリーン3の前方投射面31に舞台(ステージ)の端を投射する場合には、プロジェクタを左右方向に回転させて舞台の端の部分映像を投射スクリーン3の前方投射面31に投影する。このような状況では、ちょうど四角に映るベストポジションBPの映像も傾くことになる。すなわち図4に示すように、前方投射面31の位置がベストポジションBPよりも手前にある映像部分は、通常のサイズよりも短くなり、前方投射面31の位置がベストポジションBPよりも奥にある映像部分は、通常のサイズよりも長くなる。このようにして投影された映像は台形になっているように見えるため、台形歪みと呼ばれる。この台形になってしまった映像を四角く見せるための補正を、台形歪み補正(keystone補正)という。データ補正部11Bは、プロジェクタ(11)を投射面に対して傾けて(水平方向、上下方向に傾けて)投影した場合も部分映像が台形に変形しないように、傾きに応じて部分映像データの補正の処理を行う。補正の処理の一例としては、Apple Inc.が開発したマルチメディア・プログラムの「Quicktime(商標)」の画像回転機能などを用いて、投影される形と逆の形に部分映像を変形させる補正を行うことが考えられる。 The data correction unit 11B described above responds to the viewing area WR so that the image projected on the projection screen 3 becomes an image with distortion corrected when viewed from the user P according to the shape of the projection screen 3. Then, the partial video data cut out from the video data storage unit 9 is corrected. For example, as shown in FIG. 4, when projecting the end of the stage on the front projection surface 31 of the projection screen 3, the projector is rotated in the left-right direction to display a partial image of the stage end of the projection screen 3. Projecting onto the front projection surface 31. In such a situation, the image of the best position BP reflected in the square is also tilted. That is, as shown in FIG. 4, the video portion in which the position of the front projection surface 31 is in front of the best position BP is shorter than the normal size, and the position of the front projection surface 31 is in the back of the best position BP. The video part becomes longer than the normal size. An image projected in this way appears to be trapezoidal, so it is called trapezoidal distortion. This correction for making the trapezoidal image appear square is called trapezoidal distortion correction (keystone correction). The data correction unit 11B is configured to display the partial video data according to the tilt so that the partial video is not deformed into a trapezoid even when the projector (11) is tilted with respect to the projection plane (tilted in the horizontal direction or the vertical direction). Perform correction processing. As an example of the correction process, Apple Inc. It is conceivable to perform correction for deforming a partial video image in a shape opposite to the projected shape by using an image rotation function of “Quicktime (trademark)” of a multimedia program developed by the company.
また特に本実施の形態の投射スクリーン3のように左側投射面32及び右側投射面33のように、前方投射面31に対して角度を持って配置される投射スクリーンを利用する場合には、境界部BLを境にして、スクリーンの角度が変わる。そのためデータ補正部11Bこの場合にも補正を行う。このようなスクリーンの状況は、部屋の一つの壁だけでなく、その一つの壁の左右の壁もスクリーンとして利用する場合に生まれる。このようなスクリーンを利用するのは、1つの平面スクリーンに、180°にわたる画像をすべて表示されるのは視覚的に不自然だからである。そのため屋内で使用することを前提として、正面だけではなく、左右の壁を利用して映像を投影することができる投射スクリーンを利用することを発明者は考えた。しかし左右の壁(左側投射面32と右側投射面33)に部分映像を表示する場合、境界部BLにプロジェクタを向けると画像が変形してしまう。そのため、利用者の姿勢方位が投射スクリーンの角(境界部)に向けられたときは、正面か左右の壁(左右の投射面)のどちらかに画像を切り替えるのが好ましい。 In particular, when using a projection screen arranged at an angle with respect to the front projection surface 31 such as the left projection surface 32 and the right projection surface 33 as in the projection screen 3 of the present embodiment, the boundary The angle of the screen changes at the part BL. Therefore, the data correction unit 11B also performs correction in this case. Such a screen situation arises when not only one wall of a room but also the left and right walls of the one wall are used as a screen. The reason why such a screen is used is that it is visually unnatural to display all images over 180 ° on one flat screen. Therefore, the inventor considered using a projection screen capable of projecting an image using not only the front but also the left and right walls on the premise of using indoors. However, when displaying a partial image on the left and right walls (the left projection surface 32 and the right projection surface 33), the image is deformed when the projector is directed toward the boundary portion BL. For this reason, when the posture orientation of the user is directed to the corner (boundary portion) of the projection screen, it is preferable to switch the image to either the front or the left and right walls (left and right projection surfaces).
この画像の切り替えを実行するためには、部分映像表示装置11の部分映像表示部11Aとして、指令に応じて投射角度を変更することができる投射角度変更機能を備えているものを用いる。そしてデータ補正部11Bは、本来の看視領域WR内に境界部が含まれているときには、投射スクリーン3中の境界部BLに隣接する領域に部分映像を投射するように投射角度を変更する指令を出力するように構成する。このようにすると境界部BLを含む領域に映像が映ることがないので、違和感の無い映像表示を提供することができる。隣接する二つのスクリーン部分(前方投射面31と左側または右側投射面32または33)のどちらに部分映像を表示するかは、例えば境界部によって分けられる部分映像の面積に基づいて、面積が大きくなる方の投射面を選択するようにする。面積が同じ場合には、予め決めたルールに従って一方の投射面を選択するようにする。 In order to execute this image switching, a partial video display unit 11A of the partial video display device 11 that has a projection angle change function capable of changing the projection angle in accordance with a command is used. Then, when the boundary portion is included in the original viewing area WR, the data correction unit 11B instructs to change the projection angle so as to project the partial video onto the area adjacent to the boundary part BL in the projection screen 3. Is configured to output. In this way, since no video is shown in the area including the boundary portion BL, it is possible to provide a video display without a sense of incongruity. Which of the two adjacent screen portions (the front projection surface 31 and the left or right projection surface 32 or 33) displays the partial image is based on, for example, the area of the partial image divided by the boundary portion. Select the projection plane. If the areas are the same, one projection plane is selected according to a predetermined rule.
例えば、図5に示すように、事前に境界部BLまでの距離を測ることによりキャリブレーションを行い、境界部BLを基準にしたある角度で映像が切り替えられるようにする。境界部BLまでの距離と正面の壁(前方投射面31)までの距離を計測し、角度θ1,θ2を求める。そして角度θ1,θ2からθ0を算出する。利用者の水平回転角が角度範囲θ0内にあるときには、前方投射面31に投射し(正面モード)、水平回転角が角度範囲θ0を越えると、越えた方向に応じて左側投射面32または右側投射面33のいずれかに投射するようにする(左モードまたは右モード)ように投射モードの変更を行う。データ補正部11Bは、境界部BLを基準にして、正面モード、左モード及び右モードで使用する補正式を変更する。利用者Pに対して傾斜しない前方投射面31に投射する場合と、左側投射面32及び右側投射面33のように、利用者Pに対して傾斜する面に投射する場合とでは、映像の歪み方は異なる。そこで前述のように境界部BLを境にして映像の投射面の切り替えを行い且つ補正式を変えれば、適切な補正を実行することができる。 For example, as shown in FIG. 5, calibration is performed by measuring the distance to the boundary portion BL in advance so that the video can be switched at a certain angle based on the boundary portion BL. The distance to the boundary BL and the distance to the front wall (front projection surface 31) are measured, and angles θ1 and θ2 are obtained. Then, θ 0 is calculated from the angles θ1, θ2. When the horizontal rotation angle of the user is within the angle range θ 0 , the projection is performed on the front projection surface 31 (front mode), and when the horizontal rotation angle exceeds the angle range θ 0 , the left projection surface 32 according to the exceeded direction. Alternatively, the projection mode is changed so that the projection is performed on one of the right projection surfaces 33 (left mode or right mode). The data correction unit 11B changes the correction formula used in the front mode, the left mode, and the right mode with reference to the boundary part BL. In the case of projecting on the front projection surface 31 that is not inclined with respect to the user P and in the case of projecting on the surface that is inclined with respect to the user P, such as the left projection surface 32 and the right projection surface 33, image distortion is caused. Is different. Therefore, as described above, if the projection plane of the image is switched at the boundary portion BL and the correction formula is changed, appropriate correction can be executed.
映像データは、魚眼レンズを備えたカメラを用いて撮影された映像データを用いることができる。図6は、魚眼レンズを使用して得た映像データI0を用いる場合の補正を含めた投射までの処理の流れを示す図である。図7は、魚眼レンズを通して得た映像データI0 を任意焦点の標準レンズを通して得た映像データI1に変換するステップとその際の映像の例示を示している。図7に示すように、魚眼レンズを通して得た映像データに基づいて映像を投射すると、球面に表示されたような湾曲した映像が得られる(ステップST1)。これをステップST2において任意焦点の標準レンズを通して得た映像データI1に変換する。変換した映像データに基づいて投射すると、図7に示すように標準的な映像が得られる。ステップST3では、変換後の映像データI1の画像の三箇所の端部を加速度センサを含む前述の3DMセンサで取得する方位角(水平回転角)θ=−90°,90°、仰俯角φ=−90°,90°の位置となるように設定を行う。このように設定した変換された映像データI1を映像データ蓄積部9に蓄積する。 Video data taken using a camera equipped with a fisheye lens can be used as the video data. FIG. 6 is a diagram showing a flow of processing up to projection including correction when video data I 0 obtained using a fisheye lens is used. FIG. 7 shows an example of a step of converting video data I 0 obtained through a fisheye lens into video data I 1 obtained through a standard lens with an arbitrary focus and an image at that time. As shown in FIG. 7, when an image is projected based on image data obtained through a fisheye lens, a curved image as displayed on a spherical surface is obtained (step ST1). This is converted into video data I 1 obtained through a standard lens of arbitrary focus in step ST2. When projected based on the converted video data, a standard video is obtained as shown in FIG. In step ST3, the azimuth angles (horizontal rotation angles) θ = −90 °, 90 °, and the elevation angle φ obtained by acquiring the three end portions of the image of the converted video data I 1 with the 3DM sensor including the acceleration sensor. = Set so that the positions are −90 ° and 90 °. The converted video data I 1 set in this way is stored in the video data storage unit 9.
図8は、投射スクリーン3の境界部BLを設定する際の処理のアルゴリズムのフローチャートを示している。ステップST11では、図示しない基準方向設定スイッチ(SW)が押されたか否かの判定が行われる。そして基準方向設定スイッチが押されると、現在向いている方向を正面に設定する。すなわち利用者は、投射スクリーン3の前方投射面の中央部を見つめる姿勢を取り、基準方向設定スイッチSWを押す。この操作により、そのときに利用者が向いていた角度が、基準角度(θ=0°、φ=0°)とされる。基準角度の位置が、映像の中心となる。次にステップST13で左コーナースイッチが押されたか否かの判定が行われる。左コーナースイッチが押されたときに、利用者が向いている方向を左コーナー(図5の境界部BL1)と設定する(ステップST14)。次に、ステップST15で右コーナースイッチが押されたか否かの判定が行われる。右コーナースイッチが押されたときに、利用者が向いている方向を右コーナー(図5の境界部BL2)と設定する(ステップST16)。左コーナーと右コーナーの設定により、図5に示した角度θLと角度θRが決定され、その結果角度θ0が決定される。この決定により、頭部姿勢方位検出部5Aが決定する姿勢方位のうち方位角(水平回転角)が、基準となる角度からθLまたはθRを超えると、前方投射面31への映像の表示が左側投射面または右側投射面へと切り替える信号処理を行うことが可能になる。なお本実施の形態では、方位角(水平回転角)=θL又はθRのときに、切り替わり処理が行われる。したがってそれまでは、部分映像は、切り替わり前の投射面に表示されるように補正処理が行われる。 FIG. 8 shows a flowchart of a processing algorithm for setting the boundary BL of the projection screen 3. In step ST11, it is determined whether or not a reference direction setting switch (SW) (not shown) has been pressed. When the reference direction setting switch is pressed, the current direction is set to the front. That is, the user takes a posture of staring at the center of the front projection surface of the projection screen 3 and presses the reference direction setting switch SW. By this operation, the angle that the user is facing at that time is set as a reference angle (θ = 0 °, φ = 0 °). The position of the reference angle becomes the center of the image. Next, in step ST13, it is determined whether or not the left corner switch has been pressed. The direction in which the user is facing when the left corner switch is pressed is set as the left corner (boundary portion BL1 in FIG. 5) (step ST14). Next, in step ST15, it is determined whether or not the right corner switch has been pressed. When the right corner switch is pressed, the direction in which the user is facing is set as the right corner (boundary portion BL2 in FIG. 5) (step ST16). By setting the left corner and the right corner, the angle θ L and the angle θ R shown in FIG. 5 are determined, and as a result, the angle θ 0 is determined. By this determination, when the azimuth angle (horizontal rotation angle) of the posture azimuth determined by the head posture azimuth detecting unit 5A exceeds θ L or θ R from the reference angle, the image is displayed on the front projection surface 31. Can perform signal processing to switch to the left projection surface or the right projection surface. In the present embodiment, the switching process is performed when the azimuth angle (horizontal rotation angle) = θ L or θ R. Therefore, correction processing is performed so that the partial video is displayed on the projection surface before switching.
図6に戻って、投射スクリーン3に部分映像の投射をする場合には、頭部姿勢方位検出部5Aが決定した姿勢方位に基づいて、看視領域決定部5Bが、利用者が標準レンズの画像に変換した映像で判断して、どの部分を見ているのかを判断して、看視領域WRを決定する。決定された看視領域WRに部分映像を投射するために部分映像表示部11Aは、看視領域WRに応じて、映像データから部分映像データiを切り取る。そして切り取った部分映像データiを、データ補正部11Bが、部分映像表示装置(プロジェクタ)11の水平回転角度θ及び仰俯角φ(傾き)の大きさを考慮して、台形歪み補正を行って、補正された部分映像データi′を出力する。そしてこの補正された部分映像データi′に基づいて部分映像表示部11Aが投射を行うことにより、投射スクリーン3の看視領域WRには違和感のない部分映像が表示される。この処理技術によると、眼から任意焦点の画像への変換の研究は既に行われているため、信号処理は比較的簡単である。しかし変換を2回行うため画像の劣化が起きる問題があるが、実用上は特に問題はない。 Returning to FIG. 6, when projecting a partial image on the projection screen 3, based on the posture orientation determined by the head posture orientation detection unit 5 </ b> A, the viewing area determination unit 5 </ b> B allows the user to use a standard lens. Judging by the video converted into an image, it is determined which part is being viewed, and the viewing area WR is determined. In order to project the partial video onto the determined viewing area WR, the partial video display unit 11A cuts the partial video data i from the video data according to the viewing area WR. Then, the data correction unit 11B performs trapezoidal distortion correction on the cut partial video data i in consideration of the horizontal rotation angle θ and the elevation angle φ (tilt) of the partial video display device (projector) 11. The corrected partial video data i ′ is output. Then, the partial video display unit 11A performs projection based on the corrected partial video data i ′, so that a partial video with no sense of incongruity is displayed in the viewing area WR of the projection screen 3. According to this processing technique, signal processing is relatively simple because research on conversion from an eye to an image with an arbitrary focus has already been performed. However, since the conversion is performed twice, there is a problem that the image is deteriorated, but there is no problem in practical use.
図9は、データ補正部11Bにおいて部分映像データiから補正された部分映像データi′を得るための処理のアルゴリズムを示している。図10は、部分映像データiから補正された部分映像データi′を得る際に、部分映像データiを複数の区分画像のデータ(図10の例では24個の区分のデータ)として、処理することを示す概念図である。図10において、四角の区分内に記入した数字1,24は、区分の番号(n)を示している。図9のステップST21では、n=1が設定される。したがってステップST22では、1番の区分について、水平回転角度θに関して投影画像(部分映像データ)の補正計算が実行される。この補正計算については、後に説明する。次にステップST23では、仰俯角φに関して投影画像(部分映像データ)の補正計算が実行される。そしてステップST24では、水平回転角度θと仰俯角φの両方を考慮した拡大・縮小補正処理が実行される。ステップST25ではnが24に達したか否かの判定が行われ、n=24でなければステップST26でn+1がなされる。ステップST22〜ステップST24は、1番の区分から24番の区分について補正計算が完了するまで繰り返される。すべての区分について補正が完了したらデータ補正部11Bによる部分映像データの補正は完了する。補正された部分映像データi′は、部分映像表示部11Aに送られ、部分映像表示部11Aは補正された部分映像データi′に基づいて映像を投射スクリーン3に投射する。 FIG. 9 shows a processing algorithm for obtaining the partial video data i ′ corrected from the partial video data i in the data correction unit 11B. In FIG. 10, when the corrected partial video data i ′ is obtained from the partial video data i, the partial video data i is processed as data of a plurality of segment images (24 segment data in the example of FIG. 10). It is a conceptual diagram which shows that. In FIG. 10, numerals 1 and 24 entered in the square sections indicate the section numbers (n). In step ST21 of FIG. 9, n = 1 is set. Therefore, in step ST22, the correction calculation of the projection image (partial video data) is executed with respect to the horizontal rotation angle θ for the first section. This correction calculation will be described later. Next, in step ST23, correction calculation of the projection image (partial video data) is executed with respect to the elevation angle φ. In step ST24, an enlargement / reduction correction process is performed in consideration of both the horizontal rotation angle θ and the elevation angle φ. In step ST25, it is determined whether n has reached 24. If n = 24, n + 1 is made in step ST26. Steps ST22 to ST24 are repeated until the correction calculation is completed for the first to 24th sections. When the correction is completed for all the sections, the correction of the partial video data by the data correction unit 11B is completed. The corrected partial video data i ′ is sent to the partial video display unit 11A, and the partial video display unit 11A projects an image on the projection screen 3 based on the corrected partial video data i ′.
図9のステップST22における補正計算について図11(A)乃至(C)を用いて説明する。なお以下の説明で、「画像」とは図10の各区分に対応する部分映像の画像である。ステップST22における補正では、まず投射される画像の左辺の拡大倍率を計算する。そこで図11(A)に示すように、部分映像表示装置11としてのプロジェクタを図示しない投射スクリーンの前方投射面に向けて投影したときの、プロジェクタと投射スクリーンとの間の距離をAとし、スクリーン上の画像の高さをH、幅をW、投影水平回転角をθ、投影仰俯角をφ、画像の端までの距離をXとする。そして図11(B)に示すように、プロジェクタを正面から角度θ1だけ傾けたときにスクリーン上に投影される画像の左右の端PとSとの距離をA1、A4とし、画像の幅をW1とする。またDは画像の中心を通る仮想中心線であり、角度θ1は距離Aを示す仮想線と仮想中心線Dとの間の角度となる。この場合、仮想中心線Dと距離A1を示す仮想線との間の角度はθ/2となる。このような条件下で距離A1を式で表すと、以下の通りになる。 The correction calculation in step ST22 of FIG. 9 will be described with reference to FIGS. In the following description, an “image” is a partial video image corresponding to each section of FIG. In the correction in step ST22, first, the enlargement magnification of the left side of the projected image is calculated. Therefore, as shown in FIG. 11A, the distance between the projector and the projection screen when the projector as the partial video display device 11 is projected onto the front projection surface of the projection screen (not shown) is A, and the screen The height of the upper image is H, the width is W, the projected horizontal rotation angle is θ, the projected elevation angle is φ, and the distance to the edge of the image is X. As shown in FIG. 11B, when the projector is tilted from the front by an angle θ 1 , the distances between the left and right edges P and S of the image projected on the screen are A 1 and A 4. the width is W 1. D is a virtual center line passing through the center of the image, and the angle θ 1 is an angle between the virtual line indicating the distance A and the virtual center line D. In this case, the angle between the virtual center line D and the virtual line indicating the distance A 1 is θ / 2. When the distance A 1 is expressed by an equation under such conditions, it is as follows.
A1=A/cos(θ1−θ/2)
点Pでは画像が、正面で投影したときよりA1/X倍拡大されたと考えられる。A1/Xが左辺の拡大倍率である。
A 1 = A / cos (θ 1 −θ / 2)
At the point P, it is considered that the image has been enlarged by A 1 / X times than when projected in front. A 1 / X is the magnification on the left side.
次に投射された画像の右辺の拡大倍率を算出する。この算出では前記と同様に距離A4を式で表すと下記のようになる。 Next, the magnification of the right side of the projected image is calculated. In this calculation, the distance A 4 is expressed by the following equation as described above.
A4=A/cos(θ1+θ/2)
点Sでは画像が、正面で投射したときよりA4/X倍拡大されたと考えられる。したがってA4/Xが右辺の拡大倍率である。
A 4 = A / cos (θ 1 + θ / 2)
At the point S, the image is considered to have been enlarged by A 4 / X times than when projected in front. Therefore, A 4 / X is the magnification on the right side.
そして算出された倍率をもとにして出力画像の縮小処理を行う。図11(C)に示す「元の画像」とは、図11(A)のようにスクリーンに対して正面から投影した場合に得られる画像である。そして「投影される画像」とは、図11(B)の場合に補正なしに投影される画像である。したがって部分映像表示装置11から出力すべき補正された画像は、図11(C)のPQをA1/X倍し、RSをA4/X倍で縮小したものとなる。このような補正を、部分映像のすべての区分について実行する。 Then, the output image is reduced based on the calculated magnification. The “original image” shown in FIG. 11C is an image obtained when projected from the front onto the screen as shown in FIG. The “projected image” is an image projected without correction in the case of FIG. Therefore, the corrected image to be output from the partial video display device 11 is obtained by multiplying PQ in FIG. 11C by A 1 / X and reducing RS by A 4 / X. Such correction is performed for all sections of the partial video.
次に図9に基づいて、ステップST23における補正計算について図11(A)と図12(A)及び(B)を用いて説明する。なお以下の説明でも、「画像」とは図10の各区分に対応する部分映像の画像である。ステップST23における補正では、まず投射される画像の下辺の拡大倍率を計算する。そこで図12(A)に示すように、プロジェクタを正面から仰俯角φ1だけ傾けたときにスクリーン上に投影される画像の上下の端RとSとの距離をA2、A3とし、画像の高さをH1とする。またDは画像の中心を通る仮想中心線であり、角度φ1は距離Aを示す仮想線と仮想中心線Dとの間の角度となる。この場合、仮想中心線Dと距離A2を示す仮想線との間の角度はφ/2となる。このような条件下で距離A2を式で表すと、以下の通りになる。 Next, based on FIG. 9, the correction calculation in step ST23 is demonstrated using FIG. 11 (A), FIG. 12 (A), and (B). In the following description, an “image” is a partial video image corresponding to each section of FIG. In the correction in step ST23, first, the magnification of the lower side of the projected image is calculated. Therefore, as shown in FIG. 12A, the distances between the upper and lower edges R and S of the image projected on the screen when the projector is tilted from the front by the elevation angle φ 1 are A 2 and A 3. Is set to H 1 . D is a virtual center line passing through the center of the image, and the angle φ 1 is an angle between the virtual line indicating the distance A and the virtual center line D. In this case, the angle between the virtual center line D and the virtual line indicating the distance A 2 is φ / 2. When the distance A 2 is expressed by an equation under such conditions, it is as follows.
A2=A/cos(φ1−φ/2)
点Rでは画像が、正面で投影したときよりA2/X倍拡大されたと考えられる。A2/Xが下辺の拡大倍率である。
A 2 = A / cos (φ 1 −φ / 2)
At the point R, the image is considered to have been enlarged by A 2 / X times than when projected in front. A 2 / X is the magnification of the lower side.
次に投射された画像の上辺の拡大倍率を算出する。この算出では前記と同様に距離A3を式で表すと下記のようになる。 Next, the magnification of the upper side of the projected image is calculated. In this calculation, the distance A 3 is expressed by the following equation as described above.
A3=A/cos(φ1+φ/2)
点Sでは画像が、正面で投射したときよりA3/X倍拡大されたと考えられる。したがってA3/Xが上辺の拡大倍率である。
A 3 = A / cos (φ 1 + φ / 2)
At the point S, it is considered that the image has been enlarged by A 3 / X times than when projected in front. Therefore, A 3 / X is the magnification of the upper side.
そして算出された倍率をもとにして出力画像の縮小処理を行う。図12(B)に示す「元の画像」とは、図11(A)のようにスクリーンに対して正面から投影した場合に得られる画像である。そして「投影される画像」とは、図11(B)の場合に補正なしに投影される画像である。したがって部分映像表示装置11から出力すべき補正された画像は、図12(B)のQRをA2/X倍し、PSをA3/X倍で縮小したものとなる。このような補正を、部分映像のすべての区分について実行する。 Then, the output image is reduced based on the calculated magnification. The “original image” shown in FIG. 12B is an image obtained when projected from the front onto the screen as shown in FIG. The “projected image” is an image projected without correction in the case of FIG. Accordingly, the corrected image to be output from the partial video display device 11 is obtained by multiplying QR of FIG. 12B by A 2 / X and reducing PS by A 3 / X. Such correction is performed for all sections of the partial video.
上記の説明は、投射スクリーンが境界部を持たな場合である。投射スクリーンが境界部を持つ多面投射スクリーンの場合には、境界部を基準にして投射する投射面の形状に応じてデータ補正部11Bで使用する補正式を変更する。なお多面投射スクリーンにおける各投射面に対応した補正式は、基本的は上記に説明した式を基本として定めることができる。 The above description is a case where the projection screen has no boundary. When the projection screen is a multi-surface projection screen having a boundary, the correction formula used in the data correction unit 11B is changed according to the shape of the projection surface to be projected with the boundary as a reference. The correction formula corresponding to each projection plane in the multi-plane projection screen can be basically determined based on the formula described above.
また利用者に違和感のない映像を見せるために、図13に示す本発明の第2の実施の形態ように、切取領域設定部15を設けてもよい。図13の実施の形態では、切取領域設定部15を付加した点を除いて、図1に示した実施の形態と基本構造は同じである。したがって共通する部分については、説明を省略する。切取領域設定部15は、頭部姿勢方位検出部5Aの出力(姿勢方位)に基づいて、映像データI0を得る際に使用するレンズの種類に応じて必要となる標準レンズを通して得られる映像データへの変換を不要にできるように、映像データから切り取る部分映像データiの切取領域を設定する。図14は、図13の実施の形態を用いて魚眼レンズを使用して得た映像データI0を用いる場合の補正を含めた投射までの処理の流れを示す図である。本実施の形態では、切取領域設定部15が、映像データI0を取得するときに使用する魚画レンズに応じて必要となる標準レンズを通して得られる映像データへの変換を不要にできるように、魚眼映像データI0から部分映像データiを切り取る切取領域を設定する(切り取られる部分映像データiの位置及び形状を決定する)。部分映像表示部11Aは、映像データ蓄積部9に蓄積された魚眼映像データI0から切取領域設定部15が設定(決定)した切取領域にある部分映像データiを切り取って、データ補正部11Bへと入力する。データ補正部11Bは、部分映像データiを投射スクリーン3に投射された映像が、利用者から見て歪みが補正された映像になるように、補正して投射用の補正された部分映像データi′を作成して、部分映像表示部11Aに出力する。本実施の形態では、切取領域設定部15を設けたことにより、魚眼レンズを通して取得した映像データI0を標準レンズを通して得られる映像データに変換する変換ステップが不要になる。その結果、本実施の形態によれば、第1の実施の形態と比べて、データの変換回数を少なくすることができるので、画質の低下を防止することができる。 Further, in order to show the user an uncomfortable image, a cut area setting unit 15 may be provided as in the second embodiment of the present invention shown in FIG. In the embodiment of FIG. 13, the basic structure is the same as that of the embodiment shown in FIG. 1 except that a cut area setting unit 15 is added. Therefore, description of common parts is omitted. Cutoff area setting unit 15, based on the output of the head posture direction detection section 5A (profile orientation), image data obtained through standard lens for the relevant type of lens used in obtaining the image data I 0 A cut-out area of partial video data i cut out from the video data is set so that conversion to video data is unnecessary. FIG. 14 is a diagram showing a flow of processing up to projection including correction in the case of using video data I 0 obtained using a fisheye lens using the embodiment of FIG. In the present embodiment, the clipping region setting unit 15 can eliminate the need for conversion to video data obtained through a standard lens that is required according to the fish lens used when acquiring the video data I 0 . A cut area for cutting out the partial video data i from the fisheye video data I 0 is set (the position and shape of the cut out partial video data i are determined). The partial video display unit 11A cuts the partial video data i in the cut region set (determined) by the cut region setting unit 15 from the fisheye video data I 0 stored in the video data storage unit 9, and the data correction unit 11B. Enter. The data correction unit 11B corrects the partial video data i for projection so that the video obtained by projecting the partial video data i on the projection screen 3 becomes a video with distortion corrected when viewed from the user. 'Is generated and output to the partial video display unit 11A. In this embodiment, by providing the cutoff area setting unit 15, the conversion step of converting the image data I 0 obtained through the fisheye lens to the image data obtained through standard lens becomes unnecessary. As a result, according to the present embodiment, it is possible to reduce the number of times of data conversion as compared with the first embodiment, and thus it is possible to prevent deterioration in image quality.
なお切取領域の形状及び大きさを決定するための基礎データは、使用する投射スクリーンの形及び映像データを取得する際に使用するレンズの種類に応じて、事前の試験により求めておけばよい。 The basic data for determining the shape and size of the cut-out area may be obtained by a preliminary test according to the shape of the projection screen to be used and the type of lens used when acquiring the image data.
なお本実施の形態でも、投射スクリーンとして、2以上の投射面が境界部を形成するように組み合わされて構成された多面投射スクリーンを用いる場合には、看視領域形状決定部5Cは、境界部を基準にして看視領域の基本形状及び大きさを変更するように構成する。 Even in the present embodiment, when a multi-surface projection screen configured such that two or more projection surfaces are combined to form a boundary portion is used as the projection screen, the viewing area shape determination unit 5C includes the boundary portion. The basic shape and size of the viewing area are changed based on the above.
上記各実施の形態によれば、利用者が実際に首を動かし、見たい方向の映像を映し出すヘッドフォンHPを用いている。ヘッドフォンHPにプロジェクタとセンサを実装すれば、首を動かすという直感的な操作により使用できるインタフェースを提供できる。そしてヘッドフォンHPにシステムをすべて搭載すれば、部屋の壁などどこでも本発明のシステムを利用することができ、足元などの隅々まで移すことができるという利便性が得られる。そのためステージ全体は見えないが、ヘッドフォンから聴こえてくる音の変化(音が近づいてきたり、遠くなったり)によって周りの奏者の動きの情報を知ることができる。さらに、演奏者の手の動きなど細かい部分を見たいときなどのために、ズーム機能を搭載してもよく、利用者の演奏支援も行うことが可能になる。 According to each of the above embodiments, the headphone HP is used in which the user actually moves his / her neck and displays an image in a desired direction. If a projector and a sensor are mounted on the headphone HP, an interface that can be used by an intuitive operation of moving the neck can be provided. If the system is mounted on the headphone HP, the system of the present invention can be used anywhere such as the wall of the room, and the convenience that it can be moved to every corner such as the feet can be obtained. For this reason, the entire stage is not visible, but it is possible to know information on the movements of the players around by the change in the sound heard from the headphones (the sound approaches or moves away). In addition, a zoom function may be installed for a user who wants to see a detailed part such as the movement of the performer's hand, and the performance of the user can be supported.
上記実施の形態では、投射スクリーン3は3面の投射スクリーンを用いたが、その他の形状の投射スクリーンを用いても良いのは勿論である。また上記実施の形態では、映像データを得るために、魚眼レンズを使用したが、その他のレンズを使用して映像データを取得した場合にも本発明は当然にして適用できる。またカメラにより撮影した映像のコンテンツは何でもよい。魚眼レンズを備えたカメラとして児童に装着されている監視カメラを用いると、児童を監視する監視者が直感的に見た方向だけに映像を表示することができるので、直感を最大限利用した監視が可能になる。 In the above embodiment, the projection screen 3 is a three-surface projection screen, but it is needless to say that other shapes of projection screens may be used. In the above embodiment, a fish-eye lens is used to obtain video data. However, the present invention is naturally applicable to a case where video data is acquired using another lens. The content of the video shot by the camera may be anything. If a surveillance camera attached to a child is used as a camera equipped with a fisheye lens, the image can be displayed only in the direction that the supervisor who monitors the child intuitively sees, so that the surveillance using the intuition is maximized. It becomes possible.
本発明によれば、映像表示部上の利用者が見ている看視領域に部分映像が表示され、その他の映像表示部上には映像が表示されない。そのためヘッドマウントディスプレイを用いることなく、またキー操作を必要とすることなく、利用者が直感的に見た方向に映像を表示することができる。また本発明によれば、映像表示のために必要とされる消費電力を従来よりも大幅に低減することができる。 According to the present invention, the partial video is displayed in the viewing area viewed by the user on the video display unit, and no video is displayed on the other video display units. Therefore, it is possible to display an image in a direction intuitively viewed by the user without using a head-mounted display and without requiring a key operation. Further, according to the present invention, the power consumption required for video display can be greatly reduced as compared with the prior art.
1 映像表示システム
3 投射スクリーン(映像表示部)
5 看視領域特定部
7 境界部設定部
9 映像データ蓄積部
11 部分映像表示装置
13 音像生成装置
15 切取領域設定部
1 Video display system 3 Projection screen (video display unit)
DESCRIPTION OF SYMBOLS 5 Watching area specific | specification part 7 Boundary part setting part 9 Video data storage part 11 Partial video display apparatus 13 Sound image generation apparatus 15 Cut area setting part
Claims (6)
前記利用者が見ている前記映像表示部の看視領域を特定する看視領域特定部と、
前記映像表示部全体に映像を表示するために必要な映像データを備えた映像データ蓄積部と、
前記看視領域特定部の出力に基づいて、前記看視領域特定部が特定する看視領域に表示されるべき部分映像についての部分映像データを前記映像データ蓄積部から取得し、前記映像表示部上の前記看視領域に前記部分映像を表示する部分映像表示装置とを具備し、
前記映像表示部は投射スクリーンであり、
前記看視領域特定部は、前記利用者の頭部に装着されて頭部の姿勢方位を検出するジャイロ機能を備えた頭部姿勢方位検出部と、前記頭部姿勢方位検出部が出力する前記姿勢方位から前記看視領域を決定する看視領域決定部とを備えており、
前記部分映像表示装置は、前記利用者の頭部に装着されて前記看視領域に前記部分映像を投射するプロジェクタを備えており、
前記映像データを得る際に使用するレンズの種類に応じて必要となる標準レンズを通して得られる映像データへの変換を不要にできるように前記映像データから切り取る前記部分映像データの切取領域を設定する切取領域設定部を備え、
前記部分映像表示装置は、前記投射スクリーンの形状に応じて、前記投射スクリーンに投射された映像が、前記利用者から見て歪みが補正された映像になるように、前記部分映像データを補正するデータ補正部を更に備えており、
前記映像データは、魚眼レンズを備えたカメラを用いて撮影されたものであり、
前記投射スクリーンは、2以上の投射面が境界部を形成するように組み合わされて構成された多面投射スクリーンであり、
前記切取領域設定部は、前記境界部を基準にして前記映像データから切り取る前記部分映像データの前記領域の形状及び大きさを変更することを特徴とする映像表示システム。 A video display unit arranged at a position where a user can move his / her body and head, and
A viewing area identifying unit that identifies a viewing area of the video display unit that the user is viewing;
A video data storage unit including video data necessary for displaying video on the entire video display unit;
Based on the output of the viewing area specifying unit, the video display unit acquires partial video data about the partial video to be displayed in the viewing area specified by the viewing area specifying unit, and the video display unit A partial video display device for displaying the partial video in the viewing area above ,
The video display unit is a projection screen,
The viewing area specifying unit is mounted on the user's head and has a gyro function that detects the posture of the head, and the head posture direction detection unit outputs the head posture direction detection unit. A viewing area determination unit that determines the viewing area from a posture orientation,
The partial video display device includes a projector that is mounted on the user's head and projects the partial video to the viewing area.
A cutout for setting a cutout area of the partial video data cut out from the video data so that conversion to video data obtained through a standard lens required according to the type of lens used when obtaining the video data can be made unnecessary An area setting unit,
The partial video display device corrects the partial video data according to the shape of the projection screen so that the video projected on the projection screen becomes a video with distortion corrected when viewed from the user. A data correction unit;
The video data was taken using a camera equipped with a fisheye lens,
The projection screen is a multi-surface projection screen configured such that two or more projection surfaces are combined to form a boundary portion.
The video display system, wherein the cut area setting unit changes a shape and a size of the area of the partial video data cut from the video data with reference to the boundary .
前記データ補正部は、前記看視領域内に前記境界部が含まれているときには、前記投射スクリーン中の前記境界部に隣接する領域に部分映像を投射するように前記投射角度を変更する指令を出力するように構成されている請求項1に記載の映像表示システム。 The partial video display device has a projection angle change function capable of changing the projection angle according to a command,
The data correction unit issues a command to change the projection angle so that a partial image is projected onto an area adjacent to the boundary part in the projection screen when the boundary part is included in the viewing area. The video display system according to claim 1 , wherein the video display system is configured to output.
前記映像と同期する前記音像を前記利用者に提供する音像生成部とを更に備えている請求項1に記載の映像表示システム。 An acoustic data storage unit comprising acoustic data for letting the user hear a sound image synchronized with the video displayed on the entire video display unit;
The video display system according to claim 1, further comprising: a sound image generation unit that provides the user with the sound image synchronized with the video.
前記映像と同期する前記音像を前記利用者に提供する音像生成部とを更に備え、
前記音像生成部のスピーカ部は前記利用者の前記頭部に装着されるヘッドフォンであり、前記ヘッドフォンに前記プロジェクタが装着されている請求項1に記載の映像表示システム。 An acoustic data storage unit comprising acoustic data for letting the user hear a sound image synchronized with the video displayed on the entire video display unit;
A sound image generator for providing the user with the sound image synchronized with the video;
The video display system according to claim 1 , wherein a speaker unit of the sound image generation unit is a headphone attached to the head of the user, and the projector is attached to the headphone.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009237758A JP5598790B2 (en) | 2009-10-14 | 2009-10-14 | Video display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009237758A JP5598790B2 (en) | 2009-10-14 | 2009-10-14 | Video display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011085712A JP2011085712A (en) | 2011-04-28 |
JP5598790B2 true JP5598790B2 (en) | 2014-10-01 |
Family
ID=44078713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009237758A Active JP5598790B2 (en) | 2009-10-14 | 2009-10-14 | Video display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5598790B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5910440B2 (en) * | 2012-09-28 | 2016-04-27 | ソニー株式会社 | Image output apparatus, image output method, and program |
WO2015170483A1 (en) | 2014-05-09 | 2015-11-12 | ソニー株式会社 | Information processing device, information processing method, and program |
JP6359993B2 (en) * | 2015-03-09 | 2018-07-18 | 日本電信電話株式会社 | VIDEO DISTRIBUTION METHOD, VIDEO DISTRIBUTION DEVICE, AND VIDEO DISTRIBUTION PROGRAM |
JP6600186B2 (en) * | 2015-07-21 | 2019-10-30 | キヤノン株式会社 | Information processing apparatus, control method, and program |
US10589665B2 (en) | 2016-02-12 | 2020-03-17 | Mitsubishi Electric Corporation | Information display device and information display method |
US10726814B2 (en) | 2017-01-27 | 2020-07-28 | Canon Kabushiki Kaisha | Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5469511A (en) * | 1990-10-05 | 1995-11-21 | Texas Instruments Incorporated | Method and apparatus for presentation of on-line directional sound |
JPH06167687A (en) * | 1992-11-30 | 1994-06-14 | Mitsubishi Electric Corp | Projector |
JP2002112112A (en) * | 2000-09-29 | 2002-04-12 | Nec Corp | Panoramic image correcting device |
JP3092698U (en) * | 2002-09-10 | 2003-03-20 | 船井電機株式会社 | Image display projector |
JP2007207211A (en) * | 2006-02-02 | 2007-08-16 | Shigeo Yagi | Portable terminal device for crime prevention with school attending/leaving mode |
-
2009
- 2009-10-14 JP JP2009237758A patent/JP5598790B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011085712A (en) | 2011-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9858643B2 (en) | Image generating device, image generating method, and program | |
JP5598790B2 (en) | Video display system | |
US9811908B2 (en) | Head-mountable apparatus and systems | |
JP5483027B2 (en) | 3D image measurement method and 3D image measurement apparatus | |
US9396529B2 (en) | Image processing apparatus and image processing method | |
WO2012147363A1 (en) | Image generation device | |
JP2017536565A (en) | Wide-field camera device for stereo vision | |
US20190045125A1 (en) | Virtual reality video processing | |
JP2011090400A (en) | Image display device, method, and program | |
WO2020084951A1 (en) | Image processing device and image processing method | |
JP2023543975A (en) | Multisensor camera system, device, and method for providing image pan, tilt, and zoom functionality | |
JP7378243B2 (en) | Image generation device, image display device, and image processing method | |
JP6359572B2 (en) | Image transmission device, information processing terminal, image transmission method, information processing method, program, and information storage medium | |
WO2012060386A1 (en) | Image generation method, image generation program, and image projection device | |
JP5818322B2 (en) | Video generation apparatus, video generation method, and computer program | |
JP2011151773A (en) | Video processing apparatus and control method | |
JP2017199958A (en) | Imaging apparatus, control method thereof, and control program | |
US20190258149A1 (en) | Image processing apparatus, image processing method, and program | |
WO2008012983A1 (en) | Imaging device and imaging system | |
JP2005092363A (en) | Image generation device and image generation program | |
WO2018177031A1 (en) | Reflective surround display system | |
JP2012191380A (en) | Camera, image conversion apparatus, and image conversion method | |
CN111630848B (en) | Image processing apparatus, image processing method, program, and projection system | |
WO2020066008A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method | |
WO2018168825A1 (en) | Image processing device and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131001 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140722 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5598790 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |