JP2007052304A - Video display system - Google Patents

Video display system Download PDF

Info

Publication number
JP2007052304A
JP2007052304A JP2005238184A JP2005238184A JP2007052304A JP 2007052304 A JP2007052304 A JP 2007052304A JP 2005238184 A JP2005238184 A JP 2005238184A JP 2005238184 A JP2005238184 A JP 2005238184A JP 2007052304 A JP2007052304 A JP 2007052304A
Authority
JP
Japan
Prior art keywords
display
video
face
observer
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005238184A
Other languages
Japanese (ja)
Inventor
Junko Makita
淳子 牧田
Kozo Ishida
晃三 石田
Tetsuya Kuno
徹也 久野
Jun Someya
潤 染谷
Hiroaki Sugiura
博明 杉浦
Yasushi Kage
裕史 鹿毛
Takeshi Doi
全 土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005238184A priority Critical patent/JP2007052304A/en
Publication of JP2007052304A publication Critical patent/JP2007052304A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a video display system that display video giving a feeling of depth and a stereoscopic effect to an observer without making the observer feel strained or fatigued. <P>SOLUTION: The face (HF) of the observer is detected in an image photographed by an imaging means (1) and a portion of the source video to be displayed on a display screen (6a) is changed based upon the relative position of the detected face to the display screen (6a). Display magnification can be changed based upon the size of the face (HF) of the observer on an imaging screen. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、映像表示システムに関し、特に、映像表示システムに対する観察者の相対的な位置に応じて表示する映像を変化させることで、立体感や奥行き感が得られるような映像表示システムに関するものである。   The present invention relates to a video display system, and more particularly, to a video display system in which a stereoscopic effect and a sense of depth can be obtained by changing an image to be displayed according to a relative position of an observer with respect to the video display system. is there.

観察者に奥行き感や立体感を与えるような映像を表示する表示装置では、立体視の生理的要因である両眼視差や運動視差など利用した技術が用いられている。
両眼視差とは、左右の目が離れた位置にあることによって、それぞれの目で得られる像に生じるずれのことを表す。一方、運動視差とは、観察者の移動や観察しているものの移動による視点の変化に伴って生じる像の違いのことを表し、例えば、観測者が一点を見つめながら移動すると、凝視している点を境に近いものと遠いものとの間の相互の位置が相反する方向に向かって変化するように見えることを指す。人間は、これらのずれや変化を脳内で処理し、奥行きを知覚していると考えられている。
両眼視差を利用して立体感を与える手法として、例えば、次のようなものがある。即ち、赤外線を発光する素子とその反射光を検出する受光素子からなるセンサを用いて観察者の視点位置を検出し、視点の移動に基づく観察方向の変化を反映した左右の眼に対する視差画像を生成し、ストライプ状画素上に交互に表示する。この2つの画像を、レンチキュラレンズを用いて観察者の左右の目に別々に投影することにより、表示装置を観察する位置に関わらず、観察者に立体画像を与えることができる(特許文献1参照)。
In a display device that displays an image that gives a viewer a sense of depth or stereoscopic effect, a technique using binocular parallax or motion parallax, which is a physiological factor of stereoscopic vision, is used.
Binocular parallax refers to a shift that occurs in an image obtained by each eye when the left and right eyes are in a distant position. On the other hand, motion parallax refers to the difference in images that accompanies changes in the viewpoint due to the movement of the observer or the movement of what is being observed. For example, when the observer moves while staring at a single point, the user is staring. It refers to the fact that the mutual position between the point close to the boundary and the point far from the point seems to change toward the opposite direction. Humans are thought to process these shifts and changes in the brain and perceive depth.
As a technique for giving a stereoscopic effect using binocular parallax, for example, the following is available. That is, the position of the observer's viewpoint is detected using a sensor composed of an element that emits infrared light and a light receiving element that detects the reflected light, and parallax images for the left and right eyes that reflect changes in the observation direction based on the movement of the viewpoint. Generated and displayed alternately on the stripe-shaped pixels. By projecting these two images separately to the left and right eyes of the observer using a lenticular lens, a stereoscopic image can be given to the observer regardless of the position where the display device is observed (see Patent Document 1). ).

特開平9−238369号公報(段落0017〜0018、図7)Japanese Unexamined Patent Publication No. 9-238369 (paragraphs 0017 to 0018, FIG. 7)

この従来の方法は両眼視差を利用している。観察者は、右眼と左眼に入った異なる画像を頭の中で処理し、位置関係を構成するため、疲れやすい。また観察者に不自然さや緊張感を与えるという問題点がある。特に、閉鎖された集合住宅の浴室や地下街や地下室などに窓のような開放感のある景観を観察者に与える映像表示システムを得ることを目的としている場合には、緊張感を伴うことなく利用できることが重要である。
また、実現のために特殊な装置が必要であると言う問題点もある。
This conventional method uses binocular parallax. Since the observer processes different images in the right eye and the left eye in the head and constructs a positional relationship, the observer is easily tired. Another problem is that it gives the observer unnaturalness and tension. Use without tension, especially when the purpose is to obtain a video display system that gives viewers a feeling of openness such as windows in closed bathrooms, underground malls, and basements. It is important to be able to do it.
There is also a problem that a special device is necessary for the realization.

この発明は、表示画面を有する表示手段と、映像情報を提供する映像情報提供手段と、前記映像情報提供手段が提供した映像情報で表される映像の一部分を選択して前記表示手段に表示させる映像処理手段と、前記表示手段の近傍に配置され、前記表示手段で表示される映像の観察者を撮影する撮像手段と、前記撮像手段による撮影で得られた撮影画像を解析して、前記観察者の顔の、前記表示画面に対する相対的位置を検出する顔検出手段と、前記顔検出手段で検出された前記顔の位置に基づいて、前記映像処理手段における選択を制御する表示制御手段とを備えた映像表示システムを提供する。   The present invention selects display means having a display screen, video information providing means for providing video information, and a part of the video represented by the video information provided by the video information providing means for display on the display means. A video processing unit, an imaging unit arranged in the vicinity of the display unit and capturing an observer of the video displayed on the display unit, and an image captured by the imaging unit is analyzed to analyze the observation Face detection means for detecting a relative position of the person's face with respect to the display screen, and display control means for controlling selection in the video processing means based on the position of the face detected by the face detection means. Provided video display system.

この発明によれば、位置を検出するための装置等を観察者が装着する必要がなく、また、脳内で視差画像を処理する必要もないので、観察者に緊張感、疲労感、違和感といった不快感を与えず、観察者にとって使用性に優れたシステムを提供できる。
また、立体視用に特別に開発した特殊な装置を用いる必要がないので、観察者に奥行き感や立体感を与えるシステムを容易に実現することが出来る。
According to the present invention, it is not necessary for the observer to wear a device or the like for detecting the position, and it is not necessary to process the parallax image in the brain, so that the observer feels nervous, tired, and uncomfortable. It is possible to provide a system that does not cause discomfort and is excellent in usability for an observer.
In addition, since it is not necessary to use a special device specially developed for stereoscopic viewing, it is possible to easily realize a system that gives a viewer a sense of depth and stereoscopic effect.

以下、図面を参照して本発明の実施の形態について説明する。
実施の形態1.
図1はこの発明の実施の形態1の映像表示システムの構成を表すブロック図である。
この映像表示システムは、映像を表示する表示手段に対する観察者の相対的な位置に応じて表示手段に表示する映像を変化させる映像表示システムであって、撮像手段1と、フレームメモリ2と、顔検出手段3と、表示制御手段4と、映像処理手段5、表示手段6と、映像情報提供手段7とを有する。
Embodiments of the present invention will be described below with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the configuration of a video display system according to Embodiment 1 of the present invention.
This video display system is a video display system that changes the video displayed on the display means in accordance with the relative position of the observer with respect to the display means for displaying the video, and includes an imaging means 1, a frame memory 2, a face It has detection means 3, display control means 4, video processing means 5, display means 6, and video information providing means 7.

表示手段6としては、例えば液晶ディスプレイ、プラズマディスプレイパネルなどで構成されるもののほか、ブラウン管で構成されるものを用い得る。表示手段6としては、例えばフラットパネル型のものが望ましい。また、図4に示す表示手段6は、矩形の表示画面6aを有する。   As the display means 6, in addition to a liquid crystal display, a plasma display panel, or the like, for example, a display composed of a cathode ray tube can be used. The display means 6 is preferably a flat panel type, for example. Further, the display means 6 shown in FIG. 4 has a rectangular display screen 6a.

映像情報提供手段7は、例えば静止画又は動画の映像情報(映像コンテンツ)を提供するものであり、映像蓄積装置で構成されていてもよく、外部の映像情報供給源(例えばウエブサイト)から送信された映像情報を受信するものであっても良い。   The video information providing means 7 provides, for example, video information (video content) of a still image or a moving image, may be constituted by a video storage device, and is transmitted from an external video information supply source (for example, a website). The received video information may be received.

映像処理手段5は、映像情報提供手段7が提供した映像情報で表される映像の一部分(部分領域)を選択して、必要に応じて表示倍率を変更して、表示手段6に供給し、表示させる。   The video processing means 5 selects a part (partial region) of the video represented by the video information provided by the video information providing means 7, changes the display magnification as necessary, and supplies it to the display means 6. Display.

撮像手段1は、表示手段6の近傍に配置され、表示手段6で表示される映像の観察者HBを撮影する。撮像手段1は、例えば、表示手段6の表示画面6aの外縁6bに隣接する位置に設けられている。図示の例では、撮像手段1は、表示手段6の表示画面6aの外縁6bのうちの下縁6cの下側に、下縁6cに隣接した位置に設置されている。撮像手段1は、表示画面6aに垂直な方向に、観察者HBが通常表示される映像を見るために位置する方向に向けられ、撮影された観察者HBの撮影画像を形成する撮像面を有する。撮像手段1としては、CCD(Charge Coupled Device)などのイメージセンサを用いたデジタルスチルカメラやビデオカメラなどが用いられる。   The imaging unit 1 is arranged in the vicinity of the display unit 6 and photographs the observer HB of the video displayed on the display unit 6. The imaging means 1 is provided at a position adjacent to the outer edge 6b of the display screen 6a of the display means 6, for example. In the illustrated example, the imaging unit 1 is installed at a position adjacent to the lower edge 6 c on the lower side of the lower edge 6 c of the outer edge 6 b of the display screen 6 a of the display unit 6. The imaging means 1 has an imaging surface that is oriented in a direction perpendicular to the display screen 6a in a direction where the observer HB is normally viewed to view an image that is displayed, and forms a photographed image of the photographed observer HB. . As the imaging means 1, a digital still camera or a video camera using an image sensor such as a CCD (Charge Coupled Device) is used.

撮像手段1で撮影した画像はフレームメモリ2に格納される。   An image captured by the imaging unit 1 is stored in the frame memory 2.

顔検出手段3は、撮像手段1による撮影で得られ、フレームメモリ2に格納されている画像データを受けて撮影画像を解析し、観察者HBの顔HFの、表示画面6aに対する相対的位置を検出する。表示画面6aに対する観察者HBの顔HFの相対的位置のうち、撮像画面上の顔HFの画像の大きさは表示画面6aから顔までの位置の推定に用いられ、撮像画面上の顔HFの画像の位置は、表示画面6a(の中心)から、顔HFを結ぶ直線の、表示画面の垂線に対する角度(水平方向の角度及び垂直方向の角度)を測定するために用いられ、顔が表示画面に平行な平面上にあると仮定した場合の、上記平行な平面上における位置の推定に用いられる。   The face detecting means 3 receives the image data obtained by photographing by the imaging means 1 and stored in the frame memory 2 and analyzes the photographed image, and determines the relative position of the face HF of the observer HB with respect to the display screen 6a. To detect. Of the relative position of the face HF of the observer HB with respect to the display screen 6a, the size of the image of the face HF on the imaging screen is used to estimate the position from the display screen 6a to the face. The position of the image is used to measure the angle (horizontal angle and vertical angle) of the straight line connecting the face HF to the normal of the display screen from the display screen 6a (center). It is used for estimation of the position on the parallel plane when it is assumed that the plane is parallel to the plane.

表示制御手段4は、顔検出手段3で検出された顔HFの位置に基づいて、映像処理手段5における、表示される映像部分の選択(後に図4〜図8を参照して説明する)及び表示倍率の制御(後に図9,図10を参照して説明する)を行なう。   Based on the position of the face HF detected by the face detection unit 3, the display control unit 4 selects a video portion to be displayed in the video processing unit 5 (to be described later with reference to FIGS. 4 to 8) and The display magnification is controlled (described later with reference to FIGS. 9 and 10).

上記のうち、フレームメモリ2は、コンピュータ8の一部をなすものであり、顔検出手段3と、表示制御手段4と、映像処理手段5はソフトウエアにより、即ちプログラムされたコンピュータ8により実現されている。また、映像情報提供手段7もコンピュータ8の一部をなすものであっても良いが、本実施の形態では、コンピュータ8とは別のものとして図示している。また、撮像手段1と表示手段6は、コンピュータ8の外部に接続されているように図示しているが、コンピュータ8の一部を成すものであっても良い。   Of the above, the frame memory 2 forms part of the computer 8, and the face detection means 3, the display control means 4, and the video processing means 5 are realized by software, that is, by a programmed computer 8. ing. Further, the video information providing means 7 may be a part of the computer 8, but in the present embodiment, it is illustrated as being different from the computer 8. Further, although the imaging unit 1 and the display unit 6 are illustrated as being connected to the outside of the computer 8, they may be part of the computer 8.

図2は、観察者HBの位置と、映像情報提供手段7が提供する映像情報により表される映像を、表示画面6aの背後に位置する仮想平面21上に表示したと仮定し、この仮想平面上に表示された映像(以下「元映像」と言うことがある)のうちの、表示手段6に表示される部分(領域)との関係を示した図である。   FIG. 2 assumes that the position of the observer HB and the image represented by the image information provided by the image information providing means 7 are displayed on the virtual plane 21 located behind the display screen 6a. It is the figure which showed the relationship with the part (area | region) displayed on the display means 6 among the images | videos displayed on the top (henceforth "original image | video").

例えば、図2の実線13aで示すように観察者HBがベンチ20の中央に座っており、表示画面6aの略正面の位置にある場合、表示手段6には、元映像の中の中央に位置する実線の四角形15で示した領域の映像部分が表示されている。次に、観察者HBが破線14aで示すように、ベンチ20の右側に移動し、表示画面6aに向かって右側の位置にずれると、表示手段6には、元映像の中の左側に位置する破線の四角形16で示した領域の映像部分が表示される。つまり、元映像の中の、表示手段6に表示される映像部分乃至領域が、観察者の移動方向と相反する方向に移動する。   For example, as shown by a solid line 13a in FIG. 2, when the observer HB is sitting at the center of the bench 20 and is at a position substantially in front of the display screen 6a, the display means 6 is positioned at the center in the original image. The video portion of the area indicated by the solid rectangle 15 is displayed. Next, when the observer HB moves to the right side of the bench 20 as shown by a broken line 14a and shifts to the right side toward the display screen 6a, the display means 6 is located on the left side in the original video. The video portion of the area indicated by the dashed rectangle 16 is displayed. That is, the video portion or region displayed on the display means 6 in the original video moves in a direction opposite to the moving direction of the observer.

このように、本実施の形態の表示システムは、表示手段6の表示画面6aを窓であると仮定し、元映像で表される映像が窓の向こうに実在する風景、光景などであると仮定した場合に、観察者の位置に応じて、窓を通して見える部分が変化するのと同じように、表示画面6aに表示される映像の内容(元映像のうちの表示される部分)を変化させるものである。   As described above, in the display system of the present embodiment, it is assumed that the display screen 6a of the display means 6 is a window, and the image represented by the original image is a landscape, a sight, or the like that exists beyond the window. In such a case, the content of the video displayed on the display screen 6a (the displayed portion of the original video) is changed in the same way that the portion visible through the window changes according to the position of the observer. It is.

撮像手段1は、上記のように、表示手段6側から観察者を撮影している。従って、撮影画像12中の観察者HBの位置は、図3に示すように、表示画面6aに向かって見たときの、観察者HBの位置とは左右が逆になっている。即ち、観察者HBが図2に実線13aで示すように、表示画面6aに略正面の位置にあるときは、撮影画像12中の観察者の画像HCも実線13bで示すように中心に位置するのに対して、観察者HBが図2の破線14aで示すように表示画面6aに向かって右側の位置にあるときは、撮影画像12中の観察者の画像HCは、破線14bで示すように、左側にずれた位置にある。本願では、撮像画像中の顔の画像を単に「撮像画像中の顔」と言うことがある。   As described above, the imaging unit 1 images the observer from the display unit 6 side. Therefore, as shown in FIG. 3, the position of the observer HB in the captured image 12 is opposite to the position of the observer HB when viewed toward the display screen 6a. That is, when the observer HB is at a position substantially in front of the display screen 6a as indicated by the solid line 13a in FIG. 2, the observer's image HC in the captured image 12 is also located at the center as indicated by the solid line 13b. On the other hand, when the observer HB is at the right position toward the display screen 6a as indicated by the broken line 14a in FIG. 2, the image HC of the observer in the captured image 12 is as indicated by the broken line 14b. , Shifted to the left. In the present application, an image of a face in a captured image may be simply referred to as “a face in the captured image”.

本実施の形態では、撮像手段1による撮影画像の中から、観察者HBの顔の位置を検出し、検出位置に応じて、元映像の中から表示手段6に表示する領域を決定する。   In the present embodiment, the position of the face of the observer HB is detected from the image taken by the image pickup means 1, and an area to be displayed on the display means 6 is determined from the original video according to the detected position.

観察者の顔の位置の変化に伴う表示映像(表示手段6に表示される映像)の変化を、更に詳しく説明する。   The change in the display image (the image displayed on the display means 6) accompanying the change in the position of the observer's face will be described in more detail.

図4、図5、図6は観察者の水平方向の移動に伴う表示映像の変化を示している。図4は、観察者が表示手段6の表示画面の略中央に整列して位置している場合である。この場合には、撮像手段1で撮影した画像の中央(撮影画像12(図3)中の中央)に観察者の顔が検出され、元映像の中央部分が表示画面6aに表示されている。   4, FIG. 5 and FIG. 6 show changes in the display image as the observer moves in the horizontal direction. FIG. 4 shows a case where the observer is aligned with the approximate center of the display screen of the display means 6. In this case, the face of the observer is detected at the center of the image captured by the imaging means 1 (the center in the captured image 12 (FIG. 3)), and the central portion of the original video is displayed on the display screen 6a.

図5に示すように、観察者が左側に移動すると、撮影画像12中の右側に観察者の顔が検出され、元映像のうちの、図4の場合よりも右側にずれた部分が表示画面6aに表示される。   As shown in FIG. 5, when the observer moves to the left side, the face of the observer is detected on the right side in the captured image 12, and the portion of the original video that is shifted to the right side than in the case of FIG. 6a.

図6に示すように、観察者が右側に移動すると、撮影画像12中の左側に観察者の顔が検出され、元映像のうちの、図4の場合よりも左側にずれた部分が表示画面6aに表示される。   As shown in FIG. 6, when the observer moves to the right side, the face of the observer is detected on the left side in the captured image 12, and the portion of the original video that is shifted to the left side in the case of FIG. 6a.

図7、図8は観察者HBの顔HFの上下方向の移動に伴う、表示映像の変化を示している。図7に示すように、観察者HBが立ち上がり、顔HFが上側に移動すると、撮影画像12の上側に観察者の顔の画像が形成され、元映像のうちの、図4の場合よりも下側にずれた部分が表示画面6aに表示される。図8に示すように、観察者HBがしゃがみ、顔HFが下側に移動すると、撮影画像12の下側に観察者の顔の画像が形成され、元映像のうちの、図4の場合よりも上側にずれた部分が表示画面6aに表示される。   FIG. 7 and FIG. 8 show changes in the display image accompanying the vertical movement of the face HF of the observer HB. As shown in FIG. 7, when the observer HB stands up and the face HF moves upward, an image of the observer's face is formed on the upper side of the photographed image 12, and is lower than the case of FIG. 4 in the original video. The part shifted to the side is displayed on the display screen 6a. As shown in FIG. 8, when the observer HB squats down and the face HF moves downward, an image of the observer's face is formed below the captured image 12, and the original image than in the case of FIG. 4. The portion shifted upward is also displayed on the display screen 6a.

図9、図10は観察者HB(の顔HF)と表示手段6の間の距離の変化に伴う表示映像の変化を示している。図9に示すように、観察者HBが表示手段6に近づくと、表示倍率が小さくなり、元映像のうち表示手段6に映し出される部分がより広くなる。図10に示すように、観察者HBが表示手段6から遠ざかると、表示倍率が大きくなり、元映像のうち表示手段6に映し出される部分がより狭くなる。
このように、観察者HBの位置に応じて表示映像を変化させることで、窓から見える景色の変化を模擬することができる。
FIG. 9 and FIG. 10 show changes in the display image accompanying changes in the distance between the observer HB (its face HF) and the display means 6. As shown in FIG. 9, when the observer HB approaches the display unit 6, the display magnification decreases, and the portion of the original image that is displayed on the display unit 6 becomes wider. As shown in FIG. 10, when the observer HB moves away from the display unit 6, the display magnification increases, and the portion of the original image projected on the display unit 6 becomes narrower.
In this way, by changing the display image according to the position of the observer HB, it is possible to simulate the change of the scenery seen from the window.

次に、顔HFの検出方法について説明する。顔検出手段3は、撮像手段1で撮影した画像の中から、眉、目、鼻、口などの顔を構成する要素乃至部品(パーツ)と判断される部分を抽出し、それぞれの位置関係が顔の配置と一致していれば顔とみなす、或いは、撮影画像中の肌色の領域を顔とみなすなどの手法により、顔を検出する。そして、検出した領域を囲む矩形を作成し、その矩形の中心の位置と矩形の大きさを表すデータを表示制御手段4に渡す。顔が複数検出された場合は、顔を囲む矩形が最も大きいものを選択し、それ以外のものを無視する。顔が検出されなかった場合には全ての値を0とすることで、後段の処理に顔の有無を伝える。この場合には、それまで表示していたのと同じ部分を表示する。   Next, a method for detecting the face HF will be described. The face detection means 3 extracts portions determined as elements or parts (parts) constituting the face such as eyebrows, eyes, nose and mouth from the image taken by the imaging means 1, and the positional relationship between them is determined. A face is detected by a method such as considering a face if it matches the arrangement of the face, or considering a skin-colored area in the captured image as a face. Then, a rectangle surrounding the detected area is created, and data representing the position of the center of the rectangle and the size of the rectangle is passed to the display control means 4. When a plurality of faces are detected, the one with the largest rectangle surrounding the face is selected and the others are ignored. If no face is detected, all values are set to 0, and the presence / absence of the face is notified to the subsequent processing. In this case, the same part as previously displayed is displayed.

ここで求めた矩形の中心位置を基準とする位置と比較することにより、観察者が上下左右方向にどれだけ偏移しているかを知ることができる。基準位置は任意に設定して差し支えないが、通常は撮影画像の中央とする。   By comparing the center position of the rectangle obtained here with the reference position, it is possible to know how much the observer has shifted in the vertical and horizontal directions. The reference position can be arbitrarily set, but is usually the center of the captured image.

また、矩形の大きさをある所定の基準値と比較することにより、観察者と表示手段6の間の相対的な距離を知ることができる。厳密には、観察者が表示手段6に近づく方向に移動しているか、遠ざかる方向に移動しているかが分かる。   Further, the relative distance between the observer and the display means 6 can be known by comparing the size of the rectangle with a predetermined reference value. Strictly speaking, it can be seen whether the observer is moving in the direction approaching the display means 6 or moving away.

次に、表示制御手段4において、観察者の顔の位置から、元映像のうちの表示映像部分の中心を算出する方法について述べる。ここでは、図2及び図3のように、撮像手段1で撮影した画像が、観察者から見ると左右反転した画像になる場合を例にして説明する。   Next, a method for calculating the center of the display image portion of the original image from the position of the observer's face in the display control means 4 will be described. Here, as shown in FIG. 2 and FIG. 3, an example will be described in which the image captured by the imaging unit 1 is a horizontally reversed image when viewed from the observer.

図11は仮想平面21上の元映像を示し、図12は、撮像手段1で撮影した画像を示している。それぞれの画像中の各画素位置は、横方向をx軸、縦方向をy軸、左上を原点(0,0)とする座標で表すことができる。これ以降、元映像内の座標は大文字、撮像手段1で撮影した画像内の座標は小文字で表すことにする。   FIG. 11 shows an original video on the virtual plane 21, and FIG. 12 shows an image taken by the imaging means 1. Each pixel position in each image can be represented by coordinates in which the horizontal direction is the x-axis, the vertical direction is the y-axis, and the upper left is the origin (0, 0). Thereafter, the coordinates in the original video are represented by capital letters, and the coordinates in the image photographed by the imaging means 1 are represented by small letters.

まず、元映像の基準となる位置と、撮影画像の基準となる位置を決める。例えば、それぞれの中心を基準位置としても良いが、ここでは仮に、元映像の基準位置の座標を(X,Y)、撮影画像の基準位置の座標を(x,y)と表す。そして、観察者の顔が撮影画像の基準位置(x,y)にある場合、元映像の中の基準位置(X,Y)を中心とする領域を表示手段6に表示するものとする。表示する領域のサイズは、表示手段6の表示領域のサイズに合わせて適宜決めればよい。 First, a reference position for the original video and a reference position for the captured image are determined. For example, each center may be used as the reference position, but here, the coordinates of the reference position of the original video are represented as (X 0 , Y 0 ), and the coordinates of the reference position of the captured image are represented as (x 0 , y 0 ). . When the observer's face is at the reference position (x 0 , y 0 ) of the captured image, an area centering on the reference position (X 0 , Y 0 ) in the original video is displayed on the display means 6. And The size of the display area may be appropriately determined according to the size of the display area of the display means 6.

表示制御手段4は、顔検出手段3が撮影画像の中から検出した顔を囲む矩形の中心座標(x,y)と、矩形の大きさ(顔の大きさ)を表す値dを受け取る。顔を囲む矩形は正方形でも長方形でもよいが、ここでは正方形として説明する。正方形の場合、一辺の長さをdとする。長方形とする場合には、二辺の長さの和や矩形の面積などをdとすれば良い。 Display control means 4, the center coordinates (x f, y f) of the rectangle surrounding the face is the face detection unit 3 detects from the captured image and a rectangular size values d f representing the (size of the face) receive. The rectangle surrounding the face may be a square or a rectangle, but here it will be described as a square. A square, the length of one side and d f. When a rectangle, may be such as sum or rectangular area of the length of the two sides and d f.

表示制御手段4は、元映像の中から表示手段6に表示する領域17の中心座標(X’,Y’)を式(1)に従い算出する。
X’=X+α・(x−x
Y’=Y+β・(y−y
…(1)
係数α、βの値は、例えば、α=1.0、β=−1.0とする。
The display control means 4 calculates the center coordinates (X ′, Y ′) of the area 17 displayed on the display means 6 from the original video according to the equation (1).
X ′ = X 0 + α · (x 0 −x f )
Y ′ = Y 0 + β · (y 0 −y f )
... (1)
The values of the coefficients α and β are, for example, α = 1.0 and β = −1.0.

それぞれの係数の符号は、撮影画像の方向によって決まる。例えば、撮像手段の撮影画像が図3、図12に示すように、左右反転している場合、上記のように、係数αを正の値とし、係数βを負の値とすると、観察者が移動した方向と相反する方向に元映像の表示領域が移動する。   The sign of each coefficient is determined by the direction of the captured image. For example, when the captured image of the imaging means is reversed left and right as shown in FIGS. 3 and 12, if the coefficient α is a positive value and the coefficient β is a negative value as described above, the observer The display area of the original video moves in a direction opposite to the moved direction.

それぞれの係数α、βの絶対値は、顔の移動量に対する表示映像の移動量の比や、元映像のサイズと撮像手段1で撮影した画像のサイズの比などにより適宜調整する。例えば、絶対値が「1」の場合、観察者の顔の検出位置が1画素変化したとき、元映像の表示領域も1画素変化する。   The absolute values of the coefficients α and β are appropriately adjusted depending on the ratio of the moving amount of the display image to the moving amount of the face, the ratio of the size of the original image and the size of the image taken by the image pickup means 1, and the like. For example, when the absolute value is “1”, when the detection position of the observer's face changes by one pixel, the display area of the original video also changes by one pixel.

ここで、以下のような配慮に基づいて係数の値を定めることとしても良い。即ち、映像情報提供手段7が提供した映像情報で表される映像を、図13で示すように、表示手段6の表示画面6aの背後に位置する仮想平面21上に表示したと仮定し、表示画面6aが透視可能な窓であると仮定した場合に、仮想平面21上の映像のうちの観察者HBに見える部分(観察者HBの位置に応じて上記見える部分は変化する)と概ね一致する部分を、映像処理手段5に選択させ、表示画面6aに表示させる。より具体的に言うと、表示制御手段4は、映像情報提供手段7が提供した映像情報で表される映像を、上記仮想平面上21に表示したと仮定し、観察者の顔HFの位置と、表示画面6aの中心とを結ぶ線が仮想平面21の交わる点を中心すると映像部分を、映像処理手段5に選択させる。   Here, the value of the coefficient may be determined based on the following consideration. That is, it is assumed that the video represented by the video information provided by the video information providing unit 7 is displayed on the virtual plane 21 located behind the display screen 6a of the display unit 6 as shown in FIG. Assuming that the screen 6a is a window that can be seen through, it substantially matches the portion of the image on the virtual plane 21 that is visible to the viewer HB (the portion that is visible depends on the position of the viewer HB). The part is selected by the video processing means 5 and displayed on the display screen 6a. More specifically, the display control means 4 assumes that the video represented by the video information provided by the video information providing means 7 is displayed on the virtual plane 21, and the position of the observer's face HF When the line connecting the center of the display screen 6a is centered on the point where the virtual plane 21 intersects, the video processing means 5 is selected.

このような考えで処理を行なう場合において、係数α、βの絶対値を1とするのは、図13の仮想平面21と、表示画面6aまでの距離sbが、表示画面6aから観察者の顔HFまでの距離sfとが等しい場合に対応する。
なお、図13は、平面図であり、観察者の顔HFの位置と表示される映像部分につき、左右方向の関係を示すが、上下方向にも同様の関係がある。
In the case of processing based on such an idea, the absolute values of the coefficients α and β are set to 1 because the distance sb from the virtual plane 21 in FIG. 13 to the display screen 6a is the face of the observer from the display screen 6a. This corresponds to the case where the distance sf to HF is equal.
FIG. 13 is a plan view showing the relationship between the position of the observer's face HF and the displayed video portion in the left-right direction, but the same relationship exists in the up-down direction.

このような配置において、例えば、図13に示すように、観察者の顔HFが、表示画面6aの中心6oの正面の位置P1(表示画面6aの中心を通り、表示画面6aに垂直な直線上の位置)にあるとき、観察者の顔HFと表示画面の中心6oとを結ぶ直線22と仮想平面21とが交わる点Q1を中心する映像部分R1が、映像処理手段5により選択されて、表示手段6の表示画面6aに表示される。図13では、上から見た図であり、映像部分R1が一次元的に見えるが、実際には、紙面に垂直な方向についても同様であり、みえる範囲は二次元的なものである。上記の映像部分R1は、位置P1にある顔HFと表示画面の縁6bとを結ぶ面23が仮想平面21と交わる線24を外縁とする領域と略一致する。   In such an arrangement, for example, as shown in FIG. 13, the observer's face HF is positioned on a straight line perpendicular to the display screen 6a through the position P1 in front of the center 6o of the display screen 6a. The video portion R1 centering on the point Q1 where the straight line 22 connecting the observer's face HF and the center 6o of the display screen intersects the virtual plane 21 is selected by the video processing means 5 and displayed. It is displayed on the display screen 6a of the means 6. FIG. 13 is a view seen from above, and the video portion R1 can be seen one-dimensionally. However, in reality, the same applies to the direction perpendicular to the paper surface, and the visible range is two-dimensional. The video portion R1 substantially coincides with a region having a line 24 where the face HF at the position P1 and the edge 6b of the display screen intersect the virtual plane 21 as an outer edge.

また、観察者の顔HFが、表示画面6aに向かって右側にずれた位置P2にあるとき、観察者の顔HFと表示画面の中心6oとを結ぶ線25と仮想平面21とが交わる点Q2を中心する映像部分R2が、映像処理手段5により選択されて、表示画面6aに表示される。上記の映像部分R2は、顔HFと表示画面の縁6bとを結ぶ面26が仮想平面21と交わる線27を外縁とする領域と略一致する。   When the observer's face HF is at a position P2 shifted to the right side toward the display screen 6a, the point Q2 where the line 25 connecting the observer's face HF and the center 6o of the display screen intersects the virtual plane 21. Is selected by the video processing means 5 and displayed on the display screen 6a. The video portion R <b> 2 substantially coincides with a region in which the surface 26 connecting the face HF and the edge 6 b of the display screen has a line 27 that intersects the virtual plane 21 as an outer edge.

以上のように構成することにより、観察者の顔移動する方向と相反する方向に、表示手段6に表示される映像が移動するため、観察者に、あたかも窓越しに外に広がる風景、光景を見ているかのような感覚を与える。   With the configuration described above, the image displayed on the display means 6 moves in a direction opposite to the direction in which the face of the observer moves, so that the observer can see a landscape and a scene spreading out through the window. Gives the feeling of watching.

表示制御手段4は更に、映像の表示倍率Z’を式(2)に従い算出する。
Z’=Z+γ・(d−d) …(2)
係数γの値は、例えば、0.02とする。
、dはそれぞれ基準とする倍率と顔の大きさである。倍率の基準は、例えば1.0とする。基準とする顔の大きさは撮影画像のサイズや、観察者と表示手段6の距離などに応じて決めればよいが、例えば、撮影画像の短辺の長さの1/3とする。
The display control means 4 further calculates a video display magnification Z ′ according to the equation (2).
Z ′ = Z 0 + γ · (d 0 −d f ) (2)
The value of the coefficient γ is, for example, 0.02.
Z 0 and d 0 are a reference magnification and a face size, respectively. The standard for magnification is 1.0, for example. The reference face size may be determined according to the size of the photographed image, the distance between the observer and the display means 6, and is, for example, 1 / the length of the short side of the photographed image.

これにより、顔の大きさを表すdが基準dより大きい場合は表示倍率Z’が低くなるため、表示画面6aのサイズが一定の場合、より広い範囲の映像が表示画面6aに表示される。逆に、顔の大きさを表すdが基準dより小さい場合は表示倍率Z’が高くなり、表示画面6aのサイズが一定の場合、より狭い範囲の映像が表示画面6aに表示される。 Thus, since d f representing the size of the face is larger than the reference d 0 is made lower display magnification Z ', if the size of the display screen 6a is constant, a wider range of video is displayed on the display screen 6a The Conversely, if d f is the reference d 0 less than representing the size of the face becomes high display magnification Z ', if the size of the display screen 6a is constant, it is displayed in a narrower range of the video display screen 6a .

つまり、観察者が表示画面6aに近づくと、近づく前と比較して、表示画面6aに表示される映像の範囲が広がる。その結果、観察者は、擬似的に視野が広がったように感じる。逆に、観察者が表示画面6aから遠ざかると、遠ざかる前と比較して、表示画面6aに表示される映像の範囲が狭まる。その結果、観察者は、擬似的に視野が狭まったように感じる。   That is, when the observer approaches the display screen 6a, the range of the image displayed on the display screen 6a is wider than before the observer approaches. As a result, the observer feels that the field of view has been expanded in a pseudo manner. Conversely, when the observer moves away from the display screen 6a, the range of the image displayed on the display screen 6a becomes narrower than before the viewer moves away. As a result, the observer feels that the field of view is pseudo-narrowed.

図14は、実施の形態1で、撮像手段1で撮影した画像から顔を検出し、検出結果に応じて元映像の表示内容を変更する処理を説明するフローチャートである。   FIG. 14 is a flowchart for describing processing for detecting a face from an image captured by the imaging unit 1 and changing the display content of the original video according to the detection result in the first embodiment.

プログラムが起動すると、まず、表示制御手段4で使用する元映像の表示位置X’、Y’と表示倍率Z’を初期化する(ステップST1)。次に、顔検出手段3は撮像手段1で撮影した画像をフレームメモリ2から読み出し(ステップST2)、画像の中から観察者の顔を検出する(ステップST3)。顔を検出した場合には(ST4でYes)、パラメータX’、Y’、Z’を更新する(ST5、ST6)が、検出しなかった場合には(ST4でNo)、パラメータの更新は行わない。制御手段5は、パラメータに応じて元映像を表示手段6に表示する(ステップST7)。以降、終了の要求が発生しない限り、ステップST2〜ST7の処理が繰り返し実行される。   When the program is started, first, the display positions X 'and Y' and the display magnification Z 'used for the display control means 4 are initialized (step ST1). Next, the face detection means 3 reads the image taken by the imaging means 1 from the frame memory 2 (step ST2), and detects the observer's face from the image (step ST3). If a face is detected (Yes in ST4), parameters X ′, Y ′, and Z ′ are updated (ST5 and ST6). If no face is detected (No in ST4), the parameters are updated. Absent. The control means 5 displays the original video on the display means 6 according to the parameters (step ST7). Thereafter, unless a termination request is generated, the processes of steps ST2 to ST7 are repeatedly executed.

以上のように、本実施の形態によれば、表示画面6aの観察者HBが位置を変えると、それまで見えなかった範囲の映像が表示画面6aに表示されることで、視野が変わり、観察者HBに、あたかも窓越しに外に広がる景色の一部を見ているかのような感覚を与える。   As described above, according to the present embodiment, when the observer HB of the display screen 6a changes the position, an image in a range that could not be seen is displayed on the display screen 6a, so that the field of view is changed and the observation is performed. Gives the person HB a feeling as if he is watching a part of the scenery spreading out through the window.

また、観察者HBの動きに応じて、表示画面に表示される映像を変化させることにより、表示映像の奥行き感を与えることができる。   Further, by changing the image displayed on the display screen according to the movement of the observer HB, it is possible to give a sense of depth to the display image.

この場合、元映像が静止画であっても、観察者の位置の変化に応じて表示画面に表示される部分が変化するので、窓越しの外の風景を見ている感覚を与えることができる。静止画を用いる場合には、映像情報提供手段7として簡易なものを用いることができる。また、元映像として動画を用いて、時間とともにゆっくりと変化する風景、光景(空の色の変化、雲の流れ、木の葉のゆれ、鳥の飛ぶ様、人や車の動き)などを表すこととしても良い。逆に動いている乗り物の窓から外を眺めているときのような、過ぎて行く風景を表す映像を元映像とすることとしても良い。   In this case, even if the original image is a still image, the portion displayed on the display screen changes according to the change in the position of the observer, so that it is possible to give a feeling of looking at the scenery outside the window. . When a still image is used, a simple image information providing unit 7 can be used. In addition, using moving images as the original video, the scenery slowly changes over time, scenes (sky color change, cloud flow, tree fluctuation, bird flying, movement of people and cars), etc. Also good. On the other hand, an image representing a passing landscape, such as when looking out from the window of a moving vehicle, may be used as the original image.

実施の形態2.
次に実施の形態2の映像表示システムを説明する。実施の形態2のシステムの全体的構成は、図1と同様であるが、表示制御手段4の動作が異なる。即ち、実施の形態1において、表示画面6aからの観察者に距離に応じて、元画像のうちの、表示画面6aに表示される部分(領域)の大きさが変えることしているが、その場合に、表示制御手段4として以下のようにして、表示される部分の大きさを変えるものを用いる。即ち、表示制御手段4として、例えば図15に示すように、映像情報提供手段7が提供した映像情報で表される映像を、表示手段6の表示画面6aの背後に位置する仮想平面21上に表示したと仮定し、表示画面6aが透視可能な窓であると仮定した場合に、仮想平面21上の映像のうちの、観察者HBに見える部分(観察者の顔の位置におうじて変化する)と概ね一致する部分が、表示画面6aの全体に表示されるように、映像処理手段5は映像の表示倍率を定めるものを用いる。この場合、観察者の位置は、撮像手段1で検出された観察者の顔の大きさに基づいて推定する。即ち、顔が大きければ、観察者はより近くにいると推定(判断)し、逆に顔が小さければ、観察者はより遠くにいると推定(判断)する。
Embodiment 2. FIG.
Next, a video display system according to the second embodiment will be described. The overall configuration of the system of the second embodiment is the same as that of FIG. 1, but the operation of the display control means 4 is different. That is, in the first embodiment, the size of the portion (area) displayed on the display screen 6a of the original image is changed according to the distance from the display screen 6a to the observer. In addition, the display control means 4 that changes the size of the displayed portion is used as follows. That is, as the display control unit 4, for example, as shown in FIG. 15, the video represented by the video information provided by the video information providing unit 7 is displayed on the virtual plane 21 located behind the display screen 6 a of the display unit 6. Assuming that the image is displayed and assuming that the display screen 6a is a see-through window, the portion of the image on the virtual plane 21 that is visible to the observer HB (changes depending on the position of the face of the observer). The video processing means 5 uses the one that determines the display magnification of the video so that the portion that roughly matches the display) is displayed on the entire display screen 6a. In this case, the position of the observer is estimated based on the size of the face of the observer detected by the imaging unit 1. That is, if the face is large, it is estimated (determined) that the observer is closer, and conversely if the face is small, it is estimated (determined) that the observer is further away.

例えば、観察者の顔HFが符号P3で示すように表示画面6aから比較的遠い位置(距離sf3の位置)にあるときは、仮想平面21上の映像のうちのより狭い映像部分R3が表示画面6aに表示され、観察者HBが符号P4で示すように表示画面6aから比較的近い位置(距離sf4の位置)にあるときは、仮想平面21上の映像のうちのより広い映像部分R4が表示画面6aに表示されるように表示倍率が定められる。   For example, when the observer's face HF is at a position relatively far from the display screen 6a (position of the distance sf3) as indicated by reference numeral P3, a narrower video portion R3 of the video on the virtual plane 21 is displayed on the display screen. When the observer HB is at a position relatively close to the display screen 6a (position of the distance sf4) as indicated by reference numeral P4, a wider video portion R4 of the video on the virtual plane 21 is displayed. The display magnification is determined so as to be displayed on the screen 6a.

上記の映像部分R3は、位置P3にある顔HFと表示画面の縁6bとを結ぶ面33が仮想平面21と交わる線34を外縁とする領域と略一致し、上記の映像部分R4は、位置P4にある顔HFと表示画面の縁6bとを結ぶ面36が仮想平面21と交わる線37を外縁とする領域と略一致する。   The video portion R3 substantially coincides with a region where the surface 33 connecting the face HF at the position P3 and the edge 6b of the display screen has a line 34 intersecting the virtual plane 21, and the video portion R4 A surface 36 connecting the face HF in P4 and the edge 6b of the display screen substantially coincides with a region having an outer edge of a line 37 intersecting the virtual plane 21.

この場合、表示倍率Z’を求めるための計算式として、上記の式(2)の代わりに下記の式(3)を用いても良い。
Z’=Z×γ・(d/d) …(3)
この場合係数γの値は、例えば、1とする。
係数が1であることは、図13の仮想平面21と、表示画面6aまでの距離が、表示画面6aから観察者HBの顔までの距離とが等しい場合に対応する。
In this case, the following formula (3) may be used instead of the above formula (2) as a calculation formula for obtaining the display magnification Z ′.
Z ′ = Z 0 × γ · (d 0 / d f ) (3)
In this case, the value of the coefficient γ is set to 1, for example.
The coefficient of 1 corresponds to the case where the distance from the virtual plane 21 in FIG. 13 to the display screen 6a is equal to the distance from the display screen 6a to the face of the observer HB.

実施の形態3.
次に実施の形態3の映像表示システムを説明する。実施の形態3のシステムの全体的構成は、図1と同様であるが、表示制御手段4が検出された顔の大きさに応じて、表示画面6aの表示領域6eの大きさを制御する点が異なる。これは、実施の形態1では、映像の表示倍率を変えることで視野の広がり、狭まりを表現するのに対し、実施の形態3では、表示手段6の表示画面6aのうちの、外縁6bに隣接する枠状の周辺部を非表示部分6dとし、この非表示部分6dの幅を変化させることで、表示領域6eの大きさを変え、これにより、視野の広がり、狭まりを表現する。
Embodiment 3 FIG.
Next, the video display system of Embodiment 3 will be described. The overall configuration of the system of the third embodiment is the same as that of FIG. 1, but the display control means 4 controls the size of the display area 6e of the display screen 6a according to the detected face size. Is different. In the first embodiment, the visual field is expanded and narrowed by changing the display magnification of the video, whereas in the third embodiment, the display screen 6a of the display means 6 is adjacent to the outer edge 6b. The frame-shaped peripheral part to be made is a non-display part 6d, and the width of the non-display part 6d is changed to change the size of the display area 6e, thereby expressing the expansion and narrowing of the visual field.

以下の説明では、表示倍率は観察者の位置に関わらず一定として説明するが、表示画面(の表示領域)のサイズを変更すると共に、表示倍率を変更するようにしても差し支えない。なお、撮像手段1は、実施の形態3では、表示手段6の上側に設置されている。   In the following description, the display magnification is described as being constant regardless of the position of the observer. However, the size of the display screen (display area) may be changed and the display magnification may be changed. In the third embodiment, the imaging unit 1 is installed above the display unit 6.

図16、図17は観察者と表示手段6の間の距離の変化に伴う、表示画面6aの表示領域6eの大きさの変化を示している。図16に示すように、観察者HBが表示手段6の表示画面6aに近づくと、表示手段6の非表示部分6dの幅が狭くなり、表示画面6aの表示領域6eが広がる。図17に示すように、観察者HBが表示手段6から遠ざかると、表示手段6の非表示部分6dの幅が大きくなり、表示領域6eが狭まる。
このように、観察者HBの位置に応じて表示領域6eのサイズを変化させることにより、窓から見える景色の変化を模擬することができる。
16 and 17 show changes in the size of the display area 6e of the display screen 6a according to changes in the distance between the observer and the display means 6. FIG. As shown in FIG. 16, when the observer HB approaches the display screen 6a of the display means 6, the width of the non-display portion 6d of the display means 6 is narrowed, and the display area 6e of the display screen 6a is expanded. As shown in FIG. 17, when the observer HB moves away from the display means 6, the width of the non-display portion 6d of the display means 6 increases and the display area 6e narrows.
In this way, by changing the size of the display area 6e according to the position of the observer HB, it is possible to simulate the change of the scenery seen from the window.

表示領域6eの大きさの決定方法について述べる。表示制御手段4は、表示画面6aの表示領域6eの縦方向のサイズW’、横方向のサイズH’を式(4)に従い算出する。
W’=W・δ・(d/d
Z’=H・δ・(d/d
…(4)
A method for determining the size of the display area 6e will be described. The display control means 4 calculates the vertical size W ′ and the horizontal size H ′ of the display area 6e of the display screen 6a according to the equation (4).
W ′ = W 0 · δ · (d f / d 0 )
Z ′ = H 0 · δ · (d f / d 0 )
... (4)

係数δは例えば1.0とする。W、Hはそれぞれ基準となる表示領域6eのサイズである。観察者の顔の大きさdと基準dの比に応じて表示領域6eのサイズが変わる。つまり、観察者の顔が大きくなると表示領域6eのサイズが大きくなり、観察者の顔が小さくなると表示領域6eのサイズも小さくなる。これにより、観察者が表示手段6に近づくにつれて表示領域6eのサイズが大きくなり、観察者が表示手段6から遠ざかるにつれて表示領域6eのサイズが小さくなる。そのため、観察者が表示手段6に近づくと視野が広がり、表示手段6から遠ざかると視野が狭まって見える。 The coefficient δ is, for example, 1.0. W 0 and H 0 are the sizes of the reference display area 6e, respectively. Changing the size of the display area 6e according to the size ratio of d f and the reference d 0 of the observer's face. That is, the size of the display area 6e increases as the observer's face increases, and the size of the display area 6e decreases as the observer's face decreases. Thereby, the size of the display area 6e increases as the observer approaches the display means 6, and the size of the display area 6e decreases as the observer moves away from the display means 6. Therefore, the field of view widens when the observer approaches the display unit 6, and the field of view appears narrower when the viewer moves away from the display unit 6.

図18は、実施の形態3で、撮像手段1で撮影した画像から顔を検出し、検出結果に応じて映像の表示内容を変更する処理を説明するフローチャートである。
プログラムが起動すると、まず、表示制御手段4で使用する映像の表示位置と表示倍率を初期化する(ステップST11)。次に、顔検出手段3は撮像手段1で撮影した画像をフレームメモリ2から読み出し(ステップST12)、画像の中から観察者の顔を検出する(ステップST13)。顔を検出した場合には(ST14でYes)、パラメータX’、Y’、W’、H’を更新する(ST15、ST16)が、検出しなかった場合には(ST14でNo)、パラメータの更新は行わない。制御手段5は、パラメータに応じて映像を表示手段6に表示する(ステップST17)。以降、終了の要求が発生しない限り、ステップST12〜ST17の処理が繰り返し実行される。
FIG. 18 is a flowchart for explaining processing for detecting a face from an image captured by the imaging unit 1 and changing the display content of the video according to the detection result in the third embodiment.
When the program is started, first, the display position and display magnification of the video used by the display control means 4 are initialized (step ST11). Next, the face detection means 3 reads the image taken by the imaging means 1 from the frame memory 2 (step ST12), and detects the observer's face from the image (step ST13). If a face is detected (Yes in ST14), the parameters X ′, Y ′, W ′, and H ′ are updated (ST15 and ST16). If no face is detected (No in ST14), the parameter Do not update. The control means 5 displays the video on the display means 6 according to the parameters (step ST17). Thereafter, unless a termination request is generated, the processes of steps ST12 to ST17 are repeatedly executed.

上記の実施の形態1、2において、表示手段6は、矩形の表示画面6aを有し、また実施の形態3において表示手段6が矩形の表示領域6eを有するが、これらの表示画面6aや表示領域6eは、建物や乗り物の窓に模した他の形状、例えば円形或いはアーチ型のものであっても良い。   In the first and second embodiments, the display means 6 has the rectangular display screen 6a. In the third embodiment, the display means 6 has the rectangular display area 6e. The region 6e may have another shape imitating a building or vehicle window, for example, a circular shape or an arch shape.

上記の実施の形態1〜3の映像表示システムは、立体視用に特別に開発した特殊な装置を用いる必要がないので、容易に実現することが出来る。
また、観察者が、位置を検出するための装置等を装着する必要がなく、また、脳内で視差画像から立体画像を再構成する必要もないので、観察者にとって使用性に優れたシステムを提供できる。
The video display systems of Embodiments 1 to 3 described above can be easily realized because there is no need to use a special device specially developed for stereoscopic viewing.
In addition, since it is not necessary for the observer to wear a device or the like for detecting the position, and it is not necessary to reconstruct a stereoscopic image from the parallax image in the brain, a system excellent in usability for the observer is provided. Can be provided.

この発明の実施の形態1、2、3の映像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video display system of Embodiment 1, 2, 3 of this invention. 実施の形態1における、観察者の位置と、元映像の中から表示画面に表示される範囲の関係を模式的に示す説明図である。4 is an explanatory diagram schematically showing a relationship between an observer's position and a range displayed on a display screen from an original video in Embodiment 1. FIG. 撮像手段による撮影画像中の観察者の画像の位置を示す図である。It is a figure which shows the position of the image of the observer in the picked-up image by an imaging means. 観察者が表示手段の表示画面の正面に位置している場合に、表示画面に表示される元映像の範囲を模式的に示す説明図である。It is explanatory drawing which shows typically the range of the original image | video displayed on a display screen, when an observer is located in front of the display screen of a display means. 観察者が向かって左側から表示画面を見ている場合に、表示画面に表示される元映像の範囲を模式的に示す説明図である。When an observer is looking at the display screen from the left side, it is explanatory drawing which shows typically the range of the original image | video displayed on a display screen. 観察者が向かって右側から表示画面を見ている場合に、表示画面に表示される元映像の範囲を模式的に示す説明図である。When an observer is looking at the display screen from the right side, it is explanatory drawing which shows typically the range of the original image | video displayed on a display screen. 観察者が高い位置から表示画面を見ている場合に、表示画面に表示される元映像の範囲を模式的に示す説明図である。When an observer is looking at a display screen from a high position, it is explanatory drawing which shows typically the range of the original image | video displayed on a display screen. 観察者が低い位置から表示画面を見ている場合に、表示画面に表示される元映像の範囲を模式的に示す説明図である。When an observer is looking at a display screen from a low position, it is explanatory drawing which shows typically the range of the original image displayed on a display screen. 観察者が近い位置から表示画面を見ている場合に、表示画面に表示される元映像の範囲を模式的に示す説明図である。FIG. 4 is an explanatory diagram schematically showing a range of an original video displayed on a display screen when an observer is looking at the display screen from a close position. 観察者が遠い位置から表示画面を見ている場合に、表示画面に表示される元映像の範囲を模式的に示す説明図である。When an observer is looking at a display screen from a distant position, it is explanatory drawing which shows typically the range of the original image displayed on a display screen. 元映像の座標位置の表し方を模式的に示す説明図である。It is explanatory drawing which shows typically how to represent the coordinate position of an original image | video. 撮像手段による撮影画像の座標位置の表し方を模式的に示す説明図である。It is explanatory drawing which shows typically how to represent the coordinate position of the picked-up image by an imaging means. 観察者の位置と、元映像の中から表示画面に表示される範囲の関係を模式的に示す説明図である。It is explanatory drawing which shows typically the relationship between an observer's position and the range displayed on a display screen from an original image | video. 実施の形態1における映像表示手順を示すフローチャートである。3 is a flowchart showing a video display procedure in the first embodiment. 実施の形態2における、観察者の位置と、元映像の中から表示画面に表示される範囲の関係を模式的に示す説明図である。FIG. 10 is an explanatory diagram schematically showing a relationship between an observer's position and a range displayed on a display screen from an original video in the second embodiment. 実施の形態3において、観察者が近い位置から表示画面を見ている場合に、映像の表示に用いられる表示領域を示す説明図である。In Embodiment 3, it is explanatory drawing which shows the display area used for a video display, when an observer is looking at a display screen from the near position. 実施の形態3において、観察者が遠い位置から表示画面を見ている場合に、映像の表示に用いられる表示領域を示す説明図である。In Embodiment 3, it is explanatory drawing which shows the display area used for a video display, when the observer is looking at the display screen from a distant position. 実施の形態3における映像表示手順を示すフローチャートである。10 is a flowchart illustrating a video display procedure in the third embodiment.

符号の説明Explanation of symbols

1 撮像手段、 2 フレームメモリ、 3 顔検出部、 4 表示制御手段、 6 表示手段、 6a 表示画面、 6b 外縁、 7 映像情報提供手段、 8 コンピュータ、 12 撮影画像、 13a 正面に位置する観察者、 14a 右側に位置する観察者、 13b,14b 撮影画像中の観察者の画像、 15 正面からの観察者に対する表示領域、 16 右側からの観察者に対する表示領域、 HB 観察者、 HF 顔。
DESCRIPTION OF SYMBOLS 1 Imaging means, 2 Frame memory, 3 Face detection part, 4 Display control means, 6 Display means, 6a Display screen, 6b Outer edge, 7 Image | video information provision means, 8 Computer, 12 Photographed image, 13a Observer located in front, 14a Observer located on the right side, 13b, 14b Image of the observer in the captured image, 15 Display area for the observer from the front, 16 Display area for the observer from the right side, HB observer, HF face.

Claims (12)

表示画面を有する表示手段と、
映像情報を提供する映像情報提供手段と、
前記映像情報提供手段が提供した映像情報で表される映像の一部分を選択して前記表示手段に表示させる映像処理手段と、
前記表示手段の近傍に配置され、前記表示手段で表示される映像の観察者を撮影する撮像手段と、
前記撮像手段による撮影で得られた撮影画像を解析して、前記観察者の顔の、前記表示画面に対する相対的位置を検出する顔検出手段と、
前記顔検出手段で検出された前記顔の位置に基づいて、前記映像処理手段における選択を制御する表示制御手段と
を備えた映像表示システム。
Display means having a display screen;
Video information providing means for providing video information;
Video processing means for selecting and displaying on the display means a part of the video represented by the video information provided by the video information providing means;
An imaging unit that is arranged in the vicinity of the display unit and captures an image viewer displayed on the display unit;
Analyzing a captured image obtained by imaging by the imaging unit, and detecting a relative position of the face of the observer with respect to the display screen;
A video display system comprising: display control means for controlling selection in the video processing means based on the position of the face detected by the face detection means.
前記撮像手段は、前記表示手段の前記表示画面の外縁に隣接する位置に設けられ、前記表示画面の観察者が通常位置する方向に向けられたものであり、撮影された観察者の撮影画像を形成し、
前記顔検出手段は、前記撮像手段による前記撮影画像中の前記顔の位置を検出し、前記撮影画像中の前記顔の位置に基づいて、前記顔の、前記表示画面に対する位置を求める
ことを特徴とする請求項1に記載の映像表示システム。
The imaging means is provided at a position adjacent to an outer edge of the display screen of the display means, and is directed in a direction in which an observer of the display screen is normally positioned, and takes a photographed image of the photographed observer Forming,
The face detection unit detects a position of the face in the captured image by the imaging unit, and obtains a position of the face with respect to the display screen based on the position of the face in the captured image. The video display system according to claim 1.
前記撮像手段は、前記表示手段の前記表示画面の外縁に隣接する位置に設けられ、前記表示画面の観察者が通常位置する方向に向けられたものであり、撮影された観察者の撮影画像を形成し、
前記顔検出手段は、前記撮像手段による前記撮影画像中の前記顔の大きさを検出し、前記撮影画像中の前記顔の大きさに基づいて、前記顔の、前記表示画面からの距離を求める
ことを特徴とする請求項1に記載の映像表示システム。
The imaging means is provided at a position adjacent to an outer edge of the display screen of the display means, and is directed in a direction in which an observer of the display screen is normally positioned, and takes a photographed image of the photographed observer Forming,
The face detection unit detects the size of the face in the captured image by the imaging unit, and obtains the distance of the face from the display screen based on the size of the face in the captured image. The video display system according to claim 1.
前記顔検出手段は、
前記観察者の顔を囲む矩形を求め、
前記矩形の中心を顔位置、前記矩形の大きさを顔の大きさとして検出することを特徴とする請求項3に記載の映像表示システム。
The face detection means includes
A rectangle surrounding the face of the observer,
The video display system according to claim 3, wherein a center of the rectangle is detected as a face position and a size of the rectangle is detected as a face size.
前記顔検出手段は、
前記顔を囲む矩形が正方形の場合は矩形の一辺の長さを前記顔の大きさとし、前記顔を囲む矩形が長方形の場合は矩形の二辺の長さの和、あるいは矩形の面積を前記顔の大きさとして検出することを特徴とする請求項4に記載の映像表示システム。
The face detection means includes
When the rectangle surrounding the face is a square, the length of one side of the rectangle is the size of the face, and when the rectangle surrounding the face is a rectangle, the sum of the lengths of the two sides of the rectangle or the area of the rectangle is the face. The video display system according to claim 4, wherein the video display system is detected as a size of the video.
前記表示制御手段は、前記映像情報提供手段が提供した映像情報で表される映像を、前記表示手段の前記表示画面の背後に位置する仮想平面上に表示したと仮定し、前記表示画面が透視可能な窓であると仮定した場合に、前記仮想平面上の映像のうちの前記観察者に見える部分と概ね一致する部分を、前記映像処理手段に選択させることを特徴とする請求項1に記載の映像表示システム。   The display control means assumes that the video represented by the video information provided by the video information providing means is displayed on a virtual plane located behind the display screen of the display means, and the display screen is seen through. 2. The image processing unit according to claim 1, wherein, when it is assumed that the window is possible, the image processing unit selects a portion of the image on the virtual plane that substantially matches a portion visible to the observer. Video display system. 前記表示制御手段は、前記映像情報提供手段が提供した映像情報で表される映像を、前記表示手段の前記表示画面の背後に位置する仮想平面上に表示したと仮定し、前記観察者の顔の位置と、前記表示画面の中心とを結ぶ線が前記仮想平面の交わる点を中心すると映像部分を、前記映像処理手段に選択させることを特徴とする請求項1に記載の映像表示システム。   The display control means assumes that the video represented by the video information provided by the video information providing means is displayed on a virtual plane located behind the display screen of the display means, and the face of the observer 2. The video display system according to claim 1, wherein a video portion is selected by the video processing unit when a line connecting the position of the video signal and a center of the display screen is centered on a point where the virtual plane intersects. 前記表示制御手段は、
前記映像情報提供手段が提供した映像の基準位置に、
前記撮影画像の基準位置と前記顔位置の差に定数を掛けた値を加算し、
前記映像情報提供手段が提供した映像のうちの、前記表示手段に表示させる映像部分の中心の位置を算出することを特徴とする請求項1に記載の映像表示システム。
The display control means includes
In the reference position of the video provided by the video information providing means,
Add a value obtained by multiplying the difference between the reference position of the captured image and the face position by a constant,
2. The video display system according to claim 1, wherein a position of a center of a video portion to be displayed on the display unit is calculated from the video provided by the video information providing unit.
前記映像処理手段は、映像の表示倍率を変更することができるものであり、
前記表示制御手段は、前記顔検出手段で検出された前記顔の大きさに応じて、前記表示倍率を変更する
ことを特徴とする請求項3に記載の映像表示システム。
The video processing means is capable of changing a video display magnification,
The video display system according to claim 3, wherein the display control unit changes the display magnification according to the size of the face detected by the face detection unit.
前記表示制御手段は、
基準となる表示倍率に、前記観察者の顔の大きさと所定の基準値の差に定数を掛けた値を加算し、前記映像の表示倍率を算出することを特徴とする請求項9に記載の映像表示システム。
The display control means includes
10. The display magnification of the image is calculated by adding a value obtained by multiplying a difference between the size of the observer's face and a predetermined reference value by a constant to a reference display magnification. Video display system.
前記映像処理手段は、前記表示手段の前記表示画面のうちの映像表示領域の大きさを変えることができるものであり、
前記表示制御手段は、前記顔検出手段で検出された前記顔の大きさに応じて、前記表示領域の大きさを変化させる
ことを特徴とする請求項3に記載の映像表示システム。
The video processing means can change the size of the video display area of the display screen of the display means,
The video display system according to claim 3, wherein the display control unit changes the size of the display area according to the size of the face detected by the face detection unit.
前記表示制御手段は、
基準となる表示領域のサイズに、前記観察者の顔の大きさと所定の基準値の比に定数を掛けた値を乗じ、前記表示手段の表示領域のサイズを算出することを特徴とする請求項11に記載の映像表示システム。
The display control means includes
The size of the display area of the display means is calculated by multiplying the size of the reference display area by a value obtained by multiplying a ratio of the size of the observer's face and a predetermined reference value by a constant. 11. The video display system according to 11.
JP2005238184A 2005-08-19 2005-08-19 Video display system Pending JP2007052304A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005238184A JP2007052304A (en) 2005-08-19 2005-08-19 Video display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005238184A JP2007052304A (en) 2005-08-19 2005-08-19 Video display system

Publications (1)

Publication Number Publication Date
JP2007052304A true JP2007052304A (en) 2007-03-01

Family

ID=37916790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005238184A Pending JP2007052304A (en) 2005-08-19 2005-08-19 Video display system

Country Status (1)

Country Link
JP (1) JP2007052304A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102099A (en) * 2005-10-07 2007-04-19 Sony Corp Electronic equipment, image processing method, and program
JP2008097599A (en) * 2006-10-11 2008-04-24 Internatl Business Mach Corp <Ibm> Method and system of virtual window with simulated parallax and field of view change, and recording medium recording computer program (virtual window with simulated parallax and field of view change)
JP2009301439A (en) * 2008-06-16 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Information presentation system, information presentation method, information presentation program and recording medium
JP2010107773A (en) * 2008-10-30 2010-05-13 Toshiba Corp Display control device and display control method
JP2011108028A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Image reproduction device, imaging device and image reproduction method
JP2011123501A (en) * 2010-12-28 2011-06-23 Sony Ericsson Mobilecommunications Japan Inc Display device, display control method and display control program
JP2011123349A (en) * 2009-12-11 2011-06-23 Mitsubishi Electric Corp Information display processing device
JP2011151598A (en) * 2010-01-21 2011-08-04 Konami Digital Entertainment Co Ltd Image display device, image processing method, and program
JP2012080193A (en) * 2010-09-30 2012-04-19 Nec Casio Mobile Communications Ltd Portable terminal, and camera magnification adjustment method and program
CN102592569A (en) * 2011-01-10 2012-07-18 联想(北京)有限公司 Electronic equipment and display method
JP2012155624A (en) * 2011-01-27 2012-08-16 Canon Inc Image output device, image display device, image output method, program and storage medium
WO2012124150A1 (en) * 2011-03-11 2012-09-20 オムロン株式会社 Video display device
WO2012147363A1 (en) * 2011-04-28 2012-11-01 パナソニック株式会社 Image generation device
JP2012234447A (en) * 2011-05-06 2012-11-29 Toshiba Corp Medical image processor
WO2013021864A1 (en) * 2011-08-09 2013-02-14 シャープ株式会社 Display device
EP2693758A2 (en) 2012-07-31 2014-02-05 NLT Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
JP2016066918A (en) * 2014-09-25 2016-04-28 大日本印刷株式会社 Video display device, video display control method and program
JP2018157331A (en) * 2017-03-16 2018-10-04 株式会社スクウェア・エニックス Program, recording medium, image generating apparatus, image generation method
WO2019026184A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
WO2019026183A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JP2019144438A (en) * 2018-02-21 2019-08-29 いすゞ自動車株式会社 Display control apparatus and display control method
JP2020052650A (en) * 2018-09-26 2020-04-02 いすゞ自動車株式会社 Display control device and display control method
JP2020068514A (en) * 2018-10-26 2020-04-30 キヤノン株式会社 Image processing device, image processing method, and program
JP7118383B1 (en) 2022-04-25 2022-08-16 ナーブ株式会社 Display system, display method, and display program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744143A (en) * 1993-07-27 1995-02-14 Canon Inc Information processor
JPH09138637A (en) * 1995-11-13 1997-05-27 Mitsubishi Heavy Ind Ltd Pseudo visibility device
JP2000259856A (en) * 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> Method and device for displaying three-dimensional computer graphics
JP2004193933A (en) * 2002-12-11 2004-07-08 Canon Inc Image enlargement display method, its apparatus, and medium program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744143A (en) * 1993-07-27 1995-02-14 Canon Inc Information processor
JPH09138637A (en) * 1995-11-13 1997-05-27 Mitsubishi Heavy Ind Ltd Pseudo visibility device
JP2000259856A (en) * 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> Method and device for displaying three-dimensional computer graphics
JP2004193933A (en) * 2002-12-11 2004-07-08 Canon Inc Image enlargement display method, its apparatus, and medium program

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102099A (en) * 2005-10-07 2007-04-19 Sony Corp Electronic equipment, image processing method, and program
JP2008097599A (en) * 2006-10-11 2008-04-24 Internatl Business Mach Corp <Ibm> Method and system of virtual window with simulated parallax and field of view change, and recording medium recording computer program (virtual window with simulated parallax and field of view change)
JP2009301439A (en) * 2008-06-16 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Information presentation system, information presentation method, information presentation program and recording medium
JP2010107773A (en) * 2008-10-30 2010-05-13 Toshiba Corp Display control device and display control method
JP2011108028A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Image reproduction device, imaging device and image reproduction method
JP2011123349A (en) * 2009-12-11 2011-06-23 Mitsubishi Electric Corp Information display processing device
JP2011151598A (en) * 2010-01-21 2011-08-04 Konami Digital Entertainment Co Ltd Image display device, image processing method, and program
JP2012080193A (en) * 2010-09-30 2012-04-19 Nec Casio Mobile Communications Ltd Portable terminal, and camera magnification adjustment method and program
JP2011123501A (en) * 2010-12-28 2011-06-23 Sony Ericsson Mobilecommunications Japan Inc Display device, display control method and display control program
CN102592569A (en) * 2011-01-10 2012-07-18 联想(北京)有限公司 Electronic equipment and display method
JP2012155624A (en) * 2011-01-27 2012-08-16 Canon Inc Image output device, image display device, image output method, program and storage medium
WO2012124150A1 (en) * 2011-03-11 2012-09-20 オムロン株式会社 Video display device
JP2012191483A (en) * 2011-03-11 2012-10-04 Omron Corp Video display device
CN103415882A (en) * 2011-03-11 2013-11-27 欧姆龙株式会社 Video display device
CN103415882B (en) * 2011-03-11 2016-01-20 欧姆龙株式会社 Video display devices
WO2012147363A1 (en) * 2011-04-28 2012-11-01 パナソニック株式会社 Image generation device
CN103026388A (en) * 2011-04-28 2013-04-03 松下电器产业株式会社 Image generation device
JP2012234447A (en) * 2011-05-06 2012-11-29 Toshiba Corp Medical image processor
US9020219B2 (en) 2011-05-06 2015-04-28 Kabushiki Kaisha Toshiba Medical image processing apparatus
WO2013021864A1 (en) * 2011-08-09 2013-02-14 シャープ株式会社 Display device
EP2693758A2 (en) 2012-07-31 2014-02-05 NLT Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
US9398290B2 (en) 2012-07-31 2016-07-19 Nlt Technologies, Ltd. Stereoscopic image display device, image processing device, and stereoscopic image processing method
JP2016066918A (en) * 2014-09-25 2016-04-28 大日本印刷株式会社 Video display device, video display control method and program
JP2018157331A (en) * 2017-03-16 2018-10-04 株式会社スクウェア・エニックス Program, recording medium, image generating apparatus, image generation method
JPWO2019026184A1 (en) * 2017-08-01 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント Image generation apparatus and image generation method
JP7057785B2 (en) 2017-08-01 2022-04-20 株式会社ソニー・インタラクティブエンタテインメント Image generator and image generation method
WO2019026388A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
WO2019026183A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JPWO2019026388A1 (en) * 2017-08-01 2020-03-19 株式会社ソニー・インタラクティブエンタテインメント Image generation apparatus and image generation method
WO2019026184A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
US11050993B2 (en) 2017-08-01 2021-06-29 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
US10999567B2 (en) 2017-08-01 2021-05-04 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
JP2019144438A (en) * 2018-02-21 2019-08-29 いすゞ自動車株式会社 Display control apparatus and display control method
JP2020052650A (en) * 2018-09-26 2020-04-02 いすゞ自動車株式会社 Display control device and display control method
JP2020068514A (en) * 2018-10-26 2020-04-30 キヤノン株式会社 Image processing device, image processing method, and program
JP7296712B2 (en) 2018-10-26 2023-06-23 キヤノン株式会社 Image processing device, image processing method, and program
JP7118383B1 (en) 2022-04-25 2022-08-16 ナーブ株式会社 Display system, display method, and display program
JP2023161493A (en) * 2022-04-25 2023-11-07 ナーブ株式会社 Display system, display method, and display program

Similar Documents

Publication Publication Date Title
JP2007052304A (en) Video display system
US9451242B2 (en) Apparatus for adjusting displayed picture, display apparatus and display method
US8189035B2 (en) Method and apparatus for rendering virtual see-through scenes on single or tiled displays
JP4793451B2 (en) Signal processing apparatus, image display apparatus, signal processing method, and computer program
JP6644371B2 (en) Video display device
JP5183277B2 (en) Stereoscopic image display device
US20130113701A1 (en) Image generation device
EP2421268A2 (en) Method for processing images in display device outputting 3-dimensional contents and display using the same
AU2018249563B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
US11659158B1 (en) Frustum change in projection stereo rendering
WO2013191120A1 (en) Image processing device, method, and program, and storage medium
JP2011010126A (en) Image processing apparatus, and image processing method
US9918066B2 (en) Methods and systems for producing a magnified 3D image
CN109799899B (en) Interaction control method and device, storage medium and computer equipment
JP6963399B2 (en) Program, recording medium, image generator, image generation method
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
TWI500314B (en) A portrait processing device, a three-dimensional portrait display device, and a portrait processing method
JP2006267767A (en) Image display device
KR101172507B1 (en) Apparatus and Method for Providing 3D Image Adjusted by Viewpoint
KR101779423B1 (en) Method and apparatus for processing image
US9185399B2 (en) Stereoscopic video receiver
JP2011176822A (en) Image processing apparatus, 3d display apparatus, and image processing method
JP4249187B2 (en) 3D image processing apparatus and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110809