JP2007052304A - Video display system - Google Patents
Video display system Download PDFInfo
- Publication number
- JP2007052304A JP2007052304A JP2005238184A JP2005238184A JP2007052304A JP 2007052304 A JP2007052304 A JP 2007052304A JP 2005238184 A JP2005238184 A JP 2005238184A JP 2005238184 A JP2005238184 A JP 2005238184A JP 2007052304 A JP2007052304 A JP 2007052304A
- Authority
- JP
- Japan
- Prior art keywords
- display
- video
- face
- observer
- display screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、映像表示システムに関し、特に、映像表示システムに対する観察者の相対的な位置に応じて表示する映像を変化させることで、立体感や奥行き感が得られるような映像表示システムに関するものである。 The present invention relates to a video display system, and more particularly, to a video display system in which a stereoscopic effect and a sense of depth can be obtained by changing an image to be displayed according to a relative position of an observer with respect to the video display system. is there.
観察者に奥行き感や立体感を与えるような映像を表示する表示装置では、立体視の生理的要因である両眼視差や運動視差など利用した技術が用いられている。
両眼視差とは、左右の目が離れた位置にあることによって、それぞれの目で得られる像に生じるずれのことを表す。一方、運動視差とは、観察者の移動や観察しているものの移動による視点の変化に伴って生じる像の違いのことを表し、例えば、観測者が一点を見つめながら移動すると、凝視している点を境に近いものと遠いものとの間の相互の位置が相反する方向に向かって変化するように見えることを指す。人間は、これらのずれや変化を脳内で処理し、奥行きを知覚していると考えられている。
両眼視差を利用して立体感を与える手法として、例えば、次のようなものがある。即ち、赤外線を発光する素子とその反射光を検出する受光素子からなるセンサを用いて観察者の視点位置を検出し、視点の移動に基づく観察方向の変化を反映した左右の眼に対する視差画像を生成し、ストライプ状画素上に交互に表示する。この2つの画像を、レンチキュラレンズを用いて観察者の左右の目に別々に投影することにより、表示装置を観察する位置に関わらず、観察者に立体画像を与えることができる(特許文献1参照)。
In a display device that displays an image that gives a viewer a sense of depth or stereoscopic effect, a technique using binocular parallax or motion parallax, which is a physiological factor of stereoscopic vision, is used.
Binocular parallax refers to a shift that occurs in an image obtained by each eye when the left and right eyes are in a distant position. On the other hand, motion parallax refers to the difference in images that accompanies changes in the viewpoint due to the movement of the observer or the movement of what is being observed. For example, when the observer moves while staring at a single point, the user is staring. It refers to the fact that the mutual position between the point close to the boundary and the point far from the point seems to change toward the opposite direction. Humans are thought to process these shifts and changes in the brain and perceive depth.
As a technique for giving a stereoscopic effect using binocular parallax, for example, the following is available. That is, the position of the observer's viewpoint is detected using a sensor composed of an element that emits infrared light and a light receiving element that detects the reflected light, and parallax images for the left and right eyes that reflect changes in the observation direction based on the movement of the viewpoint. Generated and displayed alternately on the stripe-shaped pixels. By projecting these two images separately to the left and right eyes of the observer using a lenticular lens, a stereoscopic image can be given to the observer regardless of the position where the display device is observed (see Patent Document 1). ).
この従来の方法は両眼視差を利用している。観察者は、右眼と左眼に入った異なる画像を頭の中で処理し、位置関係を構成するため、疲れやすい。また観察者に不自然さや緊張感を与えるという問題点がある。特に、閉鎖された集合住宅の浴室や地下街や地下室などに窓のような開放感のある景観を観察者に与える映像表示システムを得ることを目的としている場合には、緊張感を伴うことなく利用できることが重要である。
また、実現のために特殊な装置が必要であると言う問題点もある。
This conventional method uses binocular parallax. Since the observer processes different images in the right eye and the left eye in the head and constructs a positional relationship, the observer is easily tired. Another problem is that it gives the observer unnaturalness and tension. Use without tension, especially when the purpose is to obtain a video display system that gives viewers a feeling of openness such as windows in closed bathrooms, underground malls, and basements. It is important to be able to do it.
There is also a problem that a special device is necessary for the realization.
この発明は、表示画面を有する表示手段と、映像情報を提供する映像情報提供手段と、前記映像情報提供手段が提供した映像情報で表される映像の一部分を選択して前記表示手段に表示させる映像処理手段と、前記表示手段の近傍に配置され、前記表示手段で表示される映像の観察者を撮影する撮像手段と、前記撮像手段による撮影で得られた撮影画像を解析して、前記観察者の顔の、前記表示画面に対する相対的位置を検出する顔検出手段と、前記顔検出手段で検出された前記顔の位置に基づいて、前記映像処理手段における選択を制御する表示制御手段とを備えた映像表示システムを提供する。 The present invention selects display means having a display screen, video information providing means for providing video information, and a part of the video represented by the video information provided by the video information providing means for display on the display means. A video processing unit, an imaging unit arranged in the vicinity of the display unit and capturing an observer of the video displayed on the display unit, and an image captured by the imaging unit is analyzed to analyze the observation Face detection means for detecting a relative position of the person's face with respect to the display screen, and display control means for controlling selection in the video processing means based on the position of the face detected by the face detection means. Provided video display system.
この発明によれば、位置を検出するための装置等を観察者が装着する必要がなく、また、脳内で視差画像を処理する必要もないので、観察者に緊張感、疲労感、違和感といった不快感を与えず、観察者にとって使用性に優れたシステムを提供できる。
また、立体視用に特別に開発した特殊な装置を用いる必要がないので、観察者に奥行き感や立体感を与えるシステムを容易に実現することが出来る。
According to the present invention, it is not necessary for the observer to wear a device or the like for detecting the position, and it is not necessary to process the parallax image in the brain, so that the observer feels nervous, tired, and uncomfortable. It is possible to provide a system that does not cause discomfort and is excellent in usability for an observer.
In addition, since it is not necessary to use a special device specially developed for stereoscopic viewing, it is possible to easily realize a system that gives a viewer a sense of depth and stereoscopic effect.
以下、図面を参照して本発明の実施の形態について説明する。
実施の形態1.
図1はこの発明の実施の形態1の映像表示システムの構成を表すブロック図である。
この映像表示システムは、映像を表示する表示手段に対する観察者の相対的な位置に応じて表示手段に表示する映像を変化させる映像表示システムであって、撮像手段1と、フレームメモリ2と、顔検出手段3と、表示制御手段4と、映像処理手段5、表示手段6と、映像情報提供手段7とを有する。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of a video display system according to
This video display system is a video display system that changes the video displayed on the display means in accordance with the relative position of the observer with respect to the display means for displaying the video, and includes an imaging means 1, a
表示手段6としては、例えば液晶ディスプレイ、プラズマディスプレイパネルなどで構成されるもののほか、ブラウン管で構成されるものを用い得る。表示手段6としては、例えばフラットパネル型のものが望ましい。また、図4に示す表示手段6は、矩形の表示画面6aを有する。
As the display means 6, in addition to a liquid crystal display, a plasma display panel, or the like, for example, a display composed of a cathode ray tube can be used. The display means 6 is preferably a flat panel type, for example. Further, the display means 6 shown in FIG. 4 has a
映像情報提供手段7は、例えば静止画又は動画の映像情報(映像コンテンツ)を提供するものであり、映像蓄積装置で構成されていてもよく、外部の映像情報供給源(例えばウエブサイト)から送信された映像情報を受信するものであっても良い。 The video information providing means 7 provides, for example, video information (video content) of a still image or a moving image, may be constituted by a video storage device, and is transmitted from an external video information supply source (for example, a website). The received video information may be received.
映像処理手段5は、映像情報提供手段7が提供した映像情報で表される映像の一部分(部分領域)を選択して、必要に応じて表示倍率を変更して、表示手段6に供給し、表示させる。 The video processing means 5 selects a part (partial region) of the video represented by the video information provided by the video information providing means 7, changes the display magnification as necessary, and supplies it to the display means 6. Display.
撮像手段1は、表示手段6の近傍に配置され、表示手段6で表示される映像の観察者HBを撮影する。撮像手段1は、例えば、表示手段6の表示画面6aの外縁6bに隣接する位置に設けられている。図示の例では、撮像手段1は、表示手段6の表示画面6aの外縁6bのうちの下縁6cの下側に、下縁6cに隣接した位置に設置されている。撮像手段1は、表示画面6aに垂直な方向に、観察者HBが通常表示される映像を見るために位置する方向に向けられ、撮影された観察者HBの撮影画像を形成する撮像面を有する。撮像手段1としては、CCD(Charge Coupled Device)などのイメージセンサを用いたデジタルスチルカメラやビデオカメラなどが用いられる。
The
撮像手段1で撮影した画像はフレームメモリ2に格納される。
An image captured by the
顔検出手段3は、撮像手段1による撮影で得られ、フレームメモリ2に格納されている画像データを受けて撮影画像を解析し、観察者HBの顔HFの、表示画面6aに対する相対的位置を検出する。表示画面6aに対する観察者HBの顔HFの相対的位置のうち、撮像画面上の顔HFの画像の大きさは表示画面6aから顔までの位置の推定に用いられ、撮像画面上の顔HFの画像の位置は、表示画面6a(の中心)から、顔HFを結ぶ直線の、表示画面の垂線に対する角度(水平方向の角度及び垂直方向の角度)を測定するために用いられ、顔が表示画面に平行な平面上にあると仮定した場合の、上記平行な平面上における位置の推定に用いられる。
The face detecting means 3 receives the image data obtained by photographing by the imaging means 1 and stored in the
表示制御手段4は、顔検出手段3で検出された顔HFの位置に基づいて、映像処理手段5における、表示される映像部分の選択(後に図4〜図8を参照して説明する)及び表示倍率の制御(後に図9,図10を参照して説明する)を行なう。
Based on the position of the face HF detected by the
上記のうち、フレームメモリ2は、コンピュータ8の一部をなすものであり、顔検出手段3と、表示制御手段4と、映像処理手段5はソフトウエアにより、即ちプログラムされたコンピュータ8により実現されている。また、映像情報提供手段7もコンピュータ8の一部をなすものであっても良いが、本実施の形態では、コンピュータ8とは別のものとして図示している。また、撮像手段1と表示手段6は、コンピュータ8の外部に接続されているように図示しているが、コンピュータ8の一部を成すものであっても良い。
Of the above, the
図2は、観察者HBの位置と、映像情報提供手段7が提供する映像情報により表される映像を、表示画面6aの背後に位置する仮想平面21上に表示したと仮定し、この仮想平面上に表示された映像(以下「元映像」と言うことがある)のうちの、表示手段6に表示される部分(領域)との関係を示した図である。
FIG. 2 assumes that the position of the observer HB and the image represented by the image information provided by the image information providing means 7 are displayed on the
例えば、図2の実線13aで示すように観察者HBがベンチ20の中央に座っており、表示画面6aの略正面の位置にある場合、表示手段6には、元映像の中の中央に位置する実線の四角形15で示した領域の映像部分が表示されている。次に、観察者HBが破線14aで示すように、ベンチ20の右側に移動し、表示画面6aに向かって右側の位置にずれると、表示手段6には、元映像の中の左側に位置する破線の四角形16で示した領域の映像部分が表示される。つまり、元映像の中の、表示手段6に表示される映像部分乃至領域が、観察者の移動方向と相反する方向に移動する。
For example, as shown by a
このように、本実施の形態の表示システムは、表示手段6の表示画面6aを窓であると仮定し、元映像で表される映像が窓の向こうに実在する風景、光景などであると仮定した場合に、観察者の位置に応じて、窓を通して見える部分が変化するのと同じように、表示画面6aに表示される映像の内容(元映像のうちの表示される部分)を変化させるものである。
As described above, in the display system of the present embodiment, it is assumed that the
撮像手段1は、上記のように、表示手段6側から観察者を撮影している。従って、撮影画像12中の観察者HBの位置は、図3に示すように、表示画面6aに向かって見たときの、観察者HBの位置とは左右が逆になっている。即ち、観察者HBが図2に実線13aで示すように、表示画面6aに略正面の位置にあるときは、撮影画像12中の観察者の画像HCも実線13bで示すように中心に位置するのに対して、観察者HBが図2の破線14aで示すように表示画面6aに向かって右側の位置にあるときは、撮影画像12中の観察者の画像HCは、破線14bで示すように、左側にずれた位置にある。本願では、撮像画像中の顔の画像を単に「撮像画像中の顔」と言うことがある。
As described above, the
本実施の形態では、撮像手段1による撮影画像の中から、観察者HBの顔の位置を検出し、検出位置に応じて、元映像の中から表示手段6に表示する領域を決定する。 In the present embodiment, the position of the face of the observer HB is detected from the image taken by the image pickup means 1, and an area to be displayed on the display means 6 is determined from the original video according to the detected position.
観察者の顔の位置の変化に伴う表示映像(表示手段6に表示される映像)の変化を、更に詳しく説明する。 The change in the display image (the image displayed on the display means 6) accompanying the change in the position of the observer's face will be described in more detail.
図4、図5、図6は観察者の水平方向の移動に伴う表示映像の変化を示している。図4は、観察者が表示手段6の表示画面の略中央に整列して位置している場合である。この場合には、撮像手段1で撮影した画像の中央(撮影画像12(図3)中の中央)に観察者の顔が検出され、元映像の中央部分が表示画面6aに表示されている。
4, FIG. 5 and FIG. 6 show changes in the display image as the observer moves in the horizontal direction. FIG. 4 shows a case where the observer is aligned with the approximate center of the display screen of the display means 6. In this case, the face of the observer is detected at the center of the image captured by the imaging means 1 (the center in the captured image 12 (FIG. 3)), and the central portion of the original video is displayed on the
図5に示すように、観察者が左側に移動すると、撮影画像12中の右側に観察者の顔が検出され、元映像のうちの、図4の場合よりも右側にずれた部分が表示画面6aに表示される。
As shown in FIG. 5, when the observer moves to the left side, the face of the observer is detected on the right side in the captured
図6に示すように、観察者が右側に移動すると、撮影画像12中の左側に観察者の顔が検出され、元映像のうちの、図4の場合よりも左側にずれた部分が表示画面6aに表示される。
As shown in FIG. 6, when the observer moves to the right side, the face of the observer is detected on the left side in the captured
図7、図8は観察者HBの顔HFの上下方向の移動に伴う、表示映像の変化を示している。図7に示すように、観察者HBが立ち上がり、顔HFが上側に移動すると、撮影画像12の上側に観察者の顔の画像が形成され、元映像のうちの、図4の場合よりも下側にずれた部分が表示画面6aに表示される。図8に示すように、観察者HBがしゃがみ、顔HFが下側に移動すると、撮影画像12の下側に観察者の顔の画像が形成され、元映像のうちの、図4の場合よりも上側にずれた部分が表示画面6aに表示される。
FIG. 7 and FIG. 8 show changes in the display image accompanying the vertical movement of the face HF of the observer HB. As shown in FIG. 7, when the observer HB stands up and the face HF moves upward, an image of the observer's face is formed on the upper side of the photographed
図9、図10は観察者HB(の顔HF)と表示手段6の間の距離の変化に伴う表示映像の変化を示している。図9に示すように、観察者HBが表示手段6に近づくと、表示倍率が小さくなり、元映像のうち表示手段6に映し出される部分がより広くなる。図10に示すように、観察者HBが表示手段6から遠ざかると、表示倍率が大きくなり、元映像のうち表示手段6に映し出される部分がより狭くなる。
このように、観察者HBの位置に応じて表示映像を変化させることで、窓から見える景色の変化を模擬することができる。
FIG. 9 and FIG. 10 show changes in the display image accompanying changes in the distance between the observer HB (its face HF) and the display means 6. As shown in FIG. 9, when the observer HB approaches the
In this way, by changing the display image according to the position of the observer HB, it is possible to simulate the change of the scenery seen from the window.
次に、顔HFの検出方法について説明する。顔検出手段3は、撮像手段1で撮影した画像の中から、眉、目、鼻、口などの顔を構成する要素乃至部品(パーツ)と判断される部分を抽出し、それぞれの位置関係が顔の配置と一致していれば顔とみなす、或いは、撮影画像中の肌色の領域を顔とみなすなどの手法により、顔を検出する。そして、検出した領域を囲む矩形を作成し、その矩形の中心の位置と矩形の大きさを表すデータを表示制御手段4に渡す。顔が複数検出された場合は、顔を囲む矩形が最も大きいものを選択し、それ以外のものを無視する。顔が検出されなかった場合には全ての値を0とすることで、後段の処理に顔の有無を伝える。この場合には、それまで表示していたのと同じ部分を表示する。 Next, a method for detecting the face HF will be described. The face detection means 3 extracts portions determined as elements or parts (parts) constituting the face such as eyebrows, eyes, nose and mouth from the image taken by the imaging means 1, and the positional relationship between them is determined. A face is detected by a method such as considering a face if it matches the arrangement of the face, or considering a skin-colored area in the captured image as a face. Then, a rectangle surrounding the detected area is created, and data representing the position of the center of the rectangle and the size of the rectangle is passed to the display control means 4. When a plurality of faces are detected, the one with the largest rectangle surrounding the face is selected and the others are ignored. If no face is detected, all values are set to 0, and the presence / absence of the face is notified to the subsequent processing. In this case, the same part as previously displayed is displayed.
ここで求めた矩形の中心位置を基準とする位置と比較することにより、観察者が上下左右方向にどれだけ偏移しているかを知ることができる。基準位置は任意に設定して差し支えないが、通常は撮影画像の中央とする。 By comparing the center position of the rectangle obtained here with the reference position, it is possible to know how much the observer has shifted in the vertical and horizontal directions. The reference position can be arbitrarily set, but is usually the center of the captured image.
また、矩形の大きさをある所定の基準値と比較することにより、観察者と表示手段6の間の相対的な距離を知ることができる。厳密には、観察者が表示手段6に近づく方向に移動しているか、遠ざかる方向に移動しているかが分かる。 Further, the relative distance between the observer and the display means 6 can be known by comparing the size of the rectangle with a predetermined reference value. Strictly speaking, it can be seen whether the observer is moving in the direction approaching the display means 6 or moving away.
次に、表示制御手段4において、観察者の顔の位置から、元映像のうちの表示映像部分の中心を算出する方法について述べる。ここでは、図2及び図3のように、撮像手段1で撮影した画像が、観察者から見ると左右反転した画像になる場合を例にして説明する。
Next, a method for calculating the center of the display image portion of the original image from the position of the observer's face in the display control means 4 will be described. Here, as shown in FIG. 2 and FIG. 3, an example will be described in which the image captured by the
図11は仮想平面21上の元映像を示し、図12は、撮像手段1で撮影した画像を示している。それぞれの画像中の各画素位置は、横方向をx軸、縦方向をy軸、左上を原点(0,0)とする座標で表すことができる。これ以降、元映像内の座標は大文字、撮像手段1で撮影した画像内の座標は小文字で表すことにする。
FIG. 11 shows an original video on the
まず、元映像の基準となる位置と、撮影画像の基準となる位置を決める。例えば、それぞれの中心を基準位置としても良いが、ここでは仮に、元映像の基準位置の座標を(X0,Y0)、撮影画像の基準位置の座標を(x0,y0)と表す。そして、観察者の顔が撮影画像の基準位置(x0,y0)にある場合、元映像の中の基準位置(X0,Y0)を中心とする領域を表示手段6に表示するものとする。表示する領域のサイズは、表示手段6の表示領域のサイズに合わせて適宜決めればよい。 First, a reference position for the original video and a reference position for the captured image are determined. For example, each center may be used as the reference position, but here, the coordinates of the reference position of the original video are represented as (X 0 , Y 0 ), and the coordinates of the reference position of the captured image are represented as (x 0 , y 0 ). . When the observer's face is at the reference position (x 0 , y 0 ) of the captured image, an area centering on the reference position (X 0 , Y 0 ) in the original video is displayed on the display means 6. And The size of the display area may be appropriately determined according to the size of the display area of the display means 6.
表示制御手段4は、顔検出手段3が撮影画像の中から検出した顔を囲む矩形の中心座標(xf,yf)と、矩形の大きさ(顔の大きさ)を表す値dfを受け取る。顔を囲む矩形は正方形でも長方形でもよいが、ここでは正方形として説明する。正方形の場合、一辺の長さをdfとする。長方形とする場合には、二辺の長さの和や矩形の面積などをdfとすれば良い。
Display control means 4, the center coordinates (x f, y f) of the rectangle surrounding the face is the
表示制御手段4は、元映像の中から表示手段6に表示する領域17の中心座標(X’,Y’)を式(1)に従い算出する。
X’=X0+α・(x0−xf)
Y’=Y0+β・(y0−yf)
…(1)
係数α、βの値は、例えば、α=1.0、β=−1.0とする。
The display control means 4 calculates the center coordinates (X ′, Y ′) of the
X ′ = X 0 + α · (x 0 −x f )
Y ′ = Y 0 + β · (y 0 −y f )
... (1)
The values of the coefficients α and β are, for example, α = 1.0 and β = −1.0.
それぞれの係数の符号は、撮影画像の方向によって決まる。例えば、撮像手段の撮影画像が図3、図12に示すように、左右反転している場合、上記のように、係数αを正の値とし、係数βを負の値とすると、観察者が移動した方向と相反する方向に元映像の表示領域が移動する。 The sign of each coefficient is determined by the direction of the captured image. For example, when the captured image of the imaging means is reversed left and right as shown in FIGS. 3 and 12, if the coefficient α is a positive value and the coefficient β is a negative value as described above, the observer The display area of the original video moves in a direction opposite to the moved direction.
それぞれの係数α、βの絶対値は、顔の移動量に対する表示映像の移動量の比や、元映像のサイズと撮像手段1で撮影した画像のサイズの比などにより適宜調整する。例えば、絶対値が「1」の場合、観察者の顔の検出位置が1画素変化したとき、元映像の表示領域も1画素変化する。 The absolute values of the coefficients α and β are appropriately adjusted depending on the ratio of the moving amount of the display image to the moving amount of the face, the ratio of the size of the original image and the size of the image taken by the image pickup means 1, and the like. For example, when the absolute value is “1”, when the detection position of the observer's face changes by one pixel, the display area of the original video also changes by one pixel.
ここで、以下のような配慮に基づいて係数の値を定めることとしても良い。即ち、映像情報提供手段7が提供した映像情報で表される映像を、図13で示すように、表示手段6の表示画面6aの背後に位置する仮想平面21上に表示したと仮定し、表示画面6aが透視可能な窓であると仮定した場合に、仮想平面21上の映像のうちの観察者HBに見える部分(観察者HBの位置に応じて上記見える部分は変化する)と概ね一致する部分を、映像処理手段5に選択させ、表示画面6aに表示させる。より具体的に言うと、表示制御手段4は、映像情報提供手段7が提供した映像情報で表される映像を、上記仮想平面上21に表示したと仮定し、観察者の顔HFの位置と、表示画面6aの中心とを結ぶ線が仮想平面21の交わる点を中心すると映像部分を、映像処理手段5に選択させる。
Here, the value of the coefficient may be determined based on the following consideration. That is, it is assumed that the video represented by the video information provided by the video information providing unit 7 is displayed on the
このような考えで処理を行なう場合において、係数α、βの絶対値を1とするのは、図13の仮想平面21と、表示画面6aまでの距離sbが、表示画面6aから観察者の顔HFまでの距離sfとが等しい場合に対応する。
なお、図13は、平面図であり、観察者の顔HFの位置と表示される映像部分につき、左右方向の関係を示すが、上下方向にも同様の関係がある。
In the case of processing based on such an idea, the absolute values of the coefficients α and β are set to 1 because the distance sb from the
FIG. 13 is a plan view showing the relationship between the position of the observer's face HF and the displayed video portion in the left-right direction, but the same relationship exists in the up-down direction.
このような配置において、例えば、図13に示すように、観察者の顔HFが、表示画面6aの中心6oの正面の位置P1(表示画面6aの中心を通り、表示画面6aに垂直な直線上の位置)にあるとき、観察者の顔HFと表示画面の中心6oとを結ぶ直線22と仮想平面21とが交わる点Q1を中心する映像部分R1が、映像処理手段5により選択されて、表示手段6の表示画面6aに表示される。図13では、上から見た図であり、映像部分R1が一次元的に見えるが、実際には、紙面に垂直な方向についても同様であり、みえる範囲は二次元的なものである。上記の映像部分R1は、位置P1にある顔HFと表示画面の縁6bとを結ぶ面23が仮想平面21と交わる線24を外縁とする領域と略一致する。
In such an arrangement, for example, as shown in FIG. 13, the observer's face HF is positioned on a straight line perpendicular to the
また、観察者の顔HFが、表示画面6aに向かって右側にずれた位置P2にあるとき、観察者の顔HFと表示画面の中心6oとを結ぶ線25と仮想平面21とが交わる点Q2を中心する映像部分R2が、映像処理手段5により選択されて、表示画面6aに表示される。上記の映像部分R2は、顔HFと表示画面の縁6bとを結ぶ面26が仮想平面21と交わる線27を外縁とする領域と略一致する。
When the observer's face HF is at a position P2 shifted to the right side toward the
以上のように構成することにより、観察者の顔移動する方向と相反する方向に、表示手段6に表示される映像が移動するため、観察者に、あたかも窓越しに外に広がる風景、光景を見ているかのような感覚を与える。 With the configuration described above, the image displayed on the display means 6 moves in a direction opposite to the direction in which the face of the observer moves, so that the observer can see a landscape and a scene spreading out through the window. Gives the feeling of watching.
表示制御手段4は更に、映像の表示倍率Z’を式(2)に従い算出する。
Z’=Z0+γ・(d0−df) …(2)
係数γの値は、例えば、0.02とする。
Z0、d0はそれぞれ基準とする倍率と顔の大きさである。倍率の基準は、例えば1.0とする。基準とする顔の大きさは撮影画像のサイズや、観察者と表示手段6の距離などに応じて決めればよいが、例えば、撮影画像の短辺の長さの1/3とする。
The display control means 4 further calculates a video display magnification Z ′ according to the equation (2).
Z ′ = Z 0 + γ · (d 0 −d f ) (2)
The value of the coefficient γ is, for example, 0.02.
Z 0 and d 0 are a reference magnification and a face size, respectively. The standard for magnification is 1.0, for example. The reference face size may be determined according to the size of the photographed image, the distance between the observer and the display means 6, and is, for example, 1 / the length of the short side of the photographed image.
これにより、顔の大きさを表すdfが基準d0より大きい場合は表示倍率Z’が低くなるため、表示画面6aのサイズが一定の場合、より広い範囲の映像が表示画面6aに表示される。逆に、顔の大きさを表すdfが基準d0より小さい場合は表示倍率Z’が高くなり、表示画面6aのサイズが一定の場合、より狭い範囲の映像が表示画面6aに表示される。
Thus, since d f representing the size of the face is larger than the reference d 0 is made lower display magnification Z ', if the size of the
つまり、観察者が表示画面6aに近づくと、近づく前と比較して、表示画面6aに表示される映像の範囲が広がる。その結果、観察者は、擬似的に視野が広がったように感じる。逆に、観察者が表示画面6aから遠ざかると、遠ざかる前と比較して、表示画面6aに表示される映像の範囲が狭まる。その結果、観察者は、擬似的に視野が狭まったように感じる。
That is, when the observer approaches the
図14は、実施の形態1で、撮像手段1で撮影した画像から顔を検出し、検出結果に応じて元映像の表示内容を変更する処理を説明するフローチャートである。
FIG. 14 is a flowchart for describing processing for detecting a face from an image captured by the
プログラムが起動すると、まず、表示制御手段4で使用する元映像の表示位置X’、Y’と表示倍率Z’を初期化する(ステップST1)。次に、顔検出手段3は撮像手段1で撮影した画像をフレームメモリ2から読み出し(ステップST2)、画像の中から観察者の顔を検出する(ステップST3)。顔を検出した場合には(ST4でYes)、パラメータX’、Y’、Z’を更新する(ST5、ST6)が、検出しなかった場合には(ST4でNo)、パラメータの更新は行わない。制御手段5は、パラメータに応じて元映像を表示手段6に表示する(ステップST7)。以降、終了の要求が発生しない限り、ステップST2〜ST7の処理が繰り返し実行される。 When the program is started, first, the display positions X 'and Y' and the display magnification Z 'used for the display control means 4 are initialized (step ST1). Next, the face detection means 3 reads the image taken by the imaging means 1 from the frame memory 2 (step ST2), and detects the observer's face from the image (step ST3). If a face is detected (Yes in ST4), parameters X ′, Y ′, and Z ′ are updated (ST5 and ST6). If no face is detected (No in ST4), the parameters are updated. Absent. The control means 5 displays the original video on the display means 6 according to the parameters (step ST7). Thereafter, unless a termination request is generated, the processes of steps ST2 to ST7 are repeatedly executed.
以上のように、本実施の形態によれば、表示画面6aの観察者HBが位置を変えると、それまで見えなかった範囲の映像が表示画面6aに表示されることで、視野が変わり、観察者HBに、あたかも窓越しに外に広がる景色の一部を見ているかのような感覚を与える。
As described above, according to the present embodiment, when the observer HB of the
また、観察者HBの動きに応じて、表示画面に表示される映像を変化させることにより、表示映像の奥行き感を与えることができる。 Further, by changing the image displayed on the display screen according to the movement of the observer HB, it is possible to give a sense of depth to the display image.
この場合、元映像が静止画であっても、観察者の位置の変化に応じて表示画面に表示される部分が変化するので、窓越しの外の風景を見ている感覚を与えることができる。静止画を用いる場合には、映像情報提供手段7として簡易なものを用いることができる。また、元映像として動画を用いて、時間とともにゆっくりと変化する風景、光景(空の色の変化、雲の流れ、木の葉のゆれ、鳥の飛ぶ様、人や車の動き)などを表すこととしても良い。逆に動いている乗り物の窓から外を眺めているときのような、過ぎて行く風景を表す映像を元映像とすることとしても良い。 In this case, even if the original image is a still image, the portion displayed on the display screen changes according to the change in the position of the observer, so that it is possible to give a feeling of looking at the scenery outside the window. . When a still image is used, a simple image information providing unit 7 can be used. In addition, using moving images as the original video, the scenery slowly changes over time, scenes (sky color change, cloud flow, tree fluctuation, bird flying, movement of people and cars), etc. Also good. On the other hand, an image representing a passing landscape, such as when looking out from the window of a moving vehicle, may be used as the original image.
実施の形態2.
次に実施の形態2の映像表示システムを説明する。実施の形態2のシステムの全体的構成は、図1と同様であるが、表示制御手段4の動作が異なる。即ち、実施の形態1において、表示画面6aからの観察者に距離に応じて、元画像のうちの、表示画面6aに表示される部分(領域)の大きさが変えることしているが、その場合に、表示制御手段4として以下のようにして、表示される部分の大きさを変えるものを用いる。即ち、表示制御手段4として、例えば図15に示すように、映像情報提供手段7が提供した映像情報で表される映像を、表示手段6の表示画面6aの背後に位置する仮想平面21上に表示したと仮定し、表示画面6aが透視可能な窓であると仮定した場合に、仮想平面21上の映像のうちの、観察者HBに見える部分(観察者の顔の位置におうじて変化する)と概ね一致する部分が、表示画面6aの全体に表示されるように、映像処理手段5は映像の表示倍率を定めるものを用いる。この場合、観察者の位置は、撮像手段1で検出された観察者の顔の大きさに基づいて推定する。即ち、顔が大きければ、観察者はより近くにいると推定(判断)し、逆に顔が小さければ、観察者はより遠くにいると推定(判断)する。
Next, a video display system according to the second embodiment will be described. The overall configuration of the system of the second embodiment is the same as that of FIG. 1, but the operation of the display control means 4 is different. That is, in the first embodiment, the size of the portion (area) displayed on the
例えば、観察者の顔HFが符号P3で示すように表示画面6aから比較的遠い位置(距離sf3の位置)にあるときは、仮想平面21上の映像のうちのより狭い映像部分R3が表示画面6aに表示され、観察者HBが符号P4で示すように表示画面6aから比較的近い位置(距離sf4の位置)にあるときは、仮想平面21上の映像のうちのより広い映像部分R4が表示画面6aに表示されるように表示倍率が定められる。
For example, when the observer's face HF is at a position relatively far from the
上記の映像部分R3は、位置P3にある顔HFと表示画面の縁6bとを結ぶ面33が仮想平面21と交わる線34を外縁とする領域と略一致し、上記の映像部分R4は、位置P4にある顔HFと表示画面の縁6bとを結ぶ面36が仮想平面21と交わる線37を外縁とする領域と略一致する。
The video portion R3 substantially coincides with a region where the surface 33 connecting the face HF at the position P3 and the
この場合、表示倍率Z’を求めるための計算式として、上記の式(2)の代わりに下記の式(3)を用いても良い。
Z’=Z0×γ・(d0/df) …(3)
この場合係数γの値は、例えば、1とする。
係数が1であることは、図13の仮想平面21と、表示画面6aまでの距離が、表示画面6aから観察者HBの顔までの距離とが等しい場合に対応する。
In this case, the following formula (3) may be used instead of the above formula (2) as a calculation formula for obtaining the display magnification Z ′.
Z ′ = Z 0 × γ · (d 0 / d f ) (3)
In this case, the value of the coefficient γ is set to 1, for example.
The coefficient of 1 corresponds to the case where the distance from the
実施の形態3.
次に実施の形態3の映像表示システムを説明する。実施の形態3のシステムの全体的構成は、図1と同様であるが、表示制御手段4が検出された顔の大きさに応じて、表示画面6aの表示領域6eの大きさを制御する点が異なる。これは、実施の形態1では、映像の表示倍率を変えることで視野の広がり、狭まりを表現するのに対し、実施の形態3では、表示手段6の表示画面6aのうちの、外縁6bに隣接する枠状の周辺部を非表示部分6dとし、この非表示部分6dの幅を変化させることで、表示領域6eの大きさを変え、これにより、視野の広がり、狭まりを表現する。
Next, the video display system of
以下の説明では、表示倍率は観察者の位置に関わらず一定として説明するが、表示画面(の表示領域)のサイズを変更すると共に、表示倍率を変更するようにしても差し支えない。なお、撮像手段1は、実施の形態3では、表示手段6の上側に設置されている。
In the following description, the display magnification is described as being constant regardless of the position of the observer. However, the size of the display screen (display area) may be changed and the display magnification may be changed. In the third embodiment, the
図16、図17は観察者と表示手段6の間の距離の変化に伴う、表示画面6aの表示領域6eの大きさの変化を示している。図16に示すように、観察者HBが表示手段6の表示画面6aに近づくと、表示手段6の非表示部分6dの幅が狭くなり、表示画面6aの表示領域6eが広がる。図17に示すように、観察者HBが表示手段6から遠ざかると、表示手段6の非表示部分6dの幅が大きくなり、表示領域6eが狭まる。
このように、観察者HBの位置に応じて表示領域6eのサイズを変化させることにより、窓から見える景色の変化を模擬することができる。
16 and 17 show changes in the size of the
In this way, by changing the size of the
表示領域6eの大きさの決定方法について述べる。表示制御手段4は、表示画面6aの表示領域6eの縦方向のサイズW’、横方向のサイズH’を式(4)に従い算出する。
W’=W0・δ・(df/d0)
Z’=H0・δ・(df/d0)
…(4)
A method for determining the size of the
W ′ = W 0 · δ · (d f / d 0 )
Z ′ = H 0 · δ · (d f / d 0 )
... (4)
係数δは例えば1.0とする。W0、H0はそれぞれ基準となる表示領域6eのサイズである。観察者の顔の大きさdfと基準d0の比に応じて表示領域6eのサイズが変わる。つまり、観察者の顔が大きくなると表示領域6eのサイズが大きくなり、観察者の顔が小さくなると表示領域6eのサイズも小さくなる。これにより、観察者が表示手段6に近づくにつれて表示領域6eのサイズが大きくなり、観察者が表示手段6から遠ざかるにつれて表示領域6eのサイズが小さくなる。そのため、観察者が表示手段6に近づくと視野が広がり、表示手段6から遠ざかると視野が狭まって見える。
The coefficient δ is, for example, 1.0. W 0 and H 0 are the sizes of the
図18は、実施の形態3で、撮像手段1で撮影した画像から顔を検出し、検出結果に応じて映像の表示内容を変更する処理を説明するフローチャートである。
プログラムが起動すると、まず、表示制御手段4で使用する映像の表示位置と表示倍率を初期化する(ステップST11)。次に、顔検出手段3は撮像手段1で撮影した画像をフレームメモリ2から読み出し(ステップST12)、画像の中から観察者の顔を検出する(ステップST13)。顔を検出した場合には(ST14でYes)、パラメータX’、Y’、W’、H’を更新する(ST15、ST16)が、検出しなかった場合には(ST14でNo)、パラメータの更新は行わない。制御手段5は、パラメータに応じて映像を表示手段6に表示する(ステップST17)。以降、終了の要求が発生しない限り、ステップST12〜ST17の処理が繰り返し実行される。
FIG. 18 is a flowchart for explaining processing for detecting a face from an image captured by the
When the program is started, first, the display position and display magnification of the video used by the display control means 4 are initialized (step ST11). Next, the face detection means 3 reads the image taken by the imaging means 1 from the frame memory 2 (step ST12), and detects the observer's face from the image (step ST13). If a face is detected (Yes in ST14), the parameters X ′, Y ′, W ′, and H ′ are updated (ST15 and ST16). If no face is detected (No in ST14), the parameter Do not update. The control means 5 displays the video on the display means 6 according to the parameters (step ST17). Thereafter, unless a termination request is generated, the processes of steps ST12 to ST17 are repeatedly executed.
上記の実施の形態1、2において、表示手段6は、矩形の表示画面6aを有し、また実施の形態3において表示手段6が矩形の表示領域6eを有するが、これらの表示画面6aや表示領域6eは、建物や乗り物の窓に模した他の形状、例えば円形或いはアーチ型のものであっても良い。
In the first and second embodiments, the display means 6 has the
上記の実施の形態1〜3の映像表示システムは、立体視用に特別に開発した特殊な装置を用いる必要がないので、容易に実現することが出来る。
また、観察者が、位置を検出するための装置等を装着する必要がなく、また、脳内で視差画像から立体画像を再構成する必要もないので、観察者にとって使用性に優れたシステムを提供できる。
The video display systems of
In addition, since it is not necessary for the observer to wear a device or the like for detecting the position, and it is not necessary to reconstruct a stereoscopic image from the parallax image in the brain, a system excellent in usability for the observer is provided. Can be provided.
1 撮像手段、 2 フレームメモリ、 3 顔検出部、 4 表示制御手段、 6 表示手段、 6a 表示画面、 6b 外縁、 7 映像情報提供手段、 8 コンピュータ、 12 撮影画像、 13a 正面に位置する観察者、 14a 右側に位置する観察者、 13b,14b 撮影画像中の観察者の画像、 15 正面からの観察者に対する表示領域、 16 右側からの観察者に対する表示領域、 HB 観察者、 HF 顔。
DESCRIPTION OF
Claims (12)
映像情報を提供する映像情報提供手段と、
前記映像情報提供手段が提供した映像情報で表される映像の一部分を選択して前記表示手段に表示させる映像処理手段と、
前記表示手段の近傍に配置され、前記表示手段で表示される映像の観察者を撮影する撮像手段と、
前記撮像手段による撮影で得られた撮影画像を解析して、前記観察者の顔の、前記表示画面に対する相対的位置を検出する顔検出手段と、
前記顔検出手段で検出された前記顔の位置に基づいて、前記映像処理手段における選択を制御する表示制御手段と
を備えた映像表示システム。 Display means having a display screen;
Video information providing means for providing video information;
Video processing means for selecting and displaying on the display means a part of the video represented by the video information provided by the video information providing means;
An imaging unit that is arranged in the vicinity of the display unit and captures an image viewer displayed on the display unit;
Analyzing a captured image obtained by imaging by the imaging unit, and detecting a relative position of the face of the observer with respect to the display screen;
A video display system comprising: display control means for controlling selection in the video processing means based on the position of the face detected by the face detection means.
前記顔検出手段は、前記撮像手段による前記撮影画像中の前記顔の位置を検出し、前記撮影画像中の前記顔の位置に基づいて、前記顔の、前記表示画面に対する位置を求める
ことを特徴とする請求項1に記載の映像表示システム。 The imaging means is provided at a position adjacent to an outer edge of the display screen of the display means, and is directed in a direction in which an observer of the display screen is normally positioned, and takes a photographed image of the photographed observer Forming,
The face detection unit detects a position of the face in the captured image by the imaging unit, and obtains a position of the face with respect to the display screen based on the position of the face in the captured image. The video display system according to claim 1.
前記顔検出手段は、前記撮像手段による前記撮影画像中の前記顔の大きさを検出し、前記撮影画像中の前記顔の大きさに基づいて、前記顔の、前記表示画面からの距離を求める
ことを特徴とする請求項1に記載の映像表示システム。 The imaging means is provided at a position adjacent to an outer edge of the display screen of the display means, and is directed in a direction in which an observer of the display screen is normally positioned, and takes a photographed image of the photographed observer Forming,
The face detection unit detects the size of the face in the captured image by the imaging unit, and obtains the distance of the face from the display screen based on the size of the face in the captured image. The video display system according to claim 1.
前記観察者の顔を囲む矩形を求め、
前記矩形の中心を顔位置、前記矩形の大きさを顔の大きさとして検出することを特徴とする請求項3に記載の映像表示システム。 The face detection means includes
A rectangle surrounding the face of the observer,
The video display system according to claim 3, wherein a center of the rectangle is detected as a face position and a size of the rectangle is detected as a face size.
前記顔を囲む矩形が正方形の場合は矩形の一辺の長さを前記顔の大きさとし、前記顔を囲む矩形が長方形の場合は矩形の二辺の長さの和、あるいは矩形の面積を前記顔の大きさとして検出することを特徴とする請求項4に記載の映像表示システム。 The face detection means includes
When the rectangle surrounding the face is a square, the length of one side of the rectangle is the size of the face, and when the rectangle surrounding the face is a rectangle, the sum of the lengths of the two sides of the rectangle or the area of the rectangle is the face. The video display system according to claim 4, wherein the video display system is detected as a size of the video.
前記映像情報提供手段が提供した映像の基準位置に、
前記撮影画像の基準位置と前記顔位置の差に定数を掛けた値を加算し、
前記映像情報提供手段が提供した映像のうちの、前記表示手段に表示させる映像部分の中心の位置を算出することを特徴とする請求項1に記載の映像表示システム。 The display control means includes
In the reference position of the video provided by the video information providing means,
Add a value obtained by multiplying the difference between the reference position of the captured image and the face position by a constant,
2. The video display system according to claim 1, wherein a position of a center of a video portion to be displayed on the display unit is calculated from the video provided by the video information providing unit.
前記表示制御手段は、前記顔検出手段で検出された前記顔の大きさに応じて、前記表示倍率を変更する
ことを特徴とする請求項3に記載の映像表示システム。 The video processing means is capable of changing a video display magnification,
The video display system according to claim 3, wherein the display control unit changes the display magnification according to the size of the face detected by the face detection unit.
基準となる表示倍率に、前記観察者の顔の大きさと所定の基準値の差に定数を掛けた値を加算し、前記映像の表示倍率を算出することを特徴とする請求項9に記載の映像表示システム。 The display control means includes
10. The display magnification of the image is calculated by adding a value obtained by multiplying a difference between the size of the observer's face and a predetermined reference value by a constant to a reference display magnification. Video display system.
前記表示制御手段は、前記顔検出手段で検出された前記顔の大きさに応じて、前記表示領域の大きさを変化させる
ことを特徴とする請求項3に記載の映像表示システム。 The video processing means can change the size of the video display area of the display screen of the display means,
The video display system according to claim 3, wherein the display control unit changes the size of the display area according to the size of the face detected by the face detection unit.
基準となる表示領域のサイズに、前記観察者の顔の大きさと所定の基準値の比に定数を掛けた値を乗じ、前記表示手段の表示領域のサイズを算出することを特徴とする請求項11に記載の映像表示システム。 The display control means includes
The size of the display area of the display means is calculated by multiplying the size of the reference display area by a value obtained by multiplying a ratio of the size of the observer's face and a predetermined reference value by a constant. 11. The video display system according to 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005238184A JP2007052304A (en) | 2005-08-19 | 2005-08-19 | Video display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005238184A JP2007052304A (en) | 2005-08-19 | 2005-08-19 | Video display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007052304A true JP2007052304A (en) | 2007-03-01 |
Family
ID=37916790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005238184A Pending JP2007052304A (en) | 2005-08-19 | 2005-08-19 | Video display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007052304A (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102099A (en) * | 2005-10-07 | 2007-04-19 | Sony Corp | Electronic equipment, image processing method, and program |
JP2008097599A (en) * | 2006-10-11 | 2008-04-24 | Internatl Business Mach Corp <Ibm> | Method and system of virtual window with simulated parallax and field of view change, and recording medium recording computer program (virtual window with simulated parallax and field of view change) |
JP2009301439A (en) * | 2008-06-16 | 2009-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Information presentation system, information presentation method, information presentation program and recording medium |
JP2010107773A (en) * | 2008-10-30 | 2010-05-13 | Toshiba Corp | Display control device and display control method |
JP2011108028A (en) * | 2009-11-18 | 2011-06-02 | Fujifilm Corp | Image reproduction device, imaging device and image reproduction method |
JP2011123501A (en) * | 2010-12-28 | 2011-06-23 | Sony Ericsson Mobilecommunications Japan Inc | Display device, display control method and display control program |
JP2011123349A (en) * | 2009-12-11 | 2011-06-23 | Mitsubishi Electric Corp | Information display processing device |
JP2011151598A (en) * | 2010-01-21 | 2011-08-04 | Konami Digital Entertainment Co Ltd | Image display device, image processing method, and program |
JP2012080193A (en) * | 2010-09-30 | 2012-04-19 | Nec Casio Mobile Communications Ltd | Portable terminal, and camera magnification adjustment method and program |
CN102592569A (en) * | 2011-01-10 | 2012-07-18 | 联想(北京)有限公司 | Electronic equipment and display method |
JP2012155624A (en) * | 2011-01-27 | 2012-08-16 | Canon Inc | Image output device, image display device, image output method, program and storage medium |
WO2012124150A1 (en) * | 2011-03-11 | 2012-09-20 | オムロン株式会社 | Video display device |
WO2012147363A1 (en) * | 2011-04-28 | 2012-11-01 | パナソニック株式会社 | Image generation device |
JP2012234447A (en) * | 2011-05-06 | 2012-11-29 | Toshiba Corp | Medical image processor |
WO2013021864A1 (en) * | 2011-08-09 | 2013-02-14 | シャープ株式会社 | Display device |
EP2693758A2 (en) | 2012-07-31 | 2014-02-05 | NLT Technologies, Ltd. | Stereoscopic image display device, image processing device, and stereoscopic image processing method |
JP2016066918A (en) * | 2014-09-25 | 2016-04-28 | 大日本印刷株式会社 | Video display device, video display control method and program |
JP2018157331A (en) * | 2017-03-16 | 2018-10-04 | 株式会社スクウェア・エニックス | Program, recording medium, image generating apparatus, image generation method |
WO2019026184A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
WO2019026183A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
JP2019144438A (en) * | 2018-02-21 | 2019-08-29 | いすゞ自動車株式会社 | Display control apparatus and display control method |
JP2020052650A (en) * | 2018-09-26 | 2020-04-02 | いすゞ自動車株式会社 | Display control device and display control method |
JP2020068514A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7118383B1 (en) | 2022-04-25 | 2022-08-16 | ナーブ株式会社 | Display system, display method, and display program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744143A (en) * | 1993-07-27 | 1995-02-14 | Canon Inc | Information processor |
JPH09138637A (en) * | 1995-11-13 | 1997-05-27 | Mitsubishi Heavy Ind Ltd | Pseudo visibility device |
JP2000259856A (en) * | 1999-03-09 | 2000-09-22 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for displaying three-dimensional computer graphics |
JP2004193933A (en) * | 2002-12-11 | 2004-07-08 | Canon Inc | Image enlargement display method, its apparatus, and medium program |
-
2005
- 2005-08-19 JP JP2005238184A patent/JP2007052304A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0744143A (en) * | 1993-07-27 | 1995-02-14 | Canon Inc | Information processor |
JPH09138637A (en) * | 1995-11-13 | 1997-05-27 | Mitsubishi Heavy Ind Ltd | Pseudo visibility device |
JP2000259856A (en) * | 1999-03-09 | 2000-09-22 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for displaying three-dimensional computer graphics |
JP2004193933A (en) * | 2002-12-11 | 2004-07-08 | Canon Inc | Image enlargement display method, its apparatus, and medium program |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007102099A (en) * | 2005-10-07 | 2007-04-19 | Sony Corp | Electronic equipment, image processing method, and program |
JP2008097599A (en) * | 2006-10-11 | 2008-04-24 | Internatl Business Mach Corp <Ibm> | Method and system of virtual window with simulated parallax and field of view change, and recording medium recording computer program (virtual window with simulated parallax and field of view change) |
JP2009301439A (en) * | 2008-06-16 | 2009-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Information presentation system, information presentation method, information presentation program and recording medium |
JP2010107773A (en) * | 2008-10-30 | 2010-05-13 | Toshiba Corp | Display control device and display control method |
JP2011108028A (en) * | 2009-11-18 | 2011-06-02 | Fujifilm Corp | Image reproduction device, imaging device and image reproduction method |
JP2011123349A (en) * | 2009-12-11 | 2011-06-23 | Mitsubishi Electric Corp | Information display processing device |
JP2011151598A (en) * | 2010-01-21 | 2011-08-04 | Konami Digital Entertainment Co Ltd | Image display device, image processing method, and program |
JP2012080193A (en) * | 2010-09-30 | 2012-04-19 | Nec Casio Mobile Communications Ltd | Portable terminal, and camera magnification adjustment method and program |
JP2011123501A (en) * | 2010-12-28 | 2011-06-23 | Sony Ericsson Mobilecommunications Japan Inc | Display device, display control method and display control program |
CN102592569A (en) * | 2011-01-10 | 2012-07-18 | 联想(北京)有限公司 | Electronic equipment and display method |
JP2012155624A (en) * | 2011-01-27 | 2012-08-16 | Canon Inc | Image output device, image display device, image output method, program and storage medium |
WO2012124150A1 (en) * | 2011-03-11 | 2012-09-20 | オムロン株式会社 | Video display device |
JP2012191483A (en) * | 2011-03-11 | 2012-10-04 | Omron Corp | Video display device |
CN103415882A (en) * | 2011-03-11 | 2013-11-27 | 欧姆龙株式会社 | Video display device |
CN103415882B (en) * | 2011-03-11 | 2016-01-20 | 欧姆龙株式会社 | Video display devices |
WO2012147363A1 (en) * | 2011-04-28 | 2012-11-01 | パナソニック株式会社 | Image generation device |
CN103026388A (en) * | 2011-04-28 | 2013-04-03 | 松下电器产业株式会社 | Image generation device |
JP2012234447A (en) * | 2011-05-06 | 2012-11-29 | Toshiba Corp | Medical image processor |
US9020219B2 (en) | 2011-05-06 | 2015-04-28 | Kabushiki Kaisha Toshiba | Medical image processing apparatus |
WO2013021864A1 (en) * | 2011-08-09 | 2013-02-14 | シャープ株式会社 | Display device |
EP2693758A2 (en) | 2012-07-31 | 2014-02-05 | NLT Technologies, Ltd. | Stereoscopic image display device, image processing device, and stereoscopic image processing method |
US9398290B2 (en) | 2012-07-31 | 2016-07-19 | Nlt Technologies, Ltd. | Stereoscopic image display device, image processing device, and stereoscopic image processing method |
JP2016066918A (en) * | 2014-09-25 | 2016-04-28 | 大日本印刷株式会社 | Video display device, video display control method and program |
JP2018157331A (en) * | 2017-03-16 | 2018-10-04 | 株式会社スクウェア・エニックス | Program, recording medium, image generating apparatus, image generation method |
JPWO2019026184A1 (en) * | 2017-08-01 | 2020-03-26 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation apparatus and image generation method |
JP7057785B2 (en) | 2017-08-01 | 2022-04-20 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator and image generation method |
WO2019026388A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
WO2019026183A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
JPWO2019026388A1 (en) * | 2017-08-01 | 2020-03-19 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation apparatus and image generation method |
WO2019026184A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
US11050993B2 (en) | 2017-08-01 | 2021-06-29 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
US10999567B2 (en) | 2017-08-01 | 2021-05-04 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
JP2019144438A (en) * | 2018-02-21 | 2019-08-29 | いすゞ自動車株式会社 | Display control apparatus and display control method |
JP2020052650A (en) * | 2018-09-26 | 2020-04-02 | いすゞ自動車株式会社 | Display control device and display control method |
JP2020068514A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7296712B2 (en) | 2018-10-26 | 2023-06-23 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7118383B1 (en) | 2022-04-25 | 2022-08-16 | ナーブ株式会社 | Display system, display method, and display program |
JP2023161493A (en) * | 2022-04-25 | 2023-11-07 | ナーブ株式会社 | Display system, display method, and display program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007052304A (en) | Video display system | |
US9451242B2 (en) | Apparatus for adjusting displayed picture, display apparatus and display method | |
US8189035B2 (en) | Method and apparatus for rendering virtual see-through scenes on single or tiled displays | |
JP4793451B2 (en) | Signal processing apparatus, image display apparatus, signal processing method, and computer program | |
JP6644371B2 (en) | Video display device | |
JP5183277B2 (en) | Stereoscopic image display device | |
US20130113701A1 (en) | Image generation device | |
EP2421268A2 (en) | Method for processing images in display device outputting 3-dimensional contents and display using the same | |
AU2018249563B2 (en) | System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display | |
US11659158B1 (en) | Frustum change in projection stereo rendering | |
WO2013191120A1 (en) | Image processing device, method, and program, and storage medium | |
JP2011010126A (en) | Image processing apparatus, and image processing method | |
US9918066B2 (en) | Methods and systems for producing a magnified 3D image | |
CN109799899B (en) | Interaction control method and device, storage medium and computer equipment | |
JP6963399B2 (en) | Program, recording medium, image generator, image generation method | |
TWI589150B (en) | Three-dimensional auto-focusing method and the system thereof | |
US20190281280A1 (en) | Parallax Display using Head-Tracking and Light-Field Display | |
US20140049540A1 (en) | Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device | |
TWI500314B (en) | A portrait processing device, a three-dimensional portrait display device, and a portrait processing method | |
JP2006267767A (en) | Image display device | |
KR101172507B1 (en) | Apparatus and Method for Providing 3D Image Adjusted by Viewpoint | |
KR101779423B1 (en) | Method and apparatus for processing image | |
US9185399B2 (en) | Stereoscopic video receiver | |
JP2011176822A (en) | Image processing apparatus, 3d display apparatus, and image processing method | |
JP4249187B2 (en) | 3D image processing apparatus and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110809 |