JP2013055664A - Video processing apparatus and video processing method - Google Patents
Video processing apparatus and video processing method Download PDFInfo
- Publication number
- JP2013055664A JP2013055664A JP2012201366A JP2012201366A JP2013055664A JP 2013055664 A JP2013055664 A JP 2013055664A JP 2012201366 A JP2012201366 A JP 2012201366A JP 2012201366 A JP2012201366 A JP 2012201366A JP 2013055664 A JP2013055664 A JP 2013055664A
- Authority
- JP
- Japan
- Prior art keywords
- viewer
- viewing zone
- video
- parallax
- viewing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Description
本発明の実施形態は、映像処理装置および映像処理方法に関する。 Embodiments described herein relate generally to a video processing apparatus and a video processing method.
近年、視聴者が特殊なメガネを使用せずに裸眼で立体映像を見ることができる立体映像表示装置(いわゆる裸眼3Dテレビ)が普及しつつある。この立体映像表示装置は、視点の異なる複数の画像を表示する。そして、それらの画像の光線は、例えばパララックスバリア、レンチキュラレンズなどによって出力方向を制御され、視聴者の両眼に導かれる。
視聴者の位置が適切であれば、視聴者は、左目と右目とで異なる視差画像を見ることになるため、映像を立体的に認識することができる。
In recent years, stereoscopic image display devices (so-called naked-
If the viewer's position is appropriate, the viewer sees different parallax images for the left eye and the right eye, and thus can recognize the image in three dimensions.
しかしながら、裸眼3Dテレビでは、視聴者の位置によっては、映像が立体的に見えないという問題がある。
However, with a naked-
視聴者の位置に応じて適切に立体映像を表示することが可能な映像処理装置および映像処理方法を提供する。 Provided are a video processing device and a video processing method capable of appropriately displaying a stereoscopic video in accordance with the position of a viewer.
実施形態によれば、視聴者位置検出部と、視域制御部と、を備える映像処理装置が提供される。前記視聴者位置検出部は、撮影された映像を用いて視聴者の位置を検出する。前記視域制御部は、前記視聴者位置検出部が、視聴者の位置を検出できた場合には、検出された位置に応じて、表示部に表示される複数の視差画像を立体的に見ることが可能な視域を設定し、視聴者の位置を検出できない場合には、予め定められた設定に基づいて前記視域を設定する。 According to the embodiment, a video processing apparatus including a viewer position detection unit and a viewing zone control unit is provided. The viewer position detection unit detects the position of the viewer using the captured video. When the viewer position detection unit can detect the viewer's position, the viewing zone control unit stereoscopically views a plurality of parallax images displayed on the display unit according to the detected position. When the viewer can detect the position of the viewer, the viewing zone is set based on a predetermined setting.
以下、実施形態について、図面を参照しながら具体的に説明する。まずは、視域制御機能の概要について説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings. First, an overview of the viewing zone control function will be described.
図1は、視域制御機能を有する映像表示装置100の外観図であり、図2は、その概略構成を示すブロック図である。映像表示装置100は、液晶パネル1と、レンチキュラレンズ2と、カメラ3と、受光部4と、コントローラ10とを備えている。
FIG. 1 is an external view of a
液晶パネル(表示部)1は、例えば55インチサイズのパネルであり、水平方向に11520(=1280*9)個、垂直方向に720個の画素が配置される。また、各画素内には、3つのサブピクセル、すなわち、Rサブピクセル、GサブピクセルおよびBサブピクセルが垂直方向に形成されている。液晶パネル1には、背面に設けられるバックライト装置(不図示)から光が照射される。各画素はコントローラ10から供給される視差画像信号(後述)に応じた輝度の光を透過させる。
The liquid crystal panel (display unit) 1 is, for example, a 55-inch panel, and 11520 (= 1280 * 9) pixels in the horizontal direction and 720 pixels in the vertical direction are arranged. In each pixel, three subpixels, that is, an R subpixel, a G subpixel, and a B subpixel are formed in the vertical direction. The
レンチキュラレンズ(開口制御部)2は液晶パネル1の水平方向に沿って配置される複数の凸部を有し、その数は液晶パネル1の水平方向画素数の1/9である。そして、水平方向に配置される9個の画素につき1つの凸部が対応するように、レンチキュラレンズ2は液晶パネル1の表面に貼り付けられている。各画素を透過した光は凸部の頂点付近から指向性を持って特定の方向へ出力される。
The lenticular lens (aperture control unit) 2 has a plurality of convex portions arranged along the horizontal direction of the
本実施形態の液晶パネル1は、3視差以上の多視差方式(インテグラルイメージング方式)または2視差方式で、立体映像を表示することができ、この他に通常の2次元映像も表示可能である。
The
以下の説明では、レンチキュラレンズ2の各凸部に対応して9個の画素を設けて、9視差の多視差方式を採用可能な例を説明する。多視差方式では、各凸部に対応する9個の画素にそれぞれ第1〜第9視差画像を表示する。第1〜第9視差画像とは、液晶パネル1の水平方向に沿って並ぶ9つの視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で第1〜第9視差画像のうちの1つの視差画像を、右目で他の1つの視差画像をそれぞれ見ることにより、映像を立体視できる。多視差方式によると、視差の数を増やすほど、視域を広げることができる。視域とは、液晶パネル1の前方から液晶パネル1を見たときに映像を立体視可能な領域をいう。
In the following description, an example in which nine pixels are provided corresponding to each convex portion of the
一方、2視差方式では、各凸部に対応する9個の画素のうちの4個に右目用視差画像を、他の5個に左目用視差画像をそれぞれ表示する。左目用および右目用視差画像とは、水平方向に並ぶ2つの視点のうち、左側の視点および右側の視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で左目用視差画像を、右目で右目用視差画像をそれぞれ見ることにより、映像を立体視できる。2視差方式によると、表示される映像の立体感が多視差方式よりも得られやすくなるが、多視差方式に比べて視域が狭くなる。
On the other hand, in the 2-parallax method, the right-eye parallax image is displayed on four of the nine pixels corresponding to each convex portion, and the left-eye parallax image is displayed on the other five. The left-eye and right-eye parallax images are images in which the subject is viewed from the left viewpoint and the right viewpoint among the two viewpoints arranged in the horizontal direction. The viewer can stereoscopically view the video through the
なお、液晶パネル1は各凸部に対応する9個の画素に同一の画像を表示して、2次元画像を表示することもできる。
The
また、本実施形態では、レンチキュラレンズ2の凸部と表示される視差画像との相対的な位置関係、すなわち、各凸部に対応する9個の画素にどのように視差画像を表示するか、に応じて、視域を可変制御できるようにしている。以下、多視差方式を例に取って、視域の制御について説明する。
In the present embodiment, the relative positional relationship between the convex portion of the
図3は、液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。同図の網掛けの領域が視域を示しており、視域から液晶パネル1を見ると映像を立体視できる。他の領域は逆視やクロストークが発生する領域であり、映像を立体視するのが困難な領域である。
図3は、液晶パネル1とレンチキュラレンズ2との相対的な位置関係、より具体的には、液晶パネル1とレンチキュラレンズ2との距離、あるいは液晶パネル1とレンチキュラレンズ2との水平方向のずれ量によって、視域が変化する様子を示している。
FIG. 3 is a view of a part of the
3 shows the relative positional relationship between the
実際には、レンチキュラレンズ2は、液晶パネル1に高精度に位置合わせをして貼り付けられるため、液晶パネル1とレンチキュラレンズ2との相対的な位置を物理的に変更することは困難である。
Actually, since the
そこで、本実施形態では、液晶パネル1の各画素に表示される第1〜第9視差画像の表示位置をずらすことで、見かけ上、液晶パネル1とレンチキュラレンズ2との相対的な位置関係を変更し、これにより、視域の調整を行う。
Therefore, in the present embodiment, the relative positional relationship between the
例えば、各凸部に対応する9個の画素に第1〜第9視差画像をそれぞれ表示した場合(図3(a))に比べ、視差画像を全体に右側にずらして表示した場合(図3(b))、視域は左側に移動する。逆に、視差画像を全体に左側にずらして表示した場合、視域は右側に移動する。 For example, when the first to ninth parallax images are respectively displayed on nine pixels corresponding to the respective convex portions (FIG. 3A), the parallax images are displayed while being shifted to the right as a whole (FIG. 3). (B)), the viewing zone moves to the left. Conversely, when the parallax image is displayed shifted to the left as a whole, the viewing zone moves to the right.
また、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を外側に大きくずらして表示した場合(図3(c))、視域は液晶パネル1に近づく方向に移動する。なお、ずらす視差画像とずらさない視差画像との間の画素や、ずらす量が異なる視差画像間の画素は、周囲の画素に応じて適宜補間すればよい。また、図3(c)とは逆に、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を中心側に大きくずらして表示した場合、視域は液晶パネル1から遠ざかる方向に移動する。
Further, when the parallax image is not shifted in the vicinity of the center in the horizontal direction, and the parallax image is displayed with a larger shift toward the outside toward the outer side of the liquid crystal panel 1 (FIG. 3C), the viewing zone is closer to the
このように、視差画像の全体あるいは一部をずらして表示することにより、視域を液晶パネル1に対して左右方向あるいは前後方向に移動させることができる。図3では説明を簡略化するために視域を1つだけ示しているが、実際には複数の視域が存在し、これらは連動して移動する。視域は後述する図2のコントローラ10により制御される。
As described above, the viewing area can be moved in the left-right direction or the front-rear direction with respect to the
図1に戻り、カメラ3は、液晶パネル1の下部中央付近に、所定の仰角で取り付けられ、液晶パネル1の前方の所定の範囲を撮影する。撮影された映像はコントローラ10に供給され、視聴者の位置や視聴者の顔等、視聴者に関する情報を検出するために用いられる。カメラ3は、動画像と静止画像のどちらを撮影してもよい。
Returning to FIG. 1, the
受光部4は、例えば液晶パネル1の下部の左側に設けられる。そして、受光部4は視聴者が使用するリモコンから送信される赤外線信号を受信する。この赤外線信号は、立体映像を表示するか2次元映像を表示する、立体映像を表示する場合に多視差方式および2視差方式のいずれを採用するか、視域の制御を行うか否か、等を示す信号を含む。
The
次に、コントローラ10の構成要素の詳細について説明する。図2に示すように、コントローラ10は、チューナデコーダ11と、視差画像変換部12と、視聴者位置検出部13と、視域情報算出部14と、画像調整部15とを有する。コントローラ10は、例えば1つのIC(Integrated Circuit)として実装され、液晶パネル1の裏側に配置される。
もちろん、コントローラ10の一部をソフトウェアで実装してもよい。
Next, details of the components of the
Of course, a part of the
チューナデコーダ(受信部)11は入力される放送波を受信および選局し、符号化された映像信号を復号する。放送波に電子番組表(EPG)等のデータ放送の信号が重畳されている場合、チューナデコーダ11はこれを抽出する。あるいは、チューナデコーダ11は、放送波ではなく、光ディスク再生装置やパーソナルコンピュータ等の映像出力機器から符号化された映像信号を受信し、これを復号する。復号された信号はベースバンド映像信号とも呼ばれ、視差画像変換部12に供給される。なお、映像表示装置100が放送波を受信せず、専ら映像出力機器から受信する映像信号を表示する場合、チューナデコーダ11に代えて単に復号機能を有するデコーダを受信部として設けてもよい。
A tuner decoder (reception unit) 11 receives and selects an input broadcast wave and decodes an encoded video signal. When a data broadcast signal such as an electronic program guide (EPG) is superimposed on the broadcast wave, the
チューナデコーダ11が受信する映像信号は、2次元の映像信号であってもよいし、フレームパッキング(FP)、サイドバイサイド(SBS)あるいはトップアンドボトム(TAB)方式等で左目用および右目用の画像を含む3次元の映像信号であってもよい。また、映像信号は3視差以上の画像含む3次元の映像信号であってもよい。
The video signal received by the
視差画像変換部12は、映像を立体表示するために、ベースバンド映像信号を複数の視差画像信号に変換して画像調整部15に供給する。視差画像変換部12は、多視差方式と2視差方式のどちらを採用するかで、処理内容が異なる。また、ベースバンド映像信号が2次元の映像信号であるか、3次元の映像信号であるか、に応じて、視差画像変換部12の処理内容が異なる。
The parallax
2視差方式を採用する場合、視差画像変換部12は、左目用および右目用視差画像にそれぞれ対応する左目用および右目用視差画像信号を生成する。より具体的には以下のようにする。
When the two-parallax method is adopted, the parallax
2視差方式を採用し、かつ、左目用および右目用の画像を含む3次元映像信号が入力された場合、視差画像変換部12は液晶パネル1に表示可能な形式の左目用および右目用視差画像信号を生成する。また、3つ以上の画像を含む3次元映像信号が入力される場合、例えばそのうちの任意の2つを用いて、視差画像変換部12は左目用および右目用視差画像信号を生成する。
When a two-parallax method is adopted and a 3D video signal including a left-eye image and a right-eye image is input, the parallax
これに対し、2視差方式を採用し、かつ、視差情報を含まない2次元の映像信号が入力された場合、視差画像変換部12は、映像信号における各画素の奥行き値に基づいて、左目用および右目用視差画像信号を生成する。奥行き値は、各画素がどの程度液晶パネル1に対して手前または奥に見えるように表示するか、を示す値である。奥行き値は予め映像信号に付加されていてもよいし、映像信号の特徴に基づいて動き検出、構図識別および人間の顔検出等を行って奥行き値を生成してもよい。左目用視差画像では、手前に見える画素は奥に見える画素より右側にずれて表示される必要がある。そのため、視差画像変換部12は映像信号における手前に見える画素を右側にずらす処理を行って左目用視差画像信号を生成する。奥行き値が大きいほどずらす量を大きくする。
In contrast, when a two-dimensional parallax method is used and a two-dimensional video signal that does not include parallax information is input, the parallax
一方、多視差方式を採用する場合、視差画像変換部12は第1〜第9視差画像にそれぞれ対応する第1〜第9視差画像信号を生成する。より具体的には以下のようにする。
On the other hand, when the multi-parallax method is adopted, the parallax
多視差方式を採用し、かつ、2次元の映像信号または8視差以下の画像を含む3次元の映像信号が入力された場合、視差画像変換部12は、2次元の映像信号から左目用および右目用視差画像信号を生成するのと同様に奥行き情報に基づいて、第1〜第9視差画像信号を生成する。
When the multi-parallax method is adopted and a two-dimensional video signal or a three-dimensional video signal including an image of 8 parallax or less is input, the parallax
多視差方式を採用し、かつ、9視差の画像を含む3次元の映像信号が入力された場合、視差画像変換部12はその映像信号を用いて第1〜第9視差画像信号を生成する。
When a multi-parallax method is adopted and a three-dimensional video signal including an image of 9 parallax is input, the parallax
視聴者位置検出部13はカメラ3により撮影された映像を用いて視聴者の位置を検出し、その位置情報を視域情報算出部14に供給する。
The viewer
視聴者の位置情報は、例えば液晶パネル1の中央を原点とするX軸(水平方向)、Y軸(垂直方向)およびZ軸(液晶パネル1に対して直交する方向)上の位置として表される。より具体的には、視聴者位置検出部13は、まず、カメラ3により撮影された映像から顔を検出することにより視聴者を認識する。次いで、視聴者位置検出部13は映像における顔の位置からX軸およびY軸上の位置を検出し、顔の大きさからZ軸上の位置を検出する。視聴者が複数いる場合、視聴者位置検出部13は、予め定めた数、例えば10人分だけ視聴者の位置を検出するようにしてもよい。この場合、検出された顔の数が10より大きいときは、例えば液晶パネル1から近い、すなわち、Z軸上の位置が小さい順に10人の視聴者の位置を検出する。
The viewer's position information is represented as, for example, positions on the X axis (horizontal direction), Y axis (vertical direction), and Z axis (direction orthogonal to the liquid crystal panel 1) with the center of the
視域情報算出部14は、検出された視聴者の位置情報に応じて適切に視域が設定されるよう、制御パラメータ(例えば、図3で説明した視差画像をずらす量)を算出し、画像調整部15に供給する。
The viewing area
なお、位置検出モジュール13が視聴者の位置を検出する手法に特に制限はなく、カメラ3は赤外線カメラでもよいし、音波を用いて視聴者の位置を検出してもよい。
In addition, there is no restriction | limiting in particular in the method in which the
図4は、視域情報を算出する手法の一例を示す図である。視域情報算出部14は設定可能な視域のパターンをいくつか予め定めておく。そして、視域情報算出部14は、各視域について、視域と検出された視聴者とが重なる面積を算出し、その面積が最大となる視域を適切な視域と判断する。図4の例では、予め定めた図4(a)〜図4(e)の5つの視域(網掛けの領域)のパターンのうち、視域を液晶パネル1に向かって左側に設定する図4(b)において、視聴者20と視域とが重なる面積が最大となる。よって、視域情報算出部14は図4(b)の視域のパターンを適切な視域と判断する。この場合、図4(b)のパターンで視差画像を表示するための制御パラメータが図2の画像調整部15に供給される。
FIG. 4 is a diagram illustrating an example of a technique for calculating viewing zone information. The viewing zone
より詳しくは、所望の視域を設定するために、視域情報算出部14は、制御パラメータと、その制御パラメータで設定される視域とを対応付けた視域データベースを用いてもよい。視域情報算出部14は、視域データベースを検索することによって、選択された視聴者を収めることの可能な視域を見つけることができる。
More specifically, in order to set a desired viewing zone, the viewing zone
画像調整部(視域制御部)15は、視域を制御するために、算出された制御パラメータに応じて視差画像信号をずらしたり補間したりする調整を行った後に、液晶パネル1に供給する。液晶パネル1は調整された視差画像信号に対応する画像を表示する。
The image adjusting unit (viewing zone control unit) 15 supplies the
常時視聴者の位置を自動的に検出して上述したような視域を制御することにより、リアルタイムで視聴者にとって適切な視域が設定される。しかしながら、視聴者が静止して映像を見ている場合でも、映像表示装置100の前方で他人が移動すると、移動する人に合わせて視域が移動してしまうことがある。この場合、静止して映像を見ている視聴者にとっては映像が見づらくなる。
By appropriately detecting the viewer's position at all times and controlling the viewing zone as described above, a viewing zone appropriate for the viewer is set in real time. However, even when the viewer is standing still and watching the video, if the other person moves in front of the
そこで、視域制御モードとして、常時視聴者の位置を検出して自動的に視域を制御する「オートトラッキングモード」、および、特定のタイミング(後述)で視域を制御する「マニュアルトラッキングモード」のいずれかを視聴者が選択できるようにする。この選択は、例えばリモコンを用いて行うことができる。 Therefore, as the viewing zone control mode, the “auto tracking mode” that always detects the viewer's position and automatically controls the viewing zone, and the “manual tracking mode” that controls the viewing zone at a specific timing (described later). Allow viewers to select one of This selection can be performed using, for example, a remote controller.
図5は、映像表示装置100に信号を送信するリモコン(遠隔操作装置)20の一例を示す図である。リモコン20には、電源キー21、音量調整キー22、チャンネル選択キー23、メニューキー24、決定キー25、カーソルキー26、3Dキー27、トラッキングキー28等が設けられる。例えば、3Dキー27が押下されると、入力映像信号が2次元映像信号であるか3次元映像信号であるかに関わらず、液晶パネル1に立体映像を表示することを指示する信号が生成される。
FIG. 5 is a diagram illustrating an example of a remote controller (remote operation device) 20 that transmits a signal to the
メニューキー24、カーソルキー26および決定キー25等を操作して視域制御モード設定メニューを選択すると、視域制御モードを設定するためのOSD(On Screen Display)が表示される。
When the
図6は、視域制御モードを設定するためのOSDの一例を示す図である。図6(a)は、オートトラッキングモード上にカーソルがある状態を示しており、例えば「自動で視域制御を行います。」という説明が表示される。この状態で決定キー25を押下するとオートトラッキングモードに設定される。一方、図6(b)は、マニュアルトラッキングモード上にカーソルがある状態を示しており、例えば「自動で視域制御を行いません。」という説明が表示される。この状態で決定キー25を押下するとマニュアルトラッキングモードに設定される。
FIG. 6 is a diagram illustrating an example of an OSD for setting the viewing zone control mode. FIG. 6A shows a state where the cursor is on the auto-tracking mode, and for example, an explanation “automatic viewing zone control” is displayed. When the
なお、必ずしもリモコン20を用いる必要はなく、これらと同等のボタンが、例えば映像表示装置100の受光部4やカメラ3に隣接して設けられていてもよい。また、映像表示装置100がタブレット端末である場合など、タッチパネル機能を有する場合には、液晶パネル1にボタンを表示してユーザが設定できるようにしてもよい。
The
以下に説明する第1〜第3の実施形態はマニュアルトラッキングモードに関する。マニュアルトラッキングモードは特定のタイミングで視域を制御するものであるが、第1および第2の実施形態では、そのタイミングが立体映像の表示を開始するときである例を示し、第3の実施形態では、そのタイミングが立体映像の表示中にリモコン20のトラッキングキー28が押下されたときである例を示す。なお、2視差方式および多視差方式のいずれを採用する場合であっても以下の実施形態を適用できる。
The first to third embodiments described below relate to the manual tracking mode. In the manual tracking mode, the viewing zone is controlled at a specific timing. In the first and second embodiments, an example is shown in which the timing is when the display of a stereoscopic image is started. The third embodiment Now, an example is shown in which the timing is when the tracking
(第1の実施形態)
図7は、第1の実施形態に係る映像表示装置100のコントローラ10の処理動作の一例を示すフローチャートである。以下では、予めポジションキャプチャモードに設定されていることを念頭に置いている。
(First embodiment)
FIG. 7 is a flowchart illustrating an example of the processing operation of the
まず、視聴者がリモコン20の3Dキー27を押下したこと示す赤外線信号を受光部4が受信したり、映像信号が2次元映像信号から3次元映像信号に切り替わったりすると、視域情報算出部14は立体映像の表示開始を検出する(ステップS11のYES)。立体映像の表示開始に応じて、視聴者位置検出部13は、カメラ3で撮影された映像を用いて、視聴者の位置を検出する(ステップS12)。視域情報算出部14は、検出された視聴者の位置に視域が設定されるよう、制御パラメータを算出する(ステップS13)。そして、画像調整部15は制御パラメータに応じて視差画像信号を調整し(ステップS14)、調整された視差画像信号に対応する視差画像が液晶パネル1に表示される。
First, when the
これにより、視聴者の位置に視域が設定され、視聴者は液晶パネル1に表示された視差画像をレンチキュラレンズ2を介して立体視できる。マニュアルトラッキングモードにおいては、設定された視域は視聴者から視域調整の指示を受けるまで同じ位置に保たれる。
Thereby, the viewing area is set at the position of the viewer, and the viewer can stereoscopically view the parallax image displayed on the
なお、図7では立体映像の表示開始に応じて視聴者の位置を検出する(ステップS12)例を示しているが、立体映像の表示開始に同期して視域が設定されればよく、例えば常時視聴者の位置を検出していて、立体映像の表示開始に応じて制御パラメータを算出してもよいし、常時視聴者の位置検出および制御パラメータの算出を行っていて、立体映像の表示開始に応じて画像調整をしてもよい。 FIG. 7 shows an example in which the viewer's position is detected in response to the start of stereoscopic video display (step S12). However, the viewing zone may be set in synchronization with the start of stereoscopic video display. The position of the viewer is always detected, and the control parameter may be calculated in response to the start of stereoscopic video display. The position of the viewer is always detected and the control parameter is calculated, and the stereoscopic video display is started. The image may be adjusted according to the above.
また、カメラ3の視野が何らかの障害物により邪魔されている場合、視聴者の顔がカメラ3の撮影範囲外にある場合、視聴者の顔がカメラ3の撮影範囲内にあってもマスクをしていたり下を向いていたりして顔検出が困難な場合などでは、視聴者位置検出部13が視聴者を認識できないこともある。この場合には、立体映像の表示開始を検出する、例えば3〜4秒前に視聴者が認識された履歴があれば、そのときの視聴者の位置に視域を設定してもよい。履歴がなければ、視聴者の位置を認識できない旨の警告を表示してもよい。
Further, when the visual field of the
さらに、視聴者位置検出部13が視聴者の位置を検出した際、視聴者が液晶パネル1に接近しすぎている場合、例えば視聴者と液晶パネル1との距離が3H(Hは液晶パネル1の高さ)未満である場合、立体感が得られにくくなるため、画面から離れることを促す旨の警告を表示してもよい。
Furthermore, when the
このように、第1の実施形態では、立体映像の表示開始に同期して視聴者の位置に視域が設定されるよう視域の制御を行い、その後の視域は視聴者の位置には追従しない。そのため、液晶パネル1の前方を第三者が移動したりしても視域は移動せず、視聴者は快適に映像を立体視できる。
As described above, in the first embodiment, the viewing zone is controlled so that the viewing zone is set at the viewer's position in synchronization with the start of stereoscopic video display, and the subsequent viewing zone is not at the viewer's location. Do not follow. Therefore, even if a third party moves in front of the
また、通常、視聴者は映像を見ながらリモコン20を操作するため、リモコン20からの赤外線信号を用いて立体映像の表示開始を検出することにより、適切に視聴者の位置を検出できる。
Further, since the viewer usually operates the
(第2の実施形態)
上述した第1の実施形態は、立体映像の表示開始時に、実際の視聴者の位置に視域を設定するものであった。これに対し、第2の実施形態は、前回立体映像を表示していたときの視域を記憶しておき、次に立体映像の表示を開始するときに、記憶された視域を再度設定するものである。以下の実施形態では、第1の実施形態との相違点を中心に説明する。
(Second Embodiment)
In the first embodiment described above, the viewing zone is set at the actual viewer position at the start of stereoscopic video display. On the other hand, in the second embodiment, the viewing zone when the stereoscopic video was displayed last time is stored, and the stored viewing zone is set again when the display of the stereoscopic video is started next time. Is. In the following embodiment, the description will focus on differences from the first embodiment.
図8は、第2の実施形態に係る映像表示装置100のコントローラ10の処理動作の一例を示すフローチャートである。
FIG. 8 is a flowchart illustrating an example of the processing operation of the
立体映像の表示を終了する際(ステップS21)、視域情報算出部14はその時の制御パラメータを記憶する(ステップS22)。立体映像の表示を終了とは、例えば映像表示装置100の電源をオフにするとき、リモコン20の3Dキー27が押下されて立体表示から2次元表示に切り替えられたとき、映像信号が3次元映像信号から2次元映像信号に切り替わったとき、等である。また、このときに記憶される制御パラメータは、オートトラッキングモードにより算出されたものでもよいし、第1の実施形態のようにマニュアルトラッキングモードにより算出されたものでもよい。また、別の手法で算出されたものでもよい。
When the display of the stereoscopic video ends (step S21), the viewing zone
その後、視域情報算出部14が立体映像の表示開始を検出すると(ステップS23のYES)、ステップS22で記憶された制御パラメータに応じて、画像調整部15は視差画像信号を調整する(ステップS24)。これにより、視聴者の位置に合わせて視域が設定される。設定された視域は視聴者から視域調整の指示を受けるまで同じ位置に保たれる。
Thereafter, when the viewing zone
このように、第2の実施形態では、立体映像の表示開始時に、前回の立体映像の表示終了時の視域を設定する。そのため、再度立体映像の表示を開始する時に、視聴者の位置を検出したり制御パラメータを改めて算出したりする必要がなく、迅速に視域を設定できる。 As described above, in the second embodiment, the viewing area at the end of the previous stereoscopic video display is set when the stereoscopic video display is started. Therefore, it is not necessary to detect the viewer's position or recalculate the control parameter when starting to display the stereoscopic video again, and the viewing zone can be set quickly.
視聴者は、ソファ等が置かれた一定の位置から、映像表示装置100を見ることが多いと考えられる。したがって、視聴者の位置を検出せずに前回の立体映像の表示終了時の視域を設定したとしても、多くの場合、視聴者の位置に視域を設定できる。
It is considered that the viewer often sees the
また、本実施形態は、例えば写真のスライドショー表示のように、2次元映像信号と3次元映像信号が混在して高い頻度で切り替わる映像信号を再生する場合に、特に有用である。すなわち、2次元映像信号から3次元映像信号へ切り替わる度に視域が新たに設定されると、毎回視域が異なっていたり視域の設定に時間がかかったりするが、本実施形態では、視域情報算出部14に記憶された制御パラメータを用いるため、迅速に一定の視域を設定できる。
In addition, this embodiment is particularly useful when reproducing a video signal that is mixed and mixed with a 2D video signal and a 3D video signal, such as a photo slide show display. That is, if a viewing zone is newly set every time the 2D video signal is switched to the 3D video signal, the viewing zone is different every time or the setting of the viewing zone takes time. Since the control parameters stored in the area
なお、立体映像の表示開始時に、第1の実施形態で説明したように視聴者の位置を検出して視域を設定するか、第2の実施形態で説明したように前回立体映像を表示していた時の視域を設定するか、を視聴者が選択できるようにしてもよい。 At the start of stereoscopic video display, the viewer's position is detected and the viewing zone is set as described in the first embodiment, or the previous stereoscopic video is displayed as described in the second embodiment. The viewer may be able to select whether or not to set the viewing area when he / she has been.
(第3の実施形態)
上述した第1および第2の実施形態は、立体映像の表示を開始するタイミングで視域を制御するものであった。立体映像の表示開始時に視域を設定したとしても、視聴者は必ずしも一定の位置に静止して視聴を続けるわけではなく、移動することもある。マニュアルトラッキングモードでは、視域が視聴者の位置に追従しないため、視聴者が移動すると映像を立体視できなくなることもある。そこで第3の実施形態は、立体映像を表示しているときにリモコン20のトラッキングキー28を視聴者が押下したタイミングで視域を制御するものである。
(Third embodiment)
In the first and second embodiments described above, the viewing zone is controlled at the timing of starting the display of the stereoscopic video. Even if the viewing area is set at the start of stereoscopic image display, the viewer does not always remain at a fixed position and continues to watch, but may move. In the manual tracking mode, since the viewing area does not follow the position of the viewer, if the viewer moves, the image may not be stereoscopically viewed. Therefore, in the third embodiment, the viewing area is controlled at the timing when the viewer presses the tracking
図9は、第3の実施形態に係る映像表示装置100のコントローラ10の処理動作の一例を示すフローチャートである。
FIG. 9 is a flowchart illustrating an example of the processing operation of the
まず、立体映像を表示中に視聴者がリモコン20のトラッキングキー(信号生成手段)28を押下すると、赤外線の視域調整信号が生成され、映像表示装置100の受光部4に送信される。受信部が視域調整信号を受信する(ステップS31のYES)と、視聴者位置検出部13は、カメラ3で撮影された映像を用いて、視聴者の位置を検出する(ステップS32)。視域情報算出部14は、検出された視聴者の位置に視域が設定されるよう、制御パラメータを算出する(ステップS33)。そして、画像調整部15は制御パラメータに応じて視差画像信号を調整し(ステップS34)、調整された視差画像信号に対応する視差画像が液晶パネル1に表示される。
First, when a viewer presses down the tracking key (signal generation means) 28 of the
これにより、視聴者の位置に視域が設定され、視聴者は液晶パネル1に表示された視差画像をレンチキュラレンズ2を介して立体視できる。マニュアルトラッキングモードにおいては、設定された視域は視聴者から視域調整の指示を受けるまで同じ位置に保たれる。
視域調整の指示とは、例えば視聴者が再度トラッキングキー28を押下した場合や、第1および第2の実施形態で説明したように、3Dキー27を押下した場合である。
Thereby, the viewing area is set at the position of the viewer, and the viewer can stereoscopically view the parallax image displayed on the
The instruction for viewing zone adjustment is, for example, when the viewer presses the tracking
このように、第3の実施形態では、視聴者がリモコン20のトラッキングキー28を押下したタイミングで視聴者の位置を受信し、視域を制御する。視聴者が視域設定のタイミングを指示できるため、立体映像を視聴中に視聴者が移動したときも、適切に視域を再設定できる。また、通常、視聴者は映像を見ながらリモコン20を操作するため、リモコン20からの視域調整信号を送信することにより、適切に視聴者の位置を検出できる。さらに、視域が再設定された後の視域は視聴者の位置には追従しない。そのため、液晶パネル1の前方を第三者が移動したりしても視域は移動せず、視聴者は快適に映像を立体視できる。
Thus, in the third embodiment, the viewer's position is received at the timing when the viewer presses the tracking
なお、必ずしもトラッキングキー28がリモコン20に設けられている必要はなく、映像表示装置100がタブレット端末である場合などでは、映像表示装置100にトラッキングキー28に相当するボタン等(信号生成手段)が設けられていてもよいし、映像表示装置100がタッチパネル機能を有する場合には、液晶パネル1にトラッキングキー28を表示してもよい。
Note that the tracking
(第4の実施形態)
上述のように、視域を制御するためには、視聴者の位置を検出し、制御パラメータを算出し、画像を調整する必要がある。画像の調整にはそれほど時間はかからないが、視聴者の位置検出および制御パラメータの算出には時間がかかることがある。特に、図4を用いて説明したように、制御パラメータを算出するためには、予め定めた視域の中から最適な視域を探す必要がある。
(Fourth embodiment)
As described above, in order to control the viewing zone, it is necessary to detect the position of the viewer, calculate the control parameters, and adjust the image. Although it takes less time to adjust the image, it may take time to detect the viewer's position and calculate the control parameters. In particular, as described with reference to FIG. 4, in order to calculate the control parameter, it is necessary to search for an optimal viewing zone from predetermined viewing zones.
そのため、第4の実施形態では、2次元映像を表示中も定期的に制御パラメータを算出しておき、2次元映像から立体映像に切り替わるタイミング(例えば図7のステップS11)において、迅速に視域を設定できるようにするものである。 For this reason, in the fourth embodiment, the control parameters are periodically calculated even during the display of the two-dimensional video, and the viewing zone is quickly displayed at the timing of switching from the two-dimensional video to the stereoscopic video (for example, step S11 in FIG. 7). Can be set.
図10は、第4の実施形態に係る映像表示装置100aの概略構成を示すブロック図である。図10では、図2と共通する構成部分には同一の符号を付している。図10の映像表示装置100aのコントローラ10aは、さらに、制御パラメータ保持部16を有する。制御パラメータ保持部16は、視域情報算出部14が算出した制御パラメータを保持する。
FIG. 10 is a block diagram illustrating a schematic configuration of a video display device 100a according to the fourth embodiment. In FIG. 10, the same reference numerals are given to the components common to FIG. 2. The
図11は、第4の実施形態に係る映像表示装置100aのコントローラ10aの処理動作の一例を示すフローチャートである。同図では、初め2次元映像が液晶パネル1に表示されているものとする。
FIG. 11 is a flowchart illustrating an example of a processing operation of the
2次元映像を表示中も、視聴者位置検出部13は、カメラ3で撮影された映像を用いて、視聴者の位置を検出する(ステップS41)。そして、視域情報算出部14は、検出された視聴者の位置に視域が設定されるよう、制御パラメータを算出する(ステップS42)。この制御パラメータは制御パラメータ保持部16に保持される(ステップS43)。
Even during the display of the two-dimensional video, the viewer
ここで、視聴者がリモコン20の3Dキー27を押下したこと示す赤外線信号を受光部4が受信したり、映像信号が2次元映像信号から3次元映像信号に切り替わったりして、コントローラ10aが立体映像の表示開始を検出すると、(ステップS44のYES)、画像調整部15は制御パラメータ保持部16に保持されている制御パラメータに応じて視差画像信号を調整し(ステップS45)、調整された視差画像信号に対応する視差画像が液晶パネル1に表示される。立体映像に切り替わってからの処理は画像調整(ステップS45)のみなので、迅速に適切な視域が設定される。
Here, the
一方、立体映像の表示に切り替わらず2次元映像の表示が続く場合(ステップS44のNO)、例えば一定の間隔でコントローラ10aはステップS41〜S43をバックグラウンドで繰り返し、制御パラメータ保持部16に保持される制御パラメータを更新する。
On the other hand, when the display of the two-dimensional video continues without switching to the display of the stereoscopic video (NO in step S44), for example, the
このように、第4の実施形態では、立体映像を表示しない間でも制御パラメータを算出して保持しておく。そのため、立体映像の表示を開始する際に、迅速に適切な視域を設定できる。 As described above, in the fourth embodiment, the control parameter is calculated and held even when the stereoscopic video is not displayed. Therefore, it is possible to quickly set an appropriate viewing area when starting to display a stereoscopic video.
(第5の実施形態)
第5の実施形態は、上述した第4の実施形態の変形例である。第4の実施形態では2次元映像を表示中に制御パラメータを算出して保持するものであったが、第5の実施形態では2次元映像表示中に視聴者の位置を検出して保持するものである。
(Fifth embodiment)
The fifth embodiment is a modification of the above-described fourth embodiment. In the fourth embodiment, the control parameter is calculated and held while displaying the 2D video. In the fifth embodiment, the position of the viewer is detected and held during the 2D video display. It is.
図12は、第5の実施形態に係る映像表示装置100bの概略構成を示すブロック図である。図12では、図2と共通する構成部分には同一の符号を付している。図12の映像表示装置102のコントローラ10bは、さらに、視聴者位置保持部17を有する。視聴者位置保持部17は、視聴者位置検出部13が検出した視聴者位置を保持する。
FIG. 12 is a block diagram illustrating a schematic configuration of a
図13は、第5の実施形態に係る映像表示装置100bのコントローラ10bの処理動作の一例を示すフローチャートである。同図では、初め2次元映像を液晶パネル1に表示しているものとする。
FIG. 13 is a flowchart illustrating an example of a processing operation of the
2次元映像を表示中も、視聴者位置検出部13は、カメラ3で撮影された映像を用いて、視聴者の位置を検出する(ステップS51)。この視聴者位置は視聴者位置保持部17に保持される(ステップS52)。
Even during the display of the two-dimensional video, the viewer
ここで、視聴者がリモコン20の3Dキー27を押下したこと示す赤外線信号を受光部4が受信したり、映像信号が2次元映像信号から3次元映像信号に切り替わったりして、コントローラ10bが立体映像の表示開始を検出すると、(ステップS53のYES)、視域情報算出部14は、視聴者位置保持部17に保持されている視聴者の位置に視域が設定されるよう、制御パラメータを算出する(ステップS54)。
Here, the
そして、画像調整部15は算出された制御パラメータに応じて視差画像信号を調整し(ステップS55)、調整された視差画像信号に対応する視差画像が液晶パネル1に表示される。立体映像に切り替わってからの処理は制御パラメータの算出(ステップS54)および画像調整(ステップS55)のみなので、立体映像の表示開始後に視聴者の位置を検出する場合と比べて、迅速に適切な視域が設定される。
Then, the
一方、立体映像の表示に切り替わらず2次元映像の表示が続く場合(ステップS54のNO)、例えば一定の間隔でコントローラ10bはステップS51,S52をバックグラウンドで繰り返し、視聴者位置保持部17に保持される視聴者の位置を更新する。
On the other hand, when the display of the two-dimensional video continues without switching to the display of the stereoscopic video (NO in step S54), for example, the
このように、第5の実施形態では、立体映像を表示しない間でも視聴者の位置を検出して保持しておく。そのため、立体映像の表示を開始する際に、迅速に適切な視域を設定できる。 As described above, in the fifth embodiment, the position of the viewer is detected and held even when the stereoscopic video is not displayed. Therefore, it is possible to quickly set an appropriate viewing area when starting to display a stereoscopic video.
(第6の実施形態)
視聴者位置検出部13は、常に視聴者の位置を検出できるとは限らない。例えば、カメラ3の視野が何らかの障害物により邪魔されている場合、視聴者の顔がカメラ3の撮影範囲外にある場合、視聴者の顔がカメラ3の撮影範囲内にあってもマスクをしていたり下を向いていたりして顔検出が困難な場合などでは、視聴者位置検出部13が視聴者を認識できないこともある。この場合、視差情報算出部は視聴者の位置に基づいて制御パラメータを算出することができない。また、視域情報算出部14の故障などにより制御パラメータを算出できないこともあり得る。
(Sixth embodiment)
The viewer
以下に説明する第6〜第8の実施形態は、制御パラメータを算出できない場合の処理動作に関するものである。 The sixth to eighth embodiments described below relate to processing operations when control parameters cannot be calculated.
図14は、第6の実施形態に係る映像表示装置100cの概略構成を示すブロック図である。図14では、図2と共通する構成部分には同一の符号を付している。図14の映像表示装置100cのコントローラ10cは、さらに、制御情報保持部18を有する。制御情報保持部18は、所定の領域に視域が設定されるよう予め算出された制御パラメータを、いわゆるデフォルト値として、保持する。
FIG. 14 is a block diagram illustrating a schematic configuration of a video display device 100c according to the sixth embodiment. In FIG. 14, the same reference numerals are given to the components common to FIG. 2. The
所定の領域は、例えば液晶パネル1の正面であって、液晶パネル1と視聴者との距離が3H(Hは液晶パネル1の高さ)に設定される。この位置で視聴者が液晶パネル1を視聴することを念頭に置いて映像表示装置が設計されることが多いためである。あるいは、視聴者が通常視聴する領域を設定していてもよい。
The predetermined region is, for example, the front surface of the
図15は、第6の実施形態に係る映像表示装置100cのコントローラ10cの処理動作の一例を示すフローチャートである。
FIG. 15 is a flowchart illustrating an example of a processing operation of the
視域の制御を行うタイミングで、視域情報算出部14が制御パラメータを算出できる場合(ステップS61のYES)、画像調整部15は、算出された制御パラメータ(第1の制御パラメータ)に応じて、画像を調整する(ステップS62)。ここで、視域の制御を行うタイミングとは、例えば図8のステップS11、図9のステップS24、図10のステップS31、オートトラッキングモードで視域制御するタイミングなどである。
When the viewing zone
一方、上記の理由などにより視域情報算出部14が制御パラメータを算出できない場合(ステップS61のNO)、画像調整部15は、制御情報保持部18に保持されている制御パラメータ(第2の制御パラメータ)に応じて、視域を設定するための画像調整を行う(ステップS63)。
On the other hand, when the viewing area
このように、第6の実施形態では、所定の領域に視域を設定するための制御パラメータを予め制御情報保持部18に保持しておく。そのため、視聴者をうまく検出できない場合など、制御パラメータを算出できない場合でも、視域を設定できる。特に、制御情報保持部18に保持する制御パラメータを液晶パネル1の高さに基づいて設定したり、視聴者の通常の視聴位置に基づいて設定したりすることで、適切な視域が設定される。
Thus, in the sixth embodiment, control parameters for setting a viewing zone in a predetermined area are held in the control
(第7の実施形態)
第7の実施形態は、複数の制御パラメータを予め制御情報保持部18に保持しておき、そのうちの1つをユーザ設定に応じて選択して視域の設定に使用するものである。なお、本実施形態の映像表示装置の概略構成は図15とほぼ同様なので説明を省略する。
(Seventh embodiment)
In the seventh embodiment, a plurality of control parameters are held in the control
複数の制御パラメータの1つは、例えば家庭内で映像表示装置100cを視聴することを念頭において液晶パネル1と視聴者との距離が3Hになる領域に視域を設定するための制御パラメータであり、他の1つは、例えば店頭に映像表示装置100cを展示することを念頭に置いてこれより距離が遠い領域に視域を設定するための制御パラメータである。
複数の制御パラメータのうちのいずれを使用するかを、予めユーザが設定しておく。
One of the plurality of control parameters is a control parameter for setting the viewing zone in a region where the distance between the
The user sets in advance which of the plurality of control parameters to use.
図16は、第7の実施形態に係る映像表示装置100cのコントローラ10cの処理動作の一例を示すフローチャートである。視域情報算出部14が制御パラメータを算出できる場合の処理動作は、第6の実施形態と同様である(ステップS71のYES,S72)。
FIG. 16 is a flowchart illustrating an example of a processing operation of the
一方、視域情報算出部14が制御パラメータを算出できない場合(ステップS71のNO)、画像調整部15は、ユーザ設定に応じて、制御情報保持部18に保持されている複数の制御パラメータのうちの1つを選択する(ステップS73)。そして、画像調整部15は、選択された制御パラメータに応じて、視域を設定するための画像調整を行う(ステップS74)。
On the other hand, when the viewing area
このように、第7の実施形態では、制御情報保持部18に保持される複数の制御パラメータのうちの1つを選択するため、制御パラメータを算出できない場合でもユーザの設定に応じて適切に視域を設定できる。
As described above, in the seventh embodiment, since one of the plurality of control parameters held in the control
(第8の実施形態)
第8の実施形態は、複数の制御パラメータを予め制御情報保持部18に保持しておき、そのうちの1つを、表示されるコンテンツに応じて自動的に選択して視域の設定に使用するものである。なお、本実施形態の映像表示装置の概略構成は図15とほぼ同様なので説明を省略する。
(Eighth embodiment)
In the eighth embodiment, a plurality of control parameters are held in the control
図17は、制御情報保持部18に保持される、コンテンツのジャンルと視域の位置との関係の一例を示す図である。例えば、表示されるコンテンツのジャンルがアニメである場合、子供が視聴している可能性が高く、この場合液晶パネル1から離れていることが想定される。そのため、液晶パネル1から遠い位置に視域が設定されるような制御パラメータが保持される。また、ジャンルがスポーツである場合、エキサイトな内容を液晶パネル1に近づいて見ている可能性が高い。そのため、液晶パネル1から近い位置に視域が設定されるような制御パラメータが保持される。ジャンルがドラマや映画である場合、アニメとスポーツとの中間程度の位置に視域が設定されるような制御パラメータが保持される。
FIG. 17 is a diagram illustrating an example of the relationship between the content genre and the viewing zone position held in the control
あくまで図17は一例であって、別のジャンルを設定したり、コンテンツ情報として視聴時刻等をさらに考慮したりしてもよい。 FIG. 17 is merely an example, and another genre may be set, or viewing time may be further considered as content information.
図18は、第8の実施形態に係る映像表示装置100cのコントローラ10cの処理動作の一例を示すフローチャートである。視域情報算出部14が制御パラメータを算出できる場合の処理動作は、第6の実施形態と同様である(ステップS81のYES,S82)。
FIG. 18 is a flowchart illustrating an example of a processing operation of the
一方、視域情報算出部14が視域情報を算出できない場合(ステップS81のNO)、チューナデコーダ11は放送波に重畳されたデータ放送から電子番組表を取得し、これに基づいて液晶パネル1に表示されるコンテンツのコンテンツ情報を抽出する(ステップS83)。あるいは、インターネット経由でコンテンツ情報を取得してもよい。
On the other hand, when the viewing area
そして、画像調整部15は、コンテンツのジャンルに応じて、制御情報保持部18に保持されている複数の制御パラメータのうちの1つを選択する(ステップS84)。例えば、ジャンルがアニメである場合、画像調整部15は視域を液晶パネル1の近くに設定するための制御パラメータを選択する(図17)。そして、画像調整部15は、選択された制御パラメータに応じて、視域を設定するための画像調整を行う(ステップS85)。
Then, the
このように、第8の実施形態では、コンテンツ情報ごとに予め定めた制御パラメータを制御情報保持部18に保持しておくため、コンテンツに応じて自動的に適切に視域を設定できる。
As described above, in the eighth embodiment, since the control parameter determined in advance for each piece of content information is held in the control
以上の各実施形態で説明したように、映像表示装置は視域を適切に設定できる。 As described in the above embodiments, the video display apparatus can appropriately set the viewing zone.
なお上述した各実施形態の映像表示装置100では、レンチキュラレンズ2を用い、視差画像をずらすことによって視域を制御する例を示したが、他の手法で視域を制御してもよい。例えば、レンチキュラレンズ2に代えてパララックスバリアを開口制御部として設けてもよい。また、図19は、図2の変形例である映像表示装置100’の概略構成を示すブロック図である。同図に示すように、視差画像をずらす処理を行わず、コントローラ10’内に視域制御部15’を設けて開口制御部2’を制御してもよい。この場合、液晶パネル1と開口制御部2’との距離、液晶パネル1と開口制御部との水平方向のずれ量等を制御パラメータとし、液晶パネル1に表示された視差画像の出力方向を制御することにより視域が制御される。図19の映像表示装置を各実施形態に適用してもよい。
In the
上述した実施形態で説明した映像処理装置の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、映像処理装置の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。 At least a part of the video processing apparatus described in the above-described embodiments may be configured by hardware or software. When configured by software, a program for realizing at least a part of the functions of the video processing apparatus may be stored in a recording medium such as a flexible disk or a CD-ROM, and read and executed by a computer. The recording medium is not limited to a removable medium such as a magnetic disk or an optical disk, but may be a fixed recording medium such as a hard disk device or a memory.
また、映像処理装置の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。 In addition, a program that realizes at least a part of the functions of the video processing apparatus may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be distributed in a state where the program is encrypted, modulated or compressed, and stored in a recording medium via a wired line such as the Internet or a wireless line.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
1 液晶パネル
2 レンチキュラレンズ
3 カメラ
4 受光部
10 コントローラ
11 チューナデコーダ
12 視差画像変換部
13 視聴者位置検出部
14 視域情報算出部
15 画像調整部
16 制御パラメータ保持部
17 視聴者位置保持部
18 制御情報保持部
20 リモコン
100,100a,100b,100c 映像表示装置
DESCRIPTION OF
Claims (9)
前記視聴者位置検出部が、視聴者の位置を検出できた場合には、検出された位置に応じて、表示部に表示される複数の視差画像を立体的に見ることが可能な視域を設定し、視聴者の位置を検出できない場合には、予め定められた設定に基づいて前記視域を設定する視域制御部と、を備える映像処理装置。 A viewer position detector that detects the position of the viewer using the captured video;
When the viewer position detection unit can detect the viewer's position, a viewing zone in which a plurality of parallax images displayed on the display unit can be viewed stereoscopically according to the detected position. And a viewing zone control unit that sets the viewing zone based on a predetermined setting when the viewer's position cannot be detected.
前記表示部に表示される前記複数の視差画像の表示位置を調整するか、
前記表示部に表示される前記複数の視差画像の出力方向を制御することにより、前記視域を設定する、請求項1または2に記載の映像処理装置。 The viewing zone control unit
Adjusting the display positions of the plurality of parallax images displayed on the display unit;
The video processing apparatus according to claim 1, wherein the viewing zone is set by controlling an output direction of the plurality of parallax images displayed on the display unit.
前記表示部に表示された複数の視差画像を所定の方向に出力する開口制御部と、を備える請求項1乃至3のいずれかに記載の映像処理装置。 A display unit for displaying the plurality of parallax images;
The video processing apparatus according to claim 1, further comprising: an aperture control unit that outputs a plurality of parallax images displayed on the display unit in a predetermined direction.
前記復号された入力映像信号に基づいて前記複数の視差画像を生成する視差画像変換部と、を備える請求項1乃至4のいずれかに記載の映像処理装置。 A receiver for decoding the input video signal;
The video processing apparatus according to claim 1, further comprising: a parallax image conversion unit that generates the plurality of parallax images based on the decoded input video signal.
前記視聴者の位置を検出するステップにて、視聴者の位置を検出できた場合には、検出された位置に応じて、表示部に表示される複数の視差画像を立体的に見ることが可能な視域を設定し、視聴者の位置を検出できない場合には、予め定められた設定に基づいて前記視域を設定するステップと、を備える映像処理方法。 Detecting the viewer's position using the captured video;
When the viewer position is detected in the step of detecting the viewer position, a plurality of parallax images displayed on the display unit can be viewed stereoscopically according to the detected position. And a step of setting the viewing zone based on a predetermined setting when a viewer's position cannot be detected by setting a correct viewing zone.
前記表示部に表示される前記複数の視差画像の表示位置を調整するか、
前記表示部に表示される前記複数の視差画像の出力方向を制御することにより、前記視域を設定する、請求項6または7に記載の映像処理方法。 The step of setting the viewing zone includes:
Adjusting the display positions of the plurality of parallax images displayed on the display unit;
The video processing method according to claim 6 or 7, wherein the viewing zone is set by controlling an output direction of the plurality of parallax images displayed on the display unit.
前記復号された入力映像信号に基づいて前記複数の視差画像を生成するステップと、を備える請求項6乃至8のいずれかに記載の映像処理方法。 Decoding the input video signal;
The video processing method according to claim 6, further comprising: generating the plurality of parallax images based on the decoded input video signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012201366A JP5568116B2 (en) | 2012-09-13 | 2012-09-13 | Video processing apparatus and video processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012201366A JP5568116B2 (en) | 2012-09-13 | 2012-09-13 | Video processing apparatus and video processing method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011189549A Division JP5095851B1 (en) | 2011-08-31 | 2011-08-31 | Video processing apparatus and video processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013055664A true JP2013055664A (en) | 2013-03-21 |
JP5568116B2 JP5568116B2 (en) | 2014-08-06 |
Family
ID=48132220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012201366A Expired - Fee Related JP5568116B2 (en) | 2012-09-13 | 2012-09-13 | Video processing apparatus and video processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5568116B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112770101A (en) * | 2019-10-21 | 2021-05-07 | 天马日本株式会社 | Stereoscopic display system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10174127A (en) * | 1996-12-13 | 1998-06-26 | Sanyo Electric Co Ltd | Method and device for three-dimensional display |
JPH11164329A (en) * | 1997-11-27 | 1999-06-18 | Toshiba Corp | Stereoscopic video image display device |
JP2008015188A (en) * | 2006-07-05 | 2008-01-24 | Ntt Docomo Inc | Image presenting system and image presenting method |
JP2010068222A (en) * | 2008-09-10 | 2010-03-25 | Olympus Imaging Corp | Face detection controller, face detection control program and face detection control method |
JP2011071996A (en) * | 2010-10-08 | 2011-04-07 | Nec Casio Mobile Communications Ltd | Electronic device, and program |
JP2011101366A (en) * | 2009-11-04 | 2011-05-19 | Samsung Electronics Co Ltd | High density multi-view image display system and method with active sub-pixel rendering |
-
2012
- 2012-09-13 JP JP2012201366A patent/JP5568116B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10174127A (en) * | 1996-12-13 | 1998-06-26 | Sanyo Electric Co Ltd | Method and device for three-dimensional display |
JPH11164329A (en) * | 1997-11-27 | 1999-06-18 | Toshiba Corp | Stereoscopic video image display device |
JP2008015188A (en) * | 2006-07-05 | 2008-01-24 | Ntt Docomo Inc | Image presenting system and image presenting method |
JP2010068222A (en) * | 2008-09-10 | 2010-03-25 | Olympus Imaging Corp | Face detection controller, face detection control program and face detection control method |
JP2011101366A (en) * | 2009-11-04 | 2011-05-19 | Samsung Electronics Co Ltd | High density multi-view image display system and method with active sub-pixel rendering |
JP2011071996A (en) * | 2010-10-08 | 2011-04-07 | Nec Casio Mobile Communications Ltd | Electronic device, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112770101A (en) * | 2019-10-21 | 2021-05-07 | 天马日本株式会社 | Stereoscopic display system |
Also Published As
Publication number | Publication date |
---|---|
JP5568116B2 (en) | 2014-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5149435B1 (en) | Video processing apparatus and video processing method | |
JP5129377B1 (en) | Video processing device | |
JP5129376B1 (en) | Video processing apparatus and video processing method | |
JP5134714B1 (en) | Video processing device | |
JP5343156B1 (en) | DETECTING DEVICE, DETECTING METHOD, AND VIDEO DISPLAY DEVICE | |
JP5132804B1 (en) | Video processing apparatus and video processing method | |
JP5156116B1 (en) | Video processing apparatus and video processing method | |
JP5117613B1 (en) | Video processing apparatus, video processing method, and storage medium | |
JP5095851B1 (en) | Video processing apparatus and video processing method | |
JP5127967B1 (en) | Video processing apparatus and video processing method | |
JP5156117B1 (en) | Video processing apparatus and video processing method | |
CN102970562B (en) | Video processing apparatus, video processing method and remote controller | |
JP2013055694A (en) | Video processing apparatus and video processing method | |
JP5568116B2 (en) | Video processing apparatus and video processing method | |
JP5603911B2 (en) | VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND REMOTE CONTROL DEVICE | |
JP5433763B2 (en) | Video processing apparatus and video processing method | |
JP5032694B1 (en) | Video processing apparatus and video processing method | |
JP2013055675A (en) | Image processing apparatus and image processing method | |
JP5433766B2 (en) | Video processing apparatus and video processing method | |
JP5498555B2 (en) | Video processing apparatus and video processing method | |
JP2013239963A (en) | Image processing device, image display device and image processing method | |
JP2013055682A (en) | Video processing device and video processing method | |
JP2013055641A (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130726 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140318 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140620 |
|
LAPS | Cancellation because of no payment of annual fees |