JP5433766B2 - 映像処理装置および映像処理方法 - Google Patents

映像処理装置および映像処理方法 Download PDF

Info

Publication number
JP5433766B2
JP5433766B2 JP2012241863A JP2012241863A JP5433766B2 JP 5433766 B2 JP5433766 B2 JP 5433766B2 JP 2012241863 A JP2012241863 A JP 2012241863A JP 2012241863 A JP2012241863 A JP 2012241863A JP 5433766 B2 JP5433766 B2 JP 5433766B2
Authority
JP
Japan
Prior art keywords
viewer
viewing
viewers
priority
liquid crystal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012241863A
Other languages
English (en)
Other versions
JP2013055683A (ja
Inventor
宅 達 也 三
本 宏 藤
岡 竜 大 西
田 信 之 池
星 利 弘 諸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012241863A priority Critical patent/JP5433766B2/ja
Publication of JP2013055683A publication Critical patent/JP2013055683A/ja
Application granted granted Critical
Publication of JP5433766B2 publication Critical patent/JP5433766B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、映像処理装置および映像処理方法に関する。
近年、視聴者が特殊なメガネを使用せずに裸眼で立体映像を見ることができる立体映像表示装置(いわゆる裸眼3Dテレビ)が普及しつつある。この立体映像表示装置は、視点の異なる複数の画像を表示する。そして、それらの画像の光線は、例えばパララックスバリア、レンチキュラレンズなどによって出力方向を制御され、視聴者の両眼に導かれる。視聴者の位置が適切であれば、視聴者は、左目と右目とで異なる視差画像を見ることになるため、映像を立体的に認識することができる。このように視聴者が立体映像を見ることの可能な領域を視域という。
この視域は制限された領域であり、視聴者が視域の外にいる場合、立体映像を見ることはできない。このため、立体映像表示装置は、視聴者の位置を検出し、視聴者が視域内に入るように視域を制御する機能を有する(フェイス・トラッキング機能)。
しかしながら、複数の視聴者が存在する場合、全ての視聴者が視域内に収まるとは限らない。一方、視聴者の中には、優先的に視域内に収めるべき人と、そうでない人が存在する。例えば、単に立体映像表示装置の前を通りがかった人については、優先的に視域内に収める必要はない。
特開2007−94022号公報
優先度の高い視聴者に対して常に高品位の立体映像を表示することができる映像処理装置および映像処理方法を提供する。
実施形態によれば、映像処理装置は、撮影された映像に基づいて視聴者の位置および人数を取得する視聴者検出部と、前記視聴者が複数の場合、前記複数の視聴者に優先度を付ける視聴者選択部と、前記視聴者の位置に基づいて視域を制御する視域制御部と、を備え、前記視域制御部は、前記視聴者全員を視域内に収めることができない場合には、優先度の高い視聴者から順に複数の視聴者を収める視域を設定する。
一実施形態に係る映像処理装置100の外観図である。 一実施形態に係る映像処理装置100の概略構成を示すブロック図である。 液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。 映像処理装置の視聴領域Pにおける複数の視域21の一例を示す上面図である。 変形例に係る映像処理装置100’の概略構成を示すブロック図である。 一実施形態に係る映像処理方法を示すフローチャートである。 一実施形態に係る映像処理方法により設定された視域を示す上面図である。 優先度付けルールによる視聴者への優先度付けを説明するための図である。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
図1は、一実施形態に係る映像表示装置100の外観図であり、図2は、その概略構成を示すブロック図である。映像表示装置100は、液晶パネル1と、レンチキュラレンズ2と、カメラ3と、受光部4と、コントローラ10とを備えている。
液晶パネル(表示部)1は、視域内にいる視聴者が立体映像として観察可能な複数の視差画像を表示する。この液晶パネル1は、例えば55インチサイズのパネルであり、水平方向に11520(=1280*9)個、垂直方向に720個の画素が配置される。また、各画素内には、3つのサブピクセル、すなわち、Rサブピクセル、GサブピクセルおよびBサブピクセルが垂直方向に形成されている。液晶パネル1には、背面に設けられるバックライト装置(不図示)から光が照射される。各画素はコントローラ10から供給される視差画像信号(後述)に応じた輝度の光を透過させる。
レンチキュラレンズ(開口制御部)2は、液晶パネル1(表示部)に表示された複数の視差画像を所定の方向に出力する。このレンチキュラレンズ2は、液晶パネル1の水平方向に沿って配置される複数の凸部を有し、その数は液晶パネル1の水平方向画素数の1/9である。そして、水平方向に配置される9個の画素につき1つの凸部が対応するように、レンチキュラレンズ2は液晶パネル1の表面に貼り付けられている。各画素を透過した光は凸部の頂点付近から指向性を持って特定の方向へ出力される。
本実施形態の液晶パネル1は、3視差以上の多視差方式(インテグラルイメージング方式)または2視差方式で、立体映像を表示することができ、この他に通常の2次元映像も表示可能である。
以下の説明では、液晶パネル1の各凸部に対応して9個の画素を設けて、9視差の多視差方式を採用可能な例を説明する。多視差方式では、各凸部に対応する9個の画素にそれぞれ第1〜第9視差画像を表示する。第1〜第9視差画像とは、液晶パネル1の水平方向に沿って並ぶ9つの視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で第1〜第9視差画像のうちの1つの視差画像を、右目で他の1つの視差画像をそれぞれ見ることにより、映像を立体視できる。多視差方式によると、視差の数を増やすほど、視域を広げることができる。視域とは、液晶パネル1の前方から液晶パネル1を見たときに映像を立体視可能な領域をいう。
一方、2視差方式では、各凸部に対応する9個の画素のうちの4個に右目用視差画像を、他の5個に左目用視差画像をそれぞれ表示する。左目用および右目用視差画像とは、水平方向に並ぶ2つの視点のうち、左側の視点および右側の視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で左目用視差画像を、右目で右目用視差画像をそれぞれ見ることにより、映像を立体視できる。2視差方式によると、表示される映像の立体感が多視差方式よりも得られやすくなるが、多視差方式に比べて視域が狭くなる。
なお、液晶パネル1は各凸部に対応する9個の画素に同一の画像を表示して、2次元画像を表示することもできる。
また、本実施形態では、レンチキュラレンズ2の凸部と表示される視差画像との相対的な位置関係、すなわち、各凸部に対応する9個の画素にどのように視差画像を表示するか、に応じて、視域を可変制御できるようにしている。以下、多視差方式を例に取って、視域の制御について説明する。
図3は、液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。同図の網掛けの領域が視域を示しており、視域から液晶パネル1を見ると映像を立体視できる。他の領域は逆視やクロストークが発生する領域であり、映像を立体視するのが困難な領域である。
図3は、液晶パネル1とレンチキュラレンズ2との相対的な位置関係、より具体的には、液晶パネル1とレンチキュラレンズ2との距離、あるいは液晶パネル1とレンチキュラレンズ2との水平方向のずれ量によって、視域が変化する様子を示している。
実際には、レンチキュラレンズ2は、液晶パネル1に高精度に位置合わせをして貼り付けられるため、液晶パネル1とレンチキュラレンズ2との相対的な位置を物理的に変更することは困難である。
そこで、本実施形態では、液晶パネル1の各画素に表示される第1〜第9視差画像の表示位置をずらすことで、見かけ上、液晶パネル1とレンチキュラレンズ2との相対的な位置関係を変更し、これにより、視域の調整を行う。
例えば、各凸部に対応する9個の画素に第1〜第9視差画像をそれぞれ表示した場合(図3(a))に比べ、視差画像を全体に右側にずらして表示した場合(図3(b))、視域は左側に移動する。逆に、視差画像を全体に左側にずらして表示した場合、視域は右側に移動する。
また、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を外側に大きくずらして表示した場合(図3(c))、視域は液晶パネル1に近づく方向に移動する。なお、ずらす視差画像とずらさない視差画像との間の画素や、ずらす量が異なる視差画像間の画素は、周囲の画素に応じて適宜補間すればよい。また、図3(c)とは逆に、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を中心側に大きくずらして表示した場合、視域は液晶パネル1から遠ざかる方向に移動する。
このように、視差画像の全体あるいは一部をずらして表示することにより、視域を液晶パネル1に対して左右方向あるいは前後方向に移動させることができる。図3では説明を簡略化するために視域を1つだけ示しているが、実際には、図4に示すように、複数の視域21が視聴領域Pに存在し、これらは連動して移動する。視域は、後述する図2のコントローラ10により制御される。なお、視域21以外の視聴領域は、逆視やクロストーク等の発生により、良好な立体映像を見ることが困難な逆視領域22である。
図1に戻り、映像処理装置100の各構成要素について説明する。
カメラ3は、液晶パネル1の下部中央付近に、所定の仰角で取り付けられ、液晶パネル1の前方の所定の範囲を撮影する。撮影された映像はコントローラ10に供給され、視聴者の位置や視聴者の顔等、視聴者に関する情報を検出するために用いられる。カメラ3は、動画像と静止画像のどちらを撮影してもよい。
受光部4は、例えば液晶パネル1の下部の左側に設けられる。そして、受光部4は視聴者が使用するリモコンから送信される赤外線信号を受信する。この赤外線信号は、立体映像を表示するか2次元映像を表示するか、立体映像を表示する場合に多視差方式および2視差方式のいずれを採用するか、視域の制御を行うか否か、等を示す信号を含む。
次に、コントローラ10の構成要素の詳細について説明する。図2に示すように、コントローラ10は、チューナデコーダ11と、視差画像変換部12と、視聴者検出部13と、視域情報算出部14と、画像調整部15と、視聴者選択部16と、記憶部17とを有する。コントローラ10は、例えば1つのIC(Integrated Circuit)として実装され、液晶パネル1の裏側に配置される。もちろん、コントローラ10の一部をソフトウェアで実装してもよい。
チューナデコーダ(受信部)11は入力される放送波を受信および選局し、符号化された映像信号を復号する。放送波に電子番組表(EPG)等のデータ放送の信号が重畳されている場合、チューナデコーダ11はこれを抽出する。あるいは、チューナデコーダ11は、放送波ではなく、光ディスク再生装置やパーソナルコンピュータ等の映像出力機器から符号化された映像信号を受信し、これを復号する。復号された信号はベースバンド映像信号とも呼ばれ、視差画像変換部12に供給される。なお、映像表示装置100が放送波を受信せず、専ら映像出力機器から受信する映像信号を表示する場合、チューナデコーダ11に代えて単に復号機能を有するデコーダを受信部として設けてもよい。
チューナデコーダ11が受信する映像信号は、2次元の映像信号であってもよいし、フレームパッキング(FP)、サイドバイサイド(SBS)あるいはトップアンドボトム(TAB)方式等で左目用および右目用の画像を含む3次元の映像信号であってもよい。また、映像信号は3視差以上の画像含む3次元の映像信号であってもよい。
視差画像変換部12は、映像を立体表示するために、ベースバンド映像信号を複数の視差画像信号に変換して画像調整部15に供給する。視差画像変換部12は、多視差方式と2視差方式のどちらを採用するかで、処理内容が異なる。また、ベースバンド映像信号が2次元の映像信号であるか、3次元の映像信号であるか、に応じて、視差画像変換部12の処理内容が異なる。
2視差方式を採用する場合、視差画像変換部12は、左目用および右目用視差画像にそれぞれ対応する左目用および右目用視差画像信号を生成する。より具体的には以下のようにする。
2視差方式を採用し、かつ、左目用および右目用の画像を含む3次元映像信号が入力された場合、視差画像変換部12は液晶パネル1に表示可能な形式の左目用および右目用視差画像信号を生成する。また、3つ以上の画像を含む3次元映像信号が入力される場合、例えばそのうちの任意の2つを用いて、視差画像変換部12は左目用および右目用視差画像信号を生成する。
これに対し、2視差方式を採用し、かつ、視差情報を含まない2次元の映像信号が入力された場合、視差画像変換部12は、映像信号における各画素の奥行き値に基づいて、左目用および右目用視差画像信号を生成する。奥行き値は、各画素がどの程度液晶パネル1に対して手前または奥に見えるように表示するか、を示す値である。奥行き値は予め映像信号に付加されていてもよいし、映像信号の特徴に基づいて動き検出、構図識別および人間の顔検出等を行って奥行き値を生成してもよい。左目用視差画像では、手前に見える画素は奥に見える画素より右側にずれて表示される必要がある。そのため、視差画像変換部12は映像信号における手前に見える画素を右側にずらす処理を行って左目用視差画像信号を生成する。奥行き値が大きいほどずらす量を大きくする。
一方、多視差方式を採用する場合、視差画像変換部12は第1〜第9視差画像にそれぞれ対応する第1〜第9視差画像信号を生成する。より具体的には以下のようにする。
多視差方式を採用し、かつ、2次元の映像信号または8視差以下の画像を含む3次元の映像信号が入力された場合、視差画像変換部12は、2次元の映像信号から左目用および右目用視差画像信号を生成するのと同様に奥行き情報に基づいて、第1〜第9視差画像信号を生成する。
多視差方式を採用し、かつ、9視差の画像を含む3次元の映像信号が入力された場合、視差画像変換部12はその映像信号を用いて第1〜第9視差画像信号を生成する。
視聴者検出部13は、カメラ3により撮影された映像を用いて顔認識を行い、視聴者の情報(例えば、視聴者の顔情報、位置情報。以下、「視聴者認識情報」と総称する。)を取得し、後述の視聴者選択部16に供給する。視聴者検出部13は、視聴者が動いても、追尾することが可能であるため、視聴者ごとの視聴時間を把握することもできる。
視聴者の位置情報は、例えば液晶パネル1の中央を原点とするX軸(水平方向)、Y軸(垂直方向)およびZ軸(液晶パネル1に対して直交する方向)上の位置として表される。図4に示す視聴者20の位置は、座標(X1,Y1,Z1)で表される。より具体的には、視聴者検出部13は、まず、カメラ3により撮影された映像から顔を検出することにより視聴者を認識する。次いで、視聴者検出部13は映像における視聴者の位置からX軸およびY軸上の位置(X1,Y1)を算出し、顔の大きさからZ軸上の位置(Z1)を算出する。視聴者が複数いる場合、視聴者検出部13は、予め定めた数、例えば10人分の視聴者を検出するようにしてもよい。この場合、検出された顔の数が10より大きいときは、例えば液晶パネル1から近い、すなわち、Z軸上の位置が小さい順に10人の視聴者の位置を検出する。
視域情報算出部14は、後述の視聴者選択部16により選択された視聴者の位置情報を用いて、選択された視聴者を収める視域を設定するための制御パラメータを算出する。この制御パラメータは、例えば、図3で説明した視差画像をずらす量であり、1つのパラメータ、または複数のパラメータの組み合わせである。そして、視域情報算出部14は、算出した制御パラメータを画像調整部15に供給する。
より詳しくは、所望の視域を設定するために、視域情報算出部14は、制御パラメータと、その制御パラメータで設定される視域とを対応付けた視域データベースを用いる。この視域データベースは記憶部17に予め格納されている。視域情報算出部14は、視域データベースを検索することによって、選択された視聴者を収めることの可能な視域を見つける。
また、視聴者選択部16によって視聴者が選択されない場合には、視域情報算出部14は、できるだけ多くの視聴者を視域内に収める視域を設定するための制御パラメータを算出する。
画像調整部(視域制御部)15は、視域を制御するために、算出された制御パラメータに応じて視差画像信号をずらしたり補間したりする調整を行った後に、液晶パネル1に供給する。液晶パネル1は調整された視差画像信号に対応する画像を表示する。
視聴者選択部16は、視聴者に優先度を付けるための優先度付けルールに基づいて、視聴者検出部13により検出された視聴者に優先度を付ける。その後、視聴者選択部16は、視聴者の中から所定の人数(1または複数)の視聴者を優先度の高い順に選択し、選択した視聴者の位置情報を視域情報算出部14に供給する。
なお、優先度付けルールは、予め設定されており、ユーザがメニュー画面等から複数の優先度付けルールの中から所望のものを選択してもよいし、製品出荷時に所定の優先度付けルールを設定してもよい。
また、優先度付けルールが設定されていない場合には、視聴者選択部16は、視聴者を選択しない旨を示す視聴者非選択通知を視域情報算出部14に通知する。
記憶部17は、フラッシュメモリなどの不揮発性メモリであり、視域データベースの他、後述するユーザ登録情報、3D優先視聴者情報、初期視聴位置などを記憶する。なお、この記憶部17は、コントローラ10の外部に設けられてもよい。
以上、映像処理装置100の構成について説明した。本実施形態ではレンチキュラレンズ2を用い、視差画像をずらすことによって視域を制御する例を示したが、他の手法で視域を制御してもよい。例えば、レンチキュラレンズ2に代えてパララックスバリアを開口制御部2’として設けてもよい。図5は、図2に示す本実施形態の変形例である映像処理装置100’の概略構成を示すブロック図である。同図に示すように、映像処理装置100’のコントローラ10’は、画像調整部15の代わりに、視域制御部15’を備える。この視域制御部15’は、視域情報算出部14により算出された制御パラメータに応じて開口制御部2’を制御する。本変形例の場合、制御パラメータは、液晶パネル1と開口制御部2’との距離、液晶パネル1と開口制御部2’との水平方向のずれ量などである。
本変形例では、液晶パネル1に表示された視差画像の出力方向を、開口制御部2’で制御することによって、視域が制御される。このように、視差画像をずらす処理を行わず、視域制御部15’により開口制御部2’を制御してもよい。
次に、上記のように構成された映像処理装置100(100’)による映像処理方法について、図6のフローチャートを用いて説明する。
(1)視聴者検出部13は、カメラ3により撮影された映像を用いて顔認識を行い、視聴者認識情報を取得する(ステップS1)。
(2)視聴者検出部13は、視聴者が複数であるか否かを判定する(ステップS2)。その結果、視聴者が1人であれば、視聴者検出部13は、その視聴者の視聴者認識情報を視聴者選択部16に供給する。一方、視聴者が複数人であれば、視聴者検出部13は、検出された複数の視聴者の視聴者認識情報を全て視聴者選択部16に供給する。
(3)視聴者選択部16は、視聴者検出部13から1人分のみの視聴者の位置情報が供給された場合、その視聴者(1人)を選択し、その視聴者の視聴者認識情報を視域情報算出部14に供給する(ステップS3)。
(4)視域情報算出部14は、選択された視聴者(1人)を最も高品位の立体映像が見える位置(例えば、視域の中心。以下同様。)に収める視域を設定するための制御パラメータを算出する(ステップS4)。
(5)視聴者選択部16は、視聴者が複数の場合、視聴者に優先度を付けるための優先度付けルールが設定されているかどうかを判定する(ステップS5)。
(6)優先度付けルールが設定されていない場合、視聴者選択部16は、視聴者を選択しない旨を視域情報算出部14に通知する(ステップS6)。
(7)視域情報算出部14は、できるだけ多くの視聴者を収める視域を設定するための制御パラメータを算出する(ステップS7)。
(8)視聴者選択部16は、優先度付けルールに基づいて視聴者に優先度を付け、視聴者の中から所定の人数の視聴者を優先度の高い順に選択し、選択した視聴者の視聴者認識情報(位置情報)を視域情報算出部14に供給する(ステップS8)。
検出された視聴者への優先度付けの具体的な方法については、例えば液晶パネル1の正面方向にいる視聴者を優先する優先度付けルールの場合、視聴者選択部16は、視聴者検出部13から供給された視聴者の位置情報を用いて、液晶パネル1の正面方向にいる視聴者から斜め方向にいる視聴者の順に高い優先度を付ける。その後、視聴者選択部16は、最も優先度が高い視聴者から順に、所定の人数(1または複数)の視聴者を選択する。なお、優先度付けルールは、これ以外にも種々のものが想定されるが、後でまとめて他の具体例を説明する。
(9)視域情報算出部14は、選択された視聴者を視域内に収める視域を設定するための制御パラメータを算出する(ステップS9)。
なお、選択された視聴者全員を視域内に収めることができない場合(即ち、選択された視聴者全員を収める視域を見つけることができない場合)には、視域情報算出部14は、優先度が最も高い視聴者から順にできるだけ多くの選択された視聴者を収める視域を設定するための制御パラメータを算出する。例えば、まず、選択された視聴者のうち優先度が最も低い視聴者を除外して、残りの視聴者が全て視域内に収まる視域を設定するための制御パラメータの算出を試みる。それでもなお制御パラメータを算出できない場合には、残った視聴者のうち最も優先度の低い視聴者を除外して、制御パラメータの算出を試みる。これを繰り返すことで、優先度の高い視聴者については常に視域内に収めることができる。
また、視域情報算出部14は、選択された視聴者全員が視域内に収まるか否かにかかわらず、選択された視聴者のうち最も高い優先度が付けられた視聴者を、最も高品位の立体映像が見える位置に収める視域を設定するための制御パラメータを算出してもよい。
また、視域情報算出部14は、視聴者選択部16により選択された視聴者の数が1人の場合には、その視聴者を最も高品位の立体映像が見える位置に収める視域を設定するための制御パラメータを算出してもよい。
(10)画像調整部15は、ステップS4、ステップS7またはステップS9において算出された制御パラメータを用いて画像(視差画像信号)を調整し、液晶パネル1に供給する(ステップS10)。
なお、変形例に係る映像処理装置100’の場合には、視域制御部15’が、ステップS4、ステップS7またはステップS9において算出された制御パラメータを用いて、開口制御部2’を制御する。
(11)液晶パネル1は、ステップS10において画像調整部15により調整された画像を表示する(ステップS11)。
なお、変形例に係る映像処理装置100’の場合には、液晶パネル1は、視差画像変換部12から供給される画像を表示する。
次に、図7を用いて、上記の映像処理方法による視域の設定について具体的に説明する。
図7(a)、(b)および(c)は、映像処理装置100(100’)と、視聴者(4人)と、設定された視域(Sa,Sb,Sc)とを示している。各図の間で、視聴者の数および位置は同じである。また、視聴者に付されたアルファベットは、優先度を示しており、A,B,C,Dの順に優先度が高い。
図7(a)は、ステップS6およびステップS7を経て設定された視域の一例を示している。同図に示すように、3人の視聴者が視域Sa内に入っている。この場合、優先度付けルールが設定されていないため、視聴者の優先度は考慮されず、視域内に収まる視聴者の数を最大化するように視域が設定されている。
図7(b)および図7(c)は、ステップS8およびステップS9を経て設定された視域を示している。図7(b)では、図7(a)に比べて視域に収まる視聴者の人数は減っているものの、優先度の高い2人の視聴者が視域Sbに入っている。また、図7(c)では、図7(b)に比べて視域内に収まる人数はさらに減っているものの、最も優先度の高い視聴者が視域の中心に位置するように視域Scが設定されている。
次に、優先度付けルールの具体例(a)〜(h)を列挙する。
(a)液晶パネル1の端よりも正面にいる視聴者の方が、高い視聴意欲を有している可能性が大きい。そこで、本優先度付けルールでは、図8(a)に示すように、液晶パネル1の正面方向にいる視聴者から液晶パネル1の端にいる視聴者の順に高い優先度を付ける。
本優先度付けルールを採る場合、視聴者選択部16は、例えば、視聴者の位置情報を用いて、液晶パネル1の表示面と、視聴者および液晶パネル1の中心を通る垂直方向の面とがなす角度(最大90°)を求め、その角度が大きい視聴者から順に高い優先度を付ける。
(b)立体映像を見る上で最適な視聴距離(液晶パネル1と視聴者との間の距離)に近い視聴者を優先する。本優先度付けルールでは、図8(b)に示すように、視聴距離が立体映像を見る上で最適な視聴距離(最適視聴距離d)に近い視聴者から順に高い優先度を付ける。なお、最適視聴距離dの値は、液晶パネルのサイズ等の各種パラメータに依存するため、映像処理装置の製品ごとに異なる値が設定される。
本優先度付けルールを採る場合、視聴者選択部16は、視聴者の位置情報に含まれるZ軸上の位置と、最適視聴距離dとの差を求め、その差が小さい視聴者から順に高い優先度を付ける。
(c)視聴時間が長い視聴者ほど、その番組に対して高い視聴意欲を有している可能性が大きい。そこで、本優先度付けルールでは、視聴時間が長い視聴者から順に高い優先度を付ける。視聴時間は、例えば、視聴中の番組の開始時間を基準として計算する。視聴中の番組の開始時間は、電子番組表(EPG)等から取得可能である。また、視聴時間は、視聴中の番組が選局された時間を基準として計算してもよい。また、視聴時間は、映像表示装置100の電源が投入され、映像表示を開始した時間を基準として計算してもよい。
本優先度付けルールを採る場合、視聴者選択部16は、視聴者ごとに視聴時間を計算し、視聴時間が長い視聴者から順に高い優先度を付ける。
(d)リモコンを持っている視聴者は、リモコンを操作して視聴チャンネルを選択するため、中心的な視聴者である可能性が大きい。そこで、本優先度付けルールでは、リモコンを持っている視聴者、またはリモコンに最も近い視聴者に最も高い優先度を付ける。
本優先度付けルールを採る場合、視聴者検出部13は、リモコンを持っている視聴者を認識し、その視聴者の視聴者認識情報を視聴者選択部16に供給する。リモコンを持っている視聴者の認識方法としては、リモコンから発せられる赤外線もしくはリモコンに予め設けられた目印をカメラ3で検出して、リモコン位置から最も近い視聴者を認識する方法、または、画像認識によってリモコンを持っている視聴者を直接的に認識する方法などがある。そして、視聴者選択部16は、リモコンを持っている視聴者に最も高い優先度を付ける。なお、視聴者選択部16は、リモコンを持っている視聴者以外の視聴者については、例えばリモコンに最も近い視聴者から順に高い優先度を付けるようにしてもよい。
(e)映像処理装置100のユーザに関する情報を、ユーザ登録情報として記憶部17に記憶させることも可能である。このユーザ登録情報は、名前や顔写真の他、年齢、身長、立体映像を視聴する優先度を示す3D視聴優先度などの情報を含むことができる。本優先度付けルールでは、この3D視聴優先度の高い視聴者を優先する。
本優先度付けルールを採る場合、視聴者検出部13は、カメラ3で撮影された映像から各視聴者の顔情報を取得する。そして、視聴者検出部13は、視聴者の各々について、顔情報とマッチングするユーザ登録情報の顔写真を検索することによりその視聴者の3D視聴優先度を記憶部17から読み出す。そして、視聴者検出部13は、各視聴者について、位置情報と3D視聴優先度とを組み合わせた情報を視聴者選択部16に供給する。視聴者選択部16は、視聴者検出部13から供給された情報に基づいて、3D視聴優先度が高い視聴者から順に高い優先度を付ける。なお、ユーザ登録情報のない視聴者については低め(あるいは最低)の優先度を付けてもよい。
(f)映像表示装置100は、カメラ3で撮影した映像(以下、「カメラ映像」という。)を液晶パネル1に表示する機能を有する。図8(c)に示すように、カメラ映像では、認識された視聴者の顔に枠模様が付けられ、特定の視聴者を選択することができる。本優先度付けルールでは、カメラ映像上で選択された視聴者に、高い優先度を付ける。
より詳細には、ユーザは、カメラ映像上で視聴者を1人選択する。それにより、選択された視聴者の顔情報が、3D優先視聴者情報として記憶部17に保存される。なお、視聴者の選択は、カメラ映像上で変更することができる。そして、視聴者選択部16は、記憶部17に保存された3D優先視聴者情報の顔情報に合致する視聴者がいれば、その視聴者に最も高い優先度を付ける。
なお、図8(c)に示すように、カメラ映像上で複数の視聴者を、優先順位を付けて選択することも可能である。この場合、視聴者選択部16は、カメラ映像上で付けられた優先順位に従って、視聴者に優先度を付ける。このように、3D優先視聴者情報に基づいて視聴者に優先度を付ける。
(g)映像処理装置100およびソファーや椅子などの家具の配置状況によっては、液晶パネル1の正面からではなく斜め方向から視聴することが多くなる場合が想定される。そのような場合には、視域が液晶パネル1の斜め方向に設定される頻度が高くなる。そこで、本優先度付けルールでは、視域に頻繁に設定される場所にいる視聴者を優先する。
本優先度付けルールを採る場合、視域情報算出部14は、例えば、制御パラメータを算出するごとに、算出された制御パラメータを記憶部17に保存する。そして、視聴者選択部16は、記憶部17に保存された制御パラメータから、設定回数の多い視域を特定し、その視域内にいる視聴者に当該視域外にいる視聴者よりも高い優先度を付ける。
(h)映像処理装置100のユーザは、最も視聴しやすい位置などを初期視聴位置として設定することも可能である。本優先度付けルールでは、ユーザが初期視聴位置を予め設定しておき、その初期視聴位置にいる視聴者を優先する。
本優先度付けルールを採る場合、記憶部17は、ユーザが設定した初期視聴位置に関する情報を保存する。視聴者選択部16は、設定された初期視聴位置を記憶部17から読み出し、その視聴位置にいる視聴者に高い優先度を付ける。
以上説明したように、本実施形態に係る映像処理装置および映像処理方法によれば、複数の視聴者が存在し、且つ視聴者の一部が視域内に収まらない場合であっても、優先度の高い視聴者を視域内に必ず収めることで、高優先度の視聴者は高品位の立体映像を見ることができる。
さらに、本実施形態では、優先度付けルールが設定されている場合、優先度の高い視聴者を視域内に収めるように視域を制御する。このため、結果的に、フェイス・トラッキングの性能を高めることができる。即ち、例えば、視聴者がいないにもかかわらず視聴者検出部が視聴者を誤検出した場合、通常のフェイス・トラッキングでは、そのような視聴者に視域を調整してしまう。それに対し、本実施形態によれば、ユーザ登録情報の3D視聴優先度の高い視聴者や、カメラ映像上で選択された視聴者を優先する優先度付けルールなどを採れば、上記のような視聴者を無視することが可能となり、視域の調整を適切に行うことができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 液晶パネル
2 レンチキュラレンズ
2’ 開口制御部
3 カメラ
4 受光部
10,10’ コントローラ
11 チューナデコーダ
12 視差画像変換部
13 視聴者検出部
14 視域情報算出部
15 画像調整部
15’ 視域制御部
16 視聴者選択部
17 記憶部
20 視聴者
21 視域
22 逆視領域
100,100’ 映像処理装置
P 視聴領域
Sa,Sb,Sc 視域

Claims (3)

  1. 撮影された映像に基づいて視聴者の位置および人数を取得する視聴者検出部と、
    前記視聴者が複数の場合、前記複数の視聴者に優先度を付ける視聴者選択部と、
    前記視聴者の位置に基づいて視域を制御する視域制御部と、を備え、
    前記視域制御部は、前記視聴者全員を視域内に収めることができない場合には、優先度の高い視聴者から順に複数の視聴者を収める視域を設定する映像処理装置。
  2. 前記視聴者選択部は、表示部の正面にいる視聴者に高い優先度を付ける、請求項1に記載の映像処理装置。
  3. 前記視域制御部は、前記視聴者のうち最も高い優先度が付けられた視聴者を、最も高品位の立体映像が見える位置に収める視域を設定する、請求項1に記載の映像処理装置。
JP2012241863A 2012-11-01 2012-11-01 映像処理装置および映像処理方法 Expired - Fee Related JP5433766B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012241863A JP5433766B2 (ja) 2012-11-01 2012-11-01 映像処理装置および映像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012241863A JP5433766B2 (ja) 2012-11-01 2012-11-01 映像処理装置および映像処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011189548A Division JP5134714B1 (ja) 2011-08-31 2011-08-31 映像処理装置

Publications (2)

Publication Number Publication Date
JP2013055683A JP2013055683A (ja) 2013-03-21
JP5433766B2 true JP5433766B2 (ja) 2014-03-05

Family

ID=48132234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012241863A Expired - Fee Related JP5433766B2 (ja) 2012-11-01 2012-11-01 映像処理装置および映像処理方法

Country Status (1)

Country Link
JP (1) JP5433766B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP2006094056A (ja) * 2004-09-22 2006-04-06 Olympus Corp 画像表示システム、画像再生装置及びサーバ装置
JP2011033993A (ja) * 2009-08-05 2011-02-17 Sharp Corp 情報提示装置、および情報提示方法
JP5132804B1 (ja) * 2011-08-31 2013-01-30 株式会社東芝 映像処理装置および映像処理方法
JP5433763B2 (ja) * 2012-10-30 2014-03-05 株式会社東芝 映像処理装置および映像処理方法

Also Published As

Publication number Publication date
JP2013055683A (ja) 2013-03-21

Similar Documents

Publication Publication Date Title
JP5134714B1 (ja) 映像処理装置
JP5149435B1 (ja) 映像処理装置および映像処理方法
JP5129377B1 (ja) 映像処理装置
US8487983B2 (en) Viewing area adjusting device, video processing device, and viewing area adjusting method based on number of viewers
JP5129376B1 (ja) 映像処理装置および映像処理方法
JP5343156B1 (ja) 検出装置、検出方法および映像表示装置
JP5132804B1 (ja) 映像処理装置および映像処理方法
JP5156116B1 (ja) 映像処理装置および映像処理方法
JP5127967B1 (ja) 映像処理装置および映像処理方法
JP2013123094A (ja) 映像処理装置および映像処理方法ならびに記憶媒体
JP5095851B1 (ja) 映像処理装置および映像処理方法
JP5433763B2 (ja) 映像処理装置および映像処理方法
JP5156117B1 (ja) 映像処理装置および映像処理方法
JP5433766B2 (ja) 映像処理装置および映像処理方法
JP5032694B1 (ja) 映像処理装置および映像処理方法
JP5362071B2 (ja) 映像処理装置、映像表示装置および映像処理方法
JP5603911B2 (ja) 映像処理装置、映像処理方法および遠隔制御装置
JP5568116B2 (ja) 映像処理装置および映像処理方法
JP5395934B1 (ja) 映像処理装置および映像処理方法
JP2013055675A (ja) 映像処理装置および映像処理方法
JP2013055641A (ja) 映像処理装置および映像処理方法
JP2013055694A (ja) 映像処理装置および映像処理方法
JP2013055682A (ja) 映像処理装置および映像処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

LAPS Cancellation because of no payment of annual fees