JP5149435B1 - 映像処理装置および映像処理方法 - Google Patents
映像処理装置および映像処理方法 Download PDFInfo
- Publication number
- JP5149435B1 JP5149435B1 JP2011242674A JP2011242674A JP5149435B1 JP 5149435 B1 JP5149435 B1 JP 5149435B1 JP 2011242674 A JP2011242674 A JP 2011242674A JP 2011242674 A JP2011242674 A JP 2011242674A JP 5149435 B1 JP5149435 B1 JP 5149435B1
- Authority
- JP
- Japan
- Prior art keywords
- viewer
- video
- frame
- screen
- viewing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】視聴者が必要に応じて簡易な手順で視域の調整を行う。
【解決手段】カメラで撮影された映像を用いて視聴者の顔認識を行って、顔認識された視聴者の位置情報を取得する視聴者検出部と、カメラで撮影中のライブ映像を、表示装置の表示画面の一部に子画面としてスーパーインポーズする子画面表示制御部と、子画面内のライブ映像中に、視聴者が立体映像を視認可能な視聴位置を表す視域の枠を表示させる視域枠表示制御部と、枠内に位置する視聴者については立体映像が視認可能である旨の第1顔枠を表示させるとともに、枠外に位置する視聴者については立体映像が視認不可能である旨の第2顔枠を表示させる顔枠表示制御部と、を表示させる。
【選択図】図1
Description
本発明の実施形態は、立体映像を視認可能な視域を調整可能な映像処理装置および映像処理方法に関する。
裸眼で立体映像を視認可能なTVが注目されている。ところが、この種のTVでは、視聴位置によっては、立体感が得られない場合があり、十分な立体感を得るには、視聴者が立体感を得られる位置まで移動しなければならない。特に、視聴者が複数存在する場合には、各人が立体感を得られる位置まで移動するのは、非常に煩わしい。また、視聴者によって感じ方が異なるため、立体感を得るのに最適な位置にいるのかどうかについて、視聴者に不安感を与えるおそれもある。
そこで、TV側で立体感が得られる視域を自動調整することも考えられるが、視聴者は同じ場所に留まっているとは限らず、また視聴者の数も常に一定とは限らないため、視域を自動調整するのは容易なことではない。現実的には、視域の自動調整を行っても、立体感が得られないことも多く、このような場合、視聴者は、右往左往するばかりで、結局、立体映像を視認できないおそれがある。
また、従来の裸眼対応の3DTVでは、どの視聴者は立体感が得られる位置にいて、どの視聴者は立体感が得られない位置にいるのかを、各視聴者に報知する有効な手段がなく、各視聴者は、より最適な位置を探して不用意に移動することになり、立体映像を手軽に楽しむことは困難であった。
本発明は、視聴者が必要に応じて簡易な手順で視域の調整を行うことが可能な映像処理装置および映像処理方法を提供するものである。
本実施形態では、カメラで撮影された映像を用いて視聴者の顔認識を行って、顔認識された視聴者の位置情報を取得する視聴者検出部と、
前記カメラで撮影中のライブ映像を、表示装置の表示画面の一部に子画面としてスーパーインポーズする子画面表示制御部と、
前記子画面内のライブ映像中に、視聴者が立体映像を視認可能な視聴位置を表す視域の枠を表示させる視域枠表示制御部と、
前記枠内に位置する視聴者については立体映像が視認可能である旨の第1顔枠を表示させるとともに、前記枠外に位置する視聴者については立体映像が視認不可能である旨の第2顔枠を表示させる顔枠表示制御部と、を表示させる。
前記カメラで撮影中のライブ映像を、表示装置の表示画面の一部に子画面としてスーパーインポーズする子画面表示制御部と、
前記子画面内のライブ映像中に、視聴者が立体映像を視認可能な視聴位置を表す視域の枠を表示させる視域枠表示制御部と、
前記枠内に位置する視聴者については立体映像が視認可能である旨の第1顔枠を表示させるとともに、前記枠外に位置する視聴者については立体映像が視認不可能である旨の第2顔枠を表示させる顔枠表示制御部と、を表示させる。
以下、図面を参照しながら、本発明の実施形態について説明する。図1は一実施形態に係る映像表示装置100の外観図であり、図2はその概略構成を示すブロック図である。映像表示装置100は、液晶パネル1と、レンチキュラレンズ2と、カメラ3と、受光部4と、映像処理装置5とを備えている。
液晶パネル1は、視聴者が立体映像を視認できるように視差画像を表示することができる。この液晶パネル1は、例えば55インチサイズのパネルであり、水平方向に11520(=1280*9)個、垂直方向に720個の画素を配置したものである。また、各画素内には、3つのサブピクセル、すなわち、Rサブピクセル、GサブピクセルおよびBサブピクセルが垂直方向に形成されている。液晶パネル1には、背面に設けられるバックライト装置(不図示)から光が照射される。各画素は映像処理装置5から供給される視差画像信号(後述)に応じた輝度の光を透過させる。
レンチキュラレンズ2は、液晶パネル1に表示された複数の視差画像を視差に応じた方向に出力する。このレンチキュラレンズ2は、液晶パネル1の水平方向に沿って配置される複数の凸部を有し、その数は液晶パネル1の水平方向画素数の1/9である。そして、水平方向に配置される9個の画素につき1つの凸部が対応するように、レンチキュラレンズ2は液晶パネル1の表面に位置合わせして貼り付けられている。各画素を透過した光は凸部の頂点付近から指向性を持って特定の方向へ出力される。
本実施形態の液晶パネル1は、3視差以上の多視差映像表示モード(インテグラルイメージング方式)または2視差映像表示モードで、立体映像を表示することができ、この他に通常の2次元映像も表示可能である。2次元映像を表示する際には、レンチキュラレンズ2の光学作用を見かけ上無効化する。よって、2次元映像を表示する際には、フルHDを超える高解像度の表示が可能となる。
以下の説明では、液晶パネル1の各凸部に対して9個の画素を割り当てて、9視差の立体映像表示を行う多視差映像表示モードを備える例を説明する。この多視差映像表示モードでは、各凸部に対応する9個の画素にそれぞれ第1〜第9視差画像を表示する。第1〜第9視差画像とは、液晶パネル1の水平方向に沿って並ぶ9つの視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で第1〜第9視差画像のうちの1つの視差画像を、右目で他の1つの視差画像をそれぞれ見ることにより、映像を立体視できる。多視差映像表示モードによると、視差の数を増やすほど、視域を広げることができる。視域とは、液晶パネル1の前方から液晶パネル1を見たときに映像を立体視可能な領域をいう。
一方、2視差映像表示モードでは、各凸部に対応する9個の画素のうちの4個に右目用視差画像を、他の5個に左目用視差画像をそれぞれ表示する。左目用および右目用視差画像とは、水平方向に並ぶ2つの視点のうち、左側の視点および右側の視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で左目用視差画像を、右目で右目用視差画像をそれぞれ見ることにより、映像を立体視できる。2視差映像表示モードによると、表示される映像の立体感が多視差映像表示モードよりも得られやすくなるが、多視差映像表示モードに比べて視域が狭くなる。
なお、液晶パネル1は各凸部に対応する9個の画素に同一の画像を表示して、2次元画像を表示することもできる。この場合、解像度は劣るが、レンチキュラレンズ2の光学作用を無効化せずに、2次元画像の表示が可能となる。したがって、立体画像と2次元画像をスーパーインポーズして同時表示することができる。
また、本実施形態では、レンチキュラレンズ2の凸部と表示される視差画像との相対的な位置関係、すなわち、各凸部に対応する9個の画素にどのように視差画像を表示するか、に応じて、視域を可変制御できるようにしている。以下、多視差映像表示モードを例に取って、視域の制御について説明する。
図3は液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。同図の網掛けの領域が視域を示しており、視域から液晶パネル1を見ると映像を立体視できる。他の領域は逆視やクロストークが発生する領域であり、映像を立体視するのが困難な領域である。
図3は、液晶パネル1とレンチキュラレンズ2との相対的な位置関係、より具体的には、液晶パネル1とレンチキュラレンズ2との距離、あるいは液晶パネル1とレンチキュラレンズ2との水平方向のずれ量によって、視域が変化する様子を示している。
実際には、レンチキュラレンズ2は、液晶パネル1に高精度に位置合わせをして貼り付けられるため、液晶パネル1とレンチキュラレンズ2との相対的な位置を物理的に変更することは困難である。
そこで、本実施形態では、液晶パネル1の各画素に表示される第1〜第9視差画像の表示位置をずらすことで、見かけ上、液晶パネル1とレンチキュラレンズ2との相対的な位置関係を変更し、これにより、視域の調整を行う。
例えば、各凸部に対応する9個の画素に第1〜第9視差画像をそれぞれ表示した場合(図3(a))に比べ、視差画像を全体に右側にずらして表示した場合(図3(b))、視域は左側に移動する。逆に、視差画像を全体に左側にずらして表示した場合、視域は右側に移動する。
また、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を外側に大きくずらして表示した場合(図3(c))、視域は液晶パネル1に近づく方向に移動する。なお、ずらす視差画像とずらさない視差画像との間の画素や、ずらす量が異なる視差画像間の画素は、周囲の画素に応じて適宜補間すればよい。また、図3(c)とは逆に、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を中心側に大きくずらして表示した場合、視域は液晶パネル1から遠ざかる方向に移動する。
このように、視差画像の全体あるいは一部をずらして表示することにより、視域を液晶パネル1に対して左右方向あるいは前後方向に移動させることができる。図3では説明を簡略化するために視域を1つだけ示しているが、実際には、図4に示すように、複数の視域41が視聴領域Pに存在し、これらは連動して移動する。視域は、後述する図2の映像処理装置5により制御される。なお、視域41以外の視聴領域は、逆視やクロストーク等の発生により、良好な立体映像を見ることが困難な逆視領域42である。
図4に示すように、視域は、略菱形形状であるが、本実施形態では、処理の簡略化のため、液晶パネル1からの距離によって、5種類の視域を予め用意しておく。視域の詳細については後述する。
図2に戻って、映像表示装置100の各構成要素について説明する。
カメラ3は、液晶パネル1の中央下部付近に、所定の仰角で取り付けられ、液晶パネル1の前方の所定の範囲を撮影する。撮影された映像は映像処理装置5に供給され、視聴者の位置や視聴者の顔等、視聴者に関する情報を検出するために用いられる。カメラ3は、動画像と静止画像のどちらを撮影してもよい。
受光部4は、例えば液晶パネル1の下部の左側に設けられる。そして、受光部4は視聴者が使用するリモートコントローラから送信される赤外線信号を受信する。この赤外線信号は、立体映像を表示するか2次元映像を表示するか、立体映像を表示する場合に多視差映像表示モードおよび2視差映像表示モードのいずれを採用するか、視域の制御を行うか否か、等を示す信号を含む。
次に、映像処理装置5の内部構成を詳細に説明する。図2に示すように、映像処理装置5は、チューナデコーダ11と、視差画像変換部12と、視聴者検出部13と、位置情報補正部14と、視域情報算出部15と、記憶部16と、補正量算出部17と、モード選択部18と、視域制御部19と、距離推定部20と、表示制御部21と、を有する。
映像処理装置5は、例えば1つまたは複数のIC(Integrated Circuit)として実装され、液晶パネル1の裏側に配置される。もちろん、映像処理装置5の一部をソフトウェアで実装してもよい。
チューナデコーダ11(受信部)11は入力される放送波を受信および選局し、符号化された映像信号を復号する。放送波に電子番組表(EPG)等のデータ放送の信号が重畳されている場合、チューナデコーダ11はこれを抽出する。あるいは、チューナデコーダ11は、放送波ではなく、光ディスク再生装置やパーソナルコンピュータ等の映像出力機器から符号化された映像信号を受信して復号する。復号された信号はベースバンド映像信号とも呼ばれ、視差画像変換部12に供給される。なお、映像表示装置100が放送波を受信せず、専ら映像出力機器から受信する映像信号を表示する場合、チューナデコーダ11に代えて単に復号機能を有するデコーダを受信部として設けてもよい。
チューナデコーダ11が受信する映像信号は、2次元の映像信号であってもよいし、フレームパッキング(FP)、サイドバイサイド(SBS)あるいはトップアンドボトム(TAB)方式等で左目用および右目用の画像を含む3次元の映像信号であってもよい。また、映像信号は3視差以上の多視差の3次元映像信号であってもよい。
視差画像変換部12は、映像を立体表示するために、ベースバンド映像信号を複数の視差画像信号に変換して表示制御部21に供給する。視差画像変換部12は、多視差映像表示モードと2視差映像表示モードのどちらを選択するかで、処理内容が異なる。また、ベースバンド映像信号が2次元の映像信号であるか、3次元の映像信号であるか、に応じて、視差画像変換部12の処理内容が異なる。
モード選択部18は、表示装置の中央付近に位置する単一の視聴者に視域を合わせるシングルユーザモードと、カメラ3の画角内に位置する複数の視聴者に視域を合わせるマルチユーザモードとのいずれかの選択を行う。
表示装置の表示方式としては、2次元の映像表示を行う2次元映像表示モードと、2視差の立体映像表示を行う2視差映像表示モードと、3視差以上の多視差の映像表示を行う多視差映像表示モードとがあり、2次元映像表示モードが選択された場合は、視域の調整は意味がないため、モード選択部18の選択は無視される。一方、2視差映像表示モードが選択された場合は、モード選択部18は自動的にシングルユーザモードを選択する。これは、2視差映像表示モードの場合、視域が非常に狭くて、複数の視聴者に視域を合わせるのが困難なためである。また、多視差映像表示モードが選択された場合は、視聴者がシングルユーザモードとマルチユーザモードのいずれでも選択できるようにしてもよいし、あるいは、自動的にマルチユーザモードを選択するようにしてもよい。
視差画像変換部12は、モード選択部18で選択したモードに従って、画像変換処理を行う。例えば、モード選択部18が2視差映像表示モードを選択した場合、視差画像変換部12は、左目用および右目用視差画像にそれぞれ対応する左目用および右目用視差画像信号を生成する。より具体的には以下のようにする。
2視差映像表示モードを選択し、かつ、左目用および右目用の画像を含む3次元映像信号が入力された場合、視差画像変換部12は液晶パネル1に表示可能な形式の左目用および右目用視差画像信号を生成する。また、3視差以上の画像を含む3次元映像信号が入力される場合、例えばそのうちの任意の2つを用いて、視差画像変換部12は左目用および右目用視差画像信号を生成する。
これに対し、2視差映像表示モードを選択し、かつ、視差情報を含まない2次元の映像信号が入力された場合、視差画像変換部12は、映像信号における各画素の奥行き値に基づいて、左目用および右目用視差画像信号を生成する。奥行き値は、各画素がどの程度液晶パネル1に対して手前または奥に見えるように表示するか、を示す値である。奥行き値は予め映像信号に付加されていてもよいし、映像信号の特徴に基づいて動き検出、構図識別および人間の顔検出等を行って奥行き値を生成してもよい。左目用視差画像では、手前に見える画素は奥に見える画素より右側にずらして表示する必要がある。そのため、視差画像変換部12は映像信号における手前に見える画素を右側にずらす処理を行って左目用視差画像信号を生成する。奥行き値が大きいほどずらす量を大きくする。
一方、多視差映像表示モードを選択する場合、視差画像変換部12は第1〜第9視差画像にそれぞれ対応する第1〜第9視差画像信号を生成する。より具体的には以下のようにする。
多視差映像表示モードを選択し、かつ、2次元の映像信号または8視差以下の画像を含む3次元の映像信号が入力された場合、視差画像変換部12は、2次元の映像信号から左目用および右目用視差画像信号を生成するのと同様に奥行き情報に基づいて、第1〜第9視差画像信号を生成する。
多視差映像表示モードを選択し、かつ、9視差の画像を含む3次元の映像信号が入力された場合、視差画像変換部12はその映像信号を用いて第1〜第9視差画像信号を生成する。
視聴者検出部13は、カメラ3により撮影された映像を用いて顔認識を行い、視聴者の位置情報を取得する。この位置情報は、後述の位置情報補正部14および補正量算出部17に供給される。なお、視聴者検出部13は、視聴者が動いても追尾することが可能であるため、視聴者ごとの視聴時間を把握することもできる。
視聴者の位置情報は、例えば液晶パネル1の中央を原点とするX軸(水平方向)、Y軸(垂直方向)およびZ軸(液晶パネル1に対して直交する方向)上の位置として表される。視聴者40の位置は、座標(X1,Y1,Z1)で表される。より具体的には、視聴者検出部13は、まず、カメラ3により撮影された映像から顔を検出することにより視聴者を認識する。次いで、視聴者検出部13は映像における視聴者の位置からX軸およびY軸上の位置(X1,Y1)を算出し、顔の大きさからZ軸上の位置(Z1)を算出する。視聴者が複数いる場合、視聴者検出部13は、予め定めた数、例えば10人分の視聴者を検出するようにしてもよい。この場合、検出された顔の数が10より大きいときは、例えば液晶パネル1から近い、すなわち、Z軸上の位置が小さい順に10人の視聴者の位置を検出する。
視域情報算出部15は、後述の位置情報補正部14から供給された視聴者の位置情報を用いて、検出された視聴者を収める視域を設定するための制御パラメータを算出する。この制御パラメータは、例えば、図3で説明した視差画像をずらす量であり、1つのパラメータ、または複数のパラメータの組み合わせである。そして、視域情報算出部15は、算出した制御パラメータを表示制御部21に供給する。
より詳しくは、所望の視域を設定するために、視域情報算出部15は、制御パラメータと、その制御パラメータで設定される視域とを対応付けた視域データベースを用いる。この視域データベースは記憶部16に予め格納されている。視域情報算出部15は、視域データベースを検索することによって、視聴者の顔の大半が収まる視域を見つける。
表示制御部21は、視域を制御するために、算出された制御パラメータに応じて視差画像信号をずらしたり補間したりする調整を行った後に、液晶パネル1に供給する。液晶パネル1は調整された視差画像信号に対応する画像を表示する。
位置情報補正部14は、後述の補正量算出部17により算出された補正量を用いて、視聴者検出部13により取得された視聴者の位置情報を補正し、補正された位置情報を視域情報算出部15に供給する。なお、補正量の算出をまだ行っていない場合には、位置情報補正部14は、視聴者検出部13により取得された視聴者の位置情報をそのまま視域情報算出部15に供給する。
記憶部16は、フラッシュメモリなどの不揮発性メモリであり、視域データベース、位置情報の補正量などを記憶する。なお、この記憶部16は、映像処理装置5の外部に設けられてもよい。
補正量算出部17は、カメラ3の取り付け位置のずれに伴って発生する、視聴者の位置情報の誤差を補償するための補正量を算出する。この補正量の算出には、後で詳しく説明するように、(a)視聴者は移動せず、視差画像の出力方向を変える方式と、(b)視差画像の出力方向は変えず、視聴者が移動する方式とがある。なお、ここでいう取り付け位置のずれは、カメラ3の取り付け方向のずれ(光軸のずれ)を含む。
表示制御部21は、さらに細かく分けて、子画面表示制御部22と、視域枠表示制御部23と、顔枠表示制御部24とを有する。子画面表示制御部22は、カメラ3で撮影された映像を、表示装置の表示画面の一部に子画面としてスーパーインポーズする。視域枠表示制御部23は、子画面内に視域枠を表示させる。顔枠表示制御部24は、視聴者が視域内に位置するか否かの目印を子画面内に表示させる。
以上、映像表示装置100の内部構成について説明した。本実施形態ではレンチキュラレンズ2を用い、視差画像をずらすことによって視域を制御する例を示したが、他の手法で視域を制御してもよい。例えば、レンチキュラレンズ2に代えてパララックスバリアを設けてもよい。この場合、液晶パネル1に表示された視差画像の出力方向を、パララックスバリアで制御することによって、視域が制御される。
このように、レンチキュラレンズ2を用いた場合は、液晶パネル1の各画素に供給する視差画像データをずらすことで視域の調整を行うが、パララックスバリアを用いた場合は、パララックスバリアを直接制御することにより、視域の調整を行う。
図5は本実施形態に係る映像処理装置5の処理動作の一例を示すフローチャート、図6は視聴者が操作するリモートコントローラ50の一例を示す平面図である。図5のフローチャートは、リモートコントローラ50のトラッキングボタン51が押下されることにより開始される。
なお、このフローチャートを開始する前に、視聴者は、リモートコントローラ50により、2視差映像表示モードまたは多視差映像表示モードのうち、いずれか一つを選択しておく必要がある。モードには、2次元映像表示モードもあるが、このモードが選択された場合は、視域の調整は不要であるため、図5の処理は行われない。以下では、2視差映像表示モードが選択されるとシングルユーザモードが選択され、多視差映像表示モードが選択されるとマルチユーザモードが選択されるものとする。
トラッキングボタン51が押下されると、自動的な視域調整を行う(ステップS1)。ここでは、カメラ3により、液晶パネル1の前方に位置する視聴者を撮影する。多視差映像表示モードが選択されている場合は、カメラ3で撮影された各視聴者ごとに、液晶パネル1面からの距離を推定する。この距離の推定は、距離推定部20で行う。距離推定部20は、カメラ3で撮影された視聴者の顔の大きさに基づいて、液晶パネル1面からの距離を推定する。そして、各視聴者が視域内に収まるように、視差画像データを出力するタイミングを制御して、視差画像をずらすことにより、視域の調整を行う。2視差映像表示モードが選択されている場合は、液晶パネル1の正面付近に位置する視聴者を検出して、液晶パネル1からの距離を推定し、この視聴者が視域内に収まるように視域の調整を行う。
ステップS1の自動的なトラッキング調整で、満足のいく視域の調整ができた場合は、図5の処理は終了する(ステップS2でYES)。満足のいく視域の調整ができない場合は、リモートコントローラ50のクイックボタン52を操作して、さらに上下移動ボタン53を操作して、「3D視聴位置チェック」画面を表示させる(ステップS3)。
図7は3D視聴位置チェック画面の一例を示す図である。この3D視聴位置チェック画面には、カメラ3で撮影中のライブ映像が映し出される。この3D視聴位置チェック画面は、液晶パネル1で表示中の立体映像中に子画面31としてスーパーインポーズされる。
この子画面31は、カメラ3の近傍に表示され、例えば、図8に示すように、液晶パネル1の表示画面中の右下部分に表示される。視聴者は、子画面31に表示された自分の姿を見ながら、位置調整をすることになるため、子画面31の設置場所は、できるだけカメラ3に近づけるのが望ましい。すなわち、カメラ3の光学系の光軸と、子画面31を見る視聴者の目線とができるだけ近接していた方が、視聴者に違和感を与えずに最適な位置を検索できるため、より望ましい。
ところで、子画面31に表示されるカメラ3のライブ映像は、視差情報を含まない2次元映像である。子画面31の背景には、立体映像が表示されており、立体映像の中に、部分的に2次元映像を表示することになる。これを実現するには、表示画面内の子画面31の座標位置範囲を予め取得して、取得した座標位置範囲については、立体映像表示の単位となる9画素のすべてに同じ画素データを供給すればよい。これにより、立体映像を表示しつつ、子画面31では2次元映像を表示できる。子画面31の表示制御は、図1の子画面表示制御部22により実行される。
図7に示すように、子画面31に表示される3D視聴位置チェック画面には、立体映像を視認可能な範囲を示す視域の枠32が表示される(ステップS4)。この枠32は、カメラ3で撮影中のライブ映像に重畳表示される。また、ライブ映像から認識された視聴者の顔の周囲には、水色の点線枠33が表示される。
各視聴者は、3D視聴位置チェック画面内の視域の枠32の範囲内に、自分の顔が収まるように、視聴位置を変更する。より具体的には、自分の顔の周囲に表示される水色の点線枠33が視域の枠32内にすっぽりと収まるように、顔の位置を移動させる。複数の視聴者の視域を調整することを前提としているため、各視聴者が3D視聴位置チェック画面内のいずれかの視域の枠32の範囲内に移動する。
視域調整の対象となる視聴者の顔枠33が視域の枠32内に収まると、青色実線の枠34に変化し、視域の調整が完了する(ステップS5)。これで、十分な立体感が得られる場合は、リモートコントローラ50の終了ボタンを押下して、視域の調整を終えることになる。
記憶部16には、液晶パネル1面からの直線距離に応じて、複数種類の視域の情報が記憶されている。図10は液晶パネル1面からの直線距離と視域との関係を示す概念図である。図10の例では、液晶パネル1面からの直線距離がa,b,cのそれぞれについて、視域情報を記憶部16に記憶する例を示している。図示のように、液晶パネル1面からの直線距離が近いほど、視域の幅は大きくなる。ただし、どの視域の幅も、視聴者の平均的な顔の幅である16cm程度に合わせて設定されている。すなわち、液晶パネル1面からの直線距離にかかわらず、実際上の視域の幅は変わらない。液晶パネル1面から遠ざかるほど、視聴者は小さく表示されるため、視域の幅も狭くなる。
図10では、一例として、3つの距離a,b,cについての視域の情報を記憶部16に記憶しているが、もっと細かい距離の単位で、視域の情報を記憶してもよい。
記憶部16には、図10に示すように、液晶パネル1面からの直線距離に対応する視域の情報が記憶されるため、飛び飛びの視域の情報しか記憶されないことになる。例えば、図10の距離aと距離bの中間点に視聴者が位置する場合は、カメラ3で視聴者の距離を推定して、距離aと距離bのいずれか近い方の視域の情報を記憶部16から読み出して、子画面31に視域の枠32を表示することになる。
また、視聴者が液晶パネル1から遠くに離れて位置する場合は、立体感を視認させることは不可能であるため、子画面31上に視聴者の移動方向を明示する目印(例えば矢印)を表示するなどして、視聴者の移動を促すのが望ましい。
図7に示す3D視聴位置チェック画面での視域の調整を行っても、まだ十分な立体感が得られない場合は、リモートコントローラ50の例えば青ボタン54を操作することにより、テストパターン画面を表示させて、視域制御部19により視域の調整を行うことも可能である。
図11はテストパターン画面35の一例を示す図である。このテストパターン画面35は、液晶パネル1の表示画面全体に表示されるものであり、視差画像により形成されており、立体感を得られるような画像が表示される。この画面内には、スライドバー36が設けられ、このスライドバー36をリモートコントローラ50の例えば左右移動キー55で操作することで、立体映像の左右方向の見え方を調整できる。また、リモートコントローラ50の上下移動キー53を操作することで、液晶パネル1との距離を調整できる。
リモートコントローラ50の左右移動キー55、あるいは上下移動キー53を操作すると、図1の補正量算出部17は、視聴者の位置情報の補正量を算出して、記憶部16に格納する。位置情報補正部14は、視聴者検出部13から視聴者の位置情報が供給されると、記憶部16から位置情報の補正量を読み出して、この補正量を用いて視聴者検出部13から供給された位置情報を補正する。この補正された位置情報は、表示制御部21に供給される。
表示制御部21は、補正された位置情報を用いて制御パラメータを算出して、この制御パラメータを用いて視差画像データの画素表示位置を決定する。そして、液晶パネル1の各画素に視差画像データを供給する。
このように、本実施形態では、自動で行うフェイストラッキングによる視域調整では十分な立体感が得られない場合に、視聴者が任意の選択で、3D視聴位置チェック画面を表示させて、視域の調整を行えるようにした。この3D視聴位置チェック画面では、視域の枠32を表示させるとともに、カメラ3で認識した視聴者の顔の枠33を表示し、視聴者の顔の枠33が視域の枠32内に収まるように、視聴者に移動してもらう。これにより、映像処理装置5側で、カメラ3の画角の変更や視域の調整を行う必要がなくなり、映像処理装置5の処理負担を軽減できる。視聴者は、液晶パネル1の表示画面にスーパーインポーズされる子画面31内の視域の枠32と顔の枠33を見ながら、立体感を得るための最適な位置に移動できるため、自分がどこに移動すればよいのか、判断に迷うことがなく、簡易かつ迅速に、最適な視聴位置への移動を行うことができる。
さらに、3D視聴位置チェック画面でも、十分な立体感が得られない場合は、さらにテストパターン画面35を表示させて映像処理装置5側で視域の調整を行うため、視聴者が視聴位置を変更しなくても、最適な視域調整を行うことができる。
上述した実施形態で説明した映像処理装置5の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、映像処理装置5の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、映像処理装置5の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1 液晶パネル、2 レンチキュラレンズ、3 カメラ、4 受光部、5 映像処理装置、11 チューナデコーダ、12 視差画像変換部、13 視聴者検出部、14 位置情報補正部、15 視域情報算出部、16 記憶部、17 補正量算出部、18 モード選択部、19 視域制御部、20 距離推定部、21 表示制御部、22 子画面表示制御部、23 視域枠表示制御部、24 顔枠表示制御部、31 子画面、32 視域の枠、33 顔点線枠、34 顔実線枠、50 リモートコントローラ
Claims (12)
- カメラで撮影された映像を用いて視聴者の顔認識を行って、顔認識された視聴者の位置情報を取得する視聴者検出部と、
前記カメラで撮影中のライブ映像を、表示装置の表示画面の一部に子画面としてスーパーインポーズする子画面表示制御部と、
前記子画面内のライブ映像中に、視聴者が立体映像を視認可能な視聴位置を表す視域の枠を表示させる視域枠表示制御部と、
前記枠内に位置する視聴者については立体映像が視認可能である旨の第1顔枠を表示させるとともに、前記枠外に位置する視聴者については立体映像が視認不可能である旨の第2顔枠を表示させる顔枠表示制御部と、を表示させる映像処理装置。 - 前記カメラは、前記表示装置の表示画面の中央下部に設置され、
前記子画面表示制御部は、前記カメラの近傍に前記子画面を表示させることを特徴とする請求項1に記載の映像処理装置。 - 前記視域の枠の幅は、視聴者の平均的な顔の幅に合わせて設定されることを特徴とする請求項1または2に記載の映像処理装置。
- 前記表示装置から視聴者までの直線距離に応じて、複数種類の前記視域の枠を記憶する枠記憶部と、
前記カメラで撮影された映像に基づいて、前記表示装置から視聴者までの直線距離を推定する距離推定部と、を備え、
前記視域枠表示制御部は、前記距離推定部で推定された直線距離に最も近い直線距離に対応した前記視域の枠を前記枠記憶部から読み出して、前記子画面に表示させることを特徴とする請求項1乃至3のいずれかに記載の映像処理装置。 - 前記カメラで撮影された映像に基づいて、前記表示装置から視聴者までの直線距離を推定する距離推定部を備え、
前記顔枠表示制御部は、前記距離推定部で推定された直線距離が所定の範囲内にある場合のみ、前記第1顔枠を表示可能とし、前記距離推定部で推定された直線距離が前記所定の範囲から外れている場合には、前記枠内に視聴者が位置していても、前記第2顔枠を表示させることを特徴とする請求項1乃至3のいずれかに記載の映像処理装置。 - 前記顔枠表示制御部は、前記距離推定部で推定された直線距離が前記所定の範囲から外れている場合に、視聴者が移動すべき方向を示す指標を表示させることを特徴とする請求項5に記載の映像処理装置。
- 前記子画面表示制御部は、前記子画面の表示範囲に対応する前記表示装置の各画素に対して、視差情報を含まない二次元画像データを供給して前記子画面を描画することを特徴とする請求項1乃至6のいずれかに記載の映像処理装置。
- 前記表示装置の中央付近に位置する単一の視聴者に視域を合わせるシングルユーザモードと、前記カメラの画角内に位置する複数の視聴者に視域を合わせるマルチユーザモードと、の選択を行うモード選択部を備え、
前記顔枠表示制御部は、前記モード選択部で選択されたモードに従って、前記第1顔枠または前記第2顔枠を表示させることを特徴とする請求項1乃至7のいずれかに記載の映像処理装置。 - 入力映像データの映像種別を検出する映像種別検出部を備え、
前記モード選択部は、前記映像種別検出部で検出された入力映像データの映像種別を考慮に入れて、前記シングルユーザモードと前記マルチユーザモードとのいずれかを選択することを特徴とする請求項8に記載の映像処理装置。 - 前記モード選択部は、前記入力映像データに含まれる視差情報または奥行き情報を用いて生成される二視差データを前記表示装置の各画素に供給して立体映像表示を行う場合は、前記シングルユーザモードを選択し、3視差以上の多視差データを前記表示装置の各画素に供給して立体映像表示を行う場合は、前記シングルユーザモードと前記マルチユーザモードとのいずれかを視聴者に選択させることを特徴とする請求項9に記載の映像処理装置。
- 左目用の視差画像および右目用の視差画像を含むテストパターン画面を生成するチェック画面生成部と、
前記テストパターン画面を用いて、視聴者の両目で立体映像が視認されるように、視域を調整する視域制御部と、を備えることを特徴とする請求項1乃至10のいずれかに記載の映像処理装置。 - 視聴者が操作部材により視域の自動調整を選択すると、カメラで視聴者を撮影して得られた撮影画像に基づいて視聴者と表示装置との直線距離を距離推定部にて推定して、視聴者が立体映像を視認可能な視域内に位置するように視域制御部にて視域の調整を行うステップと、
視聴者が前記操作部材により視域の任意調整を選択すると、前記表示装置の表示画面の一部に、前記カメラで撮影中のライブ映像を含む子画面を子画面表示制御部にて表示させるステップと、
顔枠表示制御部にて、前記視域の枠内に位置する視聴者については立体映像を視認可能である旨の第1顔枠を表示させるとともに、前記枠外に位置する視聴者については立体映像を視認不可能である旨の第2顔枠を表示させるステップと、を備えることを特徴とする映像処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242674A JP5149435B1 (ja) | 2011-11-04 | 2011-11-04 | 映像処理装置および映像処理方法 |
US13/480,861 US20130113899A1 (en) | 2011-11-04 | 2012-05-25 | Video processing device and video processing method |
CN2012101898395A CN103096103A (zh) | 2011-11-04 | 2012-06-08 | 视频处理装置和视频处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011242674A JP5149435B1 (ja) | 2011-11-04 | 2011-11-04 | 映像処理装置および映像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5149435B1 true JP5149435B1 (ja) | 2013-02-20 |
JP2013098934A JP2013098934A (ja) | 2013-05-20 |
Family
ID=47890571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011242674A Expired - Fee Related JP5149435B1 (ja) | 2011-11-04 | 2011-11-04 | 映像処理装置および映像処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130113899A1 (ja) |
JP (1) | JP5149435B1 (ja) |
CN (1) | CN103096103A (ja) |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
JP2011523538A (ja) | 2008-05-20 | 2011-08-11 | ペリカン イメージング コーポレイション | 異なる種類の撮像装置を有するモノリシックカメラアレイを用いた画像の撮像および処理 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
US20120012748A1 (en) | 2010-05-12 | 2012-01-19 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
EP2708019B1 (en) | 2011-05-11 | 2019-10-16 | FotoNation Limited | Systems and methods for transmitting and receiving array camera image data |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
JP2014521117A (ja) | 2011-06-28 | 2014-08-25 | ペリカン イメージング コーポレイション | アレイカメラで使用するための光学配列 |
US20130070060A1 (en) | 2011-09-19 | 2013-03-21 | Pelican Imaging Corporation | Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
US8542933B2 (en) | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
WO2013126578A1 (en) | 2012-02-21 | 2013-08-29 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
CN104508681B (zh) | 2012-06-28 | 2018-10-30 | Fotonation开曼有限公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法 |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US8619082B1 (en) | 2012-08-21 | 2013-12-31 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
WO2014043641A1 (en) | 2012-09-14 | 2014-03-20 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
US20140092281A1 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating Images from Light Fields Utilizing Virtual Viewpoints |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
WO2014133974A1 (en) | 2013-02-24 | 2014-09-04 | Pelican Imaging Corporation | Thin form computational and modular array cameras |
US9638883B1 (en) | 2013-03-04 | 2017-05-02 | Fotonation Cayman Limited | Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process |
US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
JP2016524125A (ja) | 2013-03-15 | 2016-08-12 | ペリカン イメージング コーポレイション | カメラアレイを用いた立体撮像のためのシステムおよび方法 |
US9497370B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Array camera architecture implementing quantum dot color filters |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
KR20150044732A (ko) * | 2013-10-17 | 2015-04-27 | 엘지전자 주식회사 | 무안경 방식의 입체 영상 표시장치, 및 그 동작방법 |
US9426343B2 (en) | 2013-11-07 | 2016-08-23 | Pelican Imaging Corporation | Array cameras incorporating independently aligned lens stacks |
WO2015074078A1 (en) | 2013-11-18 | 2015-05-21 | Pelican Imaging Corporation | Estimating depth from projected texture using camera arrays |
US9456134B2 (en) | 2013-11-26 | 2016-09-27 | Pelican Imaging Corporation | Array camera configurations incorporating constituent array cameras and constituent cameras |
US20150195502A1 (en) * | 2014-01-06 | 2015-07-09 | Innolux Corporation | Display device and controlling method thereof |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
KR102135686B1 (ko) | 2014-05-16 | 2020-07-21 | 삼성디스플레이 주식회사 | 입체영상 표시장치 및 이의 구동 방법 |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
CN104345885A (zh) * | 2014-09-26 | 2015-02-11 | 深圳超多维光电子有限公司 | 立体跟踪状态指示方法及显示装置 |
WO2016054089A1 (en) | 2014-09-29 | 2016-04-07 | Pelican Imaging Corporation | Systems and methods for dynamic calibration of array cameras |
CN104601981A (zh) * | 2014-12-30 | 2015-05-06 | 深圳市亿思达科技集团有限公司 | 一种基于人眼跟踪的调整观看角度的方法及全息显示装置 |
CN104602097A (zh) * | 2014-12-30 | 2015-05-06 | 深圳市亿思达科技集团有限公司 | 一种基于人眼跟踪的调整观看距离的方法及全息显示装置 |
CN104702939B (zh) | 2015-03-17 | 2017-09-15 | 京东方科技集团股份有限公司 | 图像处理系统、方法、确定位置的方法及显示系统 |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
CN112188181B (zh) * | 2019-07-02 | 2023-07-04 | 中强光电股份有限公司 | 图像显示设备、立体图像处理电路及其同步信号校正方法 |
MX2022003020A (es) | 2019-09-17 | 2022-06-14 | Boston Polarimetrics Inc | Sistemas y metodos para modelado de superficie usando se?ales de polarizacion. |
JP7330376B2 (ja) | 2019-10-07 | 2023-08-21 | ボストン ポーラリメトリックス,インコーポレイティド | 偏光によるセンサシステム及び撮像システムの増強のための方法 |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
KR20220132620A (ko) | 2020-01-29 | 2022-09-30 | 인트린식 이노베이션 엘엘씨 | 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들 |
CN115428028A (zh) | 2020-01-30 | 2022-12-02 | 因思创新有限责任公司 | 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法 |
US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08160556A (ja) * | 1994-06-20 | 1996-06-21 | Tomohiko Hattori | 立体映像表示装置 |
JP3229824B2 (ja) * | 1995-11-15 | 2001-11-19 | 三洋電機株式会社 | 立体映像表示装置 |
JPH09298759A (ja) * | 1996-05-08 | 1997-11-18 | Sanyo Electric Co Ltd | 立体映像表示装置 |
JP3443271B2 (ja) * | 1997-03-24 | 2003-09-02 | 三洋電機株式会社 | 立体映像表示装置 |
JP2006195058A (ja) * | 2005-01-12 | 2006-07-27 | Olympus Corp | 観察装置 |
US9250703B2 (en) * | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
US7538876B2 (en) * | 2006-06-12 | 2009-05-26 | The Boeing Company | Efficient and accurate alignment of stereoscopic displays |
JP5006587B2 (ja) * | 2006-07-05 | 2012-08-22 | 株式会社エヌ・ティ・ティ・ドコモ | 画像提示装置および画像提示方法 |
US8698812B2 (en) * | 2006-08-04 | 2014-04-15 | Ati Technologies Ulc | Video display mode control |
JP5322264B2 (ja) * | 2008-04-01 | 2013-10-23 | Necカシオモバイルコミュニケーションズ株式会社 | 画像表示装置およびプログラム |
JP4819114B2 (ja) * | 2008-12-08 | 2011-11-24 | シャープ株式会社 | 立体画像表示装置 |
JP5407380B2 (ja) * | 2009-02-03 | 2014-02-05 | 富士通モバイルコミュニケーションズ株式会社 | 撮像機能を備えた携帯端末 |
JP2010224129A (ja) * | 2009-03-23 | 2010-10-07 | Sharp Corp | 立体画像表示装置 |
CN102804786A (zh) * | 2009-06-16 | 2012-11-28 | Lg电子株式会社 | 观看范围通知方法以及用于实现该方法的电视接收器 |
JP5404246B2 (ja) * | 2009-08-25 | 2014-01-29 | キヤノン株式会社 | 3次元映像処理装置及びその制御方法 |
JP5356952B2 (ja) * | 2009-08-31 | 2013-12-04 | レムセン イノベーション、リミティッド ライアビリティー カンパニー | 表示装置 |
US8964013B2 (en) * | 2009-12-31 | 2015-02-24 | Broadcom Corporation | Display with elastic light manipulator |
CN101909219B (zh) * | 2010-07-09 | 2011-10-05 | 深圳超多维光电子有限公司 | 一种立体显示方法及跟踪式立体显示器 |
CN102098524B (zh) * | 2010-12-17 | 2011-11-16 | 深圳超多维光电子有限公司 | 跟踪式立体显示设备及跟踪式立体显示方法 |
-
2011
- 2011-11-04 JP JP2011242674A patent/JP5149435B1/ja not_active Expired - Fee Related
-
2012
- 2012-05-25 US US13/480,861 patent/US20130113899A1/en not_active Abandoned
- 2012-06-08 CN CN2012101898395A patent/CN103096103A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2013098934A (ja) | 2013-05-20 |
US20130113899A1 (en) | 2013-05-09 |
CN103096103A (zh) | 2013-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5149435B1 (ja) | 映像処理装置および映像処理方法 | |
US8487983B2 (en) | Viewing area adjusting device, video processing device, and viewing area adjusting method based on number of viewers | |
JP5129377B1 (ja) | 映像処理装置 | |
JP5134714B1 (ja) | 映像処理装置 | |
JP5129376B1 (ja) | 映像処理装置および映像処理方法 | |
JP5343156B1 (ja) | 検出装置、検出方法および映像表示装置 | |
JP5132804B1 (ja) | 映像処理装置および映像処理方法 | |
JP5117613B1 (ja) | 映像処理装置および映像処理方法ならびに記憶媒体 | |
JP5156116B1 (ja) | 映像処理装置および映像処理方法 | |
JP5127967B1 (ja) | 映像処理装置および映像処理方法 | |
JP5095851B1 (ja) | 映像処理装置および映像処理方法 | |
JP5156117B1 (ja) | 映像処理装置および映像処理方法 | |
US20140119600A1 (en) | Detection apparatus, video display system and detection method | |
US20130050442A1 (en) | Video processing apparatus, video processing method and remote controller | |
JP5433763B2 (ja) | 映像処理装置および映像処理方法 | |
JP5362071B2 (ja) | 映像処理装置、映像表示装置および映像処理方法 | |
JP5395934B1 (ja) | 映像処理装置および映像処理方法 | |
JP5032694B1 (ja) | 映像処理装置および映像処理方法 | |
JP5568116B2 (ja) | 映像処理装置および映像処理方法 | |
JP5603911B2 (ja) | 映像処理装置、映像処理方法および遠隔制御装置 | |
JP5498555B2 (ja) | 映像処理装置および映像処理方法 | |
JP2013055665A (ja) | 視域調整装置、映像処理装置および視域調整方法 | |
JP2013055694A (ja) | 映像処理装置および映像処理方法 | |
JP2013055675A (ja) | 映像処理装置および映像処理方法 | |
JP2013055682A (ja) | 映像処理装置および映像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121129 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |