JP5129377B1 - 映像処理装置 - Google Patents

映像処理装置 Download PDF

Info

Publication number
JP5129377B1
JP5129377B1 JP2011189660A JP2011189660A JP5129377B1 JP 5129377 B1 JP5129377 B1 JP 5129377B1 JP 2011189660 A JP2011189660 A JP 2011189660A JP 2011189660 A JP2011189660 A JP 2011189660A JP 5129377 B1 JP5129377 B1 JP 5129377B1
Authority
JP
Japan
Prior art keywords
viewer
position information
correction amount
unit
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011189660A
Other languages
English (en)
Other versions
JP2013051636A (ja
Inventor
星 利 弘 諸
江 豊 入
原 伸 三 松
上 勇 一 井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011189660A priority Critical patent/JP5129377B1/ja
Priority to US13/402,272 priority patent/US8477181B2/en
Priority to CN201210135941.7A priority patent/CN102970572B/zh
Application granted granted Critical
Publication of JP5129377B1 publication Critical patent/JP5129377B1/ja
Publication of JP2013051636A publication Critical patent/JP2013051636A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Abstract


【課題】カメラの位置ずれを容易に補正し、視聴者が良好な立体映像を見ることを可能にする映像処理装置および映像処理方法を提供する。
【解決手段】実施形態によれば、映像処理装置は、カメラで撮影された映像を用いて顔認識を行い、視聴者の位置情報を取得する視聴者検出部と、前記カメラの取り付け位置のずれに伴う前記位置情報の誤差を補償するための補正量を算出する補正量算出部と、前記補正量算出部により算出された前記補正量を用いて前記位置情報を補正する、位置情報補正部と、前記位置情報補正部により補正された位置情報を用いて、前記視聴者を収める視域を設定するための制御パラメータを算出する視域情報算出部と、前記制御パラメータに応じて視域を制御する視域制御部と、を備える。
【選択図】図2

Description

本発明の実施形態は、映像処理装置に関する。
近年、視聴者が特殊なメガネを使用せずに裸眼で立体映像を見ることができる立体映像表示装置(いわゆる裸眼3Dテレビ)が普及しつつある。この立体映像表示装置は、視点の異なる複数の画像(視差画像)を表示する。そして、それらの画像の光線は、例えばパララックスバリア、レンチキュラレンズなどによって出力方向を制御され、視聴者の両眼に導かれる。視聴者の位置が適切であれば、視聴者は、左目と右目とで異なる視差画像を見ることになるため、映像を立体的に認識することができる。このように視聴者が立体映像を見ることの可能な領域を視域という。
この視域は制限された領域であり、視聴者が視域の外にいる場合、立体映像を見ることはできない。このため、立体映像表示装置は、立体映像表示装置に設けられたカメラを用いて視聴者の位置を検出し、視聴者が視域内に入るように視域を制御する機能を有する(フェイス・トラッキング機能)。
しかしながら、カメラの交換などにより、カメラの取り付け位置がずれることがある。この場合、カメラの位置ずれ量に応じて、視聴者の位置が誤って認識される。このため、視聴者の位置に基づいて生成された視域に視聴者が入らず、その結果、視聴者が良好な立体映像を見ることができないおそれがある。
特開2007−94022号公報
カメラの位置ずれを容易に補正し、視聴者が良好な立体映像を見ることを可能にする映像処理装置を提供する。
実施形態によれば、映像処理装置は、カメラで撮影された映像を用いて顔認識を行い、視聴者の位置情報を取得する視聴者検出部と、前記カメラの取り付け位置のずれに伴う前記位置情報の誤差を補償するための補正量を算出する補正量算出部と、前記補正量算出部により算出された前記補正量を用いて、前記位置情報を補正する位置情報補正部と、前記位置情報補正部により補正された位置情報を用いて、前記視聴者を収める視域を設定するための制御パラメータを算出する視域情報算出部と、前記制御パラメータに応じて視域を制御する視域制御部と、前記視域内にいる視聴者が立体映像として観察可能な複数の視差画像を表示する表示部であって、複数の視差画像から構成され、前記複数の視差画像のうち中心の2枚の視差画像がそれ以外の視差画像にない共通のガイド文字を有する3D視聴位置チェック画面を表示する、表示部と、前記表示部に表示された複数の視差画像を所定の方向に出力する開口制御部と、を備える。
一実施形態に係る映像処理装置100の外観図である。 一実施形態に係る映像処理装置100の概略構成を示すブロック図である。 液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。 映像処理装置の視聴領域Pにおける複数の視域21の一例を示す上面図である。 変形例に係る映像処理装置100’の概略構成を示すブロック図である。 一実施形態に係るカメラキャリブレーション方法を示すフローチャートである。 図6Aに続く、一実施形態に係るラキャリブレーション方法を示すフローチャートである。 3D視聴位置チェック画面の一例を示す。 (1)〜(9)はそれぞれ3D視聴位置チェック画面の第1〜第9視差画像を示す。 (a)および(b)ともに、3D視聴位置チェック画面の第1〜第9視差画像の光線と、視聴者20とを上方から見た図である。 スライドバーが表示された3D視聴位置チェック画面の一例を示す。 (1)および(2)ともに、3D視聴位置チェック画面の第1〜第9視差画像の光線と、視聴者20とを上方から見た図である。 補正量を算出するための各パラメータの関係を示した図である。 変形例に係るカメラキャリブレーション方法を示すフローチャートである。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
図1は、一実施形態に係る映像表示装置100の外観図であり、図2は、その概略構成を示すブロック図である。映像表示装置100は、液晶パネル1と、レンチキュラレンズ2と、カメラ3と、受光部4と、コントローラ10とを備えている。
液晶パネル(表示部)1は、視域内にいる視聴者が立体映像として観察可能な複数の視差画像を表示する。この液晶パネル1は、例えば55インチサイズのパネルであり、水平方向に11520(=1280*9)個、垂直方向に720個の画素が配置される。また、各画素内には、3つのサブピクセル、すなわち、Rサブピクセル、GサブピクセルおよびBサブピクセルが垂直方向に形成されている。液晶パネル1には、背面に設けられるバックライト装置(不図示)から光が照射される。各画素はコントローラ10から供給される視差画像信号(後述)に応じた輝度の光を透過させる。
レンチキュラレンズ(開口制御部)2は、液晶パネル1(表示部)に表示された複数の視差画像を所定の方向に出力する。このレンチキュラレンズ2は、液晶パネル1の水平方向に沿って配置される複数の凸部を有し、その数は液晶パネル1の水平方向画素数の1/9である。そして、水平方向に配置される9個の画素につき1つの凸部が対応するように、レンチキュラレンズ2は液晶パネル1の表面に貼り付けられている。各画素を透過した光は凸部の頂点付近から指向性を持って特定の方向へ出力される。
本実施形態の液晶パネル1は、3視差以上の多視差方式(インテグラルイメージング方式)または2視差方式で、立体映像を表示することができ、この他に通常の2次元映像も表示可能である。
以下の説明では、液晶パネル1の各凸部に対応して9個の画素を設けて、9視差の多視差方式を採用可能な例を説明する。多視差方式では、各凸部に対応する9個の画素にそれぞれ第1〜第9視差画像を表示する。第1〜第9視差画像とは、液晶パネル1の水平方向に沿って並ぶ9つの視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で第1〜第9視差画像のうちの1つの視差画像を、右目で他の1つの視差画像をそれぞれ見ることにより、映像を立体視できる。多視差方式によると、視差の数を増やすほど、視域を広げることができる。視域とは、液晶パネル1の前方から液晶パネル1を見たときに映像を立体視可能な領域をいう。
一方、2視差方式では、各凸部に対応する9個の画素のうちの4個に右目用視差画像を、他の5個に左目用視差画像をそれぞれ表示する。左目用および右目用視差画像とは、水平方向に並ぶ2つの視点のうち、左側の視点および右側の視点からそれぞれ被写体を見た画像である。視聴者は、レンチキュラレンズ2を介して、左目で左目用視差画像を、右目で右目用視差画像をそれぞれ見ることにより、映像を立体視できる。2視差方式によると、表示される映像の立体感が多視差方式よりも得られやすくなるが、多視差方式に比べて視域が狭くなる。
なお、液晶パネル1は各凸部に対応する9個の画素に同一の画像を表示して、2次元画像を表示することもできる。
また、本実施形態では、レンチキュラレンズ2の凸部と表示される視差画像との相対的な位置関係、すなわち、各凸部に対応する9個の画素にどのように視差画像を表示するか、に応じて、視域を可変制御できるようにしている。以下、多視差方式を例に取って、視域の制御について説明する。
図3は、液晶パネル1およびレンチキュラレンズ2の一部を上方から見た図である。同図の網掛けの領域が視域を示しており、視域から液晶パネル1を見ると映像を立体視できる。他の領域は逆視やクロストークが発生する領域であり、映像を立体視するのが困難な領域である。
図3は、液晶パネル1とレンチキュラレンズ2との相対的な位置関係、より具体的には、液晶パネル1とレンチキュラレンズ2との距離、あるいは液晶パネル1とレンチキュラレンズ2との水平方向のずれ量によって、視域が変化する様子を示している。
実際には、レンチキュラレンズ2は、液晶パネル1に高精度に位置合わせをして貼り付けられるため、液晶パネル1とレンチキュラレンズ2との相対的な位置を物理的に変更することは困難である。
そこで、本実施形態では、液晶パネル1の各画素に表示される第1〜第9視差画像の表示位置をずらすことで、見かけ上、液晶パネル1とレンチキュラレンズ2との相対的な位置関係を変更し、これにより、視域の調整を行う。
例えば、各凸部に対応する9個の画素に第1〜第9視差画像をそれぞれ表示した場合(図3(a))に比べ、視差画像を全体に右側にずらして表示した場合(図3(b))、視域は左側に移動する。逆に、視差画像を全体に左側にずらして表示した場合、視域は右側に移動する。
また、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を外側に大きくずらして表示した場合(図3(c))、視域は液晶パネル1に近づく方向に移動する。なお、ずらす視差画像とずらさない視差画像との間の画素や、ずらす量が異なる視差画像間の画素は、周囲の画素に応じて適宜補間すればよい。また、図3(c)とは逆に、水平方向の中央付近では視差画像をずらさず、液晶パネル1の外側ほど、視差画像を中心側に大きくずらして表示した場合、視域は液晶パネル1から遠ざかる方向に移動する。
このように、視差画像の全体あるいは一部をずらして表示することにより、視域を液晶パネル1に対して左右方向あるいは前後方向に移動させることができる。図3では説明を簡略化するために視域を1つだけ示しているが、実際には、図4に示すように、複数の視域21が視聴領域Pに存在し、これらは連動して移動する。視域は、後述する図2のコントローラ10により制御される。なお、視域21以外の視聴領域は、逆視やクロストーク等の発生により、良好な立体映像を見ることが困難な逆視領域22である。
図1に戻り、映像処理装置100の各構成要素について説明する。
カメラ3は、液晶パネル1の下部中央付近に、所定の仰角で取り付けられ、液晶パネル1の前方の所定の範囲を撮影する。撮影された映像はコントローラ10に供給され、視聴者の位置や視聴者の顔等、視聴者に関する情報を検出するために用いられる。カメラ3は、動画像と静止画像のどちらを撮影してもよい。
受光部4は、例えば液晶パネル1の下部の左側に設けられる。そして、受光部4は視聴者が使用するリモコンから送信される赤外線信号を受信する。この赤外線信号は、立体映像を表示するか2次元映像を表示するか、立体映像を表示する場合に多視差方式および2視差方式のいずれを採用するか、視域の制御を行うか否か、等を示す信号を含む。
次に、コントローラ10の構成要素の詳細について説明する。図2に示すように、コントローラ10は、チューナデコーダ11と、視差画像変換部12と、視聴者検出部13と、視域情報算出部14と、画像調整部15と、位置情報補正部16と、記憶部17と、補正量算出部18とを有する。コントローラ10は、例えば1つのIC(Integrated Circuit)として実装され、液晶パネル1の裏側に配置される。もちろん、コントローラ10の一部をソフトウェアで実装してもよい。
チューナデコーダ(受信部)11は入力される放送波を受信および選局し、符号化された映像信号を復号する。放送波に電子番組表(EPG)等のデータ放送の信号が重畳されている場合、チューナデコーダ11はこれを抽出する。あるいは、チューナデコーダ11は、放送波ではなく、光ディスク再生装置やパーソナルコンピュータ等の映像出力機器から符号化された映像信号を受信し、これを復号する。復号された信号はベースバンド映像信号とも呼ばれ、視差画像変換部12に供給される。なお、映像表示装置100が放送波を受信せず、専ら映像出力機器から受信する映像信号を表示する場合、チューナデコーダ11に代えて単に復号機能を有するデコーダを受信部として設けてもよい。
チューナデコーダ11が受信する映像信号は、2次元の映像信号であってもよいし、フレームパッキング(FP)、サイドバイサイド(SBS)あるいはトップアンドボトム(TAB)方式等で左目用および右目用の画像を含む3次元の映像信号であってもよい。また、映像信号は3視差以上の画像含む3次元の映像信号であってもよい。
視差画像変換部12は、映像を立体表示するために、ベースバンド映像信号を複数の視差画像信号に変換して画像調整部15に供給する。視差画像変換部12は、多視差方式と2視差方式のどちらを採用するかで、処理内容が異なる。また、ベースバンド映像信号が2次元の映像信号であるか、3次元の映像信号であるか、に応じて、視差画像変換部12の処理内容が異なる。
2視差方式を採用する場合、視差画像変換部12は、左目用および右目用視差画像にそれぞれ対応する左目用および右目用視差画像信号を生成する。より具体的には以下のようにする。
2視差方式を採用し、かつ、左目用および右目用の画像を含む3次元映像信号が入力された場合、視差画像変換部12は液晶パネル1に表示可能な形式の左目用および右目用視差画像信号を生成する。また、3つ以上の画像を含む3次元映像信号が入力される場合、例えばそのうちの任意の2つを用いて、視差画像変換部12は左目用および右目用視差画像信号を生成する。
これに対し、2視差方式を採用し、かつ、視差情報を含まない2次元の映像信号が入力された場合、視差画像変換部12は、映像信号における各画素の奥行き値に基づいて、左目用および右目用視差画像信号を生成する。奥行き値は、各画素がどの程度液晶パネル1に対して手前または奥に見えるように表示するか、を示す値である。奥行き値は予め映像信号に付加されていてもよいし、映像信号の特徴に基づいて動き検出、構図識別および人間の顔検出等を行って奥行き値を生成してもよい。左目用視差画像では、手前に見える画素は奥に見える画素より右側にずれて表示される必要がある。そのため、視差画像変換部12は映像信号における手前に見える画素を右側にずらす処理を行って左目用視差画像信号を生成する。奥行き値が大きいほどずらす量を大きくする。
一方、多視差方式を採用する場合、視差画像変換部12は第1〜第9視差画像にそれぞれ対応する第1〜第9視差画像信号を生成する。より具体的には以下のようにする。
多視差方式を採用し、かつ、2次元の映像信号または8視差以下の画像を含む3次元の映像信号が入力された場合、視差画像変換部12は、2次元の映像信号から左目用および右目用視差画像信号を生成するのと同様に奥行き情報に基づいて、第1〜第9視差画像信号を生成する。
多視差方式を採用し、かつ、9視差の画像を含む3次元の映像信号が入力された場合、視差画像変換部12はその映像信号を用いて第1〜第9視差画像信号を生成する。
視聴者検出部13は、カメラ3により撮影された映像を用いて顔認識を行い、視聴者の位置情報を取得する。この位置情報は、後述の位置情報補正部16および補正量算出部18に供給される。なお、視聴者検出部13は、視聴者が動いても追尾することが可能であるため、視聴者ごとの視聴時間を把握することもできる。
視聴者の位置情報は、例えば液晶パネル1の中央を原点とするX軸(水平方向)、Y軸(垂直方向)およびZ軸(液晶パネル1に対して直交する方向)上の位置として表される。図4に示す視聴者20の位置は、座標(X1,Y1,Z1)で表される。より具体的には、視聴者検出部13は、まず、カメラ3により撮影された映像から顔を検出することにより視聴者を認識する。次いで、視聴者検出部13は映像における視聴者の位置からX軸およびY軸上の位置(X1,Y1)を算出し、顔の大きさからZ軸上の位置(Z1)を算出する。視聴者が複数いる場合、視聴者検出部13は、予め定めた数、例えば10人分の視聴者を検出するようにしてもよい。この場合、検出された顔の数が10より大きいときは、例えば液晶パネル1から近い、すなわち、Z軸上の位置が小さい順に10人の視聴者の位置を検出する。
視域情報算出部14は、後述の位置情報補正部16から供給された視聴者の位置情報を用いて、検出された視聴者を収める視域を設定するための制御パラメータを算出する。この制御パラメータは、例えば、図3で説明した視差画像をずらす量であり、1つのパラメータ、または複数のパラメータの組み合わせである。そして、視域情報算出部14は、算出した制御パラメータを画像調整部15に供給する。
より詳しくは、所望の視域を設定するために、視域情報算出部14は、制御パラメータと、その制御パラメータで設定される視域とを対応付けた視域データベースを用いる。この視域データベースは記憶部17に予め格納されている。視域情報算出部14は、視域データベースを検索することによって、視聴者を収めることの可能な視域を見つける。
画像調整部(視域制御部)15は、視域を制御するために、算出された制御パラメータに応じて視差画像信号をずらしたり補間したりする調整を行った後に、液晶パネル1に供給する。液晶パネル1は調整された視差画像信号に対応する画像を表示する。
位置情報補正部16は、後述の補正量算出部18により算出された補正量を用いて、視聴者検出部13により取得された視聴者の位置情報を補正し、補正された位置情報を視域情報算出部14に供給する。なお、補正量の算出をまだ行っていない場合には、位置情報補正部16は、視聴者検出部13により取得された視聴者の位置情報をそのまま視域情報算出部14に供給する。
記憶部17は、フラッシュメモリなどの不揮発性メモリであり、視域データベース、位置情報の補正量などを記憶する。なお、この記憶部17は、コントローラ10の外部に設けられてもよい。
補正量算出部18は、カメラ3の取り付け位置のずれに伴って発生する、視聴者の位置情報の誤差を補償するための補正量を算出する。この補正量の算出には、後で詳しく説明するように、(a)視聴者は移動せず、視差画像の出力方向を変える方式と、(b)視差画像の出力方向は変えず、視聴者が移動する方式とがある。なお、ここでいう取り付け位置のずれは、カメラの取り付け方向のずれ(光軸のずれ)を含む。
以上、映像処理装置100の構成について説明した。本実施形態ではレンチキュラレンズ2を用い、視差画像をずらすことによって視域を制御する例を示したが、他の手法で視域を制御してもよい。例えば、レンチキュラレンズ2に代えてパララックスバリアを開口制御部2’として設けてもよい。図5は、図2に示す本実施形態の変形例である映像処理装置100’の概略構成を示すブロック図である。同図に示すように、映像処理装置100’のコントローラ10’は、画像調整部15の代わりに、視域制御部15’を備える。この視域制御部15’は、視域情報算出部14により算出された制御パラメータに応じて開口制御部2’を制御する。本変形例の場合、制御パラメータは、液晶パネル1と開口制御部2’との距離、液晶パネル1と開口制御部2’との水平方向のずれ量などである。
本変形例では、液晶パネル1に表示された視差画像の出力方向を、開口制御部2’で制御することによって、視域が制御される。このように、視差画像をずらす処理を行わず、視域制御部15’により開口制御部2’を制御してもよい。
次に、上記のように構成された映像処理装置100(100’)による映像処理方法(カメラのキャリブレーション方法)について、図6Aおよび図6Bのフローチャートを用いて説明する。
(1)液晶パネル1は、3D視聴位置チェック画面(3Dテストパターン)を表示する(ステップS1)。3D視聴位置チェック画面は、立体視用のテスト画像であり、複数の視差画像(例えば、第1〜第9視差画像)から構成される。さらに、3D視聴位置チェック画面には、どの視差画像が目に入っているかを示すガイド文字が表示される。ここでいうガイド文字は、文字に限らず、図7および図8で例示するように二重丸、丸、三角などの記号でもよいし、その他、絵、模様、色彩など視聴者が判別できるものも含む。
また、3D視聴位置チェック画面には、好ましくは、視聴者が所定の位置でカメラ調整キーを押下することを促すメッセージを表示する。例えば、「1m程度離れて、なるべく正面付近でカメラ調整キーを押して下さい。」と表示する。
図7は、3D視聴位置チェック画面の一例を示している。3D視聴位置チェック画面は、ガイド文字32を表示するためのガイド表示部31を含む。また、図7に示すように、3D視聴位置チェック画面は、球体や柱体等の立体映像を含んでもよい。
図8は、9視差の場合の3D視聴位置チェック画面であり、図8(1)〜(9)は第1〜第9視差画像をそれぞれ示している。第4視差画像(図8(4))および第5視差画像(図8(5))は、視域内の最適な視聴位置(例えば視域の中心)であることを示す二重丸のガイド文字が表示される。最適な視聴位置から外れるにつれて、ガイド文字は丸、三角、バツとなる。図8(9)では、ガイド表示部31も表示されない。なお、第5視差画像および第6視差画像に、視域内の最適な視聴位置であることを示すガイド文字(例えば二重丸)を表示してもよい。
このように、3D視聴位置チェック画面は複数の視差画像から構成され、中心の2枚の視差画像はそれ以外の視差画像にない共通のガイド文字(上記の例では二重丸)を有する。ここで、中心の2枚の視差画像とは、ほぼ中央の視野を表示する2枚の視差画像である。一般的に言えば、3D視聴位置チェック画面が第1〜第n視差画像から構成される場合、中心の2枚の視差画像は、nが奇数のとき、第(n+1)/2視差画像および第(n+1)/2−1視差画像(若しくは第(n+1)/2+1視差画像)であり、nが偶数のとき、第n/2視差画像および第n/2+1視差画像である。
(2)受光部4は、リモコンから送信される赤外線信号を受信し、リモコンのカメラ調整キーが押下されたか否かを判定する(ステップS2)。カメラ調整キーが押下されたならば、ステップS3に進む。なお、リモコンのカメラ調整キーを押下する代わりに、同様の機能をもつ項目をメニュー画面から選択してもよい。
(3)視聴者検出部13は、カメラ3により撮影された映像(カメラ映像)を用いて顔認識を行い、視聴者の位置情報(X1,Y1,Z1)を算出する(ステップS3)。そして、視聴者を検出したか否かを判定し(ステップS4)、視聴者を検出すれば、ステップS6に進む。一方、視聴者を検出しないならば、液晶パネル1はエラーメッセージ(例えば「顔認識できません。」)を表示する(ステップS5)。
(4)視聴者検出部13は、視聴者が1人であるか否かを判定する(ステップS6)。その結果、視聴者が1人であれば、ステップS9に進み、一方、視聴者が複数人であれば、液晶パネル1はエラーメッセージ(例えば「カメラ調整は、1人の場合に実施可能です。」)を表示する(ステップS7)。なお、ステップS5およびステップS7のエラーメッセージの表示に続いて、カメラ映像および顔認識の状態(例えば、認識された視聴者の顔に付けられた枠模様)を液晶パネル1に表示してもよい(ステップS8)。
(5)ステップS3で得られた視聴者の位置情報に基づいて、視域を生成する(ステップS9)。具体的には、視域情報算出部14が、視聴者検出部13により取得された位置情報に基づいて、視域を設定するための制御パラメータを算出する。その後、前述のようにして、算出された制御パラメータをもとに視域を生成する。
図9(a)および(b)は、3D視聴位置チェック画面の第1〜第9視差画像の光線と、視聴者20とを上方から見た図である。図9(a)および(b)において、符号(1)〜(9)はそれぞれ、図8(1)〜(9)に示す視差画像の光線である。
カメラ3の位置ずれがない場合には、図9(a)に示すように、視聴者20の右目には第4視差画像が入り、左目には第5視差画像が入るため、視聴者20はガイド表示部31内に二重丸のガイド文字32を見ることになる。一方、図9(b)に示すように、カメラ3が映像処理装置100から見て右方向にずれている場合には、視聴者検出部13は、カメラ3の位置ずれのない場合に比べて視聴者20が左方向にいると認識する。このため、第1〜第9視差画像は、カメラ3のずれ分だけ、映像処理装置100から見て左側に出力される。図9(b)の場合、視聴者の右目には第6視差画像が入り、左目には第7視差画像が入るため、視聴者は、右目で丸印、左目で三角印をみることになる。
(6)視域が生成された後、液晶パネル1は、3D視聴位置チェック画面に、カメラ調整用のスライドバーを表示する(ステップS10)。また、本実施形態におけるカメラキャリブレーションは視聴者の位置が変化しないことが前提であるので、視聴者がカメラ調整中に視聴位置を変えないように、メッセージ(例えば「視聴位置を変えずに、カメラ調整をして下さい。」)を3D視聴位置チェック画面上に表示する。
図10は、スライドバーを表示した3D視聴位置チェック画面(カメラ調整画面)の一例を示している。図10に示すように、3D視聴位置チェック画面の下部に、ツマミ34を含むスライドバー33が設けられる。視聴者は、リモコンの方向キーなどにより、ツマミ34の位置を左右に移動させることが可能である。このツマミ34を移動させることで、3D視聴位置チェック画面の第1〜第9視差画像の出力方向を変えることができる。即ち、視域を移動させることができる。例えば、視聴者がツマミ34をスライドバー33の中心から左側に移動させると、第1〜第9視差画像は視聴者から見て左方向に出力され、視聴者がツマミ34をスライドバー33の中心から右側に移動させると、第1〜第9視差画像は視聴者から見て右方向に出力される。
また、ツマミ34は、カメラ調整を初めて行う場合には、スライドバー33の中心に表示され、カメラ調整を行ったことがある場合には、前回算出された補正量に対応する位置に表示される。
(7)画像調整部15(視域制御部15’)は、ツマミ34の位置が変化したか否かを判定し(ステップS11)、ツマミ34の位置が変化した場合にはステップS12に進む。
(8)ツマミ34の位置が変化すると、画像調整部15(視域制御部15’)は、ツマミ34の位置に応じて、第1〜第9視差画像の出力方向を変化させる(ステップS12)。即ち、画像調整部15(視域制御部15’)は、視聴位置を変えない視聴者からの指示に応じて、3D視聴位置チェック画面の第1〜第9視差画像の出力方向を変化させる。
ツマミ34の位置と、3D視聴位置チェック画面の第1〜第9視差画像の出力方向との関係について、図11を用いて説明する。図11(1)および(2)は、3D視聴位置チェック画面の第1〜第9視差画像の光線と、視聴者20とを上方から見た図である。カメラ3は、図9と同様に右方向にずれている。
図10に示すようにツマミ34がスライドバー33の中心から左側に位置する場合、第1〜第9視差画像は図9(b)に比べて視聴者から見て左方向(映像処理装置100から見て右方向)に出力され、視域が左方向に移動する。図11(1)に示す状態では、第5視差画像が視聴者の右目に入り、第6視差画像が視聴者の左目に入る。この状態では、視聴者は、右目で二重丸印、左目で丸印をみることになり、まだ両目で二重丸印を見ることができない。
ツマミ34がさらに左側に位置する場合、図11(2)に示すように、第1〜第9視差画像は図11(1)よりもさらに視聴者20から見て左方向に出力され、視域が左方向に移動する。その結果、第4視差画像が視聴者の右目に入り、第5視差画像が視聴者の左目に入る。この状態において、視聴者は、両目で二重丸印をみることができる。
視聴者は、両目で二重丸印を見ると、リモコンの決定キーを押下する。なお、リモコンの決定キーを押下する代わりに、同様の機能をもつ項目をメニュー画面から選択してもよい。
(9)受光部4は、リモコンから送信される赤外線信号を受信し、リモコンの決定キーが押下されたか否かを判定する(ステップS13)。決定キーが押下されたならば、ステップS14に進む。
(10)補正量算出部18は、下記の式(1)により、位置情報の補正量を算出し、記憶部17に保存する(ステップS14)。
Δx=Z1・(tanθ2−tanθ1) ・・・(1)
ここで、Δxは補正量、Z1は視聴者のZ軸上の位置、θ1は出力方向を変化させる前の複数の視差画像の出力方向、θ2は視聴者が中心の2枚の視差画像のうち一方を右目で他方を左目で見た状態における複数の視差画像の出力方向である。
本実施形態では、角度θ1はステップS9で視域を生成したときの視差画像の出力方向であり、角度θ2は決定キーが押下されたときの視差画像の出力方向である。
図12に、式(1)の各パラメータの関係を示す。視差画像の出力方向を示す角度θ1,θ2は、液晶パネル1の法線Lと、視差画像の光線R1,R2とのなす角度として定義される。光線R1は視差画像の出力方向を変化させる前の光線であり、光線R2は視差画像の出力方向を変化させた後の光線である。また、x1およびx2はX軸上の位置を表し、x1=Z1・tanθ1、x2=Z1・tanθ2である。例えば、x1は補正前の位置情報が示す視聴者の位置であり、x2は補正後の位置情報が示す視聴者の位置(即ち、真の視聴者の位置)である。
なお、上記では位置情報の補正量はX方向についてのみ求めたが、Y方向についてもX方向と同様にして補正量Δyを求めることができる。その場合、記憶部17に保存される位置情報の補正量は、X方向の補正量とY方向の補正量の組み合わせ(Δx,Δy)となる。また、視差画像の出力方向を調整する手段は、スライドバー33に限らない。
上述したように、本実施形態では、視聴者は視聴位置を変えずに視差画像の出力方向を変化させることで、視域の調整を行い、視聴者の位置情報の誤差を補償するための補正量を算出する。より具体的には、視聴者は、ガイド表示部31のガイド文字32が両目で二重丸に見えるように、3D視聴位置チェック画面に表示したスライドバー33のツマミ34を移動させ、ツマミの移動量から補正量を算出する。
次に、補正量を算出する別の方法に係る変形例について説明する。上記のカメラキャリブレーションの方法とは反対に、本変形例では、視差画像の出力方向を固定し、視聴者の位置を変化させる。図13は本変形例に係る映像処理方法(カメラのキャリブレーション)を示すフローチャートである。前述の図6Aで説明したステップS1〜S9までは同じなので説明を省略し、図13に沿って、ステップS9の次のステップから説明する。
(1)液晶パネル1は、現在の位置(視聴者が移動する前の位置)から、複数の視差画像のうち中心の2枚の視差画像の一方を右目で他方を左目で見る位置まで移動するよう、視聴者に促すメッセージを表示する(ステップS21)。このメッセージとして、例えば、「両目で二重丸が見える位置に移動して決定キーを押して下さい。」と表示する。
(2)視聴者検出部13は、決定キーが押下されたか否かを判定し(ステップS22)、決定キーが押下されればステップS23に進む。
(3)決定キーが押下されると、視聴者検出部13は、カメラ映像を用いて顔認識を行い、視聴者の位置情報を取得する(ステップS23)。決定キーが押された時点で、視聴者は両目で二重丸のガイド文字32を見ている。このため、本ステップでは、視聴者検出部13は、視聴者が中心の2枚の視差画像のうち一方を右目で、他方を左目で見た位置を示す位置情報を取得している。
(4)補正量算出部18は、視聴者が移動する前の位置を示す位置情報(X1,Y1)(ステップS3で算出)と、視聴者が移動した後の位置を示す位置情報(X2,Y2)(ステップS23で算出)とから、式(2)を用いて補正量(Δx,Δy)を算出し、記憶部17に保存する(ステップS24)。
(Δx,Δy)=(X2,Y2)−(X1,Y1) ・・・(2)
即ち、補正量算出部18は、補正量として、移動前の位置情報(X1,Y1)と移動後の位置情報(X2,Y2)との差分を計算する。
上述したように、本変形例では、視差画像の出力方向は固定し、視聴者の視聴位置を変えることで、視域の調整を行い、視聴者の位置情報の誤差を補償するための補正量を算出する。即ち、視聴者は、ガイド表示部31のガイド文字32が両目で二重丸に見える位置に移動し、移動前後の位置情報から補正量を算出する。
なお、上記の実施形態および変形例において液晶パネル1に視聴者への各種メッセージを表示したが、これに代えて、映像処理装置100のスピーカ(図示せず)を用いて、音声で視聴者にメッセージを伝えてもよい。
次に、上記の位置情報の補正量(Δx,Δy)を用いて、立体映像を視聴する時に適切な視域を生成する方法について説明する。
(1)視聴者検出部13は、カメラ映像から算出した視聴者の位置情報(X1,Y1)を位置情報補正部16に供給する。
(2)位置情報補正部16は、視聴者検出部13から視聴者の位置情報が供給されると、記憶部17から位置情報の補正量(Δx,Δy)を読み出し、この補正量(Δx,Δy)を用いて視聴者検出部13から供給された位置情報(X1,Y1)を補正し、補正された位置情報(X1’,Y1’)を得る。この補正された位置情報は、式(3)により求められる。位置情報補正部16は、補正された位置情報(X1’,Y1’)を視域情報算出部14に供給する。
(X1’,Y1’)=(X1,Y1)+(Δx,Δy) ・・・(3)
(3)前述のように、視域情報算出部14および画像調整部15(視域制御部15’)によって、位置(X1’,Y1’)を含む視域が生成される。より詳しくは、まず、視域情報算出部14が、補正された位置情報(X1’,Y1’)を用いて制御パラメータを算出する。そして、画像調整部15が、視域情報算出部14により算出された制御パラメータを用いて視差画像を調整し、液晶パネル1に供給する。映像処理装置100’の場合には、視域制御部15’が視域情報算出部14により算出された制御パラメータを用いて、開口制御部2’を制御する。
(4)液晶パネル1は、画像調整部15により調整された画像を表示する。映像処理装置100’の場合には、液晶パネル1は、視差画像変換部12から供給される画像を表示する。
上述したように、立体映像を視聴する際には、補正量を用いて視聴者の位置情報を補正し、補正された位置に視域を生成する。これにより、カメラの位置ズレが生じている場合でも、視聴者を収める視域を生成することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 液晶パネル
2 レンチキュラレンズ
2’ 開口制御部
3 カメラ
4 受光部
10,10’ コントローラ
11 チューナデコーダ
12 視差画像変換部
13 視聴者検出部
14 視域情報算出部
15 画像調整部
15’ 視域制御部
16 位置情報補正部
17 記憶部
18 補正量算出部
20 視聴者
21 視域
22 逆視領域
31 ガイド表示部
32 ガイド文字
33 スライドバー
34 ツマミ
100,100’ 映像処理装置
P 視聴領域

Claims (8)

  1. カメラで撮影された映像を用いて顔認識を行い、視聴者の位置情報を取得する、視聴者検出部と、
    前記カメラの取り付け位置のずれに伴う前記位置情報の誤差を補償するための補正量を算出する、補正量算出部と、
    前記補正量算出部により算出された前記補正量を用いて、前記位置情報を補正する、位置情報補正部と、
    前記位置情報補正部により補正された位置情報を用いて、前記視聴者を収める視域を設定するための制御パラメータを算出する、視域情報算出部と、
    前記制御パラメータに応じて視域を制御する、視域制御部と、
    前記視域内にいる視聴者が立体映像として観察可能な複数の視差画像を表示する表示部であって、複数の視差画像から構成され、前記複数の視差画像のうち中心の2枚の視差画像がそれ以外の視差画像にない共通のガイド文字を有する3D視聴位置チェック画面を表示する、表示部と、
    前記表示部に表示された複数の視差画像を所定の方向に出力する、開口制御部と、
    を備える映像処理装置。
  2. 前記視域制御部は、視聴位置を変えない前記視聴者からの指示に応じて、前記3D視聴位置チェック画面の前記複数の視差画像の出力方向を変化させ、
    前記補正量算出部は、式(1)により前記補正量を算出する、請求項1に記載の映像処理装置。
    Δx=Z1・(tanθ2−tanθ1) ・・・(1)
    ここで、Δxは前記補正量、Z1は前記視聴者のZ軸上の位置、θ1は出力方向を変化させる前の前記複数の視差画像の出力方向、θ2は前記視聴者が前記中心の2枚の視差画像のうち一方を右目で他方を左目で見た状態における前記複数の視差画像の出力方向である。
  3. 前記視域制御部は、前記3D視聴位置チェック画面に表示され、かつ前記視聴者が操作可能なスライドバーのツマミの位置に応じて、前記3D視聴位置チェック画面の前記複数の視差画像の出力方向を変化させる、請求項2に記載の映像処理装置。
  4. 前記補正量算出部は、算出した前記補正量を記憶部に保存し、
    前記位置情報補正部は、前記視聴者検出部から前記位置情報が供給されると、前記記憶部から前記補正量を読み出し、読み出した前記補正量を用いて前記位置情報を補正する、請求項2に記載の映像処理装置。
  5. 前記視聴者検出部が視聴者を検出しない場合または複数の視聴者を検出した場合には、前記表示部は、エラーメッセージを表示する、請求項2に記載の映像処理装置。
  6. 前記視聴者検出部は、前記視聴者が移動する前の位置を示す第1の位置情報、および、前記視聴者が移動した後の位置であって前記中心の2枚の視差画像のうち一方を右目で他方を左目で見る位置を示す第2の位置情報を取得し、
    前記補正量算出部は、前記補正量として、前記第1の位置情報と前記第2の位置情報との差分を計算する、請求項1に記載の映像処理装置。
  7. 前記補正量算出部は、算出した前記補正量を記憶部に保存し、
    前記位置情報補正部は、前記視聴者検出部から前記位置情報が供給されると、前記記憶部から前記補正量を読み出し、読み出した前記補正量を用いて前記位置情報を補正する、請求項6に記載の映像処理装置。
  8. 前記視聴者検出部が視聴者を検出しない場合または複数の視聴者を検出した場合には、前記表示部は、エラーメッセージを表示する、請求項6に記載の映像処理装置。
JP2011189660A 2011-08-31 2011-08-31 映像処理装置 Expired - Fee Related JP5129377B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011189660A JP5129377B1 (ja) 2011-08-31 2011-08-31 映像処理装置
US13/402,272 US8477181B2 (en) 2011-08-31 2012-02-22 Video processing apparatus and video processing method
CN201210135941.7A CN102970572B (zh) 2011-08-31 2012-05-03 影像处理装置及影像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011189660A JP5129377B1 (ja) 2011-08-31 2011-08-31 映像処理装置

Publications (2)

Publication Number Publication Date
JP5129377B1 true JP5129377B1 (ja) 2013-01-30
JP2013051636A JP2013051636A (ja) 2013-03-14

Family

ID=47692982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011189660A Expired - Fee Related JP5129377B1 (ja) 2011-08-31 2011-08-31 映像処理装置

Country Status (3)

Country Link
US (1) US8477181B2 (ja)
JP (1) JP5129377B1 (ja)
CN (1) CN102970572B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129755A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 画像表示装置、画像表示システム及び画像表示方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI508526B (zh) * 2013-10-01 2015-11-11 Wistron Corp 產生視角平移影像之方法及其可攜式電子設備
CN104580966A (zh) * 2013-10-22 2015-04-29 光宝科技股份有限公司 投影装置以及其投影图像处理方法
CN104539924A (zh) * 2014-12-03 2015-04-22 深圳市亿思达科技集团有限公司 基于人眼追踪的全息显示方法及全息显示装置
JP6644371B2 (ja) * 2014-12-17 2020-02-12 マクセル株式会社 映像表示装置
CN106713894B (zh) * 2015-11-17 2019-06-18 深圳超多维科技有限公司 一种跟踪式立体显示方法及设备
NL2020216B1 (en) * 2017-12-30 2019-07-08 Zhangjiagang Kangde Xin Optronics Mat Co Ltd Method for reducing crosstalk on an autostereoscopic display
CN111712852B (zh) * 2018-02-19 2023-08-11 三菱电机株式会社 乘客状态检测装置、系统和方法
JP6806414B2 (ja) * 2019-03-14 2021-01-06 東芝エレベータ株式会社 画像処理装置及び画像処理方法
WO2022254794A1 (ja) * 2021-06-01 2022-12-08 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2023062936A1 (ja) * 2021-10-13 2023-04-20 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3361205B2 (ja) * 1995-02-08 2003-01-07 日本放送協会 立体画像表示装置
JP3780561B2 (ja) * 1996-04-12 2006-05-31 松下電器産業株式会社 電子部品実装方法
JP3096639B2 (ja) 1996-07-22 2000-10-10 三洋電機株式会社 立体映像表示装置
JPH10150676A (ja) * 1996-09-17 1998-06-02 Terumo Corp 画像表示装置
JPH10174127A (ja) * 1996-12-13 1998-06-26 Sanyo Electric Co Ltd 立体表示方法および立体表示装置
JP3544171B2 (ja) 2000-06-20 2004-07-21 キヤノン株式会社 立体画像表示装置
AU2003221143A1 (en) * 2003-03-20 2004-10-11 Seijiro Tomita Stereoscopic video photographing/displaying system
JP4521342B2 (ja) * 2005-09-29 2010-08-11 株式会社東芝 三次元画像表示装置、三次元画像表示方法および三次元画像表示プログラム
JP5322264B2 (ja) 2008-04-01 2013-10-23 Necカシオモバイルコミュニケーションズ株式会社 画像表示装置およびプログラム
WO2010041176A1 (en) * 2008-10-10 2010-04-15 Koninklijke Philips Electronics N.V. A method of processing parallax information comprised in a signal
JP4956664B1 (ja) * 2010-12-14 2012-06-20 株式会社東芝 立体映像表示装置及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017129755A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 画像表示装置、画像表示システム及び画像表示方法
US10805590B2 (en) 2016-01-20 2020-10-13 Canon Kabushiki Kaisha Image display apparatus and image display method

Also Published As

Publication number Publication date
CN102970572A (zh) 2013-03-13
JP2013051636A (ja) 2013-03-14
US20130050449A1 (en) 2013-02-28
US8477181B2 (en) 2013-07-02
CN102970572B (zh) 2014-12-31

Similar Documents

Publication Publication Date Title
JP5129377B1 (ja) 映像処理装置
JP5149435B1 (ja) 映像処理装置および映像処理方法
JP5129376B1 (ja) 映像処理装置および映像処理方法
JP5134714B1 (ja) 映像処理装置
US9204078B2 (en) Detector, detection method and video display apparatus
US8558877B2 (en) Video processing device, video processing method and recording medium
JP5156116B1 (ja) 映像処理装置および映像処理方法
US20130050444A1 (en) Video processing apparatus and video processing method
JP5127967B1 (ja) 映像処理装置および映像処理方法
JP5095851B1 (ja) 映像処理装置および映像処理方法
JP5156117B1 (ja) 映像処理装置および映像処理方法
JP5433763B2 (ja) 映像処理装置および映像処理方法
JP5032694B1 (ja) 映像処理装置および映像処理方法
JP5362071B2 (ja) 映像処理装置、映像表示装置および映像処理方法
JP5568116B2 (ja) 映像処理装置および映像処理方法
JP5603911B2 (ja) 映像処理装置、映像処理方法および遠隔制御装置
JP5395934B1 (ja) 映像処理装置および映像処理方法
JP2013055675A (ja) 映像処理装置および映像処理方法
JP5433766B2 (ja) 映像処理装置および映像処理方法
JP5498555B2 (ja) 映像処理装置および映像処理方法
JP2013055694A (ja) 映像処理装置および映像処理方法
JP2013055682A (ja) 映像処理装置および映像処理方法
JP2013055641A (ja) 映像処理装置および映像処理方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121101

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees