JP2013102270A - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP2013102270A JP2013102270A JP2011243563A JP2011243563A JP2013102270A JP 2013102270 A JP2013102270 A JP 2013102270A JP 2011243563 A JP2011243563 A JP 2011243563A JP 2011243563 A JP2011243563 A JP 2011243563A JP 2013102270 A JP2013102270 A JP 2013102270A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- stereoscopic
- stereoscopic image
- processing apparatus
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】立体画像データの表示切り替え時における視聴疲労を低減する。
【解決手段】グラフィックス生成部7は、第1の立体画像データに対応する位置まで移動していく画像データを生成する。表示パネル制御部29は、第1の立体画像データを表示させる前に、又は、第1の立体画像データを表示させながら、上記画像データを表示させる。
【選択図】図1
【解決手段】グラフィックス生成部7は、第1の立体画像データに対応する位置まで移動していく画像データを生成する。表示パネル制御部29は、第1の立体画像データを表示させる前に、又は、第1の立体画像データを表示させながら、上記画像データを表示させる。
【選択図】図1
Description
本発明は、立体画像データの表示切り替え時に適用される技術に関するものである。
視聴者の両眼に異なる画像を見せることにより、立体画像を視聴することができる表示ディスプレイが知られている。左目用の画像上と右目用の画像上とで被写体は距離に応じてずれた位置に配置され、この視差を利用して立体視を行わせる。左目用の画像と右目用の画像とを同じ画面上に表示する方法として、視差バリア、偏光フィルタ、時分割等の方法が知られている。
視聴する立体画像コンテンツを切り替えた際の奥行き感の急激な変化による視聴疲労を防ぐための方法として、特許文献1には、画像本編よりも視差の少ない補間画像を生成し、画像表示前に視差が漸次変更されるような補間画像を表示する方法が開示されている。
しかしながら、上述した従来技術においては、視聴開始時の立体画像コンテンツの内容によっては、視聴疲労をうまく防げない場合があった。例えば、画面が暗かったり、被写体が小さかったりして奥行きが分かりづらい場合、補間画像では急激な視差変化を緩和できない場合があった。また従来技術では、冒頭部を補間画像と置き換えてしまうため、冒頭部のシーンは立体感に欠けたものになっていた。
そこで、本発明の目的は、立体画像データの表示切り替え時における視聴疲労を低減することにある。
本発明の画像処理装置は、第1の立体画像データに対応する位置まで移動していく画像データを生成する第1の生成手段と、前記第1の立体画像データを表示させる前に、又は、前記第1の立体画像データを表示させながら、前記画像データを表示させる制御手段とを有することを特徴とする。
本発明によれば、立体画像データの表示切り替え時における視聴疲労を低減することができる。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。なお、以下の実施形態において示す構成は飽くまでも本発明の一適用例に過ぎず、本発明を限定するものではない。
先ず、本発明の第1の実施形態について説明する。第1の実施形態では、立体画像コンテンツの奥行き範囲を検出して、立体画像コンテンツの表示切り替え時には徐々に最深深度又は最浅深度に移動する画像を表示する例について説明する。
以下、図2及び図3に示す画面表示例を参照しながら、第1の実施形態に係る表示制御の動作例について説明する。図2は、表示切り替え前後に表示される立体画像コンテンツの例を示す図である。即ち、図2(a)は、表示切り替え前に表示されていた立体画像コンテンツの例を示しており、図2(b)は、表示切り替え後に表示される立体画像コンテンツの例を示している。図2(a)に示す立体画像コンテンツでは、建物オブジェクト31、32、33が遠景に同列に配置されている。図2(b)に示す立体画像コンテンツでは、山オブジェクト42が遠景にあり、手前に家オブジェクト41、さらに手前に人オブジェクト43が配置されている。図2(b)の例では、近景から遠景までオブジェクトがあるために、画面内の奥行き範囲は広くなっている。なお、図2(a)に示す立体画像コンテンツは第2の立体画像データの例であり、図2(b)に示す立体画像コンテンツは第1の立体画像データの例である。
図2(a)に示す立体画像コンテンツから図2(b)に示す立体画像コンテンツに表示を切り替えようとした場合、図2(b)に示す立体画像コンテンツの人オブジェクト43が近景に突然現れるため、表示画面上での視差が急激に変化する。そのため、ユーザの融合限界を超えてしまい、立体視できなくなったり、疲労を招いてしまう可能性がある。これに対し、本実施形態では、徐々に最深深度又は最浅深度に移動する画像データを表示した後、新たな立体画像コンテンツを表示する。このような急激な視差変化を緩和するために挿入する画像データのことを、以下では、立体視トレーニング用画像データと称す。
図3は、立体視トレーニング用画像データの例を示す図である。図3において、51は背景オブジェクトであり、52は立体視トレーニング用画像データとしての近景オブジェクトである。図3(a)の例では、背景オブジェクト51と立体視トレーニング用画像データ52とが同じ深度に配置されている。図3(b)の例では、奥行き範囲を広げ、立体視トレーニング用画像データ52が手前の深度に配置されている。図3(c)の例では、奥行き範囲をさらに広げ、立体視トレーニング用画像データ52がより手前の深度に配置されている。奥行き範囲を広げる速度は、視聴するユーザの融合限界を超えないような速度に設定される。本実施形態においては、立体視トレーニング期間に、図3(a)〜(c)に示すような立体視トレーニング用画像データ52を順に表示していくことにより、表示画面上での視差の急激な変化をなくすことができる。
また、立体視トレーニング用画像データ52のXY方向の表示位置も、立体視トレーニング期間に徐々に変化させる。即ち、初めは立体視トレーニング用画像データ52を中央に表示しておき、徐々に表示切り替え後の立体画像コンテンツおける人オブジェクト43の位置に近付けるように移動させる。図3(b)では、オフセット53の量だけ立体視トレーニング用画像データ52を右に移動させ、図3(c)では、オフセット54の量だけ立体視トレーニング用画像データ52を右に移動させている。こうすることにより、新たな立体画像コンテンツに表示切り替えを行った場合における視線の急激な移動をなくすことができる。
図1は、本発明の第1の実施形態に係る表示装置の構成を示す図である。以下、図1を参照しながら、第1の実施形態に係る表示装置の構成について説明する。
図1において、1は表示装置の本体である。表示装置1は、立体画像コンテンツを表示させることが可能であり、複数の立体画像コンテンツの表示切り替えを行うことができる。なお、表示装置1は表示処理装置の適用例となる構成である。2は映像入力部であり、放送波やビデオ信号等、外部から立体画像コンテンツを入力する。3は表示部であり、立体画像コンテンツを表示パネル30に表示させる。ここで表示部3は、視差のある左目用の画像データと右目用の画像データとを切り替えて表示させることにより、立体画像コンテンツを表示させる。4は操作指示部であり、表示させる立体画像コンテンツの選択や表示切り替え等のユーザからの操作指示を入力する。5はトレーニング制御部であり、立体視トレーニング期間を制御する。6は奥行き検出部であり、立体画像コンテンツの画面内における奥行き深度を検出する。7はグラフィックス生成部であり、立体視トレーニング用画像データを生成する。
操作指示部4は、リモコン受光部21及びキースイッチ入力部22を備える。20はリモコンであり、操作コマンドを赤外光にエンコードして送信する。リモコン受光部21は、リモコン20から赤外光を受信してデコードすることにより、操作コマンドを取得する。キースイッチ入力部22は、放送チャンネルやビデオポートの切り替え、音量調整、各種操作のためのキースイッチである。なお、操作指示部4をタッチパネル等で構成してもよい。
画像入力部2は、ビデオ入力インタフェース24、チューナ25及び入力セレクタ26を備える。ビデオ入力インタフェース24は、外部から画像データを入力する。例えば、ビデオ入力インタフェース24は、アナログコンポジット信号、アナログコンポーネント信号、HDMIやDVI等のデジタルビデオ信号規格のインタフェースで構成され、各種の画像データを入力する。チューナ25は、アンテナから入力された放送波から所望の放送チャンネルの信号を抽出して復調する。またチューナ25は、復調したストリームデータのデコードを行って、ベースバンドの画像データを出力する。入力セレクタ26は、ビデオ入力インタフェース24及びチューナ25からの画像データを入力し、指定された画像データのみを選択して出力する。
表示部3は、出力セレクタ27、高画質化処理部28、表示パネル制御部29及び表示パネル30を備える。出力セレクタ27は、画像入力部2又はグラフィックス生成部7から画像データを入力し、指定された画像データのみを選択して出力する。高画質化処理部28は、出力セレクタ27から入力した画像データに対して、拡大縮小処理、輪郭補正処理及び色補正処理等の画像処理を行う。表示パネル制御部29は、表示パネル30に画像データを表示させるための制御を行う。即ち、表示パネル制御部29は、表示パネル30の特性に合わせたタイミングの同期信号を生成し、同期信号に合わせて画像データを読み出して表示パネル30に出力する。また表示パネル制御部29は、信号電圧レベルの変換や補助信号の生成も行う。表示パネル30は、液晶方式、プラズマ方式、投射方式、CRT方式、有機EL方式等の任意の表示方式で構成される。なお、表示パネル30は、立体画像コンテンツに含まれる音声を再生するための音声処理部、アンプ及びスピーカ等を備える。
表示装置1は、CPU、周辺回路、メモリ及び通信インタフェース等をハードウェア構成として備える。例えば、トレーニング制御部5、奥行き検出部6及びグラフィックス生成部7等は、CPUがROM等の記録媒体から必要なプログラムを読み出して実行することにより実現する機能的な構成である。
次に、図4のフローチャートを参照しながら、第1の実施形態における立体画像コンテンツの表示切り替え処理について説明する。本実施形態においては、立体画像コンテンツの表示切り替え時には、表示切り替え前後の立体画像コンテンツの奥行き範囲が検出される。両者の奥行き範囲の差が閾値以上である場合、徐々に最深深度又は最浅深度に移動する立体視トレーニング用画像データが表示された後、表示切り替え後の立体画像コンテンツが表示される。以下、詳細に説明する。
ステップS101において、奥行き検出部6は、表示切り替え前の立体画像コンテンツの奥行き範囲を検出する。ステップS102において、奥行き検出部6は、表示切り替え後の立体画像コンテンツの奥行き範囲を検出する。奥行き範囲の検出処理の詳細については後述する。ステップS103において、トレーニング制御部5は、表示切り替え前後の立体画像コンテンツの奥行き範囲の差が閾値以上であるか否かを判定する。奥行き範囲の差が閾値以上である場合、処理はステップS104に移行する。一方、奥行き範囲の差が閾値未満である場合、処理はステップS108に移行する。なお、ステップS101は第2の検出手段の処理例であり、ステップS102は第1の検出手段の処理例である。
ステップS104において、トレーニング制御部5は、立体視トレーニングプランを生成する。即ち、トレーニング制御部5は、奥行き範囲の差に応じて立体視トレーニング期間の所要時間やフレーム毎の奥行き変化の度合いを立体視トレーニングプランとして設定する。例えば、奥行き範囲の差を3段階に分け、奥行き範囲の差が少ない場合は1秒、奥行き範囲の差が中程度である場合は2秒、奥行き範囲の差が多い場合は3秒、というように立体視トレーニング期間の所要時間を設定する。また、入力セレクタ26は新たな立体画像コンテンツ側に切り替えられ、出力セレクタ27はグラフィックス生成部7側に切り替えられる。ステップS105において、グラフィックス生成部7は、立体視トレーニング用画像データを生成する。即ち、グラフィックス生成部7は、図3を用いて説明したように、立体視トレーニングが進むほどに奥行き範囲が拡がるような立体視トレーニング用画像データを生成する。ステップS106において、表示パネル制御部29は、立体視トレーニング用画像データを表示パネル30に表示させる。ステップS107において、トレーニング制御部5は、立体視トレーニング期間が終了したか否かを判定する。立体視トレーニング期間が終了した場合、処理はステップS108に移行する。立体視トレーニング期間が終了していない場合、処理はステップS105に戻る。ステップS108において、出力セレクタ27は立体画像コンテンツ側に切り替えられる。これにより、新たな立体画像コンテンツの表示が開始される。以上の処理により、表示切り替え時には、立体視トレーニング用画像データが表示された後に、新たな立体画像コンテンツが表示される。なお、ステップS105は、第1の生成手段の処理例である。
次に、図5を参照しながら、図4のステップS101やS102における奥行き検出部6の奥行き範囲の検出処理について説明する。本処理では、先ずコンテンツ製作者の指示があるか否かが判定され、指示があった場合はそれに従って奥行き範囲が決定される。一方、立体画像コンテンツが深度を指定する映像フォーマットである場合、当該映像フォーマットの深度データに基づいて奥行き範囲が決定される。それ以外の場合、立体画像コンテンツ内の各オブジェクトの視差量から奥行き範囲が決定される。以下、詳細に説明する。
ステップS121において、奥行き検出部6は、コンテンツ製作者の指示があったか否かを判定する。コンテンツ製作者の指示があった場合、処理はステップS122に移行する。一方、コンテンツ製作者の指示がない場合、処理はステップS124に移行する。
ステップS122において、奥行き検出部6は、立体画像コンテンツに付随するヘッダ等から指示データを取得する。その他の実施形態としては、通信ネットワークを介して立体画像コンテンツ提供者のサーバから指示データを取得するようにしてもよい。ステップS123において、奥行き検出部6は、取得した指示データに基づいて奥行き範囲を決定する。
ステップS124において、奥行き検出部6は、立体画像コンテンツが深度を指定する映像フォーマットであるか否かを判定する。立体画像コンテンツが深度を指定する映像フォーマットである場合、処理はステップS125に移行する。一方、立体画像コンテンツが深度を指定する映像フォーマットではない場合、処理はステップS127に移行する。例えば、HDMI1.4規格では、「L+depth」形式で映像を伝送する映像フォーマットが規定されており、ステップS124では、立体画像コンテンツがこのような映像フォーマットであるか否かを判定している。
ステップS125において、奥行き検出部6は、立体画像コンテンツのdepthフレームから深度データを取得する。ステップS126において、奥行き検出部6は、深度データに基づいて奥行き範囲を決定する。即ち、奥行き検出部6は、例えば深度データの最小値と最大値とを検索し、それらの差を奥行き範囲として決定する。
ステップS127において、奥行き検出部6は、立体画像コンテンツからオブジェクトを抽出する。オブジェクトの抽出方法は公知の任意の技術を用いることができる。即ち、輪郭線を追跡してオブジェクトを抽出するようにしてもよいし、色分布を検出してオブジェクトを抽出するようにしてもよい。ステップS128において、奥行き検出部6は、オブジェクトが閾値以上の大きさであるか否かを判定する。オブジェクトが所定の閾値以上の大きさである場合、処理はステップS129に移行する。一方、オブジェクトが所定の閾値未満の大きさである場合、処理はステップS127に戻る。即ち、閾値未満の大きさのオブジェクトを奥行き範囲の対象から除外するものであり、例えば雨や雪の降っているシーンで雨粒のような小さなオブジェクトを除外する。他の実施形態として、オブジェクトの動きを検出し、オブジェクトの速度が所定の閾値以上である場合、処理はステップS129に移行し、オブジェクトの速度が所定の閾値未満である場合、処理はステップS127に戻るようにしてもよい。
ステップS129において、奥行き検出部6は、左目用の画像データのオブジェクトと右目用の画像データのオブジェクトとのマッチングを行う。即ち、奥行き検出部6は、左目用の画像データから抽出したオブジェクトが右目用の画像データのどこにあるかをマッチングにより探索する。ステップS130において、奥行き検出部6は、左目用の画像データのオブジェクトと右目用の画像データのオブジェクトとの位置の差分から、視差量を検出する。視差量は、オブジェクト間の中心位置の差によって検出してもよいし、各オブジェクトの特徴点間の位置の差の平均値によって検出してもよい。ステップS131において、奥行き検出部6は、検出した視差量をオブジェクトリストに追加する。
図6は、オブジェクトリストの構成を示す図である。オブジェクトリストはオブジェクト毎にその位置(X座標、Y座標)と視差量とを記録する。オブジェクトリスト内の61はオブジェクトIDであり、オブジェクト毎に割り当てられるID番号である。図6の例では、家オブジェクト41については「@1」というID番号が記録され、山オブジェクト42については「@2」というID番号が記録され、人オブジェクト43については「@3」というID番号が記録されている。オブジェクトリスト内の62には各オブジェクトのX座標が記録され、オブジェクトリスト内の63には各オブジェクトのY座標が記録される。オブジェクトリスト内の64には、左目用の画像データと右目用の画像データとの視差量が記録されている。オブジェクトリスト内の65は、ユーザとオブジェクトとの距離の順位が記録されている。
図5の説明に戻る。ステップS132において、奥行き検出部6は、立体画像コンテンツ内の最後のオブジェクトであるか否かを判定する。最後のオブジェクトである場合、処理はステップS133に移行する。一方、最後のオブジェクトではない場合、処理はステップS127に戻る。ステップS133において、奥行き検出部6は、オブジェクトリストに基づいて奥行き範囲を決定する。即ち、奥行き検出部6は、オブジェクトリスト内の視差量64を検索し、最小値の視差量と最大値の視差量とを検索して奥行き範囲とする。図6の例では、人オブジェクト43の視差量が最小値(人オブジェクト43の位置が最浅)、山オブジェクト42の視差量が最大値(山オブジェクト42の位置が最深)として検出され、奥行き範囲は10〜70と決定される。以上の処理により、立体画像コンテンツから奥行き範囲が検出される。
以上のように、本実施形態によれば、立体視トレーニング用画像データを用いて確実に立体視トレーニングを行うことができるので、立体画像コンテンツの表示切り替え時の視聴疲労を低減することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、幅広く応用することが可能である。例えば、本実施形態では、立体画像コンテンツの表示切り替え時に立体視トレーニングを行う場合について説明したが、表示装置の起動時や立体画像コンテンツの再生開始時に立体視トレーニングを行うようにしてもよい。また、奥行き範囲の検出の際に使用する画像データは、冒頭部又は所定時間後のフレーム画像データでもよい。また、予め定められた枚数のフレーム画像データの奥行き範囲の平均値を使用してもよい。また、立体視トレーニングに使用する立体視トレーニング用画像データのパターンは任意のものでよい。例えば、表示開始が指示された立体画像コンテンツのタイトル、再生ボタンのアイコン、又は、ユーザによって指定されたアイコン等を立体視トレーニング用画像データとして使用してもよい。また、表示切り替え後の立体画像コンテンツに類似したグラフィックスの立体視トレーニング用画像データを表示するようにしてもよい。この場合、表示切り替え後の立体画像コンテンツとテンプレートのグラフィックスとの類似度を判定し、最も類似度の高いグラフィックスを立体視トレーニング用画像データとして使用する。また、立体画像コンテンツの製作者による指定がある場合には、当該作成者によって指定されたグラフィックスを立体視トレーニング用画像データとして使用してもよい。例えば、立体画像コンテンツのタイトルをロゴ化したものや登場人物をキャラクタ化したグラフィックスを立体視トレーニング用画像データとして使用することができる。
また、立体視トレーニングで奥行き範囲を拡げる速度は一定でもよいし、曲線的に上昇させるようにしてもよい。立体画像コンテンツのシーン中で深度が変化している場合には、それに応じた速度で奥行き範囲を拡げるようにしてもよい。また、立体視トレーニング用画像データを透過表示できるようにし、表示切り替え後の立体画像コンテンツを表示しながら立体視トレーニング用画像データを表示するようにしてもよい。この場合、出力セレクタ27は、立体視トレーニング用画像データと立体画像コンテンツとを透過合成して出力する。このとき、透過表示された前景の立体視トレーニング用画像データが徐々に手前に移動するように表示される。また、透過表示される前景の立体視トレーニング用画像データは、立体画像コンテンツの画面で前景のオブジェクトがない場所に表示させるようにしてもよい。
また、視聴しているユーザが誰であるかを検出し、ユーザ毎に立体視トレーニング用画像データのパターンや立体視トレーニングの速度を切り替えるようにしてもよい。また、視聴しているユーザの位置を検出し、立体視トレーニング用画像データをユーザの正面に表示させ、そのまま奥行き範囲を増加させるようにしてもよい。ここでユーザの位置を検出する処理は第3の検出手段の処理である。また、初めは立体視トレーニング用画像データをユーザの正面に表示しておき、徐々に立体画像コンテンツの前景のオブジェクトの位置に立体視トレーニング用画像データを移動させるようにしてもよい。複数のユーザが存在する場合には、それぞれのユーザの正面に立体視トレーニング用画像データを表示させるようにしてもよい。また、ユーザと表示画面との距離に応じて、立体視トレーニング用画像データの大きさを変えるようにしてもよい。例えば、ユーザと表示画面との距離が近い場合は立体視トレーニング用画像データを小さく表示させ、ユーザと表示画面との距離が遠い場合は立体視トレーニング用画像データを大きく表示させる。ここでユーザと表示画面との距離の検出処理が行われるが、本処理は第4の検出手段の処理例である。
立体視トレーニング用画像データと立体画像コンテンツとの表示切り替えは、表示パネル30における立体視トレーニング用画像データの比率を徐々に低下させつつ立体画像コンテンツを表示させていくことにより表示切り替えを行うようにしてもよい。また、立体視トレーニング用画像データをモーフィングして表示切り替えを行うようにしてもよい。立体視トレーニングの終了後に比率を低下(又はモーフィング)させてもよいし、奥行き範囲を変更しながら比率を低下(又はモーフィング)させてもよい。比率の低下(又はモーフィング)の方法は任意の公知技術を使用することができる。
次に、本発明の第2の実施形態について説明する。第2の実施形態では、立体画像コンテンツの内容が立体視トレーニングに適しているか否かを判定し、適さない場合に立体視トレーニング用画像データを表示する例について説明する。
図7は、本発明の第2の実施形態に係る表示装置の構成を示す図であり、以下、図7を参照しながら、第2の実施形態に係る表示装置11の構成について説明する。なお、第2の実施形態に係る表示装置11は、図1に示した構成にトレーニング適性解析部8及び補間画像生成部9を追加したものである。
図7において、8はトレーニング適性解析部であり、表示切り替え後の立体画像コンテンツが立体視トレーニングに適した画像データであるか否かを解析する。即ち、トレーニング適性解析部8は、表示切り替え後の立体画像コンテンツから前景のオブジェクトと背景のオブジェクトとを抽出し、両者の色差を検出する。両者の色差が閾値以下である場合、オブジェクトを見分けづらいために立体視トレーニングを確実に行えない可能性がある。従って、この場合は、立体視トレーニング用画像データによって立体視トレーニングを行うように処理を切り替える。9は補間画像生成部であり、表示切り替え後の立体画像コンテンツの視差量を変更した補間画像データを生成する。立体画像コンテンツが立体視トレーニングに適した画像データである場合、即ち、上記両者の色差が閾値より大きい場合、補間画像データによって立体視トレーニングを行うように処理を切り替える。なお、視差量を変更した補間画像データの生成は、例えば特許文献1に開示される方法で行うことができる。また、補間画像データの生成はこれに限られることなく、任意の公知技術を用いることができる。
次に、図8を参照しながら、第2の実施形態における立体画像コンテンツの表示切り替え処理について説明する。図8に示す第2の実施形態における立体画像コンテンツの表示切り替え処理は、図4に示すフローチャートのステップS103とS104との間に、ステップS201〜S206を追加した処理である。以下では、図4と相違する処理についてのみ説明するものとする。
ステップS201において、トレーニング適性解析部8は、立体画像コンテンツについて立体視トレーニング適性を解析する。ステップS202において、トレーニング適性解析部8は、ステップS201の解析の結果、立体画像コンテンツが立体視トレーニングに適しているか否かを判定する。立体画像コンテンツが立体視トレーニングに適している場合、処理はステップS203に移行する。一方、立体画像コンテンツが立体視トレーニングに適していない場合、処理はステップS104に移行する。
ステップS203において、トレーニング制御部5は、補間画像データを用いた立体視トレーニングのプランを生成する。例えば、トレーニング制御部5は、奥行きの差に応じて立体視トレーニング期間や1フレーム毎の奥行き変化の度合いを設定する。また、入力セレクタ26は新たな立体画像コンテンツ側に切り替えられ、出力セレクタ27は補間画像データ側に切り替えられる。ステップS204において、補間画像生成部9は、立体視トレーニング用に視差量を変更した補間画像データを作成する。即ち、補間画像生成部9は、立体視トレーニングが進むほどに奥行き範囲が拡がるような補間画像データを生成する。ステップS205において、表示パネル制御部29は、立体視トレーニング用に視差量が変更された補間画像データを表示する。ステップS206において、トレーニング制御部5は、立体視トレーニング期間が終了したか否かを判定する。立体視トレーニング期間が終了した場合、処理はステップS108に移行する。一方、立体視トレーニング期間が終了していない場合、処理はステップS204に戻る。ステップS108において、出力セレクタ27は立体画像コンテンツ側に切り替えられる。これにより、新たな立体画像コンテンツの表示が開始される。以上の処理により、立体視トレーニング用画像データ又は補間画像データによって立体視トレーニングを行うことができる。なお、ステップS204は第2の生成手段の処理例である。
以上説明したように、第2の実施形態によれば、第1の実施形態と同様な効果を得ることができる。なお、本発明は、上述した実施形態に限定されるものではなく、幅広く応用することが可能である。即ち、トレーニング適性解析部8で検出されるパラメータは、任意のものでよい。例えば、前景のオブジェクトと背景のオブジェクトとの面積比率を検出するようにしてもよい。極端な比率の場合、視差変化を見比べる部分が小さいために、立体視トレーニングが確実に行えない可能性がある。そこで、比率が極端に大きい場合、又は比率が極端に小さい場合、立体画像コンテンツが立体視トレーニングに適さないと判定される。また、前景のオブジェクトの位置が極端に端にある場合、立体画像コンテンツが立体視トレーニングに適さないと判定するようにしてもよい。また、前景のオブジェクトの動きを検出し、動きが激しい場合、立体画像コンテンツが立体視トレーニングに適さないと判定するようにしてもよい。さらに、画像レイアウトのテンプレートを予め用意しておき、これと立体画像コンテンツとの類似度に応じて、当該立体画像コンテンツが立体視トレーニングに適しているか否かを判定するようにしてもよい。
補間画像生成部9は、立体画像コンテンツの特定の1つのフレーム画像データを用いて、徐々に視差を拡げるような補間画像データを生成するようにしてもよい。これにより、静止画が徐々に立体的になっていくような立体視トレーニングとなる。対象のフレーム画像データは、立体画像コンテンツの冒頭部のフレーム画像データでもよいし、シーン中央のフレーム画像データを使用してもよい。また、シーン内での画面の揺れ度合いに応じて、平均位置にあるフレーム画像データを使用してもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
1、11:表示装置、2:映像入力部、3:表示部、4:操作指示部、5:トレーニング制御部、6:奥行き検出部、7:グラフィックス生成部、8:トレーニング適性解析部、9:補間画像生成部、20:リモコン、21:リモコン受光部、22:キースイッチ入力部、24:ビデオ入力インタフェース、25:チューナ、26:入力セレクタ、27:出力セレクタ、28:高画質化処理部、29:表示パネル制御部、30:表示パネル
Claims (23)
- 第1の立体画像データに対応する位置まで移動していく画像データを生成する第1の生成手段と、
前記第1の立体画像データを表示させる前に、又は、前記第1の立体画像データを表示させながら、前記画像データを表示させる制御手段とを有することを特徴とする画像処理装置。 - 前記第1の立体画像データの奥行き範囲を検出する第1の検出手段と、
前記第1の立体画像データの前に表示される第2の立体画像データの奥行き範囲を検出する第2の検出手段とを更に有し、
前記第1の生成手段は、前記第1の立体画像データの奥行き範囲と前記第2の立体画像データの奥行き範囲との差に対応する前記画像データを生成することを特徴とする請求項1に記載の画像処理装置。 - 前記第1の検出手段と前記第2の検出手段とのうちの少なくとも何れか一方は、該当する立体画像データの製作者の指示を示すデータに基づいて、当該立体画像データの奥行き範囲を検出することを特徴とする請求項2に記載の画像処理装置。
- 前記第1の検出手段と前記第2の検出手段とのうちの少なくとも何れか一方は、該当する立体画像データに含まれる深度を示すデータに基づいて、当該立体画像データの奥行き範囲を検出することを特徴とする請求項2に記載の画像処理装置。
- 前記第1の検出手段と前記第2の検出手段とのうちの少なくとも何れか一方は、該当する立体画像データの視差量に基づいて、当該立体画像データの奥行き範囲を検出することを特徴とする請求項2に記載の画像処理装置。
- 前記第1の検出手段と前記第2の検出手段とのうちの少なくとも何れか一方は、該当する立体画像データに含まれるオブジェクトの大きさを検出し、所定の大きさ以上のオブジェクトを用いて前記視差量を検出することを特徴とする請求項5に記載の画像処理装置。
- 前記第1の検出手段と前記第2の検出手段とのうちの少なくとも何れか一方は、該当する立体画像データに含まれるオブジェクトの動きを検出し、所定の速度よりも遅いオブジェクトを用いて前記視差量を検出することを特徴とする請求項5に記載の画像処理装置。
- 前記第1の生成手段は、前記第1の立体画像データに類似する前記画像データを生成することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
- 前記第1の生成手段は、前記第1の立体画像データにおける所定のオブジェクトに対応する位置まで移動していく前記画像データを生成することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
- ユーザの位置を検出する第3の検出手段を更に有し、
前記制御手段は、前記第3の検出手段により検出された前記ユーザの位置に対応する位置に前記画像データを表示させることを特徴とする請求項1に記載の画像処理装置。 - ユーザと前記第1の立体画像データが表示される表示画面との距離を検出する第4の検出手段を更に有し、
前記制御手段は、前記第4の検出手段により検出された距離に対応する大きさで前記画像データを表示させることを特徴とする請求項1に記載の画像処理装置。 - 前記制御手段は、前記第1の立体画像データの手前に前記画像データを透過表示させることを特徴とする請求項1に記載の画像処理装置。
- 前記制御手段は、画面上における前記画像データの比率を徐々に低下させつつ前記第1の立体画像データを表示させていくことを特徴とする請求項1に記載の画像処理装置。
- 前記制御手段は、前記画像データをモーフィングして前記第1の立体画像データを表示させていくことを特徴とする請求項1に記載の画像処理装置。
- 前記第1の立体画像データに基づいて、前記画像データを表示させることによる立体視トレーニングに関する適性を判定する判定手段を更に有し、
前記第1の生成手段は、前記判定手段による判定結果に応じて、前記画像データを生成することを特徴とする請求項1に記載の画像処理装置。 - 前記判定手段による判定結果に応じて、前記第1の立体画像データの視差量を変更した補間画像データを生成する第2の生成手段を更に有し、
前記制御手段は、前記第2の生成手段により前記補間画像データが生成された場合、前記第1の立体画像データを表示させる前に、又は、前記第1の立体画像データを表示させながら、前記補間画像データを表示させることを特徴とする請求項15に記載の画像処理装置。 - 前記判定手段は、前記第1の立体画像データ内におけるオブジェクト間の面積比率に基づいて立体視トレーニングに関する適性を判定することを特徴とする請求項15又は16に記載の画像処理装置。
- 前記判定手段は、前記第1の立体画像データ内におけるオブジェクト間の色差に基づいて立体視トレーニングに関する適性を判定することを特徴とする請求項15又は16に記載の画像処理装置。
- 前記判定手段は、前記第1の立体画像データ内におけるオブジェクトの位置に基づいて立体視トレーニングに関する適性を判定することを特徴とする請求項15又は16に記載の画像処理装置。
- 前記判定手段は、前記第1の立体画像データ内におけるオブジェクトの動きに基づいて立体視トレーニングに関する適性を判定することを特徴とする請求項15又は16に記載の画像処理装置。
- 前記第2の生成手段は、前記第1の立体画像データ内の所定の画像データに基づいて前記補間画像データを生成することを特徴とする請求項16に記載の画像処理装置。
- 画像処理装置によって実行される画像処理方法であって、
立体画像データに対応する位置まで移動していく画像データを生成する生成ステップと、
前記立体画像データを表示させる前に、又は、前記立体画像データを表示させながら、前記画像データを表示させる制御ステップとを有することを特徴とする画像処理方法。 - 立体画像データに対応する位置まで移動していく画像データを生成する生成ステップと、
前記立体画像データを表示させる前に、又は、前記立体画像データを表示させながら、前記画像データを表示させる制御ステップとをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011243563A JP2013102270A (ja) | 2011-11-07 | 2011-11-07 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011243563A JP2013102270A (ja) | 2011-11-07 | 2011-11-07 | 画像処理装置、画像処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013102270A true JP2013102270A (ja) | 2013-05-23 |
Family
ID=48622506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011243563A Pending JP2013102270A (ja) | 2011-11-07 | 2011-11-07 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013102270A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017022302A1 (ja) * | 2015-08-03 | 2017-02-09 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
-
2011
- 2011-11-07 JP JP2011243563A patent/JP2013102270A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017022302A1 (ja) * | 2015-08-03 | 2017-02-09 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101621528B1 (ko) | 디스플레이장치 및 그 3d 영상신호 표시방법 | |
EP3097689B1 (en) | Multi-view display control for channel selection | |
JP2011055421A (ja) | 映像処理装置及びその制御方法 | |
KR20090054835A (ko) | 3차원 영상 처리방법 및 그 장치 | |
RU2598989C2 (ru) | Устройство отображения трехмерного изображения и способ отображения для такового | |
US20120120207A1 (en) | Image playback device and display device | |
JP2011216937A (ja) | 立体画像表示装置 | |
JP2012015771A (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 | |
US9154772B2 (en) | Method and apparatus for converting 2D content into 3D content | |
JP5599063B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
US20140132726A1 (en) | Image display apparatus and method for operating the same | |
EP2574062A2 (en) | Image display apparatus and method for operating the same | |
JP2012173683A (ja) | 表示制御装置、情報表示装置、及び表示制御方法 | |
KR101661956B1 (ko) | 음향 설정에 대응하는 3d 오브젝트를 제공하는 영상표시장치 및 그 동작 제어방법 | |
JP2013102270A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US8855472B2 (en) | Video editing apparatus, video editing method, program, and integrated circuit | |
KR101914206B1 (ko) | 360도 영상 기반의 클라우드 오디오 렌더링 서버 | |
US20140125784A1 (en) | Display control apparatus, display control method, and program | |
US20120268454A1 (en) | Information processor, information processing method and computer program product | |
KR101735608B1 (ko) | 영상표시장치 및 그 동작방법 | |
US9253477B2 (en) | Display apparatus and method for processing image thereof | |
CN103475831A (zh) | 应用于显示装置的字幕控制方法与元件 | |
WO2014122798A1 (ja) | 画像処理装置、及び画像処理方法 | |
EP3389267B1 (en) | Display apparatus and method | |
KR101804912B1 (ko) | 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법 |