JP2012080294A - 電子機器、映像処理方法、及びプログラム - Google Patents
電子機器、映像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2012080294A JP2012080294A JP2010223213A JP2010223213A JP2012080294A JP 2012080294 A JP2012080294 A JP 2012080294A JP 2010223213 A JP2010223213 A JP 2010223213A JP 2010223213 A JP2010223213 A JP 2010223213A JP 2012080294 A JP2012080294 A JP 2012080294A
- Authority
- JP
- Japan
- Prior art keywords
- pop
- amount
- unit
- image
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/341—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/373—Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
Abstract
【課題】視聴者に臨場感を提供することの可能な電子機器、映像処理方法、及びプログラムを提供することを課題とする。
【解決手段】電子機器は、ユーザが第1の位置から、前記第1の位置より前記電子機器との距離が短い位置である第2の位置へ移動すると、この移動量を検出する移動量検出手段と、前記移動量に基づいて、立体視映像内の物体の飛び出しを強調させる飛び出し強調手段と、前記物体の飛び出しが強調された立体視映像を出力する出力手段と、を具備する。
【選択図】図3
【解決手段】電子機器は、ユーザが第1の位置から、前記第1の位置より前記電子機器との距離が短い位置である第2の位置へ移動すると、この移動量を検出する移動量検出手段と、前記移動量に基づいて、立体視映像内の物体の飛び出しを強調させる飛び出し強調手段と、前記物体の飛び出しが強調された立体視映像を出力する出力手段と、を具備する。
【選択図】図3
Description
本発明の実施形態は電子機器、映像処理方法、及びプログラムに関する。
一般的に、映像表示装置では、例えばLCD(Liquid Crystal Display)パネルに代表されるようなフラットパネルディスプレイ(FPD:Flat Panel Display)に表示される。このため、通常の映像を視聴しても視聴者は映像にあまり奥行きを感じなかった。しかし近年、両眼視差方式により視聴者が立体可能な映像表示装置が普及し始めており、この映像表示装置では左右の眼に異なる映像を視認させることによって、視聴者に奥行き(飛び出しも含む)を感じさせることを可能としている。
一般的な立体視技術では、視聴者が所定の位置に存在していることを前提として、左眼に視認させるための画像である左眼用画像と、右眼に視認させるための画像である右眼用画像との間の視差が定められている。
しかし、例えば視聴者の視聴位置と映像表示装置との距離が変わった場合には、運動視差が生じ、想定されている視差と視聴者に提供するべき視差が異なってしまうため、視聴者に不自然な飛び出し量の立体視映像を提供してしまう可能性がある。また、視聴者の視聴位置が変更した場合にも、臨場感を提供するようなものではなかった。
本発明は上記に鑑みてなされたものであって、視聴者に臨場感を提供することの可能な電子機器、映像処理方法、及びプログラムを提供することを課題とする。
実施形態における電子機器は、ユーザが第1の位置から第2の位置へ移動すると、この移動量を検出する移動量検出手段と、前記移動量に基づいて、立体視映像内の物体の飛び出しを強調させる飛び出し強調手段と、前記物体の飛び出しが強調された立体視映像を出力する出力手段と、を具備する。
実施の形態を図面を参照しながら説明する。
図1は本実施形態における映像表示システム3の一例を示す概観図である。図1にはDTV1、シャッタメガネ2、および映像出力システム3が示されている。
DTV1は例えばデジタルテレビ(Digital Television)であって本実施形態における電子機器の一例である。DTV1は、間に視差が存在する左眼用画像と右眼用画像を交互に表示することによって、シャッタメガネ2を装着したユーザに立体視映像を提供することが可能である(フレームシーケンシャル方式)。また、更にDTV1は、1つの視点から撮影された平面映像(2D映像とも呼ぶ)から、両眼視差を利用した立体視映像(3D映像とも呼ぶ)を生成する処理(2D3D変換処理)を実行できる。ここでの2D3D変換処理では、DTV1は入力された画像を解析し、画像内の物体の奥行き量を推定することで、視差の存在する右眼用及び左眼用の画像を生成する。また、本実施形態では電子機器の一例としてDTV1を示すが、これに限定されるものではなく、例えばDVD(Digital Versatile Disc)プレーヤ、HDD(Hard Disk Drive)プレーヤ、STB(Set Top Box)、又はPC(Personal Computer)等の様々なものが電子機器の例として考えられる。
シャッタメガネ2は左眼用レンズ及び右眼用レンズにそれぞれ遮蔽可能な液晶シャッタが設けられており、これらのレンズとシャッタとを合わせてレンズユニットと呼ぶこととする。シャッタメガネ2はDTV1から受信するシャッタの開閉信号に基づいて左右のレンズユニットのそれぞれのシャッタを異なるタイミングで開閉することで、ユーザに立体視映像を提供する。例えば、開閉信号としてRF(Radio Frequency)信号を用いる場合、シャッタメガネ2はRFレシーバを備えている。
例えば、本実施形態においてDTV1は、図2で示すように左眼用画像と右眼用画像とを交互に表示する。DTV1に左眼用画像が表示されているときには、シャッタメガネ2はDTV1からの開閉信号に基づいて右眼用レンズユニットのシャッタを閉状態(遮蔽状態)、左眼用レンズユニットのシャッタを開状態(透過状態)として、ユーザの左眼のみに左眼用画像を見せる。また右眼用画像が表示されているときには左眼用レンズユニットのシャッタを閉状態、右眼用レンズユニットのシャッタを開状態として、ユーザの右眼のみに右眼用画像を見せる。この動作によってユーザは見ている映像を立体として捉えることができる。
上記の立体視の原理を詳細に説明する。人間は通常、物体を位置の異なる左眼と右眼とのそれぞれで視認おり、この左眼と右眼とで視認する像の間には視差が存在する。この視差の存在する左眼で見る像と右眼で見る像とを脳内で合成することによって人間は見ている物体を立体として認識することができる。よって、間に視差の存在する左眼用の画像と右眼用の画像とをそれぞれの眼で見せることによって、ユーザに映像を立体として捉えさせることが可能となる。この原理を用いて上述のようにシャッタメガネ2はDTV1の映像をユーザに立体視映像として提供している。
また、DTV1は上述のように2D3D変換処理を実行することができる。このとき、DTV1は2D映像を解析し、映像内に存在する物体や風景の奥行きを推定する。図3は本実施形態における間に視差が存在する左眼用画像及び右眼用画像の生成方法の一例を示す概念図である。DTV1は2D映像内に存在する物体4、物体5等の奥行き量を推定し、これに基づいて図3のように所定の視点から視聴者に視認される場合の右眼用画像及び左眼用画像を生成し、それぞれ交互に表示する。これによって上述のようにDTV1はユーザに立体視映像を提供している。
映像出力システム3はDTV1及びシャッタメガネ2によって構成される。ユーザはシャッタメガネ2を装着して、DTV1に表示されている映像を見ることで、この映像を立体視映像として認識することができる。
次に映像出力システム3の内部構成について説明する。
図4は本実施形態における映像出力システム3の内部構成の一例を示すブロック図である。
制御部101は、DTV1の動作を統括的に制御するための処理部である。制御部101は、図示しないが、プログラムに基づいて各種処理を実行するCPU(Central Processing Unit)、このCPUが実行するプログラムを格納するROM(Read Only Memory)、CPUが処理を実行する際に作業領域として使用するRAM(Random Access Memory)、及び各種設定値等を記憶する不揮発性メモリ(例えばフラッシュメモリ)とを備えている。
操作部102は、各種操作スイッチ及びリモコン6の受光部であり、受け付けたユーザからの指示を制御部101に送る機能を有している。
リモコン6は、ユーザからの操作に基づいて操作部102に対して赤外線を利用した無線通信で制御コマンドを送信する機能を有している。リモコン6は、チャンネルの設定やボリュームの調整についての制御信号を送信することが可能である。またさらに、リモコン6は本実施形態における「奥行きの強調」処理等についての制御信号を送信することも可能である。「奥行きの強調」処理については後述にて説明を行う。
光ディスク7は、例えば、DVDまたはBlu−ray(登録商標)ディスクのような、レーザ光によってデータを読み書き可能な記憶媒体である。本実施形態における光ディスク7には2D映像コンテンツが記録されている。
光ディスクドライブ部103は、光ディスク7に記録されたデータを読み取る装置であり、光ディスク7を回転させるスピンドルモータや光ピックアップを動かすアクチュエータ等の駆動部、光ピックアップで読み取った反射光を電気信号にするアナログフロントエンド、同アナログフロントエンドが出力したアナログ信号をデジタル信号に変換するDSP(Digital Signal Processor)等で構成されている。
デコード部104は、光ディスクドライブ部103が出力するデジタル信号のエラー訂正を行い、圧縮された映像及び音声信号を復号する機能を有している。デコード部104は、復号された映像は奥行き推定部105に出力する。なお、デコード部104が音声信号を音声処理部に出力し、音声処理部は入力された音声信号に基づいてスピーカより音声を出力する(音声処理部及びスピーカは図4で図示しない)。
奥行き推定部105は、例えば公知の技術である「モーションステレオ法」により、デコード部104より入力した2D映像から、映像内の物体や背景の奥行き(depthと呼ぶ)を推定する機能を有している。奥行き(depth)の座標系は、図5に示されるように、表示パネル112(表示面)の位置を始点として、ユーザ側がプラスとなり、またユーザの逆側(奥側)がマイナスとする。すなわち、物体が飛び出している場合の物体の奥行きはdepth1>0、逆に物体が奥にある場合の物体の奥行きはdepth2<0となり、一般的に、depth1>0のときの奥行き(depth)の量は飛び出し量、depth2<0のときの奥行き(depth)の量はへこみ量と称される。図5のBLは標準視聴距離(ベースライン)と呼ばれ、視聴者に視聴を推奨する画面からの距離を示している。一般に50インチのハイビジョンTVの場合、標準視聴距離は1.8メートルである。
測位部106は、本実施形態ではDTV1に設けられたユーザを撮影するカメラ(撮像手段)、このカメラで撮影した画像に所定の画像処理を施す画像処理部、及びこの画像に基づいてユーザとDTV1との距離、及びユーザが動いた時の移動距離を算出する計算部を有している。測位部106の、ユーザとDTV1との距離の計測(検出)方法については、後述にて説明を行う。ここでのカメラはDTV1に内蔵されたものでもよいし、DTV1とは別体のカメラでもよい。また、本実施形態では測位部106はカメラを用いてユーザとDTV1との距離を測定(検出)するが、これに限定されず、ユーザとDTV1との距離を検出できれば、カメラ以外の手段によって構成されているとしてもよい。測位部106は、計測したユーザが動いた時の移動距離を飛び出し強調部107及び運動視差生成部110に対して出力する。
飛び出し強調部107は、測位部106が算出したユーザの移動距離に応じて、奥行き推定部105が推定した物体の奥行きに補正を行い、奥行きを再計算する処理を行う。例えば、奥行き推定により、奥行き量が指定範囲以内(本実施形態ではdepth>0であり、飛び出し量を持つ)の物体をスクリーニングし、視聴者が画面に近づいた場合に、それらの物体について飛び出し量の値が増加するように飛び出し量の強調を行う。なお、本実施例では、背景を含めて、へこみ量を持つ物体については、補正は行わない。
視差生成部108は、奥行き強調部107が出力した奥行き(depth)情報に基づいて、生成すべき左目用映像と右目用映像の視差量を求める機能を有している。
視差画像生成部109は、視差生成部108が求めた視差量に基づき、左目用映像と右目用映像を生成する。以上の処理によってDTV1は2D映像コンテンツに基づいて、3D映像コンテンツを生成することができる。また、ここでの3D映像コンテンツはユーザの移動に基づいて、depth>0の物体の飛び出し量が強調された映像となっている。
運動視差生成部110は、測位部106が求めた移動距離に基づいて、視差画像生成部109が生成した左目用映像と右目用映像の部分領域の拡大処理を行う機能を有している。これは、具体的には、左目用映像と右目用映像に対してケン・バーンズ・エフェクトとして広く知られる表示効果を与える処理であり、ユーザが身を乗り出したりして表示パネル112に近づいたような場合に、移動距離に応じて映像の一部を拡大することで、ユーザに映像が迫ってくるような感覚を与えることができる。
そして、運動視差生成部110は「透視投影」の考え方を用いることで、映像面の映像(コンテンツ)を投影面に投影し、投影面の映像を拡大して出力部111に出力する。なお、視差画像はフレームシーケンシャル方式で運動視差生成部110に入力され、投影面の生成から拡大の処理は、左右の映像に対して順次行なわれる。また、運動視差生成部110は映像コンテンツに対して、例えば超解像技術等による高解像度化処理を実行することができる。運動視差生成部110は入力された映像に対して所定の領域を抽出した後、この画像にスケーリングを施し、スケーリングした画像に対して高解像度化処理を実行し、画素を補間する。これにより運動視差生成部110は、拡大された画像が粗くなってしまうことを防ぐことができる。
出力部111は、運動視差生成部110が生成した、左目用映像と右目用映像を交互に表示パネル112に出力する機能を有している。また、出力部111は左眼用画像と右眼用画像の表示パネル112への出力タイミングを示す信号を同期制御部113に出力している。
表示パネル112は、例えばLCDパネル等のFPDであり、出力部111より出力される映像信号(左目用映像と右目用映像)を表示して、ユーザに提供する機能を有している。
同期制御部113は、出力部111から入力される左目用映像と右目用映像が出力されるタイミングにシャッタメガネ2の開閉を同期させるための同期信号を生成して、シャッタメガネ駆動部114に出力する。
シャッタメガネ駆動部114は、同期制御部113から入力する同期信号に合わせて、シャッタメガネ2の開閉信号を送信する機能を有している。例えば、シャッタメガネ2への信号送信にRF信号を用いる場合は、RFトランスミッターを備える。
DTV1は、上述のように測位部106によってシャッタメガネ2の位置および移動量を計測することができる。この計測方法について、図6を用いて説明を行う。
図6は、本実施形態におけるシャッタメガネ2の測位方法の一例を示す概念図である。
DTV1の上部には測位部106の一部であるカメラが設けられている。このカメラによって測位部106はカメラ正面を撮影し、撮影した画像よりユーザの位置を検出する。
また、シャッタメガネ2にはマーカー21が設けられている。マーカー21は、シャッタメガネ2の左端及び右端に設けられており、左端及び右端のマーカー21はそれぞれ異なる色の球体によって構成されている。
測位部106のカメラは撮影された画像からマーカー21を認識し、このマーカー21の大きさに基づいて、シャッタメガネ2との距離を測定(算出)する(ユーザとの距離を測定する)。つまり、撮影した画像の中で、マーカー21が大きく写っていればユーザは近くに存在し、小さく写っていればユーザは遠くに存在することとなる。また、ユーザが前後に移動した場合には、測位部106はDTV1とユーザとの距離の変位に基づいて、ユーザの移動量を測定する。本実施形態では測位部106はシャッタメガネ2のマーカー21を認識してユーザの移動量を測定すると例示したがこれに限定されず、顔認識技術を用いて、顔の大きさや目の位置に基づき、ユーザの移動量を測定するとしてもよい。
このように測位部106はユーザの位置(DTV1との距離)及び移動量を測定することができる。次に、このユーザの移動量の情報を用いて飛び出し強調部107が行う飛び出し量の強調(調整)について図7を用いて説明を行う。
図7は本実施形態における飛び出し強調部107が実行する飛び出し量強調処理の一例を示す概念図である。
ここではまず、ユーザが標準視聴距離BLから視聴を行っていたところから、DTV1側へ移動を行い(例えば身を乗り出して視聴する場合等)、視聴距離Lの位置まで移動した場合を考える。ユーザの移動量は、標準視聴距離BLから視聴距離Lを減算した結果である移動距離Mとなる。この計算は測位部106によって実行され、飛び出し強調部107はこの移動距離Mの情報を取得することが出来る。飛び出し強調部107は移動距離Mに基づいてユーザに飛び出して認識される物体の飛び出し量の強調を実行する。つまり、飛び出し強調部107はdepth<0である物体5にはへこみ量の調整(補正)は行わず、depth>0である物体4に対しては飛び出し量を強調する。飛び出し量が強調された後の物体4の飛び出し量depth1 (New)は、元映像の飛び出し量depth1 (Original)に、強調量enhanceを加算した値となる。視差生成部108はこの強調された飛び出し量depth1 (New)に基づいて、左眼用画像と右眼用画像との間の視差量を生成し、視差画像生成部109はこの視差量に基づいて左眼用画像と右眼用画像を生成する。これにより、ユーザがDTV1に近づいた場合、飛び出し量を持つ(飛び出して認識される)物体4は、元の映像より飛び出してユーザに認識されるようになり、ユーザはより高い臨場感を得ることができる。
また本実施形態のDTV1では、運動視差生成部110による画像の拡大処理を行う。この拡大処理について、図8乃至図10を用いて以下で説明する。
図8は本実施形態における映像面と投影面の関係の一例を示す概念図である。
DTV1は、上述のように「透視投影」の考え方を用いることで、映像面の映像(コンテンツ)を投影面に投影し、投影面の映像を拡大して出力部111に出力する。図8に示される視点は透視投影処理のための便宜上の視点であり、視聴者の視点とは無関係である。
図8(b)で示されるように、投影面の位置は測位部106が測定した移動距離Mの関数で決定され、この関数の種々の例を図9に示す。また、投影面の移動距離である投影面移動距離Zと移動距離Mとの関係を本実施形態ではZ=f(M)と示す。
図8(a)のように、視聴者が標準視聴位置で視聴しているときには、映像面の映像と投影面の映像が一致するように投影面の初期位置は設定されている。ユーザの視聴位置が変わり、移動距離Mが生まれるとこれに伴い、Z=f(M)の関数に従って、図8(b)のように投影面が投影面移動距離Z分、映像面側に移動する。運動視差生成部110は、図10のように、投影面に投影された領域の映像面上の映像を切り出して拡大処理を行い、拡大した画像を出力部111に出力する。
すなわち、ユーザが身を乗り出すと、映像がクローズアップされ、映像に運動視差を与える効果を得ることができる。なお、視聴者の動きに対して投影面の動きが敏感すぎると、映像の拡大と縮小の繰り返しによる振動が発生する可能性があるため、運動視差生成部110の運動視差を生成する処理は、一定時間シャッタメガネ2の移動が無い場合に動作する。また、飛び出し強調部107の飛び出し強調処理についても、同様に、一定時間シャッタメガネ2の移動が無い場合に動作する。
運動視差生成部110が投影面移動距離Zを決定するとき、図9に示される関数はどの関数が用いられても良い。また、これらの関数のうちどの関数を利用するかをユーザが選択可能であってもよい。利用する関数を選択することによって、ユーザは投影面の移動量を調整することができ、ユーザの好みに対応することができる。この場合ユーザはリモコン6によって、利用する関数を選択できる。また、リモコン6は通常、チャンネルの設定やボリュームの調整に使うが、本実施例では、各種閾値の設定や「奥行きの強調」や「運動視差の生成」の機能を個々にON/OFFできるものとする。
次に本実施形態におけるDTV1の処理フローについて説明する。
図12は本実施形態におけるDTV1が実行する処理フローの一例を示すフロー図である。
まず、測位部106はカメラによってDTV1前方を撮影し、撮影した画像を解析することで、シャッタメガネ2のマーカー21を検出する。このとき、測位部106は撮影した画像の中のユーザの顔を認識した後に、シャッタメガネ2、マーカー21と順次画像を切り出し、最終的に、撮影されたマーカー21の面積からDTV1と視聴者の視聴距離Lを算出する。マーカー2はシャッタメガネ2の左右に設けられており、測位部106はDTV1と左眼までの距離LLと、右眼までの距離LRとを個別に算出することができるが、本実施形態では、視聴距離Lは距離LLと距離LRの平均値とする(L=(LL+LR)/2)。そして測位部106は移動量検出手段として、標準視聴距離BLと、測定したユーザとDTV1間の視聴距離Lとの差、すなわちユーザの移動距離Mを計算(検出)する(ステップS111)。ここでは、ユーザの移動距離を標準視聴距離BLと視聴距離Lとの差として例示しているが、これに限定されない。例えば、ある時刻におけるユーザの位置(第1の位置)とそれ以降の時刻におけるユーザの位置(第2の位置)との差を移動距離Lしてもよい。このとき、測位部106は自身の有するバッファに過去のユーザの視聴距離Lを保持しており、保持している過去の視聴距離L及び現在の視聴距離Lに基づいてユーザの移動距離Mを算出する。
次に、奥行き推定部105が、奥行き検出手段として、デコード部104のデコードした2D映像から物体の奥行き(depth)の推定を行う。上述のように、本実施形態では広く知られた「モーションステレオ法」を応用して物体の奥行きを推定する。モーションステレオ法とは、微小間隔で撮影した連続画像に映る物体の「画面上の動き」等に基づき、被写体までの距離を算出する方法である。奥行き推定の方法として、本実施形態では「モーションステレオ法」を応用するものとして例示するがこれに限定されず、奥行き推定方法にはこの他にも種々の方法が存在し、他の方法によって奥行き推定を行うとしてもよい。奥行き推定部105は、上述のように求めた奥行き量を奥行き管理テーブルに登録する(ステップS112)。この奥行き管理テーブルとは映像内の物体と、この物体の奥行き量とが対応付けられているテーブルであり、DTV1内の記憶媒体に記憶されている。本実施形態では制御部101の不揮発性メモリにこの奥行き管理テーブルが格納されているものとし、奥行き推定部105及び他のモジュールは不揮発性メモリの奥行き管理テーブルを参照、変更することができる。
次に、飛び出し強調部107が、飛び出し強調手段として、飛び出し量強調処理(奥行き量の補正処理)を行う(ステップS113)。飛び出し強調部107は測位部106から入力される移動距離Mに基づいて、それぞれの物体の飛び出し強調量enhanceを決定し、奥行き管理テーブルに登録されており、飛び出し量を持つ物体の飛び出し量を強調するように、奥行き管理テーブルの奥行き(depth)の値(奥行き量)を変更する。この処理の詳細な説明については、後述にて図13を用いて行う。
次に、視差生成部108が変更された奥行き管理テーブルからそれぞれの物体の奥行き情報を取り出し、各物体の視差量を求め(ステップS114)、視差量管理テーブルに格納する。この視差量管理テーブルとは映像上のそれぞれの物体とこの物体の視差量とが対応付けられているテーブルである。この視差量管理テーブルも、奥行き管理テーブルと同様に不揮発性メモリに格納されている。
ステップS114の処理が終了すると、視差画像生成部109は視差量管理テーブルに基づいて、左眼用画像及び右眼用画像を生成し(ステップS115)、生成した画像を運動視差生成部110に対して出力する。
次に、運動視差生成部110が、透視投影の考え方で、測位部106が求めた移動距離Mから関数を用いて計算した投影面移動距離Z(Z=f(M))に応じた位置に投影面を移動し、映像面の映像(左眼用と右眼用の視差画像)を投影面に投影することで、映像を拡大する領域(拡大領域)を決定する(ステップS116)。
ステップS116で拡大領域を決定すると、運動視差生成部110は拡大手段として、画像の拡大処理を実行し、これと共に画像に高解像度化処理を行い、ピクセル間の補間を行うことで映像の劣化を抑制する(ステップS117)。
ステップS117の処理を終了すると運動視差生成部110は、移動距離Mに応じて拡大した左眼用画像及び右眼用画像を、出力部111を通じて、表示パネル112に出力する。このとき出力手段は出力手段として機能する。同期制御部113は左眼用画像と右眼用画像の切り替えに同期した信号を生成しシャッタメガネ駆動部114を通じて、シャッタメガネ2に開閉信号として送信する(ステップS118)。
次に、飛び出し強調部107が実行する飛び出しの強調処理(奥行きの補正処理)について説明を行う。
図12は本実施形態における飛び出し強調処理の一例を示すフロー図である。
まず、飛び出し強調部107は奥行き管理テーブルより、飛び出し強調処理対象とする物体を選定する(ステップS121)。
次に、飛び出し強調部107は選定した物体の奥行き(depth)の値を奥行き管理テーブルより取り出し(ステップS122)、このdepthの値が0より大きいか否かの判別を行う(depth>0か否かの判別を行う)(ステップS123)。つまり、ここでは飛び出し強調部107は処理対象の物体が飛び出し量を持つか否かの判別を行う。つまり、飛び出し強調部107は判別手段として、これによって対象の物体に飛び出し強調処理を実行させるか否かの判別を行っている。奥行き(depth)の値が0以下(depth≦0)の場合には(ステップS123:No)、処理フローはステップS121に戻る。
奥行き(depth)の値が0より大きい(depth>0)場合には(ステップS123:Yes)、飛び出し強調部107は測位部106より入力される移動量Mの値に基づいて、強調量enhanceを決定する(ステップS124)。この強調量enhanceは移動量Mに依存する値であり、本実施形態では移動量Mと所定値の乗算にて求められる。所定値はユーザがリモコン6から設定可能な数値であり、例えば、「0.1(10%)」という値がデフォルトでセットされている。
ステップS123で強調量enhanceを決定すると、飛び出し強調部107は奥行き(depth)(飛び出し量)を強調量enhanceで補正する(ステップS125)。具体的には、補正された(強調された)奥行きdepth (New)は、補正前の奥行きdepth (Original)と強調量enhanceとの和となる。
次に、飛び出し強調部107は補正した奥行き(depth)を奥行き管理テーブルに、処理対象の物体と対応付けて登録する(ステップS126)。
ステップS126の終了後、飛び出し強調部107は奥行き管理テーブルに登録されている全ての物体について飛び出し強調処理を実行したか否かの判別を行う(ステップS127)。全ての物体に飛び出し強調処理を実行していない場合には(ステップS127:No)、処理フローはステップS121に戻り、全ての物体に飛び出し強調処理を実行した場合には(ステップS127:Yes)、一連の処理フローは終了となる。
本実施形態のDTV1は両眼視差の補正(奥行きの補正)による物体の飛び出し量強調処理を行うため、ユーザにより臨場感の高い3D映像を提供することができる。
また、DTV1は映像に運動視差を与えることで、ユーザに臨場感の高い3D映像を提供することができる。
また、本実施形態のDTV1はユーザ(視聴者)がDTV1に近づいたとき、物体の飛び出し量強調処理と運動視差に基づく画面拡大処理の相乗効果によって、ユーザにより臨場感の高い3D映像を提供することができる。
次に上記実施の形態の変形例について説明する。
(実施形態の変形例)
本変形例におけるDTV1は上記実施の形態とほぼ同様の構成となっており、更に機能が追加されている。ここでは上記実施形態とほぼ同様の構成については、同様の名称、同様の番号を附して説明を行う。
本変形例におけるDTV1は上記実施の形態とほぼ同様の構成となっており、更に機能が追加されている。ここでは上記実施形態とほぼ同様の構成については、同様の名称、同様の番号を附して説明を行う。
図13は本変形例における、処理の一例を説明するための概念図である。
ユーザは、DTV1に向かって前方向のみではなく、例えば左右方向又は後ろ方向に頭を移動させて、DTV1を視聴する場合が考えられる。上記の実施形態では前方方向に対する運動視差を映像に与えており、本変形例ではこれに加え上下左右及び後ろ方向の運動視差を映像に与える。
測位部106はカメラによって撮影する映像からユーザの前方向の移動のみではなく、ユーザの上下左右方向及び後ろ方向の移動も検出する。測位部106は、シャッタメガネ2の上下左右方向及び前後方向の移動に基づいて、ユーザの上下左右方向及び前後方向の移動を検出し、運動視差生成部110は図13のように、これに合わせて投影面を前方向のみではなく、上下左右方向及び後ろ方向に移動させる。これによって、映像面上の透視投影の範囲が移動し、運動視差生成部110はこの透視投影の範囲に基づいて映像を切り出す位置(領域)を決定する。本変形例では、ユーザの上下左右の移動によっても、映像に運動視差が与えられ、ユーザに臨場感を得ることができる。
また、ユーザが標準視聴距離BLより後ろ方向に移動し、投影面が初期位置(透視投影の範囲と映像面の大きさが一致する位置)よりも映像面から遠い位置となってしまった場合には、透視投影の範囲が通常の映像面の大きさよりも大きくなってしまう。このため、運動視差生成部110は過去の複数フレーム映像を記録するフレームバッファに格納されている過去の画像を用い、公知の技術である「周辺視野映像生成技術」を利用することで、周辺映像をデコード映像(映像面)に加えた映像面(拡張映像面と呼ぶ)を生成する。運動視差生成部110はこの拡張映像面のうちから、透視投影の範囲を切り出し出力することで、ユーザが後方に下がった場合にも、映像に運動視差を与えることができる。
上記の実施形態及び変形例では、DTV1が2D映像コンテンツから映像の奥行き量(depth)を推定するものとしたが、例えば、光ディスク7に3D映像コンテンツが格納されている場合等には、3D映像コンテンツの左眼用画像と右眼用画像の差分から物体の奥行き量(depth)を推定するとしてもよい。
また、上記の実施形態及び変形例では、液晶シャッタ方式の立体視を取り上げたが、例えば、視差バリアー方式や指向性バックライトのように、両眼視差を用いた立体視の方式であれば、シャッタメガネを使わない裸眼立体視であっても、本発明は実施可能である。
更に、上記の実施形態及び変形例では、DTV1は光ディスク7から映像を入力するものとしたが、放送波によって提供される映像に関しても同様に処理を実行することが可能である。
本実施形態におけるDTVは視聴者に臨場感のある映像を提供することができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1…DTV、2…シャッタメガネ、3…映像出力システム、4…物体、5…物体、6…リモコン、7…光ディスク、101…制御部、102…操作部、103…光ディスクドライブ部、104…デコード部、105…奥行き推定部、106…測位部、107…飛び出し強調部、108…視差生成部、109…視差画像生成部、110…運動視差生成部、111…出力部、112…表示パネル、113…同期制御部、114…シャッタメガネ駆動部、21…マーカー。
Claims (13)
- ユーザが第1の位置から第2の位置へ移動すると、この移動量を検出する移動量検出手段と、
前記移動量に基づいて、立体視映像内の物体の飛び出しを強調させる飛び出し強調手段と、
前記物体の飛び出しが強調された立体視映像を出力する出力手段と、
を具備する電子機器。 - 前記第2の位置は、前記第1の位置より前記電子機器との距離が短い位置である請求項1記載の電子機器。
- 映像内の物体の奥行き量を検出する奥行き検出手段と、
前記奥行き量検出手段が検出した、前記映像内の第1の物体の奥行き量に基づいて、前記飛び出し強調手段に前記物体の飛び出しの強調を実行させるか否かを判別する判別手段と、
を更に具備する請求項1記載の電子機器 - 前記判別手段は、前記第1の物体が飛び出し量を持つ場合に、前記飛び出し強調手段に前記物体の飛び出しの強調を実行させ、
飛び出し量を持たない場合に、前記飛び出し強調手段に前記物体の飛び出しの強調を実行させない請求項3記載の電子機器。 - 前記移動量検出手段は、撮像手段より入力された画像に基づいて、前記移動量を検出する請求項1記載の電子機器。
- 前記飛び出し強調手段は、前記移動量検出手段が検出した前記移動量に基づいて前記物体の飛び出しの強調量を決定する請求項1記載の電子機器。
- 表示面を更に具備し、
前記第1の位置は、前記表示面とユーザとの距離が標準視聴距離となる位置である請求項1記載の電子機器。 - 前記移動量に基づいて、立体視映像を拡大する拡大手段と、
前記出力手段は、前記飛び出し量強調手段が物体の飛び出しを強調させた立体視映像であって、前記拡大手段が拡大した前記立体視映像を出力する請求項1記載の電子機器。 - ユーザが第1の位置から第2の位置へ移動すると、この移動量を検出する移動量検出手段と、
前記移動量に基づいて、立体視映像を拡大する拡大手段と、
前記拡大された立体視映像を出力する出力手段と、
を具備する電子機器。 - 前記第2の位置は、前記第1の位置より前記電子機器との距離が短い位置である請求項9記載の電子機器。
- 拡大手段は、前記移動量検出手段が検出した前記移動量に基づいて拡大率を決定する請求項9記載の電子機器。
- ユーザが第1の位置から第2の位置へ移動すると、この移動量を検出し、
前記移動量に基づいて、立体視映像内の物体の飛び出しを強調し、
前記物体の飛び出しが強調された立体視映像を出力する映像処理方法。 - 移動量検出手段に、ユーザが第1の位置から第2の位置へ移動すると、この移動量を検出させ、
飛び出し強調手段に、前記移動量に基づいて、立体視映像内の物体の飛び出しを強調させる、
出力手段に、前記物体の飛び出し量が強調された立体視映像を出力させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010223213A JP2012080294A (ja) | 2010-09-30 | 2010-09-30 | 電子機器、映像処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010223213A JP2012080294A (ja) | 2010-09-30 | 2010-09-30 | 電子機器、映像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012080294A true JP2012080294A (ja) | 2012-04-19 |
Family
ID=44117816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010223213A Pending JP2012080294A (ja) | 2010-09-30 | 2010-09-30 | 電子機器、映像処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012080294A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012169822A (ja) * | 2011-02-14 | 2012-09-06 | Nec Personal Computers Ltd | 画像処理方法及び画像処理装置 |
WO2014126219A1 (ja) * | 2013-02-14 | 2014-08-21 | 株式会社 東芝 | X線診断装置 |
US9895118B2 (en) | 2013-02-14 | 2018-02-20 | Toshiba Medical Systems Corporation | X-ray diagnostic apparatus |
WO2019026183A1 (ja) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
WO2019026184A1 (ja) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0484560A (ja) * | 1990-07-27 | 1992-03-17 | Ricoh Co Ltd | ファクシミリ装置 |
JPH089421A (ja) * | 1994-06-20 | 1996-01-12 | Sanyo Electric Co Ltd | 立体映像装置 |
JPH08317429A (ja) * | 1995-05-23 | 1996-11-29 | Matsushita Electric Ind Co Ltd | 立体電子ズーム装置及び立体画質制御装置 |
JPH0990277A (ja) * | 1995-09-28 | 1997-04-04 | Terumo Corp | 立体画像表示装置 |
JP2010088749A (ja) * | 2008-10-09 | 2010-04-22 | Kenji Yoshida | 遊技ゲーム機 |
JP2010206774A (ja) * | 2009-02-05 | 2010-09-16 | Fujifilm Corp | 3次元画像出力装置及び方法 |
-
2010
- 2010-09-30 JP JP2010223213A patent/JP2012080294A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0484560A (ja) * | 1990-07-27 | 1992-03-17 | Ricoh Co Ltd | ファクシミリ装置 |
JPH089421A (ja) * | 1994-06-20 | 1996-01-12 | Sanyo Electric Co Ltd | 立体映像装置 |
JPH08317429A (ja) * | 1995-05-23 | 1996-11-29 | Matsushita Electric Ind Co Ltd | 立体電子ズーム装置及び立体画質制御装置 |
JPH0990277A (ja) * | 1995-09-28 | 1997-04-04 | Terumo Corp | 立体画像表示装置 |
JP2010088749A (ja) * | 2008-10-09 | 2010-04-22 | Kenji Yoshida | 遊技ゲーム機 |
JP2010206774A (ja) * | 2009-02-05 | 2010-09-16 | Fujifilm Corp | 3次元画像出力装置及び方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012169822A (ja) * | 2011-02-14 | 2012-09-06 | Nec Personal Computers Ltd | 画像処理方法及び画像処理装置 |
WO2014126219A1 (ja) * | 2013-02-14 | 2014-08-21 | 株式会社 東芝 | X線診断装置 |
JP2014176640A (ja) * | 2013-02-14 | 2014-09-25 | Toshiba Corp | X線診断装置 |
US9895118B2 (en) | 2013-02-14 | 2018-02-20 | Toshiba Medical Systems Corporation | X-ray diagnostic apparatus |
US9968320B2 (en) | 2013-02-14 | 2018-05-15 | Toshiba Medical Systems Corporation | X-ray diagnostic apparatus |
WO2019026183A1 (ja) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
WO2019026184A1 (ja) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
WO2019026388A1 (ja) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
JPWO2019026388A1 (ja) * | 2017-08-01 | 2020-03-19 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
JPWO2019026184A1 (ja) * | 2017-08-01 | 2020-03-26 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
US10999567B2 (en) | 2017-08-01 | 2021-05-04 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
US11050993B2 (en) | 2017-08-01 | 2021-06-29 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
JP7057785B2 (ja) | 2017-08-01 | 2022-04-20 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI558164B (zh) | 產生用於顯示器之信號之方法及裝置 | |
US9451242B2 (en) | Apparatus for adjusting displayed picture, display apparatus and display method | |
US8456518B2 (en) | Stereoscopic camera with automatic obstruction removal | |
KR101275542B1 (ko) | 3차원 화상표시장치 및 3차원 화상표시방법 | |
US8798160B2 (en) | Method and apparatus for adjusting parallax in three-dimensional video | |
JP4793451B2 (ja) | 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム | |
JP6020923B2 (ja) | 焦点可変レンズを有するビューア、および映像表示システム | |
EP2618584A1 (en) | Stereoscopic video creation device and stereoscopic video creation method | |
WO2012147363A1 (ja) | 画像生成装置 | |
WO2010146384A1 (en) | Stereoscopic image processing method and apparatus | |
JP2012015774A (ja) | 立体視映像処理装置および立体視映像処理方法 | |
US20130208088A1 (en) | Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method | |
US9167237B2 (en) | Method and apparatus for providing 3-dimensional image | |
JP2011171813A (ja) | 撮像装置及び立体画像表示方法 | |
JP2012080294A (ja) | 電子機器、映像処理方法、及びプログラム | |
US9161018B2 (en) | Methods and systems for synthesizing stereoscopic images | |
JP5599063B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
GB2470754A (en) | Generating and displaying images dependent on detected viewpoint | |
JP6166985B2 (ja) | 画像生成装置および画像生成プログラム | |
US20140119600A1 (en) | Detection apparatus, video display system and detection method | |
JP2011259012A (ja) | 立体画像再生装置及び立体画像再生方法 | |
KR101192121B1 (ko) | 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치 | |
JP2012169822A (ja) | 画像処理方法及び画像処理装置 | |
JP5362071B2 (ja) | 映像処理装置、映像表示装置および映像処理方法 | |
WO2013015217A1 (ja) | 立体画像処理装置および立体画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120221 |