JP2015029206A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2015029206A
JP2015029206A JP2013157915A JP2013157915A JP2015029206A JP 2015029206 A JP2015029206 A JP 2015029206A JP 2013157915 A JP2013157915 A JP 2013157915A JP 2013157915 A JP2013157915 A JP 2013157915A JP 2015029206 A JP2015029206 A JP 2015029206A
Authority
JP
Japan
Prior art keywords
eye image
right eye
image
left eye
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013157915A
Other languages
English (en)
Other versions
JP2015029206A5 (ja
JP6242104B2 (ja
Inventor
元久 伊藤
Motohisa Ito
元久 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013157915A priority Critical patent/JP6242104B2/ja
Publication of JP2015029206A publication Critical patent/JP2015029206A/ja
Publication of JP2015029206A5 publication Critical patent/JP2015029206A5/ja
Application granted granted Critical
Publication of JP6242104B2 publication Critical patent/JP6242104B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】処理負荷が大きくならないようにして違和感と疲労感とを軽減した立体映像を生成できるようにする。
【解決手段】水平視差と垂直視差の許容量との関係を表す函数fを定義し、垂直視差が函数fによって与えられた許容量未満である場合には、対象物を移動させないようにし、許容量以上である場合には、右眼映像及び左眼映像における対象物が画面の上辺または下辺に接しているか否かによって、対象物の移動方向及び移動量を算出するようにして、飛び出し量の大きい対象物とそうでない対象物とで垂直視差を軽減する基準を異なるようにするとともに、立体視融合が困難な立体映像を生成しないようにする。
【選択図】図1

Description

本発明は、特に、立体映像を処理するために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。
近年、デジタル技術の進歩に伴い、立体映像を撮影したり編集したりすることが可能な機器が普及しつつある。例えば、従来は大規模な装置が必要であった立体映像の撮影が、近年では手持ちのカムコーダで可能となっている。このように立体映像を容易に撮影できる機器が普及したことに伴い、立体映像の数も急激に増加している。
現在の立体映像の多くは、視差を利用して視聴者に立体感を知覚させる映像である。ここで視差とは、右眼で見た映像と左眼で見た映像との違いである。この原理によれば、右眼用の映像と左眼用の映像とが視差を持つと、脳がそれぞれの映像の違いを処理し、右眼の網膜が視覚した映像と左眼の網膜が視覚した映像とを融合して立体感を知覚する。立体映像を表示する装置は、右眼用の映像は右眼で視覚し、左眼用の映像は左眼で視覚するように、空間的に右眼の映像と左眼の映像とを分離して表示するか、あるいは時間的に右眼の映像と左眼の映像とを分離して表示する。
しかし、同一の対象物に対して、右眼で視覚した映像と左眼で視覚した映像との間に垂直方向の位置に差(垂直視差)が存在すると、脳は右眼用の映像と左眼用の映像とを融合することが困難である。したがって、垂直視差が存在する立体映像は、視聴者に違和感や疲労感を与えてしまう。
そこで、垂直視差を軽減する技術が提案されている。特許文献1に記載の技術では、まず、左眼用の映像と右眼用の映像とに含まれる主要オブジェクトを特定する。そして、この主要オブジェクトの位置の差を予め定めた値とするように左眼用の映像内あるいは右眼用の映像内の少なくとも一方の主要オブジェクトの位置を変更して垂直視差を軽減している。また、特許文献2に記載の技術では、左右の映像において、対象物の特徴点の垂直方向の差を算出し、この差の分だけ右眼用の映像を垂直方向に平行移動して垂直視差を軽減している。さらに、特許文献3に記載の技術では、左眼用の映像および右眼用の映像に対して、アフィン変換を適用して垂直視差を軽減した後に、トリミングを施すようにしている。
特開2011−81630号公報 特許第4763827号公報 特許第4225768号公報
特許文献1に記載の技術では、飛び出し量によらず垂直視差が予め定めた値未満である場合には垂直視差の軽減を実施しない。しかしながら、飛び出し量が大きいと脳内の立体感融合に与える影響も大きく、垂直視差が小さい場合であっても立体感融合に与える影響が大きいため、垂直視差の影響を十分に軽減できない課題が存在する。さらに、垂直視差の許容量を小さくすると処理の対象になるオブジェクトの数が増加し、処理の負荷が増加する課題も存在する。
また、特許文献2に記載の技術では、右眼用の映像のみ使用して垂直視差を軽減しているため、右眼用の映像の対象が大きく移動することになり、映像が不自然になって違和感が生じる課題が存在する。さらに、特許文献3に記載の技術では、トリミングを実施するため、画角が変化して違和感が生じる課題が存在する。
本発明は前述の問題点に鑑み、処理負荷が大きくならないようにして違和感と疲労感とを軽減した立体映像を生成できるようにすることを目的としている。
本発明に係る画像処理装置は、右眼映像及び左眼映像から対象物を抽出するとともに、前記抽出した対象物の位置情報を抽出する抽出手段と、前記抽出手段によって抽出された位置情報に基づいて、前記右眼映像と前記左眼映像との間の垂直視差を軽減するように前記対象物を垂直方向に移動させる映像処理手段とを有し、前記映像処理手段は、前記対象物の垂直視差が、前記右眼映像と前記左眼映像との間の前記対象物の水平視差に応じた許容量以上である場合に、前記対象物を垂直方向に移動させることを特徴とする。
本発明によれば、処理負荷が大きくならないようにして違和感と疲労感とを軽減した立体映像を生成することができる。
本発明の第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 右眼映像及び左眼映像における垂直視差を説明するための図である。 対象物から位置情報を抽出する手順を説明するための図である。 1つの対象物における垂直視差の一例を示す図である。 垂直視差をなくすように対象物を移動させる手順を説明するための図である。 本発明の第1の実施形態において、垂直視差をなくすように対象物を移動させる処理手順の一例を示すフローチャートである。 本発明の第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の第2の実施形態において、垂直視差をなくすように対象物を移動させる処理手順の一例を示すフローチャートである。
以下、添付の図面に沿って本発明の実施形態を説明する。
(第1の実施形態)
図1は、本実施形態に係る画像処理装置10の機能構成例を示すブロック図である。
図1において、対象物抽出部11は、入力された立体映像から対象物を抽出し、その位置情報を映像処理部12に出力する。映像処理部12は、抽出された対象物が有する垂直視差を軽減するために、立体映像において対象物の位置を移動させる。
ここで、入力される立体映像の様式は、対応する右眼映像と左眼映像とが同時に入力可能な様式ならば何でよい。例えばフレーム・シーケンシャル方式のように、対応する右眼映像と左眼映像とに時間差が存在する様式を使用する場合は、前段にフレームバッファを設置する。そして、このフレームバッファに、対応する右眼映像と左眼映像とを同期させた後に、対象物抽出部11及び映像処理部12に立体映像を出力する。
次に、図2(a)及び図2(b)を参照しながら垂直視差について説明する。図2において、右眼映像20及び左眼映像21には、それぞれ2本の樹木22、23と人間24とが存在しており、右眼映像20及び左眼映像21では、同一の対象であっても垂直方向の位置が異なっている。例えば、左端の樹木22は、その幹の下端を右眼映像20と左眼映像21とで比較すると差d1の分だけ位置が異なっている。同様に、中央の人間24は、その腰の位置を右眼映像20と左眼映像21とで比較すると、差d2の分だけ位置が異なっている。さらに、右端の樹木23は、幹の下端の位置が右眼映像20と左眼映像21とで差d3の分だけ異なっている。このように、同一の対象における垂直位置の差を垂直視差と称して以下に説明する。
映像から対象物を抽出する手法については、公知の手法が複数存在するが、本実施形態では背景差分法を用いるものとする。本実施形態では、対象物の輪郭が判明すればよく、さらに立体映像が有する輝度の範囲が不明であり、輝度の変化に対して耐性を有する手法を適用する必要があることから、背景差分法を適用する。なお、他の方法によって立体映像から対象物を抽出するようにしてもよい。
対象物抽出部11は、位置情報を生成するために、対象物の位置座標を算出する。本実施形態では、対象物の位置座標を、対象物に外接する矩形の対角線の交点座標と定義する。なお、その他の方法により位置座標を定義してもよい。
対象物抽出部11が生成して出力する位置情報には、少なくとも対象物を識別する識別子と、対象物の位置座標とを含むものとする。ここで、識別子は、対象物を一意に識別できればよく、その形式を問わない。本実施形態では、0から始まる正の整数を使用する。
続いて、図3を参照しながら対象物抽出部11の動作について詳しく説明する。まず、右眼映像20及び左眼映像21のそれぞれから対象物を抽出し、抽出した対象物に対して一意の識別子を付加する。例えば図3(b)に示すように、対象物抽出部11は、図3(a)に示す右眼映像20及び左眼映像21それぞれに存在する2本の樹木と人間とを対象物31として抽出する。
次に、抽出した対象物に外接する矩形を算出する。このとき、抽出した対象物が画面の枠線に接している場合は、外接する矩形を画面の枠外にまで設定するものとする。例えば図3(c)に示すように、対象物抽出部11は、対象物31である左端の樹木に接する形で外接する矩形32を算出する。
次に、外接する矩形に対して対角線の交点を算出して位置座標とする。図3(d)に示すように、外接する矩形32の対角線の交点を求め、その座標を位置座標33とする。
次に、対象物に付加した識別子と位置座標の垂直座標値とから位置情報を生成して映像処理部12に出力する。図3(e)に示すように、すべての対象物31に対して位置情報を生成して出力する。
次に、対象物抽出部11で算出した位置座標と垂直視差との関係について図4(a)及び図4(b)を参照しながら説明する。本実施形態では、図4(b)に示すように右眼映像20を基に算出した位置座標33の垂直方向の座標値と、左眼映像21を基に算出した位置座標33の垂直方向の座標値との差分を取り、その絶対値を垂直視差DG(n)とする。ここで、nは対象物31を識別する識別子であり、垂直視差DG(n)は、対象物31毎に算出される。なお、対象物31の垂直方向の座標値、及び対象物31を識別する識別子は共に位置情報に存在している。
続いて、映像処理部12が対象物を移動し、対象物が有する垂直視差を軽減する動作について図5を参照しながら説明する。ここで、画面左端に存在する樹木を対象物31の例として説明する。また、左端の樹木に付加した識別子を'0'とする。
図5(a)に示すように、左端の樹木の位置座標33は、右眼映像20と左眼映像21とで位置が異なっている。右眼映像20上の左端の樹木は左眼映像21に比べて相対的に画面の下方向に位置している。そして、それぞれの位置座標33の垂直方向の座標値の差分である垂直視差はDG(0)である。
映像処理部12は、この垂直視差DG(0)を軽減するため、図5(b)に示すように、右眼映像20上の左端の樹木を上方に移動させ、反対に左眼映像21上の左端の樹木を下方に移動させる。図5(b)に示す移動方向43は、それぞれ左端の樹木の移動方向を示している。ここで、右眼映像20上の左端の樹木及び左眼映像21上の左端の樹木それぞれの移動量が同じである場合には、図5(c)に示すように、垂直視差DG(0)の1/2分移動して垂直視差DG(0)が0になる。
図5(d)は、右眼映像20と左眼映像21とに存在する2本の樹木及び人間に対して、移動が完了した状態を示している。図5(d)に示すように、2本の樹木及び人間は、位置座標の垂直方向の座標値の差分が0になり、垂直視差がなくなっている。
続いて、図6のフローチャートを参照しながら、映像処理部12の詳細な動作について説明する。
図6は、映像処理部12による詳細な処理手順の一例を示すフローチャートである。以下、図6の説明において、対象物を識別する識別子をnとし、対象とする映像のフレームに存在する対象物の個数をmとする。本実施形態では、対象物を識別する識別子nに0から始まる正の整数を使用していることから、識別子nの範囲は0≦n≦m−1である。また、識別子nの対象物の位置座標のうち垂直方向(y軸)の座標値は以下のように定義する。
右眼映像20上の垂直方向(y軸)の座標値:Gry(n)
左眼映像21上の垂直方向(y軸)の座標値:Gly(n)
とする。この座標値Gry(n)、Gly(n)は、対象物抽出部11が算出し、位置情報に含まれているものとする。
まず、図6のステップS601において、識別子nの開始値として0を代入する。そして、識別子nが終了値であるm−1になるまで、ステップS602からステップS610までの各動作を繰り返す。
ステップS602においては、識別子nの対象物が有する水平視差Py(n)を、右眼映像20及び左眼映像21の位置座標から算出する。そして、ステップS603において、識別子nnの対象物の垂直視差DG(n)を、以下の式により算出する。
DG(n)=|Gly(n)−Gry(n)|
ここで、演算子'||'は絶対値を演算する演算子とする。
次に、ステップS604において、垂直視差DG(n)と、垂直視差の許容量とを比較する。ここで、垂直視差の許容量は、水平視差Py(n)に依存する。この比較の結果、垂直視差の許容量を求める函数をf(Py(n))とした場合に、垂直視差DG(n)が函数f(Py(n))未満である場合は、垂直視差DG(n)は軽減しないようにする。したがって、垂直視差DG(n)を軽減する処理を行わず、次の識別子(n+1)に関してステップS602から処理を開始する。一方、ステップS604の比較の結果、垂直視差DG(n)が許容量以上(函数f(Py(n))以上)である場合は、対象物が有する垂直視差DG(n)を、後述するステップS605からステップS610の各処理により軽減する。
水平視差に対する垂直視差の許容量は、表示装置、表示装置の設置環境、あるいは表示装置の映像処理方式に依存し、一意ではない。そこで、予め複数の水平視差ごとに垂直視差を変化させ、これ以上垂直視差を大きくなると立体視融合が不可能になる限界の垂直視差を求めておく。そして、この限界の垂直視差に1以下の係数を乗じた値を垂直視差の許容量とする。このように、水平視差と垂直視差の許容量との関係を表す函数fを定義する。この函数によれば、水平視差が大きいほど垂直視差の許容量は小さくなる。
なお、本実施形態では水平視差に対する垂直視差の許容量を函数で定義したが、定義の手法を函数に限定するものではない。例えば、対応表を使用してステップS604で比較してもよい。
ステップS605においては、識別子nの対象物が画面の上辺あるいは下辺に接しているか否かを判定する。対象物が画面の上辺あるいは下辺に接している場合は、画面の上辺あるいは下辺で形状が途切れていて、右眼映像20と左眼映像21とで、対象物の形状が異なることがある。このとき、移動して垂直方向の位置を合わせると、右眼映像20と左眼映像21とで対象物の形状が異なるため、立体視融合が困難にあり、脳内混乱を引き起こす。そこで、対象物が画面の上辺あるいは下辺に接しているか否かによって、垂直視差を軽減する動作を変更する。
まず、ステップS605の判定の結果、識別子nの対象物に関して右眼映像20と左眼映像21とで共に画面の上辺にも下辺にも接していない場合はステップS606に進む。一方、右眼映像20上の識別子nの対象物は画面の上辺にも下辺にも接していないが、左眼映像21上の識別子nの対象物が画面の上辺あるいは下辺に接している場合はステップS607に進む。
さらに、右眼映像20上の識別子nの対象物は画面の上辺あるいは下辺に接しているが、左眼映像21上の識別子nの対象物は画面の上辺にも下辺にも接していない場合は、ステップS608に進む。また、識別子nの対象物に関して右眼映像20と左眼映像21とで共に画面の上辺あるいは下辺に接している場合は、垂直視差DG(n)を軽減する処理を行わないようにする。したがって、次の識別子(n+1)に関してステップS602から処理を開始する。
ステップS606においては、識別子nの対象物に関して右眼映像20と左眼映像21とで共に画面の上辺にも下辺にも接していない場合の移動ベクトルを算出する。この場合、右眼映像20及び左眼映像21双方の対象物を同じ距離だけ移動し、その移動先は垂直方向位置の中間点になる。ステップS606で算出する右眼映像20上の対象物の移動ベクトルは、{0,(Gly(n)−Gry(n))/2}である。一方、左眼映像21上の対象物の移動ベクトルも、{0,(Gry(n)−Gly(n))/2}である。
ステップS607においては、右眼映像20上の識別子nの対象物は画面の上辺にも下辺にも接していないが、左眼映像21上の識別子nの対象物が画面の上辺あるいは下辺に接している場合の移動ベクトルを算出する。この場合、左眼映像21上の対象物を移動させず、右眼映像20上の対象物のみを移動させ、移動先は、左眼映像21上の対象物の位置である。ステップS607で算出する右眼映像20上の対象物の移動ベクトルは、{0,Gly(n)−Gry(n)}である。なお、左眼映像21上の対象物の移動ベクトルは0とする。
ステップS608においては、右眼映像20上の識別子nの対象物は画面の上辺あるいは下辺に接しているが、左眼映像21上の識別子nの対象物は画面の上辺にも下辺にも接していない場合の移動ベクトルを算出する。この場合、右眼映像20上の対象物を移動させず、左眼映像21上の対象物のみを移動させ、移動先は、右眼映像20上の対象物の位置である。ステップS608で算出する左眼映像21上の対象物の移動ベクトルは、{0,Gry(n)−Gly(n)}である。なお、右眼映像20上の対象物の移動ベクトルは0とする。
ステップS609においては、識別子nの対象物を右眼映像20または左眼映像21から切り出し、切り出した対象物を移動させる。このとき、ステップS606、ステップS607、またはステップS608で算出した移動ベクトルを基に対象物を移動させる。本実施形態では、対象物を切り出する方法及び移動させる方法についてはどのような公知の方法を用いてもよい。そして、ステップS610において、ステップS609で切り出して移動した対象物の移動元領域を、その周辺領域の映像で充填する。以上のように図6の処理を立体映像のフレームごとに行う。
以上のように本実施形態によれば、水平視差と垂直視差の許容量との関係を表す函数fを定義し、垂直視差が函数fによって与えられた許容量未満である場合には、対象物を移動させないようにした。これにより、飛び出し量の大きい対象物とそうでない対象物とで垂直視差を軽減する基準が異なるため、処理負荷が大きくならないようにして違和感及び疲労感をより軽減させることができる。
(第2の実施形態)
以下、本発明に係る第2の実施形態について説明する。
図7は、本実施形態に係る画像処理装置70の機能構成例を示すブロック図である。本実施形態に係る画像処理装置70は、対象物抽出部71、映像処理部72及び動きベクトル算出部73を少なくとも有している。なお、対象物抽出部71は、第1の実施形態に係る対象物抽出部11と同様であるため、説明は省略する。
映像処理部72は、対象物が有する垂直視差を軽減させるために対象物を移動させる。本実施形態では第1の実施形態とは異なり、位置情報のみならず動きベクトル算出部73が生成する動きベクトル情報も用いて、対象物が有する垂直視差を軽減する。
動きベクトル算出部73は、入力された立体映像と対象物抽出部71で得られた位置情報とを基に対象物が有する動きベクトルMV(n)を算出し、動きベクトル情報を映像処理部72に出力する。ここで、nは対象物を識別する識別子である。
次に、映像処理部72の動作について図8のフローチャートを参照しながら詳しく説明する。
図8は、映像処理部72による詳細な処理手順の一例を示すフローチャートである。なお、各変数の定義は図6と同様であるため、説明は省略する。
図8において、ステップS601からS610までの処理の内容は、図6と同様であるため、説明は省略する。ステップS606において移動ベクトルを算出すると、次にステップS801において、1つ前のフレームと当該フレームとの間に、シーンの切替えが存在したか否かを判定する。この判定の結果、シーンの切替えが存在する場合は、1つ前のフレームと当該フレームとの間に相関関係は存在しないため、ステップS606で算出した移動ベクトルをそのまま使用することができる。したがってこの場合はステップS609に進む。一方、ステップS801の判定の結果、シーンの切替えが存在しない場合は、1つ前のフレームと当該フレームとの間に相関関係が存在するため、ステップS606で算出した移動ベクトルの妥当性を判定する必要が生じる。そこで、移動ベクトルの妥当性についてステップS802及びS803で判定する。
まず、ステップS802において、対象物が移動したものとして仮定し、1つ前のフレームと当該フレームとの間で識別子nの対象物が有する動きベクトルMV'(n)の垂直成分MV'y(n)を算出する。ここで、1つ前のフレームにおける対象物に対して垂直視差を軽減する補正を施した後の位置座標をGk(n)とし、位置座標Gk(n)の垂直方向の成分をGky(n)とする。また、当該フレームにおける移動したと仮定した対象物の位置座標をGk+1(n)とする。この場合、位置座標Gk+1(n)の垂直方向の成分は、{(Gry(n)+Gly(n))/2}である。よって、動きベクトルMV'(n)の垂直成分MV'y(n)は、以下のように算出される。
MV'y(n)=(Gry(n)+Gly(n))/2−Gky(n)
次に、ステップS803において、ステップS802で算出した動きベクトルMV'(n)の垂直成分MV'y(n)の符号と、動きベクトル算出部73が算出した動きベクトルMV(n)の垂直成分MVy(n)の符号とを比較する。ステップS803では、以下に示す論理式を用いて比較を実施する。
((MVy(n)≧0)&&(MV'y(n)≧0))||
((MVy(n)<0)&&(MV'y(n)<0))
ここで、演算子'&&'は論理積を実施する演算子とし、演算子'||'は論理和を実施する演算子とする。
この比較の結果、上記論理式の条件を満たす場合は、垂直視差を軽減するために対象物を移動しても、動きベクトルと移動方向とが同一であり、視聴者が違和感を覚えることはない。そこで、ステップS606で算出した移動ベクトルをそのまま用いることができるため、ステップS609に進む。
一方、ステップS803の比較の結果、上記論理式の条件を満たさない場合は、対象物をそのまま移動させると動きベクトルと干渉し、視聴者が違和感を覚えるおそれがある。そこで、ステップS804において、移動先の再設定と移動ベクトルの再算出とを実施する。移動先の再設定及び移動ベクトルの再算出は、動きベクトルMV(n)の垂直成分MVy(n)の符号を基に、以下に示す規準で実施する。
(1)(MVy(n)<0)&&(Gly(n)<Gry(n))である場合は、移動先を左眼映像21上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,(Gly(n)−Gry(n))/2}とし、左眼映像における移動ベクトルを{0,0}とする。
(2)(MVy(n)<0)&&(Gly(n)≧Gry(n))である場合は、移動先を右眼映像20上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,0}とし、左眼映像における移動ベクトルを{0,(Gry(n)−Gly(n))/2}とする。
(3)(MVy(n)≧0)&&(Gly(n)<Gry(n))である場合は、移動先を右眼映像20上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,0}とし、左眼映像における移動ベクトルを{0,(Gry(n)−Gly(n))/2}とする。
(4)(MVy(n)≧0)&&(Gly(n)≧Gry(n))である場合は、移動先を左眼映像21上の対象物の位置とする。すなわち、右眼映像における移動ベクトルを{0,(Gly(n)−Gry(n))/2}とし、左眼映像における移動ベクトルを{0,0}とする。
ステップS609では、以上のようにステップS804で再算した移動ベクトルを用いて、識別子nの対象物を移動させることとなる。
以上のように本実施形態によれば、動きベクトルを反映させて対象物の移動量及び移動方向を決定するようにした。これにより動いている対象物を含む立体映像に対しても違和感や疲労感をより軽減させることができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
11 対象物抽出部
12 映像処理部

Claims (6)

  1. 右眼映像及び左眼映像から対象物を抽出するとともに、前記抽出した対象物の位置情報を抽出する抽出手段と、
    前記抽出手段によって抽出された位置情報に基づいて、前記右眼映像と前記左眼映像との間の垂直視差を軽減するように前記対象物を垂直方向に移動させる映像処理手段とを有し、
    前記映像処理手段は、前記対象物の垂直視差が、前記右眼映像と前記左眼映像との間の前記対象物の水平視差に応じた許容量以上である場合に、前記対象物を垂直方向に移動させることを特徴とする画像処理装置。
  2. 前記右眼映像及び左眼映像のフレームの差分から動きベクトルを算出する算出手段をさらに有し、
    前記映像処理手段は、前記算出手段によって算出された動きベクトルに基づいて、前記対象物の移動方向及び移動量を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出手段は、前記抽出した対象物に外接する矩形における対角線の交点の座標を前記位置情報として抽出することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記映像処理手段は、前記右眼映像及び左眼映像における前記対象物の位置に応じて、前記対象物の移動方向及び移動量を算出することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。
  5. 右眼映像及び左眼映像から対象物を抽出するとともに、前記抽出した対象物の位置情報を抽出する抽出工程と、
    前記抽出工程において抽出された位置情報に基づいて、前記右眼映像と前記左眼映像との間の垂直視差を軽減するように前記対象物を垂直方向に移動させる映像処理工程とを有し、
    前記映像処理工程においては、前記対象物の垂直視差が、前記右眼映像と前記左眼映像との間の前記対象物の水平視差に応じた許容量以上である場合に、前記対象物を垂直方向に移動させることを特徴とする画像処理方法。
  6. 右眼映像及び左眼映像から対象物を抽出するとともに、前記抽出した対象物の位置情報を抽出する抽出工程と、
    前記抽出工程において抽出された位置情報に基づいて、前記右眼映像と前記左眼映像との間の垂直視差を軽減するように前記対象物を垂直方向に移動させる映像処理工程とをコンピュータに実行させ、
    前記映像処理工程においては、前記対象物の垂直視差が、前記右眼映像と前記左眼映像との間の前記対象物の水平視差に応じた許容量以上である場合に、前記対象物を垂直方向に移動させることを特徴とするプログラム。
JP2013157915A 2013-07-30 2013-07-30 画像処理装置、画像処理方法及びプログラム Active JP6242104B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013157915A JP6242104B2 (ja) 2013-07-30 2013-07-30 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013157915A JP6242104B2 (ja) 2013-07-30 2013-07-30 画像処理装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2015029206A true JP2015029206A (ja) 2015-02-12
JP2015029206A5 JP2015029206A5 (ja) 2016-09-08
JP6242104B2 JP6242104B2 (ja) 2017-12-06

Family

ID=52492647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013157915A Active JP6242104B2 (ja) 2013-07-30 2013-07-30 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6242104B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945442A (zh) * 2019-03-31 2019-06-28 邯郸美的制冷设备有限公司 空调器、空调器的控制方法及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061116A (ja) * 2001-08-09 2003-02-28 Olympus Optical Co Ltd 立体映像表示装置
WO2012153378A1 (ja) * 2011-05-06 2012-11-15 富士通株式会社 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061116A (ja) * 2001-08-09 2003-02-28 Olympus Optical Co Ltd 立体映像表示装置
WO2012153378A1 (ja) * 2011-05-06 2012-11-15 富士通株式会社 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945442A (zh) * 2019-03-31 2019-06-28 邯郸美的制冷设备有限公司 空调器、空调器的控制方法及计算机可读存储介质

Also Published As

Publication number Publication date
JP6242104B2 (ja) 2017-12-06

Similar Documents

Publication Publication Date Title
JP6951565B2 (ja) 深度推定方法及び装置、電子機器並びに媒体
US10133364B2 (en) Image processing apparatus and method
US10235806B2 (en) Depth and chroma information based coalescence of real world and virtual world images
US9791922B2 (en) User interface control device, user interface control method, computer program and integrated circuit
CN113574863A (zh) 使用深度信息渲染3d图像的方法和系统
KR100517517B1 (ko) 중간 시점 영상 합성 방법 및 그를 적용한 3d 디스플레이장치
US9679415B2 (en) Image synthesis method and image synthesis apparatus
JP2004126902A (ja) 立体視画像生成方法および立体視画像生成装置
KR100795481B1 (ko) 다시점화상의 처리 방법 및 장치
US10136121B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
KR102637901B1 (ko) 전자 장치에 의한 돌리 줌 효과 제공 방법 및 상기 방법에서 사용되는 전자 장치
CN102905145B (zh) 立体影像系统、影像产生方法、影像调整装置及其方法
US20140035918A1 (en) Techniques for producing baseline stereo parameters for stereoscopic computer animation
US20190043245A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP2017016577A (ja) 情報処理装置、その制御方法及びプログラム
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
JP2001128195A (ja) 立体画像補正装置、立体画像表示装置および立体画像補正処理プログラムを記録した記録媒体
US20170257614A1 (en) Three-dimensional auto-focusing display method and system thereof
JP2014072801A (ja) 多視点画像生成装置、画像生成方法、表示装置、プログラム、及び、記録媒体
US20140079313A1 (en) Method and apparatus for adjusting image depth
JP6719945B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
KR101451236B1 (ko) 3차원 영상 변환 방법 및 그 장치
JP5464129B2 (ja) 画像処理装置および視差情報生成装置
JP6242104B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171107

R151 Written notification of patent or utility model registration

Ref document number: 6242104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151