JP2014041425A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2014041425A
JP2014041425A JP2012182471A JP2012182471A JP2014041425A JP 2014041425 A JP2014041425 A JP 2014041425A JP 2012182471 A JP2012182471 A JP 2012182471A JP 2012182471 A JP2012182471 A JP 2012182471A JP 2014041425 A JP2014041425 A JP 2014041425A
Authority
JP
Japan
Prior art keywords
pixel
pixels
segmentation
image
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012182471A
Other languages
English (en)
Inventor
Takahiro Tanaka
中 孝 浩 田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012182471A priority Critical patent/JP2014041425A/ja
Publication of JP2014041425A publication Critical patent/JP2014041425A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】少ない処理量で、高精度に各画素を前景画素および背景画素に区分することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供する。
【解決手段】実施形態によれば、画像処理装置は、縮小部と、第1のセグメンテーション部と、第2のセグメンテーション部と、スムージング部とを備える。第2のセグメンテーション部は、前記入力画像における画素のそれぞれを、前景画素および背景画素のいずれかに区分する。すなわち、第2のセグメンテーション部は、前記縮小画像における前景画素と背景画素との境界画素と対応する前記入力画像における複数の画素のそれぞれに対してはセグメンテーション処理を行って前景画素および背景画素のいずれかに区分し、前記縮小画像における前記境界画素でない非境界画素と対応する前記入力画像における複数の画素のそれぞれについては前記非境界画素と同じ区分とする。
【選択図】図1

Description

本発明の実施形態は、画像処理装置、画像処理方法および画像処理プログラムに関する。
画像を立体表示するためには、画像における各画素がどの程度表示装置より手前または奥に見えるべきか、という奥行き情報が必要である。奥行き情報を生成する1つの手法として、各画素を前景画素および背景画素のいずれかにセグメンテーションし、セグメンテーション結果を用いて奥行き情報を生成することができる。
しかしながら、一般にセグメンテーション処理は複雑であり、処理量が多くなってしまうという問題がある。
特開2008−146647号公報
C. Rother, V. Kolmogorov and A. Blake: "GrabCut - Interactive Foreground Extraction using Iterated Graph Cuts," ACM Trans. Graphics, 23(3), pp.309-314 (2004).
少ない処理量で、高精度に各画素を前景画素および背景画素に区分することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供する。
実施形態によれば、画像処理装置は、縮小部と、第1のセグメンテーション部と、第2のセグメンテーション部と、スムージング部と、を備える。前記縮小部は、入力画像を縮小して縮小画像を生成する。前記第1のセグメンテーション部は、前記縮小画像に対してセグメンテーション処理を行い、前記縮小画像における各画素を前景画素および背景画素のいずれかに区分する。前記第2のセグメンテーション部は、前記入力画像における画素のそれぞれを、前景画素および背景画素のいずれかに区分する。すなわち、前記第2のセグメンテーション部は、前記縮小画像における前景画素と背景画素との境界画素と対応する前記入力画像における複数の画素のそれぞれに対してはセグメンテーション処理を行って前景画素および背景画素のいずれかに区分し、前記縮小画像における前記境界画素でない非境界画素と対応する前記入力画像における複数の画素のそれぞれについては前記非境界画素と同じ区分とする。前記スムージング部は、前記第2のセグメンテーション部による区分の結果を平滑化する。
第1の実施形態に係る画像処理システムの概略構成を示すブロック図。 図1の縮小部1の処理動作を説明する図。 図1のセグメンテーション部2の処理動作を説明する図。 図1のセグメンテーション部3の処理動作を説明する図。 図1のセグメンテーション部3の処理動作を説明する図。 図1のセグメンテーション部3の処理動作を説明する図。 図1のセグメンテーション部3の処理動作を説明するフローチャート。 セグメンテーション処理の具体的な処理手順を示すフローチャート。 グラフの一例を示す図。
以下、実施形態について、図面を参照しながら具体的に説明する。
図1は、第1の実施形態に係る画像処理システムの概略構成を示すブロック図である。画像処理システムは、画像処理装置10と、表示部20とを備えている。画像処理装置10は入力画像21を立体表示するための画像処理を行い、表示部20は入力画像21を立体表示する。入力画像21は2次元画像でよく、例えば放送波をチューニングおよびデコードしたものでもよいし、記憶媒体から読み出したものでもよい。
画像処理装置10は、縮小部1と、セグメンテーション部2,3と、スムージング部4と、奥行き生成部5と、視差画像生成部6とを有する。以下、画像処理装置10内各部の処理について詳細に説明する。
図2は、図1の縮小部1の処理動作を説明する図である。縮小部1は入力画像21を縮小して縮小画像22を生成し、これをセグメンテーション部2に供給する。縮小率は任意であるが、本実施形態では垂直方向および水平方向ともに1/4に縮小する例を示す。この場合、縮小画像22における1画素は、入力画像21における16画素と対応する。縮小の手法は特に問わないが、組み込み機器向け用途等、速度が重要視される場合には最近傍法(nearest neighbor)やバイリニア法(bi-linear)等が望ましい。
続いて、図3は、図1のセグメンテーション部(第1のセグメンテーション部)2の処理動作を説明する図である。セグメンテーション部2は、縮小画像22に対してセグメンテーション処理を行って、縮小画像22における各画素を前景画素および背景画素のいずれかに区分し、縮小セグメンテーションマップ23を生成する。セグメンテーション処理とは、各画素が前景画素であるか背景画素であるかを判断する処理である。
縮小セグメンテーションマップ23は、縮小画像22と等しい解像度を有し、縮小画像22の各画素が前景画素であるか、背景画素であるか、を示す2値化データである。以下では、前景画素を1(ハイ)、背景画素を0(ロウ)で表す。解像度が低い縮小画像22に対してセグメンテーション処理を行うため、入力画像21に対してセグメンテーション処理を行うより、画像処理装置10の処理量を低減できる。図3は、縮小画像22の中央付近になんらかのオブジェクトがある例を示している。なお、セグメンテーション処理の具体的な手法は特に問わないが、一例を後述する。
続いて、図4〜図6は、図1のセグメンテーション部(第2のセグメンテーション部)3の処理動作を説明する図である。セグメンテーション部3は、入力画像21における画素のそれぞれを、前景画素および背景画素のいずれかに区分して、仮のセグメンテーションマップ24を生成する。仮のセグメンテーションマップ24は、入力画像21と等しい解像度を有する。以下、図7のフローチャートを用いてより具体的にセグメンテーション部3について説明する。
まず、図4に示すように、セグメンテーション部3は、縮小セグメンテーションマップ23を用いて、縮小画像22における前景画素と背景画素との境界画素を検出する(ステップS1)。一例として、セグメンテーション部3は、縮小セグメンテーションマップ23における前景画素であって所定範囲内に背景画素がある画素、あるいは、縮小セグメンテーションマップ23における背景画素であって所定範囲内に前景画素がある画素を、境界画素とする。そして、境界画素でない画素を非境界画素とする。図4は、図3の縮小セグメンテーションマップ23を用いて、上述の所定範囲を「斜め方向を含む隣接1画素の範囲」に設定して検出される境界画素および非境界画素を示している。
その後、図5(a)に示すように、セグメンテーション部3は、縮小画像22における境界画素については(ステップS1のYES)、対応する入力画像21における画素のそれぞれについてセグメンテーション処理を行う(ステップS2)。上述のように、縮小部1により入力画像21を水平方向および水平方向に1/4に縮小する本実施形態では、縮小画像22における1画素は、入力画像21における16画素と対応する。よって、セグメンテーション部3は、縮小画像22の境界画素1つにつき、対応する入力画像21の16画素のそれぞれが前景画素であるか背景画素であるかを判断する。
一方、図5(b)に示すように、セグメンテーション部3は、縮小画像22における非境界画素については(ステップS1のNO)、対応する入力画像21における画素のすべてを、当該非境界画素と同じ区分とする(ステップS3)。すなわち、セグメンテーション部3は、非境界画素が前景画素であれば対応する入力画像21における画素のすべてを前景画素に区分し、非境界画素が背景画素であれば対応する入力画像21における画素のすべてを背景画素に区分する。
このように、縮小画像22における非境界画素と対応する入力画像21の各画素については、セグメンテーション処理を行うことなく、一律に当該非境界画素と同じ区分とする。そのため、画像処理装置10の処理量を低減できる。
以上のようにして、図6に示すような仮のセグメンテーションマップ24が生成され、スムージング部4に供給される。なお、便宜上図6では解像度を落として描いている。
続いて、図1のスムージング部4は、仮のセグメンテーションマップ24を平滑化し、セグメンテーションマップ25を生成する。仮のセグメンテーションマップ24は、入力画像21そのものではなく、縮小画像22を用いて生成されており、細かいノイズが存在する等必ずしも正確に前景画素および背景画素に区分されているとは限らないためである。より具体的には、 スムージング部4は、仮のセグメンテーションマップ24の画素を1つずつ平滑化対象画素とし、これを前景画素および背景画素のいずれかに設定する。この際、平滑化対象画素の周囲の画素の情報が考慮される。
スムージング部4は、例えば平均値フィルタである。すなわち、スムージング部4は、平滑化対象画素から所定範囲内に、前景画素の方が多く存在する場合には当該平滑化対象画素を前景画素とし、背景画素の方が多く存在する場合には当該平滑化対象画素を背景画素とする。例えば、平滑化対象画素から水平方向および垂直方向とも±3画素を所定範囲とし、合計49画素内に前景画素および背景画素のいずれが25画素以上存在するか、に応じて、スムージング部4は平滑化処理を行う。言い換えると、前景画素が1(ハイ)、背景画素が0(ロウ)で表される場合、合計49画素の平均値が0.5以上であれば当該平滑化対象画素を前景画素とし、平均値が0.5未満であれば当該平滑化対象画素を背景画素とする。
これにより平滑化されたセグメンテーションマップ25が生成され、奥行き生成部5に供給される。
奥行き生成部5は、セグメンテーションマップ25に基づいて、入力画像21における画素のそれぞれに奥行き情報26を付す。奥行き情報は、表示部20に表示されたときに、当該画素がどの程度表示部20より手前または奥に見えるべきかを示す。奥行き情報の生成手法は特に問わない。簡易な手法として、前景画素に対しては、一律に表示部20より所定量だけ手前に見えるよう奥行き情報を付し、背景画素に対しては、一律に表示部20より所定量だけ奥に見えるよう奥行き情報を付してもよい。あるいは、前景画素が人物である可能性が高い場合は、予め定めた人物形状のモデルに基づいて奥行き情報を付してもよい。生成された奥行き情報26は視差画像生成部6に供給される。
視差画像生成部6は、奥行き情報26を用いて、入力画像21から複数の視差画像27を生成する。本実施形態の表示部20がめがね式の立体映像表示装置に用いられる場合、視差画像生成部6は左目用および右目用の2個の視差画像を生成する。また、裸眼式立体映像表示装置に用いられる場合、視差画像生成部6は、例えば9方向から見た9個の視差画像を生成する。例えば、左の方向から見た視差画像の場合、手前に見えるべき画素は、奥に見えるべき画素より右側にずれて見える。そのため、奥行き情報26に基づき、視差画像生成部6は入力画像21における手前にある画素を右側にずらす処理を行う。より手前に見えるべき画素ほどずらす量を大きくする。そして、もともと画素があった場所を周辺の画素を用いて適宜補間する。
このようにして生成された視差画像27を、表示部20は立体表示する。例えば、めがね式立体映像表示装置の場合、所定のタイミングで右目用の視差画像と左目用の視差画像を順繰りに表示する。また、裸眼式立体映像表示装置の場合、表示部20上に例えばレンチキュラレンズ(不図示)が貼り付けられる。そして、表示部20には複数の視差画像が同時に表示され、視聴者はレンチキュラレンズを介して、ある1つの視差画像を右目で見て、他の1つの視差画像を左目で見る。いずれの場合でも、右目と左目で異なる視差画像を見ることで、映像が立体的に見える。
このように、本実施形態では、縮小画像22に対してセグメンテーション処理を行うため、処理量を低減できる。また、前景画素と背景画素との境界画素についてのみ入力画像21に対してセグメンテーション処理を行うとともに平滑化処理を行う。そのため、入力画像21に対してセグメンテーション処理を行ったのと同等の高精度なセグメンテーション結果を得ることができる。結果として、より高品位な立体表示を行うことができる。
最後に、上記非特許文献1に記載されているセグメンテーション処理の一例を説明する。画像における各画素を前景画素と背景画素の2値に分離するセグメンテーション処理をエネルギー最小化問題と捉え、各画素をノードとするグラフの最小カットアルゴリズムを用いることができる。
縮小画像22に対してセグメンテーション処理を行うセグメンテーション部2は、縮小画像22の画素ごとにデータ項エネルギーUおよび平滑化項エネルギーVを計算する。データ項エネルギーUは前景領域色モデルとの類似度と、背景領域色モデルとの類似度との差である。また、平滑化項エネルギーVは隣接画素との類似度を示す。
なお、前景領域色モデルおよび背景領域色モデルは、予め定めておいてもよいし、入力画像21あるいは縮小画像22から自動的に生成してもよい。例えば、画像中に人物がいる場合、顔の色に基づいて前景領域色モデルを生成することができる。
そして、縮小画像22全体のエネルギーEを下記(1)式で定義する。
E=ΣU+λΣV ・・・(1)
ここでΣは全画素について加算することを示し、λは予め定めた重み係数である。そして、エネルギーEを最小とする最小カットを求めることにより、各画素を前景画素および背景画素のいずれかに区分できる。
なお、セグメンテーション部2は縮小画像22全体についてセグメンテーション処理を行うため、上記(1)式のようにエネルギーEを定義する。これに対して、セグメンテーション部3は縮小画像22の境界画素に対応する画素にのみセグメンテーション処理を行うため、データ項エネルギーUのみを考慮してもよい。すなわち、セグメンテーション部3は、当該画素が前景領域色モデルに類似していれば前景画素と判断し、背景領域色モデルに類似していれば背景画素と判断してもよい。
より具体的に説明する。縮小画像22の各画素をノード(頂点)とする有向グラフを考える。各ノードは隣接する周囲8ノード(上下左右のみを考慮して4ノードとしてもよい)とエッジ(枝)で接続されており、エッジには容量Vが定義される。また、2つの特別なターミナルノードsとtとが存在し、各ノードはsおよびtのいずれかとエッジで接続されている。このエッジには容量Uが定義され、背景領域色モデルよりも前景領域色モデルとの類似度が高ければsと、そうでなければtと接続される。各エッジには定義されている容量以下のフローを流すことができる。エッジに流れるフローが容量と等しい時、そのエッジは飽和していると言う。
sおよびsと接続されたノードの集合をS、tおよびtと接続されたノードの集合をTとする。Sに属するノードが前景画素、Tに属するノードが背景画素となる。セグメンテーションとはノードをSまたはTに二分する(グラフを切断する)ことである。SとTとの境界をまたぐエッジの容量の和が切断に必要なエネルギーであり、これが最小となる切断を見つけることが目的である。ここで、最大フロー・最小カットの定理より、エネルギーが最小となる切断を求めることは、sからtへの最大フローを求めることと同義である。
図8は、セグメンテーション処理の具体的な処理手順を示すフローチャートである。また、図9は、グラフの一例を示す図である。ここで、SおよびTのいずれにも属さないノードをフリーノードと呼ぶ。SまたはTに属するノードのうち、葉ノードをアクティブ(active)、その他のノードをパッシブ(passive)と呼ぶ。
まず、フリーノードをSおよびTに取り入れ、各集合を成長させていく(ステップS11)。SとTとが接したとき、すなわち、パスが存在するとき(ステップS12のYES)、ステップS11で見つかったパスのフローを、少なくとも1つのエッジが飽和するまで増加させる(ステップS13)。飽和したエッジは切断される。切断の結果孤立ノードが生じた場合、孤立ノードの新たな親ノードを探索し再接続する(ステップS14)。親ノードが見つからなかった場合はフリーとなる。以上の処理を、アクティブノードがなくなるまで(パスが存在しなくなるまで)繰り返すことにより、切断エネルギーが最小となるセグメンテーション結果が得られる。
上述した実施形態で説明した画像処理システムの少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、画像処理システムの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
また、画像処理システムの少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 縮小部
2,3 セグメンテーション部
4 スムージング部
5 奥行き生成部
6 視差画像生成部
10 画像処理装置
20 表示部

Claims (13)

  1. 入力画像を縮小して縮小画像を生成する縮小部と、
    前記縮小画像に対してセグメンテーション処理を行い、前記縮小画像における各画素を前景画素および背景画素のいずれかに区分する第1のセグメンテーション部と、
    前記入力画像における画素のそれぞれを、前景画素および背景画素のいずれかに区分する第2のセグメンテーション部であって、前記縮小画像における前景画素と背景画素との境界画素と対応する前記入力画像における複数の画素のそれぞれに対してはセグメンテーション処理を行って前景画素および背景画素のいずれかに区分し、前記縮小画像における前記境界画素でない非境界画素と対応する前記入力画像における複数の画素のそれぞれについては前記非境界画素と同じ区分とする、第2のセグメンテーション部と、
    前記第2のセグメンテーション部による区分の結果を平滑化するスムージング部と、を備える画像処理装置。
  2. 前記第2のセグメンテーション部は、前記縮小画像における前記非境界画素と対応する前記入力画像における複数の画素のそれぞれについては、セグメンテーション処理を行うことなく、前記非境界画素と同じ区分とする、請求項1に記載の画像処理装置。
  3. 前記スムージング部は、平均値フィルタである、請求項1または2に記載の画像処理装置。
  4. 前記スムージング部は、前記入力画像における平滑化対象画素から所定範囲内に存在する前景画素の数および背景画素の数に応じて、平滑化を行う、請求項1乃至3のいずれかに記載の画像処理装置。
  5. 前記スムージング部は、前記入力画像における平滑化対象画素から所定範囲内にある画素のうち、
    前景画素である画素数より背景画素である画素数が多い場合は、前記平滑化対象画素を背景画素とし、
    背景画素である画素数より前景画素である画素数が多い場合は、前記平滑化対象画素を前景画素とする、請求項4に記載の画像処理装置。
  6. 前記第2のセグメンテーション部は、前記縮小画像における画素であって、当該画素と区分が異なる画素が所定範囲内に存在する場合に、当該画素を前景画素と背景画素との境界画素とする、請求項1乃至5のいずれかに記載の画像処理装置。
  7. 前記第1のセグメンテーション部は、前記縮小画像における各画素と前景領域色モデルとの類似度、当該画素と背景領域色モデルとの類似度、および、隣接する画素との類似度に基づいて、セグメンテーション処理を行う、請求項1乃至6のいずれかに記載の画像処理装置。
  8. 前記第2のセグメンテーション部は、前記縮小画像における前景画素と背景画素との境界画素と対応する前記入力画像における複数の画素のそれぞれに対して、当該画素と前景領域色モデルとの類似度、および、当該画素と背景領域色モデルとの類似度に基づいて、セグメンテーション処理を行う、請求項1乃至7のいずれかに記載の画像処理装置。
  9. 前記スムージング部の出力に基づいて、前記入力画像における画素のそれぞれに奥行き情報を付す奥行き生成部を備える、請求項1乃至8に記載の画像処理装置。
  10. 前記奥行き情報を用いて、前記入力画像を立体表示するための複数の視差画像を生成する視差画像生成部を備える、請求項9に記載の画像処理装置。
  11. 前記複数の視差画像を表示する表示部を備える、請求項10に記載の画像処理装置。
  12. 入力画像を縮小して縮小画像を生成する縮小ステップと、
    前記縮小画像に対してセグメンテーション処理を行い、前記縮小画像における各画素を前景画素および背景画素のいずれかに区分する第1のセグメンテーションステップと、
    前記入力画像における画素のそれぞれを、前景画素および背景画素のいずれかに区分する第2のセグメンテーションステップであって、前記縮小画像における前景画素と背景画素との境界画素と対応する前記入力画像における複数の画素のそれぞれに対してはセグメンテーション処理を行って前景画素および背景画素のいずれかに区分し、前記縮小画像における前記境界画素でない非境界画素と対応する前記入力画像における複数の画素のそれぞれについては前記非境界画素と同じ区分とする、第2のセグメンテーションステップと、
    前記第2のセグメンテーションステップによる区分の結果を平滑化するスムージング部と、を備える画像処理方法。
  13. 入力画像を縮小して縮小画像を生成する縮小ステップと、
    前記縮小画像に対してセグメンテーション処理を行い、前記縮小画像における各画素を前景画素および背景画素のいずれかに区分する第1のセグメンテーションステップと、
    前記入力画像における画素のそれぞれを、前景画素および背景画素のいずれかに区分する第2のセグメンテーションステップであって、前記縮小画像における前景画素と背景画素との境界画素と対応する前記入力画像における複数の画素のそれぞれに対してはセグメンテーション処理を行って前景画素および背景画素のいずれかに区分し、前記縮小画像における前記境界画素でない非境界画素と対応する前記入力画像における複数の画素のそれぞれについては前記非境界画素と同じ区分とする、第2のセグメンテーションステップと、
    前記第2のセグメンテーションステップによる区分の結果を平滑化するスムージング部と、をコンピュータに実行させる画像処理プログラム。
JP2012182471A 2012-08-21 2012-08-21 画像処理装置、画像処理方法および画像処理プログラム Pending JP2014041425A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012182471A JP2014041425A (ja) 2012-08-21 2012-08-21 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012182471A JP2014041425A (ja) 2012-08-21 2012-08-21 画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2014041425A true JP2014041425A (ja) 2014-03-06

Family

ID=50393653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012182471A Pending JP2014041425A (ja) 2012-08-21 2012-08-21 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2014041425A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491825A (zh) * 2018-03-30 2018-09-04 百度在线网络技术(北京)有限公司 信息生成方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281526A (ja) * 2002-03-22 2003-10-03 Ricoh Co Ltd 画像処理装置、画像処理プログラム及びこのプログラムを記憶する記憶媒体
JP2003289436A (ja) * 2002-03-28 2003-10-10 Minolta Co Ltd 画像処理装置、およびプログラム
JP2006033308A (ja) * 2004-07-15 2006-02-02 Fuji Xerox Co Ltd 画像処理装置、画像処理方法及びそのプログラム
JP2012029168A (ja) * 2010-07-26 2012-02-09 Toshiba Corp 視差画像生成方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281526A (ja) * 2002-03-22 2003-10-03 Ricoh Co Ltd 画像処理装置、画像処理プログラム及びこのプログラムを記憶する記憶媒体
JP2003289436A (ja) * 2002-03-28 2003-10-10 Minolta Co Ltd 画像処理装置、およびプログラム
JP2006033308A (ja) * 2004-07-15 2006-02-02 Fuji Xerox Co Ltd 画像処理装置、画像処理方法及びそのプログラム
JP2012029168A (ja) * 2010-07-26 2012-02-09 Toshiba Corp 視差画像生成方法及び装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491825A (zh) * 2018-03-30 2018-09-04 百度在线网络技术(北京)有限公司 信息生成方法和装置

Similar Documents

Publication Publication Date Title
US9582928B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
US9445075B2 (en) Image processing apparatus and method to adjust disparity information of an image using a visual attention map of the image
US8588514B2 (en) Method, apparatus and system for processing depth-related information
KR101502362B1 (ko) 영상처리 장치 및 방법
JP6705644B2 (ja) 映像処理方法及び装置
US9398289B2 (en) Method and apparatus for converting an overlay area into a 3D image
US8509519B2 (en) Adjusting perspective and disparity in stereoscopic image pairs
US8213708B2 (en) Adjusting perspective for objects in stereoscopic images
EP2755187A2 (en) 3d-animation effect generation method and system
Yang et al. All-in-focus synthetic aperture imaging
Jain et al. Efficient stereo-to-multiview synthesis
EP2713613A2 (en) Apparatus and method for processing multi-view image
US10834374B2 (en) Method, apparatus, and device for synthesizing virtual viewpoint images
CN108961196B (zh) 一种基于图的3d注视点预测的显著性融合方法
KR101511315B1 (ko) 스테레오스코픽 컨텐츠를 위한 다이나믹 플로팅 윈도우 생성 방법 및 시스템
Muddala et al. Depth-based inpainting for disocclusion filling
Yue et al. Improved seam carving for stereo image resizing
JP2014041425A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9787980B2 (en) Auxiliary information map upsampling
US8879872B2 (en) Method and apparatus for restoring resolution of multi-view image
KR101489586B1 (ko) 혼합 영상에서 3d 입체 영상 변환 방법 및 이를 기록한 기록 매체
Ružić et al. Depth-guided patch-based disocclusion filling for view synthesis via Markov random field modelling
KR101629414B1 (ko) 휴먼 팩터에 기초한 스테레오스코픽 이미지 추출 방법 및 장치
Mansoor et al. A layered approach for quality assessment of DIBR-synthesized images
KR20180077547A (ko) 깊이 영상 생성 방법 및 깊이 영상 생성 장치

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160513