JP2012019513A - 2d画像を3d画像に変換するための方法および装置 - Google Patents

2d画像を3d画像に変換するための方法および装置 Download PDF

Info

Publication number
JP2012019513A
JP2012019513A JP2011137233A JP2011137233A JP2012019513A JP 2012019513 A JP2012019513 A JP 2012019513A JP 2011137233 A JP2011137233 A JP 2011137233A JP 2011137233 A JP2011137233 A JP 2011137233A JP 2012019513 A JP2012019513 A JP 2012019513A
Authority
JP
Japan
Prior art keywords
pixel
depth information
image
luminance
total
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011137233A
Other languages
English (en)
Inventor
Bam-Sok Seo
ソ・バム−ソク
Yon-Soo Ho
ホ・ヨン−ス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IIST Co Ltd
Original Assignee
IIST Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IIST Co Ltd filed Critical IIST Co Ltd
Publication of JP2012019513A publication Critical patent/JP2012019513A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】2D画像を3D画像に変換するための方法および装置を提供する。
【解決手段】方法は、ピクセル値を有する入力画像を、輝度値を有する輝度画像に変換するステップS100と、輝度画像から、奥行き情報を有する奥行きマップを生成するステップとS104、生成された奥行きマップを使用した入力画像の第1の視差処理により、左目画像、右目画像、および再生画像のうちの少なくとも1つを生成するステップS106とを含む。ここで、視差処理において現在処理されるべきピクセルを含むN(2より大きい整数)個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値が、現在処理されるべきピクセルのピクセル値の代わりに置き換えられる。加えて、遅延ピクセルが、N個のピクセルの奥行き情報の配列に従って決定され、遅延ピクセルは、現在処理されるべきピクセルよりもM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する。
【選択図】図1

Description

本発明は、一般に画像変換に関し、より詳細には、2D画像を3D画像に変換するための方法および装置に関する。
近年、たとえば、アバター、その他などの3D(三次元)映画が人気上昇中であり、それゆえ3D映画用の3D画像の研究が盛んに始まっている。加えて、主要企業が、3D画像に対応したテレビ受像機を製造、販売しており、3D画像コンテンツの開発に着手している。
しかしながら、3D画像コンテンツを開発するためには、長い時間およびコストがかかるために、現在のところ、わずかな3D画像コンテンツしか開発されていない。したがって、3D画像コンテンツを開発するための期間およびコストを解決するために、2D画像を3D画像に変換する方法が必要とされている。
解決策を設計するエンジニアにとっては、2D画像を3D画像に効率的に変換し、より顕著な三次元効果を生成することが課題である。
本発明の主要な目的は、視差処理ルールを使用して、2D画像を3D画像に変換することである。
本発明のさらなる目的は、複数の視差処理を2D入力画像に適用することである。
本発明の目的に従って、2D画像を3D画像に変換する方法が達成された。発明された方法は、ピクセル値を有する入力画像を、輝度値を有する輝度画像に変換するステップと、輝度画像から、奥行き情報を有する奥行きマップを生成するステップと、生成された奥行きマップを使用した入力画像の第1の視差処理により、左目画像、右目画像、および再生画像のうちの少なくとも1つを生成するステップとを含む。
本発明の目的に従って、2D画像を3D画像に変換するための装置が達成された。発明された装置は、ピクセル値を有する2D入力画像を、輝度値を有する輝度画像に変換するように構成された輝度変換部と、輝度画像から、奥行き情報を有する奥行きマップを生成するように構成された奥行きマップ部と、生成された奥行きマップを使用した入力画像の第1の視差処理により、左目画像、右目画像、および再生画像のうちの少なくとも1つを生成するように構成された再生画像部とを含む。
本説明の本質的な部分を形成する添付の図面において、以下が示される。
本発明の第1の例示的な実施形態に従った、2D画像を3D画像に変換する方法を示す流れ図である。 本発明の例示的な一実施形態に従った、サンプル画像を取得するプロセスを示す透視図である。 本発明の例示的な一実施形態に従った、オブジェクトを分離するプロセスを示す図である。 本発明の第2の例示的な実施形態に従った、2D画像を3D画像に変換する方法を示す流れ図である。 本発明の例示的な一実施形態に従った、境界を分離するプロセスの図である。 本発明の例示的な一実施形態に従った、オブジェクトの合成およびノイズ除去に使用されるマスクを示す図である。 本発明の例示的な一実施形態に従った、オブジェクトの合成およびノイズ除去による結果を示す図である。 本発明の例示的な一実施形態に従った、2D画像を3D画像に変換するための装置を示すブロック図である。
視差処理ルールを使用して、2D画像を3D画像に変換するための方法および装置が開示される。特に、本発明は、複数の視差処理ステップを2D入力画像に適用することによって、三次元効果をより顕著に示す。
一態様において、本発明は、2D画像を3D画像に変換する方法を提供し、方法は、ピクセル値を有する入力画像を、輝度値を有する輝度画像に変換するステップと、輝度画像から、奥行き情報を有する奥行きマップを生成するステップと、生成された奥行きマップを使用した入力画像の第1の視差処理により、左目画像、右目画像、および再生画像のうちの少なくとも1つを生成するステップとを含む。ここで、視差処理において現在処理されるべきピクセルを含むN(2より大きい整数)個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値が、現在処理されるべきピクセルのピクセル値の代わりに置き換えられる。加えて、遅延ピクセルが、N個のピクセルの奥行き情報の配列に従って決定され、遅延ピクセルは、現在処理されるべきピクセルよりもM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する。
第1のピクセルに正視差を適用するように、右目画像は、背景領域のみについて右方向に遅延され、第2のピクセルに負視差を適用するように、左目画像は、オブジェクト領域のみについて左方向に遅延される。
方法は、奥行きマップを使用した入力画像の第1の視差処理の後に、第2の視差処理によって、左目画像または右目画像を生成するステップをさらに含む。ここで、第2の視差処理において現在処理されるべきピクセルを含むN個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値が、現在処理されるべきピクセルのピクセル値の代わりに置き換えられる。さらに、第2の視差処理における遅延ピクセルが、N個のピクセルの奥行き情報の配列に従って決定され、第2の視差処理における遅延ピクセルの値は、第1の遅延処理における遅延ピクセルの値よりも高い。
奥行き情報の同じ配列を考慮して、左目画像に対して視差処理するときに遅延ピクセルを選択するための第1の視差処理ルールは、右目画像に対して視差処理するときに遅延ピクセルを選択するための第2の視差処理ルールとは異なる。
奥行き情報は、0または1を有し、入力画像は、4つの奥行き情報の配列に従って視差処理される。
入力画像を変換するステップは、入力画像のピクセルのピクセル値を、輝度値に変換するステップを含む。奥行きマップを生成するステップは、輝度画像のピクセルを一定間隔でサンプリングし、それによりサンプル画像を生成するステップと、サンプル画像の総平均輝度μTOTALを計算するステップと、サンプル画像を上部および下部に分割して、上部の平均輝度μPARTを計算するステップと、総平均輝度μTOTALおよび上部の平均輝度μPARTを使用することによって、入力画像のピクセルの奥行き情報を生成するステップとを含む。ここで、総平均輝度μTOTALが平均輝度μPARTよりも大きいという条件下において、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合に、ピクセルの奥行き情報は0であり、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合には、1である。さらに、総平均輝度μTOTALが平均輝度μPARTよりも小さいという条件下において、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合に、ピクセルの奥行き情報は0であり、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合には、1である。
奥行きマップを生成するステップは、特定のピクセルと次のピクセルとの間の輝度差があらかじめ設定されたレベルよりも高い場合に、特定のピクセルよりD(正の整数)個のピクセル分だけ後ろに位置するすべてのピクセルの奥行き情報を、0または1に設定するステップをさらに含む。
奥行き情報を生成するステップは、0または1を有する奥行き情報を、0、1、2、および3に分割するステップと、マスクを使用して、0、1、2、および3を有する奥行き情報を平滑化するステップと、0から1.5の間の奥行き情報を有するピクセルの奥行き情報を、0に再設定し、1.5から3の間の奥行き情報を有するピクセルの奥行き情報を、1に再設定するステップとを含む。
入力画像におけるキャプションに対応する奥行き情報は、1を有する奥行き情報があらかじめ設定された数を超えて連続して並べられる場合にのみ、1に再設定される。
別の態様において、本発明は、2D画像を3D画像に変換する方法を提供し、方法は、入力画像のピクセルの輝度を使用して、2D入力画像から、0または1を有する奥行き情報から構成される奥行きマップを生成するステップと、生成された奥行きマップを介して入力画像を視差処理することによって、左目画像または右目画像を生成するステップとを含む。ここで、右目画像に対して視差処理するときの第1のピクセルが、第1のピクセルに正視差を適用することによって、右方向に遅延され、左目画像に対して視差処理するときの第2のピクセルが、第2のピクセルに負視差を適用することによって、左方向に遅延される。
視差処理において現在処理されるべきピクセルを含むN(2より大きい整数)個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値が、現在処理されるべきピクセルのピクセル値の代わりに置き換えられる。加えて、遅延ピクセルが、N個のピクセルの奥行き情報の配列に従って決定され、遅延ピクセルは、現在処理されるべきピクセルよりもM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する。
奥行き情報の同じ配列を考慮して、左目画像に対する視差処理時に遅延ピクセルを選択するための第1の視差処理ルールは、右目画像に対する視差処理時に遅延ピクセルを選択するための第2の視差処理ルールとは異なる。さらに、入力画像は、N個のピクセルの奥行き情報の配列に従って視差処理される。
奥行きマップを生成するステップは、入力画像のピクセルのピクセル値を、輝度値に変換するステップと、輝度画像のピクセルを一定間隔でサンプリングし、それによりサンプル画像を生成するステップと、サンプル画像の総平均輝度μTOTALを計算するステップと、サンプル画像を上部および下部に分割して、上部の平均輝度μPARTを計算するステップと、総平均輝度μTOTALおよび上部の平均輝度μPARTを使用することによって、入力画像のピクセルの奥行き情報を生成するステップとを含む。ここで、総平均輝度μTOTALが平均輝度μPARTよりも大きいという条件下において、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合に、ピクセルの奥行き情報は0であり、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合には、1である。さらに、総平均輝度μTOTALが平均輝度μPARTよりも小さいという条件下において、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合に、ピクセルの奥行き情報は0であり、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合には、1である。
奥行きマップを生成するステップは、特定のピクセルと次のピクセルとの間の輝度差があらかじめ設定されたレベルよりも高い場合に、特定のピクセルよりD(正の整数)個のピクセル分だけ後ろに位置するすべてのピクセルの奥行き情報を、0または1に設定するステップと、0または1を有する奥行き情報を、0、1、2、および3に分割するステップと、マスクを使用して、0、1、2、および3を有する奥行き情報を平滑化するステップと、0から1.5の間の奥行き情報を有するピクセルの奥行き情報を、0に再設定し、1.5から3の間の奥行き情報を有するピクセルの奥行き情報を、1に再設定するステップと、をさらに含む。
入力画像におけるキャプションに対応する奥行き情報は、1を有する奥行き情報があらかじめ設定された数を超えて連続して並べられる場合にのみ、1に再設定される。
さらに別の態様において、本発明は、2D画像を3D画像に変換するための装置を提供し、装置は、ピクセル値を有する2D入力画像を、輝度値を有する輝度画像に変換するように構成された輝度変換部と、輝度画像から、奥行き情報を有する奥行きマップを生成するように構成された奥行きマップ部と、生成された奥行きマップを使用した入力画像の第1の視差処理により、左目画像、右目画像、および再生画像のうちの少なくとも1つを生成するように構成された再生画像部とを含む。ここで、再生画像部は、右目画像を視差処理するときに、第1のピクセルに正視差を適用することによって、第1のピクセルを右方向に遅延させ、左目画像を視差処理するときに、第2のピクセルに負視差を適用することによって、第2のピクセルを左方向に遅延させる。
再生画像部は、視差処理において現在処理されるべきピクセルを含むN(2より大きい整数)個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値を、現在処理されるべきピクセルのピクセル値の代わりに置き換える。さらに、遅延ピクセルが、N個のピクセルの奥行き情報の配列に従って決定され、遅延ピクセルは、現在処理されるべきピクセルよりM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する。
奥行き情報の同じ配列を考慮して、左目画像に対する視差処理時に遅延ピクセルを選択するための第1の視差処理ルールは、右目画像に対する視差処理時に遅延ピクセルを選択するための第2の視差処理ルールとは異なる。加えて、入力画像は、N個のピクセルの奥行き情報の配列に従って視差処理される。
輝度変換部は、入力画像のピクセルのピクセル値を輝度値に変換する。奥行きマップ部は、輝度画像のピクセルを一定間隔でサンプリングし、それによりサンプル画像を生成するように構成されたサンプリング部と、サンプル画像の総平均輝度μTOTALを計算し、サンプル画像を上部および下部に分割し、上部の平均輝度μPARTを計算するように構成された輝度計算部と、総平均輝度μTOTALおよび上部の平均輝度μPARTを使用することによって、入力画像のピクセルの奥行き情報を生成するように構成された奥行きマップ生成部とを含む。ここで、総平均輝度μTOTALが平均輝度μPARTよりも大きいという条件下において、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合に、ピクセルの奥行き情報は0であり、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合には、1である。さらに、総平均輝度μTOTALが平均輝度μPARTよりも小さいという条件下において、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合に、ピクセルの奥行き情報は0であり、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合には、1である。
奥行きマップ生成部は、特定のピクセルと次のピクセルとの間の輝度差があらかじめ設定されたレベルよりも高い場合に、特定のピクセルよりD(正の整数)個のピクセル分だけ後ろに位置するピクセルの奥行き情報を、0または1に設定する。
奥行きマップ生成部は、0または1を有する奥行き情報を、0、1、2、および3に分割し、マスクを使用して、0、1、2、および3を有する奥行き情報を平滑化し、0から1.5の間の奥行き情報を有するピクセルの奥行き情報を、0に再設定し、1.5から3の間の奥行き情報を有するピクセルの奥行き情報を、1に再設定する。
奥行きマップ生成部は、入力画像におけるキャプションに対応する奥行き情報を、1を有する奥行き情報があらかじめ設定された数を超えて連続して並べられる場合にのみ、1に再設定する。
本発明の方法は、2D(二次元)入力画像、たとえばRGB画像を、3D(三次元)画像に変換し、2D入力画像から再生画像を生成する。
図1は、本発明の第1の例示的な実施形態に従った、2D画像を3D画像に変換する方法を示す流れ図であり、図2は、本発明の例示的な一実施形態に従った、サンプル画像を取得するプロセスを示す透視図である。
図1において、本発明の方法は、S100のステップで、2D入力画像のピクセルのピクセル値を、輝度値に変換する。
一般的に、CMY表色系、RGB表色系、HIS表色系、YUV表色系、その他などのさまざまな座標系が、表色系として使用される。本発明は、任意で表色系を使用することができるが、説明の都合の目的のために、表色系をRGB表色系またはYUV表色系と仮定する。本発明は、任意の他の色空間にも同様に適用され得る。
上記の表色系に従って、以下の式1によって、入力画像のピクセルのピクセル値が輝度値に変換される。
ここで、S(i,j)は、変換された輝度値を意味し、S(i,j)、S(i,j)、およびS(i,j)は、入力画像に含まれるR、G、およびBの輝度値をそれぞれ示す。加えて、δ(i,j)は、単位サンプルのインパルス信号である。
式1に示されるように、入力画像のピクセルのピクセル値は輝度値に変換され、すなわち、入力画像は、図2に示されるような、輝度値により定義される輝度画像200に変換される。
ステップS102で、2D画像を変換する方法は、効果的な計算および動き視差の実際の処理についてのハードウェアの複雑性を考慮しながら、図2に示すように、輝度画像200のピクセルをサンプリングすることによって、サンプル画像202を取得する。結果として、サンプル画像202はまた、輝度値を有するピクセルを含む。
本発明の例示的な一実施形態では、2D画像を変換する方法は、図2に示すように、一定間隔で輝度画像200のピクセルをサンプリングすることができ、その結果、サンプル画像202は、輝度画像200を表すことができる。ここで、サンプル画像202の輝度分散特徴は、輝度画像200の輝度分散特徴と同一である。すなわち、サンプル画像202のヒストグラムの平均および標準偏差は、輝度画像200のヒストグラムのそれらと同じである。一方で、サンプルされることになるピクセルの数は、制限されない。
S104のステップで、方法は、サンプル画像202を使用して、入力画像のための奥行きマップを生成する。
S106のステップで、ステップS104の生成された奥行きマップを使用することによって、入力画像の視差プロセスが実行され、それにより再生画像を生成する。
以下で、S104およびS106のステップが、添付の図面を参照して説明される。
最初に、S104のステップが詳細に説明される。
図3は、本発明の例示的な一実施形態に従った、オブジェクトを分離するプロセスを示す図である。ここで、オブジェクトは、オブジェクトの垂直寸法が高い場合に、比較的離れた距離に位置すると仮定され、オブジェクトの垂直寸法が低い場合に、比較的近い距離に位置すると仮定される。
本発明の2D画像を変換する方法は、オブジェクトを分離するために、図2に示されるようなサンプル画像202を、図3に示されるように、上部300と下部とに分割する。次いで、方法は、サンプル画像202の総平均輝度μTOTAL、および上部300の平均輝度μPARTを計算する。
一方で、入力画像200のピクセルの輝度値Sが、総平均輝度μTOTALと上部300の平均輝度μPARTとの間の境界にわたって変化する場合、奥行きマップの奥行き情報が素早く変化して、それゆえ画面のちらつきが生じることがある。したがって、方法は、上記のちらつきを防ぐために、以下の式2および式3に示されるように輝度値を再設定する、すなわち、奥行きマップの生成時にちらつきを回避するための輝度レベルの量子化が実行される。以下で、輝度は、256レベルを有すると仮定される。
式2:
224のとき、S=224
192≦S<224のとき、S=192
160≦S<192のとき、S=160
128≦S<160のとき、S=128
96≦S<128のとき、S=96
64≦S<96のとき、S=64
32≦S<64のとき、S=32
<32のとき、S=16
式3:
μTOTAL 224のとき、μTOTAL=224
192≦μTOTAL<224のとき、μTOTAL=192
160≦μTOTAL<192のとき、μTOTAL=160
128≦μTOTAL<160のとき、μTOTAL=128
96≦μTOTAL<128のとき、μTOTAL=96
64≦μTOTAL<96のとき、μTOTAL=64
32≦μTOTAL<64のとき、μTOTAL=32
μTOTAL<32のとき、μTOTAL=16
引き続き、方法は、総平均輝度μTOTAL、および上部300の平均輝度μPARTを使用することによって、奥行き情報を有する奥行きマップを生成する。
本発明の例示的な一実施形態で、方法は、オブジェクトに対応するピクセルの奥行き情報を0に設定し、背景に対応するピクセルの奥行き情報を1に設定する。
特に、総平均輝度μTOTALが、上部300の平均輝度μPARTよりも大きいという条件下、すなわち、μTOTAL≧μPARTにおいて、2D画像を変換する方法は、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合、すなわち、S(i,j)≧μTOTALの場合に、対応するピクセルの奥行き情報を0に設定し、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合、すなわち、S(i,j)<μTOTALの場合に、対応するピクセルの奥行き情報を1に設定する。さらに、総平均輝度μTOTALが、上部300の平均輝度μPARTよりも小さいという条件下、すなわち、μTOTAL<μPARTにおいて、方法は、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも小さい場合、すなわち、S(i,j)<μTOTALの場合に、対応するピクセルの奥行き情報を0に設定し、ピクセルの輝度S(i,j)が総平均輝度μTOTALよりも大きい場合、すなわち、S(i,j)≧μTOTALの場合に、対応するピクセルの奥行き情報を1に設定する。
2D画像を変換する方法は、上記の奥行き情報設定方法を入力画像のすべてのピクセルに適用して、それにより奥行きマップを生成する。結果として、奥行きマップは、0または1を有する奥行き情報から構成される。本発明の別の例示的な実施形態では、奥行きマップの奥行き情報は、以下で説明されるように、さらに2、3、などを有することができる。
次に、S106のステップが詳細に説明される。
本発明の例示的な一実施形態では、生成された奥行きマップを使用して、入力画像が視差処理され、それにより左目画像および右目画像を生成する。
本発明の例示的な一実施形態で、方法は、右目画像に対して視差処理するときに、対応するピクセルに正視差を適用することによって、そのピクセルを右方向に遅延させ、左目画像に対して視差処理するときに、対応するピクセルに負視差を適用することによって、そのピクセルを左方向に遅延させることができる。
本発明の別の例示的な実施形態で、方法は、視差処理の際に現在処理されるべきピクセルを含むN個のピクセルの奥行き情報を考慮しながら、遅延ピクセルのピクセル値を、現在処理されるべきピクセルのピクセル値の代わりに置き換え、ただし、Nは2より大きい整数である。ここで、遅延ピクセルが、N個のピクセルの奥行き情報の配列に従って決定され、遅延ピクセルは、現在処理されるべきピクセルよりM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する。
本発明のさらに別の例示的な実施形態で、方法は、N個のピクセルの奥行き情報の最後の奥行き情報が1である場合に、対応するピクセルに正視差を適用して、それによりそのピクセルを右方向に遅延させる。さらに、方法は、最後の奥行き情報が0である場合に、対応するピクセルに負視差を適用して、それによりそのピクセルを左方向に遅延させる。
以下で、視差を処理する方法が、下記の例を用いて詳細に説明される。ここで、Nは、4と仮定される。
表1および表3を参照すると、奥行き情報「1111」が入力された場合に、デフォルトとしての遅延1の奥行き情報が、左目画像のための視差処理ルールに従って、D4の奥行き情報の代わりに置き換えられる。ここで、遅延1は、現在処理されるピクセル、すなわち、D4に対応するピクセルを示す。言い換えれば、奥行き情報「1111」が入力された場合、D4のピクセル値は維持される。
ピクセルD5を参照すると、D5を含む連続する4つのピクセルの奥行き情報は、「1110」である。左目画像のための視差処理ルールに従って、遅延2の奥行き情報が、D5の奥行き情報の代わりに置き換えられる。ここで、遅延2は、D5の左方向に隣のピクセルを意味し、それゆえ、D4のピクセル値が、D5のピクセル値の代わりに置き換えられる。
ピクセルD6を参照すると、D6を含む連続する4つのピクセルの奥行き情報は、「1100」である。左目画像のための視差処理ルールに従って、遅延3の奥行き情報が、D6の奥行き情報の代わりに置き換えられる。ここで、遅延3は、D5より左方向に2ピクセル分だけ前のピクセルを示し、したがって、D4のピクセル値が、D6のピクセル値の代わりに置き換えられる。
手短に言うと、左目画像は、上に挙げた方法によって生成される。一方、右目画像は、左目画像を生成するプロセスと同じように、表2に示された右目画像の視差処理ルールに従って生成される。
本発明の例示的な一実施形態では、再生画像において、表3に示されるように、ピクセルのピクセル値が、今度は、左目画像のピクセル値および右目画像のピクセル値を有することができる。したがって、再生画像の出力は、左目画像および右目画像が二者択一的に出力されるときと同じ効果を有する。すなわち、再生画像を出力することにより、3D画像が実現される。
本発明の別の例示的な実施形態で、2Dを変換する方法は、今度は、特別な再生画像を生成することなく左目画像および右目画像を出力し、それにより3D画像を出力することができる。
簡単に言うと、本発明の方法は、奥行き情報(たとえば0または1)を有する奥行きマップを生成し、奥行きマップの奥行き情報の配列、ならびに左目画像および右目画像の視差処理ルールに従って、入力画像を視差処理することにより、左目画像および右目画像を生成する。視差処理ルールにおいて、ピクセルの遅延値は、奥行き情報の配列に従って決定される。
上記の説明では、Nは、4と仮定されたが、別の値を有するように設定されてもよい。
本発明の別の例示的な実施形態で、2Dを変換する方法は、複数の視差処理プロセスを実行することができる。
たとえば、方法は、上に挙げたような1番目における視差処理(以下では、「第1の視差処理」と呼ばれる)を実行し、次いで、さらに2番目における視差処理(以下では、「第2の視差処理」と呼ばれる)を実行することができる。
第2の視差処理は、第1の視差処理と類似する。しかしながら、第2の視差処理において用いられる視差処理ルールは、第1の視差処理における視差処理ルールとは異なっていてよい。本発明の例示的な一実施形態では、第2の視差処理のための視差処理ルールにおける遅延値が、第1の視差処理のための視差処理ルールにおける遅延値よりも高くてもよい。たとえば、第1の視差処理における奥行き情報「1110」の遅延値は、第2の視差処理では、2、および3であってよい。
2つの視差処理が上記で説明されたように実行される場合、3D画像の三次元効果は、1つの視差処理における三次元効果よりも、顕著に示され得る。
一方で、3つの視差処理、4つの視差処理などが実行されてもよい。このケースにおいて、3D画像の三次元効果をより顕著に見せるために、視差処理の回数が増やされるほど、高い遅延値となる。
本発明の例示的な一実施形態で、2Dを変換する方法は、キャプションを処理するために、追加のステップをさらに含むことができる。一般に、画面におけるキャプションは、いくつかのピクセルから構成されており、それゆえ上記の視差処理が実行されるだけの場合には、キャプションが損傷されることがある。したがって、キャプションの損傷問題を解決するために、本発明の方法は、1を有する奥行き情報があらかじめ設定された数を超えて連続して並べられる場合にのみ、対応する奥行き情報を1に設定し、そうでない場合は、対応する奥行き情報を0に設定することができる。
図4は、本発明の第2の例示的な実施形態に従った、2D画像を3D画像に変換する方法を示す流れ図であり、図5は、本発明の例示的な一実施形態に従った、境界を分離するプロセスの図である。図6は、本発明の例示的な一実施形態に従った、オブジェクトの合成およびノイズ除去に使用されるマスクを示す図であり、図7は、本発明の例示的な一実施形態に従った、オブジェクトの合成およびノイズ除去による結果を示す図である。
図4で、2Dを変換する方法は、S400のステップで、入力画像のピクセルのピクセル値を輝度値に変換し、それにより輝度画像を生成する。
S402のステップで、方法は、輝度画像をサンプリングすることによって、サンプル画像を取得する。
S404のステップで、方法は、サンプル画像の動きを検出し、入力画像を複数の領域に分割する。
S406のステップで、方法は、境界を考慮して、第1の奥行きマップを生成する。
S408のステップで、方法は、第1の奥行きマップに、オブジェクト合成ステップおよびノイズ除去ステップを適用することによって、第2の奥行きマップを生成する。ここで、第2の奥行きマップは、第1の実施形態における奥行きマップに対応してもよい。
S410のステップで、方法は、生成された第2の奥行きマップを使用して、入力画像を視差処理し、それにより3D画像を生成する。
上記の説明では、S406およびS408を除く他のステップは、第1の実施形態においてと同じであり、したがって、同じステップに関する一切のさらなる説明は、省略される。
以下では、S406のステップが詳細に説明される。
本発明の方法は、上記で説明されたような輝度に基づいて、入力画像を領域に分割する。しかしながら、入力画像の境界部分が明確ではないために、オブジェクトは正確に分離されないことがある。したがって、本発明の方法は、境界部分を明確にするための以下の特別なステップをさらに含むことができる。
図5を参照すると、隣接するピクセル500と502との間の輝度差があらかじめ設定されたレベルよりも高い場合、ピクセル500よりK(正の整数)個のピクセル分だけ後ろに位置するすべてのピクセル504または506が、0または1を有するように設定されてよい。
たとえば、ピクセル504は、Y2が(Y0+16)よりも高い場合に、1を有するように設定されてよく、(Y2+16)がY0よりも小さい場合に、0を有するように設定されてよい。
すなわち、輝度が突然変化する部分が境界部分と仮定され、したがって、2Dを変換する方法は、境界部分を明確にするために、輝度が突然変化する部分あたりに、上記のステップを実行する。
以下では、S408のステップが詳細に説明される。
本発明の例示的な一実施形態で、方法は、第1の奥行きマップにおいて0および1を有する奥行き情報を、0、1、2、および3を有する奥行き情報に分離する。しかしながら、奥行き情報の値は、0、1、2、3として限定されず、さまざまに変更されてもよい。
たとえば、SがμTOTALよりも小さいという条件下(S<μTOTAL)において、方法は、Sが(μTOTAL/2)よりも小さい場合に、奥行き情報を0に設定し、Sが(μTOTAL/2)よりも高い場合に、奥行き情報を1に設定する。
加えて、SがμTOTALよりも大きいという条件下(S≧μTOTAL)において、方法は、Sが((255+μTOTAL)/2)よりも小さい場合に、奥行き情報を2に設定し、Sが((255+μTOTAL)/2)よりも高い場合に、奥行き情報を3に設定する。
引き続き、方法は、図6に示されるマスク600を使用して、第2の奥行きマップを平滑化する。たとえば、方法は、0から1.5の間の奥行き情報を有するピクセルの奥行き情報を、0に再設定し、1.5から3の間の奥行き情報を有するピクセルの奥行き情報を、1に再設定する。結果として、第2の奥行きマップはまた、第1の奥行きマップと同じように、0および1を有する奥行き情報から構成される。
図7の実験結果を参照すると、第1の奥行きマップにオブジェクト合成およびノイズ除去を適用することによって生成された画像が、オブジェクト合成およびノイズ除去が適用されていない画像よりも、入力画像を一層よく反映する。さらに、第1の奥行きマップにオブジェクト合成およびノイズ除去を適用することによって生成された画像では、境界部分などがはっきりと示される。
図8は、本発明の例示的な一実施形態に従った、2D画像を3D画像に変換するための装置を示すブロック図である。
図8で、本発明の2D画像を3D画像に変換するための装置800は、制御部810と、記憶部812と、輝度変換部814と、奥行きマップ部816と、再生画像部818とを含む。
記憶部812は、オリジナル画像である入力画像を記憶し、入力画像を視差処理することによって生成された左目画像、右目画像、または再生画像を記憶することができる。
輝度変換部814は、入力画像のピクセルのピクセル値を輝度値に変換し、それにより輝度画像を生成する。
奥行きマップ部816は、入力画像を視差処理し、サンプリング部820と、輝度計算部822と、奥行きマップ生成部824とを含む。
サンプリング部820は、輝度画像をサンプリングし、それによりサンプル画像を生成する。
輝度計算部822は、サンプル画像の総平均輝度μTOTAL、および上部300の平均輝度μPARTを計算する。
奥行きマップ生成部824は、総平均輝度μTOTAL、および平均輝度μPARTを使用して、入力画像のための奥行きマップを生成する。
本発明の別の例示的な実施形態で、奥行きマップ生成部824はさらに、入力画像の境界部分をはっきりと処理し、次いで奥行きマップを生成することができる。
本発明のさらに別の例示的な実施形態で、奥行きマップ生成部824は、0または1を有する奥行き情報を、0、1、2、または3などに分割し、次いでマスクを使用して、0、1、2、または3などを有する奥行き情報を含む奥行きマップを平滑化することによって、新たな奥行きマップを生成する。
本発明のさらに別の例示的な実施形態で、奥行きマップ生成部824は、キャプションに対する特別なステップを実行することができる。
再生画像部818は、奥行きマップを使用することによって入力画像を視差処理し、それにより左目画像、右目画像、または再生画像を生成する。
制御部810は、装置800における全体の要素を制御する。
本明細書における、「一実施形態」、「実施形態」、「例示的な実施形態」、などへのあらゆる言及は、実施形態に関連して説明される特定の特徴、構造、または特性が、本発明の少なくとも1つの実施形態に含まれることを意味する。本明細書のさまざまな箇所にそのような表現が見られることは、必ずしも、すべて同じ実施形態に言及することではない。さらに、特定の特徴、構造、または特性が、いずれかの実施形態に関連して説明されるとき、実施形態のうちの他の実施形態と関連してそのような特徴、構造、または特性に作用することは、当業者の理解の範囲内であることが提示される。
視差プロセス
実施形態が、そのいくつかの例証的な実施形態を参照して説明されてきたが、本開示の原則の趣旨および範囲内に含まれることになる多数の他の変更形態および実施形態が、当業者によって考案され得ることが理解されるべきである。より詳細には、本開示、本図面、および添付の特許請求の範囲の範囲内で、主題の組合せ構成(subject combination arrangement)の構成要素部品および/または配置におけるさまざまな変形形態および変更形態が可能である。構成要素部品および/または配置における変形形態および変更形態に加え、当業者には、代替用途もまた明らかとなるであろう。
本発明が、その好ましい実施形態を参照して詳細に示され、説明されてきたが、形態および詳細におけるさまざまな変更が、本発明の趣旨および範囲から逸脱せずに行われてもよいことが、当業者によって理解されるであろう。
200 輝度画像、入力画像
202 サンプル画像
300 上部
500 ピクセル
502 ピクセル
504 ピクセル
506 ピクセル
600 マスク
800 装置
810 制御部
812 記憶部
814 輝度変換部
816 奥行きマップ部
818 再生画像部
820 サンプリング部
822 輝度計算部
824 奥行きマップ生成部

Claims (25)

  1. ピクセル値を有する入力画像を、輝度値を有する輝度画像に変換するステップと、
    前記輝度画像から、奥行き情報を有する奥行きマップを生成するステップと、
    前記生成された奥行きマップを使用した前記入力画像の第1の視差処理により、左目画像、右目画像、および再生画像のうちの少なくとも1つを生成するステップと、
    を含む2D画像を3D画像に変換する方法。
  2. 前記第1の視差処理は、視差処理において現在処理されるべきピクセルを含むN(2より大きい整数)個のピクセルの奥行き情報を考慮することによって、現在処理されるべき前記ピクセルのピクセル値から遅延ピクセルのピクセル値への置換えを含み、前記遅延ピクセルが、前記N個のピクセルの前記奥行き情報の配列に従って決定され、前記遅延ピクセルは、現在処理されるべき前記ピクセルよりもM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する、請求項1に記載の方法。
  3. 第1のピクセルに正視差を適用するように、前記右目画像は、背景領域のみについて右方向に遅延され、第2のピクセルに負視差を適用するように、前記左目画像は、オブジェクト領域のみについて左方向に遅延される、請求項2に記載の方法。
  4. 前記奥行きマップを使用した前記入力画像の前記第1の視差処理の後に、第2の視差処理によって前記左目画像または前記右目画像を生成するステップであって、前記第2の視差処理において現在処理されるべきピクセルを含むN個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値は、現在処理されるべき前記ピクセルのピクセル値の代わりに置き換えられ、前記第2の視差処理における前記遅延ピクセルは、前記N個のピクセルの前記奥行き情報の配列に従って決定され、前記第2の視差処理における前記遅延ピクセルの値は、前記第1の遅延処理における遅延ピクセルの値よりも高い、生成するステップをさらに含む、請求項2に記載の方法。
  5. 前記奥行き情報の同じ配列を考慮して、前記左目画像に対して視差処理するときに前記遅延ピクセルを選択するための第1の視差処理ルールが、前記右目画像に対して視差処理するときに前記遅延ピクセルを選択するための第2の視差処理ルールとは異なる、請求項2に記載の方法。
  6. 前記奥行き情報は、0または1を有し、前記入力画像が、4つの奥行き情報の配列に従って視差処理される、請求項5に記載の方法。
  7. 前記入力画像を変換する前記ステップは、前記入力画像のピクセルのピクセル値を輝度値に変換するステップを含み、
    前記奥行きマップを生成する前記ステップは、
    前記輝度画像のピクセルを一定間隔でサンプリングし、それによりサンプル画像を生成するステップと、
    前記サンプル画像の総平均輝度μTOTALを計算するステップと、
    前記サンプル画像を上部および下部に分割して、前記上部の平均輝度μPARTを計算するステップと、
    前記総平均輝度μTOTALおよび前記上部の前記平均輝度μPARTを使用することによって、前記入力画像の前記ピクセルの前記奥行き情報を生成するステップであって、前記総平均輝度μTOTALが前記平均輝度μPARTよりも大きいという条件下において、前記ピクセルの輝度S(i,j)が前記総平均輝度μTOTALよりも大きい場合に、前記ピクセルの前記奥行き情報は0であり、前記ピクセルの前記輝度S(i,j)が前記総平均輝度μTOTALよりも小さい場合には1であり、前記総平均輝度μTOTALが前記平均輝度μPARTよりも小さいという条件下において、前記ピクセルの輝度S(i,j)が前記総平均輝度μTOTALよりも小さい場合に、前記ピクセルの前記奥行き情報は0であり、前記ピクセルの前記輝度S(i,j)が前記総平均輝度μTOTALよりも大きい場合には、1である、生成するステップとを含む、請求項1に記載の方法。
  8. 前記奥行きマップを生成する前記ステップは、特定のピクセルと次のピクセルとの間の輝度差があらかじめ設定されたレベルよりも高い場合に、前記特定のピクセルよりD(正の整数)個のピクセル分だけ後ろに位置するすべてのピクセルの奥行き情報を、0または1に設定するステップをさらに含む、請求項7に記載の方法。
  9. 前記奥行き情報を生成する前記ステップは、
    0または1を有する前記奥行き情報を、0、1、2、および3に分割するステップと、
    マスクを使用して、0、1、2、および3を有する奥行き情報を平滑化するステップと、
    0から1.5の間の奥行き情報を有するピクセルの前記奥行き情報を、0に再設定し、1.5から3の間の奥行き情報を有するピクセルの前記奥行き情報を、1に再設定するステップと、
    を含む、請求項7に記載の方法。
  10. 前記入力画像におけるキャプションに対応する奥行き情報は、1を有する前記奥行き情報があらかじめ設定された数を超えて連続して並べられる場合にのみ、1に再設定される、請求項1に記載の方法。
  11. 入力画像のピクセルの輝度を使用して、2D入力画像から、0または1を有する奥行き情報から構成される奥行きマップを生成するステップと、
    生成された奥行きマップを介して前記入力画像を視差処理することによって、左目画像または右目画像を生成するステップと、を含み、前記右目画像に対して視差処理するときの第1のピクセルが、前記第1のピクセルに正視差を適用することによって、右方向に遅延され、前記左目画像に対して視差処理するときの第2のピクセルが、前記第2のピクセルに負視差を適用することによって、左方向に遅延される、
    2D画像を3D画像に変換する方法。
  12. 視差処理において現在処理されるべきピクセルを含むN(2より大きい整数)個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値が、現在処理されるべき前記ピクセルのピクセル値の代わりに置き換えられ、前記遅延ピクセルは、前記N個のピクセルの前記奥行き情報の配列に従って決定され、前記遅延ピクセルは、現在処理されるべき前記ピクセルよりもM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する、請求項11に記載の方法。
  13. 前記奥行き情報の同じ配列を考慮して、前記左目画像に対する視差処理時に前記遅延ピクセルを選択するための第1の視差処理ルールは、前記右目画像に対する視差処理時に前記遅延ピクセルを選択するための第2の視差処理ルールとは異なり、前記入力画像は、前記N個のピクセルの前記奥行き情報の配列に従って視差処理される、請求項12に記載の方法。
  14. 前記奥行きマップを生成する前記ステップは、
    前記入力画像のピクセルのピクセル値を輝度値に変換するステップと、
    輝度画像のピクセルを一定間隔でサンプリングし、それによりサンプル画像を生成するステップと、
    前記サンプル画像の総平均輝度μTOTALを計算するステップと、
    前記サンプル画像を上部および下部に分割して、前記上部の平均輝度μPARTを計算するステップと、
    前記総平均輝度μTOTALおよび前記上部の前記平均輝度μPARTを使用することによって、前記入力画像の前記ピクセルの前記奥行き情報を生成するステップと、を含み、前記総平均輝度μTOTALが前記平均輝度μPARTよりも大きいという条件下において、前記ピクセルの輝度S(i,j)が前記総平均輝度μTOTALよりも大きい場合に、前記ピクセルの前記奥行き情報は0であり、前記ピクセルの前記輝度S(i,j)が前記総平均輝度μTOTALよりも小さい場合には1であり、前記総平均輝度μTOTALが前記平均輝度μPARTよりも小さいという条件下において、前記ピクセルの輝度S(i,j)が前記総平均輝度μTOTALよりも小さい場合に、前記ピクセルの前記奥行き情報は0であり、前記ピクセルの前記輝度S(i,j)が前記総平均輝度μTOTALよりも大きい場合には、1である、
    請求項12に記載の方法。
  15. 前記奥行きマップを生成する前記ステップは、
    特定のピクセルと次のピクセルとの間の輝度差があらかじめ設定されたレベルよりも高い場合に、前記特定のピクセルよりD(正の整数)個のピクセル分だけ後ろに位置するすべてのピクセルの奥行き情報を、0または1に設定するステップと、
    0または1を有する前記奥行き情報を、0、1、2、および3に分割するステップと、
    マスクを使用して、0、1、2、および3を有する奥行き情報を平滑化するステップと、
    0から1.5の間の奥行き情報を有するピクセルの前記奥行き情報を、0に再設定し、1.5から3の間の奥行き情報を有するピクセルの前記奥行き情報を、1に再設定するステップと、
    をさらに含む、請求項14に記載の方法。
  16. 前記入力画像におけるキャプションに対応する奥行き情報が、1を有する前記奥行き情報があらかじめ設定された数を超えて連続して並べられる場合にのみ、1に再設定される、請求項12に記載の方法。
  17. ピクセル値を有する2D入力画像を、輝度値を有する輝度画像に変換するように構成された輝度変換部と、
    前記輝度画像から、奥行き情報を有する奥行きマップを生成するように構成された奥行きマップ部と、
    生成された奥行きマップを使用した入力画像の第1の視差処理により、左目画像、右目画像、および再生画像のうちの少なくとも1つを生成するように構成された再生画像部と
    を含む、2D画像を3D画像に変換するための装置。
  18. 前記再生画像部は、前記右目画像を視差処理するときに、第1のピクセルに正視差を適用することによって、前記第1のピクセルを右方向に遅延させ、前記左目画像を視差処理するときに、第2のピクセルに負視差を適用することによって、前記第2のピクセルを左方向に遅延させる、請求項17に記載の装置。
  19. 前記再生画像部は、視差処理において現在処理されるべきピクセルを含むN(2より大きい整数)個のピクセルの奥行き情報を考慮することによって、遅延ピクセルのピクセル値を、現在処理されるべき前記ピクセルのピクセル値の代わりに置き換え、前記遅延ピクセルが、前記N個のピクセルの前記奥行き情報の配列に従って決定され、前記遅延ピクセルは、現在処理されるべき前記ピクセルよりM(0より大きい整数)個のピクセル分だけ前に位置するピクセルを意味する、請求項18に記載の装置。
  20. 前記奥行き情報の同じ配列を考慮して、前記左目画像に対する視差処理時に前記遅延ピクセルを選択するための第1の視差処理ルールは、前記右目画像に対する視差処理時に前記遅延ピクセルを選択するための第2の視差処理ルールとは異なり、前記入力画像は、前記N個のピクセルの前記奥行き情報の配列に従って視差処理される、請求項19に記載の装置。
  21. 前記輝度変換部が、前記入力画像のピクセルのピクセル値を輝度値に変換し、
    前記奥行きマップ部は、
    前記輝度画像のピクセルを一定間隔でサンプリングし、それによりサンプル画像を生成するように構成されたサンプリング部と、
    前記サンプル画像の総平均輝度μTOTALを計算し、前記サンプル画像を上部および下部に分割し、前記上部の平均輝度μPARTを計算するように構成された輝度計算部と、
    前記総平均輝度μTOTALおよび前記上部の前記平均輝度μPARTを使用することによって、前記入力画像の前記ピクセルの前記奥行き情報を生成するように構成された奥行きマップ生成部とを含み、前記総平均輝度μTOTALが前記平均輝度μPARTよりも大きいという条件下において、前記ピクセルの輝度S(i,j)が前記総平均輝度μTOTALよりも大きい場合に、前記ピクセルの前記奥行き情報は0であり、前記ピクセルの前記輝度S(i,j)が前記総平均輝度μTOTALよりも小さい場合には1であり、前記総平均輝度μTOTALが前記平均輝度μPARTよりも小さいという条件下において、前記ピクセルの輝度S(i,j)が前記総平均輝度μTOTALよりも小さい場合に、前記ピクセルの前記奥行き情報は0であり、前記ピクセルの前記輝度S(i,j)が前記総平均輝度μTOTALよりも大きい場合には、1である、
    請求項17に記載の装置。
  22. 前記奥行きマップ生成部が、特定のピクセルと次のピクセルとの間の輝度差があらかじめ設定されたレベルよりも高い場合に、前記特定のピクセルよりD(正の整数)個のピクセル分だけ後ろに位置するピクセルの奥行き情報を、0または1に設定する、請求項21に記載の装置。
  23. 前記奥行きマップ生成部は、0または1を有する前記奥行き情報を、0、1、2、および3に分割し、マスクを使用して、0、1、2、および3を有する奥行き情報を平滑化し、0から1.5の間の奥行き情報を有するピクセルの前記奥行き情報を、0に再設定し、1.5から3の間の奥行き情報を有するピクセルの前記奥行き情報を、1に再設定する、請求項21に記載の装置。
  24. 前記奥行きマップ生成部は、前記入力画像におけるキャプションに対応する奥行き情報を、1を有する前記奥行き情報があらかじめ設定された数を超えて連続して並べられる場合にのみ、1に再設定する、請求項21に記載の装置。
  25. 第1のピクセルに正視差を適用するように、前記右目画像が、背景領域のみについて右方向に遅延され、第2のピクセルに負視差を適用するように、前記左目画像は、オブジェクト領域のみについて左方向に遅延される、請求項17に記載の装置。
JP2011137233A 2010-06-21 2011-06-21 2d画像を3d画像に変換するための方法および装置 Withdrawn JP2012019513A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0058791 2010-06-21
KR1020100058791A KR101198320B1 (ko) 2010-06-21 2010-06-21 2차원에서 3차원으로의 영상 변환 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2012019513A true JP2012019513A (ja) 2012-01-26

Family

ID=44908153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011137233A Withdrawn JP2012019513A (ja) 2010-06-21 2011-06-21 2d画像を3d画像に変換するための方法および装置

Country Status (6)

Country Link
US (1) US20120087570A1 (ja)
EP (1) EP2398247A3 (ja)
JP (1) JP2012019513A (ja)
KR (1) KR101198320B1 (ja)
CN (1) CN102333229A (ja)
TW (1) TW201208349A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286941B2 (en) 2001-05-04 2016-03-15 Legend3D, Inc. Image sequence enhancement and motion picture project management system
US8897596B1 (en) 2001-05-04 2014-11-25 Legend3D, Inc. System and method for rapid image sequence depth enhancement with translucent elements
US8401336B2 (en) 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US8730232B2 (en) 2011-02-01 2014-05-20 Legend3D, Inc. Director-style based 2D to 3D movie conversion system and method
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9282321B2 (en) 2011-02-17 2016-03-08 Legend3D, Inc. 3D model multi-reviewer system
US9241147B2 (en) 2013-05-01 2016-01-19 Legend3D, Inc. External depth map transformation method for conversion of two-dimensional images to stereoscopic images
JP2012253666A (ja) * 2011-06-06 2012-12-20 Sony Corp 画像理装置および方法、並びにプログラム
US9007365B2 (en) 2012-11-27 2015-04-14 Legend3D, Inc. Line depth augmentation system and method for conversion of 2D images to 3D images
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US9007404B2 (en) 2013-03-15 2015-04-14 Legend3D, Inc. Tilt-based look around effect image enhancement method
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9609307B1 (en) 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
CN109685885B (zh) * 2017-10-18 2023-05-23 上海质尊电子科技有限公司 一种利用深度图转换3d图像的快速方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1551190B1 (en) * 2002-08-20 2018-08-08 Kazunari Era Method and device for creating 3-dimensional view image
KR100505334B1 (ko) * 2003-03-28 2005-08-04 (주)플렛디스 운동 시차를 이용한 입체 영상 변환 장치
US20060023197A1 (en) * 2004-07-27 2006-02-02 Joel Andrew H Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media
CN101271578B (zh) * 2008-04-10 2010-06-02 清华大学 一种平面视频转立体视频技术中的深度序列生成方法
JP4591548B2 (ja) * 2008-06-04 2010-12-01 ソニー株式会社 画像符号化装置及び画像符号化方法
MX2011002553A (es) * 2008-09-18 2011-04-04 Panasonic Corp Dispositivo de reproduccion de video estereoscopico y dispositivo de presentacion visual de video estereoscopico.
JP5024632B2 (ja) * 2008-09-19 2012-09-12 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN101702781A (zh) * 2009-09-07 2010-05-05 无锡景象数字技术有限公司 基于光流法的2d转3d方法
JP5402483B2 (ja) * 2009-10-02 2014-01-29 株式会社Jvcケンウッド 擬似立体画像作成装置及び擬似立体画像表示システム

Also Published As

Publication number Publication date
TW201208349A (en) 2012-02-16
US20120087570A1 (en) 2012-04-12
EP2398247A2 (en) 2011-12-21
EP2398247A3 (en) 2013-05-29
CN102333229A (zh) 2012-01-25
KR20110138733A (ko) 2011-12-28
KR101198320B1 (ko) 2012-11-06

Similar Documents

Publication Publication Date Title
JP2012019513A (ja) 2d画像を3d画像に変換するための方法および装置
US10051259B2 (en) Real-time automatic conversion of 2-dimensional images or video to 3-dimensional stereo images or video
TWI485646B (zh) 圖轉換方法、圖轉換設備、及用於圖轉換的電腦程式產品
JP4875162B2 (ja) 画像強調
US20160292823A1 (en) Image processing device and method, recording medium, and program
JP4903240B2 (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
JP4949463B2 (ja) アップスケーリング
WO2014083752A1 (ja) 別視点画像生成装置および別視点画像生成方法
TW201349170A (zh) 深度圖產生裝置及其方法
JP7159198B2 (ja) 奥行きマップを処理するための装置及び方法
WO2012040162A1 (en) Color correction for digital images
JP2014042238A (ja) 3dビジュアルコンテントのデプスベースイメージスケーリング用の装置及び方法
JP5691965B2 (ja) 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
US8330799B2 (en) Image output apparatus and image output method
US20120170841A1 (en) Image processing apparatus and method
JP5254297B2 (ja) 画像処理装置
US20130050420A1 (en) Method and apparatus for performing image processing according to disparity information
KR101633634B1 (ko) 디지털 시네마에서 스테레오 카메라로 획득한 좌우 영상의 색 일치 방법 및 그 장치
US9667940B2 (en) Adaptive colorspace conversion for 3D stereoscopic disparity estimation
JP2011119926A (ja) 映像処理装置、映像処理方法及びコンピュータプログラム
US20120044244A1 (en) Method for Image Processing and an Apparatus Thereof
JP5691966B2 (ja) 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
TWI502960B (zh) 二維轉三維轉換裝置及其方法
JP2012060246A (ja) 画像処理装置、集積回路装置
JP2011182366A (ja) 画像処理方法、画像処理装置および画像処理プログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902