JP5468526B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP5468526B2
JP5468526B2 JP2010262732A JP2010262732A JP5468526B2 JP 5468526 B2 JP5468526 B2 JP 5468526B2 JP 2010262732 A JP2010262732 A JP 2010262732A JP 2010262732 A JP2010262732 A JP 2010262732A JP 5468526 B2 JP5468526 B2 JP 5468526B2
Authority
JP
Japan
Prior art keywords
sampling
point
pixel
image
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010262732A
Other languages
English (en)
Other versions
JP2012114733A (ja
Inventor
啓 介 東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010262732A priority Critical patent/JP5468526B2/ja
Priority to KR1020110088599A priority patent/KR101269771B1/ko
Priority to US13/232,926 priority patent/US20120133646A1/en
Priority to CN201110281205.8A priority patent/CN102480623B/zh
Publication of JP2012114733A publication Critical patent/JP2012114733A/ja
Application granted granted Critical
Publication of JP5468526B2 publication Critical patent/JP5468526B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Description

本発明の実施形態は、画像処理装置及び画像処理方法に関する。
近年、三次元(3D(Three-Dimension))画像を再生可能なディスプレイの普及に伴い、3Dコンテンツに加えて、既存の二次元(2D(Two-Dimension))画像から3D画像への変換(以下、「2D3D変換」)が求められている。一般的な2D3D変換では、奥行き推定処理と、視差画像生成処理と、が行われる。
しかしながら、一般的な奥行き推定処理では、2D画像から完全な奥行き情報が得られないので、予め決められたアルゴリズムを用いて奥行き情報が推定される。その結果、推定された奥行き情報が元画像と異なる奥行きを示す場合には、再生される3D画像が視聴者に違和感を与えてしまう。
また、一般的な視差画像生成処理では、元画像に存在しない陰面部を補完する処理が行われる。陰面部は画質を劣化させる要因になる傾向がある。従って、陰面部を補完することは、生成される3D画像の品質にとって好ましくない。
さらに、一般的な奥行き推定及び視差画像生成の処理量は、何れも、極めて大きい。一方、リアルタイムに3D画像を再生するために、2D3D変換には短時間の処理が要求される。従って、奥行き推定処理及び視差画像生成処理を実現するアルゴリズムを短時間で実行するような大規模なプロセッサを備えていない携帯電話等の小型機器では、2D3D変換を実現することはできない。
特表2000−502234号公報
本発明が解決しようとする課題は、生成される3D画像の品質を劣化させることなく、処理量の小さい2D3D変換を実行可能な画像処理装置及び画像処理方法を提供することである。
本発明の実施形態によれば、画像処理装置は、定点設定部と、サンプリング点設定部と、視差画像生成部と、を備える。定点設定部は、複数の第1画素を含む第1画像データから、所定のサンプリング分解能に基づいて生成したサンプリング座標空間に複数の任意の定点を設定する。サンプリング点設定部は、サンプリング座標空間の任意の座標に対象点を設定し、対象点の画素成分に基づいて算出したサンプリング座標に対象点に対応するサンプリング点を設定する。視差画像生成部は、サンプリング座標に配置すべき第2画素の画素値を算出して、複数の第2画素を含む第2画像データを複数個生成する。
本発明の実施形態に係る画像処理システム1のブロック図。 第1画像データIMGの構造を示す図。 第1実施形態の画像処理装置10aのブロック図。 第1実施形態の2D3D変換処理のフローチャート。 第1実施形態の2D3D変換処理を説明するためのサンプリング座標空間CSの概略図。 第1実施形態のサンプリング点設定処理のフローチャート。 第1実施形態のサンプリング設定を説明する図。 第2画像データIMG´の構造を示す図。 第1実施形態の視差画像生成処理のフローチャート。 第1実施形態の第2画素の画素値算出の一例を示す図。 第2実施形態の画像処理装置10aのブロック図。 第2実施形態の2D3D変換処理のフローチャート。 第2実施形態の奥行き情報生成処理のフローチャート。 第2実施形態の奥行き生成処理を説明する図。 第2実施形態の奥行き生成処理を説明する図。 第2実施形態のサンプリング点補正を説明する図。
本発明の実施形態について、図面を参照して説明する。図1は、本発明の実施形態に係る画像処理システム1のブロック図である。画像処理システム1は、プロセッサ10と、メモリ20と、ビデオインタフェース30と、ディスプレイ40と、を備える。プロセッサ10は、所定の画像処理プログラムを起動すると、画像処理装置10aとして動作するモジュールである。画像処理装置10aは、画像処理装置10aを利用するハードウェア又はソフトウェアから与えられる設定情報に基づいて、2D画像から少なくとも2個の視差画像を生成する装置である。メモリ20は、2D画像を表現する第1画像データと、画像処理装置10aにより生成される少なくとも2つの視差画像を表現する第2画像データと、を含む様々なデータを格納可能な記憶媒体(例えばDRAM(Dynamic Random Access Memory))である。ビデオインタフェース30は、画像処理システム1に接続される外部装置から第1画像データを入力するとともに、外部装置に第2画像データを出力するモジュールである。ビデオインタフェース30は、例えば、符号化された第1画像データを復号化するデコーダと、第2画像データを符号化するエンコーダと、を備える。ディスプレイ40は、画像を表示するモジュール(例えば3D対応液晶ディスプレイ)である。なお、ディスプレイ40は、省略されてもよい。
図2は、第1画像データIMGの構造を示す図である。第1画像データIMGは、W軸及びH軸の第1座標空間に、W方向及びH方向に配列されたWm×Hm(Wm及びHmは自然数)個の第1画素PXを含むデータである。第1画素PX(w,h)は、座標(w,h)(1≦w≦Wm、1≦h≦Hm)上に位置する画素である。各第1画素PXは、例えばYUVフォーマットで定義される画素値(輝度成分Y、第1差分成分U、及び第2差分成分V)を含む。輝度成分Y(w,h)は、第1画素PX(w,h)の輝度を示す画素値である。第1差分成分U(w,h)は、第1画素PX(w,h)の青色成分の差分を示す画素値である。第2差分成分V(w,h)は、第1画素PX(w,h)の赤色成分の差分を示す画素値である。輝度成分Y、第1差分成分U、及び第2差分成分Vはそれぞれ、例えば0〜255の8ビット信号(256階調)で表される。なお、画像処理システム1は、その他のフォーマット(例えばRGBフォーマット)で定義される画素値を含む画像データを取り扱うこともできる。
(第1実施形態)
第1実施形態について説明する。第1実施形態は、対象点が任意の定点に近いほど定点の近くにサンプリング点を設定し、対象点が定点から遠いほど定点の遠くにサンプリング点を設定する画像処理装置の例である。
第1実施形態の画像処理装置の構成について説明する。図3は、第1実施形態の画像処理装置10aのブロック図である。画像処理装置10aは、定点設定部12と、サンプリング点設定部14と、視差画像生成部16と、を備える。
第1実施形態の画像処理装置の動作について説明する。図4は、第1実施形態の2D3D変換処理のフローチャートである。2D3D変換処理は、画像処理装置10aとして動作するプロセッサ10により実行される。
<S400> 定点設定部12は、第1座標空間から、所定のサンプリング分解能に基づいてXm×Ymのサンプリング座標空間CSを生成し、生成したサンプリング座標空間CSにn(nは2以上の整数)個の任意の定点Vを設定する(S400)。
図5は、第1実施形態の2D3D変換処理を説明するためのサンプリング座標空間CSの概略図である。図5は、座標(x,y)=(2,4)に定点V1(2,4)が設定され、座標(x,y)=(4,4)に定点V2(4,4)が設定されることを示している。サンプリング分解能は、所定の固定値であっても良いし、予め設定されたサンプリング分解能を示す情報により算出されても良い。例えば、定点Vは、2D画像を3D画像に変換したときに、3D画像で手前に位置すべきと推定される前方領域又は3D画像で後方に位置すべきと推定される後方領域に含まれるサンプリング座標空間CSの座標に設定される。例えば、定点V1は右目用の視差画像を生成するための点であり、定点V2は左目用の視差画像を生成するための点である。nは、生成すべき視差画像の数を示しており、予め設定された生成すべき視差画像の数を示す情報により決まる。
一例として、定点設定部12は、第1画像データIMGから2D画像の奥行きを推定し、推定結果をマッピングして奥行きマップを生成する。そして、定点設定部12は、生成した奥行きマップを参照して特定した前方領域に含まれる任意の点に定点Vを設定する。代替例として、定点設定部12は、画像の特性を解析し、解析結果に基づいて画像のシーン(例えばスポーツシーン又は風景シーン)を判定し、判定結果に基づいて特定した前方領域に含まれる任意の点に定点Vを設定しても良い。他の代替例として、定点設定部12は、予め設定された定点Vの座標を示す情報に基づいて定点Vを設定しても良い。
<S402> サンプリング点設定部14は、サンプリング座標空間の任意の座標に対象点Oを設定し、画像データIMGの画素成分に基づいて対象点Oに対応するサンプリング点Sを設定するサンプリング点設定処理を実行する(S402)。図6は、第1実施形態のサンプリング点設定処理のフローチャートである。図7は、第1実施形態のサンプリング設定を説明する図である。
<S600> 図7(A)に示すように、サンプリング点設定部14は、定点設定部12により生成されたサンプリング座標空間CSの任意の座標(xo,yo)に対象点O(xo,yo)を設定する(S600)。対象点O(xo,yo)は、サンプリング点Sの基準となるサンプリング座標空間CSの点である。
<S602> サンプリング点設定部14は、定点Vの画素成分と対象点Oの画素成分とに基づいて対象点Oに対応するサンプリング点Sを設定する。例えば、サンプリング点設定部14は、画素成分として、座標及び画素値の少なくとも1つを用いる。
画素成分として座標を用いる場合には、サンプリング点設定部14は、式1を用いて、定点V(xv,yv)と対象点O(xo,yo)との距離dを算出する。式1において、dxはサンプリング座標空間CSのX方向における対象点Oと定点Vとの距離であり、dyはサンプリング座標空間CSのY方向における対象点Oと定点Vとの距離である。
Figure 0005468526
次いで、図7(B)及び(C)に示すように、サンプリング点設定部14は、式2を用いて算出した距離dに基づいて、サンプリング点Sを設定するサンプリング座標(xs,ys)を算出する。そして、サンプリング点設定部14は、算出したサンプリング座標(xs,ys)上にサンプリング点S(xs,ys)を設定する。式2において、f(d)及びg(d)は定点Vと対象点Oとの距離dの変換関数である。f(d)及びg(d)は、例えば正の増加関数、正の減少関数、又は定数である。サンプリング座標空間CSにおいて、距離dが小さいほど定点Vとサンプリング点Sとの距離が小さくなるように、距離dが大きいほど定点Vとサンプリング点Sとの距離が大きくなるように、サンプリング点Sが設定される(図7(B)及び(C))。その結果、定点Vの周辺領域では画素密度が高くなり、定点Vから遠い領域では画素密度が低くなるような視差画像が生成されるように、サンプリング点Sが設定される。
Figure 0005468526
画素成分として画素値(例えば輝度成分Y)を用いる場合には、サンプリング点設定部14は、式3を用いて、対象点O(xo,yo)の輝度成分Yoの大きさに基づいて、サンプリング座標(xs,ys)を算出する。そして、サンプリング点設定部14は、算出したサンプリング座標(xs,ys)上にサンプリング点S(xs,ys)を設定する。式3において、h(Yo)及びi(Yo)は対象点Oの輝度成分Yoの変換関数である。h(Yo)及びi(Yo)は、例えば正の増加関数、正の減少関数、又は定数である。サンプリング座標空間CSにおいて、輝度成分Yoが小さいほど定点Vとサンプリング点Sとの距離が小さくなるように、輝度成分Yoが大きいほど定点Vとサンプリング点Sとの距離が大きくなるように、サンプリング点Sが設定される。その結果、輝度成分Yoの小さい領域では画素密度が高くなり、輝度成分Yoが大きい領域では画素密度が低くなるような視差画像が生成されるように、サンプリング点Sが設定される。
Figure 0005468526
なお、画素成分として用いられる画素値は、輝度成分Yに限らない。第1差分成分U、第2差分成分V、赤成分R、緑成分G、又は青成分Bが画素成分として用いられても良いし、その他の画素成分が用いられても良い。何れの場合にも、サンプリング座標空間CSにおいて、画素成分が小さいほど定点Vとサンプリング点Sとの距離が小さくなるように、画素成分が大きいほど定点Vとサンプリング点Sとの距離が大きくなるように、サンプリング点Sが設定される。換言すると、サンプリング点Sは、画素成分が小さいほど定点Vに対して疎になり、画素成分が大きいほど定点Vに対して密になるように、配置される。
<S604> サンプリング点設定部14は、k(kは2以上の整数)個のサンプリング点Sが設定されたか否かを判定する。kの値は、3D画像の解像度により決まる。例えば、kの値は、3D画像の解像度を示す解像度設定情報により算出される。設定されたサンプリング点の数がkに達していない場合には(S604−NO)、S600に戻る。設定されたサンプリング点の数がkに達した場合には(S604−YES)、サンプリング点設定処理を終了する。
<S404> サンプリング点設定部14は、サンプリング点設定処理(S402)の実行回数がnに達しているか否かを判定する。サンプリング点設定処理の実行回数がnに達していない場合には(S404−NO)、S402に戻る。サンプリング点設定処理の実行回数がnに達した場合には(S404−YES)、S406に進む。
<S406> 視差画像生成部16は、設定されたサンプリング点のサンプリング座標に配置すべき第2画素P´の画素値を算出する。そして、視差画像生成部16は、複数の第2画素P´を含む第2画像データIMG´を少なくとも2個生成する視差画像生成処理を実行する。図8は、第2画像データIMG´の構造を示す図である。第2画像データIMG´は、W軸及びH軸の第2座標空間に、W方向及びH方向に配列されたWm´×Hm´(Wm´及びHm´は自然数)個の第2画素PX´を含むデータである。第2画素PX´(w´,h´)は、座標(w´,h´)に位置する画素である。各第2画素PX´は、例えばYUVフォーマットで定義される画素値(輝度成分Y´、第1差分成分U´、及び第2差分成分V´)を含む。輝度成分Y´(w´,h´)は、第2画素PX´(w´,h´)の輝度を示す画素値である。第1差分成分U´(w´,h´)は、第2画素PX´(w´,h´)の青色成分の差分を示す画素値である。第2差分成分V´(w´,h´)は、第2画素PX´(w´,h´)の赤色成分の差分を示す画素値である。図9は、第1実施形態の視差画像生成処理のフローチャートである。
<S900> 視差画像生成部16は、解像度設定情報に基づいて、第2画像データIMG´の第2座標空間を生成する。図8に示すように、第2座標空間は、Wm´×Hm´(=k)個の座標を有する。第2座標空間のサイズは、サンプリング点設定部14により設定されたサンプリング点Sの数により決まる。例えば、解像度設定情報が等倍(すなわち、2D画像と同じ解像度の3D画像を生成する)の場合には、視差画像生成部16は、第1座標空間と同じサイズの第2座標空間を生成する。この場合には、Wm´=Wm且つHm´=Hmである。例えば、解像度設定情報が2倍(すなわち、2D画像の2倍の解像度の3D画像を生成する)の場合には、視差画像生成部16は、第1座標空間の2倍のサイズの第2座標空間を生成する。この場合には、Wm´=2Wm且つHm´=2Hmである。
<S902及びS904> 視差画像生成部16は、k個のサンプリング点のそれぞれに対応するサンプリング座標を第2座標空間に設定する(S902)。次いで、視差画像生成部16は、k個のサンプリング座標に配置すべき第2画素PX´の画素値(Y´,U´,V´)を算出する(S904)。すなわち、視差画像生成部16は、サンプリング座標の周囲に位置する複数の第1画像データIMGの画素値から第2画素の画素値を算出する。図10は、第1実施形態の第2画素の画素値算出の一例を示す図である。図10(A)に示すように、視差画像生成部16は、サンプリング座標(2.5,2.5)の周辺に位置する第1画像データIMGの4画素PX(2,2)〜PX(3,3)の画素値の平均値を、第2画素PX´(2.5,2.5)の画素値として算出する。または、図10(B)に示すように、視差画像生成部16は、サンプリング座標(2.5,2.5)の周辺に位置する第1画像データIMGの16画素PX(1,1)〜PX(4,4)の画素値を重み付け加算し、重み付け加算の結果を第2画素PX´(2.5,2.5)の画素値として算出しても良い。
<S906> 視差画像生成部16は、k個の第2画素PX´の画素値が算出されたか否かを判定する。k個の第2画素PX´の画素値が算出されていない場合には(S906−NO)、S904に戻る。k個の第2画素PX´の画素値が算出されている場合には(S906−YES)、視差画像生成処理を終了する。
<S408> 視差画像生成部16は、視差画像生成処理(S406)の実行回数がnに達しているか否かを判定する。視差画像生成処理(S406)の実行回数がnに達していない場合には(S408−NO)、S406に戻る。視差画像生成処理(S406)の実行回数がnに達した場合には(S408−YES)、2D3D変換処理が終了する。
第1実施形態によれば、画像処理装置10aは、定点設定部12と、サンプリング点設定部14と、視差画像生成部16と、を備える。定点設定部12は、複数の第1画素を含む第1画像データから、所定のサンプリング分解能により決まるサンプリング座標空間を生成し、生成したサンプリング座標空間に複数の任意の定点を設定する。サンプリング点設定部14は、サンプリング座標空間の任意の座標に対象点を設定し、定点と対象点との距離に基づいてサンプリング座標を算出し、算出したサンプリング座標に対象点に対応するサンプリング点を設定する。視差画像生成部16は、サンプリング座標に配置すべき第2画素の画素値を算出して、複数の第2画素を含む第2画像データを複数個生成する。その結果、少ない処理量で奥行きのある視差画像を表現する画像データが生成される。これにより、視差画像に基づいて再生される3D画像の品質を劣化させることなく、処理量の小さい2D3D変換が可能になる。例えば、背景が奥に配置され、物体が手前に配置された画像に関しては、背景と物体の全体に奥行きのある視差画像が得られる。
(第2実施形態)
第2実施形態について説明する。第2実施形態は、2D画像の画素値に基づいて画像の奥行き情報を生成し、生成した奥行き情報に基づいてサンプリング点の位置を補正する例である。なお、上述の実施形態と同様の説明は省略する。
第2実施形態の画像処理装置の構成について説明する。図11は、第2実施形態の画像処理装置10aのブロック図である。画像処理装置10aは、定点設定部12と、奥行き情報生成部13と、サンプリング点設定部14と、サンプリング点補正部15と、視差画像生成部16と、を備える。
第2実施形態の画像処理装置の動作について説明する。図12は、第2実施形態の2D3D変換処理のフローチャートである。2D3D変換処理は、画像処理装置10aとして動作するプロセッサ10により実行される。
<S1200及びS1201> S1200は、第1実施形態の定点設定(S400)と同様の処理を行う。次いで、奥行き情報生成部13は、第1画素PXの画素値の輝度成分Yに基づいて、奥行き情報を生成する奥行き情報生成処理を実行する(S1201)。奥行き情報は、第1画像データIMGの奥行きを示す情報である。図13は、第2実施形態の奥行き情報生成処理のフローチャートである。図14及び図15は、第2実施形態の奥行き生成処理を説明する図である。
<S1300> 奥行き情報生成部13は、第1画像データIMGのWm×Hm個の第1画素PX(w,h)の第1輝度成分Y(w,h)を抽出する。そして、奥行き情報生成部13は、抽出したWm×Hm個の第1輝度成分Y(w,h)を含む第1輝度分布(図14(A))を生成する。第1輝度分布は、第1座標空間に対応する。
<S1302> 奥行き情報生成部13は、第1輝度分布を縮小して、Wr×Hr(Wr及びHrは自然数)個の第2輝度成分Y(wr,hr)を含む第2輝度分布(図14(B))を生成する(S1302)。例えば、奥行き情報生成部13は、バイリニア法、バイキュービック法、又は平均加算法を用いて、第1輝度成分Y(w,h)から算出した第2輝度成分Yr(wr,hr)に対してM×N(M及びNは自然数)タップフィルタを適用して第2輝度分布の周波数を平滑化する。
<S1304> 奥行き情報生成部13は、第2輝度成分Yr(wr,hr)を所定の奥行き値Dr(wr,hr)に変換する。これにより、Wr×Hr個の第1奥行き成分Dr(wr,hr)を含む第1奥行き情報(図15(A))が生成される。
<S1306> 奥行き情報生成部13は、奥行き情報の階調を示す階調設定情報と第1奥行き成分Drの階調とを比較する。階調設定情報が示す階調と第1奥行き成分Dr(wr,hr)の階調とが等しい場合(S1306−NO)には、階調を変更せず、S1310に進む。階調設定情報が示す階調と第1奥行き成分Dr(wr,hr)の階調とが異なる場合(S1306−YES)には、階調を変更するために、S1308に進む。
<S1308> 奥行き情報生成部13は、第1奥行き情報のヒストグラムを整形(伸張、収縮、又は最適化)して、第1奥行き成分Dr(wr,hr)の階調を変更する(S1308)。これにより、所望の階調で表される奥行き情報が得られる。
<S1310> 奥行き情報生成部13は、第1奥行き情報を線形拡大して、Wm×Hmの第2奥行き成分D(w,h)を含む第2奥行き情報(図15(B))を生成する。これにより、第1画像データIMGと同じ解像度の座標空間を有する奥行き情報が得られる。該奥行き情報は、2D画像の奥行きを示す情報である。
<S1202及びS1204> S1202及びS1204は、第1実施形態と同様である。すなわち、サンプリング点設定部14は、画像データIMGの画素成分に基づいてサンプリング点Sを設定するサンプリング点設定処理を実行する(S1202)。サンプリング点設定処理の実行回数がnに達していない場合には(S1204−NO)、S1202に戻る。サンプリング点設定処理(S1204)の実行回数がnに達した場合には(S1204−YES)、S1205に進む。
<S1205> サンプリング点補正部15は、生成された第2奥行き情報に基づいて、サンプリング点Sのサンプリング座標を補正する。これにより、2D画像の奥行きを考慮したサンプリング点Sが得られる。具体的には、サンプリング点補正部15は、定点V(xv,yv)から遠ざかるように、サンプリング点Sの補正量ΔSを決定する。補正量ΔSは、X方向の補正量ΔSx及びY方向の補正量ΔSyを含む。補正量ΔSx及びΔSyは、それぞれ、サンプリング点S(xs,ys)を設定するときの対象点O(xo,yo)に対応する第1画素P(w,h)の第2奥行き成分D(w,h)に基づいて決定される。例えば、図16に示すように、奥行き情報に応じて決まる補正量ΔSx及びΔSyの分だけサンプリング点Sが補正される。その結果、サンプリング座標が、S(xs,ys)からS´(xs´,ys´)に変わる。
<S1206及びS1208> 視差画像生成処理(S1206)は、第1実施形態と同様に行われる。視差画像生成処理は、実行回数がnに達するまで繰り返し実行される(S1208−NO)。視差画像生成処理の実行回数がnに達した場合には(S1208−YES)、2D3D変換処理を終了する。
第2実施形態によれば、画像処理装置10aは、奥行き情報生成部13と、サンプリング点補正部15と、をさらに備える。奥行き情報生成部13は、第1画素の画素値の第1輝度成分に基づいて、第1画像データにより表現される第1画像の奥行きを示す奥行き情報を生成する。サンプリング点補正部15は、奥行き情報に基づいて、サンプリング座標を補正する。その結果、画素単位の奥行きのある視差画像を表現する画像データが生成される。これにより、第1実施形態に比べて、2D画像の奥行きがより正確に再現された高画質の3D画像を再生することができる。例えば、背景が奥に配置され、物体が手前に配置された画像に関しては、背景がより奥に配置され、物体がより手前に配置された視差画像が得られる。
本実施形態に係る画像処理装置10aの少なくとも一部は、ハードウェアで構成しても良いし、ソフトウェアで構成しても良い。ソフトウェアで構成する場合には、画像処理装置10aの少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させても良い。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でも良い。
また、本実施形態に係る画像処理装置10aの少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布しても良い。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布しても良い。
なお、本発明は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で構成要素を変形して具体化される。また、上述した実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明が形成可能である。例えば、上述した実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1 画像処理システム
10 プロセッサ
10a 画像処理装置
12 定点設定部
13 奥行き情報生成部
14 サンプリング点設定部
15 サンプリング点補正部
16 視差画像生成部
20 メモリ
30 ビデオインタフェース
40 ディスプレイ

Claims (5)

  1. 複数の第1画素を含む第1画像データから、所定のサンプリング分解能に基づいて生成したサンプリング座標空間に複数の任意の定点を設定する定点設定部と、
    前記サンプリング座標空間の任意の複数の座標にそれぞれ対象点を設定し、前記複数の定点の画素成分と前記複数の対象点の画素成分に基づいて算出したサンプリング座標に前記対象点に対応するサンプリング点を設定するサンプリング点設定部と、
    前記サンプリング座標に配置すべき複数の第2画素の画素値を算出して、前記複数の第2画素を含む第2画像データを複数個生成する視差画像生成部と、
    を備えることを特徴とする画像処理装置。
  2. 前記サンプリング点設定部は、前記定点と前記対象点との距離に基づいて前記サンプリング座標を算出する、請求項1に記載の画像処理装置。
  3. 前記サンプリング点設定部は、前記対象点の画素値に基づいて前記サンプリング座標を算出する、請求項1又は2に記載の画像処理装置。
  4. 前記第1画素の画素値に基づいて、前記第1画像データにより表現される第1画像の奥行きを示す奥行き情報を生成する奥行き情報生成部と、
    前記奥行き情報に基づいて、前記サンプリング座標を補正するサンプリング点補正部と、
    をさらに備える、請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 複数の第1画素を含む第1画像データから、所定のサンプリング分解能に基づいてサンプリング座標空間を生成し、
    前記サンプリング座標空間に複数の任意の定点を設定し、
    前記サンプリング座標空間の任意の複数の座標にそれぞれ対象点を設定し、
    前記複数の定点の画素成分と前記複数の対象点の画素成分に基づいてサンプリング座標を算出し、
    前記サンプリング座標に前記対象点に対応するサンプリング点を設定し、
    前記サンプリング座標に配置すべき複数の第2画素の画素値を算出して、前記複数の第2画素を含む第2画像データを複数個生成する、
    ことを特徴とする画像処理方法。
JP2010262732A 2010-11-25 2010-11-25 画像処理装置及び画像処理方法 Active JP5468526B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010262732A JP5468526B2 (ja) 2010-11-25 2010-11-25 画像処理装置及び画像処理方法
KR1020110088599A KR101269771B1 (ko) 2010-11-25 2011-09-01 화상 처리 장치, 화상 처리 방법 및 컴퓨터 판독가능한 기억 매체
US13/232,926 US20120133646A1 (en) 2010-11-25 2011-09-14 Image processing apparatus, method for having computer process image and computer readable medium
CN201110281205.8A CN102480623B (zh) 2010-11-25 2011-09-21 图像处理装置以及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010262732A JP5468526B2 (ja) 2010-11-25 2010-11-25 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2012114733A JP2012114733A (ja) 2012-06-14
JP5468526B2 true JP5468526B2 (ja) 2014-04-09

Family

ID=46093085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010262732A Active JP5468526B2 (ja) 2010-11-25 2010-11-25 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US20120133646A1 (ja)
JP (1) JP5468526B2 (ja)
KR (1) KR101269771B1 (ja)
CN (1) CN102480623B (ja)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
JP3960258B2 (ja) * 2003-04-28 2007-08-15 ソニー株式会社 信号処理装置および信号処理方法
US8488868B2 (en) * 2007-04-03 2013-07-16 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images
KR100918862B1 (ko) 2007-10-19 2009-09-28 광주과학기술원 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체
BRPI0822142A2 (pt) * 2008-01-29 2015-06-30 Thomson Licensing Método e sistema para converter dados de imagem em 2d para dados de imagem estereoscópica
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
KR20100040236A (ko) * 2008-10-09 2010-04-19 삼성전자주식회사 시각적 관심에 기반한 2차원 영상의 3차원 영상 변환기 및 변환 방법
CN101605271B (zh) * 2009-07-08 2010-10-13 无锡景象数字技术有限公司 一种基于单幅图像的2d转3d方法
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
KR101637491B1 (ko) * 2009-12-30 2016-07-08 삼성전자주식회사 3차원 영상 데이터 생성 방법 및 장치

Also Published As

Publication number Publication date
KR20120056757A (ko) 2012-06-04
CN102480623A (zh) 2012-05-30
CN102480623B (zh) 2014-12-10
JP2012114733A (ja) 2012-06-14
KR101269771B1 (ko) 2013-05-30
US20120133646A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
KR102560187B1 (ko) 3차원("3d") 장면의 2차원("2d") 캡처 이미지를 기반으로 하는 가상 현실 콘텐츠를 렌더링하기 위한 방법 및 시스템
KR102307819B1 (ko) 레거시 및 몰입형 렌더링 디바이스를 위한 몰입형 비디오를 포맷팅하는 방법, 장치 및 스트림
JP6147275B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP5180344B2 (ja) 高ダイナミックレンジ画像データを復号化するための装置及び方法、表示用画像を処理可能なビューア、ならびに表示装置
US20180189980A1 (en) Method and System for Providing Virtual Reality (VR) Video Transcoding and Broadcasting
JP5556394B2 (ja) 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
CN117768653A (zh) 编码和解码体积视频的方法和设备
KR20170017700A (ko) 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
US11908107B2 (en) Method and apparatus for presenting image for virtual reality device, device and non-transitory computer-readable storage medium
JP2005526302A (ja) シーンの焦点を変える方法および装置
JP2003284093A (ja) 立体画像処理方法および装置
KR20160072165A (ko) 3d 뷰잉을 위한 깊이 맵의 리매핑
US20190266802A1 (en) Display of Visual Data with a Virtual Reality Headset
TW201803358A (zh) 將沈浸式視訊格式化用於傳統及沈浸式顯像元件之方法、裝置及串流
JP2020005202A (ja) 映像処理装置
CN111324200A (zh) 一种虚拟现实的显示方法及装置、计算机存储介质
JP2003284095A (ja) 立体画像処理方法および装置
JP5468526B2 (ja) 画像処理装置及び画像処理方法
US20210142442A1 (en) Method and device for processing 360-degree image
JP2013090272A (ja) 映像処理装置、映像処理方法および映像表示装置
WO2018219004A1 (zh) 全息影像的成像方法和数据生成方法及装置
KR20200095408A (ko) 이머시브 비디오 포맷팅 방법 및 장치
CN104519337A (zh) 包装彩色图框及原始景深图框的方法、装置及系统
Liu et al. 3D video rendering adaptation: a survey
TW201208344A (en) System and method of enhancing depth of a 3D image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140129

R151 Written notification of patent or utility model registration

Ref document number: 5468526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151