JP5887515B2 - 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置 - Google Patents

奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置 Download PDF

Info

Publication number
JP5887515B2
JP5887515B2 JP2012512147A JP2012512147A JP5887515B2 JP 5887515 B2 JP5887515 B2 JP 5887515B2 JP 2012512147 A JP2012512147 A JP 2012512147A JP 2012512147 A JP2012512147 A JP 2012512147A JP 5887515 B2 JP5887515 B2 JP 5887515B2
Authority
JP
Japan
Prior art keywords
area
person
unit
region
temporary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012512147A
Other languages
English (en)
Other versions
JPWO2012063480A1 (ja
Inventor
整 山田
整 山田
トゥマナンタワット タナファット
トゥマナンタワット タナファット
ラサン ポンサク
ラサン ポンサク
メイ シェン シェン
メイ シェン シェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2012512147A priority Critical patent/JP5887515B2/ja
Publication of JPWO2012063480A1 publication Critical patent/JPWO2012063480A1/ja
Application granted granted Critical
Publication of JP5887515B2 publication Critical patent/JP5887515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置に関し、特に、2次元画像から奥行きマップを生成するための奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置に関する。
2次元画像(2D画像)中の奥行き情報(以下、奥行きマップと記載)を生成し、生成した奥行きマップを用いて、2D画像に対応する立体対(左眼画像および右眼画像)を合成することで、2D画像を3次元画像(3D画像)に変換する方法が知られている。
例えば、特許文献1には、視差情報を含む2D画像に基づき3D画像を作成する方法が開示されている。具体的には、特許文献2では、2D画像が入力され、入力された2D画像から人物の顔の画像を抽出して顔画像を取得し、取得した顔画像に視差情報を付与することで3D画像を作成する。そして、作成した3D画像をもバイススクリーン等に表示するために出力する。
また、例えば特許文献2には、基本構造モデルおよび非3D画像から奥行きマップを生成する方法が開示されている。具体的には、特許文献2に開示される方法では、シーンの奥行き構造の推定のために、まず、そのシーンの非3D画像(2D画像)における所定領域の高周波成分または画素値の輝度信号のアクティビティの統計量を算出する。次に、算出された統計値および各領域におけるその構成比に基づいて、その非3D画像に対して3種類の基本奥行きマップモデルを生成する。最後に、非3D画像のR信号(RGB色空間におけるR成分)を、生成した基本奥行きモデルに重畳することで、その非3D画像に対する奥行きマップを生成する。このように、特許文献1では、非3D画像から奥行き情報を推定する。
また、例えば特許文献3には、サンプル画像に基づいて生成した奥行きマップを用いて2D画像から3D画像へ変換する方法が開示されている。特許文献3に開示される方法では、まず、背景画像として奥行き情報を含むサンプル画像が記憶されているデータベースを用いて、入力された2D画像の背景画像をマッチングさせる。次に、マッチングした背景画像に基づいて、前景画像を抽出する。また、グラフベースのセグメンテーションを用いた色分割方法または比較技術を用いて2D画像の前景画像を検出する。このように、前景画像および背景画像を抽出することにより、前景画像と背景画像と相対的な奥行きマップを生成する。このように、特許文献3では、サンプル画像に基づき奥行き情報を生成する。
また、動き情報を用いて運動視差を得るために奥行きマップを生成する方法として、Shape From Motion(SFM)法が知られている。SFM法では、移動体の視差による3次元空間(3D空間)における対象物について、ビデオフレームおよびモデル全体にわたって対象物の動きを推定する。なお、SFM法では、カメラに近い対象物が、カメラから遠い対象物よりも大きな視差を有するとして対象物の動きを推定する。
特開2002−194285号公報 米国特許第7262767号明細書 米国特許出願公開第20100014781号明細書
しかしながら、上記従来の方法で奥行きマップを生成する場合、次に説明するように、3Dポップアウト効果が不十分であり、視聴者に違和感を与えてしまうという課題がある。
まず、特許文献1に開示される方法では、顔を抽出し、抽出した顔に対して奥行き値を付与するだけであり、人物の体全体を3Dポップアップしたことにならないので、3Dポップアップ効果は不十分である。つまり、視聴者に違和感を与えてしまう。特に、大きなスクリーンでの表示には違和感が大きく3Dポップアップ効果は不十分である。
次に、特許文献2に開示される方法では、不自然で不快な(違和感のある)3D画像が生成され、特に境界の周辺においてアーチファクトが発生するという課題がある。これは、R信号追加処理および基本シーン構造のモデルに起因するものである。
次に、特許文献3に開示される方法では、人物などの対象物は、前景画像で識別されるが、時系列上の画像(映像)では、必ずしも対象物は前景画像に識別されるわけではないので、フレーム間でのフリッカーが発生してしまうという課題がある。また、このフリッカーの発生を回避するためには、奥行きマップの時系列上での平滑化方法が必要だが、特許文献3では、その技術の開示も示唆もない。
最後に、他の既知方法であるSFM法では、静止画像または相対的に動きがない部分では3Dの対象物を作成することができないという課題がある。
このように、上記従来の方法で生成した奥行きマップを用いて、2D画像を3D画像に変換する場合、3Dポップアウト効果が不十分であり、視聴者に違和感を与えてしまうという課題がある。
本発明は、上述の事情を鑑みてなされたものであり、視聴者に違和感を与えない3Dポップアウトを表示するための奥行きマップを生成する奥行き情報生成装置および奥行き情報生成方法を提供することを目的とする。
上記目的を達成するために、本発明の一形態に係る奥行き情報生成装置は、2次元画像から、人物の顔を検出し、検出した顔に基づいて、当該2次元画像の領域内の前記人物を示す人物領域を抽出する領域抽出部と、抽出された前記人物領域に、当該人物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、前記人物領域と当該人物領域以外の領域とを分離するための奥行きマップを生成する生成部とを備える。
本構成によれば、顔検出のみを用いて人物領域を得ることができる。それにより、視聴者に違和感を与えない3Dポップアウトを表示するための奥行きマップを生成することができる奥行き情報生成装置を実現することができる。
また、前記領域抽出部は、前記2次元画像における人物の顔を検出する検出部と、検出された前記人物の顔の位置に基づいて、前記人物の顔の領域を含む人物モデルの領域である仮人物領域を設定する仮領域設定部と、前記仮人物領域の特徴と当該仮人物領域に隣接する画素の特徴とに基づき、前記人物領域を決定する人物領域決定部とを備えるとしてもよい。
また、前記人物領域決定部は、前記仮人物領域内の特徴と当該仮人物領域に隣接する画素の特徴を抽出する抽出特徴抽出部と、前記特徴抽出部により抽出された前記仮人物領域の特徴と当該仮人物領域に隣接する画素の特徴とに基づいて、前記仮人物領域の範囲を調整する領域調整部と、前記領域調整部により調整された仮人物領域範囲を前記人物領域と決定する領域決定部とを備えるとしてもよい。
また、前記特徴抽出部は、前記仮人物領域の特徴として、前記仮人物領域内のカラーヒストグラムを算出するヒストグラム算出部と、当該仮人物領域に隣接する画素を選択する画素選択部と、当該仮人物領域に隣接する画素の特徴として、前記画素選択部により選択された画素の色情報を算出する色情報算出部とを備えるとしてもよい。
また、前記領域調整部は、前記色情報算出部より算出された画素の色情報と前記ヒストグラム算出部により算出されたカラーヒストグラムとを比較する比較部と、当該画素の色が前記ヒストグラム算出部により算出されたカラーヒストグラムに含まれる色である場合、当該画素が前記人物領域に含まれるとして、前記仮人物領域の範囲を拡大するよう前記仮人物領域を更新し、当該画素の色が、前記カラーヒストグラムに含まれる色でない場合には、当該画素は前記人物領域に含まれないとして、前記仮人物領域を更新しない領域範囲更新部とを備えるとしてもよい。
また、前記生成部は、前記検出部により検出された人物の顔における、前記2次元画像に対するサイズおよび位置に基づいて、前記領域抽出部により抽出された人物領域の第1奥行き値を算出し、算出した第1奥行き値を当該人物領域に付与する付与部と、前記仮領域設定部により設定された仮人物領域に与えられていた第2奥行き値を第1奥行き値に合成することにより、当該人物領域と当該人物領域以外の領域とを分離する奥行きマップを生成取得する合成部とを備えるとしてもよい。
また、さらに、前記2次元画像の情報を用いて、前記生成部により生成された奥行きマップにおける前記人物領域のエッジの平滑化を行う平滑化処理部を備えるとしてもよい。
また、前記平滑化処理部は、前記2次元画像のピクセル強度に基づき算出された重み付け関数に基づいて、前記2次元画像と、前記生成部により生成された奥行きマップとを用いて、前記奥行きマップを空間的にフィルタリングすることにより、前記奥行きマップにおける前記人物領域のエッジを平滑化するとしてもよい。
また、前記平滑化処理部は、前記2次元画像のうち対象フレームおよび先行フレームの画像データのピクセル強度とピクセル強度の差分とに基づき算出された重み付け関数に基づいて、前記2次元画像のうち対象フレームおよび先行フレームと、前記生成部により生成された奥行きマップとを用いて、前記奥行きマップを空間的かつ時間的にフィルタリングすることにより、前記奥行きマップにおける前記人物領域のエッジを平滑化するとしてもよい。
また、上記目的を達成するために、本発明の一形態に係るステレオ画像変換装置は、上記態様の奥行き情報生成装置と、前記奥行き情報生成装置により生成された奥行きマップを用いて、前記2次元画像を、前記2次元画像に対応するステレオ画像に変換するレンダリング部とを備える。
また、上記目的を達成するために、本発明の一形態に係る奥行き情報生成装置は、2次元画像から、注目対象物のうち統計的に検出可能な領域である対象領域を検出し、検出した対象領域に基づいて、当該2次元画像の領域内の注目対象物領域を抽出する領域抽出部と、抽出された前記注目対象物領域に、当該注目対象物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、人物領域と当該人物領域以外の領域とを分離するための奥行きマップを生成する生成部とを備える。
また、前記領域抽出部は、前記2次元画像における対象領域を検出する検出部と、前記検出された対象領域の位置に基づいて、検出された前記対象領域の領域を含む注目対象物モデルの領域である仮注目対象物領域を設定する仮領域設定部と、前記仮注目対象物領域の特徴と当該仮注目対象物領域に隣接する画素の特徴とに基づき、前記仮注目対象物領域範囲を更新することで、注目対象物領域を決定する注目対象物領域決定部とを備えるとしてもよい。
また、前記注目対象物は、猫、犬、鳥および食べ物を含むコンピュータで検出可能な物であるとしてもよい。
また、さらに、前記2次元画像の情報を用いて、前記生成部により生成された奥行きマップにおける前記注目対象物領域のエッジの平滑化を行う平滑化処理部を備えるとしてもよい。
また、さらに、ユーザにより指定データを受信する受信部を備え、前記指定データは、ユーザにより指定された注目対象領域を示しており、前記領域抽出部は、前記指定データに基づいて、指定された注目対象物領域から前記対象領域を検出するとしてもよい。
また、前記検出部は、前記指定データに基づいて、前記2次元画像における対象領域を検出して対象領域の位置を識別するとしてもよい。
また、前記生成部は、前記検出部により検出された対象領域における、前記2次元画像に対するサイズおよび位置と、入力される前記指定データとに基づいて、前記領域抽出部により抽出された注目対象物領域の第1奥行き値を算出し、算出した第1奥行き値を当該注目対象物領域に付与する付与部と、前記仮領域設定部により設定された仮注目対象物領域に与えられていた第2奥行き値を第1奥行き値に合成することにより、当該注目対象物領域と当該注目対象物領域以外の領域とを分離する奥行きマップを生成する合成部とを備えるとしてもよい。
また、上記目的を達成するために、本発明の一形態に係る奥行き情報生成方法は、2次元画像から、人物の顔を検出し、検出した顔に基づいて、当該2次元画像の領域内の人物を示す人物領域を抽出する領域抽出ステップと、抽出された前記人物領域に、当該人物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、人物領域と当該人物領域以外の領域とを分離するための奥行きマップを生成する生成ステップとを含む。
本発明によれば、視聴者に違和感を与えない3Dポップアウトを表示するための奥行きマップを生成することができる奥行き情報生成装置、奥行き情報生成方法、ステレオ画像変換装置を実現することができる。また、本発明によれば、効率よく、低メモリかつリアルタイム動作が可能であり、高精度に物体境界を自動的に分別可能であるため、様々なシーンにおいて自然で快適な3Dポップアウト効果が得られる。
また、本発明の別の効果は、顔検出のみを用いて人物領域を得ることである。したがって、本発明は、特許文献3において開示された方法よりもメモリが少なくて済む。さらに、本発明はタイムラグが少なく、リアルタイムの用途に用いることができる。
したがって、本発明は先行技術である特許文献1および他の既知の方法を超える効果を有する。また、本発明は、顔検出のみを用いて人物領域を得ることである。したがって、本発明は、特許文献3において開示された方法よりもメモリが少なくて済む。さらに、本発明はタイムラグが少なく、リアルタイムの用途に用いることができる。
図1は、本発明の実施の形態に係る奥行き情報生成装置の機能ブロック図である。 図2は、本発明の実施の形態に係る奥行き情報生成装置の処理概要を説明するためのフローチャートである。 図3は、本発明の実施の形態に係る領域抽出部の詳細構成を示す図である。 図4は、本発明の実施の形態に係る人物領域決定部の詳細構成を示す図である。 図5は、本発明の実施の形態に係る領域抽出部の処理を説明するためのフローチャートである。 図6Aは、本発明の実施の形態に係る領域抽出部により2次元画像から仮人物領域が抽出されるまでの処理の様子を説明するための図である。 図6Bは、本発明の実施の形態に係る領域抽出部により2次元画像から仮人物領域が抽出されるまでの処理の様子を説明するための図である。 図6Cは、本発明の実施の形態に係る領域抽出部により2次元画像から仮人物領域が抽出されるまでの処理の様子を説明するための図である。 図7は、本発明の実施の形態に係る人物領域決定部の処理を説明するためのフローチャートである。 図8は、本発明の実施の形態に係る人物領域決定部により人物領域が決定されたときの処理の様子を説明するための図である。 図9Aは、顔検出できなかった2次元画像の人物領域が決定される処理の様子を説明するための図である。 図9Bは、顔検出できなかった2次元画像の人物領域が決定される処理の様子を説明するための図である。 図9Cは、顔検出できなかった2次元画像の人物領域が決定される処理の様子を説明するための図である。 図9Dは、顔検出できなかった2次元画像の人物領域が決定される処理の様子を説明するための図である。 図9Eは、顔検出できなかった2次元画像の人物領域が決定される処理の様子を説明するための図である。 図9Fは、顔検出できなかった2次元画像の人物領域が決定される処理の様子を説明するための図である。 図10は、本発明の実施の形態に係る奥行きマップ生成部の詳細構成を示す図である。 図11は、本発明の実施の形態に係る奥行きマップ生成部の処理を説明するためのフローチャートである。 図12Aは、本発明の実施の形態に係る奥行きマップ生成部により生成された仮の奥行きマップの例を示す図である。 図12Bは、本発明の実施の形態に係る奥行きマップ生成部により生成された仮の奥行きマップの例を示す図である。 図13は、本発明の実施の形態に係る奥行き情報生成装置に映像が入力される場合の平滑化処理部の処理を説明するための図である。 図14は、本発明の実施の形態に係る奥行き情報生成装置に2次元画像が入力される場合の平滑化処理部の処理を説明するための図である。 図15は、本発明の実施の形態に係るフィルタリングの動作を示す図である。 図16は、本発明の実施の形態に係る平滑化処理部の処理後の奥行きマップの様子を示す図である。 図17は、本発明の実施の形態に係る3次元映像生成装置の機能ブロック図である。 図18は、本発明の実施の形態に係る3次元映像生成装置の機能ブロック図の別の例である。 図19は、本発明の実施の形態の変形例2に係る奥行き情報生成装置の処理概要を説明するためのフローチャートである。 図20は、本発明の実施の形態の変形例2に係る奥行き情報生成装置の処理概要を説明するためのフローチャートである。 図21は、本発明の実施の形態の変形例2に係る奥行き情報生成装置の処理概要を説明するためのフローチャートである。 図22は、2次元画像の人物領域および背景について、色情報に基づいて異なる層に分割されるよう抽出する処理の例を示す図である。 図23は、本発明の実施の形態の変形例4に係る3D画像表示制御装置の機能ブロック図を示す図である。 図24は、人物領域の時間的なマッチングを行わない場合にフリッカーが生じること示す図である。 図25は、本発明の奥行き情報生成方法の処理の流れを示す図である。
以下に、本発明の実施の形態について、図面を参照しながら説明する。なお、各図は、模式図であり、必ずしも厳密に図示したものではない。
また、以下で説明する実施の形態では、本発明の好ましい一具体例が示されている。実施の形態で示される数値、形状、構成要素、構成要素の配置および接続形態などは、一例であり、本発明を限定する主旨ではない。本発明は、請求の範囲によって限定される。よって、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素は、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成する要素として説明される。
図1は、本発明の実施の形態に係る奥行き情報生成装置の機能ブロック図である。
図1に示す奥行き情報生成装置1は、本発明の奥行き情報生成装置に相当し、入力された2次元画像から、奥行きマップを生成する。ここで、奥行きマップとは、2D画像上の、検出対象の対象物(検出対象物)と背景とを分離するための奥行き情報が2D画像にマッピングされた奥行き情報である。また、2次元画像は、2次元画像単体でもよいし、映像を構成する連続する2次元画像であってもよい。
奥行き情報生成装置1は、領域抽出部10と、奥行きマップ生成部11と、平滑化処理部12とを備える。また、奥行き情報生成装置1は、その外部に設置されたメモリ13を用いる。
領域抽出部10は、入力された2次元画像(2D)画像から、人物の顔を検出し、検出した顔に基づいて、2次元画像の領域内の人物を示す人物領域を抽出する。
具体的には、領域抽出部10では、既知の検出アルゴリズムを用いて注目対象物のうち統計的に検出可能な領域である対象領域を検出することによって、2次元画像の領域内の注目対象物領域を抽出する。ここで、注目対象物は、典型的には人物であるがそれに限らない。猫、犬、鳥および食べ物などコンピュータで検出可能な物であればよい。以下、本実施の形態では、注目対象物が人物であり、対象領域が顔である場合について説明する。すなわち、本実施の形態では、領域抽出部10は、顔検出アルゴリズムを用いて、2次元画像内に存在する人物の顔領域を検出する。領域抽出部10は、検出した顔領域のサイズに基づき、その顔領域を含む人物の領域を抽出する。
奥行きマップ生成部11は、抽出された人物領域に、人物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、人物領域と当該人物領域以外の領域とを分離するための奥行きマップを生成する。
具体的には、奥行きマップ生成部11では、まず、領域抽出部10で抽出された人物領域に対する奥行き値を付与することで、その人物領域に対する仮の奥行きマップを生成する。そして、検出された顔に基づく人物領域(仮人物領域)として最初に設定された仮人物領域に対する奥行き値を、仮の奥行きマップに合成することで、その人物領域に対する奥行きマップを生成する。これによって、人物領域の奥行きマップに人物領域以外の領域(背景)とは異なる値が付与されることになり、人物領域と、背景とが分離される。なお、人物領域の奥行き値は、背景よりカメラに近く設定される。例えば、奥行きマップは、8ビットのグレースケール画像により生成されるとすると、奥行きを表す値(奥行き値の範囲)は、0〜255であり、255は最もカメラに近い場合に付与され、0はカメラ(または背景)から遠い場合に付与される。
平滑化処理部12は、少なくとも2次元画像の情報を用いて、奥行きマップ生成部11により生成された奥行きマップにおける人物領域のエッジの平滑化を行う。
具体的には、平滑化処理部12は、奥行き情報生成装置1に2次元画像が入力される場合には、2次元画像のピクセル強度に基づき算出された重み付け関数に基づいて、2次元画像と、奥行きマップ生成部11により生成された奥行きマップとを用いて、その奥行きマップを空間的にフィルタリングする。このようにして、平滑化処理部12は、奥行きマップ生成部11により生成された奥行きマップにおける人物領域のエッジを平滑化する。
また、平滑化処理部12は、奥行き情報生成装置1に映像が入力される場合には、算出された重み付け関数に基づいて、2次元画像のうち対象フレームおよび先行フレームと、奥行きマップ生成部11により生成された奥行きマップとを用いて、その奥行きマップを空間的かつ時間的にフィルタリングする。ここで、重み付け関数は、複数の2次元画像のうち対象フレームおよび先行フレームの画像データのピクセル強度とピクセル強度の差分とに基づき算出される。このようにして、平滑化処理部12は、その奥行きマップにおける人物領域のエッジを平滑化する。
言い換えると、平滑化処理部12は、対象フレームおよび先行フレームの2次元画像を用いて3次元画像グリッドを作成し、この処理においては、対象フレームと先行フレームとの2次元画像から抽出された隣接層情報(人物領域以外の領域)および対象物層情報(人物領域)に基づいて、奥行きマップ生成部11により生成された奥行きマップデータの各画素を平滑化する。
以上のように、平滑化処理部12は、人物領域と人物領域以外の領域(背景)に対して生成された奥行きマップに対して、平滑化処理を行う。なぜなら、奥行きマップ生成部11により生成された奥行きマップは、100%の精度が保証されておらず、ほぼすべての場合において人物の境界に何らかの不備が生じるからである。例えば、奥行きマップ生成部11により生成された奥行きマップから3次元画像を平滑化せずに生成した場合、人物に網目があるように見えたり、不均一に見えたりする。これは、奥行きマップ生成部11により生成された奥行きマップが精度の高い奥行きマップではないということを意味する。
メモリ13は、顔の特徴パターンおよび時間的な画像情報など、奥行き情報生成装置1が使用するデータが格納されている。メモリ13は、例えば、フラッシュベースのメモリカード、ハードドライブで構成されている。
以上のように、奥行き情報生成装置1は構成される。この奥行き情報生成装置1は、2次元画像から、人物領域の奥行き情報を抽出して、人物領域と人物領域以外の奥行きマップを生成する。
次に、以上のように構成される奥行き情報生成装置1が奥行きマップを生成するまでの処理の概要について説明する。
図2は、本発明の実施の形態に係る奥行き情報生成装置1の処理概要を説明するためのフローチャートである。
まず、奥行き情報生成装置1に画像または映像が入力される(S1)。
次に、S2において、奥行き情報生成装置1が奥行きマップを生成する。具体的には、奥行き情報生成装置1は、2次元画像から、人物の顔を検出し、検出した顔に基づいて、その2次元画像の領域内の人物を示す人物領域を抽出する(S21)。続いて、奥行き情報生成装置1は、抽出された人物領域に、人物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、人物領域と人物領域以外の領域とを分離するための奥行きマップを生成する(S22)。さらに、2次元画像の情報を用いて、生成された奥行きマップにおける人物領域のエッジの平滑化を行う(S23)。このようにして、奥行き情報生成装置1は、奥行きマップを生成する。
最後に、奥行き情報生成装置1は、生成した奥行きマップを出力する(S23)。
次に、奥行き情報生成装置1の各構成要素の詳細とその処理の流れについて説明する。
まず、領域抽出部10の詳細構成について説明する。
図3は、本発明の実施の形態に係る領域抽出部10の詳細構成を示す図である。図4は、本発明の実施の形態に係る人物領域決定部103の詳細構成を示す図である。
図3に示すように、領域抽出部10は、顔検出部101と、仮領域設定部102と、人物領域決定部103とを備える。
ここで、メモリ131およびメモリ132は、メモリ13の一部である。メモリ131は、顔検出部101および仮領域設定部102が用いるデータが格納されており、例えば顔特徴パターンデータや人物モデルの領域データ(プレマスクともいう)などのデータが格納されている。メモリ132は、人物領域決定部103が用いるデータが格納されており、例えばプレマスクのカラーヒストグラムデータが格納されている。
顔検出部101は、2次元画像における人物の顔を検出する。具体的には、顔検出部101は、顔検出アルゴリズムにより、メモリ131に格納されている顔特徴パターンを含む顔画像データに基づいて、2次元画像における顔を検出する。
仮領域設定部102は、顔検出部101に検出された人物の顔の位置に基づいて、その人物の顔の領域を含む人物モデルの領域である仮人物領域を設定する。具体的には、仮領域設定部102は、顔検出部101に検出された顔の2次元画像に対するサイズおよび位置に基づき、メモリ131に格納されているプレマスクを選択して、検出された顔を含めるようにそのプレマスクを適用する。つまり、プレマスクのサイズは、顔のサイズに応じて適応的に変更された上で決定される。このようにして、仮領域設定部102は、仮人物領域を設定する。
人物領域決定部103は、図3に示すように、特徴抽出部104と、領域調整部105と、領域決定部106とを備える。人物領域決定部103は、仮人物領域の特徴と当該仮人物領域に隣接する画素の特徴とに基づき、人物領域を決定する。
特徴抽出部104は、仮人物領域内の特徴とその仮人物領域に隣接する画素の特徴を抽出する。
より具体的には、特徴抽出部104は、図4に示すように、ヒストグラム算出部1041と、画素選択部1042と、色情報算出部1043とを備える。ヒストグラム算出部1041は、仮人物領域の特徴として、仮人物領域内のカラーヒストグラムを算出する。ヒストグラム算出部1041は、算出した仮人物領域内のカラーヒストグラムをメモリ132に格納する。画素選択部1042は、当該仮人物領域に隣接する画素を選択する。色情報算出部1043は、その仮人物領域に隣接する画素の特徴として、画素選択部1042により選択された画素の色情報(色相および輝度)を算出する。
領域調整部105は、特徴抽出部104により抽出された仮人物領域の特徴とその仮人物領域に隣接する画素の特徴とに基づいて、仮人物領域の範囲を調整する。そして、領域調整部105は、調整された仮人物領域の範囲を人物領域として決定し、出力する。
より具体的には、領域調整部105は、図4に示すように、比較部1051と、領域範囲更新部1052とを備える。
比較部1051は、色情報算出部1043より算出された画素の色情報とヒストグラム算出部1041により算出されたカラーヒストグラムとを比較する。領域範囲更新部1052は、当該画素の色がヒストグラム算出部1041により算出されたカラーヒストグラムに含まれる色である場合、当該画素が人物領域に含まれるとして、仮人物領域の範囲を、当該画素を含むように仮人物領域を更新する。一方、領域範囲更新部1052は、当該画素の色が、ヒストグラム算出部1041により算出されたカラーヒストグラムに含まれる色でない場合には、当該画素は人物領域に含まれないとして、仮人物領域を更新しない。
領域決定部106は、領域範囲更新部1052による仮人物領域の更新が終了した場合には、領域調整部105により調整された仮人物領域範囲を人物領域と決定する。
以上のように、領域抽出部10は構成される。
続いて、領域抽出部10の処理について説明する。
図5は、本発明の実施の形態に係る領域抽出部10の処理を説明するためのフローチャートである。図6A〜図6Cは、領域抽出部10により2次元画像から仮人物領域が抽出されるまでの処理の様子を説明するための図である。
まず、奥行き情報生成装置1に、画像または映像が入力される(S1)。例えば、奥行き情報生成装置1には、映像を構成する2次元画像として図6Aに示すフレーム310が入力される。
次に、顔検出部101は、2次元画像における人物の顔を検出し(S210)、顔検出部101は、2次元画像における人物の顔の検出が成功したか否かを確認する(S211)。ここで、例えば、顔検出部101は、顔検出が成功した場合には、図6Bに示すように、フレーム310の人物の顔315を検出する。
仮領域設定部102は、顔検出部101の顔検出が成功した場合(S211のYes)には、顔検出部101により検出された人物の顔の位置に基づいて、その人物の顔の領域を含む人物モデルの領域である仮人物領域を設定する(S212)。ここで、例えば、仮領域設定部102は、図6Cに示すように、顔検出部101により検出された人物の顔の位置に基づいて、仮人物領域320を設定する。なお、仮人物領域320は、人物には、頭、首、体、および脚が含まれるという想定のもとで、顔の大きさに基づいて作成されている。また、上述したように、仮人物領域320のサイズは、検出した顔の大きさに基づいて変更(拡大または縮小)される。
次に、S213では、人物領域決定部103は、仮人物領域の特徴と当該仮人物領域に隣接する画素の特徴とに基づき、人物領域を決定する。
具体的には、まず、特徴抽出部104は、仮人物領域内の特徴とその仮人物領域に隣接する画素の特徴を抽出する(S214)。ここで、特徴抽出部104は、仮領域設定部102により設定された最初の仮人物領域(プレマスク)に対して抽出した特徴をメモリ132に保存する。なお、メモリ132に保存されるデータ(プレマスクの特徴データ)は、プレマスクのカラーヒストグラムである。詳細は後述するためここでの説明は省略する。
続いて、領域調整部105は、特徴抽出部104により抽出された仮人物領域の特徴とその仮人物領域に隣接する画素の特徴とに基づいて、仮人物領域の範囲を調整する(S215)。領域決定部106は、仮人物領域の範囲の調整(仮人物領域の更新)が終了した場合には、その調整後(更新後)の仮人物領域範囲を人物領域と決定する。ここで、特徴抽出部104は、領域決定部106により決定した人物領域に対して抽出した特徴をメモリ133に保存する。なお、メモリ133に保存されるデータは、決定された人物領域のカラーヒストグラムである。詳細は後述するためここでの説明は省略する。
そして、領域調整部105は、決定された人物領域を出力する(S216)。
なお、奥行き情報生成装置1は、S1において画像(2次元画像)が入力され、S211において、顔検出部101での顔検出が失敗した場合(S211のNo)、S217およびS218の処理を行わず、処理を終了する。
一方、奥行き情報生成装置1は、S1において映像が入力され、S211において、顔検出部101での顔検出が失敗した場合(S211のNo)には、S217の処理を行う。すなわち、S217においては、奥行き情報生成装置1は、先行フレーム(2次元画像)で検出された顔位置に基づき、人物の特徴を抽出する。ここで、先行フレームとは、S1で入力される映像を構成する時間的に連続した2次元画像(フレーム)において、S211の顔検出処理の対象となった対象フレームの時間的に1つ前のフレームを意味する。
より具体的には、S217において、仮領域設定部102は、顔検出部101が先行フレームで顔検出を行った人物の顔の位置に基づいて、その人物の顔の領域を含む人物モデルの領域である仮人物領域を設定する。次いで、特徴抽出部104は、その仮人物領域内の特徴を抽出する。
次に、S218において、領域調整部105は、メモリ133に保存されている先行フレームの人物領域の特徴(カラーヒストグラム)と、S218で抽出された仮人物領域内の特徴と比較する。領域調整部105は、S218で抽出された仮人物領域内の特徴が先行フレームの特徴と類似する場合には、S215に進む。すなわち、奥行き情報生成装置1は、S215に進み、S214とS215の処理を繰り返して、人物領域を決定する。一方、領域調整部105は、S218で抽出された仮人物領域内の特徴が先行フレームの特徴と類似していないと判断する場合には、S216に進む。
このように、映像(動画)の場合、常に顔検出できるとは限らないので、S217およびS218の処理のように、人物領域の追跡(人物領域の時間的なマッチング)を行うことでその後生成される3D映像にフリッカーが生じないように手当する。
以上のように領域抽出部10は処理を行う。
ここで、領域抽出部10における人物領域決定部103の処理(S213)の詳細について説明する。
図7は、本発明の実施の形態に係る人物領域決定部103の処理を説明するためのフローチャートである。図8は、人物領域決定部103により人物領域が決定されたときの処理の様子を説明するための図である。
S214において、まず、ヒストグラム算出部1041は、仮人物領域の特徴として、仮人物領域内のカラーヒストグラムを算出する。
具体的には、仮領域設定部102により仮人物領域が設定され(S2131)、ヒストグラム算出部1041は、設定された仮人物領域の特徴として、仮人物領域の顔等の肌領域に対して色相輝度(H−L)ヒストグラムおよびグレースケールヒストグラムを算出する。また、ヒストグラム算出部1041は、設定された仮人物領域の特徴として、仮人物領域の服等の肌領域以外の領域に対して、3つの色成分のヒストグラムを算出する。ヒストグラム算出部1041は、算出した仮人物領域内のカラーヒストグラムをメモリ132aに格納する。なお、メモリ132aは、メモリ132の一部領域である。
ここでは、色相輝度カラーヒストグラムは仮人物領域における影色および色の階調を表すために用いられる。グレースケールヒストグラムは、髪および影などの色が検出されない領域を表すために用いられる。より具体的には、S2141において、ヒストグラム算出部1041は、仮人物領域内の各画素に対してH値(色相値)およびL値(輝度値)を算出する。そして、図7に示すように、HSLカラーモデルに基づいて、上記肌領域に対して色相輝度(H−L)のヒストグラム550を算出する(S2132)。なお、仮人物領域内において、髪および影の部分を示す肌領域の画素の色情報が抽出することができない場合(つまり、グレースケール、白黒)の場合には、ヒストグラム550に代わりに、グレースケールのヒストグラム540を算出する(S2132)。また、肌領域以外の領域に対して、3つの色成分のヒストグラム560を算出する(S2133)。
なお、仮人物領域内の各画素についてHおよびLカラーチャネルに従って表わされるH−Lカラーヒストグラムを算出することが、2次元画像における人物領域を抽出する方法の鍵である。例えば、画素選択部1042により選択された画素のH値およびL値によってその画素が赤色であると検出された場合、その画素は弱光(暗い)領域にあることがわかる。つまり、その画素は、ヒストグラム540によって暗赤色領域の範囲内にあると判定できる。一方、画素選択部1042により選択された画素の色情報が抽出することができない場合(つまり、グレースケール、白黒)でも、グレースケールのヒストグラム540によって画素が仮人物領域内にあるか否かを判定できる。
次に、S2142において、画素選択部1042は、当該仮人物領域に隣接する画素を選択する(S2134)。色情報算出部1043は、当該仮人物領域に隣接する画素の特徴として、画素選択部1042により選択された画素の色情報(色相および輝度)を算出する(S2135)。
次に、S2143において、比較部1051は、色情報算出部1043より算出された画素の色情報とヒストグラム算出部1041により算出されたカラーヒストグラムとを比較する(S2136)。領域範囲更新部1052は、比較部1051の結果に基づき、仮人物領域を更新する(S2137)。具体的には、S2136において、領域範囲更新部1052は、画素選択部1042により選択された画素の色がヒストグラム算出部1041により算出されたカラーヒストグラムに含まれる色である場合、当該画素が人物領域に含まれるとして、仮人物領域の範囲を、当該画素を含むように(ここでは拡大するように)、仮人物領域を更新する。一方、領域範囲更新部1052は、画素選択部1042により選択された画素の色が、ヒストグラム算出部1041により算出されたカラーヒストグラムに含まれる色でない場合には、当該画素は人物領域に含まれないとして、仮人物領域を更新しない。
次に、領域範囲更新部1052により更新された仮人物領域に対して、ヒストグラム算出部1041は、設定された仮人物領域の特徴として、更新された仮人物領域の色相輝度(H−L)のヒストグラム550、グレースケールのヒストグラム540、3つの色成分のヒストグラム560を算出する。なお、ヒストグラム算出部1041は、更新された仮人物領域内のカラーヒストグラムをメモリ132bに格納する。なお、メモリ133aは、メモリ132の一部領域である。
このように、人物領域決定部103は、仮人物領域に隣接する一画素ごとに仮人物領域に含まれるか否かを判定し、仮人物領域を更新(拡大または縮小)する。このような更新を繰り返すことにより、人物領域決定部103は、図8に示すような人物領域340を決定することができる。
つまり、S2142において、画素選択部1042により選択された画素のH値およびL値が算出され、ヒストグラム算出部1041により算出されたヒストグラム540〜ヒストグラム560とマッチング(比較)される。その画素のH−L値またはグレースケール値が算出されたヒストグラム540〜ヒストグラム560の範囲内の値である場合、その画素が仮人物領域に含められる。一方、その画素がヒストグラム540〜ヒストグラム560の範囲内の値ではない場合、その画素は、仮人物領域でないとして除外される。これは、仮人物領域と類似の色情報(色相、輝度、またはグレースケール)を有する画素が、同じグループにされるということである。
ところで、一般的には、あるH(色相)の領域において、区別がつけられない(異なる対象物の色の区別がつけられない)という不明瞭性があり、誤ったマッチングを行う可能性がある。しかしながら、この課題は、本実施の形態のように、画素選択部1042により選択された画素の色相値を抽出(区別)すると、解決できる。すなわち、本実施の形態のように、色相値を用いてマッチングを行い、色相値を抽出できない場合には、その画素をグレースケール色とみなして、マッチングを行うことにより解決できる。したがって、図8に示すように、ほぼ正確な人物領域340の形状が得られる。
ここで、奥行き情報生成装置1に、映像が入力されている場合について説明する。上述したように、映像(動画)が入力される場合、常に顔検出できるとは限らない。以下では、S217およびS218の処理の詳細として、人物領域決定部103が行う処理について説明する。図9A〜図9Fは、顔検出できなかった2次元画像の人物領域が決定される処理の様子を説明するための図である。
奥行き情報生成装置1に、映像が入力される場合、例えば図9Aに示す先行フレーム410において顔が検出されても図9Bに示す対象フレーム420において顔が検出されないことがある。この場合、先行フレームと対象フレームの奥行きの一貫性を考慮せずにそのまま奥行きマップを生成し、3D映像を生成すると、先行フレーム410と対象フレーム420とに対応する映像において、不自然な3Dポップアウト効果が生じる可能性がある。
この課題は、S217とS218の処理で説明したように、先行フレームと対象フレームの間の人物領域の時間的なマッチングを用いることによって解決される。
具体的には、まず、先行フレーム440に対してS2141の処理が行われている。すなわち、ヒストグラム算出部1041は、図9Cに示すように、顔検出された先行フレーム910に対して、決定された人物領域430の色情報(3つの色成分(RGB)のヒストグラム560またはヒストグラム540、ヒストグラム550)を算出している。そして、ヒストグラム算出部1041は、先行フレーム910に対して算出された人物領域の色情報(ヒストグラム)がメモリ132bに格納している。
次に、対象フレーム420において顔検出されない場合(S211のNo)、S217において、まず、仮領域設定部102は、図9Dに示すように、顔検出部101が先行フレーム910で顔検出を行った人物の顔の位置に基づいて、先行フレーム410で決定された人物領域430を、対象フレーム420の仮人物領域450を設定する。次いで、特徴抽出部104は、その仮人物領域450内の特徴(色情報のヒストグラム)を抽出する。
より具体的には、ヒストグラム算出部1041は、対象フレーム420の仮人物領域450の色情報(カラーヒストグラム)を算出する。
次に、領域調整部105は、メモリ133に保存されている先行フレーム410の人物領域430の特徴(カラーヒストグラム)と、対象フレーム420の仮人物領域450の色情報(カラーヒストグラム)とを比較する(S218)。すなわち、領域調整部105は、この2つのヒストグラム間のヒストグラム類似度が算出されて、顔検出された先行フレーム410の人物領域430のヒストグラムが、対象フレーム420の仮人物領域450に設定してもよいかを判定する。
奥行き情報生成装置1は、ヒストグラム類似度の信頼値が所定のしきい値を超える場合(S218のYes)、先行フレーム410の人物領域430と対象フレーム420の仮人物領域450とが類似していると判断する。人物領域決定部103は、先行フレーム410で抽出されたカラーヒストグラムを用いて、対象フレーム420に対して人物領域を決定する。すなわち、人物領域決定部103は、S214とS215の処理を繰り返して行い、図9Eに示すような対象フレーム420の仮人物領域460を調整する。
なお、奥行き情報生成装置1は、ヒストグラム類似度の信頼値が所定のしきい値以下の場合は、仮領域設定102により設定された仮人物領域450とそれに関連付けられた色情報(カラーヒストグラム)が削除される。
このように、奥行き情報生成装置1は、顔検出できない対象フレーム420に対して、顔検出できた先行フレーム410で決定された人物領域430を時間的なマッチング領域として用いることで、図9Fに示すような対象フレーム420の人物領域470を決定することができる。
次に、奥行きマップ生成部11の詳細構成について説明する。
図10は、本発明の実施の形態に係る奥行きマップ生成部の詳細構成を示す図である。
図10に示すように、奥行きマップ生成部11は、付与部111と、合成部112とを備える。ここで、メモリ134は、メモリ131の一部である。メモリ134は、奥行きマップ生成部11が用いるデータが格納されており、例えば、人物モデルの領域(プレマスク)に対する奥行き値(奥行きマップ)などのデータが格納されている。
付与部111は、顔検出部101により検出された人物の顔における、2次元画像に対するサイズおよび位置に基づいて、領域抽出部10により抽出された人物領域の第1奥行き値を算出し、算出した第1奥行き値を当該人物領域に付与する。このようにして、付与部111は、領域抽出部10により抽出された人物領域に対して、仮の奥行きマップを生成する。
合成部112は、仮領域設定部102により設定された仮人物領域に与えられていた第2奥行き値と第1奥行き値に合成することにより、当該人物領域と当該人物領域以外の領域とを分離する奥行きマップを生成取得する。このようにして、合成部112は、プレマスク)に対する奥行き値を、仮の奥行きマップに合成することで、その人物領域に対する奥行きマップを生成する。
以上のように、奥行きマップ生成部11は構成される。
続いて、奥行きマップ生成部11の処理について説明する。
図11は、本発明の実施の形態に係る奥行きマップ生成部11の処理を説明するためのフローチャートである。図12Aおよび図12Bは、本発明の実施の形態に係る奥行きマップ生成部11により生成された仮の奥行きマップの例を示す図である。
まず、奥行きマップ生成部11に、領域決定部106により決定された人物領域が入力される(S220)。例えば、奥行きマップ生成部11には、図8に示すような人物領域340を含むフレームが入力される。
次に、付与部111は、顔検出部101により検出された人物の顔における、2次元画像に対するサイズおよび位置に基づいて、領域抽出部10により抽出された人物領域の第1奥行き値を算出し、算出した第1奥行き値を当該人物領域に付与する(S221)。
つまり、付与部111は、領域抽出部10により抽出された人物領域に対して、仮の奥行きマップを生成する。
ここで、この仮の奥行きマップは、グローバルな奥行き値の概算である基本奥行きモデルの概念に基づいて生成される。生成された仮の奥行きマップは、領域抽出部10により抽出された人物領域とこの人物領域に付与された第1奥行き値から構成されており、メモリ134に格納される。ここで、図12Aおよび図12Bは、仮の奥行きマップの例であり、図12Aに示す仮の奥行きマップの下部335にはカメラの前に近い奥行き値が付与され、図12Aに示す仮の奥行きマップの上部330には、カメラから遠い奥行き値が付与されている。
また、S221において、人物領域に対する奥行き値は人物領域に含まれる顔のサイズに基づいて与えられる。例えば、与えられる奥行き値が大きいほどカメラの近くになり、小さいほどカメラから遠いことを示す。また、人物領域と背景(人物領域以外の領域)との間では異なる奥行き値が付与される。例えば、図12Bに示す人物領域350には、ポップアップ効果を得るためにカメラの前に近い奥行き値が与えられ、背景の下部345にはカメラから遠い奥行き値が与えられる。
次に、合成部112は、仮領域設定部102により最初設定された仮人物領域(プレマスク)に与えられていた第2奥行き値と第1奥行き値に合成することにより、当該人物領域と当該人物領域以外の領域とを分離する奥行きマップを生成取得する(S222)。
つまり、合成部112は、メモリ134に予め保存されていたプレマスクの奥行き値(第2奥行き値)を、付与部111により生成された仮の奥行きマップに合成する。
このようにして、奥行きマップ生成部11は、人物領域を背景から分離するために用いられる奥行きマップを生成する。
図13は、本発明の実施の形態に係る奥行き情報生成装置1に映像が入力される場合の平滑化処理部12の処理を説明するための図である。図14は、本発明の実施の形態に係る奥行き情報生成装置1に2次元画像が入力される場合の平滑化処理部12の処理を説明するための図である。図15は、本発明の実施の形態に係るフィルタリングの動作を示す図である。図16は、本発明の実施の形態に係る平滑化処理部12の処理後の奥行きマップの様子を示す図である。
なお、図13は、奥行き情報生成装置1に映像が入力されるため、空間的かつ時間的な平滑化処理を示すフローチャートであり、図14は、奥行き情報生成装置1に2次元画像が入力されるため、空間的の平滑化処理を示すフローチャートである。図14は図13の一部であるとも言えるので、以下では、図13の処理について説明し、図14の説明は省略する。
まず、領域抽出部10により、人物領域を抽出しても、例えば図8の境界形状325のように完全な人物領域の形状を抽出することができない場合が多い。そのため、人物領域出ない領域をフィルタリングで除去する際、特に2次元画像から抽出された画像平面の対象物層に基づく人物領域の境界形状の周辺においては、平滑化処理が重要な役割を果たす。
具体的には、平滑化処理部12では、図13のS2313において、対象フレームtおよび先行フレームt−1の2次元画像に基づいて、例えば図15に示す3次元画像グリッド600が生成される。ここで、x−y平面は、2次元画像の空間座標であり、y軸は、対象フレームおよび先行フレームの2次元画像から抽出された画像層である。
また、S232において、対象フレーム625の奥行きマップおよびメモリ136に格納されている先行フレーム615を、対象フレーム620と先行フレーム610との2次元画像データの重み付け関数に基づいて3次元画像グリッド600に適用する。ここで、重み付け値および対象フレームの奥行き値の適用方法は、以下のように表される。
Figure 0005887515
式1において、rは、対象フレームの奥行きマップを3次元画像グリッドに適用する方法において用いられる重み付け比であり、ηは、[0、1]の範囲にrの値を調整するための正規化関数である。DおよびDtempはそれぞれ、対象フレームおよび格納された先行フレームの奥行きマップである。GD(d)は、奥行き値の範囲dにおいて、奥行きデータに含まれる3次元画像グリッドである。GW(d)は、奥行き値の範囲dに奥行きデータの重み付け値に含まれる3次元画像グリッドである。
メモリ135に格納された先行フレームの奥行きデータを適用する方法は、以下のように表される。
Figure 0005887515
式2において、rt−1は、メモリ135に格納された先行フレームの奥行きマップを3次元画像グリッドに適用する方法を用いる重み付け比である。ηは、[0、1]の範囲にrt−1の値を調整するための正規化関数である。IおよびIt−1はそれぞれ、対象フレームおよび先行フレームの2次元画像データである。
また、S235における奥行きマップの先行フレームは、以下のように表される。
Figure 0005887515
式3において、wおよびwt−1は、対象フレームDおよび格納フレームDtempのそれぞれの奥行きマップを格納する方法において用いられる重み付け比である。
また、S233において、算出された3次元フィルタグリッドを用いる対象フレームを空間的かつ時間的にフィルタリングし、対象フレームの2次元画像の画素が含まれる各画像ノード間のトリリニア補間を決定する。このようにして、各画素の新たな奥行き値を算出して最終的な奥行きマップ(平滑化された奥行きマップ)を得る。
ここで、図15には、平滑化処理の一例として、奥行きマップに対するエッジ適応平滑化処理の様子が示されている。具体的には、3次元画像グリッド600を用いて、画素pにおいて奥行きマップを平滑化する方法を示している。
まず、2次元画像である対象フレーム620および先行フレーム610は、小さなブロックサイズに分割され、それぞれの小さなブロックサイズが、3次元画像グリッド600を形成する。例えば、ノード650は2次元画像における小ブロックの左下隅の画素を参照し、ノード655は2次元画像における小ブロックの右下隅の画素を参照する。また、ノード640は2次元画像における小ブロックの左上隅における画素対象物層を参照し、ノード645は2次元画像における小ブロックの右上隅における画素対象物層を参照する。このようにして、各画素の奥行きマップを、同じ参照点にも適用する。ここで、画素665は、この小ブロックの一部であり、適用された画素である。
この方法において、同じブロックに属する任意の画素の対象物層の値が他の画素と異なる値である場合、奥行き値は、異なる画像グリッドに含まれる。平滑化後の奥行きマップの新たな画素値が、該当する同じブロック内の全画素間でトリリニア補間を用いて算出されることにより、画素グリッドにおけるその画素の位置の密度から画素値が得られる。例えば、位置660における画素の新たな値(x+block_width/2,y+block_height/2)は、画像グリッド内の該当位置による密度を決定することによって算出される。この構成によって、対象物層の情報に従って各画素を互いに分離することができる。
したがって、異なる対象物層に属する、奥行きマップ825において発生したエラーは、奥行きデータ密度が低い異なる画像グリッドに含まれるようになるため、エラーが低減する。つまり、図16に示すように、平滑化後に得られた奥行きマップは、図8の境界形状325のように不完全な人物領域の形状が平滑化されて自然なものになっている。なお、エッジ適応平滑化処理により、平滑化された奥行きマップは、例えば図16に示すように精度の高い人物領域奥行きマップ355、グローバルな背景奥行き情報360、および、背景奥行き情報370を含んでいる。
なお、図14に示すように、2次元画像から奥行きマップを生成する場合には、エッジ適応平滑化処理行う際に単一の2次元画像620のみを用いて3次元画像グリッド600を形成する。そして対象フレーム625の奥行きマップを用いて画像グリッドに適用すればよい。
このようにして、平滑化処理部12は、少なくとも2次元画像の情報を用いて、奥行きマップ生成部11により生成された奥行きマップにおける人物領域のエッジの平滑化を行う。
以上のように、本実施の形態の奥行き情報生成装置1によれば、視聴者に違和感を与えない3Dポップアウトを表示するための奥行きマップを生成することができる。
なお、本実施の形態の奥行き情報生成装置1は、人物像の奥行きが背景から分離される奥行きマップを生成する、生成される奥行きマップは、2次元画像から3次元画像に変換するために用いられる。
また、上記では、奥行き情報生成装置1は、人物領域抽出部10、奥行きマップ生成部11および平滑化処理部12を備えるとしたが、それに限られない。奥行き情報生成装置1の最小構成として、最小構成部1Aを備えていればよい。すなわち、奥行き情報生成装置1は、人物領域抽出部10、奥行きマップ生成部11を備えていればよい。この最小構成部1Aを少なくとも備えることにより、視聴者に違和感を与えない3Dポップアウトを表示するための奥行きマップを生成することができる。
以下、奥行き情報生成装置1を備え、2次元画像から3次元画像に変換する装置について説明する。
図17は、本発明の実施の形態に係る3次元映像生成装置の機能ブロック図である。図17に示す3次元映像生成装置2は、本発明のステレオ画像変換装置に対応し、奥行き情報生成装置1と、レンダリング部14とを備える。
レンダリング部14は、奥行き情報生成装置1により生成された奥行きマップを用いて、2次元画像を、ステレオ画像に変換する。
ここでステレオ画像とは、2次元画像に対応する左眼画像および右眼画像で構成される立体対であり、または、2次元画像に対応し、かつ、視点の異なる複数の画像で構成されるマルチビュー画像である。
以上のように構成される3次元映像生成装置2は、効率よく、低メモリかつリアルタイム動作が可能であり、高精度に物体境界を自動的に分別可能であるため、様々なシーンにおいて自然で快適な3Dポップアウト効果が得られるという効果を奏する。
なお、以上のように構成される3次元映像生成装置2では、奥行き情報生成装置1に直接、2次元画像または映像が入力されるとしているがそれに限らない。例えば、図18に示すように、受信部15を介して2次元画像または映像が入力されるとしてもよい。ここで、図18は、本発明の実施の形態に係る3次元映像生成装置の機能ブロック図の別の例である。
図18に示す3次元映像生成装置3は、図17に示す3次元映像生成装置2と比べて、さらに受信部15を備えている点が異なっている。他は、図17と同様の構成であるので、詳細な説明は省略する。なお、図18において、図1および図16と同様の要素には同一の符号を付している。
受信部15は、ユーザにより指定された指定データを受信する。また、受信部15は、2次元画像または映像が入力されて、奥行き情報生成装置1に出力する。ここで、指定データは、ユーザにより指定された注目対象領域を示しており、注目対象物とは人物領域である。
以上、本実施の形態によれば、視聴者に違和感を与えない3Dポップアウトを表示するための奥行きマップを生成することができる奥行き情報生成装置、奥行き情報生成方法、ステレオ画像変換装置を実現することができる。
例えば、本実施の形態に係る奥行き情報生成装置、奥行き情報生成方法を有するステレオ画像変換装置では、精度の高い人物領域を自動的に生成して、2D画像から3D画像または3D映像に変換する際にほぼリアルタイムで3Dポップアップ効果をもたらすことができる。また、ユーザは、必ずしも手動で対象物(人物)を指定する必要はない。これは、任意の2次元画像から精度の高い前景領域と人物領域とを抽出することができることにより、3D効果に対する人の知覚を向上させる奥行きマップが生成できるからである。
このように、本実施の形態に係る奥行き情報生成装置、奥行き情報生成方法を有するステレオ画像変換装置では、効率よく、低メモリかつリアルタイム動作が可能であり、高精度に物体境界を自動的に分別可能であるため、様々なシーンにおいて自然で快適な3Dポップアウト効果が得られる。
(変形例1)
上記実施の形態では、領域抽出部10が人物領域を抽出するとして説明したがそれに限られない。統計的に検出可能であれば人物に限られない。例えば猫、犬、鳥および食べ物を含むコンピュータで検出可能な物を人物領域の代わりに注目対象物として抽出すればよい。
その場合、具体的には、次の構成にすればよい。すなわち、領域抽出部10は、対象領域検出部と、仮領域設定部と、領域決定部とを備え、2次元画像から、注目対象物のうち統計的に検出可能な領域である対象領域を検出し、検出した対象領域に基づいて、当該2次元画像の領域内の注目対象物領域を抽出するとすればよい。
ここで、対象領域検出部は、2次元画像における対象領域を検出し、仮領域設定部は、検出された対象領域の位置に基づいて、検出された対象領域の領域を含む注目対象物モデルの領域である仮注目対象物領域を設定する。領域決定部は、仮注目対象物領域の特徴と当該仮注目対象物領域に隣接する画素の特徴とに基づき、仮注目対象物領域範囲を更新することで、注目対象物領域を決定する。注目対象物は、猫、犬、鳥および食べ物を含むコンピュータで検出可能な物である。
また、この場合、平滑化処理部12は、上記2次元画像の情報を用いて、奥行きマップ生成部により生成された奥行きマップにおける上記注目対象物領域のエッジの平滑化を行う。
なお、上記実施の形態と同様に3次元映像生成装置2および3次元映像生成装置3は、本変形例の領域抽出部10を備える奥行き情報生成装置を備えるとしてもよい。その場合、受信部15は、ユーザにより指定された指定データを受信する。ここで、指定データは、ユーザにより指定された注目対象領域を示している。領域抽出部10は、その指定データに基づいて、指定された注目対象物領域から前記対象領域を検出する。つまり、対象領域検出部は、その指定データに基づいて、2次元画像における対象領域を検出して対象領域の位置を識別する。
また、例えば、奥行きマップ生成部11では、付与部111は、対象領域検出部により検出された対象領域における、2次元画像に対するサイズおよび位置と、入力されるユーザによる指定データとに基づいて、領域抽出部10により抽出された注目対象物領域の第1奥行き値を算出し、算出した第1奥行き値を当該注目対象物領域に付与する。合成部112は、仮領域設定部により設定された仮注目対象物領域に与えられていた第2奥行き値と第1奥行き値に合成することにより、当該注目対象物領域と当該注目対象物領域以外の領域とを分離する奥行きマップを生成する。
(変形例2)
上記実施の形態では、領域抽出部10が、入力された2次元画像または入力された映像を構成する2次元画像から、人物の顔を検出し、検出した顔に基づいて、2次元画像の領域内の人物を示す人物領域を抽出するとして説明したがそれに限られない。
図19〜図21に示すように、領域抽出部10が顔などの対象領域を検出する速度である検出速度を最適するために、入力された2次元画像または入力された映像を構成する2次元画像をダウンサンプリングするとしてもよい。
ここで、図19〜図21は、本発明の実施の形態の変形例2に係る奥行き情報生成装置の処理概要を説明するためのフローチャートである。なお、図2と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図19は、領域抽出部10に2次元画像が入力され、ダウンサンプリング後に顔領域を検出する場合の処理概要について示している。図20は、領域抽出部10に2次元画像が入力され、ダウンサンプリング後に犬、猫等の顔以外の対象領域を検出する場合の処理概要について示している。図21は、領域抽出部10に映像(映像を構成する2次元画像)が入力され、ダウンサンプリング後に顔検出する場合の処理概要について示している。
図19は、図2に対して、ダウンサンプリング処理(S600)が追加されている点が異なる。すなわち、S600では、適切な顔のサイズのみを検出して検出速度を最適化するために、入力された2次元画像をダウンサンプリングする。ここで、例えば、入力された2次元画像の16分の1のサイズにするなどのダウンサンプリング処理を行う。
続いて、S21では、ダウンサンプリングされた2次元画像に対して、人物の顔検出アルゴリズムにより、メモリ13に保存されている顔特徴パターンデータ131に基づいて顔検出される。
また、図20は、図2に対して、ダウンサンプリング処理(S600)が追加されている点と、検出対象が顔ではなく犬等の顔以外の対象領域である点が異なる。例えば、S600では、適切な対象領域のサイズのみを検出して検出速度を最適化するために、入力された2次元画像をダウンサンプリングする。ここで、例えば、入力された2次元画像の16分の1のサイズにするなどのダウンサンプリング処理を行う。
続いて、S21aでは、ダウンサンプリングされた2次元画像に対して、対象領域を検出するための検出アルゴリズムにより、S601でユーザにより入力された指定データに基づいて、対象領域が検出される。
また、図21は、図2に対して、領域抽出部10に映像(映像を構成する2次元画像)が入力され、ダウンサンプリング処理(S600)が追加されている点が異なる。例えば、S600では、適切な対象領域のサイズのみを検出して検出速度を最適化するために、入力された2次元画像をダウンサンプリングする。ここで、例えば、入力された2次元画像の16分の1のサイズにするなどのダウンサンプリング処理を行う。
続いて、S21aでは、ダウンサンプリングされた2次元画像に対して、対象領域を検出するための検出アルゴリズムにより、S601でユーザにより入力された指定データに基づいて、対象領域が検出される。なお、領域抽出部10に映像が入力される場合、常に顔検出できるとは限らないので、S603およびS604の処理で、人物領域の追跡(人物領域の時間的なマッチング)を行うことでその後生成される3D映像にフリッカーが生じないように手当する。S603およびS604の処理はS217およびS218等で説明したとおりであるので、説明を省略する。
以上、図21に示すように、一定の場所の中での動作の一区切りの映像であるシーンの基本の奥行き構造を推定し、映像を構成する2次元画像から対象物を抽出して奥行き値を付与することによって奥行きマップを生成し、出力する。
(変形例3)
上記実施の形態では、まず、領域抽出部10において、カラーヒストグラム等の色情報を用いて、2次元画像の人物領域と人物領域以外の領域(背景)と識別する。そして、識別した人物領域と背景とに異なる奥行き値を付与することで奥行きマップを生成することについて説明したが、それに限らない。さらに、背景または人物領域の3Dポップアップ効果(奥行き感)を向上するように、背景と人物領域とそれぞれに付与する奥行き値を、領域の特徴に応じて変化させてもよい。
図22は、2次元画像の人物領域および背景について、色情報に基づいて異なる層に分割されるよう抽出する処理の例を示す図である。
人物領域などの注目対象物領域を2次元画像から抽出する方法を用いて、背景を示す平面から分離された注目対象物の奥行きを向上させるために追加の奥行き値を生成する。
例えば、図22には、入力される2次元画像810において、色情報に基づいて人物領域および背景を異なる層に分割する場合の処理例を示している。
すなわち、まず、2次元画像810を、色情報に基づき4つの異なる画像平面に分割することによって、背景平面820(暗赤色を含む)と、髪平面830(黒色を含む)と、コーチ面840(黄色を含む)と、肌平面850(肌色)とを含む色平面層を取得する。
次に、取得した各平面層を互いに分離するために、取得した色平面層に対応する色モデル平面群860に対して異なる奥行き値を付与する。
本発明では、人物領域における3D効果を向上させるために人物領域の抽出を行って奥行きマップを生成する。そのため、本変形例では、肌色(赤の色モデル平面870/黄色の色モデル平面875)を他の色の領域より前にユーザが感じるように奥行き値を指定する。また、緑色の色モデル平面880、白黒色の色モデル平面885および青色の色モデル平面890を肌色の領域よりも後ろにユーザが感じるように奥行き値を指定する。このようにして、背景または人物領域の3Dポップアップ効果(奥行き感)を向上させることができる。ここで例えば、緑色の色モデル平面880、白黒色の色モデル平面885および青色の色モデル平面890など背景として指定する色モデル平面には+1.5レベル、0および−1レベルの奥行き値が指定される。なお、このレベル値は入力パラメータに従って調整可能である。
(変形例4)
上記実施の形態では、本実施の形態に係る奥行き情報生成装置、奥行き情報生成方法を有するステレオ画像変換装置の例として、3次元映像生成装置2および3次元映像生成装置3について説明したがそれに限らない。
さらなる応用例として、上述した3次元映像生成装置2および3次元映像生成装置3を含む3D画像表示制御装置であっても本発明の範囲に含まれる。以下、それについて説明する。
図23は、本発明の実施の形態の変形例4に係る3D画像表示制御装置の機能ブロック図を示す図である。
図23に示す3D画像表示制御装置は、ディスクドライブ1011、チューナ1012、ネットワーク通信インターフェース1013、メモリ装置インターフェース1014、データ通信インターフェース1015、バッファメモリ(フレームメモリ)1016、HDドライブ1017、フラッシュメモリ1019、およびLSI1018を備える。
ディスクドライブ1011は、光ピックアップを備え、光学ディスク1004から3次元画像(3D画像)ストリームまたは2次元画像(2D画像)ストリームを読み込む。ディスクドライブ1011は、LSI1018に接続されており、光学ディスク1014から2D画像ストリームまたは3D画像ストリームをLSI1018に送信する。ディスクドライブ1011は、LSI1018からの制御に従って光学ディスク1004からの2D画像ストリームまたは3D画像ストリームを読み込み、LSI1018に送信する。
チューナ1012は、アンテナ1005によって受信した2Dまたは3D画像ストリームを含む放送波を取得する。チューナ1012は、取得した放送波から、LSI1018によって特定された周波数の2D画像ストリームまたは3D画像ストリームを抽出する。チューナ1012は、LSI1018に接続され、抽出された2D画像ストリームまたは3D画像ストリームをLSI1018に送信する。
ネットワーク通信インターフェース1013は、ネットワークを介してサーバ1003に接続してもよい。ネットワーク通信インターフェース1013は、サーバ1003から送信された2Dまたは3D画像ストリームを取得する。
メモリ装置インターフェース1014は、メモリカード1006が挿入されるように構成されており、挿入されたメモリカード1006から3D画像ストリームまたは2D画像ストリームを読み取ることができる。メモリ装置インターフェース1014は、メモリカード1006から読み込まれた2D画像ストリームまたは3D画像ストリームをLSI1018に送信する。
HDドライブ1017は、ハードディスクなどの記録媒体を備えており、この記録媒体から読み込んだデータをLSI1018に送信する。HDドライブ1017はLSI1018から受信したデータを記録媒体に記録する。
データ通信インターフェース1015は、LSI1018から送信されたデータを外部の3D画像表示装置1002に送信するインターフェースである。データ通信インターフェース1015は、データ信号および制御信号を3D画像表示装置1002に送受信することができる。したがって、LSI1018は、データ通信インターフェース1015を介して3D画像表示装置1002を制御することができる。データ通信インターフェース1015は、たとえば、HDMIコネクタ等により実現することができる。データ通信インターフェース1015は、データ信号を3D画像表示装置1002に送信することができれば、どのような構成であってもよい。
LSI1018は、3D画像表示制御装置の各セクションを制御するシステムコントローラである。LSI1018は、マイクロコンピュータでも配線回路であってもよい。
CPU1081、ストリームコントローラ1082、デコーダ1083、AV入出力回路1084、システムバス1085、およびメモリコントローラ1086が、LSI1018に実装されている。
CPU1081は、LSI1018全体を制御する。LSI1018の各セクションは、LSI1018の制御など種々の制御を行う。CPU1081は、外部との通信も制御する。
CPU1081は、2D画像ストリームまたは3D画像ストリームをサーバ1003から取得する際には、ディスクドライブ1011、チューナ1012、ネットワーク通信インターフェース1013、またはメモリ装置インターフェース1014に制御信号を送信する。そのため、ディスクドライブ1011、チューナ1012、ネットワーク通信インターフェース1013、およびメモリ装置インターフェース1014は、2D画像ストリームまたは3D画像ストリームを記録媒体、または放送局などから取得することができる。画像入力ストリームが2D画像である場合、IRセンサを介してのユーザの制御に従って、CPUが3D画像プロセッサを制御して入力画像ストリームを3D画像に変換する。
ストリームコントローラ1082は、サーバ1003、光学ディスク1004、アンテナ1005、メモリカード1006、およびアクティブシャッターメガネ1007でのデータの送受信を制御する。
デコーダ1083がメモリコントローラ1086からデータを取得する時、デコーダ1083が取得されたデータを復号する。デコーダ1083に入力されるデータは、CPU1081の制御に基づいている。具体的には、CPU1081がメモリコントローラ1086を制御して、メモリコントローラ1086が、バッファメモリ1016に記録された3D画像ストリームを読み込む。CPU1081は、メモリコントローラ1086を制御して、メモリコントローラ1086が、バッファメモリ1016に記録された3D画像ストリームをデコーダ1083に送信する。したがって、2Dまたは3D画像ストリームはメモリコントローラ1086からデコーダ1083に入力される。
デコーダ1083は、2Dまたは3D画像ストリームに含まれる復号情報に基づいて、圧縮された2Dまたは3D画像ストリームを復号する。デコーダ1083は、復号情報をメモリコントローラ1086に送信する。メモリコントローラ1086は、取得した情報をバッファメモリ1016に記録する。
AV入出力回路1084は、バッファメモリ1016から情報を読み込み、2Dまたは3D画像表示装置1002に表示される表示画像を生成する。AV入出力回路1084は、生成された表示画像を、データ通信インターフェース1015を介して2D画像ストリームまたは3D画像表示装置1002に送信する。
3D画像プロセッサ1010は、上記の3次元映像生成装置2または3次元映像生成装置3に対応し、これらの機能が組み込まれ、入力された2D画像を3D画像に変換するために用いられる。具体的には3D画像プロセッサは、奥行き情報生成装置1およびレンダリング部14の機能を備える。レンダリング部14の機能は、上述したように、2D画像および奥行マップから3D画像を生成するために用いられる。
なお、3D画像プロセッサ1010、奥行き生成部モジュール1110、および内部のモジュールは、通常、IC(集積回路)、ASIC(特定用途集積回路)、LSI(大規模集積回路)、DSP(デジタルシグナルプロセッサ)の形で実現される。これらの各モジュールは、複数チップで構成されてもよいし、1チップで構成されてもよい。ここで用いた名称はLSIであるが、集積度に応じて、IC、システムLSI、スーパーLSI、またはウルトラLSIとも呼ばれることもある。さらに、集積化を達成する方法は、LSIのみではなく、専用回路または汎用プロセッサで実現してもよい。これには、プログラム命令により制御することができる、DSP(デジタルシグナルプロセッサ)など、特化したマイクロプロセッサが含まれる。LSI製造後にプログラムすることが可能なFPGA(フィールド・プログラマブル・ゲートアレイ)や、LSIの接続または構成を再構成可能なプロセッサを同じ用途に利用してもよい。将来的には、製造および処理技術が向上し、全く新しい技術がLSIに取って代わるかもしれない。集積化はその技術によって行うことができる。
以上、本発明によれば、視聴者に違和感を与えない3Dポップアウトを表示するための奥行きマップを生成することができる奥行き情報生成装置、奥行き情報生成方法、ステレオ画像変換装置を実現することができる。
また、本発明によれば、映像を用いて奥行きマップを生成する場合、常に顔検出できるとは限らないので、人物領域の追跡(人物領域の時間的なマッチング)を行うことでその後生成される3D映像にフリッカーが生じないように手当する。
例えば、図24は、人物領域の時間的なマッチングを行わない場合にフリッカーが生じることを示す図である。ここで、横軸には連続する2次元画像(フレーム)を示し、縦軸は、1または−1の値で顔検出が成功したかどうかを示している。図24に示すように、人物領域の時間的なマッチングを行わない場合に、A期間とB期間において、顔検出ができたフレーム(縦軸で1を示すフレーム)と検出できなかったフレーム(縦軸で−1を示すフレーム)の切り替わりが多いのがわかる。
それに対して、本発明のように人物領域の時間的なマッチングを行うことでその後生成される3D映像にフリッカーが生じないように手当すると、A期間とB期間とにおいて、人物の特徴が類似している限りにおいては、顔検出できなかったフレームがなくなるので、3D映像においても、フリッカーを抑制することができる。
このように、本発明の奥行き情報生成装置、奥行き情報生成方法、ステレオ画像変換装置によれば、効率よく、低メモリかつリアルタイム動作が可能であり、高精度に物体境界を自動的に分別可能であるため、様々なシーンにおいて自然で快適な3Dポップアウト効果が得られる。
本発明の別の効果は、顔検出のみを用いて人物領域を得ることである。したがって、本発明は、特許文献3において開示された方法よりもメモリが少なくて済む。さらに、本発明はタイムラグが少なく、リアルタイムの用途に用いることができる。
なお、図25は、本発明の奥行き情報生成方法をまとめたものであり、各要素については、上述したため、説明は省略する。図25に示すように、任意の未知の2次元画像のコンテンツから、奥行きマップを自動的かつ適応的に生成することができる。
以上、本発明の奥行き情報生成装置、奥行き情報生成方法、ステレオ画像変換装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
本発明は、次元画像(2D画像)中の奥行き情報(以下、奥行きマップと記載)を生成し、生成した奥行きマップを用いて、3次元画像やマルチビュー画像などのステレオ画像を生成する奥行き情報生成装置、奥行き情報生成方法、ステレオ画像変換装置に利用できる。
1 奥行き情報生成装置
1A 最小構成部
2、3 3次元映像生成装置
10 領域抽出部
11 奥行きマップ生成部
12 平滑化処理部
13、131、132、132a、132b、133、134、135、136 メモリ
14 レンダリング部
15 受信部
103 人物領域決定部
104 特徴抽出部
105 領域調整部
106 領域決定部
320、450、460 仮人物領域
325 境界形状
330 上部
335、345 下部
340、350、430、470 人物領域
355 人物領域奥行きマップ
360、370 背景奥行き情報
410、440、610、615、910 先行フレーム
420、625 対象フレーム
540、550、560 ヒストグラム
600 3次元画像グリッド
620、810 2次元画像
640、645、650、655 ノード
665 画素
820 背景平面
830 髪平面
840 コーチ面
850 肌平面
860 色モデル平面群
870、875、880、885、890 色モデル平面
1011 ディスクドライブ
1012 チューナ
1013 ネットワーク通信インターフェース
1014 メモリ装置インターフェース
1015 データ通信インターフェース
1016 バッファメモリ
1017 HDドライブ
1018 LSI
1019 フラッシュメモリ
1081 CPU
1082 ストリームコントローラ
1083 デコーダ
1084 AV入出力回路
1085 システムバス
1086 メモリコントローラ

Claims (16)

  1. 2次元画像から、人物の顔を検出し、予め保持している複数の人物プレマスクのうち、検出した前記顔の領域に適合する人物プレマスクを用いて、当該2次元画像の領域内の前記人物の領域を示す人物領域を抽出する領域抽出部と、
    抽出された前記人物領域に、当該人物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、前記人物領域と当該人物領域以外の領域とを分離するための奥行きマップを生成する生成部とを備え、
    前記人物プレマスクは、顔の領域である顔領域と前記顔領域以外の領域である身体領域とからなる、
    奥行き情報生成装置。
  2. 前記領域抽出部は、
    前記2次元画像における人物の顔を検出する検出部と、
    検出された前記人物の領域に適合する顔領域を有する前記人物プレマスクを仮人物領域として設定する仮領域設定部と、
    前記仮人物領域の特徴と当該仮人物領域に隣接する画素の特徴とに基づき、前記人物領域を決定する人物領域決定部とを備える、
    請求項1に記載の奥行き情報生成装置。
  3. 前記人物領域決定部は、
    前記仮人物領域内の特徴と当該仮人物領域に隣接する画素の特徴を抽出する特徴抽出部と、
    前記特徴抽出部により抽出された前記仮人物領域の特徴と当該仮人物領域に隣接する画素の特徴とに基づいて、前記仮人物領域の範囲を調整する領域調整部と、
    前記領域調整部により調整された仮人物領域範囲を前記人物領域と決定する領域決定部とを備える、
    請求項2に記載の奥行き情報生成装置。
  4. 前記特徴抽出部は、
    前記仮人物領域の特徴として、前記仮人物領域内のカラーヒストグラムを算出するヒストグラム算出部と、
    当該仮人物領域に隣接する画素を選択する画素選択部と、
    当該仮人物領域に隣接する画素の特徴として、前記画素選択部により選択された画素の色情報を算出する色情報算出部とを備える、
    請求項3に記載の奥行き情報生成装置。
  5. 前記領域調整部は、
    前記色情報算出部により算出された画素の色情報と前記ヒストグラム算出部により算出されたカラーヒストグラムとを比較する比較部と、
    当該画素の色が前記ヒストグラム算出部により算出されたカラーヒストグラムに含まれる色である場合、当該画素が前記人物領域に含まれるとして、前記仮人物領域の範囲を拡大するよう前記仮人物領域を更新し、
    当該画素の色が、前記カラーヒストグラムに含まれる色でない場合には、当該画素は前記人物領域に含まれないとして、前記仮人物領域を更新しない領域範囲更新部とを備える、
    請求項3または4に記載の奥行き情報生成装置。
  6. 前記生成部は、
    前記検出部により検出された顔の領域における、前記2次元画像に対するサイズおよび位置に基づいて、前記領域抽出部により抽出された人物領域の第1奥行き値を算出し、算出した第1奥行き値を当該人物領域に付与する付与部と、
    前記仮領域設定部により設定された仮人物領域に与えられていた第2奥行き値を第1奥行き値に合成することにより、当該人物領域と当該人物領域以外の領域とを分離する奥行きマップを生成取得する合成部とを備える、
    請求項2〜5のいずれか1項に記載の奥行き情報生成装置。
  7. さらに、前記2次元画像の情報を用いて、前記生成部により生成された奥行きマップにおける前記人物領域のエッジの平滑化を行う平滑化処理部を備える、
    請求項1〜6のいずれか1項に記載の奥行き情報生成装置。
  8. 前記平滑化処理部は、
    前記2次元画像のピクセル強度に基づき算出された重み付け関数に基づいて、前記2次元画像と、前記生成部により生成された奥行きマップとを用いて、前記奥行きマップを空間的にフィルタリングすることにより、前記奥行きマップにおける前記人物領域のエッジを平滑化する、
    請求項7に記載の奥行き情報生成装置。
  9. 前記平滑化処理部は、
    前記2次元画像のうち対象フレームおよび先行フレームの画像データのピクセル強度とピクセル強度の差分とに基づき算出された重み付け関数に基づいて、前記2次元画像のうち対象フレームおよび先行フレームと、前記生成部により生成された奥行きマップとを用いて、前記奥行きマップを空間的かつ時間的にフィルタリングすることにより、前記奥行きマップにおける前記人物領域のエッジを平滑化する、
    請求項7に記載の奥行き情報生成装置。
  10. 請求項1〜9のいずれか1項に記載の奥行き情報生成装置と、
    前記奥行き情報生成装置により生成された奥行きマップを用いて、前記2次元画像を、前記2次元画像に対応するステレオ画像に変換するレンダリング部とを備える、
    ステレオ画像変換装置。
  11. 2次元画像から、注目対象物のうち統計的に検出可能な領域である対象領域を検出し、予め保持している複数のプレマスクのうち、検出した前記対象領域に適合するプレマスクを用いて、当該2次元画像の領域内の注目対象物領域を抽出する領域抽出部と、
    抽出された前記注目対象物領域に、当該注目対象物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、当該注目対象物領域と当該注目対象物領域以外の領域とを分離するための奥行きマップを生成する生成部とを備え、
    前記プレマスクは、対象物の領域と当該対象物の領域以外の領域とからなり、
    前記領域抽出部は、
    前記2次元画像における対象領域を検出する検出部と、
    前記検出された対象領域に適合する対象物の領域を有する前記プレマスクを、仮注目対象物領域として設定する仮領域設定部と、
    前記仮注目対象物領域の特徴と当該仮注目対象物領域に隣接する画素の特徴とに基づき、前記仮注目対象物領域範囲を更新することで、注目対象物領域を決定する注目対象物領域決定部とを備え、
    前記生成部は、
    前記検出部により検出された対象領域における、前記2次元画像に対するサイズおよび位置と、入力される前記指定データとに基づいて、前記領域抽出部により抽出された注目対象物領域の第1奥行き値を算出し、算出した第1奥行き値を当該注目対象物領域に付与する付与部と、
    前記仮領域設定部により設定された仮注目対象物領域に与えられていた第2奥行き値を第1奥行き値に合成することにより、当該注目対象物領域と当該注目対象物領域以外の領域とを分離する奥行きマップを生成する合成部とを備える、
    奥行き情報生成装置。
  12. 前記注目対象物は、猫、犬、鳥および食べ物を含むコンピュータで検出可能な物である、
    請求項11に記載の奥行き情報生成装置。
  13. さらに、前記2次元画像の情報を用いて、前記生成部により生成された奥行きマップにおける前記注目対象物領域のエッジの平滑化を行う平滑化処理部を備える、
    請求項11または12に記載の奥行き情報生成装置。
  14. さらに、ユーザにより指定データを受信する受信部を備え、
    前記指定データは、ユーザにより指定された注目対象領域を示しており、
    前記領域抽出部は、前記指定データに基づいて、指定された注目対象物領域から前記対象領域を検出する、
    請求項11〜13のいずれか1項に記載の奥行き情報生成装置。
  15. 前記検出部は、前記指定データに基づいて、前記2次元画像における対象領域を検出して対象領域の位置を識別する、
    請求項14に記載の奥行き情報生成装置。
  16. 2次元画像から、人物の顔を検出し、予め保持している複数の人物プレマスクのうち、検出した前記顔の領域に適合する人物プレマスクを用いて、当該2次元画像の領域内の人物の領域を示す人物領域を抽出する領域抽出ステップと、
    抽出された前記人物領域に、当該人物領域以外の領域の奥行き値とは異なる奥行き値を付与することで、人物領域と当該人物領域以外の領域とを分離するための奥行きマップを生成する生成ステップとを含み、
    前記人物プレマスクは、顔の領域である顔領域と前記顔領域以外の領域である身体領域とからなる、
    奥行き情報生成方法。
JP2012512147A 2010-11-10 2011-11-09 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置 Active JP5887515B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012512147A JP5887515B2 (ja) 2010-11-10 2011-11-09 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010252261 2010-11-10
JP2010252261 2010-11-10
PCT/JP2011/006257 WO2012063480A1 (ja) 2010-11-10 2011-11-09 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置
JP2012512147A JP5887515B2 (ja) 2010-11-10 2011-11-09 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置

Publications (2)

Publication Number Publication Date
JPWO2012063480A1 JPWO2012063480A1 (ja) 2014-05-12
JP5887515B2 true JP5887515B2 (ja) 2016-03-16

Family

ID=46050645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012512147A Active JP5887515B2 (ja) 2010-11-10 2011-11-09 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置

Country Status (5)

Country Link
US (1) US9014462B2 (ja)
EP (1) EP2639761B1 (ja)
JP (1) JP5887515B2 (ja)
CN (1) CN102696054B (ja)
WO (1) WO2012063480A1 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5197683B2 (ja) * 2010-06-30 2013-05-15 株式会社東芝 奥行き信号生成装置及び方法
JP2012160039A (ja) * 2011-02-01 2012-08-23 Fujifilm Corp 画像処理装置、立体画像印刷システム、画像処理方法およびプログラム
US9407904B2 (en) 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9313475B2 (en) * 2012-01-04 2016-04-12 Thomson Licensing Processing 3D image sequences
JP2013172190A (ja) * 2012-02-17 2013-09-02 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP6000602B2 (ja) * 2012-03-30 2016-09-28 キヤノン株式会社 体検出方法及び物体検出装置
EP2839339A1 (en) * 2012-04-19 2015-02-25 Sony Mobile Communications AB Image focusing
JP5703255B2 (ja) * 2012-04-27 2015-04-15 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP6140935B2 (ja) * 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
JP6028427B2 (ja) * 2012-07-10 2016-11-16 株式会社Jvcケンウッド 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
GB201216210D0 (en) * 2012-09-12 2012-10-24 Appeartome Ltd Augmented reality apparatus and method
US9547937B2 (en) 2012-11-30 2017-01-17 Legend3D, Inc. Three-dimensional annotation system and method
US20140177908A1 (en) * 2012-12-26 2014-06-26 Himax Technologies Limited System of object detection
US9438878B2 (en) * 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
US9460543B2 (en) * 2013-05-31 2016-10-04 Intel Corporation Techniques for stereo three dimensional image mapping
CN104427323B (zh) * 2013-08-23 2016-08-10 鸿富锦精密工业(深圳)有限公司 基于深度的三维图像处理方法
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US9363499B2 (en) * 2013-11-15 2016-06-07 Htc Corporation Method, electronic device and medium for adjusting depth values
GB201404990D0 (en) 2014-03-20 2014-05-07 Appeartome Ltd Augmented reality apparatus and method
US10158847B2 (en) * 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
US9396400B1 (en) * 2015-07-30 2016-07-19 Snitch, Inc. Computer-vision based security system using a depth camera
US9818232B2 (en) * 2015-08-26 2017-11-14 Adobe Systems Incorporated Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing
US9609307B1 (en) * 2015-09-17 2017-03-28 Legend3D, Inc. Method of converting 2D video to 3D video using machine learning
US10841491B2 (en) 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
KR102624560B1 (ko) * 2017-01-31 2024-01-15 엘지전자 주식회사 청소기
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
KR102495753B1 (ko) * 2017-10-10 2023-02-03 삼성전자주식회사 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치
WO2019075473A1 (en) * 2017-10-15 2019-04-18 Analog Devices, Inc. METHODS AND SYSTEMS FOR PROCESSING FLIGHT TIME DEPTH IMAGE
KR102468897B1 (ko) * 2017-10-16 2022-11-21 삼성전자주식회사 깊이 값을 추정하는 방법 및 장치
CN109979013B (zh) * 2017-12-27 2021-03-02 Tcl科技集团股份有限公司 三维人脸贴图方法及终端设备
WO2019144300A1 (zh) * 2018-01-23 2019-08-01 深圳市大疆创新科技有限公司 目标检测方法、装置和可移动平台
JP2019144633A (ja) * 2018-02-16 2019-08-29 全友電腦股▲ふん▼有限公司 画像処理方法、および、その画像処理方法を利用する走査システム
CN110390629A (zh) * 2018-04-13 2019-10-29 上海中晶科技有限公司 影像处理方法及其扫描系统
TWI684955B (zh) * 2018-05-25 2020-02-11 瑞昱半導體股份有限公司 前景影像的提取方法與電子裝置
CN110060205B (zh) * 2019-05-08 2023-08-08 北京迈格威科技有限公司 图像处理方法及装置、存储介质及电子设备
CN110400273B (zh) * 2019-07-11 2022-03-22 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质
WO2023031999A1 (ja) * 2021-08-30 2023-03-09 日本電信電話株式会社 映像情報処理装置、方法およびプログラム
CN115082993A (zh) * 2022-06-27 2022-09-20 平安银行股份有限公司 一种基于张嘴动作的人脸活检方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (ja) * 2003-03-20 2004-10-28 Omron Corp 画像処理装置
JP2005157584A (ja) * 2003-11-21 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> 擬似的3次元画像生成装置、擬似的3次元画像生成方法及び擬似的3次元画像生成プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3554200B2 (ja) * 1998-08-31 2004-08-18 キヤノン株式会社 プロセスカートリッジ及び画像形成装置及びクリーニング部材取り付け方法
US6658136B1 (en) * 1999-12-06 2003-12-02 Microsoft Corporation System and process for locating and tracking a person or object in a scene using a series of range images
JP2002194285A (ja) 2000-12-22 2002-07-10 Jsr Corp ハードコートフィルム
JP2004040445A (ja) 2002-07-03 2004-02-05 Sharp Corp 3d表示機能を備える携帯機器、及び3d変換プログラム
US7340079B2 (en) * 2002-09-13 2008-03-04 Sony Corporation Image recognition apparatus, image recognition processing method, and image recognition program
US7262767B2 (en) 2004-09-21 2007-08-28 Victor Company Of Japan, Limited Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
CN101180653A (zh) * 2005-04-07 2008-05-14 Nxp股份有限公司 用于三维呈现的方法和设备
US8682029B2 (en) * 2007-12-14 2014-03-25 Flashfoto, Inc. Rule-based segmentation for objects with frontal view in color images
US8315474B2 (en) * 2008-01-18 2012-11-20 Sanyo Electric Co., Ltd. Image processing device and method, and image sensing apparatus
TW201005673A (en) 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
CN101567043B (zh) * 2009-05-31 2012-02-01 中山大学 基于分类识别的人脸跟踪方法
CN102803991B (zh) * 2009-06-03 2014-06-04 学校法人中部大学 物体检测设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (ja) * 2003-03-20 2004-10-28 Omron Corp 画像処理装置
JP2005157584A (ja) * 2003-11-21 2005-06-16 Nippon Telegr & Teleph Corp <Ntt> 擬似的3次元画像生成装置、擬似的3次元画像生成方法及び擬似的3次元画像生成プログラム

Also Published As

Publication number Publication date
EP2639761A1 (en) 2013-09-18
CN102696054B (zh) 2016-08-03
EP2639761A4 (en) 2015-04-29
US20120274634A1 (en) 2012-11-01
CN102696054A (zh) 2012-09-26
EP2639761B1 (en) 2019-05-08
US9014462B2 (en) 2015-04-21
JPWO2012063480A1 (ja) 2014-05-12
WO2012063480A1 (ja) 2012-05-18

Similar Documents

Publication Publication Date Title
JP5887515B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置
JP5587894B2 (ja) 深さマップを生成するための方法及び装置
US8340422B2 (en) Generation of depth map for an image
US20210134049A1 (en) Image processing apparatus and method
WO2018099136A1 (zh) 一种低照度图像降噪方法、装置及存储介质
EP4198875A1 (en) Image fusion method, and training method and apparatus for image fusion model
CN109462747B (zh) 基于生成对抗网络的dibr系统空洞填充方法
RU2423018C2 (ru) Способ и система для преобразования стереоконтента
US9041773B2 (en) Conversion of 2-dimensional image data into 3-dimensional image data
JP2009517951A (ja) 立体画像表示方法、2次元画像データの入力から3次元画像データを生成する方法及び装置
CN106372629A (zh) 一种活体检测方法和装置
KR102187143B1 (ko) 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법
JP2013185905A (ja) 情報処理装置及び方法、並びにプログラム
CN111447428A (zh) 平面至立体图像的转换方法、装置、计算机可读存储介质及设备
CN116612263B (zh) 一种感知潜视觉合成一致性动态拟合的方法及装置
Lee et al. Estimating scene-oriented pseudo depth with pictorial depth cues
JP5419773B2 (ja) 顔画像合成装置
Seitner et al. Trifocal system for high-quality inter-camera mapping and virtual view synthesis
JP2011210118A (ja) 顔画像合成装置
CN113327277A (zh) 一种半身像的三维重建方法及装置
JP2004086538A (ja) 画像の特徴量分類方法および装置
CN117576338A (zh) 一种动态图像生成方法、装置、电子设备和存储介质
JP2022181493A (ja) 画像処理装置、画像処理方法およびプログラム
WO2023235273A1 (en) Layered view synthesis system and method
CN118037922A (zh) 一种基于神经辐射场的ar眼镜数据处理方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140919

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151021

R151 Written notification of patent or utility model registration

Ref document number: 5887515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

S131 Request for trust registration of transfer of right

Free format text: JAPANESE INTERMEDIATE CODE: R313135

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350