JP2008518317A - 視差マップ - Google Patents

視差マップ Download PDF

Info

Publication number
JP2008518317A
JP2008518317A JP2007537466A JP2007537466A JP2008518317A JP 2008518317 A JP2008518317 A JP 2008518317A JP 2007537466 A JP2007537466 A JP 2007537466A JP 2007537466 A JP2007537466 A JP 2007537466A JP 2008518317 A JP2008518317 A JP 2008518317A
Authority
JP
Japan
Prior art keywords
value
input
image
output
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007537466A
Other languages
English (en)
Other versions
JP4762994B2 (ja
Inventor
ロベルト−パウル エム ベルレッティ
バルト ジー ビー バレンブルグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2008518317A publication Critical patent/JP2008518317A/ja
Application granted granted Critical
Publication of JP4762994B2 publication Critical patent/JP4762994B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Materials For Medical Uses (AREA)
  • Prostheses (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

第2の画像を計算するため、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを計算するための方法が開示される。前記計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づく。前記方法は、所定の基準に基づいて入力視差マップに基づいて特定の入力値(206)を決定するステップと、特定の入力要素の入力値(206)がゼロに略等しい所定の出力値(208)にマッピングされるようなマッピング関数を、前記特定の入力要素の入力値(206)に基づいて決定するステップと、前記マッピング関数に基づいて、前記入力要素の入力値を、前記出力要素のそれぞれの出力値にマッピングするステップと、を有する。

Description

本発明は、第2の画像を計算するため、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを計算するための方法であって、前記計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づく方法に関する。
本発明は更に、第2の画像を計算するため、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを計算するためのユニットであって、前記計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づくユニットに関する。
本発明は更に、出力視差マップを計算するための斯かるユニットを有する画像処理装置に関する。
本発明は更に、コンピュータ装置によってロードされるコンピュータプログラムであって、第2の画像を計算するため、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを計算するためのコンピュータプログラムであって、前記計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づきするための命令を有するコンピュータプログラムに関する。
表示装置の導入以来、現実感の高い3次元(3−D)表示装置は多くにとっての夢であった。斯かる表示装置に導くような多くの原理が研究されてきた。幾つかの原理は、特定の体積で、現実感の高い3−Dオブジェクトを生成しようと試みる。例えば、A. Sullivanによる論文「Solid-state Multi-planar Volumetric Display」(SID'03のプロシーディング、1531-1533、2003年)に開示される表示装置においては、高速投射器により情報が平面のアレイにおいて移動させられる。各面は切り換え可能なディフューザである。該面の数が十分に多ければ、人間の脳は画像を統合して、現実感の高い3−Dオブジェクトを観測する。この原理は、観測者が、或る程度オブジェクトを見回すことを可能とする。該表示装置においては、全てのオブジェクトが(半)透明である。
他の多くのものは、両眼視差のみに基づく3−D表示装置を作り出そうと試みている。これらのシステムにおいては、観測者の左眼と右眼とが別の画像を知覚し、それにより観測者が3−D画像を知覚する。これらの概念の概要は、書籍「Stereo Computer Graphics and Other True 3-D Technologies」(D.F.McAllister(Ed.)、Princeton University Press、1993年)に見出される。第1の原理は、例えばCRTと組み合わせて、シャッタグラスを利用する。奇数フレームが表示される場合に左眼への光が遮断され、偶数フレームが表示される場合には右眼への光が遮断される。
付加的な器具の必要なく3−Dを表示する表示装置は、自動立体視(auto-stereoscopic)表示装置と呼ばれる。
第1の眼鏡不要の表示装置は、観測者の左眼及び右眼に向けられる光の円錐を生成する障壁を有する。前記円錐は例えば、奇数及び偶数のサブ画素列に対応する。適切な情報を用いてこれらの列をアドレス指定することにより、観測者が適切な地点に位置している場合には、観測者は左眼と右眼とで異なる画像を取得し、3−D画像を知覚することが可能である。
第2の眼鏡不要の表示装置は、観測者の左眼及び右眼に、奇数及び偶数のサブ画素列の光を投影するためのレンズのアレイを有する。
上述の眼鏡不要の表示装置の欠点は、観測者が一定の位置に留まる必要があることである。観測者をガイドするため、該観測者が適切な位置に居ることを示すインジケータが提案されてきた。例えば、障壁板が赤及び緑のLEDと組み合わせられた、米国特許番号US5986804を参照されたい。観測者が適切な位置に居る場合には該観測者は緑色の光を見、そうでなければ赤い光を見ることになる。
観測者が一定に位置に座る必要をなくすため、マルチビュー型自動立体視表示装置が提案されてきた。例えば、米国特許US60064424及びUS20000912を参照されたい。US60064424及びUS20000912において開示されたような表示装置においては、斜めに配置されたレンチキュラが利用され、該レンチキュラの幅は2つのサブ画素よりも大きい。このようにして、互いに隣り合う幾つかの画像があり、観測者は左及び右へと移動する幾分かの自由度を持つ。
マルチビュー型表示装置において3Dの印象を生成するために、異なる仮想的な視点からの画像がレンダリングされる必要がある。このことは、複数の入力ビュー又は幾つかの3D若しくは奥行情報が存在することを必要とする。該奥行情報は記録されていても良いし、マルチビューカメラシステムから生成されても良いし、又は従来の2Dビデオマテリアルから生成されても良い。2Dビデオから奥行情報を生成するために、動きからの構造、フォーカス情報、幾何形状及び動的な隠蔽(occlusion)のような、幾つかのタイプの奥行の手掛かりが利用され得る。目的は、密な奥行マップ即ち画素毎の奥行値を生成することである。該奥行マップは続いて、観測者に奥行の印象を与えるためにマルチビュー画像をレンダリングする際に利用される。P.A.Redert、E.A.Hendriks及びJ.Biemondによる「Synthesis of multi viewpoint images at non-intermediate positions」(International Conference on Acoustics, Speech and Signal Processingのプロシーディング、Vol. IV, ISBN 0-8186-7919-0, 2749-2752頁, IEEE Computer Society, Los Alamitos, California, 1997)と題された論文において、奥行情報を抽出し、入力画像及び奥行マップに基づいてマルチビュー画像をレンダリングする方法が開示されている。マルチビュー画像は、3Dの印象を生成するために、マルチビュー表示装置により表示されるべき、画像のセットである。一般に、該セットの画像は、入力画像に基づいて生成される。これら画像の1つを生成することは、入力画像の画素を、それぞれのシフトの量だけシフトさせることにより為される。該シフトの量は、視差(disparity)と呼ばれる。従って一般に、各画素について、対応する視差値が存在し、合わせて視差マップを形成する。視差値及び奥行値は一般に反比例する。即ち、
S=C/D (1)
である。ここでSは視差であり、Cは一定値であり、Dが奥行である。
例えば、2D画像のシーケンス及び対応する深度マップを表す信号を受信するように構成され、また当該入力をマルチビュー画像のシーケンスに変換するように構成されたマルチビュー表示装置のような、画像処理装置を考える。該マルチビュー表示装置は、同時に9個の画像を表示するように構成される、即ち各マルチビュー画像が9個の異なる画像のセットを有すると仮定する。奥行マップは、式1に規定される線形演算により視差マップに変換され、前記マルチビュー表示装置の能力に基づいて、及び任意にユーザの好みに基づいて、マルチビュー画像を計算するために利用される。変換とは、奥行値の範囲が視差値の範囲にマッピングされることを意味する。例えば、奥行値が[50,200]メートルの範囲内にあれば、視差値が[0,5]画素の範囲内にある。一般に当該マッピングは線形のスケーリングに対応し、それにより奥行値の最低値が視差範囲の最低値に直接マッピングされ、奥行値の最高値が視差マップの最高値に直接マッピングされる。不運にも、このことはマルチビュー画像の最良の画質に帰着しない。
本発明の目的は、マルチビュー表示装置において表示されるべきマルチビュー画像を計算するために出力視差マップが利用される場合に、比較的高画質のマルチビュー画像に帰着する、最初のパラグラフにおいて記載した種類の方法を提供することにある。
本発明の本目的は、
所定の基準に基づいて入力視差マップに基づいて特定の入力値を決定するステップと、
前記特定の入力値がゼロに略等しい所定の出力値にマッピングされるようなマッピング関数を、前記特定の入力値に基づいて決定するステップと、
前記マッピング関数に基づいて、前記入力要素の入力値を、前記出力要素のそれぞれの出力値にマッピングするステップと、
を有する方法により達成される。
マルチビュー表示装置は一般に、場面の一部が該表示装置の画面の平面の前方に位置するように見え、他の一部が該画面の平面の後方に位置するように見えるように駆動される。このことは、該表示装置の奥行範囲の最適な利用に帰着する。該表示装置により表示される異なる画像間のクロストークにより、画面の平面から離れて(前方に又は後方に)存在するオブジェクトはぼやけて見える。なぜなら、該場面の斯かる部分のシフトされたバージョンが混合されて見えるからである。この効果は、ゴーストとして知られている。しかしながら、前記画面の平面の比較的近くに位置するオブジェクトは、比較的鮮明に見える。一般に、場面において重要なオブジェクトは比較的鮮明に可視化される必要があり、重要でないオブジェクトは鮮明でなく可視化され得る。本発明は、この洞察に基づくものである。このことは、所定の基準に基づいて特定の入力要素の入力値が決定され、ここで前記所定の基準は一般に、当該特定の入力要素が比較的重要なオブジェクトに対応するという条件を満たすことを意味する。特定の入力要素の入力値の、出力要素のそれぞれの出力値へのマッピングは、当該特定の入力要素が、ゼロに略等しい所定の出力値にマッピングされるように実行される。このことの効果は、マルチビュー画像の異なる画像をレンダリングするために、当該入力要素に対応するそれぞれの画素に対して、画素シフトが適用される必要が無いか又は殆ど無いことである。画素シフトを利用しないこと又は殆ど利用しないことは、画面の平面に比較的近くに見えることに帰着する。上述したように、このことは比較的鮮明な表現が達成されること意味する。その結果、当該特定の入力要素の値から比較的大きく離れた奥行値即ち視差値を持つオブジェクトが、よりぼやけて可視化される。
本発明による方法の実施例においては、前記マッピング関数は、前記入力要素の入力値に一定値を加算すること又は前記入力要素の入力値から一定値を減算することに対応し、前記一定値は、前記特定の入力値と前記所定の出力値との間の差の計算に基づく。一般に、前記入力値と前記所定の出力値との差は、オフセットの符号に依存して加算又は減算されるべき一定値として利用されるオフセットに対応する。
本発明による方法の実施例においては、前記所定の基準は前記第1の画像に基づく。このことは、前記第1の画像の輝度値及び/又は色値の解析に基づいて、前記特定の入力値が決定されることを意味する。
本発明による方法の実施例においては、前記所定の基準は前記第1の画像に基づき、前記所定の基準は、前記特定の入力値が、前記第1の画像のそれぞれの他の画素の値の他の鮮明度値に比べて比較的高い鮮明度値を持つ、前記第1の画像の特定の画素に対応する特定の入力要素に属することである。好ましくは、前記特定の画素の鮮明度値は、前記特定の画素の輝度及び/又は色値と、前記特定の画素に隣接する画素の輝度及び/又は色値との差を計算することにより決定される。カメラにより捕捉される典型的な画像は、画像捕捉光学系の焦点にあった場面の部分が比較的鮮明になり、該場面の他の部分が比較的不鮮明に即ちぼやけたものである。本発明による方法の当該実施例の利点は、画像の捕捉の間に焦点の合っていた場面の部分が、表示装置の画面の平面にマッピングされる点である。焦点の合っていなかった該場面の他の部分は、表示装置の画面の平面の前方又は後方に見えるようになる。
本発明による方法の実施例においては、前記所定の基準は、前記特定の入力値が、所定の位置に位置する前記第1の画像の特定の画素に対応する特定の入力要素に属することである。一般に、比較的重要なオブジェクトは、画像における所定の位置に見える。なぜなら例えば、画像を作成する人物が斯かる構成を好むからである。例えば、前記所定の位置は前記第1の画像の中心に近い。例えば、1人の人物が中央に居る画像について考慮されたい。代替として、前記所定の位置は前記第1の画像の境界に近い。例えば、2人の人物が互いに会話をしており、画像のそれぞれの境界に位置する例を考慮されたい。本発明による方法の当該実施例の利点は、単純さにある。当該基準即ち座標に基づく特定の入力要素の入力値の決定は比較的容易であることに留意されたい。
本発明による方法の実施例においては、前記所定の基準は、前記第1の画像及び第3の画像に基づいて計算された動きベクトル場に基づき、前記第1の画像及び前記第3の画像は、時間的に連続する画像のシーケンスに属する。動きベクトル場の解析は、画像におけるオブジェクトの相対的な重要度についての情報も提供する。静止した背景の場合には、前方で比較的高速に移動するオブジェクトは、重要なものであると予想される。従って、前記所定の基準は、前記特定の入力値が、比較的大きな動きベクトルを持つ前記第1の画像の特定の画素に対応する特定の入力要素に属することであっても良い。代替としては、前記所定の基準は、前記特定の入力値が、比較的小さな動きベクトルを持つ前記第1の画像の特定の画素に対応する特定の入力要素に属することである。このことは、移動するオブジェクトに追従するために、カメラがパンしている場合に対応する。
本発明による方法の実施例においては、前記所定の基準は、前記特定の入力値が、前記入力視差マップの一部において比較的高い出現の頻度を持つ、とり得る入力値の範囲の値に等しいことである。本発明による当該実施例の利点は、比較的頑強であるという点である。一般に、時間的に連続する視差マップについての出現の頻度のスペクトルは、比較的一定である。連続するマルチビュー画像は、同一のオブジェクトが、表示装置の画面の平面に対して同一の奥行に留まるようにレンダリングされる。
本発明による方法の実施例においては、前記特定の入力値は、以上に記載されたような所定の基準に基づいて決定される2つの更なる入力値の組み合わせに基づく。いずれも重要ではあるが異なる視差を持つ複数のオブジェクトが場面中に存在することもあり得る。マルチビュー型表示装置において、これらのオブジェクトのうち1つを選択して比較的鮮明にレンダリングすることは、他のオブジェクトの方をぼやけるようにレンダリングすることに帰着する。妥協点を採ること、即ち双方のオブジェクトを適度に鮮明にすることは、斯かる状況においては有利である。典型的には、前記組み合わせとは、前記2つの更なる入力値の重み付けされた平均である。
本発明による方法の実施例においては、前記マッピング関数は鮮明度マップに基づくスケーリングを有し、前記鮮明度マップは、第1の画像の対応する画素とそれぞれの隣接する画素との差に基づく鮮明度値の要素を有する。典型的には、マッピング関数を定義するためには、上述したようにオフセットのみならず、スケーリング因子も必要とされる。入力画像の鮮明さに基づいて出力範囲及び従ってスケーリング因子を限定することが有利である。本発明による方法の当該実施例によれば、第1の画像の固有の鮮明さ及び対応する視差値に基づいて、最適なスケーリング因子が決定される。
本発明の他の目的は、マルチビュー表示装置において表示されるべきマルチビュー画像を計算するために出力視差マップが利用される場合に、比較的高画質のマルチビュー画像に帰着する、最初のパラグラフにおいて記載した種類のユニットを提供することにある。
本発明の本目的は、
所定の基準に基づいて入力視差マップに基づいて特定の入力値を決定する第1の決定手段と、
前記特定の入力値がゼロに略等しい所定の出力値にマッピングされるようなマッピング関数を、前記特定の入力値に基づいて決定する第2の決定手段と、
前記マッピング関数に基づいて、前記入力要素の入力値を、前記出力要素のそれぞれの出力値にマッピングするマッピング手段と、
を有するユニットにより達成される。
本発明の他の目的は、マルチビュー表示装置において表示されるべきマルチビュー画像を計算するために出力視差マップが利用される場合に、比較的高画質のマルチビュー画像に帰着する、最初のパラグラフにおいて記載した種類の画像処理装置を提供することにある。
本発明の本目的は、請求項17に記載された、出力視差マップを計算するためのユニットを有する画像処理装置により達成される。
本発明の他の目的は、マルチビュー表示装置において表示されるべきマルチビュー画像を計算するために出力視差マップが利用される場合に、比較的高画質のマルチビュー画像に帰着する、最初のパラグラフにおいて記載した種類のコンピュータプログラムを提供することにある。
本発明の本目的は、ロードされた後に、
所定の基準に基づいて入力視差マップに基づいて特定の入力値を決定するステップと、
前記特定の入力値がゼロに略等しい所定の出力値にマッピングされるようなマッピング関数を、前記特定の入力値に基づいて決定するステップと、
前記マッピング関数に基づいて、前記入力要素の入力値を、前記出力要素のそれぞれの出力値にマッピングするステップと、
を実行する機能を処理手段に提供するコンピュータプログラムにより達成される。
出力視差マップを計算するユニットの変更及び該ユニットの変形例は、記載される画像処理装置、方法及びコンピュータプログラムの変更及びそれらの変形例に対応しても良い。
本発明による出力視差マップを計算するためのユニット、画像処理装置、方法及びコンピュータプログラムのこれらの及び他の態様は、以下に説明される実装例及び実施例に関連して、添付図面を参照しながら説明され明らかとなるであろう。
図を通して、同一の参照番号が、類似する部分を示すために利用される。
図1は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づいて出力視差マップを計算するためのユニット100を模式的に示す。出力視差マップは、第2の画像を計算するために第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する。これらのシフトは、整数シフトに対応しても良い。代替としては非整数値が利用され、このことは第2の画像の画素値を計算するために補間が必要とされることを意味する。典型的には、入力視差マップが入力コネクタ108において供給される。代替としては、奥行マップが入力コネクタ108において供給される。この場合には、奥行マップから入力視差マップへの変換が、出力視差マップを計算するためのユニット100によって実行される。
出力視差マップは、出力コネクタ112において供給される。任意に、出力視差マップのセットが供給され、当該セットの視差マップがマルチビュー画像のそれぞれの画像に対応しても良い。
出力視差マップを計算するためのユニット100は、
−所定の基準に基づいて、入力視差マップの特定の入力要素の入力値を決定するための第1の決定手段102と、
−前記特定の入力要素の入力値に基づいてマッピング関数を決定するための第2の決定手段104と、
を有し、ここでマッピングは、前記特定の入力要素の入力値が、略ゼロに等しい所定の出力値にマッピングされるような関数であり、ユニット100は更に、
−前記マッピング関数に基づいて、前記入力要素の入力値を、出力要素のそれぞれの出力値にマッピングするマッピング手段106を有する。
第1の決定手段102、第2の決定手段104及びマッピング手段106は、1つのプロセッサを利用して実装されても良い。通常、これらの機能は、ソフトウェアプログラムの制御下で実行される。実行の間、該ソフトウェアプログラムは通常、RAMのようなメモリにロードされ、該メモリから実行される。該プログラムは、ROM、ハードディスク若しくは磁気及び/又は光記憶装置のようなバックグラウンドメモリからロードされても良いし、又はインターネットのようなネットワークを介してロードされても良い。任意に、特定用途向け集積回路が開示される機能を提供する。
任意に、出力視差マップを計算するためのユニット100は、例えば図4及び5にそれぞれ開示されるようなビデオデータ又は動きベクトル場のような、付加的な情報を供給するための第2の入力コネクタ110を有する。
マッピング関数は、入力要素をそれぞれの出力要素にマッピングするための、いずれの種類の演算であっても良い。一般には、入力要素は入力範囲内の値を持ち、出力要素は出力範囲内の値を持ち、該入力範囲と該出力範囲とは異なる。図2は、入力視差マップの値の入力範囲200、並びに第1の出力視差マップの値の出力範囲202及び第2の出力視差マップの出力範囲を示す。図2に示されるように、入力視差マップの入力要素は、0から10までの範囲の値を持つ。第1の出力視差マップを計算することは、以下のステップを有する:
−第1に、所定の基準に基づいて、入力視差マップの特定の要素の入力値206が決定される。本例においては、該特定の要素の入力値206は、1.5に等しい。
−第2に、前記特定の入力要素の入力値206に基づいて、マッピング関数が決定される。該マッピング関数は、前記特定の入力要素の入力値206が、ゼロに略等しい所定の出力値208にマッピングされるようなものである。この場合、マッピング関数は比較的容易である。この目的のため、入力値206と出力値208との差を計算することにより、オフセットが計算される。オフセットは1.5である。
−第3に、前記マッピング関数に基づいて、前記入力要素の入力値が、出力要素のそれぞれの出力値にマッピングされる。このことは、各入力要素から、1.5であるオフセットが減算され、対応する出力要素が計算されることを意味する。結果は、第1の出力視差マップである。
任意に、表示装置に適した又はユーザの好みに対応する値の範囲204に値の範囲をマッピングするために、第1の出力視差マップ202が、第2の出力視差マップにスケーリングされる。該スケーリングは、範囲のシフトが起こらないようなもの、即ち第2の出力視差マップの特定の値210が、第1の出力視差マップの出力値208に対応するようなものであることに留意されたい。
好ましくは、マッピング関数は、鮮明度マップに基づくスケーリングを有する。該鮮明度マップは、第1の画像の対応する画素とそれぞれの隣接する画素との間の差に基づく鮮明度値の要素を有する。何らかのものが既に不鮮明である場合には、これに比較的大きな視差を与えること、即ち表示装置の画面の平面から比較的離して表示することは問題とはならない。比較的大きな視差による付加的な不鮮明さは、可視となり難い。しかしながら、ぼけを防ぐために、比較的鮮明なオブジェクトは、比較的小さな量の視差を伴ってレンダリングされるべきである。
入力視差マップを出力視差マップにスケーリングするために適用され得るスケーリング因子Gを決定するため、以下のストラテジが好適である。画像の画素についてそれぞれの鮮明度値を有する鮮明度マップがあり、且つ該画像の画素についてそれぞれの視差値を有する入力視差マップがあると仮定する。座標(x,y)を持つ画素についての鮮明度値はE(x,y)により示され、座標(x,y)を持つ画素についての入力視差値はSin(x,y)により示される。各鮮明度値E(i)について、許容可能な最大視差値Smax(i)があると仮定する。このことは、鮮明度値を最大視差値にマッピングする関数が存在することを意味する。
f(E(i))=Smax(i) (2)
一般に、該関数は、比較的低い鮮明度値が、比較的高い最大視差値にマッピングされるようなものである。該関数は、例えば以下の式に規定されるような、線形関数であっても良い。
f(E(i))=CE(i)+C
許容可能な最大視差と特定の画素の入力視差との間の関係は、該特定の画素についての最大許容可能スケール因子g(x,y)によって決定される。
Figure 2008518317
全体の入力視差マップについてのスケーリング因子Gを決定するために、入力視差マップの最大許容可能スケール因子g(x,y)の最小値が決定される必要がある。特定の画素についての最大スケール因子より大きな特定のスケール因子は、当該特定の画素についての許容可能な最大視差値よりも高い出力視差値に帰着することに留意されたい。従って、入力視差マップについてスケーリング因子Gを見つけるためには、最小のg(x,y)が決定される必要がある。
G=min(x,y)(g(x,y)) (4)
図3は、出力視差マップを計算するためのユニット100の第1の実施例、及びレンダリングユニット302を模式的に示す。第1の入力コネクタ310においてビデオデータが供給され、第2の入力コネクタ308において、対応する視差データが供給される。一般に、このことは、各ビデオフレームについて対応する視差マップ又は代替として奥行マップが供給されることを意味する。奥行マップは、ユニット100を有する画像処理装置においてビデオデータから導出されても良い。代替としては、視差マップが、外部的に決定され、ビデオデータと組み合わせて供給される。出力視差マップを計算するためのユニット100の第1の実施例は、各受信された入力視差マップについて、9個の異なる出力視差マップからなるセットを決定するように構成される。レンダリングユニット302は、各受信された入力ビデオ画像から、前記9個の異なる出力視差マップからなるセットに基づいて、9個の出力画像からなるセットを有するマルチビュー画像を計算するように構成される。
出力視差マップを計算するためのユニット100の第1の実施例は、入力視差マップに基づいて、マッピング関数を決定するように構成される。このことは好ましくは、視差値のヒストグラムを作成することにより、即ち種々の視差値の出現の頻度を計数することにより実行される。次のステップは、比較的高い出現の頻度を持つ特定の値を決定することである。該特定の値は、ゼロに略等しい所定の出力値にマッピングされる。ゼロに略等しいとは、レンダリングのためにシフトが適用されないか又は限られたシフトのみが適用され、これにより画像の選択された領域が表示装置の画面の平面内に見えることに対応する値の範囲を意味する。
比較的高い出現の頻度を持つ1つの特定の値を決定する代わりに、例えば2又は3個の値のような、斯かる値の限られたセットが選択されても良い。次いで、該値のセットの平均が計算され、所定の値即ちゼロにマッピングされるべき値として利用される。任意に、それぞれの決定された出現の頻度が、重み付けされた平均を計算するために値を重み付けするために利用されても良い。
値のヒストグラムを決定する代わりに又はこれに加えて、出力視差マップを計算するためのユニット100の第1の実施例は、他の所定の基準に基づいて所定の値にマッピングされるべき特定の値を決定するように構成される。前記基準は、例えば画像の中心又は境界に位置し従ってそれぞれ中心の又は境界の視差マップに入力されるといった、座標に基づいて特定の値を選択することであっても良い。
連続する視差マップにおける一定の変化、及び結果の場面の前方向又は逆方向の移動を避けるため、連続する入力又は出力視差マップは、例えば幾つかのビデオフレームの半分の時間を持つIIRフィルタを用いて、ローパスフィルタリングされる。
図4は、出力視差マップを計算するためのユニット100の第2の実施例、レンダリングユニット302及び画像コンテンツ解析ユニット402を模式的に示す。好ましくは、画像コンテンツ解析ユニット402は、ビデオ画像における比較的重要な領域を決定するように構成される。ディジタル写真の応用分野から、カメラのセンサに場面をフォーカスさせるためにカメラにより感知されたプレ画像(pre-image)を利用する、幾つかの自動フォーカスアルゴリズムが知られている。一般に、プレ画像における1以上の領域が分析され、画像における高いエネルギーの量を最大化する構成にフォーカスが設定される。マルチビュー画像のためのレンダリングが問題となる設定においては、画面の平面が、画像における最も鮮明な領域に対応する奥行に設定されることが好ましい。なぜなら、これら領域は元の2D画像が捕捉されたときにフォーカスが合っていた見込みが高く、マルチビュー表示装置用のレンダリングの際にもフォーカスが合っているままであるべきであるからである。好ましくは、画像コンテンツ解析ユニット402は、フォーカスマップを決定するように構成される。このことは、入力画像の各画素について、相対的な鮮明度を表す値のフォーカス(ブラー半径とも呼ばれる)が決定されることを意味する。或る画素についてのブラー半径は、当該画素と隣接する画素との間の差を分析することにより計算される。輝度及び/又は色値の間の比較的大きな差は、比較的高い鮮明度値を意味する。比較的高い鮮明度を持つ画素を比較的多く持つ画像中の領域は、重要な領域であると想定される。斯かる領域から、特定の画素が選択される。例えば、斯かる領域の中心に位置する画素、又は最も高い鮮明度値を持つ画素が選択される。当該画素の座標は、入力視差マップの特定の要素を選択するために利用される。該特定の要素の値は、前記所定の値にマッピングされるべき値である。
図5は、出力視差マップを計算するためのユニット100の第3の実施例、レンダリングユニット302及び動き場解析ユニット502を模式的に示す。動き場解析ユニット502は、ビデオデータの連続する画像に基づいて、動きベクトル場を計算するための動き推定器を有する。前記動き推定器は、例えばG. de Haanらによる「True-Motion Estimation with 3-D Recursive Search Block Matching」(「IEEE Transaction on circuits and systems for video technology」、vol. 3、no. 5、1993年10月、368-379頁)と題された論文に明示されている。動き場解析ユニット502は、動き推定器により計算された動きベクトル場を解析するように構成される。解析手段は例えば、比較的高い値を持つ動きベクトルを探し出す、又は代替として比較的低い値を持つ動きベクトルを探し出すものである。好ましくは、動き場解析ユニット502は、画像についての全体の動きモデルを決定するように構成される。斯かるモデルに基づいて、画像のシーケンスが移動するオブジェクトの追跡に対応するか否かを決定することが可能となる。この場合、カメラは移動するオブジェクトを追従していたことになる。背景についての動きベクトルは比較的高く、低い動きベクトルは該オブジェクトに対応する。このとき、斯かる比較的低い動きベクトルが決定された画素の1つに対応する入力視差マップの特定の要素が、前記所定の出力値にマッピングされるべき値を持つ特定の要素として選択される。
代替としては、画像のシーケンスが、前をオブジェクトが移動する静的な背景に対応する。この場合には、比較的高い動きベクトルは、移動するオブジェクトに対応する。このとき、斯かる比較的高い動きベクトルが決定された画素の1つに対応する入力視差マップの特定の要素が、前記所定の出力値にマッピングされるべき値を持つ特定の要素として選択される。
図6は、
ビデオ画像を表す信号を受信するための受信手段602と、
図3乃至5のいずれかにおいて開示された出力視差マップを計算するためのユニット100及びレンダリングユニット302を有する処理ユニットの組み合わせ604と、
レンダリングユニット302の出力画像を表示するための表示装置606と、
を有する画像処理装置600を模式的に示す。
前記信号は、アンテナ又はケーブルを介して受信される放送信号であっても良いが、VCR(Video Cassette Recorder)又はDVD(Digital Versatile Disk)のような記憶装置からの信号であっても良い。該信号は、入力コネクタ610において供給される。画像処理装置600は、例えばTVであっても良い。代替としては、画像処理装置600は、任意の表示装置を有さず、表示装置606を有する装置に出力画像を供給する。このとき、画像処理装置600は例えばセットトップボックス、衛星チューナ、VCRプレイヤ、DVDプレイヤ又はレコーダであっても良い。任意に、画像処理装置600は、ハードディスク又は例えば光ディスクのような着脱可能な媒体における記憶のための手段のような、記憶手段を有する。画像処理装置600は、映画スタジオ又は放送局により利用されるシステムであっても良い。
上述の実施例は本発明を限定するものではなく説明するものであって、当業者は添付する請求項の範囲から逸脱することなく代替実施例を設計することが可能であろうことは留意されるべきである。請求項において、括弧に挟まれたいずれの参照記号も、請求の範囲を限定するものとして解釈されるべきではない。「有する(comprise)」なる語は、請求項に記載されたもの以外の要素又はステップの存在を除外するものではない。要素に先行する冠詞「1つの(a又はan)」は、複数の斯かる要素の存在を除外するものではない。本発明は、幾つかの別個の要素を有するハードウェアによって、及び適切にプログラムされたコンピュータによって実装されても良い。幾つかの手段を列記したユニットの請求項において、これら手段の幾つかは同一のハードウェアのアイテムによって実施化されても良い。「第1」、「第2」及び「第3」等といった語の使用は、いずれの順序を示すものではない。これらの語は名称として解釈されるべきである。
出力視差マップを計算するためのユニットを模式的に示す。 入力視差マップの値の範囲及び出力視差マップの値の範囲を模式的に示す。 出力視差マップを計算するためのユニットの第1の実施例及びレンダリングユニットを模式的に示す。 出力視差マップを計算するためのユニットの第2の実施例及びレンダリングユニットを模式的に示す。 出力視差マップを計算するためのユニットの第3の実施例及びレンダリングユニットを模式的に示す。 本発明による出力視差マップを計算するためのユニットを有する画像処理装置を模式的に示す。

Claims (19)

  1. 第2の画像を計算するため、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを計算するための方法であって、前記計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づき、前記方法は、
    所定の基準に基づいて入力視差マップに基づいて特定の入力値を決定するステップと、
    前記特定の入力値がゼロに略等しい所定の出力値にマッピングされるようなマッピング関数を、前記特定の入力値に基づいて決定するステップと、
    前記マッピング関数に基づいて、前記入力要素の入力値を、前記出力要素のそれぞれの出力値にマッピングするステップと、
    を有する方法。
  2. 前記マッピング関数は、前記入力要素の入力値に一定値を加算すること又は前記入力要素の入力値から一定値を減算することに対応し、前記一定値は、前記特定の入力値と前記所定の出力値との間の差の計算に基づく、請求項1に記載の方法。
  3. 前記所定の基準は前記第1の画像に基づく、請求項1又は2に記載の方法。
  4. 前記所定の基準は、前記特定の入力値が、前記第1の画像のそれぞれの他の画素の値の他の鮮明度値に比べて比較的高い鮮明度値を持つ、前記第1の画像の特定の画素に対応する特定の入力要素に属することである、請求項3に記載の方法。
  5. 前記特定の画素の鮮明度値は、前記特定の画素の輝度及び/又は色値と、前記特定の画素に隣接する画素の輝度及び/又は色値との差を計算することにより決定される、請求項4に記載の方法。
  6. 前記所定の基準は、前記特定の入力値が、所定の位置に位置する前記第1の画像の特定の画素に対応する特定の入力要素に属することである、請求項1又は2に記載の方法。
  7. 前記所定の位置は前記第1の画像の境界に近い、請求項6に記載の方法。
  8. 前記所定の位置は前記第1の画像の中心に近い、請求項6に記載の方法。
  9. 前記所定の基準は、前記第1の画像及び第3の画像に基づいて計算された動きベクトル場に基づき、前記第1の画像及び前記第3の画像は、時間的に連続する画像のシーケンスに属する、請求項3に記載の方法。
  10. 前記所定の基準は、前記特定の入力値が、比較的大きな動きベクトルを持つ前記第1の画像の特定の画素に対応する特定の入力要素に属することである、請求項9に記載の方法。
  11. 前記所定の基準は、前記特定の入力値が、比較的小さな動きベクトルを持つ前記第1の画像の特定の画素に対応する特定の入力要素に属することである、請求項9に記載の方法。
  12. 前記所定の基準は、前記特定の入力値が、前記入力視差マップの一部において比較的高い出現の頻度を持つ、とり得る入力値の範囲の値に等しいことである、請求項1又は2に記載の方法。
  13. 前記特定の入力値は、請求項1乃至12のいずれか一項に記載の前記所定の基準に基づいて決定される2つの更なる入力値の組み合わせに基づく、請求項1又は2に記載の方法。
  14. 前記組み合わせとは、前記2つの更なる入力値の重み付けされた平均である、請求項13に記載の方法。
  15. 前記マッピング関数は鮮明度マップに基づくスケーリングを有し、前記鮮明度マップは、第1の画像の対応する画素とそれぞれの隣接する画素との差に基づく鮮明度値の要素を有する、請求項1に記載の方法。
  16. 前記マッピング関数は、前記鮮明度マップに基づくクリッピングを有する、請求項15に記載の方法。
  17. 第2の画像を計算するため、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを計算するためのユニットであって、前記計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づき、前記ユニットは、
    所定の基準に基づいて入力視差マップに基づいて特定の入力値を決定する第1の決定手段と、
    前記特定の入力値がゼロに略等しい所定の出力値にマッピングされるようなマッピング関数を、前記特定の入力値に基づいて決定する第2の決定手段と、
    前記マッピング関数に基づいて、前記入力要素の入力値を、前記出力要素のそれぞれの出力値にマッピングするマッピング手段と、
    を有するユニット。
  18. 第1の画像に対応する信号を受信する受信手段と、
    請求項17に記載の出力視差マップを計算するためのユニットと、
    前記第1の画像及び前記出力視差マップに基づいて第2の画像を計算するレンダリング手段と、
    を有する画像処理装置。
  19. 第2の画像を計算するため、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを計算するための命令を有する、コンピュータ装置によりロードされるコンピュータプログラムであって、前記計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づき、前記コンピュータ装置は、処理手段とメモリとを有し、前記コンピュータプログラムは、ロードされた後、
    所定の基準に基づいて入力視差マップに基づいて特定の入力値を決定するステップと、
    前記特定の入力値がゼロに略等しい所定の出力値にマッピングされるようなマッピング関数を、前記特定の入力値に基づいて決定するステップと、
    前記マッピング関数に基づいて、前記入力要素の入力値を、前記出力要素のそれぞれの出力値にマッピングするステップと、
    を実行する機能を前記処理手段に提供するコンピュータプログラム。
JP2007537466A 2004-10-26 2005-10-21 視差マップ Expired - Fee Related JP4762994B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP04105305 2004-10-26
EP04105305.9 2004-10-26
PCT/IB2005/053452 WO2006046180A1 (en) 2004-10-26 2005-10-21 Disparity map

Publications (2)

Publication Number Publication Date
JP2008518317A true JP2008518317A (ja) 2008-05-29
JP4762994B2 JP4762994B2 (ja) 2011-08-31

Family

ID=35819618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007537466A Expired - Fee Related JP4762994B2 (ja) 2004-10-26 2005-10-21 視差マップ

Country Status (7)

Country Link
US (1) US20090073170A1 (ja)
EP (1) EP1807806B1 (ja)
JP (1) JP4762994B2 (ja)
CN (1) CN101048803B (ja)
AT (1) ATE504897T1 (ja)
DE (1) DE602005027379D1 (ja)
WO (1) WO2006046180A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011166761A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2012505586A (ja) * 2008-10-10 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 信号に含まれる視差情報を処理する方法
JP2013021525A (ja) * 2011-07-12 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013038629A1 (en) 2011-09-13 2013-03-21 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
US9521395B2 (en) 2011-10-04 2016-12-13 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US7907166B2 (en) * 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
EP1991963B1 (en) * 2006-02-27 2019-07-03 Koninklijke Philips N.V. Rendering an output image
KR20090055803A (ko) * 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
CN103323035A (zh) * 2007-12-03 2013-09-25 Cts公司 线性位置传感器
EP2286385A4 (en) * 2008-06-06 2013-01-16 Reald Inc TRUNKING GAIN STEREOSCOPIC IMAGES
DE112009003688B4 (de) * 2008-11-26 2013-09-19 Cts Corporation Linearpositionssensor mit Drehblockiervorrichtung
JP5415217B2 (ja) * 2009-10-02 2014-02-12 パナソニック株式会社 三次元映像処理装置
DE112010004761T5 (de) * 2009-12-09 2012-11-29 Cts Corporation Antriebs- und Sensoranordnung
CA2795021C (en) * 2010-03-31 2020-06-16 Thomson Licensing 3d disparity maps
US20110304618A1 (en) * 2010-06-14 2011-12-15 Qualcomm Incorporated Calculating disparity for three-dimensional images
US9049423B2 (en) * 2010-12-01 2015-06-02 Qualcomm Incorporated Zero disparity plane for feedback-based three-dimensional video
US9602799B2 (en) * 2011-01-14 2017-03-21 Panasonic Intellectual Property Management Co., Ltd. Device, method, and computer program for three-dimensional video processing
TWI493505B (zh) * 2011-06-20 2015-07-21 Mstar Semiconductor Inc 影像處理方法以及影像處理裝置
JP2013012820A (ja) * 2011-06-28 2013-01-17 Sony Corp 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるプログラム
US20130050187A1 (en) * 2011-08-31 2013-02-28 Zoltan KORCSOK Method and Apparatus for Generating Multiple Image Views for a Multiview Autosteroscopic Display Device
US10453187B2 (en) * 2017-07-21 2019-10-22 The Boeing Company Suppression of background clutter in video imagery
WO2019041035A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. STEREOSCOPIC IMAGE DISPLAY DEVICE ADJUSTED BY THE SPECTATOR

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001526477A (ja) * 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5363209A (en) * 1993-11-05 1994-11-08 Xerox Corporation Image-dependent sharpness enhancement
US6064424A (en) 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
JP3443272B2 (ja) 1996-05-10 2003-09-02 三洋電機株式会社 立体映像表示装置
JP3802653B2 (ja) * 1997-05-21 2006-07-26 オリンパス株式会社 立体画像表示装置
AUPO894497A0 (en) * 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
US6057935A (en) * 1997-12-24 2000-05-02 Adobe Systems Incorporated Producing an enhanced raster image
US6466185B2 (en) * 1998-04-20 2002-10-15 Alan Sullivan Multi-planar volumetric display system and method of operation using psychological vision cues
KR20030062313A (ko) * 2000-08-09 2003-07-23 다이나믹 디지탈 텝스 리서치 피티와이 엘티디 영상 변환 및 부호화 기술

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001526477A (ja) * 1997-12-05 2001-12-18 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド 画像変換および符号化技術

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012505586A (ja) * 2008-10-10 2012-03-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 信号に含まれる視差情報を処理する方法
JP2011166761A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2013021525A (ja) * 2011-07-12 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
WO2013038629A1 (en) 2011-09-13 2013-03-21 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
US9521395B2 (en) 2011-10-04 2016-12-13 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
US9924155B2 (en) 2011-10-04 2018-03-20 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
US10587860B2 (en) 2011-10-04 2020-03-10 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same

Also Published As

Publication number Publication date
US20090073170A1 (en) 2009-03-19
WO2006046180A1 (en) 2006-05-04
ATE504897T1 (de) 2011-04-15
CN101048803A (zh) 2007-10-03
EP1807806B1 (en) 2011-04-06
EP1807806A1 (en) 2007-07-18
JP4762994B2 (ja) 2011-08-31
DE602005027379D1 (de) 2011-05-19
CN101048803B (zh) 2011-04-13

Similar Documents

Publication Publication Date Title
JP4762994B2 (ja) 視差マップ
JP5406269B2 (ja) 奥行き検知装置及び方法
US8270768B2 (en) Depth perception
JP5011316B2 (ja) 出力画像のレンダリング
US9036015B2 (en) Rendering views for a multi-view display device
US8488869B2 (en) Image processing method and apparatus
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP5150255B2 (ja) ビューモードの検出
KR101038452B1 (ko) 멀티뷰 이미지 생성
KR101185870B1 (ko) 3d 입체 영상 처리 장치 및 방법
CA2982015A1 (en) Method and apparatus for depth enhanced imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110315

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110512

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4762994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees