JP5011316B2 - 出力画像のレンダリング - Google Patents

出力画像のレンダリング Download PDF

Info

Publication number
JP5011316B2
JP5011316B2 JP2008555919A JP2008555919A JP5011316B2 JP 5011316 B2 JP5011316 B2 JP 5011316B2 JP 2008555919 A JP2008555919 A JP 2008555919A JP 2008555919 A JP2008555919 A JP 2008555919A JP 5011316 B2 JP5011316 B2 JP 5011316B2
Authority
JP
Japan
Prior art keywords
image
input image
depth
calculating
related data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008555919A
Other languages
English (en)
Other versions
JP2009528587A (ja
Inventor
ファレカンプ,クリスティアーン
ハー アー ブリュルス,ウィルヘルミュス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009528587A publication Critical patent/JP2009528587A/ja
Application granted granted Critical
Publication of JP5011316B2 publication Critical patent/JP5011316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、入力画像及び対応する深さに関連するデータのマトリクスに基づいて出力画像をレンダリングする方法に関するものであり、入力画像は第一の視点に対応し、出力画像は第一の視点とは異なる第二の視点に対応する。
また、本発明は、入力画像及び対応する深さに関連するデータのマトリクスに基づいて出力画像をレンダリングする画像レンダリングユニットに関するものであり、入力画像は第一の視点に対応し、出力画像は第一の視点とは異なる第二の視点に対応する。
さらに、本発明は、入力画像と対応する深さに関連するデータのマトリクスとを受信する受信手段、及び入力画像と対応する深さに関連するデータのマトリクスとに基づいて出力画像をレンダリングする画像レンダリングユニットとを有する画像処理装置に関する。
さらに、本発明は、入力画像及び対応する深さに関連するデータのマトリクスに基づいて出力画像を計算する命令を含む、コンピュータ装置によりロードされるべきコンピュータプログラムに関し、入力画像は第一の視点に対応し、出力画像は第一の視点とは異なる第二の視点に対応するものであり、コンピュータアレンジメントは、処理手段及びメモリを有する。
表示装置の導入以来、現実的な3次元(3D)表示装置は長年の夢であった。係る表示装置につながる多くの原理が調査されている。幾つかの原理は、所定のボリュームにおいて現実的な3次元オブジェクトを形成しようとする。たとえば、A. Sullivanによる論文“Solid-state Multi-planar Volumetric Display” in proceedings of SID’03, 1531-1533, 2003で開示されるような表示装置では、情報は、高速プロジェクタにより平面のアレイで配置される。それぞれの平面はスイッチ可能な拡散器である。平面の数が十分に多い場合、人間の脳は、画像を統合し、現実的な3Dオブジェクトを観察する。この原理により、見る人は、ある範囲内でオブジェクトの周りを見ることができる。この表示装置では、全てのオブジェクトは(半)透明である。
3D表示装置を形成する多くの他の試みは、両眼視差のみに基づいている。これらのシステムでは、見る人の左目及び右目は別の画像を知覚し、結果的に、見る人は3D画像を知覚する。これらの概念の概要は、D.F.McAllister(Ed.)による書籍“Stereo Computer Graphics and Other True 3D Technologies” Princeton University Press, 1993に記載されている。第一の原理は、たとえばCRTと共にシャッターグラスを使用する。奇数フレームが表示される場合、左目について光がブロックされ、偶数フレームが表示される場合、右目について光がブロックされる。
ガラスのような付加的な機器の必要なしに3Dを示す表示装置は、自動立体映像表示装置と呼ばれる。
第一のガラスのない表示装置は、見る人の左目及び右目に狙いを付ける光の錐体を形成するためにバリアを有する。錐体は、たとえば奇数及び偶数のサブピクセルの列に対応する。これらの列を適切な情報でアドレス指定することにより、見る人は、彼が正しいスポットに位置される場合に彼の左目及び右目に異なる視野を得て、3Dの印象を知覚することができる。
第二のガラスのない表示装置は、見る人の左及び右目に対する奇数及び偶数のサブピクセルの列の光を画像形成するレンズのアレイを有する。
上述されたグラスのない表示装置の問題点は、見る人は固定された位置のままである必要がある点である。見る人を誘導するため、見る人が正しい位置にあることを彼に示すためのインジケータが提案されている。たとえばUS5986804を参照されたい。この場合、バリアプレートは、赤及び緑のLEDと結合される。見る人は良好に位置されるケースでは、彼は緑の光を見て、さもなければ赤の光を見る。
固定された位置で座っている見る人を解放するため、マルチビュー自動立体映像表示装置が提案されている。たとえばUS6064424を参照されたい。US6064424に開示される表示装置では、傾斜したレンチキュラーが使用され、これによりレンチキュラーの幅は2つのサブピクセルよりも大きい。このように、互いに隣り合う幾つかの視野が存在し、見る人は、左及び右に動く幾つかの自由度を有する。
自動立体映像表示装置の問題点は、3D画像の生成と一体となる解像度のロスである。それら表示装置は(2次元)2Dモードと3Dモードの間で、すなわちシングルビューモードとマルチビューモードとの間でスイッチ可能である点で有利である。比較的高い解像度が必要とされる場合、それが高い解像度を有するのでシングルビューモードにスイッチすることが可能である。
係るスイッチ可能な表示装置の例は、J. Eichenlaubによる論文“A lightweight compact 2D/3D auto stereoscopic LCD backlight for games, monitor and noteblook applications” in proceedings of SPICE3295, 1998に記載される。2Dモードと3Dモードとの間をスイッチするためにスイッチ可能な拡散器が使用されることが開示されている。スイッチ可能な自動立体映像表示装置の別の例は、WO2003015424に記載されており、この場合、LCに基づいたレンズは、スイッチ可能なレンチキュラーを形成するためにLCに基づいたレンズが使用される。US6069650を参照されたい。
3D画像を視覚化するため、表示装置には適切な画像データが提供される必要がある。好ましくは、3D画像の取得のためにマルチカメラのセットアップが使用される。しかし、多くのケースでは、画像データの取得のために通常の2Dカメラが使用されている。2D画像データの3D画像データへの変換のための幾つかの技術が存在する。典型的に、これらの技術は、画像コンテンツの分析に基づく。次いで、狙いは、深さマップを予測することである。深さマップは、シーンにおけるそれぞれのポイント、すなわち視点について、カメラへの距離を含む。それは、深さの値が2D画像の画素について予測されることを意味する。たとえばシャープネス、ルミナンス、オブジェクトのサイズ、及びオブジェクトの輪郭のジャンクションといった、その予測について幾つかの手掛かりが知られている。
典型的に、大きな深さの値は、視点に関して大きな距離に対応する。それは、バックグランドのオブジェクトがフォアグランドのオブジェクトよりも大きな深さの値を有することを意味する。
ひとたび、2D入力画像に属する深さマップが計算されると、3D画像又はマルチビュー画像を互いに形成する多数の画像をレンダリングすることができる。このレンダリングは、典型的に、表示装置を駆動してビューを形成するため、2D入力画像の変換を適用してそれぞれの駆動画像を計算することに基づいており、変換は予測された深さマップに基づいている。言い換えれば、このレンダリングは、1以上の出力画像が入力画像と対応する深さマップに基づいて計算されることを意味する。
典型的に、駆動画像、すなわち出力画像は、それぞれのシフト量で入力画像の画素を空間的にシフトすることで形成される。たとえば、L.McMillan及びS.Gortlerによる論文“Image-Based Rendering: A New Interface Between Computer Vision and Computer Graphics” in Computer Graphics, Vol.33, No.4, Nov.1999, pp.61-64を参照されたい。シフトの量は、視差と呼ばれる。したがって、それぞれの画素について典型的に、対応する視差の値が存在し、互いに視差のマップを形成する。
シフトによる駆動画像を形成する方法は、駆動画像における幾つかの領域における画像情報がカバーの除去のために未知のままであるという制限を有する。深さのステップでホールが生じ、ホールのサイズは、深さステップのサイズに比例する。ホールにおける情報は利用不可能であるので、ホールを充填することは推測ゲームとなる。
“Efficient depth Image Based Rendering (DIBR) with Edge dependent Filter and Interpolation” Multimedia and Expo, 2005, ICME 2005, IEEE International Conference in Amsterdam, The Netherlands, pages 1314-1317, XP010843908, ISBN: 0-7803-9331-7と題されたWan-Yu Chen等による論文は、ホールを充填する問題を解決するDIBR方法に関する。
“Depth Image-Based Rendering, Compression and Transmission for a New Approach on 3D-TV”, Stereoscopic displays and virtual reality systems XI, vol.5291, 31 May 2004, pages 93-104, XP002444222と題されたChristopher Fehnによる論文は、既存の2DデジタルTVのフレームワークに深さの知覚を導入するのを可能にするシステムに関する。
本発明の目的は、デオクルージョン(de-occlusion)により引き起こされる目に見える比較的に低い量のアーチファクトによる、開始節で記載された種類の出力画像をレンダリングする方法を提供することにある。
本発明の上記目的は、本発明の方法が以下を有する点で達成される。予め決定された方向で深さに関連されるデータの導関数を計算することで、深さに関連されるデータのマトリクスにおけるエッジを計算するステップ。エッジの近傍に対応する入力画像の領域における画素値における変動の測定値を計算するステップ。該近傍はエッジのバックグランド側に位置される。スケーリングされた深さに関連されるデータに基づいて予め決定された方向で入力画像のそれぞれの画素値をシフトすることで出力画像を計算するステップ。スケーリングでは、大きな変動の測定値が大きな深さの低減となる。
本発明者は、ホールにおける充填により生じる場合があるアーチファクトの可視性は、バックグランドの画素値の変動に関連する。典型的に、画素値のシフトにより形成されるホールは、バックグランドの画素値で充填される。言い換えれば、バックグランドの画素値は、ホールの未知/割当てられていない画素値について予測値を計算するために使用される。エッジ近くの、すなわち深さステップのバックグランドの画素値が相互に実質的に等しい場合、バックグランドの画素値のホールへの外挿は、実質的に悩ませる画像のアーチファクトを生じない。型押しされたバックグランドのケースでは、ホールを充填するためにバックグランドの画素が使用されるとき、目に見える歪み/アーチファクトが生じる場合がある。
本発明に係る方法では、バックグランドのテクスチャの変動が比較的に高い場合、すなわち変動の測定値が比較的高い場合、深さのアーチファクトが低減される。典型的に、たとえば深さマップといった深さの関連されるデータのマトリクスは、スケーリングされた深さマップにスケーリングされ、このスケーリングされた深さマップは、その後、出力画像の計算のために使用される。代替的に、深さの低減の量は、画素値をシフトしつつ、深さに関連されるデータをスケーリングされた深さに関連されるデータに明示的にスケーリングすることなしに、暗黙に考慮される。
変動の測定値の計算について、好ましくは、バックグランドに属する画素値のみが使用される。バックグランドに対応する入力画像における領域を判定し、結果的に、入力画像におけるどの領域がフォアグランドに対応するかを判定するため、深さに関連されるデータのマトリクスにおけるエッジが検出される。エッジは、バックグランドとフォアグランド間の境界を形成する。
説明されたように、近傍は、エッジのバックグランド側に位置される。これは、エッジの第一の側に位置される領域よりも第一の視点に関して大きな深さを有するエッジのそれぞれの反対の側に位置されることを意味する。エッジの第一の側に位置される領域はフォアグランドに属する。
出力画像の視点、すなわち第二の視点に依存して、変動の測定値の計算の画素値のセットが決定される。なお、第一の視点に関する第二の視点の位置は、フォアグランドのオブジェクトのどの側で、充填される必要があるホールがデオクルージョンのために生じる場合があるかを判定する。これは、変動の測定値の計算、すなわちスケーリング量の低減がない場合に生じる潜在的な目に見えるアーチファクトの予測が、デオクルージョンの領域における領域の画素に基づくことが好ましいことを意味する。これは、バックグランドの画素値がデオクルージョン領域に対応して考慮されることを意味する。
したがって、本発明に係る出力画像をレンダリングする方法の実施の形態では、以下を含む。予め決定された方法において、第一の視点の正のサイドに第二の視点が位置される場合に、深さに関連されるデータの正の導関数は、負の導関数よりも、深さに関連されるデータのマトリクスにおけるエッジを計算するために使用される。予め決定された方法において、第一の視点の負のサイドに第二の視点が位置される場合に、深さに関連されるデータの負の導関数は、正の導関数よりも、深さに関連されるデータのマトリクスにおけるエッジを計算するために使用される。
第一のケースでは、出力画像は、入力画像の視点から右である視点に対応し、第二のケースでは、出力画像は、入力画像の視点から左である視点に対応する。これは、左から右が正であると考えられることを意味する。
選択的なエッジ検出により、入力画像における適切な領域は、変動の測定値を計算するために選択される。
出力画像をレンダリングする方法の実施の形態では、深さに関連されるデータのマトリクスにおけるエッジを計算するため、それぞれの導関数の大きさは、予め決定された閾値よりも大きい。変動の測定値の計算のため、深さマップにおける実質的なステップのみが考慮されることが好ましい。
出力画像をレンダリングする方法の実施の形態では、入力画像の領域のうちの特定の領域の第一の境界は対応するエッジに基づいて決定され、反対の境界は、予め決定された方向において、第一の境界から予め決定された画素数で位置される。好ましくは、変動の測定値の計算のために画素が選択される入力画素における領域は、選択されたエッジに基づく。好ましくは、領域の形状は、対応するエッジの形状に対応する。
本発明の更なる目的は、デオクルージョンにより生じる目に見えるアーチファクトの比較的低い量となる、開始節で記載される種類の出力画像をレンダリングする画像レンダリングユニットを提供することにある。
本発明の上記目的は、画像レンダリングユニットが以下を有する点で達成される。予め決定された方法で深さに関連されるデータの導関数を計算することで、深さに関連されるデータのマトリクスにおけるエッジを計算する第一の計算手段。エッジの近傍に対応する入力画像の領域における画素値における変動の測定値を計算する第二の計算手段。近傍は、エッジのバックグランドの側に位置される。スケーリングされた深さに関連されるデータに基づいて予め決定された方向で入力画像のそれぞれの画素値をシフトすることで出力画像を計算する第三の計算手段。スケーリングでは、変動の大きな測定値が大きな深さの低減となる。
画像処理装置において係る画像レンダリングユニットを適用することが有利である。典型的に、係る画像処理装置は、入力画像に基づいた多数の出力画像を表示し、任意に、入力画像をも表示するマルチビュー表示装置を有する。
画像レンダリングユニットの変更及びその変形は、画像処理装置の変更及びその変形に対応する場合があり、出力画像をレンダリングする方法及びコンピュータプログラムが記載される。
本発明に係る、画像レンダリングユニット、出力画像をレンダリングする方法、画像処理装置及びコンピュータプログラムのこれらの態様及び他の態様は、以下に記載される実現及び実施の形態に関して、及び添付図面を参照して明らかとなるであろう。同じ参照符号は、図面を通して同じ部材を示すために使用される。
図1は、表示装置120に接続される、本発明に係る画像レンダリングユニット100の実施の形態を概念的に示す。画像レンダリングユニット100は、入力画像と対応する深さのマップとに基づいて出力画像のセットを計算するために構成される。出力画像のセット及び典型的に入力画像は、表示装置120に供給される。これらの画像は、全体で表示装置120を駆動するための駆動画像である。表示装置120は、先に記載及び言及された3Dディスプレイである。好ましくは、表示装置120は、いわゆるマルチビュー表示装置であり、この表示装置は、表示装置のスクリーンに関して相互に異なる方向で多数のビューを投影するために構成される。異なる方向は、異なる視点、すなわち駆動画像により表現されているシーンが観察される異なるポイントに対応する。
画像レンダリングユニット100は、画像レンダリングユニット100に入力画像を供給する第一の入力コネクタ114を有する。典型的に、入力画像の系列が供給される。画像レンダリングユニット100は、画像レンダリングユニット100に対応する深さのマップを供給する第二の入力コネクタ100を有する。典型的に、深さのマップの系列が供給される。画像レンダリングユニットは、レンダリングされるべき出力画像の要求される視点を示す制御インタフェース112を更に有する。
画像レンダリングユニット100は、以下を有する。予め決定された方向で、深さの値の導関数を計算することで、深さマップにおけるエッジを検出するエッジ検出ユニット104。エッジの近傍に対応する入力画像の領域における画素値における変動の測定値116を計算するテクスチャ分析ユニット102。近傍は、エッジのバックグランドサイドに位置される。計算された変動の測定値に基づいてスケーリングされた深さのマップに深さのマップをスケーリングするスケーリングユニット106。このスケーリングでは、大きな変動の測定値が大きな深さの低減になる。スケーリングされた深さのマップに基づいて予め決定された方向における入力画像のそれぞれの画素値をシフトすることで出力画像を計算するレンダリングユニット108。
エッジ検出ユニット104、テクスチャ分析ユニット102、スケーリングユニット106及びレンダリングユニット108は、1つのプロセッサを使用して実現される場合がある。通常、これらの機能は、ソフトウェアプログラムプロダクトの制御下で実行される。実行の間、通常、ソフトウェアプログラムプロダクトは、RAM、ハードディスク又は磁気及び/又は光ストレージのようなメモリにロードされるか、又は、インターネットのようなネットワークを介してロードされる場合がある。任意に、特定用途向け集積回路は、開示される機能を提供する。
エッジ検出ユニット104は、深さマップにおけるエッジを検出するために構成される。典型的に、エッジ検出は、深さマップの近傍のデータエレメント、すなわち近傍の深さの値の間の差を計算することで実行される。好ましくは、予め決定された閾値Δよりも大きい近傍の深さの値間の絶対差が考慮される。典型的に、入力画像の第一の視点とレンダリングされるべき出力画像の第二の視点との間の相互の関係に対応する予め決定された方向における深さの値の導関数のみが計算される。検出されたエッジに基づいて、及び好ましくは出力画像の視点に基づいて、入力画像における領域は、変動の測定値を計算するために決定される。これらの領域における画素は、画素のサブセットSVPを形成する。サブスクリプトvpは、画素のサブセットが視点に依存することを示すために使用される。図2及び図3と関連して、視点と領域との間の関係が説明される。
テクスチャ分析ユニット102は、サブセットSVPの画素における変動の測定値TVPを計算するために構成される。式1は、変動の測定値のTVPの計算の実施の形態を規定する。
Figure 0005011316
ここで、NSvpはサブセットSVPにおける画素数であり、r(xk,yk)は座標(xk,yk)による画素値の赤成分であり、g(xk,yk)は座標(xk,yk)による画素値の緑成分であり、b(xk,yk)は座標(xk,yk)による画素値の青成分であり、kはインデックスである。テクスチャ測定値TVPは、領域にわたり平均化される、x方向におけるある画素から次の画素への入力画像における平均の水平方向の色の変化である。赤、緑、青の色空間が使用されるが、入力画像について別の色表現も機能する。代替的に、領域における画素の輝度成分は、変動の測定値の計算のために考慮される。
なお、領域は接続された領域である必要はない。これは、変動の測定値TVPの計算のために画素が選択される入力画像における多数の領域が存在することを意味する。
スケーリングユニット106は、深さのマップをスケーリングされた深さのマップにスケーリングするために構成される。このスケーリングでは、大きな変動の測定値TVP が大きな深さの低減となる。典型的に、スケーリングは、変動の測定値TVPの関数f(TVP)である、スケーリングファクタによる乗算である。
Figure 0005011316
ここでサブスクリプトvpは、スケーリングされた深さのマップが視点に依存することを示すために使用される。典型的に、スケーリングは、ルックアップテーブル(LUT)により実現される。代替的に、スケーリングは、グローバルなスケーリングではなく、深さマップのローカルなスケーリングである。
レンダリングユニット108は、スケーリングされた深さのマップに基づいて、予め決定された方向で入力画像のそれぞれの画素値をシフトすることで出力画像を計算するために構成される。このタイプのレンダリングの記載について、たとえば、L.McMillan及びS.Gortlerによる論文“Image-Based Rendering: A New Interface Between Computer Vision and Computer Graphics” in Computer Graphics, Vol.33, No.4, Nov.1999, pp.61-64を参照されたい。
つぎに、図2及び図3と関連して、サブセットSVPが入力画像200の視点に関してそれぞれの出力画像202,302の視点に依存することが説明される。入力画像200が中央のビューに対応し、2つの異なる出力画像202,302が計算される必要があるとする。出力画像の最初の画像202は、入力画像200から右に位置され、出力画像の第二の画像302は、入力画像200から左に位置される。これは、出力画像の第一の画像202の視点がx方向において入力画像の視点の正の側に位置され、出力画像の第二の画像302の視点がx方向において入力画像200の視点の負の側に位置されることを意味する。
図2は、入力画像200、対応するオリジナルのスケーリングされていない深さマップ204、及び入力画像200に基づいた出力画像202の最初の画像を概念的に示す。図2は、フォアグランドに位置されるオブジェクトの表現206を示し、バックグランド208を示す。図2では、サブセットSVPの画素に対応する領域210が示される。深さのマップ204は、オブジェクト206に対応する深さの値の第一のセット222、及びバックグランドに対応する深さの値の第二のセット224を有する。深さマップ204におけるエッジ212は、近傍の値間のステップが比較的高く、正の符号を有する位置に配置される。エッジ212は、入力画像200における領域210の境界のうちの1つに対応する。領域210の反対の境界は、予め決定された方向xにおいて、第一の境界から予め決定された画素数Bで位置される。
出力画像202の最初の画像は、入力画像200で表現されるのと同じオブジェクトの別の表現216を示しているが、左にシフトされ、これにより、シフトの量はスケーリングされた深さマップに関連される。スケーリングされた深さのマップは、図2に示されていない。スケーリングされた深さのマップは、深さマップ204から導出される。
出力画像の最初の画像202について、iをインデックスとしてz(xi,yi)−z(xi−1,yi)>0である場合にホールが導入される。出力画像の最初の画像202のレンダリングのために深さのマップをスケーリングするのに要求される変動の測定値TVPの計算のために入力画像200における画素のサブセットSVPを形成することは、0<xj−xi<Bについて画素jを選択することに基づいており、ここでBは、大きさz(xi,yi)−z(xi−1,yi)>Δの深さの変化に対する距離である。
深さの変化、深さのステップ及び深さの値の導関数は、同じコンセプトの異なる項である。
図3は、入力画像200、対応するオリジナル、すなわちスケーリングされていない深さマップ204、及び入力画像200に基づいた出力画像302の第二の画像を概念的に示す。図3は、フォアグランドに位置されるオブジェクトの表現206を示し、バックグランド208を示す。図2では、また、サブセットSVPの画素に対応する領域310が示される。深さマップ204は、オブジェクト206に対応する深さの値の第一のセット222と、バックグランドに対応する深さの値の第二のセット224を有する。深さマップ204におけるエッジ212は、近傍の値間のステップは比較的高く、負の符号を有する位置で配置される。エッジ312は、入力画像200における領域310の境界のうちの1つに対応する。領域210の反対の境界は、予め決定された方向xとは逆に、第一の境界から予め決定された画素数Bで位置される。
出力画像302の第二の画像は、入力画像200で表現されるのと同じオブジェクトの別の表現316を示すが、右にシフトされており、これにより、シフトの量は、スケーリングされた深さのマップに関連される。スケーリングされた深さのマップは、図3に示されていない。スケーリングされた深さのマップは、深さマップ204から導出される。
出力画像の第二の画像302について、iをインデックスとしてz(xi−1,yi)−z(xi,yi)>0である場合にホールが導入される。出力画像の最初の画像302のレンダリングのために深さのマップをスケーリングするのに要求される変動の測定値TVPの計算のために入力画像200における画素のサブセットSVPを形成することは、0<xj−xi<Bについて画素jを選択することに基づいており、ここでBは、大きさz(xi−1,yi)−z(xi,yi)>Δの深さの変化に対する距離である。
典型的に、出力画像の最初の画像についてスケーリングされた深さの値、及び出力画像の第二の画像302についてそれぞれスケーリングされた深さの値は、相互に異なる。
Figure 0005011316
単一の入力画像に基づいて、駆動画像のセットは、9つのビューをもつ表示装置について形成され、これにより入力画像が駆動画像のセットの中央の画像に対応するとする。中央のビューから右に位置される、それぞれの視点を有する4つの駆動画像の第一のサブセットが存在し、中央のビューから左に位置される、それぞれの視点を有する4つの駆動画像の第二のサブセットが存在する。その場合、第一のサブセットについて、zscaled vp=Right(x,y)が使用され、第二のサブセットについて、zscaled vp=Left(x,y)が使用される。
図4は、本発明に係る画像処理装置400を概念的に示し、以下を有する。入力画像を表わす信号を受信し、任意に、対応する深さマップを受信する受信手段402。代替的に、画像処理装置は、受信された入力画像に基づいて深さマップ自身を計算するために構成される。図1に関連して記載される画像レンダリングユニット100。画像レンダリングユニット100の出力画像を表示し、好ましくは、レンダリングされた出力画像と共に入力画像を表示する表示装置120。
信号がアンテナ又はケーブルを介して受信されたブロードキャスト信号である場合があるが、VCR(Video Cassette Recorder)又はDVD(Digital Versatile Disk)のような記憶装置からの信号である場合がある。信号は入力コネクタ410で供給される。画像処理装置400は、たとえばTVである場合がある。代替的に、画像処理装置400は、任意の表示装置を有さないが、表示装置120を有する装置に出力画像を供給する。次いで、画像処理装置400は、たとえばセットトップボックス、サテライトチューナ、VCRプレーヤ、DVD又はレコーダである場合がある。任意に、画像処理装置400は、ハードディスクのような記憶手段、又はたとえば光ディスクといった取り外し可能なメディアでの記憶手段を有する。画像処理装置400は、映画スタジオ又は放送局により適用されるシステムである場合がある。
図5は、多数の入力画像502〜508及び対応する深さマップ512〜518をそれぞれ示す。入力画像502〜508は、バックグランドの前の林檎を全て表す。入力画像502〜508間の主要な違いは、バックグランドである。林檎の位置は、別の違いであるが、これは本明細書の文脈において問題ではない。変動の測定値により定量化することができるバックグランドにおけるテクスチャの量は異なる。
深さマップ512〜518のグレイの値は深さの値を表す。
図6は、図5の入力画像502〜508に基づいた多数の出力画像602〜608,622〜628を示す。左の列は、図5で示されるオリジナルであってスケーリングされていない深さマップにより計算される、それぞれの入力画像502〜508の出力画像602〜608を示す。特に、参照符号604及び606で示される出力画像は、林檎の右側で明らかなアーチファクトを示す。これらのアーチファクトは、比較的大きな量のテクスチャのため、特に目に見える。
中央の列は、スケーリングされた深さのマップ612〜618を示す。グレイ値は、深さの値を表す。参照符号612で示される図6に示されるスケーリングされた深さのマップのグレイ値を、参照符号512で示される図5に示されるオリジナルの深さマップのグレイ値と比較することで、前記深さのマップが実質的に相互に等しいことが分かる。これは、対応する入力画像502のバックグランドが実質的に一様であるために驚くことではない。しかし、参照616で示される図6に示されるスケーリングされた深さマップのグレイ値を、参照符号515で示される図5に示されるオリジナルの深さマップのグレイ値と比較することで、前記後者の深さマップは、相互に実質的に異なることが分かる。これは、深さの値のダイナミックレンジが強く低減されることを意味する。比較的大きな量のテクスチャはそのためである。
右の列は、スケーリングされた深さマップ612〜618のそれぞれに基づいてレンダリングされる出力画像622〜628を示す。図6で分かるように、特に、第二の行及び第三の行において、アーチファクトの量は強く低減される。アーチファクトの量におけるこの低減の代償は、深さの知覚の低減である。
図1〜図6に関連して記載される本発明に係る実施の形態では、あるシーンにおける、ある視点とあるポイントとの間の物理的な距離の測定値として深さが規定される。請求項は、本明細書に基づいて解釈される必要がある。代替的な量は、深さを表現するために使用することができることは明らかである。たとえば、深さは、カメラから最も離れたシーンにおける特定のポイントからの距離として表現される場合がある。これは、バックグランドが比較的低い深さを有し、フォアグランドが比較的高い深さを有することを意味する。代替的に、距離の逆数のような深さの量も使用することができる。そのケースでは、単語「大きい」及び「低減」は、「小さい」及び「増加」でそれぞれ置き換えられる。
なお、上述された実施の形態は、本発明を制限するものではなく例示するものであり、当業者であれば、特許請求の範囲から逸脱することなしに代替的な実施の形態を設計することができるであろう。単語「有する“comprising”」は、請求項で列挙されていないエレメント又はステップの存在を排除するものではない。本発明は、幾つかの個別のエレメントを有するハードウェアにより、適切にプログラムされたコンピュータにより実現される。幾つかの手段を列挙する装置の請求項では、これらの手段の幾つかは、同一アイテムのハードウェア又はソフトウェアにより実施される。単語「第一」、「第二」及び「第三」等の使用は、任意の順序を示すものではない。これらの単語は、名前として解釈されるべきである。動作の特定のシーケンスは、時に示されない限り必要とされることが意図されない。
表示装置に接続される本発明に係る画像レンダリングユニットの実施の形態を概念的に示す図である。 入力画像、深さマップ、及び入力画像と深さマップとに基づく出力画像を概念的に示す図であり、出力画像は、入力画像の右側に位置される視点に対応する。 入力画像、深さマップ、及び入力画像と深さマップとに基づく出力画像を概念的に示す図であり、出力画像は、入力画像の右側に位置される視点に対応する。 本発明に係る画像処理装置を概念的に示す図である。 多数の入力画像と対応する深さマップを示す図である。 図5の入力画像に基づいた多数の出力画像を示す図である。

Claims (9)

  1. 入力画像と深さ関連データの対応するマトリクスとに基づいて出力画像をレンダリングする方法であって、
    前記入力画像は第一の視点に対応し、前記出力画像は前記第一の視点とは異なる第二の視点に対応し、
    エッジ検出ユニットにより、予め決定された方向で前記深さ関連データの微分係数を計算することで、前記深さ関連データのマトリクスにおけるエッジを計算するステップと、
    テクスチャ分析ユニットにより、前記エッジのバックグランド側に位置される前記エッジから予め決定された範囲の前記入力画像の領域における画素値における変動のを計算するステップと、
    レンダリングユニットにより、スケーリングされた深さ関連データに基づいて予め決定された方向で前記入力画像のそれぞれの画素値をシフトすることで出力画像を計算するステップとを含み、
    スケーリングユニットによる前記スケーリングでは、前記変動のが大きいほど深さ低減される
    ことを特徴とする方法。
  2. 前記深さ関連データのマトリクスにおけるエッジを計算する前記ステップについて、
    前記第二の視点が予め決定された方向において前記第一の視点の正の側に位置される場合、前記深さ関連データの負の微分係数よりも正微分係数が使用され、
    前記第二の視点が予め決定された方向において前記第一の視点の負の側に位置される場合、前記深さ関連データの正の微分係数よりも負微分係数が使用される、
    請求項1記載の出力画像をレンダリングする方法。
  3. 前記深さ関連データのマトリクスにおけるエッジを計算する前記ステップについて、
    それぞれの微分係数の大きさは予め決定された閾値よりも大きい、
    請求項1又は2記載の出力画像をレンダリングする方法。
  4. 前記入力画像の領域のうちの特定の領域の第一の境界は、対応するエッジに基づいて決定され、反対の境界は、予め決定された方向において、前記第一の境界から予め決定された画素数で位置される、
    請求項1乃至3の何れか記載の方法。
  5. 前記スケーリングは、前記入力画像全体に実行される、
    請求項1乃至4の何れか記載の出力画像をレンダリングする方法。
  6. 前記スケーリングは、局所的に計算された変動のに依存して前記入力画像で局所的に実行される、
    請求項1乃至4の何れか記載の出力画像をレンダリングする方法。
  7. 入力画像と深さ関連データの対応するマトリクスとに基づいて出力画像をレンダリングする画像レンダリング装置であって、
    前記入力画像は第一の視点に対応し、前記出力画像は前記第一の視点とは異なる第二の視点に対応し、
    予め決定された方向で前記深さ関連データの微分係数を計算することで、前記深さ関連データのマトリクスにおけるエッジを計算する第一の計算手段と、
    前記エッジのバックグランド側に位置される前記エッジから予め決定された範囲の前記入力画像の領域における画素値における変動のを計算する第二の計算手段と、
    スケーリングされた深さ関連データに基づいて予め決定された方向で前記入力画像のそれぞれの画素値をシフトすることで出力画像を計算する第三の計算手段とを有し、
    前記スケーリングでは、前記変動のが大きいほど深さ低減される
    ことを特徴とする装置。
  8. 入力画像と深さ関連データの対応するマトリクスとを受信する受信手段と、
    記入力画像と前記深さ関連データの対応するマトリクスとに基づいて出力画像をレンダリングする請求項7記載の画像レンダリング装置と、
    を有する画像処理装置。
  9. 入力画像と深さ関連データの対応するマトリクスとに基づいて出力画像を計算する命令を含む、コンピュータ装置によりロードされるコンピュータプログラムであって、
    前記入力画像は第一の視点に対応し、前記出力画像は前記第一の視点とは異なる第二の視点に対応し、
    前記コンピュータ装置は処理手段及びメモリを有し、
    当該コンピュータプログラムは、ロードされた後に、前記処理手段に、
    予め決定された方向で前記深さ関連データの微分係数を計算することで、前記深さ関連データのマトリクスにおけるエッジを計算するステップと、
    前記エッジのバックグランド側に位置される前記エッジから予め決められた範囲の前記入力画像の領域における画素値における変動のを計算するステップと、
    前記変動のが大きいほど深さ低減されるスケーリングである、スケーリングされた深さ関連データに基づいて予め決定された方向で前記入力画像のそれぞれの画素値をシフトすることで出力画像を計算するステップと、
    を実行させることを特徴とするコンピュータプログラム。
JP2008555919A 2006-02-27 2007-02-16 出力画像のレンダリング Active JP5011316B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP06110455 2006-02-27
EP06110455.0 2006-02-27
PCT/IB2007/050515 WO2007096816A2 (en) 2006-02-27 2007-02-16 Rendering an output image

Publications (2)

Publication Number Publication Date
JP2009528587A JP2009528587A (ja) 2009-08-06
JP5011316B2 true JP5011316B2 (ja) 2012-08-29

Family

ID=38223982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008555919A Active JP5011316B2 (ja) 2006-02-27 2007-02-16 出力画像のレンダリング

Country Status (6)

Country Link
US (1) US8253740B2 (ja)
EP (1) EP1991963B1 (ja)
JP (1) JP5011316B2 (ja)
KR (1) KR101345364B1 (ja)
CN (1) CN101390131B (ja)
WO (1) WO2007096816A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10349491B2 (en) 2015-01-19 2019-07-09 Tetra Tech, Inc. Light emission power control apparatus and method

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8082289B2 (en) * 2006-06-13 2011-12-20 Advanced Cluster Systems, Inc. Cluster computing support for application programs
KR101367284B1 (ko) * 2008-01-28 2014-02-26 삼성전자주식회사 시점 변화에 따른 영상 복원 방법 및 장치
KR101419979B1 (ko) 2008-01-29 2014-07-16 톰슨 라이센싱 2d 이미지 데이터를 스테레오스코픽 이미지 데이터로 변환하기 위한 방법 및 시스템
US10043304B2 (en) 2008-09-25 2018-08-07 Koninklijke Philips N.V. Three dimensional image data processing
US8339441B2 (en) * 2008-12-26 2012-12-25 Kabushiki Kaisha Toshiba Frame processing device, television receiving apparatus and frame processing method
CN101789235B (zh) * 2009-01-22 2011-12-28 华为终端有限公司 一种图像处理方法及装置
JP6159507B2 (ja) * 2009-02-19 2017-07-05 トムソン ライセンシングThomson Licensing 3d映像フォーマット
GB2467932A (en) * 2009-02-19 2010-08-25 Sony Corp Image processing device and method
JP5663857B2 (ja) * 2009-10-08 2015-02-04 株式会社ニコン 画像表示装置および画像表示方法
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
EP2537345A1 (en) 2010-02-19 2012-12-26 Dual Aperture, Inc. Processing multi-aperture image data
JP5728673B2 (ja) * 2010-02-19 2015-06-03 デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド 多開口画像データの処理
KR101155227B1 (ko) * 2010-06-04 2012-06-13 중앙대학교 산학협력단 원 영상의 형태 방향 정보를 반영한 영상 변환 장치 및 방법
KR101385514B1 (ko) * 2010-06-08 2014-04-16 주식회사 에스칩스 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP5627498B2 (ja) * 2010-07-08 2014-11-19 株式会社東芝 立体画像生成装置及び方法
EP2596475B1 (en) * 2010-07-19 2019-01-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filling disocclusions in a virtual view
TWI492186B (zh) * 2010-11-03 2015-07-11 Ind Tech Res Inst 修補三維立體影像之裝置及方法
US9865083B2 (en) 2010-11-03 2018-01-09 Industrial Technology Research Institute Apparatus and method for inpainting three-dimensional stereoscopic image
EP2451164B1 (en) * 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
KR101764424B1 (ko) * 2010-11-08 2017-08-14 삼성전자주식회사 영상 데이터 검색 방법 및 장치
KR20120059367A (ko) * 2010-11-30 2012-06-08 삼성전자주식회사 에너지값을 이용한 이미지 처리 장치와 그 이미지 처리 방법 및 디스플레이 방법
US20130286010A1 (en) * 2011-01-30 2013-10-31 Nokia Corporation Method, Apparatus and Computer Program Product for Three-Dimensional Stereo Display
US9483836B2 (en) * 2011-02-28 2016-11-01 Sony Corporation Method and apparatus for real-time conversion of 2-dimensional content to 3-dimensional content
JP2014112749A (ja) * 2011-03-18 2014-06-19 Sharp Corp 画像符号化装置および画像復号装置
US8681182B2 (en) * 2011-04-19 2014-03-25 Deluxe 3D Llc Alternate viewpoint rendering
US9111389B2 (en) 2011-05-12 2015-08-18 Panasonic Intellectual Property Management Co., Ltd. Image generation apparatus and image generation method
US20120293489A1 (en) * 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
US20120313932A1 (en) * 2011-06-10 2012-12-13 Samsung Electronics Co., Ltd. Image processing method and apparatus
WO2013005365A1 (ja) * 2011-07-01 2013-01-10 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、集積回路
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
JP5983935B2 (ja) 2011-11-30 2016-09-06 パナソニックIpマネジメント株式会社 新視点画像生成装置および新視点画像生成方法
TW201325200A (zh) * 2011-12-02 2013-06-16 Ind Tech Res Inst 三維視訊的景深圖的壓縮方法、裝置、電腦可讀取記錄媒體及電腦程式產品
US9786253B2 (en) * 2012-01-25 2017-10-10 Lumenco, Llc Conversion of a digital stereo image into multiple views with parallax for 3D viewing without glasses
KR20140016735A (ko) * 2012-07-31 2014-02-10 삼성전자주식회사 3d 영상 변환 방법 및 이를 적용한 디스플레이 장치
WO2014124871A2 (en) * 2013-02-12 2014-08-21 Thomson Licensing Method and device for enriching the content of a depth map
US20140368425A1 (en) * 2013-06-12 2014-12-18 Wes A. Nagara Adjusting a transparent display with an image capturing device
CN104463784B (zh) * 2014-11-04 2017-07-04 上海爱福窝云技术有限公司 一种2.5d模型的缩放方法
US10420519B2 (en) * 2014-11-06 2019-09-24 Koninklijke Philips N.V. Computed tomography system
US9948913B2 (en) * 2014-12-24 2018-04-17 Samsung Electronics Co., Ltd. Image processing method and apparatus for processing an image pair
US20160255323A1 (en) 2015-02-26 2016-09-01 Dual Aperture International Co. Ltd. Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling
JP6512575B2 (ja) * 2015-03-03 2019-05-15 芳隆 大吉 三次元形状情報の配信または放送の方法
CN104935910B (zh) * 2015-06-03 2017-10-17 青岛海信电器股份有限公司 一种三维图像矫正的方法及设备
US10107617B2 (en) 2016-07-04 2018-10-23 Beijing Qingying Machine Visual Technology Co., Ltd. Feature point matching method of planar array of four-camera group and measuring method based on the same
DE102018206848A1 (de) * 2018-05-03 2019-11-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln eines Tiefeninformationsbilds aus einem Eingangsbild
US11393113B2 (en) 2019-02-28 2022-07-19 Dolby Laboratories Licensing Corporation Hole filling for depth image based rendering
US11670039B2 (en) * 2019-03-04 2023-06-06 Dolby Laboratories Licensing Corporation Temporal hole filling for depth image based video rendering

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3826236B2 (ja) * 1995-05-08 2006-09-27 松下電器産業株式会社 中間像生成方法、中間像生成装置、視差推定方法、及び画像伝送表示装置
AUPN732395A0 (en) * 1995-12-22 1996-01-25 Xenotech Research Pty Ltd Image conversion and encoding techniques
US6064424A (en) 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
JP3443272B2 (ja) 1996-05-10 2003-09-02 三洋電機株式会社 立体映像表示装置
GB9623682D0 (en) 1996-11-14 1997-01-08 Philips Electronics Nv Autostereoscopic display apparatus
AU5652700A (en) * 1999-09-24 2001-03-29 Nintendo Co., Ltd. Method and apparatus for providing non-photorealistic cartoon outlining within a 3D vodeographic system
EP1323135A1 (en) * 2000-09-14 2003-07-02 Orasee Corp. Method for automated two-dimensional and three-dimensional conversion
JP2003091736A (ja) * 2001-07-13 2003-03-28 Sony Computer Entertainment Inc 描画処理装置、描画処理プログラムを記録した記録媒体、描画処理プログラム、描画処理方法
GB0119176D0 (en) 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
ES2349279T3 (es) * 2002-01-07 2010-12-29 Koninklijke Philips Electronics N.V. Procedimiento y unidad de ajuste a escala para ajustar a escala un modelo tridimensional y aparato de visualización.
CN1726726A (zh) * 2002-12-16 2006-01-25 三洋电机株式会社 立体图像产生设备和立体图像传递方法
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
KR20050090000A (ko) * 2003-01-06 2005-09-09 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 이미지들의 깊이 오더링을 위한 방법 및 장치
JP4188968B2 (ja) * 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
US7321669B2 (en) * 2003-07-10 2008-01-22 Sarnoff Corporation Method and apparatus for refining target position and size estimates using image and depth data
US7764827B2 (en) * 2003-08-05 2010-07-27 Koninklijke Philips Electronics N.V. Multi-view image generation
WO2005031652A1 (en) 2003-09-30 2005-04-07 Koninklijke Philips Electronics N.V. Motion control for image rendering
US7692646B2 (en) * 2003-12-19 2010-04-06 Koninklijke Philips Electronics N.V. Method of and scaling unit for scaling a three-dimensional model
EP1728208A1 (en) * 2004-03-12 2006-12-06 Koninklijke Philips Electronics N.V. Creating a depth map
WO2006046180A1 (en) * 2004-10-26 2006-05-04 Koninklijke Philips Electronics N.V. Disparity map
ATE426218T1 (de) * 2005-01-12 2009-04-15 Koninkl Philips Electronics Nv Tiefenwahrnehmung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10349491B2 (en) 2015-01-19 2019-07-09 Tetra Tech, Inc. Light emission power control apparatus and method

Also Published As

Publication number Publication date
CN101390131A (zh) 2009-03-18
EP1991963B1 (en) 2019-07-03
JP2009528587A (ja) 2009-08-06
EP1991963A2 (en) 2008-11-19
WO2007096816A2 (en) 2007-08-30
WO2007096816A3 (en) 2007-11-01
US8253740B2 (en) 2012-08-28
KR20080108489A (ko) 2008-12-15
CN101390131B (zh) 2013-03-13
KR101345364B1 (ko) 2013-12-30
US20090115780A1 (en) 2009-05-07

Similar Documents

Publication Publication Date Title
JP5011316B2 (ja) 出力画像のレンダリング
JP5406269B2 (ja) 奥行き検知装置及び方法
EP1839267B1 (en) Depth perception
JP5150255B2 (ja) ビューモードの検出
JP4762994B2 (ja) 視差マップ
US9036015B2 (en) Rendering views for a multi-view display device
EP1897056B1 (en) Combined exchange of image and related data
JP7344886B2 (ja) 3dディスプレイのためのオーバースキャン

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100212

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

R150 Certificate of patent or registration of utility model

Ref document number: 5011316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150608

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350