JP5932332B2 - 画像補正に対する修復技術の使用 - Google Patents

画像補正に対する修復技術の使用 Download PDF

Info

Publication number
JP5932332B2
JP5932332B2 JP2011520629A JP2011520629A JP5932332B2 JP 5932332 B2 JP5932332 B2 JP 5932332B2 JP 2011520629 A JP2011520629 A JP 2011520629A JP 2011520629 A JP2011520629 A JP 2011520629A JP 5932332 B2 JP5932332 B2 JP 5932332B2
Authority
JP
Japan
Prior art keywords
area
foreground
background
image
pixel data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011520629A
Other languages
English (en)
Other versions
JP2011529593A (ja
Inventor
ロベルト−パウル エム ベレッティ
ロベルト−パウル エム ベレッティ
ヨセ ピー マガラエス
ヨセ ピー マガラエス
グンネウィーク ライニエル ビー エム クライン
グンネウィーク ライニエル ビー エム クライン
バルト ジー ビー バレンブルグ
バルト ジー ビー バレンブルグ
リン シャオ
リン シャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2011529593A publication Critical patent/JP2011529593A/ja
Application granted granted Critical
Publication of JP5932332B2 publication Critical patent/JP5932332B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、広くはデジタル画像の分野に関する。より具体的には、本発明は、画像又は画像シーケンス内のアーチファクトの補正に対して修復することに関する。
修復は、画像及びビデオの失われた又は劣化した部分を再構成するプロセスである。例えば、貴重な絵画の場合、このタスクは、熟練した画像復元芸術家により実行される。デジタルの世界において、画像内挿又はビデオ内挿としても知られる修復は、画像データの失われた又は破損した部分を回復する洗練されたアルゴリズムの応用を参照する。
アノテーション・アンド・プロパゲーションにより深度を作成することは、画像シーケンス内の1つの画像フレームに対する深度マップを描くプロセスであり、すなわちこれに注釈を付け、次いで前記画像シーケンス内の次の/前のフレームに前記深度を伝搬するのに注釈を付けたオブジェクトのソフトウェア追跡を使用するプロセスである。これは、半自動深度作成の既知の方法である。推定された深度情報は、情報源と独立に、典型的には、現実のオブジェクト境界ずれのような問題に悩まされる。
図1aは、オブジェクトを有する画像を示し、ここでオブジェクトに対する深度ずれは、暗いエリアを越えて上部及び底部に突き出ている明るいエリアにより示されるように顕著である。図1aは、輝度の上に重ねられた深度成分を示す。この深度ずれは、前景オブジェクトの小部分が不正確に背景と見なされるという事実による。一般に、ずれは、深度成分及びビデオデータのような少なくとも2つの信号/データの間で生じる。
周知の損失の多いビデオ圧縮スキームを使用して2.5Dビデオを圧縮する場合、オブジェクトを囲むアーチファクトが取り込まれる。2.5D(2.5次元)は、2D画像が、前記2D画像内の各要素の深度を示す深度マップを伴う表現を記述するのに使用される非公式の用語である。
ビデオ圧縮により生じるあるアーチファクトは、モスキート雑音、ギブス効果及びオーバーシュート/アンダーシュートアーチファクトである。図1bは、ハロ(halos)が、このような損失の多いビデオ圧縮スキームを使用してオブジェクトの周りに作成されることを示す。これは、2D画像又は2Dビデオの両方で生じうる。
上述のアーチファクトは、一般に、顕著に減少した画質を生じるが、このような2.5D表現からのマルチビューレンダリングのような後続のビデオ処理タスクをも妨げる。
したがって、ビデオ圧縮により生じたオブジェクトの周りのアーチファクトの除去、及び/又は前景オブジェクトの小部分が不正確に背景と見なされる場合に深度マップに関してずれた画像データの補正を可能にする改良された方法、処理ユニット及びコンピュータプログラムが有利である。
したがって、本発明は、好ましくは、当技術分野の上で識別された欠陥及び欠点を単独で又は組み合わせて軽減、緩和又は除去することを目的とし、添付の特許請求項による方法、処理ユニット及びコンピュータプログラムを提供することにより少なくとも上述の問題を解決する。
一態様によると、画像及び深度情報を有する画像信号を処理する方法が提供される。前記方法は、前記画像信号の深度又は視差成分に基づいて前記画像信号に含まれる画像に対して前景/背景分割を実行するステップを有し、結果として前景マスク及び背景マスクを生じる。前記方法は、更に、前記分割された画像において分割遷移部の周りにエリアを作成するステップを有し、ここで前記エリアは、アーチファクトを有する可能性が高い。更に、前記方法は、前記エリア内の画素データに対して前景/背景依存処理を実行するステップを有し、結果として処理された画像を生じる。
他の態様において、画像及び深度情報を有する画像信号を処理する処理ユニットが提供される。前記処理ユニットは、前記画像信号の深度又は視差成分に基づいて前記画像信号に含まれる画像に対して前景/背景分割を実行し、結果として前景マスク及び背景マスクを生じる。前記処理ユニットは、更に、前記分割された画像において分割遷移部に隣接したエリアを作成し、ここで前記エリアは、アーチファクトを有する。更に、前記処理ユニットは、前記エリア内の画素データに対して前景/背景依存処理を実行し、結果として処理された画像を生じる。
一態様において、データ処理装置上で実行される場合に、ある実施例による方法のステップを実行するソフトウェアコードを有するコンピュータ可読媒体に記憶されたコンピュータプログラムが提供される。
ある実施例によるアイデアは、画像内の符号化アーチファクト及び深度ずれの補正に対してビデオ又は画像データを処理することである。
ある実施例によるアイデアは、例えば2.5Dビデオにおいてオブジェクトを囲む圧縮アーチファクトを減少させる方法を提供することである。
更に、ある実施例によるアイデアは、画像及び深度表現内の現実のオブジェクトの境界に対してずれた深度情報を処理する方法を提供することである。この問題は、しばしば画像ベースレンダリングにおいて使用される、いわゆる画像及び深度フォーマットで表現される3Dコンテンツをレンダリングする場合に直面される。
前記方法は、典型的にはビデオ圧縮により生じるオブジェクトの周りの雑音の多いエリアの問題をも解決することができる。
ある実施例による方法は、画像及び深度情報を有する画像信号を処理するのに使用される。前記方法は、画像を有する前記画像信号内に存在する深度/視差情報に基づいて前記画像に対して分割を実行し、この後に前景オブジェクトの分割境界を越えて延在する領域内への前記前景オブジェクトの周りの前記画像のエラーの補正に対して背景を修復し、及び/又は前記前景オブジェクトの分割境界内に延在する領域への前記画像のエラーの補正に対して前景を修復する。このようにして、圧縮及び他のアーチファクトは減少されることができる。
本発明のこれら及び他の態様、フィーチャ及び利点は、本発明の実施例の以下の記載から説明され、明らかであり、添付の図面が参照され、同様の番号は同様の要素又は機能を示すのに使用される。
周知の損失の多いビデオ圧縮スキームを使用する画像又はビデオの深度ずれ圧縮に関する画質問題を示す画像を示す。 周知の損失の多いビデオ圧縮スキームを使用する画像又はビデオの深度ずれ圧縮に関する画質問題を示す画像を示す。 一実施例による方法の一部のステップにより処理された後の前景マスク23、エリア24及び背景マスク22を有する画像を示す。 一実施例による方法を示すフローチャートである。 一実施例による方法により処理される図1aに対応する。 一実施例による方法により処理される図1bに対応する。 一実施例による処理ユニットを示すブロックスキームである。 一実施例によるコンピュータプログラムを示す。
本発明の幾つかの実施例は、当業者が本発明を実行することができるために添付の図面を参照して以下に詳細に記載される。しかしながら、本発明は、多くの異なる形式で実施されることができ、ここに記載された実施例に限定されると解釈されるべきでない。むしろ、これらの実施例は、この開示が徹底的かつ完全であり、当業者に本発明の範囲を十分に伝えるように提供される。前記実施例は、本発明を限定せず、本発明は、添付の特許請求項によってのみ限定される。更に、添付の図面に示される特定の実施例の詳細な説明に使用される用語は、本発明の限定であることを意図されない。
以下の記載は、デジタル画像、特に修復を使用する画像及び深度補正に対する方法に応用可能な本発明の実施例に集中する。しかしながら、本発明が、この応用に限定されず、多くの他の応用に応用されることができると理解されたい。
ある実施例によるアイデアは、背景/前景分割、及び分割されたオブジェクトの境界の周りのエラーを補正する修復技術を実行するのに画像又はビデオの深度情報を利用する方法を提供することである。圧縮が伴う多くの場合、深度マップは、半自動的に生成される。前記分割は、人間に操作され、したがって高品質である。更に、アーチファクトは、特に、深度/視差遷移により示されるオブジェクト境界において見え、したがって、深度/視差マップにより操作される分割が有利である。
一実施例において、図3によると、画像及び深度情報を有する画像信号を処理する方法が提供される。前記方法は、
−前記画像信号の深度又は視差成分に基づいて前記画像信号に含まれる画像に対して前景/背景分割を実行するステップ31であって、前景マスク23を生じ、少なくとも前景オブジェクト23及び背景エリア22を有する分割された画像を生じる、ステップ31と、
−前記分割された画像において分割エッジとも称される分割遷移部に隣接したエリア24を作成するステップ32であって、エリア24が圧縮アーチファクト26又は深度ずれ25のようなアーチファクト26を潜在的に有する、ステップ32と、
−エリア24内の画素データに対して前景/背景依存処理を実行するステップ33であって、処理された画像を生じる、ステップ33と、
を有する。
図2は、前記方法のステップ31及び32により処理された後の前景オブジェクト231及び背景エリア221を有する画像を示し、前記前景/背景分割からの結果として生じる前景マスク23及び背景マスク22が示される。この場合、エリア24は、前景オブジェクト231の外側及び背景エリア22の内側に作成される。圧縮アーチファクト26及び深度ずれアーチファクト25のようなアーチファクトは、エリア24内に示される。
31)前景/背景分割
ある実施例において、画像分割を実行するステップにおいて使用される画像分割技術は、以下のように実行されることができる。
どこに前記前景/背景依存処理を実行すべきかを知るために、この情報は、典型的には画像処理アルゴリズムに対する入力として供給されるものである。ある実施例による方法の場合、アーチファクトを潜在的に有する問題エリアは、深度遷移に基づいて自動的に位置特定されることができ、これにより大きな深度不連続が、前景と背景との間のエッジを示す。
しかしながら、前記問題エリアを位置特定するこのような画像分割の役割は、二重であり、すなわち、アーチファクトを補正する後続する画像処理を実行すべき場所を知ることのみが必要とされるわけではなく、シーンのどの部分がそれぞれ前景及び背景であるかを知ることも要求され、更に前記後続する画像処理に対する基準材料としていずれが使用されるべきかを知ることが必要とされる。
背景エリア/オブジェクト及び前景エリア/オブジェクトの分割は、ある実施例によると、バイナリマスクの計算により実行されることができる。このマスクは、典型的には、前記深度マップからラインワイズ(line-wise)で計算され、深度不連続に対する検索に基づく。正の深度不連続(すなわち低深度から高深度、ここで高深度値は観察者に近い深度を示し、低深度値は観察者から離れた深度を示す)が直面される場合、前記マスクは前景に設定される。同様に、負の深度不連続が発見される場合、前記前景オブジェクトが終了されると仮定され、前記マスクが背景に設定される。
各画素に対する処理は、例えば以下のとおりであることができる。
depth_jump = depth[x][y] - last_depth;
if (abs(depth_jump) > DEPTH_THRESHOLD) {
if (depth_jump > 0) {
on_occ_area = true;
bg_mask[x][y] = FOREGROUND;
}
else {
on_occ_area = false;
bg_mask[x][y] = BACKGROUND;
}
}
else {
bg_mask[x][y] = (on_occ_area ? FOREGROUND : BACKGROUND);
}
様々なエッジ検出器が、前記画像のシングル又はマルチパス分析を使用して前記深度不連続を分離させるのに使用されることができる。
前記深度遷移が急激ではなく滑らかである場合、又は深度の異なる層の上にスタックされた複数の重複する前景オブジェクトが存在する場合、複数のパラメータが、前記マスクの計算の性質を変化させるように設定されることができる。このようなパラメータは、例えば、基準背景として特定のレベルをマークする(このような深度以下の画素は常に背景と見なされる)か、不連続を背景から前景への(又はその逆の)遷移と見なす閾値を規定するか、又は操作する長方形領域を設定し、残りを背景と見なすことができる。
32)エリア24を作成する
前記エリア24を作成するステップは、規則的な膨張を使用して実行されることができる。エリア24は、これが圧縮アーチファクト又は深度ずれアーチファクトのようなエラーが生じうるところであるので、画像又はビデオコンテンツを信用することができないエリアを規定する。
一実施例において、エリア24は、前景オブジェクト23と背景エリア22との間のエリアであり、背景エリア22内に延在する。換言すると、エリア24は、前景/背景分割後に前記前景オブジェクトを規定する前景マスク23の拡大と見なされることができる。したがって、エリア24は、背景が望ましいエリアを規定し、前景/背景依存処理を実行するステップ33が、エリア24の外側に配置された背景エリア22内の背景情報を使用して、そこで背景情報を再構成することを有することができる。したがって、補正されるべきアーチファクトは、エリア24の内側に配置される。したがって、この場合、前記エリアは、前記前景オブジェクトの外側に配置される。
前記深度が前記前景オブジェクトと適切に位置合わせされないだけではなく、近隣の背景画素も予測されるよりわずかに暗いことが、図2から観察されることができる。これは、圧縮によって生じる既知のアーチファクトである。背景エリア22の中にエリア24を作成し、エリア24の外側の背景エリア22からの背景情報に基づいて前記エリア内の画素データを処理、すなわち再構成することにより、前記アーチファクトは補正される。
前記エリア24を作成するステップは、前記画像が2D画像である場合に、幾つの画素まで、前記前景マスクが、例えば垂直に及び水平に、拡大されるべきであるかを決定することを有することができる。
一実施例において、エリア24のサイズは、圧縮に対して使用される共通のブロックサイズを前提として推定される。好ましくは、これは、符号化ブロックグリッド位置合わせされるべきである。ある符号化規格は、非ブロック化フィルタを使用する。これらの場合、ブロックグリッド位置合わせされたエリアを選び、前記非ブロック化アーチファクトを補償する1つの追加のブロックグリッドで拡張することができる。
圧縮アーチファクトのソースは、エッジの近くのオーバーシュート及びアンダーシュートである。一実施例において、エリア24のサイズは、前記遷移部の外側のアンダーシュートエリア、すなわち画像値が前記エリアの外側の値より暗いエリアを計算することにより決定され、これに応じて前記エリアのサイズを設定する。他の実施例において、量子化パラメータのようなビットストリーム内のパラメータは、前記エリアのサイズを決定するのに使用されることができる。
前記処理された画像が2D画像である場合、エリア24は、垂直及び水平拡張を持つ2D画像面内に作成される。
一実施例によると、深度マップの滑らかさにより前記エリアのサイズは、圧縮が関与し、前記深度マップが半自動的に生成されるある場合に対してより容易であることができるので、各画像に対して前記深度マップから決定される。前記分割は、人間に操作され、したがって高品質である。更に、アーチファクトは、特に、深度/視差遷移部で見え、したがって、深度/視差マップにより操作される分割は、有利である。深度マップは、オブジェクト境界から離れて滑らかであるので、高周波モスキート雑音並びに圧縮からのオーバーシュート及びアンダーシュートは、前記深度/視差マップにおいてオブジェクト境界の近くで検出するのが容易であることができ、このような高周波変化が検出されるエリアは、圧縮アーチファクトにより影響を受けたエリアを示す。エリア24の決定されたサイズは、この場合、画像部分に対して使用されることができる。
本発明者は、背景を修復することにより前記エリア内の前記前景オブジェクトの外側の領域が背景色を含むことをどのように保証するかと同様に、前記前景オブジェクトの内側にエリア24を作成する、すなわち前記前景マスクを減少させることにより前記エッジの他の側で同じことを行うことも可能である。このようにして、エリア24は、圧縮アーチファクトに悩まされそうな前記前景オブジェクトの内側に配置され、前景深度を持つが背景色を持つ画素の形式のずれを持つこともできる。このようなエリアの色情報を放棄し、これを修復して、前記深度マップから得られる前記前景マスク内に存在するように前景色を前記境界まで延在させることにより、このようなアーチファクトは、除去されることもできる。
したがって、代替的な実施例において、エリア24は、前景マスク23を減少させることにより作成されることができ、次いでエリア24は、前記前景/背景依存処理により、例えば修復することにより、前景マスク23の内側のエリアからの色情報を使用して元の色を交換することにより又は予測される信頼性に基づいてエリア24の外側からの色を混ぜることにより処理されることができる。
33)画素データに対する前景/背景依存処理
エリア24において画素データに対して前景/背景依存処理を実行するステップは、本質的にアーチファクト減少ステップである。したがって、前景/背景依存処理を実行するステップ33は、画像内の前景オブジェクトのような前記オブジェクトの周りの圧縮アーチファクト26の問題を解決することができる(図4b参照)。
一実施例において、前記前景/背景依存処理は、エリア24における修復を有する。複数の修復技術が、前記前景/背景依存処理を実行するのに可能である。
エリア24が背景エリア22の内側に配置される場合、背景エリア22からの背景色情報は、エリア24内の画素データを修復するのに使用されることができる。
エリア24が前景オブジェクト231の内側に配置される場合、前景マスク23からの前景色情報は、エリア24内の画素データを修復するのに使用されることができる。
したがって、エリア24の場所に依存して、すなわちどこでアーチファクトを補正するのかに依存して、前記処理は、異なることができ、それぞれ前景マスク23からの前景色情報又は背景マスク22からの背景色情報のいずれかを使用する。このようにして、エリア24内の画素データに対する処理は、前景/背景依存である。
一実施例において、使用される修復技術は、処理すべきエリア24内の画素を交換する画素繰り返し技術である。画素繰り返しは、再構成されたデータとも称される以前の既知の/信頼されている画素が、場合により所定のスキャン軸に沿って、未知の/信頼されていない画素上に複製される処理である。
一実施例において、前記画素データは、エリア24の外側で生じる他の画素データ、すなわち再構成されたデータと交換される。例えば、エリア24内の画素データは、背景エリア22からの画素データの繰り返しにより再構成される。エリア24内の画素毎に対して、(24の外側の)エリア22内の最も近い画素の値が複製されることができる。これは、所定の、例えば水平の、特定の方向に沿って、この場合には右に、又は元の方向に沿ってエッジを続けるように背景エリア22から決定された方向に沿ってのいずれかで行われることができる。図2のように均一に色づけされた背景に対して、これは、既に良好な結果をもたらす。
他の実施例において、使用される修復技術は、場合によりエリア24内の実際の画像情報と混ぜられる又は混合される、例えば平均されるべきエリア24の外側の画像情報を使用する混合技術である。このようにして、アーチファクトは、エリア24の元のテクスチャの一部を維持しながら抑制されることができる。このような場合に、前記再構成された画素データは、エリア24内の既存の画素データと混合されることができる。
元の画素値と再構成される画素値との間の比を規定する混合係数は、先験的に決定される値であることができ、他の実施例において、この混合係数は、量子化パラメータ、測定される共鳴の量、前景と背景との間の統計的な差等のようなストリーム内の他のデータから算出される。
他の実施例において、前記混合係数は、前記エッジに近い画素が前記エッジから離れた画素とは異なる混合係数を持つような修復エリアのエッジに対する距離の関数である。
他の実施例において、前記混合係数は、前記修復により構成された再構成の信頼性から算出される。このような信頼性は、基にされる信頼された画素からの再構成される画素の距離に依存することができるが、例えば、画素繰り返しが信頼できない外挿を提供することを知られている場合に、信頼されるエリアにおけるテクスチャの量にも依存することができる。
一実施例において、前記修復するステップは、一般に使用される内挿ではなく、外挿を使用して実行される。
一実施例において、前記修復技術は、空間的修復技術である。一般に、空間的修復技術は、現在処理されている画像フレームからの色を排他的に使用し、前記背景をエリア24に拡張する。画素繰り返しは、空間的修復の一例である。
一実施例において、前記修復を実行するステップは、修復するエリアに近く、前記修復するエリアのものと同様の深度/視差値を持つエリアの画像特性を測定することを有する。エッジ、色等のようなテクスチャは、信用されない画素情報を有するエリア24を修復するように算出され、使用されることができる。
他の実施例において、前記修復技術は、時間的修復技術である。一般に、時間的修復技術は、現在のフレームの修復されるべきエリアの色を決定するのに前の及び/又は次のフレームからの背景画像情報を使用する。時間的修復を実行するために、少なくとも2つの連続した画像フレームの間のオブジェクトの運動を推定する運動フィールドが計算されることが必要とされる。運動推定は、背景画像情報が単に前記背景エリアを現在の画像に拡張することから得られるだけでなく、修復されるべき画像データが信頼できる背景エリアにおいて見えることができる以前の又は次回の画像からの運動補償背景情報によっても得られる時間的修復アルゴリズムの一部でありうる。したがって、このようにして、データが前記修復中に"作り上げられる"必要がないか、又はより少ないデータが作り上げられなければならない。
一実施例において、前記修復技術は、処理された画像フレームに対するステレオ入力のようなマルチビューカメラ入力を使用する。このようにして、前記前景オブジェクトの後ろの情報は、視差ベクトルフィールドを使用して、修復中に識別及び使用されることができる。
一実施例において、前記修復技術は、Y. Wexler et al "Space-time Video Completion" Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2004), 1, 2004に開示されるものである。
画像シーケンスの場合、これ以降運動推定と称される運動/視差推定は、これ以降運動ベクトルフィールドと称される運動/視差ベクトルフィールドを計算するために前記処理された画像に対して実行されることができる。最も単純な形式において、運動推定は、2つの画像の間の推定された運動を表すベクトルフィールドを計算する2つの画像の分析に関する。運動補償符号化に最初に使用されると、これは、ビデオフォーマット変換に対する内挿、インタレース解除及びステレオからの深度推定のような様々な手段に対して使用されている。
一実施例において、前記前景/背景依存処理は、かく乱フィルタ(deranging filter)を使用することを含む。画像データの特性は、典型的には、オブジェクト毎に変わる。これは、オブジェクト間の遷移部における追加の符号化アーチファクトの原因でもある。したがって、前記オブジェクトの内側だけでフィルタリングするフィルタを持つことは、より良好な画質を生じるように異なって設計されることができる。このようなフィルタは、かく乱フィルタとして周知である。
深度ずれの補正34
ある実施例による方法は、深度ずれ25の問題を少なくとも部分的に解決するように構成されることもできる。この場合、前記方法は、エリア24内の深度ずれ25の補正に対してエリア24内の画像情報を変更するステップ34を有する。エリア24において、背景深度及び前景色の組み合わせが存在しうる。前記色は、背景色の拡張として再生成されるので、処理後に、ここで背景色及び背景深度が再び存在するので、不一致は消失される。これは、問題エリアの情報を新しい修復された背景材料と交換し、したがって背景深度を持つ不正確な前景情報を除去する結果となる。本発明者は、前記深度マスクのずれが再構成に前景オブジェクト情報を放棄させるにもかかわらず、このようなずれが不正確な背景深度を持つ前景材料を投影することにより既に見えるアーチファクトを生じており、したがって入力の品質が既に低かったので、結果の品質は、前景のこの部分を修復された背景と交換することにより劣化されないという意見である。
したがって、エリア25の場所及びサイズに依存して、深度ずれアーチファクト及び圧縮アーチファクトは、ある実施例による方法を使用して補正されることができる。
図4aは、一実施例による方法により処理される図1aの画像を示し、図1に明確に示されるアーチファクトが前記方法を使用して前記画像を処理することにより補正されていることが観察されることができる。図4aから観察されることができるように、前記深度ずれは、補正される(輝度の上に重ねられた深度成分)。
図4bは、一実施例による方法により処理される図1bの画像を示す。図4bから観察されることができるように、前記画像内の前記前景オブジェクトの周りのハロのような圧縮アーチファクトが、補償されている。
一実施例において、図5によると、処理ユニット50が提供される。前記処理ユニットは、
−前記画像信号の深度又は視差成分に基づいて前記画像信号に含まれる画像に対して前景/背景分割を実行51し、前景マスク及び背景マスク22を生じ、
−前記分割された画像において分割遷移部に隣接したエリア24を作成52し、エリア24がアーチファクト26を有し、
−エリア24内の画素データに対して前景/背景依存処理を実行53し、処理された画像を生じる、
ように構成される。
一実施例において、前記処理ユニットは、セットトップボックス(STB)、ビデオデコーダ、又は例えば2Dから3Dにコンテンツを変換するオートステレオスコピックディスプレイ内のモジュールとして実施される。
この画像処理ユニットは、関与するタスクを実行するのに通常使用されるユニット、例えばメモリを持つプロセッサのようなハードウェアであることができる。前記プロセッサは、Intel又はAMDプロセッサ、CPU、マイクロプロセッサ、プログラマブルインテリジェントコンピュータ(PIC)マイクロコントローラ、デジタル信号プロセッサ(DSP)等のような様々なプロセッサのいずれであってもよい。しかしながら、本発明の範囲は、これら特定のプロセッサに限定されない。実際に、本発明は、プログラム可能な処理プラットフォーム若しくは回路、又はASICのような専用処理プラットフォーム若しくは回路を使用して実施されることができる。
一実施例において、図6によると、コンピュータプログラムプロダクト60が提供される。前記コンピュータプログラムプロダクトは、コンピュータ可読媒体に記憶されることができ、プロセッサにより処理するコンピュータプログラムを有する。前記コンピュータプログラムは、前記画像信号の深度又は視差成分に基づいて前記画像信号に含まれる画像に対して前景/背景分割を実行31し、前景マスク23及び背景マスク22を生じる第1のコードセグメント61と、
−前記分割された画像において分割遷移部に隣接したエリア24を作成32し、エリア24がアーチファクト26を有する、第2のコードセグメント62と、
−エリア24内の画素データに対して前景/背景依存処理を実行33し、処理された画像を生じる第3のコードセグメント63と、
を有する。
一実施例において、前記コンピュータ可読媒体は、コンピュータ処理特性を持つ装置により実行される場合に、ある実施例に規定された方法ステップの全てを実行するコードセグメントを有する。
一実施例において、前記コンピュータ可読媒体は、コンピュータ処理特性を持つ装置により実行される場合に、ある実施例に規定された方法ステップの全てを実行するコードセグメントを有する。
本発明は、ハードウェア、ソフトウェア、ファームウェア又はこれらの如何なる組み合わせをも含む如何なる適切な形式でも実施されることができる。しかしながら、好ましくは、本発明は、1以上のデータプロセッサ及び/又はデジタル信号プロセッサ上で実行されるコンピュータソフトウェアとして実施される。本発明の一実施例の要素及び部品は、如何なる適切な形で物理的に、機能的に及び論理的に実施されてもよい。実際に、機能性は、単一のユニットで、複数のユニットで又は他の機能ユニットの一部として実施されてもよい。本発明は、単一のユニットで実施されてもよく、又は異なるユニット及びプロセッサの間で物理的に及び機能的に分散されてもよい。
本発明は、特定の実施例を参照して上に記載されているが、ここに記載された特定の形式に限定されることを意図しない。むしろ、本発明は、添付の請求項によってのみ限定され、上の特定のものとは別の実施例は、これら添付の請求項の範囲内で同等に可能である。
請求項において、用語"有する"は、他の要素又はステップの存在を除外しない。更に、個別にリストされているが、複数の手段、要素又は方法ステップは、例えば単一のユニット又はプロセッサにより実施されてもよい。加えて、個別のフィーチャが異なる請求項に含まれることができるが、これらは、場合により有利に組み合わせられてもよく、異なる請求項における包含は、フィーチャの組み合わせが実行可能及び/又は有利ではないことを意味しない。加えて、単数形は、複数を除外しない。用語"1つの"、"第1の"、"第2の"等は、複数を除外しない。請求項内の参照符号は、単に明確化する例として提供され、いかなる形でも請求の範囲を限定すると解釈されるべきでない。

Claims (14)

  1. 画像及び深度情報を有する画像信号を処理する方法において、
    前記画像信号の深度又は視差成分に基づいて前記画像信号に含まれる画像に対して前景/背景分割を実行するステップであって、前景マスク及び背景マスクを生じる、前記前景/背景分割を実行するステップと、
    前記分割された画像において分割遷移部の周りにエリアを作成するステップであって、前記エリアがアーチファクトを有する、前記エリアを作成するステップと、
    前記エリア内の画素データに対して前景/背景依存処理を実行するステップであって、処理された画像を生じる、前記前景/背景依存処理を実行するステップと、
    を有し、
    前記前景/背景依存処理は、前記エリアが、前記前景/背景分割により設定された背景エリアの内側に配置される場合、背景色情報を前記エリア内の画素データを修復するのに使用し、前記エリアが、前記前景/背景分割により設定された前景エリアの内側に配置される場合、前景色情報を前記エリア内の画素データを修復するのに使用する、方法。
  2. 前記前景/背景依存処理が、時間的修復、空間的修復、又は時空間的修復の修復技術である、請求項1に記載の方法。
  3. 前記前景/背景依存処理が、前記エリア内の前記画素データを前記画像の前記エリアの外側の画素データと交換することを有する、請求項1に記載の方法。
  4. 前記前景/背景依存処理が、前記エリア内の前記画素データに前記画像の前記エリアの外側に配置された画素データと混合することを有する、請求項1に記載の方法。
  5. 混合係数が、前記エリアの前記分割遷移部に対する距離の関数である、請求項4に記載の方法。
  6. 前記前景/背景依存処理が、ステレオ又はマルチビュー画像対から生じる画素データに基づいて前記エリア内の前記画素データを変更することを有する、請求項1に記載の方法。
  7. 前記前景/背景依存処理が、前記エリア内の前記画素データを修復するのに前記前景マスクからの前景色情報を使用することにより実行される、請求項1に記載の方法。
  8. 前記前景/背景依存処理が、前記エリア内の前記画素データを修復するのに前記背景マスクからの背景色情報を使用することにより実行される、請求項1に記載の方法。
  9. 前記エリアが、ビットストリーム内のデータから算出される、請求項1に記載の方法。
  10. 前記データが、圧縮に使用されるブロックサイズである、請求項9に記載の方法。
  11. 前記データが、量子化パラメータである、請求項9に記載の方法。
  12. 前記データが、非ブロック化フィルタ設定である、請求項9に記載の方法。
  13. 画像及び深度情報を有する画像信号を処理する処理ユニットにおいて、
    前記画像信号の深度又は視差成分に基づいて前記画像信号に含まれる画像に対して前景/背景分割を実行し、前景マスク及び背景マスクを生じ、
    前記分割された画像において分割遷移部の周りにエリアを作成し、前記エリアがアーチファクトを有し、
    前記エリア内の画素データに対して前景/背景依存処理を実行し、処理された画像を生じる、
    ように構成され
    前記前景/背景依存処理は、前記エリアが、前記前景/背景分割により設定された背景エリアの内側に配置される場合、背景色情報を前記エリア内の画素データを修復するのに使用し、前記エリアが、前記前景/背景分割により設定された前景エリアの内側に配置される場合、前景色情報を前記エリア内の画素データを修復するのに使用する、処理ユニット。
  14. データ処理装置上で実行される場合に請求項1に記載の方法のステップを実行するソフトウェアコードを有するコンピュータ可読媒体に記憶されたコンピュータプログラム。
JP2011520629A 2008-07-28 2009-07-22 画像補正に対する修復技術の使用 Active JP5932332B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08161240.0 2008-07-28
EP08161240 2008-07-28
PCT/IB2009/053167 WO2010013171A1 (en) 2008-07-28 2009-07-22 Use of inpainting techniques for image correction

Publications (2)

Publication Number Publication Date
JP2011529593A JP2011529593A (ja) 2011-12-08
JP5932332B2 true JP5932332B2 (ja) 2016-06-08

Family

ID=41112594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011520629A Active JP5932332B2 (ja) 2008-07-28 2009-07-22 画像補正に対する修復技術の使用

Country Status (6)

Country Link
US (1) US9256926B2 (ja)
EP (1) EP2316109B1 (ja)
JP (1) JP5932332B2 (ja)
KR (1) KR101604601B1 (ja)
CN (1) CN102113015B (ja)
WO (1) WO2010013171A1 (ja)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7733369B2 (en) * 2004-09-28 2010-06-08 Objectvideo, Inc. View handling in video surveillance systems
EP3836539B1 (en) 2007-10-10 2024-03-13 Gerard Dirk Smits Image projector with reflected light tracking
US20120269458A1 (en) * 2007-12-11 2012-10-25 Graziosi Danillo B Method for Generating High Resolution Depth Images from Low Resolution Depth Images Using Edge Layers
WO2010087751A1 (en) * 2009-01-27 2010-08-05 Telefonaktiebolaget Lm Ericsson (Publ) Depth and video co-processing
JPWO2012002106A1 (ja) * 2010-06-30 2013-08-22 富士フイルム株式会社 立体画像表示装置、立体画像表示方法、立体画像表示プログラム及び記録媒体
KR20120014876A (ko) * 2010-08-10 2012-02-20 삼성전자주식회사 영상 처리 장치 및 방법
US12025807B2 (en) 2010-10-04 2024-07-02 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US8902283B2 (en) * 2010-10-07 2014-12-02 Sony Corporation Method and apparatus for converting a two-dimensional image into a three-dimensional stereoscopic image
US9865083B2 (en) 2010-11-03 2018-01-09 Industrial Technology Research Institute Apparatus and method for inpainting three-dimensional stereoscopic image
TWI492186B (zh) * 2010-11-03 2015-07-11 Ind Tech Res Inst 修補三維立體影像之裝置及方法
US8773427B2 (en) * 2010-12-22 2014-07-08 Sony Corporation Method and apparatus for multiview image generation using depth map information
WO2013025157A2 (en) * 2011-08-17 2013-02-21 Telefonaktiebolaget L M Ericsson (Publ) Auxiliary information map upsampling
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US9165347B2 (en) * 2011-12-30 2015-10-20 Intel Corporation Method of and apparatus for local optimization texture synthesis 3-D inpainting
US8934707B2 (en) * 2012-03-21 2015-01-13 Industrial Technology Research Institute Image processing apparatus and image processing method
EP2648414B1 (en) * 2012-04-03 2016-03-23 Samsung Electronics Co., Ltd 3d display apparatus and method for processing image using the same
US9729849B2 (en) 2012-04-19 2017-08-08 Intel Corporation 3D video coding including depth based disparity vector calibration
US8867794B2 (en) 2012-10-23 2014-10-21 Cyberlink Corp. Systems and methods for performing image inpainting based on texture analysis
US8731324B1 (en) 2012-11-02 2014-05-20 Cyberlink Corp. Systems and methods for performing image inpainting
CN104166976B (zh) * 2013-05-16 2015-12-02 上海联影医疗科技有限公司 一种三维图像中前景的分割方法
WO2014189484A1 (en) * 2013-05-20 2014-11-27 Intel Corporation Technologies for increasing the accuracy of depth camera images
EP2833637A1 (en) * 2013-07-31 2015-02-04 Thomson Licensing Method for processing a current image of an image sequence, and corresponding computer program and processing device
JP5741660B2 (ja) * 2013-09-18 2015-07-01 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9042649B2 (en) * 2013-09-24 2015-05-26 Konica Minolta Laboratory U.S.A., Inc. Color document image segmentation and binarization using automatic inpainting
US9377533B2 (en) 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US9514523B2 (en) * 2014-11-18 2016-12-06 Intel Corporation Method and apparatus for filling images captured by array cameras
US9412153B2 (en) 2014-12-11 2016-08-09 Sony Corporation Using depth for recovering missing information in an image
US9536335B2 (en) * 2015-03-19 2017-01-03 Sony Corporation Using frequency decomposition for better color consistency in a synthesized region
US10043282B2 (en) * 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
US9886746B2 (en) 2015-07-20 2018-02-06 Tata Consultancy Services Limited System and method for image inpainting
JP2017054337A (ja) * 2015-09-10 2017-03-16 ソニー株式会社 画像処理装置および方法
US9684965B1 (en) 2015-12-01 2017-06-20 Sony Corporation Obstacle removal using point cloud and depth map data
JP6854828B2 (ja) 2015-12-18 2021-04-07 ジェラルド ディルク スミッツ 物体のリアルタイム位置検知
CN105608699B (zh) * 2015-12-25 2019-03-29 联想(北京)有限公司 一种图像处理方法及电子设备
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
CN105957038B (zh) * 2016-05-07 2017-06-30 安徽兆尹信息科技股份有限公司 一种基于连分式插值技术的银行破损票据图片正负向修补方法及其系统
US10129523B2 (en) 2016-06-22 2018-11-13 Microsoft Technology Licensing, Llc Depth-aware reprojection
US10237531B2 (en) 2016-06-22 2019-03-19 Microsoft Technology Licensing, Llc Discontinuity-aware reprojection
US10067230B2 (en) 2016-10-31 2018-09-04 Gerard Dirk Smits Fast scanning LIDAR with dynamic voxel probing
US10198621B2 (en) * 2016-11-28 2019-02-05 Sony Corporation Image-Processing device and method for foreground mask correction for object segmentation
JP7329444B2 (ja) 2016-12-27 2023-08-18 ジェラルド ディルク スミッツ 機械知覚のためのシステム及び方法
WO2018209096A2 (en) 2017-05-10 2018-11-15 Gerard Dirk Smits Scan mirror systems and methods
EP3422711A1 (en) 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
WO2019001710A1 (en) 2017-06-29 2019-01-03 Huawei Technologies Co., Ltd. APPARATUSES AND METHODS FOR ENCODING AND DECODING A VIDEO CODING BLOCK OF A MULTIVATE VIDEO SIGNAL
EP3422708A1 (en) 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
KR101867586B1 (ko) * 2017-09-22 2018-06-15 주식회사 이넘넷 영상 처리 장치 및 방법
US10591605B2 (en) 2017-10-19 2020-03-17 Gerard Dirk Smits Methods and systems for navigating a vehicle including a novel fiducial marker system
EP3511910A1 (en) 2018-01-12 2019-07-17 Koninklijke Philips N.V. Apparatus and method for generating view images
US10379220B1 (en) 2018-01-29 2019-08-13 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned LIDAR systems
KR101910083B1 (ko) * 2018-06-07 2018-10-22 주식회사 이넘넷 영상 처리 장치 및 방법
EP3588249A1 (en) 2018-06-26 2020-01-01 Koninklijke Philips N.V. Apparatus and method for generating images of a scene
US10650499B1 (en) * 2018-07-26 2020-05-12 United States Of America As Represented By The Secretary Of The Navy Fast and effective image inpainting for reticle removal
CN109658388B (zh) * 2018-11-29 2021-03-30 湖南视比特机器人有限公司 基于视觉和主动交互的包装箱分割错误的检测与矫正方法
CN111951361B (zh) * 2019-05-17 2024-04-02 联想新视界(北京)科技有限公司 一种实现ar图像显示效果的方法和装置
WO2021174227A1 (en) 2020-02-27 2021-09-02 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
CN112637614B (zh) * 2020-11-27 2023-04-21 深圳市创成微电子有限公司 网络直播音视频处理方法、处理器、装置及可读存储介质
US20230385992A1 (en) * 2022-05-25 2023-11-30 Adobe Inc. Generating modified digital images via image inpainting using multi-guided patch match and intelligent curation

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3860227B2 (ja) 1993-03-10 2006-12-20 株式会社東芝 Mriガイド下で用いる超音波治療装置
US6668097B1 (en) 1998-09-10 2003-12-23 Wisconsin Alumni Research Foundation Method and apparatus for the reduction of artifact in decompressed images using morphological post-filtering
CN100584039C (zh) * 2002-10-23 2010-01-20 皇家飞利浦电子股份有限公司 3d数字视频信号的后处理方法
US6922859B2 (en) 2002-11-29 2005-08-02 Art Advanced Research Technologies Inc. Table for positioning a patient for a medical procedure on a breast
US7379769B2 (en) 2003-09-30 2008-05-27 Sunnybrook Health Sciences Center Hybrid imaging method to monitor medical device delivery and patient support for use in the method
US8073292B2 (en) 2006-02-28 2011-12-06 Koninklijke Philips Electronics N.V. Directional hole filling in images
US7532767B2 (en) 2006-05-31 2009-05-12 Xerox Corporation Removing ringing and blocking artifacts from JPEG compressed document images
KR101545008B1 (ko) 2007-06-26 2015-08-18 코닌클리케 필립스 엔.브이. 3d 비디오 신호를 인코딩하기 위한 방법 및 시스템, 동봉된 3d 비디오 신호, 3d 비디오 신호용 디코더에 대한 방법 및 시스템
CN101822068B (zh) 2007-10-11 2012-05-30 皇家飞利浦电子股份有限公司 用于处理深度图的方法和设备
JP2011512717A (ja) 2008-01-24 2011-04-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 穴充填のための方法及び画像処理デバイス

Also Published As

Publication number Publication date
US9256926B2 (en) 2016-02-09
JP2011529593A (ja) 2011-12-08
EP2316109A1 (en) 2011-05-04
KR20110042089A (ko) 2011-04-22
KR101604601B1 (ko) 2016-03-18
EP2316109B1 (en) 2017-12-13
WO2010013171A1 (en) 2010-02-04
CN102113015A (zh) 2011-06-29
US20110123113A1 (en) 2011-05-26
CN102113015B (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
JP5932332B2 (ja) 画像補正に対する修復技術の使用
US7224355B2 (en) Method for post-processing a 3D digital video signal
EP2230855B1 (en) Synthesizing virtual images from texture and depth images
JP5270573B2 (ja) ブロックアーチファクトを検出する方法及び装置
JP5230669B2 (ja) 深度画像をフィルタリングする方法
JP5351038B2 (ja) 画像データ及び深度データの組合せを処理する画像処理システム
TWI432034B (zh) 多視點圖像編碼方法、多視點圖像解碼方法、多視點圖像編碼裝置、多視點圖像解碼裝置、多視點圖像編碼程式及多視點圖像解碼程式
US20160065931A1 (en) Method and Apparatus for Computing a Synthesized Picture
EP2230856A2 (en) Method for up-sampling images
JP2020506484A (ja) 画像特性マップを処理するための方法及び装置
JP2006513596A5 (ja)
US9451233B2 (en) Methods and arrangements for 3D scene representation
JP2010514315A (ja) 画像信号を符号化するための方法及びシステム、符号化された画像信号、画像信号を復号化するための方法及びシステム
CN110495178B (zh) 3d视频编码的装置和方法
KR101910502B1 (ko) 변환계수를 이용한 영상 블록현상 제거 방법 및 그 장치
KR101806949B1 (ko) 깊이 룩업 테이블을 코딩하는 방법
US11006147B2 (en) Devices and methods for 3D video coding
TWI540536B (zh) 處理三維場景之深度資料
KR20160147448A (ko) 컬러 영상정보를 이용한 깊이영상 부호화 방법 및 컬러 영상정보를 이용한 깊이정보 복원 방법
CN111031313B (zh) 基于次级参考块和次级估计组的滤波方法和装置
KR20140069266A (ko) 디스패리티 맵을 필터링하기 위한 방법 및 디바이스
JP2015041796A (ja) 画像処理方法、画像処理装置、画像処理プログラム、およびデータ構造
JP2003299086A (ja) 動画像復号装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140529

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5932332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250