JP6198021B2 - 動き補償に基づくビデオ符号化を支援するために奥行き情報を使用すること - Google Patents

動き補償に基づくビデオ符号化を支援するために奥行き情報を使用すること Download PDF

Info

Publication number
JP6198021B2
JP6198021B2 JP2015506086A JP2015506086A JP6198021B2 JP 6198021 B2 JP6198021 B2 JP 6198021B2 JP 2015506086 A JP2015506086 A JP 2015506086A JP 2015506086 A JP2015506086 A JP 2015506086A JP 6198021 B2 JP6198021 B2 JP 6198021B2
Authority
JP
Japan
Prior art keywords
depth
background
frame
video
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015506086A
Other languages
English (en)
Other versions
JP2015518690A (ja
Inventor
ジェンユ・ウー
ホン・ヘザー・ユ
Original Assignee
ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホアウェイ・テクノロジーズ・カンパニー・リミテッド filed Critical ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Publication of JP2015518690A publication Critical patent/JP2015518690A/ja
Application granted granted Critical
Publication of JP6198021B2 publication Critical patent/JP6198021B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、動き補償に基づくビデオ符号化を支援するために奥行き情報を使用することに関する。
本出願は、「動き補償に基づくビデオ符号化を支援するために奥行き情報を使用すること」と題する、Zhenyu Wuらによって2013年4月17日に出願された米国非仮出願第13/864,672の優先権を主張し、前記米国非仮出願は、「動き補償に基づくビデオ符号化のためのシステム及び方法」と題する、Zhenyu Wuらによって2012年4月19日に出願された米国仮出願第61/635,690の優先権を主張し、それらの両方がその全体において再現されるかのように参照によって組み込まれる。
一般的に、ビデオは、一連の静止画又は静止フレームを比較的速く連続して表示することを含み、それによって、視聴者に動きを知覚させる。各フレームは、複数の画素を有してもよく、各画素は、フレーム内の単一の基準点を表してもよい。例え短いビデオセグメントであっても、描写するために必要とされるデータ量は大量であり得、データが限られた帯域幅容量を用いてネットワーク経由で通信されるときに困難が生じる。従って、ビデオは、ビデオの出所である装置上のビデオ圧縮ハードウェア又はソフトウェアを介して圧縮されてもよい。圧縮は、ネットワーク経由で通信されるビデオストリームよりも前の符号化プロセスの一部であってもよく、そのことは、ビデオを通信するために必要とされるデータ量を減少させる。符号化は、ソースデータを信号に変換するプロセスを指してもよい。ビデオは、次に、復号化プロセスの一部として、ビデオの受信機である装置上のビデオ解凍ハードウェア又はソフトウェアを介して解凍されてもよい。復号化は、信号を変換してソースデータに戻すプロセスを指してもよい。改善された圧縮及び解凍技術は、圧縮率を増加させるとともに、このように、ビデオを通信するために必要なデータ量を、実質的にビデオ品質を低下させることなく、低減することができる。さらに、改善された圧縮及び解凍技術は、ビデオ品質を改善することができる。
1つの態様では、前記開示は、複数のポートとプロセッサとを有する装置を含み、前記プロセッサは、ポートに接続されるとともに、ポートのいずれかから複数のビデオフレームを受信するように構成され、ビデオフレームは、オブジェクト及び背景を有するとともに、ビデオフレームは、オブジェクト及び背景のための複数の色画素を有し、ポートのいずれかから複数の奥行きフレームを受信するように構成され、奥行きフレームは、オブジェクト及び背景を有するとともに、奥行きフレームは、背景の奥行きと相対的なオブジェクトの奥行きの指標を有し、背景の奥行きと相対的なオブジェクトの奥行きの指標を使用して、ビデオフレームを符号化するように構成される。
他の態様では、前記開示はシステムを含み、前記システムは、複数のビデオフレームを取得するように構成されるカメラであって、ビデオフレームはオブジェクト及び背景を有するとともに、ビデオフレームは、オブジェクト及び背景のための複数の色画素を有する、カメラと、複数の奥行きフレームを取得するように構成される奥行き装置であって、奥行きフレームは、オブジェクト及び背景を有するとともに、奥行きフレームは、背景の奥行きと相対的なオブジェクトの奥行きの指標を有する、奥行き装置と、カメラ及び奥行き装置に接続されるエンコーダであって、エンコーダは、背景の奥行きと相対的なオブジェクトの奥行きの指標を使用して、ビデオフレームを符号化するように構成される、エンコーダとを有する。
さらに他の態様では、前記開示は方法を含み、前記方法は、ポートのいずれかから複数のビデオフレームを受信するステップであって、ビデオフレームは、オブジェクト及び背景を有するとともに、ビデオフレームは、オブジェクト及び背景のための複数の色画素を有する、ステップと、ポートのいずれかから複数の奥行きフレームを受信するステップであって、奥行きフレームは、オブジェクト及び背景を有するとともに、奥行きフレームは、背景の奥行きと相対的なオブジェクトの奥行きの指標を有する、ステップと、背景の奥行きと相対的なオブジェクトの奥行きの指標を使用してビデオフレームを符号化するステップとを有する。
これらの及び他の特徴は、添付の図面及び特許請求の範囲と併せてなされる、以下の詳細な説明からより明確に理解されるだろう。
本開示のより十分な理解のために、ここでは、添付図面及び詳細な説明に関連してなされる、以下の簡単な説明が参照される。同様の参照番号は同様の部分を表す。
図1は、本開示の実施形態に係る通信システムの概略図である。 図2は、奥行きフレームの一例である。 図3は、本開示の実施形態に係るビデオ符号化方法を例示するフローチャートである。 図4は、本開示の実施形態に係るネットワーク装置の概略図である。
初めに、1つ又は2つ以上の実施形態の例示的な実装が以下に提供されるが、開示されるシステム及び/又は方法は、現在知られているか又は存在する、任意の数の技術を使用して実装されてもよいことは理解されるべきである。本開示は、本明細書で例示及び説明される例示的な設計及び実装を含めて、以下に例示される例示的な実装、図面及び技術に限定されることは決してあってはならず、しかし、それらの全範囲の均等物と共に、添付の特許請求の範囲の範囲内で修正されてもよい。
ビデオ符号化は、動き推定を有してもよい。ビデオ符号化の構成では、動き推定は、1つのビデオフレームを他のビデオフレームと関連付ける動きベクトルを決定するための特定のプロセスを指してもよい。動き推定は、ブロックマッチングアルゴリズムを採用してもよい。そのようなアルゴリズムでは、エンコーダはビデオフレームをマクロブロックに分割してもよく、マクロブロックは、同様に、より小さなサブマクロブロックにサブ分割されてもよい。元のマクロブロック及びサブ分割されたサブマクロブロックはまた、符号化ブロックと呼ばれてもよい。エンコーダは、第1のビデオフレームにおける第1のマクロブロックを特定してもよい。次に、第2のビデオフレーム全体で各マクロブロックを順次走査することによって、エンコーダは、第1のビデオフレームにおける第1のマクロブロックに最も密接に似ている、第2のビデオフレームにおける第2のマクロブロックを特定してもよい。第2のマクロブロックが、第1のマクロブロックに関する2次元格子に沿ってシフトされる場合、そのとき、エンコーダは、2つのビデオフレームからデータを符号化する際に、第1のマクロブロックを完全に記載するとともに第2のマクロブロックを、シフト距離を記載する動きベクトルに関してのみ記載してもよい。そうでなければ、エンコーダは、第1のマクロブロックと第2のマクロブロックの両方を完全に記載してもよい。後者のシナリオと比較される場合、動きベクトルを採用する前者のシナリオは、2つのビデオマクロブロック及び従って2つのビデオフレームを記載するために必要とされるデータ量を低減することができる。エンコーダは前記プロセスを繰り返すとともに、例えば、ビデオ会議が終了するまでの時間で、有限数のビデオフレームのための動き推定情報を決定してもよい。
動き推定は、ビデオ符号化のための計算資源消費量の重要な原因であってもよい。いくつかのケースでは、動き推定は、計算資源消費量の60%から70%を占めてもよい。いくつかの既存の解決手段は、したがって、高速動き推定及びモード決定技術のような、改善されたアルゴリズムを使用して、動き推定の計算資源消費量を低減しようとする。上述の2つのビデオフレーム及び2つのマクロブロックの例では、エンコーダは、事前に定義された探索パターン及び早期終了基準を使用して、第2のマクロブロックを探索してもよい。それらの技術を使用することにおいて、エンコーダは、第1のマクロブロックに一致する可能性が低い第2のビデオフレーム内で、候補を探索することをスキップしてもよい。上述の2つのビデオフレーム及び2つのマクロブロックの例を続けると、エンコーダは、最初に、第1のマクロブロックの空間的及び/又は時間的近傍を探索してもよいか、又はエンコーダは、異なる空間解像度での、第1のマクロブロックの共通の位置のブロックを探索してもよい。他の既存の解決手段は、より強力なグラフィックス処理ユニット(GPU)、デジタル信号プロセッサ(DSP)及びフィールド・プログラマブル・ゲート・アレイ(FPGA)のような、強力なハードウェアを必要とし得る。しかしながら、そのようなシステム及びアーキテクチャは、計算資源消費量の観点から望ましくない。
本明細書では、改善された符号化技術のためのシステム及び方法が開示される。開示される技術は、ビデオ会議、テレプレゼンス、ビデオ監視及び画像又はビデオを含む他のアプリケーションに適用してよい。この技術によって、ビデオは、画素ベースのカメラ及び奥行き装置の両方によって捕捉されてよい。エンコーダは、次に、画素データ及び奥行きデータの両方を使用してオブジェクトを分割し、ビデオフレーム全体でそれらのオブジェクトを追跡し、それらのオブジェクトの動きモデルを構築し、動きモデルに基づいて、それらのオブジェクトの動きベクトルを導出してよい。この構成では、分割は、フレームを画素のセットに仕切ることを指してもよい。例えば、フレーム内の個々のオブジェクトは、フレームの残りの部分から仕切られてもよい。この技術を採用することによって、エンコーダは、少なくとも部分的に、他の方法では必要とされる動き推定の量を低減する。動き推定における低減は、低減された計算資源消費量につながり、このことは、より複雑でないハードウェアへの必要性に帰するとともに、従って、ハードウェアコスト及び電力消費量を低減する。低減された計算資源消費量はまた、より少ないデータへの必要性に帰するとともに、従って、ビデオ容量及びビデオ品質を改善する。さらに、開示される技術は、直接的に、改善された圧縮効率に帰する。最後に、開示される技術は、直接的に、改善されたビデオ品質に帰する。
開示される技術を使用する、計算資源消費量における低減は、少なくとも2つの方法で生じる。第一に、エンコーダは、モデル化されたオブジェクトに対して、開示される技術に従って、動き推定を回避してもよい。開示される技術を使用して、モデル化されたオブジェクトのための動きベクトルを導出することは、そうでない場合の動き推定よりも、より少ない計算資源消費量を必要とする。第二に、モデル化されたオブジェクトに対して動き推定を回避することの代わりに、エンコーダは、モデル化されたオブジェクト内のマクロブロックに対して動き推定を開始するための、従来技術よりもより良い(例えば、より最適な)動き予測子を決定するために、導出された動きベクトルを使用してもよい。そのようにして、エンコーダは、一致する可能性が低いマクロブロックへの探索を回避することによって、計算資源消費量を減少させる。
開示される技術を使用して改善される圧縮効率は、少なくとも2つの方法で生じる。第一に、上述のように、動き推定は、一致するマクロブロックを見つけるまで、ビデオフレーム全体で、各マクロブロックを順次走査するエンコーダを有してもよい。その際、エンコーダは、未だ、一致するマクロブロックに隣接する符号化されていないマクロブロックのための動きベクトルを知らない。このプロセスは、一致するマクロブロックのためのより良い(例えば、より最適な)動きベクトルに帰するが、隣接するマクロブロックが共に考慮される場合は、最適以下になる。開示される技術では、エンコーダは、モデル化されたオブジェクトに属する隣接するマクロブロックのための動きベクトルを知っていてもよい。エンコーダは、ビデオフレームの非モデル化領域のためのより良い(例えば、より最適な)動きベクトルを導出するためにその情報を使用してもよい。第二に、上述のように、エンコーダは、より良い(例えば、より最適な)動き予測子を決定するために、導出された動きベクトルを使用してもよい。固定サイズの動き探索ウィンドウが与えられると、より良い動き予測子は、従来技術よりもより良い(例えば、より最適な)動き推定動きベクトルを生成してもよい。
前記奥行きデータは、オブジェクトの本当の動きをより正確に反映するため、開示される技術は、直接的に品質を改善することができる。そのため、開示される技術は、画素データのみを使用することと比較された場合、より少ないアーティファクト又は歪みに帰する。
図1は、本開示の実施形態に係る通信システム100の概略図である。通信システム100は、ネットワーク150を介して、複数の第2の装置160に通信可能に接続された、第1の装置110を有する。第1の装置110は、携帯電話、タブレットコンピュータ、デスクトップコンピュータ、ノートブックコンピュータ又は他のデバイスであってもよい。第2の装置160の各々は、同様に、携帯電話、タブレットコンピュータ、デスクトップコンピュータ、ノートブックコンピュータ又は他のデバイスであってもよい。ネットワーク150は、インターネット、無線携帯電話ネットワーク又は他のネットワークであってもよい。
前記第1の装置110は、カメラ120、奥行き装置130及びエンコーダ140を有する。カメラ120は、画像又はビデオフレームを捕捉するために適した任意のカメラであってよい。画像又はビデオフレームは、当技術分野では周知であるとともに、各画像又はビデオフレームは、赤−緑−青(RGB)又は他の適切な色空間における複数の画素を有してよい。奥行き装置130は、示されるように、第1の装置110の一部であってよい。あるいは、奥行き装置130は、第1の装置110への付属品であってもよいし、又は単に第1の装置110に通信可能に接続されてもよい。奥行き装置130は、奥行きセンサや、ライトフィールドカメラや、測距カメラや、赤外線カメラや、紫外線カメラや、レーダー又はソナーアセンブリや、相補性金属酸化膜半導体(CMOS)視覚センサや、電荷結合素子(CCD)視覚センサや、視覚センサの組合せや、又は奥行きフレームを捕捉するために適した他の奥行き装置であってもよい。奥行き装置130は、カメラ120と協調してそのような奥行きフレームを捕捉するとともに、それ自体は一般的に、カメラ120の近く(例えば、6インチ以内)に位置されるとともに、カメラ120の視野角と同様の視野角を有する。換言すると、カメラ120が特定の時点でのフォーカスの特定領域のビデオフレームを捕捉する場合、奥行き装置130は、フォーカスの同一領域及び同一時点に対応する奥行きフレームを捕捉する。奥行き装置130は、赤外線又は他の電磁波を使用して、奥行きフレームを捕捉してもよい。奥行きフレームは、異なる奥行きを表す複数の異なる強度値を有する。例えば、高い又は明るい強度は、奥行き装置130に比較的近いオブジェクトを表し、一方、低い又は暗い強度は、奥行き装置130から比較的遠いオブジェクトを表す。あるいは、奥行きフレームは、奥行き装置130からオブジェクト内の一部又は全ての画素の距離のおおよその、又は絶対的な(例えば、数値的な)測定を有してもよい。実施形態では、奥行きフレームの各画素が、対応するビデオフレームの同一領域に位置する画素に対応するように、奥行きフレームは、画素を有してよい。
図2は、奥行きフレーム200の一例である。奥行きフレーム200は、奥行きフレーム200の前景における人物210及び奥行きフレーム200の背景におけるソファ220を有する。示されるように、人物210は、奥行きフレーム200において比較的近くにあるとともに、従って、明るい強度又はより薄い陰影によって表され、一方、ソファ220は、奥行きフレーム200において比較的遠くにあるとともに、従って、暗い強度又はより濃い陰影によって表される。ソファ220の後ろの領域は、さらに遠いとともに、従って、さらに暗い強度又はさらに濃い陰影によって表される。当業者は、一般的に奥行きフレームがどのように表れるか理解する。
図1に戻ると、エンコーダ140は、ビデオデータを符号化するために適した任意のエンコーダであってよい。エンコーダ140は、個別のモジュールであってもよく、又はより大きな演算処理の一部であってもよい。第1の装置110はまた、ビデオデコーダ(示されず)及びおそらくディスプレイスクリーン(示されず)を有することは理解されるであろう。
前記奥行き装置130は、いくつかの制限を持ってよい。第一に、奥行き装置130とオブジェクトとの間の距離における違いと、最小の識別可能な距離差と、視野角は、パフォーマンスを低下させ得る。第二に、適切にビデオフレーム及び奥行きフレームを配置するために、カメラ120及び奥行き装置130を慎重に調整することは重要である。そのような慎重な調整がなければ、開示される技術は、十分に理解されない。
前記第1の装置110は、第2の装置160の少なくとも1つとのビデオ通話に参加してよい。第1の装置110及び参加する各第2の装置160は、ビデオ通話に参加するためにデータを送信及び受信してよい。例えば、第1の装置110は、カメラ120及び奥行き装置130を介して、データを捕捉し、エンコーダ140を介してデータを符号化し、その符号化されたデータを、参加する第2の装置160に送信してよい。同時に、第1の装置110は、参加する第2の装置160から符号化されたデータを受信するとともに、その受信されたデータを復号してよい。このように、第2の装置160は、第1の装置110と同一の構成要素を有してもよい。第1の装置110及び各第2の装置160は、ハードウェアとソフトウェアの任意の組合せを介して、前述のタスク及び後述のタスクを実行してもよい。
図3は、本開示の実施形態に係るビデオ符号化方法300を例示するフローチャートである。方法300は、上述の第1の装置110において、例えば、エンコーダ140において実装されてもよい。また、方法300は、画像抽出365、オブジェクト分割370、動き計算375及びビデオ符号化380の一般的なステップを有してよい。
前記方法300は、ステップ305で開始し、そこでは、ビデオフレームは、カメラ120のような、任意の適切なソースから受信される。ステップ310では、奥行きフレームは、奥行き装置130のような、任意の適切なソースから受信される。上述されるように、ビデオフレーム及び奥行きフレームは、同一時間でのフォーカスの同一領域に対応する。ステップ315では、画素データは、ビデオフレームから抽出される。画素データは、ビデオフレーム内の各画素を形成するために使用される、赤、緑及び青の値であってよい。ステップ320では、奥行きデータは、奥行きフレームから抽出される。奥行きデータは、奥行きフレーム内の各画素を形成するために使用される強度値であってよいとともに、奥行き装置130からオブジェクトまでの相対的な距離を示す。
ステップ325では、オブジェクトが分割される。オブジェクトは、例えば、(図2に示されるように、)ビデオフレーム及び奥行きフレームの背景におけるソファであってもよい。ビデオフレーム内の色パターンは、オブジェクトを分割するために使用されてよい。例えば、ソファが赤と白のストライプを有する場合、その時、エンコーダ140は、赤と白の色のグループを、ビデオフレームの残りの部分から区別して分割することによって、ソファをビデオフレームの残りの部分から分割する。しかしながら、画素データのみを使用するオブジェクト分割は、比較的複雑で誤りがちである。例えば、ビデオフレームの前景における人物が赤と白のストライプが入ったシャツを着ている場合、その時、エンコーダ140は、2つのオブジェクトが同様の模様及び色を共有するため、人物のシャツとソファの両方を1つのオブジェクトとして誤って分割し得る。奥行きデータを使用するオブジェクト分割は、奥行きフレームにおける奥行きパターンを決定する。例えば、ソファは、奥行きフレームの背景において実質的に均一の奥行きにあり、従って、その画素は、それ全体にわたって実質的に同様の強度を示す。ソファは背景にあるため、ソファは、比較的暗い強度を示す。逆に、人物のシャツは前景にあるため、人物のシャツは比較的明るい強度を示す。奥行きデータを使用するオブジェクト分割は、画素データを使用するオブジェクト分割に高度に関係づけられ、2つのオブジェクト分割方法は、互いに補足し合うとともに、改善されたオブジェクト分割を提供することを意味する。明確な前景のオブジェクトと明確な背景のオブジェクトを持つフレームにおいてオブジェクトを分割する場合、改善は特に明白であり得る。例えば、画素データのみを使用するオブジェクト分割は、人物のシャツとソファとを1つの分割されたオブジェクトとして結びつける可能性がある一方で、また、奥行きデータを使用するオブジェクト分割を採用することは、ソファから人物のシャツを区別する助けとなる。従って、画素データと奥行きデータの両方を使用するオブジェクト分割を採用することは、画素データのみを使用するオブジェクト分割と比較して、複雑さを低減し、信頼性を改善する。
ステップ330では、方法300は、分割されたオブジェクトが剛体であるかどうかを判断する。剛体オブジェクトは、ビデオフレーム全体で位置を移動させるが、オブジェクト自体の境界内では、実質的に変化しない、オブジェクトを指してよい。例えば、カメラ120が、フォーカスの領域を移動させる場合、ソファはビデオフレーム全体を移動する。しかしながら、ソファそのものは、実質的にその形や色を変化させることはない。逆に、人の顔は、ビデオフレーム全体でその形を変化させ得る。例えば、人は、話すために口を開けたり、まばたきをするために目を閉じたりする。オブジェクトが剛体でない場合、その時、プロセスは、ステップ350に進む。ステップ350では、エンコーダは、オブジェクトの動き推定を実行して、ステップ355に進む。オブジェクトが剛体である場合、その時、方法300は、ステップ335に進む。オブジェクト分割は、例えば、人間の体の残りの部分から人間の胴体のような、より大きなオブジェクトの一部を分割することを有してもよいことに留意することは重要である。このことは、胴体はビデオフレーム全体で剛体のままである一方、顔はビデオフレーム全体でその形を変化させるため、行われ得る。さらに、第1のオブジェクトは、第2のオブジェクトからその奥行きを区別することによって分割されてもよい。第2のオブジェクトは、第1のオブジェクトの背後にあるため、背景にあるものとして考えられてよい。換言すると、「前景」及び「背景」という用語は、相対的な表現において使用されてよい。
ステップ335では、オブジェクトは、特定及び追跡される。換言すると、エンコーダ140は、上述の2つのオブジェクト分割方法を採用するとともに、有限数の次のフレームにおいて、第1のフレームにおいて分割されたオブジェクトを特定する。方法300は、その後、どのようにそのオブジェクトがフレーム全体を移動するかを追跡する。
ステップ340では、オブジェクトの動きがモデル化される。エンコーダ140は、トランスレーショナルなモデルや、幾何学的なモデルや、アフィン形式のモデルや、及び遠近画法モデルを含む、任意の適したグローバルな動きモデルを使用して、モデル化を行う。それらのモデルは、より特有の動きからより一般的な動きに対応する、低次モデルから高次モデルの順序で一覧表示されるとともに、“Global Motion Estimation from Coarsely Sampled Motion Vector Field and the Applications,” Yeping Su, et al., IEEE Transactions on Circuits and Systems for Video Technology, vol. 15, no. 2, February 2005において説明され、その全体において再現されるかのように参照によって組み込まれる。
ステップ345では、方法300は、オブジェクトの各符号化ブロックのための動きベクトルを導出するために、上述のオブジェクトの動きのモデル化を使用する。動きベクトルは、フレーム全体でのオブジェクトの各符号化ブロックの実際の動きの軌跡を記載する。さらに、方法300は、奥行きフレームから、フレーム全体を移動しないオブジェクトは、動きのない静止背景であると判断する。
前記方法300では、次に、ステップ350又はステップ355のいずれかに進む。ステップ350に進む場合、方法300は、上述のように、モデル化されたオブジェクト内の符号化ブロックに対して動き推定を開始するための、より最適な動き予測子を決定するために、導出された動きベクトルを使用し、その後ステップ355に進む。そうでなければ、プロセスは、直接ステップ355に進む。ステップ355では、方法300は、導出された動きベクトルを含む、データを符号化し、ビデオフレームを記載する。ステップ360では、方法300は、符号化されたデータを出力する。例えば、符号化されたビデオデータを、第2の装置160に送信する。剛体オブジェクトに対して動きベクトルを導出して符号化する上述の方法300を使用することによって、エンコーダは、動き補償に基づくビデオ符号化を使用していると言われてもよい。
本明細書に記載される改善された圧縮効率は、いかに正確にオブジェクトが分割され追跡されるかに依存する。例えば、オブジェクトが比較的明確で簡単な動きを示す、ビデオ会議及びビデオ監視のようなアプリケーションは、最大の改善を示すことができる。
図4は、本開示の実施形態に係るネットワーク装置400の概略図である。ネットワーク装置400は、データを受信するための、複数の入力ポート410及び/又は受信部(Rx)420と、信号を処理するためのプロセッサ又はロジック部430と、他の構成要素へデータを送信するための、複数の出力ポート440及び/又は送信部(Tx)450と、メモリ460とを有してよい。ネットワーク装置400は、上述の特徴、方法及び装置を実装するために適していてもよく、それ自体は、図1において示されるとともに、本開示において説明される、第1の装置110及び/又は第2の装置160の一部であってよい。例えば、入力ポート410は、カメラ120及び奥行き装置130に接続されてもよいとともに、出力ポート440は、ネットワーク150に接続されてもよい。さらに、エンコーダ140は、プロセッサ430及び/又はメモリ460において実装されてもよい。そのように、プロセッサ430及び/又はメモリ460は、ビデオ符号化モジュール470を有してもよく、方法300に対応してもよい。ビデオ符号化モジュール470は、画像抽出サブモジュール475(画像抽出365を実装するための命令を有してもよい)と、オブジェクト分割サブモジュール480(オブジェクト分割370を実装するための命令を有してもよい)と、動き計算サブモジュール485(動き計算375を実装するための命令を有してもよい)と、ビデオ符号化サブモジュール490(ビデオ符号化380を実装するための命令を有してもよい)と、を有してもよい。
前記プロセッサ430は、中央処理装置(CPU)として呼ばれてもよく、入力ポート410と、受信部420と、出力ポート440と、送信部450と、メモリ460と通信してもよい。プロセッサ430は、1つ又は2つ以上のCPUチップ、コア(例えば、マルチコアプロセッサ)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、及び/又はデジタル信号プロセッサ(DSP)として実装されてもよく、及び/又は1つ又は2つ以上のASICの一部であってもよい。
前記メモリ460は、1つ又は2つ以上のディスク、テープドライブ又はソリッドステートドライブで構成されてよく、データの不揮発性記憶のために、及びオーバーフローデータ記憶装置として使用されてよく、そのようなプログラムが実行のために選択されるとき、プログラムを格納するために使用されてよく、プログラム実行中に読み込まれる命令及びおそらくデータを格納するために使用されてよい。メモリ460は、揮発性及び/又は不揮発性であってよいとともに、読出し専用メモリ(ROM)及び/又はランダムアクセスメモリ(RAM)であってもよい。
少なくとも1つの実施形態が開示されるとともに、当業者によって行われる、実施形態及び/又は実施形態の特徴の変更、組合せ及び/又は修正は、本開示の範囲に包含される。実施形態の特徴を組合せ、統合し及び/又は省略することから生じる別の実施形態もまた、本開示の範囲に包含される。数値範囲又は限定が明示的に記載されているところでは、そのような明示的な範囲又は限定は、明示的に記載された範囲又は限定内(例えば、約1から約10は、2,3,4等を含み、0.10よりも大きいときは、0.11,0.12,0.13等を含む)に含まれる大きさの反復範囲又は限定を含むことが理解されることができる。例えば、下限R及び上限Rを有する数値範囲が開示されるときはいつでも、前記範囲内に含まれる任意の数が具体的に開示されている。特に、前記範囲内の以下の数字が、具体的に開示される:R=R+k*(R−R),kは1パーセント刻みで、1パーセントから100パーセントで変動する変数である。すなわち、kは1パーセント,2パーセント,3パーセント,4パーセント,5パーセント,…,50パーセント,51パーセント,52パーセント,…,95パーセント,96パーセント,97パーセント,98パーセント,99パーセント,又は100パーセントである。さらに、上述において定義されるように2つの数Rによって定義される任意の数値範囲もまた、具体的に開示される。他に記載されない限り、「約」という用語の使用は、次の数の+/−10%を意味する。請求項の任意の要素に関する「任意で」という用語の使用は、要素が必要とされるか、又は要素は必要とされないことを意味し、どちらの選択肢も特許請求の範囲に包含される。「有する」、「含む」及び「持つ」のようなより広範な用語の使用は、「構成する」、「本質的に構成する」及び「実質的に有する」のようなより狭い用語へのサポートを提供することが理解されることができる。したがって、保護の範囲は、上述される説明によって限定されるものではなく、添付の特許請求の範囲によって定義され、その範囲は特許請求の範囲の主題の全ての均等物を含む。各請求項及び全ての請求項は、さらなる開示として明細書に組み込まれるとともに、特許請求の範囲は、本開示の実施形態である。開示における参照の議論は、それが従来技術、特に本出願の優先日後に公表日を持つ任意の参照であることを認めるものではない。本開示において引用される全ての特許、特許出願及び刊行物の開示は、例示的な、手続き的な、又は本開示に対する他の詳細な補足を提供する範囲まで、本明細書で参照によって組み込まれる。
いくつかの実施形態が本開示において提供された一方で、開示されたシステム及び方法は、本開示の主旨又は範囲を逸脱することなく、多くの他の特定の形態で実施されることができることが理解されることができる。本実施例は、例示的であり、及び限定的でないと考えられるべきであり、本明細書で与えられる詳細に限定されるものではないことを意図する。例えば、様々な要素又は構成要素が他のシステムにおいて組み合わされるか、又は統合されるか、あるいはある特徴は省略されるか、又は実装されなくてもよい。
さらに、様々な実施形態において別々に、又は離れて説明及び例示される技術、システム、サブシステム及び方法は、他のシステム、モジュール、技術又は方法と、本開示の範囲を逸脱することなく組み合わされるか、又は統合されてもよい。接続されるか、又は直接接続された、あるいは互いに通信する、示される又は議論される他の項目は、いくつかのインタフェース、装置又は中間構成要素を介して、電気的、機械的又は他の方法で間接接続されるか、又は通信することができる。他の実施例の変更、置換及び改変は、当業者によって確認可能であり、本明細書に開示される主旨及び範囲を逸脱することなく行われることができる。
110 第1の装置
120 カメラ
130 奥行きセンサ
140 エンコーダ
150 ネットワーク
160 第2の装置
400 ネットワーク装置
410 入力ポート
420 受信部(Rx)
430 プロセッサ
440 出力ポート
450 送信部(Tx)
460 メモリ
470 ビデオ符号化モジュール
475 画像抽出サブモジュール
480 オブジェクト分割サブモジュール
485 動き計算サブモジュール
490 ビデオ符号化サブモジュール

Claims (12)

  1. 複数のポートと、
    プロセッサとを有し、前記プロセッサは、
    前記ポートに接続されるとともに、
    前記ポートのいずれかから複数のビデオフレームを受信するように構成され、前記ビデオフレームは、オブジェクト及び背景を有するとともに、前記ビデオフレームは、前記オブジェクト及び前記背景のための複数の色画素を有し、
    前記プロセッサは、前記ポートのいずれかから複数の奥行きフレームを受信するように構成され、前記奥行きフレームは、前記オブジェクト及び前記背景を有するとともに、前記奥行きフレームは、背景の奥行きと相対的なオブジェクトの奥行きの指標を有し、
    前記プロセッサは、前記色画素及び前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標を使用して、前記ビデオフレームを符号化するように構成され、
    前記ビデオフレームを符号化することは、
    前記ビデオフレームから前記色画素を抽出することと、
    前記奥行きフレームから、背景の奥行きと相対的なオブジェクトの奥行きの前記指標を抽出することと、
    前記色画素及び前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標を使用して、前記背景から前記オブジェクトを分割することであって、分割された前記オブジェクトは、より大きなオブジェクトの一部を含む、分割することと、
    前記オブジェクトが剛体でないと判断された場合、前記オブジェクトに対する動き推定を実行することと、
    前記オブジェクトが剛体であると判断された場合、前記フレームにわたって前記背景全体で前記オブジェクトを追跡し、前記オブジェクトの前記動きをモデル化し、前記オブジェクトの第1の符号化ブロックのための動きベクトルを導出することと、
    前記オブジェクトを符号化することと
    を有する装置。
  2. 前記動きベクトルは、前記第1の符号化ブロックの動きを記載するために使用されるが、動き推定は、前記ビデオフレームの第2の符号化ブロックの動きを記載するために使用される、請求項に記載の装置。
  3. 前記モデル化は、トランスレーショナルなモデルや、幾何学的なモデルや、アフィン形式のモデルや、又は遠近画法モデルに基づく、請求項に記載の装置。
  4. 前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標は、色の強度における違いによって表される、請求項1に記載の装置。
  5. 前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標は、奥行きセンサからの前記オブジェクトの数値距離によって表される、請求項1に記載の装置。
  6. 前記ビデオフレームは、ビデオ会議や、テレプレゼンスや、又はビデオ監視のために使用される、請求項1に記載の装置。
  7. 複数のビデオフレームを取得するように構成されるカメラであって、前記ビデオフレームはオブジェクト及び背景を有するとともに、前記ビデオフレームは、前記オブジェクト及び前記背景のための複数の色画素を有する、前記カメラと、
    複数の奥行きフレームを取得するように構成される奥行き装置であって、前記奥行きフレームは、前記オブジェクト及び前記背景を有するとともに、前記奥行きフレームは、背景の奥行きと相対的なオブジェクトの奥行きの指標を有する、前記奥行き装置と、
    前記カメラ及び前記奥行き装置に接続されるエンコーダであって、前記エンコーダは、前記色画素及び前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標を使用して、前記ビデオフレームを符号化するように構成される、前記エンコーダと
    を有し、前記エンコーダは、
    前記ビデオフレームから前記色画素を抽出するとともに前記奥行きフレームから背景の奥行きと相対的なオブジェクトの奥行きの前記指標を抽出するように構成される、画像抽出サブモジュールと、
    前記色画素及び前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標を使用して、前記背景から前記オブジェクトを分割するように構成される、オブジェクト分割サブモジュールであって、分割された前記オブジェクトは、より大きなオブジェクトの一部を含む、オブジェクト分割サブモジュールと、
    前記オブジェクトが剛体でないと判断された場合、前記オブジェクトに対する動き推定を実行し、前記オブジェクトが剛体であると判断された場合、前記フレームにわたって前記背景全体で前記オブジェクトを追跡し、前記オブジェクトの前記動きをモデル化し、前記オブジェクトの符号化ブロックのための動きベクトルを導出するように構成される、動き計算サブモジュールと、
    前記オブジェクトを符号化するように構成される、ビデオ符号化サブモジュールと
    を有するシステム。
  8. 前記奥行き装置は、赤外線カメラである、請求項に記載のシステム。
  9. 前記奥行き装置は、紫外線カメラである、請求項に記載のシステム。
  10. 前記奥行き装置は、レーダーシステム又はソナーシステムである、請求項に記載のシステム。
  11. 前記奥行き装置は、奥行きセンサや、ライトフィールドカメラや、測距カメラや、相補性金属酸化膜半導体(CMOS)視覚センサや、電荷結合素子(CCD)視覚センサや、又は視覚センサの組合せである、請求項に記載のシステム。
  12. ポートのいずれかから複数のビデオフレームを受信するステップであって、前記ビデオフレームは、オブジェクト及び背景を有するとともに、前記ビデオフレームは、前記オブジェクト及び前記背景のための複数の色画素を有する、ステップと、
    前記ポートのいずれかから複数の奥行きフレームを受信するステップであって、前記奥行きフレームは、前記オブジェクト及び前記背景を有するとともに、前記奥行きフレームは、背景の奥行きと相対的なオブジェクトの奥行きの指標を有する、ステップと、
    前記色画素及び前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標を使用して前記ビデオフレームを符号化するステップと
    を有し、前記ビデオフレームを符号化するステップは、
    前記ビデオフレームから前記色画素を抽出するステップと、
    前記奥行きフレームから、背景の奥行きと相対的なオブジェクトの奥行きの前記指標を抽出するステップと、
    前記色画素及び前記背景の奥行きと相対的な前記オブジェクトの奥行きの前記指標を使用して、前記背景から前記オブジェクトを分割するステップであって、分割された前記オブジェクトは、より大きなオブジェクトの一部を含む、ステップと、
    前記オブジェクトが剛体でないと判断された場合、前記オブジェクトに対する動き推定を実行するステップと、
    前記オブジェクトが剛体であると判断された場合、前記フレームにわたって前記背景全体で前記オブジェクトを追跡し、前記オブジェクトの前記動きをモデル化し、前記オブジェクトの符号化ブロックのための動きベクトルを導出するステップと、
    前記オブジェクトを符号化するステップと
    を有する方法。
JP2015506086A 2012-04-19 2013-04-19 動き補償に基づくビデオ符号化を支援するために奥行き情報を使用すること Active JP6198021B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261635690P 2012-04-19 2012-04-19
PCT/CN2013/074436 WO2013155984A1 (en) 2012-04-19 2013-04-19 Using depth information to assist motion compensation-based video coding

Publications (2)

Publication Number Publication Date
JP2015518690A JP2015518690A (ja) 2015-07-02
JP6198021B2 true JP6198021B2 (ja) 2017-09-20

Family

ID=49380100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015506086A Active JP6198021B2 (ja) 2012-04-19 2013-04-19 動き補償に基づくビデオ符号化を支援するために奥行き情報を使用すること

Country Status (6)

Country Link
US (1) US9584806B2 (ja)
EP (1) EP2826250A4 (ja)
JP (1) JP6198021B2 (ja)
KR (1) KR101629746B1 (ja)
CN (1) CN104396236B (ja)
WO (1) WO2013155984A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10448008B1 (en) * 2013-04-30 2019-10-15 Pixelworks, Inc. Motion estimation based on block level bilateral filter and local motion model
US9679387B2 (en) * 2015-02-12 2017-06-13 Mitsubishi Electric Research Laboratories, Inc. Depth-weighted group-wise principal component analysis for video foreground/background separation
ES2917099B1 (es) * 2016-02-25 2023-04-21 Kt Corp Método y aparato para procesar señales de video
CN107370983B (zh) * 2016-05-13 2019-12-17 腾讯科技(深圳)有限公司 用于视频监控系统的行踪轨迹的获取方法和装置
US10547846B2 (en) * 2017-04-17 2020-01-28 Intel Corporation Encoding 3D rendered images by tagging objects
CN109635539B (zh) * 2018-10-30 2022-10-14 荣耀终端有限公司 一种人脸识别方法及电子设备
WO2022075649A1 (ko) * 2020-10-06 2022-04-14 삼성전자주식회사 전자 장치 및 그 제어 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3231618B2 (ja) * 1996-04-23 2001-11-26 日本電気株式会社 3次元画像符号化復号方式
US6055330A (en) * 1996-10-09 2000-04-25 The Trustees Of Columbia University In The City Of New York Methods and apparatus for performing digital image and video segmentation and compression using 3-D depth information
US5943445A (en) 1996-12-19 1999-08-24 Digital Equipment Corporation Dynamic sprites for encoding video data
AU740614B2 (en) 1998-05-07 2001-11-08 Canon Kabushiki Kaisha Automated video interpretation system
AUPP340798A0 (en) 1998-05-07 1998-05-28 Canon Kabushiki Kaisha Automated video interpretation system
US6157396A (en) 1999-02-16 2000-12-05 Pixonics Llc System and method for using bitstream information to process images for use in digital display systems
JP3482990B2 (ja) 1998-08-18 2004-01-06 富士ゼロックス株式会社 3次元画像撮影装置
US20040075738A1 (en) * 1999-05-12 2004-04-22 Sean Burke Spherical surveillance system architecture
JP3957937B2 (ja) * 1999-12-21 2007-08-15 キヤノン株式会社 画像処理装置及び方法並びに記憶媒体
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
KR100544677B1 (ko) 2003-12-26 2006-01-23 한국전자통신연구원 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법
US7418113B2 (en) * 2005-04-01 2008-08-26 Porikli Fatih M Tracking objects in low frame rate videos
WO2009091383A2 (en) 2008-01-11 2009-07-23 Thomson Licensing Video and depth coding
KR101420684B1 (ko) * 2008-02-13 2014-07-21 삼성전자주식회사 컬러 영상과 깊이 영상을 매칭하는 방법 및 장치
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
ES2389401T3 (es) 2008-06-17 2012-10-25 Huawei Device Co., Ltd. Método, aparato y sistema de comunicación a través de vídeo
CN101610421B (zh) 2008-06-17 2011-12-21 华为终端有限公司 视频通讯方法、装置及系统
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US20110150271A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
JP5387905B2 (ja) 2009-12-25 2014-01-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8515580B2 (en) * 2011-06-17 2013-08-20 Microsoft Corporation Docking process for recharging an autonomous mobile device

Also Published As

Publication number Publication date
EP2826250A1 (en) 2015-01-21
US20130279588A1 (en) 2013-10-24
WO2013155984A1 (en) 2013-10-24
JP2015518690A (ja) 2015-07-02
KR20140147123A (ko) 2014-12-29
KR101629746B1 (ko) 2016-06-13
US9584806B2 (en) 2017-02-28
EP2826250A4 (en) 2015-04-08
CN104396236B (zh) 2017-08-25
CN104396236A (zh) 2015-03-04

Similar Documents

Publication Publication Date Title
JP6198021B2 (ja) 動き補償に基づくビデオ符号化を支援するために奥行き情報を使用すること
US11064110B2 (en) Warp processing for image capture
CN111279673B (zh) 具有电子卷帘快门校正的图像拼接的系统和方法
JP5539474B2 (ja) デュアル・デジタル・センサを備えた立体画像および映像キャプチャ・デバイスと、それを用いた方法
US10771786B2 (en) Method and system of video coding using an image data correction mask
KR20190004280A (ko) 360도 비디오에 대한 하이브리드 그래픽들 및 픽셀 도메인 아키텍처
US11653088B2 (en) Three-dimensional noise reduction
WO2017205492A1 (en) Three-dimensional noise reduction
US20210233303A1 (en) Image processing apparatus and image processing method
WO2018063566A1 (en) Method and system of video coding using projected motion vectors
WO2017205597A1 (en) Image signal processing-based encoding hints for motion estimation
US10867370B2 (en) Multiscale denoising of videos
US10049436B1 (en) Adaptive denoising for real-time video on mobile devices
CN116208851A (zh) 图像处理方法及相关装置
CN114257733A (zh) 具有视点偏移的全向图像的图像处理的方法和系统
EP3091742A1 (en) Device and method for encoding a first image of a scene using a second image having a lower resolution and captured at the same instant
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
GB2563627A (en) Image processing

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160706

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170510

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6198021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250