JP6193370B2 - 適応差分領域空間および時間参照再構成およびスムージング - Google Patents
適応差分領域空間および時間参照再構成およびスムージング Download PDFInfo
- Publication number
- JP6193370B2 JP6193370B2 JP2015521692A JP2015521692A JP6193370B2 JP 6193370 B2 JP6193370 B2 JP 6193370B2 JP 2015521692 A JP2015521692 A JP 2015521692A JP 2015521692 A JP2015521692 A JP 2015521692A JP 6193370 B2 JP6193370 B2 JP 6193370B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- base layer
- enhancement layer
- video unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
囲内である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオ情報を符号化するように構成された装置であって、
前記装置は、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するように構成されたメモリユニットと、
前記メモリユニットと通信するプロセッサであって、
前記プロセッサは、
拡張層重みと基本層重みを決定し、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定する、
ように構成される、
プロセッサ、
を備える、
装置。
[C2]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C1に記載の装置。
[C3]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C1に記載の装置。
[C4]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C3に記載の装置。
[C5]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C1に記載の装置。
[C6]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C5に記載の装置。
[C7]
前記プロセッサは、前記現在のビデオユニットに関する予測ユニットを生成することによって前記現在のビデオユニットの値を決定するようにさらに構成される、C1に記載の装置。
[C8]
前記プロセッサは、前記差分ビデオ層における参照フレームに基づく画面間予測を用いて、前記現在のビデオユニットの前記値を決定するようにさらに構成される、C1に記載の装置。
[C9]
前記プロセッサは、前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて前記現在のビデオユニットの前記値を決定するようにさらに構成される、C1に記載の装置。
[C10]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C1に記載の装置。
[C11]
前記現在のビデオユニットの前記値は、W 1 *前記拡張層ビデオユニット−W 0 *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W 1 は前記拡張層重みであり、およびW 0 は前記基本層重みである、C1に記載の装置。
[C12]
前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、C11に記載の装置。
[C13]
前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、C12に記載の装置。
[C14]
前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、C1に記載の装置。
[C15]
前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、C1に記載の装置。
[C16]
前記基本層は再構成された基本層である、C1に記載の装置。
[C17]
前記プロセッサは、前記現在のビデオユニットをエンコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達するようにさらに構成される、C1に記載の装置。
[C18]
前記プロセッサは、前記現在のビデオユニットをデコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出するようにさらに構成される、C1に記載の装置。
[C19]
前記装置は、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、テレフォンハンドセット、スマートフォン、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、およびビデオストリーミングデバイスのうちの1つまたは複数から成るグループから選択される、C1に記載の装置。
[C20]
ビデオ情報を符号化する方法であって、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
拡張層重みと基本層重みを決定することと、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定すること、
を備える方法。
[C21]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C20に記載の方法。
[C22]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C20に記載の方法。
[C23]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C22に記載の方法。
[C24]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C20に記載の方法。
[C25]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C24に記載の方法。
[C26]
前記現在のビデオユニットに関する予測ユニットを生成することによって前記現在のビデオユニットの値を決定することをさらに備える、C20に記載の方法。
[C27]
前記差分ビデオ層における参照フレームに基づく画面間予測を用いて、前記現在のビデオユニットの前記値を決定することをさらに備える、C20に記載の方法。
[C28]
前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて前記現在のビデオユニットの前記値を決定することをさらに備える、C20に記載の方法。
[C29]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C20に記載の方法。
[C30]
前記現在のビデオユニットの前記値は、W 1 *前記拡張層ビデオユニット−W 0 *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W 1 は前記拡張層重みであり、およびW 0 は前記基本層重みである、C20に記載の方法。
[C31]
前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、C30に記載の方法。
[C32]
前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、C31に記載の方法。
[C33]
前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、C20に記載の方法。
[C34]
前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、C20に記載の方法。
[C35]
前記基本層は再構成された基本層である、C20に記載の方法。
[C36]
前記現在のビデオユニットをエンコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達することをさらに備える、C20に記載の方法。
[C37]
前記現在のビデオユニットをデコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出することをさらに備える、C20に記載の方法。
[C38]
その上に記憶された命令を有するコンピュータ可読記憶媒体であって、前記命令が実行される時、装置に、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
拡張層重みと基本層重みを決定することと、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定すること、
をさせる、
コンピュータ可読記憶媒体。
[C39]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C38に記載のコンピュータ可読記憶媒体。
[C40]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C38に記載のコンピュータ可読記憶媒体。
[C41]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C40に記載のコンピュータ可読記憶媒体。
[C42]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C38に記載のコンピュータ可読記憶媒体。
[C43]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C42に記載のコンピュータ可読記憶媒体。
[C44]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C38に記載のコンピュータ可読記憶媒体。
[C45]
前記現在のビデオユニットの前記値は、W 1 *前記拡張層ビデオユニット−W 0 *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W 1 は前記拡張層重みであり、およびW 0 は前記基本層重みである、C38に記載のコンピュータ可読記憶媒体。
[C46]
ビデオ情報を符号化するように構成された装置であって、
前記装置は、
前記ビデオ情報の拡張層と対応する基本層の間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するための手段と、
拡張層重みと基本層重みを決定するための手段と、
前記差分ビデオ層に基づく現在のビデオユニットの値と、前記拡張層重みによって重み付けられた前記拡張層におけるビデオユニットの値と、前記基本層重みによって重み付けられた前記基本層におけるビデオユニットの値を決定するための手段、
を備える、
装置。
[C47]
拡張層重みと基本層重みを前記決定することは、前記拡張層と前記基本層の間の類似性に基づく、C46に記載の装置。
[C48]
前記拡張層における前記ビデオユニットは、前記拡張層における参照ビデオユニットであり、および前記基本層における前記ビデオユニットは、前記基本層における参照ビデオユニットである、C46に記載の装置。
[C49]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分参照ビデオユニットに基づいて決定され、前記差分参照ビデオユニットは前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C48に記載の装置。
[C50]
前記拡張層における前記ビデオユニットは前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記ビデオユニットは前記基本層における空間隣接ビデオユニットである、C46に記載の装置。
[C51]
前記現在のビデオユニットは前記差分ビデオ層と関連付けられる差分ビデオユニットであり、および、前記現在のビデオユニットの前記値は、前記差分ビデオ層と関連付けられる差分空間隣接ビデオユニットに基づいて決定され、前記差分空間隣接ビデオユニットは、前記重み付けられた拡張層ビデオユニットと前記重み付けられた基本層ビデオユニットの差分から抽出される、C50に記載の装置。
[C52]
前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、C46に記載の装置。
[C53]
前記現在のビデオユニットの前記値は、W 1 *前記拡張層ビデオユニット−W 0 *前記基本層ビデオユニット+ラウンド値と予測され、ここにおいて、W 1 は前記拡張層重みであり、およびW 0 は前記基本層重みである、C46に記載の装置。
Claims (45)
- ビデオ情報を符号化するように構成された装置であって、
前記装置は、
拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するように構成されたメモリユニットと、
前記メモリユニットと通信するプロセッサであって、
前記プロセッサは、
前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定し、
前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成する、
ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
ように構成される、
プロセッサと、
を備える、装置。 - 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項1に記載の装置。
- 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項1に記載の装置。
- 前記プロセッサは、前記現在のビデオユニットに関する前記予測ユニットに基づいて前記現在のビデオユニットを再構成するようにさらに構成される、請求項1に記載の装置。
- 前記プロセッサは、前記差分ビデオ層における参照フレームに基づく画面間予測を用いて、前記現在のビデオユニットの前記予測ユニットを生成するようにさらに構成される、請求項1に記載の装置。
- 前記プロセッサは、前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて前記現在のビデオユニットの前記予測ユニットを生成するようにさらに構成される、請求項1に記載の装置。
- 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項1に記載の装置。
- 前記現在のビデオユニットは、W1*前記拡張層における前記参照ビデオユニット−W0*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、W1は前記拡張層重みであり、およびW0は前記基本層重みである、請求項1に記載の装置。
- 前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、請求項8に記載の装置。
- 前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、請求項9に記載の装置。
- 前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、請求項1に記載の装置。
- 前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、請求項1に記載の装置。
- 前記基本層は再構成された基本層である、請求項1に記載の装置。
- 前記プロセッサは、前記現在のビデオユニットをエンコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達するようにさらに構成される、請求項1に記載の装置。
- 前記プロセッサは、前記現在のビデオユニットをデコードするように、およびビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出するようにさらに構成される、請求項1に記載の装置。
- 前記装置は、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、テレフォンハンドセット、スマートフォン、無線通信デバイス、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタル・メディア・プレーヤー、ビデオゲームコンソール、またはビデオストリーミングデバイスのうちの1つまたは複数を備える、請求項1に記載の装置。
- ビデオ情報を符号化する方法であって、
拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定することと、
前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成することと、
ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
を備える、方法。 - 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項17に記載の方法。
- 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項17に記載の方法。
- 前記現在のビデオユニットに関する前記予測ユニットに基づいて前記現在のビデオユニットを再構成することをさらに備える、請求項17に記載の方法。
- 前記現在のビデオユニットの前記予測ユニットは、前記差分ビデオ層における参照フレームに基づく画面間予測を用いて生成される、請求項17に記載の方法。
- 前記現在のビデオユニットの前記予測ユニットは、前記差分ビデオ層における空間隣接画素に基づく画面内予測を用いて生成される、請求項17に記載の方法。
- 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項17に記載の方法。
- 前記現在のビデオユニットは、W1*前記拡張層における前記参照ビデオユニット−W0*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、W1は前記拡張層重みであり、およびW0は前記基本層重みである、請求項17に記載の方法。
- 前記ラウンド値は、ビットストリームにおいて信号伝達されるか、またはビットストリーム内の情報から少なくとも部分的に抽出される、請求項24に記載の方法。
- 前記ラウンド値は、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化される、請求項25に記載の方法。
- 前記拡張層重みと前記基本層重みは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、予測ユニット(PU)、ブロック、画素、およびサブ画素を備えるグループから選択されたシンタックスレベルにおいて符号化され、および、前記拡張層重みと前記基本層重みは、ルマ成分のみ、クロマ成分のみ、およびルマおよびクロマ成分の任意の組合せを備えるグループから選択された信号成分に関して符号化される、請求項17に記載の方法。
- 前記現在のビデオユニットは、フレーム、スライス、最大符号化ユニット(LCU)、符号化ユニット(CU)、ブロック、画素、およびサブ画素を備えるグループから選択される、請求項17に記載の方法。
- 前記基本層は再構成された基本層である、請求項17に記載の方法。
- 前記現在のビデオユニットをエンコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを信号伝達することをさらに備える、請求項17に記載の方法。
- 前記現在のビデオユニットをデコードすることと、ビットストリームにおいて前記拡張層重みと前記基本層重みを受信するか、あるいはビットストリーム内の情報から前記拡張層重みと前記基本層重みを少なくとも部分的に抽出することをさらに備える、請求項17に記載の方法。
- その上に記憶された命令を有する非一時的なコンピュータ可読記憶媒体であって、前記命令が実行される時、装置に、
拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納することと、
前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定することと、
前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成することと、
ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
をさせる、非一時的なコンピュータ可読記憶媒体。 - 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項32に記載のコンピュータ可読記憶媒体。
- 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項32に記載のコンピュータ可読記憶媒体。
- 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項32に記載のコンピュータ可読記憶媒体。
- 前記現在のビデオユニットは、W1*前記拡張層における前記参照ビデオユニット−W0*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、W1は前記拡張層重みであり、およびW0は前記基本層重みである、請求項32に記載のコンピュータ可読記憶媒体。
- ビデオ情報を符号化するように構成された装置であって、
前記装置は、
拡張層と対応する基本層との間の差分から抽出された画素情報の差分ビデオ層と関連付けられる差分ビデオ情報を格納するための手段と、
前記拡張層と前記基本層との間の時間相関関係または空間相関関係に基づいて拡張層重みと基本層重みを決定するための手段と、
前記差分ビデオ層と関連付けられる差分参照ビデオユニットを用いて前記差分ビデオ層と関連付けられる現在のビデオユニットの予測ユニットを生成するための手段と、
ここにおいて、前記差分参照ビデオユニットは、前記拡張層重みによって重み付けられた前記拡張層における参照ビデオユニットと前記基本層重みによって重み付けられた前記基本層における参照ビデオユニットとの間の差分として決定され、前記拡張層重みは前記基本層重みと異なる、
を備える、装置。 - 前記拡張層における前記参照ビデオユニットは、前記拡張層における時間参照ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における時間参照ビデオユニットである、請求項37に記載の装置。
- 前記拡張層における前記参照ビデオユニットは、前記拡張層における空間隣接ビデオユニットであり、および前記基本層における前記参照ビデオユニットは、前記基本層における空間隣接ビデオユニットである、請求項37に記載の装置。
- 前記拡張層重みは前記基本層重みより大きく、および前記拡張層重みは2のべきである、請求項37に記載の装置。
- 前記現在のビデオユニットは、W1*前記拡張層における前記参照ビデオユニット−W0*前記基本層における前記参照ビデオユニット+ラウンド値と予測され、ここにおいて、W1は前記拡張層重みであり、およびW0は前記基本層重みである、請求項37に記載の装置。
- 前記装置は無線通信デバイスであり、
無線通信プロトコルにしたがってエンコードされたビデオデータを受信するように構成された受信機と、前記エンコードされたビデオデータは、前記差分ビデオ層と関連付けられる前記差分ビデオ情報を備える、
前記無線通信プロトコルにしたがって動作するように構成された送信機と、
をさらに備える、請求項1に記載の装置。 - 前記無線通信デバイスはセルラー電話であり、前記エンコードされたビデオデータは、前記受信機によって受信され、セルラー通信標準にしたがって復調される、請求項42に記載の装置。
- 前記方法は無線通信デバイス上で実行可能であり、
前記デバイスは、
ビデオデータを格納するように構成されたメモリと、
前記メモリに格納された前記ビデオデータを処理するための命令を実行するように構成されたプロセッサと、
無線通信プロトコルにしたがってエンコードされたビデオデータを受信するように構成された受信機と、前記エンコードされたビデオデータは、前記差分ビデオ層と関連付けられる前記差分ビデオ情報を備える、
前記無線通信プロトコルにしたがって動作するように構成された送信機と、
を備える、請求項17に記載の方法。 - 前記無線通信デバイスはセルラー電話であり、前記エンコードされたビデオデータは、前記受信機によって受信され、セルラー通信標準にしたがって復調される、請求項44に記載の方法。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261669545P | 2012-07-09 | 2012-07-09 | |
US61/669,545 | 2012-07-09 | ||
US201261706741P | 2012-09-27 | 2012-09-27 | |
US201261706739P | 2012-09-27 | 2012-09-27 | |
US61/706,741 | 2012-09-27 | ||
US61/706,739 | 2012-09-27 | ||
US13/935,041 US9516309B2 (en) | 2012-07-09 | 2013-07-03 | Adaptive difference domain spatial and temporal reference reconstruction and smoothing |
US13/935,041 | 2013-07-03 | ||
PCT/US2013/049582 WO2014011555A1 (en) | 2012-07-09 | 2013-07-08 | Adaptive difference domain spatial and temporal reference reconstruction and smoothing |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015527812A JP2015527812A (ja) | 2015-09-17 |
JP2015527812A5 JP2015527812A5 (ja) | 2017-03-09 |
JP6193370B2 true JP6193370B2 (ja) | 2017-09-06 |
Family
ID=49878503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015521692A Active JP6193370B2 (ja) | 2012-07-09 | 2013-07-08 | 適応差分領域空間および時間参照再構成およびスムージング |
Country Status (5)
Country | Link |
---|---|
US (2) | US9516309B2 (ja) |
EP (1) | EP2870756A1 (ja) |
JP (1) | JP6193370B2 (ja) |
CN (1) | CN104429072B (ja) |
WO (2) | WO2014011555A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9584819B2 (en) * | 2011-10-24 | 2017-02-28 | Qualcomm Incorporated | Grouping of tiles for video coding |
MX361767B (es) * | 2012-07-09 | 2018-12-17 | Vid Scale Inc | Arquitectura de códec para codificación de video de múltiples capas. |
US9516309B2 (en) | 2012-07-09 | 2016-12-06 | Qualcomm Incorporated | Adaptive difference domain spatial and temporal reference reconstruction and smoothing |
KR102273025B1 (ko) * | 2013-03-06 | 2021-07-05 | 삼성전자주식회사 | 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 부호화 방법 및 그 장치, 선택적인 노이즈제거 필터링을 이용한 스케일러블 비디오 복호화 방법 및 그 장치 |
US10182248B2 (en) * | 2016-11-21 | 2019-01-15 | Cisco Technology, Inc. | Keyframe mitigation for video streams with multiple receivers |
CN109121019B (zh) * | 2018-09-12 | 2020-01-17 | 中国地质大学(武汉) | 用于svc-dash点播系统的动态缓存调度方法、设备及存储设备 |
CN109121020B (zh) * | 2018-09-12 | 2020-01-17 | 中国地质大学(武汉) | 用于svc-dash点播系统的动态缓存调度方法、设备及存储设备 |
KR20210135502A (ko) | 2019-03-08 | 2021-11-15 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 처리에서 변형 정보의 시그널링 |
CN113692741B (zh) * | 2019-04-18 | 2022-12-13 | 北京字节跳动网络技术有限公司 | 跨分量模式中的参数推导 |
BR112021019675A2 (pt) | 2019-04-23 | 2021-12-07 | Beijing Bytedance Network Tech Co Ltd | Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador |
KR102641796B1 (ko) | 2019-05-08 | 2024-03-04 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 교차-성분 코딩의 적용가능성에 대한 조건들 |
CN113994697A (zh) | 2019-06-22 | 2022-01-28 | 北京字节跳动网络技术有限公司 | 色度残差缩放的语法元素 |
JP7460748B2 (ja) | 2019-07-07 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | クロマ残差スケーリングのシグナリング |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9206860D0 (en) | 1992-03-27 | 1992-05-13 | British Telecomm | Two-layer video coder |
CA2127151A1 (en) | 1993-09-21 | 1995-03-22 | Atul Puri | Spatially scalable video encoding and decoding |
WO2001067953A1 (en) * | 2000-03-15 | 2001-09-20 | Cardiac Focus, Inc. | Continuous localization and guided treatment of cardiac arrhythmias |
US7329414B2 (en) * | 2002-05-03 | 2008-02-12 | Biopsy Sciences, Llc | Biodegradable polymer for marking tissue and sealing tracts |
JP2006154756A (ja) * | 2004-11-02 | 2006-06-15 | Fujitsu Ten Ltd | 映像信号処理方法、映像信号処理装置、及び、表示装置 |
EP1862013A4 (en) | 2005-03-25 | 2011-06-08 | Samsung Electronics Co Ltd | VIDEO ENCODING AND DECODING METHOD USING WEIGHTED PREDICTION AND APPARATUS THEREFOR |
KR100703770B1 (ko) | 2005-03-25 | 2007-04-06 | 삼성전자주식회사 | 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치 |
US20070014348A1 (en) | 2005-04-12 | 2007-01-18 | Nokia Corporation | Method and system for motion compensated fine granularity scalable video coding with drift control |
KR100878812B1 (ko) * | 2005-05-26 | 2009-01-14 | 엘지전자 주식회사 | 영상신호의 레이어간 예측에 대한 정보를 제공하고 그정보를 이용하는 방법 |
KR100703788B1 (ko) | 2005-06-10 | 2007-04-06 | 삼성전자주식회사 | 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더 |
JP2009500086A (ja) * | 2005-07-01 | 2009-01-08 | ハンセン メディカル,インク. | ロボットガイドカテーテルシステム |
US8867618B2 (en) | 2005-07-22 | 2014-10-21 | Thomson Licensing | Method and apparatus for weighted prediction for scalable video coding |
US9113147B2 (en) | 2005-09-27 | 2015-08-18 | Qualcomm Incorporated | Scalability techniques based on content information |
EP1949702A2 (en) | 2005-10-12 | 2008-07-30 | Thomson Licensing | Methods and apparatus for weighted prediction in scalable video encoding and decoding |
KR100772873B1 (ko) | 2006-01-12 | 2007-11-02 | 삼성전자주식회사 | 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더 |
US7505810B2 (en) * | 2006-06-13 | 2009-03-17 | Rhythmia Medical, Inc. | Non-contact cardiac mapping, including preprocessing |
KR20080004340A (ko) | 2006-07-04 | 2008-01-09 | 한국전자통신연구원 | 영상 데이터의 스케일러블 코딩 방법 및 그 장치 |
US8130822B2 (en) | 2006-07-10 | 2012-03-06 | Sharp Laboratories Of America, Inc. | Methods and systems for conditional transform-domain residual accumulation |
GB2440004A (en) * | 2006-07-10 | 2008-01-16 | Mitsubishi Electric Inf Tech | Fine granularity scalability encoding using a prediction signal formed using a weighted combination of the base layer and difference data |
US20080033286A1 (en) * | 2006-08-02 | 2008-02-07 | Civco Medical Instruments Co., Inc. | Fiducial marker for imaging localization and method of using the same |
US9014280B2 (en) | 2006-10-13 | 2015-04-21 | Qualcomm Incorporated | Video coding with adaptive filtering for motion compensated prediction |
CN101702963A (zh) | 2007-03-15 | 2010-05-05 | 诺基亚公司 | 用于为视频编码中的空间可伸缩性提供改进的残差预测的系统和方法 |
BRPI0813122A2 (pt) | 2007-07-02 | 2015-08-04 | Nippon Telegraph & Telephone | Método de codificação e método de decodificação de vídeo escalonável, aparelhos e programas para os mesmos, e meio de armazenamento que armazena os programas |
KR101436671B1 (ko) | 2007-10-15 | 2014-09-02 | 톰슨 라이센싱 | 스케일러블 비디오에 대한 계층간 레시듀 예측을 위한 방법들 및 장치들 |
US8848787B2 (en) | 2007-10-15 | 2014-09-30 | Qualcomm Incorporated | Enhancement layer coding for scalable video coding |
US9681142B2 (en) * | 2009-02-03 | 2017-06-13 | Thomson Licensing Dtv | Methods and apparatus for motion compensation with smooth reference frame in bit depth scalability |
KR101445009B1 (ko) | 2009-08-12 | 2014-09-26 | 인텔 코오퍼레이션 | 공통 프로세싱 요소들에 기초하여 비디오 안정화를 수행하고 비디오 샷 경계를 검출하는 기법 |
US8551083B2 (en) * | 2009-11-17 | 2013-10-08 | Bsd Medical Corporation | Microwave coagulation applicator and system |
CN102883659A (zh) * | 2010-01-19 | 2013-01-16 | 美敦力阿迪安卢森堡有限公司 | 通过立体定向放疗用于肾神经调节的方法和设备 |
ES2856026T3 (es) * | 2010-05-03 | 2021-09-27 | Neuwave Medical Inc | Sistemas de suministro de energía |
US8855188B2 (en) * | 2010-07-15 | 2014-10-07 | Sharp Laboratories Of America, Inc. | Method of parallel video coding based on mapping |
CN103636137A (zh) * | 2011-06-30 | 2014-03-12 | 维德约股份有限公司 | 可伸缩视频编码技术 |
US9655595B2 (en) * | 2012-06-14 | 2017-05-23 | Arcitrax Inc. | System, method and device for prostate diagnosis and intervention |
US9516309B2 (en) | 2012-07-09 | 2016-12-06 | Qualcomm Incorporated | Adaptive difference domain spatial and temporal reference reconstruction and smoothing |
-
2013
- 2013-07-03 US US13/935,041 patent/US9516309B2/en active Active
- 2013-07-03 US US13/935,283 patent/US9854259B2/en not_active Expired - Fee Related
- 2013-07-08 JP JP2015521692A patent/JP6193370B2/ja active Active
- 2013-07-08 EP EP13739575.2A patent/EP2870756A1/en not_active Ceased
- 2013-07-08 CN CN201380036314.0A patent/CN104429072B/zh not_active Expired - Fee Related
- 2013-07-08 WO PCT/US2013/049582 patent/WO2014011555A1/en active Application Filing
- 2013-07-08 WO PCT/US2013/049589 patent/WO2014011559A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US9516309B2 (en) | 2016-12-06 |
JP2015527812A (ja) | 2015-09-17 |
CN104429072A (zh) | 2015-03-18 |
WO2014011559A1 (en) | 2014-01-16 |
CN104429072B (zh) | 2019-03-15 |
US20140010300A1 (en) | 2014-01-09 |
WO2014011555A1 (en) | 2014-01-16 |
US9854259B2 (en) | 2017-12-26 |
US20140010290A1 (en) | 2014-01-09 |
EP2870756A1 (en) | 2015-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6193370B2 (ja) | 適応差分領域空間および時間参照再構成およびスムージング | |
JP6903644B2 (ja) | ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測 | |
JP6293756B2 (ja) | スケーラブルビデオ符号化における変換基準の調整 | |
JP6042470B2 (ja) | ビデオコーディングのための適応動き解像度 | |
JP6250678B2 (ja) | スケーラブル映像コーディングに関するイントラ予測改良 | |
EP2893704B1 (en) | Weighted prediction mode for scalable video coding | |
JP6129969B2 (ja) | スケーラブルビデオコード化における代替変換 | |
JP6352314B2 (ja) | 異なるアスペクト比を伴う空間スケーラビリティのためのレイヤ間の参照ピクチャの構築 | |
JP2015531561A5 (ja) | ||
US9584805B2 (en) | Prediction mode information downsampling in enhanced layer coding | |
KR102182441B1 (ko) | 비디오 코딩에서 hevc 확장들을 위한 다중 계층들의 저복잡도 지원 | |
JP6239612B2 (ja) | スケーラブル映像コーディング及び3d映像コーディングに関する一般化された残差予測 | |
JP2017513342A (ja) | ゼロアウトされた係数を使用した低複雑な順変換のためのシステムおよび方法 | |
US20140064359A1 (en) | Intra prediction most probable mode order improvement for scalable video coding | |
JP6199371B2 (ja) | ビデオ・コーディングのためのインタ・レイヤ・テクスチャ予測 | |
JP2015534775A (ja) | ビデオコーディングにおける関心領域および漸次復号リフレッシュのシグナリング | |
JP6352391B2 (ja) | Shvcのための複数のベースレイヤ参照ピクチャ | |
US9338452B2 (en) | Motion vector difference coding extension for enhancement layer | |
WO2013184810A1 (en) | Bi-layer texture prediction for video coding | |
EP2883347A1 (en) | Weighted difference prediction under the framework of generalized residual prediction | |
JP2016509436A (ja) | レイヤ間シンタックス予測制御 | |
JP6466349B2 (ja) | スケーラブルビデオコーディングのための空間動きベクトルスケーリング | |
US9386306B2 (en) | Enhancement layer scan order derivation for scalable video coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170123 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170131 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6193370 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |