JP6871147B2 - 画像生成装置、画像生成方法及び画像生成プログラム - Google Patents

画像生成装置、画像生成方法及び画像生成プログラム Download PDF

Info

Publication number
JP6871147B2
JP6871147B2 JP2017239996A JP2017239996A JP6871147B2 JP 6871147 B2 JP6871147 B2 JP 6871147B2 JP 2017239996 A JP2017239996 A JP 2017239996A JP 2017239996 A JP2017239996 A JP 2017239996A JP 6871147 B2 JP6871147 B2 JP 6871147B2
Authority
JP
Japan
Prior art keywords
image
time
weighting coefficient
series
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017239996A
Other languages
English (en)
Other versions
JP2019106685A (ja
Inventor
優也 大森
優也 大森
大西 隆之
隆之 大西
裕江 岩崎
裕江 岩崎
清水 淳
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017239996A priority Critical patent/JP6871147B2/ja
Publication of JP2019106685A publication Critical patent/JP2019106685A/ja
Application granted granted Critical
Publication of JP6871147B2 publication Critical patent/JP6871147B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像生成装置、画像生成方法及び画像生成プログラムに関する。
MPEG−2、MPEG−4、MPEG−4/AVC等の多くの画像符号化規格がある。次世代の画像符号化規格として策定されたHEVC(High Efficiency Video Coding)は、今後の普及が見込まれている。HEVCでは、スケーラビリティに対応したSHVC(Scalable HEVC)という拡張規格が策定された。SHVCでは、解像度、フレームレート、ビット深度といった各要素に対する階層的な符号化及び復号が可能である。
特に、フレームレートにおけるスケーラビリティを意味する時間方向階層符号化では、画像生成装置は、60P又は50Pの画像ビットストリームの対応デコーダ及び受信機への前方互換性を担保した上で、高フレームレートである120P又は100Pの画像ビットストリームを生成する。このために必要とされる技術の規格化が進められている。例として、日本国内のデジタル放送では、ARIB(一般社団法人電波産業会)が、STD−B32「デジタル放送における画像符号化、音声符号化及び多重化方式」において、120P高フレームレートを対応フォーマットとしてサポートしている。ARIBにおける120Pの画像ビットストリームは、SHVCに準拠した時間方向階層符号化方式によるエンコードを前提としている。120Pの画像ビットストリームは、60P相当のベースレイヤ・ストリームと、120P及び60Pの差分となるエンハンスメントレイヤ・ストリームとに分離されて伝送される。
120Pの入力画像から60Pのベースレイヤを生成する際、120Pの入力画像の2フレームごとに1フレームが取り出されることで、120Pの偶数番フレームはそのままで60Pのベースレイヤとなり、120Pの奇数番フレームはエンハンスメントレイヤとなる。このため、最も単純に60Pを生成する手法として、デシメーション(decimation)と呼ばれる手法が多く用いられている。上記の生成手法によるベースレイヤを60Pの画像ビットストリームの対応デコーダが再生する場合、シャッタースピードが1/120秒以下のフレームは、1/60秒間隔で表示される。このため、動きのぱらつきやストロボ効果が生じやすく、従来の60Pの画像ビットストリームよりも主観品質が低下する傾向にある。
60Pのベースレイヤの別の生成手法として、120Pにおける連続する2フレーム(偶数番フレーム、奇数番フレーム)を1セットとし、2フレームの平均画像をベースレイヤとする生成方法がある。この生成方法では、デシメーションと同様に、120Pの奇数番フレームはエンハンスメントレイヤとなる。60P対応デコーダは、ベースレイヤのみをデコードすることで、60P平均画像を再生する。120Pの画像ビットストリームの対応デコーダは、平均画像のベースレイヤと奇数番フレームであるエンハンスメントレイヤとをそれぞれデコードする。120Pの画像ビットストリームの対応デコーダは、平均画像と奇数番フレームとから偶数番フレームを再生することで、120Pの画像ビットストリームの再生を実行する。この手法では、画像生成装置は、フレーム平均によってベースレイヤを生成するため、ベースレイヤにて60P相当のシャッタースピードを模擬することが可能である。画像生成装置は、動きのぱらつきやストロボ効果の抑制が期待できるが、所定閾値以上に動きが高速である画像では、輪郭が二重になった平均画像という不自然な画像が目立ち、デシメーションによる主観画質劣化とは異なる主観画質劣化が画像に生じうる。
上記のようなストロボ効果や二重画像による主観画質劣化を抑える60Pの画像ビットストリームの生成手法として、米国のデジタルテレビジョン規格を策定するATSC(Advanced Television Systems Committee)は、連続する2フレームを重み付き平均した画像を高フレームレート120P又は100Pの時間階層符号化を実行する際に60P又は50Pベースレイヤとすることを提案し、この提案を規格化した(非特許文献1参照)。
時系列で連続する2フレームを重み付き平均した画像を60P又は50Pベースレイヤとすることの目的は、入力画像ごとに適切な重み係数を設定することによって、ストロボ効果と二重画像との両方がバランス良く抑制された60Pの画像ビットストリームの生成するためである。重み係数は、シンタックスとして、符号化ストリームとともに120Pの画像ビットストリームの対応デコーダに伝送される。このため、120Pの画像ビットストリームの対応デコーダは、デコードされたベースレイヤ及びエンハンスメントレイヤとシンタックスとしての重み係数とから、120Pの画像ビットストリームを再生する。
ATSC Standard: Video-HEVC(A/341)
非特許文献1に記載の手法では、重み係数の決定は、エンコーダ利用者に完全に委ねられている。このため、画像のシーンごとにストロボ効果及び二重画像のバランスを考慮した適切な重み係数を設定することは困難である。一般に画像符号化では、時間的に異なるフレームを用いて符号化を実行する画面間符号化が用いられている。画像生成装置は、画面間の差分値を削減するために、符号化対象画像と参照画像との間で動き予測処理を実行する。画像生成装置は、差分値と動きベクトル情報とを符号化することで、情報量を削減している。画像生成装置は、エンハンスメントレイヤのフレームに対しても、同様の画面間動き予測をベースレイヤのフレームを参照して実行する。
従来の画像生成装置は、120P画像の奇数番フレームと偶数番フレームとの重み付き平均画像をベースレイヤとし、120P画像の奇数フレームをエンハンスメントレイヤとする。このため、ベースレイヤが算術平均画像に近づくほどベースレイヤの適切な動きベクトルを画像生成装置が予測することが困難となるので、ベースレイヤの符号量は増大する。
時間階層符号化による画像配信では、画像生成装置は、ベースレイヤとエンハンスメントレイヤとの両方を固定ビットレート(CBR: Constant Bit Rate)で符号化することが多い。しかしながら、画像生成装置がストロボ効果及び二重画像による主観画質のみを考慮して係数を決定するだけでは、上記の符号化効率低下によって客観画質は劣化してしまう。このように、従来の画像生成装置は、主観画質及び客観画質を向上させることができない場合があった。
上記事情に鑑み、本発明は、主観画質及び客観画質を向上させることが可能である画像生成装置、画像生成方法及び画像生成プログラムを提供することを目的としている。
本発明の一態様は、所定の時間間隔で並べられた画像群である第一の時系列原画像に基づいて、前記所定の時間間隔よりも長い時間間隔で並べられた画像群である第二の時系列出力画像を生成する画像生成装置であって、前記第一の時系列原画像を第一の時系列画像と第二の時系列画像とに分類する分類部と、前記第一の時系列画像に含まれる第一の画像と前記第一の画像に時系列で隣接する画像であって前記第二の時系列画像に含まれる第二の画像とを合成し、合成結果である第三の画像を生成する第三の画像生成部と、前記第三の画像に基づいて前記第二の時系列出力画像を生成する第二の画像生成部とを備え、前記第三の画像生成部は、前記第二の時系列出力画像において、前記第三の画像に時系列で隣接する他の前記第三の画像を合成するために用いられた他の前記第一の画像と前記他の第三の画像を合成するために用いられた他の前記第二の画像との関係に基づいて、前記第一の画像と前記第二の画像とを合成する、画像生成装置である。
本発明の一態様は、所定の時間間隔で並べられた画像群である第一の時系列原画像に基づいて、前記所定の時間間隔よりも長い時間間隔で並べられた画像群である第二の時系列出力画像を生成する画像生成装置であって、前記第一の時系列原画像を第一の時系列画像と第二の時系列画像とに分類する分類部と、前記第一の時系列画像に含まれる第一の画像と前記第一の画像に時系列で隣接する画像であって前記第二の時系列画像に含まれる第二の画像とを合成し、合成結果である第三の画像を生成する第三の画像生成部と、前記第三の画像に基づいて前記第二の時系列出力画像を生成する第二の画像生成部と、前記第一の画像の特徴量である第一特徴量を前記第一の画像から抽出し、前記第二の画像の特徴量である第二特徴量を前記第二の画像から抽出する特徴量抽出部を備え、前記第三の画像生成部は、前記第一特徴量と前記第二特徴量とに基づいて、前記第一の画像と前記第二の画像とを合成する画像生成装置である。
本発明の一態様は、上記の画像生成装置であって、前記分類部は、前記第一の画像と前記第二の画像との関係に基づいて、前記第一の画像の重み係数と前記第二の画像の重み係数とを決定し、前記第三の画像生成部は、前記第一の画像の重み係数と前記第二の画像の重み係数とに基づいて、前記第一の画像と前記第二の画像とを合成する。
本発明の一態様は、上記の画像生成装置であって、前記分類部は、前記第一の画像に応じた予測誤差と前記第二の画像に応じた予測誤差とに基づいて、前記第一の画像の重み係数と前記第二の画像の重み係数とを決定する。
本発明の一態様は、上記の画像生成装置であって、前記分類部は、前記第一の画像に応じた動きベクトルと前記第二の画像に応じた動きベクトルとに基づいて、前記第一の画像の重み係数と前記第二の画像の重み係数とを決定する。
本発明の一態様は、上記の画像生成装置であって、前記分類部は、前記第一の画像と前記第二の画像との間で予測誤差又は動きベクトルの差が大きいほど、前記第一の画像の重み係数と前記第二の画像の重み係数との差を大きくする。
本発明の一態様は、所定の時間間隔で並べられた画像群である第一の時系列原画像に基づいて、前記所定の時間間隔よりも長い時間間隔で並べられた画像群である第二の時系列出力画像を生成する画像生成装置が実行する画像生成方法であって、前記第一の時系列原画像を第一の時系列画像と第二の時系列画像とに分類するステップと、前記第一の時系列画像に含まれる第一の画像と前記第一の画像に時系列で隣接する画像であって前記第二の時系列画像に含まれる第二の画像とを合成し、合成結果である第三の画像を生成するステップと、前記第三の画像に基づいて前記第二の時系列出力画像を生成するステップとを含み、前記第三の画像を生成するステップでは、前記第二の時系列出力画像において、前記第三の画像に時系列で隣接する他の前記第三の画像を合成するために用いられた他の前記第一の画像と前記他の第三の画像を合成するために用いられた他の前記第二の画像との関係に基づいて、前記第一の画像と前記第二の画像とを合成する、画像生成方法である。
本発明の一態様は、所定の時間間隔で並べられた画像群である第一の時系列原画像に基づいて、前記所定の時間間隔よりも長い時間間隔で並べられた画像群である第二の時系列出力画像を生成する画像生成装置のコンピュータに、前記第一の時系列原画像を第一の時系列画像と第二の時系列画像とに分類する手順と、前記第一の時系列画像に含まれる第一の画像と前記第一の画像に時系列で隣接する画像であって前記第二の時系列画像に含まれる第二の画像とを合成し、合成結果である第三の画像を生成する手順と、前記第三の画像に基づいて前記第二の時系列出力画像を生成する手順とを実行させ、前記第三の画像を生成する手順では、前記第二の時系列出力画像において、前記第三の画像に時系列で隣接する他の前記第三の画像を合成するために用いられた他の前記第一の画像と前記他の第三の画像を合成するために用いられた他の前記第二の画像との関係に基づいて、前記第一の画像と前記第二の画像とを合成する手順を実行させるための画像生成プログラムである。
本発明により、主観画質及び客観画質を向上させることが可能である。
実施形態における、画像生成装置の構成の例を示す図である。 実施形態における、階層符号化重み係数決定部の構成の例を示す図である。 実施形態における、階層符号化入力画像生成部による画像生成方法の例を示す図である。 実施形態における、ARIB規定の時間方向階層符号化の参照構造の例を示す図である。 実施形態における、予測残差解析部の動作の例を示すフローチャートである。 実施形態における、Dpic_diffの分類の例を示す図である。 実施形態における、重み係数の変更の例を示す図である。 実施形態における、動きベクトル解析部の動作の例を示すフローチャートである。 実施形態における、重み係数の変更の例を示す図である。
本発明の実施形態について、図面を参照して詳細に説明する。
以下では、「符号化ブロック」は、一例として、MPEG−2、H.264/AVC等における「マクロブロック」である。以下では、「符号化ブロック」は、一例として、HEVCにおける「コーディングユニット(CU)」又は「プレディクションユニット(PU)」でもよい。
図1は、画像生成装置100の構成の例を示す図である。画像生成装置100は、画像を生成し、生成された画像を符号化する装置である。画像生成装置100は、画像生成部200と、符号化部300とを備える。
各機能部のうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムを実行することにより実現される。各機能部のうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
画像生成装置100は、記憶部を更に備えてもよい。記憶部は、例えばフラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性の記録媒体(非一時的な記録媒体)である。記憶部は、例えば、RAM(Random Access Memory)やレジスタなどの揮発性の記録媒体を有してもよい。
画像生成装置100は、過去の画素値予測結果と動きベクトル統計量と原画像の特徴量とに基づいて、重み係数を適応的に更新する。画像生成装置100は、符号化性能についても考慮された階層符号化入力画像を生成する。これによって、画像生成装置100は、主観画質及び客観画質を向上することができる。
主観画質は、具体的な指標によって測れるものでなくてもよい。例えば、MS−SSIM(multi-scale structural similarity)等の主観画質指標は、本実施形態における二重像のような時間的差分には対応しきれない。仮に主観画質が具体的な指標で測れるものであれば、画像を符号化する装置は、その指標に基づいて重み係数が変更するだけで、主観画質及び客観画質を向上させることが可能である。本実施形態における二重像のような時間的差分を扱う場合には、主観画質は、具体的な指標で測れるものではない。
過去の画像を使う場合に、画像に直接起因する特徴量を利用するよりも画像の符号化結果として得られた値を利用する理由は、画像の符号化結果として得られた値を利用したほうが、ベース画像をより正確に生成することが可能であるからである。画像生成装置100は、画像の特徴量でなく画像の符号化結果を利用することで、客観画質の影響をより確実にベース画像の生成に反映できる。画像生成装置100は、予測誤差又は動きベクトルを利用する場合、現在の符号化対象フレームの予測誤差又は動きベクトルを解析するのではなく、過去のフレームの予測誤差又は動きベクトルを解析する。このため、画像生成装置100は、符号量及び客観画質に直結する部分を解析の対象とするため、ベース画像をより正確に生成すること可能である。画像生成装置100は、現在の符号化対象フレームの画像特徴量を解析できるので、シーンチェンジのように急に画像が変化する場合でも影響を受けにくい。
画像生成装置100は、時間方向階層符号化の規格に基づいて、符号化処理を実行する。画像生成装置100は、時間方向階層符号化において画面間参照による動き探索を実行する場合、符号化対象フレームがベースレイヤ又はエンハンスメントレイヤのいずれでも、別のベースレイヤのフレームを参照した動き補償を実行する。
画像生成部200は、画像を生成する機能部である。画像生成部200は、階層符号化重み係数決定部201と、階層符号化入力画像生成部202とを備える。階層符号化重み係数決定部201は、時間方向階層符号化におけるベースレイヤを原画像の奇数番フレーム及び偶数番フレームの重み付き平均から生成する際に用いられる重み係数を、過去の符号化結果と原画像の特徴量とに基づいて決定する。つまり、階層符号化重み係数決定部201は、第一の画像と第二の画像との関係に基づいて、第一の画像の重み係数と第二の画像の重み係数とを決定する。
階層符号化重み係数決定部201は、複数のフレームごとに重み係数を決定してもよい。例えば、階層符号化重み係数決定部201は、イントラフレームが挿入されるタイミングで重み係数を変更する。例えば、階層符号化重み係数決定部201は、時間識別子(Temporal ID)が0となるフレームが挿入されるタイミングで重み係数を変更してもよい。
階層符号化入力画像生成部202は、重み係数を重み係数変更部404から取得する。階層符号化入力画像生成部202は、重み係数及び原画像に基づいて、階層符号化用の入力画像を生成する。
符号化部300は、画像生成部200によって生成された画像を、H.264/AVCやHEVC等の画像符号化規格に基づいて符号化する。画像生成装置100は、符号化対象の画像信号(原画像)と符号化パラメータとを取得する。画像生成装置100は、取得された画像信号を指定された符号化パラメータに従って符号化し、符号化結果を符号化ビットストリームとして出力する。
符号化部300は、符号化対象ピクチャの符号量予測と符号量配分と量子化パラメータ制御とを実行する。符号化部300は、決定された量子化パラメータに従って、画像を符号化する。符号化部300は、H.264/AVCやHEVC等の符号化規格に基づいて、取得された画像信号のピクチャを符号化ブロックに分割し、符号化ブロック単位で符号化する。
符号化部300は、イントラ予測処理部301と、インター予測処理部302と、予測残差信号生成部303と、変換・量子化処理部304と、エントロピー符号化部305と、逆量子化・逆変換処理部306と、復号信号生成部307と、ループフィルタ処理部308とを備える。
符号化部300は、入力画像信号に対して時間階層符号化を実行する。イントラ予測処理部301は、画像生成部200から出力された入力画像信号を取得する。インター予測処理部302は、動き探索を実行する。インター予測処理部302は、動き探索の結果を、動きベクトル情報として画像生成部200の階層符号化重み係数決定部201に出力する。予測残差信号生成部303は、イントラ予測処理部301又はインター予測処理部302の出力である予測信号と入力画像信号との差分を求め、差分を予測残差信号として変換・量子化処理部304及び画像生成部200に出力する。
変換・量子化処理部304は、予測残差信号に離散コサイン変換等の直交変換を施し、変換係数を量子化する。変換・量子化処理部304は、量子化された変換係数をエントロピー符号化部305及び逆量子化・逆変換処理部306に出力する。エントロピー符号化部305は、量子化された変換係数をエントロピー符号化し、エントロピー符号化の結果を、符号化ストリームとして画像生成装置100の外部に出力する。
逆量子化・逆変換処理部306は、量子化された変換係数に逆量子化及び逆直交変換を施し、予測残差復号信号を出力する。復号信号生成部307は、イントラ予測処理部301又はインター予測処理部302の出力である予測信号と予測残差復号信号とを加算することで、符号化対象ブロックごとに復号信号を生成する。インター予測処理部302は、復号信号を参照画像として用いる。復号信号生成部307は、復号信号をループフィルタ処理部308に出力する。ループフィルタ処理部308は、符号化歪みを低減するフィルタリング処理を復号信号に施し、フィルタリング処理後の画像を参照画像としてインター予測処理部 302に出力する。
図2は、階層符号化重み係数決定部201の構成の例を示す図である。階層符号化重み係数決定部201は、予測残差解析部401と、動きベクトル解析部402と、画像特徴解析部403と、重み係数変更部404とを備える。予測残差解析部401は、過去の複数のフレームの予測残差を解析する。予測残差解析部401は、過去の複数のフレームの予測残差を重み係数変更部404に出力する。動きベクトル解析部402は、統計処理によって過去の複数のフレームの動きベクトルを解析する。画像特徴解析部403は、過去の複数のフレームの原画像の画像特徴量を、重み係数変更部404に出力する。
重み係数変更部404は、重み係数を変更するか否かを判定する。重み係数変更部404は、重み係数を変更する場合に重み係数を決定する。重み係数変更部404は、階層符号化入力画像生成部202に重み係数を出力する。
図3は、階層符号化入力画像生成部202による画像生成方法の例を示す図である。階層符号化入力画像生成部202は、連続する原画像の2フレーム(偶数番フレーム、奇数番フレーム)を1セットとして、2フレームを加重平均する際の重み係数を適宜更新する。階層符号化入力画像生成部202は、重み係数wを(0.5<w<1)とし、偶数番フレームと奇数番フレームとをw:(1−w)の比率で加重平均する。ベースレイヤは、偶数番フレームと奇数番フレームとがw:(1−w)の比率で加重平均された画像である。エンハンスメントレイヤは、奇数番フレームそのものである。階層符号化入力画像生成部202は、重み係数wを複数のフレームごとに更新する。階層符号化入力画像生成部202は、フレーム番号4のフレームの重み係数を、w1からw2に変更する。階層符号化入力画像生成部202は、生成されたベースレイヤフレーム及びエンハンスメントレイヤフレームを、階層符号化における入力画像として符号化部300に出力する。
図4は、ARIB規定の時間方向階層符号化の参照構造の例を示す図である。図4では、各ピクチャは、参照のパターンに応じて5個の階層に分類される。分類された階層に応じて、各ピクチャのフレームには、時間識別子が割り当てられる。図4に示されているように、全てのフレームがT時間識別子=3以下のフレームを参照先としている。ベースレイヤであるかエンハンスメントレイヤであるかに関わらず、符号化対象フレームの符号化では、常にベースレイヤフレームが参照される。
(時間識別子=0、1、2、3)が割り当てられているフレームは、ベースレイヤである。時間識別子=4が割り当てられているフレームは、エンハンスメントである。図4では、各符号化対象フレームにおける動き予測先の参照フレームが矢印で示されている。フレーム番号1からフレーム番号15までのピクチャでは、前方向と後方向との計2枚の参照フレームを用いる双方向動き探索が実行される。重み係数wが(0.5<w<1)の範囲で小さくなるほど、階層符号化入力画像生成部202によって生成されるベースレイヤには、二重画像の影響が強まる原画像における動きの高速性が大きいほど、階層符号化入力画像生成部202によって生成されるベースレイヤには、二重画像の影響が強まる。
エンハンスメントレイヤは、原画像の奇数番フレームそのものであるため、二重画像ではなく通常の一重画像である。参照先フレームは常にベースレイヤであることから、ベースレイヤの符号化対象フレームの符号化では、二重画像から他の二重画像が参照される。エンハンスメントレイヤの符号化対象フレームの符号化では、二重画像から一重画像が参照される。このため、ベースレイヤに対する二重画像の影響が大きくなるほど、二重画像から一重画像への参照という本来では不自然な参照が実行されるエンハンスメントレイヤにおいて、動き予測時の予測残差が増大する。ベースレイヤに対する二重画像の影響が大きくなるほど、エンハンスメントレイヤにおいて、符号量が増大し、又は客観画質が低下する傾向にある。二重画像同士の参照であるベースレイヤにおいては、エンハンスメントレイヤの場合と比較して動き予測時の予測残差が増大しにくく、符号量の増大や客観画質の低下は生じにくい。
次に、予測残差解析部401の出力に基づいて重み係数変更部404が重み係数を更新する動作を説明する。
図5は、予測残差解析部401の動作の例を示すフローチャートである。予測残差解析部401は、符号化開始後、フレーム番号を意味するFを初期化する(ステップS501)。予測残差解析部401は、番号がFのフレームの予測残差値の総和を意味するDpic(F)を初期化する(ステップS502)。予測残差解析部401は、予測残差信号生成部303が処理した符号化対象CTUについて、各ピクセルにおける予測残差信号を取得する(ステップS503)。
予測残差解析部401は、取得された予測残差信号をCTU内の全ピクセルについて合計し、合計結果としてDctuを取得する。すなわち、Dctuは、符号化対象CTUの予測誤差値の総和である(ステップS504)。予測残差解析部401は、CTUの予測誤差値の総和Dctuを、フレーム番号Fのフレーム予測誤差値Dpicの値に加算する(ステップS505)。
予測残差解析部401は、予測誤差値の符号化対象CTUがピクチャ内の終端に位置するCTUであるか否かを判定する(ステップS506)。符号化対象CTUがピクチャ内の終端のCTUでない場合(ステップS506:NO)、予測残差解析部401は、ステップS503に処理を戻す。符号化対象CTUがピクチャ内の終端のCTUである場合(ステップS506:YES)、予測残差解析部401は、現在のDpic(F)の値をフレーム番号Fのフレーム予測誤差値として記憶部に記録する。予測残差解析部401は、フレーム番号Fを1だけ増やす(ステップS507)。
予測残差解析部401は、現在のフレーム番号Fが重み係数の更新頻度F_lim以上であるか否かを判定する(ステップS508)。F_limは、例えば、イントラフレームが挿入されるフレーム間隔、Temporal ID(時間識別子)=0が割り当てられたフレームが挿入される間隔である。時間識別子=0が割り当てられたフレームが挿入される間隔は、例えば、図4では「16」である。
現在のフレーム番号Fが重み係数の更新頻度F_lim未満である場合(ステップS508:NO)、予測残差解析部401は、ステップS502に処理を戻す。現在のフレーム番号Fが重み係数の更新頻度F_lim以上である場合(ステップS508:YES)、更新頻度F_lim以上であることが重み係数の更新タイミングとなったことを意味するので、予測残差解析部401は、直近のF_limフレームにおけるDpicの平均値を算出する。予測残差解析部401は、Dpicの平均値を、ベースレイヤとエンハンスメントレイヤとで別々に算出する。ベースレイヤのDpicの平均値は、Dpic_b_aveと表される。エンハンスメントレイヤのDpicの平均値は、Dpic_e_aveと表される(ステップS509)。
予測残差解析部401は、Dpic_b_aveとDpic_e_aveの差としてDpic_diffを算出する。Dpic_diffは、直近のF_limフレーム内における、ベースレイヤのフレーム予測誤差値の平均と、エンハンスメントレイヤのフレーム予測誤差値の平均の差である。Dpic_diffが増加することは、エンハンスメントレイヤがベースレイヤに比べて予測精度が低下していることを意味する。このため、Dpic_diffが一定値よりも大きい場合、ベースレイヤの二重画像の影響が大きく、二重画像から一重画像への参照であるエンハンスメントレイヤにおいて動き予測時の予測残差が増大していると予想される。このため、Dpic_diffが一定値よりも大きい場合には、Dpic_diffを減少させるような重み係数の調整が必要である。つまり、Dpic_diffが大きくなるほど、Dpic_diffを減少させるように重み係数を調整する必要がある。予測残差解析部401は、Dpic_diffの値を重み係数変更部404に出力する(ステップS510)。予測残差解析部401は、ステップS501に処理を戻す。
図5に示されたフローチャートでは、予測残差解析部401は、ベースレイヤ及びエンハンスメントレイヤともに、フレーム予測誤差の平均値を算出する。予測残差解析部401は、特定の条件を満たしたフレームのみについて、フレーム予測誤差の平均値を算出してもよい。例えば、ベースレイヤのフレーム予測誤差値Dpic_b_aveを求める際、予測残差解析部401は、時間識別子=3のフレームのみを対象として、フレーム予測誤差の平均値を算出する。同一時間識別子では予測誤差値が近い値になることが多いので、予測残差解析部401は、時間識別子=3のフレームのみを対象とすることで、ぶれの少ないDpic_b_aveの値が得られる。予測残差解析部401は、平均を算出する対象となるF_lim枚のフレームのうち予測誤差値が外れ値となっているフレームを除外して、フレーム予測誤差の平均値を算出してもよい。予測残差解析部401は、Dpic_b_aveとDpic_e_aveとを算出する代わりに、フレーム予測誤差の中央値を算出してもよい。
図6は、Dpic_diffの分類の例を示す図である。重み係数変更部404は、取得されたDpic_diffの値を、所定の段階Pdに分類する。図6では、Dpic_diffは4段階に分類されている。Pdは段階を表す。段階Pdが大きいほど、二重像の影響は大きい。図6では、Dpic_diffは、等間隔のxを用いて分類されている。各閾値の間隔は、等間隔である必要はない。また、分類は4段階である必要もない。
Dpic_diffの分類のための各閾値は、使用者によって定められる。各閾値は、時間方向階層符号化においてどのような参照構造を用いるか、ストロボ効果と二重画像とのバランスをどの程度とするか、元々のシャッタースピードがどの程度か等に応じて定められる。
図7は、重み係数wの変更の例を示す図である。図7には、段階を表すPdの大きさに従って、重み係数wの値を変更する手法の例が示されている。Pdが4である場合、ベースレイヤの二重画像の影響が想定以上に生じることで、動き予測の精度低下と符号量の増大とが引き起こされている可能性が高い。このため、重み係数変更部404は、重み係数を現在値よりも0.2増加させることで、ベースレイヤが偶数番フレームに近づくようにする。Pdが3である場合も同様に、重み係数変更部404は、ベースレイヤが偶数番フレームに近づくようにする。Pdが3である場合、重み係数変更部404は、重み係数の増加変化分を、Pdが4である場合よりも小さくする。
Pdが2である場合、重み係数変更部404は、ストロボ効果と二重画像とのバランスが想定通りとなっているとみなし、重み係数を変更しない。Pdが2である場合、ベースレイヤで二重画像よりもストロボ効果の影響が大きくなっている可能性が高いため、重み係数変更部404は、重み係数を現在の重み係数よりも減少させることで、ベースレイヤが平均画像に近づくようにする。これによって、重み係数変更部404は、ストロボ効果の影響を抑えることで主観画質を向上させることができる。
次に、動きベクトル解析部402による解析結果に基づいて重み係数変更部404が重み係数を更新する場合について説明する。
動きベクトル解析部402は、動き予測結果として算出された動きベクトルの平均値に基づいて、入力画像における動きの大きさを判定する。
図8は、動きベクトル解析部402の動作の例を示すフローチャートである。動きベクトル解析部402は、重み係数の更新タイミングであるF_limフレームのうちの特定の1フレームについてのみ、動きベクトルの平均値を算出する。符号化の開始後、動きベクトル解析部402は、フレーム番号Fを0に初期化する(ステップS601)。動きベクトル解析部402は、動きベクトルノルムのピクチャ平均値を表すMpicと、CTUの個数を表すNctuとを、それぞれ0に初期化する(ステップS602)。動きベクトル解析部402は、インター予測処理部302が処理した符号化対象CTUについて、動きベクトル情報を取得する(ステップS603)。
動きベクトル解析部402は、平均値を算出する対象である特定のフレーム番号F_tarとフレーム番号Fとが等しいか否かを判定する。例えば、16フレームごとに重み係数変更部404が重み係数を更新し、更新する直前の1フレームについてのみ動きベクトル解析部402が動きベクトル平均値を算出する場合、F_limは16であり、F_tarは15である。動きベクトルの平均値を算出する対象である特定のフレーム番号F_tarが二重画像同士の参照であるため、動きベクトル解析部402は、動き予測の精度が低下しにくいベースレイヤのフレーム番号を選択することが望ましい(ステップS604)。
フレーム番号F_tarとフレーム番号Fとが異なる場合(ステップS604:NO)、動きベクトル解析部402は、ステップS607に処理を進める。フレーム番号F_tarとフレーム番号Fとが等しい場合(ステップS604:YES)、動きベクトル解析部402は、動きベクトルのノルムを算出する。CTUごとに複数の動きベクトルが存在することがあり得るので、動きベクトル解析部402は、符号化対象CTUが持つ全ての動きベクトルのノルムを算出する。動きベクトル解析部402は、動きベクトルのノルムの平均値をMctuとして算出する(ステップS605)。動きベクトル解析部402は、CTUごとの動きベクトルのノルムの平均値Mctuを、Mpicの値に加算する(ステップS606)。
動きベクトル解析部402は、予測誤差値の符号化対象CTUがピクチャ内の終端に位置するCTUであるか否かを判定する(ステップS607)。符号化対象CTUがピクチャ内の終端のCTUでない場合(ステップS607:NO)、動きベクトル解析部402は、ステップS603に処理を戻す。符号化対象CTUがピクチャ内の終端のCTUである場合(ステップS607:YES)、動きベクトル解析部402は、フレーム番号Fを1だけ増やす(ステップS608)。
動きベクトル解析部402は、現在のフレーム番号Fが重み係数の更新頻度F_lim以上であるか否かを判定する(ステップS609)。現在のフレーム番号Fが重み係数の更新頻度F_lim未満である場合(ステップS609:NO)、動きベクトル解析部402は、ステップS603に処理を戻す。現在のフレーム番号Fが重み係数の更新頻度F_lim以上である場合(ステップS609:YES)、更新頻度F_lim以上であることが重み係数の更新タイミングとなったことを意味するので、動きベクトル解析部402は、動きベクトルが算出されたCTUの数であるNctuでMpicの値を除算することによって、動きベクトルのノルムのフレーム平均値を算出する(ステップS610)。動きベクトル解析部402は、動きベクトルのノルムのフレーム平均値Mpicを、重み係数変更部404に出力する(ステップS611)。
重み係数変更部404は、予測残差解析部401の出力に基づいて重み係数を更新する場合と同様に、重み係数を更新する。重み係数変更部404は、取得されたMpicの値に応じて、所定の段階PmにMpicを分類する。以下では、Mpicの値が大きいほど、段階Pmの値は大きい。段階Pmの値が大きい場合、画像内の動きが大きいことで、ベースレイヤにおいて二重画像の影響が想定以上に生じている可能性が高い。このため、重み係数変更部404は、重み係数を現在の値よりも大きくすることで、画質を向上させる。段階Pmの値が小さい場合、ベースレイヤにおいて二重画像の影響よりもストロボ効果の影響が大きくなっている可能性が高い。このため、重み係数変更部404は、重み係数を現在の値よりも小さくする。
次に、画像特徴解析部403による解析結果に基づいて重み係数変更部404が重み係数を更新する場合について説明する。
画像特徴解析部403は、原画像の特徴量をフレームごとに抽出する。特徴量として抽出される値は、例えばフレーム間差分値である。画像特徴解析部403は、現在の符号化対象フレームと1フレーム前のフレームとの間の差分に基づいて、各ピクセルにおける画素値の差分絶対値を算出する。画像特徴解析部403は、全てのピクセルのおける差分絶対値を合計することによって、符号化対象フレームの特徴量を取得する。
画像特徴解析部403は、重み係数を更新するタイミングのフレームであるF_limフレームごとに、フレームの特徴量Cvalとして算出する。画像特徴解析部403は、フレームの特徴量Cvalの値を、重み係数変更部404に出力する。フレーム間の差分絶対値を特徴量として用いる場合、フレームの特徴量Cvalの値が大きいことは、画像内の動きの変化が激しいことを意味する。したがって、フレームの特徴量Cvalの値が大きいほど、二重画像の影響は増加すると予想される。
重み係数変更部404は、予測残差解析部401又は動きベクトル解析部402の出力に基づいて重み係数を更新する場合と同様に、重み係数を更新する。重み係数変更部404は、取得されたCvalの値に応じて、所定の段階PcにCvalを分類する。以下では、Cvalの値が大きいほど、段階Pcの値は大きい。段階Pcの値が大きい場合、重み係数変更部404は、重み係数を現在の値よりも大きくすることで、二重像の影響を抑えて画質を向上させる。段階Pcの値が小さい場合、重み係数変更部404は、重み係数を現在の値よりも小さくする。
次に、予測残差解析部401による解析結果と、動きベクトル解析部402による解析結果と、画像特徴解析部403による解析結果とに基づいて重み係数変更部404が重み係数を更新する場合について説明する。
予測残差解析部401は、Dpic_diffを重み係数変更部404に出力する。動きベクトル解析部402は、Mpicを重み係数変更部404に出力する。動きベクトル解析部402は、Cvalを重み係数変更部404に出力する。
重み係数変更部404は、取得されたDpic_diffの値を、所定の段階Pdに分類する。段階Pdの値が大きいほど、二重画像の影響が支配的である。重み係数変更部404は、取得されたMpicの値に応じて、所定の段階PmにMpicを分類する。段階Pmの値が大きいほど、二重画像の影響が支配的である。重み係数変更部404は、取得されたCvalの値に応じて、所定の段階PcにCvalを分類する。段階Pcの値が大きいほど、二重画像の影響が支配的である。
図9は、重み係数の変更の例を示す図である。重み係数変更部404は、段階Pdの値と段階Pmの値と段階Pcの値との乗算結果に基づいて、重み係数の変化量を決定する。図9では、重み係数変更部404は、一例として、段階Pcの値と段階Pcの値と段階Pcの値との乗算結果に基づいて、重み係数の変化量を決定する。重み係数変更部404は、段階Pcの値と段階Pcの値と段階Pcの値との加算結果に基づいて、重み係数の変化量を決定してもよい。重み係数変更部404は、段階Pcの値と段階Pcの値と段階Pcの値とのうちの中央値に基づいて、重み係数の変化量を決定してもよい。重み係数変更部404は、決定された重み係数の更新値を、階層符号化入力画像生成部202に出力する。
以上のように、実施形態の画像生成装置100は、所定の時間間隔で並べられた画像群である120P等の時系列画像(第一の時系列原画像)に基づいて、所定の時間間隔よりも長い時間間隔で並べられた画像群である60P等の時系列画像(第二の時系列出力画像)を生成する画像生成装置である。
画像生成装置100は、分類部としての階層符号化重み係数決定部201と、第三の画像生成部としての階層符号化入力画像生成部202と、第二の画像生成部としての符号化部300とを備える。分類部は、120P等の時系列画像を、ベース画像群とエンハンス画像群とに分類する。第三の画像生成部は、ベース画像群に含まれるベース画像とベース画像に時系列で隣接する画像であってエンハンス画像群に含まれるエンハンス画像とを合成する。第三の画像生成部は、60P等の時系列画像において、出力されるベース画像(以下「出力ベース画像」という)に時系列で隣接する他の出力ベース画像を合成するために用いられた他のベース画像と当該他の出力ベース画像を合成するために用いられた他のエンハンス画像との関係に基づいて、ベース画像とエンハンス画像とを合成する。第三の画像生成部は、合成結果であるベース画像を、当該出力ベース画像として生成する。第二の画像生成部は、出力されるベース画像に基づいて、60P等の時系列画像を生成する。
これによって、実施形態の画像生成装置100は、主観画質及び客観画質を向上させることが可能である。
つまり、画像生成装置100は、時系列の過去の原画像における、画素値の予測結果と動きベクトル統計量と画像特徴量等とを用いることで、符号化性能についても考慮して重み係数を適応的に変更する。これによって、画像生成装置100は、画像符号化における時間方向階層符号化処理において、フレームの加重平均をより効率的に算出することが可能である。画像生成装置100は、画像符号化における時間方向階層符号化処理において、より効率的にベースレイヤを生成することが可能である。
まとめ
・過去の予測誤差量の利用について
画像生成装置100は、過去のベースレイヤフレームとエンハンスレイヤフレームとのそれぞれについて予測誤差の平均量を算出する。画像生成装置100は、予測誤差が一定値以上の場合、画像を平均化しないように重み係数を変更する。画像生成装置100は、予測誤差が一定値以下の場合、画像を平均化するように重み係数を変更する。これによって、画像生成装置100は、符号化性能を保ったままバランスの良い60P画像を生成することが可能である。
・過去の動き探索結果の動きベクトル情報の利用について
画像生成装置100は、動きベクトルの統計処理を行い、大きな動きベクトルが一定割合以上存在する場合、画像を平均化しないように重み係数を変更する。画像生成装置100は、大きな動きベクトルが一定割合未満である場合、画像を平均化するように重み係数を変更する。
・原画像の特徴量の利用について
画像生成装置100は、ベースレイヤフレーム及びエンハンスレイヤフレームを生成する前の原画像の特徴量を抽出する。フレーム間差分が一定値以上である場合、画像生成装置100は、画像を平均化しないように重み係数を変更する。フレーム間差分が一定値未満である場合、画像生成装置100は、平均化する方向へ重み係数を変更する。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
時間階層符号化を実行する画像符号化装置及び画像符号化プログラムに適用可能である。
100…画像生成装置、200…画像生成部、201…階層符号化重み係数決定部、202…階層符号化入力画像生成部、300…符号化部、301…イントラ予測処理部、302…インター予測処理部、303…予測残差信号生成部、304…変換・量子化処理部、305…エントロピー符号化部、306…逆量子化・逆変換処理部、307…復号信号生成部、308…ループフィルタ処理部、401…予測残差解析部、402…動きベクトル解析部、403…画像特徴解析部、404…重み係数変更部

Claims (5)

  1. 所定の時間間隔で並べられた画像群である第一の時系列原画像に基づいて、前記所定の時間間隔よりも長い時間間隔で並べられた画像群である第二の時系列出力画像を生成する画像生成装置であって、
    前記第一の時系列原画像を第一の時系列画像と第二の時系列画像とに分類する分類部と、
    前記第一の時系列画像に含まれる第一の画像と前記第一の画像に時系列で隣接する画像であって前記第二の時系列画像に含まれる第二の画像とを合成し、合成結果である第三の画像を生成する第三の画像生成部と、
    前記第三の画像に基づいて前記第二の時系列出力画像を生成する第二の画像生成部とを備え、
    前記分類部は、前記第一の画像と前記第二の画像との間で予測誤差又は動きベクトルの差が大きいほど、前記第一の画像の重み係数と前記第二の画像の重み係数との差を大きくなるように、前記第一の画像の重み係数と前記第二の画像の重み係数とを決定し、
    前記第三の画像生成部は、前記第二の時系列出力画像において、前記第一の画像の重み係数と前記第二の画像の重み係数とに基づいて、前記第一の画像と前記第二の画像とを合成する、
    画像生成装置。
  2. 記第一の画像の特徴量である第一特徴量を前記第一の画像から抽出し、前記第二の画像の特徴量である第二特徴量を前記第二の画像から抽出する特徴量抽出部をさらに備え、
    前記第三の画像生成部は、
    前記第一特徴量と前記第二特徴量、及び、前記第一の画像の重み係数と前記第二の画像の重み係数とに基づいて、前記第一の画像と前記第二の画像とを合成する、
    請求項1に記載の画像生成装置。
  3. 所定の時間間隔で並べられた画像群である第一の時系列原画像に基づいて、前記所定の時間間隔よりも長い時間間隔で並べられた画像群である第二の時系列出力画像を生成する画像生成装置が実行する画像生成方法であって、
    前記第一の時系列原画像を第一の時系列画像と第二の時系列画像とに分類するステップと、
    前記第一の時系列画像に含まれる第一の画像と前記第一の画像に時系列で隣接する画像であって前記第二の時系列画像に含まれる第二の画像とを合成し、合成結果である第三の画像を生成するステップと、
    前記第三の画像に基づいて前記第二の時系列出力画像を生成するステップとを含み、
    前記分類するステップは、前記第一の画像と前記第二の画像との間で予測誤差又は動きベクトルの差が大きいほど、前記第一の画像の重み係数と前記第二の画像の重み係数との差を大きくなるように、前記第一の画像の重み係数と前記第二の画像の重み係数とを決定することを含み、
    前記第三の画像を生成するステップは、前記第二の時系列出力画像において、前記第一の画像の重み係数と前記第二の画像の重み係数とに基づいて、前記第一の画像と前記第二の画像とを合成することを含む
    画像生成方法。
  4. 前記第一の画像の特徴量である第一特徴量を前記第一の画像から抽出し、前記第二の画像の特徴量である第二特徴量を前記第二の画像から抽出するステップをさらに含み、
    前記第三の画像を生成するステップは、前記第一特徴量と前記第二特徴量、及び、前記第一の画像の重み係数と前記第二の画像の重み係数とに基づいて、前記第一の画像と前記第二の画像とを合成することを含む、
    請求項3に記載の画像生成方法。
  5. コンピュータを請求項1又は請求項2に記載の画像生成装置として機能させるための画像生成プログラム。
JP2017239996A 2017-12-14 2017-12-14 画像生成装置、画像生成方法及び画像生成プログラム Active JP6871147B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017239996A JP6871147B2 (ja) 2017-12-14 2017-12-14 画像生成装置、画像生成方法及び画像生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017239996A JP6871147B2 (ja) 2017-12-14 2017-12-14 画像生成装置、画像生成方法及び画像生成プログラム

Publications (2)

Publication Number Publication Date
JP2019106685A JP2019106685A (ja) 2019-06-27
JP6871147B2 true JP6871147B2 (ja) 2021-05-12

Family

ID=67062494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017239996A Active JP6871147B2 (ja) 2017-12-14 2017-12-14 画像生成装置、画像生成方法及び画像生成プログラム

Country Status (1)

Country Link
JP (1) JP6871147B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4281309B2 (ja) * 2002-08-23 2009-06-17 ソニー株式会社 画像処理装置、画像処理方法、および画像フレームデータ記憶媒体、並びにコンピュータ・プログラム
JPWO2008099685A1 (ja) * 2007-02-01 2010-05-27 ソニー株式会社 画像再生装置と画像再生方法および撮像装置とその制御方法
CN107925765B (zh) * 2015-08-19 2022-01-18 索尼公司 发送装置、发送方法、接收装置及接收方法
CA3039466A1 (en) * 2015-10-08 2017-04-13 Sharp Laboratories Of America, Inc. Systems and methods for reducing artifacts in temporal scalable layers of video
JP7026450B2 (ja) * 2017-04-24 2022-02-28 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法

Also Published As

Publication number Publication date
JP2019106685A (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
JP4755093B2 (ja) 画像符号化方法および画像符号化装置
KR101351709B1 (ko) 화상 복호 장치 및 화상 복호 방법
US8718138B2 (en) Image encoding apparatus and image encoding method that determine an encoding method, to be used for a block to be encoded, on the basis of an intra-frame-prediction evaluation value calculated using prediction errors between selected reference pixels and an input image
WO2018047668A1 (ja) 画像処理装置および画像処理方法
RU2668056C1 (ru) Устройство обработки изображения и способ обработки изображения
US20060062299A1 (en) Method and device for encoding/decoding video signals using temporal and spatial correlations between macroblocks
JP2009532979A (ja) 加重平均合を用いてfgs階層をエンコーディングおよびデコーディングする方法および装置
KR20140113855A (ko) 비디오 이미지의 안정화 방법, 후처리 장치 및 이를 포함하는 비디오 디코더
KR100878809B1 (ko) 비디오 신호의 디코딩 방법 및 이의 장치
KR101924088B1 (ko) 적응적 예측 블록 필터링을 이용한 영상 부호화/복호화 장치 및 방법
JP7343817B2 (ja) 符号化装置、符号化方法、及び符号化プログラム
US20060120454A1 (en) Method and apparatus for encoding/decoding video signal using motion vectors of pictures in base layer
US20060133677A1 (en) Method and apparatus for performing residual prediction of image block when encoding/decoding video signal
JP5441812B2 (ja) 動画像符号化装置、及びその制御方法
US20080008241A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US9648336B2 (en) Encoding apparatus and method
JP2007228560A (ja) 動画像符号化方法および動画像符号化装置
JP2007096541A (ja) 符号化方法
US20060159176A1 (en) Method and apparatus for deriving motion vectors of macroblocks from motion vectors of pictures of base layer when encoding/decoding video signal
US20070242747A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20070223573A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
JP2007036889A (ja) 符号化方法
JP6871147B2 (ja) 画像生成装置、画像生成方法及び画像生成プログラム
JP2014003523A (ja) 画像符号化装置およびその制御方法ならびにプログラム
KR20120126500A (ko) 분산비디오 코덱 장치 및 이를 이용한 전경 영역 분할 보조정보 생성 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210415

R150 Certificate of patent or registration of utility model

Ref document number: 6871147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150