JP7161107B2 - 生成装置及びコンピュータプログラム - Google Patents
生成装置及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7161107B2 JP7161107B2 JP2019027405A JP2019027405A JP7161107B2 JP 7161107 B2 JP7161107 B2 JP 7161107B2 JP 2019027405 A JP2019027405 A JP 2019027405A JP 2019027405 A JP2019027405 A JP 2019027405A JP 7161107 B2 JP7161107 B2 JP 7161107B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- interpolation
- identification
- frames
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/164—Feedback from the receiver or from the transmission channel
- H04N19/166—Feedback from the receiver or from the transmission channel concerning the amount of transmission errors, e.g. bit error rate [BER]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
以下の説明では、畳み込みニューラルネットワークによる生成、識別の敵対的学習を前提とするが、本発明の学習対象は畳み込みニューラルネットワークに限られるものではない。すなわち、敵対的生成ネットワークで学習可能な画像の補間生成を行う任意の生成モデルおよび画像の識別問題を扱う任意の識別モデルに対して適用することができる。なお、本件発明について説明に用いている画像という言葉はフレームと置き換えてもよい。
図1は、第1の実施形態における画像生成装置100の機能構成を表す概略ブロック図である。
画像生成装置100は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、学習プログラムを実行する。学習プログラムの実行によって、画像生成装置100は、欠損領域マスク生成部11、欠損画像生成部12、欠損画像補間部13、補間画像識別部14及び更新部15を備える装置として機能する。なお、画像生成装置100の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、学習プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、学習プログラムは、電気通信回線を介して送受信されてもよい。
欠損画像生成部12は、非欠損画像と、欠損領域マスク生成部11によって生成された欠損領域マスクとに基づいて欠損画像を生成する。具体的には、欠損画像生成部12は、動画像を構成する全ての非欠損画像と、欠損領域マスク生成部11によって生成された欠損領域マスクとに基づいて複数の欠損画像を生成する。
欠損領域マスク生成部11は、欠損領域マスクM^を生成する(ステップS101)。具体的には、欠損領域マスク生成部11は、画面中央の領域やランダムに導出した領域等を欠損領域として、欠損領域を1、非欠損領域を0で表現する欠損領域マスクM^を生成する。欠損領域マスク生成部11は、生成した欠損領域マスクM^を欠損画像生成部12及び欠損画像補間部13に出力する。
更新部15は、識別ネットワークDに識別されにくく、かつ欠損画像に対応する非欠損画像から画素値が大きく離れない補間画像を得るように、補間ネットワークGのパラメータを更新する(ステップS107)。
更新部15は、識別ネットワークDが補間画像と非欠損画像を識別するように、識別ネットワークDのパラメータを更新する(ステップS108)。
一方、学習終了条件を満たされていない場合(ステップS109-NO)、画像生成装置100はステップS101以降の処理を繰り返し実行する。これにより、画像生成装置100は、補間ネットワークGの学習を行う。
補間画像識別部14における空間方向識別ネットワークDS0~DSNは、時刻毎に別のネットワークとして示されているが、共通のネットワークを用いて入力から出力を各時刻で導出してもよい。
第2の実施形態は、第1の実施形態と欠損画像補間処理、画像分割処理および識別結果統合処理が異なる。第1の実施形態では、図3に示されるように動画像を構成する全ての画像に欠損領域が存在することを前提としていた。しかしながら、動画像を構成する画像内の全ての領域が非欠損領域の画像(以下、「参照画像」という。)が存在する場合も想定される。そこで、第2の実施形態では、動画像を構成する画像に参照画像が含まれる場合の学習方法について説明する。
画像生成装置100aは、バスで接続されたCPUやメモリや補助記憶装置などを備え、学習プログラムを実行する。学習プログラムの実行によって、画像生成装置100aは、欠損領域マスク生成部11、欠損画像生成部12、欠損画像補間部13a、補間画像識別部14a、更新部15及び画像判別部16を備える装置として機能する。なお、画像生成装置100aの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、学習プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、学習プログラムは、電気通信回線を介して送受信されてもよい。
画像判別部16は、非欠損画像及び参照画像情報を入力し、入力した参照画像情報に基づいて、動画像を構成する非欠損画像のうちいずれの非欠損画像を参照画像とするのかを判別する(ステップS201)。ここでは、一例として、動画像を構成する非欠損画像のうち、時系列順で最古(最も過去)の非欠損画像と最新(最も未来)の非欠損画像が参照画像とする情報が参照画像情報に含まれていたとする。この場合、画像判別部16は、時系列順で最も過去の非欠損画像と最も未来の非欠損画像を参照画像として、欠損画像補間部13aに出力する。また、画像判別部16は、参照画像情報に含まれていなかった非欠損画像については欠損画像生成部12に出力する。これにより、欠損画像生成部12に出力された非欠損画像は、欠損画像として欠損画像補間部13aに入力される。ここで、一例として、動画像を構成する非欠損画像のうち、時系列順で最古の非欠損画像と最新の非欠損画像を用いた理由は、図6のような内挿の補間ネットワークGの構成で補間を有利に行いやすいためである。すなわち、補間する対象の画像を参照画像で時系列的に挟むためである。例えば、参照画像1→参照画像2→補間対象画像という時系列であれば、未来若しくは過去を予測した補間ということになってしまうため、時系列的に挟み込むことで補間精度の向上を図っている。
上記では過去の1フレームと未来の1フレームを参照画像として用いる構成を示したが、参照画像の与え方はこれに限るものではない。すなわち、例えば過去の複数枚の非欠損画像が参照画像であってもよいし、動画像を構成する画像のうち中間時刻の非欠損画像が参照画像であってもよい。
第3の実施形態では、画像生成装置100が、補間ネットワーク更新処理及び識別ネットワーク更新処理における重みパラメータを変更する。
画像生成装置100bは、バスで接続されたCPUやメモリや補助記憶装置などを備え、学習プログラムを実行する。学習プログラムの実行によって、画像生成装置100bは、欠損領域マスク生成部11、欠損画像生成部12、欠損画像補間部13、補間画像識別部14b、更新部15及び重みパラメータ決定部17を備える装置として機能する。なお、画像生成装置100bの各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、学習プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、学習プログラムは、電気通信回線を介して送受信されてもよい。
重みパラメータ決定部17は、各識別ネットワークへ入力された画像が補間画像である確率を入力とし、学習時に用いられる重みパラメータを決定する。具体的には、重みパラメータ決定部17は、識別部142によって得られた各識別ネットワーク(時間方向識別ネットワークDT及び空間方向識別ネットワークDS0~DSN)へ入力された画像が補間画像である確率を用いて各識別ネットワークの正答率を算出し、算出した各識別ネットワークの正答率に基づいて学習時に用いられる重みパラメータを決定する。
重みパラメータ決定部17は、領域別識別処理の結果得られた各ネットワークへの入力が補間画像である確率を用いて、各識別ネットワークの正答率を算出する。正答率の導出には、過去の学習の反復で導出された正答率を踏まえても良い。導出された正答率に基づき、補間ネットワーク更新処理、識別ネットワーク更新処理のいずれかまたは両方で適用する重みパラメータを決定する(ステップS301)。例えば、重みパラメータ決定部17は、補間ネットワークGの学習を促進する場合には正答率が高い識別ネットワークに対応する重みパラメータの値が相対的に大きくなるように重みパラメータを決定し、識別ネットワークの学習を促進する場合には正答率が低い識別ネットワークに対応する重みパラメータの値を相対的に大きくなるように重みパラメータを決定する。このように、重みパラメータ決定部17は、学習を促進させる対象によって、重みパラメータを決定する対象が異なる。
上記の各実施形態では、学習に用いる画像として欠損画像を例に説明したが、学習に用いる画像は欠損画像に限られない。例えば、学習に用いる画像は、アップコンバートされた画像であってもよい。
Claims (7)
- 複数のフレームで構成される動画像から、前記動画像を構成する一又は複数のフレーム内の一部領域が補間された補間フレームを生成する補間部と、
入力された複数のフレームが、一部領域が補間された補間フレームであるか否かを識別する識別部と、
前記識別部が出力する識別結果に基づいて、前記補間部のパラメータと、前記識別部のパラメータとを交互に更新する更新部と、
を備え、
前記識別部は、
入力された前記複数のフレームを時間的に識別する時間方向識別部と、
入力された前記複数のフレームを空間的に識別する空間方向識別部と、
前記時間方向識別部と、前記空間方向識別部との識別結果を統合する統合部とで構成される、生成装置。 - 前記時間方向識別部は、入力された前記複数のフレームの補間領域のみが抽出されたフレームの時系列データを用いて、入力された複数のフレームが補間フレームである確率を識別結果として出力し、
前記空間方向識別部は、入力された各時刻の入力されたフレームを用いて、入力された複数のフレームが補間フレームである確率を識別結果として出力する、請求項1に記載の生成装置。 - 入力された前記複数のフレームに、フレーム内の一部又は全ての領域が補間されていない参照フレームが含まれる場合、
前記時間方向識別部は、前記参照フレームと、前記補間フレームとを用いて、入力された複数のフレームが補間フレームである確率を識別結果として出力し、
前記空間方向識別部は、入力された各時刻の前記複数のフレームのうち補間フレームを用いて、入力された複数のフレームが補間フレームである確率を識別結果として出力する、請求項1に記載の生成装置。 - 前記参照フレームは、第1の参照フレーム及び第2の参照フレームの2枚であり、
入力された前記複数のフレームは、少なくとも前記第1の参照フレーム、前記補間フレーム、第2の参照フレームの時系列順になっている、請求項3に記載の生成装置。 - 前記識別部は、前記空間方向識別部と前記時間方向識別部が識別を行った結果の正答率に基づいて、前記空間方向識別部と前記時間方向識別部との重み付けに用いるパラメータを更新する、請求項1から4のいずれか一項に記載の生成装置。
- 請求項1から請求項5のいずれか一項に記載の生成装置によって学習された補間部を備え、
前記補間部は、動画像が入力されると、前記動画像を構成する一又は複数のフレーム内の一部領域が補間された補間フレームを生成する生成装置。 - 複数のフレームで構成される動画像から、前記動画像を構成する一又は複数のフレーム内の一部領域が補間された補間フレームを生成する補間ステップと、
入力された複数のフレームが、一部領域が補間された補間フレームであるか否かを識別する識別ステップと、
前記識別ステップにおいて出力される識別結果に基づいて、前記補間ステップで用いるパラメータと、前記識別ステップで用いるパラメータとを交互に更新する更新ステップと、
をコンピュータに実行させ、
前記識別ステップにおいて、
入力された前記複数のフレームを時間的に識別し、
入力された前記複数のフレームを空間的に識別し、
前記識別ステップにおける識別結果を統合する、コンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019027405A JP7161107B2 (ja) | 2019-02-19 | 2019-02-19 | 生成装置及びコンピュータプログラム |
US17/431,678 US20220122297A1 (en) | 2019-02-19 | 2020-02-03 | Generation apparatus and computer program |
PCT/JP2020/003955 WO2020170785A1 (ja) | 2019-02-19 | 2020-02-03 | 生成装置及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019027405A JP7161107B2 (ja) | 2019-02-19 | 2019-02-19 | 生成装置及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020136884A JP2020136884A (ja) | 2020-08-31 |
JP7161107B2 true JP7161107B2 (ja) | 2022-10-26 |
Family
ID=72143932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019027405A Active JP7161107B2 (ja) | 2019-02-19 | 2019-02-19 | 生成装置及びコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220122297A1 (ja) |
JP (1) | JP7161107B2 (ja) |
WO (1) | WO2020170785A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220092407A1 (en) * | 2020-09-23 | 2022-03-24 | International Business Machines Corporation | Transfer learning with machine learning systems |
US12019747B2 (en) * | 2020-10-13 | 2024-06-25 | International Business Machines Corporation | Adversarial interpolation backdoor detection |
US12010335B2 (en) | 2021-04-08 | 2024-06-11 | Disney Enterprises, Inc. | Microdosing for low bitrate video compression |
US20220329876A1 (en) * | 2021-04-08 | 2022-10-13 | Disney Enterprises, Inc. | Machine Learning Model-Based Video Compression |
-
2019
- 2019-02-19 JP JP2019027405A patent/JP7161107B2/ja active Active
-
2020
- 2020-02-03 WO PCT/JP2020/003955 patent/WO2020170785A1/ja active Application Filing
- 2020-02-03 US US17/431,678 patent/US20220122297A1/en active Pending
Non-Patent Citations (3)
Title |
---|
IIZUKA, Satoshi et al.,Globally and Locally Consistent Image Completion,ACM Transactions on Graphics,Vol.36, No.4,2017年07月 |
折橋翔太 他3名,敵対的生成ネットワークを用いた画像補間に基づく画像符号化方式,電子情報通信学会技術研究報告,2018年06月22日,Vol.118, No.113,pp.33-38 |
松田侑也 他1名,画像インペインティングのための条件付き生成NNの基礎検討,PCSJ/IMPS2016,2016年11月16日,P-1-04,pp.26-27 |
Also Published As
Publication number | Publication date |
---|---|
US20220122297A1 (en) | 2022-04-21 |
WO2020170785A1 (ja) | 2020-08-27 |
JP2020136884A (ja) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7161107B2 (ja) | 生成装置及びコンピュータプログラム | |
US11430138B2 (en) | Systems and methods for multi-frame video frame interpolation | |
CN110324664B (zh) | 一种基于神经网络的视频补帧方法及其模型的训练方法 | |
CN111652899B (zh) | 一种时空部件图的视频目标分割方法 | |
JP2978406B2 (ja) | 局所異常の排除による動きベクトルフィールド生成装置およびその方法 | |
JPH08205194A (ja) | 動き補償フレーム間予測装置 | |
CN109191498B (zh) | 基于动态记忆和运动感知的目标检测方法及系统 | |
CN109740563B (zh) | 一种面向视频监控的运动目标检测方法 | |
CN110909595A (zh) | 面部动作识别模型训练方法、面部动作识别方法 | |
JPH08275180A (ja) | 輪郭符号化装置 | |
US20110091074A1 (en) | Moving object detection method and moving object detection apparatus | |
CN107646112B (zh) | 使用机器学习对眼睛图像进行校正的方法以及机器学习的方法 | |
JP2009509418A (ja) | 時間予測のための分類フィルタリング | |
JP6832252B2 (ja) | 超解像装置およびプログラム | |
JP2798120B2 (ja) | 動き補償フレーム間予測方法及び動き補償フレーム間予測装置 | |
JP2020014042A (ja) | 画質評価装置、学習装置及びプログラム | |
US20100039517A1 (en) | Film cadence detection | |
JP4563982B2 (ja) | 動き推定方法,装置,そのプログラムおよびその記録媒体 | |
KR100778116B1 (ko) | 움직임벡터 보정장치 및 보정방법 | |
CN110738699A (zh) | 一种无监督绝对尺度计算方法及系统 | |
CN110830848B (zh) | 图像插值方法、装置、计算机设备和存储介质 | |
KR102057395B1 (ko) | 기계학습 기반 비디오 보외법을 이용한 영상 생성 방법 | |
JPH0983961A (ja) | クラス予測係数の学習方法並びにクラス分類適応処理を用いた信号変換装置および方法 | |
Xiong et al. | Tanner graph based image interpolation | |
JP2007251690A (ja) | 画像処理装置および方法、学習装置および方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7161107 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |