JP2022121382A - 連写映像基盤の映像復元方法及び装置 - Google Patents
連写映像基盤の映像復元方法及び装置 Download PDFInfo
- Publication number
- JP2022121382A JP2022121382A JP2022000881A JP2022000881A JP2022121382A JP 2022121382 A JP2022121382 A JP 2022121382A JP 2022000881 A JP2022000881 A JP 2022000881A JP 2022000881 A JP2022000881 A JP 2022000881A JP 2022121382 A JP2022121382 A JP 2022121382A
- Authority
- JP
- Japan
- Prior art keywords
- anchor
- video
- image
- local features
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000000605 extraction Methods 0.000 claims abstract description 72
- 238000004590 computer program Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 21
- 238000003062 neural network model Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 230000004927 fusion Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 230000006837 decompression Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
【課題】連写映像基盤の映像復元方法及び装置を提供すること。【解決手段】連写映像ベースの映像復元方法及び装置が開示される。一実施形態によると、映像の復元方法は、連写映像セットの個別映像に基づいてアンカー映像を決定するステップと、アンカー映像セットに基づいて連写映像セットに基づいて特徴抽出ネットワークを実行するステップと、特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成するステップとを含む。【選択図】図1
Description
以下の実施形態は、連写映像基盤の映像復元方法及び装置に関する。
映像復元は、劣化状態の映像を向上した画質の映像に復元する技術である。映像復元のために、ディープラーニング基盤のニューラルネットワークを用いることができる。ニューラルネットワークは、ディープラーニングに基づいて訓練された後、非線形関係にある入力データ及び出力データを互いにマッピングすることで、目的に合わせた推論(inference)を実行することができる。このようなマッピングを生成するように訓練された能力は、神経網の学習能力に類似している。しかも、映像復元のような特化した目的のために訓練された神経網は、例えば、訓練データに含まれていない入力パターンに対しても比較的正確な出力を生成する汎化能力を有し得る。
本発明の目的は、連写映像基盤の映像復元方法及び装置を提供することにある。
一実施形態によれば、映像復元方法は、連写映像セットの個別映像に基づいてアンカー映像を決定するステップと、前記アンカー映像のアンカー情報を用いて前記連写映像セットに基づいて特徴抽出ネットワークを実行するステップと、前記特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成するステップとを含む。
一実施形態によれば、映像復元装置は、プロセッサと、前記プロセッサで実行可能な命令語を含むメモリとを含み、前記命令語が前記プロセッサで実行されると、前記プロセッサは、連写映像セットの個別映像に基づいてアンカー映像を決定し、前記アンカー映像のアンカー情報を用いて前記連写映像セットに基づいて特徴抽出ネットワークを実行し、前記特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成する。
一実施形態によれば、電子装置は、連写映像セットを生成するカメラと、前記連写映像セットの個別映像に基づいてアンカー映像を決定し、前記アンカー映像のアンカー情報を用いて前記連写映像セットに基づいて特徴抽出ネットワークを実行し、前記特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成するプロセッサとを含む。
本発明によると、連写映像基盤の映像復元方法及び装置を提供することができる。
本明細書で開示する特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示したものであり、実施形態は様々な異なる形態で実施され、本発明は本明細書で説明した実施形態に限定されるものではなく、本発明の範囲は、実施形態で説明した技術的な思想に含まれている変更、均等物、または代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、添付する図面を参照しながら実施形態を詳細に説明する。添付図面を参照して説明するにおいて、図面符号に関係なく同一の構成要素には同一の参照符号を付与し、これに対する重複する説明は省略することにする。
図1は、一実施形態に係る映像復元装置の動作を概略的に示す。図1を参照すると、映像復元装置(image restoration apparatus)100は、連写映像セット(burst images set)101を受信し、連写映像セット101に基づいて復元映像102を生成し、復元映像102を出力する。連写映像セット101は、カメラ(図示せず)によって生成されてもよい。連写映像セット101は、連続的に撮影された複数の映像を含んでもよい。例えば、連写映像セット101は、ビデオ撮影機能を介して生成されたビデオ映像、又は連写撮影機能を介して生成された連続的なスチール映像であってもよい。連写映像セット101の複数映像の各映像は、個別映像と称されてもよい。ビデオの場合、各映像フレームが個別映像に該当し、連写撮影映像の場合、各スチール映像が個別映像に該当する。
カメラを用いて対象オブジェクトを撮影し、連写映像セット101を生成すると仮定すれば、カメラ及び/又は対象オブジェクトの動き、及び/又は周辺光の変化(例えば、照度、色など)などにより連写映像セット101の各個別映像は互いに異なる特性を有してもよい。連写映像セット101が低照度環境のように劣悪な環境で撮影され、及び/又は各個別映像が劣化された画質を有する場合、各個別映像の様々な特性を適切に組み合わせることによって、向上した画質を有する復元映像102を導出することができる。従って、低い画質の個別映像に対する復元作業を通じて高画質の復元映像102を導出することができる。
カメラ及び/又は対象オブジェクトの動きに応じて各個別映像でオブジェクトの位置が変わるため、各個別映像の中心線を整列させ、各個別映像のオブジェクトをマッチングさせる先行作業(又は前処理)が要求される。中心線は、各個別映像に表示される実際の線ではなく、個別映像を整列する基準として使用される仮想線である。このような先行作業が行われない場合には、ブラー(blur)現像がひどく現れる一方、このような先行作業を行うためには、算出量及び算出時間が大きく増加してしまう可能性がある。中心線の整列作業は反復的な処理を必要とするため、個別映像の数が多くなるほど、このような算出量及び算出時間の増加はより増加する。
映像復元装置100は、連写映像セット101の個別映像に基づいてアンカー映像(anchor image)を決定し、アンカー映像のアンカー情報を用いてニューラルネットワークモデルを実行して復元映像102を生成することができる。例えば、アンカー情報を用いて復元映像102を生成する動作は、映像復元過程において、アンカー情報を繰り返し利用(例えば、強調)してアンカー情報を中心に復元映像102を生成する動作を含んでもよい。このような映像復元装置100の映像リセット動作は、中心線に代替してアンカー映像のアンカー情報を基準として提供するため、中心線の整列作業なくても向上した画質の復元映像102を導き出すことができる。中心線の整列作業が不要であるため、映像復元のための算出量及び算出時間が減少し、個別映像の数により算出量及び算出時間が大きく増加する傾向も解消されることができる。
映像復元装置100は、連写映像セット101の個別映像のうちアンカー映像を選択したり、又は個別映像の映像情報を用いてアンカー映像を生成してもよい。例えば、映像復元装置100は、品質基盤の選択、時間区間基盤の選択、又は、任意の選択に基づいて個別映像のうちアンカー映像を選択してもよい。これとは異なり、映像復元装置100は、映像品質などの基準に基づいて個別映像に加重値を付与し、該当加重値を個別映像に適用してアンカー映像を生成してもよい。
映像復元装置100は、連写映像セット101に基づいてニューラルネットワークモデルを実行して復元映像102を生成する。例えば、ニューラルネットワークモデルは、連写映像セット101の個別映像から特徴を抽出する特徴抽出ネットワーク及び抽出された特徴を復元映像540に変換する映像復元ネットワークを含んでもよい。特徴抽出ネットワーク及び映像復元ネットワークそれぞれの少なくとも一部は、複数のレイヤを含むディープニューラルネットワーク(deep neural network、DNN)に該当する。ここで、複数のレイヤは入力層(input layer)、少なくとも1つの隠れ層(hidden layer)、及び出力層(output layer)を含んでもよい。
ディープニューラルネットワークは、全結合ネットワーク(fully connected network、FCN)、畳み込みニューラルネットワーク(convolutional neural network、CNN)、及びリカレントニューラルネットワーク(recurrent neural network、RNN)のうち少なくとも1つを含んでもよい。例えば、ニューラルネットワーク内の複数のレイヤのうち少なくとも一部はCNNであり、他の一部はFCNである。この場合、CNNは畳み込みレイヤと称されてもよく、FCNは全結合ネットワークと称されてもよい。
CNNの場合、各レイヤに入力されるデータは入力特徴マップと称され、各レイヤから出力されるデータは、出力特徴マップ(output feature map)と称される。入力特徴マップ及び出力特徴マップは、活性化データ(activation data)と称されてもよい。畳み込みレイヤが入力層に該当する場合、入力層の入力特徴マップは入力映像である。
ニューラルネットワークは、ディープラーニングに基づいてトレーニングされた後、非線形関係にある入力データ及び出力データを互いにマッピングすることで、トレーニング目的に適する推論を実行することができる。ディープラーニングは、ビッグデータセットを利用して映像又は音声認識のような問題を解決するための機械学習方式である。ディープラーニングは、準備されたトレーニングデータを用いてニューラルネットワークをトレーニングし、エネルギーが最小化される地点を求める最適化問題過程として理解される。
ディープラーニングの教師あり(supervised)又は教師なし(unsupervised)学習を介してニューラルネットワークの構造、又はモデルに対応するウェイトが求められ、このようなウェイトを介して入力データ及び出力データを互いにマッピングすることができる。ニューラルネットワークの幅及び深さが十分に大きければ、任意の関数を実現する能力を有することができる。ニューラルネットワークが適切なトレーニング過程を介して十分に多い量のトレーニングデータを学習すれば、最適な性能を達成することができる。
以下で、ニューラルネットワークは「予め」トレーニングされたものと表現するが、ここで、「予め」という用語はニューラルネットワークが「開始」される前を示す。ニューラルネットワークが「開始」されたということは、ニューラルネットワークが推論のための準備ができたことを意味する。例えば、ニューラルネットワークが「開始」されたということは、ニューラルネットワークがメモリにロードされたこと、又は、ニューラルネットワークがメモリにロードされた後、ニューラルネットワークに推論のための入力データが入力されたことを含んでもよい。
映像復元装置100は、アンカー映像のアンカー情報を用いてニューラルネットワークモデルを実行することができる。例えば、映像復元装置100は、入力映像をニューラルネットワークモデルに入力する動作、ニューラルネットワークモデルを用いて入力映像で特徴を抽出する動作、抽出された特徴を出力する動作のうち少なくとも1つを行うことにおいてアンカー情報を強調することができる。例えば、アンカー情報は、アンカー映像の映像情報及び/又はアンカー映像から抽出された特徴情報を含んでもよい。このようなアンカー情報は、映像復元のための幾何学的基準を提供する。従って、中心線の整列がなくても、対応位置の映像情報が互いに組み合せわせることができ、これによりブラーの発生が抑制されて映像品質を向上することができる。
図2~図4は、様々な実施形態に係るアンカー映像を選択する動作を示す。図2を参照すると、映像復元装置は、連写映像セット210の複数の個別映像211~216のうちアンカー映像220を選択してもよい。例えば、映像復元装置は、映像品質を基準としてアンカー映像220を選択してもよい。具体的に、映像復元装置は、ノイズ(noise)、ブラー(blur)、SNR(signal-to-noise ratio)、及び尖鋭度(sharpness)のうち少なくとも1つに基づいて個別映像211~216それぞれの品質を決定し、品質が最も優れる映像をアンカー映像220として選択してもよい。映像復元装置は、このような品質を算出するためのディープラーニングネットワーク及び/又は算出モジュールを用いることができる。
異なる例として、映像復元装置は、映像順序を基準にしてアンカー映像220を選択してもよい。具体的に、個別映像211~216は、一連の順に撮影されてもよく、映像復元装置はこのうち最初の個別映像211をアンカー映像220として選択してもよい。他の例として、映像復元装置は、個別映像211~216のうち任意の映像をアンカー映像220として選択してもよい。アンカー映像220は、映像復元のための基準を提供するため、アンカー映像220の品質が高くなくても、個別映像211~216の映像情報を介して映像品質が向上されるためである。
図3を参照すると、映像復元装置は、決定された時間区間の個別映像のうちアンカー映像320を選択することができる。例えば、第1時間区間331は、撮影の開始時点から一定の時間をカバーし、映像復元装置は、第1時間区間331でアンカー映像320を選択してもよい。これとは異なり、複数の時間区間が使用されてもよい。例えば、第2時間区間332及び第3時間区間333は、互いに異なる撮影時間をカバーし、映像復元装置は、第2時間区間332及び第3時間区間333からアンカー映像320を選択してもよい。
図4を参照すると、映像復元装置は、連写映像セット410に対する加重値セット420を決定し、連写映像セット410の個別映像411~416に加重値W41~W46を適用してアンカー映像430を生成することができる。例えば、映像復元装置は、個別映像411~416の映像品質に基づいて加重値W41~W46を決定し、加重値W41~W46により個別映像411~416の映像情報を反映してアンカー映像430を生成することができる。ここで、加重値が高い映像であるほど、アンカー映像430に多くの映像情報を提供することができる。
図5は、一実施形態に係るアンカー情報を用いて復元映像を生成する動作を示す。図5を参照すると、映像復元装置は、連写映像セット520の個別映像521~524に基づいてアンカー映像を決定し、アンカー情報530を強調してニューラルネットワークモデル510を実行して復元映像540を生成することができる。連写映像セット520は個別映像521~524を含んでもよく、映像復元装置は、様々な基準により個別映像521~524に基づいてアンカー映像を決定することができる。図5は、個別映像521がアンカー映像に選択された例示を示す。以下、個別映像521~524が4個である例示について説明するが、個別映像521~524は4個より多いか、又は4個よりも少なくてもよい。
映像復元装置は、個別映像521~524をニューラルネットワークモデル510に順次入力し、アンカー情報530を強調してニューラルネットワークモデル510を実行する。例えば、映像復元装置は、個別映像521~524をニューラルネットワークモデル510に入力する動作、ニューラルネットワークモデル510を用いて個別映像521~524から特徴を抽出する動作、抽出された特徴を出力する動作のうち少なくとも1つを行うことにおいて、アンカー情報530を強調することができる。アンカー情報530は、アンカー映像の映像情報及び/又はアンカー映像から抽出された特徴情報を含んでもよい。
ニューラルネットワークモデル510は、特徴抽出ネットワーク511及び映像復元ネットワーク512を含むことができる。特徴抽出ネットワーク511は、個別映像521~524の入力により個別映像521~524から特徴を抽出する。例えば、特徴抽出ネットワーク511は、個別映像521~524からローカル特徴を抽出し、ローカル特徴からグローバル特徴を抽出してもよい。映像復元ネットワーク512は、抽出された特徴を復元映像540に変換する。特徴抽出ネットワーク511は、映像情報を特徴情報に変換するエンコーダに該当し、映像復元ネットワーク512は、特徴情報を映像情報に変換するデコーダに該当する。
図6は、一実施形態に係るニューラルネットワークモデルに関する構成及び動作を示す。図6を参照すると、特徴抽出ネットワーク610は、ローカル特徴抽出器611及びグローバル特徴抽出器612を含むことができる。ローカル特徴抽出器611は、連写映像セット620の各個別映像からローカル特徴を抽出し、グローバル特徴抽出器612は、ローカル特徴からグローバル特徴を抽出する。映像復元ネットワーク640は、グローバル特徴を復元映像650に変換する。特徴抽出ネットワーク610及び映像復元ネットワーク640は、ニューラルネットワークを含んでもよく、抽出動作及び変換動作を行うように予めトレーニングされてもよい。
映像復元装置は、アンカー情報630を繰り返し利用及び/又は強調して特徴抽出ネットワーク610を実行することができる。例えば、映像復元装置は、個別映像を特徴抽出ネットワーク610に入力する動作、特徴抽出ネットワーク610を用いて個別映像から特徴を抽出する動作、抽出された特徴を出力する動作のうち少なくとも1つを行うことにおいて、アンカー情報630を強調することができる。以下、アンカー情報630の利用に関する動作をより具体的に説明する。
図7は、一実施形態に係る入力映像の入力過程でアンカー情報を利用する動作を示す。図7を参照すると、映像復元装置は、個別映像721~724を特徴抽出ネットワークに入力する過程でアンカー映像のアンカー情報を利用することができる。ここで、特徴抽出ネットワークは、ローカル特徴抽出器に該当する。図7は、個別映像721をアンカー映像であると仮定し、映像復元装置は、個別映像721の映像情報をアンカー情報として個別映像721~724と融合することができる。
例えば、融合は、連結(concatenation)及び/又は加算(addition)を含んでもよい。連結は、各エレメントを結び付けることであり、加算は、各エレメントを合計したものである。従って、連結は、ディメンション(dimension)に影響を与える一方、加算は、ディメンションに影響を与えない。連結は、チャネル方向に行われてもよい。例えば、個別映像721~724のそれぞれが、W×H×Cのディメンションを有する場合、連結結果は、W×H×2Cのディメンションを有する可能性がある一方、加算結果は、W×H×Cのディメンションを有する。
映像復元装置は、融合結果を入力映像として特徴抽出ネットワークに入力することができ、そのため、ローカル特徴抽出動作711~714を行うことができる。例えば、映像復元装置は、個別映像721とアンカー映像情報の融合結果を特徴抽出ネットワークに入力してローカル特徴抽出動作711を行い、その結果、ローカル特徴マップ731を取得することができる。同様に、残りの個別映像722~724とアンカー映像情報の融合結果を特徴抽出ネットワークに順次入力してローカル特徴抽出動作712~714を行い、その結果、ローカル特徴マップ734を取得することができる。
図8は、一実施形態に係る出力特徴マップの出力過程でアンカー情報を利用する動作を示す。図8を参照すると、映像復元装置は、グローバル特徴抽出動作840を介してローカル特徴マップ831~834からグローバル特徴マップ850を抽出し、グローバル特徴マップ850を出力する過程で、アンカー映像のアンカー情報を利用することができる。映像復元装置は、特徴抽出ネットワークを用いてグローバル特徴抽出動作840を行ってもよい。ここで、特徴抽出ネットワークは、グローバル特徴抽出器に該当する。図8は、ローカル特徴マップ831がアンカー映像から抽出されたものと仮定し、映像復元装置は、ローカル特徴マップ831の特徴情報をアンカー情報としてグローバル特徴マップ850と融合することができる。ここで、融合は連結及び/又は加算を含んでもよい。融合結果は、特徴抽出ネットワークの出力特徴マップに該当し、映像復元装置は、映像復元ネットワークを用いて出力特徴マップを復元映像に変換することができる。
図9は、一実施形態に係るグローバル特徴の抽出過程でアンカー情報を利用する動作を示す。図9を参照すると、映像復元装置は、グローバル特徴抽出動作940を介してローカル特徴マップ931~934からグローバル特徴マップ950を抽出し、この過程でアンカー映像のアンカー情報をガイド情報として利用してもよい。図9は、ローカル特徴マップ931がアンカー映像から抽出されたものと仮定し、映像復元装置は、ローカル特徴マップ931の特徴情報をアンカー情報、さらに、ガイド情報として利用してもよい。例えば、ローカル特徴マップ931は、アンカーローカル特徴、ローカル特徴マップ932~934は、周辺ローカル特徴とすれば、映像復元装置は、周辺ローカル特徴よりもアンカーローカル特徴に高い加重値を付与してグローバル特徴抽出動作940を行うことができる。そのため、周辺ローカル特徴に比べてアンカーローカル特徴の情報がグローバル特徴マップ950により多くの影響を与えることができる。
図10は、図9に示す動作の例示を示す。図9に示すように、アンカー情報をガイド情報として利用するために様々な加重値付与方式を用いてもよい。図10は、加重値付与動作1040及び加重融合1060の動作によりアンカー情報を強調する方式である。このような方式は、映像復元のための幾何学的な基準に該当するアンカー情報を強調するため、マックスプーリング(max pooling)、平均プーリング(average pooling)のようなプーリング動作を行っており、ローカル特徴からグローバル特徴を抽出する方式に比べて、対応する映像情報を組み合わせるために、より一層効果的である。図10を参照すると、映像復元装置は、ローカル特徴マップ1031~1034のそれぞれに互いに異なる加重値を付与してもよい。映像復元装置は、加重値セット1050を考慮してローカル特徴マップ1031~1034を互いに融合し、このような加重融合動作1060の結果としてグローバル特徴マップ1070を生成することができる。例えば、映像復元装置は、ソフトマックス(Softmax)を介してローカル特徴マップ1034~1034に加重値W101~W104を付与し、加重値W101~W104を考慮してローカル特徴マップ1034~1034を加算してグローバル特徴マップ1070を生成することができる。
アンカー映像からローカル特徴マップ1031が抽出され、他の個別映像からローカル特徴マップ1032~1034が抽出されたと仮定する。この場合、映像復元装置は、ローカル特徴マップ1032~1034の加重値W102~W104に比べてローカル特徴マップ1031の加重値W101をさらに高く設定してもよい。そのため、ローカル特徴マップ1031の特徴情報を介してアンカー情報が強調されてもよい。これとは異なり、映像復元装置は、ローカル特徴マップ1031とローカル特徴マップ1032~1034それぞれ間の類似度を決定し、ローカル特徴マップ1031だけでなく、ローカル特徴マップ1031に類似の異なる特徴マップにも高い加重値を付与してもよい。具体的に、ローカル特徴マップ1032は、ローカル特徴マップ1031と類似度が高く、ローカル特徴マップ1033,1034は、ローカル特徴マップ1031と類似度が低かったとすると、映像復元装置は、ローカル特徴マップ1033,1034の加重値W103、W104に比べて、ローカル特徴マップ1031,1032の加重値W101、W102をさらに高く設定してもよい。そのため、ローカル特徴マップ1031,1032の特徴情報を介してアンカー情報を強調することができる。
図11は、一実施形態に係るローカル特徴の抽出過程でアンカー情報を利用する動作を示す。図11を参照すると、映像復元装置は、ローカル特徴抽出動作1110~1140を介して連写映像セット1050の個別映像1151~1154からローカル特徴マップ1131~1134を抽出してもよい。映像復元装置は、ローカル特徴マップ1131~1134の抽出過程でアンカー情報を強調することができる。例えば、映像復元装置は、個別映像1151をアンカー映像として選択し、個別映像1151に基づいてアンカー情報1101を生成する。アンカー情報1101は、個別映像1151の映像情報及び/又は特徴情報を含んでもよい。
特徴抽出ネットワーク(例えば、ローカル特徴抽出器)は、複数のレイヤを含んでもよく、複数のレイヤはそれぞれ数個のレイヤを含むレイヤグループに分類されてもよい。例えば、各レイヤグループは、畳み込みレイヤ及び/又はプーリングレイヤを含んでもよい。映像復元装置は、アンカー情報を特徴抽出ネットワークの複数のレイヤグループごとに用いてローカル特徴を抽出してもよい。映像復元装置は、各レイヤグループによってローカル特徴を抽出し、抽出されたローカル特徴にアンカー情報1101を融合する。映像復元装置は、このような過程を全てのレイヤグループに繰り返してローカル特徴マップ1131~1034を生成することができる。
具体的に、映像復元装置は、第1レイヤグループを用いた特徴抽出動作1111を介して個別映像1151から1次ローカル特徴を抽出し、1次ローカル特徴にアンカー情報1101を融合して1次ローカル特徴を変形してもよい。映像復元装置は、第2レイヤグループを用いた特徴抽出動作1112を介して変形された1次ローカル特徴から2次ローカル特徴を抽出し、2次ローカル特徴にアンカー情報1101を融合して2次ローカル特徴を変形してもよい。また、映像復元装置は、第3レイヤグループを用いた特徴抽出動作1113を介して変形された2次ローカル特徴から3次ローカル特徴を抽出し、3次ローカル特徴にアンカー情報1101を融合して3次ローカル特徴を変形してもよい。最後のレイヤグループを用いた特徴抽出動作1115が完了すると、その結果として、ローカル特徴マップ1131が生成される。残りの個別映像1152~1154に関する残りのローカル特徴抽出動作1120~1140は、個別映像1151に関するローカル特徴動作1110に同様に対応しており、その結果、ローカル特徴マップ1132~1034を生成することができる。
ここで、映像復元装置は、各レイヤグループの出力に同じアンカー情報1101を融合したり、又は各レイヤグループに特化したアンカー情報1101を融合したりしてもよい。まず、共通のアンカー情報1101を通した融合について説明する。共通のアンカー情報1101は、アンカー映像の映像情報及び/又は特徴情報であってもよい。ここで、特徴情報を取得するために、アンカー映像から特徴を抽出する動作が先行して実行されてもよい。例えば、この先行した動作は、ローカル特徴抽出動作1110~1140のために使用される特徴抽出ネットワーク(例えば、図5に示す特徴抽出ネットワーク511、図6に示すローカル特徴抽出器611)を用いたり、又は別に備えられた特徴抽出ネットワークを用いたりして実行されてもよい。このように共通の映像情報及び/又は特徴情報が備えられると、ローカル特徴抽出動作1110~11040による各レイヤグループの出力、言い換えれば、ローカル特徴に融合されることができる。
次に、特化したアンカー情報1101を通した融合について説明する。特化したアンカー情報1101は、共通のアンカー情報1101とは異なり、各レイヤグループに合うように加工された情報であってもよい。特化したアンカー情報1101は、各レイヤグループによって抽出されたアンカー映像の段階的ローカル特徴を含んでもよい。例えば、第1レイヤグループ~第3レイヤグループによってアンカー映像の第1ローカル特徴~第3ローカル特徴が抽出された場合、第1ローカル特徴~第3ローカル特徴が第1レイヤグループ~第3レイヤグループに特化したアンカー情報1101として用いられる。そのため、特徴抽出動作1111,1121を介して抽出されたローカル特徴それぞれに第1ローカル特徴が融合し、特徴抽出動作1112,1122を介して抽出されたローカル特徴それぞれに第2ローカル特徴が融合し、特徴抽出動作1113,1123を介して抽出されたローカル特徴それぞれに第3ローカル特徴が融合したものとすることができる。
図12は、一実施形態に係る映像リセット動作を示すフローチャートである。図12を参照すると、ステップS1210において、映像復元装置は、連写映像セットの個別映像に基づいてアンカー映像を決定する。映像復元装置は、個別映像の品質に基づいて個別映像のうちアンカー映像を選択してもよい。また、映像復元装置は、個別映像のうち任意の映像をアンカー映像として選択してもよい。
ステップS1220において、映像復元装置は、アンカー映像のアンカー情報を用いて連写映像セットに基づいて特徴抽出ネットワークを実行する。映像復元装置は、特徴抽出ネットワークの第1レイヤグループを用いて個別映像のうち第1個別映像から1次ローカル特徴を抽出し、1次ローカル特徴にアンカー情報を融合して1次ローカル特徴を変形し、特徴抽出ネットワークの第2レイヤグループを用いて、変形された1次ローカル特徴から2次ローカル特徴を抽出してもよい。また、映像復元装置は、2次ローカル特徴にアンカー情報を融合して2次ローカル特徴を変形し、特徴抽出ネットワークの第3レイヤグループを用いて変形された2次ローカル特徴から3次ローカル特徴を抽出し、3次ローカル特徴に基づいてグローバル特徴を決定してもよい。
映像復元装置は、アンカー映像からアンカーローカル特徴を抽出し、個別映像のうちアンカー映像以外の他の映像からローカル特徴を抽出し、アンカーローカル特徴を用いてアンカーローカル特徴及び他の映像のローカル特徴からグローバル特徴を抽出することができる。ここで、映像復元装置は、他の映像のローカル特徴よりアンカーローカル特徴に高い加重値を付与し、アンカーローカル特徴及び他の映像のローカル特徴からグローバル特徴を抽出することができる。
映像復元装置は、アンカー映像からアンカーローカル特徴を抽出し、個別映像のうちアンカー映像以外の他の映像からローカル特徴を抽出し、アンカーローカル特徴及び他の映像のローカル特徴からグローバル特徴を抽出し、グローバル特徴にアンカーローカル特徴を融合することができる。また、映像復元装置は、個別映像それぞれにアンカー情報を融合してニューラルネットワークモデルの入力映像を生成することができる。
ステップS1230において、映像復元装置は、特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成する。ここで、映像復元装置は、特徴マップに基づいて映像復元ネットワークを実行してもよい。その他に、映像復元方法には、図1~図11の説明が適用され得る。
図13は、一実施形態に係る映像復元装置の構成を示すブロック図である。図13を参照すると、映像復元装置1300は、プロセッサ1310及びメモリ1320を含む。メモリ1320は、プロセッサ1310に接続され、プロセッサ1310によって実行可能な命令語、プロセッサ1310が演算するデータ又はプロセッサ1310によって処理されたデータを格納する。メモリ1320は、非一時的なコンピュータで読み出し可能な記録媒体、例えば、高速ランダムアクセスメモリ及び/又は非揮発性コンピュータで読み出し可能な格納媒体(例えば、1つ以上のディスク格納装置、フラッシュメモリ装置、又は、その他の不揮発性固体メモリ装置)を含んでもよい。
プロセッサ1310は、図1~図12を参照して説明された動作を行うための命令語を実行する。例えば、プロセッサ1310は、連写映像セットの個別映像に基づいてアンカー映像を決定し、アンカー映像のアンカー情報を用いて連写映像セットに基づいて特徴抽出ネットワークを実行し、特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成する。その他に、映像復元装置1300の詳細については図1~図12の説明が適用され得る。
図14は、一実施形態に係る電子装置の構成を示すブロック図である。図14を参照すると、電子装置1400は、プロセッサ1410、メモリ1420、カメラ1430、格納装置1440、入力装置1450、出力装置1460及びネットワークインターフェース1470を含んでもよく、これらは通信バス1480を介して通信することができる。例えば、電子装置1400は、移動電話、スマートフォン、PDA、ネットブック、タブレットコンピュータ、ラップトップコンピュータなどのようなモバイル装置、スマートウォッチ、スマートバンド、スマートメガネなどのようなウェアラブルデバイス、デスクトップ、サーバなどのようなコンピューティング装置、テレビ、スマートテレビ、冷蔵庫などのような家電製品、ドアラックなどのようなセキュリティー装置、自律走行車両、スマート車両などのような車両の少なくとも一部として実現されることができる。電子装置1400は、図1に示す映像復元装置100及び/又は図13に示す映像復元装置1300を構造的及び/又は機能的に含むことができる。
プロセッサ1410は、電子装置1400内で実行するための機能及び命令語を実行する。例えば、プロセッサ1410は、メモリ1420又は格納装置1440に格納された命令語を処理する。プロセッサ1410は、図1~図13を参照して説明された1つ以上の動作を行ってもよい。メモリ1420は、コンピュータで読み出し可能な格納媒体又はコンピュータで読み出し可能な格納装置を含んでもよい。メモリ1420は、プロセッサ1410によって実行するための命令語を格納し、電子装置1400によりソフトウェア及び/又はアプリケーションが実行される間に関連情報を格納する。
カメラ1430は、写真及び/又はビデオを撮影する。カメラ1430は、写真を連続的に撮影したり、ビデオを撮影して連写映像セットを生成したりしてもよい。連写映像セットが連続的な写真である場合、連写映像セットの各個別映像は各写真に該当し、連写映像セットがビデオである場合、連写映像セットの各個別映像はビデオの各映像フレームに該当する。格納装置1440は、コンピュータで読み出し可能な格納媒体又はコンピュータで読み出し可能な格納装置を含む。格納装置1440は、メモリ1420よりもさらに多い量の情報を格納し、情報を長期間格納することができる。例えば、格納装置1440は、磁気ハードディスク、光ディスク、フラッシュメモリ、フロッピーディスク又はが技術分野で知られた他の形態の不揮発性メモリを含んでもよい。
入力装置1450は、キーボード及びマウスを通した伝統的な入力方式、及びタッチ入力、音声入力、及びイメージ入力のような新しい入力方式を介してユーザから入力を受信することができる。例えば、入力装置1450は、キーボード、マウス、タッチスクリーン、マイクロホン、又は、ユーザから入力を検出し、検出された入力を電子装置1400に伝達できる任意の他の装置を含んでもよい。出力装置1460は、視覚的、聴覚的又は触覚的なチャネルを介してユーザに電子装置1400の出力を提供することができる。出力装置1460は、例えば、ディスプレイ、タッチスクリーン、スピーカ、振動発生装置、又はユーザに出力を提供できる任意の他の装置を含んでもよい。ネットワークインターフェース1470は、有線又は無線ネットワークを介して外部装置と通信することができる。
以上で説明した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを行うことができる。また、処理装置は、ソフトウェアの実行に応答てデータをアクセス、格納、操作、処理及び生成することもできる。理解の利便のために、処理装置は、1つが使用されるものと説明される場合もあるが、当該技術分野において通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び又は複数のタイプの処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサ又は一のプロセッサ及び一つのコントローラを含んでもよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、意図された通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令したりすることができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。
上記で説明したハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められる。
Claims (20)
- 連写映像セットの個別映像に基づいてアンカー映像を決定するステップと、
前記アンカー映像のアンカー情報を用いて前記連写映像セットに基づいて特徴抽出ネットワークを実行するステップと、
前記特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成するステップと、
を含む映像復元方法。 - 前記アンカー映像を決定するステップは、品質基盤の選択、時間区間基盤の選択、又は、任意の選択に基づいて前記個別映像のうち前記アンカー映像を選択するステップを含む、請求項1に記載映像復元方法。
- 前記アンカー映像を決定するステップは、前記個別映像に加重値を適用して前記アンカー映像を生成するステップを含む、請求項1に記載映像復元方法。
- 前記アンカー情報は、前記アンカー映像の映像情報及び前記アンカー映像の特徴情報のうち少なくとも1つを含む、請求項1~請求項3の何れか1項に記載映像復元方法。
- 前記個別映像それぞれに前記アンカー情報を融合して前記特徴抽出ネットワークの入力映像を生成するステップをさらに含む、請求項1~請求項4の何れか1項に記載映像復元方法。
- 前記特徴抽出ネットワークを実行するステップは、
前記アンカー映像からアンカーローカル特徴を抽出するステップと、
前記個別映像のうち前記アンカー映像以外の他の映像からローカル特徴を抽出するステップと、
前記アンカーローカル特徴及び前記他の映像のローカル特徴からグローバル特徴を抽出するステップと、
前記グローバル特徴に前記アンカーローカル特徴を融合するステップと、
を含む、請求項1~請求項5の何れか1項に記載映像復元方法。 - 前記特徴抽出ネットワークを実行するステップは、
前記アンカー映像からアンカーローカル特徴を抽出するステップと、
前記個別映像のうち前記アンカー映像以外の他の映像からローカル特徴を抽出するステップと、
前記アンカーローカル特徴を用いて、前記アンカーローカル特徴及び前記他の映像のローカル特徴からグローバル特徴を抽出するステップと、
を含む、請求項1~請求項5の何れか1項に記載映像復元方法。 - 前記グローバル特徴を抽出するステップは、前記他の映像のローカル特徴よりも前記アンカーローカル特徴に高い加重値を付与し、前記アンカーローカル特徴及び前記他の映像のローカル特徴から前記グローバル特徴を抽出するステップを含む、請求項7に記載映像復元方法。
- 前記特徴抽出ネットワークを実行するステップは、前記アンカー情報を前記特徴抽出ネットワークの複数のレイヤグループごとに用いてローカル特徴を抽出するステップを含む、請求項1~請求項5の何れか1項に記載映像復元方法。
- 前記ローカル特徴を抽出するステップは、
前記複数のレイヤグループの第1レイヤグループを用いて、前記個別映像のうち第1個別映像から1次ローカル特徴を抽出するステップと、
前記1次ローカル特徴に前記アンカー情報を融合して前記1次ローカル特徴を変形するステップと、
前記複数のレイヤグループの第2レイヤグループを用いて、前記変形された1次ローカル特徴から2次ローカル特徴を抽出するステップと、
前記2次ローカル特徴に基づいてグローバル特徴を決定するステップと、
を含む、請求項9に記載映像復元方法。 - 前記復元映像を生成するステップは、前記特徴マップに基づいて映像復元ネットワークを実行するステップを含む、請求項1~請求項10の何れか1項に記載映像復元方法。
- ハードウェアと結合して請求項1~請求項11の何れか1項に記載の方法を実行させるためにコンピュータで読み出し可能な記録媒体に格納されたコンピュータプログラム。
- プロセッサと、
前記プロセッサで実行可能な命令語を含むメモリと、
を含み、
前記命令語が前記プロセッサで実行されると、前記プロセッサは、
連写映像セットの個別映像に基づいてアンカー映像を決定し、
前記アンカー映像のアンカー情報を用いて前記連写映像セットに基づいて特徴抽出ネットワークを実行し、
前記特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成する、映像復元装置。 - 前記プロセッサは、品質基盤の選択、時間区間基盤の選択、又は、任意の選択に基づいて前記個別映像のうち前記アンカー映像を選択し、
前記個別映像に加重値を適用して前記アンカー映像を生成する、請求項13に記載の映像復元装置。 - 前記プロセッサは、
前記アンカー映像からアンカーローカル特徴を抽出し、
前記個別映像のうち前記アンカー映像以外の他の映像からローカル特徴を抽出し、
前記アンカーローカル特徴を用いて前記アンカーローカル特徴及び前記他の映像のローカル特徴からグローバル特徴を抽出する、請求項13又は請求項14に記載の映像復元装置。 - 前記プロセッサは、前記アンカー情報を前記特徴抽出ネットワークの複数のレイヤグループごとに用いてローカル特徴を抽出する、請求項13~請求項15の何れか1項に記載の映像復元装置。
- 連写映像セットを生成するカメラと、
前記連写映像セットの個別映像に基づいてアンカー映像を決定し、
前記アンカー映像のアンカー情報を用いて前記連写映像セットに基づいて特徴抽出ネットワークを実行し、
前記特徴抽出ネットワークの出力に対応する特徴マップに基づいて復元映像を生成するプロセッサと、
を含む電子装置。 - 前記プロセッサは、品質基盤の選択、時間区間基盤の選択、又は、任意の選択に基づいて前記個別映像のうち前記アンカー映像を選択し、
前記個別映像に加重値を適用して前記アンカー映像を生成する、請求項17に記載の電子装置。 - 前記プロセッサは、
前記アンカー映像からアンカーローカル特徴を抽出し、
前記個別映像のうち前記アンカー映像以外の他の映像からローカル特徴を抽出し、
前記アンカーローカル特徴を用いて前記アンカーローカル特徴及び前記他の映像のローカル特徴からグローバル特徴を抽出する、請求項17又は請求項18に記載の電子装置。 - 前記プロセッサは、前記アンカー情報を前記特徴抽出ネットワークの複数のレイヤグループごとに用いてローカル特徴を抽出する、請求項17~請求項19の何れか1項に記載の電子装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0017439 | 2021-02-08 | ||
KR1020210017439A KR20220114209A (ko) | 2021-02-08 | 2021-02-08 | 연사 영상 기반의 영상 복원 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022121382A true JP2022121382A (ja) | 2022-08-19 |
Family
ID=78598852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022000881A Pending JP2022121382A (ja) | 2021-02-08 | 2022-01-06 | 連写映像基盤の映像復元方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US12086212B2 (ja) |
EP (1) | EP4040378A1 (ja) |
JP (1) | JP2022121382A (ja) |
KR (1) | KR20220114209A (ja) |
CN (1) | CN114913078A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7508525B2 (ja) | 2022-10-21 | 2024-07-01 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220114209A (ko) * | 2021-02-08 | 2022-08-17 | 삼성전자주식회사 | 연사 영상 기반의 영상 복원 방법 및 장치 |
KR20240022304A (ko) * | 2022-08-11 | 2024-02-20 | 삼성전자주식회사 | 기준 이미지 프레임의 동적 선택을 위한 시스템 및 방법 |
KR20240107987A (ko) * | 2022-12-30 | 2024-07-09 | 주식회사 픽스트리 | 동영상의 객체 시퀀스를 복원하는 장치 및 방법 |
CN118314413B (zh) * | 2024-06-11 | 2024-09-10 | 北京蓝耘科技股份有限公司 | 一种gpu输出数据交互传输方法、系统及存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4752941B2 (ja) | 2009-03-31 | 2011-08-17 | カシオ計算機株式会社 | 画像合成装置及びプログラム |
KR101894531B1 (ko) | 2012-02-16 | 2018-09-04 | 삼성전자 주식회사 | 카메라의 연속 촬영 장치 및 방법. |
KR101948692B1 (ko) | 2012-10-09 | 2019-04-25 | 삼성전자주식회사 | 촬영 장치 및 이미지 합성 방법 |
KR102065362B1 (ko) | 2013-05-14 | 2020-01-13 | 삼성전자주식회사 | 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법 |
US8957984B2 (en) * | 2013-06-30 | 2015-02-17 | Konica Minolta Laboratory U.S.A., Inc. | Ghost artifact detection and removal in HDR image processsing using multi-scale normalized cross-correlation |
KR102145201B1 (ko) * | 2013-08-12 | 2020-08-18 | 삼성전자주식회사 | 이미지의 동적 범위 향상을 위한 방법 및 장치 |
JP6214426B2 (ja) | 2014-02-24 | 2017-10-18 | アイホン株式会社 | 物体検出装置 |
KR101437920B1 (ko) | 2014-07-04 | 2014-11-04 | 세안기술 주식회사 | 카메라 이미지를 이용한 진동변위 측정 시 카메라 흔들림 보정방법 |
US9665927B2 (en) | 2015-06-03 | 2017-05-30 | Samsung Electronics Co., Ltd. | Method and apparatus of multi-frame super resolution robust to local and global motion |
KR101590467B1 (ko) | 2015-12-04 | 2016-02-05 | 세안기술 주식회사 | 영상을 이용한 배관누설검출시스템의 배관누설검출방법 |
US9762893B2 (en) | 2015-12-07 | 2017-09-12 | Google Inc. | Systems and methods for multiscopic noise reduction and high-dynamic range |
US10719927B2 (en) * | 2017-01-04 | 2020-07-21 | Samsung Electronics Co., Ltd. | Multiframe image processing using semantic saliency |
US10535156B2 (en) | 2017-02-03 | 2020-01-14 | Microsoft Technology Licensing, Llc | Scene reconstruction from bursts of image data |
KR101959062B1 (ko) | 2017-03-08 | 2019-03-18 | 주식회사유넷컨버전스 | 활주로 감시 카메라의 작동 오차 보정 방법 |
KR102061867B1 (ko) | 2018-09-10 | 2020-01-02 | 한성욱 | 이미지 생성 장치 및 그 방법 |
US11443423B2 (en) * | 2018-10-30 | 2022-09-13 | Dgnct Llc | System and method for constructing elements of interest (EoI)-focused panoramas of an oral complex |
CN109919869B (zh) * | 2019-02-28 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 一种图像增强方法、装置及存储介质 |
CN109977793B (zh) * | 2019-03-04 | 2022-03-04 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
WO2020206659A1 (en) * | 2019-04-11 | 2020-10-15 | Thunder Software Technology Co., Ltd. | Method and apparatus for combining low-dynamic range images to a single image |
US20210049474A1 (en) * | 2019-08-13 | 2021-02-18 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
KR102089500B1 (ko) | 2019-11-11 | 2020-05-26 | 공간정보기술 주식회사 | 스테레오 카메라를 탑재한 드론과 선형정보를 이용한 활주로 맵핑방법 |
US11430094B2 (en) * | 2020-07-20 | 2022-08-30 | Samsung Electronics Co., Ltd. | Guided multi-exposure image fusion |
KR20220065209A (ko) * | 2020-11-13 | 2022-05-20 | 삼성전자주식회사 | 다양한 품질의 영상을 인식하는 방법 및 장치 |
KR20220114209A (ko) * | 2021-02-08 | 2022-08-17 | 삼성전자주식회사 | 연사 영상 기반의 영상 복원 방법 및 장치 |
-
2021
- 2021-02-08 KR KR1020210017439A patent/KR20220114209A/ko active Search and Examination
- 2021-07-13 US US17/374,174 patent/US12086212B2/en active Active
- 2021-08-11 CN CN202110918797.3A patent/CN114913078A/zh active Pending
- 2021-11-10 EP EP21207598.0A patent/EP4040378A1/en active Pending
-
2022
- 2022-01-06 JP JP2022000881A patent/JP2022121382A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7508525B2 (ja) | 2022-10-21 | 2024-07-01 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4040378A1 (en) | 2022-08-10 |
US20220253642A1 (en) | 2022-08-11 |
KR20220114209A (ko) | 2022-08-17 |
US12086212B2 (en) | 2024-09-10 |
CN114913078A (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022121382A (ja) | 連写映像基盤の映像復元方法及び装置 | |
US11093805B2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
Liao et al. | DR-GAN: Automatic radial distortion rectification using conditional GAN in real-time | |
US10346726B2 (en) | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image | |
KR102421856B1 (ko) | 영상의 상호작용 처리 방법 및 장치 | |
US11663691B2 (en) | Method and apparatus for restoring image | |
JP2022503647A (ja) | クロスドメイン画像変換 | |
KR20170136588A (ko) | 공간 트랜스포머 모듈들 | |
JP2018026040A (ja) | 情報処理装置および情報処理方法 | |
WO2021063118A1 (en) | Method and apparatus for image processing | |
KR102332114B1 (ko) | 이미지 처리 방법 및 장치 | |
US20190303746A1 (en) | Multilayer neural network learning apparatus and method of controlling the same | |
JP2020047270A (ja) | マルチフィーディングを適用した学習方法及び学習装置並びにそれを利用したテスト方法及びテスト装置 | |
KR20220058143A (ko) | 영상 복원 방법 및 장치 | |
JP7114659B2 (ja) | ニューラルネットワーク方法及び装置 | |
TW202333108A (zh) | 用於執行語義影像分割的系統和方法 | |
KR20230069607A (ko) | 셀프 어텐션 기반의 영상 인식 방법 및 장치 | |
JP2023526899A (ja) | 画像修復モデルを生成するための方法、デバイス、媒体及びプログラム製品 | |
KR20240009759A (ko) | 영상 복원 방법 및 장치 | |
Zhou et al. | Underwater scene segmentation by deep neural network | |
KR20230092514A (ko) | 렌더링 방법 및 장치 | |
WO2021037174A1 (zh) | 一种神经网络模型训练方法及装置 | |
KR20220039313A (ko) | 뉴럴 네트워크 연산 처리 방법 및 장치 | |
KR20230090716A (ko) | 연사 영상 기반의 영상 복원 방법 및 장치 | |
CN112287998B (zh) | 一种低光照条件下进行目标检测的方法 |