JP2021506019A - 静的な映像認識 - Google Patents
静的な映像認識 Download PDFInfo
- Publication number
- JP2021506019A JP2021506019A JP2020531438A JP2020531438A JP2021506019A JP 2021506019 A JP2021506019 A JP 2021506019A JP 2020531438 A JP2020531438 A JP 2020531438A JP 2020531438 A JP2020531438 A JP 2020531438A JP 2021506019 A JP2021506019 A JP 2021506019A
- Authority
- JP
- Japan
- Prior art keywords
- video frame
- video
- smoothed
- motion
- static
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003068 static effect Effects 0.000 title claims abstract description 89
- 230000033001 locomotion Effects 0.000 claims abstract description 200
- 238000000034 method Methods 0.000 claims abstract description 101
- 239000013598 vector Substances 0.000 claims abstract description 81
- 238000009499 grossing Methods 0.000 claims abstract description 15
- 238000003825 pressing Methods 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 claims 17
- 230000002596 correlated effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
ある実施形態は、一般に、モバイルデバイスの画像キャプチャに関し、特に、静的映像を認識するための方法およびシステムに関する。
ステップ214では、入力映像が静的な映像であるか否かを判定する。判定は、静的なシーンまたは被写体の映像を認識し、静的なシーンまたは被写体の映像の(または、静的映像認識がない場合の動き映像の)表示を提供するために、本明細書で説明されるシステムまたは方法を使用することを含み得る。処理は、判定に基づいて216または218に進む。
under_expose_threshold<I_smooothed_previous(x,y)<over_expose_thresholdであり、
under_expose_threshold<I_smoothed(x+1,y)<over_expose_thresholdであり、
under_expose_threshold<I_smoothed(x-1,y)<over_expose_thresholdであり、
under_expose_threshold<I_smoothed(x,y+1)<over_expose_thresholdであり、
under_expose_threshold<I_smoothed(x,y-1)<over_exposed_thresholdであるならば、Valid(x,y)=1である。
Valid(x,y)=1を有する有効な画素について、3つの勾配I_t(x,y),I_x(x,y),I_y(x,y)を以下のように計算する。
416において、点のグリッドが生成され、418において、各グリッドの点について画素のパッチが決定される。
420では、統計が画素の各パッチについて計算される。例えば、
グリッド内の各点p(i,j)について、I_smoothedからpatchWidth×patchHeight(例えば、patchWidth=patchHeight=7)を得る。
Ixxは、パッチ内の全ての画素に対するI_x(x,y)×I_x(x,y)の平均である。
処理は422へ進む。
{Ixx Ixy
Ixy Iyy}
この行列の決定基はdetと表される。この行列は、2つの固有値を有する。大きい方をmax_eigenvalueとし、小さい方をmin_eigenvalueとする。
det>0、かつ、
min_eigenvalue>EigenvalueThreshold×frameWidth×frameHeight、かつ、
max_eigenvalue<EigenvalueRatioThreshold×min_eigenvalue
EigenvalueThresholdは手動で調整することができ、典型的な値は0.0025である。
パッチが上記条件チェックに失敗すると、そのパッチの動きベクトルは利用不能に設定され、このパッチは以下のステップで除外される。
motion_x=利用不能である。
motion_y=利用不能である。
424において、対応するパッチの局所的な動きを推定するためにローカル動きベクトルが計算される。ローカル動きベクトルは、平滑化映像フレーム内の1つまたは複数の候補画素パッチの中からそれぞれの候補画素パッチに対応することができ、ローカル動きベクトルは、空間勾配および時間勾配に基づく。例えば、
motion_x=(−Ixt×Iyy−Iyt×Ixy)/det
motion_y=(Ixt×Ixy−Iyt×Ixx)/det
処理は426へ進む。
動きベクトルから全体的な動きを減算して、被写体動きベクトルを得る。
[subject_motion_x,subject_motion_y]=[motion_x−global_motion_x,motion_y−global_motion_y]を得る。
430において、各パッチのスコアが計算され、スコアマップに入れられる。例えば、
各パッチについて動きベクトルの大きさを0から1の間のスコアに変換し、以下のようにスコアマップを作成する。
score(ij)=1−exp(−(subject_motion_x(i,j)×subject_motion_x(i,j)+subject_motion_y(i,j)×subject_motion_y(i,j))/motion_param)
motion_paramは、手動で決定することができ、ある実施形態では、典型的な値は3である。
432において、エントロピーベースの被写体動きスコアが映像フレームについて計算される。被写体動きスコアは、対応するローカル動きベクトルおよびグローバル動きベクトルに基づくことができる。例えば、
まず、スコアマップのエントロピースコアを以下のように計算する。
p(k,l)=(score(k,l)+Epsilon)/total_score。
entropy=−sum(Log[p(k,l)]×p(k,l))
Epsilonは、0によって引き起こされる問題を避けるため少数とすることができる。
subject_motion_param1およびsubject_motion_param2は、手動で調整される2つのパラメータである。
434において、1つまたは複数のフレームに対する被写体動きスコアが正規化される。例えば、
各映像について、静的映像認識のために処理された(フレーム番号iを有する)全てのフレームが、被写体動きスコア(i)を受け取った。被写体動きスコアの最大値は、以下のように表される。
subjct_motion_score_iが小さすぎない場合、subject_motion_score_maxによりsubject_motion_score_iを正規化する。例えば、
subject_motion_score_i>subject_motion_min_thresholdであるとき、normalized_subject_motion_score_i=subject_motion_score_i/subject_motion_score_max
そうでないとき、normalized_subject_motion_score_i=subject_motion_score_i
処理は436へ進む。
低い正規化された被写体動きスコアを有するフレームの数をカウントする。
処理は438へ進む。
number_of_static_frames/number_of_all_frames>static_frame_ratio_thresholdである場合、映像を静的な映像としてマークし、そうでなければ映像を静的な映像としてマークしない。
440では、映像が静的な映像として認識されたか否かに基づいてアクションが取られる。例えば、映像が静的であると認識された場合には、1つの動作が行われ、映像が静的でないと認識された場合には、別の動作が行われる。いくつかの例では、映像が静的であると認識されるとき、映像は、静的であるとマークされ得、映像に対応するシャッタ画像(または静止画像)はストレージ内に保持され得、映像はストレージから削除され得る。映像が静的でないと認識されるとき、シャッタ画像(または静止画像)および映像の両方は、ストレージ(たとえば、メモリ)内に保持され得、いくつかの例では、映像は、ユーザに提示され得、たとえば、ユーザデバイスまたは他のデバイスのディスプレイデバイス上に連続フレームとして表示され得る。
Claims (20)
- コンピュータで実行される方法であって、
入力映像の1つまたは複数の映像フレームの中から入力映像フレームを取得することを備え、前記映像フレームは、シャッタ押下指示の受信前に、および前記シャッタ押下指示の受信後に、取得されており、前記方法はさらに、
前記入力映像フレームをダウンサンプリングしてダウンサンプリングされた映像フレームを生成することと、
前記ダウンサンプリングされた映像フレームを平滑化して平滑化映像フレームを生成することと、
前記平滑化映像フレームの時間勾配および空間勾配を計算することと、
前記平滑化映像フレーム内の1つまたは複数の候補画素パッチの中からそれぞれの候補画素パッチに対応するローカル動きベクトルを計算することによって、局所的な動きを推定することとを備え、前記ローカル動きベクトルは、前記空間勾配および前記時間勾配に基づいており、前記方法はさらに、
前記平滑化映像フレームに対応するグローバル動きベクトルを計算することによって全体的な動きを推定することと、
対応するローカル動きベクトルおよび前記グローバル動きベクトルに基づいて1つまたは複数の被写体動きベクトルを計算することと、
前記1つまたは複数の被写体動きベクトルをスコアマップに変換することと、
前記スコアマップに基づいてエントロピースコアを計算することと、
前記エントロピースコアを前記平滑化映像フレームに対応する被写体動きスコアにマッピングすることと、
前記被写体動きスコアに基づいて、静的なフレームの数を識別することと、
前記入力映像における前記映像フレームの数に対する静的なフレームの数の比率が静的なフレーム閾値を満たす場合に、前記入力映像が静的な映像であると判定すること、および、前記比率が前記静的なフレーム閾値を満たさない場合に、前記入力映像が動き映像であると判定することと、
前記入力映像が前記静的な映像であると認識された場合に第1の動作を実行することと、
前記入力映像が前記動き映像であると認識された場合に第2の動作を実行することとを備える、コンピュータで実行される方法。 - 平滑化の前に前記ダウンサンプリングされた映像フレームをカラーからグレースケールに変換することをさらに備える、請求項1に記載のコンピュータで実行される方法。
- 平滑化映像フレームに対する前記空間勾配および前記時間勾配を計算することは、
前記平滑化映像フレーム内の露出不足画素および前記平滑化映像フレーム内の露出過多画素を無効としてマークすることと、
前記平滑化映像フレーム内の有効な画素について、
時間勾配を計算することと、
x方向の空間勾配を計算することと、
y方向の空間勾配を計算することとを含む、請求項1に記載のコンピュータで実行される方法。 - 前記1つまたは複数の候補画素パッチは、
1つまたは複数の格子点を、動き推定のための前記平滑化映像フレーム内の基準点として選択することと、
前記1つまたは複数の格子点の各々に対応する画素パッチについて画素パッチ幅および画素パッチ高さを選択することと、
各画素パッチの統計を計算することと、
前記画素パッチが閾値テクスチャ値を満たすテクスチャを有するかどうかを判定することと、
前記画素パッチが前記閾値テクスチャ値を満たすテクスチャを有する場合、前記画素パッチを動き推定のための候補画素パッチとして識別することと、によって判定される、請求項1に記載のコンピュータで実行される方法。 - 前記ローカル動きベクトルを計算することは、前記候補画素パッチ内の画素に対する前記空間勾配および前記時間勾配に基づいて、局所的なx動き値を計算することと局所的なy動き値を計算することとを含む、請求項1に記載のコンピュータで実行される方法。
- 前記グローバル動きベクトルを計算することは、有効なローカル動きベクトルの平均に基づいて前記グローバル動きベクトルを計算することを含む、請求項1に記載のコンピュータで実行される方法。
- 前記1つまたは複数の被写体動きベクトルを計算することは、それぞれのローカル動きベクトルから前記グローバル動きベクトルを減算することを含む、請求項1に記載のコンピュータで実行される方法。
- 前記1つまたは複数の被写体動きベクトルを前記スコアマップに変換することは、前記平滑化映像フレーム内の画素についてそれぞれの被写体動きベクトルの大きさを正規化することを含む、請求項1に記載のコンピュータで実行される方法。
- 前記スコアマップ上で前記エントロピースコアに反相関する前記被写体動きスコアを計算することは、動きがローカライズされる場合により高いスコアを前記平滑化映像フレームに割り当てることと、動きが前記平滑化映像フレーム内でグローバルである場合により低いスコアを前記平滑化映像フレームに割り当てることとを含む、請求項1に記載のコンピュータで実行される方法。
- 前記第1の動作は、前記入力映像を静的なものとしてマーキングすることと、前記入力映像に対応するシャッタ画像をストレージ内に保持することと、前記入力映像をストレージから削除することとを含む、請求項1に記載のコンピュータで実行される方法。
- 前記第2の動作は、前記入力映像に対応するシャッタ画像および前記入力映像をストレージ内に保持することを含む、請求項1に記載のコンピュータで実行される方法。
- システムであって、
1つまたは複数のプロセッサと、
命令を記憶したメモリとを備え、前記命令は前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに複数の動作を実行させ、前記複数の動作は、
入力映像の1つまたは複数の映像フレームの中から入力映像フレームを取得することを備え、前記映像フレームは、シャッタ押下指示の受信前に、および前記シャッタ押下指示の受信後に、取得されており、前記複数の動作はさらに、
前記入力映像フレームをダウンサンプリングしてダウンサンプリングされた映像フレームを生成すること、
前記ダウンサンプリングされた映像フレームを平滑化して平滑化映像フレームを生成することと、
前記平滑化映像フレームの時間勾配および空間勾配を計算することと、
前記平滑化映像フレーム内の1つまたは複数の候補画素パッチの中からそれぞれの候補画素パッチに対応するローカル動きベクトルを計算することによって、局所的な動きを推定することとを備え、前記ローカル動きベクトルは、前記空間勾配および前記時間勾配に基づいており、前記複数の動作はさらに、
前記平滑化映像フレームに対応するグローバル動きベクトルを計算することによって全体的な動きを推定することと、
対応するローカル動きベクトルおよび前記グローバル動きベクトルに基づいて1つまたは複数の被写体動きベクトルを計算することと、
前記1つまたは複数の被写体動きベクトルをスコアマップに変換することと、
前記スコアマップに基づいてエントロピースコアを計算することと、
前記エントロピースコアを前記平滑化映像フレームに対応する被写体動きスコアにマッピングすることと、
前記被写体動きスコアに基づいて、静的なフレームの数を識別することと、
前記入力映像における前記映像フレームの数に対する静的なフレームの数の比率が静的なフレーム閾値を満たす場合に、前記入力映像が静的な映像であると判定すること、および、前記比率が前記静的なフレーム閾値を満たさない場合に、前記入力映像が動き映像であると判定することと、
前記入力映像が前記静的な映像であると認識された場合に第1の動作を実行することと、
前記入力映像が前記動き映像であると認識された場合に第2の動作を実行することとを備える、システム。 - 前記命令はさらに、平滑化の前に前記ダウンサンプリングされた映像フレームをカラーからグレースケールに変換することを含む動作を前記1つまたは複数のプロセッサに実行させる、請求項12に記載のシステム。
- 前記平滑化映像フレームに対する前記空間勾配および前記時間勾配を計算することは、
前記平滑化映像フレーム内の露出不足画素および前記平滑化映像フレーム内の露出過多画素を無効としてマークすることと、
前記平滑化映像フレーム内の有効な画素について、
時間勾配を計算することと、
x方向の空間勾配を計算することと、
y方向の空間勾配を計算することとを含む、請求項12に記載のシステム。 - 前記1つまたは複数の候補画素パッチは、
1つまたは複数の格子点を、動き推定のための前記平滑化映像フレーム内の基準点として選択することと、
前記1つまたは複数の格子点の各々に対応する画素パッチについて画素パッチ幅および画素パッチ高さを選択することと、
各画素パッチの統計を計算することと、
前記画素パッチが閾値テクスチャ値を満たすテクスチャを有するかどうかを判定することと、
前記画素パッチが前記閾値テクスチャ値を満たすテクスチャを有する場合、前記画素パッチを動き推定のための候補画素パッチとして識別することと、によって判定される、請求項14に記載のシステム。 - 命令を有する非一時的なコンピュータ可読媒体であって、前記命令は1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに複数の動作を実行させ、前記複数の動作は、
入力映像の1つまたは複数の映像フレームの中から入力映像フレームを取得することを備え、前記映像フレームは、シャッタ押下指示の受信前に、および前記シャッタ押下指示の受信後に、取得されており、前記複数の動作はさらに、
前記入力映像フレームをダウンサンプリングしてダウンサンプリングされた映像フレームを生成することと、
前記ダウンサンプリングされた映像フレームを平滑化して平滑化映像フレームを生成することと、
前記平滑化映像フレームの時間勾配および空間勾配を計算することと、
前記平滑化映像フレーム内の1つまたは複数の候補画素パッチの中からそれぞれの候補画素パッチに対応するローカル動きベクトルを計算することによって、局所的な動きを推定することとを備え、前記ローカル動きベクトルは、前記空間勾配および前記時間勾配に基づいており、前記複数の動作はさらに、
前記平滑化映像フレームに対応するグローバル動きベクトルを計算することによって全体的な動きを推定することと、
対応するローカル動きベクトルおよび前記グローバル動きベクトルに基づいて1つまたは複数の被写体動きベクトルを計算することと、
前記1つまたは複数の被写体動きベクトルをスコアマップに変換することと、
前記スコアマップに基づいてエントロピースコアを計算することと、
前記エントロピースコアを前記平滑化映像フレームに対応する被写体動きスコアにマッピングすることと、
前記被写体動きスコアに基づいて、静的なフレームの数を識別することと、
入力映像における前記映像フレームの数に対する静的なフレームの数の比率が静的なフレーム閾値を満たす場合に、前記入力映像が静的な映像であると判定すること、および、前記比率が前記静的なフレーム閾値を満たさない場合に、前記入力映像が動き映像であると判定することと、
前記入力映像が前記静的な映像であると認識された場合に第1の動作を実行することと、
前記入力映像が前記動き映像であると認識された場合に第2の動作を実行することとを備える、非一時的なコンピュータ可読媒体。 - 前記複数の動作は、平滑化の前に前記ダウンサンプリングされた映像フレームをカラーからグレースケールに変換することをさらに備える、請求項16に記載の非一時的なコンピュータ可読媒体。
- 平滑化映像フレームに対する前記空間勾配および前記時間勾配を計算することは、
前記平滑化映像フレーム内の露出不足画素および前記平滑化映像フレーム内の露出過多画素を無効としてマークすることと、
前記平滑化映像フレーム内の有効な画素について、
時間勾配を計算することと、
x方向の空間勾配を計算することと、
y方向の空間勾配を計算することとを含む、請求項16に記載の非一時的なコンピュータ可読媒体。 - 前記1つまたは複数の候補画素パッチは、
1つまたは複数の格子点を、動き推定のための前記平滑化映像フレーム内の基準点として選択することと、
前記1つまたは複数の格子点の各々に対応する画素パッチについて画素パッチ幅および画素パッチ高さを選択することと、
各画素パッチの統計を計算することと、
前記画素パッチが閾値テクスチャ値を満たすテクスチャを有するかどうかを判定することと、
前記画素パッチが前記閾値テクスチャ値を満たすテクスチャを有する場合、前記画素パッチを動き推定のための候補画素パッチとして識別することと、によって判定される、請求項18に記載の非一時的なコンピュータ可読媒体。 - 前記ローカル動きベクトルを計算することは、前記候補画素パッチ内の画素に対する前記空間勾配および前記時間勾配に基づいて、局所的なx動き値を計算することと局所的なy動き値を計算することとを含む、請求項16に記載の非一時的なコンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021150160A JP7568597B2 (ja) | 2018-03-11 | 2021-09-15 | 静的な映像認識 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862641383P | 2018-03-11 | 2018-03-11 | |
US62/641,383 | 2018-03-11 | ||
PCT/US2019/021442 WO2019177906A1 (en) | 2018-03-11 | 2019-03-08 | Static video recognition |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021150160A Division JP7568597B2 (ja) | 2018-03-11 | 2021-09-15 | 静的な映像認識 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021506019A true JP2021506019A (ja) | 2021-02-18 |
JP6946566B2 JP6946566B2 (ja) | 2021-10-06 |
Family
ID=65861729
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020531438A Active JP6946566B2 (ja) | 2018-03-11 | 2019-03-08 | 静的な映像認識 |
JP2021150160A Active JP7568597B2 (ja) | 2018-03-11 | 2021-09-15 | 静的な映像認識 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021150160A Active JP7568597B2 (ja) | 2018-03-11 | 2021-09-15 | 静的な映像認識 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11006122B2 (ja) |
EP (2) | EP3823267B1 (ja) |
JP (2) | JP6946566B2 (ja) |
CN (2) | CN111819837B (ja) |
WO (1) | WO2019177906A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023149188A1 (ja) * | 2022-02-02 | 2023-08-10 | ソニーグループ株式会社 | 信号処理装置および方法、並びにプログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870303A (zh) * | 2020-06-30 | 2021-12-31 | 晶晨半导体(上海)股份有限公司 | 静态标识区域检测方法及模块、芯片、电子设备和介质 |
CN113411569B (zh) * | 2021-06-15 | 2022-08-12 | 北京百度网讯科技有限公司 | 检测静态画面的方法和装置 |
CN113873099B (zh) * | 2021-08-27 | 2024-04-12 | 山东信通电子股份有限公司 | 一种输电通道视频稳像方法、设备及介质 |
CN117255222A (zh) * | 2023-11-20 | 2023-12-19 | 上海科江电子信息技术有限公司 | 一种数字电视监测的方法、系统及应用 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011097576A (ja) * | 2009-10-02 | 2011-05-12 | Nikon Corp | 撮像装置 |
JP2015111746A (ja) * | 2012-04-09 | 2015-06-18 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0767077A (ja) * | 1993-08-30 | 1995-03-10 | Sanyo Electric Co Ltd | 映像記録再生装置 |
JP2002016867A (ja) * | 2000-06-30 | 2002-01-18 | Toshiba Corp | 静止画取込システム、静止画保存方法および静止画識別方法 |
JP4234968B2 (ja) | 2002-09-27 | 2009-03-04 | 富士フイルム株式会社 | デジタルカメラ |
US7408986B2 (en) | 2003-06-13 | 2008-08-05 | Microsoft Corporation | Increasing motion smoothness using frame interpolation with motion analysis |
CN100379283C (zh) * | 2004-04-29 | 2008-04-02 | 明基电通股份有限公司 | 动态判定视频数据以对其编码的方法及视频传送装置 |
JP2008536429A (ja) * | 2005-04-12 | 2008-09-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 領域の動的なアスペクト比を用いた領域ベース3drs動き推定 |
JP4835356B2 (ja) * | 2006-09-28 | 2011-12-14 | カシオ計算機株式会社 | 撮像装置、撮像制御プログラム及び撮像制御方法 |
JP2008131572A (ja) | 2006-11-24 | 2008-06-05 | Toshiba Corp | 監視カメラ装置および監視カメラの撮影方法 |
JP4623111B2 (ja) * | 2008-03-13 | 2011-02-02 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN101339661B (zh) * | 2008-08-18 | 2010-07-28 | 清华大学 | 一种基于手持设备运动检测的实时人机交互方法和系统 |
RU2011117298A (ru) * | 2008-09-29 | 2012-11-10 | Мэньюфэкчеринг Ресорсиз Инетрнэшнл, Инк. (Us) | Система для обеспечения изменяющегося контента на множество дисплеев с использованием одного проигрывателя |
CN101778275B (zh) * | 2009-01-09 | 2012-05-02 | 深圳市融创天下科技股份有限公司 | 一种自适应时间域和空间域分辨率框架的图像处理方法 |
CN101489031A (zh) * | 2009-01-16 | 2009-07-22 | 西安电子科技大学 | 基于运动分类的自适应帧速率上转换方法 |
JP5498059B2 (ja) | 2009-06-02 | 2014-05-21 | オリンパスイメージング株式会社 | 撮影装置、撮影方法、再生方法、画像処理装置、および画像処理用プログラム |
JP2014527778A (ja) * | 2011-08-29 | 2014-10-16 | アイ.シー.ブイ.ティー リミテッド | ビデオコンテンツシステムの制御 |
CN103139578A (zh) * | 2011-11-24 | 2013-06-05 | 联咏科技股份有限公司 | 调整影像的运动景深的方法 |
KR101931631B1 (ko) * | 2012-05-02 | 2018-12-21 | 삼성전자주식회사 | 카메라 장치의 이미지 부호화장치 및 방법 |
US9070020B2 (en) * | 2012-08-21 | 2015-06-30 | International Business Machines Corporation | Determination of train presence and motion state in railway environments |
CN103856764B (zh) * | 2012-11-30 | 2016-07-06 | 浙江大华技术股份有限公司 | 一种利用双快门进行监控的装置 |
CN103297752A (zh) * | 2013-04-25 | 2013-09-11 | 杭州阿启视科技有限公司 | 一种视频监控方法及视频监控系统 |
CN104144345B (zh) * | 2013-09-18 | 2016-08-17 | 腾讯科技(深圳)有限公司 | 在移动终端进行实时图像识别的方法及该移动终端 |
US9715903B2 (en) | 2014-06-16 | 2017-07-25 | Qualcomm Incorporated | Detection of action frames of a video stream |
US9811732B2 (en) * | 2015-03-12 | 2017-11-07 | Qualcomm Incorporated | Systems and methods for object tracking |
GB2539198B (en) * | 2015-06-08 | 2019-09-25 | Imagination Tech Ltd | Motion estimation using collocated blocks |
CN105227927A (zh) * | 2015-10-15 | 2016-01-06 | 桂林电子科技大学 | 一种监控视频数据存储方法及装置 |
CN106027893A (zh) * | 2016-05-30 | 2016-10-12 | 广东欧珀移动通信有限公司 | 控制Live Photo生成的方法、装置及电子设备 |
CN107635101B (zh) * | 2017-10-27 | 2020-07-03 | Oppo广东移动通信有限公司 | 拍摄方法、装置、存储介质和电子设备 |
US11070813B2 (en) * | 2018-06-29 | 2021-07-20 | Intel Corporation | Global motion estimation and modeling for accurate global motion compensation for efficient video processing or coding |
-
2019
- 2019-03-08 US US16/772,069 patent/US11006122B2/en active Active
- 2019-03-08 EP EP20216533.8A patent/EP3823267B1/en active Active
- 2019-03-08 EP EP19712666.7A patent/EP3707895B1/en active Active
- 2019-03-08 JP JP2020531438A patent/JP6946566B2/ja active Active
- 2019-03-08 CN CN201980005872.8A patent/CN111819837B/zh active Active
- 2019-03-08 WO PCT/US2019/021442 patent/WO2019177906A1/en unknown
- 2019-03-08 CN CN202111611460.4A patent/CN114143555A/zh active Pending
-
2021
- 2021-05-06 US US17/313,799 patent/US11917158B2/en active Active
- 2021-09-15 JP JP2021150160A patent/JP7568597B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011097576A (ja) * | 2009-10-02 | 2011-05-12 | Nikon Corp | 撮像装置 |
JP2015111746A (ja) * | 2012-04-09 | 2015-06-18 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023149188A1 (ja) * | 2022-02-02 | 2023-08-10 | ソニーグループ株式会社 | 信号処理装置および方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11917158B2 (en) | 2024-02-27 |
EP3823267A1 (en) | 2021-05-19 |
CN111819837B (zh) | 2022-01-14 |
EP3707895A1 (en) | 2020-09-16 |
JP7568597B2 (ja) | 2024-10-16 |
US20210021833A1 (en) | 2021-01-21 |
US11006122B2 (en) | 2021-05-11 |
CN111819837A (zh) | 2020-10-23 |
CN114143555A (zh) | 2022-03-04 |
JP6946566B2 (ja) | 2021-10-06 |
WO2019177906A1 (en) | 2019-09-19 |
JP2022003797A (ja) | 2022-01-11 |
EP3823267B1 (en) | 2023-05-10 |
EP3707895B1 (en) | 2021-07-28 |
US20210258584A1 (en) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6946566B2 (ja) | 静的な映像認識 | |
US8854412B2 (en) | Real-time automatic scene relighting in video conference sessions | |
US9639956B2 (en) | Image adjustment using texture mask | |
US9105088B1 (en) | Image blur with preservation of detail | |
JP2022528294A (ja) | 深度を利用した映像背景減算法 | |
US11538211B2 (en) | Puppeteering remote avatar by facial expressions | |
JP2023085325A (ja) | ダイナミックデプス画像を撮影して編集するための手法 | |
CN106254784A (zh) | 一种视频处理的方法及装置 | |
JP7101269B2 (ja) | ポーズ補正 | |
US8983188B1 (en) | Edge-aware smoothing in images | |
JP2017507626A (ja) | 関連アプリケーションに対するビデオ会議相互参照の改善 | |
US11776201B2 (en) | Video lighting using depth and virtual lights | |
CN113205011A (zh) | 图像掩膜确定方法及装置、存储介质和电子设备 | |
CN111314627B (zh) | 用于处理视频帧的方法和装置 | |
WO2019205566A1 (zh) | 一种显示图片的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200610 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210915 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6946566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |