JP2020004389A - ビデオシーケンスにおいて動きを検出するための方法 - Google Patents

ビデオシーケンスにおいて動きを検出するための方法 Download PDF

Info

Publication number
JP2020004389A
JP2020004389A JP2019079092A JP2019079092A JP2020004389A JP 2020004389 A JP2020004389 A JP 2020004389A JP 2019079092 A JP2019079092 A JP 2019079092A JP 2019079092 A JP2019079092 A JP 2019079092A JP 2020004389 A JP2020004389 A JP 2020004389A
Authority
JP
Japan
Prior art keywords
motion detection
detection sensitivity
sensitivity map
spatial resolution
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019079092A
Other languages
English (en)
Other versions
JP6866419B2 (ja
JP2020004389A5 (ja
Inventor
アクセル ケスキカンガス,
Keskikangas Axel
アクセル ケスキカンガス,
ソン ユアン,
Song Yuan
ソン ユアン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2020004389A publication Critical patent/JP2020004389A/ja
Publication of JP2020004389A5 publication Critical patent/JP2020004389A5/ja
Application granted granted Critical
Publication of JP6866419B2 publication Critical patent/JP6866419B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/20Calibration, including self-calibrating arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19626Surveillance camera constructional details optical details, e.g. lenses, mirrors or multiple lenses
    • G08B13/19628Surveillance camera constructional details optical details, e.g. lenses, mirrors or multiple lenses of wide angled cameras and camera groups, e.g. omni-directional cameras, fish eye, single units having multiple cameras achieving a wide angle view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

【課題】歪み画像フレームを備えるビデオシーケンスにおいて動きを検出するための方法を提供する。【解決手段】動きを検出するための方法100は、歪み画像フレームに関して空間分解能分布を決定する101と、歪み画像フレームに関して動き検出感度マップを決定する102であって、動き検出感度マップが、異なる動き検出感度レベルを有する領域を備え、動き検出感度マップが空間分解能分布に基づいて決定される、動き検出感度マップを決定する102と、動き検出感度マップに基づきビデオシーケンスにおいて動きを検出する103とを含む。動き検出コンポーネント及びそのようなコンポーネントを含むカメラも開示される。【選択図】図1

Description

本発明は、ビデオシーケンスにおいて動きを検出する分野に関する。
カメラ用途における大きな分野は監視である。動き検出は、カメラ監視システムにおいて重要な機能であり、したがって、効率的な動き検出アルゴリズムを有することが有益である。動き検出アルゴリズムにおける欠点は、一般に、それらのアルゴリズムが、レクチリニアレンズを念頭に置いて、すなわち、真っ直ぐなラインが実際にその捕捉画像中で真っ直ぐのままであるレンズのために、設計されているという点である。したがって、動き検出アルゴリズムは、歪み画像フレームを備えるビデオシーケンスで機能するのに最適ではない。歪み画像フレームの従来の動き解析に関する結果は質が悪くなる可能性があり、また、解析はビデオシーケンスのより多くの処理を必要とする可能性がある。例えば、広角レンズにより捕捉されるビデオシーケンスは、レンズの性質により、歪み画像フレームを含む。そのようなビデオシーケンスは、一般に、良好な結果を伴って動き検出を行うことができる前にデワーピングプロセスが実行される必要がある。
歪み画像フレームをもたらし得る様々な歪み源、例えば、魚眼レンズなどの広角レンズ、オプティカルドーム、及び、パノラマ画像を与えるためのスティッチング技術が存在する。スティッチングでは、1つ以上の画像センサを使用して捕捉される複数の一次画像が単一画像を形成するように組み合わせられる。幾つかの既知のスティッチングアルゴリズムの中から選択される。
レクチリニアレンズの製造中に欠陥によって歪みが引き起こされる可能性もある。
歪み源に応じて異なるタイプの歪み形状が存在する。1つの例は、バレル歪み、ピンクッション歪み、及び、口ひげ歪みを含む径方向の歪みであり、これらは、レンズの対称性から生じる。或いは、歪みが不規則な形状を有する可能性がある。
歪み源及び歪みの形状にかかわらず、歪みは、画像を解析する際の課題である。例えば、多くの動き検出アルゴリズムは、歪み画像に適用されるときに大きな害を受ける。これは、大部分のアルゴリズムは、歪んでいない画像に適用されるように設計されるからである。したがって、プロセッサが、動き検出アルゴリズム又は他の同様のアルゴリズムを歪み画像に適用すると、コンピュータ的に重くなる。
前述したように、この問題に対する解決策は、動き検出を適用する前に歪み画像でデワーピングを行うことである。デワーピングは、歪み画像を、動き検出アルゴリズムがより良く機能する線形投影画像へと反転させるためのプロセスである。しかしながら、デワーピングは、それ自体、プロセッサに負担をかけるとともに例えばプロセッサ及びスケーラユニットにおける貴重なリソース(時間、電力、帯域幅)も利用するコンピュータ的に非常に重い操作である。更に、デワーピングは、限られたリソースであるカメラシステムにおけるスケーラユニットに負担をかけ、したがって、スケーラへのアクセスも必要とする他のプロセッサが害を受ける場合がある。
したがって、前述の問題に対処する改良された方法の必要性がある。
本発明の一般的な目的は、歪み画像での適用を考慮して改善される動き検出方法を提供することである。本発明の具体的な目的は、広角レンズ又はオプティカルドームなどの物理的歪み源、或いは、スティッチングプロセスなどのデジタル歪み源を有するカメラシステムによりもたらされる画像で従来の動き検出感度アルゴリズムを適用するという問題に対処することである。
第1の態様によれば、これらの目的及び他の目的は、全体的に又は少なくとも部分的に、少なくとも1つの画像センサを介してもたらされる歪み画像フレームを備えるビデオシーケンスにおいて動きを検出するための方法であって、
歪み画像フレームに関して空間分解能分布を決定することと、
歪み画像フレームに関して動き検出感度マップを決定することであって、動き検出感度マップが、異なる動き検出感度レベルを有する領域を備え、動き検出感度マップが空間分解能分布に基づいて決定される、動き検出感度マップを決定することと、
動き検出感度マップに基づきビデオシーケンスにおいて動きを検出することと、
を含む方法によって達成される。
少なくとも1つの画像センサはカメラに備えられてもよい。本明細書中で使用される「歪み画像」又は「歪み画像フレーム」は、歪んだ射影を有する画像を意味する。歪み画像では、シーン内の真っ直ぐなラインが一般にある程度まで湾曲される。これに対し、完全にレクチリニアな画像は、シーン内の真っ直ぐなラインに対応する完全に真っ直ぐなラインを有する。この出願の文脈内では、2つのタイプの歪み源、すなわち、物理的歪み源及びデジタル歪み源が論じられる。物理的歪み源の非限定的な例は、魚眼レンズ(例えば、f−θレンズ)を含む広角レンズ、オプティカルドーム、及び、不完全にレクチリニアなレンズである。レンズの欠陥は、不正確な製造によって引き起こされる場合がある。デジタル歪み源の非限定的な例は画像スティッチングアルゴリズムである。歪みパターンが不規則的又は規則的(径方向歪みなど)となり得る。捕捉画像の歪みパターンは、歪み源のうちの1つ又は歪み源の組み合わせからの結果である場合がある。
本明細書中で使用される「空間分解能分布」は、画像フレームにおける空間分解能のマップを意味する。歪み画像では、例えば広角レンズを通じて取得されると、或いは、複数の画像フレームからスティッチされると、画像の異なり領域が異なる空間分解能を有する。言い換えると、画像フレームの同じ大きさの領域は、カメラの視野(FOV)の異なる大きさの角度をカバーする。空間分解能は、画像フレームにおけるピクセルレベルで定められてもよく、又は、ピクセルサブグループレベルで、例えばマクロブロックレベルで決定され得る。空間分解能は、FOV角ごとのピクセルの数として、又は、ピクセルごとのFOV角の大きさとして表されてもよい。当業者は、用途に応じてこれらの表現同士を入れ替える方法に精通している。例えば、本出願に係る方法の実施では、これらの表現のうちの1つを使用するのが好ましいかもしれない。空間分解能分布は、例えば、ピクセル又はピクセルサブグループに関する、例えばマクロブロックに関する空間分解能分布を示す表によって表されてもよい。
本明細書中で使用される「動き検出感度レベル」は、ビデオシーケンスに適用される動き検出アルゴリズムで使用されるようになっている感度の大きさを示すレベルを意味する。異なるスケールが適用されてもよい。例えば、1〜100のスケールが適用されてもよく、この場合、1は最も低い感度を示し(動きが検出されるために連続する画像フレーム間の大きな差が必要とされることを意味する)、100は最も高い感度を示す(連続する画像フレーム間の小さな差でさえ検出された動きをもたらすことを意味する)。
本明細書中で使用される「動き検出感度マップ」は、画像フレームにおける動き検出感度レベルの分布を示す。動き検出感度マップは、複数の画像フレーム、例えば画像フレームのシーケンスに関して決定されて使用されてもよい。動き検出感度マップは、動き検出感度レベルを画像フレームにおける各ピクセル又はピクセルグループに(例えば、それぞれのマクロブロックごとに)マッピングする例えば表によって或いは関数として表されてもよい。関数は、例えば、画像フレームにおける所定の位置又は所定の領域までの距離を入力として有し、動き検出感度レベルを出力として有してもよい。
本明細書中で使用される「レンズ多項式」は、レンズにおける又はオプティカルドームにおけるレンズ屈折を表すレンズ固有の多項式を意味する。レンズ多項式は、レンズで又はオプティカルドームで例えば軸外変調伝達関数(MTF)測定方法を使用して測定を行うことによって取得されてもよい。レンズ又はオプティカルドームの製造業者は、一般に、異なるタイプのレンズ又はオプティカルドームに関してそれらの品揃えでレンズ多項式又は歪みを表す表を提供することができる。
本明細書中で使用される「射影アルゴリズム」は、スティッチ画像フレームを形成するために幾つの一次画像フレームがスティッチされる/組み合わされるかを表すアルゴリズムを意味する。射影アルゴリズムは、異なる目的を念頭に置いて、例えば、一次画像フレーム間のスムーズな移行をもたらすように又は結果として得られる画像フレームの歪みを最小限に抑えるように設計されてもよい。射影アルゴリズムは、異なるスティッチアルゴリズム間で異なっていてもよい。一般に、捕捉されたビデオシーケンスに関して同じ射影アルゴリズムが使用される。
本発明は、画像フレーム領域に関してその画像フレーム領域の空間分解能に対応するように動き検出感度レベルを設定することが有益であるという発明者らの見識に依存する。空間分解能は、画像フレーム領域によってカバーされるFOVの大きさを表す。より大きな角度のFOVがカバーされる場合には、カバーされるFOV角における動きが画像フレーム領域内の比較的小さい動きに変換されるため、動き感度レベルがより高く設定されるべきである。したがって、より小さい角度のFOVが同じサイズの画像フレーム領域によってカバーされる場合には、カバーされるFOV角における動きが画像フレーム領域内の比較的高い動きに変換されるため、動き感度レベルがより低く設定されるべきである。この見識は、歪み画像フレームにおいて特に有用である。この出願は、物理的歪み源及び/又はデジタル歪み源によって歪みが引き起こされる歪み画像フレームについて論じる。
本発明者らによる見識に基づき、動き検出感度マップが空間分解能分布に基づいて決定される。先に規定されるように、動き検出感度マップは、ビデオシーケンスにおける画像フレームの異なる領域或いは更にはピクセルに関して動き検出中にいずれの動き検出感度を使用すべきかに関する情報を与える。使用される撮像システムに応じて、動き検出感度マップが異なって決定されるが、撮像システムのパラメータが与えられて感度マップを決定する方法は当業者の知識の範囲内である。
動き検出感度マップは、その後、歪み画像フレームを備えるビデオシーケンスにおいて動きを検出するために、例えばプロセッサにより行われる動き検出アルゴリズムで使用される。そのような動き検出感度マップを使用すると、歪み画像フレームを備えるビデオシーケンスにおいて動き検出が更に効率的となり得る。
ビデオシーケンスにおいては、動き検出感度マップを1回決定すれば足り得る。これは、決定の基礎となっているパラメータが一般にビデオシーケンスの捕捉中に同じままだからである。
1つの実施形態において、歪み画像フレームは、カメラに備えられる広角レンズを通じて1つの画像センサにより捕捉することによってもたらされてもよい。この実施形態において、空間分解能分布は、広角レンズのレンズ多項式に基づいて決定されてもよい。レンズ多項式は、レンズ製造業者によって測定され又は取得されてもよい。
広角レンズは、一種の超広角レンズである魚眼レンズであってもよい。
1つの実施形態において、歪み画像フレームは、カメラに備えられるオプティカルドームを通じて1つの画像センサにより捕捉することによってもたらされる。この実施形態において、空間分解能分布は、オプティカルドームのレンズ多項式に基づいて決定されてもよい。オプティカルドームのレンズ多項式は、オプティカルドームの製造業者によって測定され又は取得されてもよい。
この実施形態において、動き検出感度マップの領域は、動き検出感度マップの基準位置から径方向に延びる楕円パターンを形成してもよい。楕円パターンが円形パターンを形成してもよい。その場合、各領域は、動き検出感度マップの基準位置からの径方向距離に位置されてもよい。
各領域の前記動き検出感度レベルは、それぞれの領域から基準位置までの距離に伴って増大するように設定されてもよい。基準位置は、例えば、マップ内の中心位置であってもよい。
他の実施形態において、各歪み画像フレームは、射影アルゴリズムに基づき、1つ以上の画像センサにより捕捉される複数の一次画像のスティッチングによってもたらされる。複数の一次画像は、同じ又は異なるカメラに位置されてもよい複数の画像センサにより捕捉されてもよい。
この実施形態では、空間分解能分布が射影アルゴリズムに基づいて決定されてもよい。射影アルゴリズムはスティッチングアセンブリで規定される。
動き検出は、カメラシステムの他のアルゴリズムで使用されてもよい。例えば、動き検出は、物体検出、物体追跡、グランドプレーン検出、又は、警報事象の決定に対して入力として使用されてもよい。本発明の1つの実施形態は、撮像処理アルゴリズムを行うこと、例えば、決定された動きに基づいて、物体検出を行う、物体追跡を行う、グランドプレーン検出を行う、又は、警報事象を決定することを含む。
第2の態様によれば、先の開示された他の目的は、全体的に又は少なくとも部分的に、処理能力を有する装置により実行されるときに第1の態様に係る実施形態のいずれか1つにしたがって方法を行うようになっているコンピュータコード命令が記憶されたコンピュータ可読媒体を備えるコンピュータプログラム製品によって達成される。
第3の態様によれば、先の開示された他の目的は、全体的に又は少なくとも部分的に、カメラにおける少なくとも1つの画像センサを介してもたらされる歪み画像フレームを備えるビデオシーケンスにおいて動きを検出するための動き検出コンポーネントによって達成される。動き検出コンポーネントは、
歪み画像フレームに関して空間分解能分布を決定するようになっている空間分解能分布コンポーネントと、
歪み画像フレームに関して動き検出感度マップを決定するようになっている動き検出感度マップコンポーネントあって、動き検出感度マップが、異なる動き検出感度レベルを有する領域を備え、動き検出感度マップが空間分解能分布に基づいて決定される、動き検出感度マップコンポーネントと、
動き検出感度マップに基づきビデオシーケンスにおいて動きを検出するようになっている動き検出コンポーネントと、
を備える。
第3の態様の動き検出コンポーネントは、一般に、付随する利点を伴う第1の態様の方法と同じように組み込まれてもよい。
第4の態様によれば、先の開示された他の目的は、全体的に又は少なくとも部分的に、第3の態様又はその実施形態のいずれかに係る動き検出コンポーネントを備えるカメラによって達成される。
1つの実施形態では、カメラが広角レンズを備えてもよく、この広角レンズを通じてカメラの1つの画像センサにより画像が捕捉される。
他の実施形態において、カメラは、複数の画像センサを備えるとともに、複数の画像センサにより捕捉される複数の一次画像から画像フレームをスティッチするようになっているスティッチングコンポーネントを更に備えてもよい。
本発明の適用性の更なる範囲は、以下で与えられる詳細な説明から明らかになる。しかしながら、この詳細な説明から本発明の範囲内の様々な変更及び修正が当業者に明らかになるため、詳細な説明及び特定の例が本発明の好ましい実施形態を示しつつ単なる例示として与えられることが理解されるべきである。
そのため、この発明が装置及び方法などの前述した装置又は前述した方法のステップの特定の構成要素部分に限定されないことが理解されるべきである。また、本明細書中で使用される用語が、特定の実施形態のみを説明する目的のためであり、限定しようとするものでないことも理解されるべきである。明細書中で及び添付の特許請求の範囲で使用される冠詞「1つの(a)」、「1つの(an)」、「その(the)」及び「前記(said)」は、文脈が別段明確に定めなければ、要素のうちの1つ以上が存在することを意味するように意図されることに留意しなければならない。したがって、例えば、「1つの物体」又は「その物体」への言及は、幾つかの物体等を含む場合がある。更に、用語「備える」は、他の要素又はステップを排除しない。
ここで、添付の概略図を参照して、本発明を一例として更に詳しく説明する。
一実施形態に係る動きを検出するための方法を示す。 画像センサにより画像フレーム内で捕捉されるシーンを示す。 一実施形態に係る動き検出感度マップを示す。 共通歪み画像フレームへとスティッチされる一次画像のセットを示す。 一実施形態に係る動き検出感度マップを示す。
図1には、本発明の一実施形態に係るビデオシーケンスにおける動きを検出するための方法100が示される。方法100は、歪み画像フレームを含むビデオシーケンスに関して行われる。方法100は、例えば、カメラシステムのプロセッサにおいて、或いは、カメラシステムとは別個の装置のプロセッサにおいて行われてもよい。方法の異なる部分は、異なる処理装置において行われてもよい。方法の幾つかの部分がカメラシステムによって行われてもよく、また、他の部分が他の1つ以上の処理装置によって形成されてもよい。
ビデオシーケンスは、動きを検出するための本方法100に晒される前に変更され或いはさもなければ処理されてしまってもよい。ビデオシーケンスを捕捉するために使用されるカメラシステムは、屋外監視及び/又は屋内監視に適合される監視カメラシステムであってもよい。
方法100は、ビデオシーケンスにおける画像フレームのうちの1つ以上に関して空間分解能分布を決定する第1のステップ101を含む。先に規定されたように、空間分解能分布は、1つ以上の画像フレームにおける空間分解能の表示である。空間分解能は、1つのカメラシステムに関して(例えば、ビデオシーケンスの捕捉前に)1回決定されてもよく、また、決定のためのベースが変わらない限り、そのカメラシステムにより捕捉されるビデオシーケンスに適用されてもよい。この出願では、空間分解能分布を決定する方法の2つの変形例、すなわち、レンズ多項式に基づいて空間分解能分布が決定される第1の変形例、及び、射影アルゴリズムに基づいて空間分解能分布が決定される第2の変形例が論じられる。しかしながら、この出願の範囲はこれらの変形例に限定されない。空間分解能分布を決定するための他の変形例が当業者の想到する範囲内となり得る。
第2のステップ102では、ビデオシーケンスの歪み画像フレームに関して動き検出感度マップが決定される。動き検出感度マップは、画像フレームにおける動き検出感度レベルの分布を表す。動き検出感度マップの目的は、画像フレーム内のいずれの領域に関していずれの動き検出感度を使用すべきかに関する動き検出アルゴリズムへの入力として機能することである。動き検出感度マップは、例えば、以下で詳しく例示されるような表又は関数として表されてもよい。動き検出感度マップは空間分解能分布に基づいて決定される。
第3のステップ103では、決定された動き検出感度マップに基づき、歪み画像フレームを備えるビデオシーケンスにおいて動きが検出される。
本発明の重要な態様は、動き検出の基礎となる動き検出感度マップが空間分解能分布に基づいて決定されることである。この特徴により、動き検出は、画像フレームの歪み特性に更に適合されるようになり得る。以下の実施形態のより詳細な例から明らかなように、これは、広角レンズを有するカメラシステム、オプティカルドーム、又は、スティッチされた画像をもたらすマルチセンサカメラシステムを用いて捕捉されるビデオシーケンスの解析にとって非常に有益である。本発明者らは、カメラシステムにより規定される空間分解能分布と捕捉された画像フレームの動き検出感度レベルとを結び付けることによって前述の利点を得ることができることに気付いた。すなわち、歪み特性による影響がない動き検出を部分的に又は全体的に達成できる。更に、方法は、動き検出感度レベルを設定するための幾つかの既知の方法に関して当てはまるユーザ入力を必要としない。
更に詳しく説明するべく、ここで、図2〜図3及び図4〜図5をそれぞれ参照して、2つの異なる実施形態を開示する。
第1の実施形態から始めると、画像センサ204と広角レンズ207とを含むカメラシステムが図2に示される。広角レンズ207は魚眼レンズであってもよい。カメラシステムは、家201及び木202である物体を含むシーンの画像フレームを捕捉する。カメラシステムにより見られるシーンの領域は、視野(FOV)205として規定される。FOVは、206a、206b、206cにより表される等角観察領域へと分割される。この分割は、本実施形態の開示を補助するために例示されており、必ずしも方法又はカメラシステムの実施の一部とは限らない。言い換えると、開示されたカメラシステムの実現においてFOVを異なる観察領域へと物理的に分けようとするものではない。
ビデオシーケンスは、カメラシステムの画像センサ204によって捕捉される。ビデオシーケンスの代表的な画像フレーム210が図2に示される。画像フレーム210は、家201に対応する第1の撮像物体221と、木202に対応する第2の撮像物体212とを含む。画像フレーム210は、それが広角レンズ207の使用によって捕捉されるため、歪められる。歪みは、シーンの凸状の外観をもたらすと見なされ得る。広角レンズは、異なる外観の歪みをもたらす異なるマッピング機能を有してもよい。マッピング機能タイプの非限定的な例は、立体画法、等距離、等立体角、及び、正投影である。究極的には、それは、歪みを規定する使用されるレンズ207におけるレンズ多項式である。
レンズ207を使用するカメラシステムにおいては、レンズ207におけるレンズ多項式に基づいて空間分解能分布が決定される。レンズ多項式の非限定的な例は以下の通りである。
角度=T_1+T_2x+T_3x^2+T_4x^3+T_5x^4
この場合、角度は、センサ−レンズ軸と内側に面するレンズ表面との間の角度であり、xは、レンズの中心までの距離(mm)として規定され、また、Tパラメータには以下の値が与えられる。
T_1=0
T_2=−35
T_3=−0.03
T_4=−0.408
T_5=0.010
レンズ多項式に基づいて、FVO角206a、206b、206cごとのピクセルの数として表される空間分解能分布が決定される。言い換えると、空間分解能分布は、画像フレーム210内の異なるピクセル領域に関して等角観察領域206a、206b、206cのうちの1つによってカバーされるピクセル数を告げる。図示のように、画像フレーム210の中心領域では、画像フレーム210の外周領域と比べると多くの数のピクセルが1つの等角観察領域をカバーする。
空間分解能分布は、例えば、ピクセルにおける又はピクセルのグループにおける、例えばマクロブロックにおける空間分解能を与える表として表すことができる。空間分解能がピクセルのグループに関して決定されてもよく、この場合、ピクセルのグループは、それらが画像フレームのどの領域に位置されるかに応じて異なるサイズを有する。魚眼レンズなどの広角レンズの場合、空間分解能は、例えば16×16サイズのより大きなマクロブロックに関しては中心領域で規定されてもよく、また、例えば4×4サイズのより小さなマクロブロックに関しては、中心領域よりも大きい歪みを有する外周領域で規定されてもよい。したがって、空間分解能分布を表すより効率的な方法が得られる。他のレンズの場合、同じ原理が適用されてもよい。すなわち、空間分解能は、低い歪みを有する画像領域に関してはより大きいピクセルグループにおいて規定されてもよく、また、高い歪みを有する画像領域に関してはより小さいピクセルグループにおいて規定されてもよい。レンズ多項式により、画像の異なる部分における歪みのレベルが決定されてもよい。
決定された空間分解能分布に基づき、図3に示される動き検出感度マップ300が決定される。動き検出感度マップ300は、画像フレーム210(及びビデオシーケンスの他の画像フレーム)と同じ寸法を有する。動き検出感度マップ300は、異なる動き検出感度レベルを表す領域302、303、304を備える。動き検出感度マップ300は、異なる空間分解能又は空間分解能間隔に関して異なる領域を形成することによってもたらされてもよい。動き検出感度マップ300における領域302、303、304は、それらが表す空間分解能又は空間分解能間隔に応じて異なる動き検出感度レベルと関連付けられる。
この実施形態において、動き検出感度マップ300の領域302、303、304は、基準位置301から径方向に延びる楕円パターンを形成する。楕円パターンは、画像フレーム210の中心位置までの距離に伴って変化する空間分解能分布によりもたらされる。FOV角ごとのピクセルで表されると、空間分解能分布は、画像フレーム210の中心位置までの距離に伴って減少する。言い換えると、画像フレーム210の外周領域では、画像フレーム210の中心領域と比べると、より少ない数のピクセルが同じFOV角をカバーする。動き検出感度マップ300は、領域302、303、304の動き検出感度レベルが各領域から基準位置301までの径方向距離に伴って増大するという点においてこの関係を反映する。動き検出感度レベルは、スケールの数値として、例えば1〜100として表されてもよい。
動き検出感度マップ300に基づいて、動き検出アルゴリズムが画像フレーム210を含むビデオシーケンスに適用される。動き検出アルゴリズムは、従来の動き検出アルゴリズムの中から選択され得る。動き検出感度レベルは、動き検出感度マップ300にしたがって画像フレーム210の異なる領域に関して設定される。言い換えると、動きは、中心領域302では、より外周にある領域304で検出される動きと比べて低い感度を伴って検出される。動き検出感度マップが決定されてしまった時点で、異なる領域に関して異なる動き感度レベルを伴って動き検出を実施する方法は、知られており、本明細書中で更に説明を要せずして当業者の想到する範囲内である。動き検出を動き検出感度マップに基づかせることにより、ビデオシーケンスの画像フレームにおける歪みにかかわらず、直線的観点で画像フレームに適用される動き検出と同じ満足できる結果を有する動き検出を適用することができる。
動き検出感度マップ300は、例えば表又は関数によって表されてもよい。
表は、例えば、異なるサイズのマクロブロックなどのピクセル又はピクセルサブグループを動き検出感度レベルと関連付けることができる。
Figure 2020004389
関数は、例えば、基準位置301までの距離の関数としての出力として動き検出感度レベルを与えることができる。
MDSL=f(dref
ここで、MDSLは動き検出感度レベルであり、drefは基準位置301までの距離である。
第1の実施形態は、ここでは、根本的な本発明の原理の理解を容易にするために二次元態様で示される。しかしながら、当業者は、この態様を三次元的アプローチを必要とする実環境実施に変換することができる。
広角レンズを備えるカメラシステムに適用される本発明の方法は、他のタイプの物理的な歪み源を備えるカメラシステムにも適用できる。そのようなカメラシステムの1つの例は、オプティカルドームを備えるオプティカルドームカメラであり、オプティカルドームを通じてカメラがシーンを描写する。すなわち、光、又は、画像を捕捉する他方の放射線は、レンズを備える光学素子を通り抜ける前に透明又は半透明なオプティカルドームを通じて輸送され、画像センサにより知覚される。オプティカルドームは、広角レンズカメラシステムに関して前述した態様と同じ態様で捕捉される画像フレームに関して空間分解能分布を決定するために使用され得るレンズ多項式を用いて表すことができるドーム形状を有する。
第2の実施形態に続けると、一次画像401、402のセットが図4に示される。各一次画像401、402は、カメラシステムにおけるカメラの画像センサによって捕捉される。一次画像401、402はレクチリニアレンズを通じて捕捉されてもよい。一次画像401、402は、マルチセンサカメラシステムにおける異なる画像センサによって、又は、シーンをパンするようになっている単一の画像センサによって捕捉されてもよい。一次画像401は、家404、第1の木405、及び、第2の木406などの物体を描写する。
射影アルゴリズムに基づく一次画像401、402のスティッチによって歪みパノラマ画像フレーム403がもたらされる。従来の射影アルゴリズム、例えば、画像フレーム403に関しては円筒射影アルゴリズムが使用されてもよい。
射影アルゴリズムに基づいて空間分解能分布が決定されてもよい。空間分解能分布の決定方法に関する原理は、第1の実施形態に関するものと同じである。射影アルゴリズムに基づいて、異なるピクセル又はピクセルサブグループにおける空間分解能を計算することができる。
図5に示される動き検出感度マップ500は、空間分解能分布に基づいて決定される。動き検出感度マップ500は、空間分解能分布を異なる動き検出感度レベルを有する異なる領域へと変換するように表され得る。この典型的な実施形態において、動き検出感度マップ500は、真っ直ぐな水平ラインから離れるように湾曲される水平に延びる領域501、502、503を備える。水平ラインは、シーンの水平線の位置に対応し、したがって、カメラがどのように位置されるのかに応じて異なって位置されてもよい。各領域501、502、503は動き検出感度レベルを表す。
動き検出感度マップ500に基づいて、動き検出アルゴリズムが画像フレーム403を含むビデオシーンに適用される。動き検出アルゴリズムは、従来の動き検出アルゴリズムの中から選択され得る。動き検出感度レベルは、動き検出感度マップ500にしたがって画像フレーム403の異なる領域に関して設定される。動き検出感度マップ500は例えば表又は関数によって表されてもよい。
第1の実施形態の場合と同じ原理が、この第2の実施形態に適用され、したがって、再び詳しく開示されない。第1の実施形態の開示を参照されたい。
先の例は、たった1つの歪み源を備えるカメラシステムに方法が適用されることを開示してはいるが、当業者であれば分かるように、方法が複数の歪み源を備えるカメラシステムに適用されてもよい。歪み源の組み合わせの非限定的な例は、オプティカルドームと組み合わされる広角レンズ、スティッチングアルゴリズムと組み合わされる広角レンズ、又は、スティッチングアルゴリズムと組み合わされるオプティカルドームである。更に、本明細書中の記載に基づき、当業者は、歪み源が組み合わされたカメラシステムで本方法を適用できる。特に、その場合の空間分解能分布は複数の歪み源に基づいて決定され、これは従来の方法により行うことができる。非限定的な例は、広角レンズのレンズ多項式に基づいて及びオプティカルドームのレンズ多項式に基づいて空間分解能分布が決定されることである。
先の開示された実施形態のそれぞれによって明らかなように、動き検出感度マップは空間分解能分布に依存している。言い換えると、異なる空間分解能分布は、異なる動き検出感度マップを与える。これは、空間分解能分布がどのように決定されるのかにかかわらず、例えば空間分解能分布がレンズ多項式に又は射影アルゴリズムに基づいているかどうかにかかわらず、空間分解能分布に当てはまる。
当業者は、本発明が決して前述の好ましい実施形態に限定されないことを理解している。それどころか、添付の特許請求の範囲内で多くの修正及び変形が可能である。例えば、他のタイプのレンズ多項式又は射影アルゴリズムが使用されてもよい。また、方法は、歪みが本明細書中に開示されるプロセス以外のプロセスによりもたらされる歪み画像フレームを備えるビデオシーケンスでも適用できる。
201 家
202 木
204 画像センサ
205 視野(FOV)
207 広角レンズ
206a、206b、206c 等角観察領域
210 画像フレーム
221 撮像物体
300 動き検出感度マップ
310 基準位置
302、303、304 領域
401、402 一次画像
403 画像フレーム
404 家
405 第1の木
406 第2の木
500 動き検出感度マップ
501、502、503 領域

Claims (13)

  1. 少なくとも1つの画像センサを介してもたらされる歪み画像フレームを備えるビデオシーケンスにおいて動きを検出するための方法であって、
    前記歪み画像フレームに関して空間分解能分布を決定すること(101)と、
    前記歪み画像フレームに関して動き検出感度マップを決定すること(102)であって、前記動き検出感度マップが、異なる動き検出感度レベルを有する領域を備え、前記動き検出感度マップが前記空間分解能分布に基づいて決定される、動き検出感度マップを決定すること(102)と、
    前記動き検出感度マップに基づき前記ビデオシーケンスにおいて動きを検出すること(103)と、
    を含む方法。
  2. 前記歪み画像フレームは、広角レンズを通じて1つの画像センサにより捕捉することによってもたらされ、前記空間分解能分布が、前記広角レンズのレンズ多項式に基づいて決定される、請求項1に記載の方法。
  3. 前記広角レンズが魚眼レンズである、請求項2に記載の方法。
  4. 前記歪み画像フレームは、オプティカルドームを通じて1つの画像センサにより捕捉することによってもたらされ、前記空間分解能分布が、前記オプティカルドームのレンズ多項式に基づいて決定される、請求項2又は3に記載の方法。
  5. 前記動き検出感度マップの前記領域は、前記動き検出感度マップの基準位置から径方向に延びる楕円パターンを形成し、
    各領域の前記動き検出感度レベルは、前記領域から前記基準位置までの径方向距離に伴って増大する、
    請求項2から4のいずれか一項に記載の方法。
  6. 前記各歪み画像フレームは、射影アルゴリズムに基づき、1つ以上の画像センサにより捕捉される複数の一次画像のスティッチングによってもたらされる、請求項1に記載の方法。
  7. 前記空間分解能分布が、前記射影アルゴリズムに基づいて決定される、請求項6に記載の方法。
  8. 検出された前記動きに基づいて、物体検出を行う、物体追跡を行う、グランドプレーン検出を行う、又は、警報事象を決定することを更に含む、請求項1から7のいずれか一項に記載の方法。
  9. 処理能力を有する装置により実行されるときに請求項1から8のいずれか一項に記載の方法を行うようになっているコンピュータコード命令が記憶されたコンピュータ可読媒体を備えるコンピュータプログラム製品。
  10. 少なくとも1つの画像センサを介してもたらされる歪み画像フレームを備えるビデオシーケンスにおいて動きを検出するための動き検出コンポーネントであって、
    前記歪み画像フレームに関して空間分解能分布を決定するようになっている空間分解能分布コンポーネントと、
    前記歪み画像フレームに関して動き検出感度マップを決定するようになっている動き検出感度マップコンポーネントあって、前記動き検出感度マップが、異なる動き検出感度レベルを有する領域を備え、前記動き検出感度マップが前記空間分解能分布に基づいて決定される、動き検出感度マップコンポーネントと、
    前記動き検出感度マップに基づき前記ビデオシーケンスにおいて動きを検出するようになっている動き検出コンポーネントと、
    を備える動き検出コンポーネント。
  11. 請求項10に記載の動き検出コンポーネントを備えるカメラ。
  12. 広角レンズを更に備え、前記広角レンズを通じて前記カメラの1つの画像センサにより画像が捕捉される、請求項11に記載のカメラ。
  13. 複数の画像センサを更に備えるとともに、前記複数の画像センサにより捕捉される複数の一次画像から画像フレームをスティッチするようになっているスティッチングコンポーネントを更に備える、請求項12に記載のカメラ。
JP2019079092A 2018-05-04 2019-04-18 ビデオシーケンスにおいて動きを検出するための方法 Active JP6866419B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18170829.8A EP3564917B1 (en) 2018-05-04 2018-05-04 A method for detecting motion in a video sequence
EP18170829.8 2018-05-04

Publications (3)

Publication Number Publication Date
JP2020004389A true JP2020004389A (ja) 2020-01-09
JP2020004389A5 JP2020004389A5 (ja) 2020-10-08
JP6866419B2 JP6866419B2 (ja) 2021-04-28

Family

ID=62134078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019079092A Active JP6866419B2 (ja) 2018-05-04 2019-04-18 ビデオシーケンスにおいて動きを検出するための方法

Country Status (6)

Country Link
US (1) US10783646B2 (ja)
EP (1) EP3564917B1 (ja)
JP (1) JP6866419B2 (ja)
KR (1) KR102156998B1 (ja)
CN (1) CN110443750B (ja)
TW (1) TWI746947B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7208356B2 (ja) * 2018-09-26 2023-01-18 コーヒレント・ロジックス・インコーポレーテッド 任意の世界ビューの生成
KR20230106385A (ko) * 2022-01-06 2023-07-13 삼성전자주식회사 카메라를 포함하는 전자 장치 및 움직이는 물체를 촬영하는 동영상 생성 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011023885A (ja) * 2009-07-14 2011-02-03 Canon Inc 映像符号化装置及び映像符号化方法
JP2015149656A (ja) * 2014-02-07 2015-08-20 三菱電機株式会社 動き検出処理装置、画像処理装置、撮像装置及び動き検出処理方法
JP2017123658A (ja) * 2013-09-26 2017-07-13 三菱電機株式会社 監視カメラ、監視システム及び動き判定方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040099250A (ko) * 2002-04-17 2004-11-26 마츠시타 덴끼 산교 가부시키가이샤 모션검출장치, 화상처리 시스템, 모션검출방법, 프로그램및 기록매체
US20100002070A1 (en) * 2004-04-30 2010-01-07 Grandeye Ltd. Method and System of Simultaneously Displaying Multiple Views for Video Surveillance
US8427538B2 (en) * 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
JP4340915B2 (ja) * 2006-02-01 2009-10-07 ソニー株式会社 撮像画像信号の歪み補正方法、撮像画像信号の歪み補正装置、撮像方法および撮像装置
US20070252693A1 (en) * 2006-05-01 2007-11-01 Jocelyn Janson System and method for surveilling a scene
JP4525945B2 (ja) * 2007-08-07 2010-08-18 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラムおよび情報記憶媒体
CN101179725A (zh) * 2007-12-12 2008-05-14 北京中星微电子有限公司 一种运动检测方法与装置
EP2199806A1 (en) 2008-12-18 2010-06-23 Universität Zürich Passive translational velocity measurement from optical information
JP5487722B2 (ja) * 2009-05-25 2014-05-07 ソニー株式会社 撮像装置と振れ補正方法
EP2449760A1 (en) * 2009-06-29 2012-05-09 Bosch Security Systems, Inc. Omni-directional intelligent autotour and situational aware dome surveillance camera system and method
US20120019614A1 (en) * 2009-12-11 2012-01-26 Tessera Technologies Ireland Limited Variable Stereo Base for (3D) Panorama Creation on Handheld Device
JP5577939B2 (ja) * 2010-08-20 2014-08-27 ソニー株式会社 撮像装置、収差補正方法、および、プログラム
US8982180B2 (en) * 2011-03-31 2015-03-17 Fotonation Limited Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries
JP4980486B1 (ja) * 2011-06-14 2012-07-18 株式会社ナナオ 動き画像領域判定装置またはその方法
US8681223B2 (en) * 2011-06-24 2014-03-25 Honeywell International Inc. Video motion detection, analysis and threat detection device and method
WO2013190946A1 (ja) * 2012-06-22 2013-12-27 富士フイルム株式会社 撮像装置およびその動作制御方法
KR20140109537A (ko) * 2013-02-28 2014-09-16 엘지전자 주식회사 디지털 비디오 레코더 및 이를 이용한 객체 추적 방법
JP6209002B2 (ja) * 2013-07-16 2017-10-04 キヤノン株式会社 撮像装置およびその制御方法
JP6170395B2 (ja) * 2013-09-26 2017-07-26 キヤノン株式会社 撮像装置およびその制御方法
JP6027560B2 (ja) * 2014-02-18 2016-11-16 富士フイルム株式会社 自動追尾撮像装置
JP6374228B2 (ja) * 2014-06-11 2018-08-15 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、およびプログラム
JP6652060B2 (ja) * 2014-09-25 2020-02-19 日本電気株式会社 状態判定装置および状態判定方法
US9614908B2 (en) 2014-10-13 2017-04-04 Qualcomm Incorporated Selecting a leader to perform a floor arbitration function for a P2P session
WO2016152076A1 (ja) * 2015-03-20 2016-09-29 日本電気株式会社 構造物の状態判定装置と状態判定システムおよび状態判定方法
MX368852B (es) * 2015-03-31 2019-10-18 Thermal Imaging Radar Llc Configuración de diferentes sensibilidades de modelos de fondo mediante regiones definidas por el usuario y filtros de fondo.
CN104954738A (zh) * 2015-04-30 2015-09-30 广州视声光电有限公司 一种移动侦测方法及装置
WO2016191142A2 (en) * 2015-05-27 2016-12-01 Verily Life Sciences Llc Nanophotonic hyperspectral/lightfield superpixel imager
CN107852462B (zh) * 2015-07-22 2020-12-18 索尼公司 相机模块、固体摄像元件、电子设备和摄像方法
US9819865B2 (en) 2015-10-30 2017-11-14 Essential Products, Inc. Imaging device and method for generating an undistorted wide view image
JP6987508B2 (ja) * 2017-02-20 2022-01-05 オムロン株式会社 形状推定装置及び方法
JP7297412B2 (ja) * 2018-06-13 2023-06-26 キヤノン株式会社 画像処理装置、画像処理方法、およびレンズ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011023885A (ja) * 2009-07-14 2011-02-03 Canon Inc 映像符号化装置及び映像符号化方法
JP2017123658A (ja) * 2013-09-26 2017-07-13 三菱電機株式会社 監視カメラ、監視システム及び動き判定方法
JP2015149656A (ja) * 2014-02-07 2015-08-20 三菱電機株式会社 動き検出処理装置、画像処理装置、撮像装置及び動き検出処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANDREJ VEL'AS, 外2名: ""Influence of changing the parameters of the camera system on video-based motion detection"", 2017 INTERNATIONAL CARNAHAN CONFERENCE ON SECURITY TECHNOLOGY (ICCST), JPN6020050884, 23 October 2017 (2017-10-23), ISSN: 0004419456 *
竹ノ内利春, 外2名: ""高信頼画像センシングによる人体センサ付きカメラ"", パナソニック電工技報, vol. 第57巻, 第2号, JPN6020050880, 19 June 2009 (2009-06-19), pages 40 - 45, ISSN: 0004419455 *

Also Published As

Publication number Publication date
EP3564917A1 (en) 2019-11-06
US20190340771A1 (en) 2019-11-07
KR20190127543A (ko) 2019-11-13
JP6866419B2 (ja) 2021-04-28
CN110443750B (zh) 2021-07-27
EP3564917B1 (en) 2020-07-01
TW202001792A (zh) 2020-01-01
KR102156998B1 (ko) 2020-09-16
TWI746947B (zh) 2021-11-21
CN110443750A (zh) 2019-11-12
US10783646B2 (en) 2020-09-22

Similar Documents

Publication Publication Date Title
JP3935499B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
CN110717942B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
KR20190021342A (ko) 개선된 카메라 캘리브레이션 시스템, 타겟 및 프로세스
CN110099267B (zh) 梯形校正系统、方法以及投影仪
JP2019012426A5 (ja)
US20160117820A1 (en) Image registration method
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP6556013B2 (ja) 処理装置、処理システム、撮像装置、処理方法、プログラム、および記録媒体
JP2011182176A (ja) 広視野角画像処理方法と広視野角画像撮影装置
JP2012195668A (ja) 画像処理装置、画像処理方法およびプログラム
WO2019065260A1 (ja) 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ
JP6866419B2 (ja) ビデオシーケンスにおいて動きを検出するための方法
WO2013149866A2 (en) Method and device for transforming an image
US11812137B2 (en) Measurement apparatus, image capturing apparatus, control method, and recording medium
CN113259642B (zh) 一种影片视角调节方法及系统
JP7179472B2 (ja) 処理装置、処理システム、撮像装置、処理方法、プログラム、および、記録媒体
JP6585668B2 (ja) 物体検出装置
JP2010217984A (ja) 像検出装置及び像検出方法
CN109923854B (zh) 图像处理装置、图像处理方法以及记录介质
JP6550102B2 (ja) 光源方向推定装置
JP2005275789A (ja) 三次元構造抽出方法
De Villiers Real-time photogrammetric stitching of high resolution video on COTS hardware
CN111489384B (zh) 基于互视角的遮挡评估方法及装置、设备、系统和介质
US11871133B2 (en) Gaze-based non-regular subsampling of sensor pixels
JP2019129469A (ja) 画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201218

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210407

R150 Certificate of patent or registration of utility model

Ref document number: 6866419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250