JP6983837B2 - 複数のカメラからのビューを組み合わせる方法及びカメラシステム - Google Patents

複数のカメラからのビューを組み合わせる方法及びカメラシステム Download PDF

Info

Publication number
JP6983837B2
JP6983837B2 JP2019131680A JP2019131680A JP6983837B2 JP 6983837 B2 JP6983837 B2 JP 6983837B2 JP 2019131680 A JP2019131680 A JP 2019131680A JP 2019131680 A JP2019131680 A JP 2019131680A JP 6983837 B2 JP6983837 B2 JP 6983837B2
Authority
JP
Japan
Prior art keywords
activity
distance
motion
camera
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131680A
Other languages
English (en)
Other versions
JP2020031421A5 (ja
JP2020031421A (ja
Inventor
ヨーアン ステニング,
ハンプス リンス,
ソン ユアン,
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2020031421A publication Critical patent/JP2020031421A/ja
Publication of JP2020031421A5 publication Critical patent/JP2020031421A5/ja
Application granted granted Critical
Publication of JP6983837B2 publication Critical patent/JP6983837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • A61B6/5241Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、複数のカメラからのビデオをつなぎ合わせる方法及びカメラシステムに関する。
いくつかのモニタリングシステムは、エリアの単に狭い部位だけでなく、広大なエリア全体を監視することに向けられている。これは、魚眼レンズなどの広角レンズを使用して達成され得る。しかし、この種のセットアップが提供するビデオは、そのエリアを監視したい人々が求める解像度よりも低い解像度である場合があり、また、高価となりすぎる場合がある。この魚眼レンズ構成の代替構成では、監視するエリアの部位のビデオストリームをそれぞれが取得する2つ以上のカメラが配置され、これらのビデオを単一のビデオストリームに共につなぎ合わせる。図1は、個々に監視できるエリアより広いエリア105を共に監視する2つのカメラ102及び104の一例を示す。
各カメラは個々に、方向106及び108にそれぞれ向けられており、監視するエリアの全体シーン105の部位であるビューを取得する。図2は、カメラ102からのカメラビューを示す。図3は、カメラ104からのカメラビューを示す。カメラは、図のように平行に向けられてよい。カメラはまた、それらが共に広いエリア105を表す限り、異なる方向に向けられてよい。カメラが固定して載置されている場合は、カメラ102が取得するビデオが、カメラ104が取得するビデオに完全につながることが好ましい。
しかし、2つのカメラと、それらがそれぞれ取得するシーンとの間の、シーンの組み合わせが完全にシームレスとなるような整列は、達成及び維持が本質的に不可能である。したがって、あるエリアをカバーするカメラ102及び104は、そのシーンの取得にあたって重なり合うように配置される。本発明では、重なり合っているシーンは、複数のデジタルビデオカメラ102及び104の1つのデジタルビデオカメラ102が取得するシーンが、別のデジタルビデオカメラ104が取得するシーンの部位を含むという意味であると解釈されるべきである。この重なり110を図4に示す。この重なり110は、図2及び図3の共につなぎ合わせたイメージを示す。これら2つのイメージに共通110である。重なり合うエリア110であるこのシーンのエリアを、破線により示す。ビューイングエリアを拡大するために、このようにして2つのビデオをつなぎ合わせることは一般に行われており、これを達成する多くの方法が既知である。
しかし、つなぎ合わせたビデオを表す、図4のつなぎ合わせたイメージには問題がある。2つのイメージが、前景内の道路に対して整列されると、背景内の住宅が、異なる位置に溶け込む。カメラ102が取得する住宅は、112として示す住宅であり、カメラ104が取得する住宅は、114として示す住宅である。住宅が異なる位置にある理由は、2つのカメラ102及び104が、互いに距離dだけ離れて配置されているからである。2つのカメラの間の距離dにより、2つのカメラは、同じポイントからのシーンを取得せず、これによる結果として、イメージに視差が生じる。重ねたイメージにおける視差により、2つの異なるビューイングポイントから見るように、1つのオブジェクトが明白に転移することとなる。
これを解消する1つの方法は、カメラをセットアップし、システムに、重なり合うエリア内の特徴を識別させることである。これらの特徴から、調整マトリクスを続いて計算する。調整マトリクスは、重なり合っているイメージデータに適用すると、ビデオのフレーム内のそれぞれのピクセルを個々に調整することにより、ビデオ内のすべての視差問題を補償し、これを実質的に取り除く。しかし、そのようなアプローチには欠点がある。調整マトリクスの生成に必要な計算により、演算が過度に集中し、したがって、ネットワークカメラ、ネットワーク化されたビデオエンコーディングデバイス、又は、複数のカメラに接続され、これらのカメラからのビデオを処理する、ネットワーク化されたビデオ処理デバイスなど、処理パワーが限られたシステム上での実行は現実的でない。さらに、カメラは厳しい天候条件にさらされており、また、カメラ周囲のエリアでのアクティビティからの影響により、カメラのその通常の日々の運用中に、方向が微妙にずれる場合がある。カメラにおいてその方向が微妙にずれると、調整マトリクスを新たに計算する必要がある。
本発明の目的は、要求処理パワーが低いながらも、許容可能な、重なり合うエリアのビデオを供給することができる、つなぎ合わせの方法を達成することである。
この目的は、請求項1に記載の、2つのイメージセンサからのビデオデータをつなぎ合わせる方法と、請求項12に記載のカメラシステムと、により達成される。本発明のさらなる実施形態を、従属請求項に提示する。
特に、本発明の実施形態によると、重なり合っているカメラビューのビデオデータをそれぞれが取得するよう配置された2つのイメージセンサからのビデオデータをつなぎ合わせる方法は、重なり合っているカメラビューに対応する、カメラビュー内のエリア内のモーションを検出することと、2つのイメージセンサの場所での位置から、検出したモーションを含むアクティビティまでの距離であるアクティビティ距離を判定することと、三次元座標系内にて、判定したアクティビティ距離に対応する、イメージセンサの場所での位置と、予め画定された投影面上への、アクティビティの投影の位置との間の距離を有する位置に、その予め画定された投影面を位置決めすることと、アクティビティ距離に位置している、予め画定された投影面上に、イメージセンサのそれぞれからのビデオデータを投影することと、投影に対応する二次元ビデオを投影面上に出力することと、を含む。
2つのセンサからのビデオデータを、三次元座標系内にて、検出したアクティビティまでの距離に対応する、カメラからの距離に位置する投影面上に投影することの1つの利点は、限られた処理リソースを使用しながらも、つなぎ合わせたビデオの良好な閲覧体験が可能となり得ることである。処理パワーは、投影面の使用により、低レベルに維持でき、続いて、オペレータ又はビデオの閲覧者が注視する領域である、モーションの領域内の視差効果を選択的に防ぐことによっての、ビデオ体験における調整により、ビデオの体験品質が向上する。
他の実施形態では、重なり合っているカメラビューに対応する、カメラビュー内のエリア内のモーションを検出することは、取得したビデオの重なり合っている部位内にて動くピクセルを検出することを含む。この特徴の1つの利点は、モーションの検出が、ビデオ処理デバイス内にて達成され得、ビデオ内で動く特徴の位置決めを促進できることである。
さらなる実施形態では、この方法は、重なり合っているカメラビューにおけるピクセルデータから、検出したモーションのアクティビティ位置を判定し、このアクティビティ位置を、アクティビティ距離を判定することに使用することをさらに含んでよい。
他のさらなる実施形態では、アクティビティ位置を判定することは、重なり合っているイメージデータにおける検出したモーションの瞬間のインスタンスに基づいており、モーションの位置を、アクティビティ位置として設定する。この利点は、モーションを含むシーンの対象のエリアが、カメラからの異なる距離に生じ、そのシーンに対する閲覧体験が改善され得ることである。特に、シーン内の移動する特徴又はオブジェクトまでの距離のばらつきが、高頻度でばらつく傾向にある場合、が挙げられる。
他のさらなる実施形態では、アクティビティ位置を判定することは、モーションデータを重なり合っているイメージデータ内に所定の期間中に蓄積することと、続いて、この期間中に最も多くのモーションを蓄積した位置をアクティビティ位置として選択することと、を含む。このようにして、移動する特徴又はオブジェクトまでの距離が、非常に安定したベース距離からばらつく傾向にあるシーンに対する閲覧体験が、改善され得る。
さらに、アクティビティ距離を判定することを含むいくつか実施形態は、取得したビデオデータにおけるアクティビティ位置の位置を、イメージセンサのそれぞれの座標系における位置までの距離を含む所定の表において対応する位置と比較することを含む。これは、改善された閲覧体験を提供するために必要な処理パワーをさらにもっと減らし得る。
他のさらなる実施形態では、アクティビティ距離を判定することは、重なり合っているシーンをカバーするレーダー信号を受信することと、レーダー応答を、アクティビティ位置に関連付けることと、アクティビティ位置までの距離をレーダー信号から取得することと、を含む。
さらに、いくつか実施形態では、アクティビティ距離を判定することは、2つのセンサからの取得したイメージ内のアクティビティ位置の位置における差異、すなわちx-x2、を計算することを含む。
いくつか実施形態では、投影面は平面であってよい。他の実施形態では、投影面は円筒面であってよい。さらに他の実施形態では、投影面は球面であってよい。
本発明の別の態様によると、カメラシステムは、イメージセンサをそれぞれが含む2つのカメラと、少なくとも1つの画像処理デバイスと、三次元座標系内に画定される所定の投影面と、2つのカメラの重なり合っているカメラビュー内のモーションを識別するよう構成されているモーションデテクタと、2つのイメージセンサの場所での位置から、これらのカメラの重なり合っているカメラビュー内の、2つのカメラからのビデオデータ内にて検出したモーションであるアクティビティまでの距離であるアクティビティ距離を判定するよう構成されているアクティビティ距離判定モジュールと、カメラを使用して取得したビデオデータを、三次元座標系内にて、判定したアクティビティ距離に対応する、イメージセンサの場所での位置と、投影面上への、アクティビティの投影の位置との間の距離を有する位置に位置する投影面上に投影するよう構成されているイメージプロジェクタと、イメージプロジェクタにより作られたビデオデータを、2つのカメラからのつなぎ合わせたビデオとして供給するよう構成されている出力と、を含む。
2つのセンサからのビデオデータを、三次元座標系内にて、検出したアクティビティまでの距離に対応する、カメラからの距離に位置する投影面上に投影するイメージプロジェクタを有することの1つの利点は、限られた処理リソースを使用しながらも、つなぎ合わせたビデオの良好な閲覧体験が可能となり得ることである。さらに、処理パワーは、投影面の使用により、低レベルに維持でき、続いて、オペレータ又はビデオの閲覧者が注視する領域である、モーションの領域内の視差効果を選択的に防ぐことによっての、ビデオ体験における調整により、ビデオの体験品質が向上する。
他の実施形態では、モーションデテクタは、カメラからのビデオデータの重なり合っている部位内にて動くピクセルを検出するよう構成されている。この特徴の1つの利点は、モーションの検出が、ビデオ処理デバイス内にて達成され得、ビデオ内で動く特徴の位置決めを促進できることである。
他のさらなる実施形態では、カメラは、検出したモーションを所定の期間中に蓄積するために、モーションデテクタに接続されたモーションアキュムレータをさらに含んでよく、アクティビティ距離判定モジュールは、蓄積した、検出したモーションからのアクティビティ距離を判定するよう構成されている。モーションアキュムレータにより、移動する特徴又はオブジェクトまでの距離が、非常に安定したベース距離からばらつく傾向にあるシーンに対する閲覧体験が、改善され得る。
さらに、イメージプロジェクタは、ビデオデータを平らな投影面上に投影するよう構成されてよい。
本発明の適用性のさらなる範囲が、以下の詳細説明より明らかとなるであろう。しかし、本発明の好適な実施形態を示す一方で、詳細説明及び具体例は、説明のみの目的に提供されていることが理解されるべきである。なぜなら、本発明の範囲内での種々の変更及び改修が、本詳細説明から当業者に明らかとなるからである。したがって、本発明は、記載するデバイスの特定の構成部品、又は、記載する方法の特定のステップに限定されず、そのようなデバイス及び方法は異なる場合があることが理解されよう。ここに使用する用語は、特定の実施形態を説明することのみを目的としており、限定を意図していないこともまた理解されよう。なお、本明細書及び添付の特許請求の範囲に使用されるように、冠詞「a」、「an」、「the」、及び「said」は、他の例が文脈により明確に決定づけられない限り、要素が1つ又はそれ以上あることを意味するよう意図していることに注意されたい。したがって、例えば、「1つのセンサ(a sensor)」又は「当該センサ(the sensor)」という引用は、いくつかのセンサなどを含む場合がある。さらに、「含む(comprising)」という語は、他の要素又はステップを排除しない。
本発明の他の特徴及び利点は、以下の添付の図面を参照する、現在の好適な実施形態の以下の詳細説明から明らかとなるであろう。
図1は、カメラシステムがカバーするシーンの幅を広げる、2つのカメラを使用するセットアップの概略図である。 図2は、図1のカメラ102が取得するシーンの概略図である。 図3は、図1のカメラ104が取得するシーンの概略図である。 図4は、共につなぎ合わせた図2〜図3の2つのシーンの、その領域内に、オブジェクトに対する視差がないように、シーンの道路/自動車を整列させている概略図である。 図5は、図1のセットアップと同じシーンを取得する、本発明の実施形態に係るカメラシステムの概略外観図である。 図6は、2つのカメラビューと、オブジェクトのイメージ投影と、の概略図である。 図7は、投影までの距離が変更された、図6の2つのカメラビューの概略図である。 図8は、特徴位置の視差に基づく三角測量法にて使用される特徴の概略図である。 図9は、本発明の実施形態に係る、つなぎ合わせたイメージを生成するプロセスのフローチャートである。
さらに、図面中の類似の参照記号は、いくつかの図面を通して、同様の部品又は対応する部品を示す。
本発明は、所定の固定位置に位置するカメラが取得するイメージをつなぎ合わせることに関する。
図5をここで参照する。図5は、イメージを取得してつなぎ合わせるシステム500を示す。本発明の実施形態を実装するシステム500は、重なり合っているシーンのデジタルイメージデータを取得するよう載置された、2つのデジタルビデオカメラ502及び504を含んでよい。重なり合っているシーンとは、デジタルビデオカメラ502及び504の1つである502が取得するシーンが、他のデジタルビデオカメラ104が取得するシーンの部位を含むことを意味することを意図する。取得したシーンのこの共通する部位は以下、ビデオの重なり110と称する。2つのカメラは、組み合わせることで合計シーン105を表すイメージを取得する。デジタルビデオカメラ502及び504は、具体的な距離dを互いに離れて載置されている。カメラのそれぞれの光軸の方向106及び108もまた、既知であってよい。図5では、カメラ502及び504の光軸は平行である。これはしかし、必須ではない。本発明の実施形態は、ビデオの重なりが生成される限り、カメラは、それらのそれぞれの光軸との間の広がり角にて向けられている配置に対しても機能する。デジタルビデオカメラ502及び504のそれぞれは、時間的に同期されてよい。また、少なくとも、カメラ間のタイミングにおけるいずれの差異の情報が、画像処理デバイス506に利用可能である。カメラ502及び504が取得するイメージは、画像処理デバイス506に送信される。画像処理デバイス506では、イメージは合計シーン105に共につなぎ合わせられ、ビデオシーケンス内に収集される。ビデオ又はビデオシーケンスは、カメラビュー内にて取得したアクティビティの記録及び再生を可能にするために、時間的に連続するイメージのシーケンスから形成される。ビデオ又はビデオシーケンスは、Iフレーム及びPフレームなどの、空間的及び時間的エンコーディングスキームの組み合わせを使用してエンコードされてよい。そのようなエンコーディングスキームの例として、Mpeg−2、Mpeg−4、H.264、H.265などが挙げられる。続いて、つなぎ合わせたビデオシーケンスは、内部メモリカード又はハードドライブ、外部ネットワーク取り付けストレージ、ビデオサーバ、クライアントコンピュータ、及びビデオマネジメントシステムなどのストレージデバイスに送信され、及び/又は、ストリーム化されてよい。画像処理デバイス外部のストレージデバイスへの送信は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、セルラーネットワーク、及び公衆交換電話ネットワークなどのネットワーク508を介して行われてよい。デジタルビデオカメラ502及び504はそれぞれ、シーンからの光を記録し、記録した光を、取得したシーンを表すイメージデータに変換するよう配置されたイメージセンサ510を含む。
図6をここで参照する。いくつか実施形態によると、各センサ510からのイメージデータは、カメラ502及び504のそれぞれのローカルの二次元座標系内に取得されて記録される。例えば、この二次元座標系は、イメージセンサ510の表面に関連する。この表面は、二次元平面である。システムは、三次元座標系内に表される三次元空間内の平面などの、イメージセンサ面のピクセルが、投影面516上に数学的に投影される三次元座標系内にて実施され、作動する。ビデオ取得システム500の座標系は、座標系のすべての軸が交差する原点Oにてすべて始まるx軸、y軸、及びz軸を有するデカルト座標系であってよい。カメラ502及び502のイメージセンサのそれぞれのイメージデータは、カメラシステムから、すなわちこの例では原点Oから、距離zにある投影面516上に投影することにより、この三次元座標系に変換されてよい。それぞれのカメラは代替的に、それぞれのカメラのイメージデータが投影される個別の投影面までの個別の距離を有してよい。投影面516は、図6に示すように平面であってもよいし、円筒の一部、球体の一部、又は、当業者が想到するいずれの他の形状であってもよい。いくつか実施形態では、距離zはまず、図6に示す、カメラ502及び504の双方からの、イメージデータの投影面516に対するものと同じである、所定の距離である。デジタルビデオカメラ502及び504のそれぞれの位置は、それぞれC及びCと称する。これらは、三次元座標系の原点Oのエリア内にある。この例では、カメラ502及び504のそれぞれは、x軸及びz軸の平面内にその光軸を有する。カメラ502及び504間の距離dは既知であり、これにより、三次元座標系内の位置C及びCも既知である。
図6においてオブジェクト512は、シーン内の、三次元座標系内の位置Pにある。このオブジェクトは、カメラが取得するシーンの重なり内に位置するため、イメージセンサのそれぞれは、このオブジェクトを記録する。それぞれのセンサからのイメージは、投影面516上に投影される。カメラ502が取得するままの状態で、オブジェクト512の投影は、参照番号522を有するシンボルXにより視覚化される。カメラ504が取得するままの状態で、オブジェクト512の投影は、参照番号524を有するシンボルXにより視覚化される。1つのカメラからのデータは、投影面上のある位置にオブジェクトを配置し、他のカメラからのデータは、投影面上の異なる位置にオブジェクトを配置するため、オブジェクト512の投影には視差問題が生じることが、図より明らかである。この視差問題は、投影面516をオブジェクト512の位置Pに移動させることにより、すなわち、投影面516がオブジェクト512の位置Pと交差するように投影面516を位置決めすることにより防ぐことができる。この結果を示す図を図7に示す。カメラ502及び504の双方が、投影面516上の同じ位置にオブジェクト512を投影しても、オブジェクト512の投影は、いずれの視差的副作用を示さない。図からわかるように、投影面516は、原点から距離zまで移動している。この距離は、カメラシステム500の三次元座標系におけるz軸に沿う、オブジェクト512の位置Pに対応する。
オブジェクト512に対する視差的副作用を防ぐために、投影面516を動かして、オブジェクトの位置に交差させなければならない。しかし、原点から別々の距離に位置する、2つのカメラビューの重なり合う領域内の他のオブジェクトは、視差効果を示す。オブジェクト512が対象オブジェクトである場合は、対象オブジェクトに視差が生じない、重なり合うエリアを十分に良好に表し得る。この構成は、オペレータ又は閲覧者に良好な閲覧体験を提示し得る。これは、先に提案するように、投影面516までの距離を単に変更することにより達成され得、しかもそのような好適な操作は、比較的少ない処理パワーを使用して達成され得る。なぜなら、投影操作は、同程度に簡易な操作であるためである。この効果を、図1及び図4にも示す。ここでは、投影面は、道路までのカメラシステムからの距離に設定されており、背景内の住宅が、視差的副作用を示す。
オブジェクト512までの距離、すなわち、原点Oからの位置Pは、システムの既知の特性及び取得したイメージデータの分析に基づく幾何学的三角測量法や、レーダー、ライダー、飛行時間(time of flight又はTOF)技術などのアクティブ測距などの既知の方法を使用して取得されてよい。幾何学的三角測量法の一具体例では、イメージのそれぞれに内における特徴間の視差に基づいて、深度が計算される。図8を参照されたい。原点Oからオブジェクトまでの距離zは、視差、すなわちx-x、及び式1を使用して計算されてよい。
Figure 0006983837
式1における変数dは、カメラ間の距離である。この距離は、既知である。変数x及びxは、イメージの縁から、それぞれのイメージ内にある特定の特徴までの、焦面でのそれぞれのイメージにおける距離である。この距離は、取得したイメージ内にて測定されてよい。カメラの焦点距離fもまた既知である。したがって、原点Oから特定の特徴までの距離zは、式1を再配列したものを使用して計算されてよい。式2を参照されたい。
Figure 0006983837
さらに、本発明のいくつか実施形態では、カメラ502及び504はそれぞれ、モーションデテクタ520を含む。モーションデテクタ520は、取得したシーン内のモーションを検出し、検出したモーションの特性を画像処理デバイス506に送信するよう構成されている。代替的に、モーションデテクタ520は、カメラ502及び504それぞれからのイメージストリーム内のモーションを検出するために、画像処理デバイス506内に配置されてよい。モーションデテクタ520は、ビデオ分析に基づくモーション検出プロセスなどの、当業者に既知のいずれのモーションデテクタ又はオブジェクトトラッカであってよい。ビデオ分析に基づくモーション検出プロセスの例として、密オプティカルフローアルゴリズム(Dense Optical flow algorithms)、疎オプティカルフローアルゴリズム(Sparse optical flow algorithms)、カルマンフィルタリング(Kalman filtering)、ミーンシフトアルゴリズム(Meanshift algorithms)、カムシフトアルゴリズム(Camshift algorithms)、シングルオブジェクトトラッカ(Single object trackers)、又は、マルチプルオブジェクト追跡検索アルゴリズム(Multiple object track finding algorithms)を実施するオブジェクトトラッキングが挙げられる。これらのトラッカのいくつかの実装は、OpenCVと呼ばれる、オープンソースコンピュータビジョン及び機械学習ソフトウェアライブラリにて利用可能である。https://opencv.org/を参照されたい。検出したモーションの特性は、モーションの位置を含んでよい。モーションの位置は、検出したオブジェクトの重心に位置する単一のポイントとして、エリアの位置と組み合わせた、検出したオブジェクトを表すピクセルのエリアとして、又は、検出したモーションの一部である際立った特徴の位置として画定されてよい。
本発明のいくつかの実施形態によると、投影面516から原点Oまでの距離は、検出したモーションのこの位置まで計算される。この距離は、アクティビティ距離と称される。検出したモーションの位置は、カメラ502及び504のそれぞれからのイメージデータ内にて識別されてよい。この距離は、継続して更新されてよい。すなわち、投影面は、重なり合う領域内で動いているオブジェクトに継続して適用されてもよいし、この距離は、定期的に更新されてもよい。すなわち、この距離は、1時間毎などに更新されてよい。
他の実施形態によると、所定の期間中に検出したモーションの位置は保存され、ヒートマップを形成するために使用される。ヒートマップ内に表される最も頻繁なモーションを含む位置までの平均距離が、投影面516までの距離を計算するために使用されてよい。また、最も多くのモーションが記録された位置までの平均距離が、投影面516までの距離を計算するために使用されてよい。このようにして、イメージをつなぎ合わせることを目的とする対象オブジェクトは、シーン内で動く特徴又はオブジェクトとなる。
さらに他の実施形態によると、カメラビューの重なり合う領域内のモーションは、カメラシステム付近に配置したレーダーを使用して検出されてよい。モーションの検出がレーダーを使用して行われる場合、動いているオブジェクトまでの距離は、画像処理デバイス506に送信され、投影面516に対する、カメラシステム500の三次元座標系内の原点Oまでの距離を設定するために使用されてよい。
代替的に、カメラビューの重なり合う領域110内のモーションが検出され、カメラ502及び504のそれぞれからのイメージストリーム内のイメージエリアが識別される。続いて、検出したモーションに属する共通のイメージの特徴が、検出したモーションのイメージエリア内にて識別される。モーションまでの距離が続いて、カメラ502及び504のそれぞれからのイメージデータの共通基準ポイントとして、この特徴を使用して計算されてよい。
図9をここで参照する。本発明のいくつかの実施形態に係る、ビデオをつなぎ合わせる1つの方法は、少なくとも2つのカメラ502及び504に、ステップ802にて、このシーンのビデオデータを重なり合っている様式にて取得させることで開始する。先述するように、重なり合っているビデオデータを取得することは、第1のビデオカメラの取得したビデオデータの部位が、第2のビデオカメラにより取得された部位として、取得した合計シーンの、対応する部位110を表すようにすることを含む。
モーション検出操作は、ステップ804にて、重なり合っているカメラビュー110を表すイメージデータ上にて行われる。モーション検出操作はまず、重なり合っているカメラビュー110を表すイメージデータを取得する1つのカメラ502からのビデオデータ上にて行われてよい。続いて、検出したモーションは、重なり合っているカメラビュー110を表すイメージデータを取得する他のカメラ504からのビデオデータにて確定されてよい。代替的に、モーション検出操作は、1つのカメラ502からのイメージデータ内のみにて行われ、モーションの共通の特徴が、イメージデータの両セット内にて識別される。代替的に、モーション検出操作は、カメラ502及び504の双方からのイメージデータ内にて行われ、続いて、イメージデータの両セット内での対応するモーションの検出が、1つの、同じモーションとして識別される。続いて、モーションが検出されたイメージデータは、アクティビティとして直接ラベル付けされてもよいし、又は、追加的条件が満たされてから、アクティビティとしてラベル付けされてもよい。1つのそのような条件は、所定の期間が経過したという条件であってよい。
アクティビティは続いて、ヒートマップなどの、期間中に蓄積されたモーションとなってよい。そのような期間は、2か月間程度や、2時間程度であってよい。別の条件は、行われた、所定の、モーションの検出数であってよい。有益な結果を得るために十分なモーションの検出数は、モーションイベントの区分や、様々なモーションの検出間の、距離のばらつきなどにより、異なってよい。先述するように、蓄積したモーションから、位置が判定されてよい。アクティビティまでの距離が続いて、ステップ806にて判定される。距離は、上述するように計算されてよい。
続いて、所定の投影面516が、上述するように、ステップ808にて、判定したアクティビティ距離にある位置に配置又は再配置される。イメージセンサ510から取得したイメージデータが続いて、ステップ810にて、投影面516上に投影される。1つ又は複数のカメラから、投影面516上にイメージデータを投影する様々なプロセスが、当業者に既知である。そのようなプロセスの1つの記述を、「コンピュータビジョンにおけるマルチプルビュージオメトリ(Multiple View Geometry in Computer Vision)」、第2版、2003年、Richard Hartley及びAndrew Zisserman著、に見ることができる。重なり合うエリア110全体における視差を防ぐために、重なり合うエリア110全体が再計算される場合に比べて、イメージセンサ510からのイメージデータを、判定したアクティビティ距離zに位置する投影面516上に投影することにより、アクティビティの位置での視差を低コストにて防ぐことができる。つなぎ合わせたビデオがこれで、投影面516上に表され、ステップ812にて、データが、投影ビデオから、エンコードされる及び/又は表示される二次元ビデオデータとして、出力され得る。投影面516上に投影されたビデオデータは、共につなぎ合わせた2つのビデオストリームを表すため、上記プロセスからの出力は、つなぎ合わせたビデオストリームとなる。
プロセスが、距離を更新すべきであるといういずれの指示を受けていない限りは、投影面516までの距離が判定されると、2つのイメージセンサ510からのビデオをつなぎ合わせることが、イメージセンサのそれぞれからのイメージデータを、判定したアクティビティ距離zにて投影面516上に投影することを含んでよいように、プロセスは実施されてよい。そのような指示の一例は、プロセスが、アクティビティ距離を継続して評価し、計算したアクティビティ距離が、投影面516に対して現在使用しているアクティビティ距離から、所定の距離の閾値よりも大きい値だけ異なる場合に、投影面516に対して使用しているアクティビティ距離を更新することであってよい。
2つのビデオを重なり合うエリア110内に組み合わせる、簡易でありながらも効果的な方法は、イメージ情報をそのエリア内に溶け込ませるよう、プロセスを構成することである。例えば、投影面516上の重なりのそれぞれの位置には、イメージセンサ510の1つからの位置での、他のイメージセンサからの位置での明度の半分へのアルファブレンディングなど、明度の半分を加えることでもたらされる明度が、色チャネルのそれぞれにおいて与えられてよい。重なり合う領域にてイメージデータを組み合わせるさらなる方法が、当業者に既知であり、それらのいくつかは、FeatherBlender及びMultiBandBlenderなどのOpenCVにて利用可能である。
投影面516までの距離を判定するために使用される、アクティビティの位置の識別は、先の記述にて示されるように、いくつかの異なる方法にて計算されてよい。1つの実施形態によると、アクティビティ距離zの判定は、2つのカメラ502及び504の1つのカメラ502からのビデオ内のモーションを検出することと、カメラ502のカメラビュー内のそのモーションの位置を判定することと、を含む。他のカメラ504からのビデオ内のモーションを検出することと、カメラ504のカメラビュー内のそのモーションの位置を判定することと、をさらに含む。カメラ502のカメラビュー内にて検出したモーションを、カメラ504のカメラビュー内にて検出したモーションと関連付けることと、カメラ502のカメラビューのビデオ内にて検出したモーションが、カメラ504のカメラビューのビデオ内にて検出したモーションと同じであるか判定することと、をさらに含む。2つの検出したモーションの関連付けは、モーションの位置、すなわち、2つのカメラビューの重なり合うエリア110内の位置、それぞれのモーションの時間、すなわち、モーションがほぼ同時に検出された、検出したモーションの速度、すなわち、検出したモーションの速度が同じ、又は、検出したモーションの方向、すなわち、モーションの方向が同じ、を含むグループ内の特徴のいずれの1つ又はいずれの組み合わせに基づいてよい。カメラ502及び504からのビデオストリームのそれぞれ内にて検出したモーションが、同じアクティビティに属するものであることが判定されると、モーションの位置までのアクティビティ距離zが続いて、先述するように計算されてよい。そして、投影面516が、計算されたアクティビティ距離に配置されてよい。モーション及びモーションに関与するオブジェクトは追跡されてよい。また、アクティビティ距離はその動作中に、定期的に更新されてよい。代替的に、アクティビティ距離の計算は、モーションが検出される限り定期的に行われる。さらに別の代替例では、アクティビティ距離が定期的に計算される。その計算されたアクティビティ距離は、蓄積される。そして、アクティビティ距離の平均値が計算されてよい。若干異なるアプローチでは、アクティビティ距離の蓄積は、最新の10、100、又は1000のアクティビティ距離のみを含む。
別の代替的なアプローチでは、モーションが最も頻繁に検出された、カメラビューの重なり合うエリア内の位置を示すヒートマップが生成される。また、位置はヒートマップに継続して加えられてよい。カメラからのビデオストリームのそれぞれに対して、1つのヒートマップが生成される。続いて、ビデオストリームのそれぞれ内の、モーションの最大検出数のある位置が判定され、同じアクティビティに関連付けられる。したがって、カメラストリームのそれぞれ内の位置が、先述するように、アクティビティ距離の計算に使用される。
本発明は、技術的に詳細な、統合が可能ないずれのレベルでの、カメラシステム、方法、及び/又はコンピュータプログラム製品であってよい。コンピュータプログラム製品は、プロセッサに、本発明の態様を実施させるコンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体(又は、複数の媒体)を含んでよい。
コンピュータ可読記憶媒体は、命令実行デバイスが使用する命令の保持と保存が可能な実体的なデバイスであり得る。コンピュータ可読記憶媒体は、例えば、電子ストレージデバイス、磁気ストレージデバイス、光学ストレージデバイス、電磁ストレージデバイス、半導体ストレージデバイス、又は、それらのいずれの適した組み合わせであってよいが、これに制限しない。コンピュータ可読記憶媒体の非包括的なさらなる具体例として、次が挙げられる:ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(random access memory又はRAM)、読み取り専用メモリ(read−only memory又はROM)、消去可能プログラマブル読み取り専用メモリ(erasable programmable read−only memory又はEPROM、若しくはフラッシュメモリ)、スタティックランダムアクセスメモリメモリ(static random access memory又はSRAM)、ポータブルコンパクトディスク読み取り専用メモリ(portable compact disc read−only memory又はCD−ROM)、デジタルバーサタイルディスク(digital versatile disk又はDVD)、メモリスティック、及び、それらのいずれの適した組み合わせ。コンピュータ可読記憶媒体は、ここに使用されるように、電波、他の自由に伝播する電磁波、導波管若しくは他の送信媒体を通って伝播する電磁波(例えば、光ファイバケーブルを通る光パルス)、又は電線を通って送信される電気信号など、一時的な信号それ自体として解釈されない。
ここに説明するコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から、演算/処理デバイスのそれぞれに、又は、外部コンピュータ若しくは外部ストレージデバイスに、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、及び/又は、無線ネットワークなどのネットワークを介して、ダウンロードできる。ネットワークは、銅製送信ケーブル、光送信ファイバ、無線送信、ルータ、ファイヤウォール、スイッチ、ゲートウェイコンピュータ、及び/又はエッジサーバを含んでよい。演算/処理デバイスのそれぞれ内のネットワークアダプタカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、そのコンピュータ可読プログラム命令を、演算/処理デバイスのそれぞれ内のコンピュータ可読記憶媒体内での保存のために転送する。
本発明の作動を実施するコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(instruction−set−architecture又はISA)命令、機械命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、集積回路用構成データ、又は、SmalltalkやC++などのオブジェクト志向プログラミング言語や、「C」プログラミング言語や同様のプログラミング言語などの手続き型プログラミング言語などを含む、1つ又はそれ以上のプログラミング言語のいずれの組み合わせにて記述されたソースコード若しくはオブジェクトコードのいずれであってよい。コンピュータ可読プログラム命令は、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、スタンドアローンソフトウェアパッケージとして、ユーザのコンピュータ上で部分的に及びリモートコンピュータ上で部分的に、又は、リモートコンピュータ若しくはサーバ上で完全に、実行されてよい。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(local area network又はLAN)若しくはワイドエリアネットワーク(wide area network又はWAN)を含むいずれの種類のネットワークを通して、ユーザのコンピュータに接続されてよいし、又は、(例えば、インターネットサービスプロバイダを使用してのインターネットを通しての)外部コンピュータへの接続が行われてよい。いくつか実施形態では、プログラマブルロジック回路、フィールドプログラマブルゲートアレイ(field−programmable gate arrays又はFPGA)、又は、プログラマブルロジックアレイ(programmable logic arrays又はPLA)などを含む電子回路が、本発明の態様を行うために、電子回路を個人向けに設定するための、コンピュータ可読プログラム命令の状態情報を利用することにより、コンピュータ可読プログラム命令を実行してよい。
本発明の態様を、本発明の実施形態に係る方法、装置(システム)、及びコンピュータプログラム製品のフローチャートの図示及び/又はブロック図を参照して説明した。フローチャートの図示及び/又はブロック図のそれぞれのブロック、及び、フローチャートの図示及び/又はブロック図におけるブロックの組み合わせは、コンピュータ可読プログラム命令によって実施できることが理解されるであろう。
コンピュータ又は他のプログラマブルデータ処理装置のプロセッサを介して実行されるこれらの命令が、フローチャート及び/又はブロック図の1つのブロック又は複数のブロックに規定される機能/作用を実施する手段を作成するよう、これらのコンピュータ可読プログラム命令は、マシンを作製するための汎用コンピュータ、専用コンピュータ、又は、他のプログラマブルデータ処理装置のプロセッサに提供されてよい。命令が保存されたコンピュータ可読記憶媒体が、フローチャート及び/又はブロック図の1つのブロック又は複数のブロックに規定される機能/作用の態様を実施する命令を含む製品を含むよう、これらのコンピュータ可読プログラム命令は、コンピュータ、プログラマブルデータ処理装置、及び/又は他のデバイスに、特定の様式にて機能するよう命令できるコンピュータ可読記憶媒体内に保存できてよい。
コンピュータ、他のプログラマブル装置、又は、他のデバイス上で実行される命令が、フローチャート及び/又はブロック図の1つのブロック又は複数のブロックに規定される機能/作用を実施するよう、これらのコンピュータ可読プログラム命令はまた、コンピュータ、他のプログラマブルデータ処理装置、又は他のデバイスにロードされ、一連の作動ステップが、コンピュータ、他のプログラマブル装置、又は、他のデバイス上で行われ、コンピュータにより実施されるプロセスを生成してよい。
図中のフローチャート及びブロック図は、本発明の様々な実施形態に係る、システム、方法、及び、コンピュータプログラム製品の可能な実装のアーキテクチャ、機能、及び、作動を示す。これに関して、フローチャート又はブロック図内のそれぞれのブロックは、規定される論理的機能(単一又は複数)を実施する、1つ又はそれ以上の実行可能命令を含むモジュール、セグメント、又は、命令の部位を表してよい。いくつかの代替的実装では、ブロック内に記される機能は、図に記す順序を外れて実施されてよい。例えば、連続して示す2つのブロックは実際に、実質的に同時に実行されるか、又は、関連する機能によっては、これらのブロックが時に反対の順序にて実行されてよい。なお、ブロック図及び/又はフローチャートの図示のそれぞれのブロック、及び、ブロック図及び/又はフローチャートの図示内のブロックの組み合わせは、規定の機能又は作用を行う、又は、専用ハードウェア及びコンピュータ命令の組み合わせを実現する、専用のハードウェアに基づくシステムによっても実装できる。
本発明の様々な実施形態の説明を、例示を目的として提示した。これらはしかし、開示する実施形態に対して包括的又は限定的となることを意図しない。説明する実施形態の範囲及び精神から逸脱することなく、多くの変形例及び変更例が、当業者に明らかとなるであろう。ここに使用する用語は、実施形態の原理、市場にみられる技術の実際の応用又は技術的改善点を最良に説明するよう、又は、ここに開示する実施形態を他の当業者が理解できるよう選択された。

Claims (13)

  1. あるシーンの重なり合っているカメラビュー(110)のビデオデータをそれぞれが取得するよう配置された2つのイメージセンサ(510)からのビデオデータをつなぎ合わせる方法であって、
    2つのイメージセンサ(510)を使用して前記シーンの重なり合っているカメラビュー(110)のビデオデータを取得すること(802)であって、それぞれのイメージセンサ(510)は、三次元座標系内の、該三次元座標系の原点に対する相対位置を有する、ビデオデータを取得すること(802)と、
    前記重なり合っているカメラビュー(110)に対応する、カメラビュー内のエリア内のモーションを検出すること(804)と、
    前記三次元座標系の前記原点に対応する位置から、検出した前記モーションを含むアクティビティ位置までの距離である、アクティビティ距離(z)を判定すること(806)であって、所定の期間中又は所定のモーションの検出数に対して、重なり合っているイメージデータ内のモーションデータを蓄積することと、続いて、最も多くのモーションを蓄積した位置を前記アクティビティ位置として選択することと、を含む前記アクティビティ距離(z)を判定すること(806)と、
    前記三次元座標系内にて、判定した前記アクティビティ距離(z)に対応する、前記三次元座標系の前記原点からの距離を有する位置に、所定の形状の投影面(516)を位置決めすること(808)であって、前記投影面(516)が、前記アクティビティ位置に対応する前記三次元座標系内の位置と交差するように位置決めすること(808)と、
    前記投影面(516)上に、前記イメージセンサ(510)のそれぞれからの前記ビデオデータを投影すること(810)と、
    投影した前記ビデオデータに対応する二次元ビデオを出力すること(812)と、を含む、方法。
  2. 前記重なり合っているカメラビュー(110)に対応する、カメラビュー内のエリア内のモーションを検出すること(804)は、取得した前記ビデオデータの重なり合っている部位内にて動くピクセルを検出することを含む、請求項1に記載の方法。
  3. 前記重なり合っているカメラビュー(110)におけるピクセルデータから、検出した前記モーションの前記アクティビティ位置を判定し、前記アクティビティ位置を、前記アクティビティ距離(z)の判定に使用することをさらに含む、請求項1又は2に記載の方法。
  4. 前記アクティビティ距離(z)を判定すること(806)は、重なり合っているイメージデータにおける検出した前記モーションの瞬間のインスタンスに基づいており、前記モーションの位置を、前記アクティビティ位置として設定する、請求項1〜3のいずれか一項に記載の方法。
  5. 前記アクティビティ距離(z)を判定すること(806)は、前記アクティビティ位置の、取得した前記ビデオデータにおける位置を、前記イメージセンサ(510)のそれぞれの座標系における位置までの距離を含む所定の表において対応する位置と比較することを含む、請求項1〜のいずれか一項に記載の方法。
  6. 前記アクティビティ距離(z)を判定すること(806)は、重なり合っているシーンをカバーするレーダー信号を受信することと、レーダー応答を、前記アクティビティ位置に関連付けることと、前記アクティビティ位置までの前記距離を前記レーダー信号から取得することと、を含む、請求項1〜のいずれか一項に記載の方法。
  7. 前記アクティビティ距離(z)を判定すること(806)は、前記アクティビティ位置の、前記2つのイメージセンサからの取得したイメージにおける位置の差、すなわちx1-x2、を計算することを含む、請求項1〜のいずれか一項に記載の方法。
  8. 前記投影面(516)は平面である、請求項1〜のいずれか一項に記載の方法。
  9. 前記投影面(516)は円筒面である、請求項1〜のいずれか一項に記載の方法。
  10. 前記投影面(516)は球面である、請求項1〜のいずれか一項に記載の方法。
  11. イメージセンサ(510)をそれぞれが含む2つのカメラ(502、504)であって、前記イメージセンサ(510)は、三次元座標系内の、該三次元座標系の原点に対する相対位置を有し、あるシーンの重なり合っているカメラビュー(110)のビデオデータを取得するよう構成されている、2つのカメラと、
    少なくとも1つの画像処理デバイス(506)と、
    前記三次元座標系内に画定される所定の投影面(516)と、
    前記2つのカメラ(502、504)の前記重なり合っているカメラビュー(110)に対応する、カメラビュー内のエリア内のモーションを検出するよう構成されているモーションデテクタ(520)と、
    所定の期間中、又は所定のモーションの検出数に対して、検出したモーションを蓄積するために、前記モーションデテクタ(520)に接続されたモーションアキュムレータと、
    前記三次元座標系の前記原点に対応する位置から、検出した前記モーションを含むアクティビティ位置までの距離であるアクティビティ距離(z)を、蓄積した検出したモーションから判定するよう構成されているプロセッサと、
    前記カメラ(502、504)のそれぞれからの前記ビデオデータを前記投影面(516)上に投影するよう構成されているイメージプロジェクタであって、前記投影面(516)は、前記三次元座標系内にて、判定した前記アクティビティ距離(z)に対応する、前記三次元座標系の前記原点からの距離を有する位置に位置決めされ、且つ前記アクティビティ位置に対応する前記三次元座標系内の位置と交差するように位置決めされる、イメージプロジェクタと、
    投影した前記ビデオデータに対応する二次元ビデオを出力するよう構成されている出力と、を含む、カメラシステム(500)。
  12. 前記モーションデテクタ(520)は、前記カメラ(502、504)からの前記ビデオデータの重なり合っている部位内にて動くピクセルを検出するよう構成されている、請求項11に記載のカメラシステム(500)。
  13. 前記イメージプロジェクタは、ビデオデータを平らな投影面上に投影するよう構成されている、請求項11又は12に記載のカメラシステム(500)。
JP2019131680A 2018-07-30 2019-07-17 複数のカメラからのビューを組み合わせる方法及びカメラシステム Active JP6983837B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18186340.8A EP3606032B1 (en) 2018-07-30 2018-07-30 Method and camera system combining views from plurality of cameras
EP18186340.8 2018-07-30

Publications (3)

Publication Number Publication Date
JP2020031421A JP2020031421A (ja) 2020-02-27
JP2020031421A5 JP2020031421A5 (ja) 2021-04-08
JP6983837B2 true JP6983837B2 (ja) 2021-12-17

Family

ID=63244387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131680A Active JP6983837B2 (ja) 2018-07-30 2019-07-17 複数のカメラからのビューを組み合わせる方法及びカメラシステム

Country Status (6)

Country Link
US (1) US10810847B2 (ja)
EP (1) EP3606032B1 (ja)
JP (1) JP6983837B2 (ja)
KR (1) KR102239530B1 (ja)
CN (1) CN110784641B (ja)
TW (1) TWI764024B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10812770B2 (en) * 2017-09-13 2020-10-20 Canon Kabushiki Kaisha Image processing system, image processing apparatus, image processing method, and program
CN111521281A (zh) * 2020-04-15 2020-08-11 杭州涂鸦信息技术有限公司 红外测温系统及其测温方法
EP3923241B1 (en) 2020-06-09 2022-04-06 Axis AB Aligning digital images
TWI787638B (zh) * 2020-07-30 2022-12-21 杰悉科技股份有限公司 影像物件追蹤方法
US11228878B1 (en) * 2020-08-31 2022-01-18 Amdocs Development Limited System, method, and computer program for edge management of geographically dispersed sensors
CN112365666A (zh) * 2020-09-09 2021-02-12 北京潞电电气设备有限公司 一种配电室智能安防监控方法及装置
CN112380894B (zh) * 2020-09-30 2024-01-19 北京智汇云舟科技有限公司 一种基于三维地理信息系统的视频重叠区域目标去重方法和系统
CN112288810B (zh) * 2020-10-29 2023-04-07 铜陵有色金属集团股份有限公司 采样定位方法、装置、系统及计算机存储介质
CN112954234A (zh) * 2021-01-28 2021-06-11 天翼物联科技有限公司 一种多视频融合的方法、系统、装置及介质
EP4060982B1 (en) * 2021-03-15 2023-06-28 Axis AB Method and monitoring camera for handling video streams

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08205134A (ja) * 1995-01-20 1996-08-09 Fujitsu General Ltd 監視カメラ制御装置
JP2001101421A (ja) * 1999-09-30 2001-04-13 Sumitomo Electric Ind Ltd 走行支援装置
KR20030028553A (ko) * 2000-07-21 2003-04-08 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 이미지 모자이크 방법 및 장치
JP2003141562A (ja) * 2001-10-29 2003-05-16 Sony Corp 非平面画像の画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
US20160267720A1 (en) * 2004-01-30 2016-09-15 Electronic Scripting Products, Inc. Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
JP2006229789A (ja) * 2005-02-18 2006-08-31 Toshiba Corp カメラ監視システム及びそれに用いられる映像合成方法、映像合成プログラム
CN100373394C (zh) * 2005-10-28 2008-03-05 南京航空航天大学 基于仿生复眼的运动目标的检测方法
JP4979525B2 (ja) * 2007-09-20 2012-07-18 株式会社日立製作所 マルチカメラシステム
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
US8416282B2 (en) 2008-10-16 2013-04-09 Spatial Cam Llc Camera for creating a panoramic image
US20130278727A1 (en) * 2010-11-24 2013-10-24 Stergen High-Tech Ltd. Method and system for creating three-dimensional viewable video from a single video stream
US10848731B2 (en) * 2012-02-24 2020-11-24 Matterport, Inc. Capturing and aligning panoramic image and depth data
US9013543B1 (en) * 2012-11-14 2015-04-21 Google Inc. Depth map generation using multiple scanners to minimize parallax from panoramic stitched images
JP2015138427A (ja) * 2014-01-23 2015-07-30 シャープ株式会社 監視装置
US9754159B2 (en) 2014-03-04 2017-09-05 Gopro, Inc. Automatic generation of video from spherical content using location-based metadata
CN104301677B (zh) * 2014-10-16 2018-06-15 北京十方慧通科技有限公司 面向大场景的全景视频监控的方法及装置
US20170006219A1 (en) * 2015-06-30 2017-01-05 Gopro, Inc. Image stitching in a multi-camera array
JP6615545B2 (ja) * 2015-09-15 2019-12-04 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
JP6623044B2 (ja) * 2015-11-25 2019-12-18 日立オートモティブシステムズ株式会社 ステレオカメラ装置
KR102460906B1 (ko) * 2016-02-17 2022-11-01 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
KR102236222B1 (ko) * 2016-08-24 2021-04-05 한국전자통신연구원 중첩영역의 제어점들을 이용한 시차 최소화 스티칭 장치 및 방법
US10313686B2 (en) * 2016-09-20 2019-06-04 Gopro, Inc. Apparatus and methods for compressing video content using adaptive projection selection
CN115022625A (zh) * 2016-10-04 2022-09-06 有限公司B1影像技术研究所 图像数据编码/解码方法和计算机可读记录介质
CN106331527B (zh) * 2016-10-12 2019-05-17 腾讯科技(北京)有限公司 一种图像拼接方法及装置
TWI581211B (zh) * 2016-11-18 2017-05-01 財團法人工業技術研究院 影像融合裝置及其方法
US10313584B2 (en) * 2017-01-04 2019-06-04 Texas Instruments Incorporated Rear-stitched view panorama for rear-view visualization
JP6969121B2 (ja) * 2017-03-17 2021-11-24 株式会社リコー 撮像システム、画像処理装置および画像処理プログラム
CN108009985B (zh) * 2017-11-24 2020-04-24 武汉大学 一种基于图割的视频拼接方法
US20190289206A1 (en) * 2018-03-15 2019-09-19 Keiichi Kawaguchi Image processing apparatus, image capturing system, image processing method, and recording medium
US20190306420A1 (en) * 2018-03-31 2019-10-03 Takashi Okaki Image processing apparatus, image capturing system, image processing method, and recording medium
WO2020013484A1 (ko) * 2018-07-11 2020-01-16 엘지전자 주식회사 360 비디오 시스템에서 오버레이 처리 방법 및 그 장치

Also Published As

Publication number Publication date
EP3606032A1 (en) 2020-02-05
US10810847B2 (en) 2020-10-20
TWI764024B (zh) 2022-05-11
EP3606032B1 (en) 2020-10-21
CN110784641A (zh) 2020-02-11
KR20200013585A (ko) 2020-02-07
US20200035075A1 (en) 2020-01-30
CN110784641B (zh) 2021-09-14
KR102239530B1 (ko) 2021-04-12
JP2020031421A (ja) 2020-02-27
TW202020815A (zh) 2020-06-01

Similar Documents

Publication Publication Date Title
JP6983837B2 (ja) 複数のカメラからのビューを組み合わせる方法及びカメラシステム
JP7472362B2 (ja) 受信方法、端末及びプログラム
US9667862B2 (en) Method, system, and computer program product for gamifying the process of obtaining panoramic images
JP6621063B2 (ja) カメラ選択方法及び映像配信システム
US9723203B1 (en) Method, system, and computer program product for providing a target user interface for capturing panoramic images
US7583815B2 (en) Wide-area site-based video surveillance system
US20150264258A1 (en) Autonomous camera system for capturing sporting events
KR101695249B1 (ko) 감시 영상 표시 방법 및 시스템
KR20150050172A (ko) 관심 객체 추적을 위한 다중 카메라 동적 선택 장치 및 방법
US20190335166A1 (en) Deriving 3d volumetric level of interest data for 3d scenes from viewer consumption data
KR102456332B1 (ko) 헤드 장착형 디스플레이 및 접속된 원격 디스플레이에서 시각적으로 유도된 멀미를 감소시키는 방법
KR20140011964A (ko) 고품질, 전방위 파노라마 동영상을 이용한 감시 정찰 방법
WO2019244944A1 (ja) 三次元再構成方法および三次元再構成装置
US20160127617A1 (en) System for tracking the position of the shooting camera for shooting video films
Chen Capturing fast motion with consumer grade unsynchronized rolling-shutter cameras
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
US20230410417A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210218

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211124

R150 Certificate of patent or registration of utility model

Ref document number: 6983837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150