JP6967489B2 - マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン - Google Patents

マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン Download PDF

Info

Publication number
JP6967489B2
JP6967489B2 JP2018110291A JP2018110291A JP6967489B2 JP 6967489 B2 JP6967489 B2 JP 6967489B2 JP 2018110291 A JP2018110291 A JP 2018110291A JP 2018110291 A JP2018110291 A JP 2018110291A JP 6967489 B2 JP6967489 B2 JP 6967489B2
Authority
JP
Japan
Prior art keywords
video
image data
frame
video frame
overlapping portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018110291A
Other languages
English (en)
Other versions
JP2019033474A5 (ja
JP2019033474A (ja
Inventor
トイヴォ ヘニンソン,
ソン ユアン,
Original Assignee
アクシス アーベー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アクシス アーベー filed Critical アクシス アーベー
Publication of JP2019033474A publication Critical patent/JP2019033474A/ja
Publication of JP2019033474A5 publication Critical patent/JP2019033474A5/ja
Application granted granted Critical
Publication of JP6967489B2 publication Critical patent/JP6967489B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、マルチセンサービデオカメラの分野に関し、詳細には、マルチセンサービデオカメラによってキャプチャされる画像のスティッチングに関する。
部分的に重複する視野をもつ複数のセンサーを有するビデオカメラは、監視市場においてますます普及しつつある。そのようなビデオカメラの複数のセンサーによって同時にキャプチャされている画像は、一緒にスティッチされて、複数のセンサーの組み合わせられた視野を表すパノラマ画像を形成し得る。スティッチングは、好ましくは、画像間のシームレス遷移を与えるように行われる。
複数のセンサーからの画像を一緒にスティッチするプロセスは、一般に処理集中的であり、それにより、ビデオカメラの処理パイプラインにおけるレイテンシをもたらしやすい。結局、これは、ビデオカメラの処理パイプラインが、キャプチャされたフレームを十分に高速に処理することが可能でないことがあるので、ビデオカメラのフレームレートに対して制限をかけ得る。
市場で現在入手可能であるビデオカメラにおいて見つかるこの問題の1つのソリューションは、処理パイプラインに入力される前に、同時にキャプチャされた画像のスティッチングを遂行するために、ビデオカメラの処理パイプラインのフィールドプログラマブルゲートアレイ(FPGA)アップストリームを含めることである。しかしながら、このソリューションは、詳細には、FPGAが、画像のスティッチングによって引き起こされる望ましくない遅延をもたらさないように十分高速であるべきである場合、費用がかかる。さらに、このソリューションは、ビデオカメラの処理パイプライン中で遂行される画像処理のうちのいくつかが、スティッチングが実施されるより前に個々の画像に対して実施されることを除外する。これは、いくつかの場合には、ビデオカメラの処理パイプラインの終了時に、より不十分な品質の最終のスティッチされた画像が出力されることにつながり得る。したがって、改善の余地がある。
上記に鑑みて、本発明の目的は、したがって、ビデオカメラの複数のセンサーによって同時にキャプチャされている画像を一緒にスティッチするための改善されたプロセスを提供することである。詳細には、画像をスティッチするプロセスによって引き起こされるビデオカメラの処理パイプラインにおけるレイテンシを低減することが目的である。さらなる目的は、実装するのにコスト効率の高いスティッチングプロセスを提供することである。
本発明の第1の態様によれば、上記の目的は、部分的に重複する視野をもつ第1および第2のセンサーを有するマルチセンサービデオカメラにおいて実施される方法によって達成され、方法は、
それぞれ第1のセンサーと第2のセンサーとによって同時にキャプチャされている第1のビデオフレームと第2のビデオフレームとを受信することであって、
第1および第2のビデオフレームの各々は、それが第1および第2のビデオフレームの他方と重複しない、重複しない部分(non−overlapping portion)と、それが第1および第2のビデオフレームの他方と重複する、重複する部分(overlapping portion)とを有する、受信することと、
第1および第2のビデオフレームの重複しない部分からの画像データを、第1のビデオフレームの重複する部分からの画像データのみと一緒に結合することによって、第1のビデオストリームのフレームを生成することと、
第2のビデオストリームのフレームを生成することであって、第2のビデオストリームのフレームが、少なくとも第2のビデオフレームの重複する部分からの画像データを含む、生成することと、
第1のビデオストリームのフレームと第2のビデオストリームのフレームとを並列に処理することであって、第2のビデオストリームのフレームの処理が、少なくとも第2のビデオフレームの重複する部分からの画像データに基づいてオーバーレイを準備することを含む、処理することと、
第1のビデオストリームの処理されたフレームに、処理されたフレームの第1のビデオフレームの重複する部分に対応する部分においてオーバーレイを追加することと
を備え、
第1のビデオフレームの重複する部分からの画像データは、オーバーレイを準備するステップとオーバーレイを追加するステップとのうちの少なくとも1つにおいて第2のビデオフレームの重複する部分からの画像データとブレンドされる。
任意のスティッチングプロセスの処理集中パートは、画像データをどのようにブレンドすべきかを計算すること、次いで、画像間のシームレス遷移を提供するように、画像が重複する部分中のキャプチャされた画像の画像データをブレンドすることである。しかしながら、発明者は、画像データをどのようにブレンドすべきかを計算するか、ブレンディングのための画像データを準備するか、さらにはブレンディングを遂行するために、キャプチャされたビデオフレームの画像データの小さい部分のみが必要とされることを了解している。より具体的には、特定の実施形態に応じて、ビデオフレームの一方または両方の重複する部分からの画像データのみが、これらのステップを遂行するために必要とされる。それゆえ、画像データのその小さい部分を、第1のビデオストリームのフレーム中に含まれている画像データの大部分と並列に処理され得る第2のビデオストリームのフレームに分離することが提案される。このようにして、画像データの小さいパートに対して動作するにすぎない、スティッチングプロセスの処理集中パートは、画像データの大きいパートに対して遂行されるスティッチングプロセスの他の、あまり処理が集中しないパートと並列に遂行され得る。それにより、レイテンシは低減される。
市販のビデオカメラは、しばしば、たとえば、ロゴタイプまたは類似物の形態で、ビデオストリームの上にオーバーレイを追加するように適応されたハードウェアを有する。発明者は、この利用可能な機能が画像のスティッチングに関連して使用され得ることを了解している。たとえば、第2のビデオストリームのフレーム(すなわち、第1および第2のビデオフレームの一方または両方の重複する部分からの画像データ)はオーバーレイを準備するために使用され得、オーバーレイは、次いで、第1のビデオストリーム中のフレーム中の画像データの交換によって、または第1のビデオストリーム中のフレーム中の画像データとのブレンディングによってのいずれかで、第1のビデオストリームのフレームの上に追加される。このようにして、利用可能な機能は使用され、それにより、実装のコスト効率を高くし得る。
第1のセンサーと第2のセンサーとは、部分的に重複する視野を有する。言い換えれば、第1のセンサーと第2のセンサーとは、同じシーンを表すが、そのシーンを、異なるが重複する視野を用いて表す。これは、シーンの同じパートからの画像情報を保持する、すなわち、シーンの同じパートを表す、第1および第2のビデオフレーム中のピクセルがあるであろうことを暗示する。そのようなピクセルを備える第1および第2のビデオフレームの部分は、本明細書では、重複する部分と呼ばれる。逆に、ピクセルが、第2のビデオフレームによって表されていないシーンのパートを表す第1のビデオフレームの部分、およびその逆は、重複しない部分と呼ばれる。
オーバーレイは、概して、別の画像上にオーバーレイされることを意図された画像を意味する。フレームまたは画像にオーバーレイを追加することは、概して、オーバーレイが、フレームまたは画像上にオーバーレイされるか、または挿入されることを意味する。オーバーレイは、フレーム中の画像データを交換することを介して、またはオーバーレイをフレーム中の画像データとブレンドすることによって、たとえば、オーバーレイの透過性を設定することによって追加され得る。
ブレンディングは、概して、重み付き平均を計算することを意味する。
実施形態の第1のグループでは、第2のビデオストリームのフレームは、第2および第1のビデオフレームの重複する部分からの画像データを備え、オーバーレイを準備するステップは、第2のビデオフレームの重複する部分からの画像データを、第1のビデオフレームの重複する部分からの画像データとブレンドすることを含む。そのような実施形態では、したがって、第1および第2のビデオフレームの重複する部分からの画像データは、オーバーレイの準備中にブレンドされる。このプロセスは、第1のビデオストリームの処理と並列に遂行されるので、ブレンディングプロセスによって追加の時間遅延が引き起こされない。
実施形態の第1のグループでは、第1および第2のビデオフレームの重複する部分に対応する画像データのブレンディングは、オーバーレイの準備中に遂行される。したがって、第1のビデオストリームの処理されたフレームにオーバーレイを追加するときに、さらなるブレンディングは必要とされない。そのような場合、オーバーレイは、交換を介して追加され得る。より詳細には、オーバーレイを追加するステップにおいて、オーバーレイは、第1のビデオフレームの重複する部分に対応する部分中の第1のビデオストリームの処理されたフレームの画像データと置き替わる。実施形態の第1のグループの一般的な利点は、ブレンディングアルゴリズムがより自由に選定され得るということである。オーバーレイの追加を実施する利用可能なハードウェアによってサポートされないアルゴリズムでさえ、選定され得る。アルゴリズムの例が以下で説明される。
オーバーレイの準備中の第1および第2のビデオフレームの重複する部分からの画像データのブレンディングは、様々な方法で遂行され得る。
概して、ブレンドすることは、重複する部分中の各ピクセルについて、第1のビデオフレームからの画像データおよび第2のビデオフレームからの画像データとの重み付き平均を計算することを含み得る。
本明細書で「アルファブレンディング」と呼ばれる一例によれば、重み付き平均の重みは、第1および第2のビデオフレームの重複する部分と重複しない部分との間の境界までのピクセルの距離に依存する。より詳細には、第2のビデオフレームの重複する部分からの画像データに関連する重みが、ピクセルから、第2のビデオフレームの重複する部分と重複しない部分との間の境界までの最短距離に依存し、第1のビデオフレームの重複する部分からの画像データに関連する重みが、ピクセルから、第1のビデオフレームの重複する部分と重複しない部分との間の境界までの最短距離に依存する。
本明細書で「マルチバンドブレンディング」と呼ばれるさらなる例によれば、重みは、空間的高周波数コンテンツと空間的低周波数コンテンツとについて別様に選択され得る。たとえば、アルファブレンディングは、より低い周波数のために適用され得るが、重みは、ピクセルが第1のビデオフレームの重複しない部分の境界により近いのか、第2のビデオフレームの重複しない部分の境界により近いのかに応じて、より高い周波数について0または1のいずれかに設定される。より詳細には、ブレンディングは、
第1のビデオフレームの重複する部分からの画像データおよび第2のビデオフレームの重複する部分からの画像データの第1の重み付き平均を計算することであって、第1の重み付き平均が、第1のしきい値よりも低い空間周波数に関して計算される、計算することと、
第1のビデオフレームの重複する部分からの画像データおよび第2のビデオフレームの重複する部分からの画像データの第2の重み付き平均を計算することであって、第2の重み付き平均が、第2のしきい値に等しいかまたはそれを上回る空間周波数に関して計算され、第2のしきい値が第1のしきい値よりも大きいかまたはそれに等しく、
重みが、第1の重み付き平均と第2の重み付き平均とについて別様に選択される、計算することと、
第1の重み付き平均を第2の重み付き平均に追加することによってオーバーレイを計算することと
を含み得る。
本明細書で「特徴ベースブレンディング」と呼ばれる、また一例によれば、ブレンディングは、
第1のビデオフレームの重複する部分中の物体と、第2のビデオフレームの重複する部分中の物体とを識別することと、
重複する部分中で第1のビデオフレームからの画像データおよび第2のビデオフレームからの画像データの重み付き平均を計算することと
を含み、
第1のビデオフレームの重複する部分と第2のビデオフレームの重複する部分の両方の中で物体が識別された場合、第1のビデオフレームの画像データまたは第2のビデオフレームの画像データのうちの1つに関連する重みは、その物体に属するとして識別されるピクセルについて0に設定される。このタイプのブレンディングの場合、たとえば、人などの物体を表す画像データは、第1のビデオフレームと第2のビデオフレームとのうちの1つ中にのみ含まれ、それにより、ブレンドされた画像中のわずかに異なる位置において物体が二重に現れることを回避する。これは、場合によっては、複数のセンサーの視差効果による事例であり得る。
実施形態の第2のグループによれば、ブレンディングは、オーバーレイを準備するときにではなく、第1のビデオストリームの処理されたフレームにオーバーレイを追加するときに起こる。そのような実施形態では、オーバーレイは、第2のビデオフレームの重複する部分からの画像データのみを含み、オーバーレイを追加するステップは、第1のビデオストリームの処理されたフレームと、処理されたフレームの第1のビデオフレームの重複する部分に対応する部分においてオーバーレイをブレンドすることを含む。オーバーレイの追加は、一般に、専用ハードウェアによって、一般に特定用途向け集積回路(ASIC)の形態で実装される。オーバーレイを追加するときにブレンディングを実施することによって、たとえば、中央処理ユニットまたはグラフィックス処理ユニット中でカスタムアルゴリズムを動かす必要がなくなる。代わりに、専用ハードウェア、たとえば、ASICは、オーバーレイが追加されるのと同時にブレンディングを遂行するために利用され、それにより、ブレンディングプロセスを加速し得る。
ブレンディングは、たとえば、第1のビデオストリームの処理されたフレームにオーバーレイを追加するときにオーバーレイの透過性を設定することによって遂行され得る。オーバーレイの透過性は、異なるピクセルについて異なる値を与えられ得る。1の透過性は、オーバーレイからの画像データのブレンディングを生じず、オーバーレイを追加した後のピクセルの結果値は、第1のビデオフレームの値である。0の透過性は、オーバーレイの全ブレンディングを生じる。その場合、オーバーレイを追加した後のピクセルの結果値は、第2のビデオフレームの値である。0から1の間の透過性は、様々な程度までのオーバーレイのブレンディングを生じることになり、すなわち、オーバーレイを追加した後のピクセルの画像データ結果値は、第1のビデオフレームの画像データおよび第1のビデオフレームの画像データの重み付き平均である。したがって、オーバーレイ中の各ピクセルについて、たとえば、0から1の間の値に対応するブレンディングの程度は、オーバーレイの準備中に指定され得る。ブレンディングのこの程度は、次いで、第1のビデオストリームの処理されたフレームにオーバーレイを追加するときにオーバーレイの透過性を設定するために使用され得る。
たとえば、第1のビデオストリームの処理されたフレームとのオーバーレイのブレンディングは、オーバーレイの各ピクセルについてブレンディングの程度を定義するマスクに従って行われ得る。マスクは、次いで、第1のビデオストリームの処理されたフレームにオーバーレイを追加するときにオーバーレイの透過性を設定するために使用され得る。
マスクは、一般に、オーバーレイを準備するときに決定される。いくつかの実施形態によれば、マスクは、画像データとは無関係に決定される。たとえば、ブレンディングの程度は、それが、ピクセルから、第2のビデオフレームの重複しない部分の境界までの距離に依存するにすぎないという点で、上記で説明されたアルファブレンディングに対応し得る。より詳細には、オーバーレイの各ピクセルは、第2のビデオフレームの重複する部分のピクセルに対応し得、ブレンディングの程度は、ピクセルから、第2のビデオフレームの重複する部分と重複しない部分との間の境界までの最短距離に依存する。
いくつかの実施形態によれば、マスクは、追加または代替として、画像データに基づいて決定され得る。画像データは、第2のビデオフレームの重複する部分に対応し得るが、好ましくは、それは、第1のビデオフレームと第2のビデオフレームの両方の重複する部分に対応する。後者の場合、第2のビデオストリームのフレームは、第2および第1のビデオフレームの重複する部分からの画像データを含み、オーバーレイを準備するステップは、第2および第1のビデオフレームの重複する部分からの画像データに基づいてマスクを計算することをさらに備える。このようにして、ブレンディングは、重複する部分の画像コンテンツに適合され得る。
実施形態の第1のグループに関して上記でさらに考察されたように、ブレンディングは、第1のビデオフレームの重複する部分中の画像データおよび第2のビデオフレームの重複する部分中の画像データの重み付き平均を形成することを意味する。ブレンディングの程度、すなわち、マスクによって表される値が、第2のビデオフレームからの画像データに適用されるべき重みに対応することに留意されたい。第1のビデオフレームからの画像データに適用されるべき重みは、1−ブレンディングの程度として取得され得る。
第2および第1のビデオフレームの重複する部分からの画像データに基づいてマスクを計算するステップは、したがって、第2および第1のビデオフレームからの画像データに関連する重みを計算することに対応する。実施形態の第1のグループに関連して、上記でこれらの重みを計算することについて言われたことは、したがって、ブレンディングの程度、すなわち、マスクの要素の計算に等しく十分に適用される。たとえば、マスクは、マルチバンドブレンディングおよび/または特徴ベースブレンディングに関連する重みを含むように計算され得る。
特定の事例に応じて、画像データに基づいてマスクを計算するプロセスは、時間的に厳しくなり得る。レイテンシをさらに低減するために、それゆえ、処理されている各フレームについて新しいマスクを計算しないことが有利であり得る。マスクが計算されると、それは、代わりに、いくつかのフレームのために再利用され得る。より詳細には、マスクは、ビデオフレームが第1および第2のセンサーから受信されるレートよりも低いレートにおいて更新され得る。
第1のビデオフレームと第2のビデオフレームとの重複する部分からの画像データをブレンドする前に、第1のビデオフレームと第2のビデオフレームとは、好ましくは整合される。それゆえ、第1のビデオストリームのフレームの処理、および第2のビデオストリームのフレームの処理が、第1のビデオフレームの画像データおよび第2のビデオフレームの画像データを整合させることを含み得る。整合は、とりわけ、バレル(barrel)補正を実施すること、(一般に、シーンの固定ピクチャを撮るためにセンサーが取り付けられた場合に)フレームを回転すること、およびたとえばシリンダー上への第1のビデオフレームと第2のビデオフレームとの投影を実施することを含み得る。後者は、第1のセンサーと第2のセンサーとが同じ位置に取り付けられないという事実を補償するために行われ、これは、シーンが異なる視点から表されることを意味する。これは、投影を実施することによって補正され、それにより、同じ視点からフレームがキャプチャされるという印象を閲覧者に与え得る。適用されるべき特定の整合は、一般に各フレームについて同じであり、センサーの較正中に決定され得る。
本発明の第2の態様によれば、上記の目的は、部分的に重複する視野をもつ第1および第2のセンサーを有するマルチセンサービデオカメラのための処理パイプラインによって達成され、処理パイプラインは、
それぞれ第1のセンサーと第2のセンサーとによって同時にキャプチャされている第1のビデオフレームと第2のビデオフレームとを受信するように構成された受信機であって、
第1および第2のビデオフレームの各々は、それが第1および第2のビデオフレームの他方と重複しない、重複しない部分と、それが第1および第2のビデオフレームの他方と重複する、重複する部分とを有する、受信機と、
第1および第2のビデオフレームの重複しない部分からの画像データを、第1のビデオフレームの重複する部分からの画像データのみと一緒に結合することによって、第1のビデオストリームのフレームを生成することと、第2のビデオストリームのフレームを生成することであって、第2のビデオストリームのフレームが、少なくとも第2のビデオフレームの重複する部分からの画像データを含む、生成することとを行うように構成されたフレーム生成構成要素と、
第1のビデオストリームのフレームを処理するように構成された第1の処理構成要素と、
第1のビデオストリームのフレームを処理する第1の処理構成要素と並列に第2のビデオストリームのフレームを処理するように構成された第2の処理構成要素であって、第2のビデオストリームのフレームの処理が、少なくとも第2のビデオフレームの重複する部分からの画像データに基づいてオーバーレイを準備することを含む、第2の処理構成要素と、
第1のビデオストリームの処理されたフレームに、処理されたフレームの第1のビデオフレームの重複する部分に対応する部分においてオーバーレイを追加するように構成されたオーバーレイ構成要素と
を備え、
第2の処理構成要素とオーバーレイ構成要素とのうちの少なくとも1つは、オーバーレイを準備するかまたはオーバーレイを追加するとき、第1のビデオフレームの重複する部分からの画像データを第2のビデオフレームの重複する部分からの画像データとブレンドするように構成される。
本発明の第3の態様によれば、上記の目的は、マルチセンサービデオカメラによって達成され、マルチセンサービデオカメラは、
第1の視野を表すビデオフレームをキャプチャするように配置された第1のセンサーと、
第1のセンサーと同時にビデオフレームをキャプチャするように配置された第2のセンサーであって、第1の視野と一部重複する第2の視野を表す、第2のセンサーと、
第1および第2のセンサーによってキャプチャされたビデオフレームを受信するように第1のセンサーと第2のセンサーとに動作可能に接続されている、第2の態様による処理パイプラインと
を備える。
本発明の第4の態様によれば、上記の目的は、処理能力を有するデバイスによって実行されたとき、第1の態様の方法を遂行するための、コンピュータコード命令が記憶されたコンピュータ可読媒体を備えるコンピュータプログラム製品によって達成される。
第2、第3および第4の態様は、概して、第1の態様と同じ特徴および利点を有し得る。さらに、本発明は、別段に明記されていない限り、特徴のすべての可能な組合せに関することに留意されたい。
概して、特許請求の範囲において使用されるすべての用語は、本明細書で別段に明示的に定義されない限り、本技術分野におけるその通例の意味に従って解釈されるべきである。本明細書で開示されるいずれの方法のステップも、明示的に記述されない限り、開示される厳密な順序で実施される必要はない。
本発明の上記の、ならびに追加の目的、特徴および利点は、添付の図面を参照しながら、本発明の好ましい実施形態の以下の例示的で非限定的な詳細な説明を通して、より良く理解される。添付の図面では、同じ参照番号が同様の要素のために使用されることになる。
実施形態による、マルチセンサービデオカメラを概略的に例示する図である。 図1のマルチセンサービデオカメラの処理パイプラインを概略的に例示する図である。 実施形態の第1のグループによる、処理パイプラインにおける処理フローを概略的に例示する図である。 実施形態の第2のグループによる、処理パイプラインにおける処理フローを概略的に例示する図である。 第1および第2のビデオフレームの重複する部分の画像データをブレンドするための重みをどのように選択すべきかの一例を概略的に例示する図である。 第1および第2のビデオフレームの重複する部分の画像データをブレンドするための重みをどのように選択すべきかの一例を概略的に例示する図である。 実施形態による、マルチセンサービデオカメラにおいて実施される方法のフローチャートである。
次に、本発明が、本発明の実施形態が示された添付の図面を参照しながら、以下でより十分に説明される。本明細書で開示されるシステムおよびデバイスは、動作中に説明される。
図1は、マルチセンサービデオカメラ100を例示する。ビデオカメラ100は、複数の画像センサー102a、102bと、処理パイプライン104とを備える。ビデオカメラ100はビデオエンコーダ106をも備え得る。ここで、例示および簡単のために、2つの画像センサー102a、102bが示されている。しかしながら、ビデオカメラ100は3つ以上の画像センサーを備え得ることを理解されたい。
画像センサー102a、102bは、それらがシーンの部分的に重複する視野を有するように、互いに対して配置される。これは、画像センサー102a、102bによってキャプチャされるビデオフレームが部分的に重複しているであろうことを暗示し、これは、シーンのパートが、画像センサー102a、102bのうちの2つ以上(必ずしもそうではないが3つ以上の画像センサーがある場合すべて)によってキャプチャされるビデオフレーム中に表されることになることを意味する。したがって、シーンの同じパートを表す画像センサーのうちの少なくとも2つによってキャプチャされるビデオフレーム中のピクセルがある。
ビデオカメラ100は、一定のフレームレートにおいてビデオフレームをキャプチャするように配置される。詳細には、ビデオカメラ100は、一定のレートにおいて複数のセンサー102a、102bを使用して同時にビデオフレームをキャプチャする。詳細には、ビデオカメラ100は、第1の画像センサー102aを使用して第1のビデオフレーム108aを、第2の画像センサー102bを使用して第2のビデオフレーム108bを同時にキャプチャするように配置される。次いで、キャプチャされたビデオフレーム108a、108bは、ビデオカメラ100中の画像センサー102a、102bの下流に配置されている処理パイプライン104に入力される。
処理パイプライン104は、画像センサー102a、102bによってキャプチャされたビデオフレーム108a、108bを処理するように配置される。処理パイプラインは、概して、ある要素の出力が次の要素の入力であるシーケンス中で接続されたデータ処理要素のセットを意味する。詳細には、処理パイプライン104は、シーンのパノラマ画像110を作成するためにビデオフレーム108a、108bを一緒にスティッチするように構成される。したがって、パノラマ画像110は、画像センサー102a、102bの組み合わせられた視野、すなわち、それらの視野のユニオンに対応し得る。パノラマ画像110が作成されると、それは、たとえば、ネットワークを介してビデオデコーダに送信されるビットストリーム112の形態で、ビデオカメラ100から出力されるより前に、パノラマ画像110を符号化するビデオエンコーダ106にフォワーディングされ得る。
図2は、処理パイプライン104をより詳細に例示する。処理パイプラインは、受信機202と、フレーム生成構成要素206と、第1の処理構成要素208と、第2の処理構成要素210と、オーバーレイ構成要素212とを備える。処理パイプラインは画像処理構成要素204をも備え得る。
受信機は、図1に示されている画像センサー102a、102bによってキャプチャされたビデオフレーム108a、108bを受信するように配置される。フレーム生成構成要素206は、受信機202の下流に配置され、随意に、受信機202の下流であるが、フレーム生成構成要素206の上流に配置された画像処理構成要素204を介して、受信機202からビデオフレーム108a、108bを受信するように配置される。画像処理構成要素204は、たとえば、通常、ビデオカメラの画像処理パイプラインにおいて実施される、欠陥ピクセル補正、列固定パターン雑音補償およびクロストーク補償のようなアーテファクト削除、ホワイトバランシング、周辺減光補正、雑音フィルタ処理、デモザイキング、シャープ化、カラーマトリクス化、暗電流補正、およびガンマ補正など、様々な種類の画像処理を実施し得る。しかしながら、ホワイトバランス処理など、画像処理の一部または全部は、代わりに第1の処理構成要素208および/または第2の処理構成要素210によって遂行され得る。フレーム生成構成要素206は、今度は、第1のビデオストリーム214および第2のビデオストリーム216のフレームを生成することになる。第1のビデオビデオストリーム214のフレームは第1の処理構成要素208にフォワーディングされ、第2のビデオストリーム216のフレームは、第1の処理構成要素208と並列に配置された第2の処理構成要素210にフォワーディングされる。次いで、第1の処理構成要素208および第2の処理構成要素210の出力は、オーバーレイ構成要素212にフォワーディングされ、オーバーレイ構成要素212はパノラマ画像110を出力する。このプロセスは下記でより詳細に説明される。
したがって、処理パイプライン104は、処理パイプライン104の機能を実装するように構成された様々な構成要素202、204、206、208、210、212を備える。詳細には、各例示された構成要素は、処理パイプライン104の機能に対応する。しかしながら、当業者が理解するように、様々な構成要素はまた、構成要素の機能を実装するために処理パイプライン104中に含まれる構造に関連する。当業者が気づいているように、特定の構造は、構成要素の特定の実装形態、たとえば、それらがハードウェアで実装されるのか、ソフトウェアで実装されるのか、それらの組合せで実装されるのかに依存し得る。
概して、処理パイプライン104は、構成要素202、204、206、208、210、212、および、より具体的には、それらの機能を実装するように構成された回路を備え得る。
ハードウェア実装形態では、構成要素202、204、206、208、210、212の各々は、構成要素の機能を提供するように専用化され、特別に設計された回路に対応し得る。回路は、1つまたは複数の特定用途向け集積回路など、1つまたは複数の集積回路の形態であり得る。例として、フレーム生成構成要素206は、したがって、使用中に、第1のビデオストリーム214と第2のビデオストリーム216とを生成する回路を備え得る。
ソフトウェア実装形態では、回路は、代わりに、1つまたは複数のマイクロプロセッサなど、1つまたは複数のプロセッサの形態であり得、回路は、不揮発性メモリなどの(非一時的)コンピュータ可読媒体に記憶されたコンピュータコード命令に関連して、処理パイプライン104に、本明細書で開示される方法を遂行させる。その場合、構成要素202、204、206、208、210、212は、したがって、プロセッサによって実行されたとき、処理パイプライン104に構成要素の機能を遂行させる、コンピュータ可読媒体に記憶されたコンピュータコード命令の部分に各々対応し得る。
ハードウェア実装形態とソフトウェア実装形態との組合せを有することも可能であり、これは、構成要素202、204、206、208、210、212のうちのいくつかの機能がハードウェアで実装され、他の機能がソフトウェアで実装されることを意味することを理解されたい。
次に、処理パイプライン104の動作が、図1〜図6、および図7のフローチャートを参照しながら以下で説明される。
ステップS02において、受信機202は、画像センサー102a、102bから、第1のビデオフレーム108aと第2のビデオフレーム108bとを受信する。第1のビデオフレーム108aと第2のビデオフレーム108bとは、ビデオカメラ100によって同時にキャプチャされる。
図3および図4は、第1のビデオフレーム108aと第2のビデオフレーム108bとをより詳細に例示する。第1のビデオフレーム108aは、それが第2のビデオフレーム108bと重複しない部分118aを有する。言い換えれば、重複しない部分118aのピクセルが、第2のビデオフレーム108bによって表されないシーンのパートを表す。第1のビデオフレーム108aの重複しない部分118aは、画像データAを備える。同様に、第2のビデオフレーム108bは、それが第2のビデオフレーム108bと重複しない部分118bを有する。第2のビデオフレーム108bの重複しない部分118bは、画像データBを備える。第1のビデオフレーム108aは、それが第2のビデオフレーム108bの部分128bと重複する部分128aをさらに有する。言い換えれば、部分128a、128bのピクセルはシーンの同じパートを表す。第1のビデオフレーム108aの重複する部分128aは画像データA’を備え、第2のビデオフレーム108bの重複する部分128bは画像データB’を備える。
ステップS04において、フレーム生成構成要素206は、第1のビデオストリームのフレーム302を生成することに進む。フレーム302は、第1のビデオフレーム108aの重複しない部分118aからの画像データAと、第1のビデオフレーム108aの重複する部分128aからの画像データA’と、第2のビデオフレーム108bの重複しない部分118bからの画像データBとを一緒に結合することによって生成される。このようにして、フレーム302は、第1のビデオフレーム108a全体からの画像データA、A’と、第2のビデオフレーム108bの重複しない部分からの画像データBとを含む。とりわけ、第2のビデオフレーム108bの重複する部分128bからの画像データB’は、フレーム302中に含まれない。したがって、ビデオフレーム108a、108bが重複する部分の場合、ビデオフレームのうちの1つのみからの画像データは、フレーム302中に含まれる。
第1のビデオストリームのフレーム302は、画像センサー102a、102bの組み合わせられた視野をカバーするパノラマ画像である。しかしながら、このパノラマ画像を生成するとき、入力ビデオフレーム108a、108bからの画像データのブレンディングは遂行されない。代わりに、1つのビデオフレームからの画像データは、上記で説明された様式でパノラマ画像中の各ピクセルについて選択される。より詳細には、フレーム302は、第1および第2のビデオフレーム108a、108bの部分118、128a、118bからの画像データA、A’、Bを一緒に結合することによって生成される。これは、画像データA、A’、Bが、画像センサー102a、102bの組み合わせられた視野をカバーする新しい画像、すなわち、パノラマ画像を形成するように、画像データA、A’、Bが適切な順序で隣り合わせに配置されることを意味する。
第1のビデオストリームのフレーム302は、次いで、第1の処理構成要素208にフォワーディングされる。
フレーム生成構成要素206は、第2のビデオストリームのフレーム304、404をさらに生成する。フレーム304、404は、少なくとも第2のビデオフレーム128bの重複する部分の画像データを備える。
図3に例示されている実施形態の第1のグループでは、第2のビデオストリームのフレーム304は、第1のビデオフレーム108aと第2のビデオフレーム108bの両方の重複する部分128a、128bからの画像データA’、B’を備える。図4に例示されている実施形態の第2のグループでは、第2のビデオストリームのフレーム404は、第2のビデオフレーム108bのみからの、または第1のビデオフレーム108aと第2のビデオフレーム108bの両方からの画像データB’を備え得る。これらの2つの代替形態は、図4中の「/」記号によって分離される。
フレーム304、404は、次いで、第2の処理構成要素210に入力される。
ステップS08において、第1の処理構成要素208はフレーム302を処理し、第2の処理構成要素210はフレーム304、404を処理する。第1のビデオストリームのフレーム302と、第2のビデオストリームのフレーム304、404との処理は、並列に行われる。
上記でさらに述べられたように、第1のビデオストリームのフレーム302の処理は、欠陥ピクセル補正、列固定パターン雑音補償およびクロストーク補償のようなアーテファクト削除、ホワイトバランシング、周辺減光補正、雑音フィルタ処理、デモザイキング、シャープ化、カラーマトリクス化、暗電流補正、およびガンマ補正など、様々な画像処理ステップを含み得る。画像処理の一部または全部は、第1および第2のビデオストリームを生成する前に、画像処理構成要素204によって遂行され得、画像処理ステップの一部または全部は、第1の処理構成要素208によって第1および第2のビデオストリームを生成した後に遂行され得る。第1のビデオストリームのフレーム302の処理はまた、一般に、当技術分野で知られているような整合を含む。これは、フレーム302またはそれの部分のバレルひずみ補正(すなわち、第1のビデオフレーム108aから来る部分と第2のビデオフレーム108bから来る部分とが、異なる補正を必要とし得る)、(ビデオカメラが固定フォーマットでピクチャを撮るように配置された場合の)フレーム302またはそれの部分の回転、およびシリンダーなどの表面上での、フレーム302、またはそうではなく、ビデオフレーム108a、108bの異なるビデオフレームから来る部分の投影を含み得る。後者は、ビデオフレーム108a、108bが異なる視点からキャプチャされたという事実を補償するために行われる。一般に、上記整合は、カメラの初期較正に続いて各フレームについて行われる。したがって、整合は、カメラの画像センサーの較正からのパラメータを基準として行われ得る。
フレーム302の処理されたバージョンは、図3および図4中の308によって表示される。
第2のビデオストリームのフレーム304、404の処理は、上記で説明されたことによる整合、およびオーバーレイ306、406の準備をも含み得る。一般に、フレーム302は、フレーム304、404よりもはるかに大きく、そのため、整合および、フレーム304、404からのオーバーレイの準備は、フレーム302が第1の処理構成要素208によって整合または場合によっては処理される間に遂行され得る。
図3に示されている実施形態の第1のグループでは、オーバーレイ306の準備は、第1のビデオフレーム108aからの重複する部分128aからの画像データA’と第2のビデオフレーム108bからの重複する部分128bからの画像データB’とのブレンディング、すなわち混合を含む。そのような実施形態では、第2の処理構成要素210から出力されているオーバーレイ306は、ブレンドされた画像データを含む。第2の処理構成要素210は、たとえば、重複する部分128a、128b中の各対応するピクセルについて画像データA’と画像データB’との重み付き平均を計算することによって画像データA’、B’をブレンドし得る。重み付き平均の重みは、異なるピクセルについて異なり得る。ピクセルxにおける画像データB’に適用される重みw、0≦w≦1をw(x)によって表示するとき、ブレンディングは、次のように説明され得る。
(1−w(x))A’(x)+w(x)B’(x)
ここで、B’(x)は、ピクセルxにおける重複する部分128b中の画像データを表示し、A’(x)は、ピクセルxに対応するピクセルにおける重複する部分128a中の画像データを表示する。
重みは、画像データA’、B’とは無関係に選択され得る。重みはまた、経時的に一定のままであり得る。図3の実施形態の第1のグループに該当する一実施形態によれば、画像データB’に関連する重みwは、第2のビデオフレーム108bの重複する部分128b中のピクセルから、第2のビデオフレーム108bの重複しない部分118bの境界までの最短距離に依存する。これは、画像データA’に関連する重み(1−w)が、重複する部分128a中の対応するピクセルと、第1のビデオフレーム108aの重複する部分128aと重複しない部分118aとの間の境界との間の最短距離に依存することを暗示する。これは図5にさらに例示されており、図5では、画像データB’に適用される重み502bが、重複する部分128bと重複しない部分118bとの間の境界までの距離の関数であることが示されている。さらに、画像データA’に適用される重み502aは、図5に例示されているように、重複する部分128aと重複しない部分118aとの間の境界までの距離の関数である。ここで、重みは境界への近接度に比例し、すなわち、重みは、境界への近接度とともに線形的に増加する。しかしながら、他の機能的関係が等しく可能であることを理解されたい。しかしながら、重みは、一般に、境界への近接度とともに増加する。
重みは、さらに、第1のしきい値を下回る空間周波数など、低周波数コンテンツについて、および第2のしきい値に等しいかまたはそれを上回る周波数など、高周波数コンテンツについて、別様に選択され得る。第2のしきい値は、第1のしきい値に等しいかまたはそれよりも大きくなり得る。そのような場合、画像データA’、B’は、画像データA’、B’の低周波数コンテンツと高周波数コンテンツとを抽出するために、空間ハイパスフィルタ処理と空間ローパスフィルタ処理とを受け得る。低周波数コンテンツについて、第1の様式で重みを選択することによって、第1の重み付き平均が計算され得る。たとえば、低周波数コンテンツについての重みは、図5に関して説明されるように選択され得る。高周波数コンテンツについて、第2の様式で重みを選択することによって、第2の重み付き平均が計算され得る。たとえば、高周波数コンテンツについての重みは図6に示されているように選択され得、図6では、画像データB’に適用される重み602bと画像データA’に適用される重み602aとが示されている。この場合、重みは0または1のいずれかである。重み602bは、部分118aと部分128aとの間の境界までの、部分128a中の対応するピクセルについての距離よりも短い、部分118bと部分128bとの間の境界までの距離を有する部分128b中のピクセルについて、1に等しい。部分128b中の他のピクセルについて、重みは0である。
重みはまた、画像データA’、B’に依存するように選択され得る。一例では、重みは、重複する部分118a、118b中の、人などの物体の存在によって支配され得る。より詳細には、画像センサー102a、102bは、わずかに異なる位置および角度からシーンを見るので、第1および第2のビデオフレーム108a、108bは視差効果を受けることになる。その結果、シーン中に存在する物体がある場合、物体は、整合が遂行された場合でも、重複する部分128a、128b中のわずかに異なる位置において現れ得る。したがって、重複する部分128a、128b中の画像データA’、B’が、重み付き平均を形成することによってブレンドされる場合、物体は、ブレンドされた画像中で二重に現れ得る。この状況を回避するために、重複する部分128a、128bのうちの1つのみからの物体を含むように選択し得る。より詳細には、物体は、標準的な物体検出技法を使用して、重複する部分128a、128b中で検出され得る。重複する部分128a、128b中の物体に属するとして識別されているピクセルについて、第1のビデオフレーム108aからの画像データA’と、第2のビデオフレーム108bからの画像データB’とのうちの1つについての重みは0に設定され得、これは、第1のビデオフレーム108aと第2のビデオフレーム108bとのうちの1つのみからの画像データが、ブレンドされた画像中に含まれることを意味する。
図4に例示されている実施形態の第2のグループでは、オーバーレイ406の準備は、画像データA’、B’のブレンディングを含まない。これらの実施形態では、オーバーレイ406は、第2のビデオフレーム108bの重複する部分128bからの画像データB’のみを含む。事実上、オーバーレイ406は、一般に、オーバーレイ406の各ピクセルが第2のビデオフレーム108bの重複する部分128bのピクセルに対応するという点で、第2のビデオフレーム108bの重複する部分128bへの直接対応である。ブレンディングを遂行する代わりに、実施形態の第2のグループによる第2の処理構成要素210は、マスク408を計算する。マスク408は、オーバーレイ408の各値について、ブレンディングの程度と呼ばれることがある値を定義する。ブレンディングの程度は、どのくらい高い程度、すなわち、どのくらい高い割合のオーバーレイ408が、別の画像データとのオーバーレイ408のブレンディング中に含まれるべきであるかを説明する、0から1の間の値である。オーバーレイ408は、第2のビデオフレーム108bの重複する部分128bの画像データB’に対応し、他の画像データは、(後で説明されるように)第1のビデオフレーム108aの画像データA’に対応するので、ブレンディングの程度は、実施形態の第1のグループに関して上記で説明されたように、第2のビデオフレーム108bからの画像データB’に適用されるべき重みwと等価である。言い換えれば、実施形態の第2のグループでは、第2の処理構成要素210は、重みwを計算するが、実際のブレンディングを実施しない。
画像データB’に適用されるべき重みwを計算することに関する、実施形態の第1のグループに関連して、上記で述べられたことは、したがって、実施形態の第2のグループに等しくうまく適用される。重みが画像データとは無関係に計算される場合、第2の処理構成要素210に入力されるフレーム404は、第2のビデオフレーム108bの重複する部分128bからの画像データB’を含む必要があるにすぎない。重みが画像データに応じて計算される場合、第2の処理構成要素210に入力されるフレーム404は、重複する部分128aと重複する部分128bの両方からの画像データA’、B’を備える。
処理の速度をさらに上げるために、前のフレームの処理からのマスクを再使用することが可能である。たとえば、マスクは、ビデオフレームが第1および第2のセンサー102a、102bから受信されるレートよりも低いレートにおいて更新され得る。このようにして、処理時間は低減され、それにより、システムにおけるレイテンシをさらに低減する。
ステップS10において、オーバーレイ構成要素212は、第1のビデオストリームの処理されたフレーム308にオーバーレイ306、406を追加することに進む。詳細には、オーバーレイ構成要素212は、第1のビデオフレーム108aの重複する部分128aに対応する処理されたフレーム308の部分328aにおいてオーバーレイ306、406を追加する。オーバーレイの追加は、実施形態の第1のグループのための事例である交換によって行われるか、または実施形態の第2のグループのための事例であるブレンディングを介して行われ得る。
より具体的には、図3に示されている実施形態の第1のグループでは、画像データA’、B’は、オーバーレイ306を準備するときにすでにブレンドされていた。それゆえ、第1のビデオストリームの処理されたフレーム308にオーバーレイ306を追加するときに、さらなるブレンディングは必要でない。オーバーレイ構成要素212は、それゆえ、図3に例示されているように、処理されたフレーム308の部分328a中の画像データを交換し得る。これは、たとえば、0に等しくなるようにオーバーレイの透過性パラメータを設定することによって達成され、それにより、実際には、画像データを交換することを介してオーバーレイ306を追加するのと同じことである非透過のやり方でオーバーレイ306を追加するように、オーバーレイ構成要素212に命令し得る。
図4に示されている実施形態の第2のグループでは、オーバーレイ構成要素212は、処理されたフレーム308にオーバーレイ406を追加すると、画像データA’、B’をブレンドすることに進む。オーバーレイ構成要素212は、第2の処理構成要素210によって計算されたマスク408に従ってブレンディングを遂行する。より詳細には、オーバーレイ構成要素212は、オーバーレイ406と処理されたフレーム308の部分328aとの重み付き平均を計算し得る。オーバーレイ406のピクセルの重みはマスク408によって与えられ、部分328aに適用されるべき重みは、対応するピクセル位置において1−マスクの値によって与えられる。実際には、これは、ピクセル単位でオーバーレイの透過性レベルを設定するためにマスクを使用することによって達成され得る。
処理されたフレーム308にオーバーレイ306、406を追加した結果として、パノラマ画像110が生成される。パノラマ画像110は、第1のビデオフレーム108aと第2のビデオフレーム108bとのスティッチングである。パノラマ画像110は、第2のビデオフレーム108bではなく、第1のビデオフレーム108a中に表されるシーンのパートについて、第1のビデオフレーム108aからの画像データAを備える。同様に、パノラマ画像110は、第1のビデオフレーム108a中にでなはく、第2のビデオフレーム108b中に表されるシーンのパートからの画像データBを備える。第1のビデオフレーム108aと第2のビデオフレーム108bの両方によって表されるシーンのパートについて、パノラマ画像110は、上記で説明されたように第1のビデオフレーム108aからの画像データA’と、第2のビデオフレーム108bからの画像データB’とのブレンディングを備える。
当業者は、多くのやり方で上記で説明された実施形態を変更し、依然として、上記の実施形態に示されているように本発明の利点を使用することができることが諒解されよう。たとえば、簡単のために、上記の例は、2つのセンサーをもつビデオカメラのために与えられる。しかしながら、本発明は、3つ以上のセンサーがある場合、等しくうまく適用される。したがって、本発明は、示されている実施形態に限定されるべきでないが、添付の特許請求の範囲によってのみ定義されるべきである。加えて、当業者が理解するように、示されている実施形態は組み合わせられ得る。
100 マルチセンサービデオカメラ
102a 第1のセンサー
102b 第2のセンサー
104 処理パイプライン
106 ビデオエンコーダ
108a 第1のビデオフレーム
108b 第2のビデオフレーム
110 パノラマ画像
118a 重複しない部分
118b 重複しない部分
128a 重複する部分
128b 重複する部分
202 受信機
204 画像処理構成要素
206 フレーム生成構成要素
208 第1の処理構成要素
210 第2の処理構成要素
212 オーバーレイ構成要素
214 第1のビデオストリーム
216 第2のビデオストリーム
302 フレーム
304 フレーム
306 オーバーレイ
328a 部分
404 フレーム
406 オーバーレイ
408 マスク

Claims (20)

  1. 部分的に重複する視野をもつ第1および第2のセンサー(102a、102b)を有するマルチセンサービデオカメラ(100)において実施される方法であって、
    前記第1のセンサー(102a)および前記第2のセンサー(102b)の各々によって同時にキャプチャされる第1のビデオフレーム(108a)および第2のビデオフレーム(108b)を受信すること(S02)であって、
    前記第1および前記第2のビデオフレーム(108a、108b)の各々は、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複しない、重複しない部分(118a、118b)と、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複する、重複する部分(128a、128b)とを有する、受信すること(S02)と、
    前記第1および前記第2のビデオフレーム(108a、108b)の前記重複しない部分(118a、118b)からの画像データ(A、B)を、前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)のみと結合することによって、第1のビデオストリーム(214)のフレーム(302)を生成すること(S04)と、
    少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)を含む、第2のビデオストリーム(216)のフレーム(304、404)を生成すること(S06)と、
    前記第1のビデオストリームの前記フレーム(302)および前記第2のビデオストリームの前記フレーム(304、404)を並列に処理すること(S08)であって、前記第2のビデオストリームの前記フレーム(304、404)の前記処理が、少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの前記画像データ(B’)に基づいてオーバーレイ(306、406)を準備することを含む、処理すること(S08)と、
    前記第1のビデオストリームの処理されたフレーム(308)に、前記処理されたフレーム(308)の前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する部分(328a)において、前記オーバーレイ(306、406)を追加すること(S10)と
    を備え、
    前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)が、前記オーバーレイを準備するステップと前記オーバーレイを追加するステップとのうちの少なくとも1つにおいて、前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)とブレンドされる、方法。
  2. 前記第2のビデオストリームの前記フレーム(304)が、前記第1および前記第2のビデオフレーム(108a、108b)の前記重複する部分(128a、128b)からの画像データ(A’)を備え、前記オーバーレイを準備するステップが、前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)を、前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)とブレンドすることを含む、請求項1に記載の方法。
  3. 前記オーバーレイを追加するステップにおいて、前記オーバーレイ(306)が、前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する、前記部分(328a)中の前記第1のビデオストリームの前記処理されたフレーム(308)の画像データ(A’)と置き替わる、請求項2に記載の方法。
  4. 前記ブレンドすることが、前記重複する部分(128a、128b)中の各ピクセルについて、前記第1のビデオフレーム(108a)からの画像データ(A’)と前記第2のビデオフレーム(108b)からの画像データ(B’)との重み付き平均を計算することを含み、
    前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの前記画像データ(B’)に関連する重みが、前記ピクセルから、前記第2のビデオフレーム(108b)の前記重複する部分(128b)と前記重複しない部分(118b)との間の境界までの最短距離に依存し、
    前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの前記画像データ(A’)に関連する重みが、前記ピクセルから、前記第1のビデオフレーム(108a)の前記重複する部分(128a)と前記重複しない部分(118a)との間の境界までの最短距離に依存する、請求項2または3に記載の方法。
  5. 前記ブレンドすることは、
    前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)および前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)の第1の重み付き平均を計算することであって、前記第1の重み付き平均を、第1のしきい値よりも低い空間周波数に関して計算することと、
    前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)および前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)の第2の重み付き平均を計算することであって、前記第2の重み付き平均を、前記第1のしきい値よりも大きいかまたはそれに等しい第2のしきい値に等しいかまたはそれを上回る空間周波数に関して計算することと、ここで重みは、前記第1の重み付き平均と前記第2の重み付き平均とについて別様に選択され、
    前記第1の重み付き平均を前記第2の重み付き平均に追加することによって前記オーバーレイを計算することと
    を含む、請求項2から4のいずれか一項に記載の方法。
  6. 前記ブレンドすることは、
    前記第1のビデオフレーム(108a)の前記重複する部分(128a)中の物体と、前記第2のビデオフレーム(108b)の前記重複する部分(128b)中の物体とを識別することと、
    前記重複する部分(128a、128b)中で前記第1のビデオフレーム(108a)からの画像データ(A’)と前記第2のビデオフレーム(108b)からの画像データ(B’)との重み付き平均を計算することと
    を含み、
    前記第1のビデオフレーム(108a)の前記重複する部分(128a)と前記第2のビデオフレーム(108b)の前記重複する部分(128b)の両方の中で物体が識別された場合、前記第1のビデオフレーム(108a)の画像データ(A’)または前記第2のビデオフレーム(108b)の画像データ(B’)のうちの1つに関連する重みが、当該の物体に属するとして識別されるピクセルについて0に設定される、請求項2から5のいずれか一項に記載の方法。
  7. 前記オーバーレイ(406)が前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)のみを含み、前記オーバーレイを追加するステップが、前記第1のビデオストリーム(214)の前記処理されたフレーム(308)と、前記処理されたフレーム(308)の前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する前記部分(328a)において、前記オーバーレイ(406)をブレンドすることを含む、請求項1に記載の方法。
  8. 前記第1のビデオストリームの前記処理されたフレーム(308)と前記オーバーレイ(406)をブレンドすることが、前記オーバーレイ(406)の各ピクセルについてブレンディングの程度を定義するマスク(408)に従って行われる、請求項7に記載の方法。
  9. 前記オーバーレイ(406)の各ピクセルが、前記第2のビデオフレーム(108b)の前記重複する部分(128b)のピクセルに対応し、ブレンディングの前記程度が、前記ピクセルから、前記第2のビデオフレーム(108b)の前記重複する部分(128b)と前記重複しない部分(118b)との間の境界までの最短距離に依存する、請求項8に記載の方法。
  10. 前記第2のビデオストリームの前記フレーム(404)が、前記第1および前記第2のビデオフレーム(108a、108b)の前記重複する部分(128a、128b)からの画像データ(A’、B’)を含み、オーバーレイを準備するステップが、前記第1および前記第2のビデオフレーム(108a、108b)の前記重複する部分(128a、128b)からの前記画像データ(A’、B’)に基づいて前記マスク(408)を計算することをさらに備える、請求項8に記載の方法。
  11. 前記マスク(408)は、ビデオフレームが前記第1および前記第2のセンサー(102a、102b)から受信されるレートよりも低いレートにおいて更新される、請求項10に記載の方法。
  12. 前記第1のビデオストリームの前記フレーム(302)の前記処理、および前記第2のビデオストリームの前記フレーム(304、404)の前記処理が、前記第1のビデオフレーム(108a)の画像データおよび前記第2のビデオフレーム(108b)の画像データを整合させることを含む、請求項1から11のいずれか一項に記載の方法。
  13. 部分的に重複する視野をもつ第1および第2のセンサー(102a、102b)を有するマルチセンサービデオカメラ(100)のための処理パイプライン(104)であって、
    それぞれ前記第1のセンサーおよび前記第2のセンサー(102a、102b)によって同時にキャプチャされている第1のビデオフレームおよび第2のビデオフレーム(108a、108b)を受信するように構成された受信機(202)であって、
    前記第1および前記第2のビデオフレーム(108a、108b)の各々は、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複しない、重複しない部分(118a、118b)と、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複する、重複する部分(128a、128b)とを有する、受信機(202)と、
    前記第1および前記第2のビデオフレーム(108a、108b)の前記重複しない部分(118a、118b)からの画像データ(A、B)を、前記第1のビデオフレーム(108a)の前記重複する部分(128a、128b)からの画像データのみと結合することによって、第1のビデオストリーム(214)のフレーム(302)を生成し、且つ、少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)を含む、第2のビデオストリーム(216)のフレーム(304、404)を生成するように構成されたフレーム生成構成要素(206)と、
    前記第1のビデオストリーム(214)の前記フレーム(302)を処理するように構成された第1の処理構成要素(208)と、
    前記第1のビデオストリーム(214)の前記フレーム(302)を処理する前記第1の処理構成要素(208)と並列に前記第2のビデオストリーム(216)の前記フレーム(304、404)を処理するように構成された第2の処理構成要素(210)であって、前記第2のビデオストリーム(108b)の前記フレーム(304、404)の前記処理が、少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの前記画像データ(B’)に基づいてオーバーレイ(306、406)を準備することを含む、第2の処理構成要素(210)と、
    前記第1のビデオストリーム(214)の処理されたフレーム(308)に、前記処理されたフレーム(308)の前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する部分(328a)において、前記オーバーレイ(306、406)を追加するように構成されたオーバーレイ構成要素(212)と
    を備え、
    前記第2の処理構成要素(210)と前記オーバーレイ構成要素(212)とのうちの少なくとも1つが、前記オーバーレイを準備するかまたは前記オーバーレイを追加するとき、前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)を前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)とブレンドするように構成された、処理パイプライン(104)。
  14. 第1の視野を表すビデオフレームをキャプチャするように配置された第1のセンサー(102a)と、
    前記第1のセンサー(102a)と同時にビデオフレームをキャプチャするように配置された第2のセンサー(102b)であって、前記第1の視野と一部重複する第2の視野を表す、第2のセンサー(102b)と、
    請求項13に記載の処理パイプライン(104)と
    を備える、マルチセンサービデオカメラ(100)。
  15. 前記第2のビデオストリームのフレームが、前記第2および第1のビデオフレームの前記重複する部分からの画像データを含み、前記第2の処理構成要素または前記オーバーレイ構成要素が、前記オーバーレイを準備するかまたは前記オーバーレイを追加するとき、前記第2のビデオフレームの前記重複する部分からの画像データを前記第1のビデオフレームの前記重複する部分からの画像データとブレンドするように構成されている、請求項14に記載のマルチセンサービデオカメラ(100)。
  16. 前記オーバーレイを追加するとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、前記オーバーレイで、前記第1のビデオフレームの前記重複する部分に対応する前記部分において、前記第1のビデオストリームの前記処理されたフレームの画像データを置き替える、請求項15に記載のマルチセンサービデオカメラ(100)。
  17. ブレンドするとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、前記重複する部分中の各ピクセルについて、前記第1のビデオフレームからの画像データと前記第2のビデオフレームからの画像データとの重み付き平均を計算するように構成されており、
    前記第2のビデオフレームの前記重複する部分からの前記画像データに関連する重みが、前記ピクセルから、前記第2のビデオフレームの前記重複する部分と前記重複しない部分との間の境界までの最短距離に依存し、
    前記第1のビデオフレームの前記重複する部分からの前記画像データに関連する重みが、前記ピクセルから、前記第1のビデオフレームの前記重複する部分と前記重複しない部分との間の境界までの最短距離に依存する、請求項15に記載のマルチセンサービデオカメラ(100)。
  18. ブレンドするとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、
    前記第1のビデオフレームの前記重複する部分からの画像データおよび前記第2のビデオフレームの前記重複する部分からの画像データの第1の重み付き平均を計算することであって、前記第1の重み付き平均を、第1のしきい値よりも低い空間周波数に関して計算することと、
    前記第1のビデオフレームの前記重複する部分からの画像データおよび前記第2のビデオフレームの前記重複する部分からの画像データの第2の重み付き平均を計算することであって、前記第2の重み付き平均を、前記第1のしきい値よりも大きいかまたはそれに等しい第2のしきい値に等しいかまたはそれを上回る空間周波数に関して計算することと、ここで重みは、前記第1の重み付き平均と前記第2の重み付き平均とについて別様に選択され、
    前記第1の重み付き平均を前記第2の重み付き平均に追加することによって前記オーバーレイを計算することと
    を行うように構成されている、請求項15に記載のマルチセンサービデオカメラ(100)。
  19. ブレンドするとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、
    前記第1のビデオフレームの前記重複する部分中の物体と、前記第2のビデオフレームの前記重複する部分中の物体とを識別し、
    前記重複する部分中で前記第1のビデオフレームからの画像データと前記第2のビデオフレームからの画像データとの重み付き平均を計算する
    ように構成されており、前記第1のビデオフレームの前記重複する部分と前記第2のビデオフレームの前記重複する部分の両方の中で物体が識別された場合、前記第1のビデオフレームの画像データまたは前記第2のビデオフレームの画像データのうちの1つに関連する重みが、当該の物体に属するとして識別されるピクセルについて0に設定される、請求項15に記載のマルチセンサービデオカメラ(100)。
  20. コンピュータによって実行されたとき、請求項1から12のいずれか一項に記載の方法を遂行するための、コンピュータコード命令が記憶されたコンピュータ可読媒体。
JP2018110291A 2017-06-20 2018-06-08 マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン Active JP6967489B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17176772.6 2017-06-20
EP17176772.6A EP3419278B1 (en) 2017-06-20 2017-06-20 A multi-sensor video camera, and a method and processing pipeline for the same

Publications (3)

Publication Number Publication Date
JP2019033474A JP2019033474A (ja) 2019-02-28
JP2019033474A5 JP2019033474A5 (ja) 2021-07-26
JP6967489B2 true JP6967489B2 (ja) 2021-11-17

Family

ID=59257975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110291A Active JP6967489B2 (ja) 2017-06-20 2018-06-08 マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン

Country Status (6)

Country Link
US (1) US10652523B2 (ja)
EP (1) EP3419278B1 (ja)
JP (1) JP6967489B2 (ja)
KR (1) KR102245470B1 (ja)
CN (1) CN109104551B (ja)
TW (1) TWI740048B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3404913B1 (en) * 2017-05-16 2019-11-06 Axis AB A system comprising a video camera and a client device and a method performed by the same
WO2019079403A1 (en) * 2017-10-18 2019-04-25 Gopro, Inc. LOCAL EXPOSURE COMPENSATION
CN113272855B (zh) * 2018-11-06 2024-06-14 泰立戴恩菲力尔商业系统公司 用于重叠多图像应用的响应归一化
CN112399095A (zh) * 2019-08-15 2021-02-23 西安诺瓦星云科技股份有限公司 视频处理方法、装置和系统
EP3836527B1 (en) * 2019-12-13 2021-11-10 Axis AB Multi-sensor high dynamic range imaging
KR20220163994A (ko) * 2020-04-24 2022-12-12 엘지전자 주식회사 Pov 디스플레이 장치 및 그 제어방법
EP4060982B1 (en) * 2021-03-15 2023-06-28 Axis AB Method and monitoring camera for handling video streams

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0940959B1 (en) 1998-03-04 2007-10-10 Sony Deutschland GmbH Establishing connections between remote devices with a hypertext transfer protocol
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
TWI221262B (en) * 2002-07-25 2004-09-21 Via Tech Inc Device and method for alpha blending overlay frame
JP4763351B2 (ja) * 2004-07-14 2011-08-31 アレコント ビジョン,リミティド ライアビリティ カンパニー 多重センサパノラマネットワークカメラ
EP1718065A1 (en) * 2005-04-30 2006-11-02 STMicroelectronics (Research & Development) Limited Method and apparatus for processing image data
US8189100B2 (en) * 2006-07-25 2012-05-29 Qualcomm Incorporated Mobile device with dual digital camera sensors and methods of using the same
EP2355037A1 (en) 2009-12-18 2011-08-10 Nxp B.V. Method of and system for determining an average colour value for pixels
KR20110076831A (ko) * 2009-12-28 2011-07-06 (주)주인네트 분산 네트워크 pvr 시스템 및 그 서비스 방법
JP2012237937A (ja) * 2011-05-13 2012-12-06 Nikon Corp 電子機器
CN103167223A (zh) * 2011-12-09 2013-06-19 富泰华工业(深圳)有限公司 具有广角拍摄功能的移动装置及其影像撷取方法
CN102982515A (zh) * 2012-10-23 2013-03-20 中国电子科技集团公司第二十七研究所 一种无人机图像实时拼接的方法
KR20150011938A (ko) 2013-07-24 2015-02-03 한국전자통신연구원 멀티-카메라 플랫폼 기반으로 캡쳐된 파노라마 영상의 안정화 방법 및 장치
CN103997609A (zh) * 2014-06-12 2014-08-20 四川川大智胜软件股份有限公司 基于cuda的多视频实时全景融合拼接方法
CN104333818A (zh) 2014-10-17 2015-02-04 中兴通讯股份有限公司 一种http实时流媒体分片的拼接方法及拼接系统
CN104754228A (zh) * 2015-03-27 2015-07-01 广东欧珀移动通信有限公司 一种利用移动终端摄像头拍照的方法及移动终端
CN105049954B (zh) 2015-07-02 2020-07-10 中兴通讯股份有限公司 Ott媒体的组播传输方法、装置及系统
TWI543611B (zh) * 2015-11-20 2016-07-21 晶睿通訊股份有限公司 影像接合方法及具有影像接合功能的攝影系統
KR101743228B1 (ko) 2016-01-22 2017-06-05 네이버 주식회사 스트리밍 장치 및 그 방법, 이를 이용한 스트리밍 서비스 시스템 및 컴퓨터로 판독 가능한 기록매체
CN106385536A (zh) * 2016-09-19 2017-02-08 清华大学 用于视觉假体的双目图像采集方法及系统

Also Published As

Publication number Publication date
KR102245470B1 (ko) 2021-04-27
EP3419278A1 (en) 2018-12-26
US10652523B2 (en) 2020-05-12
CN109104551B (zh) 2021-06-25
CN109104551A (zh) 2018-12-28
TWI740048B (zh) 2021-09-21
EP3419278B1 (en) 2019-09-25
US20180367789A1 (en) 2018-12-20
JP2019033474A (ja) 2019-02-28
TW201906401A (zh) 2019-02-01
KR20180138131A (ko) 2018-12-28

Similar Documents

Publication Publication Date Title
JP6967489B2 (ja) マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン
JP4480760B2 (ja) 画像データ処理方法および画像処理装置
TWI407800B (zh) 馬賽克影像的改良處理
CN110557584B (zh) 图像处理方法及装置、计算机可读存储介质
US20150029306A1 (en) Method and apparatus for stabilizing panorama video captured based on multi-camera platform
CN106997579B (zh) 图像拼接的方法和装置
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP6090820B2 (ja) バイヤーカラーフィルタアレイに基づくハイダイナミックレンジの動画録画方法及び装置
JP2014056466A (ja) 画像処理装置及び方法
KR101915036B1 (ko) 실시간 비디오 스티칭 방법, 시스템 및 컴퓨터 판독 가능 기록매체
US10699377B2 (en) Method, device, and camera for blending a first and a second image having overlapping fields of view
JP2019041389A (ja) パノラマまたは立体画像ストリームを取り込みかつレンダリングするためのプロセスおよび装置
US10349040B2 (en) Storing data retrieved from different sensors for generating a 3-D image
EP2043359B1 (en) System and method for image processing
JP2019033474A5 (ja)
WO2019013217A1 (ja) 補正装置、撮像装置、補正装置の制御方法、および制御プログラム
JP2015087851A (ja) 画像処理装置及び画像処理プログラム
WO2017154293A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP6730423B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5505072B2 (ja) 画像データ処理装置および画像データ処理方法
JP6245847B2 (ja) 画像処理装置および画像処理方法
JP6494388B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7038935B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2016099836A (ja) 撮像装置、画像処理装置、画像処理方法、及びプログラム
JP6338376B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210604

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6967489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150