JP6967489B2 - マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン - Google Patents
マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン Download PDFInfo
- Publication number
- JP6967489B2 JP6967489B2 JP2018110291A JP2018110291A JP6967489B2 JP 6967489 B2 JP6967489 B2 JP 6967489B2 JP 2018110291 A JP2018110291 A JP 2018110291A JP 2018110291 A JP2018110291 A JP 2018110291A JP 6967489 B2 JP6967489 B2 JP 6967489B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- image data
- frame
- video frame
- overlapping portion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/293—Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2622—Signal amplitude transition in the zone between image portions, e.g. soft edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
それぞれ第1のセンサーと第2のセンサーとによって同時にキャプチャされている第1のビデオフレームと第2のビデオフレームとを受信することであって、
第1および第2のビデオフレームの各々は、それが第1および第2のビデオフレームの他方と重複しない、重複しない部分(non−overlapping portion)と、それが第1および第2のビデオフレームの他方と重複する、重複する部分(overlapping portion)とを有する、受信することと、
第1および第2のビデオフレームの重複しない部分からの画像データを、第1のビデオフレームの重複する部分からの画像データのみと一緒に結合することによって、第1のビデオストリームのフレームを生成することと、
第2のビデオストリームのフレームを生成することであって、第2のビデオストリームのフレームが、少なくとも第2のビデオフレームの重複する部分からの画像データを含む、生成することと、
第1のビデオストリームのフレームと第2のビデオストリームのフレームとを並列に処理することであって、第2のビデオストリームのフレームの処理が、少なくとも第2のビデオフレームの重複する部分からの画像データに基づいてオーバーレイを準備することを含む、処理することと、
第1のビデオストリームの処理されたフレームに、処理されたフレームの第1のビデオフレームの重複する部分に対応する部分においてオーバーレイを追加することと
を備え、
第1のビデオフレームの重複する部分からの画像データは、オーバーレイを準備するステップとオーバーレイを追加するステップとのうちの少なくとも1つにおいて第2のビデオフレームの重複する部分からの画像データとブレンドされる。
第1のビデオフレームの重複する部分からの画像データおよび第2のビデオフレームの重複する部分からの画像データの第1の重み付き平均を計算することであって、第1の重み付き平均が、第1のしきい値よりも低い空間周波数に関して計算される、計算することと、
第1のビデオフレームの重複する部分からの画像データおよび第2のビデオフレームの重複する部分からの画像データの第2の重み付き平均を計算することであって、第2の重み付き平均が、第2のしきい値に等しいかまたはそれを上回る空間周波数に関して計算され、第2のしきい値が第1のしきい値よりも大きいかまたはそれに等しく、
重みが、第1の重み付き平均と第2の重み付き平均とについて別様に選択される、計算することと、
第1の重み付き平均を第2の重み付き平均に追加することによってオーバーレイを計算することと
を含み得る。
第1のビデオフレームの重複する部分中の物体と、第2のビデオフレームの重複する部分中の物体とを識別することと、
重複する部分中で第1のビデオフレームからの画像データおよび第2のビデオフレームからの画像データの重み付き平均を計算することと
を含み、
第1のビデオフレームの重複する部分と第2のビデオフレームの重複する部分の両方の中で物体が識別された場合、第1のビデオフレームの画像データまたは第2のビデオフレームの画像データのうちの1つに関連する重みは、その物体に属するとして識別されるピクセルについて0に設定される。このタイプのブレンディングの場合、たとえば、人などの物体を表す画像データは、第1のビデオフレームと第2のビデオフレームとのうちの1つ中にのみ含まれ、それにより、ブレンドされた画像中のわずかに異なる位置において物体が二重に現れることを回避する。これは、場合によっては、複数のセンサーの視差効果による事例であり得る。
それぞれ第1のセンサーと第2のセンサーとによって同時にキャプチャされている第1のビデオフレームと第2のビデオフレームとを受信するように構成された受信機であって、
第1および第2のビデオフレームの各々は、それが第1および第2のビデオフレームの他方と重複しない、重複しない部分と、それが第1および第2のビデオフレームの他方と重複する、重複する部分とを有する、受信機と、
第1および第2のビデオフレームの重複しない部分からの画像データを、第1のビデオフレームの重複する部分からの画像データのみと一緒に結合することによって、第1のビデオストリームのフレームを生成することと、第2のビデオストリームのフレームを生成することであって、第2のビデオストリームのフレームが、少なくとも第2のビデオフレームの重複する部分からの画像データを含む、生成することとを行うように構成されたフレーム生成構成要素と、
第1のビデオストリームのフレームを処理するように構成された第1の処理構成要素と、
第1のビデオストリームのフレームを処理する第1の処理構成要素と並列に第2のビデオストリームのフレームを処理するように構成された第2の処理構成要素であって、第2のビデオストリームのフレームの処理が、少なくとも第2のビデオフレームの重複する部分からの画像データに基づいてオーバーレイを準備することを含む、第2の処理構成要素と、
第1のビデオストリームの処理されたフレームに、処理されたフレームの第1のビデオフレームの重複する部分に対応する部分においてオーバーレイを追加するように構成されたオーバーレイ構成要素と
を備え、
第2の処理構成要素とオーバーレイ構成要素とのうちの少なくとも1つは、オーバーレイを準備するかまたはオーバーレイを追加するとき、第1のビデオフレームの重複する部分からの画像データを第2のビデオフレームの重複する部分からの画像データとブレンドするように構成される。
第1の視野を表すビデオフレームをキャプチャするように配置された第1のセンサーと、
第1のセンサーと同時にビデオフレームをキャプチャするように配置された第2のセンサーであって、第1の視野と一部重複する第2の視野を表す、第2のセンサーと、
第1および第2のセンサーによってキャプチャされたビデオフレームを受信するように第1のセンサーと第2のセンサーとに動作可能に接続されている、第2の態様による処理パイプラインと
を備える。
(1−w(x))A’(x)+w(x)B’(x)
ここで、B’(x)は、ピクセルxにおける重複する部分128b中の画像データを表示し、A’(x)は、ピクセルxに対応するピクセルにおける重複する部分128a中の画像データを表示する。
102a 第1のセンサー
102b 第2のセンサー
104 処理パイプライン
106 ビデオエンコーダ
108a 第1のビデオフレーム
108b 第2のビデオフレーム
110 パノラマ画像
118a 重複しない部分
118b 重複しない部分
128a 重複する部分
128b 重複する部分
202 受信機
204 画像処理構成要素
206 フレーム生成構成要素
208 第1の処理構成要素
210 第2の処理構成要素
212 オーバーレイ構成要素
214 第1のビデオストリーム
216 第2のビデオストリーム
302 フレーム
304 フレーム
306 オーバーレイ
328a 部分
404 フレーム
406 オーバーレイ
408 マスク
Claims (20)
- 部分的に重複する視野をもつ第1および第2のセンサー(102a、102b)を有するマルチセンサービデオカメラ(100)において実施される方法であって、
前記第1のセンサー(102a)および前記第2のセンサー(102b)の各々によって同時にキャプチャされる第1のビデオフレーム(108a)および第2のビデオフレーム(108b)を受信すること(S02)であって、
前記第1および前記第2のビデオフレーム(108a、108b)の各々は、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複しない、重複しない部分(118a、118b)と、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複する、重複する部分(128a、128b)とを有する、受信すること(S02)と、
前記第1および前記第2のビデオフレーム(108a、108b)の前記重複しない部分(118a、118b)からの画像データ(A、B)を、前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)のみと結合することによって、第1のビデオストリーム(214)のフレーム(302)を生成すること(S04)と、
少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)を含む、第2のビデオストリーム(216)のフレーム(304、404)を生成すること(S06)と、
前記第1のビデオストリームの前記フレーム(302)および前記第2のビデオストリームの前記フレーム(304、404)を並列に処理すること(S08)であって、前記第2のビデオストリームの前記フレーム(304、404)の前記処理が、少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの前記画像データ(B’)に基づいてオーバーレイ(306、406)を準備することを含む、処理すること(S08)と、
前記第1のビデオストリームの処理されたフレーム(308)に、前記処理されたフレーム(308)の前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する部分(328a)において、前記オーバーレイ(306、406)を追加すること(S10)と
を備え、
前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)が、前記オーバーレイを準備するステップと前記オーバーレイを追加するステップとのうちの少なくとも1つにおいて、前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)とブレンドされる、方法。 - 前記第2のビデオストリームの前記フレーム(304)が、前記第1および前記第2のビデオフレーム(108a、108b)の前記重複する部分(128a、128b)からの画像データ(A’)を備え、前記オーバーレイを準備するステップが、前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)を、前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)とブレンドすることを含む、請求項1に記載の方法。
- 前記オーバーレイを追加するステップにおいて、前記オーバーレイ(306)が、前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する、前記部分(328a)中の前記第1のビデオストリームの前記処理されたフレーム(308)の画像データ(A’)と置き替わる、請求項2に記載の方法。
- 前記ブレンドすることが、前記重複する部分(128a、128b)中の各ピクセルについて、前記第1のビデオフレーム(108a)からの画像データ(A’)と前記第2のビデオフレーム(108b)からの画像データ(B’)との重み付き平均を計算することを含み、
前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの前記画像データ(B’)に関連する重みが、前記ピクセルから、前記第2のビデオフレーム(108b)の前記重複する部分(128b)と前記重複しない部分(118b)との間の境界までの最短距離に依存し、
前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの前記画像データ(A’)に関連する重みが、前記ピクセルから、前記第1のビデオフレーム(108a)の前記重複する部分(128a)と前記重複しない部分(118a)との間の境界までの最短距離に依存する、請求項2または3に記載の方法。 - 前記ブレンドすることは、
前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)および前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)の第1の重み付き平均を計算することであって、前記第1の重み付き平均を、第1のしきい値よりも低い空間周波数に関して計算することと、
前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)および前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)の第2の重み付き平均を計算することであって、前記第2の重み付き平均を、前記第1のしきい値よりも大きいかまたはそれに等しい第2のしきい値に等しいかまたはそれを上回る空間周波数に関して計算することと、ここで重みは、前記第1の重み付き平均と前記第2の重み付き平均とについて別様に選択され、
前記第1の重み付き平均を前記第2の重み付き平均に追加することによって前記オーバーレイを計算することと
を含む、請求項2から4のいずれか一項に記載の方法。 - 前記ブレンドすることは、
前記第1のビデオフレーム(108a)の前記重複する部分(128a)中の物体と、前記第2のビデオフレーム(108b)の前記重複する部分(128b)中の物体とを識別することと、
前記重複する部分(128a、128b)中で前記第1のビデオフレーム(108a)からの画像データ(A’)と前記第2のビデオフレーム(108b)からの画像データ(B’)との重み付き平均を計算することと
を含み、
前記第1のビデオフレーム(108a)の前記重複する部分(128a)と前記第2のビデオフレーム(108b)の前記重複する部分(128b)の両方の中で物体が識別された場合、前記第1のビデオフレーム(108a)の画像データ(A’)または前記第2のビデオフレーム(108b)の画像データ(B’)のうちの1つに関連する重みが、当該の物体に属するとして識別されるピクセルについて0に設定される、請求項2から5のいずれか一項に記載の方法。 - 前記オーバーレイ(406)が前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)のみを含み、前記オーバーレイを追加するステップが、前記第1のビデオストリーム(214)の前記処理されたフレーム(308)と、前記処理されたフレーム(308)の前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する前記部分(328a)において、前記オーバーレイ(406)をブレンドすることを含む、請求項1に記載の方法。
- 前記第1のビデオストリームの前記処理されたフレーム(308)と前記オーバーレイ(406)をブレンドすることが、前記オーバーレイ(406)の各ピクセルについてブレンディングの程度を定義するマスク(408)に従って行われる、請求項7に記載の方法。
- 前記オーバーレイ(406)の各ピクセルが、前記第2のビデオフレーム(108b)の前記重複する部分(128b)のピクセルに対応し、ブレンディングの前記程度が、前記ピクセルから、前記第2のビデオフレーム(108b)の前記重複する部分(128b)と前記重複しない部分(118b)との間の境界までの最短距離に依存する、請求項8に記載の方法。
- 前記第2のビデオストリームの前記フレーム(404)が、前記第1および前記第2のビデオフレーム(108a、108b)の前記重複する部分(128a、128b)からの画像データ(A’、B’)を含み、オーバーレイを準備するステップが、前記第1および前記第2のビデオフレーム(108a、108b)の前記重複する部分(128a、128b)からの前記画像データ(A’、B’)に基づいて前記マスク(408)を計算することをさらに備える、請求項8に記載の方法。
- 前記マスク(408)は、ビデオフレームが前記第1および前記第2のセンサー(102a、102b)から受信されるレートよりも低いレートにおいて更新される、請求項10に記載の方法。
- 前記第1のビデオストリームの前記フレーム(302)の前記処理、および前記第2のビデオストリームの前記フレーム(304、404)の前記処理が、前記第1のビデオフレーム(108a)の画像データおよび前記第2のビデオフレーム(108b)の画像データを整合させることを含む、請求項1から11のいずれか一項に記載の方法。
- 部分的に重複する視野をもつ第1および第2のセンサー(102a、102b)を有するマルチセンサービデオカメラ(100)のための処理パイプライン(104)であって、
それぞれ前記第1のセンサーおよび前記第2のセンサー(102a、102b)によって同時にキャプチャされている第1のビデオフレームおよび第2のビデオフレーム(108a、108b)を受信するように構成された受信機(202)であって、
前記第1および前記第2のビデオフレーム(108a、108b)の各々は、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複しない、重複しない部分(118a、118b)と、前記第1および前記第2のビデオフレーム(108a、108b)の他方と重複する、重複する部分(128a、128b)とを有する、受信機(202)と、
前記第1および前記第2のビデオフレーム(108a、108b)の前記重複しない部分(118a、118b)からの画像データ(A、B)を、前記第1のビデオフレーム(108a)の前記重複する部分(128a、128b)からの画像データのみと結合することによって、第1のビデオストリーム(214)のフレーム(302)を生成し、且つ、少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)を含む、第2のビデオストリーム(216)のフレーム(304、404)を生成するように構成されたフレーム生成構成要素(206)と、
前記第1のビデオストリーム(214)の前記フレーム(302)を処理するように構成された第1の処理構成要素(208)と、
前記第1のビデオストリーム(214)の前記フレーム(302)を処理する前記第1の処理構成要素(208)と並列に前記第2のビデオストリーム(216)の前記フレーム(304、404)を処理するように構成された第2の処理構成要素(210)であって、前記第2のビデオストリーム(108b)の前記フレーム(304、404)の前記処理が、少なくとも前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの前記画像データ(B’)に基づいてオーバーレイ(306、406)を準備することを含む、第2の処理構成要素(210)と、
前記第1のビデオストリーム(214)の処理されたフレーム(308)に、前記処理されたフレーム(308)の前記第1のビデオフレーム(108a)の前記重複する部分(128a)に対応する部分(328a)において、前記オーバーレイ(306、406)を追加するように構成されたオーバーレイ構成要素(212)と
を備え、
前記第2の処理構成要素(210)と前記オーバーレイ構成要素(212)とのうちの少なくとも1つが、前記オーバーレイを準備するかまたは前記オーバーレイを追加するとき、前記第1のビデオフレーム(108a)の前記重複する部分(128a)からの画像データ(A’)を前記第2のビデオフレーム(108b)の前記重複する部分(128b)からの画像データ(B’)とブレンドするように構成された、処理パイプライン(104)。 - 第1の視野を表すビデオフレームをキャプチャするように配置された第1のセンサー(102a)と、
前記第1のセンサー(102a)と同時にビデオフレームをキャプチャするように配置された第2のセンサー(102b)であって、前記第1の視野と一部重複する第2の視野を表す、第2のセンサー(102b)と、
請求項13に記載の処理パイプライン(104)と
を備える、マルチセンサービデオカメラ(100)。 - 前記第2のビデオストリームのフレームが、前記第2および第1のビデオフレームの前記重複する部分からの画像データを含み、前記第2の処理構成要素または前記オーバーレイ構成要素が、前記オーバーレイを準備するかまたは前記オーバーレイを追加するとき、前記第2のビデオフレームの前記重複する部分からの画像データを前記第1のビデオフレームの前記重複する部分からの画像データとブレンドするように構成されている、請求項14に記載のマルチセンサービデオカメラ(100)。
- 前記オーバーレイを追加するとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、前記オーバーレイで、前記第1のビデオフレームの前記重複する部分に対応する前記部分において、前記第1のビデオストリームの前記処理されたフレームの画像データを置き替える、請求項15に記載のマルチセンサービデオカメラ(100)。
- ブレンドするとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、前記重複する部分中の各ピクセルについて、前記第1のビデオフレームからの画像データと前記第2のビデオフレームからの画像データとの重み付き平均を計算するように構成されており、
前記第2のビデオフレームの前記重複する部分からの前記画像データに関連する重みが、前記ピクセルから、前記第2のビデオフレームの前記重複する部分と前記重複しない部分との間の境界までの最短距離に依存し、
前記第1のビデオフレームの前記重複する部分からの前記画像データに関連する重みが、前記ピクセルから、前記第1のビデオフレームの前記重複する部分と前記重複しない部分との間の境界までの最短距離に依存する、請求項15に記載のマルチセンサービデオカメラ(100)。 - ブレンドするとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、
前記第1のビデオフレームの前記重複する部分からの画像データおよび前記第2のビデオフレームの前記重複する部分からの画像データの第1の重み付き平均を計算することであって、前記第1の重み付き平均を、第1のしきい値よりも低い空間周波数に関して計算することと、
前記第1のビデオフレームの前記重複する部分からの画像データおよび前記第2のビデオフレームの前記重複する部分からの画像データの第2の重み付き平均を計算することであって、前記第2の重み付き平均を、前記第1のしきい値よりも大きいかまたはそれに等しい第2のしきい値に等しいかまたはそれを上回る空間周波数に関して計算することと、ここで重みは、前記第1の重み付き平均と前記第2の重み付き平均とについて別様に選択され、
前記第1の重み付き平均を前記第2の重み付き平均に追加することによって前記オーバーレイを計算することと
を行うように構成されている、請求項15に記載のマルチセンサービデオカメラ(100)。 - ブレンドするとき、前記第2の処理構成要素または前記オーバーレイ構成要素が、
前記第1のビデオフレームの前記重複する部分中の物体と、前記第2のビデオフレームの前記重複する部分中の物体とを識別し、
前記重複する部分中で前記第1のビデオフレームからの画像データと前記第2のビデオフレームからの画像データとの重み付き平均を計算する
ように構成されており、前記第1のビデオフレームの前記重複する部分と前記第2のビデオフレームの前記重複する部分の両方の中で物体が識別された場合、前記第1のビデオフレームの画像データまたは前記第2のビデオフレームの画像データのうちの1つに関連する重みが、当該の物体に属するとして識別されるピクセルについて0に設定される、請求項15に記載のマルチセンサービデオカメラ(100)。 - コンピュータによって実行されたとき、請求項1から12のいずれか一項に記載の方法を遂行するための、コンピュータコード命令が記憶されたコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17176772.6 | 2017-06-20 | ||
EP17176772.6A EP3419278B1 (en) | 2017-06-20 | 2017-06-20 | A multi-sensor video camera, and a method and processing pipeline for the same |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019033474A JP2019033474A (ja) | 2019-02-28 |
JP2019033474A5 JP2019033474A5 (ja) | 2021-07-26 |
JP6967489B2 true JP6967489B2 (ja) | 2021-11-17 |
Family
ID=59257975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018110291A Active JP6967489B2 (ja) | 2017-06-20 | 2018-06-08 | マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン |
Country Status (6)
Country | Link |
---|---|
US (1) | US10652523B2 (ja) |
EP (1) | EP3419278B1 (ja) |
JP (1) | JP6967489B2 (ja) |
KR (1) | KR102245470B1 (ja) |
CN (1) | CN109104551B (ja) |
TW (1) | TWI740048B (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3404913B1 (en) * | 2017-05-16 | 2019-11-06 | Axis AB | A system comprising a video camera and a client device and a method performed by the same |
WO2019079403A1 (en) * | 2017-10-18 | 2019-04-25 | Gopro, Inc. | LOCAL EXPOSURE COMPENSATION |
CN113272855B (zh) * | 2018-11-06 | 2024-06-14 | 泰立戴恩菲力尔商业系统公司 | 用于重叠多图像应用的响应归一化 |
CN112399095A (zh) * | 2019-08-15 | 2021-02-23 | 西安诺瓦星云科技股份有限公司 | 视频处理方法、装置和系统 |
EP3836527B1 (en) * | 2019-12-13 | 2021-11-10 | Axis AB | Multi-sensor high dynamic range imaging |
KR20220163994A (ko) * | 2020-04-24 | 2022-12-12 | 엘지전자 주식회사 | Pov 디스플레이 장치 및 그 제어방법 |
EP4060982B1 (en) * | 2021-03-15 | 2023-06-28 | Axis AB | Method and monitoring camera for handling video streams |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0940959B1 (en) | 1998-03-04 | 2007-10-10 | Sony Deutschland GmbH | Establishing connections between remote devices with a hypertext transfer protocol |
JP2000209425A (ja) * | 1998-11-09 | 2000-07-28 | Canon Inc | 画像処理装置及び方法並びに記憶媒体 |
TWI221262B (en) * | 2002-07-25 | 2004-09-21 | Via Tech Inc | Device and method for alpha blending overlay frame |
JP4763351B2 (ja) * | 2004-07-14 | 2011-08-31 | アレコント ビジョン,リミティド ライアビリティ カンパニー | 多重センサパノラマネットワークカメラ |
EP1718065A1 (en) * | 2005-04-30 | 2006-11-02 | STMicroelectronics (Research & Development) Limited | Method and apparatus for processing image data |
US8189100B2 (en) * | 2006-07-25 | 2012-05-29 | Qualcomm Incorporated | Mobile device with dual digital camera sensors and methods of using the same |
EP2355037A1 (en) | 2009-12-18 | 2011-08-10 | Nxp B.V. | Method of and system for determining an average colour value for pixels |
KR20110076831A (ko) * | 2009-12-28 | 2011-07-06 | (주)주인네트 | 분산 네트워크 pvr 시스템 및 그 서비스 방법 |
JP2012237937A (ja) * | 2011-05-13 | 2012-12-06 | Nikon Corp | 電子機器 |
CN103167223A (zh) * | 2011-12-09 | 2013-06-19 | 富泰华工业(深圳)有限公司 | 具有广角拍摄功能的移动装置及其影像撷取方法 |
CN102982515A (zh) * | 2012-10-23 | 2013-03-20 | 中国电子科技集团公司第二十七研究所 | 一种无人机图像实时拼接的方法 |
KR20150011938A (ko) | 2013-07-24 | 2015-02-03 | 한국전자통신연구원 | 멀티-카메라 플랫폼 기반으로 캡쳐된 파노라마 영상의 안정화 방법 및 장치 |
CN103997609A (zh) * | 2014-06-12 | 2014-08-20 | 四川川大智胜软件股份有限公司 | 基于cuda的多视频实时全景融合拼接方法 |
CN104333818A (zh) | 2014-10-17 | 2015-02-04 | 中兴通讯股份有限公司 | 一种http实时流媒体分片的拼接方法及拼接系统 |
CN104754228A (zh) * | 2015-03-27 | 2015-07-01 | 广东欧珀移动通信有限公司 | 一种利用移动终端摄像头拍照的方法及移动终端 |
CN105049954B (zh) | 2015-07-02 | 2020-07-10 | 中兴通讯股份有限公司 | Ott媒体的组播传输方法、装置及系统 |
TWI543611B (zh) * | 2015-11-20 | 2016-07-21 | 晶睿通訊股份有限公司 | 影像接合方法及具有影像接合功能的攝影系統 |
KR101743228B1 (ko) | 2016-01-22 | 2017-06-05 | 네이버 주식회사 | 스트리밍 장치 및 그 방법, 이를 이용한 스트리밍 서비스 시스템 및 컴퓨터로 판독 가능한 기록매체 |
CN106385536A (zh) * | 2016-09-19 | 2017-02-08 | 清华大学 | 用于视觉假体的双目图像采集方法及系统 |
-
2017
- 2017-06-20 EP EP17176772.6A patent/EP3419278B1/en active Active
-
2018
- 2018-05-23 KR KR1020180058115A patent/KR102245470B1/ko active IP Right Grant
- 2018-06-01 TW TW107118880A patent/TWI740048B/zh active
- 2018-06-08 JP JP2018110291A patent/JP6967489B2/ja active Active
- 2018-06-11 US US16/005,128 patent/US10652523B2/en active Active
- 2018-06-15 CN CN201810619113.8A patent/CN109104551B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR102245470B1 (ko) | 2021-04-27 |
EP3419278A1 (en) | 2018-12-26 |
US10652523B2 (en) | 2020-05-12 |
CN109104551B (zh) | 2021-06-25 |
CN109104551A (zh) | 2018-12-28 |
TWI740048B (zh) | 2021-09-21 |
EP3419278B1 (en) | 2019-09-25 |
US20180367789A1 (en) | 2018-12-20 |
JP2019033474A (ja) | 2019-02-28 |
TW201906401A (zh) | 2019-02-01 |
KR20180138131A (ko) | 2018-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6967489B2 (ja) | マルチセンサービデオカメラ、ならびにそれのための方法および処理パイプライン | |
JP4480760B2 (ja) | 画像データ処理方法および画像処理装置 | |
TWI407800B (zh) | 馬賽克影像的改良處理 | |
CN110557584B (zh) | 图像处理方法及装置、计算机可读存储介质 | |
US20150029306A1 (en) | Method and apparatus for stabilizing panorama video captured based on multi-camera platform | |
CN106997579B (zh) | 图像拼接的方法和装置 | |
JP5984493B2 (ja) | 画像処理装置、画像処理方法、撮像装置およびプログラム | |
JP6090820B2 (ja) | バイヤーカラーフィルタアレイに基づくハイダイナミックレンジの動画録画方法及び装置 | |
JP2014056466A (ja) | 画像処理装置及び方法 | |
KR101915036B1 (ko) | 실시간 비디오 스티칭 방법, 시스템 및 컴퓨터 판독 가능 기록매체 | |
US10699377B2 (en) | Method, device, and camera for blending a first and a second image having overlapping fields of view | |
JP2019041389A (ja) | パノラマまたは立体画像ストリームを取り込みかつレンダリングするためのプロセスおよび装置 | |
US10349040B2 (en) | Storing data retrieved from different sensors for generating a 3-D image | |
EP2043359B1 (en) | System and method for image processing | |
JP2019033474A5 (ja) | ||
WO2019013217A1 (ja) | 補正装置、撮像装置、補正装置の制御方法、および制御プログラム | |
JP2015087851A (ja) | 画像処理装置及び画像処理プログラム | |
WO2017154293A1 (ja) | 画像処理装置、撮像装置、および画像処理方法、並びにプログラム | |
JP6730423B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP5505072B2 (ja) | 画像データ処理装置および画像データ処理方法 | |
JP6245847B2 (ja) | 画像処理装置および画像処理方法 | |
JP6494388B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7038935B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2016099836A (ja) | 撮像装置、画像処理装置、画像処理方法、及びプログラム | |
JP6338376B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210604 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210604 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6967489 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |