JP2021106374A - 再生効率を向上させるインテリジェント監視ビデオ再生方法 - Google Patents
再生効率を向上させるインテリジェント監視ビデオ再生方法 Download PDFInfo
- Publication number
- JP2021106374A JP2021106374A JP2019239852A JP2019239852A JP2021106374A JP 2021106374 A JP2021106374 A JP 2021106374A JP 2019239852 A JP2019239852 A JP 2019239852A JP 2019239852 A JP2019239852 A JP 2019239852A JP 2021106374 A JP2021106374 A JP 2021106374A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- surveillance
- visual attention
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000000007 visual effect Effects 0.000 claims abstract description 39
- 230000004927 fusion Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000354 decomposition reaction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4084—Scaling of whole images or parts thereof, e.g. expanding or contracting in the transform domain, e.g. fast Fourier transform [FFT] domain scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/37—Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】本発明は、再生効率を向上させるインテリジェント監視ビデオ再生方法である。【解決手段】本発明のインテリジェント監視ビデオ再生方法では、複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成し、各画像グループに対して視覚的注目度検出を行ってそのグループに対応する視覚的注目画像を取得し、各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせ、全てのパノラマ画像を対応する仮想監視シーンに変換し、前記仮想監視シーンにおいてパノラマ表示により再生を行う。複数の監視ビデオを一つの仮想監視シーンに統合してパノラマとして見ることにより、複数の監視ビデオの同時再生、再生時間の減少、再生効率の向上を図ることができる。また、本発明では、抽出された画像を処理して視覚的注目画像を取得することにより、再生時にビデオにおける人の目が注目したビデオ情報やビデオの詳細を顕著化することに利し、同様に再生効率を向上させることができる。【選択図】図1
Description
本発明はインテリジェント監視技術分野に関し、より具体的には、本発明は再生効率を向上させるインテリジェント監視ビデオ再生方法に関する。
ビデオ監視は、各産業の主要部門や重要な場所でリアルタイム監視を行うための基礎であり、管理部門は、それを通して有効なビデオ情報を取得し、突発的な異常事象の経緯をタイムリーに監視して記憶し、効率的かつ即時的な指揮と派遣、警備の手配、事件の処理などに利用する。しかし、監視ビデオの再生は時間と手間がかかることが多い。例えば、ある場所のビデオ監視が6台の監視カメラによって行われる場合、監視ビデオを再生するには6本の監視ビデオを再生する必要があるため、6人に分けて見ても多くの時間を要し、しかも監視ビデオの中の多くの時間は無駄である。しかし、有効な手がかりを見つけるために、従来技術では、ビデオレビュー者は、手作業で細かいところをチェックしなければならず、多くの無駄な作業を費やしてきた。かつ、ビデオレビュー者は、6本の監視ビデオを同時にチェックすることができず、全体から監視場所の状況を把握することができない。また、ビデオレビュー者が長時間の視聴により、目が疲れてしまい、重要なビデオ情報やキーポイントとなるビデオの詳細を見落としがちである。
本発明の解決しようとする技術的課題は、複数の監視ビデオを同時に再生し、再生時間を減少させ、且つビデオの中で人の目が注目したビデオ情報やビデオの詳細を顕著化し、再生効率を向上させることができるインテリジェント監視ビデオ再生方法を提供することである。
上述した課題を解決するために、本発明は下記の構成を採用する。
再生効率を向上させるインテリジェント監視ビデオ再生方法は、
複数のビデオを含み、各ビデオが監視角度に対応している監視ビデオを取得し、
前記複数の監視ビデオに対して、同一の再生時間の始点で第1のフレーム画像を抽出し、且つ同一の所定の期間を置いた後に次のフレーム画像を抽出し、同一の再生時間の終点で最後のフレーム画像が抽出されるまで抽出を続け、
複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成し、各画像グループに対して視覚的注目度検出を行い、そのグループに対応する視覚的注目画像を取得し、
各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせ、
全てのパノラマ画像を対応する仮想監視シーンに変換し、
前記仮想監視シーンにおいてパノラマ表示により再生を行うというステップを含む。
再生効率を向上させるインテリジェント監視ビデオ再生方法は、
複数のビデオを含み、各ビデオが監視角度に対応している監視ビデオを取得し、
前記複数の監視ビデオに対して、同一の再生時間の始点で第1のフレーム画像を抽出し、且つ同一の所定の期間を置いた後に次のフレーム画像を抽出し、同一の再生時間の終点で最後のフレーム画像が抽出されるまで抽出を続け、
複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成し、各画像グループに対して視覚的注目度検出を行い、そのグループに対応する視覚的注目画像を取得し、
各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせ、
全てのパノラマ画像を対応する仮想監視シーンに変換し、
前記仮想監視シーンにおいてパノラマ表示により再生を行うというステップを含む。
従来技術に比べて、本発明は以下のような有利な効果を有する。
本発明のインテリジェント監視ビデオ再生方法では、複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成し、各画像グループに対して視覚的注目度検出を行ってそのグループに対応する視覚的注目画像を取得し、各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせ、全てのパノラマ画像を対応する仮想監視シーンに変換し、前記仮想監視シーンにおいてパノラマ表示により再生を行う。複数の監視ビデオを一つの仮想監視シーンに統合してパノラマとして見ることにより、複数の監視ビデオの同時再生、再生時間の減少、再生効率の向上を図ることができる。また、1秒間ないし数秒間内の監視画面は大きな違いがないため、本発明では、複数の監視ビデオに対して、すべての画像を抽出して再生するのではなく、同じ時点で1つのフレーム画像を抽出し、所定の期間を置いた後に次のフレーム画像を抽出することにより、同様に重要なビデオ情報を見逃すことなく再生効率を向上させることができる。また、本発明では、抽出された画像を処理して視覚的注目画像を取得することにより、再生時にビデオにおける人の目が注目したビデオ情報やビデオの詳細を顕著化することに利し、同様に再生効率を向上させることができる。
本発明のインテリジェント監視ビデオ再生方法では、複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成し、各画像グループに対して視覚的注目度検出を行ってそのグループに対応する視覚的注目画像を取得し、各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせ、全てのパノラマ画像を対応する仮想監視シーンに変換し、前記仮想監視シーンにおいてパノラマ表示により再生を行う。複数の監視ビデオを一つの仮想監視シーンに統合してパノラマとして見ることにより、複数の監視ビデオの同時再生、再生時間の減少、再生効率の向上を図ることができる。また、1秒間ないし数秒間内の監視画面は大きな違いがないため、本発明では、複数の監視ビデオに対して、すべての画像を抽出して再生するのではなく、同じ時点で1つのフレーム画像を抽出し、所定の期間を置いた後に次のフレーム画像を抽出することにより、同様に重要なビデオ情報を見逃すことなく再生効率を向上させることができる。また、本発明では、抽出された画像を処理して視覚的注目画像を取得することにより、再生時にビデオにおける人の目が注目したビデオ情報やビデオの詳細を顕著化することに利し、同様に再生効率を向上させることができる。
図1を参照すると、その図は本発明の再生効率を向上させるインテリジェント監視ビデオ再生方法の一具体実施例のフローチャートである。本実施例の方法は主に以下のようなステップを含む。
ステップS101:複数のビデオを含み、各ビデオが監視角度に対応している監視ビデオを取得する。具体的に実現する場合、各ビデオの監視範囲はクロスオーバーしていてもよく、クロスオーバーしていなくてもよい。本実施例では、クロスオーバーの場合を例として説明する。
ステップS102:前記複数の監視ビデオに対して、同一の再生時間の始点で第1のフレーム画像を抽出し、且つ同一の所定の期間を置いた後に次のフレーム画像を抽出し、同一の再生時間の終点で最後のフレーム画像が抽出されるまで抽出を続ける。具体的に実現する場合、監視ビデオの伝送プロトコルが異なれば、1秒間に伝送されるビデオフレームは異なる。例えば、1秒間に24フレームの画像が伝送されるが、本発明では、24フレームの画像をすべて抽出する必要がない。それは、1秒間に伝送される画像は、実際にビデオの内容があまり変わらず、ひいては数秒範囲内の画像でも類似しているからである。したがって、本発明では、実際の状況に応じて所定の期間を設定することができる。例えば、所定の期間を1秒に設定すると、つまり1秒間に1フレームの画像が抽出される。あるいは、所定の期間を3秒に設定すると、つまり3秒間に1フレームの画像が抽出される。また、抽出された時間がバラバラにならないように、画像を抽出する前に、各ビデオの時間を同期させて揃える必要があるが、ここでは説明を省略する。
ステップS103:複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成し、各画像グループに対して視覚的注目度検出を行ってそのグループに対応する視覚的注目画像を取得する。本実施例で得られた視覚的注目画像は、再生時に監視シートにおける目標の識別力を向上させるのに便利である。また、従来技術では、画像領域の周囲・近傍領域に対する特徴のコントラストを計算することにより視覚的注目度を取得するが、計算効率が低い。好ましい実施例として、図2を参照されたい。本実施例では、改良された方法によって検出し、具体的には、本実施例の各グループの視覚的注目画像は以下の方法により得られる。
まず、ステップS1031では、スパースコーディングにより各フレーム画像を特徴記述し、
ステップS1032では、そのフレーム画像のスパースコーディングに基づいて視覚的注目度の計算を行い、
ステップS1033では、視覚的注目度の計算結果に基づき、そのフレーム画像に対して視覚的注目領域の分割を行ってそのフレーム画像の視覚的注目画像を取得し、
ステップS1034では、そのグループの他のフレーム画像に対して前記処理を繰り返し、そのグループの他のフレーム画像に対応する視覚注目画像を取得する。本実施例では、画像のスパースコーディングを用いて視覚的顕著度を計算することで、計算効率を向上させることができる。ここでは説明を省略する。
ステップS1032では、そのフレーム画像のスパースコーディングに基づいて視覚的注目度の計算を行い、
ステップS1033では、視覚的注目度の計算結果に基づき、そのフレーム画像に対して視覚的注目領域の分割を行ってそのフレーム画像の視覚的注目画像を取得し、
ステップS1034では、そのグループの他のフレーム画像に対して前記処理を繰り返し、そのグループの他のフレーム画像に対応する視覚注目画像を取得する。本実施例では、画像のスパースコーディングを用いて視覚的顕著度を計算することで、計算効率を向上させることができる。ここでは説明を省略する。
また、ステップS104では、各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせる。具体的に実現する場合、好ましい実施例として、図3を参照されたい。本実施例では、各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせることは、具体的に以下のステップを含む。
ステップS1041:そのグループの視覚的注目画像における任意の2つの画像A、Bに対してそれぞれウェーブレット分解を行い、低周波数成分と高周波数成分を取得する。
ステップS1042:低周波成分の場合、融合画像の低周波係数について、ソース画像の視覚的注目度の値が大きい位置に対応する低周波係数を選択する。
ステップS1043:高周波成分の場合、融合画像の高周波係数について、絶対値が大きい方を融合後の高周波係数として採用する。
ステップS1044:融合後の低周波部分と高周波部分に対してウェーブレット逆変換を行うことにより、最終画像A、Bのスティッチング画像を取得する。
ステップS1045:前記方法に従い、各グループの他の視覚的注目画像と画像A、Bとを繋ぎ合わせ続けて最終的なパノラマ画像を取得する。
ステップS1041:そのグループの視覚的注目画像における任意の2つの画像A、Bに対してそれぞれウェーブレット分解を行い、低周波数成分と高周波数成分を取得する。
ステップS1042:低周波成分の場合、融合画像の低周波係数について、ソース画像の視覚的注目度の値が大きい位置に対応する低周波係数を選択する。
ステップS1043:高周波成分の場合、融合画像の高周波係数について、絶対値が大きい方を融合後の高周波係数として採用する。
ステップS1044:融合後の低周波部分と高周波部分に対してウェーブレット逆変換を行うことにより、最終画像A、Bのスティッチング画像を取得する。
ステップS1045:前記方法に従い、各グループの他の視覚的注目画像と画像A、Bとを繋ぎ合わせ続けて最終的なパノラマ画像を取得する。
なお、従来技術においてウェーブレット変換を用いて画像融合を行う場合、融合画像は各分解層で別々に行われるが、低周波部分については、分解層数が低いと画像コントラストが低下する。一方、本実施例では、低周波成分について、視覚的注目度に基づく融合アルゴリズムを採用するため、ソース画像の細部を融合させることができ、融合効果がより良好になる。ここでは説明を省略する。
ステップS105:全てのパノラマ画像を対応する仮想監視シーンに変換する。具体的に実現する場合、パノラマ画像は仮想監視シーンを構成する基本単位であり、従来技術では立方体モード、球体モード及び円柱モードを用いて対応する仮想監視シーンに変換することができる。本実施例では、円柱モードを使用している。すなわち、パノラマ画像を、カメラ視点を中心とした円柱に繋ぎ合わせることで、水平方向において視線の360度見渡しを実現できる一方、垂直方向において視線の回転角度が180度未満となる。ここでは説明を省略する。
ステップS106:前記仮想監視シーンにおいてパノラマ表示により再生を行う。具体的に実現する場合、前記仮想監視シーンにおいてパノラマ表示により再生を行うことは、設定された自動ローミング経路に沿ったパノラミック再生である。例えば、360度のパノラミック回転で再生した後は、引き続き次の仮想監視シーンを再生する。
上記実施例では、バーチャルリアリティ方式により、複数の監視ビデオを一つの仮想監視シーンに統合して再生することにより、複数の監視ビデオの同時再生、再生時間の減少、再生効率の向上を図ることができる。
また、監視ビデオにおいて、レビュー者が注目すべのは動く物体であり、静止している物体や微動だけしている物体にはあまり注目する必要がない。好ましい実施例として、本発明では、仮想監視シーンに用いる監視ビデオ画像をさらに次のように前処理する。つまり、複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成する前に、さらに以下のことを含む。
21) 各監視ビデオから抽出された画像から、第1のフレーム画像によって背景画像a(x,y)を作成する。具体的に実現する場合、ガウスモデル法によってモデル化することができ、xはそのガウス座標系における横軸で、yはそのガウス座標系における縦軸である。
22) 背景画像a(x,y)に対してメディアンフィルタリング、エッジ強調及び2値化を行って背景画像a(x,y)の演算後の画像A(x,y)を取得する。
23) 各監視ビデオから抽出された第2のフレーム画像に対して、同様にメディアンフィルタリング、エッジ強調及び2値化を行って第2のフレーム画像の演算後の画像B(x,y)を取得する。
24) 前記画像A(x,y)と画像B(x,y)に対して差分演算を行ってD(x,y) = B(x,y)−A(x,y)を取得する。
25) D(x,y)において値が1である点の数Nが閾値Tより小さければ、移動目標が検出されなかったと判断し、その数Nが閾値T以上であれば、移動目標が検出されたと判断し、次にD(x,y)をトラバースして画素値が1である点を見つけ出し、B(x,y)の対応位置の画素値を0にして移動目標領域とし、その他の位置の画素値をそのままにして、その第2のフレーム画像に対応する、移動目標領域が顕著化された画像を取得する。具体的に実現する場合、D(x,y)の値が1であることは動き領域であることを表すが、本実施例では、閾値Tを1つ設定し、D(x,y)の値が1である点の個数Nが閾値Tより大きい場合のみ、移動目標が検出されたとする。一方、D(x,y)の値が1である点の個数Nが閾値Tより小さい場合は、移動目標があったものの、微動のみだったことを表し、移動目標が検出されなかったと見なしてもよい。実際には、監視の再生目的に応じて閾値Tの大きさを調整することができる。微細な動きの検出が必要とする場合、閾値Tを小さくし、微細な動きを無視してもよい場合、閾値Tを大きくすればよい。ここでは、閾値Tの値について特に限定しない。なお、本実施例では、B(x,y)は二値画像であり、B(x,y)の対応する位置の画素値を0に設定し、つまりハイライト部分又は前景部分を表し、対応する位置の画素値を255に設定し、つまり背景部分を表す。B(x,y)を原画像に重ね合わせれば、原画像において移動目標領域が顕著化された画像が得られる。ここでは説明を省略する。
26) 各監視映像から抽出された他の残りの画像をステップ23)〜25)に従って処理して、他の残りの画像に対応する、移動目標領域が顕著化された画像を取得する。
21) 各監視ビデオから抽出された画像から、第1のフレーム画像によって背景画像a(x,y)を作成する。具体的に実現する場合、ガウスモデル法によってモデル化することができ、xはそのガウス座標系における横軸で、yはそのガウス座標系における縦軸である。
22) 背景画像a(x,y)に対してメディアンフィルタリング、エッジ強調及び2値化を行って背景画像a(x,y)の演算後の画像A(x,y)を取得する。
23) 各監視ビデオから抽出された第2のフレーム画像に対して、同様にメディアンフィルタリング、エッジ強調及び2値化を行って第2のフレーム画像の演算後の画像B(x,y)を取得する。
24) 前記画像A(x,y)と画像B(x,y)に対して差分演算を行ってD(x,y) = B(x,y)−A(x,y)を取得する。
25) D(x,y)において値が1である点の数Nが閾値Tより小さければ、移動目標が検出されなかったと判断し、その数Nが閾値T以上であれば、移動目標が検出されたと判断し、次にD(x,y)をトラバースして画素値が1である点を見つけ出し、B(x,y)の対応位置の画素値を0にして移動目標領域とし、その他の位置の画素値をそのままにして、その第2のフレーム画像に対応する、移動目標領域が顕著化された画像を取得する。具体的に実現する場合、D(x,y)の値が1であることは動き領域であることを表すが、本実施例では、閾値Tを1つ設定し、D(x,y)の値が1である点の個数Nが閾値Tより大きい場合のみ、移動目標が検出されたとする。一方、D(x,y)の値が1である点の個数Nが閾値Tより小さい場合は、移動目標があったものの、微動のみだったことを表し、移動目標が検出されなかったと見なしてもよい。実際には、監視の再生目的に応じて閾値Tの大きさを調整することができる。微細な動きの検出が必要とする場合、閾値Tを小さくし、微細な動きを無視してもよい場合、閾値Tを大きくすればよい。ここでは、閾値Tの値について特に限定しない。なお、本実施例では、B(x,y)は二値画像であり、B(x,y)の対応する位置の画素値を0に設定し、つまりハイライト部分又は前景部分を表し、対応する位置の画素値を255に設定し、つまり背景部分を表す。B(x,y)を原画像に重ね合わせれば、原画像において移動目標領域が顕著化された画像が得られる。ここでは説明を省略する。
26) 各監視映像から抽出された他の残りの画像をステップ23)〜25)に従って処理して、他の残りの画像に対応する、移動目標領域が顕著化された画像を取得する。
以上のように、本発明の方法によれば、一方では、再生時間を減少することができる。例えば、レビュー者が駐車場で他の車を擦った事故車を確認するための場合、3本の監視ビデオで各ビデオが3時間だとすると、従来技術では9時間を要するのに対し、本発明では3時間、ひいては1時間又はそれ以下であればよい。他方、静止画面にあまり注意を払う必要がなく、本発明では、上述した画像の前処理によって、車両が動き出す時の移動画面を顕著化することによって、レビュー者は所要する肝心なビデオ情報を素早く発見でき、同様に再生効率を向上させることができる。
以上は、本発明の好ましい実施形態に過ぎず、本発明を限定するものではなく、本発明の精神及び原則内で行われたあらゆる修正、等価変換、改良などは、いずれも本発明の保護範囲内に含まれるべきである。
Claims (6)
- 再生効率を向上させるインテリジェント監視ビデオ再生方法であって、
複数のビデオを含み、各ビデオが監視角度に対応している監視ビデオを取得することと、
前記複数の監視ビデオに対して、同一の再生時間の始点で第1のフレーム画像を抽出し、且つ同一の所定の期間を置いた後に次のフレーム画像を抽出し、同一の再生時間の終点で最後のフレーム画像が抽出されるまで抽出を続けることと、
複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成し、各画像グループに対して視覚的注目度検出を行ってそのグループに対応する視覚的注目画像を取得することと、
各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせることと、
全てのパノラマ画像を対応する仮想監視シーンに変換することと、
前記仮想監視シーンにおいてパノラマ表示により再生を行うことと、
を含むことを特徴とする再生効率を向上させるインテリジェント監視ビデオ再生方法。 - 複数の監視ビデオの同じ時点で抽出された画像を画像グループとして形成する前に、さらに、
21) 各監視ビデオから抽出された画像から、第1のフレーム画像によって背景画像a(x,y)を作成することと、
22) 背景画像a(x,y)に対してメディアンフィルタリング、エッジ強調及び2値化を行って背景画像a(x,y)の演算後の画像A(x,y)を取得することと、
23) 各監視ビデオから抽出された第2のフレーム画像に対して、同様にメディアンフィルタリング、エッジ強調及び2値化を行って第2のフレーム画像の演算後の画像B(x,y)を取得することと、
24)前記画像A(x,y)と画像B(x,y)に対して差分演算を行ってD(x,y)= B(x,y)−A(x,y)を取得することと、
25) D(x,y)において値が1である点の数Nが閾値Tより小さければ、移動目標が検出されなかったと判断し、その数Nが閾値T以上であれば、移動目標が検出されたと判断し、次にD(x,y)をトラバースして画素値が1である点を見つけ出し、B(x,y)の対応位置の画素値を0にして移動目標領域とし、その他の位置の画素値をそのままにして、その第2のフレーム画像に対応する、移動目標領域が顕著化された画像を取得することと、
26)各監視ビデオから抽出された他の残りの画像をステップ23)〜25)に従って処理して、他の残りの画像に対応する、移動目標領域が顕著化された画像を取得することと、
を含むことを特徴とする請求項1に記載の方法。 - 各グループの視覚的注目画像は、
スパースコーディングにより各フレーム画像を特徴記述し、
そのフレーム画像のスパースコーディングに基づいて視覚的注目度の計算を行い、
視覚的注目度の計算結果に基づき、そのフレーム画像に対して視覚的注目領域の分割を行ってそのフレーム画像の視覚的注目画像を取得し、
そのグループの他のフレーム画像に対して前記処理を繰り返し、そのグループの他のフレーム画像に対応する視覚注目画像を取得する、という方法によって得られることを特徴とする請求項1に記載の方法。 - 各グループの視覚的注目画像をパノラマ画像に繋ぎ合わせることは、具体的に、
そのグループの視覚的注目画像における任意の2つの画像A、Bに対してそれぞれウェーブレット分解を行い、低周波数成分と高周波数成分を取得し、
低周波成分の場合、融合画像の低周波係数について、ソース画像の視覚的注目度の値が大きい位置に対応する低周波係数を選択し、
高周波成分の場合、融合画像の高周波係数について、絶対値が大きい方を融合後の高周波係数として採用し、
融合後の低周波部分と高周波部分に対してウェーブレット逆変換を行うことにより、最終画像A、Bのスティッチング画像を取得し、
前記方法に従い、各グループの他の視覚的注目画像と画像A、Bとを繋ぎ合わせ続けて最終的なパノラマ画像を取得することを含む、
ことを特徴とする請求項1に記載の方法。 - 前記仮想監視シーンにおいてパノラマ表示により再生を行うことは、設定された自動ローミング経路に沿ったパノラミック再生であることを特徴とする請求項1に記載の方法。
- 前記所定の期間は、1秒であることを特徴とする請求項1に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911350337.4A CN111147768A (zh) | 2019-12-25 | 2019-12-25 | 一种提高回看效率的智能监控视频回看方法 |
CN201911350337.4 | 2019-12-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021106374A true JP2021106374A (ja) | 2021-07-26 |
Family
ID=70519747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239852A Pending JP2021106374A (ja) | 2019-12-25 | 2019-12-27 | 再生効率を向上させるインテリジェント監視ビデオ再生方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11037308B2 (ja) |
JP (1) | JP2021106374A (ja) |
CN (1) | CN111147768A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109964245A (zh) * | 2016-12-06 | 2019-07-02 | 深圳市大疆创新科技有限公司 | 用于校正广角图像的系统和方法 |
WO2019161562A1 (en) * | 2018-02-26 | 2019-08-29 | Intel Corporation | Object detection with image background subtracted |
CN111988563B (zh) * | 2020-07-15 | 2021-08-31 | 浙江大华技术股份有限公司 | 多场景视频监测方法及装置 |
CN111679772B (zh) * | 2020-08-17 | 2020-11-24 | 深圳诚一信科技有限公司 | 一种屏幕录制方法、系统、多屏设备和可读存储介质 |
CN113223130B (zh) * | 2021-03-17 | 2023-07-28 | 浙江大华技术股份有限公司 | 一种路径漫游方法、终端设备以及计算机存储介质 |
CN114339371A (zh) * | 2021-12-30 | 2022-04-12 | 咪咕音乐有限公司 | 视频显示方法、装置、设备及存储介质 |
CN115334235B (zh) * | 2022-07-01 | 2024-06-04 | 西安诺瓦星云科技股份有限公司 | 视频处理方法、装置、终端设备和存储介质 |
CN114898409B (zh) * | 2022-07-14 | 2022-09-30 | 深圳市海清视讯科技有限公司 | 数据处理方法和设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103812907B (zh) * | 2012-11-14 | 2018-01-16 | 华为技术有限公司 | 一种确定待共享的终端的方法、装置和系统 |
EP2996088B1 (en) * | 2014-09-10 | 2018-08-29 | My Virtual Reality Software AS | Method for visualising surface data together with panorama image data of the same surrounding |
CN109074632B (zh) * | 2016-02-16 | 2022-03-01 | 6115187加拿大公司暨伊美景象公司 | 图像失真变换方法和设备 |
CN106791703B (zh) * | 2017-01-20 | 2019-09-06 | 上海小蚁科技有限公司 | 基于全景视图来监视场景的方法和系统 |
US20180229669A1 (en) * | 2017-02-13 | 2018-08-16 | Timothy Don McKibben | Vehicle-mounted 360 degree field of view surveillance systems |
US10917633B2 (en) * | 2017-09-15 | 2021-02-09 | Intel Corporation | Generating stereoscopic light field panoramas using concentric viewing circles |
GB2567624B (en) * | 2017-10-12 | 2021-05-26 | Canon Kk | Method, device and computer program for transmitting media content |
US11812009B2 (en) * | 2018-06-22 | 2023-11-07 | Intel Corporation | Generating virtual reality content via light fields |
US11080542B2 (en) * | 2018-07-27 | 2021-08-03 | International Business Machines Corporation | Sparse region-of-interest pooling for object detection |
-
2019
- 2019-12-25 CN CN201911350337.4A patent/CN111147768A/zh active Pending
- 2019-12-27 JP JP2019239852A patent/JP2021106374A/ja active Pending
- 2019-12-31 US US16/731,098 patent/US11037308B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN111147768A (zh) | 2020-05-12 |
US11037308B2 (en) | 2021-06-15 |
US20200151888A1 (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021106374A (ja) | 再生効率を向上させるインテリジェント監視ビデオ再生方法 | |
CN101859433B (zh) | 图像拼接设备和方法 | |
US20160344994A1 (en) | Real-time process and technology using image processing to maintain and ensure viewer comfort during capture, live transmission, and post-production of stereoscopic 3d imagery | |
CN106127680B (zh) | 一种720度全景视频快速浏览方法 | |
US11227428B2 (en) | Modification of a live-action video recording using volumetric scene reconstruction to replace a designated region | |
JP2000513174A (ja) | 原画像の一部を取除き要素を置換して新しい画像を作るビデオ・データ・ストリームのリアルタイムのディジタル的変更方法 | |
JP2012227924A (ja) | 画像解析装置、画像解析方法及びプログラム | |
JP2001515287A (ja) | 画像処理方法および装置 | |
CN105872496B (zh) | 一种超高清视频融合方法 | |
Schmeing et al. | Depth image based rendering: A faithful approach for the disocclusion problem | |
KR20180078149A (ko) | 녹화된 비디오를 재생하기 위한 방법 및 시스템 | |
JP2023544627A (ja) | ビデオ・ストリームの操作 | |
US11228707B1 (en) | Scene capture for reconstruction of obscured views | |
CN112446939A (zh) | 三维模型动态渲染方法、装置、电子设备及存储介质 | |
CN202841372U (zh) | 分布式全景监控系统 | |
JP2021114637A (ja) | ビデオ監視システム | |
Sabirin et al. | Toward real-time delivery of immersive sports content | |
CN113674354A (zh) | 一种三维重建方法及系统 | |
WO2018109265A1 (en) | A method and technical equipment for encoding media content | |
Nakashima et al. | Automatically protecting privacy in consumer generated videos using intended human object detector | |
JP2018147019A (ja) | オブジェクト抽出装置、オブジェクト認識システム及びメタデータ作成システム | |
TWI516120B (zh) | 產生全景影像的方法及其影像擷取裝置 | |
da Silva Pires et al. | Tracking and matching connected components from 3D video | |
Lavrushkin et al. | Channel-mismatch detection algorithm for stereoscopic video using convolutional neural network | |
Takacs et al. | MultiView Mannequins for Deep Depth Estimation in 360º Videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210425 |
|
AA79 | Non-delivery of priority document |
Free format text: JAPANESE INTERMEDIATE CODE: A24379 Effective date: 20210506 |