JP2010021761A - Video image automatic recording control device - Google Patents
Video image automatic recording control device Download PDFInfo
- Publication number
- JP2010021761A JP2010021761A JP2008180012A JP2008180012A JP2010021761A JP 2010021761 A JP2010021761 A JP 2010021761A JP 2008180012 A JP2008180012 A JP 2008180012A JP 2008180012 A JP2008180012 A JP 2008180012A JP 2010021761 A JP2010021761 A JP 2010021761A
- Authority
- JP
- Japan
- Prior art keywords
- image
- video
- recording control
- feature
- image frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、連続する画像フレームの映像の内容を判断し、画像内容の連続性が大きく変化する状況を感知したときに映像の記録を自動的に開始するか、又は記録する映像の解像度を自動的に高める映像自動記録制御装置に関する。 The present invention determines the video content of successive image frames and automatically starts video recording when detecting a situation in which the continuity of the image content changes greatly, or automatically sets the resolution of the video to be recorded. The present invention relates to an automatic video recording control device.
映像の解析から画像内容の連続性が大きく変化する状況を感知するような従来の装置として、差分画像を用いる装置(例えば、特許文献1参照)、色相を用いる装置(例えば、特許文献1参照)、移動物体を検出する装置(例えば、特許文献1参照)が開示されている。 As a conventional device that senses a situation in which the continuity of image content changes greatly from video analysis, a device that uses a difference image (for example, see Patent Document 1) and a device that uses a hue (for example, see Patent Document 1). An apparatus for detecting a moving object (see, for example, Patent Document 1) is disclosed.
これらの装置は、基本的に、用いる環境においてその都度適切にチューニングした閾値を用いるか、又は用いる対象に応じてニューラルネットワークで事前に連続性の変化を学習した値と比較して、画像内容の連続性が大きく変化する状況を感知するように構成したものである。 These devices basically use a threshold value that is appropriately tuned each time in the environment in which they are used, or compare them with values learned in advance in a neural network according to the object to be used. It is configured to sense the situation where continuity changes greatly.
しかし、これらの方法では、予め装置を設置する環境においての状態を把握しておく必要があり、新しい環境に適応させるためには、その都度適切に設定するか、又は学習させておくことになり、手間がかかることが多い。 However, in these methods, it is necessary to grasp the state in the environment where the device is installed in advance, and in order to adapt to a new environment, it is necessary to set appropriately or to learn each time. , Often troublesome.
放送においてのロケ、特に自然ドキュメンタリなどのロケにおいては、事前にその環境の状態を把握しておくことは困難なことが多い。 It is often difficult to know the state of the environment in advance in the location in broadcasting, especially in a location such as a natural documentary.
そこで、本発明の目的は、連続する画像フレームの映像の内容を判断し、映像の記録を制御する制御信号を送出する映像自動記録制御装置を提供することにある。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an automatic video recording control apparatus that judges the content of video of successive image frames and sends a control signal for controlling video recording.
本発明の映像自動記録制御装置は、長期ロケにおいて映像を記録する装置、及び監視カメラの映像の記録する装置において、映像を解析し、画像内容の連続性が大きく変化する状況を感知又は判定し、その判定結果に応じて記録の開始や映像の高解像度化(高記録密度化)を行うように制御する。 The video automatic recording control device of the present invention analyzes video and senses or determines a situation in which the continuity of the image content changes greatly in a device that records video in a long-term location and a video recording device of a surveillance camera. In accordance with the determination result, control is performed so as to start recording and increase the resolution of the video (higher recording density).
即ち、本発明の映像自動記録制御装置は、入力される連続する画像フレームの映像の内容に基づいて映像記録を自動制御する映像自動記録制御装置であって、連続する画像フレームの画像内容の連続性を判定するために、所定のフレーム間距離の2枚の画像フレームに対して画像特徴を抽出し、特徴ベクトルを生成する特徴ベクトル生成手段と、当該生成した各特徴ベクトルについて、前記2枚の画像フレームに対して非類似性を表すまで前記連続する画像フレームの画像内容の類似性を順次比較し、非類似性を表す時点を判別する類似性判別手段と、非類似性を判別した時点で、映像の記録を開始させるか、又は記録する映像が高解像度化するように記録密度を変化させる制御信号を送出する映像記録制御手段と、を備えることを特徴とする。 That is, the video automatic recording control apparatus of the present invention is an automatic video recording control apparatus that automatically controls video recording based on the video content of continuous image frames that are input. In order to determine the characteristics, a feature vector generating unit that extracts an image feature from two image frames having a predetermined interframe distance and generates a feature vector, and the generated feature vector Similarity determination means for sequentially comparing the similarities of the image contents of the successive image frames until the dissimilarity is expressed with respect to the image frames, and when the dissimilarity is determined Video recording control means for starting a video recording or sending a control signal for changing a recording density so as to increase the resolution of the video to be recorded. .
また、本発明の映像自動記録制御装置において、前記画像特徴は、画像フレーム毎のエッジエリアの位置、画像フレーム間の動きベクトル、及び有効動きベクトルにおける画素値で表す色相からなることを特徴とする。 In the video automatic recording control apparatus of the present invention, the image feature includes a hue represented by a position of an edge area for each image frame, a motion vector between image frames, and a pixel value in an effective motion vector. .
また、本発明の映像自動記録制御装置において、前記特徴ベクトルは、前記エッジエリア、前記動きベクトル、及び前記色相毎の画像特徴を前記2枚の画像フレームの方位毎の画素数で表したベクトル成分の組み合わせからなることを特徴とする。 In the video automatic recording control apparatus of the present invention, the feature vector is a vector component that represents the edge area, the motion vector, and the image feature for each hue by the number of pixels for each direction of the two image frames. It is characterized by comprising a combination of
また、本発明の映像自動記録制御装置において、前記特徴ベクトルは、前記エッジエリア以外の有効動きベクトルの密度が所定の閾値以上である場合にのみ、前記色相の画像特徴に基づくベクトル成分を含むことを特徴とする。 In the automatic video recording control apparatus of the present invention, the feature vector includes a vector component based on the image feature of the hue only when the density of effective motion vectors other than the edge area is equal to or higher than a predetermined threshold. It is characterized by.
また、本発明の映像自動記録制御装置において、前記映像記録制御手段の制御信号を遠隔送信する送信手段を更に備えることを特徴とする。 The automatic video recording control apparatus according to the present invention further comprises transmission means for remotely transmitting a control signal of the video recording control means.
本発明の映像自動記録制御装置によれば、長期ロケにおいて映像を記録したり、監視カメラの映像を記録する際に、無人で自動的に記録の開始や映像の高解像度化(高記録密度化)を行うことができ、長期映像記録を効率的に行うことができるようになる。 According to the video automatic recording control apparatus of the present invention, when recording a video in a long-term location or recording a video of a surveillance camera, unattended automatic start of recording or higher resolution of video (higher recording density) ), And long-term video recording can be performed efficiently.
以下、本発明による一実施例の映像自動記録制御装置を説明する。 A video automatic recording control apparatus according to an embodiment of the present invention will be described below.
図1に、本発明による一実施例の映像自動記録制御装置のブロック図を示す。本実施例の映像自動記録制御装置1は、画像特徴抽出手段2と、画像特徴判別手段3と、特徴ベクトル生成手段4と、有効動き画素数カウント手段5と、類似性判別切換手段6と、類似性判別手段7と、判別後の映像を記録装置9に記録する映像記録制御手段8とを備える。類似性判別手段7は、類似識別手段71と、識別学習手段72とを有する。本実施例の映像自動記録制御装置1は、入力される連続する画像フレームの映像(例えば、カメラ映像)の内容に基づいて映像記録を自動制御する装置である。
FIG. 1 is a block diagram of an automatic video recording control apparatus according to an embodiment of the present invention. The automatic video recording control apparatus 1 according to the present embodiment includes an image feature extraction unit 2, an image
画像特徴抽出手段2は、入力されるカメラ映像を一枚毎のフレーム画像に切り分け、連続する画像フレームの各々の画像内容の連続性を判定するための画像特徴を抽出する。抽出する画像特徴は、後述するように、画像フレーム毎の「エッジエリア」の位置、画像フレーム間の「動きベクトル(動きの速さ及び方位)」、及び有効動きベクトルの画素値で表す「色相」からなる。 The image feature extraction means 2 cuts the input camera video into frame images for each frame, and extracts image features for determining the continuity of the image contents of each successive image frame. As will be described later, the image features to be extracted include the “edge area” position for each image frame, the “motion vector (speed and direction of motion)” between image frames, and the “hue” represented by the pixel value of the effective motion vector It consists of.
この「エッジエリア」の抽出には、既知のcannyのエッジ検出アルゴリズムを用いるのが好適であるが、その他にも、既知のSobelのエッジ検出アルゴリズムなど、他のエッジ検出アルゴリズムを用いることができる。 For this “edge area” extraction, a known canny edge detection algorithm is preferably used, but other edge detection algorithms such as a known Sobel edge detection algorithm may be used.
例えば、図2に示すように、或るN(Nは1以上の自然数)番目のフレーム画像FNについて、所定の画素ブロック(例えば5×5画素又は7×7画素)に分割し、各画素ブロックがエッジ画素であるか否かを判別し、この判別結果をフラグなどにより識別可能にする。次に、検出したエッジ画素を中心にして、8近傍膨張処理を施して、エッジエリアを定める。このとき、8近傍膨張処理の適用回数を適宜2回又は3回と繰り返して、定めるエッジエリアの精度を高めるようにしてもよい。 For example, as shown in FIG. 2, a certain N (N is a natural number of 1 or more) frame image F N is divided into predetermined pixel blocks (for example, 5 × 5 pixels or 7 × 7 pixels), and each pixel It is determined whether or not the block is an edge pixel, and the determination result can be identified by a flag or the like. Next, an 8-neighbor expansion process is performed around the detected edge pixel to determine an edge area. At this time, the application frequency of the 8-neighbor expansion process may be repeated as appropriate twice or three times to improve the accuracy of the edge area to be determined.
図2におけるフレーム画像FNは、画像フレーム間で連続性する背景の一部を表す「木」ISと、画像フレーム間で非連続性となる空を飛ぶ「鳥」Imを含む画像フレームであるとする。フレーム画像FNは、所定の画素ブロックで分割されており、例えば8近傍膨張処理を施して、エッジエリアを定める。例えば、背景のエッジのない領域B2は、エッジエリアとして設定しない。 Frame image F N in FIG. 2, a "tree" I S that represents the part of the background of continuity between image frames, fly as a discontinuity between image frames in an image frame including a "bird" Im Suppose there is. The frame image FN is divided into predetermined pixel blocks, and an edge area is determined by performing, for example, 8-neighbor expansion processing. For example, the area B2 having no background edge is not set as the edge area.
しかしながら、このようなエッジエリアには、背景に属するべき木の枝や葉などのような画素ブロック(例えば図示B1)や、動きのある対象である鳥の細かい羽根のような画素ブロック(例えば図示B3)が、そのエッジエリアに密に集まって抽出されうる。この場合、このようなエッジエリア(B1,B3)付近には、多数の画素ブロックがエッジエリアとして識別されることも考えられ、例えば風でなびいて動く背景に属するべき木の枝とか葉のようなものも、後の処理における連続性の大きな変化のあるフレーム画像として判別されうる。そこで、後の処理における連続性の大きな変化のあるフレーム画像であるか否かの判別精度を高めるために、一旦、エッジエリアとして識別した画素ブロックのエッジ密度を算出し、処理対象のエッジエリアの絞り込みを行うのが好適である。 However, in such an edge area, a pixel block such as a tree branch or leaf that should belong to the background (for example, B1 in the figure) or a pixel block such as a fine feather of a bird that is a moving object (for example, illustrated) B3) can be gathered and extracted densely in the edge area. In this case, a large number of pixel blocks may be identified as edge areas in the vicinity of such edge areas (B1, B3), such as tree branches or leaves that should belong to a background that moves in the wind. Can also be discriminated as frame images having a large change in continuity in subsequent processing. Therefore, in order to improve the accuracy of determining whether or not the frame image has a large change in continuity in the subsequent processing, the edge density of the pixel block once identified as the edge area is calculated, and the edge area to be processed is calculated. It is preferable to narrow down.
例えば、一旦、エッジエリアとして識別した画素ブロックを中心として周辺のエッジエリアとして識別した画素ブロック数を累計し、この累計値が所定の閾値Tdensity以上である場合には、その中心の画素ブロックを背景領域であるとして、エッジエリアとして識別していたフラグ値を変更する。このようにして、処理対象のエッジエリアの絞り込みを行い、背景に属するべきエッジエリアを極力処理対象から除外するようにして、後の処理である連続性の大きな変化の検出精度を高めるようにする。 For example, the number of pixel blocks that have been identified as peripheral edge areas is accumulated around the pixel block that has been identified as the edge area, and if this accumulated value is equal to or greater than a predetermined threshold T density , the pixel block at the center is The flag value identified as the edge area as the background area is changed. In this way, the edge area to be processed is narrowed down, and the edge area that should belong to the background is excluded from the processing target as much as possible, so that the detection accuracy of a large change in continuity, which is a subsequent process, is improved. .
「動き」の抽出には、既知のLucas−Kanadeの動き検出を用いるのが好適であるが、その他にも、既知のブロックマッチング法など、他の動き抽出アルゴリズムを利用することができる。 It is preferable to use the known Lucas-Kanade motion detection for the “motion” extraction, but other motion extraction algorithms such as a known block matching method can be used.
例えば、図3に示すように、入力される連続する画像フレームの映像のうち、処理対象の画像フレームFNと後続する画像フレームFN+1(必ずしも次フレームでなくともよい)との間で、動きベクトルを算出する。この動きベクトルの算出は、前述したエッジエリアとは無関係に行うため、エッジエリアの抽出に用いた画素ブロックとは異なるサイズの画素ブロックを用いることもできるが、処理負担の効率化を考慮して、同じ画素ブロックの大きさ及び配置で、動きベクトルを抽出する。図3の例では、画像フレームFNにおける画素ブロック10が、画像フレームFN+1における画素ブロック11に移動する場合(同フレーム位置で図示10aから図示11に移動)の動きベクトル13の大きさ及び方位θは、それぞれ処理対象の画像フレームFNにおける「動きの速さ」及び「動きの方位」を表すことになる。
For example, as shown in FIG. 3, of the image of the successive image frames are input, between the image frame F N + 1 subsequent to the image frame F N to be processed (may not necessarily be the next frame), a motion Calculate the vector. Since the motion vector is calculated regardless of the edge area described above, it is possible to use a pixel block having a different size from the pixel block used to extract the edge area. A motion vector is extracted with the same size and arrangement of pixel blocks. In the example of FIG. 3, the
「色相」の抽出には、上記のように求めた動きベクトルの動きの速さが所定値Tvelosity以上である場合に有効動きベクトルであるとして設定し、有効動き画素数カウント手段5の機能により処理対象の画像フレームFNにおける有効動きベクトルの画素ブロック数をカウントし、このカウント値が所定値Tvnumber以上である場合に、その有効動きベクトルの画素ブロック毎の色相(又は画素ブロック内の平均画素値)を算出して求めるようにする。この色相には、RGBなどの色空間の3次元データを用いることができる。 The extraction of "Hue" is the speed of motion of the motion vectors obtained as described above is set as valid motion vector when a predetermined value T velOSity above, the function of the effective motion pixel number counting means 5 counting the number of pixels of blocks of a valid motion vector in an image frame F N to be processed, the average of this when the count value is the predetermined value T Vnumber above, within the effective motion vector pixel blocks each hue (or pixel block (Pixel value) is calculated and obtained. For this hue, three-dimensional data in a color space such as RGB can be used.
画像特徴判別手段3は、画像特徴抽出手段2によって抽出した画像特徴、即ち「エッジエリア」、「動き(速さ及び方位)」、及び「色相」の組み合わせ判別を処理対象の画像フレームFNについて行う。具体的には、表1に示すように、画像特徴の組み合わせについて、処理対象の画像フレームFNにおけるエリアをエッジエリアか否かに区分し、次にエッジエリアについては閾値Tdensity以上であるか否かを区分し、エッジエリア以外については閾値Tvnumber以上であるか否かを区分する。
Image
このように区分すると、エッジエリアについては閾値Tdensity未満であれば、エッジである信頼性が高く、2つの画像フレーム対比した時の後述する「エッジの方位」及び「動き(速さ及び方位)」によって画像内容の動きを表す目安にするようにする。 With this division, if it is less than the threshold value T density for the edge areas, in a reliable edge, two image frames will be described later when the contrast "edge orientation" and "motion (speed and direction) "Is used as a guideline representing the movement of the image content.
また、エッジエリアについては閾値Tdensity以上であれば、エッジである信頼性が低く、処理負担を考慮すれば必ずしも画像内容の動きを表す目安にする必要がない。 Further, if the edge area is equal to or greater than the threshold value T density , the reliability of the edge is low, and it is not always necessary to use a guideline representing the movement of the image content in consideration of the processing load.
また、エッジエリア以外について、処理対象の画像フレームFNにおける有効動きベクトルの画素ブロック数のカウント値が所定値Tvnumber以上である場合、動きある画像内容である可能性が高いため、動きあるフレームであるか否かの判別精度を高めるために、「動き(速さ及び方位)」以外に、「色相」の画像特徴をも画像内容の動きを表す目安にするようにする。 Further, except for the edge area, when the count value of the number of pixels of blocks of a valid motion vector in an image frame F N to be processed is a predetermined value T Vnumber above, since there is likely to be image content in motion, there motion frame In addition to “movement (speed and azimuth)”, the image characteristic of “hue” is also used as a guide for representing the movement of the image content.
また、エッジエリア以外について、処理対象の画像フレームFNにおける有効動きベクトルの画素ブロック数のカウント値が所定値Tvnumber未満である場合、動きある画像内容である可能性が高いとはいえず、処理負担を考慮して、「動き(速さ及び方位)」の画像特徴をも画像内容の動きを表す目安にするようにする。 Further, except for the edge area, when the count value of the number of pixels of blocks of a valid motion vector in an image frame F N to be processed is less than the predetermined value T Vnumber, not be said that there is likely to be image content in motion, Considering the processing load, the image feature of “movement (speed and direction)” is also used as a guide for representing the movement of the image content.
尚、本実施例では、画像特徴判別手段3を設けて画像特徴抽出手段2によって抽出した画像特徴を区分するように説明しているが、予め表1のように区分した条件を満たすときに、画像特徴を抽出して特徴ベクトルを生成するようにすることもできる。即ち、画像特徴抽出手段2及び画像特徴判別手段3の機能を後述する特徴ベクトル生成手段4に組み合わせて、特徴ベクトル生成手段4の特徴ベクトル生成時に、同時に必要な画像特徴のみを抽出することもでき、更に処理負担を軽減させることができる。
In this embodiment, the image feature
特徴ベクトル生成手段4は、「エッジエリア」、「動きベクトル(動きの速さ及び方位)」、及び「色相」毎の画像特徴を連続性を判別するのに用いる2枚の画像フレームの方位毎の画素数で表したベクトル成分の組み合わせからなり、例えば画像特徴判別手段3によって条件別に区分した画像特徴を連結した特徴ベクトルを生成する。即ち、特徴ベクトルは、エッジエリアの画像特徴とエッジエリア以外の画像特徴を連結したベクトルで表現するようにする。具体的には、表1の条件を満たす以下の2種類の特徴ベクトルとして、エッジエリアと動きに関する画像特徴を用いて、0°〜180°をヒストグラムで分割した画素数で表す。 The feature vector generation means 4 is used for determining the continuity of image features for each of “edge area”, “motion vector (speed and direction of motion)”, and “hue” for each orientation of two image frames. For example, the image feature discriminating means 3 generates a feature vector obtained by connecting image features classified according to conditions. That is, the feature vector is expressed by a vector obtained by connecting the image feature of the edge area and the image feature other than the edge area. Specifically, the following two types of feature vectors satisfying the conditions in Table 1 are represented by the number of pixels obtained by dividing 0 ° to 180 ° by a histogram using image features related to the edge area and motion.
[動き画素数が、所定値Tvnumber以上である場合の特徴ベクトル]
(エッジエリアの特徴ベクトル成分)
xi (ee):i×180/N(ee)≦θT≦(i+1)×180/N(ee)を
満たすθTの方位を持つ「エッジエリア」の対象フレーム内の画素数
xi (ev):i×180/N(ev)≦θT≦(i+1)×180/N(ev)を
満たすθTの方位を持つ「動きの大きさ」の対象フレーム内の画素数
xi (es):i×SpMax/N(es)≦θT≦(i+1)×SpMax/N(es)を
満たすθTの方位を持つ「動きの速さ」の対象フレーム内の画素数
(エッジエリア以外の特徴ベクトル成分)
xi (nev):i×180/N(nev)≦θT≦(i+1)×180/N(nev)を
満たすθTの方位を持つ「エッジエリア」の対象フレーム内の画素数
xi (nes):i×SpMax/N(nes)≦θT≦(i+1)×SpMax/N(nes)を
満たすθTの方位を持つ「動きの大きさ」の対象フレーム内の画素数
xi (col):例えばRGBの画素値を用いて(他の色相表現法を用いてもよい)、
col=0(R),col=1(G),col=2(B)
としたとき、
特徴ベクトルxは、上記の6つのベクトル成分をN(*)ずつ用いて、次式のように表わされる。
[Feature vector when the number of moving pixels is equal to or greater than a predetermined value T vnumber ]
(Feature vector component of edge area)
x i (ee) : i × 180 / N (ee) ≦ θ T ≦ (i + 1) × 180 / N (ee)
Meet the number of pixels in the target frame of the "edge area" with orientation θ T x i (ev): i × 180 / N (ev) ≦ θ T ≦ a (i + 1) × 180 / N (ev)
Satisfies theta with the orientation of T number of pixels in the target frame of the "size of the motion" x i (es): i × SpMax / N (es) ≦ θ T ≦ (i + 1) × SpMax / N a (es)
Satisfies θ number of pixels in the target frame with the orientation of T "speed of movement" (feature vector component other than the edge area)
x i (nev): i × 180 / N (nev) ≦ θ T ≦ (i + 1) × 180 / N a (nev)
The number of pixels in the target frame of the “edge area” having the azimuth direction θT satisfying: x i (nes) : i × SpMax / N (nes) ≦ θ T ≦ (i + 1) × SpMax / N (nes)
The number of pixels x i (col) in the target frame of “the magnitude of motion” having the orientation of θT that satisfies: For example, using RGB pixel values (other hue expression methods may be used)
col = 0 (R), col = 1 (G), col = 2 (B)
When
The feature vector x is expressed by the following equation using the above six vector components for each N (*).
ここで、各N(*)は、ヒストグラムを作成する場合の分割数を表し(*は各成分を表す記号)、SpMaxは、想定される動きの速さの上限値(任意に設定可)を表し、iは、ヒストグラムを作成する場合に分割した任意の位置を表す。 Here, each N (*) represents the number of divisions when creating a histogram (* is a symbol representing each component), and SpMax is an upper limit value of an assumed motion speed (can be arbitrarily set). I represents an arbitrary position divided when creating a histogram.
[動き画素数が、所定値Tvnumber以上である場合の特徴ベクトル]
この場合、色相の情報が用いられないため、特徴ベクトルxは、次式のように表わされる。
[Feature vector when the number of moving pixels is equal to or greater than a predetermined value T vnumber ]
In this case, since the hue information is not used, the feature vector x is expressed as follows.
有効動き画素数カウント手段5は、画像特徴抽出手段2によって算出した処理対象の画像フレームFNにおける有効動きベクトルの画素ブロック数をカウントし、そのカウント値を画像特徴抽出手段2に送り返す機能を有する。 Effective motion pixel number counting means 5 counts the number of pixels of blocks of a valid motion vector in an image frame F N to be processed calculated by the image feature extraction unit 2 has a function of sending back the count value to the image feature extraction unit 2 .
類似性判別切換手段6は、識別学習手段72を経由して類似識別手段71の機能を実行するか否かを所望に応じて選定可能にするスイッチ機能である。 The similarity determination switching means 6 is a switch function that allows selection as desired whether or not to execute the function of the similarity identification means 71 via the identification learning means 72.
類似識別手段71は、所定のフレーム間距離(動きの変化を比較するため、数フレーム以内に設定する)の2枚の画像フレームを抽出した各特徴ベクトルについて類似性を比較し、非類似性を判別する。例えば、2つの画像フレームの画像内容の類似性の判定をヒストグラムの形状に着目して行う場合、特定の時間間隔における2枚の画像に対する特徴ベクトルの内積を計算し、その内積値が閾値以上であるか否かを判定して行う。或いは又、類似性判別切換手段6に応じて選択された識別学習手段72によって予め定めた識別関数について機械学習させた判定範囲を用いて、特定の時間間隔における2枚の画像フレームにおける特徴ベクトルを比較し、その類似性を判定することもできる。
The
例えば、類似識別手段71は、当該生成した各特徴ベクトルについて、2枚の画像フレームに対して非類似性を表すまで入力されるカメラ映像における連続する画像フレームの画像内容の類似性を順次比較し、非類似性を表す時点を判別する。具体的には、類似識別手段71は、2枚の画像フレームが類似していると判定する場合(比較した特徴ベクトルが所定の範囲内にある場合)には1を、類似していないと判定する場合(比較した特徴ベクトルが所定の範囲外にある場合)には−1を画像フレーム比較を行う度に出力する。ここで、−1のとき非類似性を表し、2つの画像フレームは大きく変化したと判定することができる。
For example, the
この特徴ベクトルの比較に用いる所定の範囲は、各成分毎に類似性判断の範囲を定め、全ての類似性判断の範囲内にある場合には、類似性有りと判断し、類似性判断の範囲内に無いベクトル成分が所定数(例えば2)以上有る場合には、類似性が無いと判断する。このような類似性判断の範囲及び判断に用いる所定数の設定は、用途毎に設定可能にするのが好適である。 The predetermined range used for the comparison of the feature vectors defines the range of similarity determination for each component, and if it is within the range of all similarity determinations, it is determined that there is similarity, and the range of similarity determination If there are a predetermined number (for example, 2) or more of vector components that are not included, it is determined that there is no similarity. The range of similarity determination and the predetermined number of settings used for the determination are preferably set for each application.
また、類似識別手段71は、系の安定化を図るために、一定の期間の類似判定結果に対してメディアンフィルタなどの平均化フィルタを適用することもできる。また、類似識別手段71は、次元の異なる特徴ベクトルを比較することになる場合(前述した異なる式の特徴ベクトルxを比較する場合)、無条件に−1を出力するようにする。
The
識別学習手段72は、予め定めた識別関数について機械学習させた判定範囲を類似識別手段71に適用する。具体的には、識別学習手段72として、2値の識別に高い性能を発揮するサポートベクタマシンを用いることができる。その他にも、ニューラルネットワークや新たな入力値に対する予測判定を行うことができる任意の各種の識別関数の生成アルゴリズムを利用することができる。また、類似識別手段71及び識別学習手段72の間で機械学習のためにループさせる機能をさらに設けてもよい。
The
映像記録制御手段8は、非類似性を判別した時点で、映像の記録を開始させるか、又は記録する映像が高解像度化するように記録密度を変化させる制御信号を送出する。具体的には、映像記録制御手段8は、類似識別手段71の非類似性を表す判別結果が得られると、記録装置9に入力されるカメラ映像を記録する際に、例えば一定時間、その記録開始のオンを行うか、又は高解像度化するように記録密度を変化させるように制御する。
The video recording control means 8 starts video recording at the time of determining the dissimilarity, or sends a control signal for changing the recording density so that the video to be recorded has a higher resolution. Specifically, when the video
本実施例の映像自動記録制御装置によれば、連続する画像フレームの映像の内容を判断し、画像内容の連続性が大きく変化する状況を感知したときに映像の記録を自動的に開始するか、又は記録する映像の解像度を自動的に高めることができるようになる。 According to the video automatic recording control device of the present embodiment, whether the video content of successive image frames is judged and video recording is automatically started when a situation in which the continuity of the image content changes greatly is detected. Or the resolution of the recorded video can be automatically increased.
例えば、放送用の長期ロケでは、いつ現場に現れるか分からない動物や、起こることは予測されているがいつ起こるか分からない出来事を記録撮影する場合に、非類似性を表す判別結果が得られると、映像記録制御手段8は、例えば一定時間(例えば1分などの期間)映像を記録するように記録装置9を制御することができる。
For example, in a long-term location for broadcasting, a discrimination result indicating dissimilarity can be obtained when recording and shooting animals that do not know when they appear in the field or events that are predicted to occur but do not know when they occur Then, the video recording control means 8 can control the
目的映像の前に短い期間ののりしろ部分を加えたい場合には、スキップバックレコーダーを記録装置の前に接続し、スキップバックレコーダーの出力を記録装置9に記録することもできる。また、防犯用に用いる場合には、通常時映像のコマ数を低く設定しておき、非類似性を表す判別結果が得られたときに、映像記録制御手段8は、例えば一定期間コマ数を高くするように記録装置9の圧縮率を制御する。この場合にも、スキップバックレコーダーと組み合わせての使用が可能である。
If it is desired to add a margin for a short period before the target video, a skip back recorder can be connected in front of the recording device and the output of the skip back recorder can be recorded in the
上述の実施例については代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。例えば、記録装置9を制御するとして説明したが、映像記録制御手段30の制御信号を遠隔送信する送信手段を更に設けて、記録装置9に代えてインターネット等の通信回線を通じて遠隔制御することもできる。従って、本発明は、上述の実施例によって制限するものと解するべきではなく、特許請求の範囲によってのみ制限される。
Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. For example, although it has been described that the
本発明の映像自動記録制御装置によれば、無人で期待する映像を感知して記録又は伝送することができるため、長期のカメラ撮影を所望する用途に有用である。 According to the video automatic recording control apparatus of the present invention, it is possible to sense and record or transmit a video expected by an unmanned person, which is useful for an application in which long-term camera shooting is desired.
1 映像自動記録制御装置
2 画像特徴抽出手段
3 画像特徴判別手段
4 特徴ベクトル生成手段
5 有効動き画素数カウント手段
6 類似性判別切換手段
7 類似性判別手段
8 映像記録制御手段
9 記録装置
71 類似識別手段
72 識別学習手段
DESCRIPTION OF SYMBOLS 1 Image automatic recording control apparatus 2 Image feature extraction means 3 Image feature discrimination means 4 Feature vector generation means 5 Effective motion pixel number counting means 6 Similarity discrimination switching means 7 Similarity discrimination means 8 Video recording control means 9
Claims (5)
連続する画像フレームの画像内容の連続性を判定するために、所定のフレーム間距離の2枚の画像フレームに対して画像特徴を抽出し、特徴ベクトルを生成する特徴ベクトル生成手段と、
当該生成した各特徴ベクトルについて、前記2枚の画像フレームに対して非類似性を表すまで前記連続する画像フレームの画像内容の類似性を順次比較し、非類似性を表す時点を判別する類似性判別手段と、
非類似性を判別した時点で、映像の記録を開始させるか、又は記録する映像が高解像度化するように記録密度を変化させる制御信号を送出する映像記録制御手段と、
を備えることを特徴とする映像自動記録制御装置。 An automatic video recording control device for automatically controlling video recording based on video content of continuous image frames input,
In order to determine the continuity of the image content of successive image frames, feature vector generation means for extracting image features from two image frames at a predetermined interframe distance and generating a feature vector;
For each of the generated feature vectors, the similarity is determined by sequentially comparing the similarities of the image contents of the successive image frames until the dissimilarities are expressed with respect to the two image frames. Discrimination means;
Video recording control means for sending a control signal for starting recording of video or changing recording density so as to increase the resolution of video to be recorded at the time of determining dissimilarity;
An automatic video recording control apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008180012A JP2010021761A (en) | 2008-07-10 | 2008-07-10 | Video image automatic recording control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008180012A JP2010021761A (en) | 2008-07-10 | 2008-07-10 | Video image automatic recording control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010021761A true JP2010021761A (en) | 2010-01-28 |
Family
ID=41706236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008180012A Pending JP2010021761A (en) | 2008-07-10 | 2008-07-10 | Video image automatic recording control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010021761A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160073020A1 (en) * | 2013-05-16 | 2016-03-10 | Sony Corporation | Image processing device, image processing method, and program |
JP2016048967A (en) * | 2016-01-14 | 2016-04-07 | オリンパス株式会社 | Imaging device and imaging method |
JP2017055445A (en) * | 2016-11-24 | 2017-03-16 | オリンパス株式会社 | Imaging equipment and imaging method |
JP2017108387A (en) * | 2015-10-28 | 2017-06-15 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof |
CN108304490A (en) * | 2018-01-08 | 2018-07-20 | 有米科技股份有限公司 | Text based similarity determines method, apparatus and computer equipment |
-
2008
- 2008-07-10 JP JP2008180012A patent/JP2010021761A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160073020A1 (en) * | 2013-05-16 | 2016-03-10 | Sony Corporation | Image processing device, image processing method, and program |
US9800780B2 (en) * | 2013-05-16 | 2017-10-24 | Sony Corporation | Image processing device, image processing method, and program to capture an image using fisheye lens |
JP2017108387A (en) * | 2015-10-28 | 2017-06-15 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof |
JP2016048967A (en) * | 2016-01-14 | 2016-04-07 | オリンパス株式会社 | Imaging device and imaging method |
JP2017055445A (en) * | 2016-11-24 | 2017-03-16 | オリンパス株式会社 | Imaging equipment and imaging method |
CN108304490A (en) * | 2018-01-08 | 2018-07-20 | 有米科技股份有限公司 | Text based similarity determines method, apparatus and computer equipment |
CN108304490B (en) * | 2018-01-08 | 2020-12-15 | 有米科技股份有限公司 | Text-based similarity determination method and device and computer equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101942808B1 (en) | Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN | |
US11538232B2 (en) | Tracker assisted image capture | |
US8208733B2 (en) | Method, medium, and apparatus with estimation of background change | |
US8270806B2 (en) | Information processing apparatus and method of controlling same | |
US20110043689A1 (en) | Field-of-view change detection | |
US20120039515A1 (en) | Method and system for classifying scene for each person in video | |
EP4035070B1 (en) | Method and server for facilitating improved training of a supervised machine learning process | |
KR20200058260A (en) | Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN and Driving Method Thereof | |
JP2016085487A (en) | Information processing device, information processing method and computer program | |
JP2008165792A (en) | Image processing method and device | |
CN112703533A (en) | Object tracking | |
US20200145623A1 (en) | Method and System for Initiating a Video Stream | |
JP2010003177A (en) | Image processor | |
US10657783B2 (en) | Video surveillance method based on object detection and system thereof | |
CN109740589A (en) | Asynchronous object ROI detection method and system in video mode | |
JP2010021761A (en) | Video image automatic recording control device | |
CN110580808A (en) | Information processing method and device, electronic equipment and intelligent traffic system | |
KR101372860B1 (en) | System for searching video and server for analysing video | |
WO2014103673A1 (en) | Information processing system, information processing method, and program | |
KR20110074107A (en) | Method for detecting object using camera | |
JP2008005399A (en) | Device and method for detecting a neglected object | |
JP7255819B2 (en) | Systems and methods for use in object detection from video streams | |
KR20160037480A (en) | Method for establishing region of interest in intelligent video analytics and video analysis apparatus using the same | |
KR102127276B1 (en) | The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras | |
JP7125843B2 (en) | Fault detection system |