JP2010021761A - Video image automatic recording control device - Google Patents

Video image automatic recording control device Download PDF

Info

Publication number
JP2010021761A
JP2010021761A JP2008180012A JP2008180012A JP2010021761A JP 2010021761 A JP2010021761 A JP 2010021761A JP 2008180012 A JP2008180012 A JP 2008180012A JP 2008180012 A JP2008180012 A JP 2008180012A JP 2010021761 A JP2010021761 A JP 2010021761A
Authority
JP
Japan
Prior art keywords
image
video
recording control
feature
image frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008180012A
Other languages
Japanese (ja)
Inventor
Masato Fujii
真人 藤井
Nobuyuki Yagi
伸行 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2008180012A priority Critical patent/JP2010021761A/en
Publication of JP2010021761A publication Critical patent/JP2010021761A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video image automatic recording control device capable of determining the contents of a video image of continuous image frames, and transmitting control signals for controlling recording of the video image. <P>SOLUTION: The video image automatic recording control device includes a feature vector generating means 4 which, for determining the continuity of image contents of continuous image frames, extracts image feature from two image frames of a predetermined inter-frame distance, for generating a feature vector, a similarity determining means 7 which, about each of feature vectors having been generated, sequentially compares similarities each other of the image contents of the continuous image frames until dissimilarity appears from two image frames, for determining a time point that represents dissimilarity, and a video image recording control means 8 which transmits control signals to start recording of video image or to change a recording density so that the video image to be recorded has high resolution at the time point when the dissimilarity is identified. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、連続する画像フレームの映像の内容を判断し、画像内容の連続性が大きく変化する状況を感知したときに映像の記録を自動的に開始するか、又は記録する映像の解像度を自動的に高める映像自動記録制御装置に関する。   The present invention determines the video content of successive image frames and automatically starts video recording when detecting a situation in which the continuity of the image content changes greatly, or automatically sets the resolution of the video to be recorded. The present invention relates to an automatic video recording control device.

映像の解析から画像内容の連続性が大きく変化する状況を感知するような従来の装置として、差分画像を用いる装置(例えば、特許文献1参照)、色相を用いる装置(例えば、特許文献1参照)、移動物体を検出する装置(例えば、特許文献1参照)が開示されている。   As a conventional device that senses a situation in which the continuity of image content changes greatly from video analysis, a device that uses a difference image (for example, see Patent Document 1) and a device that uses a hue (for example, see Patent Document 1). An apparatus for detecting a moving object (see, for example, Patent Document 1) is disclosed.

これらの装置は、基本的に、用いる環境においてその都度適切にチューニングした閾値を用いるか、又は用いる対象に応じてニューラルネットワークで事前に連続性の変化を学習した値と比較して、画像内容の連続性が大きく変化する状況を感知するように構成したものである。   These devices basically use a threshold value that is appropriately tuned each time in the environment in which they are used, or compare them with values learned in advance in a neural network according to the object to be used. It is configured to sense the situation where continuity changes greatly.

特許第2525810号Japanese Patent No. 2525810 特許第2878759号Japanese Patent No. 2878759 特許第3295482号Japanese Patent No. 3295482

しかし、これらの方法では、予め装置を設置する環境においての状態を把握しておく必要があり、新しい環境に適応させるためには、その都度適切に設定するか、又は学習させておくことになり、手間がかかることが多い。   However, in these methods, it is necessary to grasp the state in the environment where the device is installed in advance, and in order to adapt to a new environment, it is necessary to set appropriately or to learn each time. , Often troublesome.

放送においてのロケ、特に自然ドキュメンタリなどのロケにおいては、事前にその環境の状態を把握しておくことは困難なことが多い。   It is often difficult to know the state of the environment in advance in the location in broadcasting, especially in a location such as a natural documentary.

そこで、本発明の目的は、連続する画像フレームの映像の内容を判断し、映像の記録を制御する制御信号を送出する映像自動記録制御装置を提供することにある。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an automatic video recording control apparatus that judges the content of video of successive image frames and sends a control signal for controlling video recording.

本発明の映像自動記録制御装置は、長期ロケにおいて映像を記録する装置、及び監視カメラの映像の記録する装置において、映像を解析し、画像内容の連続性が大きく変化する状況を感知又は判定し、その判定結果に応じて記録の開始や映像の高解像度化(高記録密度化)を行うように制御する。   The video automatic recording control device of the present invention analyzes video and senses or determines a situation in which the continuity of the image content changes greatly in a device that records video in a long-term location and a video recording device of a surveillance camera. In accordance with the determination result, control is performed so as to start recording and increase the resolution of the video (higher recording density).

即ち、本発明の映像自動記録制御装置は、入力される連続する画像フレームの映像の内容に基づいて映像記録を自動制御する映像自動記録制御装置であって、連続する画像フレームの画像内容の連続性を判定するために、所定のフレーム間距離の2枚の画像フレームに対して画像特徴を抽出し、特徴ベクトルを生成する特徴ベクトル生成手段と、当該生成した各特徴ベクトルについて、前記2枚の画像フレームに対して非類似性を表すまで前記連続する画像フレームの画像内容の類似性を順次比較し、非類似性を表す時点を判別する類似性判別手段と、非類似性を判別した時点で、映像の記録を開始させるか、又は記録する映像が高解像度化するように記録密度を変化させる制御信号を送出する映像記録制御手段と、を備えることを特徴とする。   That is, the video automatic recording control apparatus of the present invention is an automatic video recording control apparatus that automatically controls video recording based on the video content of continuous image frames that are input. In order to determine the characteristics, a feature vector generating unit that extracts an image feature from two image frames having a predetermined interframe distance and generates a feature vector, and the generated feature vector Similarity determination means for sequentially comparing the similarities of the image contents of the successive image frames until the dissimilarity is expressed with respect to the image frames, and when the dissimilarity is determined Video recording control means for starting a video recording or sending a control signal for changing a recording density so as to increase the resolution of the video to be recorded. .

また、本発明の映像自動記録制御装置において、前記画像特徴は、画像フレーム毎のエッジエリアの位置、画像フレーム間の動きベクトル、及び有効動きベクトルにおける画素値で表す色相からなることを特徴とする。   In the video automatic recording control apparatus of the present invention, the image feature includes a hue represented by a position of an edge area for each image frame, a motion vector between image frames, and a pixel value in an effective motion vector. .

また、本発明の映像自動記録制御装置において、前記特徴ベクトルは、前記エッジエリア、前記動きベクトル、及び前記色相毎の画像特徴を前記2枚の画像フレームの方位毎の画素数で表したベクトル成分の組み合わせからなることを特徴とする。   In the video automatic recording control apparatus of the present invention, the feature vector is a vector component that represents the edge area, the motion vector, and the image feature for each hue by the number of pixels for each direction of the two image frames. It is characterized by comprising a combination of

また、本発明の映像自動記録制御装置において、前記特徴ベクトルは、前記エッジエリア以外の有効動きベクトルの密度が所定の閾値以上である場合にのみ、前記色相の画像特徴に基づくベクトル成分を含むことを特徴とする。   In the automatic video recording control apparatus of the present invention, the feature vector includes a vector component based on the image feature of the hue only when the density of effective motion vectors other than the edge area is equal to or higher than a predetermined threshold. It is characterized by.

また、本発明の映像自動記録制御装置において、前記映像記録制御手段の制御信号を遠隔送信する送信手段を更に備えることを特徴とする。   The automatic video recording control apparatus according to the present invention further comprises transmission means for remotely transmitting a control signal of the video recording control means.

本発明の映像自動記録制御装置によれば、長期ロケにおいて映像を記録したり、監視カメラの映像を記録する際に、無人で自動的に記録の開始や映像の高解像度化(高記録密度化)を行うことができ、長期映像記録を効率的に行うことができるようになる。   According to the video automatic recording control apparatus of the present invention, when recording a video in a long-term location or recording a video of a surveillance camera, unattended automatic start of recording or higher resolution of video (higher recording density) ), And long-term video recording can be performed efficiently.

以下、本発明による一実施例の映像自動記録制御装置を説明する。   A video automatic recording control apparatus according to an embodiment of the present invention will be described below.

図1に、本発明による一実施例の映像自動記録制御装置のブロック図を示す。本実施例の映像自動記録制御装置1は、画像特徴抽出手段2と、画像特徴判別手段3と、特徴ベクトル生成手段4と、有効動き画素数カウント手段5と、類似性判別切換手段6と、類似性判別手段7と、判別後の映像を記録装置9に記録する映像記録制御手段8とを備える。類似性判別手段7は、類似識別手段71と、識別学習手段72とを有する。本実施例の映像自動記録制御装置1は、入力される連続する画像フレームの映像(例えば、カメラ映像)の内容に基づいて映像記録を自動制御する装置である。   FIG. 1 is a block diagram of an automatic video recording control apparatus according to an embodiment of the present invention. The automatic video recording control apparatus 1 according to the present embodiment includes an image feature extraction unit 2, an image feature determination unit 3, a feature vector generation unit 4, an effective motion pixel count unit 5, a similarity determination switching unit 6, Similarity discriminating means 7 and video recording control means 8 for recording the discriminated video in the recording device 9 are provided. The similarity determination unit 7 includes a similarity identification unit 71 and an identification learning unit 72. The video automatic recording control device 1 of this embodiment is a device that automatically controls video recording based on the content of video (for example, camera video) of continuous image frames that are input.

画像特徴抽出手段2は、入力されるカメラ映像を一枚毎のフレーム画像に切り分け、連続する画像フレームの各々の画像内容の連続性を判定するための画像特徴を抽出する。抽出する画像特徴は、後述するように、画像フレーム毎の「エッジエリア」の位置、画像フレーム間の「動きベクトル(動きの速さ及び方位)」、及び有効動きベクトルの画素値で表す「色相」からなる。   The image feature extraction means 2 cuts the input camera video into frame images for each frame, and extracts image features for determining the continuity of the image contents of each successive image frame. As will be described later, the image features to be extracted include the “edge area” position for each image frame, the “motion vector (speed and direction of motion)” between image frames, and the “hue” represented by the pixel value of the effective motion vector It consists of.

この「エッジエリア」の抽出には、既知のcannyのエッジ検出アルゴリズムを用いるのが好適であるが、その他にも、既知のSobelのエッジ検出アルゴリズムなど、他のエッジ検出アルゴリズムを用いることができる。   For this “edge area” extraction, a known canny edge detection algorithm is preferably used, but other edge detection algorithms such as a known Sobel edge detection algorithm may be used.

例えば、図2に示すように、或るN(Nは1以上の自然数)番目のフレーム画像Fについて、所定の画素ブロック(例えば5×5画素又は7×7画素)に分割し、各画素ブロックがエッジ画素であるか否かを判別し、この判別結果をフラグなどにより識別可能にする。次に、検出したエッジ画素を中心にして、8近傍膨張処理を施して、エッジエリアを定める。このとき、8近傍膨張処理の適用回数を適宜2回又は3回と繰り返して、定めるエッジエリアの精度を高めるようにしてもよい。 For example, as shown in FIG. 2, a certain N (N is a natural number of 1 or more) frame image F N is divided into predetermined pixel blocks (for example, 5 × 5 pixels or 7 × 7 pixels), and each pixel It is determined whether or not the block is an edge pixel, and the determination result can be identified by a flag or the like. Next, an 8-neighbor expansion process is performed around the detected edge pixel to determine an edge area. At this time, the application frequency of the 8-neighbor expansion process may be repeated as appropriate twice or three times to improve the accuracy of the edge area to be determined.

図2におけるフレーム画像Fは、画像フレーム間で連続性する背景の一部を表す「木」Iと、画像フレーム間で非連続性となる空を飛ぶ「鳥」Imを含む画像フレームであるとする。フレーム画像Fは、所定の画素ブロックで分割されており、例えば8近傍膨張処理を施して、エッジエリアを定める。例えば、背景のエッジのない領域B2は、エッジエリアとして設定しない。 Frame image F N in FIG. 2, a "tree" I S that represents the part of the background of continuity between image frames, fly as a discontinuity between image frames in an image frame including a "bird" Im Suppose there is. The frame image FN is divided into predetermined pixel blocks, and an edge area is determined by performing, for example, 8-neighbor expansion processing. For example, the area B2 having no background edge is not set as the edge area.

しかしながら、このようなエッジエリアには、背景に属するべき木の枝や葉などのような画素ブロック(例えば図示B1)や、動きのある対象である鳥の細かい羽根のような画素ブロック(例えば図示B3)が、そのエッジエリアに密に集まって抽出されうる。この場合、このようなエッジエリア(B1,B3)付近には、多数の画素ブロックがエッジエリアとして識別されることも考えられ、例えば風でなびいて動く背景に属するべき木の枝とか葉のようなものも、後の処理における連続性の大きな変化のあるフレーム画像として判別されうる。そこで、後の処理における連続性の大きな変化のあるフレーム画像であるか否かの判別精度を高めるために、一旦、エッジエリアとして識別した画素ブロックのエッジ密度を算出し、処理対象のエッジエリアの絞り込みを行うのが好適である。   However, in such an edge area, a pixel block such as a tree branch or leaf that should belong to the background (for example, B1 in the figure) or a pixel block such as a fine feather of a bird that is a moving object (for example, illustrated) B3) can be gathered and extracted densely in the edge area. In this case, a large number of pixel blocks may be identified as edge areas in the vicinity of such edge areas (B1, B3), such as tree branches or leaves that should belong to a background that moves in the wind. Can also be discriminated as frame images having a large change in continuity in subsequent processing. Therefore, in order to improve the accuracy of determining whether or not the frame image has a large change in continuity in the subsequent processing, the edge density of the pixel block once identified as the edge area is calculated, and the edge area to be processed is calculated. It is preferable to narrow down.

例えば、一旦、エッジエリアとして識別した画素ブロックを中心として周辺のエッジエリアとして識別した画素ブロック数を累計し、この累計値が所定の閾値Tdensity以上である場合には、その中心の画素ブロックを背景領域であるとして、エッジエリアとして識別していたフラグ値を変更する。このようにして、処理対象のエッジエリアの絞り込みを行い、背景に属するべきエッジエリアを極力処理対象から除外するようにして、後の処理である連続性の大きな変化の検出精度を高めるようにする。 For example, the number of pixel blocks that have been identified as peripheral edge areas is accumulated around the pixel block that has been identified as the edge area, and if this accumulated value is equal to or greater than a predetermined threshold T density , the pixel block at the center is The flag value identified as the edge area as the background area is changed. In this way, the edge area to be processed is narrowed down, and the edge area that should belong to the background is excluded from the processing target as much as possible, so that the detection accuracy of a large change in continuity, which is a subsequent process, is improved. .

「動き」の抽出には、既知のLucas−Kanadeの動き検出を用いるのが好適であるが、その他にも、既知のブロックマッチング法など、他の動き抽出アルゴリズムを利用することができる。   It is preferable to use the known Lucas-Kanade motion detection for the “motion” extraction, but other motion extraction algorithms such as a known block matching method can be used.

例えば、図3に示すように、入力される連続する画像フレームの映像のうち、処理対象の画像フレームFと後続する画像フレームFN+1(必ずしも次フレームでなくともよい)との間で、動きベクトルを算出する。この動きベクトルの算出は、前述したエッジエリアとは無関係に行うため、エッジエリアの抽出に用いた画素ブロックとは異なるサイズの画素ブロックを用いることもできるが、処理負担の効率化を考慮して、同じ画素ブロックの大きさ及び配置で、動きベクトルを抽出する。図3の例では、画像フレームFにおける画素ブロック10が、画像フレームFN+1における画素ブロック11に移動する場合(同フレーム位置で図示10aから図示11に移動)の動きベクトル13の大きさ及び方位θは、それぞれ処理対象の画像フレームFにおける「動きの速さ」及び「動きの方位」を表すことになる。 For example, as shown in FIG. 3, of the image of the successive image frames are input, between the image frame F N + 1 subsequent to the image frame F N to be processed (may not necessarily be the next frame), a motion Calculate the vector. Since the motion vector is calculated regardless of the edge area described above, it is possible to use a pixel block having a different size from the pixel block used to extract the edge area. A motion vector is extracted with the same size and arrangement of pixel blocks. In the example of FIG. 3, the pixel block 10 in the image frame F N is the size and orientation of the motion vector 13 in moving to the pixel block 11 in the image frame F N + 1 (moved in the shown 11 shown 10a in the same frame position) θ will represent the "speed of movement", and "orientation of the motion" in the image frame F N respectively processed.

「色相」の抽出には、上記のように求めた動きベクトルの動きの速さが所定値Tvelosity以上である場合に有効動きベクトルであるとして設定し、有効動き画素数カウント手段5の機能により処理対象の画像フレームFにおける有効動きベクトルの画素ブロック数をカウントし、このカウント値が所定値Tvnumber以上である場合に、その有効動きベクトルの画素ブロック毎の色相(又は画素ブロック内の平均画素値)を算出して求めるようにする。この色相には、RGBなどの色空間の3次元データを用いることができる。 The extraction of "Hue" is the speed of motion of the motion vectors obtained as described above is set as valid motion vector when a predetermined value T velOSity above, the function of the effective motion pixel number counting means 5 counting the number of pixels of blocks of a valid motion vector in an image frame F N to be processed, the average of this when the count value is the predetermined value T Vnumber above, within the effective motion vector pixel blocks each hue (or pixel block (Pixel value) is calculated and obtained. For this hue, three-dimensional data in a color space such as RGB can be used.

画像特徴判別手段3は、画像特徴抽出手段2によって抽出した画像特徴、即ち「エッジエリア」、「動き(速さ及び方位)」、及び「色相」の組み合わせ判別を処理対象の画像フレームFについて行う。具体的には、表1に示すように、画像特徴の組み合わせについて、処理対象の画像フレームFにおけるエリアをエッジエリアか否かに区分し、次にエッジエリアについては閾値Tdensity以上であるか否かを区分し、エッジエリア以外については閾値Tvnumber以上であるか否かを区分する。 Image feature judgment unit 3, the image features extracted by the image feature extraction unit 2, i.e. the "edge area", "motion (speed and direction)", and an image frame F N combinations discrimination processing target in "Hue" Do. Specifically, as shown in Table 1, the combination of image features, the area in the image frame F N to be processed is classified into whether an edge area, then whether the edge area is the threshold value T density than Whether the area is other than the edge area or not is classified as a threshold T vnumber or more.

Figure 2010021761
Figure 2010021761

このように区分すると、エッジエリアについては閾値Tdensity未満であれば、エッジである信頼性が高く、2つの画像フレーム対比した時の後述する「エッジの方位」及び「動き(速さ及び方位)」によって画像内容の動きを表す目安にするようにする。 With this division, if it is less than the threshold value T density for the edge areas, in a reliable edge, two image frames will be described later when the contrast "edge orientation" and "motion (speed and direction) "Is used as a guideline representing the movement of the image content.

また、エッジエリアについては閾値Tdensity以上であれば、エッジである信頼性が低く、処理負担を考慮すれば必ずしも画像内容の動きを表す目安にする必要がない。 Further, if the edge area is equal to or greater than the threshold value T density , the reliability of the edge is low, and it is not always necessary to use a guideline representing the movement of the image content in consideration of the processing load.

また、エッジエリア以外について、処理対象の画像フレームFにおける有効動きベクトルの画素ブロック数のカウント値が所定値Tvnumber以上である場合、動きある画像内容である可能性が高いため、動きあるフレームであるか否かの判別精度を高めるために、「動き(速さ及び方位)」以外に、「色相」の画像特徴をも画像内容の動きを表す目安にするようにする。 Further, except for the edge area, when the count value of the number of pixels of blocks of a valid motion vector in an image frame F N to be processed is a predetermined value T Vnumber above, since there is likely to be image content in motion, there motion frame In addition to “movement (speed and azimuth)”, the image characteristic of “hue” is also used as a guide for representing the movement of the image content.

また、エッジエリア以外について、処理対象の画像フレームFにおける有効動きベクトルの画素ブロック数のカウント値が所定値Tvnumber未満である場合、動きある画像内容である可能性が高いとはいえず、処理負担を考慮して、「動き(速さ及び方位)」の画像特徴をも画像内容の動きを表す目安にするようにする。 Further, except for the edge area, when the count value of the number of pixels of blocks of a valid motion vector in an image frame F N to be processed is less than the predetermined value T Vnumber, not be said that there is likely to be image content in motion, Considering the processing load, the image feature of “movement (speed and direction)” is also used as a guide for representing the movement of the image content.

尚、本実施例では、画像特徴判別手段3を設けて画像特徴抽出手段2によって抽出した画像特徴を区分するように説明しているが、予め表1のように区分した条件を満たすときに、画像特徴を抽出して特徴ベクトルを生成するようにすることもできる。即ち、画像特徴抽出手段2及び画像特徴判別手段3の機能を後述する特徴ベクトル生成手段4に組み合わせて、特徴ベクトル生成手段4の特徴ベクトル生成時に、同時に必要な画像特徴のみを抽出することもでき、更に処理負担を軽減させることができる。   In this embodiment, the image feature discriminating means 3 is provided and the image features extracted by the image feature extracting means 2 are classified. However, when the conditions classified in advance as shown in Table 1 are satisfied, It is also possible to extract image features and generate feature vectors. That is, the functions of the image feature extraction unit 2 and the image feature discrimination unit 3 can be combined with the feature vector generation unit 4 to be described later so that only the necessary image features can be extracted simultaneously when the feature vector generation unit 4 generates the feature vectors. Furthermore, the processing load can be reduced.

特徴ベクトル生成手段4は、「エッジエリア」、「動きベクトル(動きの速さ及び方位)」、及び「色相」毎の画像特徴を連続性を判別するのに用いる2枚の画像フレームの方位毎の画素数で表したベクトル成分の組み合わせからなり、例えば画像特徴判別手段3によって条件別に区分した画像特徴を連結した特徴ベクトルを生成する。即ち、特徴ベクトルは、エッジエリアの画像特徴とエッジエリア以外の画像特徴を連結したベクトルで表現するようにする。具体的には、表1の条件を満たす以下の2種類の特徴ベクトルとして、エッジエリアと動きに関する画像特徴を用いて、0°〜180°をヒストグラムで分割した画素数で表す。   The feature vector generation means 4 is used for determining the continuity of image features for each of “edge area”, “motion vector (speed and direction of motion)”, and “hue” for each orientation of two image frames. For example, the image feature discriminating means 3 generates a feature vector obtained by connecting image features classified according to conditions. That is, the feature vector is expressed by a vector obtained by connecting the image feature of the edge area and the image feature other than the edge area. Specifically, the following two types of feature vectors satisfying the conditions in Table 1 are represented by the number of pixels obtained by dividing 0 ° to 180 ° by a histogram using image features related to the edge area and motion.

[動き画素数が、所定値Tvnumber以上である場合の特徴ベクトル]
(エッジエリアの特徴ベクトル成分)
(ee):i×180/N(ee)≦θ≦(i+1)×180/N(ee)
満たすθの方位を持つ「エッジエリア」の対象フレーム内の画素数
(ev):i×180/N(ev)≦θ≦(i+1)×180/N(ev)
満たすθの方位を持つ「動きの大きさ」の対象フレーム内の画素数
(es):i×SpMax/N(es)≦θ≦(i+1)×SpMax/N(es)
満たすθの方位を持つ「動きの速さ」の対象フレーム内の画素数
(エッジエリア以外の特徴ベクトル成分)
(nev):i×180/N(nev)≦θ≦(i+1)×180/N(nev)
満たすθTの方位を持つ「エッジエリア」の対象フレーム内の画素数
(nes):i×SpMax/N(nes)≦θ≦(i+1)×SpMax/N(nes)
満たすθTの方位を持つ「動きの大きさ」の対象フレーム内の画素数
(col):例えばRGBの画素値を用いて(他の色相表現法を用いてもよい)、
col=0(R),col=1(G),col=2(B)
としたとき、
特徴ベクトルxは、上記の6つのベクトル成分をN(*)ずつ用いて、次式のように表わされる。
[Feature vector when the number of moving pixels is equal to or greater than a predetermined value T vnumber ]
(Feature vector component of edge area)
x i (ee) : i × 180 / N (ee) ≦ θ T ≦ (i + 1) × 180 / N (ee)
Meet the number of pixels in the target frame of the "edge area" with orientation θ T x i (ev): i × 180 / N (ev) ≦ θ T ≦ a (i + 1) × 180 / N (ev)
Satisfies theta with the orientation of T number of pixels in the target frame of the "size of the motion" x i (es): i × SpMax / N (es) ≦ θ T ≦ (i + 1) × SpMax / N a (es)
Satisfies θ number of pixels in the target frame with the orientation of T "speed of movement" (feature vector component other than the edge area)
x i (nev): i × 180 / N (nev) ≦ θ T ≦ (i + 1) × 180 / N a (nev)
The number of pixels in the target frame of the “edge area” having the azimuth direction θT satisfying: x i (nes) : i × SpMax / N (nes) ≦ θ T ≦ (i + 1) × SpMax / N (nes)
The number of pixels x i (col) in the target frame of “the magnitude of motion” having the orientation of θT that satisfies: For example, using RGB pixel values (other hue expression methods may be used)
col = 0 (R), col = 1 (G), col = 2 (B)
When
The feature vector x is expressed by the following equation using the above six vector components for each N (*).

Figure 2010021761
Figure 2010021761

ここで、各N(*)は、ヒストグラムを作成する場合の分割数を表し(*は各成分を表す記号)、SpMaxは、想定される動きの速さの上限値(任意に設定可)を表し、iは、ヒストグラムを作成する場合に分割した任意の位置を表す。   Here, each N (*) represents the number of divisions when creating a histogram (* is a symbol representing each component), and SpMax is an upper limit value of an assumed motion speed (can be arbitrarily set). I represents an arbitrary position divided when creating a histogram.

[動き画素数が、所定値Tvnumber以上である場合の特徴ベクトル]
この場合、色相の情報が用いられないため、特徴ベクトルxは、次式のように表わされる。
[Feature vector when the number of moving pixels is equal to or greater than a predetermined value T vnumber ]
In this case, since the hue information is not used, the feature vector x is expressed as follows.

Figure 2010021761
Figure 2010021761

有効動き画素数カウント手段5は、画像特徴抽出手段2によって算出した処理対象の画像フレームFにおける有効動きベクトルの画素ブロック数をカウントし、そのカウント値を画像特徴抽出手段2に送り返す機能を有する。 Effective motion pixel number counting means 5 counts the number of pixels of blocks of a valid motion vector in an image frame F N to be processed calculated by the image feature extraction unit 2 has a function of sending back the count value to the image feature extraction unit 2 .

類似性判別切換手段6は、識別学習手段72を経由して類似識別手段71の機能を実行するか否かを所望に応じて選定可能にするスイッチ機能である。   The similarity determination switching means 6 is a switch function that allows selection as desired whether or not to execute the function of the similarity identification means 71 via the identification learning means 72.

類似識別手段71は、所定のフレーム間距離(動きの変化を比較するため、数フレーム以内に設定する)の2枚の画像フレームを抽出した各特徴ベクトルについて類似性を比較し、非類似性を判別する。例えば、2つの画像フレームの画像内容の類似性の判定をヒストグラムの形状に着目して行う場合、特定の時間間隔における2枚の画像に対する特徴ベクトルの内積を計算し、その内積値が閾値以上であるか否かを判定して行う。或いは又、類似性判別切換手段6に応じて選択された識別学習手段72によって予め定めた識別関数について機械学習させた判定範囲を用いて、特定の時間間隔における2枚の画像フレームにおける特徴ベクトルを比較し、その類似性を判定することもできる。   The similarity identification unit 71 compares similarities for each feature vector obtained by extracting two image frames having a predetermined interframe distance (set within several frames in order to compare changes in motion), and determines dissimilarity. Determine. For example, when determining the similarity between the image contents of two image frames by paying attention to the shape of the histogram, the inner product of feature vectors for two images at a specific time interval is calculated, and the inner product value is equal to or greater than a threshold value. This is done by determining whether or not there is. Alternatively, a feature vector in two image frames at a specific time interval is obtained by using a determination range obtained by machine learning with respect to an identification function predetermined by the identification learning unit 72 selected according to the similarity determination switching unit 6. The similarity can also be determined by comparison.

例えば、類似識別手段71は、当該生成した各特徴ベクトルについて、2枚の画像フレームに対して非類似性を表すまで入力されるカメラ映像における連続する画像フレームの画像内容の類似性を順次比較し、非類似性を表す時点を判別する。具体的には、類似識別手段71は、2枚の画像フレームが類似していると判定する場合(比較した特徴ベクトルが所定の範囲内にある場合)には1を、類似していないと判定する場合(比較した特徴ベクトルが所定の範囲外にある場合)には−1を画像フレーム比較を行う度に出力する。ここで、−1のとき非類似性を表し、2つの画像フレームは大きく変化したと判定することができる。   For example, the similarity identifying unit 71 sequentially compares the similarities of the image contents of successive image frames in the input camera video until each generated feature vector represents dissimilarity with respect to two image frames. And determine the time point representing dissimilarity. Specifically, the similarity identifying unit 71 determines 1 if the two image frames are similar (when the compared feature vector is within a predetermined range), and determines that they are not similar. When the comparison is performed (when the compared feature vector is outside the predetermined range), −1 is output every time the image frame comparison is performed. Here, when it is −1, dissimilarity is indicated, and it can be determined that the two image frames have changed greatly.

この特徴ベクトルの比較に用いる所定の範囲は、各成分毎に類似性判断の範囲を定め、全ての類似性判断の範囲内にある場合には、類似性有りと判断し、類似性判断の範囲内に無いベクトル成分が所定数(例えば2)以上有る場合には、類似性が無いと判断する。このような類似性判断の範囲及び判断に用いる所定数の設定は、用途毎に設定可能にするのが好適である。   The predetermined range used for the comparison of the feature vectors defines the range of similarity determination for each component, and if it is within the range of all similarity determinations, it is determined that there is similarity, and the range of similarity determination If there are a predetermined number (for example, 2) or more of vector components that are not included, it is determined that there is no similarity. The range of similarity determination and the predetermined number of settings used for the determination are preferably set for each application.

また、類似識別手段71は、系の安定化を図るために、一定の期間の類似判定結果に対してメディアンフィルタなどの平均化フィルタを適用することもできる。また、類似識別手段71は、次元の異なる特徴ベクトルを比較することになる場合(前述した異なる式の特徴ベクトルxを比較する場合)、無条件に−1を出力するようにする。   The similarity identifying unit 71 can also apply an averaging filter such as a median filter to the similarity determination result for a certain period in order to stabilize the system. Further, the similarity identifying means 71 outputs −1 unconditionally when comparing feature vectors of different dimensions (when comparing feature vectors x of different formulas described above).

識別学習手段72は、予め定めた識別関数について機械学習させた判定範囲を類似識別手段71に適用する。具体的には、識別学習手段72として、2値の識別に高い性能を発揮するサポートベクタマシンを用いることができる。その他にも、ニューラルネットワークや新たな入力値に対する予測判定を行うことができる任意の各種の識別関数の生成アルゴリズムを利用することができる。また、類似識別手段71及び識別学習手段72の間で機械学習のためにループさせる機能をさらに設けてもよい。   The identification learning unit 72 applies a determination range obtained by machine learning for a predetermined identification function to the similarity identification unit 71. Specifically, a support vector machine that exhibits high performance for binary identification can be used as the identification learning means 72. In addition, any kind of discriminant function generation algorithm that can perform prediction determination for a new input value can be used. Further, a function of looping for machine learning between the similar identification unit 71 and the identification learning unit 72 may be further provided.

映像記録制御手段8は、非類似性を判別した時点で、映像の記録を開始させるか、又は記録する映像が高解像度化するように記録密度を変化させる制御信号を送出する。具体的には、映像記録制御手段8は、類似識別手段71の非類似性を表す判別結果が得られると、記録装置9に入力されるカメラ映像を記録する際に、例えば一定時間、その記録開始のオンを行うか、又は高解像度化するように記録密度を変化させるように制御する。   The video recording control means 8 starts video recording at the time of determining the dissimilarity, or sends a control signal for changing the recording density so that the video to be recorded has a higher resolution. Specifically, when the video recording control unit 8 obtains a discrimination result indicating the dissimilarity of the similarity identifying unit 71, the video recording control unit 8 records the recording for a certain time, for example, when recording the camera video input to the recording device 9. The start is turned on, or the recording density is controlled so as to increase the resolution.

本実施例の映像自動記録制御装置によれば、連続する画像フレームの映像の内容を判断し、画像内容の連続性が大きく変化する状況を感知したときに映像の記録を自動的に開始するか、又は記録する映像の解像度を自動的に高めることができるようになる。   According to the video automatic recording control device of the present embodiment, whether the video content of successive image frames is judged and video recording is automatically started when a situation in which the continuity of the image content changes greatly is detected. Or the resolution of the recorded video can be automatically increased.

例えば、放送用の長期ロケでは、いつ現場に現れるか分からない動物や、起こることは予測されているがいつ起こるか分からない出来事を記録撮影する場合に、非類似性を表す判別結果が得られると、映像記録制御手段8は、例えば一定時間(例えば1分などの期間)映像を記録するように記録装置9を制御することができる。   For example, in a long-term location for broadcasting, a discrimination result indicating dissimilarity can be obtained when recording and shooting animals that do not know when they appear in the field or events that are predicted to occur but do not know when they occur Then, the video recording control means 8 can control the recording device 9 so as to record the video for a certain period of time (for example, a period of 1 minute, for example).

目的映像の前に短い期間ののりしろ部分を加えたい場合には、スキップバックレコーダーを記録装置の前に接続し、スキップバックレコーダーの出力を記録装置9に記録することもできる。また、防犯用に用いる場合には、通常時映像のコマ数を低く設定しておき、非類似性を表す判別結果が得られたときに、映像記録制御手段8は、例えば一定期間コマ数を高くするように記録装置9の圧縮率を制御する。この場合にも、スキップバックレコーダーと組み合わせての使用が可能である。   If it is desired to add a margin for a short period before the target video, a skip back recorder can be connected in front of the recording device and the output of the skip back recorder can be recorded in the recording device 9. When used for crime prevention, the video recording control means 8 sets the number of frames for a certain period, for example, when the number of frames of the normal video is set low and a discrimination result indicating dissimilarity is obtained. The compression rate of the recording device 9 is controlled so as to increase. Also in this case, it can be used in combination with a skip back recorder.

上述の実施例については代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。例えば、記録装置9を制御するとして説明したが、映像記録制御手段30の制御信号を遠隔送信する送信手段を更に設けて、記録装置9に代えてインターネット等の通信回線を通じて遠隔制御することもできる。従って、本発明は、上述の実施例によって制限するものと解するべきではなく、特許請求の範囲によってのみ制限される。   Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. For example, although it has been described that the recording apparatus 9 is controlled, a transmission means for remotely transmitting the control signal of the video recording control means 30 can be further provided, and remote control can be performed through a communication line such as the Internet instead of the recording apparatus 9. . Accordingly, the invention should not be construed as limited by the embodiments described above, but only by the claims.

本発明の映像自動記録制御装置によれば、無人で期待する映像を感知して記録又は伝送することができるため、長期のカメラ撮影を所望する用途に有用である。   According to the video automatic recording control apparatus of the present invention, it is possible to sense and record or transmit a video expected by an unmanned person, which is useful for an application in which long-term camera shooting is desired.

本発明による一実施例の映像自動記録制御装置のブロック図である。1 is a block diagram of an automatic video recording control apparatus according to an embodiment of the present invention. FIG. 本発明による一実施例の映像自動記録制御装置の画像特徴抽出における画像フレームを表す図である。It is a figure showing the image frame in the image feature extraction of the video automatic recording control apparatus of one Example by this invention. 本発明による一実施例の映像自動記録制御装置の画像特徴抽出における動き検出に用いる画像フレームを表す図である。It is a figure showing the image frame used for the motion detection in the image feature extraction of the image | video automatic recording control apparatus of one Example by this invention.

符号の説明Explanation of symbols

1 映像自動記録制御装置
2 画像特徴抽出手段
3 画像特徴判別手段
4 特徴ベクトル生成手段
5 有効動き画素数カウント手段
6 類似性判別切換手段
7 類似性判別手段
8 映像記録制御手段
9 記録装置
71 類似識別手段
72 識別学習手段
DESCRIPTION OF SYMBOLS 1 Image automatic recording control apparatus 2 Image feature extraction means 3 Image feature discrimination means 4 Feature vector generation means 5 Effective motion pixel number counting means 6 Similarity discrimination switching means 7 Similarity discrimination means 8 Video recording control means 9 Recording apparatus 71 Similarity identification Means 72 Discrimination learning means

Claims (5)

入力される連続する画像フレームの映像の内容に基づいて映像記録を自動制御する映像自動記録制御装置であって、
連続する画像フレームの画像内容の連続性を判定するために、所定のフレーム間距離の2枚の画像フレームに対して画像特徴を抽出し、特徴ベクトルを生成する特徴ベクトル生成手段と、
当該生成した各特徴ベクトルについて、前記2枚の画像フレームに対して非類似性を表すまで前記連続する画像フレームの画像内容の類似性を順次比較し、非類似性を表す時点を判別する類似性判別手段と、
非類似性を判別した時点で、映像の記録を開始させるか、又は記録する映像が高解像度化するように記録密度を変化させる制御信号を送出する映像記録制御手段と、
を備えることを特徴とする映像自動記録制御装置。
An automatic video recording control device for automatically controlling video recording based on video content of continuous image frames input,
In order to determine the continuity of the image content of successive image frames, feature vector generation means for extracting image features from two image frames at a predetermined interframe distance and generating a feature vector;
For each of the generated feature vectors, the similarity is determined by sequentially comparing the similarities of the image contents of the successive image frames until the dissimilarities are expressed with respect to the two image frames. Discrimination means;
Video recording control means for sending a control signal for starting recording of video or changing recording density so as to increase the resolution of video to be recorded at the time of determining dissimilarity;
An automatic video recording control apparatus comprising:
前記画像特徴は、画像フレーム毎のエッジエリアの位置、画像フレーム間の動きベクトル、及び有効動きベクトルにおける画素値で表す色相からなることを特徴とする、請求項1に記載の映像自動記録制御装置。   2. The video automatic recording control apparatus according to claim 1, wherein the image feature includes a hue represented by a position of an edge area for each image frame, a motion vector between the image frames, and a pixel value in an effective motion vector. . 前記特徴ベクトルは、前記エッジエリア、前記動きベクトル、及び前記色相毎の画像特徴を前記2枚の画像フレームの方位毎の画素数で表したベクトル成分の組み合わせからなることを特徴とする、請求項2に記載の映像自動記録制御装置。   The feature vector comprises a combination of vector components representing the edge area, the motion vector, and the image feature for each hue by the number of pixels for each orientation of the two image frames. The video automatic recording control apparatus according to 2. 前記特徴ベクトルは、前記エッジエリア以外の有効動きベクトルの密度が所定の閾値以上である場合にのみ、前記色相の画像特徴に基づくベクトル成分を含むことを特徴とする、請求項3に記載の映像自動記録制御装置。   4. The video according to claim 3, wherein the feature vector includes a vector component based on the image feature of the hue only when the density of effective motion vectors other than the edge area is equal to or higher than a predetermined threshold. Automatic recording control device. 前記映像記録制御手段の制御信号を遠隔送信する送信手段を更に備えることを特徴とする、請求項1〜4のいずれか一項に記載の映像自動記録制御装置。   The video automatic recording control apparatus according to any one of claims 1 to 4, further comprising a transmission unit that remotely transmits a control signal of the video recording control unit.
JP2008180012A 2008-07-10 2008-07-10 Video image automatic recording control device Pending JP2010021761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008180012A JP2010021761A (en) 2008-07-10 2008-07-10 Video image automatic recording control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008180012A JP2010021761A (en) 2008-07-10 2008-07-10 Video image automatic recording control device

Publications (1)

Publication Number Publication Date
JP2010021761A true JP2010021761A (en) 2010-01-28

Family

ID=41706236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008180012A Pending JP2010021761A (en) 2008-07-10 2008-07-10 Video image automatic recording control device

Country Status (1)

Country Link
JP (1) JP2010021761A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160073020A1 (en) * 2013-05-16 2016-03-10 Sony Corporation Image processing device, image processing method, and program
JP2016048967A (en) * 2016-01-14 2016-04-07 オリンパス株式会社 Imaging device and imaging method
JP2017055445A (en) * 2016-11-24 2017-03-16 オリンパス株式会社 Imaging equipment and imaging method
JP2017108387A (en) * 2015-10-28 2017-06-15 トッパノ カンパニ, リミテッド.Toppano Co., Ltd. Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
CN108304490A (en) * 2018-01-08 2018-07-20 有米科技股份有限公司 Text based similarity determines method, apparatus and computer equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160073020A1 (en) * 2013-05-16 2016-03-10 Sony Corporation Image processing device, image processing method, and program
US9800780B2 (en) * 2013-05-16 2017-10-24 Sony Corporation Image processing device, image processing method, and program to capture an image using fisheye lens
JP2017108387A (en) * 2015-10-28 2017-06-15 トッパノ カンパニ, リミテッド.Toppano Co., Ltd. Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
JP2016048967A (en) * 2016-01-14 2016-04-07 オリンパス株式会社 Imaging device and imaging method
JP2017055445A (en) * 2016-11-24 2017-03-16 オリンパス株式会社 Imaging equipment and imaging method
CN108304490A (en) * 2018-01-08 2018-07-20 有米科技股份有限公司 Text based similarity determines method, apparatus and computer equipment
CN108304490B (en) * 2018-01-08 2020-12-15 有米科技股份有限公司 Text-based similarity determination method and device and computer equipment

Similar Documents

Publication Publication Date Title
KR101942808B1 (en) Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN
US11538232B2 (en) Tracker assisted image capture
US8208733B2 (en) Method, medium, and apparatus with estimation of background change
US8270806B2 (en) Information processing apparatus and method of controlling same
US20110043689A1 (en) Field-of-view change detection
US20120039515A1 (en) Method and system for classifying scene for each person in video
EP4035070B1 (en) Method and server for facilitating improved training of a supervised machine learning process
KR20200058260A (en) Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN and Driving Method Thereof
JP2016085487A (en) Information processing device, information processing method and computer program
JP2008165792A (en) Image processing method and device
CN112703533A (en) Object tracking
US20200145623A1 (en) Method and System for Initiating a Video Stream
JP2010003177A (en) Image processor
US10657783B2 (en) Video surveillance method based on object detection and system thereof
CN109740589A (en) Asynchronous object ROI detection method and system in video mode
JP2010021761A (en) Video image automatic recording control device
CN110580808A (en) Information processing method and device, electronic equipment and intelligent traffic system
KR101372860B1 (en) System for searching video and server for analysing video
WO2014103673A1 (en) Information processing system, information processing method, and program
KR20110074107A (en) Method for detecting object using camera
JP2008005399A (en) Device and method for detecting a neglected object
JP7255819B2 (en) Systems and methods for use in object detection from video streams
KR20160037480A (en) Method for establishing region of interest in intelligent video analytics and video analysis apparatus using the same
KR102127276B1 (en) The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras
JP7125843B2 (en) Fault detection system