JP2015032133A - Object search system - Google Patents

Object search system Download PDF

Info

Publication number
JP2015032133A
JP2015032133A JP2013161106A JP2013161106A JP2015032133A JP 2015032133 A JP2015032133 A JP 2015032133A JP 2013161106 A JP2013161106 A JP 2013161106A JP 2013161106 A JP2013161106 A JP 2013161106A JP 2015032133 A JP2015032133 A JP 2015032133A
Authority
JP
Japan
Prior art keywords
unit
object type
type
region
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013161106A
Other languages
Japanese (ja)
Other versions
JP6088381B2 (en
Inventor
都 堀田
Miyako Hotta
堀田  都
三好 雅則
Masanori Miyoshi
雅則 三好
伊藤 光恵
Mitsue Ito
光恵 伊藤
一成 岩永
Kazunari Iwanaga
一成 岩永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2013161106A priority Critical patent/JP6088381B2/en
Publication of JP2015032133A publication Critical patent/JP2015032133A/en
Application granted granted Critical
Publication of JP6088381B2 publication Critical patent/JP6088381B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object search system capable of efficiently searching a specific type of object from a video without omission.SOLUTION: The object search system includes: a video input unit 1 for inputting video data; an object extraction unit 3 for extracting an object region from an image data frame configuring the input video data; an object type identification unit 2 for identifying an object type in the object region on the basis of one or more first featured values of the image in the object region; an object type certainty calculation unit 4 for calculating object type certainty on the basis of one or more second featured values of the extracted object region; an object information storage unit 5 for storing the object type and the object type certainty in association for each image data frame; and a search unit 6 for searching the image data frame and the object type certainty corresponding to the object type to be input as search conditions from the object information storage unit 5, and for outputting them to a display unit 7.

Description

本発明は、映像から、特定の種別の物体を検出する物体検索システムに関する。   The present invention relates to an object search system that detects an object of a specific type from an image.

セキュリティ確保のため、監視カメラの需要の増加に伴い、記録された映像の解析支援技術の重要性が高まっている。特定の対象の検出を目的とした用途の場合、従来は、大量の映像から、目視により検出を行っていたため、膨大な人手と時間がかかっていた。検出効率向上のため、対象の属性情報から検索範囲を絞り込める機能が必要である。特に、検出対象の種別、例えば対象が人であるか二輪車であるか車であるか、等の情報により検索対象を絞り込める技術が望まれている。 In order to ensure security, with the increasing demand for surveillance cameras, the importance of analysis support technology for recorded images is increasing. In the case of an application for the purpose of detecting a specific target, conventionally, since it was detected by visual observation from a large amount of images, it took a lot of manpower and time. In order to improve detection efficiency, a function that can narrow down the search range from the target attribute information is required. In particular, there is a demand for a technique that can narrow down the search target based on information such as the type of detection target, for example, whether the target is a person, a motorcycle, or a vehicle.

記録された映像から、オブジェクトを検索する技術として特開2005−210573号公報(特許文献1)がある。特許文献1には、映像データ中に写っている個々の物体を検出し、同一の物体が複数の画像フレームに渡って写っている期間を1つの映像期間単位とし、この映像期間における同一物体を強調表示するものが記載されている。これにより映像内容の把握をより短時間で可能としている。   Japanese Unexamined Patent Application Publication No. 2005-210573 (Patent Document 1) is a technique for searching for an object from recorded video. In Patent Document 1, individual objects appearing in video data are detected, and a period in which the same object appears in a plurality of image frames is defined as one video period. What is highlighted is listed. This makes it possible to grasp the video content in a shorter time.

特開2005−210573号公報JP 2005-210573 A

しかし、特許文献1によれば、映像データ中の同一物体を強調表示できるものの、そもそも映像データに含まれる物体の種別の識別、更には、識別された物体の種別の確からしさについては何ら考慮されていない。したがって、映像に映る個々の物体を検索することができても、特定の種別の物体、例えば「二輪車」に絞り込んで検索することができない。このため、「二輪車」のみを検索したいユーザであっても、二輪車以外を含む個々の物体を順に参照しなければならない。   However, according to Patent Document 1, although the same object in the video data can be highlighted, the identification of the type of the object included in the video data and the certainty of the type of the identified object are considered at all. Not. Therefore, even if individual objects appearing in the video can be searched, it is not possible to search by narrowing down to a specific type of object, for example, “two-wheeled vehicle”. For this reason, even a user who wants to search for only “two-wheeled vehicles” must refer to individual objects including those other than two-wheeled vehicles in order.

そこで、本発明は、映像データから特定の種別の物体を効率的に検索可能な物体検索システムを提供する。   Therefore, the present invention provides an object search system that can efficiently search for a specific type of object from video data.

本発明は、映像データを入力する映像入力部と、入力された映像データを構成する画像データフレームから物体領域を抽出する物体抽出部と、上記物体領域内の画像の1つ以上の第1の特徴量に基づき上記物体領域内の物体種別を識別する物体種別識別部と、抽出された物体領域の1つ以上の第2の特徴量に基づき物体種別確信度を求める物体種別確信度算出部と、上記各画像データフレーム毎に物体種別及び物体種別確信度を対応付けて記憶する物体情報格納部と、検索条件として入力される物体種別に対応する画像データフレーム及び物体種別確信度を、上記物体情報格納部より検索し表示部に出力する検索部を有することを特徴とする。   The present invention includes a video input unit that inputs video data, an object extraction unit that extracts an object region from an image data frame that constitutes the input video data, and one or more first ones of images in the object region. An object type identifying unit for identifying an object type in the object region based on a feature amount, an object type certainty factor calculating unit for obtaining an object type certainty factor based on one or more second feature amounts of the extracted object region, An object information storage unit that stores an object type and an object type certainty factor in association with each image data frame, and an image data frame and an object type certainty factor corresponding to the object type input as a search condition. It has a search part which searches from an information storage part and outputs it to a display part.

本発明によれば、映像データから特定の種別の物体を効率的に検索可能な物体検索システムを提供できる。   According to the present invention, it is possible to provide an object search system that can efficiently search for a specific type of object from video data.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の実施例1に係る物体検索システムの機能ブロック図である。It is a functional block diagram of the object search system concerning Example 1 of the present invention. 物体種別識別部の機能ブロック図である。It is a functional block diagram of an object classification identification part. 特徴量算出部で算出する特徴量の説明図である。It is explanatory drawing of the feature-value calculated in a feature-value calculation part. 車の画像に対し特徴量算出部で抽出した特徴量の説明図である。It is explanatory drawing of the feature-value extracted by the feature-value calculation part with respect to the image of a car. 自転車の画像に対し特徴量算出部で抽出した特徴量の説明図である。It is explanatory drawing of the feature-value extracted by the feature-value calculation part with respect to the image of a bicycle. 人の画像に対し特徴量算出部で抽出した特徴量の説明図である。It is explanatory drawing of the feature-value extracted by the feature-value calculation part with respect to the person's image. 物体情報格納部に格納された情報の例を示す図である。It is a figure which shows the example of the information stored in the object information storage part. 識別基準格納部に格納された識別基準の例を示す図である。It is a figure which shows the example of the identification reference | standard stored in the identification reference | standard storage part. 物体種別判定部による処理フロー図である。It is a processing flow figure by an object classification judging part. 物体情報格納部に格納される各データ項目の説明図である。It is explanatory drawing of each data item stored in an object information storage part. 物体情報格納部に格納された情報の例を示す図である。It is a figure which shows the example of the information stored in the object information storage part. 種別スコアを用いた判定方法の説明図である。It is explanatory drawing of the determination method using a classification score. フレーム間追跡部による処理を説明する図である。It is a figure explaining the process by the tracking part between frames. フレーム間追跡処理後の物体情報格納部の状態を示す図である。It is a figure which shows the state of the object information storage part after an inter-frame tracking process. 物体が移動中に遮蔽物に隠れる状態を示す図である。It is a figure which shows the state which an object hides in a shield during a movement. 物体領域が画像データフレームの端部に接する状態を表す図である。It is a figure showing the state which an object area | region touches the edge part of an image data frame. 物体領域抽出と物体領域面積変動との関係を表す図である。It is a figure showing the relationship between object area extraction and object area area fluctuation | variation. 物体種別確信度算出部の処理フロー図である。It is a processing flowchart of an object classification reliability calculation part. 物体が遮蔽物に隠れる状況での物体識別確信度の算出を説明する図である。It is a figure explaining calculation of the object identification reliability in the situation where an object hides in a shield. 物体種別確信度を算出し物体情報格納部へ格納した状態の説明図である。It is explanatory drawing of the state which calculated the object classification reliability and stored in the object information storage part. 表示部に表示される画面例である。It is an example of a screen displayed on a display part. 検索部による検索結果リストである。It is a search result list by a search part. 検索部による処理フロー図である。It is a processing flow figure by a search part. サムネイル表示領域に表示する物体情報を格納するサムネイル作成リストである。It is a thumbnail creation list for storing object information to be displayed in a thumbnail display area. 本発明の実施例2に係る物体検索システムの機能ブロック図である。It is a functional block diagram of the object search system which concerns on Example 2 of this invention. 確信度考慮物体種別識別部の機能ブロック図である。It is a functional block diagram of a certainty factor considering object type identification unit. 物体情報格納部の状態の説明図である。It is explanatory drawing of the state of an object information storage part. 物体情報格納部の状態の説明図である。It is explanatory drawing of the state of an object information storage part. 追跡物体総合判定後の物体情報格納部の状態説明図である。It is state explanatory drawing of the object information storage part after tracking object comprehensive determination. 追跡物体総合判定スコアの時間的変化の説明図である。It is explanatory drawing of the time change of the tracking object comprehensive determination score. 本発明の実施例3に係る物体検索システムの機能ブロック図である。It is a functional block diagram of the object search system which concerns on Example 3 of this invention.

以下、実施例を図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.

図1は、本発明の実施例1に係る物体検索システムの機能ブロック図である。物体検索システムは、映像入力部1、物体抽出部3、物体種別識別部3、物体種別確信度算出部4、物体情報格納部5、検索部6と表示部7から構成される。なお、ここで物体抽出部3、物体種別識別部2、物体種別確信度算出部4及び検索部6は、CPU及びRAM、ROM等のメモリで実現され、メモリに記憶されたプログラムをCPUが実行することで後述する処理を行う。本実施例においては、映像データは屋外の路上に設置されたカメラで撮影されたものを想定し、映像データから検出する物体、すなわち、物体の種別として、人、二輪車及び車を例に説明するがこれに限られるものではない。以下に物体検索システムを構成する上記各部の詳細を説明する。   FIG. 1 is a functional block diagram of the object search system according to the first embodiment of the present invention. The object search system includes a video input unit 1, an object extraction unit 3, an object type identification unit 3, an object type certainty factor calculation unit 4, an object information storage unit 5, a search unit 6 and a display unit 7. The object extraction unit 3, the object type identification unit 2, the object type certainty factor calculation unit 4, and the search unit 6 are realized by a CPU, a memory such as a RAM and a ROM, and the CPU executes a program stored in the memory. By doing so, the processing described later is performed. In this embodiment, video data is assumed to be taken by a camera installed on an outdoor road, and an object to be detected from video data, that is, a person, a two-wheeled vehicle, and a vehicle will be described as an example. Is not limited to this. Details of each of the above parts constituting the object search system will be described below.

映像入力部1は、監視カメラなどにより撮影した映像データを入力する。映像データは時系列で連続して、現在の時刻をtとすると時刻tの画像データフレーム、時刻t+1の画像データフレーム、時刻t+2の画像データフレーム‥として順に入力される。映像データは、カメラから直接入力してもよいし、一旦、バッファに(図示せず)に記録した後、バッファから読み出された映像データを入力するのでも構わない。   The video input unit 1 inputs video data captured by a surveillance camera or the like. The video data is sequentially input in time series, and is input in order as an image data frame at time t, an image data frame at time t + 1, an image data frame at time t + 2,. The video data may be input directly from the camera, or the video data read from the buffer may be input after being recorded in a buffer (not shown).

物体情報格納部5は、入力された映像データを構成する画像データフレームに対し後述する処理により抽出される物体に関する情報を格納するメモリである。   The object information storage unit 5 is a memory that stores information related to an object extracted by processing to be described later with respect to image data frames constituting input video data.

物体情報格納部5に格納されるデータ項目の例を説明する。図10は、物体情報格納部に格納される各データ項目の説明図である。時刻の欄には物体を検出した時刻が格納され、物体IDの欄には、時刻tにおいて検出した物体のIDが格納される。これら時刻と物体IDの組合せでユニークとなる番号である。物体領域座標の欄には、後述する物体抽出部3により抽出された物体領域の座標が格納される。画像データフレーム内で物体が検出された位置を、例えば外接矩形の始点、終点のx、y座標などにより格納する。特徴量は、後述する物体識別部2の処理中で算出される特徴量の値を格納する領域である。例として特徴量1から3までの3種類を示したが、特徴量の数はこれに限られるものではない。種別の欄は物体種別識別部2により識別した、当該物体の種別の識別結果である。種別スコアの欄は物体種別識別部2の識別処理時に、識別器などを用いて判定する場合に算出される種別らしさを示す種別スコアである。追跡物体IDの欄は、当該物体に対し、過去の時刻の物体と照合した結果同一物体と判定した場合に、個々の追跡物体に対しユニークに採番する追跡物体IDである。追跡物体種別の欄は、同一物体に対し、現在時刻の物体種別判定結果と、過去の物体種別判定結果から、総合的に物体種別を判定した結果の物体種別である。各欄のデータ項目の算出方法や格納されるタイミングなどの詳細は、以降、順に説明していく。   An example of data items stored in the object information storage unit 5 will be described. FIG. 10 is an explanatory diagram of each data item stored in the object information storage unit. The time when the object is detected is stored in the time column, and the ID of the object detected at time t is stored in the object ID column. This number is unique by the combination of the time and the object ID. The object area coordinate field stores the coordinates of the object area extracted by the object extracting unit 3 described later. The position where the object is detected in the image data frame is stored by the x and y coordinates of the start point and end point of the circumscribed rectangle, for example. The feature amount is an area for storing a feature amount value calculated during processing of the object identification unit 2 described later. As an example, three types of feature amounts 1 to 3 are shown, but the number of feature amounts is not limited to this. The type column is an identification result of the type of the object identified by the object type identification unit 2. The type score column is a type score that indicates the type-likeness that is calculated when a determination is made using a classifier or the like during the identification process of the object type identification unit 2. The tracked object ID column is a tracked object ID that is uniquely assigned to each tracked object when it is determined that the object is the same object as a result of matching with an object at a past time. The tracked object type column is the object type as a result of comprehensively determining the object type from the object type determination result at the current time and the past object type determination result for the same object. Details of the calculation method of the data items in each column and the timing of storage will be described in order hereinafter.

物体抽出部3は、映像入力部1から入力した画像データフレームから物体の領域を抽出する。映像から物体を抽出する方法については、ディジタル画像処理編集委員会監修「ディジタル画像処理」(CG−ARTS協会,2004年) に記載があるような、一般的な手法のいずれかを用いる。例えば画像間の差分をとることで移動領域を抽出する手法である背景差分、フレーム間差分、もしくは物体に関する特徴量を大量のサンプルから学習しておき、映像中から当該物体とされる特徴量の領域を物体領域として抽出する方法などがある。   The object extraction unit 3 extracts an object region from the image data frame input from the video input unit 1. As a method for extracting an object from an image, any one of general methods as described in “Digital Image Processing” (CG-ARTS Association, 2004) supervised by the Digital Image Processing Editorial Committee is used. For example, a feature value related to background difference, inter-frame difference, or object, which is a method for extracting a moving region by taking a difference between images, is learned from a large number of samples, There is a method of extracting an area as an object area.

本実施例では例として、映像中の連続した画像データフレーム間の差分を取ることで移動領域を抽出するフレーム間差分法を用いる場合を例に以降説明する。抽出した物体領域は、外接矩形の座標を算出し、図10の物体領域座標の欄に格納する。   In this embodiment, as an example, a case where an inter-frame difference method for extracting a moving region by taking a difference between successive image data frames in a video will be described as an example. For the extracted object area, the coordinates of the circumscribed rectangle are calculated and stored in the column of the object area coordinates in FIG.

物体種別識別部2は、物体抽出部3で抽出した物体領域から算出する一つまたは複数の特徴量から物体の種別を識別する。   The object type identification unit 2 identifies the type of the object from one or more feature amounts calculated from the object region extracted by the object extraction unit 3.

次に物体種別識別部2の詳細構成を説明する。図2は、物体種別識別部の機能ブロック図である。物体種別識別部2は、物体領域の物体種別の判定に用いる特徴量を算出する特徴量算出部21、物体種別を識別する基準を格納する識別基準格納部22、特徴量算出部21で算出した特徴量を識別基準格納部22に格納した識別基準と照合し、物体種別を判定する物体種別判定部23、当該物体を過去の時刻で検出した物体と同定するフレーム間追跡部24、追跡処理の結果、現在時刻の物体種別判定結果と、過去の物体種別判定結果から、総合的に物体の種別を判定する物体種別総合判定部25からなる。判定した物体種別等の情報は物体情報格納部5に格納する。   Next, a detailed configuration of the object type identification unit 2 will be described. FIG. 2 is a functional block diagram of the object type identification unit. The object type identification unit 2 is calculated by a feature amount calculation unit 21 that calculates a feature amount used to determine the object type of the object region, an identification reference storage unit 22 that stores a reference for identifying the object type, and a feature amount calculation unit 21. An object type determination unit 23 that compares the feature quantity with the identification standard stored in the identification reference storage unit 22 to determine the object type, an interframe tracking unit 24 that identifies the object detected at a past time, and a tracking process As a result, the object type comprehensive determination unit 25 that comprehensively determines the object type from the object type determination result at the current time and the past object type determination result. Information such as the determined object type is stored in the object information storage unit 5.

特徴量算出部21は、物体領域の物体種別の判定に用いる特徴量を算出する。物体種別の判定には、識別対象の物体の識別に有効な特徴量を一つまたは複数選定し、特徴量から得られる数値により物体種別を判定する。   The feature amount calculation unit 21 calculates a feature amount used for determining the object type of the object region. To determine the object type, one or more feature quantities effective for identifying the object to be identified are selected, and the object type is determined based on a numerical value obtained from the feature quantity.

本実施例おいては、「車」、「二輪車」、「人」の3種別の物体を識別する場合を例に説明する。これら3種類の物体を識別する特徴量として、水平エッジの数、円の数(楕円を含む)、現在の画像データフレームと前の時刻の画像データフレーム(以下では、前フレーム)とのマッチングの最大相関値を用いる。図3は特徴量算出部で算出する特徴量の説明図である。水平エッジは、画像中から検出される水平方向のエッジである。図3(a)に示すように車の屋根やウインドウの上端下端、バンパーなど、車に対して多く検出できる特徴量である。水平エッジは、例えば特開2008−299458号公報に記載があるように、画像に対し、水平方向のエッジが抽出できるようなカーネルを設定し、ソーベルフィルタを掛けることで算出できる。   In the present embodiment, a case where three types of objects “car”, “motorcycle”, and “person” are identified will be described as an example. Features that identify these three types of objects include the number of horizontal edges, the number of circles (including ellipses), and matching between the current image data frame and the image data frame at the previous time (hereinafter referred to as the previous frame). Use the maximum correlation value. FIG. 3 is an explanatory diagram of the feature amount calculated by the feature amount calculation unit. A horizontal edge is a horizontal edge detected from an image. As shown in FIG. 3 (a), it is a feature quantity that can be detected in a large amount with respect to the car, such as the roof of the car, the upper and lower ends of the window, and the bumper. For example, as described in Japanese Patent Application Laid-Open No. 2008-299458, the horizontal edge can be calculated by setting a kernel that can extract the edge in the horizontal direction and applying a Sobel filter to the image.

円や楕円は、図3(a)もしくは図3(b)に見られるように、車輪の円の部分で検出できる、車や二輪車に特有の特徴量である。これはたとえばディジタル画像処理編集委員会監修「ディジタル画像処理」(CG−ARTS協会,2004年)p213~p214に記載のように、ハフ変換等の手法で検出することができる。   A circle or an ellipse is a characteristic amount specific to a car or a two-wheeled vehicle that can be detected in the circle of the wheel as seen in FIG. 3 (a) or FIG. 3 (b). This can be detected by a technique such as Hough transform as described in “Digital Image Processing” (CG-ARTS Association, 2004) p213 to p214 supervised by the Digital Image Processing Editorial Board.

前フレームとのマッチングの相関値は、あるフレームで検出された物体の領域が、その前のフレームの物体領域と類似している度合いについての特徴量である。 図3(c)は、38時刻tの画像データフレーム38と時刻t+1の画像データフレームを示している。画像データフレーム38中の領域3aは、物体抽出部3で抽出した物体領域である。次の時刻であるt+1の画像データフレーム39中の領域3bは、領域3aの示す物体の時刻t+1における位置の領域である。領域3bは、例えば、領域3aをテンプレートとし、画像39中で最も画像特徴が類似した領域とマッチングをすることで求められる。マッチングの手法としてはディジタル画像処理編集委員会監修「ディジタル画像処理」(CG−ARTS協会,2004年) p202〜p204などを用いることができるが、ここで算出する
類似度もしくは相違度を特徴量とする。類似度は、物体が車や二輪車の場合には変化が小さいので値が大きいが、物体が人の場合には、足の動きにより値が小さくなることが一般に特徴づけられる。尚、以下の例は物体領域全体で類似度を算出しているが、足の動きの変化の特徴をより正確にとらえるために、物体領域の下半分に限定して類似度を算出するようにしてもよい。
The correlation value of matching with the previous frame is a feature amount regarding the degree to which the object area detected in a certain frame is similar to the object area of the previous frame. FIG. 3C shows an image data frame 38 at time t 38 and an image data frame at time t + 1. A region 3 a in the image data frame 38 is an object region extracted by the object extraction unit 3. A region 3b in the image data frame 39 at t + 1, which is the next time, is a region of the position at the time t + 1 of the object indicated by the region 3a. The region 3b is obtained, for example, by matching the region 3a with the region having the most similar image feature using the region 3a as a template. As a matching method, “Digital Image Processing” (CG-ARTS Association, 2004) supervised by the Digital Image Processing Editorial Board can be used, but the similarity or difference calculated here is used as the feature amount. To do. The similarity is large because the change is small when the object is a car or a two-wheeled vehicle, but the similarity is generally characterized by a small value when the object is a person. In the following example, the similarity is calculated for the entire object region, but in order to more accurately capture the characteristics of changes in foot movement, the similarity is calculated only for the lower half of the object region. May be.

特徴量算出部21の処理を説明する。図4は車の画像に対し特徴量算出部21で抽出した特徴量の説明図である。時刻tの車の画像に対し特徴量算出部21で抽出した特徴量の例である。画像41は物体抽出部3により物体aの物体領域46が抽出された結果の画像、画像42は水平エッジが特徴量として抽出された結果の画像である。画像43は楕円を特徴量として抽出した結果の画像であり、画像44と画像45はそれぞれ時刻t-1と時刻tの画像であり、時刻tで抽出した物体領域4eをテンプレートとして、前の時刻t-1の画像44とマッチングを取った結果の領域が物体領域4dである。特徴量算出部21は、以上の処理で抽出した特徴量を数値化し、物体情報格納部5に格納する。図7は物体情報格納部に格納された情報の例を示す図である。特徴量1は「水平エッジの数」、特徴量2は「円の数」、特徴量3は「前フレームとのマッチング結果の類似度」とする。物体aの特徴量は、図4の水平エッジ特徴量抽出結果の画像42から、水平エッジ47、48、49、4aが検出され、特徴量1の欄には数値「4」が格納される。特徴量2の欄には、楕円4b、4cが検出され数値「2」が格納される。特徴量3の欄には「前フレームとのマッチング結果の類似度」が格納され、図4に示す例では、時刻tの画像45中の物体領域4eをテンプレートとして、時刻t-1の画像44における物体領域4dがマッチングされる。物体aの場合、画像44及び画像45との間での変化が小さいため、物体領域4eと物体領域4dとの類似度0.96が格納される。   The process of the feature quantity calculation unit 21 will be described. FIG. 4 is an explanatory diagram of the feature amount extracted by the feature amount calculation unit 21 with respect to the image of the car. It is an example of the feature-value extracted by the feature-value calculation part 21 with respect to the image of the car of the time t. An image 41 is an image obtained as a result of extracting the object region 46 of the object a by the object extracting unit 3, and an image 42 is an image obtained as a result of extracting a horizontal edge as a feature amount. The image 43 is an image obtained as a result of extracting an ellipse as a feature amount, the images 44 and 45 are images at time t-1 and time t, respectively, and the object region 4e extracted at the time t is used as a template, and the previous time The region obtained as a result of matching with the image 44 of t-1 is the object region 4d. The feature amount calculation unit 21 digitizes the feature amount extracted by the above processing and stores it in the object information storage unit 5. FIG. 7 is a diagram illustrating an example of information stored in the object information storage unit. Feature quantity 1 is “number of horizontal edges”, feature quantity 2 is “number of circles”, and feature quantity 3 is “similarity of matching result with previous frame”. As the feature amount of the object a, horizontal edges 47, 48, 49, and 4a are detected from the image 42 of the horizontal edge feature amount extraction result of FIG. 4, and a numerical value “4” is stored in the feature amount 1 column. In the feature 2 column, ellipses 4b and 4c are detected and a numerical value “2” is stored. In the feature amount 3 column, “similarity of matching result with previous frame” is stored, and in the example shown in FIG. 4, an image 44 at time t−1 using the object region 4 e in the image 45 at time t as a template. The object region 4d at is matched. In the case of the object a, since the change between the image 44 and the image 45 is small, the similarity 0.96 between the object region 4e and the object region 4d is stored.

図5は自転車の画像に対し特徴量算出部で抽出した特徴量の説明図である。画像51は物体抽出部3により物体bの物体領域56が抽出された結果の画像、画像52は特徴量算出部21により水平エッジを特徴量として抽出した結果の画像である。画像53は特徴量算出部21により楕円を特徴量として抽出した結果の画像であり、画像54と画像55はそれぞれ時刻t-1と時刻tの画像であり、時刻tで抽出した物体領域5aをテンプレートとして、前の時刻t-1の画像54とマッチングを取った結果の領域が物体領域59である。物体bについて図7に示す物体情報格納部に格納される値を説明する。図5において水平エッジを特徴量として抽出した結果の画像52から、物体領域57中では水平エッジが検出されないため特徴量1の欄には「0」が格納される。特徴量2の「円の数」は図5の円特徴量抽出結果の画像53中の物体領域58中から、円5c、5dが検出されたため特徴量2の欄には「2」が格納される。特徴量3の「前フレームとのマッチング結果の類似度」は、物体領域5aをテンプレートとして画像54の上でマッチングをした結果、最も類似度の高い領域との類似度である。物体bの場合、画像54と画像55間での変化は小さいが、足の動き等で多少変化があるため、類似度0.90が算出され、特徴量3の欄に格納される。   FIG. 5 is an explanatory diagram of the feature amount extracted by the feature amount calculation unit for the bicycle image. The image 51 is an image obtained as a result of extracting the object region 56 of the object b by the object extracting unit 3, and the image 52 is an image obtained as a result of extracting the horizontal edge as a feature amount by the feature amount calculating unit 21. An image 53 is an image obtained as a result of extracting the ellipse as a feature amount by the feature amount calculation unit 21, and an image 54 and an image 55 are images at time t-1 and time t, respectively, and the object region 5a extracted at time t is The region obtained as a result of matching with the image 54 at the previous time t−1 as the template is the object region 59. A value stored in the object information storage unit illustrated in FIG. 7 for the object b will be described. In FIG. 5, since the horizontal edge is not detected in the object region 57 from the image 52 obtained by extracting the horizontal edge as the feature amount, “0” is stored in the feature amount 1 column. As the “number of circles” of the feature amount 2, “2” is stored in the feature amount 2 column because the circles 5 c and 5 d are detected from the object region 58 in the image 53 of the circle feature amount extraction result of FIG. The The “similarity of the matching result with the previous frame” of the feature amount 3 is the similarity with the region having the highest similarity as a result of matching on the image 54 using the object region 5a as a template. In the case of the object b, the change between the image 54 and the image 55 is small, but since there is some change due to the movement of the foot or the like, a similarity of 0.90 is calculated and stored in the feature amount 3 column.

図6は人の画像に対し特徴量算出部で抽出した特徴量の説明図である。画像61は物体抽出部3により物体cの物体領域66が抽出された結果の画像である。画像62は特徴量算出部21により水平エッジを特徴量として抽出した結果の画像であり、画像63は特徴量算出部21により楕円を特徴量として抽出した結果の画像であり、画像64と画像65はそれぞれ時刻t-1と時刻tの画像である。時刻tの画像65において抽出した物体領域6aをテンプレートとして、前の時刻t-1の画像64とマッチングを取った結果の領域が物体領域69である。物体cについて図7に示す物体情報格納部5に格納される値について説明する。物体cの特徴量は、図6の水平エッジ特徴量抽出結果の画像62から、物体領域67には水平エッジが検出されないため特徴量1の欄には「0」が格納される。図6の円特徴量抽出結果の画像63中の物体領域68には円が検出されないため特徴量2の欄には「0」が格納される。画像65中の物体領域6aをテンプレートとして画像64上でマッチングした結果、物体領域6aと物体領域69との類似度0.8が算出され、図7中の特徴量3の欄に「0.8」が格納される。これは物体領域6aと物体領域69との間で足の動きが大きいため、類似度が0.8と低い値と練っている。   FIG. 6 is an explanatory diagram of a feature amount extracted by a feature amount calculation unit for a human image. The image 61 is an image obtained as a result of extracting the object region 66 of the object c by the object extracting unit 3. The image 62 is an image obtained as a result of extracting the horizontal edge as a feature value by the feature value calculating unit 21, and the image 63 is an image obtained as a result of extracting the ellipse as the feature value by the feature value calculating unit 21. Are images at time t-1 and time t, respectively. An object region 69 is a region obtained as a result of matching with the previous image 64 at time t-1, using the object region 6a extracted from the image 65 at time t as a template. The values stored in the object information storage unit 5 shown in FIG. 7 for the object c will be described. As the feature amount of the object c, “0” is stored in the feature amount 1 column because no horizontal edge is detected in the object region 67 from the image 62 of the horizontal edge feature amount extraction result of FIG. Since no circle is detected in the object region 68 in the image 63 of the circle feature quantity extraction result in FIG. 6, “0” is stored in the feature quantity 2 column. As a result of matching on the image 64 using the object region 6a in the image 65 as a template, the similarity 0.8 between the object region 6a and the object region 69 is calculated, and “0.8” is stored in the column of the feature amount 3 in FIG. The Since the movement of the foot is large between the object region 6a and the object region 69, the similarity is determined as a low value of 0.8.

以上のように、特徴量算出部21は、物体抽出部3で抽出した物体領域ごとに特徴量を算出し、その値を物体情報格納部5に格納する。   As described above, the feature amount calculation unit 21 calculates a feature amount for each object region extracted by the object extraction unit 3 and stores the value in the object information storage unit 5.

本実施例では、「人」、「二輪車(自転車)」、「車」の識別に3種類の特徴量を用いる場合を説明したが、これに限られるものではない。他の特徴量として、移動方向の時系列の変動がる。画像データフレーム間の差分により検出される移動方向は、一般的に「二輪車」の場合ほぼ一定の方向となるのに対し、「人」の場合にはその移動方向は上下左右さまざまな方向となる。従って、移動方向の時系列の変動を特徴とすれば「人」と「二輪車」の識別に有効となる。なお、移動方向の時系列の変動の検出には、例えば連続した2フレーム間でオプティカルフローを算出し、物体領域内で発生したオプティカルフローの方向の平均値を算出することで求めることができる。オプティカルフローは、ディジタル画像処理編集委員会監修「ディジタル画像処理」(CG−ARTS協会,2004年) p243~p245に記載の方法を用いて求めることができる。この処理を時系列で連続して実施し、動き方向の変化の値、もしくは動き方向の分散を算出し、この値が一定しきい値以上であれば「人」、一定しきい値以下であれば「二輪車」として識別することができる。   In the present embodiment, the case where three types of feature quantities are used for identification of “person”, “two-wheeled vehicle (bicycle)”, and “car” has been described, but the present invention is not limited to this. Another feature amount is time-series fluctuation in the moving direction. The movement direction detected by the difference between image data frames is generally a constant direction in the case of a “two-wheeled vehicle”, whereas in the case of a “person”, the movement direction is various in the vertical and horizontal directions. . Therefore, if it is characterized by time-series fluctuations in the moving direction, it is effective for distinguishing between “people” and “two-wheeled vehicles”. Note that time-series fluctuations in the moving direction can be detected by, for example, calculating an optical flow between two consecutive frames and calculating an average value of the direction of the optical flow generated in the object region. The optical flow can be obtained by using the method described in “Digital Image Processing” (CG-ARTS Association, 2004), p243 to p245, supervised by the Digital Image Processing Editing Committee. This process is continuously performed in time series, and the value of the change in the direction of movement or the variance in the direction of movement is calculated. Can be identified as a “two-wheeled vehicle”.

次に、図2の識別基準格納部22につき説明する。識別基準格納部22は、物体領域の特徴量から、その物体の種別を判定するための基準を格納する。識別基準の例を図8に示す。「車」、「二輪車」、「人」のそれぞれにつき特徴量1(水平エッジ数)、特徴量2(円の数)、特徴量3(前フレームとのマッチング結果の類似度)のそれぞれの値のしきい値を設定しており、例えば「車」は特徴量1が2より大きく、特徴量2が1以上、特徴量3が0.9より大きいという、各基準を満たしたものが車として判定されることになる。これらのしきい値は例えば多くの画像サンプルから特徴量を求めて帰納的に求めるなどして設定する。   Next, the identification reference storage unit 22 in FIG. 2 will be described. The identification reference storage unit 22 stores a reference for determining the type of the object from the feature quantity of the object region. An example of identification criteria is shown in FIG. Value of feature value 1 (number of horizontal edges), feature value 2 (number of circles), feature value 3 (similarity of matching result with previous frame) for each of "car", "motorcycle", and "person" For example, “car” is judged as a car that satisfies each criterion that feature quantity 1 is greater than 2, feature quantity 2 is 1 or more, and feature quantity 3 is greater than 0.9. Will be. These threshold values are set by, for example, obtaining feature values from many image samples and obtaining them inductively.

次に、図2の物体種別判定部23について説明する。 物体種別判定部23は、識別基準格納部22に格納された識別基準に基づき、特徴量算出部21により抽出した特徴量から、物体種別を判定する。   Next, the object type determination unit 23 in FIG. 2 will be described. The object type determination unit 23 determines the object type from the feature amount extracted by the feature amount calculation unit 21 based on the identification reference stored in the identification reference storage unit 22.

図9は、物体種別判定部による処理フロー図である。   FIG. 9 is a process flow diagram of the object type determination unit.

物体種別判定部23は、物体抽出部3により抽出した物体領域のうち、i番目の物体領域について、特徴量算出部21で抽出した特徴量を物体情報格納部5から読みだす(ステップs91)。   The object type determination unit 23 reads the feature amount extracted by the feature amount calculation unit 21 from the object information storage unit 5 for the i-th object region among the object regions extracted by the object extraction unit 3 (step s91).

物体iの特徴量が、識別基準格納部22に格納されている「車」の識別基準を満たすか否かを判定する(ステップs92)。物体iの特徴量が「車」の識別基準を満たせば「車」と判定し、図10に示す種別の欄に「車」を格納しステップs99へ進む(ステップs93)。満たさなければ次のステップs94に進む。   It is determined whether or not the feature quantity of the object i satisfies the “car” identification criterion stored in the identification criterion storage unit 22 (step s92). If the feature amount of the object i satisfies the identification criterion of “car”, it is determined as “car”, “car” is stored in the type column shown in FIG. 10, and the process proceeds to step s99 (step s93). If not, the process proceeds to the next step s94.

物体iの特徴量が、識別基準格納部2に格納されている「二輪車」の識別基準を満たすか否かを判定する(ステップs94)。物体iの特徴量が「二輪車」の識別基準を満たせば「二輪車」と判定し、図10に示す種別の欄に「二輪車」を記録しステップs99へ進む(ステップs95)。満たさなければ次のステップs96に進む。   It is determined whether or not the feature amount of the object i satisfies the “two-wheeled vehicle” identification criterion stored in the identification criterion storage unit 2 (step s94). If the feature quantity of the object i satisfies the identification criterion of “two-wheeled vehicle”, it is determined as “two-wheeled vehicle”, “two-wheeled vehicle” is recorded in the type column shown in FIG. 10, and the process proceeds to step s99 (step s95). If not, the process proceeds to the next step s96.

物体iの特徴量が、識別基準格納部22に格納されている「人」の識別基準を満たすか否かを判定する(ステップs96)。物体iの特徴量が「人」の識別基準を満たせば「人」と判定し、図10に種別の欄に「人」を記録しステップs98に進む(ステップs97)。満たさなければステップs98に進む。   It is determined whether or not the feature amount of the object i satisfies the “person” identification criterion stored in the identification criterion storage unit 22 (step s96). If the feature quantity of the object i satisfies the identification criterion of “person”, it is determined as “person”, “person” is recorded in the type column in FIG. 10, and the process proceeds to step s98 (step s97). If not, the process proceeds to step s98.

物体iの特徴量が、識別基準格納部22に格納されている「車」「二輪車」「人」の識別基準のいずれも満たさない場合に、物体iの種別を「不明」としs99の処理に進む。   When the feature quantity of the object i does not satisfy any of the identification criteria of “car”, “two-wheeled vehicle”, and “person” stored in the identification criterion storage unit 22, the type of the object i is set to “unknown” for the processing of s99. move on.

検出された全ての物体iについての処理が終了したかどうかを判定する(ステップs99)。終了したと判定した場合は物体種別判定部23の処理を終了し、終了していないと判定した場合はステップs9aに進む。   It is determined whether or not the processing for all detected objects i has been completed (step s99). If it is determined that the process has been completed, the process of the object type determination unit 23 is terminated. If it is determined that the process has not been completed, the process proceeds to step s9a.

物体のカウンタiを1進め、次の物体i+1に対しての処理をステップs91に戻り上記の処理を繰り返し実行する。   The object counter i is incremented by 1, and the process for the next object i + 1 is returned to step s91 to repeat the above process.

尚、上記ステップのうちステップs92、スッテプs94、ステップs96の判定の内容は、本実施例が、物体種別を「車」「二輪車」「人」の3種類に識別する例を用いていることに依存しており、識別の分類の決め方によっては必ずしもこれに限らない。   Of the above steps, the contents of the determinations in step s92, step s94, and step s96 are based on the example in which the present embodiment uses three types of object types, “car”, “motorcycle”, and “person”. Depending on how to determine the classification of identification, it is not necessarily limited to this.

また、本実施例では、識別基準を図8に示す、特徴量毎のしきい値で判定する方法を用いたが、必ずしもこれに限らない。例えば、識別するそれぞれの種別の対象につき、多数のサンプル画像をあらかじめ準備し、学習により識別器を作成しておき、物体種別判定部23では、物体の特徴量を識別器に入力することでその出力結果により種別を判定する方法とることができる。識別器の種類としては判別分析、SVM及びニューラルネットワークなど、これらに類似する手法を用いることができる。この場合、識別器の出力として、その物体種別らしさの度合いを示すスコアを算出することができるため、これも物体情報として格納しておく。   Further, in the present embodiment, the identification criterion shown in FIG. 8 is used for the determination based on the threshold value for each feature amount. However, the present invention is not limited to this. For example, for each type of object to be identified, a large number of sample images are prepared in advance, a classifier is created by learning, and the object type determination unit 23 inputs the feature quantity of the object to the classifier. A method of determining the type based on the output result can be used. As the type of classifier, methods similar to these, such as discriminant analysis, SVM, and neural network, can be used. In this case, as an output of the discriminator, a score indicating the degree of uniqueness of the object type can be calculated, and this is also stored as object information.

次に、図10に示す種別スコアについて算出方法と種別スコアを用いた物体種別の識別別について説明する。図11は物体情報格納部に格納された情報の例を示す図である。ここでは、物体種別として「人」と「二輪車」の2種類を識別する場合を例にとる。物体抽出手部3で抽出した複数の物体領域のそれぞれについて、特徴量算出部21で抽出した特徴量の値、それらの特徴量から算出した種別スコア、種別スコアから判定した物体種別を示したものである。   Next, a calculation method for the type score shown in FIG. 10 and object type identification using the type score will be described. FIG. 11 is a diagram illustrating an example of information stored in the object information storage unit. Here, a case where two types of “person” and “motorcycle” are identified as object types is taken as an example. For each of a plurality of object regions extracted by the object extraction hand unit 3, the value of the feature amount extracted by the feature amount calculation unit 21, the type score calculated from the feature amount, and the object type determined from the type score are shown. It is.

なお、特徴量1(水平エッジの数)、特徴量2(円の数)、特徴量3(類似度)の内容は図3で説明したもの同様である。これらの特徴量から「人」と「二輪車」を識別するため、この例では判別分析により作成した判別関数を用いて識別するとする。判別分析は、複数の変数によって、分類の変数を予想する手法である。手法の詳細は例えば永田靖、棟近雅彦著「多変量解析法入門」((株)サイエンス社、2001年)のp99-p118に記載がある。判別のためには、予め、物体種別が既知の物体領域の特徴量のデータを多数用いて上記文献に記載の方法で判別関数を作成する。判別関数により算出する分類の変数が、図11の例での種別スコアで、種別スコアを一定のしきい値で分割することで種別を判定することができる。   The contents of feature quantity 1 (number of horizontal edges), feature quantity 2 (number of circles), and feature quantity 3 (similarity) are the same as those described in FIG. In order to identify “person” and “two-wheeled vehicle” from these feature quantities, in this example, it is assumed that they are identified using a discriminant function created by discriminant analysis. Discriminant analysis is a method for predicting a classification variable by a plurality of variables. The details of the method are described in, for example, p99-p118 in “Introduction to Multivariate Analysis” by Satoshi Nagata and Masahiko Munechika (Science Inc., 2001). For discrimination, a discrimination function is created in advance by the method described in the above document using a large amount of feature amount data of an object region whose object type is known. The classification variable calculated by the discriminant function is the type score in the example of FIG. 11, and the type can be determined by dividing the type score by a certain threshold.

図11に示す、特徴量1、特徴量2、特徴量3の変数により作成した判別関数を以下の式1とする。   The discriminant function created with the variables of feature quantity 1, feature quantity 2 and feature quantity 3 shown in FIG.

Figure 2015032133
Figure 2015032133

物体領域ごとに、特徴量の値を式1の判別関数に代入して種別スコアを算出する。特徴量1の値をX1に、特徴量2の値をX2に、特徴量3の値をX3に代入することで算出した値を種別スコアの欄に示している。   For each object region, the type score is calculated by substituting the feature value into the discriminant function of Equation 1. The value calculated by substituting the value of feature amount 1 into X1, the value of feature amount 2 into X2, and the value of feature amount 3 into X3 is shown in the type score column.

図12は種別スコアを用いた判定方法の説明図である。種別スコアを縦軸にとりプロットしたグラフを示す。図12中、破線351は判別関数の判別しきい値であり、しきい値より種別スコアが大きい場合を「二輪車」、しきい値より種別スコアが小さい場合を「人」と判定する。しきい値により、物体a及び物体bは「二輪車」、物体c及び物体dは「人」と判定し、図11の種別の欄に種別判定結果が格納される。   FIG. 12 is an explanatory diagram of a determination method using a type score. The graph which plotted the type score on the vertical axis | shaft is shown. In FIG. 12, a broken line 351 is a discrimination threshold value of the discriminant function. When the classification score is larger than the threshold value, “two-wheeled vehicle” is determined, and when the classification score is smaller than the threshold value, “person” is determined. Based on the threshold value, the object a and the object b are determined to be “two-wheeled vehicle”, the object c and the object d are determined to be “person”, and the type determination result is stored in the type column of FIG.

以上の種別スコアの算出による判別方法は、物体領域の1つまたは複数の特徴量から、特定の種別らしさの値を求める方法である。判定により「二輪車」「人」等の種別も判定できる上に、それぞれの種別らしさの程度も種別スコアとして定量的に求めることができるため、判定結果を活用する場合の情報量が多い効果がある。   The discrimination method based on the above-described type score calculation is a method for obtaining a value of a particular type from one or a plurality of feature amounts of an object region. The type of “motorcycle”, “person”, etc. can be determined by the determination, and the degree of individuality can be quantitatively determined as the type score, which has the effect of increasing the amount of information when using the determination result .

以上が種別スコアの算出方法と、種別スコアを用いた識別方法の具体例である。   The above is a specific example of the classification score calculation method and the identification method using the classification score.

物体種別判定部23の処理により判定された物体種別、種別スコアは、図10に示される 物体情報格納部5の「種別」及び「種別スコア」の欄にそれぞれ格納する。   The object type and type score determined by the processing of the object type determination unit 23 are stored in the “type” and “type score” fields of the object information storage unit 5 shown in FIG.

次に、図2のフレーム間追跡部24につき説明する。フレーム間追跡部24は、現在時刻tの画像データフレームで物体抽出部3により抽出した物体が、前の画像データフレームに存在したか否かを追跡する。これは、物体情報格納部5から、直近の時刻の画像データフレームの物体情報を順に参照し、その類似度により同一物体か否かを判定する。   Next, the inter-frame tracking unit 24 in FIG. 2 will be described. The inter-frame tracking unit 24 tracks whether or not the object extracted by the object extracting unit 3 in the image data frame at the current time t exists in the previous image data frame. This refers sequentially to the object information of the image data frame at the latest time from the object information storage unit 5, and determines whether or not they are the same object based on the similarity.

判定する方法としては、例えば、現在時刻tと時刻t-1の物体情報を比較し、物体領域情報から、大きさの変化が小さく位置が近い物体を同一物体として照合する。具体的には、物体情報格納部5に格納される「物体領域」の情報から、(1)物体領域の面積の差がしきい値以下、(2)物体領域の距離がしきい値以下、の条件を満たす場合に類似度が高いとし同一物体として判定できる。このように、フレーム間追跡手段24で、異なる時刻間で同一物体と判定された物体には、同一のIDを付与する。   As a determination method, for example, the object information at the current time t and the time t−1 is compared, and objects with small changes in size and close positions are compared as the same object from the object region information. Specifically, from the information of the “object region” stored in the object information storage unit 5, (1) the difference in the area of the object region is less than or equal to the threshold, (2) the distance of the object region is less than or equal to the threshold, When the above condition is satisfied, it can be determined that the similarity is high and the objects are the same. In this way, the same ID is assigned to the object determined by the inter-frame tracking means 24 as the same object at different times.

図13はフレーム間追跡部による処理を説明する図である。画像121は時刻t+n-1の画像であり、物体領域122が物体抽出部3により抽出されている。この物体領域122は左上座標を(300,122)、右下座標を(380,284)、矩形中心を(340、203)とする面積12960の領域とする。これに対し、画像123は次の時刻t+nの画像であり、物体領域124が抽出されている。この物体領域124は左上座標を(308,124)、右下座標を(389,285)、矩形中心を(348,204)とする面積13041の領域とする。例えばしきい値を下記のように設定すると、この例では条件を二つとも満たすため、物体領域122と物体領域124は同一物体と判定する。 (1)面積の差の条件しきい値:現在の面積から現在面積の1/2の範囲 (2)領域間の距離:物体領域間の距離<100 しきい値は、物体の解像度などの情報から適切に設定する。   FIG. 13 is a diagram for explaining processing by the inter-frame tracking unit. The image 121 is an image at time t + n−1, and the object region 122 is extracted by the object extraction unit 3. The object area 122 is an area having an area of 12960, with the upper left coordinates being (300, 122), the lower right coordinates being (380, 284), and the rectangular center being (340, 203). On the other hand, the image 123 is an image at the next time t + n, and the object region 124 is extracted. The object area 124 is an area having an area 13041 in which the upper left coordinates are (308,124), the lower right coordinates are (389,285), and the center of the rectangle is (348,204). For example, if the threshold value is set as follows, both the conditions are satisfied in this example, and therefore the object region 122 and the object region 124 are determined to be the same object. (1) Area difference condition threshold: Range from current area to half of current area (2) Distance between regions: Distance between object regions <100 Threshold is information such as object resolution Set appropriately.

尚、この例では物体情報格納部5から得られる物体領域の情報のみから照合する例を用いたが、物体領域の画像間マッチングをして得られた相関値のしきい値判定により判断する方法もある。   In this example, an example in which only the object region information obtained from the object information storage unit 5 is collated is used. However, a method of determining by threshold value determination of the correlation value obtained by matching the object region between images. There is also.

図14は、フレーム間追跡処理後の物体情報格納部の状態を示す図である。図13において説明したように物体領域122及び物体領域124は同一物体であると判定されたことにより、それぞれ時刻t+n-1における追跡物体ID、時刻t+nにおける追跡物体IDには同一のID「2」が格納される。   FIG. 14 is a diagram illustrating a state of the object information storage unit after the inter-frame tracking process. As described in FIG. 13, since the object region 122 and the object region 124 are determined to be the same object, the tracking object ID at the time t + n−1 and the tracking object ID at the time t + n respectively have the same ID “ 2 "is stored.

次に、物体種別総合判定部25につき説明する。物体種別総合判定部25は、同一の追跡物体に対し仮にフレーム間で異なる物体種別判定がなされた場合でも、総合的にいずれの種別であるかの判定を可能とするものである。   Next, the object type comprehensive determination unit 25 will be described. The object type comprehensive determination unit 25 is capable of comprehensively determining which type is the same even when different object type determinations are made between frames for the same tracking object.

物体種別総合判定部25については、いくつかの実現方法が考えられる。一番目の実現方法としては、複数の画像データフレームそれぞれの種別判定結果を集計し、最も多い種別をその追跡物体の種別とする方法である。この場合は、同一の追跡物体の追跡の最終フレームでの総合判定結果が、その追跡物体の種別となる。   For the object type comprehensive determination unit 25, several realization methods are conceivable. As a first realization method, the type determination results of each of a plurality of image data frames are totaled, and the largest type is set as the type of the tracked object. In this case, the comprehensive determination result in the last frame for tracking the same tracking object is the type of the tracking object.

二番目の実現方法としては、特定の種別の判定が連続し、予め設定したしきい値回数を超えた場合に、その物体の種別として割り当てる方法である。この方法によれば、しきい値を超えた時点で追跡物体の種別を判定することができる。この方法を用いる場合は、しきい値を超えた時点で、図14に示す追跡物体種別の欄に判定した物体種別を格納し、以降追跡が連続しても物体種別を変更しないものとする。   The second realization method is a method of assigning the type of the object when the determination of the specific type continues and the preset threshold count is exceeded. According to this method, the type of the tracking object can be determined when the threshold value is exceeded. When this method is used, the determined object type is stored in the tracked object type field shown in FIG. 14 when the threshold value is exceeded, and the object type is not changed even if the tracking continues thereafter.

三番目の実現方法としては、物体種別判定部23で種別スコアを算出する場合に、同一物体の種別スコアの平均値に基づいて物体種別判定する方法である。この方法では、各フレーム毎に、当該フレーム以前の同一物体のスコアを累積し、平均を取った値を用いて識別器で種別判定し、その判定結果の物体種別を図14の追跡物体種別欄に格納する。このため、一番目の実現方法同様、同一の追跡物体の追跡の最終フレームでの総合判定結果が、その追跡物体の種別となる。   As a third realization method, when the type score is calculated by the object type determination unit 23, the object type is determined based on the average value of the type scores of the same object. In this method, for each frame, the score of the same object before that frame is accumulated, and the classifier is determined using the averaged value. The object type of the determination result is displayed in the tracking object type field of FIG. To store. For this reason, as in the first implementation method, the comprehensive determination result in the last frame of tracking of the same tracking object is the type of the tracking object.

以上、物体種別総合判定部25の実現方法について述べたが、いずれの方法を取っても、各追跡物体の最終的な物体種別は、追跡物体IDが同一のレコードのうち最も新しい、追跡順でいうと最終のレコードの追跡物体種別に格納されている種別が当該追跡物体の種別とする。   As described above, the implementation method of the object type comprehensive determination unit 25 has been described. Regardless of which method is used, the final object type of each tracking object is the newest of the records with the same tracking object ID, in the tracking order. In other words, the type stored in the tracking object type of the last record is the type of the tracking object.

次に、物体種別確信度算出部4の処理につき説明する。物体種別確信度算出部4は、物体領域がどの程度正確に抽出できているかを、物体領域の特徴量を用いて算出する。すなわち抽出された物体領域の確からしさを物体種別確信度として算出するものである。   Next, processing of the object type certainty factor calculation unit 4 will be described. The object type certainty factor calculation unit 4 calculates how accurately the object region is extracted using the feature amount of the object region. That is, the probability of the extracted object region is calculated as the object type certainty factor.

すでに述べた物体種別識別部2では、物体抽出部3で抽出した物体領域を、その物体の領域の全体が抽出されている前提で、物体領域の特徴量を抽出し、物体種別を判定する。このため、物体抽出部3で物体領域が適切に抽出できなかった場合には、その種別の物体の特徴部分が抽出できないことが原因で、物体種別判定が正しくされないことがある。   In the object type identification unit 2 already described, the feature amount of the object region is extracted from the object region extracted by the object extraction unit 3 on the assumption that the entire object region is extracted, and the object type is determined. For this reason, if the object region cannot be extracted properly by the object extraction unit 3, the object type determination may not be performed correctly because the feature portion of the object of that type cannot be extracted.

図15は物体が移動中に遮蔽物に隠れる状態を示す図である。画像141は時刻t、画像144は時刻t+1の連続した時刻の画像データフレームであり、それぞれの画像中で、「人」である物体は遮蔽物である植え込み142の向こう側を歩いているため、物体領域としては、足の部分が隠れて胴体から上の部分のそれぞれ物体領域143、物体領域145しか見えていない。この場合、「人」を識別する特徴である足の動きが隠れるため、物体領域143と物体領域145のマッチング結果の類似度は足が正確に見えている場合より高くなると考えられる。その結果、物体種別識別部2の処理により、この物体を「二輪車」と誤判定する場合が生じる。   FIG. 15 is a diagram illustrating a state where an object is hidden by a shield during movement. Image 141 is an image data frame at time t, and image 144 is a continuous time of time t + 1. In each image, an object “person” is walking beyond the implantation 142 that is a shield. Therefore, as the object region, only the object region 143 and the object region 145 of the upper part from the trunk are visible because the foot portion is hidden. In this case, since the movement of the foot, which is a feature for identifying “person”, is hidden, the similarity of the matching result between the object region 143 and the object region 145 is considered to be higher than when the foot is seen accurately. As a result, the object type identification unit 2 may erroneously determine this object as a “two-wheeled vehicle”.

上記のように、物体領域が正確に抽出できていない場合には、その物体領域の特徴量から物体種別を判定した結果の信頼度が下がる傾向にある。物体種別判定結果の信頼度を求めるため、物体領域を正確に抽出できている程度を、物体抽出部3で抽出した物体領域の情報から算出するのが物体種別確信度算出部4である。   As described above, when the object region cannot be accurately extracted, the reliability of the result of determining the object type from the feature amount of the object region tends to decrease. In order to obtain the reliability of the object type determination result, the object type certainty factor calculation unit 4 calculates the degree to which the object region can be accurately extracted from the information of the object region extracted by the object extraction unit 3.

確信度が高い物体領域とは、物体種別判定に使う特徴量が十分取得できる条件であるため、物体種別確信度は、物体領域が画面からはみ出していないかどうか、物体領域の面積が十分大きいかどうか、物体領域が遮蔽物に遮蔽されている可能性があるかどうか、等を物体領域の情報から判断する。具体的には、物体種別確信度は、下記の式2により算出する。   Since the object area with high confidence is a condition that allows obtaining sufficient features for object type determination, the object type confidence is whether or not the object area protrudes from the screen, and whether the area of the object area is sufficiently large. It is determined from the information on the object region whether the object region is likely to be shielded by the shield. Specifically, the object type certainty factor is calculated by the following equation 2.

物体種別確信度=要因1係数×要因2係数×要因3係数×要因4係数 … 式2
確信度が低くなる要因と考えられる1つまたは複数の要因を、それぞれ物体領域の特徴量から判定し、確信度が低くなる場合には係数を小さく、確信度が高くなる場合には係数を大きくなるように算出する。それらの積により総合的に物体領域が正確に抽出できている度合いを算出する。
Object type certainty factor = factor 1 coefficient x factor 2 coefficient x factor 3 coefficient x factor 4 coefficient… Formula 2
One or more factors that are considered to be factors that cause a low degree of confidence are determined from the feature quantities of the object area. If the confidence level is low, the coefficient is small, and if the confidence level is high, the coefficient is high. Calculate as follows. The degree to which the object region can be accurately extracted comprehensively is calculated by the product of them.

確信度を算出する要因となる物体領域の特徴量として以下のものがある。   There are the following as feature quantities of the object region that cause the certainty factor to be calculated.

要因1は、物体領域の大きさの特徴量である。物体が画像中で遠方にあるなどして、抽出される物体領域が小さい場合、物体領域内の画像に特徴が表れにくい。
このため、物体抽出部3で抽出した物体領域の大きさにより、要因1の係数を以下の式3のように設定する。
Factor 1 is the feature quantity of the size of the object region. When the extracted object region is small, for example, when the object is far away in the image, it is difficult for features to appear in the image in the object region.
For this reason, the coefficient of factor 1 is set as shown in Equation 3 below according to the size of the object region extracted by the object extraction unit 3.

Figure 2015032133
Figure 2015032133

物体領域の面積が所定のしきい値より大であれば係数は1.0とし、それ以下の場合は大きさに比例して小さくし、物体領域が小さくなるほど係数が小さくなるようにする。Area_thはそれ以上であれば物体の特徴量が取得できる大きさを、解像度を考慮して決定する。   If the area of the object region is larger than a predetermined threshold value, the coefficient is set to 1.0, and if it is less than that, the coefficient is decreased in proportion to the size, and the coefficient is decreased as the object region becomes smaller. If Area_th is greater than this, the size with which the feature amount of the object can be acquired is determined in consideration of the resolution.

要因2は、物体領域が画面データフレームの端部に接しているか否かの特徴量である。図16は物体領域が画像データフレームの端部に接する状態を表す図である。画像データフレーム151内で物体領域152が画面左端に接している。この場合、物体領域152内の物体の一部のみが物体領域として抽出されている可能性がある。画像処理技術では物体の全体が見えているか否かを判断するのは困難である。そこで、物体領域が画面端に接している場合には物体領域の一部が隠れている可能性が高いとし、要因2の係数を下げるとする。要因2の係数を以下の式4のように設定する。   Factor 2 is a feature amount indicating whether or not the object region is in contact with the end of the screen data frame. FIG. 16 is a diagram illustrating a state where the object region is in contact with the end of the image data frame. In the image data frame 151, the object region 152 is in contact with the left end of the screen. In this case, only a part of the object in the object region 152 may be extracted as the object region. It is difficult to determine whether or not the entire object is visible with image processing technology. Therefore, when the object region is in contact with the screen edge, it is highly likely that a part of the object region is hidden, and the factor 2 factor is decreased. The factor 2 factor is set as shown in Equation 4 below.

Figure 2015032133
Figure 2015032133

要因3として、物体領域の縦横比の変化の特徴量がある。一定の方向に動いていると仮定すると、物体領域の見かけの面積はフレーム間で変化するが縦横比は大きくは変化しない特徴量といえる。   Factor 3 is the feature quantity of the change in the aspect ratio of the object area. Assuming that it moves in a certain direction, it can be said that the apparent area of the object region changes between frames, but the aspect ratio does not change greatly.

縦横比が変化する要因として、図15に示すように、物体が移動中に一部が遮蔽物により隠れるようなケースが考えられる。この場合は、物体が遮蔽物のない領域に存在する物体領域と、遮蔽物のある領域に存在する物体領域とでは、物体領域の縦横比に変化が生じる。また、物体領域の縦横比に変化が生じる他の場合として、夜間など照明が十分に物体に当たっていない環境、または照明が物体の移動方向手前側のみに照射されいる環境がある。このような照明環境下では、抽出された物体領域の面積が小さいほど、その物体領域内に存在する物体の全体像は抽出されず、物体領域の縦横比に変化が生じる。従って、画像データフレーム間の物体領域の縦横比の変動を検知することで、物体領域抽出が正確に行われていないことを検知することができる。   As a factor for changing the aspect ratio, as shown in FIG. 15, a case where a part of the object is hidden by a shield while moving is conceivable. In this case, a change occurs in the aspect ratio of the object region between the object region where the object is present in the region without the shielding object and the object region where the object is present in the region with the shielding object. In addition, there are other cases where the aspect ratio of the object area changes, such as an environment where illumination is not sufficiently applied to the object, such as at night, or an environment where illumination is applied only to the front side in the moving direction of the object. Under such an illumination environment, as the area of the extracted object region is smaller, the entire image of the object existing in the object region is not extracted, and the aspect ratio of the object region changes. Therefore, it is possible to detect that the object region is not accurately extracted by detecting the change in the aspect ratio of the object region between the image data frames.

これを利用し、追跡中の物体領域の縦横比の値の時系列分散を算出し、この値が所定のしきい値より小さい場合には縦横比変動が小さく、物体領域の確信度が高いとして要因3の係数を大きくし、所定のしきい値以上の場合には縦横比の変動が大きく、物体領域の確信度が低いとして要因3の係数を小さくする。要因3の係数は下記の式5にて設定する。   Using this, the time-series variance of the value of the aspect ratio of the object area being tracked is calculated, and if this value is smaller than a predetermined threshold, the fluctuation of the aspect ratio is small and the certainty of the object area is high. The coefficient of factor 3 is increased, and if the ratio is greater than or equal to a predetermined threshold, the variation in aspect ratio is large and the factor of factor 3 is decreased because the certainty of the object region is low. The factor 3 factor is set using Equation 5 below.

Figure 2015032133
Figure 2015032133

物体領域の縦横比分散が所定のしきい値より小さければ係数は1.0とし、所定のしき値以上の場合は大きさに反比例して小さくし、分散が大きくなるほど係数が小さくなるようにする。Var_thは、時系列で物体領域が安定して抽出できる場合の分散などを考慮して決定する。尚、分散の値は、現在時刻tを基準とし、直近のNフレーム分の物体領域データを物体情報格納部5から取得し算出する。   If the aspect ratio variance of the object region is smaller than a predetermined threshold, the coefficient is set to 1.0. If the variance is greater than a predetermined threshold, the coefficient is decreased in inverse proportion to the size, and the coefficient is decreased as the variance increases. Var_th is determined in consideration of the variance when the object region can be stably extracted in time series. The variance value is calculated by acquiring object region data for the latest N frames from the object information storage unit 5 with the current time t as a reference.

次に、要因4として、物体領域の面積の上下変動の特徴量がある。図15、図16で説明したケースでは、面積変動を検出することによっても物体領域を正確に抽出できているかどうかを確認できる。物体領域の面積の上下変動について、図17は物体領域抽出と物体領域面積変動との関係を表す図である。図17中のグラフ171は、物体領域抽出が安定してできている場合の物体領域面積の変動値を表したグラフである。図中、縦軸は物体領域の面積を示し、横軸は時間軸を示す。グラフ171の面積変動172は、物体が画像中の奥側から手前側に移動しているため、面積が時系列で増加傾向にある。連続した期間174の面積変動値を直線近似すると、近似式173からの各時刻の面積値との残差は小さく一定の傾きで変化している。   Next, as factor 4, there is a feature amount of vertical fluctuation of the area of the object region. In the case described with reference to FIGS. 15 and 16, it can be confirmed whether or not the object region can be accurately extracted by detecting the area variation. FIG. 17 is a diagram illustrating the relationship between the object region extraction and the object region area variation with respect to the vertical variation of the object region area. A graph 171 in FIG. 17 is a graph showing a fluctuation value of the object region area when the object region extraction is stably performed. In the figure, the vertical axis represents the area of the object region, and the horizontal axis represents the time axis. The area variation 172 in the graph 171 has an increasing tendency in time series because the object is moving from the back side to the near side in the image. When the area variation value of the continuous period 174 is linearly approximated, the residual with the area value at each time from the approximate expression 173 is small and changes with a constant slope.

これに対し、図17のグラフ175は、例えば上述の夜間など照明環境が不十分な状況での物体領域抽出が正確にできない場合の物体領域面積の変動値を表したグラフである。図中、縦軸は物体領域の面積を示し、横軸は時間軸を示す。面積変動176は、物体が画像中の奥側から手前側に移動しているため、面積は時系列で増加傾向にある。連続した期間178の面積変動値を直線近似すると、近似式177からの各時刻の面積値の残差は大きく、近似式177からの変動が大きい。   On the other hand, a graph 175 in FIG. 17 is a graph showing a variation value of the object area area when the object area cannot be accurately extracted in a situation where the lighting environment is insufficient, such as the nighttime described above. In the figure, the vertical axis represents the area of the object region, and the horizontal axis represents the time axis. In the area variation 176, since the object moves from the back side to the near side in the image, the area tends to increase in time series. When the area fluctuation value of the continuous period 178 is linearly approximated, the residual of the area value at each time from the approximate expression 177 is large, and the fluctuation from the approximate expression 177 is large.

このように、面積の変化に対し直線近似式を求め、近似式と実際の面積値との残差の大きさにより、面積の変動を検出することができる。要因4の面積変動による確信度係数を下記の式6にて設定する。   In this manner, a linear approximation formula is obtained for the change in area, and the variation in area can be detected from the magnitude of the residual between the approximation formula and the actual area value. The confidence factor due to the area variation of factor 4 is set by the following formula 6.

Figure 2015032133
Figure 2015032133

直線近似式は、上述の縦横比の分散と同様に、現在時刻tを基準とし、直近のNフレーム分の物体領域の面積を物体情報格納手部5から取得し算出する。近似式との残差をN個分の面積データから求め、平均を取ることで算出する。算出した平均値をそのまましきい値判定してもよいが、残差の大きさは、元の面積の大きさにも影響されるため、算出した平均値を、物体領域の面積で割ることで、物体領域の面積の何割であるかに正規化した方がより汎用的に求めることができる。   Similar to the above-described variance of the aspect ratio, the linear approximation formula is calculated by acquiring the area of the object region for the latest N frames from the object information storage unit 5 with the current time t as a reference. The residual with the approximate expression is calculated from the area data for N pieces and calculated by taking the average. Although the calculated average value may be determined as a threshold value as it is, the size of the residual is also affected by the size of the original area, so the calculated average value is divided by the area of the object region. It can be obtained more generally by normalizing to what percentage of the area of the object region.

ここで、物体種別確信度算出部4の処理フローを説明する。図18は物体種別確信度算出部の処理フロー図である。   Here, a processing flow of the object type certainty factor calculation unit 4 will be described. FIG. 18 is a processing flowchart of the object type certainty factor calculation unit.

物体種別確信度算出部4は、要因カウンタiを最初の要因ナンバーの1にリセットする(ステップs181)。次に、i番目の要因を求めるための特徴量を取得する。上述のとおり要因1の場合は物体領域の面積、要因2の場合は物体領域の左上及び右下の座標を、要因3の場合は物体領域の左上及び右下の座標から算出できる縦横比の履歴を、要因4の場合は面積の履歴を取得する(ステップs182)。取得されたi番目の要因を求めるための特徴量を用いてi番目の要因の係数を算出する。ここで要因1の係数は上記式3、要因2の係数は上記式4、要因3の係数は上記式5、要因4の係数は上記式6に基づき算出する。   The object type certainty factor calculation unit 4 resets the factor counter i to 1 of the first factor number (step s181). Next, a feature amount for obtaining the i-th factor is acquired. Aspect ratio history that can be calculated from the area of the object area for factor 1 as described above, the upper left and lower right coordinates of the object area for factor 2, and the upper left and lower right coordinates of the object area for factor 3. In the case of factor 4, the area history is acquired (step s182). The coefficient of the i-th factor is calculated using the acquired feature quantity for obtaining the i-th factor. Here, the coefficient of factor 1 is calculated based on the above formula 3, the coefficient of factor 2 is calculated based on the above formula 4, the coefficient of factor 3 is calculated based on the above formula 5, and the coefficient of factor 4 is calculated based on the above formula 6.

全ての要因iについてステップs182及びs183が完了したかを判定する(ステップs184)。完了していればステップs186の処理に移り、完了していなければステップs185に進む。要因カウンタiを1進め、ステップs182に戻る。   It is determined whether steps s182 and s183 have been completed for all factors i (step s184). If completed, the process proceeds to step s186. If not completed, the process proceeds to step s185. The factor counter i is incremented by 1, and the process returns to step s182.

全ての要因iの係数算出が完了すると、上記式2に基づき物体種別確信度を算出する(ステップs186)。   When the calculation of the coefficients for all the factors i is completed, the object type certainty factor is calculated based on the above equation 2 (step s186).

次に、具体例を挙げて要因1〜要因4の算出方法、物体種別確信度の算出方法を説明する。   Next, a calculation method of the factor 1 to the factor 4 and a calculation method of the object type certainty factor will be described with specific examples.

図19は、物体が遮蔽物に隠れる状況での物体識別確信度の算出を説明する図である。図19において、物体が映像中に現れて通過する一連の映像のうちの3種類の状態の画面を示した図である。画像データフレーム241は物体が遮蔽物の背後を通過しているときの画像、画像データフレーム242は物体が遮蔽物の領域から出て遮るものがない状態となったときの画像、画像データフレーム243は物体が画像242の状態よりさらに進んで画面外に出たことから、足の領域が隠れている状態の画面である。これら3種類の状態から物体領域の情報を用いて要因1、要因2、要因3、要因4、および物体種別確信度の値を算出した結果と、その計算過程を説明する。   FIG. 19 is a diagram for explaining calculation of object identification certainty in a situation where an object is hidden by a shield. FIG. 20 is a diagram illustrating screens in three states in a series of videos in which an object appears and passes in the video. The image data frame 241 is an image when the object is passing behind the shielding object, the image data frame 242 is an image when the object is out of the shielding object area and is not blocked, and the image data frame 243 Is a screen in which the area of the foot is hidden because the object has advanced further than the state of the image 242 and has gone outside the screen. The calculation results of the factor 1, factor 2, factor 3, factor 4, and the object type certainty factor using the object region information from these three states and the calculation process will be described.

図20は物体種別確信度を算出し物体情報格納部へ格納した状態の説明図である。図20において、時刻tから時刻t+2までが図19における遮蔽物の後ろを物体が通過している時間帯、時刻t+3から時刻t+5までが図19における物体が遮蔽物の領域から出た状態の時間帯、時刻t+6から時刻t+8までが図19における物体の一部が画面外に出た状態の時間帯に対応している。   FIG. 20 is an explanatory diagram of a state in which the object type certainty factor is calculated and stored in the object information storage unit. In FIG. 20, the time period from time t to time t + 2 is the time when the object passes behind the shielding object in FIG. 19, and the time period from time t + 3 to time t + 5 is the state in which the object in FIG. The band, from time t + 6 to time t + 8, corresponds to the time period in which a part of the object in FIG. 19 is out of the screen.

図20において、データ項目は時刻、物体ID、種別、追跡物体領域、縦横比、面積、縦横比分散、面積の直線近似と残差平均、要因1係数、要因2係数、要因3係数、要因4の係数、物体識別確信度の各欄が設けられている。そして、時刻の欄には各画像データフレームの時刻が格納され、物体IDの欄には各画像データフレームにおいて検出された物体のIDが格納され、種別の欄には物体種別識別部2により識別された種別が格納され、追跡物体IDの欄にはフレーム間追跡部24により同一物体と判定された追跡物体に対してユニークに割り当てた追跡物体IDが格納されている。図20においては、時刻tから時刻t+8のすべてにおいて同一物体として、追跡物体ID「3」が格納されている。   In FIG. 20, the data items are time, object ID, type, tracking object region, aspect ratio, area, aspect ratio variance, linear approximation of area and residual average, factor 1 coefficient, factor 2 coefficient, factor 3 coefficient, factor 4 Each column of the coefficient and the object identification certainty factor is provided. The time of each image data frame is stored in the time column, the ID of the object detected in each image data frame is stored in the object ID column, and the object type identification unit 2 identifies the type column. In the tracked object ID column, tracked object IDs uniquely assigned to tracked objects determined to be the same object by the inter-frame tracking unit 24 are stored. In FIG. 20, the tracking object ID “3” is stored as the same object from time t to time t + 8.

物体領域の欄には、物体抽出部3により抽出された物体領域の左上及び右下の座標が格納され、縦横比の欄には物体領域の座標値から算出された物体領域の縦横比が格納されている。具体的には、(物体領域のx方向の幅)÷(y方向の高さ)により算出される。また、面積の欄には物体領域の座標値から算出された物体領域の面積が格納されている。縦横比の分散の欄には、上述の要因3の係数算出過程で求められた縦横比の時間方向の変動を示す分散が格納されている。これは、同一追跡物体に対し、現在時刻を起点として過去Nフレーム分の縦横比の値の分散を求めることでられる値である。ここでは、過去3フレーム間で分散を算出しており、例えば時刻t+2における縦横比分散は、時刻t、時刻t+1及び時刻t+2における3データの縦横比の値の分散として求める。算出には3フレーム以上の追跡が必要なため、追跡が3フレームに満たない時刻t及び時刻t+1における縦横比分散の欄ははブランク(値なし)となる。   The upper left and lower right coordinates of the object area extracted by the object extracting unit 3 are stored in the object area column, and the aspect ratio of the object area calculated from the coordinate value of the object area is stored in the aspect ratio column. Has been. Specifically, it is calculated by (the width of the object region in the x direction) / (the height in the y direction). Further, the area column stores the area of the object region calculated from the coordinate value of the object region. In the column of the aspect ratio variance, the variance indicating the variation in the aspect ratio in the time direction obtained in the coefficient calculation process of the above factor 3 is stored. This is a value obtained by obtaining the variance of the aspect ratio values for the past N frames from the current time as the starting point for the same tracking object. Here, the variance is calculated among the past three frames. For example, the aspect ratio variance at time t + 2 is obtained as the variance of the aspect ratio values of the three data at time t, time t + 1, and time t + 2. Since the calculation requires tracking of three frames or more, the columns of the aspect ratio dispersion at time t and time t + 1 when tracking is less than three frames are blank (no value).

「面積の直線近似との残差平均」は上述の要因4係数の算出過程で求める面積の変動を示す、面積の直線近似との残差平均の値である。これは、同一追跡物体に対し、現在時刻を起点として過去Nフレーム分の面積の変動に対して近似式を算出し、近似式で算出する値と実際の面積との残差の平均である。図20の例ではN=3フレームとし、過去3フレーム間で算出する。例えば時刻t+2の時の値は、時刻t、時刻t+1及び時刻t+2の3データから求める。算出には3フレーム以上の追跡が必要なため、追跡が3フレームに満たない時刻t及び時刻t+1における欄はブランク(値なし)となる。   The “average residual with area linear approximation” is the value of the average residual with the linear approximation of area, which shows the variation in area obtained in the process of calculating the above-mentioned factor 4 coefficient. This is an average of residuals between a value calculated by the approximate expression and the actual area, by calculating an approximate expression for the variation of the area for the past N frames starting from the current time for the same tracking object. In the example of FIG. 20, N = 3 frames, and calculation is performed between the past three frames. For example, the value at time t + 2 is obtained from three data of time t, time t + 1, and time t + 2. Since the calculation requires tracking of 3 frames or more, the columns at time t and time t + 1 when tracking is less than 3 frames are blank (no value).

要因1、要因2、要因3、要因4の係数につては上述のとおりそれぞれ式3、式4、式5、式6について算出する。   Factor 1, factor 2, factor 3, and factor 4 are calculated for Equation 3, Equation 4, Equation 5, and Equation 6, respectively, as described above.

以下では、それぞれの要因係数について具体例を説明する。要因1係数は式3を用いて算出する。しきい値Area_thを18000とすると、図20で示す追跡中の物体のうち時刻t及び時刻t+1における要因1係数は、それぞれ0.833、0.856であり、時刻t+2以降における要因1係数の値1より小さくなる。この期間は図19における画像データフレーム241の状態であり、物体が遠いため面積が小さく、特徴が抽出しにくいために要因1係数が小さくなっていることが確認できる。   Below, a specific example is demonstrated about each factor coefficient. The factor 1 coefficient is calculated using Equation 3. If the threshold Area_th is 18000, the factor 1 coefficients at the time t and the time t + 1 among the objects being tracked shown in FIG. 20 are 0.833 and 0.856, respectively, and are smaller than the value 1 of the factor 1 coefficient after the time t + 2. . This period is the state of the image data frame 241 in FIG. 19, and it can be confirmed that the area is small because the object is far away, and the factor 1 coefficient is small because the feature is difficult to extract.

要因2係数は式4を使って算出する。物体領域が画像データフレームの端部に接しているかどうかは、上述のとおり物体領域の左上及び右下の座標を用いて判定される。図20では、画面の大きさがx方向が“640”、y方向が“480”とすると、物体領域の始点x座標が“0”、始点y座標が“0”、終点x座標が“639”、終点y座標が“479”の時に「画面端に接している」と判定する。図20の例では、時刻t+6から時刻t+8における画像データフレーム中の物体領域の終点y座標の値が“479”であるので、これらの物体領域の要因2係数が式4より“0.1”となる。図19において要因2係数が0.1になる期間は画像データフレーム243の、物体領域247が画像データフレーム下側端部にはみ出している期間であるため、要因2の係数が小さくなることが確認できる。   The factor 2 coefficient is calculated using Equation 4. Whether or not the object region is in contact with the end of the image data frame is determined using the upper left and lower right coordinates of the object region as described above. In FIG. 20, when the screen size is “640” in the x direction and “480” in the y direction, the start point x coordinate of the object area is “0”, the start point y coordinate is “0”, and the end point x coordinate is “639”. "When the end point y coordinate is" 479 ", it is determined that" the screen is in contact with the edge ". In the example of FIG. 20, since the end point y-coordinate value of the object area in the image data frame from time t + 6 to time t + 8 is “479”, the factor 2 coefficient of these object areas is “0.1” from Equation 4. . In FIG. 19, the period in which the factor 2 coefficient is 0.1 is a period in which the object region 247 protrudes from the lower end portion of the image data frame 243. Therefore, it can be confirmed that the factor 2 factor decreases.

要因3係数は式5を使って算出する。縦横比の分散しきい値Var_th=”0.02”とすると、図20の例では、時刻t+2における画像データフレーム中の物体領域のデータがしきい値を超えているため、式5から要因3の係数=0.02/0.02785=0.718となる。これは、時刻t+2における物体領域の縦横比の過去3回の値に、しきい値以上の変動があることを示している。図19において時刻t+2の期間は画像データフレーム241の状況の場合であり、この期間は物体が遮蔽物の後ろを通過し、領域全体が見えていないため縦横比が変動する可能性があることが確認できる。   Factor 3 coefficients are calculated using Equation 5. Assuming that the aspect ratio variance threshold Var_th = “0.02”, the data of the object region in the image data frame at time t + 2 exceeds the threshold in the example of FIG. = 0.02 / 0.02785 = 0.718. This indicates that the past three values of the aspect ratio of the object area at time t + 2 have fluctuations greater than or equal to the threshold value. In FIG. 19, the period of time t + 2 is the case of the state of the image data frame 241. During this period, the aspect ratio may vary because the object passes behind the shield and the entire area is not visible. I can confirm.

要因4は式6を使って算出する。面積の直線近似との残差平均しきい値を“16”とすると、図20において時刻t+2における物体領域のデータがしきい値を超えているため、式6から要因4係数=16/17.392=0.92となる。これは、時刻t+2おける物体領域の面積の過去3回の値に、単調増減以外の変動があることを示している。図19において、時刻t+2における画像データフレームは画像データフレーム241の場合であり、この期間は物体が遮蔽物の後ろを通過し、領域全体が見えていないため面積が変動する可能性があることが確認できる。   Factor 4 is calculated using Equation 6. Assuming that the residual average threshold value with respect to the linear approximation of the area is “16”, the data of the object region at time t + 2 in FIG. 20 exceeds the threshold value, so the factor 4 coefficient = 16 / 17.392 = 0.92. This indicates that the past three values of the area of the object region at time t + 2 have fluctuations other than monotonous increase / decrease. In FIG. 19, the image data frame at time t + 2 is the case of the image data frame 241. During this period, the object may pass behind the shield and the entire area may not be visible, so the area may vary. I can confirm.

物体種別確信度は、式2を使って、以上の説明の中で求めた要因1係数から要因4係数を積算して求め、それぞれ対応する時刻の画像データフレームの物体確信度の欄に格納する。以上のように、複数の確信度低下要因がある場合にはより確信度が下がると考えられるため、物体種別の確信度が下がる複数の要因から係数を算出し、係数の積算で物体種別確信度を求める。本実施例では、要因1から要因4についてそれぞれ係数を算出しこれらの積算値として物体種別確信度としたが、これに限られずいずれかの要因係数のみから物体種別確信度を算出してもよい。   The object type certainty factor is obtained by accumulating the factor 4 coefficient from the factor 1 coefficient obtained in the above description using Equation 2, and stores the result in the object certainty factor column of the corresponding image data frame. . As described above, if there are multiple factors that decrease the certainty factor, it is considered that the certainty factor will decrease.Therefore, calculate the coefficient from the multiple factors that decrease the certainty factor of the object type. Ask for. In this embodiment, coefficients are calculated for factor 1 to factor 4 and the object type certainty factor is calculated as an integrated value thereof. However, the present invention is not limited to this, and the object type certainty factor may be calculated from only one factor coefficient. .

次に検索部6及び検索部6による検索結果を表示する表示部7につき説明する。
図21は表示部に表示される画面例である。検索条件として選択入力可能な日付選択領域201、同様に選択入力可能な時間帯選択リスト領域202、物体種別選択リスト領域203、選択指示を受け付ける「検索」ボタン204、検索結果を表示するサムネイル表示領域205及び他の物体種別の確認指示を受け付ける「他物体種別識別確認」ボタン209により画面構成されている。そしてサムネイル表示領域205には、検索結果の物体情報を表示するウィンドウ206、207、表示優先度の指示を受け付ける表示優先度領域208が設けられている。
Next, the search unit 6 and the display unit 7 that displays the search results by the search unit 6 will be described.
FIG. 21 is an example of a screen displayed on the display unit. Date selection area 201 that can be selected and input as search conditions, time zone selection list area 202 that can be selected and input in the same manner, object type selection list area 203, "search" button 204 that accepts a selection instruction, and thumbnail display area that displays search results The screen is constituted by 205 and an “Other object type identification confirmation” button 209 that receives a confirmation instruction of other object types. The thumbnail display area 205 is provided with windows 206 and 207 for displaying object information of search results, and a display priority area 208 for receiving display priority instructions.

日付選択領域201は、カレンダー表示し、ユーザにより複数の日付を選択条件として入力可能となっている。時間帯選択リスト領域202は、複数の時間帯をプルダウン表示し、ユーザにより複数の時間帯を選択条件として入力可能となっている。物体種別選択リスト領域203は、複数の物体種別をプルダウン表示し、ユーザにより複数の物体種別を選択条件として入力可能となっている。図22においては、選択条件として日付「2013/2/6」、時間帯「16時−17時」及び物体種別「二輪車」が選択された状態を示している。この状態でユーザによる「検索」ボタン204への指示入力を受け付けると、検索部6は、上記検索条件に該当する情報を物体情報格納部5を検索し抽出する。   The date selection area 201 displays a calendar, and a user can input a plurality of dates as selection conditions. The time zone selection list area 202 displays a plurality of time zones in a pull-down manner, and the user can input a plurality of time zones as selection conditions. The object type selection list area 203 displays a plurality of object types in a pull-down manner, and the user can input a plurality of object types as selection conditions. FIG. 22 shows a state in which the date “2013/2/6”, the time zone “16: 00-17: 00”, and the object type “two-wheeled vehicle” are selected as selection conditions. In this state, when receiving an instruction input to the “search” button 204 by the user, the search unit 6 searches the object information storage unit 5 for information corresponding to the search condition and extracts it.

図22は検索部による検索結果リストであり、図23は検索部による処理フロー図である。図22は、検索部6が、選択条件として入力された日付、時間帯及び物体種別に該当するレコードを物体情報格納部5から抽出した検索結果を示している。ここで検索部6は、物体種別を検索する場合、追跡物体IDが同一のレコードのうち最も時刻の新しいレコードの追跡物体種別を参照し、設定した物体種別と合致する追跡物体種別の情報を抽出する。   FIG. 22 is a search result list by the search unit, and FIG. 23 is a processing flow diagram by the search unit. FIG. 22 shows a search result in which the search unit 6 extracts records corresponding to the date, time zone, and object type input as selection conditions from the object information storage unit 5. Here, when searching for the object type, the search unit 6 refers to the tracking object type of the record with the newest time among the records with the same tracking object ID, and extracts information on the tracking object type that matches the set object type. To do.

ここで、図21に示されるサムネイル表示領域205中のウインドウ206及びウインドウ207には、検索結果として、日付、時刻、物体種別、物体種別確信度及び物体の画像がサムネイル化して表示される。このより、ユーザは候補となる検索結果のストの物体情報をより把握しやすい。   Here, in the window 206 and window 207 in the thumbnail display area 205 shown in FIG. 21, the date, time, object type, object type certainty factor, and object image are displayed as thumbnails as search results. As a result, the user can more easily grasp the object information of the candidate search results.

図23は検索部による処理フロー図である。図23を用いて検索部6が上述のウインドウ206及びウインドウ207に検索結果の候補を表示する処理について説明する。   FIG. 23 is a process flow diagram of the search unit. A process in which the search unit 6 displays search result candidates in the above-described window 206 and window 207 will be described with reference to FIG.

まず検索部6は、追跡物体情報を順に処理するため追跡物体処理カウンタを0に設定する(ステップs221)。i番目の追跡物体の出現日付、時刻を取得する(ステップs222)。具体的には、図22に示される検索結果リストを上から順に参照し、最初の追跡物体IDが「2」であるため、追跡物体ID「2」の情報を取得する。追跡物体ID「2」の出現する時刻は、出現日付「2013/2/6」、出現時刻「16:40:0001」を取得する。   First, the search unit 6 sets a tracking object processing counter to 0 in order to sequentially process the tracking object information (step s221). The appearance date and time of the i-th tracking object are acquired (step s222). Specifically, the search result list shown in FIG. 22 is referred to in order from the top, and since the first tracking object ID is “2”, information of the tracking object ID “2” is acquired. As the time when the tracking object ID “2” appears, the appearance date “2013/2/6” and the appearance time “16: 40: 0001” are acquired.

次に、追跡物体iの物体種別確信度の最大値、物体種別と日付、時刻を取得する(ステップs223)。具体的には、図22に示される追跡物体ID[2]のレコードを順に参照し、時刻「16:40:0002」及び時刻「16:40:0003」における物体種別確信度が共に「1」のため、いずれかのレコードを取得する。なお、このように確信度の値が同じレコードがあった場合には、より、物体の特徴をとらえやすい画像を選択する目的から、例えば物体領域の面積が大きいレコードを選択することが望ましい。   Next, the maximum value of the object type certainty factor of the tracking object i, the object type, date, and time are acquired (step s223). Specifically, with reference to the records of the tracking object ID [2] shown in FIG. 22 in order, both the object type certainty factors at time “16: 40: 0002” and time “16: 40: 0003” are “1”. So get one of the records. When there are records having the same certainty value as described above, it is desirable to select, for example, a record having a large area of the object region in order to select an image that can easily capture the feature of the object.

次に、ステップ223にて取得されたレコードを後述するサムネイル作成リストに格納し(ステップs224)、追跡物体処理カウンタを1進める(ステップs225)。全ての追跡物体の処理が完了したか否かを判定し、完了していれば処理を終了し、完了していなければステップs221へ戻る(ステップs226)。図22に示される検索結果リストの場合は、時刻「16:55:0088」における追跡物体ID「3」であるため、ステップs226に戻り同様の処理を繰り返す。   Next, the record acquired in step 223 is stored in a thumbnail creation list to be described later (step s224), and the tracking object processing counter is advanced by 1 (step s225). It is determined whether or not all the tracking objects have been processed. If completed, the process ends. If not, the process returns to step s221 (step s226). In the case of the search result list shown in FIG. 22, since the tracking object ID is “3” at time “16: 55: 0088”, the process returns to step s226 and the same processing is repeated.

図24はサムネイル表示領域に表示する物体情報を格納するサムネイルリストである。サムネイルリストには、特定の追跡物体について、出現日付、出現時刻、物体識別確信度の最も高い時刻をサムネイル日付及びサムネイル時刻が物体種別と物体種別確信度と共に格納されている。ここでは、図23において説明したステップs222、ステップs223及びステップs224により、追跡物体ID「2」については、出現日付「2013/2/6」、出現時刻「16:40:0001」、サムネイル日付「2013/2/6」、サムネイル時刻「16:40:0003」、物体種別「二輪車」及び物体種別確信度「1.0」が格納される。また、追跡物体ID「3」については、出現日付「2013/2/6」、出現時刻「16:55:0088」、サムネイル日付「2013/2/6」、サムネイル時刻「16:55:0088」、物体種別「二輪車」及び物体種別確信度「0.6」が格納される。   FIG. 24 is a thumbnail list for storing object information to be displayed in the thumbnail display area. The thumbnail list stores the appearance date, the appearance time, and the time with the highest object identification certainty for the specific tracking object, the thumbnail date and the thumbnail time together with the object type and the object type certainty factor. Here, by the steps s222, s223, and s224 described in FIG. 23, the appearance date “2013/2/6”, the appearance time “16: 40: 0001”, the thumbnail date “ 2013/2/6 ”, thumbnail time“ 16: 40: 0003 ”, object type“ two-wheeled vehicle ”, and object type certainty factor“ 1.0 ”are stored. For the tracking object ID “3”, the appearance date “2013/2/6”, the appearance time “16: 55: 0088”, the thumbnail date “2013/2/6”, and the thumbnail time “16: 55: 0088” The object type “two-wheeled vehicle” and the object type certainty factor “0.6” are stored.

検索部6は、図24に示すサムネイル作成リストを作成後、このサムネイル作成リストを参照し、図22におけるウインドウ206及びウインドウ207へそれぞれ、サムネイル日付、サムネイル時刻、物体種別、物体種別確信度と対応する画像データフレームを表示する。   After creating the thumbnail creation list shown in FIG. 24, the search unit 6 refers to this thumbnail creation list and corresponds to the window 206 and window 207 in FIG. 22 with the thumbnail date, thumbnail time, object type, and object type certainty factor, respectively. The image data frame to be displayed is displayed.

また、検索部6は、図22における表示優先度領域208からユーザにより表示優先度条件の選択を受け付けると、上記サムネイル作成リストを、選択された項目順に並べ替える。「確信度高い順」が選択された場合は、図23に示すサムネイル作成リストを物体種別確信度の高い順に並べ替え、サムネイル表示領域205中のウインドウ206及びウインドウ207に表示する。また、サムネイル表示領域205中の特定のウインドウをユーザが選択することで、当該ウインドウに対応するサムネイル作成リストを参照し、当該物体の出現日付、出現時刻からの映像を再生することで、ユーザは選択した物体の含まれる映像を参照することができる。   Further, when the search unit 6 accepts selection of the display priority condition from the display priority area 208 in FIG. 22 by the user, the search unit 6 sorts the thumbnail creation list in the order of the selected items. When “in order of high certainty” is selected, the thumbnail creation list shown in FIG. 23 is rearranged in descending order of object type certainty and displayed in the windows 206 and 207 in the thumbnail display area 205. Further, when the user selects a specific window in the thumbnail display area 205, the user can refer to the thumbnail creation list corresponding to the window and reproduce the video from the appearance date and time of the object, thereby allowing the user to An image including the selected object can be referred to.

本実施例によれば、記録された映像データから特定の種別の物体を効率的に検索できる。例えば、夜間などの照明条件の悪い場合、又は遮蔽物がある場合など、上述のように物体の特徴が画像上で確認しにくい場合が多い。単純に時刻順に参照した場合は、このように結局有効な情報が得られない情報も順に参照することになるため、有効な情報に行きつくまで時間を浪費する。これに対し物体種別確信度順に参照する場合には、確信度が高く、物体領域が正確に抽出できている物体順に参照できるため、目視で有効な情報が得られる順に参照できることが期待できる。   According to the present embodiment, it is possible to efficiently search for a specific type of object from the recorded video data. For example, as described above, it is often difficult to confirm the characteristics of an object on an image when the lighting conditions are poor such as at night or when there is an obstacle. If the information is simply referred to in the order of time, information that cannot be obtained in the end is also referred to in order, and time is wasted until reaching the effective information. On the other hand, when referring to the object type certainty degree order, since the certainty degree is high and the object region can be referred to in the order of the objects that are accurately extracted, it can be expected that the information can be referred to in the order in which the effective information is obtained visually.

尚、物体種別確信度順の表示を実現する場合には、参照漏れを防ぐため、図21中のサムネイル表示領域205中の各ウインドウ横にチェックボックスを表示し、ユーザが確認した場合にチェックをして、物体情報格部5に「確認済フラグ」等を設定する構成としても良い。このような構成とすることで、検索部6で検索する際に、未確認の物体情報のみを検索することもできる。   When displaying in order of object type certainty factor, a check box is displayed beside each window in the thumbnail display area 205 in FIG. 21 to prevent reference omission, and a check is made when the user confirms. Then, a configuration may be adopted in which a “confirmed flag” or the like is set in the object information case unit 5. With such a configuration, it is possible to search only unconfirmed object information when searching by the search unit 6.

図25は本発明に実施例2に係る物体検索システムの機能ブロック図である。図26は確信度考慮物体種別識別部の機能ブロック図である。実施例1と異なる点は、物体種別識別部2に代えて物体種別確信度を考慮し物体種別を識別する確信度考慮物体種別識別部9を設けたことにある。実施例1と同様の構成には同一の符号を付し、以下では実施例1と同様の構成については説明を省略する。   FIG. 25 is a functional block diagram of an object search system according to the second embodiment of the present invention. FIG. 26 is a functional block diagram of the certainty-considered object type identification unit. The difference from the first embodiment is that instead of the object type identifying unit 2, a certainty factor considering object type identifying unit 9 for identifying the object type in consideration of the object type certainty factor is provided. The same components as those of the first embodiment are denoted by the same reference numerals, and the description of the same components as those of the first embodiment will be omitted below.

本実施例における確信度考慮物体種別識別部9は、物体種別確信度算出部4にて算出された物体種別確信度を考慮して物体を識別する。具体的には、図26の物体種別総合判定部25で画像データフレーム毎の物体種別判定結果から、物体種別を総合判定する際に、確信度の大きさを考慮して算出する。   In this embodiment, the certainty-considered object type identification unit 9 identifies an object in consideration of the object type certainty factor calculated by the object type certainty factor calculation unit 4. Specifically, when the object type comprehensive determination unit 25 in FIG. 26 comprehensively determines the object type from the object type determination result for each image data frame, the calculation is performed in consideration of the degree of certainty.

図19において、画像データフレーム241は物体が遮蔽物の背後を通過している間の画像、画像データフレーム242は、物体が遮蔽物の領域から出て、遮るものがない状態で画面中に出現している状態の画像、画像データフレーム243は物体が画像データフレーム242の状態よりさらに進んで画面外に出たことから、足の領域が隠れている状態の画像である。この一連の映像を入力し、実施例1と同様に特徴量算出部21、物体種別判定部23及びフレーム間追跡部24にて処理を実行する。   In FIG. 19, an image data frame 241 is an image while the object is passing behind the shielding object, and an image data frame 242 appears on the screen with the object leaving the shielding object area and being unobstructed. The image data frame 243 in a moving state is an image in which the area of the foot is hidden because the object has advanced further than the state of the image data frame 242 and has gone out of the screen. This series of images is input, and processing is executed by the feature amount calculation unit 21, the object type determination unit 23, and the inter-frame tracking unit 24 as in the first embodiment.

以下に、本実施例の特徴である、フレーム間追跡部24による処理結果と物体種別確信度算出部4による物体種別確信度に基く物体種別総合判定部25の処理について説明する。図27及び図28は物体情報格納部の状態の説明図であり、図29は追跡物体総合判定後の物体情報格納部の状態説明図、図30は絵追跡物体総合判定スコアの時間的変化の説明図である。これら図27から図28では、本実施例の特徴をよりわかり易くするため物体種別確信を考慮しない場合の追跡物体種別の判定結果を併せて示している。   The processing of the object type comprehensive determination unit 25 based on the processing result by the interframe tracking unit 24 and the object type certainty factor by the object type certainty factor calculation unit 4, which is a feature of the present embodiment, will be described below. 27 and 28 are explanatory diagrams of the state of the object information storage unit, FIG. 29 is an explanatory diagram of the state of the object information storage unit after the tracking object comprehensive determination, and FIG. 30 is a graph showing temporal changes in the picture tracking object comprehensive determination score. It is explanatory drawing. FIGS. 27 to 28 also show the tracking object type determination results when the object type belief is not taken into account in order to make the features of this embodiment easier to understand.

実施例1と同様に、物体種別総合判定部25の3種類の実現方法それぞれについて、確信度を考慮した場合の例につき説明する。   As in the first embodiment, an example in which the certainty factor is considered for each of the three types of realization methods of the object type comprehensive determination unit 25 will be described.

一番目の実現方法は、複数フレームそれぞれの物体種別判定結果を集計し、最も多い種別をその追跡物体の種別とする方法である。確信度考慮物体種別識別部9では、物体種別確信度が一定しきい値以下になるフレームは確信度が低いとし集計から除外する。   The first implementation method is a method in which the object type determination results for each of a plurality of frames are totaled and the most frequently used type is set as the type of the tracked object. The certainty-considered object type identification unit 9 excludes frames whose object type certainty is below a certain threshold from the totalization because the certainty is low.

図27において、時刻tから時刻t+2の画像データフレームは図19における画像データフレーム241の期間に相当し、時刻t+3から時刻t+5の画像データフレームは図19における画像データフレーム242の期間に相当する。また、時刻t+6から時刻t+8の画像データフレームは図19における画像データフレーム243の期間に相当している。フレーム間追跡部24の処理結果として、時刻tから時刻t+8の画像データフレームについて抽出された物体は同一の物体として同一の追跡物体ID「3」が格納された状態となっている。ここで、物体種別総合判定部25では、画像データフレーム毎に、同一追跡物体に対し、判定され種別の欄に格納された種別を順次集計する。   27, the image data frame from time t to time t + 2 corresponds to the period of the image data frame 241 in FIG. 19, and the image data frame from time t + 3 to time t + 5 is the period of the image data frame 242 in FIG. It corresponds to. The image data frame from time t + 6 to time t + 8 corresponds to the period of the image data frame 243 in FIG. As a processing result of the inter-frame tracking unit 24, the object extracted for the image data frame from the time t to the time t + 8 is in a state where the same tracking object ID “3” is stored as the same object. Here, the object type comprehensive determination unit 25 sequentially counts the types determined and stored in the type column for the same tracking object for each image data frame.

物体種別確信度考慮せず集計する場合は、時刻t+5の時点での集計結果は「二輪車」と「人」がそれぞれ3回ずつの同数となるが、時刻t+6から時刻t+8まで集計進めると「二輪車」の集計数が6回となり優位となる。そのため、追跡物体種別(確信度考慮なし)の欄には、時刻tから時刻t+8の全てにおいて「二輪車」が判定結果としてか格納される。   When counting without considering the object type certainty factor, the counting results at the time t + 5 are the same number of “motorcycles” and “people” three times each, but from the time t + 6 to the time t + 8 The total number of “motorcycles” will be 6 times and will be superior. Therefore, in the column of the tracking object type (without certainty factor consideration), “two-wheeled vehicle” is stored as a determination result from time t to time t + 8.

これに対し、確信度のしきい値を例えば0.5と設定し確信度を考慮し追跡物体種別を判定すると、時刻tから時刻t+2までの画像データフレームではしきい値より小さい値となる。これは、時刻tから時刻t+2までの画像データフレームが図19における画像データフレーム241の期間に相当するためである。すなわち、抽出された物体領域の一部が遮蔽物に隠れた状態であるため物体種別確信度は低い値となる。物体種別総合部25は、種別の欄に格納された画像データフレーム毎の物体種別を読みだして、物体種別ごとに集計するが、同時に確信度の欄の値を参照し、確信度のしきい値0.5と比較して、しきい値より小さければ集計処理をスキップして次の時刻の処理に移る。この処理の結果、時刻t、時刻t+1、時刻t+2における確信度はそれぞれ「0.1」、「0.2」、「0.3」であり、しきい値0.5を下回るため集計に反映せず、総合判定の結果として追跡物体種別(確信度考慮あり)の欄に 「-」(判定なし)が格納される。   On the other hand, if the certainty threshold is set to 0.5, for example, and the tracking object type is determined in consideration of the certainty, the image data frame from time t to time t + 2 has a value smaller than the threshold. This is because the image data frame from time t to time t + 2 corresponds to the period of the image data frame 241 in FIG. That is, since a part of the extracted object region is hidden by the shield, the object type certainty factor is a low value. The object type totaling unit 25 reads out the object types for each image data frame stored in the type column and totals them for each object type, but at the same time refers to the value of the certainty factor column to determine the certainty threshold. If it is smaller than the threshold value as compared with the value 0.5, the aggregation processing is skipped and the processing at the next time is started. As a result of this processing, the certainty factors at time t, time t + 1, and time t + 2 are “0.1”, “0.2”, and “0.3”, respectively, and are below the threshold value of 0.5, so they are not reflected in the aggregation. As a result of judgment, “-” (no judgment) is stored in the column of the tracking object type (with certainty factor taken into account).

次に時刻t+3、時刻t+4、時刻t+5では、物体種別総合判定25は上記と同様に確信度の欄の値をしきい値と比較する。比較の結果しきい値を超えているため、この3つの時刻の種別判定を集計処理する。時刻t+3の時点では、各種別ごとの集計値は人「1」、二輪車「0」、車「0」のためこの時点での総合判定は「人」となる。時刻t+4の時点では、各種別ごとの集計値は人「2」、二輪車「0」、車「0」のためこの時点での総合判定は「人」となる。また、時刻t+5の時点では、各種別ごとの集計値は人「3」、二輪車「0」、車「0」のためこの時点での総合判定は「人」となる。   Next, at time t + 3, time t + 4, and time t + 5, the object type comprehensive determination 25 compares the value of the certainty factor column with a threshold value as described above. Since the threshold value is exceeded as a result of the comparison, the three types of time determination are totaled. At time t + 3, the total value for each type is person “1”, motorcycle “0”, and car “0”, so the overall judgment at this point is “person”. At time t + 4, the total value for each type is person “2”, the motorcycle “0”, and the car “0”, so the overall determination at this point is “person”. At time t + 5, the total value for each type is person “3”, the motorcycle “0”, and the car “0”, so the comprehensive determination at this point is “person”.

次に時刻t+6、時刻t+7、時刻t+8では、物体種別総合判定部25は同様に確信度の欄の値をしきい値と比較する。比較の結果しきい値を下回っているため、この3つの時刻の種別判定は集計に反映しない。そのため時刻t+6、時刻t+7、時刻t+8、の間は集計の結果は変化しないので、最終的に時刻t+8の時点での総合判定は「人」となる。   Next, at time t + 6, time t + 7, and time t + 8, the object type comprehensive determination unit 25 similarly compares the value in the reliability column with a threshold value. Since the result of the comparison is below the threshold value, these three time type determinations are not reflected in the aggregation. Therefore, the total result does not change between time t + 6, time t + 7, and time t + 8, so that the comprehensive determination at the time t + 8 is finally “person”.

以上のように、物体種別確信度を考慮し、確信度が所定しきい値以下の時には集計をスキップする処理により、物体領域の抽出状態が悪い場合には総合判定を保留し、抽出状態が良い場合に確実な総合判定を実施することができる。上記の例でも、確信度を考慮しないと人を二輪車と誤判定することになるが、確信度を考慮することで誤判定を防げている。これにより、追跡物体の種別の総合判定の精度を向上することができる。   As described above, the object type certainty factor is considered, and when the certainty factor is less than or equal to a predetermined threshold, the totaling is skipped. If the object region extraction state is bad, the comprehensive determination is suspended and the extraction state is good. A reliable comprehensive judgment can be carried out in some cases. Even in the above example, if the certainty factor is not considered, a person is erroneously determined as a two-wheeled vehicle, but the erroneous determination can be prevented by considering the certainty factor. Thereby, the accuracy of the comprehensive determination of the type of the tracking object can be improved.

次に、実施例1で説明した物体種別総合判定部5の二番目の実現方法について、確信度を考慮した場合の例につき説明する。   Next, the second realization method of the object type comprehensive determination unit 5 described in the first embodiment will be described with respect to an example in which the certainty factor is considered.

二番目の実現方法は、特定の種別の判定が連続し、予め設定したしきい値回数を超えた場合に、その物体の種別として割り当てる方法である。確信度考慮物体種別識別部9では、一番目の実現方法と同様に、確信度が所定しきい値以下になるフレームは確信度が低いとし集計から除外する。   The second realization method is a method of assigning the type of the object when the determination of the specific type continues and the preset threshold count is exceeded. In the certainty-considered object type identification unit 9, as in the first method of realization, frames whose reliability is equal to or lower than a predetermined threshold are excluded from aggregation because the reliability is low.

具体例を挙げて説明する。ここでは連続回数のしきい値を3回とする。確信度考慮せず、同一種別の連続回数をカウントする場合は、種別の欄に格納された物体種別を時刻順に呼び出し、同一種別の連続回数をカウントする。時刻tにおける画像データフレームでは、種別判定が「二輪車」のためこの時点の二輪車連続数が「1」、時刻t+1における画像データフレームの種別判定が「二輪車」のためこの時点の二輪車連続数が「2」、時刻t+2における画像データフレームの種別判定が「二輪車」のためこの時点の二輪車連続数が「3」となり、この時点で当該追跡物体の種別は「二輪車」として確定し、追跡物体種別(確信度考慮なし)の欄に「二輪車」が格納される。以降の同一追跡物体ID「3」についてはすべて「二輪車」となる。   A specific example will be described. Here, the threshold value of the continuous number is 3 times. When counting the number of consecutive times of the same type without considering the certainty factor, the object types stored in the type column are called in order of time, and the number of consecutive times of the same type is counted. In the image data frame at time t, since the type determination is “two-wheeled vehicle”, the number of consecutive two-wheeled vehicles at this time is “1”, and since the type determination of the image data frame at time t + 1 is “two-wheeled vehicle”, Is `` 2 '', the type determination of the image data frame at time t + 2 is `` two-wheeled vehicle '', so the number of consecutive two-wheeled vehicles at this time is `` 3 '', and at this point, the type of the tracking object is determined as `` two-wheeled vehicle '' "Two-wheeled vehicle" is stored in the column of the tracking object type (without considering the certainty factor). All subsequent tracking object IDs “3” are “two-wheeled vehicles”.

これに対し、確信度のしきい値を例えば0.5と設定した場合を例に、物体種別総合判定部25の処理を説明する。物体種別総合判定部25は、種別の欄に格納された画像データフレーム毎の物体種別を時刻順に読みだして、前時刻と種別が一致する場合に連続回数をカウントするが、同時に確信度欄の値を参照し、確信度のしきい値0.5と比較して、しきい値より小さければ連続回数カウントをスキップして次の時刻の処理に移る。時刻t、時刻t+1、時刻t+2の確信度はいずれもしきい値0.5より低いため、これらの時刻おいては物体種別総合判定部25は連続回数カウント処理をスキップし、物体情報格納部5の追跡物体種別(買う深度考慮あり)の欄にはいずれも「-」(判定なし)が格納される。   On the other hand, the process of the object type comprehensive determination unit 25 will be described by taking as an example a case where the certainty threshold is set to 0.5, for example. The object type comprehensive determination unit 25 reads the object types for each image data frame stored in the type column in order of time, and counts the number of consecutive times when the type matches the previous time. The value is referred to and compared with the certainty threshold 0.5, and if it is smaller than the threshold, the continuous count is skipped and the process proceeds to the next time. Since the certainty levels at time t, time t + 1, and time t + 2 are all lower than the threshold value 0.5, the object type comprehensive determination unit 25 skips the continuous count processing at these times, and the object information storage unit “-” (No determination) is stored in each of the columns of the five tracking object types (with consideration for the depth of purchase).

次に時刻t+3の種別が「人」で、且つ物体識別確信度の欄の値が「1」でしきい値0.5以上のためこの時点の人連続回数を「1」とする。時刻t+4の種別が「人」で、且つ物体種別確信度が「1」でしきい値0.5以上のためこの時点の人連続回数を「2」とする。時刻t+5の種別が「人」で、且つ物体種別確信度が「1」でしきい値0.5以上のためこの時点の人連続数が「3」となり、この時点で当該追跡物体の種別は「人」として確定し、時刻t+3から時刻t+5までの追跡物体種別(確信度考慮あり)の欄に「人」を格納する。以降の同一追跡物体ID「3」についてはすべて「人」となる。   Next, since the type of time t + 3 is “person” and the value of the object identification certainty column is “1” and the threshold value is 0.5 or more, the number of continuous humans at this time is set to “1”. Since the type at time t + 4 is “person” and the object type certainty factor is “1” and the threshold value is 0.5 or more, the continuous number of people at this time is set to “2”. Since the type at time t + 5 is “person” and the object type certainty factor is “1” and the threshold value is 0.5 or more, the number of consecutive people at this time is “3”. “Person” is confirmed, and “Person” is stored in the column of the tracking object type (consideration of certainty factor) from time t + 3 to time t + 5. All subsequent tracking object IDs “3” are “people”.

以上のように、二番目の実現方法でも、物体種別確信度を考慮し、確信度が所定しきい値以下の時には連続回数カウントをスキップする処理により、物体領域の抽出状態が悪い場合には総合判定を保留し、抽出状態が良い場合に確実な総合判定を実施することができる。上記の例でも、確信度を考慮しないと人を二輪車と誤判定することになるが、確信度を考慮することで誤判定を防止できる。これにより、追跡物体の種別の総合判定の精度を向上することができる。   As described above, even in the second implementation method, the object type certainty factor is considered, and when the certainty factor is equal to or less than the predetermined threshold, the process of skipping the continuous count is performed, so that when the object region extraction state is poor The determination is suspended, and a reliable comprehensive determination can be performed when the extraction state is good. Even in the above example, if the certainty factor is not considered, a person is erroneously determined as a two-wheeled vehicle, but the erroneous determination can be prevented by considering the certainty factor. Thereby, the accuracy of the comprehensive determination of the type of the tracking object can be improved.

次に、実施例1で説明した物体種別総合判定部25の三番目の実現方法について、確信度を考慮した場合の例につき説明する。三番目の実現方法は、物体種別判定部23で種別スコアを算出する場合に、同一物体の種別スコアの平均値に基づいて物体種別判定する方法である。この方法では、各画像データフレーム毎に、当該フレーム以前の同一物体の種別スコアを累積し、平均を取った値を用いて識別器で種別判定し、その判定結果の物体種別を追跡物体種別欄に格納する方法である。確信度考慮物体種別識別部9では、種別スコアを累積し平均値をとる際に、確信度の重み付きで平均をとる。   Next, the third realization method of the object type comprehensive determination unit 25 described in the first embodiment will be described with respect to an example in which the certainty factor is considered. The third realization method is a method of determining the object type based on the average value of the type scores of the same object when the type score is calculated by the object type determination unit 23. In this method, for each image data frame, the type score of the same object before that frame is accumulated, the type is determined by the classifier using the averaged value, and the object type of the determination result is displayed in the tracking object type field. It is a method to store in. In the certainty-considered object type identification unit 9, when accumulating the type scores and taking the average value, the average is obtained with a certainty weight.

具体例を挙げて説明する。図29において、種別スコアの欄には、物体種別判定部23で特徴量より算出したその時刻の物体領域の種別スコアが格納されている。ここでは、物体種別スコアは「人」と「二輪車」を識別するためのスコアであるとし、識別ルールは、0.0をしきい値としてそれ以上を「二輪車」、それ以下を「人」とする。種別の欄には種別スコアに基づき、識別ルールで種別判定をした結果が格納されている。また、確信度考慮の有り無しの比較のため、実施例1と同様に確信度を考慮しない場合の総合判定結果である追跡物体総合判定スコアと、追跡物体総合判定スコアから種別判定した追跡物体種別がそれぞれ格納される、追跡物体総合判定スコア(確信度考慮なし)欄、追跡物体種別(確信度考慮なし)の欄を設けている。これに対し、確信度考慮した場合の総合判定結果である追跡物体総合判定スコアと、追跡物体総合判定スコアから種別判定した追跡物体種別がそれぞれ格納される、追跡物体総合判定スコア(確信度考慮あり)欄、追跡物体種別(確信度考慮あり)の欄を設けている。   A specific example will be described. In FIG. 29, the type score column stores the type score of the object region at that time calculated by the object type determination unit 23 from the feature amount. Here, it is assumed that the object type score is a score for discriminating between “person” and “two-wheeled vehicle”, and the identification rule is 0.0 as a threshold value, “motorcycle” is set as a threshold value, and “person” is set as a lower value. To do. The type column stores the result of the type determination based on the identification rule based on the type score. In addition, for comparison of whether or not certainty is taken into consideration, the tracking object type determined from the tracking object comprehensive determination score, which is the comprehensive determination result when the certainty factor is not considered, and the tracking object comprehensive determination score, as in Example 1. Are respectively stored, a tracking object comprehensive determination score (without considering certainty factor) column and a tracking object type (without considering certainty factor) column. On the other hand, the tracking object comprehensive determination score that is the comprehensive determination result when the certainty factor is considered, and the tracking object type that is determined from the tracking object comprehensive determination score are stored, respectively, and the tracking object comprehensive determination score (with certainty factor being considered) ) Column and a tracked object type column (with certainty factor taken into account).

確信度を考慮しない場合は、前述のように時刻毎の種別スコアの平均をとるため、例えば時刻t+1における画像データフレームの追跡物体総合判定スコアは、時刻tと時刻t+1における種別スコアの平均をとり(1+1.3)÷2=1.15となる。また、時刻t+2の時点の追跡物体総合判定スコアは時刻t、時刻t+1と時刻t+2の種別スコアの平均をとり(1+1.3+0.5)÷3=0.933333、等のように、その時刻までの追跡物体の種別スコアの平均をとることで算出する。このように算出した追跡物体総合判定スコアを追跡物体総合判定スコア(確信度考慮なし)の欄に格納する。このスコアから識別ルール(しきい値0.0で「人」と「二輪車」に識別)で識別した結果を追跡物体種別(確信度考慮なし)の欄に格納する。   When the certainty factor is not considered, the average of the type scores for each time is taken as described above. For example, the tracking object comprehensive determination score of the image data frame at the time t + 1 is the type score at the time t and the time t + 1. The average of (1 + 1.3) ÷ 2 = 1.15. The tracking object comprehensive determination score at time t + 2 is the average of the type scores of time t, time t + 1 and time t + 2, (1 + 1.3 + 0.5) ÷ 3 = 0.933333, etc. Thus, the calculation is performed by taking the average of the type scores of the tracked objects up to that time. The tracked object comprehensive determination score calculated in this way is stored in the tracked object comprehensive determination score (without considering certainty factor). The result identified from this score by the identification rule (identified as “person” and “motorcycle” with a threshold value of 0.0) is stored in the column of the tracking object type (without considering certainty factor).

一方、物体種別確信度を考慮する場合の具体例を説明する。確信度を考慮する場合は、種別スコアに物体種別確信度の重みを掛けて、例えば下記のように平均化する。   On the other hand, a specific example in the case of considering the object type certainty factor will be described. When the certainty factor is considered, the weight of the object type certainty factor is multiplied by the type score and averaged as follows, for example.

Figure 2015032133
Figure 2015032133

すなわち、確信度が高い時刻のスコアを重視して平滑化する。   That is, smoothing is performed with emphasis on the score at a time with a high certainty factor.

このため、例えば時刻t+1の時点の追跡物体総合判定スコアは時刻tと時刻t+1の物体種別確信度の重み付き平均をとり(0.1*1+0.2*1.3)÷(0.1+0.2)=1.2、時刻t+2の時点の追跡物体総合判定スコアは時刻t、時刻t+1と時刻t+2の物体種別の平均をとり(0.1*1+0.2*1.3+0.3*0.5)÷(0.1+0.2+0.3)=0.85、等のように、その時刻までの追跡データの種別スコアの物体種別確信度重み付き平均をとることで算出する。このように算出した追跡物体総合判定スコアを追跡物体総合判定スコア(確信度考慮あり)に格納する。このスコアから識別ルール(しきい値0.0で「人」と「二輪車」に識別)で識別した結果を追跡物体種別(確信度考慮あり)の欄に格納する。   For this reason, for example, the tracking object comprehensive determination score at time t + 1 takes the weighted average of object type certainty at time t and time t + 1 (0.1 * 1 + 0.2 * 1.3) / (0.1 + 0.2) = 1.2, the tracking object comprehensive judgment score at time t + 2 is the average of the object types at time t, time t + 1 and time t + 2 (0.1 * 1 + 0.2 * 1.3 + 0.3 * 0.5) ÷ ( For example, 0.1 + 0.2 + 0.3) = 0.85, and so on, by calculating the object type certainty weighted average of the type scores of the tracking data up to that time. The tracking object comprehensive determination score calculated in this way is stored in the tracking object comprehensive determination score (with certainty factor taken into account). The result identified from the score by the identification rule (identified as “person” and “motorcycle” with a threshold value of 0.0) is stored in the column of the tracking object type (with certainty factor taken into account).

以上の図29における種別スコア、追跡物体総合判定スコア(確信度考慮なし)、追跡物体総合判定スコア(確信度考慮あり)を比較のため時系列のグラフ上にプロットしたものが図30である。横軸は時刻であり、破線301が図29の種別スコア、破線302が追跡物体総合判定スコア(確信度考慮なし)、実線303が追跡物体総合判定スコア(確信度考慮あり)である。また、図中の実線304は「人」と「二輪車」を識別するしきい値(0.0)であり、これを超えると「二輪車」種別でありこれを下回ると「人」種別とする。   FIG. 30 is a plot of the type score, the tracking object comprehensive determination score (without considering the certainty factor), and the tracking object comprehensive determination score (with the certainty factor considered) in FIG. 29 on a time-series graph for comparison. The horizontal axis represents time, the broken line 301 is the type score of FIG. 29, the broken line 302 is the tracking object comprehensive determination score (without considering the certainty factor), and the solid line 303 is the tracking object comprehensive determination score (with certainty factor being considered). Further, a solid line 304 in the figure is a threshold (0.0) for identifying “person” and “two-wheeled vehicle”. If the threshold is exceeded, the “two-wheeled vehicle” type is set.

時刻毎の種別スコア301からは、識別ルールに基づき時刻tから時刻t+2の間は「二輪車」種別判定、時刻t+3からt+5の間は「人」、時刻t+6からt+8の間は「二輪車」と種別判定される。これに対し、確信度考慮しない追跡物体総合判定スコア302の場合は、スコアの平均をとることにより値が平滑化され、破線301の時刻毎の値のように変動が大きくはならないが、「二輪車」判定となる正の値のスコアが多い影響で最終的に時刻t+8で値がわずかに正の値(0.0111)となり、最終的にはこの追跡オブジェクトは「二輪車」として誤判定される。これに対し確信度考慮する追跡物体総合判定スコア303の場合は、確信度が高く重みの高い時刻t+3、t+4、t+5のスコアの比率が高くなるため、種別スコア301が正の値になる時刻t+6、t+7、t+8でも値は正の値に振れず、結果的に時刻t+8で負の値(‐1.161)となり、最終判定は「人」と正判定される。   Based on the classification score 301 for each time, based on the identification rule, the “motorcycle” type is determined from time t to time t + 2, “people” from time t + 3 to t + 5, and from time t + 6 to t Between +8, the type is determined as “motorcycle”. On the other hand, in the case of the tracking object comprehensive determination score 302 that does not consider the certainty factor, the value is smoothed by taking the average of the scores, and the fluctuation does not become large like the value for each time of the broken line 301. "At the time t + 8, the value finally becomes a slightly positive value (0.0111) due to the influence of many positive value scores to be determined. Finally, this tracking object is erroneously determined as" two-wheeled vehicle ". On the other hand, in the case of the tracking object comprehensive determination score 303 in which the certainty factor is considered, since the ratio of the scores of times t + 3, t + 4, and t + 5 having high certainty factor and high weight becomes high, the type score 301 is correct. At time t + 6, t + 7, t + 8, the value does not shift to a positive value, and as a result, at time t + 8, it becomes a negative value (-1.161). A positive determination is made.

以上のように、三番目の実施方法では、物体種別判定部23で種別スコアにより識別判定する場合には、物体種別確信度の重み付きで種別スコアを平均化してから種別判定することで、確信度の高い種別スコアに基づく追跡物体総合判定ができる効果がある。   As described above, in the third implementation method, when the object type determination unit 23 performs identification determination based on the type score, the type determination is performed after averaging the type score with the weight of the object type certainty factor. There is an effect that comprehensive tracking object determination based on a high type score can be performed.

本実施例によれば、物体領域の抽出条件により算出する物体種別確信度を考慮して追跡物体の種別を判定するものであるため、良好に物体領域が抽出でき、特徴量が適切に取得できる条件を優先的に使って判定処理が行え、物体種別判定精度を向上することが可能である。   According to the present embodiment, the type of the tracking object is determined in consideration of the object type certainty factor calculated based on the extraction condition of the object region. Therefore, the object region can be satisfactorily extracted and the feature amount can be appropriately acquired. The determination process can be performed using the conditions preferentially, and the object type determination accuracy can be improved.

なお、判定後の結果の表示については、実施例1と同様にサムネイル表示領域205中の各ウインドウ206,206内に物体種別確信度共に表示しても、また、日時、時刻、物体種別及び物体領域の画像を表示しても良い。   As for the display of the result after determination, even if the object type certainty factor is displayed in each of the windows 206 and 206 in the thumbnail display area 205 as in the first embodiment, the date and time, the time, the object type, and the object area are also displayed. An image may be displayed.

以上、実施例1及び実施例2においては、算出した物体種別確信度を物体情報格納部5に格納する場合を例に説明したが、これに限られず、物体種別確信度を物理的に異なる他の格納部に格納しても良い。この場合、物体種別確信度と他の情報との紐付けが可能となるよう構成する。   As described above, in the first embodiment and the second embodiment, the case where the calculated object type certainty factor is stored in the object information storage unit 5 has been described as an example. However, the present invention is not limited to this. You may store in the storage part. In this case, the object type certainty factor and other information can be linked.

図31は、本発明の実施例3に係る物体検索システムの機能ブロック図である。実施例1及び実施例2と同一の構成には同一の符号を付している。   FIG. 31 is a functional block diagram of an object search system according to Embodiment 3 of the present invention. The same components as those in the first and second embodiments are denoted by the same reference numerals.

本実施例における物体検索システムは、道路ネットワーク311、道路ネットワーク311上の複数の場所に設置した一つまたは複数の映像撮影装置312と、映像撮影装置312で撮影された映像を入力として画像認識処理を行う画像認識部313、映像撮影装置312で撮影された映像と、画像認識部313で処理した結果の情報を伝送する通信ネットワーク315と、通信ネットワーク315により伝送された映像と画像認識部313で処理した結果の情報及び映像撮影装置312による映像データを格納するサーバ318、サーバ318に格納された情報を伝送する通信ネットワーク316と、通信ネットワーク316を経由し情報を参照できるPC等の電子端末により構成される。   The object search system according to the present embodiment includes a road network 311, one or a plurality of video shooting devices 312 installed at a plurality of locations on the road network 311, and an image recognition process using video shot by the video shooting device 312 as input. The image recognition unit 313, the image captured by the image capturing device 312 and the communication network 315 that transmits information of the result processed by the image recognition unit 313, the image transmitted by the communication network 315, and the image recognition unit 313. A server 318 that stores information on the processing results and video data from the video photographing device 312, a communication network 316 that transmits information stored in the server 318, and an electronic terminal such as a PC that can refer to the information via the communication network 316 Composed.

映像撮影装置312が多数設置されると、大量の映像や画像認識結果の情報が取得されるため、それらをリアルタイムで全て伝送するのは困難である。そのため、複数の映像撮影装置312及び画像認識部313と通信ネットワーク315,316を介してサーバ318及び電子端末317を接続する構成としている。   When a large number of video photographing devices 312 are installed, a large amount of video and image recognition result information is acquired, and it is difficult to transmit all of them in real time. For this reason, the server 318 and the electronic terminal 317 are connected to the plurality of video photographing devices 312 and the image recognition unit 313 via the communication networks 315 and 316.

そして画像認識部313は、映像入力部1、物体種別識別部2、物体抽出部3、物体種別確信度算出部4と物体情報格納部5を備え、物体情報格納部5に格納された情報を通信ネットワーク315に伝送可能とする伝送制御部314から構成されている。画像認識部313を構成する映像入力部1、物体種別識別部2、物体抽出部3、物体種別確信度算出部4及び物体情報格納部5は、上述の実施例1と同様の動作を行うものであるため説明を省略する。   The image recognition unit 313 includes a video input unit 1, an object type identification unit 2, an object extraction unit 3, an object type certainty factor calculation unit 4, and an object information storage unit 5, and stores information stored in the object information storage unit 5. The transmission control unit 314 enables transmission to the communication network 315. The video input unit 1, the object type identification unit 2, the object extraction unit 3, the object type certainty factor calculation unit 4, and the object information storage unit 5 constituting the image recognition unit 313 perform the same operations as those in the first embodiment. Therefore, the description is omitted.

伝送制御部314は、物体情報格納部5に格納された情報を通信ネットワーク315へ送信する際、物体種別確信度の高いものを優先して送信する機能を有している。すなわち、物体種別確信度に応じて送信優先度を設定可能に構成されている。   The transmission control unit 314 has a function of preferentially transmitting information having a high object type certainty factor when transmitting information stored in the object information storage unit 5 to the communication network 315. That is, the transmission priority can be set according to the object type certainty factor.

サーバ318は、画像認識部313の伝送制御部314から送信される物体情報格納部5に格納された情報を通信ネットワーク315を介して受信し記憶する物体情報格納部5’、映像撮影装置312から送信される映像データを通信ネットワーク315を介して受信し記憶する映像格納部319を備えている。   The server 318 receives information stored in the object information storage unit 5 transmitted from the transmission control unit 314 of the image recognition unit 313 via the communication network 315 and stores the information from the object information storage unit 5 ′ and the video imaging device 312. A video storage unit 319 for receiving and storing transmitted video data via the communication network 315 is provided.

電子端末317は、検索部6及び表示部7を備えている。実施例1において説明したように、ユーザは、各検索条件を入力可能な日付選択領域201、時間帯選択リスト領域202と物体種別選択リスト領域203から所望の条件を指定できる。検索部6はサーバ318に通信ネットワーク316を介してアクセスし、実施例1において説明した処理を実行し検索結果を表示部7へ出力する。   The electronic terminal 317 includes a search unit 6 and a display unit 7. As described in the first embodiment, the user can specify desired conditions from the date selection area 201, the time zone selection list area 202, and the object type selection list area 203 in which each search condition can be input. The search unit 6 accesses the server 318 via the communication network 316, executes the processing described in the first embodiment, and outputs the search result to the display unit 7.

本実施例によれば、道路ネットワーク上に多数の映像撮影装置を設置し、リアルタイムで映像データが取得される場合にも、物体種別確信度により物体の撮影状態が良いと判定される物体の情報から優先して伝送し、参照できるため、効率良く且つ有効な物体検索システムを実現できる。   According to the present embodiment, even when a large number of video photographing devices are installed on a road network and video data is acquired in real time, information on an object that is determined to have a good photographing state by the object type certainty factor Therefore, it is possible to realize an efficient and effective object search system.

また、本実施例においては、道路ネットワークを例に説明したが、これに限られずビル内の複数個所を監視する監視カメラを備えたシステムにも適用できる。   In the present embodiment, the road network has been described as an example. However, the present invention is not limited to this, and the present invention can also be applied to a system including monitoring cameras that monitor a plurality of locations in a building.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の実施例の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace the configurations of other embodiments with respect to a part of the configurations of the embodiments.

1 映像入力部
2 物体種別識別部
3 物体抽出部
4 物体種別確信度算出部
5 物体情報格納部
6 検索部
7 表示部
21 特徴量算出部
22 識別基準格納部
23 物体種別判定部
24 フレーム間追跡部
25 物体種別総合判定部
9 確信度考慮物体種別識別部
312 映像撮影装置
317 電子端末
318 サーバ
1 Video input section
2 Object type identification part
3 Object extraction unit
4 Object type certainty calculation unit
5 Object information storage
6 Search part
7 Display
21 Feature amount calculator
22 Identification criteria storage
23 Object type determination unit
24-frame tracking unit
25 Object type comprehensive judgment section
9 Certainty-considered object type identification unit
312 Video equipment
317 electronic terminal
318 server

Claims (16)

映像データを入力する映像入力部と、
入力された映像データを構成する画像データフレームから物体領域を抽出する物体抽出部と、
前記物体領域内の画像の1つ以上の第1の特徴量に基づき、前記物体領域内の物体種別を識別する物体種別識別部と、
前記抽出された物体領域の1つ以上の第2の特徴量に基づき物体種別確信度を求める物体種別確信度算出部と、
前記各画像データフレーム毎に、前記物体種別及び物体種別確信度を対応付けて記憶する物体情報格納部と、
検索条件として入力される物体種別に対応する画像データフレーム及び物体種別確信度を、前記物体情報格納部より検索し表示部に出力する検索部を有することを特徴とする物体検索システム。
A video input unit for inputting video data;
An object extraction unit for extracting an object region from an image data frame constituting input video data;
An object type identifying unit for identifying an object type in the object area based on one or more first feature values of the image in the object area;
An object type certainty factor calculating unit that obtains an object type certainty factor based on one or more second feature quantities of the extracted object region;
An object information storage unit that stores the object type and the object type certainty factor in association with each image data frame;
An object search system comprising: a search unit that searches an image data frame and an object type certainty factor corresponding to an object type input as a search condition from the object information storage unit and outputs them to a display unit.
請求項1に記載の物体検索システムであって、
前記物体種別確信度算出部は、少なくとも、前記抽出された物体領域の面積、前記画像データフレーム中における前記抽出された物体領域の位置、連続する複数の画像データフレームにおける前記抽出された物体領域の縦横比の分散及び物体領域の面積の変動のうち何れかを前記第2の特徴量として前記物体種別確信度を求めることを特徴とする物体検索システム。
The object search system according to claim 1,
The object type certainty factor calculation unit includes at least the area of the extracted object region, the position of the extracted object region in the image data frame, and the extracted object region in a plurality of consecutive image data frames. An object search system characterized in that the object type certainty factor is obtained using any one of variance of aspect ratio and change in area of an object region as the second feature amount.
請求項1に記載の物体検索システムであって、
前記物体種別識別部は、前記物体領域内の画像から前記第1の特徴量を求める特徴量算出部と、予め物体種別毎に前記第1の特徴量のしきい値を格納する識別基準格納部と、前記特徴量算出部により求められた特徴量を前記識別基準格納部に格納されたしき値と比較し物体種別を判定する物体種別判定部を備えることを特徴とする物体検索システム。
The object search system according to claim 1,
The object type identification unit includes a feature amount calculation unit that obtains the first feature amount from an image in the object region, and an identification reference storage unit that previously stores a threshold value of the first feature amount for each object type And an object type determination unit that compares the feature amount obtained by the feature amount calculation unit with a threshold value stored in the identification reference storage unit and determines an object type.
請求項2に記載の物体検索システムであって、
前記物体種別確信度算出部は、前記抽出された物体領域の面積と所定のしきい値と比較し前記しきい値以下の場合、前記物体領域の面積を前記しきい値で除算した値を前記物体種識別確信度とする物体検索システム。
The object search system according to claim 2,
The object type certainty factor calculation unit compares the area of the extracted object region with a predetermined threshold value and, when the threshold value is equal to or less than the threshold value, a value obtained by dividing the area of the object region by the threshold value Object search system with object type identification confidence.
請求項2に記載の物体検索システムであって、
前記物体種別確信度算出部は、連続する複数の画像データフレームにおける前記物体領域の縦横比の分散を所定のしきい値と比較し前記しきい値より大の場合、前記しきい値を前記物体領域の分散で除算した値を前記物体種別確信度とする物体検索システム。
The object search system according to claim 2,
The object type certainty factor calculation unit compares the variance of the aspect ratio of the object region in a plurality of continuous image data frames with a predetermined threshold value, and if the threshold value is larger than the threshold value, sets the threshold value to the object An object search system in which a value obtained by dividing an area variance is used as the object type certainty factor.
請求項3に記載の物体検索システムであって、
前記物体種別識別部は、前記物体情報格納部を参照し前記抽出された物体領域に類似する物体領域を有する画像データフレームを抽出し、同一の物体であることを示す追跡物体IDを前記物体情報格納部へ出力するデータフレーム間追跡部を有し、
前記表示部は、画面上の所定の領域に、前記検索部からの出力に対応する画像データフレーム及び物体種別確信度を表示すると共に、前記同一の物体であることを示す追跡物体IDを有する複数の画像データフレームを表示することを特徴とする物体検索システム。
The object search system according to claim 3,
The object type identification unit extracts an image data frame having an object region similar to the extracted object region with reference to the object information storage unit, and sets a tracking object ID indicating the same object as the object information It has an inter-data frame tracking unit that outputs to the storage unit,
The display unit displays, in a predetermined area on the screen, an image data frame and an object type certainty factor corresponding to the output from the search unit, and a plurality of tracking object IDs indicating the same object An object search system characterized by displaying an image data frame.
請求項6に記載の物体検索システムであって、
前記表示部は、少なくとも物体種別確信度の高い順及び物体種別確信の低い順のいずれかを選択入力可能とする表示優先度領域を前記画面上に表示し、
前記検索部は、選択入力された表示優先度に対応する画像データフレーム及び物体種別確信度を前記表示部へ出力することを特徴とする物体検索システム。
The object search system according to claim 6,
The display unit displays on the screen a display priority area that enables selection input of at least one of the order of high object type certainty and the order of low object type certainty,
The search unit outputs an image data frame and an object type certainty factor corresponding to a display priority selected and input to the display unit.
映像データを入力する映像入力部と、
入力された映像データを構成する画像データフレームから物体領域を抽出する物体抽出部と、
前記抽出された物体領域の1つ以上の第1の特徴に基づき物体種別確信度を求める物体種別確信度算出部と、
前記物体領域内の画像の1つ以上の第2の特徴量及び前記求められた物体種別確信度に基づき、前記物体領域内の物体種別を識別する物体種別識別部と、
前記各画像データフレーム毎に、前記物体種別及び物体種別確信度を対応付けて記憶する物体情報格納部と、
検索条件として入力される物体種別に対応する画像データフレームを、前記物体情報格納部より検索し表示部に出力する検索部を有することを特徴とする物体検索システム。
A video input unit for inputting video data;
An object extraction unit for extracting an object region from an image data frame constituting input video data;
An object type certainty factor calculating unit that obtains an object type certainty factor based on one or more first characteristics of the extracted object region;
An object type identification unit for identifying an object type in the object area based on one or more second feature values of the image in the object area and the obtained object type certainty factor;
An object information storage unit that stores the object type and the object type certainty factor in association with each image data frame;
An object search system comprising: a search unit that searches an image data frame corresponding to an object type input as a search condition from the object information storage unit and outputs the image data frame to a display unit.
請求項8に記載の物体検索システムであって、
前記物体種別確信度算出部は、少なくとも、前記抽出された物体領域の面積、前記画像データフレーム中における前記抽出された物体領域の位置、連続する複数の画像データフレームにおける前記抽出された物体領域の縦横比の分散及び物体領域の面積の変動のうち何れかを前記第1の特徴量として前記物体種別確信度を求めることを特徴とする物体検索システム。
The object search system according to claim 8,
The object type certainty factor calculation unit includes at least the area of the extracted object region, the position of the extracted object region in the image data frame, and the extracted object region in a plurality of consecutive image data frames. An object search system characterized in that the object type certainty factor is obtained using any one of variance of aspect ratio and change in area of an object region as the first feature amount.
請求項9に記載の物体検索システムであって、
前記物体種別識別部は、前記物体領域内の画像から前記第2の特徴量を求める特徴量算出部と、予め物体種別毎に前記第2の特徴量のしきい値を格納する識別基準格納部と、前記特徴量算出部により求められた特徴量を前記識別基準格納部に格納されたしきい値と比較し物体種別を判定する物体種別判定部を備えることを特徴とする物体検索システム。
The object search system according to claim 9,
The object type identification unit includes a feature amount calculation unit that obtains the second feature amount from an image in the object region, and an identification reference storage unit that previously stores a threshold value of the second feature amount for each object type And an object type determination unit that compares the feature amount obtained by the feature amount calculation unit with a threshold value stored in the identification reference storage unit and determines an object type.
請求項9に記載の物体検索システムであって、
前記物体種別確信度算出部は、前記抽出された物体領域の面積と所定のしきい値と比較し前記しきい値以下の場合、前記物体領域の面積を前記しきい値で除算した値を前記物体種識別確信度とする物体検索システム。
The object search system according to claim 9,
The object type certainty factor calculation unit compares the area of the extracted object region with a predetermined threshold value and, when the threshold value is equal to or less than the threshold value, a value obtained by dividing the area of the object region by the threshold value Object search system with object type identification confidence.
請求項9に記載の物体検索システムであって、
前記物体種別確信度算出部は、連続する複数の画像データフレームにおける前記物体領域の縦横比の分散を所定のしきい値と比較し前記しきい値より大の場合、前記しきい値を前記物体領域の分散で除算した値を前記物体種別確信度とする物体検索システム。
The object search system according to claim 9,
The object type certainty factor calculation unit compares the variance of the aspect ratio of the object region in a plurality of continuous image data frames with a predetermined threshold value, and if the threshold value is larger than the threshold value, sets the threshold value to the object An object search system in which a value obtained by dividing an area variance is used as the object type certainty factor.
請求項10に記載の物体検索システムであって、
前記物体種別識別部は、前記物体情報格納部を参照し前記抽出された物体領域に類似する物体領域を有する画像データフレームを抽出し、同一の物体であることを示す追跡物体IDを前記物体情報格納部へ出力するデータフレーム間追跡部を有することを特徴とする物体検索システム。
The object search system according to claim 10,
The object type identification unit extracts an image data frame having an object region similar to the extracted object region with reference to the object information storage unit, and sets a tracking object ID indicating the same object as the object information An object search system comprising an inter-data frame tracking unit for outputting to a storage unit.
撮像カメラと、撮像カメラから入力される映像データを処理する画像認識部からなる複数の画像処理装置と、
前記複数の画像処理装置と通信ネットワークを介して接続されるサーバと、
前記サーバと通信ネットワークを介して接続される電子端末とを有し、
前記画像認識部は、入力された映像データを構成する画像データフレームから物体領域を抽出する物体抽出部と、前記物体領域内の画像の1つ以上の第1の特徴量に基づき前記物体領域内の物体種別を識別する物体種別識別部と、前記抽出された物体領域の1つ以上の第2の特徴量に基づき物体種別確信度を求める物体種別確信度算出部と、前記各画像データフレーム毎に前記物体種別及び物体種別確信度を対応付けて記憶する物体情報格納部と、前記物体種別確信度に応じて対応する画像データフレームと物体種別及び物体種別確信度を前記通信ネットワークを介して前記サーバへ送信する伝送制御部を備え、
前記サーバは、前記画像処理装置より送信される画像データフレームと物体種別及び物体種別確信度をそれぞれ対応付けて記憶し、
前記電子端末は、少なくとも検索条件として入力される物体種別に対応する画像データフレーム及び物体種別確信度を、前記サーバより検索し表示部に出力する検索部を有することを特徴とする物体検索システム。
A plurality of image processing devices including an imaging camera and an image recognition unit that processes video data input from the imaging camera;
A server connected to the plurality of image processing apparatuses via a communication network;
An electronic terminal connected to the server via a communication network;
The image recognition unit includes an object extraction unit that extracts an object region from an image data frame that constitutes input video data, and an object region based on one or more first feature values of an image in the object region. An object type identifying unit for identifying the object type, an object type certainty calculating unit for obtaining an object type certainty factor based on one or more second feature quantities of the extracted object region, and each image data frame The object information storage unit that stores the object type and the object type certainty factor in association with each other, the image data frame corresponding to the object type certainty factor, the object type, and the object type certainty factor through the communication network A transmission control unit for sending to the server,
The server stores the image data frame transmitted from the image processing apparatus in association with the object type and the object type certainty factor,
The electronic terminal has a search unit that searches for an image data frame corresponding to an object type input as a search condition and an object type certainty factor from at least the server and outputs them to a display unit.
請求項14に記載の物体検索システムであって、
前記伝送制御部は、前記物体情報格納部に記憶された物体識別確信度の高い順に、前記画像データフレームと物体種別及び物体種別確信度を前記サーバへ送信することを特徴とする物体検索システム。
The object search system according to claim 14,
The transmission control unit transmits the image data frame, the object type, and the object type certainty factor to the server in descending order of object identification certainty values stored in the object information storage unit.
請求項15に記載の物体検索システムであって、
前記物体種別確信度算出部は、少なくとも、前記抽出された物体領域の面積、前記画像データフレーム中における前記抽出された物体領域の位置、連続する複数の画像データフレームにおける前記抽出された物体領域の縦横比の分散及び物体領域の面積の変動のうち何れかを前記第2の特徴量として前記物体種別確信度を求めることを特徴とする物体検索システム。
The object search system according to claim 15,
The object type certainty factor calculation unit includes at least the area of the extracted object region, the position of the extracted object region in the image data frame, and the extracted object region in a plurality of consecutive image data frames. An object search system characterized in that the object type certainty factor is obtained using any one of variance of aspect ratio and change in area of an object region as the second feature amount.
JP2013161106A 2013-08-02 2013-08-02 Object search system Active JP6088381B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013161106A JP6088381B2 (en) 2013-08-02 2013-08-02 Object search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013161106A JP6088381B2 (en) 2013-08-02 2013-08-02 Object search system

Publications (2)

Publication Number Publication Date
JP2015032133A true JP2015032133A (en) 2015-02-16
JP6088381B2 JP6088381B2 (en) 2017-03-01

Family

ID=52517396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013161106A Active JP6088381B2 (en) 2013-08-02 2013-08-02 Object search system

Country Status (1)

Country Link
JP (1) JP6088381B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016186780A (en) * 2015-03-27 2016-10-27 中日本高速道路株式会社 Movable body detection device
WO2017026155A1 (en) * 2015-08-11 2017-02-16 ソニー株式会社 Information processing device, information processing method, and program
JP2017117139A (en) * 2015-12-24 2017-06-29 キヤノンマーケティングジャパン株式会社 Information processing unit, control method, program
WO2017163736A1 (en) * 2016-03-22 2017-09-28 株式会社デンソー Movement path detection device, moving object detection device, and movement path detection method
CN108491419A (en) * 2018-02-06 2018-09-04 北京奇虎科技有限公司 It is a kind of to realize the method and apparatus recommended based on video
JP2018157287A (en) * 2017-03-16 2018-10-04 三菱電機インフォメーションネットワーク株式会社 Video playback apparatus, video playback method, video playback program, and video playback system
JP2018190132A (en) * 2017-05-01 2018-11-29 富士通株式会社 Computer program for image recognition, image recognition device and image recognition method
JP2019049793A (en) * 2017-09-08 2019-03-28 パナソニックIpマネジメント株式会社 Information processing method and information processing program
JP2019075130A (en) * 2018-11-22 2019-05-16 キヤノンマーケティングジャパン株式会社 Information processing unit, control method, program
US10346688B2 (en) 2016-01-12 2019-07-09 Hitachi Kokusai Electric Inc. Congestion-state-monitoring system
WO2020086484A1 (en) * 2018-10-22 2020-04-30 Lyft, Inc. Systems and methods for automated image labeling for images captured from vehicles
CN111400533A (en) * 2020-03-02 2020-07-10 北京三快在线科技有限公司 Image screening method and device, electronic equipment and storage medium
WO2020196385A1 (en) * 2019-03-25 2020-10-01 富士フイルム株式会社 Image processing device, image processing method, program, and image-capturing device
JP2021026644A (en) * 2019-08-08 2021-02-22 トヨタ自動車株式会社 Article detection apparatus, article detection method, and article-detecting computer program
JP2021111171A (en) * 2020-01-13 2021-08-02 板持 貴之 Image processing device, image processing method and program
WO2022014327A1 (en) * 2020-07-14 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
JP7477764B2 (en) 2020-08-19 2024-05-02 富士通株式会社 Information processing program, information processing method, and information processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307106A (en) * 2000-04-20 2001-11-02 Hitachi Ltd Method and device for extracting/displaying target
JP2009289230A (en) * 2008-06-02 2009-12-10 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2010167042A (en) * 2009-01-21 2010-08-05 Canon Inc Medical diagnostic support apparatus and control method of the same and program
JP2013012163A (en) * 2011-06-30 2013-01-17 Fujitsu Ltd Image recognition device, image recognition method and computer program for image recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307106A (en) * 2000-04-20 2001-11-02 Hitachi Ltd Method and device for extracting/displaying target
JP2009289230A (en) * 2008-06-02 2009-12-10 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2010167042A (en) * 2009-01-21 2010-08-05 Canon Inc Medical diagnostic support apparatus and control method of the same and program
JP2013012163A (en) * 2011-06-30 2013-01-17 Fujitsu Ltd Image recognition device, image recognition method and computer program for image recognition

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016186780A (en) * 2015-03-27 2016-10-27 中日本高速道路株式会社 Movable body detection device
US10460587B2 (en) 2015-08-11 2019-10-29 Sony Corporation Information processing apparatus, information processing method, and program
WO2017026155A1 (en) * 2015-08-11 2017-02-16 ソニー株式会社 Information processing device, information processing method, and program
JPWO2017026155A1 (en) * 2015-08-11 2018-05-24 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017117139A (en) * 2015-12-24 2017-06-29 キヤノンマーケティングジャパン株式会社 Information processing unit, control method, program
US10346688B2 (en) 2016-01-12 2019-07-09 Hitachi Kokusai Electric Inc. Congestion-state-monitoring system
WO2017163736A1 (en) * 2016-03-22 2017-09-28 株式会社デンソー Movement path detection device, moving object detection device, and movement path detection method
JP2017174015A (en) * 2016-03-22 2017-09-28 株式会社デンソー Movement locus detection device, movement object detection device, and movement locus detection method
JP2018157287A (en) * 2017-03-16 2018-10-04 三菱電機インフォメーションネットワーク株式会社 Video playback apparatus, video playback method, video playback program, and video playback system
JP2018190132A (en) * 2017-05-01 2018-11-29 富士通株式会社 Computer program for image recognition, image recognition device and image recognition method
JP2019049793A (en) * 2017-09-08 2019-03-28 パナソニックIpマネジメント株式会社 Information processing method and information processing program
JP6998521B2 (en) 2017-09-08 2022-01-18 パナソニックIpマネジメント株式会社 Information processing method and information processing program
CN108491419A (en) * 2018-02-06 2018-09-04 北京奇虎科技有限公司 It is a kind of to realize the method and apparatus recommended based on video
WO2020086484A1 (en) * 2018-10-22 2020-04-30 Lyft, Inc. Systems and methods for automated image labeling for images captured from vehicles
US11163998B2 (en) 2018-10-22 2021-11-02 Woven Planet North America, Inc. Systems and methods for automated image labeling for images captured from vehicles
JP2019075130A (en) * 2018-11-22 2019-05-16 キヤノンマーケティングジャパン株式会社 Information processing unit, control method, program
JPWO2020196385A1 (en) * 2019-03-25 2020-10-01
WO2020196385A1 (en) * 2019-03-25 2020-10-01 富士フイルム株式会社 Image processing device, image processing method, program, and image-capturing device
JP7169431B2 (en) 2019-03-25 2022-11-10 富士フイルム株式会社 Image processing device, image processing method and program, imaging device
JP2021026644A (en) * 2019-08-08 2021-02-22 トヨタ自動車株式会社 Article detection apparatus, article detection method, and article-detecting computer program
JP7078021B2 (en) 2019-08-08 2022-05-31 トヨタ自動車株式会社 Object detection device, object detection method and computer program for object detection
JP2021111171A (en) * 2020-01-13 2021-08-02 板持 貴之 Image processing device, image processing method and program
CN111400533A (en) * 2020-03-02 2020-07-10 北京三快在线科技有限公司 Image screening method and device, electronic equipment and storage medium
CN111400533B (en) * 2020-03-02 2023-10-17 北京三快在线科技有限公司 Image screening method, device, electronic equipment and storage medium
WO2022014327A1 (en) * 2020-07-14 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
JP7477764B2 (en) 2020-08-19 2024-05-02 富士通株式会社 Information processing program, information processing method, and information processing device

Also Published As

Publication number Publication date
JP6088381B2 (en) 2017-03-01

Similar Documents

Publication Publication Date Title
JP6088381B2 (en) Object search system
AU2017372905B2 (en) System and method for appearance search
US10753881B2 (en) Methods and systems for crack detection
Borges et al. A probabilistic approach for vision-based fire detection in videos
KR101697161B1 (en) Device and method for tracking pedestrian in thermal image using an online random fern learning
KR101592889B1 (en) Object matching for tracking, indexing, and search
US8031914B2 (en) Face-based image clustering
EP1337962B9 (en) System and method for object identification and behavior characterization using video analysis
TW201737134A (en) System and method for training object classifier by machine learning
EP2490171A1 (en) Clothing feature extraction device, person retrieval device, and processing method thereof
Nurhadiyatna et al. Background subtraction using gaussian mixture model enhanced by hole filling algorithm (gmmhf)
CN109727275B (en) Object detection method, device, system and computer readable storage medium
Siva et al. Weakly Supervised Action Detection.
CN106934817B (en) Multi-attribute-based multi-target tracking method and device
CN105745687A (en) Context aware moving object detection
CN109829382B (en) Abnormal target early warning tracking system and method based on intelligent behavior characteristic analysis
CN110674680B (en) Living body identification method, living body identification device and storage medium
Lin et al. Visual-attention-based background modeling for detecting infrequently moving objects
US20140105463A1 (en) Method and system for motion detection in an image
US10762372B2 (en) Image processing apparatus and control method therefor
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
Hashemzadeh et al. Smoke detection in video using convolutional neural networks and efficient spatio-temporal features
Zhang et al. People detection in low-resolution video with non-stationary background
WO2020217369A1 (en) Object feature quantity extraction device, object feature quantity extraction method, and non-transitory computer-readable medium
JP4838272B2 (en) VIDEO INDEXING DEVICE, VIDEO INDEXING METHOD, VIDEO INDEXING PROGRAM, AND ITS RECORDING MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170203

R150 Certificate of patent or registration of utility model

Ref document number: 6088381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250