JP2015049702A - Object recognition device, object recognition method, and program - Google Patents

Object recognition device, object recognition method, and program Download PDF

Info

Publication number
JP2015049702A
JP2015049702A JP2013180845A JP2013180845A JP2015049702A JP 2015049702 A JP2015049702 A JP 2015049702A JP 2013180845 A JP2013180845 A JP 2013180845A JP 2013180845 A JP2013180845 A JP 2013180845A JP 2015049702 A JP2015049702 A JP 2015049702A
Authority
JP
Japan
Prior art keywords
trajectory
point
pattern
correlation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013180845A
Other languages
Japanese (ja)
Inventor
航介 吉見
Kosuke Yoshimi
航介 吉見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013180845A priority Critical patent/JP2015049702A/en
Publication of JP2015049702A publication Critical patent/JP2015049702A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable the reduction of the occurrence of false recognition of an object.SOLUTION: An object recognition device includes storage means for storing a collection of locus patterns of points that constitutes a recognition object as a standard pattern, point locus acquisition means for acquiring the loci of the points on an image, and locus pattern correlation optimization means for selecting a collection of the loci of the points on the basis of the similarity between the loci of the points acquired by the point locus acquisition means and the standard pattern, and extracting the selected collection of the loci of the points as a recognition object on the image.

Description

本発明は、移動物体等の対象認識技術に関する。   The present invention relates to a technique for recognizing a target such as a moving object.

カメラから取得された動画像系列から特定の物体を認識するための方法として、様々な計算機処理方法が提案されている。例えば、画像中から人物、車両、顔など特定のカテゴリの物体を検知する方法として、特許文献1、2に記載の方法がある。特許文献1記載の方法は、複数の移動軌跡をサブクラスに分類し、サブクラスの間で移動軌跡の共有割合を算出し、サブクラス間類似度を導出する。そして、同方法は、サブクラス間の類似度がより高いサブクラスの集まりほど、より同一のクラスに分類されるように、サブクラスをクラスに分類する。このように、同方法は、同一のクラスに含まれる移動軌跡に対応するブロック同士を移動体の領域として特定し、動画像中の移動体を検出することができる。また、特許文献2には、移動体の形状・大きさの変化、遮蔽の影響を受けずに、正しく領域を抽出することができる移動体検出方法の一例が記載されている。特許文献2には、領域分割候補選択において、移動軌跡間の測地距離の時間変化、または、領域間分割候補の領域間測地距離の時間変化を用いて、領域分割候補の選択を行うことが記載されている。   Various computer processing methods have been proposed as a method for recognizing a specific object from a moving image sequence acquired from a camera. For example, there are methods described in Patent Documents 1 and 2 as methods for detecting an object of a specific category such as a person, a vehicle, and a face from an image. The method described in Patent Document 1 classifies a plurality of movement trajectories into subclasses, calculates a share ratio of the movement trajectory among the subclasses, and derives a subclass similarity. In this method, the subclasses are classified into classes so that a collection of subclasses having higher similarity between subclasses is classified into the same class. In this way, this method can identify blocks corresponding to moving loci included in the same class as moving object areas and detect moving objects in a moving image. Patent Document 2 describes an example of a mobile object detection method that can correctly extract a region without being affected by changes in the shape and size of the mobile object and the influence of shielding. Patent Document 2 describes that region selection candidates are selected by using temporal changes in geodetic distances between moving trajectories or temporal changes in inter-regional geodetic distances of inter-region division candidates in region division candidate selection. Has been.

特許5102410号Patent 5102410 再特WO2010/079556号Re-specialized WO2010 / 079556

もっとも、上述の技術においては、車載カメラ画像のように、カメラ自体が動くことにより背景画像が常に変化するような条件においては、ノイズや背景物体画像の移動などにより、認識対象の誤認識(誤検知、検知漏れを含む)が発生しうる。   However, in the above-described technology, under the condition that the background image always changes as the camera itself moves, such as an in-vehicle camera image, the recognition target may be erroneously recognized (error) due to noise or movement of the background object image. Detection, including detection omission).

かかる目的を達成するため、本発明の一形態は、対象認識装置であって、認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶する記憶手段と、画像上の点の軌道を取得する点軌道取得手段と、前記点軌道取得手段が取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する軌道パタン相関最適化手段と、を含む。   In order to achieve such an object, an aspect of the present invention is an object recognition apparatus, which stores storage trajectories of a set to which trajectory patterns of points constituting a recognition target belong as reference patterns, and points on an image. A point trajectory acquisition means for acquiring a trajectory; a point trajectory set is selected based on the similarity between the point trajectory acquired by the point trajectory acquisition means and the reference pattern; and the selected point trajectory set is recognized on the image Orbital pattern correlation optimization means for extracting as a target.

また、本発明は、認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶する記憶手段を備えるコンピュータに、画像上の点の軌道を取得する点軌道取得ステップと、取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する軌道パタン相関最適化ステップと、を実行させる対象認識プログラムを提供する。   In addition, the present invention provides a point trajectory acquisition step for acquiring a trajectory of a point on an image in a computer including storage means for storing a trajectory of a set to which a trajectory pattern of points constituting a recognition target belongs as a reference pattern. An object recognition program for executing a trajectory pattern correlation optimization step of selecting a set of point trajectories based on similarity between a point trajectory and the reference pattern, and extracting the selected point trajectory set as a recognition target on the image; I will provide a.

また、本発明は、認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶し、画像上の点の軌道を取得し、取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する対象認識方法を提供する。   In addition, the present invention stores a trajectory of a set to which a trajectory pattern of points constituting a recognition target belongs as a reference pattern, acquires a trajectory of a point on an image, and determines the similarity between the acquired point trajectory and the reference pattern. An object recognition method for selecting a set of point trajectories based on the selected point trajectory and extracting the selected point trajectory set as a recognition target on the image is provided.

本発明によれば、対象の誤認識の発生を低減できる。   According to the present invention, occurrence of erroneous recognition of an object can be reduced.

移動物体認識システムの物理的構成の例を示す図である。It is a figure which shows the example of the physical structure of a moving object recognition system. 移動物体認識システムの機能部の構成の例を示す図である。It is a figure which shows the example of a structure of the function part of a moving object recognition system. 軌道相関パタン最適化部の規範パタンの学習の流れの例を示す図である。It is a figure which shows the example of the flow of learning of the norm pattern of a trajectory correlation pattern optimization part. 軌道相関パタン最適化部において用いられるパタンの特徴量表現の例を示す図である。It is a figure which shows the example of the feature-value expression of the pattern used in a trajectory correlation pattern optimization part. 軌道相関パタン最適化部における入力データからの特徴取得の流れの例を示す図である。It is a figure which shows the example of the flow of the feature acquisition from the input data in a trajectory correlation pattern optimization part. 軌道相関パタン最適化部における効果の例を説明する図である。It is a figure explaining the example of the effect in a trajectory correlation pattern optimization part. 移動物体認識システムの処理の流れの例を示す図である。It is a figure which shows the example of the flow of a process of a moving object recognition system. 軌道相関パタンに基づく最適化の処理の流れの例を示す図である。It is a figure which shows the example of the flow of the process of optimization based on an orbital correlation pattern. 一般的な識別器による検知における問題を説明する図である。It is a figure explaining the problem in the detection by a general discriminator. 移動物体認識システムの構成の例を示す図である。It is a figure which shows the example of a structure of a moving object recognition system. 移動物体認識システムの構成の例を示す図である。It is a figure which shows the example of a structure of a moving object recognition system. 移動物体認識システムの構成の例を示す図である。It is a figure which shows the example of a structure of a moving object recognition system.

以下、本発明の実施の形態について、図面を用いて説明する。すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。なお、以下の説明における装置等を構成する各部は、論理回路等のハードウェアで構成される。また、各部は、コンピュータの制御部、メモリ、メモリにロードされたプログラム、プログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェース等からなり、ハードウェアとソフトウェアの任意の組合せによって実現されてもよい。また特に断りのない限り、その実現方法、装置は限定されない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same components are denoted by the same reference numerals, and description thereof will be omitted as appropriate. In addition, each part which comprises the apparatus in the following description is comprised by hardware, such as a logic circuit. Each unit includes a computer control unit, a memory, a program loaded in the memory, a storage unit such as a hard disk for storing the program, a network connection interface, and the like, and may be realized by any combination of hardware and software. Good. Further, unless otherwise specified, the realization method and apparatus are not limited.

<実施形態1>
「構成」
図1は、本発明の実施形態にかかる移動物体認識システム1の構成例を示したブロック図である。図1を参照すると、移動物体認識システム1は、画像入力装置20と、電子制御装置10と、端末装置30と、を備える。
<Embodiment 1>
"Constitution"
FIG. 1 is a block diagram showing a configuration example of a moving object recognition system 1 according to an embodiment of the present invention. Referring to FIG. 1, the moving object recognition system 1 includes an image input device 20, an electronic control device 10, and a terminal device 30.

画像入力装置20は、画像情報を電子制御装置10に入力する装置である。画像入力装置20は、例えばカメラデバイス等の撮像装置である。カメラデバイスは、リアルタイムで画像を撮像する装置であり、撮影対象の画像を連続的に取得する。撮像装置は、例えば、NTSC(National Television Standards Committee)形式やPAL(Phase Alternating Line)形式を出力するビデオカメラ等である。なお、画像入力装置20は、記憶媒体に保存された画像情報を読み出してNTSC出力やPAL出力、その他電子制御装置10が読み取ることのできる画像形式に変換して出力するような画像キャプチャ装置でもよい。この場合の画像入力装置20は、電子制御装置10のCPU(Central Processing Unit)11内部で動作するソフトウェアプログラムとして実現することもできる。なお、画像入力装置20は固定カメラに限定されず、移動カメラでもよい。本発明は、パンチルトカメラを用いた監視システム、車載カメラによるドライバー支援、移動ロボットの環境認識、等の幅広い用途に応用が可能である。   The image input device 20 is a device that inputs image information to the electronic control device 10. The image input device 20 is an imaging device such as a camera device. The camera device is an apparatus that captures images in real time, and continuously acquires images to be captured. The imaging device is, for example, a video camera that outputs an NTSC (National Television Standards Committee) format or a PAL (Phase Alternating Line) format. The image input device 20 may be an image capture device that reads image information stored in a storage medium, converts it into an NTSC output, PAL output, or other image format that can be read by the electronic control device 10 and outputs the image format. . The image input device 20 in this case can also be realized as a software program that operates inside a CPU (Central Processing Unit) 11 of the electronic control device 10. The image input device 20 is not limited to a fixed camera, and may be a moving camera. The present invention can be applied to a wide range of uses such as a monitoring system using a pan / tilt camera, driver support by a vehicle-mounted camera, environment recognition of a mobile robot, and the like.

端末装置30は、電子制御装置10を操作し、電子制御装置10の内部状態や出力をモニタリングするためのユーザインターフェースとして動作する。端末装置30は、入力画像や、認識領域、登録されている認識対象のリストをユーザに示すシンボル等を提示するディスプレイ等である。また、端末装置30は、画像認識の開始/終了、認識対象の指定、ディスプレイ提示情報の選択等、電子制御装置10への指令を入力するための入力デバイス(例えば、スイッチボード、キーボード、マウス、タッチパネル等)である。   The terminal device 30 operates as a user interface for operating the electronic control device 10 and monitoring the internal state and output of the electronic control device 10. The terminal device 30 is a display or the like that presents an input image, a recognition area, a symbol indicating a registered list of recognition targets, and the like. Further, the terminal device 30 is an input device (for example, a switch board, keyboard, mouse, etc.) for inputting commands to the electronic control device 10 such as start / end of image recognition, designation of a recognition target, selection of display presentation information, and the like. Touch panel, etc.).

電子制御装置10は、画像中の物体を認識するための情報処理を行うコンピュータである。電子制御装置10は、画像入力装置20から送られる画像情報に応じて、所定のプログラムに基づき、画像中の認識対象とした特定カテゴリに属する物体(歩行者、先行車両等)の領域を特定するための情報処理を行なう。   The electronic control device 10 is a computer that performs information processing for recognizing an object in an image. The electronic control device 10 specifies a region of an object (pedestrian, preceding vehicle, etc.) belonging to a specific category as a recognition target in the image based on a predetermined program in accordance with image information sent from the image input device 20. Information processing is performed.

電子制御装置10は、中央演算装置(CPU)11と、記憶装置(Mem)12と、記憶装置(DB:database)13と、インターフェース(I/F)14、15と、を有する。図1では記憶装置(Mem)12と記憶装置(DB)13とが分かれて記載されているが、これらは一つの記憶デバイスとして実現されてもよい。   The electronic control device 10 includes a central processing unit (CPU) 11, a storage device (Mem) 12, a storage device (DB: database) 13, and interfaces (I / F) 14 and 15. In FIG. 1, the storage device (Mem) 12 and the storage device (DB) 13 are described separately, but these may be realized as one storage device.

インターフェース14は、中央演算装置11、記憶装置(Mem)12、記憶装置(DB)13、と画像入力装置20との間の情報のやり取りを仲介する装置である。図1ではインターフェース14は画像入力装置20と中央演算装置11とが接続されている。インターフェース14は、記憶装置(Mem)12、記憶装置(DB)13と直接接続されてもよい。   The interface 14 is a device that mediates exchange of information among the central processing unit 11, the storage device (Mem) 12, the storage device (DB) 13, and the image input device 20. In FIG. 1, the interface 14 is connected to the image input device 20 and the central processing unit 11. The interface 14 may be directly connected to the storage device (Mem) 12 and the storage device (DB) 13.

インターフェース15は、電子制御装置10の内部で行なわれた情報処理の結果を外部に接続した端末装置30に引き渡す場合、あるいは端末装置30から入力される電子制御装置10への指令入力を受け取る場合に情報の仲介装置としての役割を果たす。   The interface 15 passes the result of information processing performed inside the electronic control device 10 to the terminal device 30 connected to the outside, or receives a command input from the terminal device 30 to the electronic control device 10. Serves as an information broker.

記憶装置(Mem)12は、一時的なデータを記憶する装置であり、中央演算装置11と電気的に接続されている。記憶装置(DB)13は、主にデータベース(DB)を記憶する装置であり、中央演算装置11と電気的に接続されている。なお、図1では、記憶装置(Mem)12及び記憶装置(DB)13は、電子制御装置10に内蔵されているが、
これらの装置は外部の記憶装置でもよい。
The storage device (Mem) 12 is a device that stores temporary data, and is electrically connected to the central processing unit 11. The storage device (DB) 13 is a device that mainly stores a database (DB), and is electrically connected to the central processing unit 11. In FIG. 1, the storage device (Mem) 12 and the storage device (DB) 13 are built in the electronic control device 10.
These devices may be external storage devices.

中央演算装置11は、情報処理を行う装置である。中央演算装置11はインターフェース14、15、記憶装置(Mem)12、及び記憶装置(DB)13と電気的に接続されている。中央演算装置11は、画像入力装置20からインターフェース14を介して入力された画像情報に基づいて、記憶装置(Mem)12及び記憶装置(DB)13に記憶された情報を参照しながら、対象となる物体等の画像領域を検知するための情報処理を行う。   The central processing unit 11 is a device that performs information processing. The central processing unit 11 is electrically connected to the interfaces 14 and 15, the storage device (Mem) 12, and the storage device (DB) 13. The central processing unit 11 refers to the information stored in the storage device (Mem) 12 and the storage device (DB) 13 on the basis of the image information input from the image input device 20 via the interface 14. Information processing is performed to detect an image area such as an object.

ここで、検知とは、特定カテゴリに属する物体(歩行者、先行車両等)の領域を入力画像上でその他の領域と識別して特定することである。また、追跡とは、特定のカテゴリに属する物体等の同一個体の画像領域を時系列上で関連付けて取得することである。また、認識とは、データと意味を関連付けることである。具体的には、認識とは、アプリケーションが検知や追跡を目的とする対象と画像領域とを関連付けることである。認識には、対象の検知と追跡とが含まれる。   Here, the detection is to identify and identify an area of an object (pedestrian, preceding vehicle, etc.) belonging to a specific category from other areas on the input image. Further, tracking is to acquire image areas of the same individual such as objects belonging to a specific category in association with each other in time series. Recognition is associating data with meaning. Specifically, the recognition means that an application associates a target for detection or tracking with an image region. Recognition includes object detection and tracking.

本実施の形態においては認識対象として主に歩行者が例となる。ただし、本発明は認識対象を歩行者に限定するものではない。本発明は、ある程度決められた典型的、周期的な一つまたは複数のパタンによる姿勢変化を伴いながら移動する多関節物体等の認識において有効な手法を提供する。   In the present embodiment, pedestrians are mainly examples of recognition targets. However, the present invention does not limit the recognition target to pedestrians. The present invention provides an effective technique for recognizing a multi-joint object that moves while accompanying a change in posture by one or more typical and periodic patterns determined to some extent.

図2は、本実施の形態における移動物体認識システム1の全体構成の例を示したブロック図である。   FIG. 2 is a block diagram showing an example of the entire configuration of the moving object recognition system 1 in the present embodiment.

電子制御装置10は、中央演算装置11においてソフトウェアプログラムを実行することで、図2の各種機能を実現する。電子制御装置10において実現される各種機能は、個々の装置、又は機能部もしくは電子回路として実現されてもよい。   The electronic control device 10 implements the various functions shown in FIG. 2 by executing a software program in the central processing unit 11. Various functions realized in the electronic control device 10 may be realized as individual devices, function units, or electronic circuits.

図2を参照すると、本実施の形態における電子制御装置10は、検知系列取得部103と、点軌道取得部102と、軌道集合推定部104と、軌道パタン相関最適化部105とを有する。これらの機能はそれぞれ概略つぎのように動作する。   Referring to FIG. 2, the electronic control apparatus 10 in the present embodiment includes a detection sequence acquisition unit 103, a point trajectory acquisition unit 102, a trajectory set estimation unit 104, and a trajectory pattern correlation optimization unit 105. Each of these functions generally operates as follows.

検知系列取得部103は、各時刻に受け取る入力画像に対し、認識対象となるカテゴリ(歩行者等)の画像領域の候補となる領域(Region of interest、ROI、候補領域)(図3参照)を背景画像と識別する。そして、検知系列取得部103は、候補領域の位置、スケール、その確からしさを表す信頼度の数値を出力する。検知系列取得部103の実現方法としては一般的な統計的学習による識別器を用いる方法がある。例えば、特徴量としては、Haar−like特徴、HoG(Histograms of Oriented Gradients)特徴、などを用いた、SVM(Support vector machine)、AdaBoost(Adaptive Boosting)などの統計的識別器を用いることができる。   The detection sequence acquisition unit 103 selects a region (Region of interest, ROI, candidate region) (see FIG. 3) as a candidate image region of a category (pedestrian or the like) as a recognition target for the input image received at each time. Identify from background image. Then, the detection series acquisition unit 103 outputs a numerical value of reliability indicating the position, scale, and probability of the candidate area. As a method of realizing the detection sequence acquisition unit 103, there is a method of using a discriminator by general statistical learning. For example, a statistical classifier such as SVM (Support Vector Machine) or AdaBoost (Adaptive Boosting) using Haar-like features, HoG (Histograms of Oriented Gradients) features, or the like can be used as the feature amount.

検知系列取得部103は、信頼度の数値に閾値(threshCandVal1)を設定することで閾値以上の信頼度を持つ領域のみを出力させることができる。また、検知系列取得部103は、出力される候補の最大個数を定めた閾値(maxCandNum)を超える候補が検知された場合には、maxCandNum以下に収まるように(threshCandVal1)より高い信頼度の閾値(threshCandVal2)を再設定することで、出力される最大の候補数を制限することができる。検知系列取得部103は、検知漏れを極力避けるため、図9の右端のようなROIの重複は許容し、計算資源の許す限り多数の候補を取得するようにthreshCandVal1を設定してもよい。   The detection sequence acquisition unit 103 can output only a region having a reliability equal to or higher than the threshold by setting a threshold (threshCandVal1) to the numerical value of the reliability. In addition, when a candidate exceeding a threshold (maxCandNum) that determines the maximum number of candidates to be output is detected, the detection sequence acquisition unit 103 has a higher reliability threshold (threshCandVal1) than that of maxCandNum (threshCandVal1). By resetting threshCandVal2), the maximum number of candidates that can be output can be limited. In order to avoid detection omission as much as possible, the detection sequence acquisition unit 103 may allow overlap of ROIs as shown in the right end of FIG. 9 and may set threshCandVal1 so as to acquire as many candidates as computational resources allow.

検知系列取得部103は、各時刻に受け取る入力画像に対し、逐次検知出力を取得し、保持している出力結果の系列に加えるようなリアルタイム識別器として動作してもよい。また、検知系列取得部103は、予め取得された検知系列を保持している記憶領域から、プログラムが定義する時間軸上の所定時刻を含めた過去のデータのみを他の機能部の要求に応じて提供するようなデータ出力装置として動作してもよい。検知系列取得部103は、プログラムが定義する時間軸上の所定時刻から過去にわたる出力結果を保持し、その結果の系列を任意に読み出すことができる。   The detection sequence acquisition unit 103 may operate as a real-time discriminator that sequentially acquires detection outputs for input images received at each time and adds them to a sequence of output results that are held. In addition, the detection sequence acquisition unit 103 responds to requests from other functional units only from past data including a predetermined time on the time axis defined by the program from the storage area holding the detection sequence acquired in advance. May operate as a data output device as provided. The detection sequence acquisition unit 103 holds an output result from the predetermined time on the time axis defined by the program to the past, and can arbitrarily read the result sequence.

点軌道取得部102は、画像上の点(ピクセル)の時空間上の軌道を画像系列から取得し、記憶し、任意に出力する機能部、もしくは予め保持された点軌道データを読み出すことを可能とする機能部である。なお、点とは、1つのピクセルに限らず、複数のピクセルをまとめた領域であってもよい。点は、例えば、画像空間上で認識対象の画像領域の中に1つ以上の点が含まれる程度の範囲において取得される。点軌道は、例えば、認識対象の画像領域で独立に動作する可能性のある部位毎に一つ以上の点軌道が取得されることが統計的に保証される程度の密度で取得される。   The point trajectory acquisition unit 102 acquires a time-space trajectory of a point (pixel) on an image from an image sequence, stores it, and arbitrarily outputs a functional unit, or can read preliminarily stored point trajectory data. It is a functional part. The point is not limited to one pixel but may be a region where a plurality of pixels are collected. For example, the points are acquired in a range in which one or more points are included in the image area to be recognized in the image space. For example, the point trajectory is acquired at such a density that it is statistically guaranteed that one or more point trajectories are acquired for each part that may operate independently in the image region to be recognized.

点軌道は、プログラムが定義する時間軸上の所定時刻(t)における点pi(t)(i=1、2、…、M:取得される点軌道の個数)の、過去(T)フレームにおける対応点の集合、tri={pi(tk)}、tk∈[t-T、t]、あるいは、対応点同士を結ぶベクトルの集合、tri={veci(tk)}、tk∈[t-T-1、t]として表現できる。具体的な点軌道の取得方法は、Optical flowをベースとする方法等である。 A point trajectory is a past (T) frame of a point p i (t) (i = 1, 2,..., M: number of acquired point trajectories) at a predetermined time (t) on the time axis defined by the program. , Tr i = {p i (t k )}, t k ∈ [t−T, t], or a set of vectors connecting corresponding points, tr i = {vec i (t k ) }, T k ∈ [t−T−1, t]. A specific method for acquiring a point trajectory is a method based on an optical flow.

軌道集合推定部104は、所定時刻(t)において取得可能な点軌道(tri、i=1、2、…、N)を、特定の認識対象と対応付ける。この際、軌道集合推定部104は、点軌道を集合ごとに分ける(セグメンテーションを行う)。例えば、軌道集合推定部104は、点軌道同士の空間的距離と軌道の幾何学的類似性による軌道類似性を基準として点軌道集合のセグメンテーションを行う。また、例えば、軌道集合推定部104は、取得された検知系列のうち同一の検知領域を点軌道が通過していることを条件に、軌道類似性の総和が最大になるように、点軌道同士を類似の軌道毎の点軌道集合としてセグメンテーションする。 The trajectory set estimation unit 104 associates point trajectories (tr i , i = 1, 2,..., N) that can be acquired at a predetermined time (t) with a specific recognition target. At this time, the trajectory set estimation unit 104 divides the point trajectory into sets (performs segmentation). For example, the trajectory set estimation unit 104 performs segmentation of the point trajectory set based on the trajectory similarity based on the spatial distance between the point trajectories and the geometric similarity of the trajectories. Further, for example, the trajectory set estimation unit 104 sets the point trajectories so that the total sum of trajectory similarity is maximized on the condition that the point trajectories pass through the same detection area in the acquired detection series. Are segmented as a set of point trajectories for each similar trajectory.

例えば、点軌道全体の集合Sに含まれる二つの軌道{p、q}∈Sに対する軌道類似性をwpqと定義する。また、区間tk∈[t-T、t]において取得される同一の検知領域を点軌道が通過した回数を検知結果における検知信頼性で重み付けした総和で定義した検知軌道相関値をnpqと定義する。このとき、軌道の類似性を基準とする軌道集合の推定{S、S2、…}は、下記の目的関数の和を最大化するような集合の選択の最適化によって求められる。ここで、wpq、npqは既知の手法で定義されるため詳述しない。
(数式1)
For example, the trajectory similarity for two trajectories {p, q} εS included in the set S of the entire point trajectories is defined as w pq . In addition, the detection trajectory correlation value defined by the sum total weighted by the detection reliability in the detection result is defined as n pq as the number of times the point trajectory passes through the same detection region acquired in the interval t k ∈ [tT, t]. . At this time, the estimation of the trajectory set {S 1 , S 2, ...} Based on the similarity of trajectories is obtained by optimizing the selection of the set that maximizes the sum of the following objective functions. Here, since w pq and n pq are defined by a known method, they will not be described in detail.
(Formula 1)

ただし、λは重み係数であり、S1∪S2∪S3…⊂S、Si∩Sj=φ、i≠jである。具体的な実現方法として既知の手法を用いてもよい。 Here, λ is a weighting coefficient, and S 1 ∪S 2 ∪S 3 ... S, S i ∩S j = φ, i ≠ j. A known method may be used as a specific implementation method.

軌道パタン相関最適化部105は、軌道集合推定部104で取得された点軌道集合の最適化を実行する。すなわち、軌道パタン相関最適化部105は、同一の認識対象の領域に対応する点軌道であるにも関わらず、軌道の相対的な差異によって別々の集合として推定された点軌道集合同士の再統合を行う。例えば、軌道集合推定部104は、横方向に移動する歩行者の体幹部と脚部の相対運動が大きいような場合においては、両者の軌道が大きく異なるため、同一の認識対象である同一の歩行者の体幹部と脚部に対応する点軌道群をそれぞれ異なる集合としてセグメンテーションする(over segmentation)問題が生じる可能性がある。軌道パタン相関最適化部105は、この問題を解決する。   The trajectory pattern correlation optimization unit 105 performs optimization of the point trajectory set acquired by the trajectory set estimation unit 104. That is, the trajectory pattern correlation optimization unit 105 reintegrates point trajectory sets estimated as separate sets due to relative differences in trajectories even though they are point trajectories corresponding to the same recognition target region. I do. For example, the trajectory set estimation unit 104, when the relative motion between the trunk and legs of a pedestrian moving in the lateral direction is large, the trajectories of the two are greatly different, so the same walking that is the same recognition target There is a possibility that an over segmentation problem occurs in which point trajectory groups corresponding to a person's trunk and legs are segmented as different sets. The trajectory pattern correlation optimization unit 105 solves this problem.

軌道パタン相関最適化部105は、あらかじめ記憶された認識対象の典型的動作における点軌道パタンの集合である規範パタンを用い、軌道集合推定部104で取得された軌道集合同士の組合せと規範パタンとの相関を計算する。相関最適化部105がこの相関の総和が最大となるような軌集合同士の組合せを選択することにより、認識対象に特有の動作パタンモデルに基づく認識対象領域の点軌道集合の推定が最適化される。これによって、軌道集合推定部104の段階では軌道の相違によって別の領域と誤って推定された同一認識対象領域全体が正しく認識される効果が期待できる。   The trajectory pattern correlation optimization unit 105 uses a reference pattern which is a set of point trajectory patterns in a typical action of a recognition target stored in advance, and uses a combination of trajectory sets acquired by the trajectory set estimation unit 104 and a reference pattern. Calculate the correlation. When the correlation optimization unit 105 selects a combination of trajectory sets that maximizes the sum of correlations, the estimation of the point trajectory set of the recognition target area based on the motion pattern model specific to the recognition target is optimized. The As a result, at the stage of the trajectory set estimation unit 104, an effect of correctly recognizing the entire same recognition target region that is erroneously estimated as another region due to a difference in trajectory can be expected.

軌道パタン相関最適化部105の具体的な動作を説明する。   A specific operation of the trajectory pattern correlation optimization unit 105 will be described.

(学習フェイズ)
軌道パタン相関最適化部105は、まず、予め認識対象の典型的動作における規範パタンを作成し、例えば記憶装置(DB)13に記憶させる。例えば、図3を参照すると、軌道パタン相関最適化部105は、あるサンプル動作(Sample Motion 1)について点軌道を抽出し、認識対象の領域上の点軌道を軌道の類似性に基づき集合を生成(セグメンテーション)する。点軌道の抽出方法、および点軌道の軌道類似性に基づくセグメンテーションは軌道集合推定部104と同様の手法でよい。ただし、軌道パタン相関最適化部105は、検知系列による結果を必ずしも用いる必要はなく、既知の正解付けされた認識対象領域データがあればその結果を用いてもよい。
(Learning phase)
The trajectory pattern correlation optimization unit 105 first creates a reference pattern in a typical operation to be recognized in advance and stores it in, for example, the storage device (DB) 13. For example, referring to FIG. 3, the trajectory pattern correlation optimization unit 105 extracts a point trajectory for a sample motion (Sample Motion 1), and generates a set of point trajectories on the recognition target region based on the similarity of the trajectories. (Segmentation). The point trajectory extraction method and the segmentation based on the trajectory similarity of the point trajectories may be the same method as the trajectory set estimation unit 104. However, the trajectory pattern correlation optimization unit 105 does not necessarily need to use the result of the detection sequence, and may use the result of known correctly recognized recognition target region data.

軌道パタン相関最適化部105は、それぞれ軌道の類似性に応じてセグメンテーションされた点軌道集合S、S2、S3、…に対し、代表軌道(重心軌道など)を選別し、それぞれの軌道同士の相対値をサンプル動作1の規範パタンとして記憶装置(DB)13に記憶させる。規範パタンの要素である相対値は、たとえば図4に示すように、2つの軌道(i、j)における(i→j)の相対値として、軌道同士の差分
(数式2)
と、軌道集合の面積比
(数式3)
を用いて、
(数式4)
と定義できる。ただし、kは動作サンプルの種類のインデックス、[t-T、t]は軌道を取得した区間、pは軌道を生成する要素の点である。区間は、例えば、動作の一周期分を含むように設定される。これを用いて、動作kの規範パタンMPが定義される。
(数式5)
ただし、Sは点軌道全体の集合、ind(S)は点軌道集合のサブセットのインデックスの全体である。軌道の相対関係を入れ替えた(i、j)要素と(j、i)要素は等価であるためどちらか一方が記憶されてもよい。両者は次式によって変換できる。
(数式6)
The trajectory pattern correlation optimization unit 105 selects representative trajectories (eg, center of gravity trajectories) from the set of point trajectories S 1 , S 2 , S 3 ,... Segmented according to the trajectory similarity, and each trajectory. Relative values of each other are stored in the storage device (DB) 13 as a reference pattern of the sample operation 1. For example, as shown in FIG. 4, the relative value that is an element of the reference pattern is the difference between the trajectories as the relative value of (i → j) in the two trajectories (i, j).
(Formula 2)
And the area ratio of the orbital set
(Formula 3)
Using,
(Formula 4)
Can be defined. Here, k is an index of the type of motion sample, [tT, t] is a section in which a trajectory is acquired, and p is a point of an element that generates a trajectory. The section is set so as to include one cycle of the operation, for example. Using this, a reference pattern MP k of operation k is defined.
(Formula 5)
Here, S is the set of the entire point trajectory, and ind (S) is the entire index of the subset of the point trajectory set. Interchanged relative relationship of the track the (i, j) th component and (j, i) elements one may be stored either because it is equivalent. Both can be converted by the following equation.
(Formula 6)

(認識フェイズ)
次に学習された規範パタンを用いた認識を説明する。まず、軌道集合推定部104の処理により、入力画像から抽出された点軌道集合のセグメンテーションが実行される。図5では、点軌道がS、S2、S3、S4の領域に対応付けられている。S、S2、S3は同一の歩行者領域が3つに分割されてしまうことを示している。軌道パタン相関最適化部105は、それぞれの分割集合に対し、規範パタンの場合と同様に下記のようにテストパタンを定義できる。
(数式7)
ここで、軌道の相対関係を入れ替えた(i、j)要素と(j、i)要素は等価であるため、軌道パタン相関最適化部105は、どちらか一方のみを取得し、規範パタンと比較する際に適宜変換して相関の高い方のみを排他的に選択できる。
(Recognition phase)
Next, recognition using the learned norm pattern will be described. First, segmentation of the point trajectory set extracted from the input image is executed by the processing of the trajectory set estimation unit 104. In FIG. 5, the point trajectory is associated with the areas S 1 , S 2 , S 3 , and S 4 . S 1 , S 2 , and S 3 indicate that the same pedestrian area is divided into three. The trajectory pattern correlation optimization unit 105 can define a test pattern as follows for each divided set, as in the case of the reference pattern.
(Formula 7)
Here, since the (i, j) element and the (j, i) element in which the relative relations of the trajectories are interchanged are equivalent, the trajectory pattern correlation optimization unit 105 acquires only one of them and compares it with the reference pattern. In this case, it is possible to exclusively select only the higher correlation by appropriately converting.

テストパタンは規範パタンに対し、スケールと周期の自由度を持っている。よって、軌道パタン相関最適化部105は、テストパタンと規範パタンを対応付ける場合にはスケールパラメータα、および周期パラメータβを設定する。スケールパラメータαは軌道差分の値を拡大縮小するパラメータである。周期パラメータβは、照合に用いるテストパタンの区間を決定するパラメータである。選択された区間におけるデータは規範パタンの区間と時間方向の長さをそろえる正規化のために補間される。スケールパラメータαと周期パラメータβを含めたテストパタンの要素を例えば次のように定義する。
(数式8)
これを用いて、テストパタンの(i、j)要素と規範パタンの(m、n)要素との類似性を示す相関は、例えば下記のように定義できる。
(数式9)
この式は、あるスケールα、周期βが設定された上で、入力されたテストパタンの要素と動作kの規範パタンの一つの要素の類似性を0から1の間で評価する指標となっている。
The test pattern has a degree of freedom of scale and period with respect to the normative pattern. Therefore, the trajectory pattern correlation optimization unit 105 sets the scale parameter α and the period parameter β when associating the test pattern with the reference pattern. The scale parameter α is a parameter for enlarging or reducing the value of the trajectory difference. The cycle parameter β is a parameter that determines a test pattern section used for collation. Data in the selected interval is interpolated for normalization to align the length of the reference pattern with the interval in the time direction. For example, the elements of the test pattern including the scale parameter α and the period parameter β are defined as follows.
(Formula 8)
Using this, the correlation indicating the similarity between the (i, j) element of the test pattern and the (m, n) element of the reference pattern can be defined as follows, for example.
(Formula 9)
This formula is an index for evaluating the similarity between an element of the input test pattern and one element of the reference pattern of the motion k between 0 and 1 after a certain scale α and period β are set. Yes.

類似性を測る基準は相対的軌道パタンの近さに加え、点軌道集合のペアの対応する画像領域の面積比の近さも考慮される。γ、δは、それぞれ相対軌道パタンと面積比の比較に対する重み係数である。   In addition to the relative trajectory pattern, the criterion for measuring the similarity takes into account the proximity of the area ratio of the corresponding image area of the pair of point trajectory sets. γ and δ are weighting factors for comparing the relative trajectory pattern and the area ratio, respectively.

スケールαは、規範パタンのスケールを1とした場合に対するスケール比であり、無限の連続量でよい。ただし、現実的にはアプリケーションが認識対象としてとりうる最小サイズと最大サイズが規定されることでαの範囲は限定され、区間が量子化されることでαは離散量となる。   The scale α is a scale ratio with respect to the case where the scale of the reference pattern is 1, and may be an infinite continuous amount. However, in reality, the range of α is limited by defining the minimum size and the maximum size that can be taken as a recognition target by the application, and α becomes a discrete amount by quantizing the section.

周期βは、規範パタンの周期を1とした場合の比であり、規範パタンの周期に対し、β倍速い(あるいは遅い)動作を同じ動作として許容することを示す。   The period β is a ratio when the period of the reference pattern is set to 1, and indicates that an operation that is β times faster (or slower) than the period of the reference pattern is allowed as the same operation.

kは規範パタンとして記憶されている動作の種類の個数であり、有限の自然数である。例えば、剛体運動(静止状態を含む、各部位が同じ軌道で運動する場合)、右歩行(カメラに対して右方向に歩いている)、左歩行(カメラに対して左方向に歩いている)、右走行(カメラに対して右方向に走っている)、左走行(カメラに対して左方向に走っている)等のアプリケーションが認識対象に想定する動作のパタンの個数によってkの値は決まる。   k is the number of motion types stored as a reference pattern, and is a finite natural number. For example, rigid body movement (when each part moves in the same orbit, including a stationary state), walking right (walking right with respect to the camera), walking left (walking left with respect to the camera) The value of k is determined by the number of motion patterns that are assumed to be recognized by applications such as right running (running to the right with respect to the camera) and left running (running to the left with respect to the camera). .

さらに、テストパタンにおける軌道同士が同一の検知領域を通過した回数をそれぞれの検知結果における検知信頼性で重み付けした総和で定義した検知軌道相関値をnSijとし、重み係数をλSとし、目的関数を例えば下記のように定義する。
(数式10)
ただし、S’は軌道集合推定部104で推定された軌道集合{Sp}={S、S2、…}からなる領域の集合の要素から任意に選択された部分集合である。{i、j}はS’によって決まるテストパタンの要素であり、α、β、k、m、nは、決められたS’のもとで目的関数を最大化するように決定される。軌道パタン相関最適化部105は、
(数式11)
を最大化するように、元の軌道集合Sから最適化された部分集合を再選択する。ただし、Xは{S’}の選択の組合せを表す。例えば、軌道集合推定部104で推定された軌道集合からなる領域が図6左で示すようにS、S2、S3、S4であるとき、全体の部分集合の排他的な選択の組合せの一つとして、図6右で示すような組合せ
(数式12)
が存在する。Xはこのようにとりうる選択の組合せの一つを表す変数であり、Xがとりうる値は、部分集合の排他的な選択の組合せのすべての場合である。
Furthermore, the detected trajectory correlation value defined by the sum of weights of the trajectories in the test pattern that have passed through the same detection area weighted by the detection reliability in each detection result is n Sij , the weight coefficient is λ S , and the objective function Is defined as follows, for example.
(Formula 10)
However, S e ′ is a subset arbitrarily selected from the elements of the set of regions formed by the trajectory set {S p } = {S 1 , S 2 ,. {I, j} are test pattern elements determined by S e ′, and α, β, k, m, and n are determined so as to maximize the objective function under the determined S e ′. . The trajectory pattern correlation optimization unit 105
(Formula 11)
So that the optimized subset is reselected from the original trajectory set S. However, X represents the combination of selection of {S e '}. For example, when the region composed of the trajectory set estimated by the trajectory set estimation unit 104 is S 1 , S 2 , S 3 , S 4 as shown in the left of FIG. 6, a combination of exclusive selection of the entire subset As one of the combinations shown in the right of FIG.
(Formula 12)
Exists. X is a variable that represents one of the possible combinations of selections, and the possible values of X are all cases of exclusive selection combinations of subsets.

なお、目的関数の定義は(数式10)に限定されない。すなわち、目的関数の定義は、点軌道と認識対象領域の最適な対応付けを定量的に評価可能な定義でよい。例えば、目的関数の定義は、軌道集合推定部104における軌道同士の類似性と検知系列による基準を用いた点軌道と認識対象領域の最適な対応付けを定量的に評価可能な定義でもよい。例えば、目的関数の定義は、軌道パタン相関最適化部105における軌道集合同士の相対関係による予め学習されたパタンの類似性と検知系列による基準を用いた点軌道と認識対象領域の最適な対応付けを定量的に評価可能な定義でもよい。最適化の具体的な方法は、全数探索の他、各種の一般的な非線形最適化でよい。   The definition of the objective function is not limited to (Formula 10). That is, the definition of the objective function may be a definition that can quantitatively evaluate the optimum association between the point trajectory and the recognition target area. For example, the definition of the objective function may be a definition that can quantitatively evaluate the optimum association between the point trajectory and the recognition target region using the similarity between the trajectories in the trajectory set estimation unit 104 and the criterion based on the detection sequence. For example, the objective function is defined as the optimal correspondence between the point trajectory and the recognition target region using the similarity of the pattern learned in advance based on the relative relationship between the trajectory sets in the trajectory pattern correlation optimization unit 105 and the criterion based on the detection sequence. It may be a definition that can be quantitatively evaluated. A specific method of optimization may be various general nonlinear optimizations in addition to exhaustive search.

(動作)
本実施の形態における移動物体認識システム1の動作について図面を参照して説明する。図7を参照すると、まず検知系列取得部103は、対象物体領域の候補となるROIを検出した結果の系列を取得する(Step1)。
(Operation)
The operation of the moving object recognition system 1 in the present embodiment will be described with reference to the drawings. Referring to FIG. 7, first, the detection sequence acquisition unit 103 acquires a sequence of results of detecting ROIs that are candidates for the target object region (Step 1).

次に、点軌道取得部102は、画像上の点の時空間上の軌跡である点軌道を取得する(Step2)。   Next, the point trajectory acquisition unit 102 acquires a point trajectory that is a trajectory in time and space of the point on the image (Step 2).

次に、軌道集合推定部104は、上述のとおり、軌道類似性、検知軌道相関値をnpq等に基づき点軌道集合のセグメンテーションを実行する(Step3)。 Next, as described above, the trajectory set estimation unit 104 performs segmentation of the point trajectory set based on the trajectory similarity and the detected trajectory correlation value based on n pq or the like (Step 3).

次に、軌道パタン相関最適化部105は、予め記憶された規範パタンとの相関に基づく点軌道集合選択の再最適化を実行する(Step4)。   Next, the trajectory pattern correlation optimization unit 105 executes re-optimization of point trajectory set selection based on the correlation with the pre-stored reference pattern (Step 4).

図8はステップStep4の内部における動作の一例を示したフローチャートである。図8を参照すると、まず、軌道パタン相関最適化部105は、取得された点軌道集合の中から組合せの再選択を行う(Step401)。軌道パタン相関最適化部105は、その選択において目的関数(数式11)を計算する(Step402)。このとき、選択された組合せのそれぞれにおいて、目的関数が最大値を取るようにパラメータ(k、α、β)を調整する最適化計算が行われる。Step401及びStep402は繰り返し演算され、最後に目的関数を最大にする点軌道集合の組合せが決定される(Step403)。   FIG. 8 is a flowchart showing an example of the operation in Step 4. Referring to FIG. 8, first, the trajectory pattern correlation optimization unit 105 reselects a combination from the acquired point trajectory set (Step 401). The trajectory pattern correlation optimization unit 105 calculates an objective function (Formula 11) in the selection (Step 402). At this time, in each of the selected combinations, optimization calculation for adjusting the parameters (k, α, β) so that the objective function takes the maximum value is performed. Step 401 and Step 402 are repeatedly calculated, and finally a combination of point trajectory sets that maximizes the objective function is determined (Step 403).

例えば、図6のように軌道集合推定部104がS、S2、S3、S4に点軌道集合を分割した場合で、S、S2、S3は図3の規範パタンに対応する動作である場合を例とする。この場合、規範パタン1に対する目的関数において軌道集合の組を一組としてS’={S、S2、S3}と選択した場合に目的関数が最大化されることが期待できる。S4とその他の相対軌道は規範パタンに含まれるパタンと大きく異なるため、S4は単独のS2’={S4}として選択される場合に目的関数が最大化されることが期待できる。このような最適化による領域対応付けの再選択により、図6の右図のように対象領域の正しい認識が行われることが期待できる。 For example, as shown in FIG. 6, when the trajectory set estimation unit 104 divides the point trajectory set into S 1 , S 2 , S 3 , and S 4 , S 1 , S 2 , and S 3 correspond to the reference pattern in FIG. An example is the case of the operation to be performed. In this case, it can be expected that the objective function is maximized when S 1 ′ = {S 1 , S 2 , S 3 } is selected as a set of trajectory sets in the objective function for the reference pattern 1. Because other relative orbital and S 4 are significantly different from the pattern that is included in the Code pattern, S 4 the objective function can be expected to be maximized when selected as S 2 '= {S 4} alone. By re-selecting the region association by such optimization, it can be expected that the target region is correctly recognized as shown in the right diagram of FIG.

なお、上記では2つの軌道(i、j)における(i→j)の相対値として、軌道同士の差分を基に規範パタンを定義しているが、規範パタンは軌道の差分で定義する必要はなく、点軌道そのものの集合で定義されてもよい。   In the above, the norm pattern is defined based on the difference between orbits as the relative value of (i → j) in the two orbits (i, j), but the norm pattern must be defined by the difference between the orbits. Instead, it may be defined by a set of point trajectories themselves.

このように、本実施の形態における移動物体認識システム1は、点軌道の距離と類似性、および検知系列を用いた領域の認識対象への対応付けに対し、予め記憶された規範パタンに対する相関を加味した最適化による対応付けの再選択が行われる。これにより、運動の相対的な差異による対応付け間違いを抑制することで、認識対象全体の領域を正しく対応付けることが可能となる。   As described above, the moving object recognition system 1 according to the present embodiment correlates the reference pattern stored in advance with respect to the distance and similarity of the point trajectory and the association of the region with the recognition target using the detection sequence. The re-selection of association is performed by taking into account optimization. Thereby, it becomes possible to correctly associate the regions of the entire recognition target by suppressing an association error due to a relative difference in motion.

<実施形態2>
本実施の形態における移動物体認識システム1は、点軌道と、予め記憶された規範パタンとの相関の最適化によって認識対象領域の対応付けを実現するように構成される。本実施の形態における移動物体認識システム1は、点軌道取得部102、軌道パタン相関最適化部105を包含する(図10参照)。第1の実施の形態と異なり、本実施の形態においては図2における軌道集合推定部104のように類似の軌道同士を予め集合として扱うステップは省略され、軌道パタンは直接任意の軌道同士の相対関係によって記述される。
<Embodiment 2>
The moving object recognition system 1 according to the present embodiment is configured to realize recognition target area association by optimizing the correlation between a point trajectory and a pre-stored reference pattern. The moving object recognition system 1 in the present embodiment includes a point trajectory acquisition unit 102 and a trajectory pattern correlation optimization unit 105 (see FIG. 10). Unlike the first embodiment, in this embodiment, the step of treating similar trajectories as a set in advance, like the trajectory set estimation unit 104 in FIG. 2, is omitted, and the trajectory pattern is a direct relative of arbitrary trajectories. Described by relationships.

ただし、領域面積は、任意の軌道が取得される際に適当な区分領域内の点軌道を平均化した代表軌道取得時の区分領域面積として取得され、代表軌道の取得ごとに区分領域面積が異なる場合には、(数式4)と同様の表現が採用可能である。代表軌道の取得時の面積がどの軌道でも一定の場合(代表軌道ではなく点軌道そのものが利用される場合を含む)には、領域面積比の値は省略できる。   However, the area of the area is acquired as the area of the representative area at the time of acquisition of the representative trajectory by averaging the point trajectories in the appropriate area when the arbitrary trajectory is acquired. In this case, the same expression as in (Formula 4) can be used. When the area at the time of obtaining the representative trajectory is constant in any trajectory (including the case where the point trajectory itself is used instead of the representative trajectory), the area area ratio value can be omitted.

軌道パタン相関最適化部105は、予め記憶させた規範パタンとの相関が最も高い点軌道の組合せを選択して認識対象領域に対応付ける最適化を行う。   The trajectory pattern correlation optimizing unit 105 selects a combination of point trajectories having the highest correlation with a pre-stored reference pattern and performs optimization for associating with a recognition target region.

このように、本実施の形態における物体認識システム1は、予め記憶させた規範パタンと点軌道との相関によって領域分割を最適化する。これにより、カメラ前を横切る歩行者のように体幹部に対し大きな相対運動を生じる脚部を含む領域を認識漏れすることなく歩行者全体の領域として対応付けることが可能となる。その結果、認識対象の動きによる見え方の変化に対しロバストに全身領域の認識を行うことが可能となる。   As described above, the object recognition system 1 according to the present embodiment optimizes the region division based on the correlation between the reference pattern stored in advance and the point trajectory. Thereby, it becomes possible to make it correspond as an area | region of the whole pedestrian, without recognizing the area | region containing the leg part which produces a big relative motion with respect to a trunk part like the pedestrian crossing in front of a camera. As a result, it is possible to recognize the whole body region robustly against changes in appearance due to the movement of the recognition target.

<実施形態3>
本実施の形態における移動物体認識システム1は、点軌道と、検知系列と、予め記憶された規範パタンとの相関の最適化によって認識対象領域の対応付けを実現するように構成される。本実施の形態における移動物体認識システム1には、第2の実施の形態に検知系列取得部103が追加される。すなわち、軌道パタン相関最適化部105は、予め記憶させた規範パタンとの相関に加え、検知系列における同一の検知矩形内を通過した点軌道同士の相関を加点するようにした目的関数の最適化による認識対象領域の対応付けを実行する(図11参照)。
<Embodiment 3>
The moving object recognition system 1 according to the present embodiment is configured to realize recognition target area association by optimizing correlations between point trajectories, detection sequences, and pre-stored reference patterns. In the moving object recognition system 1 in the present embodiment, a detection sequence acquisition unit 103 is added to the second embodiment. That is, the trajectory pattern correlation optimization unit 105 optimizes the objective function so as to add the correlation between the point trajectories that have passed through the same detection rectangle in the detection sequence in addition to the correlation with the reference pattern stored in advance. The recognition target areas are associated with each other (see FIG. 11).

本実施の形態(図11参照)の軌道パタン相関最適化部105は、軌道同士の類似性、検知系列との相関、および規範パタンとの類似性による3つの基準を用いて目的関数を定義し、認識領域の対応付けを最適化している。   The trajectory pattern correlation optimization unit 105 of the present embodiment (see FIG. 11) defines an objective function using three criteria based on the similarity between trajectories, the correlation with the detection sequence, and the similarity with the reference pattern. , The recognition area correspondence is optimized.

本実施の形態によれば、点軌道の類似性、および検知系列を用いた領域の認識対象への対応付けに対し、予め記憶したパタンに対する相関を加味した最適化による対応付けが行われる。これにより、運動の相対的な差異による対応付け間違いを抑制することで、認識対象全体の領域を正しく対応付けることが可能となる。   According to the present embodiment, the association by the optimization considering the correlation with the pattern stored in advance is performed on the similarity of the point trajectory and the association of the region using the detection sequence to the recognition target. Thereby, it becomes possible to correctly associate the regions of the entire recognition target by suppressing an association error due to a relative difference in motion.

<実施形態4>
本実施の形態における移動物体認識システム1は、点軌道取得部102と、軌道集合推定部104と、軌道パタン相関最適化部105を備える(図12参照)。軌道集合推定部104は、点軌道を特定の認識対象と対応付ける。例えば、軌道集合推定部104は、点軌道同士の空間的距離と軌道の幾何学的類似性による軌道類似性を基準として点軌道集合のセグメンテーションを行う。本実施の形態は、検知系列取得部103が存在しないため、(数式1)の目的関数において右辺第2項が0となる場合に相当する。
<Embodiment 4>
The moving object recognition system 1 in the present embodiment includes a point trajectory acquisition unit 102, a trajectory set estimation unit 104, and a trajectory pattern correlation optimization unit 105 (see FIG. 12). The trajectory set estimation unit 104 associates the point trajectory with a specific recognition target. For example, the trajectory set estimation unit 104 performs segmentation of the point trajectory set based on the trajectory similarity based on the spatial distance between the point trajectories and the geometric similarity of the trajectories. This embodiment corresponds to the case where the second term on the right side is 0 in the objective function of (Equation 1) because the detection sequence acquisition unit 103 does not exist.

このように、本実施の形態における移動物体認識システム1は、点軌道の類似性を用いた領域の認識対象への対応付けに対し、予め記憶された規範パタンに対する相関を加味した最適化による対応付けの再選択が行われる。これにより、運動の相対的な差異による対応付け間違いを抑制することで、認識対象全体の領域を正しく対応付けることが可能となる。   As described above, the moving object recognition system 1 according to the present embodiment deals with the optimization by adding the correlation to the pre-stored reference pattern to the correspondence of the region to the recognition target using the similarity of the point trajectory. A reselection is made. Thereby, it becomes possible to correctly associate the regions of the entire recognition target by suppressing an association error due to a relative difference in motion.

以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。   While the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

また、本発明の実施形態は以下のようにも記載されるが、以下の記載に限定されない。   Moreover, although embodiment of this invention is described as follows, it is not limited to the following description.

(付記)
(付記1)
認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶する記憶手段と、
画像上の点の軌道を取得する点軌道取得手段と、
前記点軌道取得手段が取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する軌道パタン相関最適化手段と、
を含む対象認識装置。
(Appendix)
(Appendix 1)
Storage means for storing a trajectory of a set to which a trajectory pattern of points constituting a recognition target belongs, as a reference pattern;
Point trajectory acquisition means for acquiring a trajectory of a point on the image;
Trajectory pattern correlation optimizing means for selecting a set of point trajectories based on the similarity between the point trajectory acquired by the point trajectory acquiring means and the reference pattern, and extracting the selected point trajectory set as a recognition target on the image When,
An object recognition device including:

(付記2)
前記規範パタンは、前記軌道パタンが属する集合の領域面積比を含み、
前記軌道パタン相関最適化手段は、前記領域面積比の類似度に基づき前記点軌道集合の選択を行う付記1に記載の対象認識装置。
(Appendix 2)
The reference pattern includes a region area ratio of a set to which the orbital pattern belongs,
The object recognition apparatus according to appendix 1, wherein the trajectory pattern correlation optimization unit selects the point trajectory set based on the similarity of the area ratio.

(付記3)
前記規範パタンに含まれる前記軌道パタンは、当該軌道パタンに含まれる点軌道のペアの組合せにおける軌道同士の時空間座標における差分で構成される付記1乃至2のいずれかに記載の対象認識装置。
(Appendix 3)
The object recognition device according to any one of appendices 1 to 2, wherein the trajectory pattern included in the reference pattern is configured by a difference in spatio-temporal coordinates between trajectories in a combination of point trajectory pairs included in the trajectory pattern.

(付記4)
前記認識対象の存在する画像領域の候補を複数の時刻にわたり取得する検知系列取得手段をさらに備え、
前記軌道パタン相関最適化手段は、前記検知系列取得手段によって取得された同一の検知領域を前記点軌道が通過した回数に基づいて点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行う付記1乃至3のいずれかに記載の対象認識装置。
(Appendix 4)
Further comprising detection sequence acquisition means for acquiring image region candidates in which the recognition target exists over a plurality of times;
The trajectory pattern correlation optimizing unit calculates a correlation between point trajectories based on the number of times the point trajectory passes through the same detection area acquired by the detection sequence acquiring unit, and based on the correlation, the point trajectory 4. The object recognition device according to any one of supplementary notes 1 to 3, wherein a set is selected.

(付記5)
前記点軌道取得手段から取得した複数の点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行う点軌道集合推定手段をさらに備え、
前記軌道パタン相関最適化手段は、前記点軌道集合推定手段によって選択された点軌道集合と前記規範パタンとの類似性に基づき点軌道集合の選択を行い、選択された点軌道集合を前記画像上の認識対象として抽出する付記1乃至4のいずれかに記載の対象認識装置。
(Appendix 5)
A point trajectory set estimation means for calculating a correlation between a plurality of point trajectories acquired from the point trajectory acquisition means, and selecting the point trajectory set based on the correlation,
The trajectory pattern correlation optimization unit selects a point trajectory set based on the similarity between the point trajectory set selected by the point trajectory set estimation unit and the reference pattern, and the selected point trajectory set is displayed on the image. 5. The object recognition device according to any one of appendices 1 to 4, which is extracted as a recognition object.

(付記6)
認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶する記憶手段を備えるコンピュータに、
画像上の点の軌道を取得する点軌道取得ステップと、
取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する軌道パタン相関最適化ステップと、
を実行させる対象認識プログラム。
(Appendix 6)
In a computer comprising storage means for storing a trajectory of a set to which a trajectory pattern of points constituting a recognition target belongs, as a reference pattern,
A point trajectory acquisition step for acquiring a trajectory of a point on the image;
A trajectory pattern correlation optimization step of selecting a set of point trajectories based on the similarity between the acquired point trajectory and the reference pattern, and extracting the selected point trajectory set as a recognition target on the image;
Object recognition program that executes

(付記7)
前記規範パタンは、前記軌道パタンが属する集合の領域面積比を含み、
前記軌道パタン相関最適化ステップにおいて、前記領域面積比の類似度に基づき前記点軌道集合の選択を行う付記6に記載の対象認識プログラム。
(Appendix 7)
The reference pattern includes a region area ratio of a set to which the orbital pattern belongs,
The object recognition program according to appendix 6, wherein in the trajectory pattern correlation optimization step, the point trajectory set is selected based on a similarity of the area ratio.

(付記8)
前記規範パタンに含まれる前記軌道パタンは、当該軌道パタンに含まれる点軌道のペアの組合せにおける軌道同士の時空間座標における差分で構成される請求項6乃至7のいずれかに記載の対象認識プログラム。
(Appendix 8)
The object recognition program according to any one of claims 6 to 7, wherein the trajectory pattern included in the reference pattern includes a difference in spatio-temporal coordinates between trajectories in a combination of point trajectory pairs included in the trajectory pattern. .

(付記9)
前記認識対象の存在する画像領域の候補を複数の時刻にわたり取得する検知系列取得ステップをさらに含み、
前記軌道パタン相関最適化ステップにおいて、前記検知系列取得ステップによって取得された同一の検知領域を前記点軌道が通過した回数に基づいて点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行う付記6乃至8のいずれかに記載の対象認識プログラム。
(Appendix 9)
Further comprising a detection sequence acquisition step of acquiring image region candidates in which the recognition target exists over a plurality of times;
In the trajectory pattern correlation optimization step, the correlation between the point trajectories is calculated based on the number of times the point trajectories have passed through the same detection area acquired by the detection sequence acquisition step, and the point trajectory is calculated based on the correlation. 9. The object recognition program according to any one of appendices 6 to 8 for selecting a set.

(付記10)
前記点軌道取得ステップにおいて取得した複数の点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行う点軌道集合推定ステップをさらに含み、
前記軌道パタン相関最適化ステップにおいて、前記点軌道集合推定ステップによって選択された点軌道集合と前記規範パタンとの類似性に基づき点軌道集合の選択を行い、選択された点軌道集合を前記画像上の認識対象として抽出する付記6乃至9のいずれかに記載の対象認識プログラム。
(Appendix 10)
Calculating a correlation between a plurality of point trajectories acquired in the point trajectory acquisition step, further including a point trajectory set estimation step of selecting the point trajectory set based on the correlation;
In the trajectory pattern correlation optimization step, a point trajectory set is selected based on the similarity between the point trajectory set selected in the point trajectory set estimation step and the reference pattern, and the selected point trajectory set is displayed on the image. The object recognition program according to any one of appendices 6 to 9, which is extracted as a recognition object.

(付記11)
認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶し、
画像上の点の軌道を取得し、
取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する対象認識方法。
(Appendix 11)
The trajectory of the set to which the trajectory pattern of the points constituting the recognition target belongs is stored as a reference pattern,
Get the trajectory of the point on the image,
An object recognition method for selecting a set of point trajectories based on similarity between an acquired point trajectory and the reference pattern, and extracting the selected point trajectory set as a recognition target on the image.

(付記12)
前記規範パタンは、前記軌道パタンが属する集合の領域面積比を含み、
前記領域面積比の類似度に基づき前記点軌道集合の選択を行う付記11に記載の対象認識方法。
(Appendix 12)
The reference pattern includes a region area ratio of a set to which the orbital pattern belongs,
The object recognition method according to appendix 11, wherein the point trajectory set is selected based on a similarity of the area ratio.

(付記13)
前記規範パタンに含まれる前記軌道パタンは、当該軌道パタンに含まれる点軌道のペアの組合せにおける軌道同士の時空間座標における差分で構成される付記11乃至12のいずれかに記載の対象認識方法。
(Appendix 13)
The object recognition method according to any one of appendices 11 to 12, wherein the trajectory pattern included in the reference pattern includes a difference in spatio-temporal coordinates between trajectories in a combination of point trajectory pairs included in the trajectory pattern.

(付記14)
前記認識対象の存在する画像領域の候補を複数の時刻にわたり取得し、
取得された同一の検知領域を前記点軌道が通過した回数に基づいて点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行う付記11乃至13のいずれかに記載の対象認識方法。
(Appendix 14)
Obtaining a candidate image region where the recognition target exists over a plurality of times;
The correlation between point trajectories is calculated based on the number of times the point trajectories have passed through the same acquired detection area, and the point trajectory set is selected based on the correlations. Object recognition method.

(付記15)
取得した複数の点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行い、
選択された点軌道集合と前記規範パタンとの類似性に基づき点軌道集合の選択を行い、選択された点軌道集合を前記画像上の認識対象として抽出する付記11乃至14のいずれかに記載の対象認識方法。
(Appendix 15)
Calculate the correlation between the acquired plurality of point trajectories, select the point trajectory set based on the correlation,
The point trajectory set is selected based on the similarity between the selected point trajectory set and the reference pattern, and the selected point trajectory set is extracted as a recognition target on the image. Object recognition method.

1 移動物体認識システム
10 電子制御装置
11 中央演算装置
12 記憶装置(Mem)
13 記憶装置(DB)
14 インターフェース
15 インターフェース
20 画像入力装置
30 端末装置
102 点軌道取得部
103 検知系列取得部
104 軌道集合推定部
105 軌道パタン相関最適化部
DESCRIPTION OF SYMBOLS 1 Moving object recognition system 10 Electronic controller 11 Central processing unit 12 Memory | storage device (Mem)
13 Storage device (DB)
DESCRIPTION OF SYMBOLS 14 Interface 15 Interface 20 Image input device 30 Terminal device 102 Point orbit acquisition part 103 Detection sequence acquisition part 104 Orbit set estimation part 105 Orbit pattern correlation optimization part

Claims (10)

認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶する記憶手段と、
画像上の点の軌道を取得する点軌道取得手段と、
前記点軌道取得手段が取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する軌道パタン相関最適化手段と、
を含む対象認識装置。
Storage means for storing a trajectory of a set to which a trajectory pattern of points constituting a recognition target belongs, as a reference pattern;
Point trajectory acquisition means for acquiring a trajectory of a point on the image;
Trajectory pattern correlation optimizing means for selecting a set of point trajectories based on the similarity between the point trajectory acquired by the point trajectory acquiring means and the reference pattern, and extracting the selected point trajectory set as a recognition target on the image When,
An object recognition device including:
前記規範パタンは、前記軌道パタンが属する集合の領域面積比を含み、
前記軌道パタン相関最適化手段は、前記領域面積比の類似度に基づき前記点軌道集合の選択を行う請求項1に記載の対象認識装置。
The reference pattern includes a region area ratio of a set to which the orbital pattern belongs,
The object recognition apparatus according to claim 1, wherein the trajectory pattern correlation optimization unit selects the point trajectory set based on a similarity of the area ratio.
前記規範パタンに含まれる前記軌道パタンは、当該軌道パタンに含まれる点軌道のペアの組合せにおける軌道同士の時空間座標における差分で構成される請求項1乃至2のいずれかに記載の対象認識装置。   The object recognition device according to claim 1, wherein the trajectory pattern included in the reference pattern includes a difference in spatio-temporal coordinates between trajectories in a combination of point trajectory pairs included in the trajectory pattern. . 前記認識対象の存在する画像領域の候補を複数の時刻にわたり取得する検知系列取得手段をさらに備え、
前記軌道パタン相関最適化手段は、前記検知系列取得手段によって取得された同一の検知領域を前記点軌道が通過した回数に基づいて点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行う請求項1乃至3のいずれかに記載の対象認識装置。
Further comprising detection sequence acquisition means for acquiring image region candidates in which the recognition target exists over a plurality of times;
The trajectory pattern correlation optimizing unit calculates a correlation between point trajectories based on the number of times the point trajectory passes through the same detection area acquired by the detection sequence acquiring unit, and based on the correlation, the point trajectory The object recognition apparatus according to claim 1, wherein a set is selected.
前記点軌道取得手段から取得した複数の点軌道同士の相関を計算し、当該相関に基づいて前記点軌道集合の選択を行う点軌道集合推定手段をさらに備え、
前記軌道パタン相関最適化手段は、前記点軌道集合推定手段によって選択された点軌道集合と前記規範パタンとの類似性に基づき点軌道集合の選択を行い、選択された点軌道集合を前記画像上の認識対象として抽出する請求項1乃至4のいずれかに記載の対象認識装置。
A point trajectory set estimation means for calculating a correlation between a plurality of point trajectories acquired from the point trajectory acquisition means, and selecting the point trajectory set based on the correlation,
The trajectory pattern correlation optimization unit selects a point trajectory set based on the similarity between the point trajectory set selected by the point trajectory set estimation unit and the reference pattern, and the selected point trajectory set is displayed on the image. The object recognition device according to claim 1, wherein the object recognition device is extracted as a recognition object.
認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶する記憶手段を備えるコンピュータに、
画像上の点の軌道を取得する点軌道取得ステップと、
取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する軌道パタン相関最適化ステップと、
を実行させる対象認識プログラム。
In a computer comprising storage means for storing a trajectory of a set to which a trajectory pattern of points constituting a recognition target belongs, as a reference pattern,
A point trajectory acquisition step for acquiring a trajectory of a point on the image;
A trajectory pattern correlation optimization step of selecting a set of point trajectories based on the similarity between the acquired point trajectory and the reference pattern, and extracting the selected point trajectory set as a recognition target on the image;
Object recognition program that executes
前記規範パタンは、前記軌道パタンが属する集合の領域面積比を含み、
前記軌道パタン相関最適化ステップにおいて、前記領域面積比の類似度に基づき前記点軌道集合の選択を行う請求項6に記載の対象認識プログラム。
The reference pattern includes a region area ratio of a set to which the orbital pattern belongs,
The object recognition program according to claim 6, wherein in the trajectory pattern correlation optimization step, the point trajectory set is selected based on a similarity of the area ratio.
前記規範パタンに含まれる前記軌道パタンは、当該軌道パタンに含まれる点軌道のペアの組合せにおける軌道同士の時空間座標における差分で構成される請求項6乃至7のいずれかに記載の対象認識プログラム。   The object recognition program according to any one of claims 6 to 7, wherein the trajectory pattern included in the reference pattern includes a difference in spatio-temporal coordinates between trajectories in a combination of point trajectory pairs included in the trajectory pattern. . 認識対象を構成する点の軌道パタンが属する集合の軌道を規範パタンとして記憶し、
画像上の点の軌道を取得し、
取得した点軌道と前記規範パタンとの類似性に基づき点軌道の集合を選択し、選択された点軌道集合を前記画像上の認識対象として抽出する対象認識方法。
The trajectory of the set to which the trajectory pattern of the points constituting the recognition target belongs is stored as a reference pattern,
Get the trajectory of the point on the image,
An object recognition method for selecting a set of point trajectories based on similarity between an acquired point trajectory and the reference pattern, and extracting the selected point trajectory set as a recognition target on the image.
前記規範パタンは、前記軌道パタンが属する集合の領域面積比を含み、
前記領域面積比の類似度に基づき前記点軌道集合の選択を行う請求項9に記載の対象認識方法。
The reference pattern includes a region area ratio of a set to which the orbital pattern belongs,
The object recognition method according to claim 9, wherein the point trajectory set is selected based on a similarity of the area ratio.
JP2013180845A 2013-09-02 2013-09-02 Object recognition device, object recognition method, and program Pending JP2015049702A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013180845A JP2015049702A (en) 2013-09-02 2013-09-02 Object recognition device, object recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013180845A JP2015049702A (en) 2013-09-02 2013-09-02 Object recognition device, object recognition method, and program

Publications (1)

Publication Number Publication Date
JP2015049702A true JP2015049702A (en) 2015-03-16

Family

ID=52699668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013180845A Pending JP2015049702A (en) 2013-09-02 2013-09-02 Object recognition device, object recognition method, and program

Country Status (1)

Country Link
JP (1) JP2015049702A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144830A (en) * 2018-02-20 2019-08-29 Kddi株式会社 Program, device, and method for recognizing actions of persons using a plurality of recognition engines
US11107231B2 (en) 2017-03-22 2021-08-31 Nec Corporation Object detection device, object detection method, and object detection program
US11410443B2 (en) 2020-03-13 2022-08-09 Nec Corporation Labelling training method and system for implementing the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11107231B2 (en) 2017-03-22 2021-08-31 Nec Corporation Object detection device, object detection method, and object detection program
JP2019144830A (en) * 2018-02-20 2019-08-29 Kddi株式会社 Program, device, and method for recognizing actions of persons using a plurality of recognition engines
US11410443B2 (en) 2020-03-13 2022-08-09 Nec Corporation Labelling training method and system for implementing the same

Similar Documents

Publication Publication Date Title
JP7317919B2 (en) Appearance search system and method
CN110807385B (en) Target detection method, target detection device, electronic equipment and storage medium
EP3418944B1 (en) Information processing apparatus, information processing method, and program
Tsai et al. Optical flow-motion history image (OF-MHI) for action recognition
US9008365B2 (en) Systems and methods for pedestrian detection in images
CN112639873A (en) Multi-object pose tracking device and method based on single-object pose estimator
US20170213080A1 (en) Methods and systems for automatically and accurately detecting human bodies in videos and/or images
Kushwaha et al. Multi-view human activity recognition based on silhouette and uniform rotation invariant local binary patterns
García-Martín et al. Robust real time moving people detection in surveillance scenarios
Bedagkar-Gala et al. Gait-assisted person re-identification in wide area surveillance
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
Zhang et al. Single person pose estimation: a survey
JP2015049702A (en) Object recognition device, object recognition method, and program
US20240135552A1 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
JP6384167B2 (en) MOBILE BODY TRACKING DEVICE, MOBILE BODY TRACKING METHOD, AND COMPUTER PROGRAM
JPWO2018173848A1 (en) Object tracking system, intelligent imaging device, object feature extraction device, object feature extraction method and program
Alletto et al. Head pose estimation in first-person camera views
KR101758693B1 (en) Apparatus and Method of Behavior Recognition based on Object-Behavior Relation Model
KR101909326B1 (en) User interface control method and system using triangular mesh model according to the change in facial motion
JP5241687B2 (en) Object detection apparatus and object detection program
Thangaraj et al. A competent frame work for efficient object detection, tracking and classification
Gamra et al. Deep learning for body parts detection using hrnet and efficientnet
Arenas et al. Detection of aibo and humanoid robots using cascades of boosted classifiers
JP5713655B2 (en) Video processing apparatus, video processing method, and program
Mudjirahardjo et al. Head detection and tracking for an intelligent room