JP2019003329A - Information processor, information processing method, and program - Google Patents
Information processor, information processing method, and program Download PDFInfo
- Publication number
- JP2019003329A JP2019003329A JP2017115995A JP2017115995A JP2019003329A JP 2019003329 A JP2019003329 A JP 2019003329A JP 2017115995 A JP2017115995 A JP 2017115995A JP 2017115995 A JP2017115995 A JP 2017115995A JP 2019003329 A JP2019003329 A JP 2019003329A
- Authority
- JP
- Japan
- Prior art keywords
- information
- event
- data
- video
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、映像データ内の対象物の識別に用いられる識別モデルを生成する情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program for generating an identification model used for identifying an object in video data.
従来、映像データから対象物の事象を識別(対象物やその対象物の状態を識別)する識別モデルを作成する手法が提案されている。この識別モデルを作成するには学習データが必要であるため、学習データの収集に時間を要する。また、収集した学習データが充分であるか確認する事は難しい。 Conventionally, a method for creating an identification model for identifying an event of an object from video data (identifying the object and the state of the object) has been proposed. Since learning data is required to create this identification model, it takes time to collect learning data. Also, it is difficult to check whether the collected learning data is sufficient.
それらに対し、非特許文献1では、予め検出対象のモデルを用意し、環境情報としてカメラ位置や背景画像などの情報を入力し、その環境に特化した学習サンプルをCG(コンピュータグラフィック)で生成して追加学習を行う方法がある。これにより、環境に併せた学習データ作成のコストを低減させている。
On the other hand, in Non-Patent
しかしながら、非特許文献1の技術では、設定したシーン(場面)において、実際には起こらない対象物の事象(対象物の状態)を表すデータをCGで作成する可能性がある。そのため、学習データに不要なデータが混入してしまい、識別時の未検知・誤検知が発生する要因となってしまう。
However, in the technique of Non-Patent
そこで、本発明は、シーン内の対象物の事象を精度良く識別できる識別モデルを生成可能にすることを目的とする。 Therefore, an object of the present invention is to enable generation of an identification model that can accurately identify an event of an object in a scene.
本発明は、予め生成された、対象物の事象の特徴量を含む複数の事象データを保存する保存手段と、映像を取得する映像取得手段と、前記取得された映像内の対象物の事象の特徴量を作成する特徴量作成手段と、前記特徴量作成手段にて作成された特徴量に類似した特徴量を含む事象データを、前記保存手段に保存されている事象データの中から選択する選択手段と、前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成手段と、を有することを特徴とする。 The present invention provides a storage means for storing a plurality of event data including a feature amount of an event of an object generated in advance, an image acquisition means for acquiring an image, and an event of an object in the acquired image. A feature amount creating unit that creates a feature amount, and a selection that selects event data including a feature amount similar to the feature amount created by the feature amount creating unit from among the event data stored in the storage unit And a model creating means for creating an identification model for identifying the event of the object in the video using the feature amount of the selected event data.
本発明によれば、シーン内の対象物の事象を精度良く識別できる識別モデルを生成可能となる。 According to the present invention, it is possible to generate an identification model that can accurately identify an event of an object in a scene.
以下、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
<第1の実施形態>
図1(a)は第1の実施形態に関わる情報処理装置100の概略的な構成例を示している。本実施形態の情報処理装置100は、後述するように、映像シーンに生ずる対象物の事象が指定され、予め作成した対象物の事象データを保存するデータベースの中から、その指定された対象物の事象に類似した事象データを選択して識別モデルを作成する。また、第1の実施形態の情報処理装置100では、識別モデルを作成する際、対象物の正常な事象に関する事象データを収集する。対象物の正常な事象としては、例えば交差点の映像シーンにおいて横断歩道上を歩く歩行者を対象物とした場合、その歩行者が横断歩道上を歩くような、横断歩道に対する歩行者の一般的な行動などを挙げることができる。もちろんこれは一例であり、対象物の正常な事象は、横断歩道を歩く歩行者の行動に限定されるものではない。なお、第1の実施形態では、映像シーンの例として屋外の交差点を撮影した映像を用いた説明を行うが、その他にも、映像シーンは、例えば商業施設や病院、介護施設、駅などの公共施設の屋内やその周辺等のシーンであってもよい。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<First Embodiment>
FIG. 1A shows a schematic configuration example of the information processing apparatus 100 according to the first embodiment. As will be described later, the information processing apparatus 100 according to the present embodiment designates an event of an object that occurs in a video scene, and stores the event data of the designated object from a database that stores event data of the object created in advance. An event model similar to an event is selected to create an identification model. Further, in the information processing apparatus 100 according to the first embodiment, when creating an identification model, event data relating to a normal event of an object is collected. As a normal event of an object, for example, when a pedestrian walking on a pedestrian crossing in the video scene of an intersection is used as an object, the pedestrian's general pedestrian walks on a pedestrian crossing. You can list actions. Of course, this is an example, and the normal phenomenon of the object is not limited to the behavior of a pedestrian walking on a pedestrian crossing. In the first embodiment, description is given using an image obtained by photographing an outdoor intersection as an example of an image scene. In addition, an image scene is a public facility such as a commercial facility, a hospital, a nursing facility, or a station. It may be a scene inside the facility or its surroundings.
以下、本実施形態の情報処理装置100において、映像シーンにおいて対象物の正常な事象が指定されて識別モデルの生成を行う構成及び処理について説明する。
図1(a)に示す情報処理装置100は、映像取得部101と、入力部102と、特徴量作成部103と、データ保存部104と、データ選択部105と、識別モデル作成部106と、識別モデル保存部107と、表示部108とを有して構成されている。
Hereinafter, in the information processing apparatus 100 of the present embodiment, a configuration and processing for generating an identification model by specifying a normal event of an object in a video scene will be described.
An information processing apparatus 100 illustrated in FIG. 1A includes a
映像取得部101は、例えば交差点や公共施設などに設置された監視カメラ等により撮影した監視対象の映像データを取得し、その取得した映像データを表示部108と特徴量作成部103へと出力する。
図2は、映像取得部101にて取得された映像データが表示部108の画面に表示された表示例を示している。図2には、交差点に設置された監視カメラの映像のうち、連続したnフレーム分の映像201−1〜201−nが、表示部108の画面上に表示されている例を示している。図2に例示したnフレーム分の映像201−1〜201−nには、交差点の横断歩道上を歩行者221が歩く様子が映っているとする。なお、図2に示した画面内の枠211−1〜211−nと属性情報リスト212については後述する。
The
FIG. 2 shows a display example in which the video data acquired by the
入力部102は、表示部108の画面表示を用いたGUI(グラフィカルユーザインターフェース)等を介したユーザからの入力指示等の情報取得を行う。すなわち本実施形態において、ユーザは、表示部108に表示されている映像を見つつ、入力部102を介して、対象物の正常な事象に関する指示を入力可能となされている。以下、図2に示した映像201−1〜201−nのように、歩行者221が交差点の横断歩道上を歩く行動を例に挙げ、ユーザによる対象物の正常な事象の指示入力例について説明する。
The
ここで、図2のように横断歩道上を歩く歩行者221の行動が対象物の正常な事象として指定される場合、ユーザからは、入力部102を介して、映像内の歩行者221を指定するための指示入力がなされる。入力部102を介してユーザから指示入力がなされると、情報処理装置100は、その指示入力を基に、映像内の歩行者221に対して所定の枠を設定する。この時のユーザによる指示入力としては、例えばGUIを介して映像上の対象物(歩行者221)の例えば左上の位置及び右下の位置を指示するような入力方法を用いることができる。情報処理装置100は、入力部102を介してユーザから映像内の歩行者221の左上及び右下の位置指定がなされると、それら指定された位置を枠の左上の位置及び右下の位置とする矩形枠を設定する。なお、ユーザによる指定と枠の設定方法は、この例に限定されず、その他の方法が用いられてもよい。
Here, when the action of the
本実施形態の場合、歩行者221に対する枠の設定は、連続するnフレーム分の映像201−1〜201−nのそれぞれについて行われる。これにより、それらnフレーム分の映像201−1〜201−nについて、それぞれ枠211−1〜211−nが設定される。なお、連続するnフレームの最初の1フレームについてのみユーザによる位置指定がなされ、以降の2〜nフレームについては、情報処理装置100が、下記の参考文献1に記載の公知の追尾技術により対象物を追尾することで枠を自動設定してもよい。対象物の追尾方法は、参考文献1の例に限定されるものではなく、他の追尾方法が用いられてもよい。本実施形態の情報処理装置100は、前述のように映像201−1〜201−nに対して設定された枠211−1〜211−nの情報(以下、領域情報と呼ぶ。)を、対象物の事象に関する情報の一つとして取得する。
In the case of the present embodiment, the setting of the frame for the
参考文献1:M.Isard and A. Blake, Condensation − conditional density propagation for visual tracking, International Journal of Computer Vision, vol.29, no.1, pp.5−28, 1998. Reference 1: M.M. Isard and A.M. Blake, Condensation-conditional density propagation for visual tracking, International Journal of Computer Vision, vol. 29, no. 1, pp. 5-28, 1998.
また、本実施形態の情報処理装置100は、対象物の正常な事象に関する情報として、前述した領域情報とともに、対象物の属性情報をも取得する。属性情報としては、例えば、対象物を表すカテゴリ情報、天候等のような環境情報、時刻や時間帯のような時間情報などを挙げることができる。本実施形態の情報処理装置100は、この属性情報についても、入力部102を介したユーザからの指示入力による情報取得が可能となされている。
Further, the information processing apparatus 100 according to the present embodiment also acquires the attribute information of the target object as information related to the normal event of the target object together with the area information described above. Examples of the attribute information include category information representing an object, environmental information such as weather, time information such as time and time zone, and the like. The information processing apparatus 100 according to the present embodiment can acquire information by inputting an instruction from the user via the
図2に示した属性情報リスト212は、入力部102を介してユーザが属性情報を指定する際に用いられる。本実施形態の情報処理装置100は、図2に示したような属性情報リスト212を画面上に表示させ、この属性情報リスト212から、入力部102を介してユーザが指定した属性情報を取得する。図2に例示した属性情報リスト212は、対象物のカテゴリ情報(例えば歩行者や自転車などの移動体を表すカテゴリ情報)、天候等を表す環境情報、時刻や時間帯等を表す時間情報を、ユーザが選択可能なプルダウンリストとなされている。したがって、ユーザは、図2の映像201−1〜201−nを見ながら、入力部102を介して属性情報リスト212のプルダウンリストを操作することにより、属性情報の指定を行うことができる。なお、図2の属性情報リスト212には、対象物の種類を指定するためのプルダウンリストも含まれているが、これについては後述する。属性情報は、図2の属性情報リスト212に挙げられている情報に限定されるものではなく、これら以外の属性情報の指定が可能になされていてもよい。本実施形態の情報処理装置100は、属性情報リスト212からユーザが指定した属性情報を、対象物の正常な事象に関する情報の一つとして取得する。
The
そして、本実施形態の情報処理装置100は、前述のように取得した領域情報(図2の例では枠211−1〜211−nの領域情報)と、属性情報(図2の例では属性情報リスト212にて指定された属性情報)とを、特徴量作成部103へ送る。
Then, the information processing apparatus 100 according to this embodiment includes the area information acquired as described above (area information in the frames 211-1 to 211-n in the example of FIG. 2) and attribute information (attribute information in the example of FIG. 2). Attribute information specified in the list 212) is sent to the feature
特徴量作成部103は、映像データから、映像内の対象物の事象における特徴量を作成する。例えば、特徴量作成部103は、映像データから対象物の動きベクトルを算出し、その対象物の動きベクトルの平均値を各要素とした特徴ベクトルを生成して、その特徴ベクトルを特徴量として作成する。図2の例の場合、特徴量作成部103は、歩行者221に対して設定された枠について、映像201−1〜201−nから動きベクトルを算出し、その動きベクトルの平均値を各要素とした特徴ベクトルを特徴量として作成する。また、特徴量作成部103は、例えば下記の参考文献2に示すHOF(Histogram of Optical Flow)、MHOF(Multi Histogram of Optical Flow)などによる特徴量を求めてもよい。なお、HOF、MHOFでは、動きベクトルを方向別に分けて強度を足し合わせてヒストグラムにした特徴量が得られる。その他にも、特徴量作成部103は、例えば下記の参考文献3に示すアピアランスの勾配強度を方向別にヒストグラムにしたHOG(Histogram of Oriented Gradients)や、それ以外の特徴量を求めてもよい。本実施形態における特徴量は、これら記載した方法によるものに限定されるものではない。そして、特徴量作成部103は、前述のようにして作成した特徴量と前述の属性情報とを、取得された映像内の対象物の正常な事象に関する事象データとして、データ選択部105へと送る。
The feature
参考文献2:J.Pers, et al, Histograms of Optical Flow for Efficient Representation of Body Motion, Pattern Recognition Letters, vol.31, no.11, pp.1369−1376,2010.
参考文献3:N.Dalal and B. Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of Computer Vision and Pettern Recognition(CVPR)、pp.886−893,2005.
Reference 2: J. Pers, et al, Histograms of Optical Flow for Efficient Representation of Body Motion, Pattern Recognition Letters, vol. 31, no. 11, pp. 1369-1376, 2010.
Reference 3: N.R. Dalal and B.M. Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of Computer Vision and Pentification Recognition (CVPR), pp. 886-893, 2005.
データ保存部104には、監視カメラ等の映像データを基に予め生成された対象物の正常な事象に関する事象データとして、例えば図3に示すような行動データ301が保存されている。行動データ301には、監視カメラ等の映像から抽出された対象物の画像データと、前述したような特徴量と、対象物の属性情報を表すラベル情報とが保存(登録)されている。属性情報を表すラベル情報としては、対象物のカテゴリ(歩行者や自転車などのカテゴリ)、撮影時の天候(晴れ、曇り等)、時刻や時間帯(昼間、夕方等)などの情報が保存されている。また、行動データ301は、それら画像データと特徴量と属性情報ごとに、固有のデータID(識別情報)が付与されている。このデータ保存部104に保存されている行動データ301の登録処理については、後述するデータ登録装置300の構成説明の際に述べる。
In the
データ選択部105は、データ保存部104に保存されている行動データ301の中から、特徴量作成部103にて作成した対象物の事象(例えば歩行者の行動)の特徴量に類似した特徴量を含む行動データを収集する。収集方法としては、例えば、データ保存部104内の行動データ301の中から、映像内の対象物について入力された属性情報と一致する属性情報を探索し、その探索された属性情報に対応した行動データを収集するような方法を用いることができる。また例えば、特徴量作成部103にて作成した特徴量と、データ保存部104内の行動データ301の特徴量との間のユークリッド距離を算出し、そのユークリッド距離が所定の閾値以下となっている特徴量を含む行動データを収集する方法が用いられてもよい。これら収集された行動データは、特徴量作成部103にて特徴量が生成された対象物の行動に類似した行動のデータである。
The
また、データ選択部105は、例えば下記の参考文献4に記載のp−stable hashingなどの近似最近傍探索法を用いたデータ探索処理により、データ保存部104から行動データを収集してもよい。近似最近傍探索法を用いたデータ探索処理を行う場合、データ選択部105は、先ず、ハッシュ関数を下記の式(1)により作成する。なお、式(1)の「a」は、各次元の要素値であり、次元数はデータ保存部104に保存されている特徴量の次元数である。また、式(1)の「r」は空間を分割する幅、「b」は[0,r]から一様に選ばれる実数である。
参考文献4:M. Datar, N. Immorlica, P.Indyk and V.S. Mirrokni, Locality−sensitive hashing scheme based on p−stable distribution,Proceedings 20th annual Symposium on Computational Geometry,pp.253−262,2004. Reference 4: M.M. Data, N.C. Immorlica, P.M. Indyk and V.M. S. Mirokni, Locality-sensitive hashing scheme based on p-stable distribution, Proceedings 20th annual Symposium on Computational Geometry, pp. 253-262, 2004.
データ選択部105は、このハッシュ関数を複数作成して、ハッシュ関数群を構成する。図4は、データ保存部104内の行動データ301の各特徴量(図4では特徴量401とする。)を図中の各黒丸(●)により表し、それら特徴量401が含まれる特徴空間を、ハッシュ関数群402により線形に分割した図を示している。また図4の例において、特徴量作成部103にて作成された特徴量411は、図4中の×印にて表されているとする。データ選択部105は、データ保存部104内の行動データ301の各特徴量401が何れのハッシュ関数による分割領域に属するかを決定し、また、特徴量作成部103にて作成された特徴量411が何れのハッシュ関数による分割領域に属するかを判定する。さらに、データ選択部105は、データ保存部104に保存されている行動データ301の各特徴量401の中で、特徴量作成部103にて作成された特徴量411が属する分割領域412内の特徴量401(413)を特定する。そして、データ選択部105は、データ保存部104に保存されている行動データ301の中から、それら特定した特徴量401(413)を含む行動データを収集する。これら収集出された行動データは、特徴量作成部103にて特徴量411が生成された対象物の行動に類似した行動のデータである。
The
次に、データ選択部105は、前述のようにしてデータ保存部104に保存されている行動データ301の中から収集した行動データを、識別モデルの作成に用いるか否か選択する。この選択方法としては、例えば図5に示すように、収集した各行動データに対応した各画像511を、個別に映像201に合成して表示部108の画面に表示させてユーザに確認させた上で選択させる方法を用いることができる。この映像合成の際、データ選択部105は、データ保存部104の行動データの作成時に取得された前述同様の領域情報の入力位置の情報を基に、対象物が移動している範囲を決定する。そして、データ選択部105は、その決定した範囲内において、映像201内で画像511をフレームごとの動きに合わせた異なる位置に合成する。フレームの切り替えは例えば入力部102を介したユーザによるフレーム切り替えの指示に応じて行われ、これにより、表示部108には、映像201内でフレームごとに画像511が移動していく様子が表示される。
Next, the
また、図5に示すように、データ選択部105は、表示部108の画面上で、画像511が合成された映像201の例えば下部に、「選択する」のボタンアイコン531と「選択しない」のボタンアイコン532を表示させる。そして、入力部102を介してユーザにより「選択する」のボタンアイコン531への入力指示がなされた場合、データ選択部105は、その入力指示時の画像511に対応した行動データを識別モデルの作成時の学習用データとして選択する。一方、ユーザにより「選択しない」のボタンアイコン532への入力指示がなされた場合、データ選択部105は、その時の行動データを識別モデルの作成時の学習用データとして選択しない。本実施形態の場合、データ選択部105による前述した選択処理が、収集された行動データごとに繰り返し行われて、識別モデル学習用の複数の行動データの選択が行われる。
As shown in FIG. 5, the
また、データ選択部105は、収集した各行動データの特徴量と、特徴量作成部103からの特徴量との間の距離を算出し、その距離に応じて行動データを分けて距離ごとに代表を選び、それの代表の行動データの画像を表示部108に表示させてもよい。この場合、それら代表の行動データの画像が表示され、それらの中からユーザにより選択された行動データが、識別モデルの作成時の学習用データとして選択される。
Further, the
そして、本実施形態のデータ選択部105は、前述したように、データ保存部104から収集された行動データの中から、入力部102を介してユーザにより選択された行動データが、識別モデル作成部106へ送られる。
Then, as described above, the
識別モデル作成部106は、前述のようにしてデータ選択部105にて選択された行動データを用いて、識別モデルを作成する。識別モデルの作成方法としては、例えば、k−meansクラスタリング手法を用い、行動データのクラスタ情報を作成して識別モデルとする方法を用いることができる。この場合、クラスタ数は、識別モデル作成部106に入力された行動データ数に基づいて決定してもよい。そして、識別モデル作成部106では、各クラスタの重心位置、及びクラスタ範囲が識別モデルとして作成される。また、識別モデル作成部106は、識別モデルに対して或る行動データの特徴量が入力された場合、特徴空間上で距離が最も近いクラスタの範囲内であれば正常と判定し、範囲外であれば正常ではないと判定する識別モデルを作成することができる。なお、本実施形態において、識別モデル作成方法は、前述のk−meansクラスタリング手法には限定されず、別の識別モデル作成方法が用いられてもよい。
The identification model creation unit 106 creates an identification model using the action data selected by the
識別モデル作成部106により作成された識別モデルは、識別モデル保存部107に送られて保存されるとともに、表示部108にも出力される。この際、識別モデルとして出力されるのは、各クラスタの重心位置とクラスタの範囲(例えばクラスタの分散)である。
The identification model created by the identification model creation unit 106 is sent to and stored in the identification
表示部108は、映像取得部101にて取得された映像を画面上に表示させるとともに、入力部102による入力内容の表示や、データ選択部105にて選択された行動データの画像の合成画像の表示などをも行う。また、表示部108には、識別モデル作成部106で作成した識別モデルがアイコン等により表示されてもよい。
以上が、図1(a)に示した本実施形態の情報処理装置100の構成と処理である。
The
The above is the configuration and processing of the information processing apparatus 100 of the present embodiment illustrated in FIG.
<データ登録処理の構成と処理>
図1(b)は、図1(a)に示した情報処理装置100から、データ保存部104にデータベースとして行動データを登録するデータ登録処理を行う構成部分を抜き出して示した図である。なお、図1(b)の構成は図1(a)の情報処理装置100とは別の装置であってもよい。以下、本実施形態では、図1(b)に示す構成をデータ登録装置300と呼ぶ。図1(b)に示すように、データ登録装置300は、映像取得部101と入力部102と特徴量作成部103と表示部108とデータ保存部104とで構成される。
<Data registration processing configuration and processing>
FIG. 1B is a diagram showing a configuration part extracted from the information processing apparatus 100 shown in FIG. 1A for performing data registration processing for registering behavior data as a database in the
映像取得部101は、前述したのと同様に、監視カメラ等からの映像データを取得し、その映像データは特徴量作成部103と表示部108へ送られる。図6は、映像取得部101にて取得された映像データの映像201が表示された表示部108の画面表示例を示している。
As described above, the
入力部102は、前述したのと同様に、表示部108の画面表示を用いたGUI等を介して、ユーザから対象物の正常な事象(例えば歩行者の行動)を指示する入力を取得する。図6は、対象物としての歩行者621が横断歩道を歩いている映像201から、歩行者621が横断歩道上を歩くような正常な事象としての行動が指定された例を示している。また、図6の画面上には、前述の図2で説明したのと同様にして、映像201内の歩行者621に対して枠601が設定され、さらに属性情報リスト602も表示される。そして、枠601の設定や属性情報リスト602を用いた属性情報の入力が完了し、例えばユーザにより「入力完了」のボタンアイコン631への入力指示が行われると、入力部102は、前述同様に、領域情報と属性情報等を特徴量作成部103へと出力する。一方、「入力完了」のボタンアイコン631への入力指示が行われていない場合、行動の指定と属性情報の設定が可能な状態が維持される。
As described above, the
特徴量作成部103は、前述したのと同様にして特徴量を作成する。そして、特徴量作成部103にて作成した特徴量と、入力部102による入力に応じた属性情報とが、データ保存部104へと出力される。
The feature
データ保存部104には、特徴量作成部103にて作成された特徴量と、入力部102からの属性情報とが対応付けられ、さらに、データID(識別情報)が割り当てられた行動データが保存される。また、特徴量については、例えば前述したp−stable hashingを用いたハッシュ値(各ハッシュ関数によって線形に分割された領域のどれに属するかの情報)が作成されて、これらのデータが保存される。
図1(b)のデータ登録装置300では、以上のようにしてデータ登録処理が行われることにより学習データベースが形成されている。
In the
In the data registration apparatus 300 of FIG. 1B, a learning database is formed by performing the data registration process as described above.
<処理フローチャートの説明>
以下、図7(a)〜図7(c)に示すフローチャートを用いて、本実施形態の情報処理装置100における処理の流れを説明する。図7(a)には識別モデル作成処理、図7(b)にはデータ選択処理、図7(c)にはデータ登録処理の各フローチャートを示す。なお、図7(a)〜図7(c)のフローチャートでは、ステップS701〜ステップS726をそれぞれS701〜S726と略記する。また、図7(a)〜図7(c)のフローチャートの処理は、ハードウェア構成又はソフトウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、図7(a)〜図7(c)のフローチャートの処理は、不図示のROM等に格納されているプログラムがRAM等に展開されてCPU等により実行される。本実施形態に係るプログラムは、ROM等に予め用意される場合だけでなく、例えば着脱可能な半導体メモリから読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりして、RAM等にロードされてもよい。これらのことは、後述する他のフローチャートにおいても同様とする。
<Description of processing flowchart>
Hereinafter, the flow of processing in the information processing apparatus 100 according to the present embodiment will be described with reference to the flowcharts illustrated in FIGS. 7A to 7C. FIG. 7A shows a flowchart of an identification model creation process, FIG. 7B shows a data selection process, and FIG. 7C shows a data registration process. In the flowcharts of FIGS. 7A to 7C, steps S701 to S726 are abbreviated as S701 to S726, respectively. 7A to 7C may be executed by a hardware configuration or a software configuration, or a part of the processing may be realized by a software configuration and the rest by a hardware configuration. . When the processing is executed according to the software configuration, the processing in the flowcharts of FIGS. 7A to 7C is executed by the CPU or the like after a program stored in a ROM (not shown) is expanded in the RAM or the like. The The program according to the present embodiment is not only prepared in advance in a ROM or the like, but is also read from a removable semiconductor memory or downloaded from a network such as the Internet (not shown) and loaded into the RAM or the like. May be. The same applies to other flowcharts described later.
先ず図7(a)の識別モデル作成処理のフローチャートから説明する。
S701において、映像取得部101は、監視カメラ等から映像データを取得して、特徴量作成部103と表示部108へ出力する。S701の後、情報処理装置100の処理はS702へと進む。
S702において、表示部108は、映像取得部101から送られてきた映像を表示する。S702の後、情報処理装置100の処理はS703へと進む。
First, the flowchart of the identification model creation process in FIG.
In step S <b> 701, the
In step S <b> 702, the
S703において、入力部102は、表示部108に表示されている映像内の対象物の事象に関するユーザの入力指示を基に、前述したように領域情報と属性情報を取得し、それら領域情報と属性情報を特徴量作成部103へと出力する。S703の後、情報処理装置100はS704へと進む。
In step S <b> 703, the
S704において、特徴量作成部103は、対象物の行動を表す前述した領域情報と属性情報を基に、前述したようにして特徴量を作成し、その特徴量の情報をデータ選択部105へと出力する。S704の後、情報処理装置100の処理はS705へと進む。
In step S <b> 704, the feature
S705において、データ選択部105は、前述したように、特徴量作成部103で作成された特徴量に類似する特徴量を持つ行動データをデータ保存部104のデータベースから選択する。データ選択部105におけるデータ選択処理の詳細な処理の流れは図7(b)のフローチャートで説明する。S705の後、データ選択部105は、S706へと処理を進める。
In step S <b> 705, the
S706において、データ選択部105は、入力部102を介してユーザから入力完了の指示がなされたか否かを判定する。そして、データ選択部105は、ユーザから入力完了の指示が入力されず、引き続き入力部102を介した対象物の行動に関する入力が行われる場合(NO)、情報処理装置100の処理をS703に戻す。一方、データ選択部105は、ユーザから入力完了の指示が入力された場合(YES)、データ保存部104から選択された行動データを、識別モデルの作成に用いるデータとして識別モデル作成部106へと出力する。そして、S706で入力完了の指示が入力されたと判定された場合(YES)、情報処理装置100の処理はS707へと進む。
In step S <b> 706, the
S707において、識別モデル作成部106は、識別モデルの作成用の行動データを用いて、前述のように識別モデルを作成(つまり識別モデルを学習)する。そして、識別モデル作成部106は、その作成した識別モデルを識別モデル保存部107に保存させる。このS707の処理完了後、情報処理装置100は、識別モデル作成処理を終了させる。
In S707, the identification model creation unit 106 creates an identification model (that is, learns the identification model) as described above using the action data for creating the identification model. Then, the identification model creation unit 106 stores the created identification model in the identification
次に、図7(b)のフローチャートに示すデータ選択処理(S706の処理)について説明する。なお、以下の説明では前述したハッシュ関数を用いる例を挙げる。
S711において、データ選択部105は、前述したS704の処理で取得された特徴量に対して、前述したようにハッシュ関数を適用してハッシュ値を算出する。そして、データ選択部105は、算出したハッシュ値に対し、データ保存部104に保存されている特徴量のハッシュ値が同一の行動データを収集する。データ選択部105は、S711にて行動データを収集できた場合、S712へと処理を進める。
Next, the data selection process (the process of S706) shown in the flowchart of FIG. In the following description, an example using the hash function described above will be given.
In S711, the
S712において、データ選択部105は、参照する行動データに付与する番号を表すインデックスiを初期化する。インデックスiは、前述のように収集した行動データに対して順番に割り振られる例えば番号である。インデックスiの初期化が完了すると、データ選択部105は、S713へと処理を進める。
S713に進むと、データ選択部105は、参照する行動データのインデックスiが、収集した行動データ数Iを超えるか(i>I)否かを判定する。データ選択部105は、インデックスiが、収集した行動データ数以下(i≦I)である場合(NO)にはS714へと処理を進め、一方、収集した行動データ数Iを超える場合(YES)には図7(b)の処理を終了する。
In S712, the
In step S713, the
S714に進むと、データ選択部105は、収集した行動データの中で、インデックスiの行動データに含まれる画像データの画像を、前述の図5で説明したように、映像取得部101にて取得された映像に対して合成する。S714の後、データ選択部105は、S715に処理を進める。
In S714, the
S715において、データ選択部105は、表示部108に画面表示された合成映像を見たユーザにより、入力部102を介して、インデックスiの行動データの選択指示又は非選択の指示が入力されたか否かを判定する。データ選択部105は、例えば前述の図5の「選択する」のボタンアイコン531への入力指示がなされて、インデックスiの行動データが選択された場合(YES)には、S716に処理を進める。一方、データ選択部105は、例えば図5の「選択しない」のボタンアイコン532への入力指示がなされたことで、非選択の指示がなされた場合(NO)には、S717に処理を進める。
In S <b> 715, the
S716に進むと、データ選択部105は、S715で選択されたインデックスiの行動データを識別モデル作成用データに設定する。S716の後、データ選択部105は、S717へと処理を進める。
In step S716, the
S717に進むと、データ選択部105は、次の行動データを参照するよう、インデックスiをインクリメントする更新を行った後、S713へと処理を戻す。そして、収集した全ての行動データについてS714〜S716の処理が終わり、S717でインデックスiが更新されると、そのインデックスiは収集した行動データ数Iを超えることになる。したがって、収集した全ての行動データについてS714〜S716の処理が終わると、S713では収集した行動データ数Iを超えると判定(YES)されて、図7(b)のフローチャートの処理は終了する。
In step S717, the
次に、図7(c)のフローチャートに示すデータ登録処理について説明する。なお、図7(c)のフローチャートの処理は、図1(b)のデータ登録装置300にて行われる。
S721において、映像取得部101は、監視カメラから映像データを取得して、特徴量作成部103と表示部108へ出力する。S721の後、データ登録装置300の処理はS722へと進む。
S722において、表示部108は、映像取得部101から送られてきた映像を表示する。この場合の映像は、入力部102を介したユーザからの操作により、表示するフレームが変更され、その変更されたフレームの映像が表示される。S722の後、データ登録装置300の処理はS723へと進む。
Next, the data registration process shown in the flowchart of FIG. Note that the processing of the flowchart of FIG. 7C is performed by the data registration apparatus 300 of FIG.
In step S <b> 721, the
In S722, the
S723において、入力部102は、表示部108に表示されている映像内の対象物の正常な事象に対するユーザの入力指示を基に、前述した領域情報と属性情報を取得し、それら領域情報と属性情報を特徴量作成部103へと出力する。正常な事象としての行動の入力は、前述したように、映像の各フレームに対して対象物(歩行者や自転車など)がある領域をGUI操作により入力することにより行われる。S723の後、データ登録装置300はS724へと進む。
In step S723, the
S724において、特徴量作成部103は、前述同様にして特徴量を作成する。そして、その作成された特徴量と属性情報は、データ保存部104へと送られる。S724の後、データ登録装置300の処理はS725へと進む。
In S724, the feature
S725に進むと、データ保存部104は、前述したように、特徴量の情報及び登録情報について、データIDを割り当てて保存(登録)する。特徴量については、前述したように例えばハッシュ値が作成されて、これらの情報が保存される。このS725の後、データ登録装置300の処理は、S726へと進む。
In step S725, the
S726に進むと、入力部102は、ユーザから図6に例示した「入力完了」のボタンアイコン631への入力指示がなされたか否かを判定する。入力部102は、ユーザから入力完了の指示が入力されない場合(NO)にはS723に処理を戻す。一方、入力部102に入力完了の指示が入力された場合(YES)、データ登録装置300は、図7(c)のフローチャートの処理を終了する。なお、図6の例では図示していないが、画面内に例えば「継続」のボタンアイコンを設け、その「継続」のボタンアイコンへの入力指示が行われた場合に、S726でNOと判定されてS723の処理に戻るようにしてもよい。
In step S726, the
以上説明したように、第1の実施形態の情報処理装置100では、映像シーン内の対象物の事象としての行動やその状態を指定し、それらに類似する行動データを、予め作成して登録されているデータベースから収集する。そして、本実施形態においては、データベースから収集した行動データの中から、映像シーンに応じた適切な行動データを選択し、その選択した行動データを用いて識別モデルを作成している。すなわち、本実施形態の情報処理装置100によれば、設置した監視カメラに対して、例えば学習用の映像データが少なくても、映像シーン内の対象物の事象を精度良く的確に識別できる識別モデルを作成することが可能となっている。 As described above, in the information processing apparatus 100 according to the first embodiment, the behavior and the state of the target object in the video scene are specified, and behavior data similar to them is created and registered in advance. Collect from the database you are using. In this embodiment, appropriate action data corresponding to the video scene is selected from the action data collected from the database, and an identification model is created using the selected action data. That is, according to the information processing apparatus 100 of the present embodiment, an identification model that can accurately and accurately identify an event of an object in a video scene even if there is little video data for learning, for example, with respect to an installed monitoring camera. It is possible to create.
<第2の実施形態>
図8は、第2の実施形態に関わる情報処理装置800の概略的な構成例を示している。
第2の実施形態の情報処理装置800は、識別モデルを作成する際、対象物やその状態を識別するデータとして、第1の実施形態で説明した対象物の正常な事象に加えて、対象物の正常な事象とは異なる事象に応じた行動データをも収集する。第2の実施形態において、対象物の正常な事象とは異なる事象としては、一例として、歩行者や自転車などが対象物である場合、歩行者や自転車などが転倒、倒れこみ、横断禁止場所の横断などの行動が挙げられる。なお、第2の実施形態においても映像シーンの一例として屋外の交差点の映像シーンを用いて説明するが、その他の公共施設等の映像シーンなどであってもよい。以下の説明では、正常な事象とは異なる事象を「異常な事象」と表記し、対象物の異常な事象としての行動を「異常な行動」と表記することとする。そして、第2の実施形態の場合、正常な事象と異常な事象に関する情報の入力は、後述するラベルアイコンの選択入力により行われる。
<Second Embodiment>
FIG. 8 shows a schematic configuration example of an
When creating the identification model, the
以下、図8に示した第2の実施形態の情報処理装置800において、対象物の正常な事象と異常な事象に関する情報の入力と行動データの収集、その収集した行動データに基づく識別モデルの生成を行う構成及び処理の説明を行う。なお、第2の実施形態の情報処理装置800において、前述した第1の実施形態の情報処理装置100の各構成と同一の構成については、同一の参照符号を付してその説明は省略する。第2の実施形態の情報処理装置800の場合、データ選択部805、データ保存部804、識別モデル作成部806が、第1の実施形態の情報処理装置100とは異なり、それ以外は第1の実施形態と同一の構成である。
Hereinafter, in the
また、第2の実施形態の場合は、前述した第1の実施形態で説明した対象物の正常な事象に関する入力処理に加えて、対象物の異常な事象に関する入力処理が行われる。対象物の異常な事象に関する入力処理では、対象物の事象の種類を表すラベル情報と、対象物の事象が異常な事象である場合のその異常な事象の意味を表すラベル情報の入力が行われる。対象物の事象の種類を表すラベル情報としては、対象物の事象が「正常」と「異常」の何れの種類に属するかを表す情報が用いられる。また、対象物の異常な事象の意味を表すラベル情報としては、対象物が歩行者等である場合の例えば「転倒」や「倒れこみ」、「横断禁止」などの情報が用いられる。したがって、第2の実施形態のデータ保存部804には、対象物の事象の種類を表すラベル情報と対象物の異常な事象の意味を表すラベル情報とを含む属性情報が記述された行動データが保存される。
In the case of the second embodiment, in addition to the input process related to the normal event of the object described in the first embodiment, the input process related to the abnormal event of the object is performed. In the input processing related to the abnormal event of the object, label information indicating the type of the event of the object and label information indicating the meaning of the abnormal event when the event of the object is an abnormal event are input. . As the label information indicating the type of event of the object, information indicating which type of the event of the object belongs to “normal” or “abnormal” is used. Further, as the label information indicating the meaning of the abnormal event of the object, for example, information such as “falling”, “falling down”, “prohibiting crossing” when the object is a pedestrian or the like is used. Therefore, in the
図9は、対象物が歩行者等であり、その歩行者等の行動が異常な行動である場合の行動データ901の一例を示した図である。図9には、対象物の異常な行動を表した画像データ、その特徴量、異常な行動に関連付けられた各ラベル情報の属性情報に対して、固有のデータIDが割り当てられた行動データ901の例が挙げられている。図9の属性情報では、対象物の行動の種類を表すラベル情報として「異常」が、対象物を表すラベル情報として「歩行者」が、対象物の異常な行動の意味を表すラベル情報として「転倒」や「倒れこみ」、「横断禁止」が、記述された例を挙げている。したがって、第2の実施形態のデータ保存部804には、例えば図9に示すような行動データ901が保存されている。なお、図9には図示していないが、行動データ901には対象物の行動が正常である場合の情報も適宜記述される。
FIG. 9 is a diagram illustrating an example of
また第2の実施形態の場合も、データ選択部805では、入力部102を介したユーザからの入力指示に基づいて、識別モデルの作成に用いる行動データの選択が行われる。
図10は、映像取得部101にて取得された映像データの映像1001が表示された表示部108の表示例を示している。入力部102は、前述同様に、表示部108の画面表示を用いたGUI等を介して、ユーザから対象物に対する指示入力を取得する。図10には、対象物としての歩行者1021が横断歩道を歩いている映像1001の例を示している。第2の実施形態の場合、表示部108の画面には、映像データの映像1001と前述同様の属性情報リスト1012の他に、データ保存部804に保存されている行動データの各ラベル情報をアイコンにより表したラベルリスト1002も表示される。すなわち、ラベルリスト1002は、データ保存部804に保存されている各行動データの属性情報のラベル情報を基に分類したリストとなされている。図10には、ラベルリスト1002として、正常な行動に対応した正常行動ラベルリスト、異常な行動に対応した異常行動ラベルリスト、及び、その他の行動ラベルリストが表示された例を挙げている。
Also in the case of the second embodiment, the
FIG. 10 shows a display example of the
第2の実施形態の場合、ユーザは、映像データの映像1001を見ながら、入力部102を介したGUI操作により、ラベルリスト1002の中のアイコン指示により行動データのラベル情報を入力する。図10には、ユーザが入力部102を介して例えば横断禁止ラベルアイコン1003を入力した例が示されている。すなわち、図10の例のように、歩行者1021が横断歩道を歩いている場合において、横断禁止ラベルアイコン1003の設定がなされると、その歩行者1021が横断歩道を歩く行動は異常行動であるとして行動データの設定が行われる。
In the case of the second embodiment, the user inputs label information of action data by an icon instruction in the
また、本実施形態において、ラベルリスト1002には、例えば交通信号機に対してラベル情報の入力を可能にするアイコンも用意されている。例えば、歩行者1021が歩いている横断歩道に直交した道路用の交通信号機1004を例えば赤色点灯状態に設定し、その時の歩行者1021の行動に関する情報の入力を行うことで、併せて交通信号機1004の情報が設定される。これにより、交通信号機1004の状況変化にも対応した行動データの入力が可能となる。
そして、これらの入力が完了した場合、それら入力により設定された行動データが、識別モデル作成部806へと出力される。
In the present embodiment, the
Then, when these inputs are completed, the behavior data set by these inputs is output to the identification
第2の実施形態の識別モデル作成部806は、設定された行動データを用いて、前述同様に識別モデルの学習を行う。第2の実施形態の場合、各行動データには、正常又は異常の種類を表す属性情報が付与されている。このため、第2の実施形態の識別モデル作成部806は、正常のラベル情報をクラス「+1」とし、異常のラベル情報をクラス「−1」として、SVM(Support Vector Machine)手法を用いて識別モデルを作成する。これにより、入力された特徴量の行動データが、正常な行動か、又は、異常な行動かを判定可能な識別モデルが作成される。なお、識別モデルの作成には、Adaboostなどの手法を用いることも可能である。
The identification
第2の実施形態の場合、前述したように属性情報には例えば交通信号機の状態を表す情報の入力も可能となされている。このため、例えば交通信号機が赤色点灯時に入力された情報を使って赤色点灯時の識別モデルを作成し、また例えば交通信号機が青色点灯時に入力された情報を使って青色点灯時の識別モデルを作成することも可能である。このように、交通信号機の点灯変化に対してそれぞれの識別モデルを作成しておくことにより、例えば、対象物やその行動の識別時に、交通信号機の情報を基に識別モデルを切り替えることで、より正しい正常・異常の行動判定を行うことも可能となる。 In the case of the second embodiment, as described above, for example, information indicating the state of a traffic signal can be input in the attribute information. For this reason, for example, an identification model for when the traffic light is lit in red is used to create an identification model for when the red light is lit. For example, an identification model for when the traffic light is lit in blue is created using the information input when the traffic light is lit in blue. It is also possible to do. In this way, by creating each identification model for lighting changes of traffic signals, for example, when identifying an object or its action, by switching the identification model based on traffic signal information, It is also possible to perform correct normal / abnormal behavior determination.
前述のようにして識別モデル作成部806にて作成された識別モデルのデータは、識別モデル保存部107へと送られて保存される。なお、本実施形態の場合、識別モデルはSVM手法を用いて作成されるので、複数のサポートベクターと、それぞれに対応する係数、及び、閾値が、識別モデル保存部107に保存される。
The identification model data created by the identification
次に、図11のフローチャートを参照しながら、第2の実施形態における識別モデル作成処理について詳細に説明する。なお、図11において、前述の図7(a)のフローチャートと同じ処理ステップには同一の参照符号を付してそれらの説明は省略する。
図11のフローチャートにおいて、S702の後、情報処理装置800の処理は、S1113に進む。
Next, the identification model creation process in the second embodiment will be described in detail with reference to the flowchart of FIG. In FIG. 11, the same processing steps as those in the flowchart of FIG. 7A described above are denoted by the same reference numerals, and description thereof is omitted.
In the flowchart of FIG. 11, after S702, the processing of the
S1113において、入力部102は、表示部108に表示されている対象物の事象に対するユーザの入力指示を基に、前述同様の領域情報と共に、その対象物の異常な行動に関する各ラベル情報を含む属性情報を取得する。S1113の後、入力部102の処理は、S1114へと進む。
In S <b> 1113, the
S1114において、入力部102は、ユーザによる入力指示がなされた属性情報のラベル情報が、前述のラベルリスト1002からの入力か否かを判定する。具体的には、入力部102は、ラベルリスト1002内のラベルアイコンをユーザがクリック等することで何れかのラベルアイコンが選択されているかどうかにより、ラベルリスト1002による入力か否かの判定を行う。なお、判定の方法はこの方法に限定されるものではない。S1114において、ラベルリスト1002による入力であると判定された場合、ユーザによる入力部102を介した指示入力の情報はデータ選択部805へと送られ、情報処理装置800の処理はS1115へと進む。一方、S1114において、ラベルリスト1002による入力でない判定された場合、ユーザによる入力部102を介した指示入力の情報は特徴量作成部103へと送られ、情報処理装置800の処理は前述したS705へと進む。なお、S704の処理に進んだ場合、情報処理装置800の処理は、その後、前述したS705の処理へ進み、さらに前述したS706へと進む。
In step S <b> 1114, the
S1115の処理に進んだ場合、データ選択部805は、S1113にてユーザにより入力部102を介して入力されたラベルアイコンに応じたラベル情報を基に、データ保存部804から行動データを収集する。すなわち、データ選択部805は、データ保存部804内の各行動データの中から、ラベル情報を基に検索した行動データを収集し、その行動データを識別モデル作成部806に送る。S1115の後、情報処理装置800の処理は、前述したS706へと進む。
When the process proceeds to S1115, the
S706において、前述したように入力が完了したと判定されると、情報処理装置800の処理は、S1117へと進む。
S1117において、識別モデル作成部806は、識別モデルの作成用の行動データを用いて、識別モデルの学習を行う。第2の実施形態の場合、識別モデル作成部806は、入力された行動データの属性情報を用いて、正常な行動の行動データと、異常な行動の行動データとに分ける。そして、識別モデル作成部806は、前述したように、正常行動データをクラス「+1」として、異常行動データをクラス「−1」とし、SVMを用いて識別モデルを作成する。このようにして作成された識別モデル(複数のサポートベクターと、それぞれに対応する係数、及び、閾値)は、識別モデル保存部107へと出力されて保存される。このS1117の処理完了後、情報処理装置800は、図11のフローチャートの識別モデル作成処理を終了させる。
If it is determined in S706 that the input has been completed as described above, the processing of the
In step S <b> 1117, the identification
以上説明したように、第2の実施形態の情報処理装置800では、データ保存部804に保存されている行動データのラベル情報に応じたラベルアイコンを表示し、ユーザがラベルアイコンを選択することで対象物の行動に関する情報入力が行われる。すなわち、第2の実施形態の場合、ラベルアイコンの選択入力により、映像シーンの対象物の事象が正常か異常かを判定可能な識別モデルの作成が可能となる。
As described above, in the
<第3の実施形態>
図12は、第3の実施形態に関わる情報処理装置1200の概略的な構成例を示している。
第3の実施形態の情報処理装置1200は、前述した第1、第2の実施形態で説明したような監視カメラ等の映像の表示と共に、監視カメラ等により映像が取得される場所のマップ情報をも表示して、対象物の事象に関する情報の入力を可能にする例である。
<Third Embodiment>
FIG. 12 shows a schematic configuration example of an
The
以下、図12に示す情報処理装置1200において、複数のシーンの情報を含むマップ情報を用いて対象物の事象としての行動データを収集し、それら収集した行動データを基にした学習等により識別モデルを作成する構成及び処理の説明を行う。なお、本実施形態では、監視カメラ等が屋内の公共施設等に設置されている例を挙げて図示しているが、これには限定されず、例えば病院、介護施設、駅などの施設や、屋外等に設置されていてもよい。
Hereinafter, in the
図12に示した情報処理装置1200において、マップ情報保存部1201は、監視カメラ等が設置さている場所及びその周囲のマップ情報を保持している。マップ情報は、監視カメラ等が例えば建物の屋内に設置されている場合には、その建物の見取り図(ゾーニングマップ)の情報を含み、例えばCGなどの3次元データとして保存されている。また、マップ情報保存部1201には、建物に関する情報に対して、監視カメラの設置情報や、複数のシーンの情報として屋内の各エリアにおける対象物の行動データも併せて保存されている。これらシーン毎の行動データはCGで作成することができる。また、マップ情報は、監視カメラ等が屋外に設置されている場合には、その周囲の地図情報となされる。屋外の場合のマップ情報には、シーン毎の対象物の行動に関する情報として、例えば携帯電話機や車両などに搭載されているGPS(全地球無線測位システム)等の測位情報(移動情報)が含まれていてもよい。
In the
図13には、第3の実施形態の情報処理装置1200の映像取得部1208にて取得された映像1306とマップ情報保存部1201から供給されたマップ1301とが、表示部1209に表示された例を示している。図13の表示例において、映像1306は映像取得部1208にて取得された映像であり、マップ1301はマップ情報保存部1201から供給されたマップ情報に基づくゾーニングマップ等である。また、マップ情報保存部1201のマップ情報には、監視カメラの設置位置情報と、その監視カメラのカメラ情報も含まれる。監視カメラの設定位置情報にはカメラの設置高さやカメラの設置角度の情報が含まれ、カメラ情報にはカメラの画角、焦点距離、絞り、シャッタースピード、ISO感度、画素数などのカメラパラメータの情報等が含まれている。したがって、図13のマップ1301には、監視カメラの設置位置情報に基づく監視カメラ1302も表示される。なお、映像1306内のエリア1305についての説明は後述する。
FIG. 13 shows an example in which the
また、マップ情報保存部1201のマップ情報には、マップ1301内でカメラ設置位置情報に応じたエリア1303内における正常な行動の対象物のデータも登録されている。マップ情報に含まれる対象物のデータには、その対象物の行動の3次元の動きデータも含まれている。図13の例の場合、エリア1303内における正常な行動の対象物データとして、前後左右に動く歩行者と、止まっている人と、前後左右に動く車椅子に乗った人のデータが登録されており、それらを表すアイコン1321〜1323が表示されている。なお、マップ情報保存部1201には、正常行動のデータだけでなく、前述の第2の実施形態で説明したような、異常行動の場合の対象物のデータが登録されていてもよい。
Further, in the map information of the map information storage unit 1201, data of objects of normal behavior in the
図12に説明を戻す。
座標変換部1202は、マップ情報保存部1201に登録されているマップ情報、カメラ設置情報、カメラ情報、対象物に関するデータを読み込む。そして、座標変換部1202は、カメラの設置位置情報に基づいて登録されているエリア1303とそのエリア1303内の対象物のデータに対し、映像1306の領域に表示するための座標変換を行う。具体的には、座標変換部1202は、カメラの設置位置を基準として、下記の式(2)を用い、エリア1303を映像1306内に透視投影変換することで、映像1306上のエリア1305を算出する。
Returning to FIG.
The coordinate
なお、式(2)において、(x,y,z)は映像1306内における座標、kは画素の有効サイズ、oは映像1306の中心(画像中心)、fはカメラの焦点距離、(X,Y,Z,1)はカメラ設置位置を基準とした時の座標系のデータである。また、座標変換部1202は、3次元のデータをカメラの座標系にデータに変換するのに下記の式(3)の演算を行う。
In equation (2), (x, y, z) are coordinates in the
なお、式(3)において、(X,Y,Z)はデータ座標系での座標、tはデータ座標系を基準としたカメラの設置位置、θはカメラの設置角度、(X',Y',Z')はカメラ座標系での座標である。 In equation (3), (X, Y, Z) are coordinates in the data coordinate system, t is the camera installation position with reference to the data coordinate system, θ is the camera installation angle, and (X ′, Y ′). , Z ′) are coordinates in the camera coordinate system.
座標変換部1202は、図13のマップ1301のエリア1303について、この座標変換の演算を行うことにより、映像1306内において対応するエリア1305の領域を設定することができる。また、座標変換部1202は、マップ1301のエリア1303内の対象物(アイコン1321,1322,1323)について、3次元の動きベクトルを同様に映像1306上の動きベクトルに変換する。そして、座標変換部1202により座標変換された情報は、特徴量作成部1203へ出力される。
The coordinate
特徴量作成部1203は、座標変換部1202にて変換された動きデータを基に、特徴量を作成する。具体的には、特徴量作成部1203は、座標変換部1202による変換で算出された映像1306上での動きデータから、nフレーム分の動きをベクトルの各要素とした特徴ベクトルを特徴量として求める。その他にも、特徴量作成部1203は、nフレーム分のHOF特徴量を作成して特徴量としてもよい。そして、特徴量作成部1203は、作成した特徴量をデータ選択部1205へと出力する。
The feature
データ保存部1204は、各行動データを保存している。本実施形態の場合、データ保存部1204には、前述した図3や図9で説明したのと同様の行動データが保存されている。
データ選択部1205は、特徴量作成部1203から取得した特徴量を用いて、前述した実施形態と同様に、類似する特徴量の行動データをデータ保存部104から選択する。そして、その選択された類似する行動データが識別モデル作成部1206へと送られる。
識別モデル作成部1206は、データ選択部1205で選択された行動データを用いて、前述した実施形態と同様に、識別モデルを作成する。なお、マップ情報保存部1201に異常行動のデータも登録されている場合、識別モデル作成部1206では前述同様のSVMなどの2クラス識別モデルを作成することもできる。そして、その作成された識別モデルは、識別モデル保存部1207へ送られて保存される。また、識別モデルは、表示部1209へと送られてもよい。
The
The
The identification
第3の実施形態の映像取得部1208は、マップ情報保存部1201に登録されている監視カメラにより撮影された映像データを取得する。この映像データは表示部1209へと送られる。
表示部1209は、映像取得部1208からの映像と、識別モデル作成部1206で作成した識別モデルとを表示する。第3の実施形態の場合、表示部1209の画面には、図13に示したように、映像1306のエリア1305に、識別モデルに応じたアイコン1321〜1323を重ねて表示する。これにより、ユーザは、識別結果を確認することができることになる。なお、図13の例では、エリア1305上のアイコン1321〜1323は、マップ1301のエリア1303内のものと同様のものを例に挙げている。
A
The
以下、図14のフローチャートを参照しながら、第3の実施形態の情報処理装置1200における識別モデル作成から表示までの処理について詳細に説明する。
S1401において、座標変換部1202は、マップ情報保存部1201に登録されている前述したマップ情報、カメラの設置位置情報、カメラ情報、対象物のデータを読み込む。S1401の後、座標変換部1202の処理は、S1402へと進む。
Hereinafter, with reference to the flowchart of FIG. 14, processing from creation of an identification model to display in the
In step S1401, the coordinate
S1402に進むと、座標変換部1202は、マップ情報保存部1201から取得したマップ情報、カメラ設定位置情報、カメラ情報、対象物のデータを用いて、前述したような座標変換処理を行う。そして、座標変換部1202は、座標変換により得られたデータを特徴量作成部1203へと出力する。S1402の後、情報処理装置1200の処理は、S1403へと進む。
In step S1402, the coordinate
S1403において、特徴量作成部1203は、座標変換部1202にて変換されたデータを用いて前述したように特徴量を作成し、その作成した特徴量の情報をデータ選択部1205へと送る。S1403の後、情報処理装置1200の処理はS1404へと進む。
S1404に進むと、データ選択部1205は、特徴量作成部1203から取得した特徴量を基に、前述したように類似する特徴量の行動データを選択し、その選択した行動データを識別モデル作成部1206へと送る。S1404の後、情報処理装置1200の処理はS1405へと進む。
S1405において、識別モデル作成部1206は、前述したように、選択した行動データを用いて識別モデルを作成し、その作成した識別モデルのデータを識別モデル保存部1207と表示部1209に出力する。S1405の後、情報処理装置1200の処理はS1406へと進む。
In step S <b> 1403, the feature
In step S1404, the
In step S1405, as described above, the identification
S1406において、表示部1209は、映像取得部1208から映像を取得し、識別モデル保存部1207から識別モデルの情報を取得する。なお、監視カメラが複数ある場合には、予め何れの監視カメラの映像を取得するかが選択されているとする。S1406の後、表示部1209は、S1407の処理として、映像取得部1208から取得した映像と、識別モデル保存部1207から取得した識別モデルを画面に表示する。この表示を見ることにより、ユーザは、どのような識別モデルが作成されたかを確認することができる。
In step S <b> 1406, the
以上説明したように、第3の実施形態の情報処理装置1200によれば、マップ情報を基に、設置されている監視カメラに対応可能な識別モデルを自動で作成することができる。第3の実施形態の情報処理装置1200においても、前述の実施形態と同様にシーン内の対象物の事象を精度良く識別できる識別モデルを生成可能である。
As described above, according to the
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
101 映像取得部、 102 入力部、 103 特徴量作成部、104 データ保存部、105 データ選択部、 106 識別モデル作成部、 107 識別モデル保存部、 108 表示部
DESCRIPTION OF
Claims (15)
映像を取得する映像取得手段と、
前記取得された映像内の対象物の事象の特徴量を作成する特徴量作成手段と、
前記特徴量作成手段にて作成された特徴量に類似した特徴量を含む事象データを、前記保存手段に保存されている事象データの中から選択する選択手段と、
前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成手段と、
を有することを特徴とする情報処理装置。 Storage means for storing a plurality of event data including a feature amount of the event of the object generated in advance;
Video acquisition means for acquiring video;
A feature amount creating means for creating a feature amount of an event of an object in the acquired video;
Selecting means for selecting event data including a feature quantity similar to the feature quantity created by the feature quantity creating means from among the event data stored in the storage means;
Model creation means for creating an identification model for identifying an event of an object in a video using the feature amount of the selected event data;
An information processing apparatus comprising:
前記情報取得手段は、前記取得された映像内の前記対象物の事象に関する属性情報を取得し、前記映像内の前記対象物の前記特徴量と前記取得した属性情報とを含む事象データを作成することを特徴とする請求項1に記載の情報処理装置。 Having information acquisition means for acquiring input information;
The information acquisition means acquires attribute information related to the event of the object in the acquired video, and creates event data including the feature quantity of the target in the video and the acquired attribute information The information processing apparatus according to claim 1.
前記選択手段は、前記映像内の前記対象物について前記作成された事象データに含まれる属性情報に一致した属性情報を含む事象データを、前記類似した特徴量を含む事象データとして、前記保存手段に保存されている事象データの中から選択することを特徴とする請求項2に記載の情報処理装置。 The event data stored in the storage means includes attribute information regarding the event of the object,
The selecting means stores event data including attribute information that matches attribute information included in the created event data for the object in the video as event data including the similar feature amount. The information processing apparatus according to claim 2, wherein the information is selected from stored event data.
前記表示手段は、前記映像および前記作成した識別モデルを表示することを特徴とする請求項1から5の何れか1項に記載の情報処理装置。 Having a display means;
The information processing apparatus according to claim 1, wherein the display unit displays the video and the created identification model.
複数のシーンの情報を含むマップ情報を保存する情報保存手段と、
前記情報保存手段に保存されている前記シーンの情報を基に、前記対象物の事象の特徴量を作成する特徴量作成手段と、
前記特徴量作成手段にて作成された特徴量に類似した特徴量を含む事象データを、前記保存手段に保存されている事象データの中から選択する選択手段と、
前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成手段と、
を有することを特徴とする情報処理装置。 Storage means for storing a plurality of event data including a feature amount of the event of the object generated in advance;
Information storage means for storing map information including information of a plurality of scenes;
Based on the information on the scene stored in the information storage unit, a feature amount creation unit that creates a feature amount of the event of the object;
Selecting means for selecting event data including a feature quantity similar to the feature quantity created by the feature quantity creating means from among the event data stored in the storage means;
Model creation means for creating an identification model for identifying an event of an object in a video using the feature amount of the selected event data;
An information processing apparatus comprising:
表示手段と、を有し、
前記表示手段は、前記情報保存手段に保存されている前記シーンの情報、前記映像取得手段により取得された映像、および、前記識別モデルを表示することを特徴とする請求項9に記載の情報処理装置。 Video acquisition means for acquiring video captured by the camera specified by the map information;
Display means,
10. The information processing according to claim 9, wherein the display unit displays the information on the scene stored in the information storage unit, the video acquired by the video acquisition unit, and the identification model. apparatus.
前記モデル保存手段に保存された前記識別モデルを用いて、前記取得された映像内の前記対象物の事象に対する識別を行うことを特徴とする請求項1から11の何れか1項に記載の情報処理装置。 Model storage means for storing the created identification model;
The information according to any one of claims 1 to 11, wherein the identification model stored in the model storage unit is used to identify an event of the object in the acquired image. Processing equipment.
映像を取得する映像取得工程と、
前記取得された映像内の対象物の事象の特徴量を作成する特徴量作成工程と、
前記特徴量作成工程にて作成された特徴量に類似した特徴量を含む事象データを、前記保存工程にて保存されている事象データの中から選択する選択工程と、
前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成工程と、
を有することを特徴とする情報処理装置の情報処理方法。 A storing step of storing a plurality of event data including the feature amount of the event of the object generated in advance;
A video acquisition process for acquiring video;
A feature amount creating step of creating a feature amount of an event of an object in the acquired video;
A selection step of selecting event data including a feature amount similar to the feature amount created in the feature amount creation step from the event data saved in the saving step;
A model creation step of creating an identification model for identifying an event of an object in a video using the feature amount of the selected event data;
An information processing method for an information processing apparatus, comprising:
複数のシーンの情報を含むマップ情報を保存する情報保存工程と、
前記情報保存工程にて保存されている前記シーンの情報を基に、前記対象物の事象の特徴量を作成する特徴量作成工程と、
前記特徴量作成工程にて作成された特徴量に類似した特徴量を含む事象データを、前記保存工程にて保存されている事象データの中から選択する選択工程と、
前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成工程と、
を有することを特徴とする情報処理装置の情報処理方法。 A storing step of storing a plurality of event data including the feature amount of the event of the object generated in advance;
An information storage step for storing map information including information on a plurality of scenes;
Based on the information on the scene stored in the information storage step, a feature amount creation step of creating a feature amount of the event of the object;
A selection step of selecting event data including a feature amount similar to the feature amount created in the feature amount creation step from the event data saved in the saving step;
A model creation step of creating an identification model for identifying an event of an object in a video using the feature amount of the selected event data;
An information processing method for an information processing apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115995A JP6976731B2 (en) | 2017-06-13 | 2017-06-13 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115995A JP6976731B2 (en) | 2017-06-13 | 2017-06-13 | Information processing equipment, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003329A true JP2019003329A (en) | 2019-01-10 |
JP6976731B2 JP6976731B2 (en) | 2021-12-08 |
Family
ID=65005981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017115995A Active JP6976731B2 (en) | 2017-06-13 | 2017-06-13 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6976731B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021140669A1 (en) * | 2020-01-10 | 2021-07-15 | 日本電気株式会社 | Visualized image display device |
WO2021260837A1 (en) * | 2020-06-24 | 2021-12-30 | 日本電気株式会社 | Learning device, estimation device, learning method, and program |
CN114140656A (en) * | 2022-02-07 | 2022-03-04 | 中船(浙江)海洋科技有限公司 | Marine ship target identification method based on event camera |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003317082A (en) * | 2002-04-25 | 2003-11-07 | Dainippon Screen Mfg Co Ltd | Classification assisting apparatus, classifying apparatus, and program |
JP2006252333A (en) * | 2005-03-11 | 2006-09-21 | Nara Institute Of Science & Technology | Data processing method, data processor and its program |
JP2013125322A (en) * | 2011-12-13 | 2013-06-24 | Olympus Corp | Learning device, program and learning method |
-
2017
- 2017-06-13 JP JP2017115995A patent/JP6976731B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003317082A (en) * | 2002-04-25 | 2003-11-07 | Dainippon Screen Mfg Co Ltd | Classification assisting apparatus, classifying apparatus, and program |
JP2006252333A (en) * | 2005-03-11 | 2006-09-21 | Nara Institute Of Science & Technology | Data processing method, data processor and its program |
JP2013125322A (en) * | 2011-12-13 | 2013-06-24 | Olympus Corp | Learning device, program and learning method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021140669A1 (en) * | 2020-01-10 | 2021-07-15 | 日本電気株式会社 | Visualized image display device |
JPWO2021140669A1 (en) * | 2020-01-10 | 2021-07-15 | ||
JP7264281B2 (en) | 2020-01-10 | 2023-04-25 | 日本電気株式会社 | Visualization image display device |
WO2021260837A1 (en) * | 2020-06-24 | 2021-12-30 | 日本電気株式会社 | Learning device, estimation device, learning method, and program |
JP7375934B2 (en) | 2020-06-24 | 2023-11-08 | 日本電気株式会社 | Learning device, estimation device, learning method and program |
CN114140656A (en) * | 2022-02-07 | 2022-03-04 | 中船(浙江)海洋科技有限公司 | Marine ship target identification method based on event camera |
CN114140656B (en) * | 2022-02-07 | 2022-07-12 | 中船(浙江)海洋科技有限公司 | Marine ship target identification method based on event camera |
Also Published As
Publication number | Publication date |
---|---|
JP6976731B2 (en) | 2021-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7190842B2 (en) | Information processing device, control method and program for information processing device | |
JP7371924B2 (en) | Video monitoring system, video monitoring method, and program | |
US9165190B2 (en) | 3D human pose and shape modeling | |
CN107808111B (en) | Method and apparatus for pedestrian detection and attitude estimation | |
JP6144656B2 (en) | System and method for warning a driver that visual recognition of a pedestrian may be difficult | |
EP2345999A1 (en) | Method for automatic detection and tracking of multiple objects | |
Nam et al. | Intelligent video surveillance system: 3-tier context-aware surveillance system with metadata | |
CN110222686B (en) | Object detection method, object detection device, computer equipment and storage medium | |
JP2015084229A (en) | Camera pose determination method and actual environment object recognition method | |
GB2502187A (en) | Determining parking lot occupancy from digital camera images | |
Paz et al. | Probabilistic semantic mapping for urban autonomous driving applications | |
CN107368790B (en) | Pedestrian detection method, system, computer-readable storage medium and electronic device | |
JP6976731B2 (en) | Information processing equipment, information processing methods, and programs | |
US20230351794A1 (en) | Pedestrian tracking method and device, and computer-readable storage medium | |
CN110516707B (en) | Image labeling method and device and storage medium thereof | |
Speth et al. | Deep learning with RGB and thermal images onboard a drone for monitoring operations | |
CN110941996A (en) | Target and track augmented reality method and system based on generation of countermeasure network | |
Wang et al. | When pedestrian detection meets nighttime surveillance: A new benchmark | |
Li et al. | A visualized fire detection method based on convolutional neural network beyond anchor | |
CN113989744A (en) | Pedestrian target detection method and system based on oversized high-resolution image | |
CN112215964A (en) | Scene navigation method and device based on AR | |
US11030235B2 (en) | Method for navigating through a set of images | |
Haggui et al. | Centroid human tracking via oriented detection in overhead fisheye sequences | |
Sun et al. | Automated human use mapping of social infrastructure by deep learning methods applied to smart city camera systems | |
CN103903269B (en) | The description method and system of ball machine monitor video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6976731 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |