JP6976731B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP6976731B2 JP6976731B2 JP2017115995A JP2017115995A JP6976731B2 JP 6976731 B2 JP6976731 B2 JP 6976731B2 JP 2017115995 A JP2017115995 A JP 2017115995A JP 2017115995 A JP2017115995 A JP 2017115995A JP 6976731 B2 JP6976731 B2 JP 6976731B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- data
- feature amount
- event
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Description
<第1の実施形態>
図1(a)は第1の実施形態に関わる情報処理装置100の概略的な構成例を示している。本実施形態の情報処理装置100は、後述するように、映像シーンに生ずる対象物の事象が指定され、予め作成した対象物の事象データを保存するデータベースの中から、その指定された対象物の事象に類似した事象データを選択して識別モデルを作成する。また、第1の実施形態の情報処理装置100では、識別モデルを作成する際、対象物の正常な事象に関する事象データを収集する。対象物の正常な事象としては、例えば交差点の映像シーンにおいて横断歩道上を歩く歩行者を対象物とした場合、その歩行者が横断歩道上を歩くような、横断歩道に対する歩行者の一般的な行動などを挙げることができる。もちろんこれは一例であり、対象物の正常な事象は、横断歩道を歩く歩行者の行動に限定されるものではない。なお、第1の実施形態では、映像シーンの例として屋外の交差点を撮影した映像を用いた説明を行うが、その他にも、映像シーンは、例えば商業施設や病院、介護施設、駅などの公共施設の屋内やその周辺等のシーンであってもよい。
図1(a)に示す情報処理装置100は、映像取得部101と、入力部102と、特徴量作成部103と、データ保存部104と、データ選択部105と、識別モデル作成部106と、識別モデル保存部107と、表示部108とを有して構成されている。
図2は、映像取得部101にて取得された映像データが表示部108の画面に表示された表示例を示している。図2には、交差点に設置された監視カメラの映像のうち、連続したnフレーム分の映像201−1〜201−nが、表示部108の画面上に表示されている例を示している。図2に例示したnフレーム分の映像201−1〜201−nには、交差点の横断歩道上を歩行者221が歩く様子が映っているとする。なお、図2に示した画面内の枠211−1〜211−nと属性情報リスト212については後述する。
参考文献3:N.Dalal and B. Triggs, Histograms of Oriented Gradients for Human Detection, In Proceedings of Computer Vision and Pettern Recognition(CVPR)、pp.886−893,2005.
以上が、図1(a)に示した本実施形態の情報処理装置100の構成と処理である。
図1(b)は、図1(a)に示した情報処理装置100から、データ保存部104にデータベースとして行動データを登録するデータ登録処理を行う構成部分を抜き出して示した図である。なお、図1(b)の構成は図1(a)の情報処理装置100とは別の装置であってもよい。以下、本実施形態では、図1(b)に示す構成をデータ登録装置300と呼ぶ。図1(b)に示すように、データ登録装置300は、映像取得部101と入力部102と特徴量作成部103と表示部108とデータ保存部104とで構成される。
図1(b)のデータ登録装置300では、以上のようにしてデータ登録処理が行われることにより学習データベースが形成されている。
以下、図7(a)〜図7(c)に示すフローチャートを用いて、本実施形態の情報処理装置100における処理の流れを説明する。図7(a)には識別モデル作成処理、図7(b)にはデータ選択処理、図7(c)にはデータ登録処理の各フローチャートを示す。なお、図7(a)〜図7(c)のフローチャートでは、ステップS701〜ステップS726をそれぞれS701〜S726と略記する。また、図7(a)〜図7(c)のフローチャートの処理は、ハードウェア構成又はソフトウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、図7(a)〜図7(c)のフローチャートの処理は、不図示のROM等に格納されているプログラムがRAM等に展開されてCPU等により実行される。本実施形態に係るプログラムは、ROM等に予め用意される場合だけでなく、例えば着脱可能な半導体メモリから読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりして、RAM等にロードされてもよい。これらのことは、後述する他のフローチャートにおいても同様とする。
S701において、映像取得部101は、監視カメラ等から映像データを取得して、特徴量作成部103と表示部108へ出力する。S701の後、情報処理装置100の処理はS702へと進む。
S702において、表示部108は、映像取得部101から送られてきた映像を表示する。S702の後、情報処理装置100の処理はS703へと進む。
S711において、データ選択部105は、前述したS704の処理で取得された特徴量に対して、前述したようにハッシュ関数を適用してハッシュ値を算出する。そして、データ選択部105は、算出したハッシュ値に対し、データ保存部104に保存されている特徴量のハッシュ値が同一の行動データを収集する。データ選択部105は、S711にて行動データを収集できた場合、S712へと処理を進める。
S713に進むと、データ選択部105は、参照する行動データのインデックスiが、収集した行動データ数Iを超えるか(i>I)否かを判定する。データ選択部105は、インデックスiが、収集した行動データ数以下(i≦I)である場合(NO)にはS714へと処理を進め、一方、収集した行動データ数Iを超える場合(YES)には図7(b)の処理を終了する。
S721において、映像取得部101は、監視カメラから映像データを取得して、特徴量作成部103と表示部108へ出力する。S721の後、データ登録装置300の処理はS722へと進む。
S722において、表示部108は、映像取得部101から送られてきた映像を表示する。この場合の映像は、入力部102を介したユーザからの操作により、表示するフレームが変更され、その変更されたフレームの映像が表示される。S722の後、データ登録装置300の処理はS723へと進む。
図8は、第2の実施形態に関わる情報処理装置800の概略的な構成例を示している。
第2の実施形態の情報処理装置800は、識別モデルを作成する際、対象物やその状態を識別するデータとして、第1の実施形態で説明した対象物の正常な事象に加えて、対象物の正常な事象とは異なる事象に応じた行動データをも収集する。第2の実施形態において、対象物の正常な事象とは異なる事象としては、一例として、歩行者や自転車などが対象物である場合、歩行者や自転車などが転倒、倒れこみ、横断禁止場所の横断などの行動が挙げられる。なお、第2の実施形態においても映像シーンの一例として屋外の交差点の映像シーンを用いて説明するが、その他の公共施設等の映像シーンなどであってもよい。以下の説明では、正常な事象とは異なる事象を「異常な事象」と表記し、対象物の異常な事象としての行動を「異常な行動」と表記することとする。そして、第2の実施形態の場合、正常な事象と異常な事象に関する情報の入力は、後述するラベルアイコンの選択入力により行われる。
図10は、映像取得部101にて取得された映像データの映像1001が表示された表示部108の表示例を示している。入力部102は、前述同様に、表示部108の画面表示を用いたGUI等を介して、ユーザから対象物に対する指示入力を取得する。図10には、対象物としての歩行者1021が横断歩道を歩いている映像1001の例を示している。第2の実施形態の場合、表示部108の画面には、映像データの映像1001と前述同様の属性情報リスト1012の他に、データ保存部804に保存されている行動データの各ラベル情報をアイコンにより表したラベルリスト1002も表示される。すなわち、ラベルリスト1002は、データ保存部804に保存されている各行動データの属性情報のラベル情報を基に分類したリストとなされている。図10には、ラベルリスト1002として、正常な行動に対応した正常行動ラベルリスト、異常な行動に対応した異常行動ラベルリスト、及び、その他の行動ラベルリストが表示された例を挙げている。
そして、これらの入力が完了した場合、それら入力により設定された行動データが、識別モデル作成部806へと出力される。
図11のフローチャートにおいて、S702の後、情報処理装置800の処理は、S1113に進む。
S1117において、識別モデル作成部806は、識別モデルの作成用の行動データを用いて、識別モデルの学習を行う。第2の実施形態の場合、識別モデル作成部806は、入力された行動データの属性情報を用いて、正常な行動の行動データと、異常な行動の行動データとに分ける。そして、識別モデル作成部806は、前述したように、正常行動データをクラス「+1」として、異常行動データをクラス「−1」とし、SVMを用いて識別モデルを作成する。このようにして作成された識別モデル(複数のサポートベクターと、それぞれに対応する係数、及び、閾値)は、識別モデル保存部107へと出力されて保存される。このS1117の処理完了後、情報処理装置800は、図11のフローチャートの識別モデル作成処理を終了させる。
図12は、第3の実施形態に関わる情報処理装置1200の概略的な構成例を示している。
第3の実施形態の情報処理装置1200は、前述した第1、第2の実施形態で説明したような監視カメラ等の映像の表示と共に、監視カメラ等により映像が取得される場所のマップ情報をも表示して、対象物の事象に関する情報の入力を可能にする例である。
座標変換部1202は、マップ情報保存部1201に登録されているマップ情報、カメラ設置情報、カメラ情報、対象物に関するデータを読み込む。そして、座標変換部1202は、カメラの設置位置情報に基づいて登録されているエリア1303とそのエリア1303内の対象物のデータに対し、映像1306の領域に表示するための座標変換を行う。具体的には、座標変換部1202は、カメラの設置位置を基準として、下記の式(2)を用い、エリア1303を映像1306内に透視投影変換することで、映像1306上のエリア1305を算出する。
データ選択部1205は、特徴量作成部1203から取得した特徴量を用いて、前述した実施形態と同様に、類似する特徴量の行動データをデータ保存部104から選択する。そして、その選択された類似する行動データが識別モデル作成部1206へと送られる。
識別モデル作成部1206は、データ選択部1205で選択された行動データを用いて、前述した実施形態と同様に、識別モデルを作成する。なお、マップ情報保存部1201に異常行動のデータも登録されている場合、識別モデル作成部1206では前述同様のSVMなどの2クラス識別モデルを作成することもできる。そして、その作成された識別モデルは、識別モデル保存部1207へ送られて保存される。また、識別モデルは、表示部1209へと送られてもよい。
表示部1209は、映像取得部1208からの映像と、識別モデル作成部1206で作成した識別モデルとを表示する。第3の実施形態の場合、表示部1209の画面には、図13に示したように、映像1306のエリア1305に、識別モデルに応じたアイコン1321〜1323を重ねて表示する。これにより、ユーザは、識別結果を確認することができることになる。なお、図13の例では、エリア1305上のアイコン1321〜1323は、マップ1301のエリア1303内のものと同様のものを例に挙げている。
S1401において、座標変換部1202は、マップ情報保存部1201に登録されている前述したマップ情報、カメラの設置位置情報、カメラ情報、対象物のデータを読み込む。S1401の後、座標変換部1202の処理は、S1402へと進む。
S1404に進むと、データ選択部1205は、特徴量作成部1203から取得した特徴量を基に、前述したように類似する特徴量の行動データを選択し、その選択した行動データを識別モデル作成部1206へと送る。S1404の後、情報処理装置1200の処理はS1405へと進む。
S1405において、識別モデル作成部1206は、前述したように、選択した行動データを用いて識別モデルを作成し、その作成した識別モデルのデータを識別モデル保存部1207と表示部1209に出力する。S1405の後、情報処理装置1200の処理はS1406へと進む。
Claims (7)
- 予め生成された、対象物の事象の特徴量を含む複数の事象データを保存する保存手段と、
複数のシーンの情報を含むマップ情報を保存する情報保存手段と、
前記情報保存手段に保存されている前記シーンの情報を基に、前記対象物の事象の特徴量を作成する特徴量作成手段と、
前記特徴量作成手段にて作成された特徴量に類似した特徴量を含む事象データを、前記保存手段に保存されている事象データの中から選択する選択手段と、
前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成手段と、
を有することを特徴とする情報処理装置。 - 前記情報保存手段は、前記シーンの情報に加えて、前記対象物の事象に関する情報と、前記マップ情報により指定されるカメラに関するカメラ情報とを保存していることを特徴
とする請求項1に記載の情報処理装置。 - 前記マップ情報により指定される前記カメラにて撮影された映像を取得する映像取得手段と、
表示手段と、を有し、
前記表示手段は、前記情報保存手段に保存されている前記シーンの情報、前記映像取得手段により取得された映像、および、前記識別モデルを表示することを特徴とする請求項2に記載の情報処理装置。 - 前記保存手段は、前記対象物の正常な事象と前記対象物の異常な事象との、少なくとも何れかの事象データを、保存することを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
- 前記作成された識別モデルを保存するモデル保存手段を有し、
前記モデル保存手段に保存された前記識別モデルを用いて、前記取得された映像内の前記対象物の事象に対する識別を行うことを特徴とする請求項3に記載の情報処理装置。 - 予め生成された、対象物の事象の特徴量を含む複数の事象データを保存する保存工程と、
複数のシーンの情報を含むマップ情報を保存する情報保存工程と、
前記情報保存工程にて保存されている前記シーンの情報を基に、前記対象物の事象の特徴量を作成する特徴量作成工程と、
前記特徴量作成工程にて作成された特徴量に類似した特徴量を含む事象データを、前記保存工程にて保存されている事象データの中から選択する選択工程と、
前記選択された事象データの特徴量を用いて、映像内の対象物の事象を識別する識別モデルを作成するモデル作成工程と、
を有することを特徴とする情報処理装置の情報処理方法。 - コンピュータを、請求項1から5の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115995A JP6976731B2 (ja) | 2017-06-13 | 2017-06-13 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115995A JP6976731B2 (ja) | 2017-06-13 | 2017-06-13 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019003329A JP2019003329A (ja) | 2019-01-10 |
JP6976731B2 true JP6976731B2 (ja) | 2021-12-08 |
Family
ID=65005981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017115995A Active JP6976731B2 (ja) | 2017-06-13 | 2017-06-13 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6976731B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7264281B2 (ja) * | 2020-01-10 | 2023-04-25 | 日本電気株式会社 | 可視化画像表示装置 |
JP7375934B2 (ja) * | 2020-06-24 | 2023-11-08 | 日本電気株式会社 | 学習装置、推定装置、学習方法及びプログラム |
CN114140656B (zh) * | 2022-02-07 | 2022-07-12 | 中船(浙江)海洋科技有限公司 | 一种基于事件相机的海上船舶目标识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4155496B2 (ja) * | 2002-04-25 | 2008-09-24 | 大日本スクリーン製造株式会社 | 分類支援装置、分類装置およびプログラム |
JP2006252333A (ja) * | 2005-03-11 | 2006-09-21 | Nara Institute Of Science & Technology | データ処理方法、データ処理装置およびそのプログラム |
JP2013125322A (ja) * | 2011-12-13 | 2013-06-24 | Olympus Corp | 学習装置、プログラム及び学習方法 |
-
2017
- 2017-06-13 JP JP2017115995A patent/JP6976731B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019003329A (ja) | 2019-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7190842B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
Gurghian et al. | Deeplanes: End-to-end lane position estimation using deep neural networksa | |
US9129524B2 (en) | Method of determining parking lot occupancy from digital camera images | |
US9224046B2 (en) | Multi-view object detection using appearance model transfer from similar scenes | |
US20160189384A1 (en) | Method for determining the pose of a camera and for recognizing an object of a real environment | |
Paz et al. | Probabilistic semantic mapping for urban autonomous driving applications | |
CN112166439A (zh) | 真实到合成图像域转移 | |
EP2345999A1 (en) | Method for automatic detection and tracking of multiple objects | |
CN110222686B (zh) | 物体检测方法、装置、计算机设备和存储介质 | |
JP2016062610A (ja) | 特徴モデル生成方法及び特徴モデル生成装置 | |
Wang et al. | When pedestrian detection meets nighttime surveillance: A new benchmark | |
CN109584302A (zh) | 相机位姿优化方法、装置、电子设备和计算机可读介质 | |
US20230351794A1 (en) | Pedestrian tracking method and device, and computer-readable storage medium | |
JP6976731B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Li et al. | A visualized fire detection method based on convolutional neural network beyond anchor | |
CN107368790B (zh) | 行人检测方法、系统、计算机可读存储介质及电子设备 | |
CN106530407A (zh) | 一种用于虚拟现实的三维全景拼接方法、装置和系统 | |
US20210326376A1 (en) | Navigating through a set of images | |
Singh et al. | Acquiring semantics induced topology in urban environments | |
CN113989744A (zh) | 一种基于超大尺寸高分辨图像的行人目标检测方法及系统 | |
CN116597122A (zh) | 数据标注方法、装置、电子设备及存储介质 | |
CN111339934A (zh) | 一种融合图像预处理与深度学习目标检测的人头检测方法 | |
CN114463713A (zh) | 一种车辆在3d空间的信息检测方法、装置及电子设备 | |
Nagy et al. | 3D CNN based phantom object removing from mobile laser scanning data | |
JP6384167B2 (ja) | 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210803 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6976731 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |