JP5355691B2 - 画像解析装置及び画像解析プログラム - Google Patents

画像解析装置及び画像解析プログラム Download PDF

Info

Publication number
JP5355691B2
JP5355691B2 JP2011520706A JP2011520706A JP5355691B2 JP 5355691 B2 JP5355691 B2 JP 5355691B2 JP 2011520706 A JP2011520706 A JP 2011520706A JP 2011520706 A JP2011520706 A JP 2011520706A JP 5355691 B2 JP5355691 B2 JP 5355691B2
Authority
JP
Japan
Prior art keywords
information
analysis
storage unit
time
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011520706A
Other languages
English (en)
Other versions
JPWO2011001514A1 (ja
Inventor
茂寿 崎村
裕人 森實
啓介 中島
彰二 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2011001514A1 publication Critical patent/JPWO2011001514A1/ja
Application granted granted Critical
Publication of JP5355691B2 publication Critical patent/JP5355691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、画像解析装置及び画像解析プログラムに関し、特に、画像解析装置の設計負荷の低減に関する。
画像認識システムの処理性能向上により、その応用分野が、従来のFA(Factory Automation)分野から、屋内外の人物監視、デジタルカメラなどの顔認識、車載カメラによる外界認識など、幅広い分野に広がりを見せている。
一方、画像認識システムの機能を実現する画像認識アプリケーション・プログラム(以降、認識アプリとする)の開発においては、事業(ビジネス)分野ごとに認識したい対象物や認識若しくは計測したい情報が異なるため、個別に認識アプリのソフトウェア開発を行っている。
図19に例を示す。図19では、事業分野の例として交通流計測と人物(侵入者)監視の例をあげ、それぞれの認識アプリ処理フローを示している。図19に示すように、交通流計測の場合、画像取得(S1901)後に車両を検知し(S1902)、検知した車両とその属性として車種を登録し(S1903)、車両を追跡しながら得られた挙動情報である通過時刻や車速の情報を管理(登録、更新、削除など)し(S1904)、最終的な認識結果として車種分布、通過時刻、平均車速などの情報を集計する(S1905)。
一方、人物監視の場合には、画像取得(S1911)後に人物を検知し(S1912)、検知した人物とその属性として身長区分を登録し(S1913)、人物を追跡しながら得られた挙動情報である侵入時刻、歩行方向、人物足元位置などの情報を管理し(S1914)、最終的な認識結果として身長区分の分布、侵入時刻、動線分布などの情報を集計する(S1915)。
このように、従来は、事業分野によって認識したい対象物が異なり、且つ認識したい情報も異なるため、個別にシステムを開発していた。図19の例の場合、認識したい対象物は一方は車両であり、他方は人である。また、認識したい情報は、一方は車速であり、他方は動線である。
上記のような開発方式に対して、従来、座標など汎用性の高い共通概念をもつデータ構造に限っては、データ構造の共通化を図る方式が提案されている(例えば、特許文献1参照)。特許文献1においては、パンチルトカメラで、カメラ座標系(2次元空間)とワールド座標系(3次元空間)を標準的なデータ構造として管理し、その相互変換を行うという例が示されている。
特開2007−293717号公報
従来の方法では、時刻や座標など、実在の時空間を表す方式として共通の概念がある情報か、映像フレーム番号等の標準規格が定められている情報に限りデータ構造の標準化が可能であった。ここで、上記共通の概念としては、例えばSI単位系がある。また、上記標準規格としては、NTSC(National Television System Committee)規格等がある。
しかしながら、共通概念や標準規格がない情報についてはデータ構造やそれを処理する機能の共通化ができず、事業分野ごと若しくはシステムごとに個別開発をおこなっており、設計負荷が高いという課題がある。特に、事業分野が大きく異なる場合には、そもそも業界が異なるために、業界標準規格自体の互換性がなく、個別開発は避けられない。
そこで、本発明は、認識対象物体や認識すべき情報が異なる画像解析機能において個別開発を削減し、設計負荷を低減することを目的とする。
本発明の一態様は、入力された動画情報を解析して解析結果を出力する画像解析装置であって、解析対象に応じた処理を行うことにより前記動画に含まれる物体を認識する個別処理部と、前記個別処理部による認識結果に基づき、異なる複数の解析対象に対して共通の解析処理を行う共通処理部とを含み、前記個別処理部は、解析対象に応じて前記動画に含まれる物体を認識して情報を抽出する情報抽出部と、前記抽出された情報が前記共通処理部において処理される情報のいずれに対応するかを示す対応情報を記憶している対応情報記憶部と、前記共通処理部によって解析処理された情報を取得する処理結果取得部とを含むことを特徴とする。
本発明によれば、認識対象物体や認識すべき情報が異なる画像解析機能において個別開発を削減し、設計負荷を低減することが可能となる。
本発明の実施形態に係る画像形成装置のハードウェア構成を示すブロック図である。 本発明の実施形態に係る画像解析装置の機能構成を示す図である。 本発明の実施形態に係る画像解析部の詳細を示すブロック図である。 本発明の実施形態に係る対応情報の例を示す図である。 本発明の実施形態に係る対応情報の例を示す図である。 本発明の実施形態に係る物体情報記憶部に記憶されている情報の例を示す図である。 本発明の実施形態に係る時間情報記憶部に記憶されている情報の例を示す図である。 本発明の実施形態に係る空間情報記憶部に記憶されている情報の例を示す図である。 本発明の実施形態に係る画像解析装置の動作を示すフローチャートである。 本発明の実施形態に係る解析種類定義処理を示すフローチャートである。 本発明の実施形態に係る不変属性登録処理を示すフローチャートである。 本発明の実施形態に係る時系列属性登録処理を示すフローチャートである。 本発明の実施形態に係る認識結果解析処理を示すフローチャートである。 本発明の実施形態に係る解析結果表示画面の例を示す図である。 本発明の他の実施形態に係る認識結果解析処理を示すフローチャートである。 本発明の他の実施形態に係る解析結果表示画面の例を示す図である。 本発明の実施形態に係る効果を示す図である。 本発明の他の実施形態に係る画像解析部の詳細を示すブロック図である。 従来技術に係る画像解析処理の例を示すフローチャートである。
実施の形態1.
以下、図面を参照して、本発明の実施形態を詳細に説明する。本実施形態においては、撮影した動画情報を解析して各種の解析結果を出力する画像解析装置について説明する。尚、本実施形態においては、1体の装置が画像解析に係る全ての機能を含む場合を例として説明するが、ネットワークを介して接続された複数の装置に処理を分散することも可能である。
図1は、本実施形態に係る画像解析装置のハードウェア構成を示すブロック図である。図1に示すように、本実施形態に係る画像解析装置1は、一般的なサーバやPC(Personal Computer)等の情報処理端末と同様の構成に加えて、動画を撮影する画像入力部を有する。即ち、本実施形態に係る画像解析装置1は、CPU(Central Processing Unit)10、RAM(Random Access Memory)11、ROM(Read Only Memory)12、画像入力部13、HDD(Hard Disk Drive)14及びI/F15がバス18を介して接続されている。また、I/F15にはLCD(Liquid Crystal Display)16及び操作部17が接続されている。
CPU10は演算手段であり、画像解析装置1全体の動作を制御する。RAM11は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU10が情報を処理する際の作業領域として用いられる。ROM12は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。画像入力部13は、光学情報を電気信号に変換して画像解析装置1に入力するカメラ等の撮像デバイスである。尚、画像入力部13は、既に生成されている静止画若しくは動画情報を入力するための情報入力部とすることもできる。
HDD14は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム等が格納されている。I/F15は、バス18と各種のハードウェアやネットワーク等を接続し制御する。LCD16は、ユーザが画像解析装置1の状態を確認するための視覚的ユーザインタフェースである。操作部17は、キーボードやマウス等、ユーザが画像解析装置1に情報を入力するためのユーザインタフェースである。
尚、図1に示すハードウェア構成は一例であり、他の構成によっても本実施形態に係る画像解析装置を実現することは可能である。例えば、LCD16や操作部17等のユーザインタフェースを省略し、ユーザの操作とは独立したサーバとして構成することが可能である。また、HDD14やROM12等は記憶媒体の一例であり、他の種類の記憶媒体を用いることも可能である。
このようなハードウェア構成において、ROM12やHDD14若しくは図示しない光学ディスク等の記録媒体に格納されたプログラムがRAM11に読み出され、CPU10の制御に従って動作することにより、ソフトウェア制御部が構成される。このようにして構成されたソフトウェア制御部と、ハードウェアとの組み合わせによって、本実施形態に係る画像解析装置1の機能を実現する機能ブロックが構成される。
次に、図2を参照して、本実施形態に係る画像解析装置1の機能構成について説明する。図2は、本実施形態に係る画像解析装置1の機能構成を示すブロック図である。図2に示すように、本実施形態に係る画像解析装置1は、コントローラ100、ユーザI/F200及び画像入力部13を含む。また、コントローラ100は、主制御部101、デバイスドライバ102及び画像解析部110を含む。更に、画像解析部110は、共通処理部120及び個別処理部130を含む。
ユーザI/F200は、ユーザが画像解析装置1を操作し、若しくは画像解析装置1から情報を得るためのインタフェースであり、図1に示すLCD16及び操作部17によって構成される。
コントローラ100は、ソフトウェアとハードウェアとの組み合わせによって構成される。具体的には、ROM12や不揮発性メモリ並びにHDD14や光学ディスク等の不揮発性記録媒体に格納されたファームウェア等の制御プログラムが、RAM11等の揮発性メモリ(以下、メモリ)にロードされ、CPU10の制御に従って構成されるソフトウェア制御部と集積回路などのハードウェアとによってコントローラ100が構成される。コントローラ100は、画像形成装置1全体を制御する制御部として機能する。
主制御部101は、コントローラ100に含まれる各部を制御する役割を担い、コントローラ100の各部に命令を与えると共に、ユーザI/Fとの間で情報をやりとりする。デバイスドライバ102は、画像解析装置1に接続される様々なハードウェァ・デバイスを制御する構成であり、本実施形態においては、カメラとしての画像入力部13を制御する。本実施形態に係るデバイスドライバ102は、画像入力部13によって電気信号に変換された撮影情報に基づき、動画情報を生成する。
画像解析部110は、画像入力部13によって撮影され、デバイスドライバ102によって生成された動画情報を解析して解析結果を出力する。上述したように、画像解析部110は、共通処理部120及び個別処理部130を含む。図2に示すように、個別処理部130は複数設けられている。これは、異なる解析対象や異なる解析システムに対応するためである。図3に、本実施形態に係る画像解析部110について更に詳細に示す。
図3には、共通処理部120及び個別処理部130の機能構成が示されている。また、図3においては、複数の個別処理部130が共通して有する機能構成が示されている。図3に示すように、共通処理部120は、解析種類定義部121、情報管理部122、物体情報記憶部123、時間情報記憶部124、空間情報記憶部125及び情報解析部126を含む。また、個別処理部130は、画像取得部131、画像認識部132、認識結果処理部133、対応情報記憶部134、解析結果取得部135及び解析結果出力部136を含む。
まず、個別処理部130の機能について説明する。画像取得部131は、デバイスドライバ102によって生成された動画情報を取得する。画像取得部131は、取得した動画情報を画像認識部132に入力する。画像認識部132は、画像取得部131から入力された動画情報に基づき、動画に含まれる認識対象の物体を抽出する。即ち、画像認識部132が、情報抽出部として機能する。
この認識対象の物体は、画像解析装置1の用途によって異なり、交通流計測の場合、車が認識対象の物体である。また、人物監視の場合、人が認識対象の物体である。このような、画像解析装置1の様々な用途ごとに、個別処理部130が構成されるため、図2に示すように複数の個別処理部130が設けられる。画像認識部132は、動画情報を解析して対象の物体を認識した結果の情報を認識結果処理部133に入力する。
認識結果処理部133は、画像認識部132による認識結果を処理し、共通処理部120において解析対象となる情報を生成する。例えば、交通流計測の場合、“車種”、“通過時刻”、“車速”等の情報が生成される。また、人物監視の場合、“身長”、“侵入時刻”、“足元位置”、“歩行方向”等の情報が生成される。即ち、認識結果処理部133もまた、情報抽出部として機能する。認識結果処理部133によって生成される情報は、継時的に不変であり1つの物体について1つだけ生成される不変属性情報と、継時的に変化して1つの物体について複数生成される時系列属性情報とに分けられる。上記交通流計測の場合、“車種”が不変属性情報であり、“通過時刻”、“車速”が時系列属性情報である。また、人物監視の場合、“身長”が不変属性情報であり、“侵入時刻”、“足元位置”、“歩行方向”が時系列属性情報である。認識結果処理部133は、生成した情報を共通処理部120の情報管理部122に入力する。
対応情報記憶部134は、認識結果処理部133が生成した夫々の情報が、共通処理部120において処理される複数種類の情報のいずれに対応するかを示す対応情報を記憶している。図4、図5を参照して、対応情報記憶部134が記憶している情報の例を示す。図4は、交通流計測の場合において対応情報記憶部134に記憶されている情報の例を示す図である。
図4に示すように、対応情報記憶部134は、不変属性情報と時系列属性情報とに分けて対応情報を記憶している。不変属性情報の場合、不変属性1、不変属性2、・・・不変属性Nのように複数の情報が定義されており、図4においては、不変属性1として“車種”、不変属性2として“車体色”が関連付けられている。また、時系列属性情報においては、時間属性、空間属性及び時系列属性1、時系列属性2、・・・時系列属性Mのように情報が定義されており、図4においては、時間属性として“通過時刻”、時系列属性1として“車速”が関連付けられている。また、空間属性は対応する情報がなくNull値となっている。
図5は、人物監視の場合において対応情報記憶部134に記憶されている情報の例を示す図である。図5に示すように、不変属性1として“身長”が関連付けられている。また、時間属性として“侵入時刻”、空間属性として“足元位置”、時系列属性1として“歩行方向”が関連付けられている。
解析結果取得部135は、共通処理部120によって解析された情報を取得し、解析結果出力部136に入力する。即ち、解析結果取得部135は、共通処理部120による処理結果の情報を取得する処理結果取得部として機能する。解析結果出力部136は、共通処理部120によって解析された結果の情報をユーザによって閲覧可能な状態に変換して出力する。換言すると、解析結果出力部136は、共通処理部120による解析結果をユーザが閲覧するための表示情報を生成する。
次に、共通処理部120について説明する。解析種類定義部121は、対応情報記憶部134から対応情報を取得し、個別処理部130から入力される情報の解析種類を定義する。解析種類定義部121よる定義は、情報管理部122に対して行われるものである。換言すると、解析種類定義部122は、認識結果処理部133から入力される複数種の情報を、夫々何の情報として認識するかを情報管理部122に指示する。
情報管理部122は、解析種類定義部121によって定義された情報の対応関係に基づき、認識結果処理部133から入力された情報を夫々物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125のいずれかに記憶させる。物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125の夫々に記憶されている情報について以下に示す。
図6は、物体情報記憶部123に記憶されている情報の例を示す図である。図6に示すように、物体情報記憶部123は、物体別データ及び状態別データを含む。物体別データは、動画において認識された物体毎の個体情報が蓄積されたデータであり、夫々の物体を識別する物体ID毎に、物体の時系列の状態を識別する複数の状態ID及び複数の不変属性情報が関連付けられている。
状態IDは、後述する状態別データとの対応関係を保持しており、1つの物体について複数の状態を管理することができる。尚、図6においては、1つの物体についてL個の状態が管理される場合を例としている。不変属性は、ある物体が1つ定まったときに、その物体が固定的に持つ普遍的情報を保持するための領域である。例えば、物体が車両の場合は車種やナンバープレートの番号など、物体が人物の場合は身長や性別など、時系列に変化しない情報の事を指す。
状態別データは、物体別データに含まれる夫々の状態毎に蓄積されたデータであり、物体別データにも含まれる状態ID毎に、その状態の時間を識別する時間ID、その状態における物体の位置を識別する空間IDが関連付けられている。更に、状態別データは、夫々の状態を具体的に示す情報として図4、5において説明した複数の時系列情報が関連付けられている。
状態IDは、物体の状態を特定する識別子である。時間IDは、後述する時間情報との対応関係を保持しており、その物体の存在時刻を表す。空間IDは、後述する空間情報との対応関係を保持しており、その物体の存在位置を表す。時系列属性は、ある物体が1つ定まったときに、その物体の存在状態に応じて時系列に変化する情報を保持するための領域である。例えば、物体が車両の場合は瞬間速度など、物体が人物の場合は歩行方向など、時系列に変化する情報の事を指す。
尚、本実施例では動画像処理を例に挙げるため、同一の物体についての物体状態の群が示す情報は、並び順に意味のある時系列な状態ログになるが、本発明における認識アプリを限定するものではない。例えば、FAにおける部品外観検査アプリを考える場合、被検査物体1個を撮影した検査画像1枚に対応する物体状態を1つだけ登録すれば、FA分野にも適用可能である。つまり、本発明の構成と効果は動画像処理に限定されるものではなく、静止画像処理にも適用可能である。
また、車高等、実質的には不変属性として処理すべき情報を時系列属性として処理することも可能である。これは、誤認識等により変化してしまう可能性のある情報について、物体追跡中の変化過程を観測したい場合等に特に有効である。
図7は、時間情報記憶部124に記憶されている時間情報の例を示す図である。図7に示すように、時間情報記憶部124は、図6の状態別データにも含まれる時間ID毎に、その時間が何の物体における時間であるかを示す物体IDと、その時間が何の状態における時間であるかを示す状態IDが関連付けられている。時間情報記憶部124に記憶されている物体ID及び状態IDは、図6において説明した物体ID及び状態IDと夫々対応する。
更に、時間情報記憶部124においては、夫々の時間を具体的に示す情報として図4、図5において説明した時間属性の情報が関連付けられている。尚、図7に示すように、本実施形態に係る時間属性の情報は、動画のフレームナンバーによって示されている。動画とは、連続する複数のフレーム、即ち1コマの静止画によって構成されており、夫々のフレームが何コマ目かを示すフレームナンバーにより、画像の時系列を表現することができる。尚、動画における実際の時刻は、基準となるフレームにおける実時刻及び動画のフレームレート(fps:frame per second)から求めることができる。
時間IDは、時間情報を特定する識別子である。物体IDと物体状態IDは、前述の物体情報及び状態情報との対応関係を保持している。フレームナンバーは、状態情報と対応付けられることで、その物体の状態がいつの時点を指しているのかを表すことができる。
尚、本実施形態においては、時間を意味する情報としてフレームナンバーを用いているが、時間を意味するものであれば他の情報でも構わない。例えば、NTSC規格におけるフィールドナンバーを入れれば時刻表現の分解能は2倍に高まる。また、フレームナンバーやフィールドナンバーのような映像時間ではなく、YYYY年MM月DD日 H時M分S秒XXmsで示されるような実際の時間(以降、実時間とする)を保持しても良い。また、映像時間と実時間の両方を保持して、映像時間と実時間との相互変換を行っても良い。このような態様により、動画中における時間を示す情報と、実時間を示す情報とを透過的に処理することが可能となる。
図8は、空間情報記憶部125に記憶されている情報の例を示す図である。図8に示すように、空間情報記憶部125は、図6の状態別データにも含まれる空間ID毎に、その空間、即ち位置が何の物体の位置であるかを示す物体IDと、その位置が何の状態の位置であるかを示す状態IDとが関連付けられている。即ち、空間情報記憶部125は、位置情報記憶部として機能する。空間情報記憶部125に記憶されている物体ID及び状態IDは、図6において説明した物体ID及び状態IDと夫々対応する。
更に空間情報記憶部125においては、夫々の空間、即ち位置を具体的に示す情報として、図4、図5において説明した空間属性の情報が関連付けられている。尚、図8に示すように、本実施形態に係る空間属性の情報は、動画の1コマである静止画中の座標によって示されている。
空間IDは、空間情報を特定する識別子である。物体IDと状態IDは、前述の物体情報及び状態情報との対応関係を保持している。空間属性の情報である画像座標値Ix,Iyは、その空間情報が、画像中のどの位置を意味するのかを示しており、状態情報と対応付けられることで、その物体の状態がどの位置を指しているのかを表すことができる。
尚、本実施例では、位置を意味する情報として画像座標値Ix,Iyを用いているが、空間を意味するものであれば他の情報でも構わない。例えば、2次元の画像座標値ではなく、ある基準位置と軸方向を定めた3次元実空間上における、X、Y、Zの座標値である実空間の座標値(以降、ワールド座標とする)を保持しても良い。また、画像座標とワールド座標の両方を保持して、かつ、カメラキャリブレーションなどの前処理を行ったうえで、画像座標とワールド座標との相互変換を行っても良い。画像座標とワールド座標との相互変換については、公知の方法を用いることが可能である。このような態様により、画像中における位置と実際の位置とを透過的に処理することが可能となる。
このように、本実施形態に係る画像解析装置1においては、図6の状態別データにあるように、動画から抽出された情報が“状態”という概念に分けられ、夫々の状態についての“物体”、“時間”、“空間”の情報が、物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125に分けて記憶される。画像解析において解析対象となる情報は上記3つの情報のいずれかであることが一般的であるため、装置を汎用化する場合において、上述したように“物体”、“時間”、“空間”の情報を管理する態様が好ましい。
また、このような態様により、“物体”、“時間”、“空間”夫々の面からの解析機能を共通処理部120内に予め定義しておくことが可能となり、個別開発を削減するという目的を好適に達成することが可能となる。また、上記“物体”として記憶される情報については、図6の物体別データにあるように、時系列に変化する“状態”を示す情報と、不変である不変属性を示す情報とが記憶される。
また、認識結果処理部133から入力された情報を図6〜図8に示すように物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125に夫々割り振る処理は、情報管理部122が解析種類定義部121による定義処理に基づいて実行する。
情報解析部126は、物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125に記憶された情報に基づいて各種の解析を行う。図3に示すように、情報解析部126は、時刻集計部126a、不変属性解析部126b、時系列属性解析部126c及び空間属性解析部126dを含む。
時刻集計部126aは、時間情報記憶部124に記憶された情報を時間属性、即ちフレームナンバーによってソート、即ち並び替える。不変属性解析部126bは、時刻集計部126aによってソートされた時間情報において物体IDを順に辿り、物体情報記憶部123を参照して各物体の不変属性を解析する。不変属性解析部126bによる解析態様としては、不変属性ごとの分布の解析等が挙げられる。
時系列属性解析部126cは、時刻集計部126aによってソートされた時間情報において物体IDを順に辿り、物体情報記憶部123を参照して各物体の時系列属性を解析する。時系列属性解析部126cによる解析態様としては、時系列属性の経時変化や平均値の解析等である。
空間属性解析部126dは、空間情報記憶部125に記憶された情報を空間属性、即ち座標情報に基づいてソートする。そして、ソートされた空間情報において物体IDを順に辿り、物体情報記憶部123を参照して各物体の空間属性の分布と時系列属性の分布をそれぞれ解析する。空間属性解析部126dによる解析態様としては、各物体の移動経路の解析や、各物体の位置毎の時系列属性の変化の解析等である。
尚、図3においては、情報解析部126に含まれる解析機能の一例として、時刻集計部126a、不変属性解析部126b、時系列属性解析部126c及び空間属性解析部126dを示すが、情報の解析態様は様々であり、物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125に記憶された情報に基づいて解析することが可能な解析態様であれば実現可能である。
次に、本実施形態に係る画像解析装置1の動作について説明する。図9は、本実施形態に係る画像解析装置1の全体動作を示すフローチャートである。図9に示すように、まず、画像解析装置1は、動画像入力の前処理として、解析種類定義を実行する(S901)。この処理では、図3において説明したように、解析種類定義部121が、対応情報記憶部134から対応情報を読み出し、情報管理部122に対して情報の対応関係を定義する。
次に、処理周期ごとの繰返し処理に移る(S902〜S907)。ここで、処理周期とは、画像入力から認識処理、結果表示にいたる一連の周期のことで、本実施例では例えば100msなどの映像規格にあわせた周期のことを示す。この繰返し処理内では、まず、画像取得部131が動画情報を取得し(S903)、画像認識部132が認識処理を行う(S904)。
尚、認識処理は認識対象物や認識対象情報によって異なるアルゴリズムのことを指し、上述したように、異なる個別処理部130ごとに個別開発されるものである。即ち、画像入力処理と認識処理については公知の方法を用いることができる。例えば、交通流計測の場合、640×480画素の画像を100ms周期で入力し、認識処理として背景差分処理によって車両を検知する方法等が考えられる。S904の処理により、認識結果処理部133が共通処理部120において解析対象となる情報を各種生成し、情報管理部122に処理結果の情報を入力する。
次に、不変属性登録処理で、情報管理部122が物体情報記憶部123に、物体ID及び不変属性情報を登録する。(S905)。次に、時系列属性管理処理で、情報管理部122が、物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125に、状態ID、時間ID、空間ID、時系列属性情報、時間属性情報及び空間属性情報を夫々登録する。
動画像を所定の処理周期“I”ごとに入力〜処理していき、準備された動画像が終了するか、若しくはカメラのリアルタイム動画像の場合にユーザが処理終了の指示を出すと、次に、認識結果解析処理で、情報解析部126が、あらかじめ定められた計算方法を用いて認識結果の解析を行う(S908)。このような処理により、本実施形態に係る画像解析装置1の動作が完了する。
次に、S901における解析種類定義処理の詳細について、図10を参照して説明する。図10は、S901の解析種類定義処理を詳細に示すフローチャートである。図10に示すように、まず、解析種類定義部121が、対応情報記憶部134から不変属性の対応情報を読み出し、解析対象の固有の情報のうち不変属性に該当する情報を不変属性1〜Nに対して割り当てる(S1001)。次に、解析種類定義部121が、同じく解析対象の固有の情報のうち時系列に変化する情報を、時系列属性1〜Mに対して割り当てる(S1002)。
次に、S905における不変属性の登録処理の詳細について、図11を参照して説明する。図11に示すように、情報管理部122は、まず、S904の認識処理で検知された物体を、物体情報記憶部123の物体別データに登録する(S1101)。これにより、物体情報記憶部123の物体別データ内に1つの物体を表す1データが追加される。
次に、情報管理部122は、解析種類定義部121によって定義された不変属性1〜Nの対応関係に基づき、S904の認識処理において認識された不変属性の情報を、物体情報記憶部123の物体別データにおけるどの領域に記憶させるかを特定する(S1102)。そして、情報管理部122は、S904の認識処理において認識された不変属性の情報を、S1102において特定した不変属性の領域に格納する(S1103)。
例えば、交通流計測の場合、認識処理が小型車を検知したと仮定すると、個別処理部130は、検知した情報を「車種=小型車」という認識対象毎の固有の情報として情報管理部122に渡す。
一方、情報管理部122は、認識対象毎の固有の情報をそのままの形では扱わず、不変属性という抽象化された形で扱う。この際、不変属性を保持する領域は1〜Nの複数あるため、情報管理部122は、解析種類定義部121による定義処理に基づいて、その複数領域の中から適切な領域を決定する。このような処理により、共通処理部120においては、異なる複数の解析対象毎の不変属性の情報について、共通の情報形式で処理を行うことが可能となる。
次に、S906における時系列属性の登録処理の詳細について、図12を参照して説明する。図12に示すように、情報管理部122は、まず、S904の認識処理で検知された物体の状態を、物体情報記憶部123の状態別データに登録する(S1201)。これにより、物体情報記憶部123の状態別データ内に1つの物体状態を表す1データが追加される。
次に、情報管理部122は、時間情報記憶部124に時間情報を追加して、その物体状態が表す時刻の情報、即ちフレームナンバーを格納する(S1202)。更に、情報管理部122は、空間情報記憶部125に空間情報を追加して、その物体状態が表す座標値の情報を設定する(S1203)。そして、情報管理部122は、時間情報、空間情報及び状態別データ間のリンク付けを行う(S1204)。S1204の処理は、S1201〜1203において追加した夫々の情報に同一の状態IDを設定する処理である。S1204までの処理により、追加された物体状態がいつの時点でどの位置を指しているかが確定する。
次に、情報管理部122は、解析種類定義部121によって定義された時系列属性1〜Mの対応関係に基づき、S904の認識処理において認識された時系列属性の情報を、物体情報記憶部123の状態別データにおけるどの領域に記憶させるかを特定する(S1205)。次に、情報管理部122は、個別処理部130から渡された認識情報を、S1205において特定した時系列属性の領域のいずれかに格納する(S1206)。
例えば、交通流計測において認識結果処理部133が車両の瞬間速度、即ち車速を計測した場合、認識結果処理部133は、計測した情報を「車速=40km/h」という解析対象固有の情報として情報管理部122に渡す。一方、情報を渡された情報管理部122は、上述した解析対象固有の情報をそのままの形では扱わず、時系列属性という抽象化された形で扱う。この際、時系列属性を保持する領域は1〜Mの複数あるため、情報管理部122は、解析種類定義部121による定義処理に基づいて、その複数領域の中から適切な領域を決定する。このような処理により、共通処理部120においては、異なる複数の解析対象毎の時系列属性の情報について、共通の情報形式で処理を行うことが可能となる。
最後に、情報管理部122は、物体別データと状態別データとをリンク付けする(S1207)。S1207の処理は、S1204において物体情報記憶部の状態別データ、時間情報記憶部及び空間情報記憶部125の夫々に共通に付した状態IDを、物体情報記憶部123の物体別データにおける状態IDに設定する処理である。これにより、その物体がどういう存在状態であるかが確定する。
次に、S908における認識結果の解析処理の詳細について、図13を参照して説明する。図13は、交通流計測の場合における解析処理を示すフローチャートである。図13に示すように、まず時刻集計部126aが、時間情報記憶部124に格納された情報を昇順に並び替える(S1301)。そして、不変属性解析部126bが、S1301において並び替えられた時間情報の物体IDを順番に参照し、その物体IDに対応する物体別データの不変属性の分布を集計する(S1302)。その後、個別処理部130の解析結果取得部135が、S1302において集計された情報を取得する。そして、解析結果出力部136が、対応情報記憶部134に記憶された対応情報に基づき、分布集計結果のラベル値を決定する(S1303)。
例えば、交通流計測の場合、不変属性1に対して「車種」という解析対象固有の情報が割り当てられているため、不変属性1に保持されている車種情報の時系列分布を集計したうえで、その集計結果に「車種」というラベル付けをする。
次に、時系列属性解析部126cが、S1301において並び替えられた時間情報の状態IDを順番に参照し、その状態IDに対応する状態別データの時系列属性の平均値を計算する(S1304)。その後、個別処理部130の解析結果取得部135が、S1304において計算された情報を取得する。そして、解析結果出力部136が、対応情報記憶部134に記憶された対応情報に基づき、平均値計算結果のラベル値を決定する(S1305)。
例えば、本実施例では、時系列属性1に対して「車速」という解析対象固有の情報が割り当てられている。従って、時系列属性解析部126cは、ある車両1台に対して時系列属性1に保持されている車速(正確には、瞬間車速)情報の平均値を計算して平均車速を求め、各車両の平均車速の時系列分布を集計する。解析結果出力部136は、上記集計結果に「車速」というラベル付けをする。
そして、解析結果出力部136は、グラフの縦軸と横軸を設定し(S1306)、グラフを表示するための表示情報を生成して出力する(S1307)。例えば、交通流計測の場合、解析結果出力部136は、対応情報記憶部134に記憶された時系列属性の設定情報に基づき、縦軸=車速、横軸=通過時刻という対応関係及びラベルを決定し、グラフ上に集計結果をプロットする。
つまり、本実施形態に係る画像解析装置1においては、解析対象毎の固有の情報は対応情報記憶部134に分離して定義する。そして、不変属性や時系列属性などの汎用的な、即ち、解析対象に依存しないデータ構造に対する時系列ソート、分布集計、平均値算出などの一般的な解析手法を、情報解析部126として、予め解析ライブラリとして定義しておく。これにより、個別処理部130においては、その解析手法の組合せと、グラフの縦軸横軸を指定すれば、自動的に案件固有情報に変換されたグラフが表示される。このようにして、データ解析の機能から解析対象毎の固有の情報を分離することが可能となる。
次に、図14に、解析結果表示画面の例を示す。図14に示すように、解析結果表示画面には、認識結果解析処理において決定された縦軸と横軸で構成される2次元グラフ上に、同じく認識結果解析処理において集計された情報がプロットされている。例えば、交通流計測の場合、不変属性として車種を集計し、かつ、時系列属性として車速を集計したうえで、縦軸を車速、横軸を通過時刻と指定した例であるため、車種別の車速が時系列にプロットされる。
尚、本実施例ではグラフの種類として2次元散布図を用いたが、本実施例におけるグラフ機能を限定するものではない。例えば、グラフの軸数を増やして3次元グラフを用いても構わないし、グラフの種類を変えて折れ線グラフや棒グラフを用いても構わない。
次に、人物監視の場合における図9のS908の解析処理の詳細について、図15を参照して説明する。図15に示すように、人物監視の場合における解析処理においては、まず空間属性解析部126dが、空間情報記憶部125に記憶された情報を、空間属性の情報、即ち座標情報に基づいて並び替える(S1501)。そして、空間属性解析部126dが、S1501において並び替えられた空間情報の空間属性を参照し、空間属性の分布を集計する(S1502)。また、
状態IDを順番に参照し、その状態IDに対応する状態別データの時系列属性の分布と空間属性の分布とをそれぞれ集計する。
また、時系列属性解析部126cが、S1501において並び替えられた空間情報の状態IDを参照し、その状態IDに対応する状態別データの時系列属性の分布を集計する(S1503)。その後、個別処理部130の解析結果取得部135が、S1502、S1503において集計された情報を取得する。そして、解析結果出力部136が、対応情報記憶部134に記憶された対応情報に基づき、分布集計結果のラベル値を決定する(S1504)。
例えば、人物監視の場合、空間属性に対して「足元位置」、時系列属性1に対して「歩行方向」という解析対象固有の情報がそれぞれ割り当てられている。従って、S1502、S1503において、個々の人物がどの座標からどの座標へ、どういう方向に歩いて行ったかが集計され、解析結果出力部136は、その集計結果に「足元X座標」、「足元Y座標」というラベル付けをする。そして、解析結果出力部136は、図13において説明した処理と同様に、グラフの縦軸と横軸を設定し(S1505)、グラフを表示するための情報を出力する(S1506)。
このように、本実施形態に係る画像解析装置1においては、時系列ソート、分布集計、平均値算出などの解析手法に加えて、空間、即ち座標値によるソートと空間上の分布集計も可能である。つまり、本実施形態に係る解析手法とは、時間的概念に基づく集計や、平均、分散などの統計的解析のみならず、空間的概念も含む。換言すると、本実施形態に係る画像形成装置1の情報解析部126は、物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125に記憶された情報を集計するものであれば、いずれも実現可能である。
尚、このような情報解析機能は、上述したように、予め情報解析部126に備えられている機能であり、夫々の解析対象毎に解析結果取得部135によって呼び出されることによって実行される。どのような解析態様であれ、物体情報記憶部123、時間情報記憶部124及び空間情報記憶部125に記憶される情報のみを対象とするため、その解析態様は限られており、考えられ得る解析態様を予め設定することが可能である。
この他、すべての解析態様を情報解析部126の機能として予め実装するのではなく、情報解析部126には、主要な解析機能のみを実行し、頻繁に用いられない解析態様については、個別処理部130側から情報解析部126に追加することも可能である。
次に、図16に、人物監視の場合における解析結果表示画面の例を示す。人物監視の場合における解析結果表示画面には、認識結果解析処理において決定された縦軸と横軸で構成される2次元グラフ上に、同じく認識結果解析処理において集計された情報がプロットされる。
例えば、人物監視においては、時系列属性として足元位置及び歩行方向を集計したうえで、縦軸を足元Y座標、横軸を足元X座標と指定した例であるため、人物毎の移動経路がプロットされる。ここで、図16では、数字が人物のID、IDから伸びている矢印が歩行方向を示している。
次に、本発明によって得られる効果の概要を図17に示す。図17は、図3において説明したような個別処理部130と共通処理部120との別を、複数の個別処理部130に対応させて示した図である。図17においては、上述した交通流計測及び人物監視の個別処理部130についての例を示している。
図17に示すように、共通処理部120においては、データ構成及びその解析機能が提供される。即ち、共通処理部120が共通フレームワークとして機能する。これに対して、個別処理部130が認識アプリケーションとして機能し、夫々の個別処理部130が共通フレームワークによって提供される機能を利用する構成となっている。
このような構成により、一度開発された共通フレームワークは、異なる個別処理部130に対しても適用することが可能である。従来の開発方式では、解析対象が異なる場合は、個別開発を行うために、無駄な開発工数がかかっていた。これに対して、本実施形態に係る画像解析装置1においては、解析対象案件ごとの個別開発が必要な部分は、車両検知や人物検知などの案件固有のアルゴリズムを有する個別処理部130のみで良いため、開発工数を削減することが可能になる。
他方、車両検知や人物検知等、画像認識のアルゴリズムが異なる機能、即ち、解析対象に依存する機能については、個別処理部130として別個に開発される。仮に、上記解析対象に依存する機能を共通処理部内に含める構成とした場合、解析可能な対象が限られてしまうために、様々な解析対象に対して本実施形態に係る画像解析装置を適用することができない。これに対して、解析対象に依存する機能を個別処理部130として別個に設け、情報管理部122、解析種類定義部121及び情報解析部126との情報の入出力に対応した個別処理部130を解析対象毎に開発することにより、画像解析装置1を様々な解析対象に対応させることが可能となる。
更に、本実施形態においては、物体と時間と空間をそれぞれ独立した情報として関連付けを行う構成を採用している。また、認識結果解析機能として時間を基準にしたソート法と空間を基準にしたソート法の両方を備える。これにより、交通流計測等の時系列変化解析を主目的とする事業案件であっても、人流計測によるマーケティング等の空間分布解析を主目的とする事業案件であっても、高速に認識結果を集計できるという効果も得られる。
尚、上記実施形態では、本発明による処理を実行する計算機環境において、前記実施例中における任意の一つの処理手段を二つ以上の処理手段に分割して実現しても、二つ以上の任意の処理手段を統合して一つの処理手段として実現しても良く、本発明の提供する機能を損なわない限りその実現形態を制約するものではない。
また、上記実施形態においては、図3に示すように、個別処理部130に解析結果出力部136が含まれ、個別処理部130において表示情報が生成される場合を例として説明した。この他、図18に示すように、共通処理部120側に解析結果出力部127として設けることも可能である。これにより、個別処理部130として個別開発すべき機能を更に削減することが可能となる。
1 画像解析装置、
10 CPU、
11 RAM、
12 ROM、
13 画像入力部、
14 HDD、
15 I/F、
16 LCD、
17 操作部、
18 バス、
100 コントローラ、
101 主制御部、
102 デバイスドライバ、
110 画像解析部、
120 共通処理部、
121 解析種類定義部、
122 情報管理部、
123 物体情報記憶部、
124 時間情報記憶部、
125 空間情報記憶部、
126 情報解析部、
126a 時刻集計部、
126b 不変属性解析部、
126c 時系列属性解析部、
126d 空間属性解析部、
130 個別処理部、
131 画像取得部、
132 画像認識部、
133 認識結果処理部、
134 対応情報記憶部、
135 解析結果取得部、
136 解析結果出力部

Claims (13)

  1. 入力された動画情報を解析して解析結果を出力する画像解析装置であって、
    解析対象に応じた処理を行うことにより前記動画に含まれる物体を認識する個別処理部と、
    前記個別処理部による認識結果に基づき、異なる複数の解析対象に対して共通の解析処理を行う共通処理部とを含み、
    前記個別処理部は、
    解析対象に応じて前記動画に含まれる物体を認識して情報を抽出する情報抽出部と、
    前記抽出された情報が前記共通処理部において処理される情報のいずれに対応するかを示す対応情報を記憶している対応情報記憶部と、
    前記共通処理部によって解析処理された情報を取得する処理結果取得部とを含み、
    前記共通処理部は、
    前記物体を識別する物体識別情報と前記物体の状態に関する情報とを関連付けて記憶している物体情報記憶部と、
    前記物体の状態に関する情報と前記物体が前記状態である時間の情報である時間情報とを関連付けて記憶している時間情報記憶部と、
    前記物体の状態に関する情報と前記物体が前記状態で存在している位置を示す位置情報とを関連付けて記憶している位置情報記憶部と、
    前記抽出された情報を前記対応情報に基づいて前記物体情報記憶部、時間情報記憶部及び位置情報記憶部のうち少なくとも1つに記憶させる情報管理部と、
    前記物体情報記憶部、時間情報記憶部及び位置情報記憶部に記憶されている情報を解析する情報解析部とを含み、
    前記対応情報は、前記解析対象に応じて設定された属性であって前記動画に含まれる物体を認識して抽出された情報の属性と、前記物体情報記憶部、時間情報記憶部及び位置情報記憶部のうち少なくとも1つとの対応関係を示す情報であり、
    前記情報管理部は、前記対応情報に基づき、前記動画に含まれる物体を認識して抽出された情報の属性を認識して前記物体情報記憶部、時間情報記憶部及び位置情報記憶部のうち少なくとも1つに記憶させることを特徴とする画像解析装置。
  2. 前記物体情報記憶部は、前記物体の状態に関する情報として、時系列に変化する前記物体の複数の状態を識別する状態識別情報を記憶しており、
    前記時間情報記憶部は、前記状態識別情報と前記物体が前記状態識別情報によって識別される状態である時間の時間情報とを関連付けて記憶しており、
    前記位置情報記憶部は、前記状態識別情報と前記物体が前記状態識別情報によって識別される状態で存在している位置の位置情報とを関連付けて記憶していることを特徴とする請求項1に記載の画像解析装置。
  3. 前記物体情報記憶部は、前記物体の状態に関する情報として、前記物体の継時的に変化する属性である時系列属性の情報を記憶しており、
    前記情報解析部は、前記時系列属性の情報を前記時間情報及び位置情報のうち少なくとも一方に基づいて解析することを特徴とする請求項1または2に記載の画像解析装置。
  4. 前記情報解析部は、前記時間情報及び位置情報のうち少なくとも一方の変化に応じた前記時系列属性の情報の変化を解析することを特徴とする請求項3に記載の画像解析装置。
  5. 前記物体情報記憶部は、前記物体の状態に関する情報として、前記物体の継時的に不変な属性である不変属性の情報を記憶しており、
    前記情報解析部は、前記不変属性の情報を前記時間情報及び位置情報のうち少なくとも一方に基づいて解析することを特徴とする請求項1乃至4いずれかに記載の画像解析装置。
  6. 前記情報解析部は、前記時間情報及び位置情報のうち少なくとも一方の変化に応じた前記不変属性の情報の分布を解析することを特徴とする請求項5に記載の画像解析装置。
  7. 前記時間情報記憶部は、前記時間情報と前記物体識別情報とを関連付けて記憶しており、
    前記情報解析部は、前記時間情報記憶部に記憶されている情報を前記時間情報に基づいて並び替え、並び替え後の前記時間情報に関連付けられた前記物体識別情報に基づいて前記物体情報記憶部に記憶されている情報を解析することを特徴とする請求項1乃至6いずれかに記載の画像解析装置。
  8. 前記位置情報記憶部は、前記位置情報と前記物体識別情報とを関連付けて記憶しており、
    前記情報解析部は、前記位置情報記憶部に記憶されている情報を前記位置情報に基づいて並び替え、並び替え後の前記位置情報に関連付けられた前記物体識別情報に基づいて前記物体情報記憶部に記憶されている情報を解析することを特徴とする請求項1乃至7いずれかに記載の画像解析装置。
  9. 前記時間情報記憶部は、前記時間情報として前記動画における時間及び実際の時間の情報を記憶することが可能であり、
    前記情報解析部は、前記時間情報記憶部において前記動画における時間と前記実際の時間とが混在する場合にいずれか一方の形式に変換して解析を行うことを特徴とする請求項1乃至8いずれかに記載の画像解析装置。
  10. 前記位置情報記憶部は、前記位置情報として前記動画における位置及び実際の位置の情報を記憶することが可能であり、
    前記情報解析部は、前記位置情報記憶部において前記動画における位置と前記実際の位置とが混在する場合にいずれか一方の形式に変換して解析を行うことを特徴とする請求項1乃至9いずれかに記載の画像解析装置。
  11. 前記情報解析部は、前記物体情報記憶部に記憶されている前記物体識別情報によって識別される物体の個数を集計する機能を有することを特徴とする請求項1乃至10いずれかに記載の画像解析装置。
  12. 前記情報解析部による解析結果を視覚的に表示するための表示情報を生成する表示情報生成部を更にふくむことを特徴とする請求項1乃至11いずれかに記載の画像解析装置。
  13. 入力された動画情報を解析して解析結果を出力する画像解析プログラムであって、
    解析対象に応じた処理を行うことにより前記動画に含まれる物体を認識する個別処理ステップと、
    前記個別処理部による認識結果に基づき、異なる複数の解析対象に対して共通の解析処理を行う共通処理ステップとを情報処理装置に実行させるものであり、
    前記個別処理ステップは、
    解析対象に応じて前記動画に含まれる物体を認識して情報を抽出するステップと、
    前記抽出された情報が前記共通処理ステップにおいて処理される情報のいずれに対応するかを示す対応情報を提示する対応情報提示ステップと、
    前記共通処理部によって解析処理された情報を取得する処理結果取得ステップとを含み、
    前記共通処理ステップは、
    前記物体を識別する物体識別情報と前記物体の状態に関する情報とを関連付けて記憶している物体情報記憶部、前記物体の状態に関する情報と前記物体が前記状態である時間の情報である時間情報とを関連付けて記憶している時間情報記憶部、前記物体の状態に関する情報と前記物体が前記状態で存在している位置を示す位置情報とを関連付けて記憶している位置情報記憶部の夫々に、前記抽出された情報を前記対応情報に基づいて記憶させるステップと、
    前記物体情報記憶部、時間情報記憶部及び位置情報記憶部に記憶されている情報を解析する情報解析ステップとを含み、
    前記対応情報は、前記解析対象に応じて設定された属性であって前記動画に含まれる物体を認識して抽出された情報の属性と、前記物体情報記憶部、時間情報記憶部及び位置情報記憶部のうち少なくとも1つとの対応関係を示す情報であり、
    前記抽出された情報を前記対応情報に基づいて記憶させるステップにおいては、前記動画に含まれる物体を認識して抽出された情報の属性を、前記対応情報に基づいて認識して前記物体情報記憶部、時間情報記憶部及び位置情報記憶部のうち少なくとも1つに記憶させることを特徴とする画像解析プログラム。
JP2011520706A 2009-06-30 2009-06-30 画像解析装置及び画像解析プログラム Active JP5355691B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/061977 WO2011001514A1 (ja) 2009-06-30 2009-06-30 画像解析装置及び画像解析プログラム

Publications (2)

Publication Number Publication Date
JPWO2011001514A1 JPWO2011001514A1 (ja) 2012-12-10
JP5355691B2 true JP5355691B2 (ja) 2013-11-27

Family

ID=43410612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011520706A Active JP5355691B2 (ja) 2009-06-30 2009-06-30 画像解析装置及び画像解析プログラム

Country Status (3)

Country Link
US (1) US20120128209A1 (ja)
JP (1) JP5355691B2 (ja)
WO (1) WO2011001514A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101732981B1 (ko) * 2015-10-29 2017-05-08 삼성에스디에스 주식회사 개인화 특성 분석 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241480A (ja) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd 分散型監視装置
JPH10255057A (ja) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd 移動物体抽出装置
JPH1115981A (ja) * 1997-06-19 1999-01-22 Matsushita Electric Ind Co Ltd 広域監視装置及び広域監視システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100421221B1 (ko) * 2001-11-05 2004-03-02 삼성전자주식회사 조명에 강인한 객체 추적 방법 및 이를 응용한 영상 편집장치
JP5075672B2 (ja) * 2008-02-25 2012-11-21 株式会社東芝 対象物検出装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08241480A (ja) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd 分散型監視装置
JPH10255057A (ja) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd 移動物体抽出装置
JPH1115981A (ja) * 1997-06-19 1999-01-22 Matsushita Electric Ind Co Ltd 広域監視装置及び広域監視システム

Also Published As

Publication number Publication date
US20120128209A1 (en) 2012-05-24
JPWO2011001514A1 (ja) 2012-12-10
WO2011001514A1 (ja) 2011-01-06

Similar Documents

Publication Publication Date Title
US9560323B2 (en) Method and system for metadata extraction from master-slave cameras tracking system
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP7036493B2 (ja) 監視方法及び装置
WO2021093329A1 (zh) 交互行为识别方法、装置、计算机设备和存储介质
KR20160142760A (ko) 로컬 및 글로벌 모션에 효율적인 멀티-프레임 초해상도 방법 및 장치
Hinz et al. Online multi-object tracking-by-clustering for intelligent transportation system with neuromorphic vision sensor
CN106295598A (zh) 一种跨摄像头目标跟踪方法及装置
Nazare Jr et al. A scalable and flexible framework for smart video surveillance
Karasulu et al. A software for performance evaluation and comparison of people detection and tracking methods in video processing
KR20170028302A (ko) 시선 정보에 기초하는 자극들에 대한 주의의 결정
WO2017114276A1 (zh) 基于图的分析用户的方法和系统
JP5355691B2 (ja) 画像解析装置及び画像解析プログラム
JP2015073191A (ja) 画像処理システムおよびその制御方法
Haridas et al. Visualization of automated and manual trajectories in wide-area motion imagery
CN109255310A (zh) 动物情绪识别方法、装置、终端及可读存储介质
CN110223144B (zh) 无人购物的信息处理系统及方法、计算机设备及可读介质
CN111107307A (zh) 基于单应性变换的视频融合方法、系统、终端及介质
Nascimento et al. Public dataset of parking lot videos for computational vision applied to surveillance
CN115273215A (zh) 作业识别系统以及作业识别方法
JP2022036825A (ja) 画像処理装置、画像処理方法およびプログラム
CN112669352A (zh) 一种对象识别方法、装置及设备
Velipasalar et al. Detection of user-defined, semantically high-level, composite events, and retrieval of event queries
Tessier et al. Occupancy Visualization towards Activity Recognition
Chen et al. On the development of a classification based automated motion imagery interpretability prediction
Marcenaro Access to data sets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130827

R150 Certificate of patent or registration of utility model

Ref document number: 5355691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150