JP2009129006A - Image analysis apparatus and image analysis system - Google Patents

Image analysis apparatus and image analysis system Download PDF

Info

Publication number
JP2009129006A
JP2009129006A JP2007300628A JP2007300628A JP2009129006A JP 2009129006 A JP2009129006 A JP 2009129006A JP 2007300628 A JP2007300628 A JP 2007300628A JP 2007300628 A JP2007300628 A JP 2007300628A JP 2009129006 A JP2009129006 A JP 2009129006A
Authority
JP
Japan
Prior art keywords
data
image
analysis
composite
image analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007300628A
Other languages
Japanese (ja)
Inventor
Teruma Aoto
照馬 青戸
Sunao Kashiba
直 柏葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2007300628A priority Critical patent/JP2009129006A/en
Publication of JP2009129006A publication Critical patent/JP2009129006A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize versatile application using analysis data in an external apparatus by securing data integrity without generating an excessive burden when providing image data and analysis data thereof. <P>SOLUTION: An image analysis apparatus 20 includes a storage means, and a control means for analyzing image data to generate analysis data, synthesizing the analysis data with the image data to generate synthetic data, and storing the generated synthetic data in the storage means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像解析装置及び画像解析システムに関する。   The present invention relates to an image analysis apparatus and an image analysis system.

従来、カメラで撮影された画像データに関する情報を生成する構成が知られている。例えば、画像データを管理するための分類情報や、画像データの画像を診断するための診断情報を生成する構成が考えられている(例えば、特許文献1,2参照)。   2. Description of the Related Art Conventionally, a configuration for generating information related to image data captured by a camera is known. For example, the structure which produces | generates the classification information for managing image data, and the diagnostic information for diagnosing the image of image data is considered (for example, refer patent document 1, 2).

また、監視用カメラで撮影された画像データに関する情報を生成する構成も知られている。例えば、監視目的で撮影された画像データを画像解析して侵入物体の有無、撮影画像内の人数等の情報を生成する構成が考えられている(例えば、特許文献3,4参照)。   In addition, a configuration for generating information related to image data photographed by a monitoring camera is also known. For example, a configuration is conceivable in which image data captured for monitoring purposes is subjected to image analysis to generate information such as the presence or absence of an intruding object and the number of people in the captured image (for example, see Patent Documents 3 and 4).

ここで、図6を参照して、監視目的で撮影された画像データを解析して解析データを生成する従来の画像監視システムを説明する。図6に、従来の画像監視システム2の構成を示す。   Here, with reference to FIG. 6, a conventional image monitoring system that analyzes image data taken for monitoring purposes and generates analysis data will be described. FIG. 6 shows a configuration of a conventional image monitoring system 2.

図6に示すように、画像監視システム2は、カメラ10と、画像解析装置20Aと、表示端末30と、を備えて構成され、画像解析装置20Aと表示端末30とが通信ネットワークNを介して通信接続される。   As shown in FIG. 6, the image monitoring system 2 includes a camera 10, an image analysis device 20A, and a display terminal 30, and the image analysis device 20A and the display terminal 30 are connected via a communication network N. Communication connection.

画像解析装置20Aは、制御部21Aと、入力部22と、RAM(Random Access Memory)23と、通信部24と、記憶部25と、を備えて構成される。RAM23は、揮発性のメモリである。記憶部25は、フラッシュメモリ、HDD(Hard Disk Drive)等の不揮発性のメモリである。   The image analysis apparatus 20A includes a control unit 21A, an input unit 22, a RAM (Random Access Memory) 23, a communication unit 24, and a storage unit 25. The RAM 23 is a volatile memory. The storage unit 25 is a non-volatile memory such as a flash memory or an HDD (Hard Disk Drive).

画像解析装置20Aにおいて、カメラ10で撮影された画像信号が入力部22を介して(周期的に)取得され、制御部21Aにより、その画像信号が画像データ41に変換されてRAM23に格納される。そして、制御部21Aにより、RAM23内の画像データ41を入力データとして目的の画像解析が実行され、その解析結果である解析データ42が生成されてRAM23に格納される。   In the image analysis apparatus 20A, an image signal photographed by the camera 10 is acquired (periodically) via the input unit 22, and the image signal is converted into image data 41 by the control unit 21A and stored in the RAM 23. . Then, the target image analysis is executed by the control unit 21 </ b> A using the image data 41 in the RAM 23 as input data, and analysis data 42 as the analysis result is generated and stored in the RAM 23.

そして、制御部21Aにより、RAM23内の画像データ41が記憶部25の画像データ群44Aに含められて記憶される。画像データ群44Aは、撮影時間が異なる複数の画像データ41を含む。画像データ群44Aは、個々の画像データ41を識別可能なよう、画像番号等の情報を付与し管理される。   Then, the image data 41 in the RAM 23 is included in the image data group 44A of the storage unit 25 and stored by the control unit 21A. The image data group 44A includes a plurality of image data 41 having different shooting times. The image data group 44A is assigned and managed with information such as an image number so that the individual image data 41 can be identified.

また、制御部21Aにより、RAM23内の解析データ42が記憶部25のテキストファイルあるいはデータベース等の解析データ群45に含められて記憶される。解析データ群45は、複数の画像データ41にそれぞれ対応する複数の解析データ42を含む。解析データ群45の記憶の際、解析に用いた画像データ41と解析データ42との紐付けが可能なよう、前記画像番号等の情報を付与し、後に、画像データと関連する解析データとの検索が可能なよう準備される。   Further, the analysis data 42 in the RAM 23 is included in the analysis data group 45 such as a text file or a database in the storage unit 25 and stored by the control unit 21A. The analysis data group 45 includes a plurality of analysis data 42 respectively corresponding to the plurality of image data 41. When storing the analysis data group 45, information such as the image number is assigned so that the image data 41 used in the analysis and the analysis data 42 can be linked, and later, the analysis data related to the image data is associated with the analysis data. Prepared for search.

また、表示端末30から通信ネットワークNを介して送信される、ライブ(リアルタイム)の画像データ、解析データ、あるいは過去の履歴画像データ、履歴解析データ等の情報の要求に応じて、制御部21Aにより、RAM23に格納されたライブの画像データ41、解析データ42、あるいは記憶部25に記憶された画像データ群44A中の画像データ、解析データ群45中の解析データが表示端末30に送信されて提供される。そして、表示端末30において、受信した各データに基づき、ライブの画像、解析結果、履歴画像、履歴解析結果等が表示される。
特開2005−37992号公報 特開2003−325458号公報 特開2002−32759号公報 特開2007−243342号公報
Further, in response to a request for information such as live (real-time) image data, analysis data, past history image data, history analysis data, etc. transmitted from the display terminal 30 via the communication network N, the control unit 21A. The live image data 41 stored in the RAM 23, the analysis data 42, or the image data in the image data group 44A stored in the storage unit 25 and the analysis data in the analysis data group 45 are transmitted to the display terminal 30 and provided. Is done. Then, on the display terminal 30, live images, analysis results, history images, history analysis results, and the like are displayed based on the received data.
JP 2005-37992 A JP 2003-325458 A JP 2002-32759 A JP 2007-243342 A

しかし、従来の画像監視システム2では、解析の状況をリアルタイムに見る必要があるアプリケーションを実行する場合に、表示端末30が、画像データ41と解析データ42との2つの情報を取得する必要がある。これらの2つの情報を別々に取得する場合、その整合(画像データ41とその解析データ42との対応関係が一致)を確保する必要があり、その実装が煩雑であった。これを回避する手段として、画像解析装置20A上において、予め画像データ41上に解析データの結果を、目に見える形で編集して要求元の表示端末30に提供することが考えられる。この場合、画像解析装置20Aの編集処理に要する負荷が増大すること、解析データ42を用いた自由な編集が困難であること、またオリジナルの画像データ41を表示端末30側で利用できない問題があった。   However, in the conventional image monitoring system 2, when executing an application that needs to see the analysis state in real time, the display terminal 30 needs to acquire two pieces of information, that is, the image data 41 and the analysis data 42. . When these two pieces of information are acquired separately, it is necessary to ensure the matching (correspondence between the image data 41 and the analysis data 42 is the same), and the implementation is complicated. As a means for avoiding this, it is conceivable that the result of the analysis data is preliminarily edited on the image data 41 and provided to the requesting display terminal 30 on the image analysis apparatus 20A. In this case, there are problems that the load required for the editing process of the image analysis apparatus 20A increases, that free editing using the analysis data 42 is difficult, and that the original image data 41 cannot be used on the display terminal 30 side. It was.

同様に、表示端末30にて、過去の解析結果を表示するアプリケーションを実行する場合に、所望の画像データ41に該当する解析データ42を、解析データ群45からその都度検索する作業が必要であり、この作業が画像解析装置20Aにとって負担となっていた。また、データ管理の観点から、古くなった画像データ群44Aと解析データ群45との整合をとって削除することは、処理が煩雑であった。   Similarly, when an application that displays past analysis results is executed on the display terminal 30, it is necessary to search the analysis data group 45 for the analysis data 42 corresponding to the desired image data 41 each time. This work is a burden on the image analysis apparatus 20A. Further, from the viewpoint of data management, it has been complicated to delete the image data group 44A and the analysis data group 45 that have become outdated.

上記のように、画像データ41と解析データ42とを別のものとして管理することは、
1)当該データ検索にかかる負担が発生する。
2)データ整合性確保が難しい。
というおそれがあった。
As described above, managing the image data 41 and the analysis data 42 separately is as follows.
1) A burden on the data search occurs.
2) It is difficult to ensure data consistency.
There was a fear.

本発明の課題は、画像データとその解析データとを提供するにあたり、余分な負担を発生させず、データ整合性を確保し、解析データを用いた多様性のあるアプリケーションを外部機器に実現させる画像解析装置及び画像解析システムを提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide image data and analysis data thereof without generating an extra burden, ensuring data consistency, and realizing various applications using analysis data on an external device. An analysis apparatus and an image analysis system are provided.

上記課題を解決するため、請求項1に記載の発明の画像解析装置は、
記憶手段と、
画像データを画像解析して解析データを生成し、当該解析データを前記画像データに合成して合成データを生成し、当該生成した合成データを前記記憶手段に記憶する制御手段と、を備える。
In order to solve the above-described problem, an image analysis apparatus according to claim 1 is provided.
Storage means;
Image data is analyzed to generate analysis data, the analysis data is combined with the image data to generate composite data, and the control unit stores the generated composite data in the storage unit.

請求項2に記載の発明は、請求項1に記載の画像解析装置において、
外部機器と通信する通信手段を備え、
前記制御手段は、前記生成された少なくとも一つの合成データを含む合成データ群を前記記憶手段に記憶し、当該記憶手段に記憶された合成データ群のうち指定された合成データを前記通信手段を介して前記外部機器に送信する。
The invention according to claim 2 is the image analysis apparatus according to claim 1,
A communication means for communicating with an external device;
The control means stores a composite data group including the generated at least one composite data in the storage means, and specifies designated composite data among the composite data groups stored in the storage means via the communication means. To the external device.

請求項3に記載の発明は、請求項2に記載の画像解析装置において、
前記制御手段は、前記生成された合成データを前記通信手段を介して前記外部機器に送信する。
The invention according to claim 3 is the image analysis apparatus according to claim 2,
The control means transmits the generated composite data to the external device via the communication means.

請求項4に記載の発明の画像解析システムは、
請求項2又は3に記載の画像解析装置と、
前記外部機器と、を備え、
前記制御手段は、前記外部機器から送信される合成データの要求に応じて前記通信手段を介して合成データを要求元の外部機器に送信する。
An image analysis system according to a fourth aspect of the present invention provides:
The image analysis apparatus according to claim 2 or 3,
The external device,
The control unit transmits the composite data to the requesting external device via the communication unit in response to a request for the composite data transmitted from the external device.

請求項1に記載の発明によれば、画像データとその解析データとを含む合成データを管理でき、余分な負担を低減でき、画像データと解析データとのデータ整合性を確保でき、解析データを用いた多様性のあるアプリケーションを外部機器に実現できる。   According to the first aspect of the present invention, composite data including image data and analysis data thereof can be managed, an extra burden can be reduced, data consistency between the image data and analysis data can be ensured, and analysis data can be saved. The diverse applications used can be realized on external devices.

請求項2に記載の発明によれば、記憶手段に記憶された合成データ群から合成データを外部機器に提供でき、解析データの検索手続きを不要にでき、画像解析装置の負担を軽減できる。   According to the second aspect of the present invention, the synthesized data can be provided to the external device from the synthesized data group stored in the storage means, the analysis data search procedure can be eliminated, and the burden on the image analyzing apparatus can be reduced.

請求項3に記載の発明によれば、ライブの合成データを外部機器に提供できる。   According to the third aspect of the present invention, live composite data can be provided to an external device.

請求項4に記載の発明によれば、外部機器の要求に応じた合成データを外部機器に提供できる。   According to the fourth aspect of the present invention, it is possible to provide the external device with composite data according to the request of the external device.

以下、図面を参照して、本発明に係る実施の形態について説明する。但し、発明の範囲は図示例に限定されない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

先ず、図1及び図2を参照して、本実施の形態の装置構成を説明する。図1に、本実施の形態の画像解析システムとしての画像監視システム1を示す。   First, the apparatus configuration of the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 shows an image monitoring system 1 as an image analysis system of the present embodiment.

本実施の形態の画像監視システム1は、被写体を撮影して画像解析を行い、その被写体の画像と解析結果とを表示するシステムである。画像監視システム1は、例えば、駅のプラットホームを撮影し、その撮影画像内の人数や倒れている人の有無等を解析し、その解析結果を画像とともに表示してユーザに監視させるシステムとする。   The image monitoring system 1 of the present embodiment is a system that captures a subject, performs image analysis, and displays the image of the subject and the analysis result. The image monitoring system 1 is, for example, a system in which a platform of a station is photographed, the number of persons in the photographed image, the presence / absence of a fallen person, and the like are analyzed, and the analysis results are displayed together with images and monitored by the user.

図1に示すように、画像監視システム1は、カメラ10と、画像解析装置20と、外部機器としての表示端末30とを備えて構成され、画像解析装置20と表示端末30とが通信ネットワークNを介して通信接続されている。   As shown in FIG. 1, the image monitoring system 1 includes a camera 10, an image analysis device 20, and a display terminal 30 as an external device. The image analysis device 20 and the display terminal 30 are connected to a communication network N. Is connected via communication.

カメラ10は、画像解析装置20に接続され、被写体を撮影してその被写体の画像信号を生成して出力するカメラである。カメラ10は、画像を周期的に撮影して画像信号を出力する。   The camera 10 is a camera that is connected to the image analysis device 20 and shoots a subject and generates and outputs an image signal of the subject. The camera 10 periodically captures images and outputs image signals.

画像解析装置20は、カメラ10から入力された画像信号を画像データに変換し画像解析して解析データを生成し、画像データと解析データとを合成する。また、画像解析装置20は、合成データを合成データ群として記憶し、ライブ又は過去の履歴の合成データを出力する。   The image analysis device 20 converts the image signal input from the camera 10 into image data, analyzes the image to generate analysis data, and synthesizes the image data and the analysis data. Further, the image analysis device 20 stores the composite data as a composite data group, and outputs live or past history composite data.

表示端末30は、表示部、通信部及び制御部(図示略)を備える。表示端末30の制御部は、通信部を介してライブ又は過去の履歴の合成データを画像解析装置20に要求し、受信した合成データの画像データの画像を解析データの画像とともに表示部に表示する。   The display terminal 30 includes a display unit, a communication unit, and a control unit (not shown). The control unit of the display terminal 30 requests the image analysis apparatus 20 for composite data of live or past history via the communication unit, and displays the image of the received composite data on the display unit together with the image of the analysis data. .

通信ネットワークNは、例えばLAN(Local Area Network)とするが、これに限定されるものではなく、WAN(Wide Area Network)等としてもよい。   The communication network N is, for example, a LAN (Local Area Network), but is not limited thereto, and may be a WAN (Wide Area Network) or the like.

次いで、図2を参照して、画像解析装置20の内部構成を説明する。図2に、画像解析装置20の内部構成を示す。   Next, the internal configuration of the image analysis apparatus 20 will be described with reference to FIG. FIG. 2 shows an internal configuration of the image analysis apparatus 20.

図2に示すように、画像解析装置20は、制御手段としてのCPU(Central Processing Unit)21と、入力部22と、RAM23と、通信手段としての通信部24と、記憶手段としての記憶部25と、を備えて構成され、各部がバス26を介して接続されている。   As shown in FIG. 2, the image analysis apparatus 20 includes a CPU (Central Processing Unit) 21 as a control unit, an input unit 22, a RAM 23, a communication unit 24 as a communication unit, and a storage unit 25 as a storage unit. And each part is connected through a bus 26.

CPU21は、画像解析装置20の各部を中央制御する。CPU21は、記憶部25に記憶されたシステムプログラム及びアプリケーションプログラムの中から指定されたプログラムを読み出し、そのプログラムをRAM23に展開し、展開されたプログラムとの協働で各種処理を実行する。   The CPU 21 centrally controls each unit of the image analysis device 20. The CPU 21 reads a designated program from the system programs and application programs stored in the storage unit 25, expands the program in the RAM 23, and executes various processes in cooperation with the expanded program.

CPU21は、記憶部25に記憶された合成データ生成プログラムとの協働で、後述する図4に示すように、カメラ10で撮影された画像データ41の画像を解析して解析データ42を生成し、画像データ41及び解析データ42を合成して合成データ43を生成してRAM23に格納し、合成データ43を合成データ群44に含めて記憶部25に記憶する。   The CPU 21 generates an analysis data 42 by analyzing an image of the image data 41 taken by the camera 10 as shown in FIG. 4 to be described later in cooperation with the composite data generation program stored in the storage unit 25. Then, the image data 41 and the analysis data 42 are combined to generate combined data 43 and stored in the RAM 23, and the combined data 43 is included in the combined data group 44 and stored in the storage unit 25.

また、CPU21は、記憶部25に記憶された合成データ提供プログラムとの協働で、表示端末30から合成データの要求があると、ライブの合成データの要求がある場合に、RAM23に格納された合成データ43を要求元の表示端末30に送信し、履歴の合成データの要求がある場合に、記憶部25に記憶された合成データ群44のうち指定された合成データ43を要求元の表示端末30に送信する。   Further, in cooperation with the composite data providing program stored in the storage unit 25, the CPU 21 stores the request for the composite data from the display terminal 30 and stores the request in the RAM 23 when there is a request for the live composite data. When the composite data 43 is transmitted to the requesting display terminal 30 and there is a request for historical composite data, the specified composite data 43 in the composite data group 44 stored in the storage unit 25 is displayed as the requesting display terminal. 30.

入力部22は、カメラ10と通信接続されて画像信号が入力されるインタフェースである。入力部22は、例えば、カメラ10と通信ケーブルを介する有線式の入力部とするが、これに限定されるものではなく、無線式の入力部としてもよい。   The input unit 22 is an interface through which an image signal is input through communication connection with the camera 10. The input unit 22 is, for example, a wired input unit via the camera 10 and a communication cable, but is not limited thereto, and may be a wireless input unit.

RAM23は、揮発性のメモリであり、各種データ及び各種プログラムを格納するワークエリアを有する。特に、RAM23には、後述する画像データ41及び解析データ42が格納される。   The RAM 23 is a volatile memory and has a work area for storing various data and various programs. In particular, the RAM 23 stores image data 41 and analysis data 42 described later.

通信部24は、通信ネットワークNに接続され、NIC(Network Interface Card)、モデム等により構成される。通信部24は、通信ネットワークN上の表示端末30等の外部機器と情報を送受信する。   The communication unit 24 is connected to the communication network N, and includes a NIC (Network Interface Card), a modem, and the like. The communication unit 24 transmits / receives information to / from an external device such as the display terminal 30 on the communication network N.

記憶部25は、不揮発性のメモリであり、フラッシュメモリ、HDDなどにより構成され、情報を読み書き可能に記憶する。記憶部25は、後述する合成データ群44、合成データ送信プログラム及び合成データ提供プログラムを記憶する。   The storage unit 25 is a non-volatile memory, and includes a flash memory, an HDD, and the like, and stores information in a readable / writable manner. The storage unit 25 stores a composite data group 44, a composite data transmission program, and a composite data providing program which will be described later.

次に、図3及び図4を参照して、画像監視システム1の動作を説明する。図3に、合成データ生成処理及び合成データ提供処理の流れを示す。図4に、合成データ群44生成の手順を示す。   Next, the operation of the image monitoring system 1 will be described with reference to FIGS. 3 and 4. FIG. 3 shows the flow of the composite data generation process and the composite data provision process. FIG. 4 shows a procedure for generating the composite data group 44.

画像解析装置20において、合成データ生成処理、合成データ提供処理が実行される。合成データ生成処理は、カメラ10で撮影された画像データを画像解析しその解析結果としての解析データを含む合成データを生成及び管理する処理である。合成データ提供処理は、画像解析装置20の外部機器(ここでは、表示端末30)からの要求に対応し、合成データを提供する処理である。   In the image analysis device 20, a composite data generation process and a composite data provision process are executed. The composite data generation process is a process of generating and managing composite data including image data obtained by analyzing the image data captured by the camera 10 and analyzing the image data. The composite data providing process is a process for providing composite data in response to a request from an external device (here, the display terminal 30) of the image analysis apparatus 20.

画像解析装置20において、例えば、電源オン操作や、図示しない操作部を介して合成データ生成処理実行の操作入力が受け付けられたこと等をトリガとして、記憶部25から読み出されてRAM23に適宜展開された合成データ生成プログラムと、CPU21との協働で合成データ生成処理が実行される。   In the image analysis device 20, for example, when read from the storage unit 25 as a trigger, for example, when a power-on operation or an operation input for executing synthetic data generation processing is received via an operation unit (not shown), the image analysis device 20 appropriately develops the data in the RAM 23. The combined data generation process is executed in cooperation with the combined data generation program and the CPU 21.

図3に示すように、先ず、カメラ10で撮影された1画像の画像信号が入力部22を介して入力され、その画像信号が画像データ41に変換されてRAM23に格納されて取り込まれる(ステップS11)。そして、RAM23に格納された画像データが画像解析されて解析データ42が生成され、解析データ42がRAM23に格納される(ステップS12)。ステップS12は、例えば、画像データ41の画像内の人数や倒れている人の有無等を解析し、その解析結果を解析データ42として生成する。   As shown in FIG. 3, first, an image signal of one image taken by the camera 10 is input via the input unit 22, the image signal is converted into image data 41, stored in the RAM 23, and captured (step). S11). Then, the image data stored in the RAM 23 is subjected to image analysis to generate analysis data 42, and the analysis data 42 is stored in the RAM 23 (step S12). In step S12, for example, the number of persons in the image of the image data 41, the presence or absence of a fallen person, and the like are analyzed, and the analysis result is generated as analysis data 42.

そして、RAM23に格納された画像データ41及び解析データ42が合成されて合成データ43が生成されてRAM23に格納される(ステップS13)。ステップS13において、図4に示すように、画像データ41及び解析データ42が一つの合成データ43に合成される。合成データ43は、例えば、JPEG(Joint PhotographicExperts Group)方式の画像データであり、実画像データ部43Aとヘッダ部43Bとを含むものとする。   Then, the image data 41 and analysis data 42 stored in the RAM 23 are combined to generate combined data 43 and stored in the RAM 23 (step S13). In step S <b> 13, as shown in FIG. 4, the image data 41 and the analysis data 42 are combined into a single combined data 43. The composite data 43 is, for example, JPEG (Joint Photographic Experts Group) image data, and includes an actual image data portion 43A and a header portion 43B.

ヘッダ部43Bは、画像データの各種属性データを含み、またCOMセグメント43B1を含む。COMセグメント43B1は、アプリケーションが自由に使用できるよう開放されているデータ領域である。例えば、画像データ41がJPEG方式であり、又はJPEG方式に変換され、JPEG方式の画像データのCOMセグメント43B1に解析データ42が格納されて合成データ43が生成される。また、ステップS13において、任意の画像データ41及び解析データ42から成る合成データ43を後述する合成データ群44から検索可能なよう、画像番号等の識別情報が合成データ43に付与されてRAM23に格納される。   The header portion 43B includes various attribute data of the image data and also includes a COM segment 43B1. The COM segment 43B1 is a data area that is open so that applications can use it freely. For example, the image data 41 is in the JPEG format or converted to the JPEG format, and the analysis data 42 is stored in the COM segment 43B1 of the image data in the JPEG format to generate the synthesized data 43. In step S13, identification information such as an image number is added to the synthesized data 43 and stored in the RAM 23 so that the synthesized data 43 composed of arbitrary image data 41 and analysis data 42 can be searched from a synthesized data group 44 described later. Is done.

そして、RAM23に格納された1つの合成データ43が、少なくとも一つの合成データからなる合成データ群44に含められて記憶部25に記憶され(ステップS14)、ステップS11に移行される。また、ステップS14において、合成データ43が画像番号とともに合成データ群44に含められる。   Then, one composite data 43 stored in the RAM 23 is included in a composite data group 44 composed of at least one composite data and stored in the storage unit 25 (step S14), and the process proceeds to step S11. In step S14, the composite data 43 is included in the composite data group 44 together with the image number.

また、ステップS11〜S14の処理は、所定周期ごとに繰り返し実行される。この周期に応じて、合成データ43のフレームレートが決まる。例えば、合成データ43がおよそ5〜10[fps]で生成されるとすると、連続した合成データ43の再生により、不連続なモーションの画像再生が可能である。合成データ43がおよそ30[fps]で取得されるとすると、連続した合成データ43の再生により、動画再生が可能である。   Moreover, the process of step S11-S14 is repeatedly performed for every predetermined period. The frame rate of the composite data 43 is determined according to this cycle. For example, assuming that the synthesized data 43 is generated at about 5 to 10 [fps], it is possible to reproduce an image of discontinuous motion by reproducing the synthesized data 43 continuously. Assuming that the synthesized data 43 is acquired at approximately 30 [fps], a moving image can be reproduced by continuously reproducing the synthesized data 43.

次いで、合成データ提供処理を説明する。画像解析装置20において、例えば、電源オン操作や、図示しない操作部を介して合成データ提供処理実行の操作入力が受け付けられたこと等をトリガとして、記憶部25から読み出されてRAM23に適宜展開された合成データ提供プログラムと、CPU21との協働で合成データ提供処理が実行される。   Next, the composite data providing process will be described. In the image analysis device 20, for example, when read from the storage unit 25 as a trigger, for example, when a power-on operation or an operation input for executing composite data provision processing is received through an operation unit (not shown), the image analysis device 20 appropriately expands in the RAM 23. The combined data providing process is executed in cooperation with the combined data providing program and the CPU 21.

先ず、通信部24を介して表示端末30から、合成データ43の要求が受信されたか否かが判別される(ステップS21)。合成データ43の要求が受信されていない場合(ステップS21;NO)、ステップS21に移行される。合成データ43の要求が受信された場合(ステップS21;YES)、受信した要求内容が、ライブ(リアルタイム)の合成データの要求であるか、履歴の合成データの要求であるかが判別される(ステップS22)。   First, it is determined whether a request for the composite data 43 is received from the display terminal 30 via the communication unit 24 (step S21). When the request for the composite data 43 has not been received (step S21; NO), the process proceeds to step S21. When the request for the composite data 43 is received (step S21; YES), it is determined whether the received request content is a request for live (real-time) composite data or a request for historical composite data ( Step S22).

受信した要求内容が、ライブの合成データの要求である場合(ステップS22;ライブ)、RAM23に格納された1つの合成データ43が読み出され、通信部24によりその合成データが要求元の表示端末30に送信され(ステップS23)、ステップS21に移行される。ステップS23に対応して、表示端末30において、ライブの合成データ43が画像解析装置20から受信され、合成データ43の画像データと解析データ42とが分離されて、ライブの画像データ41の画像が解析データ42の画像とともに表示部(図示略)に表示される。   When the received request content is a request for live composite data (step S22; live), one composite data 43 stored in the RAM 23 is read out, and the composite data is displayed by the communication unit 24 as a request source display terminal. 30 (step S23), and the process proceeds to step S21. Corresponding to step S23, live composite data 43 is received from the image analysis device 20 at the display terminal 30, the image data of the composite data 43 and the analysis data 42 are separated, and an image of the live image data 41 is obtained. Along with the image of the analysis data 42, it is displayed on a display unit (not shown).

受信した要求内容が、履歴の合成データの要求である場合(ステップS22;履歴)、記憶部25に記憶された合成データ群44のうちの指定された画像番号に対応する合成データ43が読み出され、履歴の合成データとして通信部24により通信ネットワークNを介して要求元の表示端末30に送信され(ステップS24)、ステップS21に移行される。表示端末30から送信される履歴の合成データの要求には、要求対象の画像番号を指定する指定情報が含まれるものとする。ステップS24に対応して、表示端末30において、履歴の合成データ43が画像解析装置20から受信され、合成データ43の画像データと解析データ42とが分離されて、履歴の画像データ41の画像が解析データ42の画像とともに表示部(図示略)に表示される。   When the received request content is a request for history composite data (step S22; history), the composite data 43 corresponding to the designated image number in the composite data group 44 stored in the storage unit 25 is read. Then, the combined data of the history is transmitted to the requesting display terminal 30 via the communication network N by the communication unit 24 (step S24), and the process proceeds to step S21. It is assumed that the history composite data request transmitted from the display terminal 30 includes designation information for designating the image number to be requested. Corresponding to step S24, the display terminal 30 receives the history composite data 43 from the image analysis device 20, separates the image data of the composite data 43 and the analysis data 42, and the image of the history image data 41 becomes an image. Along with the image of the analysis data 42, it is displayed on a display unit (not shown).

なお、合成データ43をRAM23に格納して、ライブの合成データとして用いる構成としたが、これに限定されるものではない。例えば、合成データ生成処理のステップS13において合成データ43をRAM23に格納する処理を割愛し、合成データ提供処理のステップS23において合成データ群44のうち最新の合成データ43をライブの合成データ43として表示端末30に送信する構成としてもよい。   The composition data 43 is stored in the RAM 23 and used as live composition data. However, the present invention is not limited to this. For example, the process of storing the composite data 43 in the RAM 23 in step S13 of the composite data generation process is omitted, and the latest composite data 43 in the composite data group 44 is displayed as the live composite data 43 in step S23 of the composite data providing process. It is good also as a structure which transmits to the terminal 30. FIG.

以上、本実施の形態によれば、画像データ41とその画像データ41を解析した解析データ42とを含む合成データ43を生成し、合成データ43を合成データ群44として記憶部25に記憶する。このため、合成データ生成後のデータの扱いが簡素化され、従来の利用時に発生していた、画像データに紐付く解析データの検索に要する処理負担が軽減できる。また、物理的に管理が分かれた2つの情報間の整合を維持するためには、複雑な仕組みの準備と、処理的負担が発生するが、画像データと解析データとを合成することで、これらの整合を確保するための労力を不要にできる。さらに、画像データに解析データが合成されていることで、表示端末30のアプリケーションがそのデータ構造を理解していれば、解析データを利用した多様な表現が可能となる。   As described above, according to the present embodiment, the composite data 43 including the image data 41 and the analysis data 42 obtained by analyzing the image data 41 is generated, and the composite data 43 is stored in the storage unit 25 as the composite data group 44. For this reason, the handling of the data after the generation of the synthesized data is simplified, and the processing burden required for searching the analysis data associated with the image data, which has occurred during the conventional use, can be reduced. In addition, in order to maintain consistency between two pieces of information that are physically separated, preparation of a complicated mechanism and processing burden occur. However, by combining image data and analysis data, It is possible to eliminate the effort for ensuring the consistency of Furthermore, by combining the analysis data with the image data, various expressions using the analysis data are possible if the application of the display terminal 30 understands the data structure.

また、本実施の形態では、合成データ43をRAM23に格納してライブの合成データとして表示端末30に送信する。このため、RAM23に格納されたライブの合成データ43を表示端末30に提供でき、データ取得の手続きを簡単にでき、通信ネットワークNを介した通信手順を軽減できる。より具体的に述べると、表示端末30からライブの画像データ41とその画像データ41に関する解析データ42とを、画像解析装置から取得するケースにおいて、従来の方法では、表示端末30が次の2ステップを要する。
1)表示端末30がライブの画像データを入手する。
2)表示端末30が解析データを入手する。
一方、本実施の形態では、次の1ステップで完了する。
1)表示端末30がライブの合成データ(画像データ及び解析データが含まれる)を入手する。
In the present embodiment, the synthesized data 43 is stored in the RAM 23 and transmitted to the display terminal 30 as live synthesized data. Therefore, the live composite data 43 stored in the RAM 23 can be provided to the display terminal 30, the data acquisition procedure can be simplified, and the communication procedure via the communication network N can be reduced. More specifically, in the case where the live image data 41 and the analysis data 42 related to the image data 41 are acquired from the display terminal 30 from the image analysis apparatus, in the conventional method, the display terminal 30 performs the following two steps. Cost.
1) The display terminal 30 obtains live image data.
2) The display terminal 30 obtains analysis data.
On the other hand, in this embodiment, the process is completed in the following one step.
1) The display terminal 30 obtains live composite data (including image data and analysis data).

また、合成データ43を合成データ群44に含めて記憶部25に記憶し、記憶部25に保存された合成データ群44から指定された合成データ43を表示端末30に送信する。このため、記憶部25に記憶された合成データ群44から履歴の合成データ43を表示端末30に提供でき、解析データの検索手続きを不要にでき、画像解析装置の負担を軽減できる。具体的に述べると、表示端末30から過去の履歴の画像データと解析データとを取得するケースにおいて、従来の方法では、画像解析装置が次の2ステップを要する。
1)指定された画像データを提供する。
2)指定された解析データを検索し、提供する。
一方、本実施の形態では、次の1ステップで完了する。
1)指定された合成データ(画像データ及び対応する解析データが含まれる)を提供する。
Further, the composite data 43 is included in the composite data group 44 and stored in the storage unit 25, and the composite data 43 designated from the composite data group 44 stored in the storage unit 25 is transmitted to the display terminal 30. For this reason, the synthetic data 43 of the history can be provided to the display terminal 30 from the synthetic data group 44 stored in the storage unit 25, the analysis data search procedure can be eliminated, and the burden on the image analysis apparatus can be reduced. More specifically, in the case of acquiring past history image data and analysis data from the display terminal 30, in the conventional method, the image analysis apparatus requires the following two steps.
1) Provide specified image data.
2) Search and provide the specified analysis data.
On the other hand, in this embodiment, the process is completed in the following one step.
1) Provide designated composite data (including image data and corresponding analysis data).

また、合成データ43を合成データ群44に含めて記憶部25に記憶する。このため、データ管理を簡略化でき、画像解析装置20の負担を軽減できる。より具体的に述べると、画像解析装置20上のリソース(記憶部25:メモリ、ハードディスク等)の記憶領域は有限である。従って連続動作を要求される環境に於いては、あるタイミングで古い情報(画像データやそれに関する解析データ)を削除する必要がある。従来の方法では、画像解析装置が次の2ステップを要する。
1)最古の画像データを、記憶領域より削除する。
2)対応する解析データを検索し、これを記憶領域より削除する。
一方、本実施の形態では、次の1ステップで完了する。
1)最古の合成データ(画像データ及び解析データが含まれる)を、記憶部25の合成データ群44より削除する。
Further, the composite data 43 is included in the composite data group 44 and stored in the storage unit 25. For this reason, data management can be simplified and the burden of the image analysis apparatus 20 can be reduced. More specifically, the storage area of resources (storage unit 25: memory, hard disk, etc.) on the image analysis apparatus 20 is finite. Therefore, in an environment where continuous operation is required, it is necessary to delete old information (image data and analysis data related thereto) at a certain timing. In the conventional method, the image analysis apparatus requires the following two steps.
1) The oldest image data is deleted from the storage area.
2) Search corresponding analysis data and delete it from the storage area.
On the other hand, in this embodiment, the process is completed in the following one step.
1) The oldest composite data (including image data and analysis data) is deleted from the composite data group 44 in the storage unit 25.

また、画像データ41とその画像データ41を解析した解析データ42とを含む合成データ43を表示端末30に送信する。このため、利用者側のデータ管理を簡略化できる。より具体的に述べると、表示端末30のように、画像解析装置から取得した画像データ(画像データ及び解析データから成る合成データ)を利用する側で、これらを保存管理するケースを考える。従来の方法であれば、次の仕組みを必要とした。
1)画像データの管理。
2)対応する解析データの管理。
3)1)と2)の関連を管理し、検索を可能とする仕組み。
一方、本実施の形態では、次の仕組みで管理が実現する。
1)画像データ(画像及び解析データから成る合成データ)の管理。
2)利用時に、画像データと解析データを分離する仕組み。
Further, the composite data 43 including the image data 41 and the analysis data 42 obtained by analyzing the image data 41 is transmitted to the display terminal 30. For this reason, data management on the user side can be simplified. More specifically, let us consider a case in which image data acquired from an image analysis device (composite data composed of image data and analysis data) is stored and managed as in the display terminal 30. The conventional method required the following mechanism.
1) Image data management.
2) Management of corresponding analysis data.
3) A mechanism that manages the relationship between 1) and 2) and enables search.
On the other hand, in the present embodiment, management is realized by the following mechanism.
1) Management of image data (composite data composed of images and analysis data).
2) A mechanism for separating image data and analysis data when used.

(変形例)
図5を参照して、上記実施の形態の変形例を説明する。本変形例は、上記実施の形態と画像データの画像解析方法が異なる例である。図5(a)に、人物行動解析・侵入解析の一例を示す。図5(b)に、混雑・人流解析の一例を示す。図5(c)に、車番解析・ラベル解析の一例を示す。図5(d)に、人物識別・マーケティングツールの一例を示す。図5(e)に、工場の検査工程の一例を示す。図5(f)に、赤外線カメラを用いた温度解析の一例を示す。図5(g)に、医療関連画像解析の一例を示す。図5(h)に、画像解析基本データの一例を示す。
(Modification)
A modification of the above embodiment will be described with reference to FIG. This modification is an example in which the image analysis method for image data is different from the above embodiment. FIG. 5A shows an example of human behavior analysis / intrusion analysis. FIG. 5B shows an example of congestion / human flow analysis. FIG. 5C shows an example of vehicle number analysis / label analysis. FIG. 5D shows an example of a person identification / marketing tool. FIG. 5E shows an example of a factory inspection process. FIG. 5F shows an example of temperature analysis using an infrared camera. FIG. 5G shows an example of medical-related image analysis. FIG. 5H shows an example of image analysis basic data.

上記実施の形態では、カメラ10を駅のプラットホームの撮影用に設置し、画像データ41の撮影画像内の人物の人数と倒れている人の有無とを解析する構成であったが、これに限定されるものではない。また、撮影場所は、駅のプラットホームに限定されるものではない。   In the above embodiment, the camera 10 is installed for photographing on the platform of the station, and the number of persons in the photographed image of the image data 41 and the presence / absence of a fallen person are analyzed. However, the present invention is not limited to this. Is not to be done. The shooting location is not limited to the station platform.

また、例えば、図5(a)に示すように、撮影画像内の人物行動や侵入を解析する人物行動解析・侵入解析の構成としてもよい。この場合、解析データとしては、人間の位置、サイズ、姿勢、移動方向、衣服の色、人数等のうち少なくとも1つを含み、さらに時刻等を含むものとしてもよい。「人物行動解析・侵入解析」の解析データを用いれば、例えば、連続する画像データ群の中に記録されている検出された人間の座標を用いて、その軌跡を可視化することができる。また、画像データ群のなかで特徴的な姿勢として記録されているもの、例えば転倒、屈み込みを含む画像データ(合成データ)だけ抽出することができる。同様に、移動方向に着目して逆行等の状態を含む画像データ(合成データ)だけ抽出することができる。   Further, for example, as shown in FIG. 5A, a configuration of a human behavior analysis / intrusion analysis for analyzing a human behavior or intrusion in a captured image may be adopted. In this case, the analysis data may include at least one of a human position, size, posture, movement direction, clothing color, number of people, and the like, and may further include time and the like. If the analysis data of “personal behavior analysis / intrusion analysis” is used, for example, the trajectory can be visualized using detected human coordinates recorded in a continuous image data group. Further, only image data recorded as a characteristic posture in the image data group, for example, image data (synthetic data) including falling and bending can be extracted. Similarly, it is possible to extract only image data (synthetic data) including a state such as retrograde focusing on the moving direction.

また、図5(b)に示すように、撮影画像内の人物の混雑状態や人物の流れを解析する「混雑・人流解析」を行う構成としてもよい。この場合、解析データとしては、人物の算出人数、立ち止まっている人数、人物の移動方向、直近の1時間の平均人数、状況を表現するキーワード(混み始め、大混雑など)等のうち少なくとも1つを含み、さらに時刻等を含むものとしてもよい。「混雑・人流解析」の解析データを用いれば、例えば、撮影画像から得られる情報のみならず、直近の1時間の平均人数というような過去の情報を同時に利用することができる。   Further, as shown in FIG. 5B, a configuration may be adopted in which “congestion / human flow analysis” is performed to analyze the congestion state of the person in the captured image and the flow of the person. In this case, the analysis data includes at least one of the calculated number of people, the number of people who are stopped, the direction of movement of the people, the average number of people in the last hour, the keyword expressing the situation (such as the start of congestion, large congestion), etc. It is good also as what contains time etc. further. If analysis data of “congestion / human flow analysis” is used, for example, not only information obtained from a captured image but also past information such as the average number of people in the most recent hour can be used at the same time.

また、図5(c)に示すように、撮影画像内の自動車等の車両の解析や撮影画像内のラベルを解析する「車番解析・ラベル解析」を行う構成としてもよい。この場合、解析データとしては、読み出した文字列(車番、ラベルの文字等)、車両の車種、カラー等のうち少なくとも1つを含み、さらに時刻等を含むものとしてもよい。「車番解析・ラベル解析」の解析データを用いれば、例えば、解析データと証拠写真との整合が即座に可能である。   Further, as shown in FIG. 5C, a configuration may be used in which “vehicle number analysis / label analysis” is performed to analyze a vehicle such as an automobile in a captured image and analyze a label in the captured image. In this case, the analysis data may include at least one of the read character string (vehicle number, label character, etc.), vehicle type, color, and the like, and may further include time and the like. By using the analysis data of “vehicle number analysis / label analysis”, for example, the analysis data and the evidence photo can be immediately matched.

また、図5(d)に示すように、撮影画像内の人物の識別や人物の傾向等を解析する「人物識別・マーケティングツール」の解析を行う構成としてもよい。この場合、解析データとしては、人物の特徴(めがね有無、年齢、性別等)、個人識別のための特徴量データ等のうち少なくとも1つを含み、さらに時刻等を含むものとしてもよい。「人物識別・マーケティングツール」の解析データを用いれば、例えば、解析データを用いて画像データを自動分類することが可能である。   Further, as shown in FIG. 5D, a configuration may be adopted in which analysis of a “person identification / marketing tool” for analyzing a person in the captured image, a person tendency, and the like is performed. In this case, the analysis data may include at least one of personal characteristics (presence / absence of glasses, age, gender, etc.), characteristic data for personal identification, and the like, and may further include time and the like. If the analysis data of “person identification / marketing tool” is used, for example, it is possible to automatically classify image data using the analysis data.

また、図5(e)に示すように、工場の撮影画像内のFA(Factory Automation)品質や検査に関する解析をする「FA品質検査」の解析を行う構成としてもよい。この場合、解析データとしては、検査結果(OK/NG等)、不良点数、不良理由(ごみ等)、不良の座標、サイズ等のうち少なくとも1つを含むものとしてよい。「FA品質検査」の解析データを用いれば、例えば、解析データの座標、サイズ等を用いて、不良箇所として記録された部分を自動的に拡大表示して見せることが可能である。   Further, as shown in FIG. 5 (e), a configuration may be adopted in which an analysis of “FA quality inspection” for analyzing FA (Factory Automation) quality and inspection in a photographed image of a factory is performed. In this case, the analysis data may include at least one of the inspection result (OK / NG, etc.), the number of defects, the reason for the defect (dust, etc.), the coordinates of the defect, the size, and the like. If analysis data of “FA quality inspection” is used, it is possible to automatically enlarge and display a portion recorded as a defective portion using the coordinates, size, etc. of the analysis data.

また、図5(f)に示すように、撮影画像内の対象物の温度解析をする「赤外線カメラを用いた温度解析」を行う構成としてもよい。この場合、解析データとしては、対象物である人物座標、サイズ、温度等のうち少なくとも1つを含み、さらに時刻等を含むものとしてもよい。「赤外線カメラを用いた温度解析」の解析データを用いれば、例えば、温度分布に実測値を重ねて表示することで具体的な値を即座に視認することが可能である。   Further, as shown in FIG. 5 (f), it may be configured to perform “temperature analysis using an infrared camera” for analyzing the temperature of an object in a captured image. In this case, the analysis data may include at least one of human coordinates, size, temperature, and the like, which are objects, and may further include time and the like. If analysis data of “temperature analysis using an infrared camera” is used, for example, it is possible to immediately recognize a specific value by displaying the measured value superimposed on the temperature distribution.

また、図5(g)に示すように、医療用の撮影画像内の解析をする「医療関連画像解析」を行う構成としてもよい。この場合、解析データとしては、部位(肺、胃、頭部等)、解析結果(問題有無等)、注意箇所(注意箇所の座標、大きさ)等のうち少なくとも1つを含み、さらに個人情報(氏名、年齢等)、時刻等を含むものとしてもよい。「医療関連画像解析」の解析データを用いれば、例えば、解析によって得られたデータ(解析結果等)と、システムの別系統から入力された付加情報(個人情報等)とを合わせて画像データに格納することで、画像データと個人情報との整合性が確保できる。また、例えば、注意箇所を自動的に拡大表示して見せることが可能である。   Further, as shown in FIG. 5G, a “medical-related image analysis” for analyzing a medical photographed image may be performed. In this case, the analysis data includes at least one of a part (lung, stomach, head, etc.), an analysis result (problem presence / absence, etc.), a caution location (coordinates and size of the caution location), and personal information. (Name, age, etc.), time, etc. may be included. If analysis data of “medical-related image analysis” is used, for example, data obtained by analysis (analysis result, etc.) and additional information (personal information, etc.) input from another system of the system are combined into image data. By storing, consistency between the image data and the personal information can be ensured. In addition, for example, it is possible to automatically enlarge and show the caution area.

また、図5(h)に示すように、「人物行動解析・侵入解析」、「混雑・人流解析」等の他の画像解析方法で更にあればいいデータ(基本データ)を解析する「画像解析基本データ」の解析を行う構成としてもよい。この場合、解析データとしては、撮影画像の平均輝度値、RGBの平均値等の少なくとも一つを含むものとしてよい。「画像解析基本データ」の解析データを用いれば、例えば、前述の様々な画像解析を行う際に算出される、基本データを解析データとして保存することで、これらの解析データを上位層で再利用できる。   In addition, as shown in FIG. 5 (h), “image analysis that analyzes further data (basic data) by other image analysis methods such as“ human behavior analysis / intrusion analysis ”,“ congestion / human flow analysis ”, etc. It may be configured to analyze “basic data”. In this case, the analysis data may include at least one of the average luminance value of the captured image, the average value of RGB, and the like. Using the analysis data of “Image analysis basic data”, for example, by saving the basic data calculated as the above-mentioned various image analysis as analysis data, these analysis data can be reused in higher layers. it can.

なお、上記実施の形態及び変形例における記述は、本発明に係る画像解析装置及び画像解析システムの一例であり、これに限定されるものではない。   Note that the descriptions in the above-described embodiments and modifications are examples of the image analysis apparatus and the image analysis system according to the present invention, and the present invention is not limited thereto.

その他、上記実施の形態及び変形例における画像解析装置及び画像解析システムの細部構成及び詳細動作に関しても、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the image analysis apparatus and the image analysis system in the above-described embodiments and modifications can be changed as appropriate without departing from the spirit of the present invention.

本発明に係る実施の形態の画像監視システムを示す図である。1 is a diagram showing an image monitoring system according to an embodiment of the present invention. 画像解析装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image analyzer. 合成データ生成処理及び合成データ送信処理を示すフローチャートである。It is a flowchart which shows a synthetic data generation process and a synthetic data transmission process. 合成データ群生成の手順を示す図である。It is a figure which shows the procedure of synthetic | combination data group production | generation. (a)は、人物行動解析・侵入解析の一例を示す図である。(b)は、混雑・人流解析の一例を示す図である。(c)は、車番解析・ラベル解析の一例を示す図である。(d)は、人物識別・マーケティングツールの一例を示す図である。(e)は、工場の検査工程の一例を示す図である。(f)は、赤外線カメラを用いた温度解析の一例を示す図である。(g)は、医療関連画像解析の一例を示す図である。(h)は、画像解析基本データの一例を示す図である。(A) is a figure showing an example of person action analysis and intrusion analysis. (B) is a figure which shows an example of congestion and a human flow analysis. (C) is a figure showing an example of car number analysis and label analysis. (D) is a figure which shows an example of a person identification and marketing tool. (E) is a figure which shows an example of the inspection process of a factory. (F) is a figure showing an example of temperature analysis using an infrared camera. (G) is a figure which shows an example of a medical relevant image analysis. (H) is a figure which shows an example of image analysis basic data. 従来の画像監視システムの構成を示す図である。It is a figure which shows the structure of the conventional image monitoring system.

符号の説明Explanation of symbols

1,2 画像監視システム
10 カメラ
20,20A 画像解析装置
21 CPU
21A 制御部
22 入力部
23 RAM
24 通信部
25 記憶部
26 バス
30 表示端末
N 通信ネットワーク
1, 2 Image monitoring system 10 Camera 20, 20A Image analysis device 21 CPU
21A Control unit 22 Input unit 23 RAM
24 communication unit 25 storage unit 26 bus 30 display terminal N communication network

Claims (4)

記憶手段と、
画像データを画像解析して解析データを生成し、当該解析データを前記画像データに合成して合成データを生成し、当該生成した合成データを前記記憶手段に記憶する制御手段と、を備える画像解析装置。
Storage means;
Image analysis comprising image analysis of image data to generate analysis data, synthesis of the analysis data with the image data to generate synthesis data, and storage of the generated synthesized data in the storage unit apparatus.
外部機器と通信する通信手段を備え、
前記制御手段は、前記生成された少なくとも一つの合成データを含む合成データ群を前記記憶手段に記憶し、当該記憶手段に記憶された合成データ群のうち指定された合成データを前記通信手段を介して前記外部機器に送信する請求項1に記載の画像解析装置。
A communication means for communicating with an external device;
The control means stores a composite data group including the generated at least one composite data in the storage means, and specifies designated composite data among the composite data groups stored in the storage means via the communication means. The image analysis apparatus according to claim 1, wherein the image analysis apparatus transmits the image to the external device.
前記制御手段は、前記生成された合成データを前記通信手段を介して前記外部機器に送信する請求項2に記載の画像解析装置。   The image analysis apparatus according to claim 2, wherein the control unit transmits the generated composite data to the external device via the communication unit. 請求項2又は3に記載の画像解析装置と、
前記外部機器と、を備え、
前記制御手段は、前記外部機器から送信される合成データの要求に応じて前記通信手段を介して合成データを要求元の外部機器に送信する画像解析システム。
The image analysis apparatus according to claim 2 or 3,
The external device,
The control means is an image analysis system for transmitting composite data to a requesting external device via the communication means in response to a request for composite data transmitted from the external device.
JP2007300628A 2007-11-20 2007-11-20 Image analysis apparatus and image analysis system Pending JP2009129006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007300628A JP2009129006A (en) 2007-11-20 2007-11-20 Image analysis apparatus and image analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007300628A JP2009129006A (en) 2007-11-20 2007-11-20 Image analysis apparatus and image analysis system

Publications (1)

Publication Number Publication Date
JP2009129006A true JP2009129006A (en) 2009-06-11

Family

ID=40819900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007300628A Pending JP2009129006A (en) 2007-11-20 2007-11-20 Image analysis apparatus and image analysis system

Country Status (1)

Country Link
JP (1) JP2009129006A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017120657A (en) * 2017-03-09 2017-07-06 株式会社ニコン Information management device, data analysis device, signal apparatus, server, information management system, and program
US10977938B2 (en) 2010-08-06 2021-04-13 Nikon Corporation Signal control apparatus and signal having the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977938B2 (en) 2010-08-06 2021-04-13 Nikon Corporation Signal control apparatus and signal having the same
JP2017120657A (en) * 2017-03-09 2017-07-06 株式会社ニコン Information management device, data analysis device, signal apparatus, server, information management system, and program

Similar Documents

Publication Publication Date Title
US9560323B2 (en) Method and system for metadata extraction from master-slave cameras tracking system
JP6814673B2 (en) Movement route prediction device and movement route prediction method
JP5730518B2 (en) Specific person detection system and specific person detection method
US20160014378A1 (en) Identifying spatial locations of events within video image data
US8495188B2 (en) Sensor information management system, sensor information management method, and computer-readable storage medium
WO2018037631A1 (en) Tracking assistance device, tracking assistance system and tracking assistance method
JP2009169768A (en) Information processor and program
US20110096994A1 (en) Similar image retrieval system and similar image retrieval method
TW201108124A (en) Coding scheme for identifying spatial locations of events within video image data
WO2018122895A1 (en) Image processing device, image processing method, image processing program, and image monitoring system
JP6203188B2 (en) Similar image search device
JP2009123196A (en) Image retrieval device
JP6381265B2 (en) Information processing apparatus, display method, and program
CN108289201B (en) Video data processing method and device and electronic equipment
JP6788235B1 (en) Information management system, information management method
JP6234146B2 (en) RECORDING CONTROL DEVICE, RECORDING CONTROL METHOD, AND PROGRAM
EP3975133A1 (en) Processing of images captured by vehicle mounted cameras
US11979660B2 (en) Camera analyzing images on basis of artificial intelligence, and operating method therefor
JP2006093955A (en) Video processing apparatus
JP2008016896A (en) Monitoring apparatus and monitoring method
JP2009129006A (en) Image analysis apparatus and image analysis system
JP2006332789A (en) Video photographing method, apparatus, and program, and storage medium for storing the program
US11042274B2 (en) Extracting demonstrations from in-situ video content
JP6747603B2 (en) Monitoring support device and monitoring support system
JP2022036825A (en) Image processing device, image processing method, and program