JP2012084077A - Information display device and information display program - Google Patents

Information display device and information display program Download PDF

Info

Publication number
JP2012084077A
JP2012084077A JP2010231816A JP2010231816A JP2012084077A JP 2012084077 A JP2012084077 A JP 2012084077A JP 2010231816 A JP2010231816 A JP 2010231816A JP 2010231816 A JP2010231816 A JP 2010231816A JP 2012084077 A JP2012084077 A JP 2012084077A
Authority
JP
Japan
Prior art keywords
information
imaging
display
unit
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010231816A
Other languages
Japanese (ja)
Other versions
JP5668405B2 (en
Inventor
Kouko Niino
公香 新納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2010231816A priority Critical patent/JP5668405B2/en
Publication of JP2012084077A publication Critical patent/JP2012084077A/en
Application granted granted Critical
Publication of JP5668405B2 publication Critical patent/JP5668405B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information display device which can easily recognize imaging content in relation to a range or the like set within the imaging range.SOLUTION: An information display device includes a display 4. In the information display device, imaging information obtained by imaging a preset imaging range using a camera 1 is acquired. A processing range included in the imaging range is set. Based on the imaging information corresponding to the set processing range, graphics corresponding to imaging content of the imaging information is created. The information display device also includes a control unit 2 for allowing the created graphics to be displayed on the display 4, brought into correspondence with the processing range corresponding to the imaging information of the imaging content corresponding to the graphics.

Description

本発明は、情報表示装置及び情報表示用プログラムの技術分野に属する。より詳細には、カメラ等の撮像装置を用いて撮像された撮像情報の内容を表示する情報表示装置及び当該情報表示に用いられる情報表示用プログラムの技術分野に属する。   The present invention belongs to the technical field of information display devices and information display programs. More specifically, the present invention belongs to the technical field of an information display device that displays the contents of imaging information captured using an imaging device such as a camera, and an information display program used for the information display.

従来、例えば商店等内における顧客の移動態様を所定の時間撮像することで、例えばその店舗における効率的な商品展示を検討する際の検討材料とすることが行われている。このとき、その移動態様を撮像して得られる画像を表示する際には、その画像に対応する種々の文字情報等を併せて表示することも行われている。ここで、画像に対応する文字情報等をその画像と共に表示する技術としては、例えば下記特許文献1に開示されている技術がある。この特許文献1に開示されている技術では、撮像位置から見た被写体までの距離を示す距離情報に基づいて、夫々の被写体に対応する文字情報等の表示態様を変化させている。   2. Description of the Related Art Conventionally, for example, by taking an image of a movement mode of a customer in a store or the like for a predetermined time, for example, it is used as a study material when considering an efficient product display in the store. At this time, when displaying an image obtained by imaging the movement mode, various character information corresponding to the image is also displayed. Here, as a technique for displaying character information and the like corresponding to an image together with the image, for example, there is a technique disclosed in Patent Document 1 below. In the technique disclosed in Patent Document 1, the display mode of character information and the like corresponding to each subject is changed based on distance information indicating the distance from the imaging position to the subject viewed.

特開2009−230431号公報(第2図乃至第6図及び第8図乃至第11図等)JP 2009-230431 A (FIGS. 2 to 6 and FIGS. 8 to 11 etc.)

しかしながら、上記特許文献1に開示されている技術において被写体と共に表示される文字情報等自体の内容は任意なものであり、特許文献1に開示されている技術においては、被写体の状態や態様に応じて文字情報等の内容を変更することは考慮されていない。更に特許文献1に開示されている技術では、一枚の画像内に映し出されている被写体の夫々について対応する文字情報等を単に表示しているのみであり、その画像内の範囲や領域を考慮して被写体とそれに対応する文字情報等を表示するものではない。従って、特許文献1に開示されている技術を上述したような検討材料用の画像分析に適用しても、所望の分析結果を得ることができないという問題点がある。   However, in the technique disclosed in Patent Document 1, the content of text information and the like displayed together with the subject is arbitrary, and in the technique disclosed in Patent Document 1, depending on the state and form of the subject. Therefore, it is not considered to change the contents such as character information. Furthermore, the technique disclosed in Patent Document 1 merely displays the corresponding character information and the like for each of the subjects displayed in one image, and considers the range and area in the image. Thus, the subject and the character information corresponding to the subject are not displayed. Therefore, even if the technique disclosed in Patent Document 1 is applied to the image analysis for the examination material as described above, there is a problem that a desired analysis result cannot be obtained.

そこで、本発明は上記の問題点に鑑みて為されたもので、その課題は、撮像範囲内に設定される範囲等との関係で撮像内容を容易に認識することが可能な情報表示装置及び当該情報表示に用いられる情報表示用プログラムを提供することにある。   Therefore, the present invention has been made in view of the above-described problems, and the problem is that an information display device capable of easily recognizing captured content in relation to a range set within the captured range and the like. The object is to provide an information display program used for the information display.

上記の課題を解決するために、請求項1に記載の発明は、ディスプレイ等の表示手段と、予め設定された撮像範囲をカメラ等の撮像手段を用いて撮像して得られた撮像情報を取得する取得手段と、前記撮像範囲に含まれる処理範囲を設定する制御装置等の設定手段と、前記設定された処理範囲に対応する前記撮像情報に基づき、当該撮像情報の撮像内容に対応した副情報を生成する制御装置等の生成手段と、前記生成された副情報を、当該副情報が対応する前記撮像内容の前記撮像情報が対応する前記処理範囲に対応させて前記表示手段に表示させる制御装置等の表示制御手段と、を備える。   In order to solve the above problem, the invention according to claim 1 acquires imaging information obtained by imaging a display unit such as a display and a preset imaging range using an imaging unit such as a camera. Sub-information corresponding to the imaging content of the imaging information based on the imaging information corresponding to the acquisition means, the setting means such as a control device for setting the processing range included in the imaging range, and the imaging information corresponding to the set processing range And a control device for displaying the generated sub-information on the display unit in correspondence with the processing range corresponding to the imaging information of the imaging content corresponding to the sub-information. Display control means.

請求項1に記載の発明によれば、撮像範囲に含まれる処理範囲に対応する撮像情報に基づいて生成された副情報を、それが対応する撮像内容の撮像情報が対応する処理範囲に対応させて表示させるので、処理範囲に対応する撮像情報の撮像内容を、副情報を用いて容易に認識可能に表示させることができる。   According to the first aspect of the present invention, the sub-information generated based on the imaging information corresponding to the processing range included in the imaging range is made to correspond to the processing range corresponding to the imaging information of the imaging content corresponding to the sub-information. Therefore, the imaging content of the imaging information corresponding to the processing range can be displayed easily and recognizable using the sub information.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に情報表示装置において、前記表示制御手段は、前記生成された副情報を、当該副情報が対応する前記撮像内容の前記撮像情報と共に前記表示手段に表示させるように構成される。   In order to solve the above-mentioned problem, the invention according to claim 2 is the information display device according to claim 1, wherein the display control unit is configured to capture the generated sub-information with respect to the imaging content corresponding to the sub-information. It is comprised so that it may display on the said display means with the said imaging information.

請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、副情報が対応する撮像内容の撮像情報と共にその副情報を表示手段に表示させるので、処理範囲に対応する撮像情報の撮像内容をより容易に認識可能に表示させることができる。   According to the second aspect of the invention, in addition to the operation of the first aspect of the invention, the sub information is displayed on the display unit together with the imaging information of the imaging content corresponding to the sub information, so that it corresponds to the processing range. The imaging content of the imaging information to be displayed can be displayed more easily and recognizable.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は請求項2に記載の情報表示装置において、前記撮像範囲には、移動体が移動する場所が含まれており、前記撮像情報は、当該場所を含む前記撮像範囲を前記撮像手段が撮像して得られた撮像情報であり、前記生成手段は、当該撮像情報に基づいて、前記移動体の数である移動体数を前記処理範囲ごとに検出する制御装置等の移動体数検出手段を備え、前記生成手段は、前記検出された移動体数を示す移動体数情報を含む前記処理範囲毎の前記副情報を生成し、前記表示制御手段は、前記生成された副情報を、当該副情報が対応する前記処理範囲ごとに前記表示手段に表示させるように構成される。   In order to solve the above-mentioned problem, the invention according to claim 3 is the information display device according to claim 1 or 2, wherein the imaging range includes a place where the moving body moves. The imaging information is imaging information obtained by the imaging unit imaging the imaging range including the location, and the generation unit is the number of moving bodies based on the imaging information. A moving body number detecting means such as a control device for detecting the number for each processing range, wherein the generating means stores the sub information for each processing range including moving body number information indicating the detected number of moving bodies. The display control means is configured to generate and display the generated sub information on the display means for each processing range corresponding to the sub information.

請求項3に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、移動体が移動する場所を含む撮像範囲に対応する撮像情報に基づいて移動体数情報を含む副情報を処理範囲ごとに生成して表示させるので、撮像範囲内の処理範囲毎の移動体の通行数を容易に認識可能に表示させることができる。   According to the invention described in claim 3, in addition to the operation of the invention described in claim 1 or 2, the moving body number information based on the imaging information corresponding to the imaging range including the place where the moving body moves. Is generated and displayed for each processing range, so that the number of passes of the moving body for each processing range within the imaging range can be displayed easily and recognizable.

上記の課題を解決するために、請求項4に記載の発明は、請求項3に記載の情報表示装置において、前記表示制御手段は、異なる前記移動体数を示す前記移動体数情報を含む前記副情報が対応する前記処理範囲同士を、当該異なる移動体数に対応した異なる表示態様にて前記表示手段に表示させるように構成される。   In order to solve the above-mentioned problem, the invention according to claim 4 is the information display device according to claim 3, wherein the display control means includes the moving body number information indicating the different moving body numbers. The processing ranges corresponding to the sub information are configured to be displayed on the display unit in different display modes corresponding to the different numbers of moving bodies.

請求項4に記載の発明によれば、請求項3に記載の発明の作用に加えて、異なる移動体数を示す移動体数情報を含む副情報が対応する処理範囲同士を、当該異なる移動体数に対応した異なる表示態様にて表示手段に表示させるので、ある移動体数に対応する処理範囲を、その移動体数と異なる移動体数に対応する他の処理範囲と区別して認識可能に表示させることができる。   According to invention of Claim 4, in addition to the effect | action of invention of Claim 3, the processing range which the sub-information containing the moving body number information which shows the different moving body number respond | corresponds to the said different moving body. Since the display means displays in a different display mode corresponding to the number, the processing range corresponding to a certain number of moving objects is displayed so as to be distinguishable from other processing ranges corresponding to the number of moving objects different from the number of moving objects. Can be made.

上記の課題を解決するために、請求項5に記載の発明は、請求項3又は請求項4に記載の情報表示装置において、前記処理範囲のいずれかを前記表示手段上において選択するために用いられる操作部等の選択手段を更に備え、前記表示制御手段は、前記選択手段により選択された前記処理範囲に対応する前記副情報を前記表示手段に表示させるように構成される。   In order to solve the above-mentioned problem, the invention according to claim 5 is the information display device according to claim 3 or 4, which is used to select one of the processing ranges on the display means. The display control means is configured to display the sub information corresponding to the processing range selected by the selection means on the display means.

請求項5に記載の発明によれば、請求項3又は請求項4に記載の発明の作用に加えて、選択手段により選択された処理範囲に対応する副情報を表示させるので、使用者の意図に沿った適切なタイミングで、副情報の表示が所望される処理範囲の当該副情報を認識可能に表示させることができる。   According to the invention described in claim 5, in addition to the operation of the invention described in claim 3 or claim 4, the sub information corresponding to the processing range selected by the selection means is displayed. It is possible to display the sub information in a recognizable range within a processing range where the sub information is desired to be displayed at an appropriate timing.

上記の課題を解決するために、請求項6に記載の発明は、請求項5に記載の情報表示装置において、前記表示制御手段は、前記選択手段により選択された前記処理範囲に対応する前記副情報を、他の前記処理範囲に対応する前記副情報よりも強調して前記表示手段に表示させるように構成される。   In order to solve the above-mentioned problem, an invention according to claim 6 is the information display device according to claim 5, wherein the display control means corresponds to the sub-range corresponding to the processing range selected by the selection means. Information is configured to be displayed on the display unit with emphasis over the sub information corresponding to the other processing ranges.

請求項6に記載の発明によれば、請求項5に記載の発明の作用に加えて、選択された処理範囲に対応する副情報を、他の処理範囲に対応する副情報よりも強調して表示させるので、副情報の表示が所望される処理範囲の当該副情報を容易に認識可能に表示させることができる。   According to the invention described in claim 6, in addition to the operation of the invention described in claim 5, the sub information corresponding to the selected processing range is emphasized more than the sub information corresponding to the other processing ranges. Since the sub information is displayed, the sub information in the processing range in which the sub information is desired to be displayed can be easily recognizable.

上記の課題を解決するために、請求項7に記載の発明は、請求項1又は請求項2に記載の情報表示装置において、前記撮像範囲には、移動体が移動する場所が含まれており、前記撮像情報は、当該場所を含む前記撮像範囲を前記撮像手段が撮像して得られた撮像情報であり、前記生成手段は、当該撮像情報に基づいて、前記処理範囲に対する前記移動体の移動態様を時系列的に検出する制御装置等の移動態様検出手段を備え、前記生成手段は、前記時系列的に検出された移動態様を示す移動態様情報を含む前記副情報を生成し、前記表示制御手段は、前記生成された副情報を前記処理範囲に対応付けて時系列的に前記表示手段に表示させるように構成される。   In order to solve the above problem, the invention according to claim 7 is the information display device according to claim 1 or 2, wherein the imaging range includes a place where the moving body moves. The imaging information is imaging information obtained by the imaging unit imaging the imaging range including the location, and the generation unit moves the moving body with respect to the processing range based on the imaging information. A movement mode detection unit such as a control device that detects modes in time series is provided, wherein the generation unit generates the sub-information including movement mode information indicating the movement modes detected in time series, and displays the display The control unit is configured to display the generated sub information on the display unit in time series in association with the processing range.

請求項7に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、移動体が移動する場所を含む撮像範囲に対応する撮像情報に基づいて移動態様情報を含む副情報を生成して時系列的に表示させるので、撮像範囲内の移動態様を時系列に沿って容易に認識可能に表示させることができる。   According to the invention described in claim 7, in addition to the operation of the invention described in claim 1 or 2, the movement mode information is obtained based on the imaging information corresponding to the imaging range including the place where the moving body moves. Since the sub-information including it is generated and displayed in time series, the movement mode within the imaging range can be displayed easily and recognizable along the time series.

上記の課題を解決するために、請求項8に記載の発明は、請求項7に記載の情報表示装置において、前記移動態様検出手段は、前記処理範囲の縁に前記移動体が到達したか否かを検出し、前記表示制御手段は、前記縁に前記移動体が到達したことが検出されたとき、当該到達した移動体の前記移動態様を示す前記移動態様情報を含む前記副情報を前記処理範囲に対応付けて時系列的に前記表示手段に表示させるように構成される。   In order to solve the above-mentioned problem, the invention according to claim 8 is the information display device according to claim 7, wherein the moving mode detecting means determines whether the moving body has reached the edge of the processing range. When the display control means detects that the moving body has reached the edge, the display control means processes the sub-information including the movement mode information indicating the moving mode of the reached moving body. The display unit is configured to display in time series in association with the range.

請求項8に記載の発明によれば、請求項7に記載の発明の作用に加えて、処理範囲の縁に移動体が到達したことが検出されたとき、当該到達した移動体の移動態様を示す移動態様情報を含む副情報を時系列的に表示させるので、設定された処理範囲に対する移動体の移動態様を容易に認識可能に表示することができる。   According to the invention described in claim 8, in addition to the action of the invention described in claim 7, when it is detected that the moving body has reached the edge of the processing range, the moving mode of the reached moving body is changed. Since the sub information including the movement mode information to be displayed is displayed in time series, the movement mode of the moving body with respect to the set processing range can be displayed easily and recognizable.

上記の課題を解決するために、請求項9に記載の発明は、請求項8に記載の情報表示装置において、前記移動態様検出手段は、前記移動体の移動方向又は当該移動体の前記処理範囲に対する進入方向の少なくともいずれか一つを前記移動態様として時系列的に検出し、前記生成手段は、検出された前記少なくともいずれか一つを示す前記移動態様情報を含む前記副情報を生成するように構成される。   In order to solve the above-mentioned problem, the invention according to claim 9 is the information display device according to claim 8, wherein the movement mode detection means is a moving direction of the moving body or the processing range of the moving body. At least one of the entry directions to the vehicle is detected in time series as the movement mode, and the generation unit generates the sub-information including the movement mode information indicating the detected at least one of the movement directions. Configured.

請求項9に記載の発明によれば、請求項8に記載の発明の作用に加えて、移動体の移動方向又は処理範囲に対する進入方向の少なくともいずれか一つを示す移動態様情報を含む副情報を生成して時系列的に表示させるので、移動体の移動方向等を具体的に認識可能に表示させることができる。   According to the ninth aspect of the invention, in addition to the action of the eighth aspect of the invention, the sub information including movement mode information indicating at least one of the moving direction of the moving body or the approach direction with respect to the processing range. Is generated and displayed in time series, so that the moving direction of the moving body can be displayed in a specifically recognizable manner.

上記の課題を解決するために、請求項10に記載の発明は、表示手段を備えた情報表示装置に含まれるコンピュータを、請求項1から請求項9のいずれか一項に記載の前記取得手段、前記設定手段、前記生成手段、及び、前記表示制御手段、として機能させる。   In order to solve the above-mentioned problem, the invention described in claim 10 is characterized in that a computer included in an information display device provided with a display means is stored in the acquisition means according to any one of claims 1 to 9. , Function as the setting means, the generation means, and the display control means.

請求項10に記載の発明によれば、撮像範囲に含まれる処理範囲に対応する撮像情報に基づいて生成された副情報を、それが対応する撮像内容の撮像情報が対応する処理範囲に対応させて表示させるようにコンピュータが機能するので、処理範囲に対応する撮像情報の撮像内容を、副情報を用いて容易に認識可能に表示させることができる。   According to the invention described in claim 10, the sub-information generated based on the imaging information corresponding to the processing range included in the imaging range is made to correspond to the processing range corresponding to the imaging information corresponding to the imaging content. Since the computer functions so as to be displayed, the imaging content of the imaging information corresponding to the processing range can be displayed easily and recognizable using the sub information.

本発明によれば、撮像範囲に含まれる処理範囲に対応する撮像情報に基づいて生成された副情報を、それが対応する撮像内容の撮像情報が対応する処理範囲に対応させて表示させるので、処理範囲に対応する撮像情報の撮像内容を、副情報を用いて容易に認識可能に表示させることができる。   According to the present invention, the sub information generated based on the imaging information corresponding to the processing range included in the imaging range is displayed in correspondence with the processing range corresponding to the imaging information of the imaging content corresponding to the sub-information. The imaging content of the imaging information corresponding to the processing range can be displayed so as to be easily recognizable using the sub information.

従って、処理範囲に対応した撮像内容の分析等に広く適用できる。   Therefore, the present invention can be widely applied to the analysis of imaging contents corresponding to the processing range.

第1実施形態に係る情報表示装置の概要構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an information display device according to a first embodiment. 第1実施形態に係る制御装置の処理を示すフローチャートであり、(a)は全体処理を示すフローチャートであり、(b)は初期設定処理の細部を示すフローチャートである。(c)は動体数算出処理の細部を示すフローチャートであり、(d)はグラフィック情報作成処理の細部を示すフローチャートである。It is a flowchart which shows the process of the control apparatus which concerns on 1st Embodiment, (a) is a flowchart which shows the whole process, (b) is a flowchart which shows the detail of an initial setting process. (C) is a flowchart showing details of the moving object number calculation process, and (d) is a flowchart showing details of the graphic information creation process. 第1実施形態に係る表示例を示す図であり、(a)は第一の表示例を示す図であり、(b)は第二の表示例を示す図である。It is a figure which shows the example of a display which concerns on 1st Embodiment, (a) is a figure which shows a 1st display example, (b) is a figure which shows a 2nd example of a display. 第2実施形態に係る制御装置の処理を示すフローチャートであり、(a)は全体処理を示すフローチャートであり、(b)は初期設定処理の細部を示すフローチャートである。(c)は進入判定処理の細部を示すフローチャートであり、(d)はグラフィック情報作成処理の細部を示すフローチャートである。It is a flowchart which shows the process of the control apparatus which concerns on 2nd Embodiment, (a) is a flowchart which shows the whole process, (b) is a flowchart which shows the detail of an initial setting process. (C) is a flowchart showing details of the entry determination process, and (d) is a flowchart showing details of the graphic information creation process. 第2実施形態に係る表示例等を示す図であり、(a)は表示領域における座標を例示する図であり、(b)は表示例を示す図である。It is a figure which shows the example of a display concerning 2nd Embodiment, (a) is a figure which illustrates the coordinate in a display area, (b) is a figure which shows a display example.

次に、本発明を実施するための形態について、図面に基づいて説明する。なお、以下に説明する各実施形態は、例えば商店等内に設定された撮像範囲おける顧客の移動態様を撮像して表示する情報表示装置に対して本発明を適用した場合の実施の形態である。   Next, modes for carrying out the present invention will be described based on the drawings. In addition, each embodiment described below is an embodiment when the present invention is applied to an information display device that captures and displays a movement mode of a customer in an imaging range set in a store or the like, for example. .

(I)第1実施形態
始めに、本発明に係る第1実施形態について、図1乃至図3を用いて説明する。なお、図1は第1実施形態に係る情報表示装置の概要構成を示すブロック図であり、図2は情報表示装置に含まれる制御装置の処理を示すフローチャートであり、図3は第1実施形態に係る表示例を示す図である。
(I) First Embodiment First, a first embodiment according to the present invention will be described with reference to FIGS. 1 is a block diagram showing a schematic configuration of the information display device according to the first embodiment, FIG. 2 is a flowchart showing processing of a control device included in the information display device, and FIG. 3 is a diagram showing the first embodiment. It is a figure which shows the example of a display concerning.

図1に示すように、第1実施形態に係る情報表示装置Sは、例えばCCD(Charge Coupled Device)等からなる撮像手段の一例としてのカメラ1と、具体的にはパーソナルコンピュータ等により実現される設定手段の一例、生成手段の一例、表示制御手段の一例、移動体数検出手段の一例及び移動態様検出手段の一例としての制御装置2と、例えば液晶ディスプレイ等からなる表示手段の一例としてのディスプレイ4と、例えばマウス及びキーボード等からなる選択手段の一例としての操作部5と、例えばハードディスク等からなるログ記録部3、グラフィック画像記録部6、解析結果記録部7及びグラフィック記録部8と、により構成されている。また制御装置2は、インターフェース20と、画像処理部21と、データ解析部22と、グラフィック作成部23と、により構成されている。なお上記画像処理部21、データ解析部22及びグラフィック作成部23は、具体的には上記パーソナルコンピュータ等に含まれるCPUが後述するフローチャートに対応するプログラムに基づいて動作することにより機能的に実現されるものである。またログ記録部3、グラフィック画像記録部6、解析結果記録部7及びグラフィック記録部8は、制御装置2とは別個の一つのサーバ装置内に備えられていても良い。   As shown in FIG. 1, the information display device S according to the first embodiment is realized by a camera 1 as an example of an imaging unit including, for example, a CCD (Charge Coupled Device), specifically, a personal computer or the like. An example of a setting unit, an example of a generation unit, an example of a display control unit, an example of a moving body number detection unit, an example of a movement mode detection unit, and a display as an example of a display unit including a liquid crystal display or the like 4 and, for example, an operation unit 5 as an example of a selection unit including a mouse and a keyboard, a log recording unit 3, a graphic image recording unit 6, an analysis result recording unit 7, and a graphic recording unit 8 including, for example, a hard disk. It is configured. The control device 2 includes an interface 20, an image processing unit 21, a data analysis unit 22, and a graphic creation unit 23. Note that the image processing unit 21, the data analysis unit 22, and the graphic creation unit 23 are functionally realized by a CPU included in the personal computer or the like operating based on a program corresponding to a flowchart described later. Is. The log recording unit 3, the graphic image recording unit 6, the analysis result recording unit 7, and the graphic recording unit 8 may be provided in a single server device that is separate from the control device 2.

これらの構成においてカメラ1は、例えば店舗の内部全体がその撮像範囲となるように設置されている。そしてカメラ1は、当該店舗内等を往来する顧客や従業員等の人の状態をその設置位置から定点的に撮像して撮像情報を生成し、インターフェース20に出力する。この撮像情報は、その撮像範囲を予め設定された時間撮像した動画像である。撮像範囲である店舗内等を往来する人は当該動画像内の動体として撮像される。この動体には、人以外に、当該店舗等内を移動する荷物や動物等が含まれ得る。次にインターフェース20は、出力されてきた撮像情報に対して予め設定された入力処理を実行し、画像処理部21に出力する。画像処理部21は、出力されてきた撮像情報に含まれている各動体に対して動体検出処理及び動体追跡処理を行い、各動体ごとにログデータを生成してログ記録部3に出力する。   In these configurations, the camera 1 is installed, for example, so that the entire interior of the store is in the imaging range. Then, the camera 1 captures the state of a person such as a customer or an employee who travels in the store from a fixed point, generates imaging information, and outputs it to the interface 20. This imaging information is a moving image obtained by imaging the imaging range for a preset time. A person who comes and goes in the store, which is the imaging range, is imaged as a moving object in the moving image. In addition to people, this moving object may include luggage, animals, and the like that move within the store. Next, the interface 20 executes a preset input process on the output imaging information and outputs it to the image processing unit 21. The image processing unit 21 performs a moving object detection process and a moving object tracking process on each moving object included in the output imaging information, generates log data for each moving object, and outputs the log data to the log recording unit 3.

次に、画像処理部21において実行される上記動体検出処理及び動体追跡処理について説明する。これらの処理はいずれも、従来の動体検出処理及び動体追跡処理と同様の処理である。動体検出処理では撮像範囲内を移動する動体が検出され、動体追跡処理ではその検出された動体を、その移動に伴って追跡する処理が実行される。   Next, the moving object detection process and the moving object tracking process executed in the image processing unit 21 will be described. All of these processes are similar to the conventional moving object detection process and moving object tracking process. In the moving object detection process, a moving object that moves within the imaging range is detected, and in the moving object tracking process, a process of tracking the detected moving object with the movement is executed.

即ち、先ず画像処理部21においては、上記撮像範囲の一部又は全体が監視領域として設定されている。この監視領域としての撮像範囲内の位置を示す監視領域座標並びにその監視領域の大きさを示す幅情報及び高さ情報は、監視領域情報として画像処理部21内に予め設定されている。これにより画像処理部21は、撮像範囲内を移動する動体を撮像情報から検出し、その動体を検出した時刻を示す時刻情報、その検出した動体の監視領域内における位置を示す座標情報及びその動体自体を他の動体から識別するための動体識別情報を生成する。これら生成された時刻情報、座標情報及び動体識別情報並びに上記監視領域情報は、ログデータとしてログ記録部3に出力されて不揮発性に記録される。更に画像処理部21は、一旦検出した動体についてはその移動を追跡し、予め設定された時間間隔ごとに上記時刻情報、座標情報及び動体識別情報を生成し、これらと上記監視領域情報とを含む上記ログデータをその動体の移動に伴って継続的に生成/出力してログ記録部3に記録させる。なお監視領域から一旦出た後再度監視領域内に進入してきた動体は、動体自体としては同一であっても、動体検出処理等上は別個の動体として扱われる。以上の画像処理部21による各処理により、撮像情報内に含まれている各動体の移動態様を示すログデータが、各動体ごとにログ記録部3に逐次蓄積される。   That is, first, in the image processing unit 21, a part or the whole of the imaging range is set as a monitoring area. The monitoring area coordinates indicating the position in the imaging range as the monitoring area, and the width information and the height information indicating the size of the monitoring area are preset in the image processing unit 21 as monitoring area information. Thereby, the image processing unit 21 detects a moving object moving within the imaging range from the imaging information, time information indicating the time when the moving object is detected, coordinate information indicating the position of the detected moving object in the monitoring area, and the moving object. The moving object identification information for identifying itself from other moving objects is generated. The generated time information, coordinate information, moving object identification information, and the monitoring area information are output as log data to the log recording unit 3 and recorded in a nonvolatile manner. Further, the image processing unit 21 tracks the movement of the moving object once detected, generates the time information, the coordinate information, and the moving object identification information at predetermined time intervals, and includes these and the monitoring area information. The log data is continuously generated / output as the moving object moves and recorded in the log recording unit 3. Note that a moving object that has once left the monitoring area and then enters the monitoring area again is treated as a separate moving object in the moving object detection process or the like, even if the moving object is the same as the moving object itself. By each process by the image processing unit 21 described above, log data indicating the movement mode of each moving object included in the imaging information is sequentially accumulated in the log recording unit 3 for each moving object.

ログ記録部3は、画像処理部21から出力されてきたログデータを逐次不揮発性に記録し、データ解析部22からの要求に応じて当該データ解析部22に出力する。次にデータ解析部22は、カメラ1により撮像された画像の解析処理として、ログ記録部3から各ログデータを読み出し、カメラ1の撮像範囲内に予め設定されている後述の解析領域ごとに、当該解析領域内を移動する動体の数を検出する。その後データ解析部22は、検出された動体の数を示す動体数情報と、その動体がその解析領域内を移動した時刻を示す時刻情報と、を含む動体情報を生成して、一時的に制御装置2内の図示しないメモリ内に記憶させる。この動体情報は、後ほどグラフィック作成部23からの要求に応じて当該グラフィック作成部23に出力される。動体情報に含まれる動体数情報は、動体が人である場合には各解析領域内を通行した人の数を示す。ここで上記解析領域とは、上記監視領域を予め設定された数の領域に例えば等分に分けたその一つの領域を指し、動体の移動数を検出する際の基準となる領域である。この解析領域が本発明に係る「処理範囲」の一例に相当する。   The log recording unit 3 sequentially records the log data output from the image processing unit 21 in a nonvolatile manner, and outputs the log data to the data analysis unit 22 in response to a request from the data analysis unit 22. Next, the data analysis unit 22 reads each log data from the log recording unit 3 as an analysis process of the image captured by the camera 1, and for each analysis region described later set in advance within the imaging range of the camera 1. The number of moving objects moving in the analysis area is detected. Thereafter, the data analysis unit 22 generates moving object information including the moving object number information indicating the number of detected moving objects and the time information indicating the time when the moving object moves within the analysis region, and temporarily controls the moving object information. The data is stored in a memory (not shown) in the device 2. This moving body information is output to the graphic creation unit 23 in response to a request from the graphic creation unit 23 later. The moving body number information included in the moving body information indicates the number of persons who have passed through each analysis region when the moving body is a person. Here, the analysis area refers to one area obtained by equally dividing the monitoring area into a predetermined number of areas, for example, and serves as a reference area when detecting the number of moving objects. This analysis region corresponds to an example of a “processing range” according to the present invention.

グラフィック作成部23は、データ解析部22から出力されてきた動体情報に基づいて、各解析領域に相当する撮像情報としての画像及びその解析領域に対応した動体情報の内容をディスプレイ4上に表示するための画像情報を生成する。具体的にグラフィック作成部23は、各解析領域に対応する動体情報の内容をそれが対応する解析領域のディスプレイ4上の表示位置に対応させて表示させるためのグラフィック情報を生成する。このグラフィック情報は、例えばいわゆる「吹き出し」のようなグラフィック画像を用いて、上記動体情報の内容をそれが対応する解析領域のディスプレイ4上の表示位置に対応させて表示させるための情報(グラフィックデータ)である。このグラフィック画像はグラフィック画像記録部6に予め記憶/蓄積されており、グラフィック作成部23は必要なグラフィック画像をグラフィック画像記録部6から読み出して上記グラフィック情報を各解析領域ごとに作成する。またデータ解析部22から出力されてきた動体情報は、解析領域ごとの解析結果としてグラフィック作成部23を介して解析結果記録部7に記憶/蓄積される。更にグラフィック作成部23により作成されたグラフィック情報は、それに対応する動体情報と共にグラフィック記録部8に記録される。   Based on the moving body information output from the data analysis unit 22, the graphic creation unit 23 displays an image as imaging information corresponding to each analysis area and the content of the moving body information corresponding to the analysis area on the display 4. Image information is generated. Specifically, the graphic creation unit 23 generates graphic information for displaying the contents of the moving body information corresponding to each analysis region in correspondence with the display position on the display 4 of the analysis region corresponding to the analysis region. The graphic information is, for example, information for displaying the content of the moving object information in correspondence with the display position on the display 4 in the analysis area corresponding to the graphic information using a graphic image such as a so-called “speech balloon”. ). This graphic image is stored / accumulated in advance in the graphic image recording unit 6, and the graphic creating unit 23 reads out the necessary graphic image from the graphic image recording unit 6 and creates the graphic information for each analysis region. The moving body information output from the data analysis unit 22 is stored / accumulated in the analysis result recording unit 7 via the graphic creation unit 23 as an analysis result for each analysis region. Further, the graphic information created by the graphic creating unit 23 is recorded in the graphic recording unit 8 together with the corresponding moving body information.

その後グラフィック作成部23は、解析結果記録部7に記録されている解析結果としての動体情報をディスプレイ4上に表示させる旨が操作部5における使用者の操作により指示されたら、当該動体情報を含むグラフィック情報をグラフィック記録部8から読み出す。その後グラフィック作成部23は、読み出したグラフィック情報に含まれる動体情報に対応する解析領域に含まれる画像(カメラ1により撮像された画像そのもの)と共に、その解析領域のディスプレイ4上の表示位置に対応させて、その動体情報を含むグラフィック情報に相当するグラフィックを表示させる。具体的にグラフィック作成部23は、ディスプレイ4上のある解析領域が、例えばその解析領域のディスプレイ4上の表示位置に操作部5内のマウス操作に対応してマウスポインタが置かれることにより選択されたら、その解析領域に含まれる画像と共に、その解析領域のディスプレイ4上の表示位置の近傍にそれに対応する動体情報を含むグラフィック情報に相当するグラフィックを表示させる。なおグラフィック作成部23は、動体情報に含まれる動体数情報により示される動体数に対応させて、その動体情報が対応する解析領域のディスプレイ4上の表示態様(表示色又は強調表示の態様等)を変えるようにしてもよい。   After that, the graphic creating unit 23 includes the moving body information when instructed by the user's operation on the operation unit 5 to display the moving body information as the analysis result recorded in the analysis result recording unit 7 on the display 4. Graphic information is read from the graphic recording unit 8. Thereafter, the graphic creation unit 23 makes the image included in the analysis region corresponding to the moving body information included in the read graphic information (the image itself captured by the camera 1) correspond to the display position on the display 4 of the analysis region. Then, a graphic corresponding to the graphic information including the moving object information is displayed. Specifically, the graphic creating unit 23 selects a certain analysis area on the display 4 by placing a mouse pointer corresponding to a mouse operation in the operation unit 5 at a display position on the display 4 of the analysis area, for example. Then, together with the image included in the analysis area, a graphic corresponding to graphic information including the moving body information corresponding to the display position on the display 4 of the analysis area is displayed. In addition, the graphic creation unit 23 corresponds to the number of moving bodies indicated by the moving body number information included in the moving body information, and the display mode (display color or highlighted mode) of the analysis region corresponding to the moving body information. May be changed.

次に、第1実施形態に係る制御装置2における処理について、より具体的に図2及び図3を用いて説明する。なお、図2及び図3では、第1実施形態の特徴点である制御装置2のデータ解析部22及ぶグラフィック作成部23における処理について説明する。   Next, the processing in the control device 2 according to the first embodiment will be described more specifically with reference to FIGS. 2 and 3, processing in the data analysis unit 22 and the graphic creation unit 23 of the control device 2 that is a feature point of the first embodiment will be described.

図2(a)に示すように、第1実施形態に係る制御装置2のデータ解析部22は、ログ記録部3からログデータを取得すると(ステップS1)、カメラ1により撮像された画像の解析処理を行うための初期設定を実行する(ステップS2)。この初期設定においては、図2(b)に示すように、当該解析処理を行うための単位時間として、その解析処理を開始するログデータの時刻とそれを終了するログデータの時刻とが操作部5により指定され(ステップS20)、更に動体数を解析するための上記解析領域の数が操作部5により指定される(ステップS21)。次に、上記動体情報を表示させる際にいずれのグラフィック画像を用いるかの指定が、同じく操作部5により行われる(ステップS22)。このステップS22における指定は、グラフィック画像記録部6に記録されている、上記「吹き出し」を含む種々のグラフィック画像(動体情報を表示するための表示枠或いは強調表示として用いられるグラフィック画像)のうち、いずれのグラフィック画像を用いるか、の指定である。   As shown in FIG. 2A, when the data analysis unit 22 of the control device 2 according to the first embodiment acquires log data from the log recording unit 3 (step S1), analysis of an image captured by the camera 1 is performed. Initial setting for performing the process is executed (step S2). In this initial setting, as shown in FIG. 2B, as the unit time for performing the analysis process, the time of the log data for starting the analysis process and the time of the log data for ending the analysis process are 5 (step S20), and the number of analysis areas for analyzing the number of moving objects is specified by the operation unit 5 (step S21). Next, designation of which graphic image is used when displaying the moving body information is also performed by the operation unit 5 (step S22). The designation in this step S22 is, among the various graphic images (display frame for displaying moving body information or graphic images used as highlight display) including the above “speech balloon” recorded in the graphic image recording unit 6. It is the designation of which graphic image to use.

ステップS2において初期設定が完了すると、次にデータ解析部22は、各解析領域ごとに、その中を移動する動体数を算出する(ステップS3)。この動体数算出においてデータ解析部22は、図2(c)に示すように、先ずステップS20において指定された単位時間内のログデータをログ記録部3から取得する(ステップS30)。このログデータには、上述したように動体を検出した時刻を示す時刻情報、その検出した動体の監視領域内における位置を示す座標情報及びその動体自体を他の動体から識別するための動体識別情報並びに上記監視領域情報が含まれている。次にデータ解析部22は、後述するステップS32の動体数算出処理がステップS21において指定された解析領域の数だけ実行されたか否かを確認する(ステップS31)。ステップS31において解析領域の数だけ動体数算出処理が実行されていたら(ステップS31;YES)、データ解析部22は各解析領域ごとの動体数を解析結果として一時的に上記メモリ内に記憶させる(ステップS33)。一方ステップS31において解析領域の数だけ動体数算出処理が実行されていない場合(ステップS31;NO)、データ解析部22は、動体数算出処理が実行されていない解析領域を一つ選択し、その解析領域の監視領域内の座標と移動が検出されている動体の位置座標とから、その解析領域を移動した動体の数を、動体識別情報ごとに算出する(ステップS32)。なおこのステップS32における動体数算出処理自体は、従来と同様の方法によりその解析領域を移動した動体の数を動体識別情報ごとに算出するものである。その後データ解析部22は、上記ステップS31に移行する。   When the initial setting is completed in step S2, the data analysis unit 22 calculates the number of moving objects moving in each analysis region (step S3). In this calculation of the number of moving objects, as shown in FIG. 2C, the data analysis unit 22 first acquires log data within the unit time designated in step S20 from the log recording unit 3 (step S30). The log data includes time information indicating the time when the moving object is detected as described above, coordinate information indicating the position of the detected moving object in the monitoring area, and moving object identification information for identifying the moving object itself from other moving objects. In addition, the monitoring area information is included. Next, the data analysis unit 22 confirms whether or not the number of moving objects calculation process in step S32 described later has been executed for the number of analysis regions specified in step S21 (step S31). If the moving object number calculation process is executed for the number of analysis regions in step S31 (step S31; YES), the data analysis unit 22 temporarily stores the number of moving objects for each analysis region in the memory as an analysis result ( Step S33). On the other hand, when the number of moving object calculation processes is not executed for the number of analysis areas in step S31 (step S31; NO), the data analysis unit 22 selects one analysis area for which the moving object number calculation process is not executed, From the coordinates in the monitoring area of the analysis area and the position coordinates of the moving object whose movement has been detected, the number of moving objects that have moved in the analysis area is calculated for each moving object identification information (step S32). Note that the moving object number calculation process itself in step S32 is to calculate the number of moving objects that have moved in the analysis area for each moving object identification information by the same method as in the prior art. Thereafter, the data analysis unit 22 proceeds to step S31.

ステップS3において動体数が各解析領域ごとに算出できたら、次にグラフィック作成部23は、ディスプレイ4上に表示させるための上記グラフィック情報の作成を行う(ステップS4)。このグラフィック情報作成においてグラフィック作成部23は、図2(d)に示すように、グラフィックの表示に用いられるグラフィック画像としてステップS22において指定されたグラフィック画像をグラフィック画像記録部6から取得する(ステップS40)。次にグラフィック作成部23は、後述するステップS42乃至S44がステップS21において指定された解析領域の数だけ実行されたか否かを確認する(ステップS41)。ステップS41において解析領域の数だけ各処理が実行されていたら(ステップS41;YES)、グラフィック作成部23は後述するステップS5の動作に移行する。一方ステップS41において解析領域の数だけ各処理が実行されていない場合(ステップS41;NO)、グラフィック作成部23は、当該各処理が実行されていない解析領域を一つ選択し、その解析領域についての上記動体情報に対応したテキスト情報をコメントとして作成し(ステップS42)、更にその作成したテキスト情報をコメントとしてステップS40で取得されているグラフィック画像内に挿入する(ステップS43)。このグラフィックの一部として表示されるコメントが、本発明に係る「副情報」の一例に相当する。次にグラフィック作成部23は、その時にステップS42及びS43の対象となっている解析領域の監視領域内の座標をステップS43においてコメントが挿入されたグラフィック画像の表示座標として設定する(ステップS44)。その後グラフィック作成部23は、上記ステップS41に移行する。   When the number of moving objects can be calculated for each analysis region in step S3, the graphic creation unit 23 creates the graphic information to be displayed on the display 4 (step S4). In this graphic information creation, as shown in FIG. 2D, the graphic creation unit 23 acquires the graphic image designated in step S22 as the graphic image used for graphic display from the graphic image recording unit 6 (step S40). ). Next, the graphic creating unit 23 checks whether or not steps S42 to S44 described later have been executed for the number of analysis regions specified in step S21 (step S41). If each process is executed for the number of analysis areas in step S41 (step S41; YES), the graphic creation unit 23 proceeds to an operation of step S5 described later. On the other hand, when each process is not executed for the number of analysis areas in step S41 (step S41; NO), the graphic creating unit 23 selects one analysis area for which each process is not executed, and about the analysis area Text information corresponding to the above moving body information is created as a comment (step S42), and the created text information is inserted as a comment into the graphic image acquired in step S40 (step S43). A comment displayed as a part of this graphic corresponds to an example of “sub information” according to the present invention. Next, the graphic creating unit 23 sets the coordinates in the monitoring area of the analysis area that is the target of steps S42 and S43 at that time as the display coordinates of the graphic image in which the comment is inserted in step S43 (step S44). Thereafter, the graphic creating unit 23 proceeds to step S41.

次に図2(a)に戻ってグラフィック作成部23は、ステップS33において一時的に記憶されていた解析結果を解析結果記録部7に記録し(ステップS5)、更にステップS4において作成されたグラフィック情報をグラフィック記録部8に記録し(ステップS6)、更にカメラ1において撮像された撮像情報のうち、上記監視領域に対応する撮像情報に相当する画像をディスプレイ4上に表示させる(ステップS7)。   Next, referring back to FIG. 2A, the graphic creation unit 23 records the analysis result temporarily stored in step S33 in the analysis result recording unit 7 (step S5), and further the graphic created in step S4. Information is recorded in the graphic recording unit 8 (step S6), and an image corresponding to the imaging information corresponding to the monitoring area among the imaging information captured by the camera 1 is displayed on the display 4 (step S7).

次にグラフィック作成部23は、第1実施形態に係る制御装置2における処理を終了する旨の操作が操作部5において実行されたか否かを確認する(ステップS8)。ステップS8において当該終了する旨の操作が実行された場合(ステップS8;YES)、制御装置2は第1実施形態に係る処理を終了する。一方ステップ8において、当該終了する旨の操作が実行されていない場合(ステップS8;NO)、グラフィック作成部23は次に、撮像情報に対応する画像をディスプレイ4上に表示している状態において、いずれかの解析領域に相当する位置にマウスポインタが検出されたか否かを確認する(ステップS9)。ステップS9においてマウスポインタがいずれの位置にも検出されないとき(ステップS9;NO)、グラフィック作成部23は上記ステップS8に移行する。一方ステップS9においていずれかの位置にマウスポインタが検出された場合(ステップS9;YES)、グラフィック作成部23は、その位置に対応する解析領域が使用者により選択されているとして、その位置に対応する表示位置(上記ステップS44において設定された位置)に、その解析領域に対応するグラフィック情報に相当するグラフィックを表示する(ステップS10)。このグラフィック情報は、ステップS10の処理の都度、グラフィック記録部8から読み出されるものである。その後グラフィック作成部23は、上記ステップS8に移行する。   Next, the graphic creating unit 23 confirms whether or not an operation for ending the process in the control device 2 according to the first embodiment has been executed in the operation unit 5 (step S8). When the operation to the end is executed in step S8 (step S8; YES), the control device 2 ends the process according to the first embodiment. On the other hand, when the operation for ending is not performed in step 8 (step S8; NO), the graphic creating unit 23 next displays the image corresponding to the imaging information on the display 4 in the state where it is displayed. It is confirmed whether or not the mouse pointer is detected at a position corresponding to any analysis region (step S9). When the mouse pointer is not detected at any position in step S9 (step S9; NO), the graphic creating unit 23 proceeds to step S8. On the other hand, when the mouse pointer is detected at any position in step S9 (step S9; YES), the graphic creating unit 23 assumes that the analysis area corresponding to the position has been selected by the user and corresponds to that position. A graphic corresponding to the graphic information corresponding to the analysis area is displayed at the display position (the position set in step S44) (step S10). This graphic information is read from the graphic recording unit 8 every time the process of step S10 is performed. Thereafter, the graphic creation unit 23 proceeds to step S8.

以上説明した第1実施形態に係る制御装置2としての処理が実行された場合、例えば図3(a)に例示するように、ディスプレイ4上に表示されている監視領域PAに相当する画像上に複数の解析領域ARが設定されており、このうちのマウスポインタCが置かれている位置の解析領域PAに対応するグラフィックGが例えばポップアップ的に表示されることになる。このグラフィックG内には、それに対応する動体情報が図3(a)に例示するよう含まれる。なお図3(b)に例示するように、図3(a)に例示する表示に加えて、グラフィックG内に表示される動体情報(コメント)のみを、グラフィックGとは別のサブ領域SB内に表示するように構成しても良い。このとき、マウスポインタCが他の解析領域ARの位置に移動された場合、グラフィックG及びサブ領域SB内の表示は消去される。また図3に例示するように、グラフィックGを表示するのに加えてグラフィック作成部23は、各解析領域ARごとの動体数に対応させて、その解析領域ARのディスプレイ4上の表示態様(表示色又は強調表示の態様等)を変えるようにしてもよい。   When the process as the control device 2 according to the first embodiment described above is executed, for example, as illustrated in FIG. 3A, on the image corresponding to the monitoring area PA displayed on the display 4. A plurality of analysis areas AR are set, and a graphic G corresponding to the analysis area PA at the position where the mouse pointer C is placed is displayed in a pop-up manner, for example. In this graphic G, moving body information corresponding to the graphic G is included as illustrated in FIG. As illustrated in FIG. 3B, in addition to the display illustrated in FIG. 3A, only moving object information (comments) displayed in the graphic G is stored in a sub-region SB different from the graphic G. You may comprise so that it may display. At this time, when the mouse pointer C is moved to the position of another analysis area AR, the graphic G and the display in the sub area SB are deleted. Further, as illustrated in FIG. 3, in addition to displaying the graphic G, the graphic creating unit 23 displays the display mode (display) on the display 4 of the analysis area AR corresponding to the number of moving objects for each analysis area AR. The color or highlight mode may be changed.

以上説明したように、第1実施形態の情報表示装置Sの処理によれば、図3に例示するように、撮像範囲に含まれる解析領域ARに対応する撮像情報に基づいて生成されたグラフィックGを、それが対応する解析領域ARに対応させて表示するので、解析領域ARに対応する撮像内容をグラフィックGを用いて容易に認識可能に表示することができる。   As described above, according to the processing of the information display device S of the first embodiment, as illustrated in FIG. 3, the graphic G generated based on the imaging information corresponding to the analysis area AR included in the imaging range. Is displayed in correspondence with the analysis area AR to which it corresponds, so that the imaging content corresponding to the analysis area AR can be displayed easily and recognizable using the graphic G.

また、グラフィックGが対応する撮像内容と共にそのグラフィックGが表示されるので、解析領域ARに対応する撮像内容をより容易に認識可能に表示することができる。   Further, since the graphic G is displayed together with the imaging content corresponding to the graphic G, the imaging content corresponding to the analysis area AR can be displayed more easily and recognizable.

更に、動体が移動する場所を含む撮像範囲に対応する撮像情報に基づいて動体数情報を含むグラフィックGを解析領域ARごとに生成して表示するので、撮像範囲内の解析領域AR毎の動体数を容易に認識可能に表示することができる。   Further, since the graphic G including the moving object number information is generated and displayed for each analysis area AR based on the imaging information corresponding to the imaging range including the place where the moving object moves, the number of moving objects for each analysis area AR within the imaging range. Can be displayed easily and recognizable.

更にまた、異なる動体数を示す動体数情報を含むグラフィックGが対応する解析領域AR同士を、当該異なる動体数に対応した異なる表示態様にて表示する場合には、ある動体数に対応する解析領域ARを、その動体数と異なる動体数に対応する他の解析領域ARと区別して認識可能に表示することができる。   Furthermore, when the analysis areas AR corresponding to the graphics G including the moving object number information indicating the different moving object numbers are displayed in different display modes corresponding to the different moving object numbers, the analyzing areas corresponding to a certain moving object number are displayed. The AR can be displayed so as to be distinguishable from other analysis areas AR corresponding to the number of moving objects different from the number of moving objects.

また、マウス等により選択された解析領域ARに相当に対応するグラフィックGを表示させるので、使用者の意図に沿った適切なタイミングで、グラフィックGの表示が所望される解析領域ARの当該グラフィックGを認識可能に表示することができる。   In addition, since the graphic G corresponding to the analysis area AR selected by the mouse or the like is displayed, the graphic G in the analysis area AR that is desired to be displayed at an appropriate timing according to the user's intention. Can be displayed in a recognizable manner.

なお、各解析領域ARに対応するグラフィックGを夫々に表示している場合において、マウスポインタCにより選択された解析領域ARに対応するグラフィックGを表示する場合、当該マウスポインタCにより選択された解析領域ARに対応するグラフィックGを他の解析領域ARに対応するグラフィックGに対して強調表示するように構成することもできる。具体的に例えば、マウスポインタCにより選択された解析領域ARに対応するグラフィックG自体の大きさを他のグラフィックGに比べて大きくしたり、色を変えたり、或いはそれに含まれる文字の太さを変えたりする等の強調表示が考えられる。この場合には、選択された解析領域ARに対応するグラフィックGを、他の解析領域ARに対応するグラフィックGよりも強調して表示させるので、グラフィックGの表示が所望される解析領域ARの当該グラフィックGを容易に認識可能に表示することができる。   In the case where the graphic G corresponding to each analysis area AR is being displayed, when the graphic G corresponding to the analysis area AR selected by the mouse pointer C is displayed, the analysis selected by the mouse pointer C is displayed. The graphic G corresponding to the area AR can be highlighted with respect to the graphic G corresponding to the other analysis area AR. Specifically, for example, the size of the graphic G itself corresponding to the analysis area AR selected by the mouse pointer C is made larger than that of the other graphic G, the color is changed, or the thickness of the character included therein is changed. Highlighting such as changing can be considered. In this case, the graphic G corresponding to the selected analysis area AR is displayed in a more emphasized manner than the graphic G corresponding to the other analysis area AR, so that the analysis area AR in which the graphic G is desired to be displayed is displayed. The graphic G can be displayed so that it can be easily recognized.

なおグラフィックG内にコメントとして表示させるテキスト情報としては、上記の他に、例えば、動体数に基づくレベル分けの状況(「多い」/「少ない」等)や解析領域ARごとの動体数が集中した時間帯を含ませても良い。   As text information to be displayed as a comment in the graphic G, in addition to the above, for example, the level division status based on the number of moving objects (such as “large” / “small”) and the number of moving objects for each analysis area AR are concentrated. You may include a time zone.

(II)第2実施形態
次に、本発明に係る他の実施形態である第2実施形態について、図4及び図5を用いて説明する。なお、図4は第2実施形態に係る制御装置の処理を示すフローチャートであり、図5は第2実施形態に係る表示例等を示す図である。
(II) Second Embodiment Next, a second embodiment, which is another embodiment of the present invention, will be described with reference to FIGS. FIG. 4 is a flowchart showing processing of the control device according to the second embodiment, and FIG. 5 is a diagram showing a display example and the like according to the second embodiment.

上述した第1実施形態に係る解析処理においては、解析領域AR毎の動体情報をグラフィックGとして例えばポップアップ的に表示する場合について説明したが、以下に説明する第2実施形態に係る解析処理では、監視領域内を移動する動体の動線を検出してそれに関連する情報を表示する。なお、第2実施形態に係る情報表示装置のハードウエア的な構成は、基本的には第1実施形態に係る情報処理装置Sと同一であるので、以下の説明では、第1実施形態に係る情報処理装置Sの部材番号を引用して第2実施形態に係る情報処理装置の動作を説明する。また、図4に示すフローチャートにおいて、図2に示した第1実施形態に係る情報表示装置Sの処理と同一の処理については、同一のステップ番号を付して細部の説明は省略する。更に以下の説明では、第2実施形態の特徴点である制御装置2のデータ解析部22及ぶグラフィック作成部23における処理について説明する。また、第2実施形態に係る解析処理では、第1実施形態に係る解析処理において検出した動体数は、検出されない。従って、第2実施形態に係るグラフィック内に表示される動体情報には、動体数は含まれない。   In the analysis processing according to the first embodiment described above, the case where the moving body information for each analysis area AR is displayed as a graphic G, for example, in a pop-up manner has been described. However, in the analysis processing according to the second embodiment described below, A flow line of a moving object moving in the monitoring area is detected and information related to the detected flow line is displayed. Note that the hardware configuration of the information display apparatus according to the second embodiment is basically the same as that of the information processing apparatus S according to the first embodiment, and therefore the following description relates to the first embodiment. The operation of the information processing apparatus according to the second embodiment will be described with reference to the member numbers of the information processing apparatus S. Also, in the flowchart shown in FIG. 4, the same processes as those of the information display device S according to the first embodiment shown in FIG. Further, in the following description, processing in the data analysis unit 22 and the graphic creation unit 23 of the control device 2 that is a feature point of the second embodiment will be described. In the analysis processing according to the second embodiment, the number of moving objects detected in the analysis processing according to the first embodiment is not detected. Therefore, the moving object information displayed in the graphic according to the second embodiment does not include the number of moving objects.

図4(a)に示すように、第2実施形態に係る制御装置2のデータ解析部22は、ログ記録部3からログデータを取得すると(ステップS1)、第2実施形態に係る解析処理を行うための初期設定を実行する(ステップS10)。この初期設定においては、図4(b)に示すように、第1実施形態に係るステップS20と同様の単位時間指定処理を実行した後、更に動体の動線を解析するための指定領域が操作部5により指定される(ステップS25)。第2実施形態に係る当該指定領域は、上記監視領域内のある閉じた領域であって、その領域に出入りする動体の移動態様が第2実施形態に係る解析処理の対象となる領域である。この指定領域が本発明に係る「処理範囲」の一例に相当する。その後データ解析部22は、第1実施形態に係るステップS22と同様のグラフィック画像指定処理を実行する。   As shown in FIG. 4A, when the data analysis unit 22 of the control device 2 according to the second embodiment acquires log data from the log recording unit 3 (step S1), the analysis processing according to the second embodiment is performed. Initial setting for performing is performed (step S10). In this initial setting, as shown in FIG. 4 (b), after executing the unit time designation process similar to step S20 according to the first embodiment, the designated area for further analyzing the flow line of the moving object is operated. It is specified by the part 5 (step S25). The designated area according to the second embodiment is a certain closed area in the monitoring area, and the moving mode of the moving object entering and exiting the area is an area to be subjected to analysis processing according to the second embodiment. This designated area corresponds to an example of a “processing range” according to the present invention. Thereafter, the data analysis unit 22 executes the same graphic image designation process as that in step S22 according to the first embodiment.

ステップS10において初期設定が完了すると、次にデータ解析部22は、ステップS20において指定された単位時間内のログデータをログ記録部3から取得する(ステップS11)。次にデータ解析部22は、後述するステップS13、S14、S5、S6及びS15の各処理がステップS11において取得した各ログデータの全てについて実行されたか否かを確認する(ステップS12)。ステップS12において全てのログデータについて各処理が実行されていたら(ステップS12;YES)、データ解析部22は第2実施形態に係る解析処理を終了する。一方ステップS12において全てのログデータについて各処理が実行されていない場合(ステップS12;NO)、次にデータ解析部22は、ステップS25において指定されていた指定領域に、ステップS11において取得したログデータに対応する動体が進入したか否かの進入判定を行う(ステップS13)。この進入判定においてデータ解析部22は、図4(c)に示すように、先ず当該指定領域にいずれかの動体が入ったか否かを検出し(ステップS130)、いずれの動体も入っていない場合(ステップS130;NO)、その旨を解析結果として一時的に上記メモリに記憶させる(ステップS133)。一方ステップS130においていずれかの動体が指定領域に入っていた場合(ステップS130;YES)、データ解析部22はその進入している動体についてのログデータから、その進入した時刻を取得する(ステップS131)。次にデータ解析部22は、指定領域への進入方向及びその時のその動体の移動方向を算出する(ステップS132)。このステップS132においては、図5(a)に例示するように、向かって左上を原点として監視領域内に幅100ドット、高さ50ドットに設定された(ステップS25参照)指定領域DAについて、先ず動体Mの中心CTと指定領域DAの四つの辺との距離(図5(a)において符号「Lx1」、「Lx2」、「Ly1」及び「Ly2」で示される距離)が算出される。次にデータ解析部22は、算出された各辺までの距離のうち、最も短い距離(図5(a)に例示する場合は、符号「Ly2」で示される距離)を抽出し、その距離の辺の方向を進入方向とする。図5(a)の場合、進入方向は「上から」と算出される。また動体の移動方向については、時系列的に取得されるログデータに含まれているその動体の上記座標情報の変化に基づき、従来と同様の方法により検出される。その後データ解析部22は、ステップS132において算出した進入方向及び移動方向を、その動体についての解析結果として一時的に上記メモリ内に記憶させる(ステップS133)。   When the initial setting is completed in step S10, the data analysis unit 22 acquires log data within the unit time designated in step S20 from the log recording unit 3 (step S11). Next, the data analysis unit 22 confirms whether or not each process of steps S13, S14, S5, S6, and S15 described later has been executed for all the log data acquired in step S11 (step S12). If each process has been executed for all the log data in step S12 (step S12; YES), the data analysis unit 22 ends the analysis process according to the second embodiment. On the other hand, when each process is not executed for all the log data in step S12 (step S12; NO), the data analysis unit 22 next acquires the log data acquired in step S11 in the designated area designated in step S25. It is determined whether or not the moving object corresponding to has entered (step S13). In this entry determination, as shown in FIG. 4C, the data analysis unit 22 first detects whether any moving body has entered the designated area (step S130), and if no moving body has entered. (Step S130; NO), that effect is temporarily stored in the memory as an analysis result (Step S133). On the other hand, if any moving object is in the designated area in step S130 (step S130; YES), the data analysis unit 22 acquires the time of entry from the log data of the entering moving object (step S131). ). Next, the data analysis unit 22 calculates the approach direction to the designated area and the moving direction of the moving object at that time (step S132). In this step S132, as illustrated in FIG. 5A, for the designated area DA set to have a width of 100 dots and a height of 50 dots in the monitoring area with the upper left as the origin (see step S25), The distances between the center CT of the moving object M and the four sides of the designated area DA (distances indicated by the symbols “Lx1,” “Lx2,” “Ly1,” and “Ly2” in FIG. 5A) are calculated. Next, the data analysis unit 22 extracts the shortest distance among the calculated distances to each side (in the example illustrated in FIG. 5A, the distance indicated by the symbol “Ly2”), and the distance The direction of the side is the approach direction. In the case of FIG. 5A, the approach direction is calculated as “from above”. The moving direction of the moving object is detected by a method similar to the conventional method based on the change in the coordinate information of the moving object included in the log data acquired in time series. Thereafter, the data analysis unit 22 temporarily stores the approach direction and the movement direction calculated in step S132 in the memory as analysis results for the moving object (step S133).

ステップS13において進入判定が行われたら、次にグラフィック作成部23は、ステップS14のグラフィック情報作成処理として、第1実施形態に係るステップS40、S42、S43及びS44の各処理と同様の処理を、上記ステップS13における進入判定の結果としての進入方向及び移動方向を用いて各動体ごとに行う。この場合、第1実施形態に係るステップS41の処理と同様の処理は行われない。また上述したように、第2実施形態に係る動体情報には、第1実施形態に係る動体数情報は含まれず、これに代えて、進入方向を示す情報及び指定領域DAに侵入した時刻等(図5(b)参照)が含まれる。なお、第2実施形態に係る動体情報として、指定領域DAへの進入方向及びその動体の移動方向に加えて、その動体が指定領域DA内に滞在していた時間を含ませてもよい。この場合、上記ステップS132及びS133においてデータ解析部22は、指定領域DAへの進入方向及びその時のその動体の移動方向に加えて、その動体に対応するログデータを参照して、当該動体の指定領域DA内への進入時刻からの指定領域DA内における滞在時間を算出し、その結果を動体情報に含む解析結果を一時的に上記メモリに記憶させる。この滞在時間の算出処理は、その動体が指定領域DA内に滞在中は継続して実行される。   If entry determination is performed in step S13, the graphic creation part 23 will perform the process similar to each process of step S40, S42, S43, and S44 which concerns on 1st Embodiment next as graphic information creation process of step S14. This is performed for each moving object using the approach direction and the moving direction as a result of the entry determination in step S13. In this case, the same process as the process of step S41 according to the first embodiment is not performed. Further, as described above, the moving body information according to the second embodiment does not include the moving body number information according to the first embodiment. Instead, the information indicating the approach direction, the time of intrusion into the designated area DA, and the like ( FIG. 5 (b)) is included. Note that the moving object information according to the second embodiment may include the time during which the moving object stayed in the designated area DA in addition to the approach direction to the designated area DA and the moving direction of the moving object. In this case, in steps S132 and S133, the data analysis unit 22 refers to the log data corresponding to the moving object in addition to the entry direction to the designated area DA and the moving direction of the moving object at that time, and specifies the moving object. The stay time in the designated area DA from the entry time into the area DA is calculated, and the analysis result including the result in the moving body information is temporarily stored in the memory. This stay time calculation process is continuously executed while the moving object stays in the designated area DA.

次に図4(a)に戻ってグラフィック作成部23は、ステップS133において一時的に記憶されていた解析結果を解析結果記録部7に記録し(ステップS5)、更にステップS14において作成されたグラフィック情報をグラフィック記録部8に記録し(ステップS6)、更にその記録したグラフィック情報に相当するグラフィックをディスプレイ4上に表示させる(ステップS15)。その後グラフィック作成部23は、上記ステップS12に移行して、次のログデータについて上記ステップS12乃至S15並びにS5及びS6の処理を実行する。即ち、ステップS12乃至S15並びにS5及びS6の処理は、各ログデータに基づいて時系列的に繰り返されることになる。   Next, returning to FIG. 4A, the graphic creation unit 23 records the analysis result temporarily stored in step S133 in the analysis result recording unit 7 (step S5), and further the graphic created in step S14. Information is recorded in the graphic recording unit 8 (step S6), and a graphic corresponding to the recorded graphic information is displayed on the display 4 (step S15). Thereafter, the graphic creating unit 23 proceeds to step S12, and executes the processes of steps S12 to S15 and S5 and S6 for the next log data. That is, the processes of steps S12 to S15 and S5 and S6 are repeated in time series based on each log data.

以上説明した第2実施形態に係る制御装置2としての処理が実行された場合、例えば図5(b)に例示するように、ディスプレイ4上に表示されている監視領域PAに相当する画像上に指定領域DAが表示されており、それに進入する(又は進入した)動体M1乃至M3夫々の動線L1乃至L3が、その指定領域DAに対応して表示される。また、各動体M1乃至M3の指定領域DAに対する進入方向等を含む動体情報を含むグラフィックG1乃至G3が、例えば動体M1乃至M3夫々の指定領域DAに対する進入位置に表示される。このとき、各動体M1乃至M3夫々の色等の表示態様を相互に異ならせるように構成することもできる。なお、上述した指定領域DA内における滞在時間を動体情報としてグラフィック内に含ませる場合、各グラフィックG1乃至G3内には、各動体M1乃至M3の指定領域DAに対する進入方向等に加えて、上記滞在時間を示す時間情報を含む動体情報が含まれることとなる。   When the process as the control device 2 according to the second embodiment described above is executed, as illustrated in FIG. 5B, for example, on the image corresponding to the monitoring area PA displayed on the display 4 The designated area DA is displayed, and the flow lines L1 to L3 of the moving bodies M1 to M3 that enter (or have entered) the corresponding area DA are displayed corresponding to the designated area DA. In addition, graphics G1 to G3 including moving body information including an approach direction and the like of each moving body M1 to M3 with respect to the designated area DA are displayed at, for example, the entry positions of the moving bodies M1 to M3 with respect to the designated area DA. At this time, the display modes such as the colors of the moving bodies M1 to M3 may be different from each other. When the stay time in the designated area DA described above is included in the graphic as moving object information, each stay in the graphics G1 to G3 is added to the stay direction in addition to the direction of entry of the moving objects M1 to M3 with respect to the designated area DA. The moving body information including the time information indicating the time is included.

以上説明したように、第2実施形態の情報表示装置Sの処理によれば、図5(b)に例示するように、撮像情報に基づいて生成されたグラフィックG1乃至G3を、それが対応する指定領域DAに対応させて表示するので、指定領域DAに対応する撮像内容をグラフィックG1乃至G3を用いて容易に認識可能に表示することができる。   As described above, according to the processing of the information display device S of the second embodiment, as illustrated in FIG. 5B, it corresponds to the graphics G1 to G3 generated based on the imaging information. Since the display is performed in correspondence with the designated area DA, the captured content corresponding to the designated area DA can be displayed easily and recognizable using the graphics G1 to G3.

また、グラフィックG1乃至G3が対応する撮像内容と共にそのグラフィックG1乃至G3が表示されるので、指定領域DAに対応する撮像内容をより容易に認識可能に表示することができる。   Further, since the graphics G1 to G3 are displayed together with the imaging contents corresponding to the graphics G1 to G3, the imaging contents corresponding to the designated area DA can be displayed more easily and recognizable.

更に、動体が移動する場所を含む撮像範囲に対応する撮像情報に基づいて動線L1乃至L3及びグラフィックG1乃至G3を生成して時系列的に表示させるので、撮像範囲内の動体M1乃至M3の移動態様を時系列に沿って容易に認識可能に表示することができる。   Furthermore, since the flow lines L1 to L3 and the graphics G1 to G3 are generated and displayed in time series based on the imaging information corresponding to the imaging range including the place where the moving object moves, the moving objects M1 to M3 in the imaging range are displayed. The movement mode can be displayed in a recognizable manner along the time series.

更にまた、指定領域DAの縁に動体が到達したことが検出されたとき、当該到達した動体の移動態様を示す動線L1乃至L3及びグラフィックG1乃至G3を時系列的に表示させるので、設定された指定領域DAに対する動体の移動態様を容易に認識可能に表示することができる。   Furthermore, when it is detected that the moving object has reached the edge of the designated area DA, the flow lines L1 to L3 and the graphics G1 to G3 indicating the movement mode of the reached moving object are displayed in time series, so that it is set. The moving mode of the moving object with respect to the designated area DA can be displayed so that it can be easily recognized.

また、動体の移動方向又は指定領域DAに対する進入方向の少なくともいずれか一つを示す動線L1乃至L3及びグラフィックG1乃至G3を生成して時系列的に表示させるので、動体の移動方向等を具体的に認識可能に表示することができる。   In addition, since the flow lines L1 to L3 and the graphics G1 to G3 indicating at least one of the moving direction of the moving object or the entering direction with respect to the designated area DA are generated and displayed in time series, the moving direction of the moving object is specified. Can be displayed in a recognizable manner.

なお、上記動線L1乃至L3及びグラフィックG1乃至G3と共に撮像情報に対応する画像を表示する場合、生の画像ではなくそれを例えばイラスト等に置換して表示することにより、その画像に写っている人のプライバシーを保護するように構成することもできる。   When an image corresponding to the imaging information is displayed together with the flow lines L1 to L3 and the graphics G1 to G3, it is shown in the image by replacing it with, for example, an illustration instead of a raw image. It can also be configured to protect human privacy.

また、図3及び図4に示したフローチャートに対応するプログラムをフレキシブルディスク又はハードディスク等の記録媒体に記録しておき、或いはインターネット等のネットワークを介して取得して記録しておき、これらを汎用のマイクロコンピュータ等により読み出して実行することにより、当該マイクロコンピュータ等を実施形態に係るデータ解析部22及びグラフィック作成部23として機能させることも可能である。   Also, the programs corresponding to the flowcharts shown in FIGS. 3 and 4 are recorded on a recording medium such as a flexible disk or a hard disk, or acquired and recorded via a network such as the Internet, By reading and executing with a microcomputer or the like, the microcomputer or the like can be caused to function as the data analysis unit 22 and the graphic creation unit 23 according to the embodiment.

以上夫々説明したように、本発明は情報表示装置の分野に利用することが可能であり、特にカメラで撮像された画像を用いた画像解析及びその解析結果の表示の分野に適用すれば特に顕著な効果が得られる。   As described above, the present invention can be used in the field of information display devices, and is particularly remarkable when applied to the field of image analysis using an image captured by a camera and display of the analysis result. Effects can be obtained.

1 カメラ
2 制御装置
3 ログ記録部
4 ディスプレイ
5 操作部
6 グラフィック画像記録部
7 解析結果記録部
8 グラフィック記録部
20 インターフェース
21 画像処理部
22 データ解析部
23 グラフィック作成部
S 情報表示装置
C マウスポインタ
PA 監視領域
AR 解析領域
SB サブ領域
G、G1、G2、G3 グラフィック
L1、L2、L3 動線
M、M1、M2、M3 動体
CT 中心
DA 指定領域
DESCRIPTION OF SYMBOLS 1 Camera 2 Control apparatus 3 Log recording part 4 Display 5 Operation part 6 Graphic image recording part 7 Analysis result recording part 8 Graphic recording part 20 Interface 21 Image processing part 22 Data analysis part 23 Graphic creation part S Information display apparatus C Mouse pointer PA Monitoring area AR analysis area SB sub area G, G1, G2, G3 Graphics L1, L2, L3 Flow line M, M1, M2, M3 Moving object CT center DA Specified area

Claims (10)

表示手段と、
予め設定された撮像範囲を撮像手段を用いて撮像して得られた撮像情報を取得する取得手段と、
前記撮像範囲に含まれる処理範囲を設定する設定手段と、
前記設定された処理範囲に対応する前記撮像情報に基づき、当該撮像情報の撮像内容に対応した副情報を生成する生成手段と、
前記生成された副情報を、当該副情報が対応する前記撮像内容の前記撮像情報が対応する前記処理範囲に対応させて前記表示手段に表示させる表示制御手段と、
を備えることを特徴とする情報表示装置。
Display means;
An acquisition unit for acquiring imaging information obtained by imaging a preset imaging range using an imaging unit;
Setting means for setting a processing range included in the imaging range;
Generating means for generating sub-information corresponding to the imaging content of the imaging information based on the imaging information corresponding to the set processing range;
Display control means for displaying the generated sub-information on the display means in correspondence with the processing range corresponding to the imaging information of the imaging content corresponding to the sub-information;
An information display device comprising:
請求項1に記載の情報表示装置において、
前記表示制御手段は、前記生成された副情報を、当該副情報が対応する前記撮像内容の前記撮像情報と共に前記表示手段に表示させることを特徴とする情報表示装置。
The information display device according to claim 1,
The display control means causes the display means to display the generated sub information together with the imaging information of the imaging content corresponding to the sub information.
請求項1又は請求項2に記載の情報表示装置において、
前記撮像範囲には、移動体が移動する場所が含まれており、
前記撮像情報は、当該場所を含む前記撮像範囲を前記撮像手段が撮像して得られた撮像情報であり、
前記生成手段は、当該撮像情報に基づいて、前記移動体の数である移動体数を前記処理範囲ごとに検出する移動体数検出手段を備え、
前記生成手段は、前記検出された移動体数を示す移動体数情報を含む前記処理範囲毎の前記副情報を生成し、
前記表示制御手段は、前記生成された副情報を、当該副情報が対応する前記処理範囲ごとに前記表示手段に表示させることを特徴とする情報表示装置。
In the information display device according to claim 1 or 2,
The imaging range includes a place where the moving body moves,
The imaging information is imaging information obtained by the imaging unit imaging the imaging range including the location,
The generation unit includes a moving body number detecting unit that detects the number of moving bodies, which is the number of the moving bodies, for each processing range based on the imaging information,
The generating means generates the sub-information for each processing range including moving body number information indicating the detected number of moving bodies,
The display control means causes the display means to display the generated sub information for each processing range corresponding to the sub information.
請求項3に記載の情報表示装置において、
前記表示制御手段は、異なる前記移動体数を示す前記移動体数情報を含む前記副情報が対応する前記処理範囲同士を、当該異なる移動体数に対応した異なる表示態様にて前記表示手段に表示させることを特徴とする情報表示装置。
The information display device according to claim 3,
The display control means displays the processing ranges corresponding to the sub-information including the moving body number information indicating the different moving body numbers on the display means in different display modes corresponding to the different moving body numbers. An information display device characterized in that
請求項3又は請求項4に記載の情報表示装置において、
前記処理範囲のいずれかを前記表示手段上において選択するために用いられる選択手段を更に備え、
前記表示制御手段は、前記選択手段により選択された前記処理範囲に対応する前記副情報を前記表示手段に表示させることを特徴とする情報表示装置。
In the information display device according to claim 3 or 4,
Further comprising selection means used to select any of the processing ranges on the display means;
The display control means causes the display means to display the sub information corresponding to the processing range selected by the selection means.
請求項5に記載の情報表示装置において、
前記表示制御手段は、前記選択手段により選択された前記処理範囲に対応する前記副情報を、他の前記処理範囲に対応する前記副情報よりも強調して前記表示手段に表示させることを特徴とする情報表示装置。
The information display device according to claim 5,
The display control unit causes the display unit to display the sub information corresponding to the processing range selected by the selection unit with emphasis over the sub information corresponding to the other processing range. Information display device.
請求項1又は請求項2に記載の情報表示装置において、
前記撮像範囲には、移動体が移動する場所が含まれており、
前記撮像情報は、当該場所を含む前記撮像範囲を前記撮像手段が撮像して得られた撮像情報であり、
前記生成手段は、当該撮像情報に基づいて、前記処理範囲に対する前記移動体の移動態様を時系列的に検出する移動態様検出手段を備え、
前記生成手段は、前記時系列的に検出された移動態様を示す移動態様情報を含む前記副情報を生成し、
前記表示制御手段は、前記生成された副情報を前記処理範囲に対応付けて時系列的に前記表示手段に表示させることを特徴とする情報表示装置。
In the information display device according to claim 1 or 2,
The imaging range includes a place where the moving body moves,
The imaging information is imaging information obtained by the imaging unit imaging the imaging range including the location,
The generation unit includes a movement mode detection unit that detects a movement mode of the moving body with respect to the processing range in time series based on the imaging information.
The generation means generates the sub information including movement mode information indicating the movement mode detected in time series,
The display control means causes the display means to display the generated sub information in time series in association with the processing range.
請求項7に記載の情報表示装置において、
前記移動態様検出手段は、前記処理範囲の縁に前記移動体が到達したか否かを検出し、
前記表示制御手段は、前記縁に前記移動体が到達したことが検出されたとき、当該到達した移動体の前記移動態様を示す前記移動態様情報を含む前記副情報を前記処理範囲に対応付けて時系列的に前記表示手段に表示させることを特徴とする情報表示装置。
The information display device according to claim 7,
The movement mode detection means detects whether the moving body has reached the edge of the processing range,
When it is detected that the moving body has reached the edge, the display control means associates the sub information including the movement mode information indicating the moving mode of the reached moving body with the processing range. An information display device that displays on the display means in time series.
請求項8に記載の情報表示装置において、
前記移動態様検出手段は、前記移動体の移動方向又は当該移動体の前記処理範囲に対する進入方向の少なくともいずれか一つを前記移動態様として時系列的に検出し、
前記生成手段は、検出された前記少なくともいずれか一つを示す前記移動態様情報を含む前記副情報を生成することを特徴とする情報表示装置。
The information display device according to claim 8,
The movement mode detection means detects at least one of a moving direction of the moving body or an approach direction of the moving body with respect to the processing range as the moving mode in time series,
The information display device, wherein the generation unit generates the sub-information including the movement mode information indicating at least one of the detected ones.
表示手段を備えた情報表示装置に含まれるコンピュータを、請求項1から請求項9のいずれか一項に記載の前記取得手段、
前記設定手段、
前記生成手段、及び、
前記表示制御手段、
として機能させることを特徴とする情報表示用プログラム。
The acquisition unit according to any one of claims 1 to 9, wherein a computer included in an information display device including a display unit is provided.
The setting means;
The generating means; and
The display control means;
An information display program characterized in that it functions as a program.
JP2010231816A 2010-10-14 2010-10-14 Information display device and information display program Expired - Fee Related JP5668405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010231816A JP5668405B2 (en) 2010-10-14 2010-10-14 Information display device and information display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010231816A JP5668405B2 (en) 2010-10-14 2010-10-14 Information display device and information display program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014163109A Division JP5854098B2 (en) 2014-08-08 2014-08-08 Information display device and information display program

Publications (2)

Publication Number Publication Date
JP2012084077A true JP2012084077A (en) 2012-04-26
JP5668405B2 JP5668405B2 (en) 2015-02-12

Family

ID=46242847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010231816A Expired - Fee Related JP5668405B2 (en) 2010-10-14 2010-10-14 Information display device and information display program

Country Status (1)

Country Link
JP (1) JP5668405B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016114392A1 (en) * 2015-01-15 2016-07-21 日本電気株式会社 Information output device, camera, information output system, information output method, and program
JP2020123845A (en) * 2019-01-30 2020-08-13 シャープ株式会社 Monitoring device and monitoring method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085563A (en) * 2001-09-12 2003-03-20 Giken Torasutemu Kk Separation counter
JP2005143016A (en) * 2003-11-10 2005-06-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085563A (en) * 2001-09-12 2003-03-20 Giken Torasutemu Kk Separation counter
JP2005143016A (en) * 2003-11-10 2005-06-02 Hitachi Kokusai Electric Inc Monitoring system and monitoring method
JP2007280043A (en) * 2006-04-06 2007-10-25 Mitsubishi Electric Corp Video monitoring and search system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016114392A1 (en) * 2015-01-15 2016-07-21 日本電気株式会社 Information output device, camera, information output system, information output method, and program
JPWO2016114392A1 (en) * 2015-01-15 2017-09-28 日本電気株式会社 Information output device, camera, information output system, information output method and program
US11042667B2 (en) 2015-01-15 2021-06-22 Nec Corporation Information output device, camera, information output system, information output method, and program
US11227061B2 (en) 2015-01-15 2022-01-18 Nec Corporation Information output device, camera, information output system, information output method, and program
JP2020123845A (en) * 2019-01-30 2020-08-13 シャープ株式会社 Monitoring device and monitoring method
JP7258580B2 (en) 2019-01-30 2023-04-17 シャープ株式会社 Monitoring device and monitoring method

Also Published As

Publication number Publication date
JP5668405B2 (en) 2015-02-12

Similar Documents

Publication Publication Date Title
CN104581043B (en) Monitoring method
US9684835B2 (en) Image processing system, image processing method, and program
US20210372939A1 (en) Information processing apparatus, information processing method and program
JP4842197B2 (en) Abnormal operation detection device using multiple divided images, abnormal operation detection method, and abnormal operation detection program
US20150016671A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
Chou et al. Privacy-preserving action recognition for smart hospitals using low-resolution depth images
JP6639091B2 (en) Display control device and display control method
EP2908220A1 (en) Gesture recognition device and method of controlling gesture recognition device
JP4996404B2 (en) Human behavior search device
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
US20210329175A1 (en) Image processing system, image processing method, and program
JP6489117B2 (en) Information processing apparatus, information processing method, and program
KR102338071B1 (en) Apparatus and Method of Processing Image Copying Test for Evaluating Cognitive Impairment, and Computer Readable Recording Medium
JP2012235300A (en) Leaving or carrying-away detection system and method for generating leaving or carrying-away detection record
JP7009906B2 (en) Information processing equipment, information processing methods, programs and biological signal measurement systems
JP2022101591A (en) Queue detection system, method, and program
JPWO2015125545A1 (en) Information processing apparatus, information processing method, and program
US20190306433A1 (en) Control device, monitoring system, and monitoring camera control method
US9436996B2 (en) Recording medium storing image processing program and image processing apparatus
JP2023010939A (en) Radiation image display device and radiographic system
JP5668405B2 (en) Information display device and information display program
JP5854098B2 (en) Information display device and information display program
EP3624443A1 (en) Surveillance device, surveillance method, computer program, and storage medium
JP6723822B2 (en) Image processing apparatus, image processing method and program
JP2009015809A (en) Operation analysis device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141201

R150 Certificate of patent or registration of utility model

Ref document number: 5668405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees