JP6852293B2 - Image processing system, information processing device, information terminal, program - Google Patents

Image processing system, information processing device, information terminal, program Download PDF

Info

Publication number
JP6852293B2
JP6852293B2 JP2016133327A JP2016133327A JP6852293B2 JP 6852293 B2 JP6852293 B2 JP 6852293B2 JP 2016133327 A JP2016133327 A JP 2016133327A JP 2016133327 A JP2016133327 A JP 2016133327A JP 6852293 B2 JP6852293 B2 JP 6852293B2
Authority
JP
Japan
Prior art keywords
region
image
evaluation
image data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016133327A
Other languages
Japanese (ja)
Other versions
JP2017162432A (en
Inventor
堀川 裕文
裕文 堀川
山本 健吾
健吾 山本
真野 博子
博子 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/443,078 priority Critical patent/US10360572B2/en
Publication of JP2017162432A publication Critical patent/JP2017162432A/en
Application granted granted Critical
Publication of JP6852293B2 publication Critical patent/JP6852293B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理システム、情報処理装置、情報端末及びプログラムに関する。 The present invention relates to an image processing system, an information processing device, an information terminal and a program.

小売業ではPOS(Point Of System)の売上データを用いることで、売れている商品・売れていない商品を判別し、店長などが商品ごとに改善策を策定することが従来から行われている。具体的には価格設定などを見直すなどの従来の改善策の他に、VMD(Visual Merchandising)と呼ばれる商品の見せ方の改善が行われようになってきた。 In the retail industry, by using POS (Point Of System) sales data, it has been conventionally practiced to discriminate between products that are selling and products that are not selling, and store managers and the like to formulate improvement measures for each product. Specifically, in addition to the conventional improvement measures such as reviewing the price setting, the appearance of the product called VMD (Visual Merchandising) has been improved.

しかしながら、POSの売上データを参照する方法では、商品が「売れたか否か」はわかるが、来客者が「各商品に対して興味を持ったのか否か」はわからないため、必ずしも適切な改善策を策定することができない場合があった。 However, with the method of referring to the sales data of POS, it is possible to know "whether or not the product was sold", but not "whether or not the visitor was interested in each product", so it is not always an appropriate improvement measure. Was sometimes unable to be formulated.

そこで、カメラと画像処理技術を組み合わせることで映像を加工して店長等が分析しやすい情報を出力する監視システムが考案されている(例えば、特許文献1参照。)。特許文献1には、画像から店舗への来客者の購買行動を判断し、POSデータには現れない来客者の商品に対する行動を取得する技術が開示されている。このような技術が活用されれば、POSの売上データには現れない来客者の商品に対する行動を分析しやすくなる。 Therefore, a monitoring system has been devised that processes an image by combining a camera and an image processing technique and outputs information that can be easily analyzed by a store manager or the like (see, for example, Patent Document 1). Patent Document 1 discloses a technique of determining a visitor's purchasing behavior from an image to a store and acquiring a visitor's behavior toward a product that does not appear in the POS data. If such a technology is utilized, it becomes easy to analyze the behavior of the visitor toward the product, which does not appear in the sales data of POS.

しかしながら、従来の技術では「商品(又は商品が置かれている棚)に対し来客者がアクセスしたか否か」の2種類を判断できても、来客者がどの程度その商品に興味を持ったのかを判断できないという問題があった。すなわち、来客者が商品に対しアクセスすれば商品に対して興味が「あった」と判別し、アクセスしなければ「なかった」と判別するという2種類の判別しかできず、来客者がどの程度その商品に興味を持ったのかを判断することができなかった。 However, even if the conventional technology can determine two types of "whether or not the visitor has accessed the product (or the shelf on which the product is placed)", how much the visitor is interested in the product. There was a problem that it could not be determined. In other words, if a visitor accesses the product, it is determined that he / she is "interested" in the product, and if he / she does not access the product, it is determined that he / she is "not". I couldn't tell if I was interested in the product.

本発明は上記課題に鑑み、人の興味の度合いをより詳細に判断することが可能な画像処理システムを提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing system capable of determining the degree of interest of a person in more detail.

本発明は、1つ以上の情報処理装置を有する画像処理システムであって、画像データから人が含まれる人領域を検出する人検出手段と、前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、前記領域の指定を受け付ける受付手段と、を有し、前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示するThe present invention is an image processing system including one or more information processing devices, wherein a person detecting means for detecting a person area including a person from image data and the person area detected by the person detecting means are used. Depending on the motion determining means for determining the motion of a person and the direction of the motion, the region determined by being in the direction among a plurality of predetermined regions, or the direction and the size of the human region. Yes and evaluating means for evaluating in accordance with the prior SL region the operation is determined, and display means for displaying on the display device evaluation by the evaluation unit together with the image data, and a reception unit that receives designation of the area Te Then, the evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages, and assigns the same evaluation stage to the region of the plurality of image data in the region. Counting each time, the display means visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means .

人の興味の度合いをより詳細に判断することが可能な画像処理システムを提供することができる。 It is possible to provide an image processing system capable of determining the degree of interest of a person in more detail.

画像処理システムによる人の興味の度合いの判断例を説明する図である。It is a figure explaining the example of the judgment of the degree of interest of a person by an image processing system. 画像処理システムの概略構成図の一例である。This is an example of a schematic configuration diagram of an image processing system. 撮像装置のハードウェア構成図の一例である。This is an example of the hardware configuration diagram of the image pickup device. 無線通信機能を有したクレードルの場合の通信端末のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of a communication terminal in the case of a cradle having a wireless communication function. 画像管理装置及び情報端末のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of an image management device and an information terminal. 画像処理システムの一部を構成する、撮像装置、通信端末、画像管理装置、及び情報端末の各機能ブロック図の一例である。This is an example of a functional block diagram of an image pickup device, a communication terminal, an image management device, and an information terminal that form a part of an image processing system. 人が検出された領域を模式的に示す図の一例である。This is an example of a diagram schematically showing a region in which a person is detected. 画像解析部がアクションを判断する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the image analysis unit determines an action. 商品ゾーンごとの集計を模式的に説明する図の一例である。This is an example of a diagram schematically explaining the aggregation for each product zone. 領域に関する商品ゾーンを判断する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure for determining a product zone related to an area. 商品ゾーンの定義方法を模式的に示す図である。It is a figure which shows typically the definition method of the product zone. 評価部が商品ゾーンを定義する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the evaluation unit defines a product zone. 撮像装置、通信端末、画像管理装置、及び情報端末の各機能ブロック図である(実施例3)。It is each function block diagram of an image pickup apparatus, a communication terminal, an image management apparatus, and an information terminal (Example 3). 閲覧者が指定する興味度を示す図の一例である。This is an example of a diagram showing the degree of interest specified by the viewer. 操作1に対し情報端末が表示する画面例を示す図の一例である。It is an example of the figure which shows the screen example which the information terminal displays for operation 1. 操作2に対し情報端末が表示する画面例を示す図の一例である。It is an example of the figure which shows the screen example which the information terminal displays for operation 2. 操作3に対し情報端末が表示する画面例を示す図の一例である。It is an example of the figure which shows the screen example which the information terminal displays for operation 3. 操作4に対し情報端末が表示する画面例を示す図の一例である。It is an example of the figure which shows the screen example which the information terminal displays for operation 4. 操作5に対し情報端末が表示する画面例を示す図の一例である。It is an example of the figure which shows the screen example which the information terminal displays for operation 5. 操作6に対し情報端末が表示する画面例を示す図の一例である。It is an example of the figure which shows the screen example which the information terminal displays for operation 6. ヒートマップの作成に関し重み付けを説明する図の一例である。This is an example of a diagram for explaining weighting regarding the creation of a heat map. 画像処理システムの概略構成図の一例である(実施例4)。This is an example of a schematic configuration diagram of an image processing system (Example 4). スタッフ端末のハードウェア構成図の一例である。This is an example of the hardware configuration diagram of the staff terminal. 本実施例の画像処理システムの一部を構成する、画像管理装置、情報端末及びスタッフ端末の各機能ブロック図である(実施例4)。It is each function block diagram of the image management apparatus, the information terminal and the staff terminal which constitute a part of the image processing system of this Example (Example 4). 店舗における画像処理システムの利用形態を説明する図の一例である。This is an example of a diagram illustrating a usage pattern of an image processing system in a store. 来客者が倒れるという事象が発生した店舗を示す図である。It is a figure which shows the store where the event that a visitor collapses occurred. スタッフ端末のディスプレイに表示される事象記録画面の一例を示す図である。It is a figure which shows an example of the event recording screen displayed on the display of a staff terminal. 事象記録要求により設定される事象フラグを模式的に説明する図の一例である。It is an example of the figure schematically explaining the event flag set by the event record request. 画像処理システムの全体的な動作手順を示すシーケンス図の一例である。This is an example of a sequence diagram showing the overall operation procedure of the image processing system. 画像管理装置が画像を管理する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which an image management device manages images. 画像管理装置がジェスチャを検出して事象フラグをONに設定する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the image management device detects a gesture and sets the event flag to ON. スタッフ端末と画像管理装置の間で行われる動作を示すシーケンス図の一例である。This is an example of a sequence diagram showing an operation performed between the staff terminal and the image management device. 通信端末が事象記録要求を画像管理装置に送信するシーケンス図の一例である。This is an example of a sequence diagram in which a communication terminal transmits an event recording request to an image management device. 情報端末のディスプレイに表示される閲覧画面の一例である。This is an example of a browsing screen displayed on the display of an information terminal. 来客者が画像データに合成された来客者合成画面を示す図の一例である(第1実施形態)。This is an example of a diagram showing a visitor composition screen in which a visitor is synthesized with image data (first embodiment). 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the information visualization unit synthesizes a visitor with image data. 情報端末がディスプレイに表示した画像データを示す図の一例である(第2実施形態)。This is an example of a diagram showing image data displayed on a display by an information terminal (second embodiment). 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the information visualization unit synthesizes a visitor with image data. 閲覧者が行う解析操作を説明する図の一例である(第3実施形態)。This is an example of a diagram illustrating an analysis operation performed by a viewer (third embodiment). 来客者合成画面の一例を示す図である。It is a figure which shows an example of the visitor composition screen. 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the information visualization unit synthesizes a visitor with image data. 第4実施形態で表示される画像データの生成方法を説明する図の一例である(第4実施形態)。This is an example of a diagram illustrating a method of generating image data displayed in the fourth embodiment (fourth embodiment). 同じ商品ゾーンに興味度を示した来客者が写っている画像データが時系列に来客者合成枠と共に表示される図の一例である。This is an example of a diagram in which image data showing visitors showing interest in the same product zone are displayed in chronological order together with a visitor composition frame. 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the information visualization unit synthesizes a visitor with image data. ディスプレイに表示される画像データを説明する図の一例である(第5実施形態)。It is an example of the figure explaining the image data displayed on the display (fifth embodiment). 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the information visualization unit synthesizes a visitor with image data. ディスプレイに表示される画像データを説明する図の一例である(第6実施形態)。It is an example of the figure explaining the image data displayed on the display (the sixth embodiment). 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the information visualization unit synthesizes a visitor with image data.

以下、本発明を実施するための形態について図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<本実施形態の画像解析の一例>
図1は、画像処理システムによる人の興味の度合いの判断例を説明する図である。図1では、一例としてアパレル業界の店舗を来客者が訪れた場合を例にして説明する。来客者は目的の商品まで店内を歩いたり、興味を引く商品を探したりしながら店内を歩く。画像処理システムは各地に設置された広角カメラにより来客者を撮像し、画像データを解析して来客者のアクションを判断する。
<Example of image analysis of this embodiment>
FIG. 1 is a diagram illustrating an example of determining the degree of interest of a person by an image processing system. In FIG. 1, a case where a visitor visits a store in the apparel industry will be described as an example. Visitors walk around the store to find the products they want, or search for products that interest them. The image processing system captures the visitor with wide-angle cameras installed in various places, analyzes the image data, and determines the action of the visitor.

図1(a)に示すように、画像処理システムは、まず来客者が歩いているかどうかを判断できる。歩いている場合、画像処理システムは更に顔向きなどから進行方向を向いているのか商品の方向を向いているのかなどを判断できる。進行方向を向いていない場合、何らかの商品を見たと考えてよいので、来客者が歩きながら商品の方向を見たと判断できる。 As shown in FIG. 1A, the image processing system can first determine whether or not the visitor is walking. When walking, the image processing system can further determine whether the product is facing the direction of travel or the direction of the product based on the face or the like. If it is not facing the direction of travel, it can be considered that the visitor has seen some kind of product, so it can be determined that the visitor has seen the direction of the product while walking.

また、図1(b)に示すように、来客者が立ち止まっている場合、来客者は何らかの商品を立ち止まって見ていると判断できる。立ち止まって見ている場合は、歩きながら見ている場合よりも興味の度合いが高いと判断できる。更に、図1(c)に示すように画像処理システムは画像を解析して、来客者が手を伸ばしたか否かを判断できる。手を伸ばして見ている場合、立ち止まって見ている場合よりも興味の度合いが高いと判断できる。 Further, as shown in FIG. 1B, when the visitor is stopped, it can be determined that the visitor is stopping and looking at some product. It can be judged that the degree of interest is higher when watching while stopping than when watching while walking. Further, as shown in FIG. 1C, the image processing system can analyze the image and determine whether or not the visitor has reached out. It can be judged that the degree of interest is higher when looking at it with a hand reached than when looking at it while stopping.

また、図1(d)に示すように、画像処理システムは商品である服を来客者が身体に当てているかどうかを解析できる。この場合、手を伸ばして見ている場合よりも興味の度合いが高いと判断できる。 Further, as shown in FIG. 1D, the image processing system can analyze whether or not the visitor puts the clothes, which are the products, on the body. In this case, it can be judged that the degree of interest is higher than when the person is reaching out and looking at it.

このように、本実施形態の画像処理システムは、店舗内の来客者の様子を撮像した画像から種々の動作を判断することで、商品又は商品ゾーンに対する興味の度合いを多段階に判断することができる。また、来客者の動作の対象は興味の対象であり、動作の方向により予め定義されていた商品ゾーンを決定すれば、商品ゾーンに対する興味の強さを視覚的に表示することも可能となる。 As described above, the image processing system of the present embodiment can determine the degree of interest in the product or the product zone in multiple stages by determining various operations from the images obtained by capturing the state of the visitors in the store. it can. Further, the target of the visitor's movement is the target of interest, and if the product zone defined in advance is determined according to the direction of the movement, it is possible to visually display the strength of interest in the product zone.

<用語について>
上記の広角画像は、所定よりも画角が広い画像であり、少なくとも通常の撮像装置(例えば35mmフィルムのカメラ)の画角よりも広い画角の画像をいう。あるいは、魚眼レンズで撮像されている画像のように湾曲した画像をいう。広角画像の一例の全天球画像は、周囲360°の全方位が撮像された画像である。全方位画像、パノラマ画像、全天球パノラマ画像など、どのように呼ばれていてもよい。また、周囲360°の画像の一部が画像処理などの関係で欠けていても本実施形態の説明に支障がない場合は全天球画像と称する。全天球画像により広範囲をカバーできるので撮像装置の設置数を少なくすることができる。
<Terminology>
The wide-angle image is an image having a wider angle of view than a predetermined value, and is at least an image having a wider angle of view than that of a normal image pickup device (for example, a camera of a 35 mm film). Alternatively, it refers to a curved image such as an image captured by a fisheye lens. An example of a wide-angle image, an omnidirectional image, is an image captured in all directions with a circumference of 360 °. It may be called any way, such as an omnidirectional image, a panoramic image, and an omnidirectional panoramic image. Further, if a part of the image having a circumference of 360 ° is missing due to image processing or the like, it does not interfere with the explanation of the present embodiment, it is referred to as a spherical image. Since the whole celestial sphere image can cover a wide area, the number of image pickup devices installed can be reduced.

人とは興味、関心、反応又は応答などの動作を示す者である。動作により興味、関心、反応又は応答の程度が判断される。なお、人の他、動物などが検出されてもよい。人は屋内で検出されても屋外で検出されてもよい。屋内又は屋外では商品やサービスが提供される。商品やサービスは興味等の対象となる。 A person is a person who exhibits an action such as interest, interest, reaction or response. The action determines the degree of interest, interest, reaction or response. In addition to humans, animals and the like may be detected. The person may be detected indoors or outdoors. Goods and services are provided indoors or outdoors. Goods and services are of interest.

評価とは、この興味の程度を決定したり判断したりすることをいう。本実施形態では興味の程度が多段階に評価される。多段階とは少なくとも3段階以上であることが好ましい。 Evaluation means determining or judging the degree of this interest. In this embodiment, the degree of interest is evaluated in multiple stages. The multi-stage is preferably at least 3 stages or more.

<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、情報端末7を有している。撮像装置1は設置者Xにより店舗内に設置されている。情報端末7は閲覧者Yにより操作される。
<System configuration of image processing system>
FIG. 2 is an example of a schematic configuration diagram of the image processing system 200. The image processing system 200 includes an image management device 5, an image pickup device 1, a communication terminal 3, and an information terminal 7 connected via a communication network 9. The image pickup device 1 is installed in the store by the installer X. The information terminal 7 is operated by the viewer Y.

通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や情報端末7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。 The communication network 9 is constructed including at least one of the LAN of the company to which the viewer Y belongs in the store, the provider network of the provider that connects the LAN to the Internet, and the line provided by the line operator. There is. When the communication terminal 3 or the information terminal 7 directly connects to the line telephone network or the mobile telephone network without going through the LAN, it can be connected to the provider network without going through the LAN. In addition, the communication network includes WAN and the Internet. The communication network may be constructed either wired or wireless, and may be a combination of wired and wireless.

撮像装置1は、上記のように1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。 As described above, the image pickup apparatus 1 is a camera that captures an ambient 360-degree image with one image capture and creates an omnidirectional image. Sometimes referred to as a digital still camera or digital video camera. Further, when the communication terminal 3 is equipped with a camera, the communication terminal 3 can be a digital camera. In the present embodiment, in order to make the explanation easy to understand, the image pickup apparatus 1 will be described as a digital camera for obtaining a spherical image. The image pickup apparatus 1 periodically images the surrounding 360. It does not necessarily have to be periodic, and may be imaged irregularly, may be imaged by the operation of the installer X, or may be imaged from the image management device 5 by the viewer Y requesting the image management device 5. You may take an image by the command of.

なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。 The image pickup device 1 may automatically capture several landscapes having different line-of-sights and combine a plurality of image data to create a spherical image.

通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。 The communication terminal 3 has a communication function of connecting to the communication network 9 instead of the image pickup device 1. The communication terminal 3 is a cradle for supplying electric power to the image pickup device 1 and fixing it to a store. The cradle is an expansion device that expands the functions of the image pickup apparatus 1. The communication terminal 3 has an interface for connecting to the image pickup device 1, whereby the image pickup device 1 can use the functions of the communication terminal 3. The communication terminal 3 performs data communication with the image pickup apparatus 1 via this interface. Then, data communication is performed with the image management device 5 via the wireless router 9a and the communication network 9.

なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。 If the image pickup device 1 has a function of directly communicating data with the wireless router 9a or the communication network 9, the communication terminal 3 may not be provided. Alternatively, the image pickup device 1 and the communication terminal 3 may be integrally configured.

画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。 The image management device 5 is, for example, an information processing device that functions as a server, and can perform data communication with the communication terminal 3 and the information terminal 7 via the communication network 9. OpenGL ES (API: Application Interface for 3D graphics) is installed in the image management device 5. By calling OpenGL ES, it is possible to create a spherical image from a Mercator image, or to create a thumbnail image of a part of the spherical image (predetermined area image).

なお、画像管理装置5にはクラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。 It is preferable that cloud computing is applied to the image management device 5. There is no strict definition for the physical configuration of cloud computing, but the configuration of the information processing device is achieved by dynamically connecting and disconnecting resources such as the CPU, RAM, and storage that make up the information processing device according to the load. It is known that the installation location can be changed flexibly. Further, in cloud computing, the image management device 5 is generally virtualized. One information processing device can provide a function as a plurality of image management devices 5 by virtualization, and a plurality of information processing devices can provide a function as one image management device 5 by virtualization. .. It is also possible that the image management device 5 is provided not as cloud computing but by a single information processing device.

情報端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。 The information terminal 7 is, for example, a notebook PC (Personal Computer), and performs data communication with the image management device 5 via the communication network 9. The information terminal 7 may be a tablet terminal, a PC, a PDA (Personal Digital Assistant), an electronic blackboard, a video conference terminal, a wearable PC, a game machine, a mobile phone, a car navigation system, a smartphone, or the like, in addition to a notebook PC. Moreover, it is not limited to these.

撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。情報端末7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、情報端末7は本社以外の場所からも画像管理装置5と通信可能である。画像管理装置5は、各拠点の通信端末3から送られて来た画像データやその解析結果を情報端末7に送信する。 The image pickup device 1, the communication terminal 3, and the wireless router 9a are installed at predetermined positions by the installer X at each sales base such as a store. The information terminal 7 is installed at the head office or the like that controls each sales base, and by displaying an image showing the status of each base sent via the image management device 5, the viewer Y can display the status of each base. You can browse the image showing. However, the information terminal 7 can communicate with the image management device 5 from a place other than the head office. The image management device 5 transmits the image data sent from the communication terminal 3 of each base and the analysis result thereof to the information terminal 7.

<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,情報端末7及び画像管理装置5のハードウェア構成を説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the image pickup device 1, the communication terminal 3, the information terminal 7, and the image management device 5 of the present embodiment will be described with reference to FIGS. 3 to 5.

<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<< Imaging device >>
FIG. 3 is an example of a hardware configuration diagram of the image pickup apparatus 1. In the following, the image pickup device 1 is an omnidirectional image pickup device using two image pickup elements, but the number of image pickup devices may be three or more. Further, the device does not necessarily have to be a device dedicated to omnidirectional imaging, and by attaching a retrofitted omnidirectional imaging unit to a normal digital camera, smartphone, or the like, it may have substantially the same function as the imaging device 1. ..

図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。 As shown in FIG. 3, the imaging device 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the image pickup unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two image pickups provided corresponding to each wide-angle lens. It includes elements 103a and 103b. The image sensors 103a and 103b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images from fisheye lenses into image data of electrical signals and output them. It has a timing generation circuit that generates a vertical sync signal, a pixel clock, and the like, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The image sensors 103a and 103b of the image pickup unit 101 are each connected to the image processing unit 104 by a parallel I / F bus. On the other hand, the image pickup elements 103a and 103b of the image pickup unit 101 are connected by a serial I / F bus (I2C bus or the like) separately from the image pickup control unit 105. The image processing unit 104 and the image pickup control unit 105 are connected to the CPU 111 via the bus 110. Further, a ROM 112, a SRAM 113, a DRAM 114, an operation unit 115, a network I / F 116, a communication unit 117, an electronic compass 118, and the like are also connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、メルカトル画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image pickup devices 103a and 103b through the parallel I / F bus, performs predetermined processing on each image data, and then synthesizes these image data. , Create Mercator image data.

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The image pickup control unit 105 generally uses the image pickup control unit 105 as a master device and the image pickup elements 103a and 103b as slave devices, and sets commands and the like in the register group of the image pickup elements 103a and 103b by using the I2C bus. Necessary commands and the like are received from the CPU 111. Further, the image pickup control unit 105 also uses the I2C bus to take in the status data and the like of the register group of the image pickup elements 103a and 103b and send them to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the image pickup control unit 105 instructs the image pickup devices 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Some image pickup devices 1 may have a preview display function on a display and a function corresponding to a moving image display. In this case, the image data is continuously output from the image sensors 103a and 103b at a predetermined frame rate (frames / minute).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。 Further, as will be described later, the image pickup control unit 105 also functions as a synchronization control means for synchronizing the output timings of the image data of the image pickup elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the image pickup apparatus 1 is not provided with a display unit, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。 The CPU 111 controls the overall operation of the image pickup apparatus 1 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data in the middle of processing, and the like. In particular, the DRAM 114 stores image data during processing by the image processing unit 104 and data of the processed Mercator image.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。 The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel having both display and operation functions, and the like. By operating the operation buttons, the user inputs various imaging modes, imaging conditions, and the like.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。 Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. Further, the network I / F116 may be a network interface regardless of whether it is wireless or wired. The Mercator image data stored in the DRAM 114 is recorded on an external medium via the network I / F 116, or if necessary, the communication terminal 3 or the like via the network I / F 116 which becomes the network I / F. It may be sent to an external device.

通信部117は、撮像装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。 The communication unit 117 communicates with an external device such as a communication terminal 3 via a remote radio technology such as WiFi (wireless fidelity), NFC, or LTE (Long Term Evolution) via an antenna 117a provided in the image pickup device 1. Do. The communication unit 117 can also transmit the Mercator image data to the external device of the communication terminal 3.

電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the orientation and tilt (Roll rotation angle) of the image pickup device 1 from the magnetism of the earth, and outputs the orientation / tilt information. This orientation / tilt information is an example of related information (metadata) along with Exif, and is used for image processing such as image correction of captured images. The related information also includes each data of the image capture date and time and the data capacity of the image data.

<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< Communication terminal >>
Next, the hardware configuration of the communication terminal 3 will be described with reference to FIG. Note that FIG. 4 is a hardware configuration diagram of the communication terminal 3 in the case of a cradle having a wireless communication function.

図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。 As shown in FIG. 4, the communication terminal 3 includes a CPU 301 that controls the operation of the entire communication terminal 3, a ROM 302 that stores basic input / output programs, and a RAM (Random Access Memory) 304 that is used as a work area of the CPU 301. It has a communication unit 305 for data communication via Wi-fi, NFC, LTE, etc., a USB I / F 303 for wired communication with the image pickup device 1, and an RTC (Real Time Clock) 306 for holding a calendar and time information. There is.

また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。 Further, a bus line 310 such as an address bus or a data bus for electrically connecting each of the above parts is provided.

なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。 The ROM 302 stores an operating system (OS) executed by the CPU 301, other programs, and various data.

通信部305は、アンテナ305aを利用して無線通信信号により、無線ルータ9a等と通信を行う。 The communication unit 305 communicates with the wireless router 9a and the like by using the antenna 305a and using the wireless communication signal.

図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。 In addition to the illustration, it is equipped with a GPS receiver that receives GPS signals including the position information (latitude, longitude, and altitude) of the communication terminal 3 by GPS (Global Positioning Systems) satellite or IMES (Indoor MEssaging System) as indoor GPS. You may be.

<<画像管理装置、情報端末7>>
図5を用いて、画像管理装置5及びノートPCの場合の情報端末7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び情報端末7のハードウェア構成図である。画像管理装置5及び情報端末7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。情報端末7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
<< Image management device, information terminal 7 >>
The hardware configuration of the information terminal 7 in the case of the image management device 5 and the notebook PC will be described with reference to FIG. Note that FIG. 5 is a hardware configuration diagram of the image management device 5 and the information terminal 7. Since both the image management device 5 and the information terminal 7 are computers, the configuration of the image management device 5 will be described below. It is assumed that the configuration of the information terminal 7 is the same as that of the image management device 5, and even if there is a difference, there is no problem in the description of the present embodiment.

画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。 The image management device 5 includes a CPU 501 that controls the operation of the entire image management device 5, a ROM 502 that stores a program used to drive the CPU 501 such as an IPL, and a RAM 503 that is used as a work area of the CPU 501. Further, it has an HDD (Hard Disk Drive) 505 that controls reading or writing of various data to the HD 504 according to the control of the HD 504 and the CPU 501 that store various data such as a program for the image management device 5. It also has a media drive 507 that controls reading or writing (storage) of data to a recording medium 506 such as a flash memory, and a display 508 that displays various information such as cursors, menus, windows, characters, or images. It is preferable that the display 508 is equipped with a touch panel. In addition, a network I / F 509 for data communication using the communication network 9, a keyboard 511 equipped with a plurality of keys for inputting characters, numerical values, various instructions, etc., selection and execution of various instructions, and processing targets It has a mouse 512 for selecting, moving a cursor, and the like. Further, it has a CD-ROM drive 514 that controls reading or writing of various data to a CD-ROM (Compact Disc Read Only Memory) 513 as an example of a detachable recording medium. Further, as shown in FIG. 5, each of the above components is provided with a bus line 510 such as an address bus or a data bus for electrically connecting the components.

<画像処理システムの機能について>
図6は、本実施形態の画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。
<About the function of the image processing system>
FIG. 6 is a functional block diagram of the image pickup device 1, the communication terminal 3, the image management device 5, and the information terminal 7, which form a part of the image processing system 200 of the present embodiment.

<<撮像装置1の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of imaging device 1 >>
The image pickup device 1 includes a reception unit 12, an image pickup unit 13, a sound collection unit 14, a connection unit 15, and a storage / reading unit 19. Each of these parts has a function or means realized by operating any of the components shown in FIG. 3 by a command from the CPU 111 according to a program for an imaging device developed on the DRAM 113 from the SRAM 113. Is.

また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置用のプログラム及び端末IDが記憶されている。 Further, the image pickup apparatus 1 has a storage unit 1000 constructed by one or more of the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG. The storage unit 1000 stores a program for the imaging device and a terminal ID.

撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。 The reception unit 12 of the image pickup apparatus 1 is mainly realized by the processing of the operation unit 115 and the CPU 111 shown in FIG. 3, and receives an operation input from the user (installer X in FIG. 2). The imaging device 1 automatically and periodically images the surroundings even if there is no operation for imaging by the installer X. The periodic interval may be set by the installer X in the image pickup device 1 or by the viewer Y via the image management device 5.

撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。 The image pickup unit 13 is realized mainly by the processing of the image pickup unit 101, the image processing unit 104, the image pickup control unit 105, and the CPU 111 shown in FIG. 3, and images a landscape or the like to create image data.

集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。 The sound collecting unit 14 is mainly realized by the processing of the microphone 108, the sound processing unit 109, and the CPU 111 shown in FIG. 3, and collects the sound around the image pickup device 1.

接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。 The connection unit 15 is mainly realized by processing the network I / F 116 and the CPU 111, receives power supply from the communication terminal 3, and performs data communication with the communication terminal 3.

記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。 The storage / reading unit 19 is mainly realized by the processing of the CPU 111 shown in FIG. 3, and stores various data in the storage unit 1000 and reads various data from the storage unit 1000. In the following, even when the image pickup apparatus 1 reads and writes from the storage unit 1000, the description "via the storage / reading unit 19" may be omitted.

<<通信端末3の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of communication terminal 3 >>
The communication terminal 3 has a transmission / reception unit 31, a reception unit 32, a connection unit 33, and a storage / reading unit 39. Each of these parts has a function or means realized by operating any of the components shown in FIG. 4 by an instruction from the CPU 301 according to a program for a communication terminal developed on the RAM 304 from the ROM 302. Is.

また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末用のプログラムが記憶されている。 Further, the communication terminal 3 has a storage unit 3000 constructed by the ROM 302 and the RAM 304 shown in FIG. A program for a communication terminal is stored in the storage unit 3000.

(通信端末3の各機能構成)
通信端末3の送受信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
(Each function configuration of communication terminal 3)
The transmission / reception unit 31 of the communication terminal 3 is mainly realized by the processing of the communication unit 305 and the CPU 301 shown in FIG. 4, and transmits / receives various data to / from the image management device 5 via the wireless router 9a and the communication network 9. I do. In the following, even when the communication terminal 3 communicates with the image management device 5, the description "via the transmission / reception unit 31" may be omitted.

接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。 The connection unit 33 is mainly realized by the processing of the USB I / F 303 and the CPU 301 shown in FIG. 4, and supplies power to the image pickup apparatus 1 and performs data communication.

記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。 The storage / reading unit 39 is mainly realized by the processing of the CPU 301 shown in FIG. 4, and stores various data in the storage unit 3000 and reads various data from the storage unit 3000. In the following, even when the communication terminal 3 reads / writes from the storage unit 3000, the description "via the storage / reading unit 39" may be omitted.

<<画像管理装置の機能構成>>
画像管理装置5は、送受信部51、人物検出部52、サムネイル作成部53、画面作成部54、画像解析部55、評価部56、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image management device >>
The image management device 5 includes a transmission / reception unit 51, a person detection unit 52, a thumbnail creation unit 53, a screen creation unit 54, an image analysis unit 55, an evaluation unit 56, and a storage / reading unit 59. Each of these parts has a function realized by operating any of the components shown in FIG. 5 by a command from the CPU 501 according to a program for an image management device developed on the RAM 503 from the HD 504. It is a means.

また、画像管理装置5は、図4に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、撮像管理DB5002、画像管理DB5003、サムネイル管理DB5004、解析情報管理DB5005、及び、興味度管理DB5006が構築されている。以下、各データベースについて説明する。 Further, the image management device 5 has a RAM 503 shown in FIG. 4 and a storage unit 5000 constructed by the HD 504. A base management DB 5001, an imaging management DB 5002, an image management DB 5003, a thumbnail management DB 5004, an analysis information management DB 5005, and an interest level management DB 5006 are constructed in the storage unit 5000. Each database will be described below.

Figure 0006852293

表1は、拠点管理DB5001に記憶される各情報をテーブル状に示す拠点管理テーブルを示す。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
Figure 0006852293

Table 1 shows a base management table showing each information stored in the base management DB 5001 in a table shape. In the base management table, each field of the area ID, the area name, the base ID, the base name, the base layout map, and the device ID is stored in association with each other. In addition, one row of the base management table may be called a record. The same applies to each of the following tables. Of these, the area ID is identification information for identifying the area. An example of a region ID is a combination of a unique number and an alphabet.

地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。 The area name indicates an area or range of land such as Kanto, Tokyo, Shibuya Ward, New York State, New York City, etc. It may be called a region name. The identification information refers to a name, a code, a character string, a numerical value, or a combination of two or more of these, which is used to uniquely distinguish a specific object from a plurality of objects. The same applies to the following ID or identification information.

拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。 The base ID is an example of identification information for identifying the base. The base ID is assigned to the base name so that it is not duplicated. It may be referred to as site-specific information. An example of a base ID is a combination of a unique number and an alphabet. The base is a place where the image pickup apparatus 1 is installed and serves as a base for photographing the surroundings. An example of a base is a store.

拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。 The base name is a store name such as the Shibuya store, a venue name such as the Shibuya venue, etc., and is the name of the base. File names such as the layout of each base and image data showing the map are registered in the base layout map. The location of the image pickup device 1 and the products handled at the base is specified by the base layout map in two-dimensional coordinates.

端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置(端末ID)が設置されており、それらの位置が拠点レイアウトマップに登録されている。 The terminal ID is identification information for identifying the image pickup apparatus 1. It may be referred to as terminal-specific information. The terminal ID is, for example, a serial number, a serial number, a numerical value that does not overlap with the model number, an IP address, a MAC address, or the like of the image pickup apparatus 1, but is not limited thereto. As shown in Table 1, one or more imaging devices (terminal IDs) are installed at one base, and their positions are registered in the base layout map.

拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。 The base management table may be registered by the installer X or the viewer Y, or may be registered by the supplier of the image processing system 200.

Figure 0006852293

表2は、撮像管理DB5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Figure 0006852293

Table 2 is an imaging management table showing each information stored in the imaging management DB 5002 in a table shape. In the image pickup management table, each field of the image pickup title, the image pickup start date and time, and the image pickup end date and time is stored in association with each base ID. The captured title is the title of the event input by the viewer Y. That is, when some event that the viewer Y wants to monitor the consumer's behavior is held in the store, the name of this event becomes the imaging title. As a matter of course, the name of the event does not have to be the name of the event because the viewer Y can arbitrarily assign the name of the event. For example, it may be simply the imaging date. Viewer Y can refer to the captured title when extracting desired image data from a plurality of files of image data. It should be noted that a plurality of image data are imaged in time series (regularly) in one imaging event. The imaging start date and time is the date and time input by the viewer Y, and indicates the date and time when the imaging device 1 starts (or starts) imaging. The imaging end date and time is a date and time input by the viewer Y, and indicates a date and time when the imaging device 1 ends (or ends) imaging. Viewer Y can also register the imaging start date and time and the imaging end date and time in advance (reserved imaging). The image management table is mainly registered by the image management device 5.

Figure 0006852293

表3は、画像管理DB5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。画像IDは、画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
Figure 0006852293

Table 3 is an image management table showing each information stored in the image management DB 5003 in a table shape. In the image management table, the image ID, the file name of the image data, and the imaging date and time are stored in association with each terminal ID. The image ID is an example of identification information for uniquely identifying the image data. It may be referred to as image-specific information. The file name of the image data is the file name of the image data specified by the image ID. The imaging date and time is the date and time when the image data was captured by the imaging device 1 indicated by the terminal ID. Image data is also stored in the storage unit 5000.

例えば、情報端末7で画像管理装置5にアクセスし、表2の撮像管理テーブルから拠点名と撮像タイトルを選ぶ。画像管理装置5は拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。 For example, the information terminal 7 accesses the image management device 5, and selects the base name and the image pickup title from the image pickup management table in Table 2. The image management device 5 can read the terminal ID associated with the base ID from the base management table in Table 1. Since the terminal ID is clarified, the image management device 5 can specify the image data whose imaging date and time is included in the imaging start date and time to the imaging end date and time among the image data associated with the terminal ID of the image management table.

当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。 Of course, the viewer Y can also directly specify the terminal ID and the base ID. In the present embodiment, for the sake of simplicity, a mode in which the viewer Y specifies a terminal ID for browsing will be mainly described. The image management table is mainly registered by the image management device 5.

Figure 0006852293

表4は、サムネイル管理DB5004に記憶される各情報をテーブル状に示すサムネイル管理テーブルである。サムネイルとは親指程度のという意味であり、サムネイル画像は縮小した、画素数を低減した又は一覧用のイメージデータという意味になる。
Figure 0006852293

Table 4 is a thumbnail management table showing each information stored in the thumbnail management DB 5004 in a table shape. The thumbnail means about the size of a thumb, and the thumbnail image means reduced, reduced number of pixels, or image data for a list.

サムネイル管理テーブルでは、画像IDごとに、サムネイルID、サムネイル画像のファイル名、及び所定領域情報が関連付けて記憶されている。サムネイルIDは、画像IDで示される画像データに基づいて作成されたサムネイル画像を一意に識別するための識別情報の一例である。サムネイル固有情報と称してもよい。サムネイル画像のファイル名は、サムネイルIDで示されるサムネイル画像のファイル名である。サムネイル画像のファイル名は画像管理装置5が付与する。所定領域情報は、画像IDで示される画像データにおいて、サムネイル画像が作成された所定領域を示す。サムネイル管理テーブルは、主に画像管理装置5が登録する。 In the thumbnail management table, the thumbnail ID, the file name of the thumbnail image, and the predetermined area information are stored in association with each image ID. The thumbnail ID is an example of identification information for uniquely identifying a thumbnail image created based on the image data indicated by the image ID. It may be referred to as thumbnail-specific information. The file name of the thumbnail image is the file name of the thumbnail image indicated by the thumbnail ID. The image management device 5 assigns the file name of the thumbnail image. The predetermined area information indicates a predetermined area in which the thumbnail image is created in the image data indicated by the image ID. The thumbnail management table is mainly registered by the image management device 5.

Figure 0006852293

表5は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。解析情報テーブルでは、画像IDごとに、領域ID、領域範囲、アクション及び方向が関連付けて記憶されている。画像IDについては上記のとおりである。領域ID、範囲、アクション、及び、方向について詳細は後述される。まず、領域は、全天球画像の解析により来客者(人)が検出された来客者の外接矩形である。領域IDは、領域を一意に識別するための識別情報の一例である。領域番号や領域固有情報と称してもよい。例えば、画像ごとに1から始まる連番がareaの"n"に設定される。
Figure 0006852293

Table 5 is an analysis information table showing each information stored in the analysis information management DB 5005 in a table shape. In the analysis information table, the area ID, the area range, the action, and the direction are stored in association with each image ID. The image ID is as described above. Details of the area ID, range, action, and direction will be described later. First, the region is a circumscribed rectangle of a visitor in which a visitor (person) is detected by analysis of a spherical image. The area ID is an example of identification information for uniquely identifying the area. It may be referred to as an area number or area-specific information. For example, a serial number starting from 1 is set to "n" in area n for each image.

領域範囲は領域を特定するための情報である。来客者が検出される領域は矩形であるものとして、例えば、左上頂点の座標(x,y)と幅(width)と高さ(height)が領域範囲となる。対角の2点の座標で領域が特定されてもよい。なお、領域範囲は、全天球に画像が貼り付けられる前の平面の状態の平面画像の座標系に基づいて決定されている。補足すると、撮像装置1は当初、平面画像を出力するが、閲覧時には全天球に平面画像が貼り付けられ全天球画像が作成されている。アクションは、領域で検出された来客者の動作内容であり、表8に示す番号に置き換えられている。方向は、アクションの方向(動作の方向)を示す。 The area range is information for specifying the area. Assuming that the area where the visitor is detected is rectangular, for example, the coordinates (x, y), width (width), and height (height) of the upper left vertex are the area ranges. The area may be specified by the coordinates of two diagonal points. The area range is determined based on the coordinate system of the plane image in the state of the plane before the image is pasted on the whole celestial sphere. Supplementally, the image pickup apparatus 1 initially outputs a plane image, but at the time of viewing, the plane image is attached to the whole celestial sphere to create the omnidirectional image. The action is the action content of the visitor detected in the area, and is replaced with the number shown in Table 8. The direction indicates the direction of the action (direction of action).

Figure 0006852293

表6は、興味度管理DB5006に記憶される各情報をテーブル状に示す興味度管理テーブルである。興味度管理テーブルでは、来客者のアクションごとにアクションがどの程度の興味の強さを意味するかが登録されている。この興味の強さが興味度である。したがって、画像管理装置5はアクションから興味度を決定できる。なお、来客者のアクションとは商品に対し来客者が示した行動、動作又は反応等を示す。アクションには単に通り過ぎたことが含まれる。
Figure 0006852293

Table 6 is an interest level management table showing each information stored in the interest level management DB 5006 in a table shape. In the interest level management table, the degree of interest that the action means for each action of the visitor is registered. The strength of this interest is the degree of interest. Therefore, the image management device 5 can determine the degree of interest from the action. The visitor's action refers to the action, action, reaction, or the like shown by the visitor to the product. Actions simply include passing by.

(画像管理装置の各機能構成)
画像管理装置5の送受信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は情報端末7と各種データの送受信を行う。なお、以下では、画像管理装置5が情報端末7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
(Each function configuration of the image management device)
The transmission / reception unit 51 of the image management device 5 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 5, and the communication terminal 3 or the information terminal 7 and various data are connected to the communication terminal 3 or the information terminal 7 via the communication network 9. Send and receive. In the following, even when the image management device 5 communicates with the information terminal 7, the description "via the transmission / reception unit 51" may be omitted.

人物検出部52は、主に、図5に示されているCPU501の処理によって実現され、画像データから人を検出する。この人の検出は適切な特徴量の設定と、学習識別装置の設定により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置としては、SVM(Support Vector Machines)、AdaBoostを用いたカスケード分類などが知られている。ただし、これらに限られるものではなく人を検出できればよい。 The person detection unit 52 is mainly realized by the processing of the CPU 501 shown in FIG. 5, and detects a person from the image data. This person is detected by setting an appropriate feature amount and setting a learning identification device. For example, as feature quantities, Haar-like features, LBP (Local Binary Patterns) features, HOG (Histogram of Oriented Gradients) features, and the like are known. Further, as a learning identification device, SVM (Support Vector Machines), cascade classification using AdaBoost, and the like are known. However, it is not limited to these, and it is sufficient if a person can be detected.

サムネイル作成部53は、主に、図5に示されているCPU501の処理によって実現され、所定領域画像のサムネイル画像を作成する。 The thumbnail creation unit 53 is mainly realized by the processing of the CPU 501 shown in FIG. 5, and creates a thumbnail image of a predetermined area image.

画面作成部54は、画像データを情報端末7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで情報端末7が画像データを表示するための画面情報を作成する。 When transmitting the image data to the information terminal 7, the screen creation unit 54 creates screen information for the information terminal 7 to display the image data using HTML data, JavaScript (registered trademark), CSS, or the like.

画像解析部55は、主に、図5に示されているCPU501の処理によって実現され、来客者が検出された領域に対し来客者のアクションを判断する画像処理を行う。動作そのものを画像から判断することは困難であるため姿勢形状とのマッチングによりアクションを判断する。すなわち、画像処理システムの運営者などが代表的な姿勢を登録しておき、画像解析部55が検出された人の形状とマッチングを行う。アクションとして代表的な姿勢(上記した、進行方向を向いて歩いている、進行方向を向かないで歩いている、歩いていない、商品に手を伸ばす、商品を身体に当てるなど)を例えばSVMに学習させる。来客者の動作と姿勢の間には相関があるので、姿勢を個別に学習する。好ましくは、SVMは移動状態と静止状態で別々に姿勢を学習する。これにより1つのSVMが学習する姿勢の数が減少するので、SVMの姿勢認識精度が向上する。なお、移動状態か静止状態かは、全天球画像が動画であれば来客者が移動するかどうかにより判断してもよいし、画像が変化したことにより判別してもよいし、脚部の開きの大きさをパターンマッチング等により判別してもよい。姿勢を判断する際にアクションの方向も判断される。なお、姿勢の判断については非特許文献1を参照されたい。 The image analysis unit 55 is mainly realized by the processing of the CPU 501 shown in FIG. 5, and performs image processing for determining the action of the visitor with respect to the area where the visitor is detected. Since it is difficult to judge the movement itself from the image, the action is judged by matching with the posture shape. That is, the operator of the image processing system or the like registers a representative posture, and the image analysis unit 55 matches the shape of the detected person. Typical actions (above, walking in the direction of travel, walking without facing the direction of travel, not walking, reaching for the product, hitting the product on the body, etc.) are used as SVM, for example. Let them learn. Since there is a correlation between the visitor's movement and posture, the posture is learned individually. Preferably, the SVM learns the posture separately in the moving state and the stationary state. As a result, the number of postures learned by one SVM is reduced, so that the posture recognition accuracy of the SVM is improved. If the spherical image is a moving image, it may be determined whether the celestial sphere image is in a moving state or a stationary state by whether or not the visitor moves, or it may be determined by changing the image, or the leg portion. The size of the opening may be determined by pattern matching or the like. When judging the posture, the direction of the action is also judged. Please refer to Non-Patent Document 1 for the determination of posture.

評価部56は、主に、図5に示されているCPU501の処理によって実現され、決定されたアクションを、興味度管理DB5006に基づいて興味度に変換する。また、評価部56は、時系列の複数の画像データについて、アクションの方向から後述する商品ゾーンを特定し、商品ゾーンごとに同じアクション(興味度)が与えられた回数をカウントする。 The evaluation unit 56 mainly converts the determined action realized by the processing of the CPU 501 shown in FIG. 5 into the interest level based on the interest level management DB 5006. Further, the evaluation unit 56 specifies a product zone to be described later from the direction of the action for a plurality of time-series image data, and counts the number of times the same action (interest level) is given for each product zone.

記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。 The storage / reading unit 59 is mainly realized by the processing of the HDD 505 and the CPU 501 shown in FIG. 5, and stores various data in the storage unit 5000 and reads various data from the storage unit 5000. In the following, even when the image management device 5 reads / writes from the storage unit 5000, the description “via the storage / reading unit 59” may be omitted.

<情報端末7の機能構成>
情報端末7は、送受信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された情報端末7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of information terminal 7>
The information terminal 7 has a transmission / reception unit 71, a reception unit 72, a display control unit 73, and a storage / reading unit 79. Each of these parts has a function realized by operating any of the components shown in FIG. 5 by an instruction from the CPU 501 according to a program for the information terminal 7 developed on the RAM 503 from the HD 504. It is a means.

また、情報端末7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には情報端末7用のプログラムが記憶されている。情報端末7用のプログラムは、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。 Further, the information terminal 7 has a RAM 503 shown in FIG. 5 and a storage unit 7000 constructed by the HD 504. The storage unit 7000 stores a program for the information terminal 7. The program for the information terminal 7 is, for example, browser software, but application software having a communication function such as browser software may also be used.

(情報端末7の各機能構成)
情報端末7の送受信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、情報端末7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
(Each function configuration of information terminal 7)
The transmission / reception unit 71 of the information terminal 7 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 5, and transmits / receives various data to / from the image management device 5 via the communication network 9. In the following, even when the information terminal 7 communicates with the image management device 5, the description "via the transmission / reception unit 71" may be omitted.

受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。 The reception unit 72 is realized mainly by the processing of the keyboard 511 and the mouse 512 shown in FIG. 5 and the CPU 501, and receives an operation input from the user (viewer Y in FIG. 2).

表示制御部73は、主に、図5に示されているCPU501の処理によって実現され、画像管理装置5から送信された画面情報を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。 The display control unit 73 is mainly realized by the processing of the CPU 501 shown in FIG. 5, and interprets the screen information transmitted from the image management device 5 to display various screens on the display 508 of the information terminal 7. Is controlled.

記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。 The storage / reading unit 79 is mainly realized by the processing of the HD 504 and the CPU 501 shown in FIG. 5, and stores various data in the storage unit 7000 and reads various data from the storage unit 7000. In the following, even when the information terminal 7 reads / writes from the storage unit 7000, the description "via the storage / reading unit 79" may be omitted.

<人の検出とアクションの判断例>
画像管理装置5が来客者の商品に対する興味の度合いを判断するには、画像管理装置5が人を検出することが必要になる。人物検出部52は画像処理にて人を検出し、検出した領域を画像内の座標として解析情報管理DB5005に登録し、画像解析部55は領域からアクションを判断する。
<Example of human detection and action judgment>
In order for the image management device 5 to determine the degree of interest of the visitor in the product, the image management device 5 needs to detect a person. The person detection unit 52 detects a person by image processing, registers the detected area as coordinates in the image in the analysis information management DB 5005, and the image analysis unit 55 determines an action from the area.

図7は、人が検出された領域602を模式的に示す図の一例である。図7(a)では、5つの領域602が検出されている。図7(a)の平面画像は例えば全天球に貼り付けられる前のメルカトル図法により作成された画像である。天井部は歪んでいる可能性があるが天井には人がいないため不都合は少ない。また、全天球画像のうち足下に近い部分も歪んでいる可能性があるが床に近い所定範囲(閾値となる緯度以下)では人検出を行わなければよい。あるいは、全天球画像に変換された状態で人を検出したりアクションを判断したりしてもよい。 FIG. 7 is an example of a diagram schematically showing a region 602 in which a person is detected. In FIG. 7A, five regions 602 are detected. The planar image of FIG. 7A is, for example, an image created by the Mercator projection before being attached to the whole celestial sphere. The ceiling may be distorted, but there are few inconveniences because there are no people on the ceiling. In addition, although there is a possibility that the portion of the spherical image near the feet is also distorted, it is not necessary to detect a person in a predetermined range near the floor (below the threshold latitude). Alternatively, a person may be detected or an action may be determined in a state of being converted into a spherical image.

画像解析部55は、人が検出された領域602に対し来客者が行うアクションを判断する。その結果、図7(b)のように各領域602は、判断されたアクション603とそのアクションの方向を持つ。 The image analysis unit 55 determines the action to be taken by the visitor with respect to the area 602 in which the person is detected. As a result, as shown in FIG. 7B, each region 602 has the determined action 603 and the direction of the action.

例えば、歩いている場合に顔向きが正面方向か横向きかをパターンマッチングにより判断できる。アクション0の場合、方向はない。顔向きが商品の向きの場合、アクション1と判断されるが、この場合は顔の向きがアクションの方向である。また、立ち止まっていると判断され、パターンマッチングにより手を伸ばしたと判断されると、アクション3と判断されるが、この場合の方向は来客者が伸ばした手の方向である。 For example, when walking, it can be determined by pattern matching whether the face is facing forward or sideways. In case of action 0, there is no direction. When the face orientation is the orientation of the product, it is determined to be action 1, but in this case, the face orientation is the action orientation. Further, when it is determined that the user is standing still and it is determined that the hand is reached by pattern matching, it is determined that the action 3 is performed. In this case, the direction is the direction of the hand extended by the visitor.

パターンマッチングにより商品を身体に当てたと判断されるとアクション4と判断されるが、この場合、過去の画像データから来客者が商品を取った棚の方向が判断される。パターンマッチングにより商品を身体に当てたと判断されるとアクション5と判断されるが、この場合、過去の画像データから来客者が商品を取った棚の方向が判断される。 When it is determined by pattern matching that the product is applied to the body, it is determined to be action 4. In this case, the direction of the shelf on which the visitor picked up the product is determined from the past image data. When it is determined by pattern matching that the product is applied to the body, it is determined to be action 5. In this case, the direction of the shelf on which the visitor picked up the product is determined from the past image data.

なお、アクションの内容は0〜5の6個に限られず、より多くの種類のアクションを判断してもよい。また、方向は平面画像の所定方向(例えばx方向、y方向)を0度にして時計回り又は反時計回りに360度の値を取る。画像解析部55はその矩形データとアクションの判断結果を解析情報管理DB5005に登録する。 The content of the action is not limited to 6 from 0 to 5, and more types of actions may be determined. Further, the direction takes a value of 360 degrees clockwise or counterclockwise with a predetermined direction (for example, x direction, y direction) of the plane image as 0 degrees. The image analysis unit 55 registers the rectangular data and the action determination result in the analysis information management DB 5005.

図7(c)は、撮像装置1により撮像された画像の一例を示す。二人の来客者が人として検出され、それぞれの領域602が図示されている。このような画像は、情報端末7が画像管理装置5から取得することができる。 FIG. 7C shows an example of an image captured by the imaging device 1. Two visitors have been detected as humans and their respective areas 602 are illustrated. Such an image can be acquired by the information terminal 7 from the image management device 5.

<アクションの判断手順>
図8は、画像解析部55がアクションを判断する手順を示すフローチャート図の一例である。図8の処理は、画像データへの人の検出処理が行われるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
<Action judgment procedure>
FIG. 8 is an example of a flowchart showing a procedure in which the image analysis unit 55 determines an action. The process of FIG. 8 starts when the process of detecting a person in the image data is performed. Alternatively, the viewer Y requests the image management device 5 to perform processing.

画像解析部55は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。 The image analysis unit 55 refers to the image management DB 5003 and acquires, for example, a series of image data (S10). The series of image data is, for example, image data taken by the same image pickup apparatus 1 for a certain period of time.

次に、画像解析部55は、順番に画像データを1つずつ読み出す(S20)。 Next, the image analysis unit 55 reads out the image data one by one in order (S20).

そして、画像解析部55は、画像データに人が検出された領域602があるか否かを判断する(S30)。 Then, the image analysis unit 55 determines whether or not there is a region 602 in which a person is detected in the image data (S30).

ステップS30の判断がNoの場合、処理はステップS170に進む。ステップS30の判断がYesの場合、画像解析部55は姿勢を推定する(S40)。姿勢の推定により顔向きも推定される。 If the determination in step S30 is No, the process proceeds to step S170. If the determination in step S30 is Yes, the image analysis unit 55 estimates the posture (S40). The face orientation is also estimated by estimating the posture.

まず、姿勢に基づいて歩いているか否かを判断する(S50)。ステップS40の判断がYesの場合、画像解析部55は顔が進行方向を向いているか否かを判断する(S60)。 First, it is determined whether or not the person is walking based on the posture (S50). If the determination in step S40 is Yes, the image analysis unit 55 determines whether or not the face is facing the traveling direction (S60).

ステップS60の判断がYesの場合、画像解析部55は商品を見ずに通り過ぎたというアクションを来客者が行ったと判断する(S70)。 If the determination in step S60 is Yes, the image analysis unit 55 determines that the visitor has taken the action of passing by without looking at the product (S70).

ステップS60の判断がNoの場合、画像解析部55は商品を歩きながら見たというアクションを来客者が行ったと判断する(S80)。 If the determination in step S60 is No, the image analysis unit 55 determines that the visitor has performed the action of looking at the product while walking (S80).

次に、ステップS50の判断がNoの場合、来客者は立ち止まっているので、画像解析部55は手を伸ばしているか否かを判断する(S90)。 Next, if the determination in step S50 is No, the visitor is stopped, and the image analysis unit 55 determines whether or not the user is reaching out (S90).

ステップS90の判断がYesの場合、画像解析部55は来客者が商品に手を伸ばしていると判断する(S100)。 If the determination in step S90 is Yes, the image analysis unit 55 determines that the visitor is reaching for the product (S100).

ステップS90の判断がNoの場合、画像解析部55は来客者が商品を持っているか否かを判断する(S110)。 If the determination in step S90 is No, the image analysis unit 55 determines whether or not the visitor has the product (S110).

ステップS110の判断がNoの場合、画像解析部55は来客者が商品を立ち止まって見ているというアクションを行ったと判断する(S120)。 If the determination in step S110 is No, the image analysis unit 55 determines that the visitor has taken an action of stopping and looking at the product (S120).

ステップS110の判断がYesの場合、画像解析部55は来客者が商品をかごに入れた(又は持っていった)、体に当てた、又は、棚に戻したかどうかを判断する(S130)。 If the determination in step S110 is Yes, the image analysis unit 55 determines whether the visitor has put (or brought) the product in the basket, put it on the body, or returned it to the shelf (S130).

この結果、画像解析部55は来客者が商品をかごに入れたというアクションを行ったと判断するか(S140)、来客者が商品を体に当てたというアクションを行ったと判断するか(S150)、又は、来客者が商品を棚に返したと判断する(S160)。 As a result, the image analysis unit 55 determines whether the visitor has taken the action of putting the product in the basket (S140) or the visitor has taken the action of hitting the product on the body (S150). Alternatively, it is determined that the visitor has returned the product to the shelf (S160).

次に、処理はステップS30に戻り、ステップS30でNoと判断されると、画像解析部55は次の画像データがあるか否かを判断する(S170)。画像データがある場合、処理はステップS20に戻り、次の画像データがない場合、図8の処理は終了する。 Next, the process returns to step S30, and if No is determined in step S30, the image analysis unit 55 determines whether or not there is the next image data (S170). If there is image data, the process returns to step S20, and if there is no next image data, the process of FIG. 8 ends.

このように姿勢から種々のアクションを判断できる。種々のアクションを判断できれば興味度を多段階に判断できる。 In this way, various actions can be judged from the posture. If various actions can be judged, the degree of interest can be judged in multiple stages.

<商品ゾーンごとの集計>
人が検出された領域602についてアクションと方向が分かっているのでこれらを利用して、「各商品ゾーンに対するアクションの分布」を作成できる。商品ゾーンとは同じ種類の商品や関連した商品が集まっている店舗内の場所である。具体的には1つ以上の棚の集合であったり、商品が密接して配置されたりしている場所である。
<Aggregation by product zone>
Since the action and direction of the area 602 in which the person is detected are known, it is possible to create an "action distribution for each product zone" by using these. A product zone is a place in a store where products of the same type and related products are gathered. Specifically, it is a place where one or more shelves are set or products are closely arranged.

図9は商品ゾーン610ごとの集計を模式的に説明する図の一例である。商品ゾーン610の形状は不定形であるが、多角形でもよい。閲覧者Yは集計したい商品ゾーン610を予め定義しておく。図9では2つの商品ゾーン610A,Bが図示されている。人が検出される領域602は、商品ゾーン610に隣接していたり、重なっていたりする。来客者は商品ゾーン610に対し何らかのアクションを取ることが多いと考えられる。したがって、商品ゾーン610を向いている領域602のアクションを、商品ゾーン610に対して行われたものとみなし評価部56が集計する。 FIG. 9 is an example of a diagram schematically explaining the aggregation for each product zone 610. The shape of the product zone 610 is irregular, but it may be polygonal. Viewer Y defines in advance the product zone 610 that he / she wants to aggregate. In FIG. 9, two product zones 610A and B are illustrated. The area 602 in which a person is detected is adjacent to or overlaps the product zone 610. It is considered that visitors often take some action on the product zone 610. Therefore, the action of the area 602 facing the product zone 610 is considered to have been performed for the product zone 610, and the evaluation unit 56 totals the actions.

図9の領域602A〜602Cはそれぞれ商品ゾーン610Aと隣接している。隣接しているとは商品ゾーン610の中心と領域602の中心が所定距離内であることをいう。この距離は画像上のピクセル数でよい。また、領域602A〜602Cで行われたアクションは、商品ゾーン610Aを向いている。商品ゾーン610を向いているとは、アクションの方向を延長すると延長線上に商品ゾーン610があることをいう。例えば、商品ゾーンの外縁をいくつかの点の集合として表しておき、アクションの方向の延長線がこの点から所定距離内を通過する場合に延長線上に商品ゾーン610があると判断できる。あるいは、簡略化して商品ゾーンの外接矩形と延長線が交差する場合に、延長線上に商品ゾーン610があると判断してもよい。 Regions 602A to 602C in FIG. 9 are adjacent to the product zone 610A, respectively. Adjacent means that the center of the product zone 610 and the center of the area 602 are within a predetermined distance. This distance may be the number of pixels on the image. Further, the actions performed in the areas 602A to 602C face the product zone 610A. Facing the product zone 610 means that the product zone 610 is on the extension line when the direction of the action is extended. For example, the outer edge of the product zone is represented as a set of several points, and when the extension line in the direction of the action passes within a predetermined distance from this point, it can be determined that the product zone 610 is on the extension line. Alternatively, for simplification, when the circumscribed rectangle of the product zone and the extension line intersect, it may be determined that the product zone 610 is on the extension line.

よって領域602A〜602Cのアクションは、商品ゾーン610Aに対して行われたとみなして評価部56が集計する。一方、領域602Dは、商品ゾーン610Aだけでなく商品ゾーン610Bと隣接している(又は重複領域を持っている)。しかし、アクションの方向が商品ゾーン610Bを向いている(アクションの方向に延長すると、商品ゾーン610Bに到達する)ため、商品ゾーン610Bへのアクションとして集計する。 Therefore, the actions in the areas 602A to 602C are counted by the evaluation unit 56 as being performed on the product zone 610A. On the other hand, the region 602D is adjacent to (or has an overlapping region) not only the product zone 610A but also the product zone 610B. However, since the direction of the action faces the product zone 610B (when extended in the direction of the action, the product zone 610B is reached), the actions are totaled as the action to the product zone 610B.

また領域602Eは商品ゾーン610Aと重複しているが、アクションの方向が商品ゾーン610Aを向いていないため、商品ゾーン610Aへのアクションとして集計しない。 Further, although the area 602E overlaps with the product zone 610A, it is not counted as an action to the product zone 610A because the direction of the action does not face the product zone 610A.

評価部56はこれらの処理をすべての領域602に対して行い、領域602と商品ゾーン610を対応づける。商品ゾーン610A,610Bは以下のように領域602とそのアクションと対応付けられる。 The evaluation unit 56 performs these processes on all the areas 602, and associates the area 602 with the product zone 610. The product zones 610A and 610B are associated with the area 602 and its actions as follows.

商品ゾーン610A:アクション4×1、アクション2×2
商品ゾーン610B:アクション3×1
Product Zone 610A: Action 4x1, Action 2x2
Product Zone 610B: Action 3x1

Figure 0006852293

表7は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。なお、表7の説明では、表5との相違を主に説明する。表7の解析情報テーブルには、対象ゾーンの座標のフィールドが追加されている。対象ゾーンの座標のフィールドは、商品ゾーン610を特定する情報が登録されている。したがって、各領域602のアクションが向いている方向の商品ゾーン610と領域602が対応付けられる。商品ゾーン610を特定する情報は、対象ゾーンの外縁の点を示す座標の集合、又は、外接矩形を生成した場合の左上頂点の座標(x,y)と幅(width)と高さ(height)などである。
Figure 0006852293

Table 7 is an analysis information table showing each information stored in the analysis information management DB 5005 in a table shape. In the description of Table 7, the differences from Table 5 will be mainly described. A field of coordinates of the target zone is added to the analysis information table of Table 7. Information that identifies the product zone 610 is registered in the coordinate field of the target zone. Therefore, the product zone 610 and the area 602 in the direction in which the action of each area 602 is facing are associated with each other. The information that identifies the product zone 610 is a set of coordinates that indicate points on the outer edge of the target zone, or the coordinates (x, y), width (width), and height (height) of the upper left vertex when an circumscribing rectangle is generated. And so on.

Figure 0006852293

更に、評価部56は、商品ゾーン610ごとにアクションの数を集計することにより、表8に示すように、各商品ゾーン610に対する各アクションの分布テーブルが得られる。表8では、ある集計期間の間、各商品ゾーン610において、アクション0〜5が判断された回数が示されている。したがって、商品ゾーン610ごとに各アクションの頻度が分かり、店舗内で見ればアクションの分布が得られることになる。
Figure 0006852293

Further, the evaluation unit 56 aggregates the number of actions for each product zone 610 to obtain a distribution table of each action for each product zone 610, as shown in Table 8. Table 8 shows the number of times actions 0 to 5 were determined in each product zone 610 during a certain aggregation period. Therefore, the frequency of each action can be known for each product zone 610, and the distribution of actions can be obtained when viewed in the store.

<商品ゾーンの判断>
図10は、領域602に関する商品ゾーン610を判断する手順を示すフローチャート図の一例である。図10の処理は、アクションの判断が終わるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
<Judgment of product zone>
FIG. 10 is an example of a flowchart showing a procedure for determining the product zone 610 with respect to the area 602. The process of FIG. 10 starts when the action determination is completed. Alternatively, the viewer Y requests the image management device 5 to perform processing.

評価部56は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。 The evaluation unit 56 refers to the image management DB 5003 and acquires, for example, a series of image data (S10). The series of image data is, for example, image data taken by the same image pickup apparatus 1 for a certain period of time.

次に、評価部56は、順番に画像データを1つずつ読み出す(S20)。 Next, the evaluation unit 56 reads out the image data one by one in order (S20).

そして、評価部56は、画像データに人が検出された領域602があるか否かを判断する(S30)。 Then, the evaluation unit 56 determines whether or not there is a region 602 in which a person is detected in the image data (S30).

ステップS30の判断がYesの場合、評価部56は、人が検出された領域602に隣接又は重複する商品ゾーン610があるか否かを判断する(S40)。この判断は、商品ゾーン610の中心と領域602の中心が所定距離内であるかどうかを判断すればよい。 If the determination in step S30 is Yes, the evaluation unit 56 determines whether or not there is an adjacent or overlapping product zone 610 in the region 602 where the person is detected (S40). This determination may be made by determining whether or not the center of the product zone 610 and the center of the area 602 are within a predetermined distance.

ステップS40の判断がNoの場合、処理はステップS30に戻る。ステップS40の判断がYesの場合、評価部56は領域602で判断されたアクションが方向を持っているか否かを判断する(S50)。これはアクションの番号を判断すればよい。アクション0以外は方向を持っている。 If the determination in step S40 is No, the process returns to step S30. If the determination in step S40 is Yes, the evaluation unit 56 determines whether or not the action determined in the area 602 has a direction (S50). This can be done by determining the action number. Other than action 0, it has a direction.

ステップS50の判断がNoの場合、評価部56は隣接する全ての商品ゾーン610へのアクションであるとして判断し、アクションの数を1つ大きくする(S60)。これにより、方向が不明の場合も領域602を集計することができる。 If the determination in step S50 is No, the evaluation unit 56 determines that the action is for all adjacent product zones 610, and increases the number of actions by one (S60). As a result, the area 602 can be totaled even when the direction is unknown.

ステップS50の判断がYesの場合、評価部56はアクションの方向の延長線上に隣接する商品ゾーン610があるか否かを判断する(S70)。 If the determination in step S50 is Yes, the evaluation unit 56 determines whether or not there is an adjacent product zone 610 on the extension line in the direction of the action (S70).

ステップS70の判断がNoの場合、処理はステップS30に戻る。ステップS70の判断がYesの場合、評価部56はアクションの方向の延長線上にある商品ゾーン610のアクションの数を1つ大きくする(S80)。 If the determination in step S70 is No, the process returns to step S30. If the determination in step S70 is Yes, the evaluation unit 56 increases the number of actions in the product zone 610 on the extension of the action direction by one (S80).

ステップS30の判断がNoの場合、評価部56は次の画像があるか否かを判断する(S90)。 If the determination in step S30 is No, the evaluation unit 56 determines whether or not there is the next image (S90).

ステップS90の判断がYesの場合、処理はステップS20に戻り、ステップS90の判断がNoの場合、図10の処理は終了する。 If the determination in step S90 is Yes, the process returns to step S20, and if the determination in step S90 is No, the process in FIG. 10 ends.

以上説明したように本実施例の画像処理システム200では、来客者の商品に対する興味の程度を多段階に評価できる。また、アクションの方向に基づいて商品ゾーン610を判断し、商品ゾーン610に対し行われた興味(アクション)の数をカウントできるので、ある商品ゾーン610ごとにどのような興味が多いかを定量化できる。したがって、商品ゾーン610に対するアクション(興味)の内容を閲覧者Yなどが分析できるようになる。 As described above, in the image processing system 200 of this embodiment, the degree of interest of the visitor in the product can be evaluated in multiple stages. In addition, since the product zone 610 can be determined based on the direction of the action and the number of interests (actions) performed on the product zone 610 can be counted, it is possible to quantify what kind of interest is present in each product zone 610. it can. Therefore, the viewer Y or the like can analyze the content of the action (interest) for the product zone 610.

本実施例では、商品ゾーン610が予め決まっていない場合に商品ゾーン610を決定する画像処理システム200について説明する。なお、画像処理システム200の機能については実施例1と同様であるか、違いがあっても本実施例の説明には支障がないものとする。 In this embodiment, the image processing system 200 that determines the product zone 610 when the product zone 610 is not determined in advance will be described. It should be noted that the functions of the image processing system 200 are the same as those in the first embodiment, or even if there are differences, there is no problem in the explanation of the present embodiment.

実施例1では商品ゾーン610が予め定義されていたが、予め定義されていなくても人が検出された領域602に基づいて画像管理装置5が商品ゾーン610を定義することができる。アクションの方向が商品ゾーン610であると推定してよいためである。したがって、画像管理装置5は領域602と領域602が持つアクションの方向から商品ゾーン610を推定又は特定できる。 In the first embodiment, the product zone 610 is defined in advance, but the image management device 5 can define the product zone 610 based on the area 602 in which a person is detected even if the product zone 610 is not defined in advance. This is because it may be estimated that the direction of the action is the product zone 610. Therefore, the image management device 5 can estimate or specify the product zone 610 from the direction of the action of the area 602 and the area 602.

図11は、商品ゾーン610の定義方法を模式的に示す図である。まず、人物検出部52が人を検出することで領域602A〜602Fが検出されている。画像解析部55は領域602A〜602Fのアクションを判断しており、方向が分かっている。アクションの方向に商品ゾーン610がある場合が多いと考えてよいため、評価部56はアクションの方向に領域602のサイズに応じた大きさの商品ゾーン610を定義する。 FIG. 11 is a diagram schematically showing a method of defining the product zone 610. First, the areas 602A to 602F are detected by the person detection unit 52 detecting a person. The image analysis unit 55 determines the action of the areas 602A to 602F, and knows the direction. Since it can be considered that there is often a product zone 610 in the direction of the action, the evaluation unit 56 defines a product zone 610 having a size corresponding to the size of the area 602 in the direction of the action.

図11では、各領域602の短辺(幅)と同じ長さの辺を持った正方形を商品ゾーン610として図示している。評価部56は、アクションの方向を示す直線と領域602から短辺(幅)の半分だけ離れた垂直線又は水平線の交点を正方形の中心に決定する。すなわち、アクションの方向を示す直線が領域602の上辺と交差する場合、領域602の上辺から短辺(幅)の半分だけ離れた上辺と平行な水平線との交点が求められる。アクションの方向を示す直線が領域602の下辺と交差する場合、領域602の下辺から短辺(幅)の半分だけ離れた下辺と平行な水平線との交点が求められる。アクションの方向を示す直線が領域602の右辺と交差する場合、領域602の右辺から短辺(幅)の半分だけ離れた右辺と平行な垂直線との交点が求められる。アクションの方向を示す直線が領域602の左辺と交差する場合、領域602の左辺から短辺(幅)の半分だけ離れた左辺と平行な垂直線との交点が求められる。 In FIG. 11, a square having a side having the same length as the short side (width) of each area 602 is illustrated as a product zone 610. The evaluation unit 56 determines the intersection of the straight line indicating the direction of the action and the vertical line or the horizontal line separated from the area 602 by half of the short side (width) at the center of the square. That is, when a straight line indicating the direction of action intersects the upper side of the area 602, an intersection with a horizontal line parallel to the upper side separated by half the short side (width) from the upper side of the area 602 is required. When a straight line indicating the direction of action intersects the lower side of the area 602, an intersection of a horizontal line parallel to the lower side separated by half the short side (width) from the lower side of the area 602 is required. When a straight line indicating the direction of action intersects the right side of the area 602, an intersection with a vertical line parallel to the right side separated by half the short side (width) from the right side of the area 602 is required. When a straight line indicating the direction of action intersects the left side of the area 602, an intersection with a vertical line parallel to the left side separated by half the short side (width) from the left side of the area 602 is required.

この正方形の中心から上下左右に短辺(幅)の半分はなれた直線で囲まれる矩形が求める正方形である。商品ゾーン610を領域602の短辺(幅)と同じ長さの辺を持った正方形としたので、商品ゾーン610に領域602のサイズを反映させることができる。なお、領域602の長辺(高さ)と同じ長さの辺を持つ正方形や、領域602と同じ幅と高さを持つ長方形を商品ゾーン610として定義してもよい。また、商品ゾーン610は正方形や長方形などの矩形の他、円や楕円などでもよい。この場合も、円の直径や楕円の長軸又は短軸に領域602のサイズが反映されることが好ましい。 Half of the short side (width) from the center of this square to the top, bottom, left, and right is the square required by the rectangle surrounded by a straight line. Since the product zone 610 is a square having a side having the same length as the short side (width) of the region 602, the size of the region 602 can be reflected in the product zone 610. A square having the same length as the long side (height) of the area 602 or a rectangle having the same width and height as the area 602 may be defined as the product zone 610. Further, the product zone 610 may be a rectangle such as a square or a rectangle, or may be a circle or an ellipse. Also in this case, it is preferable that the size of the region 602 is reflected in the diameter of the circle and the long axis or the short axis of the ellipse.

例外として、領域602Fのようにアクションが方向を持たない場合がある。この場合、領域602Fの来客者がどの方向に対しアクションしているのか不明なので、評価部56は商品ゾーン610を定義しない。また、前後の画像データではアクションが検出されている可能性もある。ただし、周辺の全ての方向にアクションを行い得ると推定して、領域602Fの周囲の任意の方向又は全方向に商品ゾーン610を設定してもよい。 As an exception, the action may have no direction, as in area 602F. In this case, since it is unknown in which direction the visitor in the area 602F is acting, the evaluation unit 56 does not define the product zone 610. In addition, there is a possibility that an action is detected in the image data before and after. However, the product zone 610 may be set in any direction or all directions around the area 602F, assuming that the action can be performed in all directions around the area.

図11では、領域602Aに対し商品ゾーン610A、領域602Bに対し商品ゾーン610B、領域602Cに対し商品ゾーン610C、領域602Dに対し商品ゾーン610D、領域602Eに対し商品ゾーン610E、がそれぞれ定義されている。領域602Fに対しては商品ゾーンが定義されない。 In FIG. 11, the product zone 610A is defined for the area 602A, the product zone 610B is defined for the area 602B, the product zone 610C is defined for the area 602C, the product zone 610D is defined for the area 602D, and the product zone 610E is defined for the area 602E. .. No merchandise zone is defined for area 602F.

図12は、評価部56が商品ゾーン610を定義する手順を示すフローチャート図の一例である。図12の処理は、アクションの判断が終わるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。 FIG. 12 is an example of a flowchart showing a procedure in which the evaluation unit 56 defines the product zone 610. The process of FIG. 12 starts when the action determination is completed. Alternatively, the viewer Y requests the image management device 5 to perform processing.

評価部56は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。 The evaluation unit 56 refers to the image management DB 5003 and acquires, for example, a series of image data (S10). The series of image data is, for example, image data taken by the same image pickup apparatus 1 for a certain period of time.

次に、評価部56は、順番に画像データを1つずつ読み出す(S20)。 Next, the evaluation unit 56 reads out the image data one by one in order (S20).

そして、評価部56は、画像データに人が検出された領域602があるか否かを判断する(S30)。 Then, the evaluation unit 56 determines whether or not there is a region 602 in which a person is detected in the image data (S30).

ステップS30の判断がYesの場合、評価部56は領域602がアクションの方向を持っているか否かを判断する(S40)。 If the determination in step S30 is Yes, the evaluation unit 56 determines whether or not the area 602 has the direction of action (S40).

ステップS40の判断がNoの場合、処理はステップS30に戻る。ステップS40の判断がYesの場合、評価部56はアクションの方向であって、領域602に隣接する商品ゾーン610を定義する(S50)。 If the determination in step S40 is No, the process returns to step S30. If the determination in step S40 is Yes, the evaluation unit 56 defines the product zone 610, which is the direction of action and is adjacent to the area 602 (S50).

この後、処理はステップS30に戻り、領域602がある間、ステップS30〜S50が実行される。 After this, the process returns to step S30, and steps S30 to S50 are executed while there is an area 602.

ステップS30の判断がNoの場合、評価部56は次の画像データがあるか否かを判断し(S60)、次の画像データがなくなると図12の処理が終了する。 If the determination in step S30 is No, the evaluation unit 56 determines whether or not there is the next image data (S60), and when the next image data is exhausted, the process of FIG. 12 ends.

以上の処理により、領域602とアクションの方向から算出される商品ゾーン610が定義され、領域602に商品ゾーン610が対応付けられた解析情報管理DB5005が得られる。 By the above processing, the product zone 610 calculated from the area 602 and the direction of the action is defined, and the analysis information management DB 5005 in which the product zone 610 is associated with the area 602 is obtained.

Figure 0006852293

表9は、本実施例において解析情報管理DB5005に記憶される解析情報テーブルを模式的に示す。表9の説明では、表5との相違を主に説明する。表9の解析情報テーブルには、商品ゾーン610の座標のフィールドが追加されている。商品ゾーン610の座標は、領域602とアクションの方向に基づいて定義された商品ゾーン610の左上頂点の座標である。商品ゾーン610である正方形の中心の座標でもよい。幅と高さは互いに同じであり、領域602の幅と同じである。
Figure 0006852293

Table 9 schematically shows the analysis information table stored in the analysis information management DB 5005 in this embodiment. In the explanation of Table 9, the difference from Table 5 will be mainly described. A field of coordinates of the product zone 610 is added to the analysis information table of Table 9. The coordinates of the product zone 610 are the coordinates of the upper left vertex of the product zone 610 defined based on the area 602 and the direction of the action. It may be the coordinates of the center of the square which is the product zone 610. The width and height are the same as each other and are the same as the width of the area 602.

このように本実施例の画像処理システムは、商品ゾーン610が定義されていなくても領域602に基づいて商品ゾーン610を定義することができる。商品ゾーン610が定義されれば商品ゾーン610に対するアクション(興味)の内容を閲覧者Yなどが分析できるようになる。 As described above, the image processing system of the present embodiment can define the product zone 610 based on the area 602 even if the product zone 610 is not defined. If the product zone 610 is defined, the viewer Y or the like can analyze the content of the action (interest) for the product zone 610.

本実施例では実施例1、2で得られた解析情報テーブルの内容を表示する情報端末7について説明する。これにより、来客者の興味の程度をヒートマップなどのような分布表現で表示することが可能になる。閲覧者Yは商品に対する興味の度合いを視覚的に把握することができる。 In this embodiment, the information terminal 7 that displays the contents of the analysis information table obtained in Examples 1 and 2 will be described. This makes it possible to display the degree of interest of visitors in a distribution expression such as a heat map. Viewer Y can visually grasp the degree of interest in the product.

図13は、本実施例の画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。また、本実施例において、図6において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。図13の情報端末7は情報視覚化部74を有している。情報視覚化部74は、図5に示されているCPU501の処理によって実現され、解析情報テーブルや分布テーブルを視覚化するための各種の評価を行う。 FIG. 13 is a functional block diagram of the image pickup device 1, the communication terminal 3, the image management device 5, and the information terminal 7, which form a part of the image processing system 200 of this embodiment. Further, in the present embodiment, since the components having the same reference numerals in FIG. 6 perform the same function, only the main components of the present embodiment may be mainly described. The information terminal 7 of FIG. 13 has an information visualization unit 74. The information visualization unit 74 is realized by the processing of the CPU 501 shown in FIG. 5, and performs various evaluations for visualizing the analysis information table and the distribution table.

視覚化は実施例1と実施例2で少し異なっているため、実施例1の場合と実施例2の場合を分けて説明する。 Since the visualization is slightly different between Example 1 and Example 2, the case of Example 1 and the case of Example 2 will be described separately.

<実施例1 商品ゾーンが予め定義されている場合>
実施例1では表8の分布テーブルが得られていることになる。情報視覚化部74は閲覧者Yの操作に応じてこの分布テーブルのアクションの回数を加工して、表示制御部73がディスプレイ508に表示する。以下では、閲覧者の3つの操作に対する表示例を説明する。
<Example 1 When the product zone is defined in advance>
In Example 1, the distribution table shown in Table 8 is obtained. The information visualization unit 74 processes the number of actions of the distribution table according to the operation of the viewer Y, and the display control unit 73 displays it on the display 508. Hereinafter, a display example for the three operations of the viewer will be described.

1.操作1
特定のアクション(興味度)を閲覧者Yが指定して、情報端末7はその興味度がカウントされた回数を視覚的に表示する。図14は閲覧者Yが指定する興味度を示す図の一例であり、図15は操作1に対し情報端末7が表示する画面例を示す図の一例である。
1. 1. Operation 1
The viewer Y specifies a specific action (interest level), and the information terminal 7 visually displays the number of times the interest level is counted. FIG. 14 is an example of a diagram showing the degree of interest designated by the viewer Y, and FIG. 15 is an example of a diagram showing an example of a screen displayed by the information terminal 7 for the operation 1.

1.1 まず、閲覧者Yは、着目したい興味度を指定する。図14(a)に示すように、情報端末7が画像データを取得し、閲覧者Yがマウスやタッチパネルなどのポインティングデバイスで所定のメニューを押下する。受付部72はこの操作を受け付けて表示制御部73が図14(b)のプルダウンメニューを表示させる。閲覧者Yはポインティングデバイスで興味度を選択する。受付部72はこの操作を受け付けて表示制御部73が図14(c)のように、閲覧者Yが選択した興味度(図では興味度2)をメニューに表示する。 1.1 First, the viewer Y specifies the degree of interest that he / she wants to pay attention to. As shown in FIG. 14A, the information terminal 7 acquires image data, and the viewer Y presses a predetermined menu with a pointing device such as a mouse or a touch panel. The reception unit 72 receives this operation, and the display control unit 73 displays the pull-down menu shown in FIG. 14 (b). Viewer Y selects the degree of interest on the pointing device. The reception unit 72 receives this operation, and the display control unit 73 displays the degree of interest (degree of interest 2 in the figure) selected by the viewer Y on the menu as shown in FIG. 14 (c).

1.2 情報視覚化部74は、分布テーブルにおいて表示中の画像データに対応付けられている1つ以上の商品ゾーン610から、受付部72が受け付けた興味度の回数を取得する。例えば、興味度が2であるとして表8を例にすると13,17…N2mの回数が取得される。情報視覚化部74は、回数の大小を色に変換する。色への変換方法は主に2つある。1つは、いくつかの閾値で区切って2つの閾値に含まれる回数に所定の色に割り当てる方法である。もう1つは、全ての商品ゾーン610の回数の合計で各商品ゾーン610の回数で除算してパーセンテージを算出し、同様に閾値で区切って回数に色を割り当てる方法である。前者の方法では、絶対的な回数の大小を色で表示することができ、後者の方法ではある画像データにおけるある興味度について各商品ゾーン610の相対的な比較が可能になる。 1.2 The information visualization unit 74 acquires the number of times of interest received by the reception unit 72 from one or more product zones 610 associated with the image data displayed in the distribution table. For example, assuming that the degree of interest is 2, taking Table 8 as an example, the number of times of 13, 17 ... N2 m is acquired. The information visualization unit 74 converts the magnitude of the number of times into a color. There are two main methods for converting to color. One is a method of assigning a predetermined color to the number of times included in the two thresholds by dividing the color by several thresholds. The other is a method of calculating a percentage by dividing the total number of times of all product zones 610 by the number of times of each product zone 610, and similarly dividing by a threshold value and assigning a color to the number of times. In the former method, the magnitude of the absolute number of times can be displayed in color, and in the latter method, it is possible to make a relative comparison of each product zone 610 with respect to a certain degree of interest in a certain image data.

図15では、画像データに重畳して2つの商品ゾーン610が図示されており、それぞれが異なる色で表示されている。図では白黒であるが実際にはカラーで表示される。また、画像データの右端には色ガイド620が表示される。色ガイド620は色がどのくらいの回数を表すかを示す。したがって、閲覧者Yは商品ゾーン610の色と色ガイド620を比較して、各商品ゾーン610に指定した興味度のアクションがどのくらいの回数、カウントされたかを視覚的に把握できる。 In FIG. 15, two product zones 610 are shown superimposed on the image data, and each is displayed in a different color. Although it is black and white in the figure, it is actually displayed in color. Further, a color guide 620 is displayed at the right end of the image data. The color guide 620 indicates how many times a color represents. Therefore, the viewer Y can compare the color of the product zone 610 with the color guide 620 and visually grasp how many times the action of the degree of interest specified in each product zone 610 is counted.

また、図15に示すように、商品ゾーン610に回数を重畳して表示してもよい。閲覧者Yは回数そのものを把握できる。 Further, as shown in FIG. 15, the number of times may be superimposed and displayed on the product zone 610. Viewer Y can grasp the number of times itself.

なお、商品ゾーン610の原点、幅、高さは分布テーブルに登録されているため、表示制御部73は画像データに商品ゾーン610を示す矩形を描画できる。領域602を半透明にして描画してもよい。これにより、閲覧者Yは色の付された商品ゾーン610にどのような商品があるかを把握できる。 Since the origin, width, and height of the product zone 610 are registered in the distribution table, the display control unit 73 can draw a rectangle indicating the product zone 610 in the image data. The area 602 may be made semi-transparent and drawn. As a result, the viewer Y can grasp what kind of products are in the colored product zone 610.

2.操作2
商品ゾーン610を閲覧者Yが指定して、情報端末7はその商品ゾーン610で各興味度がカウントされた回数を視覚的に表示する。図16は操作2に対し情報端末7が表示する画面例を示す図の一例である。
2. Operation 2
The viewer Y designates the product zone 610, and the information terminal 7 visually displays the number of times each degree of interest is counted in the product zone 610. FIG. 16 is an example of a diagram showing an example of a screen displayed by the information terminal 7 for the operation 2.

2.1 閲覧者Yは、店舗を撮像した画像データをディスプレイ508に表示する。また、閲覧者Yは来客者の興味度を知りたい箇所(商品ゾーン)をポインティングデバイス640で指定する。受付部72は閲覧者Yが指定した位置の座標を受け付ける。 2.1 The viewer Y displays the image data obtained by capturing the image of the store on the display 508. In addition, the viewer Y specifies a place (product zone) in which he / she wants to know the degree of interest of the visitor with the pointing device 640. The reception unit 72 receives the coordinates of the position specified by the viewer Y.

2.2 情報視覚化部74は、受け取った座標を含む又はその座標に最も近い商品ゾーン610を分布テーブルから探し出す。 2.2 The information visualization unit 74 searches the distribution table for the product zone 610 including or closest to the received coordinates.

2.3 情報視覚化部74は、特定した商品ゾーン610に対応する興味度と回数の組を分布テーブルから取得する。表8の例で閲覧者Yがx1,y1で指定される商品ゾーン610を取得した場合、興味度0:52、興味度1:23、興味度2:13、興味度3:11、興味度4:7、興味度5:4、という興味度と回数の組が取得される。 2.3 The information visualization unit 74 acquires a set of the degree of interest and the number of times corresponding to the specified product zone 610 from the distribution table. In the example of Table 8, when the viewer Y acquires the product zone 610 specified by x1 and y1, the degree of interest is 0:52, the degree of interest is 1:23, the degree of interest is 2:13, the degree of interest is 3:11, and the degree of interest is A set of interest level and number of times of 4: 7 and interest level 5: 4 is acquired.

2.4 情報視覚化部74は、興味度と回数の対応を視覚的に表示する(例えば、ポップアップ表示する)。図16(b)では棒グラフで各興味度の回数が表示されている。興味度0〜5には予め色が対応付けられている。各興味度の棒グラフにおける高さに回数の違いが反映される。例えば、最も回数が多い興味度の高さがある一定の高さになり、他の興味度のグラフの高さは比例計算で決定される。 2.4 The information visualization unit 74 visually displays the correspondence between the degree of interest and the number of times (for example, pop-up display). In FIG. 16B, the number of times of each degree of interest is displayed in a bar graph. Colors are associated with interest levels 0 to 5 in advance. The difference in the number of times is reflected in the height in the bar graph of each degree of interest. For example, the height of interest, which is the most frequent, becomes a certain height, and the height of graphs of other interests is determined by proportional calculation.

また、例えば、各興味度の回数を合計し各回数を除算することでパーセンテージを算出し、相対的な違いをグラフで表示してもよい。図16(b)では円グラフで各興味度の回数が表示されている。これにより、相対的な違いを閲覧者Yが把握しやすくなる。 Further, for example, the percentage may be calculated by summing the number of times of each degree of interest and dividing each number of times, and the relative difference may be displayed in a graph. In FIG. 16B, the number of times of each degree of interest is displayed in a pie chart. This makes it easier for the viewer Y to grasp the relative difference.

したがって、操作2によれば、指定された商品ゾーンにおける興味度とその興味度を示した来客者の人数を閲覧者Yが視覚的に把握できる。 Therefore, according to the operation 2, the viewer Y can visually grasp the degree of interest in the designated product zone and the number of visitors showing the degree of interest.

3.操作3
画像データの全ての商品ゾーン610の興味度の差異を一覧表示する。情報端末7は商品ゾーン610ごとに興味度と回数の代表値を算出し、視覚的に表示する。図17は操作3に対し情報端末7が表示する画面例を示す図の一例である。
3. 3. Operation 3
The difference in the degree of interest of all the product zones 610 of the image data is displayed in a list. The information terminal 7 calculates the representative values of the degree of interest and the number of times for each product zone 610 and visually displays them. FIG. 17 is an example of a diagram showing an example of a screen displayed by the information terminal 7 for the operation 3.

3.1 閲覧者Yは、画像データの全ての商品ゾーン610の興味度の差異を一覧表示する操作を行う。受付部72がこの操作を受け付け、情報視覚化部74は、商品ゾーン610ごとに、来客者が示した多段階の興味度の人数を反映する代表値を所定の計算式により算出する。 3.1 Viewer Y performs an operation of displaying a list of differences in the degree of interest of all product zones 610 in the image data. The reception unit 72 accepts this operation, and the information visualization unit 74 calculates a representative value that reflects the number of people with multiple levels of interest indicated by the visitor for each product zone 610 by a predetermined calculation formula.

計算式の例としては、興味度ごとに重みを付与し回数を乗じて足し合わせる式がある。例えば、興味度が0〜5があるとすると、興味度0の重みは0、興味度1の重みは1、興味度2の重みは2、興味度3の重みは3、興味度4の重みは4、興味度5の重みは5である。興味度0〜5は興味が強いほど数値が大きくなっている。表8の例では、x1,y1で指定される商品ゾーン610について、興味度0×52、興味度1×23、興味度2×13、興味度3×11、興味度4×7、興味度5×4、が算出される。これらの興味度と回数の積の合計が代表値である。 As an example of the calculation formula, there is a formula in which weights are given for each degree of interest, multiplied by the number of times, and added. For example, if the degree of interest is 0 to 5, the weight of the degree of interest 0 is 0, the weight of the degree of interest 1 is 1, the weight of the degree of interest 2 is 2, the weight of the degree of interest 3 is 3, and the weight of the degree of interest 4 is 4. Is 4, and the weight of interest level 5 is 5. The higher the interest level, the larger the value of interest levels 0 to 5. In the example of Table 8, for the product zone 610 specified by x1 and y1, the degree of interest is 0 × 52, the degree of interest 1 × 23, the degree of interest 2 × 13, the degree of interest 3 × 11, the degree of interest 4 × 7, and the degree of interest. 5 × 4, is calculated. The sum of the products of these interests and the number of times is a representative value.

この他、最も頻度が多い回数の興味度と該回数の積(最頻値)、回数が中央値になる興味度と該回数の積(中間値)、回数の合計を6で除算した平均値、最も多い回数の興味度と該回数の積(最大値)を用いてもよい。あるいは、回数との積を求めずに、回数に基づいて興味度を取り出してもよい。 In addition, the product of the most frequent number of times of interest and the number of times (mode), the product of the degree of interest with the median number of times and the number of times (intermediate value), and the average value obtained by dividing the total number of times by 6. , The product of the highest number of interests and the number of times (maximum value) may be used. Alternatively, the degree of interest may be extracted based on the number of times without obtaining the product with the number of times.

また、これらの代表値の求め方を情報端末7がディスプレイ508に表示して、閲覧者Yに選択させてもよい。 Further, the information terminal 7 may display the method of obtaining these representative values on the display 508 and allow the viewer Y to select them.

3.2 代表値が算出されたら、情報視覚化部74は、代表値に応じて商品ゾーン610を色に対応させる。色を対応させる方法は、操作1と同様でよい。 3.2 After the representative value is calculated, the information visualization unit 74 makes the product zone 610 correspond to the color according to the representative value. The method of associating the colors may be the same as in step 1.

3.3 図17に示すように、画像データの5つの商品ゾーン610が代表値に対応した色で表示される。 3.3 As shown in FIG. 17, the five product zones 610 of the image data are displayed in colors corresponding to the representative values.

したがって、操作3によれば、全ての商品ゾーンについて興味度の差異を閲覧者Yは視覚的に把握できる。 Therefore, according to the operation 3, the viewer Y can visually grasp the difference in the degree of interest for all the product zones.

<実施例2 商品ゾーンが予め定義されていない場合>
実施例2では表9の解析情報テーブルが得られていることになる。情報視覚化部74は閲覧者Yの操作に応じて解析情報テーブルの商品ゾーン610の座標を使用して、表示制御部73がディスプレイ508に商品ゾーン610を表示する。以下では、閲覧者の3つの操作に対する表示例を説明する。
<Example 2 When the product zone is not defined in advance>
In the second embodiment, the analysis information table shown in Table 9 is obtained. The information visualization unit 74 uses the coordinates of the product zone 610 of the analysis information table according to the operation of the viewer Y, and the display control unit 73 displays the product zone 610 on the display 508. Hereinafter, a display example for the three operations of the viewer will be described.

4.操作4
特定のアクション(興味度)を閲覧者Yが指定して、情報端末7がその興味度に対応する商品ゾーン610を視覚的に表示する。図18は操作4に対し情報端末7が表示する画面例を示す図の一例である。
4. Operation 4
The viewer Y specifies a specific action (interest level), and the information terminal 7 visually displays the product zone 610 corresponding to the interest level. FIG. 18 is an example of a diagram showing an example of a screen displayed by the information terminal 7 for the operation 4.

4.1 閲覧者Yは興味度を選択する。選択方法は操作1で説明した方法と同様でよい。 4.1 Viewer Y selects the degree of interest. The selection method may be the same as the method described in operation 1.

4.2 情報視覚化部74は選択された興味度が対応付けられた商品ゾーン610の座標を解析情報テーブルから読み出す。情報視覚化部74は商品ゾーン610に興味度に基づいて決定される色を対応付ける。図18に示すように、選択された興味度を有する商品ゾーン610が画像データに重複して表示される。なお、複数の商品ゾーン610が重なっている場合、重なる商品ゾーン610が含まれる範囲をひとつの連続した商品ゾーン610と見なす。 4.2 The information visualization unit 74 reads out the coordinates of the product zone 610 associated with the selected degree of interest from the analysis information table. The information visualization unit 74 associates the product zone 610 with a color determined based on the degree of interest. As shown in FIG. 18, the product zone 610 having the selected degree of interest is displayed in duplicate in the image data. When a plurality of product zones 610 overlap, the range including the overlapping product zones 610 is regarded as one continuous product zone 610.

したがって、操作4によれば、指定された興味度が生じた商品ゾーンを閲覧者Yが視覚的に把握できる。 Therefore, according to the operation 4, the viewer Y can visually grasp the product zone in which the designated degree of interest has occurred.

5.操作5
商品ゾーン610を閲覧者Yが指定して、情報端末7がその商品ゾーン610の興味度を視覚的に表示する。図19は操作5に対し情報端末7が表示する画面例を示す図の一例である。
5. Operation 5
The viewer Y designates the product zone 610, and the information terminal 7 visually displays the degree of interest in the product zone 610. FIG. 19 is an example of a diagram showing an example of a screen displayed by the information terminal 7 for the operation 5.

5.1 図19(a)に示すように、ユーザは画像データの中で来客者の興味度を知りたい箇所をポインティングデバイスなどで指定する。受付部72はポインティングデバイス640が入力した位置の座標を取得する。 5.1 As shown in FIG. 19A, the user specifies a part of the image data in which he / she wants to know the degree of interest of the visitor with a pointing device or the like. The reception unit 72 acquires the coordinates of the position input by the pointing device 640.

5.2 閲覧者は取得された座標に最も近い商品ゾーン610を解析情報テーブルから探し出す。該当する商品ゾーン610が2つ以上、存在する場合、図19(b)に示すように情報視覚化部74は、複数の商品ゾーン610を閲覧者Yに提示し、どれか一つの商品ゾーン610を選択させる。図19(c)に示すように、受付部72は1つの商品ゾーン610の選択を受け付ける。表示制御部73は必要に応じて画像データを拡大表示(ズーム・イン)する。 5.2 The viewer searches the analysis information table for the product zone 610 closest to the acquired coordinates. When there are two or more corresponding product zones 610, the information visualization unit 74 presents a plurality of product zones 610 to the viewer Y as shown in FIG. 19 (b), and any one of the product zones 610 is presented. Let me select. As shown in FIG. 19C, the reception unit 72 accepts the selection of one product zone 610. The display control unit 73 enlarges and displays (zooms in) the image data as needed.

5.3 情報視覚化部74はこのようにして求めた商品ゾーン610に対応する興味度を解析情報テーブルから取得して、興味度によって決まっている色を割り当てる。 5.3 The information visualization unit 74 acquires the degree of interest corresponding to the product zone 610 obtained in this way from the analysis information table, and assigns a color determined by the degree of interest.

5.4 図19(d)に示すように、表示制御部73は商品ゾーン610を割り当てられた色で画像データに表示する。 5.4 As shown in FIG. 19D, the display control unit 73 displays the product zone 610 in the image data in the assigned color.

したがって、操作5によれば、指定された商品ゾーンにおける興味度を閲覧者Yが視覚的に把握できる。 Therefore, according to the operation 5, the viewer Y can visually grasp the degree of interest in the designated product zone.

6.操作6
画像データの全ての商品ゾーン610の興味度の差異を一覧表示する。情報端末7は商品ゾーン610ごとに興味度を色で示す。商品ゾーン610が重なっている領域602は、興味度を足し合わせてから色に変換する。図20は操作6に対し情報端末7が表示する画面例を示す図の一例である。
6. Operation 6
The difference in the degree of interest of all the product zones 610 of the image data is displayed in a list. The information terminal 7 indicates the degree of interest in each product zone 610 in color. The area 602 on which the product zones 610 overlap is converted into a color after adding the degree of interest. FIG. 20 is an example of a diagram showing an example of a screen displayed by the information terminal 7 for the operation 6.

6.1 閲覧者Yは、画像データの全ての商品ゾーン610の興味度の差異を一覧表示する操作を行う。受付部72がこの操作を受け付ける。 6.1 Viewer Y performs an operation of displaying a list of differences in the degree of interest of all product zones 610 in the image data. The reception unit 72 accepts this operation.

6.2 情報視覚化部74は、それぞれの商品ゾーン610に対応する興味度を解析情報テーブルから取得する。商品ゾーン610が重なっている範囲は、重なりに応じた興味度を算出する。この算出方法は図21にて説明される。 6.2 The information visualization unit 74 acquires the degree of interest corresponding to each product zone 610 from the analysis information table. In the range where the product zones 610 overlap, the degree of interest is calculated according to the overlap. This calculation method will be described with reference to FIG.

6.3 情報視覚化部74は、興味度を色に当てはめてヒートマップを生成する。ヒートマップの作成方法は図21にて後述される。 6.3 The information visualization unit 74 applies the degree of interest to colors to generate a heat map. The method of creating the heat map will be described later in FIG.

6.4 図20に示すように、表示制御部73は画像データにヒートマップを重畳して表示する。図20では、同心円状の色の濃度が徐々に変化する(グラデーション)商品ゾーン610が表示されている。色が濃いほど商品ゾーン610が重なっていることを示す。 6.4 As shown in FIG. 20, the display control unit 73 superimposes and displays a heat map on the image data. In FIG. 20, a product zone 610 in which the density of concentric colors gradually changes (gradation) is displayed. The darker the color, the more the product zones 610 overlap.

したがって、操作6によれば、色の濃さによって来客者が各商品ゾーン610にどのくらい興味を示したかを閲覧者Yが視覚的に判断できる。 Therefore, according to the operation 6, the viewer Y can visually determine how much the visitor is interested in each product zone 610 based on the color depth.

<ヒートマップの作成>
図21を用いてヒートマップの作成方法を説明する。図21は、ヒートマップの作成に関し重み付けを説明する図の一例である。
<Creating a heat map>
A method of creating a heat map will be described with reference to FIG. FIG. 21 is an example of a diagram illustrating weighting with respect to the creation of a heat map.

商品ゾーン610にグラデーションをレンダリングするための重み付け値を情報視覚化部74が設定する。図21に示すように、商品ゾーン610である矩形の中心点(cx1, cy1)を算出し、この点を中心とし近傍に一定間隔に格子点を設定する。格子点数を一定とするため、間隔は商品ゾーン610のサイズに応じた値とする。これにより、商品ゾーン610の大きさに応じて描画するグラデーションのサイズに差を生じさせることができる。そして、各格子点に、興味度に応じた値であって、中心を最大値となる重み付け値を設定する。 The information visualization unit 74 sets a weighting value for rendering the gradation in the product zone 610. As shown in FIG. 21, the center point (cx1, cy1) of the rectangle which is the product zone 610 is calculated, and grid points are set at regular intervals in the vicinity of this point. In order to keep the number of grid points constant, the interval is set to a value according to the size of the product zone 610. As a result, it is possible to make a difference in the size of the gradation to be drawn according to the size of the product zone 610. Then, a weighting value that is a value according to the degree of interest and has the maximum value at the center is set for each grid point.

また、ある商品ゾーン610と重なり合う別の商品ゾーン610がある場合、各々の中心点の平均の中心点(cxn, cyn )を算出する。cxn=cx1+cx2、cyn=cy1+cy2である。同様に、中心とし近傍に一定間隔に格子点を設定する。そして、平均の中心点が相対的に高値となるように重み付け値を算出する。この時の重み付け値は商品ゾーン610が1つの場合よりも大きい。例えば、着目している商品ゾーン610と重複する全ての商品ゾーン610の数をカウントして、この数と平均の興味度の積に応じた最大値を平均の中心点に設定する。なお、各商品ゾーン610は1度しか重複する数にカウントされない。 Further, when there is another product zone 610 that overlaps with one product zone 610, the average center point (cxn, cyn) of each center point is calculated. cxn = cx1 + cx2, cyn = cy1 + cy2. Similarly, grid points are set at regular intervals in the vicinity of the center. Then, the weighting value is calculated so that the center point of the average becomes a relatively high value. The weighting value at this time is larger than that in the case of one product zone 610. For example, the number of all product zones 610 that overlap with the product zone 610 of interest is counted, and the maximum value corresponding to the product of this number and the average degree of interest is set as the center point of the average. It should be noted that each product zone 610 is counted as a number that overlaps only once.

したがって、興味度が高く重複している商品ゾーンほど、中心点の重み付け値が高値となる。中心点の周りの格子点は、中心点から離れるほど小さくなる重み付けが与えられる。これにより、商品ゾーン610をグラデーションで表示でき、商品ゾーン610が集まる部分を濃く描画できる。 Therefore, the higher the degree of interest and the more overlapping product zones, the higher the weighting value of the center point. The grid points around the center point are weighted as they move away from the center point. As a result, the product zone 610 can be displayed in gradation, and the portion where the product zone 610 gathers can be drawn darkly.

なお、中心点の周囲に格子点を設定するのでなく、中心点を中心にガウス関数などによりなだらかな色の変化を与えてもよい。 Instead of setting grid points around the center point, a gentle color change may be given around the center point by a Gaussian function or the like.

また、ある商品ゾーン610と重なり合う別の商品ゾーン610がある場合、それぞれの格子点の重み付け値をそのまま合計してもよい。格子点が完全に一致することは少ないので着目している商品ゾーン610の格子点と最も近い格子点の重み付け値を合計する。この場合、重み付け値に応じて濃度が高い色が設定される。多くの商品ゾーン610が重なるほど格子点の重み付け値が大きくなるので、商品ゾーン610が多くある場所を濃く表示できる。 Further, when there is another product zone 610 that overlaps with one product zone 610, the weighted values of the respective grid points may be summed as they are. Since it is rare that the grid points completely match, the weighted values of the grid points of the product zone 610 of interest and the nearest grid points are summed. In this case, a color having a high density is set according to the weighting value. As the number of product zones 610 overlaps, the weighting value of the grid points increases, so that the place where there are many product zones 610 can be displayed darkly.

実施例1〜3で説明した画像処理システム200が例えば小売店に配置された場合を想定する。撮像装置1は定期的に周囲を撮像しているがスタッフが店内で何らかの注目すべき事象に気づく場合がある。例えば、来客者同士のトラブル、特異な行動をする客、病人発生、商品の散乱、施設の損壊、などがある。これらの事象は撮像装置1により撮像されているが、こういった事象は閲覧者Yも把握しておくべきことである。このため、スタッフがこういった事象に遭遇した場合、「今、起こったこと」を後から閲覧者Yが画像で確認したい場合が少なくない。 It is assumed that the image processing system 200 described in Examples 1 to 3 is arranged in a retail store, for example. Although the image pickup device 1 periodically images the surroundings, the staff may notice some remarkable event in the store. For example, there are troubles between visitors, customers who behave peculiarly, outbreak of sick people, scattering of products, damage to facilities, and so on. These events are imaged by the image pickup apparatus 1, but such events should be grasped by the viewer Y as well. Therefore, when the staff encounters such an event, the viewer Y often wants to confirm "what happened now" with an image later.

閲覧者Yが後から画像を確認するためには、事象に気づいた時刻や場所などを記憶しておくかメモしておくこと等が必要である。しかし、このような作業は忙しいスタッフにとって面倒である。そこで、スタッフ等が撮像を継続している撮像装置1の画像データに事象が起こった旨を記録することが考えられる。例えば、ある時間範囲の画像データに事象が起こった旨を記録しておけば、後から事象が起きた頃の画像を容易に探し出せる。 In order for the viewer Y to check the image later, it is necessary to memorize or make a note of the time and place where the event was noticed. However, such work is troublesome for busy staff. Therefore, it is conceivable that the staff or the like records that an event has occurred in the image data of the image pickup apparatus 1 that continues to take an image. For example, if the fact that an event has occurred is recorded in the image data in a certain time range, it is possible to easily find the image when the event occurred later.

しかし、事象が起こった旨を記録する権限があるのは撮像装置1の操作権限を持つ者(一般には店舗の店長や本社のマネージャ等。本実施例では閲覧者Y。)のみに限られ、店舗で実際に事象に遭遇する機会が最も多い一般のスタッフはそもそも撮像装置1の操作権限がない。スタッフにこのような権限が与えられていれば、スタッフ又は閲覧者Yが画像の閲覧時に画像データに事象が起こった旨を記録することはできるが、リアルタイムに事象が起こった旨を記録することは困難であった。 However, only the person who has the authority to operate the imaging device 1 (generally, the store manager, the manager of the head office, etc., in this embodiment, the viewer Y) has the authority to record the fact that the event has occurred. The general staff, who have the most chances of actually encountering an event in a store, do not have the authority to operate the image pickup device 1 in the first place. If the staff is given such authority, the staff or the viewer Y can record that an event has occurred in the image data when viewing the image, but record that the event has occurred in real time. Was difficult.

そこで、本実施例では、撮像装置1の撮像中に注目すべき事象が発生した場合、スタッフが画像管理装置5に通知することで、事象が写った特定の画像データに画像管理装置5が、事象が起こった旨を記録する。このような構成にすれば、スタッフはリアルタイムに事象が起こった旨を画像データに記録できる。したがって、閲覧者Yは後から記録を検索するなどして、事象が写っている画像データに速やかにアクセスできる。 Therefore, in the present embodiment, when a remarkable event occurs during the imaging of the image pickup device 1, the staff notifies the image management device 5 so that the image management device 5 can add the event to the specific image data in which the event is captured. Record that the event has occurred. With such a configuration, the staff can record the fact that an event has occurred in the image data in real time. Therefore, the viewer Y can quickly access the image data in which the event is captured, such as by searching the record later.

<システム構成について>
図22は、画像処理システム200の概略構成図の一例である。なお、図22の説明では、図2において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
<About system configuration>
FIG. 22 is an example of a schematic configuration diagram of the image processing system 200. In the description of FIG. 22, since the components having the same reference numerals in FIG. 2 perform the same function, only the main components of the present embodiment may be mainly described.

図22にはスタッフが操作するスタッフ端末4が記載されている。スタッフZは、店舗の職員、従業員、部員、社員、アルバイト、パートなどである。スタッフZに閲覧者Yや設置者Xが含まれてよい。スタッフ端末4は、可搬性が高い情報処理装置であり、例えば、スマートフォン、タブレット端末、ノートPC、ウェアラブルPC、ゲーム機、携帯電話、PDAなどであるが、これらに限られるものではない。また、可搬性が高い必要はなく据え置き型の情報処理装置をスタッフZが使用してもよい。 FIG. 22 shows a staff terminal 4 operated by a staff member. Staff Z includes store staff, employees, members, employees, part-time workers, part-time workers, and the like. The staff Z may include the viewer Y and the installer X. The staff terminal 4 is a highly portable information processing device, and is, for example, a smartphone, a tablet terminal, a notebook PC, a wearable PC, a game machine, a mobile phone, a PDA, and the like, but is not limited thereto. Further, the staff Z may use a stationary information processing device, which does not need to be highly portable.

スタッフ端末4では、スタッフ端末4用のプログラムが動作している。スタッフ端末4用のプログラムは、例えばブラウザソフトウェアや画像処理システム200に専用のアプリケーションソフトウェアである。専用のアプリケーションソフトウェアは画像管理装置5のIPアドレス等を保持しており画像管理装置5と通信する。また、ブラウザソフトウェアの場合、スタッフZの操作によりスタッフ端末4が画像管理装置5と通信する。 On the staff terminal 4, the program for the staff terminal 4 is running. The program for the staff terminal 4 is, for example, browser software or application software dedicated to the image processing system 200. The dedicated application software holds the IP address and the like of the image management device 5 and communicates with the image management device 5. Further, in the case of browser software, the staff terminal 4 communicates with the image management device 5 by the operation of the staff Z.

スタッフ端末4は、ユーザの操作を受け付けて事象記録要求を画像管理装置5に送信する。事象記録要求とは、事象が起こった旨の記録の要求である。詳細は後述される。 The staff terminal 4 accepts the user's operation and transmits the event recording request to the image management device 5. The event record request is a request for recording that an event has occurred. Details will be described later.

図23は、スタッフ端末4のハードウェア構成図の一例を示す。スタッフ端末4は、スタッフ端末4の全体の動作を制御するCPU401、IPL(Initial Program Loader)等のプログラムを記憶したROM402、CPU401のワークエリアとして使用されるRAM403を有する。また、スタッフ端末4用のプログラム430や画像データ等の各種データを記憶するフラッシュメモリ404、CPU401の制御にしたがってフラッシュメモリ404に対する各種データの読み出し又は書き込みを制御するSSD(Solid State Drive)405を有する。また、フラッシュメモリ等の記録メディア406に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ407、スタッフ端末4に対する各種操作を受け付ける操作ボタン408、スタッフ端末4の電源のON/OFFを切り換えるための電源スイッチ409、通信ネットワークを利用して無線又は有線でデータ伝送をするためのネットワークI/F(Interface)417を有する。 FIG. 23 shows an example of the hardware configuration diagram of the staff terminal 4. The staff terminal 4 has a CPU 401 that controls the overall operation of the staff terminal 4, a ROM 402 that stores programs such as an IPL (Initial Program Loader), and a RAM 403 that is used as a work area of the CPU 401. Further, it has a flash memory 404 that stores various data such as a program 430 for the staff terminal 4 and image data, and an SSD (Solid State Drive) 405 that controls reading or writing of various data to the flash memory 404 according to the control of the CPU 401. .. Further, a media drive 407 that controls reading or writing (storage) of data to a recording medium 406 such as a flash memory, an operation button 408 that accepts various operations on the staff terminal 4, and a power ON / OFF switch for the staff terminal 4. It has a power switch 409 and a network I / F (Interface) 417 for transmitting data wirelessly or by wire using a communication network.

また、スタッフ端末4は、CPU401の制御にしたがって被写体を撮像して画像データを取得する内蔵型のカメラ412、このカメラ412の駆動を制御する撮像素子I/F413、音声を入力する内蔵型のマイク414、音声を出力する内蔵型のスピーカ415を有する。また、CPU401の制御にしたがってマイク414及びスピーカ415との間で音声信号の入出力を処理する音声入出力I/F416、CPU401の制御にしたがってディスプレイ450に画像データを伝送するディスプレイI/F417、各種の外部機器を接続するための外部機器接続I/F418を有する。また、GPSの衛星からの電波を受信して位置を検出するGPS受信装置419、スタッフ端末4に生じる加速度を検出する加速度センサ420、携帯電話網を介して音声通信・データ通信を行うLTE通信部421、及び、上記各構成要素を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン422を有する。 Further, the staff terminal 4 has a built-in camera 412 that captures a subject and acquires image data under the control of the CPU 401, an image sensor I / F 413 that controls the drive of the camera 412, and a built-in microphone that inputs audio. It has a built-in speaker 415 that outputs 414 and audio. Further, various types of audio input / output I / F 416 for processing audio signal input / output between the microphone 414 and the speaker 415 under the control of the CPU 401, and a display I / F 417 for transmitting image data to the display 450 under the control of the CPU 401. It has an external device connection I / F 418 for connecting the external device of the above. In addition, a GPS receiver 419 that receives radio waves from GPS satellites to detect the position, an acceleration sensor 420 that detects the acceleration generated in the staff terminal 4, and an LTE communication unit that performs voice communication and data communication via a mobile phone network. It has a 421 and a bus line 422 such as an address bus and a data bus for electrically connecting each of the above components as shown in FIG.

ディスプレイ450は、液晶や有機ELによって構成され、ユーザが操作するメニュー、撮像した映像、メッセージなどを表示する表示領域である。ディスプレイI/F417は、ディスプレイ450のタッチパネル機能に対応している。 The display 450 is composed of a liquid crystal or an organic EL, and is a display area for displaying a menu operated by a user, an captured image, a message, and the like. The display I / F417 corresponds to the touch panel function of the display 450.

カメラ412は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)等が用いられる。 The camera 412 includes a lens and a solid-state image sensor that converts light into electric charges to digitize an image (video) of the subject. As the solid-state image sensor, CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Coupled Device) Etc. are used.

外部機器接続I/F418には、USB(Universal Serial Bus)ケーブル等によって、各種の外部デバイスを装着可能である。例えば、Bluetooth(登録商標)などの近距離無線通信装置を接続できる。 Various external devices can be attached to the external device connection I / F418 by a USB (Universal Serial Bus) cable or the like. For example, a short-range wireless communication device such as Bluetooth (registered trademark) can be connected.

また、フラッシュメモリ404にはスタッフ端末4用のプログラム430が記憶されている。スタッフ端末4用のプログラム430はネットワークI/F411によりプログラム配信用のサーバからダウンロードされる。 Further, the flash memory 404 stores a program 430 for the staff terminal 4. The program 430 for the staff terminal 4 is downloaded from the server for program distribution by the network I / F411.

なお、記録メディア406は、スタッフ端末4に対して着脱自在な構成となっている。また、上記のプログラム430は、記録メディア406に記録された状態で配布される場合がある。 The recording medium 406 has a structure that can be attached to and detached from the staff terminal 4. Further, the above program 430 may be distributed in a state of being recorded on the recording medium 406.

<機能について>
図24は、本実施例の画像処理システム200の一部を構成する、画像管理装置5、情報端末7及びスタッフ端末4の各機能ブロック図である。なお、撮像装置1と通信端末3については省略した。本実施例において、図13において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
<About functions>
FIG. 24 is a functional block diagram of each of the image management device 5, the information terminal 7, and the staff terminal 4, which constitutes a part of the image processing system 200 of this embodiment. The image pickup device 1 and the communication terminal 3 are omitted. In the present embodiment, the components having the same reference numerals in FIG. 13 perform the same functions, and therefore, only the main components of the present embodiment may be mainly described.

図24の画像管理装置5は事象記録部57を有している。事象記録部57は、図5に示されているCPU501の処理によって実現され、スタッフ端末4からの事象記録要求を受信すると画像管理テーブルに事象フラグを設定する。 The image management device 5 of FIG. 24 has an event recording unit 57. The event recording unit 57 is realized by the processing of the CPU 501 shown in FIG. 5, and when the event recording request from the staff terminal 4 is received, the event recording unit 57 sets an event flag in the image management table.

Figure 0006852293
表10は、本実施例の画像管理DB5003に記憶される画像管理テーブルを示す。表10の画像管理テーブルでは、新たに事象フラグのフィールドを有している。事象フラグにはON又はOFF(OFFの場合は何も記録されなくてよい)が設定される。ONの場合には、更にスタッフIDとカテゴリIDが設定される。スタッフIDはスタッフZを特定する機能を有する情報であり、スタッフ特定情報と称してもよい。また、カテゴリIDは後述する事象のカテゴリを特定する機能を有する情報であり、事象分類情報と称してもよい。
Figure 0006852293
Table 10 shows an image management table stored in the image management DB 5003 of this embodiment. The image management table in Table 10 has a new event flag field. The event flag is set to ON or OFF (when it is OFF, nothing needs to be recorded). When it is ON, a staff ID and a category ID are further set. The staff ID is information having a function of identifying the staff Z, and may be referred to as staff identification information. Further, the category ID is information having a function of specifying the category of the event described later, and may be referred to as event classification information.

例えば、画像IDがP0001の事象フラグには「ON:S001,C001」と設定されているので、スタッフIDがS001のスタッフZが、カテゴリIDがC001の事象フラグを設定したことが示されている。なお、1つの画像データに複数のスタッフZが事象フラグを設定できる。 For example, since the event flag with the image ID P0001 is set to "ON: S001, C001", it is shown that the staff Z with the staff ID S001 has set the event flag with the category ID C001. .. It should be noted that a plurality of staff Zs can set event flags for one image data.

<<スタッフ端末4の機能について>>
スタッフ端末4は、図示するように送受信部41、受付部42、表示制御部43、事象記録要求部44、及び、記憶・読出部49を有する。これら各部は、図23に示されている各構成要素のいずれかが、フラッシュメモリ404からRAM403上に展開されたスタッフ端末4用のプログラムに従ったCPU401からの命令によって動作することで実現される機能又は手段である。
<< Functions of staff terminal 4 >>
As shown in the figure, the staff terminal 4 has a transmission / reception unit 41, a reception unit 42, a display control unit 43, an event record request unit 44, and a storage / reading unit 49. Each of these parts is realized by operating any of the components shown in FIG. 23 by an instruction from the CPU 401 according to a program for the staff terminal 4 expanded on the RAM 403 from the flash memory 404. A function or means.

また、スタッフ端末4は、図23に示されているROM402、RAM403、及びフラッシュメモリ404の1つ以上によって構築される記憶部4000を有している。記憶部4000にはスタッフ端末4用のプログラム430が記憶されている。また、スタッフIDや認証のためのパスワードが記憶されていてもよい。 Further, the staff terminal 4 has a storage unit 4000 constructed by one or more of the ROM 402, the RAM 403, and the flash memory 404 shown in FIG. 23. The program 430 for the staff terminal 4 is stored in the storage unit 4000. Further, the staff ID and the password for authentication may be stored.

スタッフ端末4の送受信部41は、主に、図23に示されているネットワークI/F411及びCPU401の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、スタッフ端末4が画像管理装置5と通信する場合でも、「送受信部41を介して」という記載を省略する場合がある。また、スタッフ端末4はLTE通信部421を使用して通信してもよい。 The transmission / reception unit 41 of the staff terminal 4 is mainly realized by the processing of the network I / F 411 and the CPU 401 shown in FIG. 23, and transmits / receives various data to / from the image management device 5 via the communication network 9. In the following, even when the staff terminal 4 communicates with the image management device 5, the description "via the transmission / reception unit 41" may be omitted. Further, the staff terminal 4 may communicate using the LTE communication unit 421.

スタッフ端末4の受付部42は、主に、図23に示されている操作ボタン408及びCPU401の処理によって実現され、スタッフZからの操作入力を受け付ける。 The reception unit 42 of the staff terminal 4 is realized mainly by the processing of the operation buttons 408 and the CPU 401 shown in FIG. 23, and receives the operation input from the staff Z.

表示制御部43は、主に、図23に示されているディスプレイI/F417及びCPU401の処理によって実現され、CUI(Character User Interface)やGUI(Graphical User Interface)と呼ばれる画面を作成しディスプレイ450に表示させる。 The display control unit 43 is mainly realized by the processing of the display I / F 417 and the CPU 401 shown in FIG. 23, and creates a screen called a CUI (Character User Interface) or a GUI (Graphical User Interface) on the display 450. Display it.

事象記録要求部44は、主に、図23に示されているCPU401の処理によって実現され、ユーザが所定の操作を行った場合、事象記録要求をサーバに送信する。事象記録要求には、事象が起こった旨の記録の要求に加え、撮像装置1の端末ID、事象開始情報、事象終了情報、スタッフID、及びカテゴリIDが含まれることが好ましい。事象開始情報は事象フラグの設定を開始する時刻に関する情報であり、事象終了情報は事象フラグの設定を終了する時刻に関する情報である。 The event recording request unit 44 is mainly realized by the processing of the CPU 401 shown in FIG. 23, and when the user performs a predetermined operation, the event recording request unit 44 transmits the event recording request to the server. The event recording request preferably includes the terminal ID of the imaging device 1, the event start information, the event end information, the staff ID, and the category ID, in addition to the request for recording that the event has occurred. The event start information is information about the time when the event flag setting is started, and the event end information is information about the time when the event flag setting is finished.

記憶・読出部49は、主に、図23に示されているCPU401の処理によって実現され、記憶部4000に各種データを記憶したり、記憶部4000から各種データを読み出したりする。 The storage / reading unit 49 is mainly realized by the processing of the CPU 401 shown in FIG. 23, stores various data in the storage unit 4000, and reads various data from the storage unit 4000.

<事象の記録について>
図25は店舗における画像処理システム200の利用形態を説明する図の一例である。店舗に撮像装置1が設置され、店内の様子を定期的に撮像している(定点観測している)。また、店内ではスタッフ端末4を携帯するスタッフZが作業している。上記のように、撮像された画像データは画像管理テーブルに登録される。図25には表10の画像データのファイル名を除く項目が示されている。すなわち、図25では3つの画像データが撮像された様子を模式的に示しており、それぞれに来客者Gが撮像されている。3つの画像データ601の1つに、端末ID、画像ID、撮像日時、及び、事象フラグが示されている。撮像中又は撮像後、店舗のバックヤードや店舗外で閲覧者Yが画像データを閲覧できる。
<About event recording>
FIG. 25 is an example of a diagram illustrating a usage pattern of the image processing system 200 in a store. An imaging device 1 is installed in the store to regularly image the inside of the store (fixed point observation). In addition, staff Z carrying the staff terminal 4 is working in the store. As described above, the captured image data is registered in the image management table. In FIG. 25, items excluding the file names of the image data in Table 10 are shown. That is, FIG. 25 schematically shows how the three image data are captured, and the visitor G is captured in each of them. A terminal ID, an image ID, an imaging date and time, and an event flag are shown in one of the three image data 601. Viewer Y can view the image data during or after imaging, in the backyard of the store or outside the store.

次に、図26に示すように、店舗内で注目すべき事象が発生したものとする。図26は、来客者Gが倒れるという事象が発生した店舗を示す図である。スタッフZはこの事象に遭遇し注目すべき事象であると判断する。 Next, as shown in FIG. 26, it is assumed that a notable event has occurred in the store. FIG. 26 is a diagram showing a store in which the event that the visitor G collapses occurs. Staff Z encounters this event and determines that it is a noteworthy event.

来客者Gが倒れる様子は撮像されているので事象自体は画像データに記録されている。図26では4つの画像データが撮像されているが、4つめの画像データには倒れた来客者Gが撮像されている。この事象を閲覧者Yが閲覧する場合、事象が捉えられている画像データを容易に探し出せることが好ましい。そこで、スタッフZは、店舗内で事象が写っている画像データに事象が写っていることを示す印(事象フラグ)を付与する。 Since the appearance of the visitor G falling down is imaged, the event itself is recorded in the image data. In FIG. 26, four image data are imaged, and the fallen visitor G is imaged in the fourth image data. When the viewer Y browses this event, it is preferable that the image data in which the event is captured can be easily found. Therefore, the staff Z gives a mark (event flag) indicating that the event is captured in the image data in which the event is captured in the store.

図27を用いて、スタッフによる事象記録のためのスタッフ端末4の操作について説明する。この操作により事象記録要求が画像管理装置5に送信される。図27は、スタッフ端末4のディスプレイ450に表示される事象記録画面680の一例を示す。事象記録画面680はスタッフ端末4用のプログラム430が生成する画面の1つである。事象記録画面680は、カメラ番号611、カテゴリ選択欄612、開始時間欄613、終了時間欄614、開始ボタン615、及び、終了ボタン616を有する。 The operation of the staff terminal 4 for event recording by the staff will be described with reference to FIG. 27. By this operation, the event recording request is transmitted to the image management device 5. FIG. 27 shows an example of the event recording screen 680 displayed on the display 450 of the staff terminal 4. The event recording screen 680 is one of the screens generated by the program 430 for the staff terminal 4. The event recording screen 680 has a camera number 611, a category selection field 612, a start time field 613, an end time field 614, a start button 615, and an end button 616.

カメラ番号611は、撮像装置1を特定するための番号である。スタッフZは事象が起きた場所を撮像している撮像装置1のカメラ番号611を指定する。カメラ番号611は端末IDと同じでもよいし異なっていてもよい。異なっている場合は、カメラ番号611と端末IDが対応付けられたテーブルを用いて画像管理装置5がカメラ番号611を端末IDに変換する。 The camera number 611 is a number for identifying the image pickup apparatus 1. Staff Z designates camera number 611 of the imaging device 1 that is imaging the location where the event occurred. The camera number 611 may be the same as or different from the terminal ID. If they are different, the image management device 5 converts the camera number 611 into the terminal ID using the table in which the camera number 611 and the terminal ID are associated with each other.

カテゴリ選択欄612は、事象のカテゴリをスタッフZが選択するための欄である。カテゴリの一例は、来客者同士のトラブル、特異な行動をする来客者、病人発生、商品の散乱、施設の損壊、その他などである。 The category selection field 612 is a field for the staff Z to select the event category. Examples of categories are troubles between visitors, visitors with unusual behavior, outbreaks of sick people, clutter of goods, damage to facilities, and so on.

開始時間欄613は、スタッフZが事象記録要求を画像管理装置5に送信した時(又は受信した時)を基準に、事象フラグの設定を遡る時間をスタッフZが指定するための欄である。スタッフZが事象を発見した時はすでに事象が起きた後なので、事象は事象記録要求よりも前に始まっている。このため、スタッフZはどのくらい前に事象が起きたかを推定して開始時間欄613に設定する。開始時間欄の時間は事象開始情報に相当する。 The start time column 613 is a column for the staff Z to specify a time for tracing back the setting of the event flag based on the time when the staff Z transmits (or receives) the event recording request to the image management device 5. Since the time when Staff Z discovers the event is already after the event has occurred, the event has started before the event recording request. Therefore, the staff Z estimates how long ago the event occurred and sets it in the start time column 613. The time in the start time column corresponds to the event start information.

終了時間欄614は、スタッフZが終了ボタン616を押下して事象記録終了を画像管理装置5に送信した時(又は受信した時)を基準に、事象フラグの設定を延長する時間をスタッフZが指定するための欄である。スタッフZが事象の終了を確認した時に終了ボタン616を押下することができればよいが、スタッフZは作業に追われて終了ボタン616を押下することを忘れる場合がある。このため、スタッフZは開始ボタン615の押下後、どのくらい記録すれば事象を記録し終わるか推定して終了時間欄614に設定する。これにより、早めに終了ボタン616を押下しておくことができるので、終了ボタン616の押し忘れを抑制できる。終了時間欄の時間は事象終了情報に相当する。 In the end time column 614, the staff Z sets the time for extending the setting of the event flag based on the time when the staff Z presses the end button 616 and transmits (or receives) the event recording end to the image management device 5. This is a field for specifying. It would be good if the staff Z could press the end button 616 when confirming the end of the event, but the staff Z may forget to press the end button 616 because of the work. Therefore, the staff Z estimates how long it takes to record the event after pressing the start button 615 and sets it in the end time column 614. As a result, the end button 616 can be pressed early, so that it is possible to suppress forgetting to press the end button 616. The time in the end time column corresponds to the event end information.

開始ボタン615は、スタッフZが事象記録要求を画像管理装置5に送信するためのボタンである。終了ボタン616は、スタッフZが事象記録終了を画像管理装置5に送信するためのボタンである。なお、スタッフが終了ボタン616を押し忘れても、画像管理装置5の事象記録部57は事象記録要求から所定の時間の経過後に自動的に終了ボタン616が押下されたとみなす。 The start button 615 is a button for the staff Z to send an event recording request to the image management device 5. The end button 616 is a button for the staff Z to send the event recording end to the image management device 5. Even if the staff forgets to press the end button 616, the event recording unit 57 of the image management device 5 automatically considers that the end button 616 has been pressed after a predetermined time has elapsed from the event recording request.

変形例として、スタッフ端末4は、開始ボタン615の押下で開始時間欄613と終了時間欄614の両方を画像管理装置5に送信してよい。これにより、スタッフZは1回の操作で事象開始情報と事象終了情報を送信できる。この場合、終了ボタン616はなくてもよいし、終了ボタン616は即座に記録を終了するためのボタンとして用意されていてもよい。また、スタッフZはスタッフ端末4用のプログラム430を起動させた際に画像管理装置5にログインしている。このため、事象記録要求と事象記録終了にはスタッフIDが含まれている。 As a modification, the staff terminal 4 may transmit both the start time column 613 and the end time column 614 to the image management device 5 by pressing the start button 615. As a result, the staff Z can transmit the event start information and the event end information with one operation. In this case, the end button 616 may not be provided, and the end button 616 may be provided as a button for immediately ending recording. Further, the staff Z is logged in to the image management device 5 when the program 430 for the staff terminal 4 is started. Therefore, the staff ID is included in the event record request and the event record end.

図28は、事象記録要求により設定される事象フラグを模式的に説明する図の一例である。画像管理装置5の事象記録部57は事象記録要求に基づいて画像管理テーブルの事象フラグにONを設定し、事象記録終了に基づいてONの設定を終了する。事象フラグはOFFが初期状態(デフォルト値)である。事象開始情報により「13:52:24」という時刻が指定され、事象終了情報によりそれから6秒後が指定されたものとする。 FIG. 28 is an example of a diagram schematically illustrating an event flag set by an event record request. The event recording unit 57 of the image management device 5 sets the event flag of the image management table to ON based on the event recording request, and ends the ON setting based on the event recording end. The event flag is OFF, which is the initial state (default value). It is assumed that the time "13:52:24" is specified by the event start information, and 6 seconds after that is specified by the event end information.

この場合、図28に示すように「13:52:24」〜「13:52:29」の画像データに対し事象記録部57が事象フラグにONを設定する。すなわち、図28で太い枠で強調された画像データにはONの事象フラグが設定される。また、図28には記載がないがスタッフIDとカテゴリIDが設定されている。 In this case, as shown in FIG. 28, the event recording unit 57 sets the event flag to ON for the image data of “13:52:24” to “13:52:29”. That is, the ON event flag is set for the image data highlighted by the thick frame in FIG. 28. Further, although not shown in FIG. 28, a staff ID and a category ID are set.

したがって、閲覧者Yは事象フラグがONの画像データを検索することで、事象が写っている画像データを速やかに閲覧できる。また、スタッフZが事象に気づいた時から過去に遡って画像データを閲覧できる。 Therefore, the viewer Y can quickly browse the image data in which the event is captured by searching the image data in which the event flag is ON. In addition, the image data can be browsed retroactively from the time when the staff Z notices the event.

<画像管理装置の動作について>
図29は、画像処理システム200の全体的な動作手順を示すシーケンス図の一例である。
S1:撮像装置1は画像管理装置5からの指示により定期的に周囲を撮像する。
S2:撮像装置1の接続部15は画像データを通信端末3に送信する。
S3:通信端末3の送受信部31は画像データを画像管理装置5に送信する。
S4:画像管理装置5の記憶・読出部は画像管理テーブルに画像データを登録する。ステップS1〜S4は繰り返し実行される。
S5:スタッフZの操作を受け付けて、スタッフ端末4が事象記録要求を画像管理装置5に送信する。
S6:画像管理装置5の事象記録部57は画像管理テーブルの事象フラグにONを設定する。詳細は図30にて説明される。
S7:スタッフ端末4が事象記録終了を画像管理装置5に送信する。これにより、事象フラグにONを設定することが終了される。詳細は図30にて説明される。
<About the operation of the image management device>
FIG. 29 is an example of a sequence diagram showing the overall operation procedure of the image processing system 200.
S1: The image pickup device 1 periodically images the surroundings according to an instruction from the image management device 5.
S2: The connection unit 15 of the image pickup device 1 transmits image data to the communication terminal 3.
S3: The transmission / reception unit 31 of the communication terminal 3 transmits the image data to the image management device 5.
S4: The storage / reading unit of the image management device 5 registers image data in the image management table. Steps S1 to S4 are repeated.
S5: Upon receiving the operation of the staff Z, the staff terminal 4 transmits the event recording request to the image management device 5.
S6: The event recording unit 57 of the image management device 5 sets the event flag of the image management table to ON. Details will be described with reference to FIG.
S7: The staff terminal 4 transmits the event recording end to the image management device 5. This ends the setting of ON for the event flag. Details will be described with reference to FIG.

図30は、画像管理装置5が画像を管理する手順を示すフローチャート図の一例である。図30の処理は、例えば、画像データの撮像ごとに繰り返し実行される。 FIG. 30 is an example of a flowchart showing a procedure in which the image management device 5 manages images. The process of FIG. 30 is repeatedly executed, for example, every time image data is captured.

画像管理装置5は定期的に撮像装置1に撮像させるものとする。このため、画像管理装置5は撮像時刻になったかどうかを判断する(S10)。ステップS10の判断がNoの場合、図30の処理は終了する。 The image management device 5 shall periodically cause the image pickup device 1 to take an image. Therefore, the image management device 5 determines whether or not the imaging time has come (S10). If the determination in step S10 is No, the process of FIG. 30 ends.

ステップS10の判断がYesの場合、画像管理装置5は撮像装置1に対し画像の撮像を要求する(S20)。撮像装置1が撮像した画像データは画像管理装置5に送信される。 If the determination in step S10 is Yes, the image management device 5 requests the image pickup device 1 to capture an image (S20). The image data captured by the image capturing device 1 is transmitted to the image management device 5.

次に、事象記録部57は事象記録要求を受信したか否かを判断する(S30)。事象記録要求が受信されない場合、図30の処理は終了する。 Next, the event recording unit 57 determines whether or not the event recording request has been received (S30). If the event recording request is not received, the process of FIG. 30 ends.

ステップS30の判断がYesの場合、事象記録部57は事象記録終了を受信したか否かを判断する(S40)。事象記録終了には終了時間欄614がゼロの場合とそうでない場合がある。 If the determination in step S30 is Yes, the event recording unit 57 determines whether or not the event recording end has been received (S40). The end time column 614 may or may not be zero at the end of event recording.

終了時間欄614がゼロの事象記録終了を受信した場合(S40のYes)、図30の処理は終了する。 When the event recording end of zero in the end time column 614 is received (Yes in S40), the process of FIG. 30 ends.

終了時間欄614がゼロの事象記録終了を受信してない場合、又は、事象記録終了を受信していない場合(S40のNo)、終了予定時間が経過したか否かを判断する(S50)。この終了予定時間は、ゼロ以外の終了時間欄614で指定される時間、又は、スタッフZが終了ボタン616を押し忘れた場合に記録開始から自動で設定されている時間である。ステップS50の判断がYesの場合、図30の処理は終了する。 When the event recording end of zero in the end time column 614 is not received, or when the event recording end is not received (No in S40), it is determined whether or not the scheduled end time has elapsed (S50). This scheduled end time is a time specified in the end time column 614 other than zero, or a time automatically set from the start of recording when the staff Z forgets to press the end button 616. If the determination in step S50 is Yes, the process of FIG. 30 ends.

ステップS50の判断がNoの場合、事象記録部57は画像データの事象フラグにONを設定する(S60)。事象記録部57は撮像された直後の画像データの事象フラグをONに設定すると共に、記録開始情報で指定された過去の画像データの事象フラグもONに設定する。 If the determination in step S50 is No, the event recording unit 57 sets the event flag of the image data to ON (S60). The event recording unit 57 sets the event flag of the image data immediately after the image is captured to ON, and also sets the event flag of the past image data specified in the recording start information to ON.

このように、スタッフZはスタッフ端末4を使用して事象記録要求を画像管理装置5に送信でき、閲覧者Yは事象フラグがONの画像データを検索することで、事象が写っている画像データを速やかに閲覧できる。 In this way, the staff Z can send the event recording request to the image management device 5 using the staff terminal 4, and the viewer Y searches the image data in which the event flag is ON, so that the image data in which the event is captured is captured. Can be viewed quickly.

<ジェスチャによる事象が起こった旨の記録の要求>
上記の本実施例ではスタッフZがスタッフ端末4を操作する必要があるため、事象が起こった旨の記録を要求するために時間がかかってしまう傾向がある。そこで、スタッフZがジェスチャにより事象フラグをONに設定できれば便利である。事象に遭遇したスタッフZは撮像装置1に向かって予め定められているジェスチャを行う。
<Request for recording that a gesture event has occurred>
In the above embodiment, since the staff Z needs to operate the staff terminal 4, it tends to take time to request a record that an event has occurred. Therefore, it is convenient if the staff Z can set the event flag to ON by gesture. The staff Z who encounters the event makes a predetermined gesture toward the image pickup apparatus 1.

この場合のジェスチャとしては、日常的な作業では行わない動作であればよい。例えば、両手を垂直方向に挙げて左右に90°開く動作を繰り返す、頭上に挙げた両手で円を形成するなどである。あるいは、特定の道具(旗など)を決まった方向に動かす、あるいはライトを点灯して撮像装置1に向ける、などでもよい。撮像装置1は全天球画像を撮像するので、スタッフZは事象の撮像の邪魔にならない位置でジェスチャを行うことができる。また、事象が出現している場所から離れた位置でスタッフZがジェスチャする場合、スタッフZは事象が出現している場所を指し示す動作を行う。この動作がジェスチャとなることで、事象が起こった旨の記録の要求をスタッフZが送信でき、事象の場所をスタッフZが知らせることができる。 In this case, the gesture may be an operation that is not performed in daily work. For example, the operation of raising both hands in the vertical direction and opening 90 ° to the left and right is repeated, and the two hands raised above the head form a circle. Alternatively, a specific tool (flag, etc.) may be moved in a fixed direction, or a light may be turned on and pointed at the image pickup apparatus 1. Since the imaging device 1 captures the spherical image, the staff Z can perform the gesture at a position that does not interfere with the imaging of the event. Further, when the staff Z makes a gesture at a position away from the place where the event appears, the staff Z performs an operation of pointing to the place where the event appears. By making this action a gesture, the staff Z can send a request for recording that the event has occurred, and the staff Z can inform the location of the event.

スタッフZのジェスチャが写っている画像データは画像管理装置5に送信される。つまり、事象が出現している全天球の画像データにスタッフZが写りこんだ状態で画像管理装置5に送信される。画像解析部55は画像を解析しスタッフZのジェスチャを検出する。予め定められたジェスチャが映っている場合、事象記録部57は画像管理テーブルの事象フラグにONを設定する。なお、画像データを過去にどの程度遡り、どのくらいでONの設定を終了するかは予め事象記録部57に登録されているものとする。 The image data showing the gesture of the staff Z is transmitted to the image management device 5. That is, the staff Z is transmitted to the image management device 5 in a state where the staff Z is reflected in the image data of the spherical surface in which the event appears. The image analysis unit 55 analyzes the image and detects the gesture of the staff Z. When a predetermined gesture is displayed, the event recording unit 57 sets the event flag of the image management table to ON. It is assumed that how much the image data goes back to the past and how long the ON setting is completed is registered in advance in the event recording unit 57.

図31は、画像管理装置5がジェスチャを検出して事象フラグをONに設定する手順を示すフローチャート図の一例である。図31の処理は、画像データの撮像中、繰り返し実行される。 FIG. 31 is an example of a flowchart showing a procedure in which the image management device 5 detects a gesture and sets the event flag to ON. The process of FIG. 31 is repeatedly executed during the acquisition of image data.

まず、画像管理装置5の送受信部51は画像データを受信する(S10)。 First, the transmission / reception unit 51 of the image management device 5 receives the image data (S10).

次に、画像管理装置5の画像解析部55は画像データを解析し、ジェスチャが含まれているか否かを判断する(S20)。ジェスチャが含まれていない場合、処理はステップS40に進む。 Next, the image analysis unit 55 of the image management device 5 analyzes the image data and determines whether or not the gesture is included (S20). If no gesture is included, the process proceeds to step S40.

ジェスチャが検出された場合、事象記録部57は予め定められた所定時間前まで画像管理テーブルの事象フラグをONに設定する(S30)。なお、どの撮像装置1が撮像したかはジェスチャが含まれる画像データを送信した撮像装置1として決定される。また、カテゴリIDやスタッフIDは登録されなくてもよい。あるいは、画像解析部55が顔認識を行ったり名札などを文字認識したりしてスタッフZを特定してもよい。また、スタッフZが事象のカテゴリに応じてジェスチャを変えることなどにより、事象記録部57はカテゴリIDを特定できる。 When the gesture is detected, the event recording unit 57 sets the event flag of the image management table to ON until a predetermined time before a predetermined time (S30). It should be noted that which image pickup device 1 has taken an image is determined by the image pickup device 1 that has transmitted the image data including the gesture. Further, the category ID and the staff ID do not have to be registered. Alternatively, the image analysis unit 55 may identify the staff Z by performing face recognition or character recognition of a name tag or the like. Further, the event recording unit 57 can specify the category ID by changing the gesture according to the event category by the staff Z.

ジェスチャが検出されない場合(S20のNo)、事象記録部57は予め定められた所定時間が経過したか否かを判断する(S40)。所定時間が経過するまでは、引き続き、画像管理テーブルの事象フラグをONに設定する(S50)。 When the gesture is not detected (No in S20), the event recording unit 57 determines whether or not a predetermined predetermined time has elapsed (S40). Until the predetermined time elapses, the event flag of the image management table is continuously set to ON (S50).

所定時間が経過した場合(S40のNo)、事象フラグをONに設定することなく図31の処理は終了する。 When the predetermined time has elapsed (No in S40), the process of FIG. 31 ends without setting the event flag to ON.

このように、スタッフZがスタッフ端末4を操作しなくてもジェスチャにより事象が起こった旨の記録を要求できる。 In this way, it is possible to request a record that an event has occurred due to a gesture without the staff Z operating the staff terminal 4.

<ジェスチャで事象記録要求を送信する>
また、スタッフZはスタッフ端末4を使ったジェスチャで事象記録要求を画像管理装置5に送信してもよい。すなわち、スタッフ端末4とジェスチャの両方が使用される。
<Send event record request by gesture>
Further, the staff Z may transmit the event recording request to the image management device 5 by a gesture using the staff terminal 4. That is, both the staff terminal 4 and the gesture are used.

図32は、スタッフ端末4と画像管理装置5の間で行われる動作を示すシーケンス図の一例である。 FIG. 32 is an example of a sequence diagram showing an operation performed between the staff terminal 4 and the image management device 5.

S1:まず、スタッフZは事象に遭遇すると、スタッフ端末4を用いたジェスチャを行う。例えば、スタッフ端末4を左右に振る、上下に振る、大きく円を描くように回す、等を行う。これらのジェスチャにより生じる時系列の加速度の変化を加速度センサ420が検出する。スタッフ端末4の事象記録要求部44は予め定められた加速度のパターンが検出されると、事象記録要求を送信するためのジェスチャが検出されたと判断する。 S1: First, when the staff Z encounters an event, he makes a gesture using the staff terminal 4. For example, the staff terminal 4 is shaken left and right, shaken up and down, turned in a large circle, and the like. The acceleration sensor 420 detects changes in time-series acceleration caused by these gestures. When the event record request unit 44 of the staff terminal 4 detects a predetermined acceleration pattern, it determines that a gesture for transmitting the event record request has been detected.

S2:スタッフ端末4の事象記録要求部44は事象記録要求を画像管理装置5に送信する。この事象記録要求には。スタッフIDが含まれるが、端末ID、事象開始情報、事象終了情報、及びカテゴリIDは含まれない。 S2: The event recording request unit 44 of the staff terminal 4 transmits the event recording request to the image management device 5. For this event record request. The staff ID is included, but the terminal ID, event start information, event end information, and category ID are not included.

S3:画像管理装置5の送受信部51は事象記録要求を受信し、事象記録部57は受信した前後の時間(前後時間)を決定する。例えば、前後5分、受信する前に3分・受信後に5分などのように決定する。これにより、事象開始情報、事象終了情報が不要になる。 S3: The transmission / reception unit 51 of the image management device 5 receives the event recording request, and the event recording unit 57 determines the time before and after the reception (before / after time). For example, 5 minutes before and after, 3 minutes before reception, 5 minutes after reception, and so on. This eliminates the need for event start information and event end information.

S4:次に、画像解析部55はステップS3で決定した前後時間の画像データからステップS1のジェスチャを検出する。すなわち、撮像装置1が複数ある場合に、ジェスチャが検出された撮像装置1を特定できる。 S4: Next, the image analysis unit 55 detects the gesture of step S1 from the image data of the time before and after determined in step S3. That is, when there are a plurality of image pickup devices 1, it is possible to identify the image pickup device 1 in which the gesture is detected.

S5:画像管理装置5の事象記録部57は、特定した撮像装置1が撮像した画像データに対応付けて事象フラグをONに設定する。なお、前後時間より事象フラグをONに設定する画像データを特定でき、スタッフIDも送信されている。 S5: The event recording unit 57 of the image management device 5 sets the event flag to ON in association with the image data captured by the identified image pickup device 1. The image data for which the event flag is set to ON can be specified from the time before and after, and the staff ID is also transmitted.

したがって、スタッフZは事象記録画面680を操作しなくても事象記録要求を送信できる。事象開始情報、事象終了情報を送信できなくてもおよその前後時間を決定し、スタッフIDも登録できる。また、ジェスチャの種類によってカテゴリIDを登録することも可能である。 Therefore, the staff Z can transmit the event recording request without operating the event recording screen 680. Even if the event start information and event end information cannot be transmitted, the approximate time before and after can be determined, and the staff ID can also be registered. It is also possible to register a category ID depending on the type of gesture.

<周囲の音量の変化による事象記録要求の送信>
スタッフZが主体的に事象記録要求を送信する他、環境の変化を撮像装置1等が検出して事象記録要求を画像管理装置5に送信してもよい。例えば、何かの事象が起こった場合、来客者Gが騒いだり大きな音が発生したりする場合がある。そこで、周囲の音量が閾値を超えた場合に、通信端末3が事象記録要求を画像管理装置5に送信する。
<Sending event record request due to change in ambient volume>
In addition to the staff Z proactively transmitting the event recording request, the imaging device 1 or the like may detect a change in the environment and transmit the event recording request to the image management device 5. For example, when some event occurs, the visitor G may make a noise or make a loud noise. Therefore, when the ambient volume exceeds the threshold value, the communication terminal 3 transmits an event recording request to the image management device 5.

図33は、通信端末3が事象記録要求を画像管理装置5に送信するシーケンス図の一例である。
S1:撮像装置1はマイク108を備えているため、常にマイク108で周囲の音を集音している。
S2:また、撮像装置1は定期的に周囲を撮像している。
S3:撮像装置1は撮像前後に集音した音データと共に画像データを通信端末3に送信する。
S4:通信端末3の接続部33は音データと画像データを受信し、例えば受付部32が音データの音量が閾値以上か否かを判断する。
S5:閾値以上の場合、送受信部31は画像データと共に事象記録要求を画像管理装置5に送信する。この事象記録要求には、端末IDが含まれる。事象開始情報、事象終了情報は含まれないが、画像管理装置5はおよその前後時間を決定できる。また、カテゴリIDについては送信されないが、周囲が騒がしかったことを示すカテゴリIDが設定される。
S6:閾値以上の場合、送受信部31は画像データを画像管理装置5に送信する。
FIG. 33 is an example of a sequence diagram in which the communication terminal 3 transmits an event recording request to the image management device 5.
S1: Since the image pickup apparatus 1 includes the microphone 108, the microphone 108 always collects ambient sounds.
S2: Further, the image pickup apparatus 1 periodically images the surroundings.
S3: The image pickup device 1 transmits the image data to the communication terminal 3 together with the sound data collected before and after the image pickup.
S4: The connection unit 33 of the communication terminal 3 receives the sound data and the image data, and for example, the reception unit 32 determines whether or not the volume of the sound data is equal to or higher than the threshold value.
S5: When the threshold value is equal to or higher than the threshold value, the transmission / reception unit 31 transmits an event recording request together with the image data to the image management device 5. The event record request includes a terminal ID. Although the event start information and the event end information are not included, the image management device 5 can determine the approximate time before and after. Further, although the category ID is not transmitted, a category ID indicating that the surroundings are noisy is set.
S6: When the threshold value is equal to or higher than the threshold value, the transmission / reception unit 31 transmits the image data to the image management device 5.

このように音量を契機にして事象記録要求を画像管理装置5に送信できるので、スタッフZが事象記録要求を画像管理装置5に送信しなくても事象フラグをONに設定できる。なお、音量の他、建物に生じた振動(地震など)、温度、湿度などを契機としてもよい。 Since the event recording request can be transmitted to the image management device 5 triggered by the volume in this way, the event flag can be set to ON even if the staff Z does not transmit the event recording request to the image management device 5. In addition to the volume, vibration (earthquake, etc.), temperature, humidity, etc. generated in the building may be a trigger.

<閲覧について>
図34は、情報端末7のディスプレイ508に表示される閲覧画面690の一例である。閲覧画面690は、メニュー欄627、画像部625、及び、サムネイル部626を有する。メニュー欄627は、カテゴリ指定欄621とスタッフ選択欄622を有する。カテゴリ指定欄621は、閲覧者Yがカテゴリを選択するための欄であり、スタッフ選択欄622は閲覧者YがスタッフZを選択するための欄である。したがって、閲覧者YはカテゴリやスタッフZを指定して事象フラグがONの画像データを検索できる。
<About browsing>
FIG. 34 is an example of the browsing screen 690 displayed on the display 508 of the information terminal 7. The browsing screen 690 has a menu field 627, an image unit 625, and a thumbnail unit 626. The menu column 627 has a category designation column 621 and a staff selection column 622. The category designation field 621 is a field for the viewer Y to select a category, and the staff selection field 622 is a field for the viewer Y to select the staff Z. Therefore, the viewer Y can search the image data in which the event flag is ON by designating the category and the staff Z.

また、サムネイル部626にはサムネイル画像623が表示される。事象フラグがONの画像データのサムネイル画像623には、アイコン624が表示される。したがって、閲覧者Yは、事象フラグがONの画像データを検索しなくても、どの画像データの事象フラグがONかを一目で把握できる。 Further, the thumbnail image 623 is displayed on the thumbnail unit 626. The icon 624 is displayed on the thumbnail image 623 of the image data in which the event flag is ON. Therefore, the viewer Y can grasp at a glance which image data the event flag is ON without searching for the image data whose event flag is ON.

以上説明したように、本実施例の画像処理システム200では、スタッフが事象に遭遇したタイミングで画像データに事象が起こった旨を記録できる。 As described above, in the image processing system 200 of the present embodiment, it is possible to record in the image data that an event has occurred at the timing when the staff encounters the event.

本実施例では実施例1、2で得られた解析情報テーブルの内容を表示する情報端末7について説明する。実施例1、2により、各商品ゾーン610に対する来客者Gの興味度を多段階に評価した。また、実施例3では来客者の興味の程度をヒートマップなどで表示することができた。しかし、実施例3の表示では、閲覧者Yは来客者Gを閲覧することができなかった。すなわち、店舗内の各商品ゾーン610に対して実際の来客者Gが興味を示している様子を閲覧者Yが視覚的に把握するにはヒートマップと画像データと照らし合わせる必要がある。 In this embodiment, the information terminal 7 that displays the contents of the analysis information table obtained in Examples 1 and 2 will be described. According to Examples 1 and 2, the degree of interest of the visitor G in each product zone 610 was evaluated in multiple stages. Further, in the third embodiment, the degree of interest of the visitor could be displayed on a heat map or the like. However, in the display of the third embodiment, the viewer Y could not browse the visitor G. That is, in order for the viewer Y to visually grasp how the actual visitor G is interested in each product zone 610 in the store, it is necessary to compare the heat map with the image data.

そこで、本実施例では、所定の興味度の来客者Gを画像データに配置して表示することができる画像処理システム200について説明する。これにより、閲覧者Yは来客者Gの購買行動をより詳しく解析できるようになる。 Therefore, in this embodiment, an image processing system 200 capable of arranging and displaying a visitor G having a predetermined degree of interest in image data will be described. As a result, the viewer Y can analyze the purchasing behavior of the visitor G in more detail.

なお、本実施例において、画像管理装置5と情報端末7の機能ブロック図は、実施例3の図13と同様でよい。情報端末7の情報視覚化部74は、商品に興味を示している来客者Gを画像データの商品ゾーン610に対応づけて表示する。したがって、画像データ上のどの商品ゾーン610に対してどのように興味を示しているかを閲覧者が把握しやすくなる。具体的には、商品ゾーン610に対して興味を示す来客者G(の画像)が、興味の対象とした商品ゾーン610に重畳して表示される、あるいは、時系列に沿って1つ1つスライドショーで表示される。以下では、いくつかの実施形態に分けて説明する。 In this embodiment, the functional block diagram of the image management device 5 and the information terminal 7 may be the same as that of FIG. 13 of the third embodiment. The information visualization unit 74 of the information terminal 7 displays the visitor G who is interested in the product in association with the product zone 610 of the image data. Therefore, it becomes easy for the viewer to understand which product zone 610 on the image data is interested in and how. Specifically, the visitor G (image) showing interest in the product zone 610 is displayed superimposed on the product zone 610 of interest, or one by one in chronological order. Displayed in a slide show. Hereinafter, the description will be divided into several embodiments.

<第1実施形態>
第1実施形態では、閲覧者Yは任意の興味度を指定できる。情報端末7は指定された興味度を示した来客者Gを1つの画像データに表示させる。
<First Embodiment>
In the first embodiment, the viewer Y can specify an arbitrary degree of interest. The information terminal 7 causes the visitor G showing the designated degree of interest to be displayed in one image data.

図35は、来客者が画像データに合成された来客者合成画面660を示す図の一例である。来客者合成画面660には複数の来客者Gが写っている。これらの来客者Gは同じ興味度を示した来客者である。1つの画像データに複数の来客者Gが表示されているのは、情報視覚化部74が来客者Gを合成したためである。以下、このような画像データの表示手順を説明する。 FIG. 35 is an example of a diagram showing a visitor composition screen 660 in which a visitor is synthesized with image data. A plurality of visitors G are shown on the visitor composition screen 660. These visitors G are visitors who have shown the same degree of interest. The reason why a plurality of visitor Gs are displayed in one image data is that the information visualization unit 74 synthesizes the visitor Gs. The procedure for displaying such image data will be described below.

図36は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図36の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。 FIG. 36 is an example of a flowchart showing a procedure in which the information visualization unit 74 synthesizes the visitor G with the image data. The process of FIG. 36 starts when, for example, the viewer Y performs an operation for analyzing the image.

情報端末7の受付部72は母集団の設定を受け付ける(S10)。母集団とは、解析の対象となる画像データをいう。例えば、端末IDにより撮像装置1が特定され、また、ある時間範囲、ある特定の日、ある曜日などを閲覧者Yが設定できる。 The reception unit 72 of the information terminal 7 accepts the setting of the population (S10). The population refers to the image data to be analyzed. For example, the image pickup device 1 is specified by the terminal ID, and the viewer Y can set a certain time range, a certain day, a certain day of the week, and the like.

次に、受付部72は興味度の設定を受け付ける(S20)。すなわち、図14に示すユーザインタフェースから閲覧者Yは興味度を指定する。なお、閲覧者Yは複数の興味度を選択できる。 Next, the reception unit 72 accepts the setting of the degree of interest (S20). That is, the viewer Y specifies the degree of interest from the user interface shown in FIG. The viewer Y can select a plurality of interest levels.

次に、情報視覚化部74は、解析情報テーブルから指定された興味度が対応付けられている画像データを特定する(S30)。表7の解析情報テーブルに示すようにアクション(興味度)に画像IDが対応付けられており、表9の解析情報テーブルに示すようにアクション(興味度)に画像IDが対応付けられている。 Next, the information visualization unit 74 identifies the image data associated with the designated degree of interest from the analysis information table (S30). The image ID is associated with the action (interest level) as shown in the analysis information table of Table 7, and the image ID is associated with the action (interest level) as shown in the analysis information table of Table 9.

次に、情報視覚化部74は人が写っていない無人画像を読み出す(S40)。無人画像は、例えば、開店前に撮像された画像データなどである。なお、無人画像を使う必要はなく、ステップS30で特定した任意の画像データを使ってもよい。 Next, the information visualization unit 74 reads out an unmanned image in which no person is shown (S40). The unmanned image is, for example, image data captured before the store opens. It is not necessary to use an unmanned image, and any image data specified in step S30 may be used.

次に、情報視覚化部74は、解析情報テーブルで指定された興味度の領域範囲を取得して画像データから人部分をトリミングする(S50)。人部分は領域範囲と同じものである。解析情報テーブルには人が検知されている領域を特定できる領域範囲が登録されているので、人が写っている矩形の人部分をトリミングできる。 Next, the information visualization unit 74 acquires the region range of the degree of interest specified in the analysis information table and trims the human portion from the image data (S50). The human part is the same as the area range. Since the area range in which the area where a person is detected can be specified is registered in the analysis information table, the rectangular person part in which the person is shown can be trimmed.

次に、情報視覚化部74は、無人画像にトリミングした人部分を合成する(S60)。この合成は、領域範囲で指定される場所に単に人部分を重畳する(又は配置する)処理でよい。撮像装置1は同じ範囲の画像データを撮像しているので、合成しても各来客者Gの背景は同じであるため違和感が生じにくい。 Next, the information visualization unit 74 synthesizes the trimmed human portion into the unmanned image (S60). This composition may be a process of simply superimposing (or arranging) a human part on a place specified by a region range. Since the image pickup apparatus 1 captures image data in the same range, the background of each visitor G is the same even if they are combined, so that a sense of discomfort is unlikely to occur.

情報視覚化部74は、1つの無人画像に一人以上の来客者Gが写っている画像データを表示する(S70)。これにより、図35の画像データが表示される。画像データにはある興味度の来客者Gが実際に写っているので、閲覧者はどのような来客者G(男女、年齢層、服装など)がこの興味度を示したかを確認できる。また、どの場所に来客者Gが多い又は少ないなどを確認できる。なお、図14で閲覧者Yが複数の興味度を選択した場合、第5実施形態又は第6実施形態のように各来客者Gが興味度に応じて色分けして表示されることが好ましい。 The information visualization unit 74 displays image data in which one or more visitors G are shown in one unmanned image (S70). As a result, the image data of FIG. 35 is displayed. Since the image data actually shows the visitor G of a certain degree of interest, the viewer can confirm what kind of visitor G (male / female, age group, clothes, etc.) showed this degree of interest. In addition, it is possible to confirm in which place the number of visitors G is large or small. When the viewer Y selects a plurality of interest levels in FIG. 14, it is preferable that each visitor G is color-coded according to the interest level as in the fifth or sixth embodiment.

<第2実施形態>
第2実施形態でも閲覧者Yが任意の興味度を指定できる点は同じであるが、情報端末7は指定された興味度を示した来客者Gの画像データを1つ1つ表示させる。
<Second Embodiment>
The second embodiment is the same in that the viewer Y can specify an arbitrary degree of interest, but the information terminal 7 displays the image data of the visitor G indicating the specified degree of interest one by one.

図37は、情報端末7がディスプレイ508に表示した画像データ601を示す図である。図37では同じ興味度を示した来客者Gが写っている画像データが時系列に表示される。なお、画像データに複数の来客者Gが写っている場合、1つの画像データに複数の来客者Gが表示される。図37では再生ボタン641、早送りボタン643、及び、巻き戻しボタン642が表示されている。閲覧者Yは再生ボタン641を押下して次の画像データを表示させ、早送りボタン643で自動的に次々と画像データを表示させ、巻き戻しボタン642で次々と時間的に前の画像データを表示させる。以下、このような画像データの表示手順を説明する。 FIG. 37 is a diagram showing image data 601 displayed on the display 508 by the information terminal 7. In FIG. 37, image data showing the visitor G showing the same degree of interest is displayed in chronological order. When a plurality of visitors G are shown in the image data, the plurality of visitors G are displayed in one image data. In FIG. 37, a play button 641, a fast forward button 643, and a rewind button 642 are displayed. Viewer Y presses the play button 641 to display the next image data, the fast forward button 643 automatically displays the image data one after another, and the rewind button 642 displays the previous image data one after another in time. Let me. The procedure for displaying such image data will be described below.

図38は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図38の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10〜S30の処理は図36と同様である。 FIG. 38 is an example of a flowchart showing a procedure in which the information visualization unit 74 synthesizes the visitor G with the image data. The process of FIG. 38 starts when, for example, the viewer Y performs an operation for analyzing the image. The processing of steps S10 to S30 is the same as in FIG. 36.

ステップS40では、情報視覚化部74は画像データを時系列にソートする(S40)。 In step S40, the information visualization unit 74 sorts the image data in chronological order (S40).

以降は、受付部72が受け付けた操作に応じて、表示制御部73が画像データを切り替えてディスプレイ508に表示する(S50)。 After that, the display control unit 73 switches the image data and displays it on the display 508 according to the operation received by the reception unit 72 (S50).

したがって、画像データには一度に撮像された来客者Gしか写っていないので、閲覧者Yは各来客者Gを解析しやすい。また、時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。 Therefore, since only the visitor G captured at one time is shown in the image data, the viewer Y can easily analyze each visitor G. In addition, it is possible to analyze how the visitor G has moved over time and what kind of visitor G is common.

<第3実施形態>
第3実施形態では、閲覧者Yが興味を持っている商品ゾーン610に対し、興味を示した来客者Gを表示させる。
<Third Embodiment>
In the third embodiment, the visitor G who has shown interest is displayed in the product zone 610 in which the viewer Y is interested.

まず、図39を用いて閲覧者の操作とディスプレイ508に表示される画像データを説明する。図39は、閲覧者が行う解析操作を説明する図の一例である。 First, the operation of the viewer and the image data displayed on the display 508 will be described with reference to FIG. 39. FIG. 39 is an example of a diagram illustrating an analysis operation performed by the viewer.

1.図39(a)に示すように、閲覧者Yは商品ゾーン610をポインティングデバイス640などで指定する(クリックする)。この商品ゾーン610は、どのくらいの数の来客者Gがどの程度の興味度を示したかを閲覧者Yが知りたい商品ゾーン610である。 1. 1. As shown in FIG. 39 (a), the viewer Y designates (clicks) the product zone 610 with the pointing device 640 or the like. This product zone 610 is a product zone 610 in which the viewer Y wants to know how many visitors G have shown how much interest.

2.図39(b)に示すように、情報端末7はクリックされた位置を含む商品ゾーン610をディスプレイ508に表示する。 2. As shown in FIG. 39B, the information terminal 7 displays the product zone 610 including the clicked position on the display 508.

3.図39(c)に示すように、複数の商品ゾーン610がある場合、閲覧者Yは1つの商品ゾーン610をマウスなどで選択する。 3. 3. As shown in FIG. 39 (c), when there are a plurality of product zones 610, the viewer Y selects one product zone 610 with a mouse or the like.

4.図40に示すように、情報端末7は、この商品ゾーン610に興味を示した来客者Gを1つの画像データに合成した来客者合成画面660を表示する。この来客者合成画面660によれば、閲覧者Yは商品ゾーン610ごとにどのくらいの来客者Gが興味を示したかを把握できる。図40の来客者合成枠670は複数の来客者Gの外接矩形であるが、この来客者合成枠670が大きいほど1つの商品ゾーン610に興味を示した来客者Gの場所に広がりがあることになる。よって、閲覧者Yは狙い通りの集客が行われているかどうかなどを判断して商品の配置を換えたりすることができる。なお、来客者合成枠670の形状は円形や多角形などでよく、その形状は限定されない。 4. As shown in FIG. 40, the information terminal 7 displays a visitor composition screen 660 in which the visitor G who is interested in the product zone 610 is combined into one image data. According to the visitor composition screen 660, the viewer Y can grasp how many visitors G are interested in each product zone 610. The visitor composite frame 670 of FIG. 40 is a circumscribed rectangle of a plurality of visitor Gs, but the larger the visitor composite frame 670 is, the wider the location of the visitor G who is interested in one product zone 610 is. become. Therefore, the viewer Y can change the arrangement of the products by judging whether or not the target customer is attracted. The shape of the visitor composite frame 670 may be circular, polygonal, or the like, and the shape is not limited.

以下、このような画像データの表示手順を説明する。
図41は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図38の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10の処理は図38と同様である。
The procedure for displaying such image data will be described below.
FIG. 41 is an example of a flowchart showing a procedure in which the information visualization unit 74 synthesizes the visitor G with the image data. The process of FIG. 38 starts when, for example, the viewer Y performs an operation for analyzing the image. The process of step S10 is the same as in FIG. 38.

次に、受付部72は任意の画像データの場所の指定を受け付ける(S20)。任意の画像データは無人画像でよいが、画像データの撮像範囲は同じなのでどの画像データでもよい。 Next, the reception unit 72 accepts the designation of the location of arbitrary image data (S20). Any image data may be an unmanned image, but any image data may be used because the imaging range of the image data is the same.

次に情報視覚化部74はステップS20の場所を含む商品ゾーン610を特定する(S30)。解析情報テーブルには対象ゾーンの座標が登録されているため、ステップS20の場所を含む商品ゾーン610を特定できる。 Next, the information visualization unit 74 identifies the product zone 610 including the location of step S20 (S30). Since the coordinates of the target zone are registered in the analysis information table, the product zone 610 including the location of step S20 can be specified.

情報視覚化部74は複数の商品ゾーン610を特定したか否かを判断する(S40)。複数ある場合は、表示制御部73が複数の商品ゾーン610を画像データに強調して表示し、受付部72が1つの商品ゾーン610の選択を受け付ける(S50)。 The information visualization unit 74 determines whether or not a plurality of product zones 610 have been identified (S40). When there are a plurality of products, the display control unit 73 emphasizes and displays the plurality of product zones 610 on the image data, and the reception unit 72 accepts the selection of one product zone 610 (S50).

次に、情報視覚化部74は、選択された商品ゾーン610に対応付けられている領域範囲と画像データを特定する(S60)。上記のように解析情報テーブルから商品ゾーン610に対応付けられている領域範囲を特定でき、この領域範囲を有する画像データを特定できる。以降のステップS70〜S100の処理は図36のステップS40〜S70と同様でよい。 Next, the information visualization unit 74 identifies the area range and image data associated with the selected product zone 610 (S60). As described above, the area range associated with the product zone 610 can be specified from the analysis information table, and the image data having this area range can be specified. Subsequent processes in steps S70 to S100 may be the same as in steps S40 to S70 of FIG.

このように、閲覧者Yが知りたい商品ゾーンに対し興味を示した来客者を表示できるので、閲覧者Yはどのような来客者がどのくらい興味を示したかを解析できる。 In this way, since the visitors who are interested in the product zone that the viewer Y wants to know can be displayed, the viewer Y can analyze what kind of visitors are interested and how much.

<第4実施形態>
第4実施形態も第3実施形態同様に、閲覧者Yが興味を持っている商品ゾーン610に対し、興味を示した来客者Gを表示させる。しかし、第4実施形態では、情報端末7は指定された商品ゾーン610に興味度を示した来客者Gの画像データを1つ1つ表示させる。
<Fourth Embodiment>
Similarly to the third embodiment, the fourth embodiment also displays the visitor G who has shown interest in the product zone 610 in which the viewer Y is interested. However, in the fourth embodiment, the information terminal 7 causes the designated product zone 610 to display the image data of the visitor G who has shown the degree of interest one by one.

図42は、第4実施形態で表示される画像データの生成方法を説明する図の一例である。
1.図42(a)の画像データの生成方法は図40と同様である。図42(a)では閲覧者Yが指定した商品ゾーン610が表示されているが、これはなくてもよい。
2.次に、図42(b)に示すように、情報端末7は商品ゾーン610に興味を示した来客者Gが占める領域範囲の外接矩形を算出する。これが図40の来客者合成枠670である。
3.図42(c)に示すように、情報端末7は来客者合成枠670を強調して表示する。
4.図43は、同じ商品ゾーン610に興味度を示した来客者Gが写っている画像データが時系列に来客者合成枠670と共に表示される図の一例である。
FIG. 42 is an example of a diagram illustrating a method of generating image data displayed in the fourth embodiment.
1. 1. The method of generating the image data in FIG. 42 (a) is the same as that in FIG. 40. In FIG. 42 (a), the product zone 610 designated by the viewer Y is displayed, but this may not be necessary.
2. Next, as shown in FIG. 42B, the information terminal 7 calculates the circumscribed rectangle of the area range occupied by the visitor G who is interested in the product zone 610. This is the visitor composition frame 670 of FIG. 40.
3. 3. As shown in FIG. 42 (c), the information terminal 7 highlights and displays the visitor composition frame 670.
4. FIG. 43 is an example of a diagram in which image data showing a visitor G who has shown an interest in the same product zone 610 is displayed in chronological order together with a visitor composition frame 670.

なお、画像データに複数の来客者Gが写っている場合、複数の来客者Gが表示される。ある商品ゾーン610に対し興味を示した来客者Gのうち、一度に撮像された来客者Gしか表示されないので、閲覧者Yは各来客者Gを解析しやすい。また、時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。なお、図43では、来客者合成枠670の外に来客者Gが写っている場合があるが、来客者合成枠670があるので閲覧者は、来客者合成枠670の外の来客者Gを無視できる。また、来客者合成枠670内の来客者Gのみをトリミングして無人画像に配置してもよい。 When a plurality of visitors G are shown in the image data, the plurality of visitors G are displayed. Of the visitors G who are interested in a certain product zone 610, only the visitors G imaged at one time are displayed, so that the viewer Y can easily analyze each visitor G. In addition, it is possible to analyze how the visitor G has moved over time and what kind of visitor G is common. In FIG. 43, the visitor G may be shown outside the visitor composite frame 670, but since there is a visitor composite frame 670, the viewer can see the visitor G outside the visitor composite frame 670. It can be ignored. Further, only the visitor G in the visitor composite frame 670 may be trimmed and arranged in the unmanned image.

以下、このような画像データの表示手順を説明する。
図44は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図44の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10〜S60の処理は図41と同様である。
The procedure for displaying such image data will be described below.
FIG. 44 is an example of a flowchart showing a procedure in which the information visualization unit 74 synthesizes the visitor G with the image data. The process of FIG. 44 starts when, for example, the viewer Y performs an operation for analyzing the image. The processing of steps S10 to S60 is the same as in FIG. 41.

ステップS70では、情報視覚化部74は画像データを時系列にソートする(S70)。 In step S70, the information visualization unit 74 sorts the image data in chronological order (S70).

以降は、受付部72が受け付けた操作に応じて、表示制御部73が画像データを切り替えてディスプレイ508に表示する(S80)。なお、この時、表示制御部73は来客者合成枠670を表示する。 After that, the display control unit 73 switches the image data and displays it on the display 508 according to the operation received by the reception unit 72 (S80). At this time, the display control unit 73 displays the visitor composition frame 670.

したがって、閲覧者Yはある商品ゾーン610に興味を示した来客者Gを個別に解析しやすい。また、来客者合成枠670の中で時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。 Therefore, the viewer Y can easily analyze the visitor G who is interested in a certain product zone 610 individually. In addition, it is possible to analyze how the visitor G moves with time in the visitor synthesis frame 670 and what kind of visitor G is large.

<第5実施形態>
第5実施形態では、第3実施形態において来客者Gを興味度で色分けして表示する画像処理システムを説明する。
<Fifth Embodiment>
In the fifth embodiment, an image processing system for displaying the visitor G in a color-coded manner according to the degree of interest in the third embodiment will be described.

図45は、ディスプレイ508に表示される画像データを説明する図の一例である。図45では各来客者Gが、興味度によって異なる色で表示されている。色分けするまでの処理は第3実施形態と同様でよい。 FIG. 45 is an example of a diagram illustrating image data displayed on the display 508. In FIG. 45, each visitor G is displayed in a different color depending on the degree of interest. The process up to color coding may be the same as in the third embodiment.

図46は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図46の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。まず、図46はステップS85を除き図41と同様である。 FIG. 46 is an example of a flowchart showing a procedure in which the information visualization unit 74 synthesizes the visitor G with the image data. The process of FIG. 46 starts when, for example, the viewer Y performs an operation for analyzing the image. First, FIG. 46 is the same as FIG. 41 except for step S85.

ステップS85では、情報視覚化部74は人部分を興味度に応じて着色する(S85)。表7の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられており、表9の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられている。これにより、図45に示すように興味度によって異なる色で来客者Gを表示できる。なお、人部分は矩形領域なので、図45のように人型に表示することは困難な可能性がある。この場合、表示制御部73は各人部分に半透明の処理を施すなどが好ましい。 In step S85, the information visualization unit 74 colors the human part according to the degree of interest (S85). Actions (interest) are associated with the area range as shown in the analysis information table of Table 7, and actions (interest) are associated with the area range as shown in the analysis information table of Table 9. There is. As a result, as shown in FIG. 45, the visitor G can be displayed in different colors depending on the degree of interest. Since the human portion is a rectangular area, it may be difficult to display it in a human shape as shown in FIG. 45. In this case, it is preferable that the display control unit 73 applies a semi-transparent process to each person's portion.

したがって、ある商品ゾーン610に対し複数の来客者Gが表示されても、閲覧者Yは各来客者Gの興味度を判別しやすくなる。 Therefore, even if a plurality of visitors G are displayed for a certain product zone 610, the viewer Y can easily determine the degree of interest of each visitor G.

<第6実施形態>
第6実施形態では、第4実施形態において来客者Gを興味度で色分けして表示する画像処理システムを説明する。
<Sixth Embodiment>
In the sixth embodiment, an image processing system for displaying the visitor G in a color-coded manner according to the degree of interest in the fourth embodiment will be described.

図47は、ディスプレイ508に表示される画像データを説明する図の一例である。図47では各来客者Gが、興味度によって異なる色で表示されている。色分けするまでの処理は第4実施形態と同様でよい。 FIG. 47 is an example of a diagram illustrating image data displayed on the display 508. In FIG. 47, each visitor G is displayed in a different color depending on the degree of interest. The process up to color coding may be the same as in the fourth embodiment.

図48は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図48の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。まず、図48はステップS80を除き図44と同様である。 FIG. 48 is an example of a flowchart showing a procedure in which the information visualization unit 74 synthesizes the visitor G with the image data. The process of FIG. 48 starts when, for example, the viewer Y performs an operation for analyzing the image. First, FIG. 48 is the same as FIG. 44 except for step S80.

ステップS80では、情報視覚化部74は閲覧者の操作を受け付けて、人部分を興味度で着色し、切り替えて表示する(S80)。表7の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられており、表9の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられている。これにより、図47に示すように興味度によって異なる色で来客者Gを表示できる。 In step S80, the information visualization unit 74 accepts the operation of the viewer, colors the human part according to the degree of interest, and switches and displays it (S80). Actions (interest) are associated with the area range as shown in the analysis information table of Table 7, and actions (interest) are associated with the area range as shown in the analysis information table of Table 9. There is. As a result, as shown in FIG. 47, the visitor G can be displayed in different colors depending on the degree of interest.

したがって、ある商品ゾーン610に対し興味がある来客者Gがどのくらいの興味度かを、閲覧者Yは一人ずつ(一画像データずつ)解析できる。また、時間的にどのように変化するかを解析できる。 Therefore, the viewer Y can analyze the degree of interest of the visitor G who is interested in a certain product zone 610 one by one (one image data at a time). In addition, it is possible to analyze how it changes over time.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、上記の実施形態では、画像管理装置5が人を検出したり、アクションを判断したが、情報端末7が人を検出したり、アクションを判断してもよい。また、上記の実施形態では情報端末7が商品ゾーン610の色を決定していたが、商品ゾーン610の色を画像管理装置5が決定してもよい。画像管理装置5が第5実施例の処理を行ってもよい。また、情報端末7と画像管理装置5が一体の情報処理装置が本実施形態で説明された処理を一台で実行してもよい。また、画像管理装置5が有する機能の全て又は1以上を情報端末7が有していてよく、情報端末7が有する機能の全て又は1以上を画像管理装置5が有していてもよい。 For example, in the above embodiment, the image management device 5 detects a person or determines an action, but the information terminal 7 may detect a person or determine an action. Further, in the above embodiment, the information terminal 7 determines the color of the product zone 610, but the image management device 5 may determine the color of the product zone 610. The image management device 5 may perform the processing of the fifth embodiment. Further, the information processing device in which the information terminal 7 and the image management device 5 are integrated may execute the processing described in the present embodiment by one unit. Further, the information terminal 7 may have all or one or more of the functions of the image management device 5, and the image management device 5 may have all or one or more of the functions of the information terminal 7.

また、以上の実施例で示した図6、13、24などの構成例は、撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。 Further, the configuration examples of FIGS. 6, 13, and 24 shown in the above embodiments are mainly used in order to facilitate understanding of the processes of the image pickup device 1, the communication terminal 3, the image management device 5, and the information terminal 7. It is divided according to the function. However, the present invention is not limited by the method and name of division of each processing unit. The processing of the image pickup device 1, the communication terminal 3, the image management device 5, and the information terminal 7 can be divided into more processing units according to the processing content. It is also possible to divide one processing unit so as to include more processing. Further, the image processing system 200 may have a plurality of image management devices 5.

また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。 Further, the database of the storage unit 5000 of the image management device 5 may be directly owned by the image management device 5 or may be on a communication network 9 on which the image management device 5 can read and write.

なお、人物検出部52は人検出手段の一例であり、画像解析部55は動作判断手段の一例であり、評価部56は評価手段の一例であり、表示制御部73は表示手段の一例であり、ディスプレイ508は表示装置の一例である。商品ゾーン610は所定領域の一例であり、領域602は人領域の一例であり、受付部72は受付手段の一例であり、事象記録部57はフラグ設定手段の一例である。 The person detection unit 52 is an example of a person detection means, the image analysis unit 55 is an example of an operation determination means, the evaluation unit 56 is an example of an evaluation means, and the display control unit 73 is an example of a display means. , Display 508 is an example of a display device. The product zone 610 is an example of a predetermined area, the area 602 is an example of a person area, the reception unit 72 is an example of the reception means, and the event recording unit 57 is an example of the flag setting means.

1 :撮像装置
3 :通信端末
5 :画像管理装置
7 :情報端末
44 :事象記録要求部
51 :送受信部
52 :人物検出部
55 :画像解析部
56 :評価部
57 :事象記録部
73 :情報視覚化部74
200 :画像処理システム
1: Imaging device 3: Communication terminal 5: Image management device 7: Information terminal 44: Event recording request unit 51: Transmission / reception unit 52: Person detection unit 55: Image analysis unit 56: Evaluation unit 57: Event recording unit 73: Information vision Chemical unit 74
200: Image processing system

特許第4972491号公報Japanese Patent No. 4972491

中島慶人著、「監視システムのための画像処理による移動人物の検出と認識に関する研究」、総合研究大学院大学学位授与論文、2006年9月29日Yoshito Nakajima, "Study on Detection and Recognition of Moving People by Image Processing for Surveillance Systems", Graduate University for Advanced Studies, Bachelor's Degree Paper, September 29, 2006

Claims (19)

1つ以上の情報処理装置を有する画像処理システムであって、
画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、
前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、
前記領域の指定を受け付ける受付手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する画像処理システム。
An image processing system having one or more information processing devices.
A person detection means that detects a person area including a person from image data,
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. When,
A display means for displaying the evaluation by the evaluation means on the display device together with the image data,
It has a reception means for accepting the designation of the area.
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
The display means is an image processing system that visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means.
前記評価手段は、前記領域を前記動作に応じて多段階に評価し、
前記表示手段は、前記評価手段による多段階の評価を前記画像データと共に表示装置に表示する請求項1に記載の画像処理システム。
The evaluation means evaluates the region in multiple stages according to the operation.
The image processing system according to claim 1, wherein the display means displays a multi-step evaluation by the evaluation means on a display device together with the image data.
前記評価手段は、予め定められている複数の前記領域から1の前記領域を前記方向に基づいて決定して前記動作に応じて評価する請求項1又は2に記載の画像処理システム。 The image processing system according to claim 1 or 2, wherein the evaluation means determines the region 1 from a plurality of predetermined regions based on the direction and evaluates the region according to the operation. 前記評価手段は、予め定められている複数の前記領域から前記方向の延長線上にある前記領域を決定して前記動作に応じて評価する請求項3に記載の画像処理システム。 The image processing system according to claim 3, wherein the evaluation means determines the region on an extension line in the direction from a plurality of predetermined regions and evaluates the region according to the operation. 前記評価手段は、予め定められている複数の前記領域のうち、前記方向の延長線上にあり、かつ、前記方向が判断された前記人領域に隣接した前記領域を決定して前記動作に応じて評価する請求項4に記載の画像処理システム。 Said evaluating means, among the plurality of regions are determined in advance, it is an extension of the direction, and, in response to the operation to determine the area adjacent to the person region in which the direction is determined The image processing system according to claim 4 to be evaluated. 前記方向が判断されない場合、前記人領域に隣接した全ての前記領域を前記動作に応じて評価する請求項3に記載の画像処理システム。 The image processing system according to claim 3, wherein when the direction is not determined, all the regions adjacent to the human region are evaluated according to the operation. 前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
前記領域の指定を受け付ける受付手段を有し、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する請求項1〜6のいずれか1項に記載の画像処理システム。
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
It has a reception means that accepts the designation of the area.
The image processing system according to any one of claims 1 to 6, wherein the display means visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means. ..
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
所定の操作を受け付ける受付手段を有し、
前記受付手段が前記所定の操作を受け付けた場合、前記表示手段は、前記評価の段階と 前記回数から前記領域を代表する代表値を算出し、前記代表値を視覚化して表示する請求項1〜6のいずれか1項に記載の画像処理システム。
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
It has a reception means that accepts predetermined operations,
When the receiving means receives the predetermined operation, the display means calculates a representative value representing the area from the evaluation stage and the number of times, and visualizes and displays the representative value. The image processing system according to any one of 6.
前記評価手段は、前記人領域に対し前記動作の前記方向に隣接した範囲を前記領域に決定し、該領域を前記動作に応じて評価する請求項1に記載の画像処理システム。 Said evaluating means, the image processing system according to claim 1 to the person region determines the range adjacent to the direction of the operation to the region, it is evaluated according to the region in the operation. 前記評価手段は、前記人領域に隣接する前記範囲の大きさを、前記人領域の幅と高さに応じて決定する請求項9に記載の画像処理システム。 The image processing system according to claim 9 , wherein the evaluation means determines the size of the range adjacent to the human region according to the width and height of the human region. 前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、
前記評価の段階の指定を受け付ける受付手段を有し、
前記表示手段は、前記受付手段が受け付けた前記評価の段階が付与されている前記領域を視覚化して表示する請求項9又は10に記載の画像処理システム。
The evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages.
It has a reception means that accepts the designation of the evaluation stage.
The image processing system according to claim 9 or 10 , wherein the display means visualizes and displays the area to which the evaluation stage received by the reception means is given.
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、
前記画像データの位置の指定を受け付ける受付手段を有し、
前記表示手段は、前記受付手段が受け付けた前記位置に最も近い前記領域に付与された前記評価の段階を視覚化して表示する請求項9又は10に記載の画像処理システム。
The evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages.
It has a reception means that accepts the designation of the position of the image data.
The image processing system according to claim 9 or 10 , wherein the display means visualizes and displays the evaluation stage given to the area closest to the position received by the reception means.
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、
所定の操作を受け付ける受付手段を有し、
前記受付手段が前記所定の操作を受け付けた場合、前記表示手段は、複数の前記領域の重なりが大きいほど中心の濃度が大きくなり、前記中心から離れるほど徐々に濃度が小さくなる色で前記領域を表示する請求項9又は10に記載の画像処理システム。
The evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages.
It has a reception means that accepts predetermined operations,
If the reception unit receives the predetermined operation, the display means, overlaps a plurality of the regions as the concentration of the center is increased larger, the region in the color gradually concentration decreases with increasing distance from the center The image processing system according to claim 9 or 10.
任意の情報処理装置から、画像データを撮像する撮像装置が所定の事象を撮像している旨の通知を取得した場合、
少なくとも通知を取得した時の画像データに事象が撮像されている旨の事象フラグを設定するフラグ設定手段を有する請求項1〜13のいずれか1項に記載の画像処理システム。
When a notification that the image pickup device that captures image data is capturing a predetermined event is obtained from an arbitrary information processing device,
The image processing system according to any one of claims 1 to 13 , further comprising a flag setting means for setting an event flag indicating that an event is captured in the image data at least when the notification is acquired.
指定された評価の段階の前記領域を動作の方向とする人、又は、前記領域に前記動作の方向を示した人を含む画像データを表示装置に表示する表示手段、
を有する請求項1〜13のいずれか1項に記載の画像処理システム。
Person the region of the specified evaluation phase and direction of operation, or the display means to display the image data including the person who indicates the direction of the operation to the region on the display device,
The image processing system according to any one of claims 1 to 13.
撮像装置が撮像した画像データと共に情報処理装置による評価を表示装置に表示する情報端末と通信可能な情報処理装置であって、
画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとに前記情報端末に送信する情報処理装置。
An information processing device capable of communicating with an information terminal that displays the evaluation by the information processing device together with the image data captured by the image pickup device on the display device.
A person detection means that detects a person area including a person from image data,
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. And have
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
An information processing device that transmits the number of times the same evaluation stage is given to the area to the information terminal for each area.
撮像装置が撮像した画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントする情報処理装置と通信可能な情報端末であって、
前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段
前記領域の指定を受け付ける受付手段と、を有し、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する情報端末。
A person detection means that detects a person area including a person from the image data captured by the image pickup device, and
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. And have
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. An information terminal that can communicate with the information processing device that counts
Display means for displaying on the display device evaluation by the evaluation unit together with the image data,
It has a reception means for accepting the designation of the area.
The display means is an information terminal that visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means.
撮像装置が撮像した画像データと共に情報処理装置による評価を表示装置に表示する情報端末と通信可能な情報処理装置を、
画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段、として機能させ、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとに前記情報端末に送信するプログラム。
An information processing device that can communicate with an information terminal that displays the evaluation by the information processing device on the display device together with the image data captured by the image pickup device.
A person detection means that detects a person area including a person from image data,
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. To function as,
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
A program that transmits the number of times the same evaluation stage is given to the area to the information terminal for each area.
撮像装置が撮像した画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントする情報処理装置と通信可能な情報端末を、
前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段
前記領域の指定を受け付ける受付手段、として機能させ、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示するプログラム。
A person detection means that detects a person area including a person from the image data captured by the image pickup device, and
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. And have
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. An information terminal that can communicate with the information processing device that counts
Display means for displaying on the display device evaluation by the evaluation unit together with the image data,
To function as a reception means for accepting the designation of the area,
The display means is a program that visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means.
JP2016133327A 2016-03-07 2016-07-05 Image processing system, information processing device, information terminal, program Active JP6852293B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/443,078 US10360572B2 (en) 2016-03-07 2017-02-27 Image processing system, method and computer program product for evaluating level of interest based on direction of human action

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016043292 2016-03-07
JP2016043292 2016-03-07

Publications (2)

Publication Number Publication Date
JP2017162432A JP2017162432A (en) 2017-09-14
JP6852293B2 true JP6852293B2 (en) 2021-03-31

Family

ID=59857176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133327A Active JP6852293B2 (en) 2016-03-07 2016-07-05 Image processing system, information processing device, information terminal, program

Country Status (1)

Country Link
JP (1) JP6852293B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7062985B2 (en) * 2018-02-06 2022-05-09 コニカミノルタ株式会社 Customer behavior analysis system and customer behavior analysis method
WO2019168162A1 (en) * 2018-03-01 2019-09-06 学校法人玉川学園 Information processing device, information processing method, and program
JP7081310B2 (en) * 2018-06-01 2022-06-07 コニカミノルタ株式会社 Behavioral analytics device, behavioral analytics system, behavioral analytics method, program and recording medium
JP6593949B1 (en) * 2019-07-31 2019-10-23 アースアイズ株式会社 Information processing apparatus and marketing activity support apparatus
WO2022064632A1 (en) * 2020-09-25 2022-03-31 日本電気株式会社 Image processing device, image processing method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4972491B2 (en) * 2007-08-20 2012-07-11 株式会社構造計画研究所 Customer movement judgment system
JP2010067079A (en) * 2008-09-11 2010-03-25 Dainippon Printing Co Ltd Behavior analysis system and behavior analysis method
JP2011248836A (en) * 2010-05-31 2011-12-08 Nomura Research Institute Ltd Residence detection system and program
JP5356615B1 (en) * 2013-02-01 2013-12-04 パナソニック株式会社 Customer behavior analysis device, customer behavior analysis system, and customer behavior analysis method
JP6240203B2 (en) * 2013-09-19 2017-11-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method for displaying merchandising information on information terminal
JP6205484B2 (en) * 2014-04-23 2017-09-27 株式会社日立製作所 Behavior analysis device
JP2016024601A (en) * 2014-07-18 2016-02-08 日本電気株式会社 Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program

Also Published As

Publication number Publication date
JP2017162432A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
JP6852293B2 (en) Image processing system, information processing device, information terminal, program
US10277836B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US10951862B2 (en) Systems and methods for managing and displaying video sources
JP5707562B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US9836115B2 (en) Information processing device, information processing method, and program
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
JP5527423B2 (en) Image processing system, image processing method, and storage medium storing image processing program
JP6254577B2 (en) Information processing apparatus, system, information processing method, and program
US20180025233A1 (en) Image-capturing device, recording device, and video output control device
JP2015149557A (en) Monitoring device, monitoring system, and monitoring method
CN111178294A (en) State recognition method, device, equipment and storage medium
US9886698B2 (en) Augmented reality product brochure application
JP6686547B2 (en) Image processing system, program, image processing method
JP2017211811A (en) Display control program, display control method and display control device
JP6617547B2 (en) Image management system, image management method, and program
JP2017182681A (en) Image processing system, information processing device, and program
JP7124281B2 (en) Program, information processing device, image processing system
JP5947902B2 (en) Face-to-face data generation apparatus and face-to-face data generation method
KR20160108103A (en) Use terminal device, digital signage device and control methods thereof
US10372297B2 (en) Image control method and device
US20230079461A1 (en) Information processing apparatus, information processing system, and information processing method
JP5493581B2 (en) Information processing system, information processing apparatus, information management apparatus, and program
JP7343973B2 (en) Behavior pattern analysis support device, behavior pattern analysis support system, and behavior pattern analysis support method
JP2023177431A (en) Image processor, method for processing image, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R151 Written notification of patent or utility model registration

Ref document number: 6852293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151