JP6852293B2 - Image processing system, information processing device, information terminal, program - Google Patents
Image processing system, information processing device, information terminal, program Download PDFInfo
- Publication number
- JP6852293B2 JP6852293B2 JP2016133327A JP2016133327A JP6852293B2 JP 6852293 B2 JP6852293 B2 JP 6852293B2 JP 2016133327 A JP2016133327 A JP 2016133327A JP 2016133327 A JP2016133327 A JP 2016133327A JP 6852293 B2 JP6852293 B2 JP 6852293B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- image
- evaluation
- image data
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 121
- 230000010365 information processing Effects 0.000 title claims description 21
- 238000011156 evaluation Methods 0.000 claims description 95
- 230000033001 locomotion Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims 1
- 239000000047 product Substances 0.000 description 264
- 230000009471 action Effects 0.000 description 117
- 238000004891 communication Methods 0.000 description 95
- 238000000034 method Methods 0.000 description 87
- 238000010586 diagram Methods 0.000 description 57
- 238000003384 imaging method Methods 0.000 description 51
- 238000012800 visualization Methods 0.000 description 45
- 238000003860 storage Methods 0.000 description 44
- 230000006870 function Effects 0.000 description 39
- 230000008569 process Effects 0.000 description 39
- 238000004458 analytical method Methods 0.000 description 37
- 238000010191 image analysis Methods 0.000 description 30
- 230000005540 biological transmission Effects 0.000 description 18
- 230000036544 posture Effects 0.000 description 13
- 239000000203 mixture Substances 0.000 description 12
- 238000009826 distribution Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 10
- 239000003086 colorant Substances 0.000 description 9
- 239000002131 composite material Substances 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理システム、情報処理装置、情報端末及びプログラムに関する。 The present invention relates to an image processing system, an information processing device, an information terminal and a program.
小売業ではPOS(Point Of System)の売上データを用いることで、売れている商品・売れていない商品を判別し、店長などが商品ごとに改善策を策定することが従来から行われている。具体的には価格設定などを見直すなどの従来の改善策の他に、VMD(Visual Merchandising)と呼ばれる商品の見せ方の改善が行われようになってきた。 In the retail industry, by using POS (Point Of System) sales data, it has been conventionally practiced to discriminate between products that are selling and products that are not selling, and store managers and the like to formulate improvement measures for each product. Specifically, in addition to the conventional improvement measures such as reviewing the price setting, the appearance of the product called VMD (Visual Merchandising) has been improved.
しかしながら、POSの売上データを参照する方法では、商品が「売れたか否か」はわかるが、来客者が「各商品に対して興味を持ったのか否か」はわからないため、必ずしも適切な改善策を策定することができない場合があった。 However, with the method of referring to the sales data of POS, it is possible to know "whether or not the product was sold", but not "whether or not the visitor was interested in each product", so it is not always an appropriate improvement measure. Was sometimes unable to be formulated.
そこで、カメラと画像処理技術を組み合わせることで映像を加工して店長等が分析しやすい情報を出力する監視システムが考案されている(例えば、特許文献1参照。)。特許文献1には、画像から店舗への来客者の購買行動を判断し、POSデータには現れない来客者の商品に対する行動を取得する技術が開示されている。このような技術が活用されれば、POSの売上データには現れない来客者の商品に対する行動を分析しやすくなる。
Therefore, a monitoring system has been devised that processes an image by combining a camera and an image processing technique and outputs information that can be easily analyzed by a store manager or the like (see, for example, Patent Document 1).
しかしながら、従来の技術では「商品(又は商品が置かれている棚)に対し来客者がアクセスしたか否か」の2種類を判断できても、来客者がどの程度その商品に興味を持ったのかを判断できないという問題があった。すなわち、来客者が商品に対しアクセスすれば商品に対して興味が「あった」と判別し、アクセスしなければ「なかった」と判別するという2種類の判別しかできず、来客者がどの程度その商品に興味を持ったのかを判断することができなかった。 However, even if the conventional technology can determine two types of "whether or not the visitor has accessed the product (or the shelf on which the product is placed)", how much the visitor is interested in the product. There was a problem that it could not be determined. In other words, if a visitor accesses the product, it is determined that he / she is "interested" in the product, and if he / she does not access the product, it is determined that he / she is "not". I couldn't tell if I was interested in the product.
本発明は上記課題に鑑み、人の興味の度合いをより詳細に判断することが可能な画像処理システムを提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image processing system capable of determining the degree of interest of a person in more detail.
本発明は、1つ以上の情報処理装置を有する画像処理システムであって、画像データから人が含まれる人領域を検出する人検出手段と、前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、前記領域の指定を受け付ける受付手段と、を有し、前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する。 The present invention is an image processing system including one or more information processing devices, wherein a person detecting means for detecting a person area including a person from image data and the person area detected by the person detecting means are used. Depending on the motion determining means for determining the motion of a person and the direction of the motion, the region determined by being in the direction among a plurality of predetermined regions, or the direction and the size of the human region. Yes and evaluating means for evaluating in accordance with the prior SL region the operation is determined, and display means for displaying on the display device evaluation by the evaluation unit together with the image data, and a reception unit that receives designation of the area Te Then, the evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages, and assigns the same evaluation stage to the region of the plurality of image data in the region. Counting each time, the display means visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means .
人の興味の度合いをより詳細に判断することが可能な画像処理システムを提供することができる。 It is possible to provide an image processing system capable of determining the degree of interest of a person in more detail.
以下、本発明を実施するための形態について図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
<本実施形態の画像解析の一例>
図1は、画像処理システムによる人の興味の度合いの判断例を説明する図である。図1では、一例としてアパレル業界の店舗を来客者が訪れた場合を例にして説明する。来客者は目的の商品まで店内を歩いたり、興味を引く商品を探したりしながら店内を歩く。画像処理システムは各地に設置された広角カメラにより来客者を撮像し、画像データを解析して来客者のアクションを判断する。
<Example of image analysis of this embodiment>
FIG. 1 is a diagram illustrating an example of determining the degree of interest of a person by an image processing system. In FIG. 1, a case where a visitor visits a store in the apparel industry will be described as an example. Visitors walk around the store to find the products they want, or search for products that interest them. The image processing system captures the visitor with wide-angle cameras installed in various places, analyzes the image data, and determines the action of the visitor.
図1(a)に示すように、画像処理システムは、まず来客者が歩いているかどうかを判断できる。歩いている場合、画像処理システムは更に顔向きなどから進行方向を向いているのか商品の方向を向いているのかなどを判断できる。進行方向を向いていない場合、何らかの商品を見たと考えてよいので、来客者が歩きながら商品の方向を見たと判断できる。 As shown in FIG. 1A, the image processing system can first determine whether or not the visitor is walking. When walking, the image processing system can further determine whether the product is facing the direction of travel or the direction of the product based on the face or the like. If it is not facing the direction of travel, it can be considered that the visitor has seen some kind of product, so it can be determined that the visitor has seen the direction of the product while walking.
また、図1(b)に示すように、来客者が立ち止まっている場合、来客者は何らかの商品を立ち止まって見ていると判断できる。立ち止まって見ている場合は、歩きながら見ている場合よりも興味の度合いが高いと判断できる。更に、図1(c)に示すように画像処理システムは画像を解析して、来客者が手を伸ばしたか否かを判断できる。手を伸ばして見ている場合、立ち止まって見ている場合よりも興味の度合いが高いと判断できる。 Further, as shown in FIG. 1B, when the visitor is stopped, it can be determined that the visitor is stopping and looking at some product. It can be judged that the degree of interest is higher when watching while stopping than when watching while walking. Further, as shown in FIG. 1C, the image processing system can analyze the image and determine whether or not the visitor has reached out. It can be judged that the degree of interest is higher when looking at it with a hand reached than when looking at it while stopping.
また、図1(d)に示すように、画像処理システムは商品である服を来客者が身体に当てているかどうかを解析できる。この場合、手を伸ばして見ている場合よりも興味の度合いが高いと判断できる。 Further, as shown in FIG. 1D, the image processing system can analyze whether or not the visitor puts the clothes, which are the products, on the body. In this case, it can be judged that the degree of interest is higher than when the person is reaching out and looking at it.
このように、本実施形態の画像処理システムは、店舗内の来客者の様子を撮像した画像から種々の動作を判断することで、商品又は商品ゾーンに対する興味の度合いを多段階に判断することができる。また、来客者の動作の対象は興味の対象であり、動作の方向により予め定義されていた商品ゾーンを決定すれば、商品ゾーンに対する興味の強さを視覚的に表示することも可能となる。 As described above, the image processing system of the present embodiment can determine the degree of interest in the product or the product zone in multiple stages by determining various operations from the images obtained by capturing the state of the visitors in the store. it can. Further, the target of the visitor's movement is the target of interest, and if the product zone defined in advance is determined according to the direction of the movement, it is possible to visually display the strength of interest in the product zone.
<用語について>
上記の広角画像は、所定よりも画角が広い画像であり、少なくとも通常の撮像装置(例えば35mmフィルムのカメラ)の画角よりも広い画角の画像をいう。あるいは、魚眼レンズで撮像されている画像のように湾曲した画像をいう。広角画像の一例の全天球画像は、周囲360°の全方位が撮像された画像である。全方位画像、パノラマ画像、全天球パノラマ画像など、どのように呼ばれていてもよい。また、周囲360°の画像の一部が画像処理などの関係で欠けていても本実施形態の説明に支障がない場合は全天球画像と称する。全天球画像により広範囲をカバーできるので撮像装置の設置数を少なくすることができる。
<Terminology>
The wide-angle image is an image having a wider angle of view than a predetermined value, and is at least an image having a wider angle of view than that of a normal image pickup device (for example, a camera of a 35 mm film). Alternatively, it refers to a curved image such as an image captured by a fisheye lens. An example of a wide-angle image, an omnidirectional image, is an image captured in all directions with a circumference of 360 °. It may be called any way, such as an omnidirectional image, a panoramic image, and an omnidirectional panoramic image. Further, if a part of the image having a circumference of 360 ° is missing due to image processing or the like, it does not interfere with the explanation of the present embodiment, it is referred to as a spherical image. Since the whole celestial sphere image can cover a wide area, the number of image pickup devices installed can be reduced.
人とは興味、関心、反応又は応答などの動作を示す者である。動作により興味、関心、反応又は応答の程度が判断される。なお、人の他、動物などが検出されてもよい。人は屋内で検出されても屋外で検出されてもよい。屋内又は屋外では商品やサービスが提供される。商品やサービスは興味等の対象となる。 A person is a person who exhibits an action such as interest, interest, reaction or response. The action determines the degree of interest, interest, reaction or response. In addition to humans, animals and the like may be detected. The person may be detected indoors or outdoors. Goods and services are provided indoors or outdoors. Goods and services are of interest.
評価とは、この興味の程度を決定したり判断したりすることをいう。本実施形態では興味の程度が多段階に評価される。多段階とは少なくとも3段階以上であることが好ましい。 Evaluation means determining or judging the degree of this interest. In this embodiment, the degree of interest is evaluated in multiple stages. The multi-stage is preferably at least 3 stages or more.
<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、情報端末7を有している。撮像装置1は設置者Xにより店舗内に設置されている。情報端末7は閲覧者Yにより操作される。
<System configuration of image processing system>
FIG. 2 is an example of a schematic configuration diagram of the
通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や情報端末7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。
The
撮像装置1は、上記のように1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。
As described above, the
なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。
The
通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
The
なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。
If the
画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。
The
なお、画像管理装置5にはクラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。
It is preferable that cloud computing is applied to the
情報端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。
The
撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。情報端末7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、情報端末7は本社以外の場所からも画像管理装置5と通信可能である。画像管理装置5は、各拠点の通信端末3から送られて来た画像データやその解析結果を情報端末7に送信する。
The
<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,情報端末7及び画像管理装置5のハードウェア構成を説明する。
<Hardware configuration of the embodiment>
Next, the hardware configurations of the
<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
<< Imaging device >>
FIG. 3 is an example of a hardware configuration diagram of the
図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
As shown in FIG. 3, the
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
Of these, the
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
The
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、メルカトル画像のデータを作成する。
The
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
The image
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
Further, the image
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。
Further, as will be described later, the image
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
The
CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
The
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。
The
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. Further, the network I / F116 may be a network interface regardless of whether it is wireless or wired. The Mercator image data stored in the
通信部117は、撮像装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
The
電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
The
<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
<< Communication terminal >>
Next, the hardware configuration of the
図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。
As shown in FIG. 4, the
また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
Further, a
なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。
The
通信部305は、アンテナ305aを利用して無線通信信号により、無線ルータ9a等と通信を行う。
The
図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。
In addition to the illustration, it is equipped with a GPS receiver that receives GPS signals including the position information (latitude, longitude, and altitude) of the
<<画像管理装置、情報端末7>>
図5を用いて、画像管理装置5及びノートPCの場合の情報端末7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び情報端末7のハードウェア構成図である。画像管理装置5及び情報端末7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。情報端末7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
<< Image management device,
The hardware configuration of the
画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
The
<画像処理システムの機能について>
図6は、本実施形態の画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。
<About the function of the image processing system>
FIG. 6 is a functional block diagram of the
<<撮像装置1の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of
The
また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置用のプログラム及び端末IDが記憶されている。
Further, the
撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。
The
撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。
The
集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。
The
接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。
The
記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。
The storage /
<<通信端末3の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of
The
また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末用のプログラムが記憶されている。
Further, the
(通信端末3の各機能構成)
通信端末3の送受信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
(Each function configuration of communication terminal 3)
The transmission /
接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。
The
記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。
The storage /
<<画像管理装置の機能構成>>
画像管理装置5は、送受信部51、人物検出部52、サムネイル作成部53、画面作成部54、画像解析部55、評価部56、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<< Functional configuration of image management device >>
The
また、画像管理装置5は、図4に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、撮像管理DB5002、画像管理DB5003、サムネイル管理DB5004、解析情報管理DB5005、及び、興味度管理DB5006が構築されている。以下、各データベースについて説明する。
Further, the
表1は、拠点管理DB5001に記憶される各情報をテーブル状に示す拠点管理テーブルを示す。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
Table 1 shows a base management table showing each information stored in the
地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。 The area name indicates an area or range of land such as Kanto, Tokyo, Shibuya Ward, New York State, New York City, etc. It may be called a region name. The identification information refers to a name, a code, a character string, a numerical value, or a combination of two or more of these, which is used to uniquely distinguish a specific object from a plurality of objects. The same applies to the following ID or identification information.
拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。
The base ID is an example of identification information for identifying the base. The base ID is assigned to the base name so that it is not duplicated. It may be referred to as site-specific information. An example of a base ID is a combination of a unique number and an alphabet. The base is a place where the
拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。
The base name is a store name such as the Shibuya store, a venue name such as the Shibuya venue, etc., and is the name of the base. File names such as the layout of each base and image data showing the map are registered in the base layout map. The location of the
端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置(端末ID)が設置されており、それらの位置が拠点レイアウトマップに登録されている。
The terminal ID is identification information for identifying the
拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。
The base management table may be registered by the installer X or the viewer Y, or may be registered by the supplier of the
表2は、撮像管理DB5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Table 2 is an imaging management table showing each information stored in the
表3は、画像管理DB5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。画像IDは、画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
Table 3 is an image management table showing each information stored in the
例えば、情報端末7で画像管理装置5にアクセスし、表2の撮像管理テーブルから拠点名と撮像タイトルを選ぶ。画像管理装置5は拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。
For example, the
当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。
Of course, the viewer Y can also directly specify the terminal ID and the base ID. In the present embodiment, for the sake of simplicity, a mode in which the viewer Y specifies a terminal ID for browsing will be mainly described. The image management table is mainly registered by the
表4は、サムネイル管理DB5004に記憶される各情報をテーブル状に示すサムネイル管理テーブルである。サムネイルとは親指程度のという意味であり、サムネイル画像は縮小した、画素数を低減した又は一覧用のイメージデータという意味になる。
Table 4 is a thumbnail management table showing each information stored in the
サムネイル管理テーブルでは、画像IDごとに、サムネイルID、サムネイル画像のファイル名、及び所定領域情報が関連付けて記憶されている。サムネイルIDは、画像IDで示される画像データに基づいて作成されたサムネイル画像を一意に識別するための識別情報の一例である。サムネイル固有情報と称してもよい。サムネイル画像のファイル名は、サムネイルIDで示されるサムネイル画像のファイル名である。サムネイル画像のファイル名は画像管理装置5が付与する。所定領域情報は、画像IDで示される画像データにおいて、サムネイル画像が作成された所定領域を示す。サムネイル管理テーブルは、主に画像管理装置5が登録する。
In the thumbnail management table, the thumbnail ID, the file name of the thumbnail image, and the predetermined area information are stored in association with each image ID. The thumbnail ID is an example of identification information for uniquely identifying a thumbnail image created based on the image data indicated by the image ID. It may be referred to as thumbnail-specific information. The file name of the thumbnail image is the file name of the thumbnail image indicated by the thumbnail ID. The
表5は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。解析情報テーブルでは、画像IDごとに、領域ID、領域範囲、アクション及び方向が関連付けて記憶されている。画像IDについては上記のとおりである。領域ID、範囲、アクション、及び、方向について詳細は後述される。まず、領域は、全天球画像の解析により来客者(人)が検出された来客者の外接矩形である。領域IDは、領域を一意に識別するための識別情報の一例である。領域番号や領域固有情報と称してもよい。例えば、画像ごとに1から始まる連番がareanの"n"に設定される。
Table 5 is an analysis information table showing each information stored in the analysis
領域範囲は領域を特定するための情報である。来客者が検出される領域は矩形であるものとして、例えば、左上頂点の座標(x,y)と幅(width)と高さ(height)が領域範囲となる。対角の2点の座標で領域が特定されてもよい。なお、領域範囲は、全天球に画像が貼り付けられる前の平面の状態の平面画像の座標系に基づいて決定されている。補足すると、撮像装置1は当初、平面画像を出力するが、閲覧時には全天球に平面画像が貼り付けられ全天球画像が作成されている。アクションは、領域で検出された来客者の動作内容であり、表8に示す番号に置き換えられている。方向は、アクションの方向(動作の方向)を示す。
The area range is information for specifying the area. Assuming that the area where the visitor is detected is rectangular, for example, the coordinates (x, y), width (width), and height (height) of the upper left vertex are the area ranges. The area may be specified by the coordinates of two diagonal points. The area range is determined based on the coordinate system of the plane image in the state of the plane before the image is pasted on the whole celestial sphere. Supplementally, the
表6は、興味度管理DB5006に記憶される各情報をテーブル状に示す興味度管理テーブルである。興味度管理テーブルでは、来客者のアクションごとにアクションがどの程度の興味の強さを意味するかが登録されている。この興味の強さが興味度である。したがって、画像管理装置5はアクションから興味度を決定できる。なお、来客者のアクションとは商品に対し来客者が示した行動、動作又は反応等を示す。アクションには単に通り過ぎたことが含まれる。
Table 6 is an interest level management table showing each information stored in the interest
(画像管理装置の各機能構成)
画像管理装置5の送受信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は情報端末7と各種データの送受信を行う。なお、以下では、画像管理装置5が情報端末7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
(Each function configuration of the image management device)
The transmission /
人物検出部52は、主に、図5に示されているCPU501の処理によって実現され、画像データから人を検出する。この人の検出は適切な特徴量の設定と、学習識別装置の設定により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置としては、SVM(Support Vector Machines)、AdaBoostを用いたカスケード分類などが知られている。ただし、これらに限られるものではなく人を検出できればよい。
The
サムネイル作成部53は、主に、図5に示されているCPU501の処理によって実現され、所定領域画像のサムネイル画像を作成する。
The
画面作成部54は、画像データを情報端末7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで情報端末7が画像データを表示するための画面情報を作成する。
When transmitting the image data to the
画像解析部55は、主に、図5に示されているCPU501の処理によって実現され、来客者が検出された領域に対し来客者のアクションを判断する画像処理を行う。動作そのものを画像から判断することは困難であるため姿勢形状とのマッチングによりアクションを判断する。すなわち、画像処理システムの運営者などが代表的な姿勢を登録しておき、画像解析部55が検出された人の形状とマッチングを行う。アクションとして代表的な姿勢(上記した、進行方向を向いて歩いている、進行方向を向かないで歩いている、歩いていない、商品に手を伸ばす、商品を身体に当てるなど)を例えばSVMに学習させる。来客者の動作と姿勢の間には相関があるので、姿勢を個別に学習する。好ましくは、SVMは移動状態と静止状態で別々に姿勢を学習する。これにより1つのSVMが学習する姿勢の数が減少するので、SVMの姿勢認識精度が向上する。なお、移動状態か静止状態かは、全天球画像が動画であれば来客者が移動するかどうかにより判断してもよいし、画像が変化したことにより判別してもよいし、脚部の開きの大きさをパターンマッチング等により判別してもよい。姿勢を判断する際にアクションの方向も判断される。なお、姿勢の判断については非特許文献1を参照されたい。
The
評価部56は、主に、図5に示されているCPU501の処理によって実現され、決定されたアクションを、興味度管理DB5006に基づいて興味度に変換する。また、評価部56は、時系列の複数の画像データについて、アクションの方向から後述する商品ゾーンを特定し、商品ゾーンごとに同じアクション(興味度)が与えられた回数をカウントする。
The
記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。
The storage /
<情報端末7の機能構成>
情報端末7は、送受信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された情報端末7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of
The
また、情報端末7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には情報端末7用のプログラムが記憶されている。情報端末7用のプログラムは、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。
Further, the
(情報端末7の各機能構成)
情報端末7の送受信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、情報端末7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
(Each function configuration of information terminal 7)
The transmission /
受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。
The
表示制御部73は、主に、図5に示されているCPU501の処理によって実現され、画像管理装置5から送信された画面情報を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。
The
記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。
The storage /
<人の検出とアクションの判断例>
画像管理装置5が来客者の商品に対する興味の度合いを判断するには、画像管理装置5が人を検出することが必要になる。人物検出部52は画像処理にて人を検出し、検出した領域を画像内の座標として解析情報管理DB5005に登録し、画像解析部55は領域からアクションを判断する。
<Example of human detection and action judgment>
In order for the
図7は、人が検出された領域602を模式的に示す図の一例である。図7(a)では、5つの領域602が検出されている。図7(a)の平面画像は例えば全天球に貼り付けられる前のメルカトル図法により作成された画像である。天井部は歪んでいる可能性があるが天井には人がいないため不都合は少ない。また、全天球画像のうち足下に近い部分も歪んでいる可能性があるが床に近い所定範囲(閾値となる緯度以下)では人検出を行わなければよい。あるいは、全天球画像に変換された状態で人を検出したりアクションを判断したりしてもよい。
FIG. 7 is an example of a diagram schematically showing a
画像解析部55は、人が検出された領域602に対し来客者が行うアクションを判断する。その結果、図7(b)のように各領域602は、判断されたアクション603とそのアクションの方向を持つ。
The
例えば、歩いている場合に顔向きが正面方向か横向きかをパターンマッチングにより判断できる。アクション0の場合、方向はない。顔向きが商品の向きの場合、アクション1と判断されるが、この場合は顔の向きがアクションの方向である。また、立ち止まっていると判断され、パターンマッチングにより手を伸ばしたと判断されると、アクション3と判断されるが、この場合の方向は来客者が伸ばした手の方向である。
For example, when walking, it can be determined by pattern matching whether the face is facing forward or sideways. In case of
パターンマッチングにより商品を身体に当てたと判断されるとアクション4と判断されるが、この場合、過去の画像データから来客者が商品を取った棚の方向が判断される。パターンマッチングにより商品を身体に当てたと判断されるとアクション5と判断されるが、この場合、過去の画像データから来客者が商品を取った棚の方向が判断される。
When it is determined by pattern matching that the product is applied to the body, it is determined to be
なお、アクションの内容は0〜5の6個に限られず、より多くの種類のアクションを判断してもよい。また、方向は平面画像の所定方向(例えばx方向、y方向)を0度にして時計回り又は反時計回りに360度の値を取る。画像解析部55はその矩形データとアクションの判断結果を解析情報管理DB5005に登録する。
The content of the action is not limited to 6 from 0 to 5, and more types of actions may be determined. Further, the direction takes a value of 360 degrees clockwise or counterclockwise with a predetermined direction (for example, x direction, y direction) of the plane image as 0 degrees. The
図7(c)は、撮像装置1により撮像された画像の一例を示す。二人の来客者が人として検出され、それぞれの領域602が図示されている。このような画像は、情報端末7が画像管理装置5から取得することができる。
FIG. 7C shows an example of an image captured by the
<アクションの判断手順>
図8は、画像解析部55がアクションを判断する手順を示すフローチャート図の一例である。図8の処理は、画像データへの人の検出処理が行われるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
<Action judgment procedure>
FIG. 8 is an example of a flowchart showing a procedure in which the
画像解析部55は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。
The
次に、画像解析部55は、順番に画像データを1つずつ読み出す(S20)。
Next, the
そして、画像解析部55は、画像データに人が検出された領域602があるか否かを判断する(S30)。
Then, the
ステップS30の判断がNoの場合、処理はステップS170に進む。ステップS30の判断がYesの場合、画像解析部55は姿勢を推定する(S40)。姿勢の推定により顔向きも推定される。
If the determination in step S30 is No, the process proceeds to step S170. If the determination in step S30 is Yes, the
まず、姿勢に基づいて歩いているか否かを判断する(S50)。ステップS40の判断がYesの場合、画像解析部55は顔が進行方向を向いているか否かを判断する(S60)。
First, it is determined whether or not the person is walking based on the posture (S50). If the determination in step S40 is Yes, the
ステップS60の判断がYesの場合、画像解析部55は商品を見ずに通り過ぎたというアクションを来客者が行ったと判断する(S70)。
If the determination in step S60 is Yes, the
ステップS60の判断がNoの場合、画像解析部55は商品を歩きながら見たというアクションを来客者が行ったと判断する(S80)。
If the determination in step S60 is No, the
次に、ステップS50の判断がNoの場合、来客者は立ち止まっているので、画像解析部55は手を伸ばしているか否かを判断する(S90)。
Next, if the determination in step S50 is No, the visitor is stopped, and the
ステップS90の判断がYesの場合、画像解析部55は来客者が商品に手を伸ばしていると判断する(S100)。
If the determination in step S90 is Yes, the
ステップS90の判断がNoの場合、画像解析部55は来客者が商品を持っているか否かを判断する(S110)。
If the determination in step S90 is No, the
ステップS110の判断がNoの場合、画像解析部55は来客者が商品を立ち止まって見ているというアクションを行ったと判断する(S120)。
If the determination in step S110 is No, the
ステップS110の判断がYesの場合、画像解析部55は来客者が商品をかごに入れた(又は持っていった)、体に当てた、又は、棚に戻したかどうかを判断する(S130)。
If the determination in step S110 is Yes, the
この結果、画像解析部55は来客者が商品をかごに入れたというアクションを行ったと判断するか(S140)、来客者が商品を体に当てたというアクションを行ったと判断するか(S150)、又は、来客者が商品を棚に返したと判断する(S160)。
As a result, the
次に、処理はステップS30に戻り、ステップS30でNoと判断されると、画像解析部55は次の画像データがあるか否かを判断する(S170)。画像データがある場合、処理はステップS20に戻り、次の画像データがない場合、図8の処理は終了する。
Next, the process returns to step S30, and if No is determined in step S30, the
このように姿勢から種々のアクションを判断できる。種々のアクションを判断できれば興味度を多段階に判断できる。 In this way, various actions can be judged from the posture. If various actions can be judged, the degree of interest can be judged in multiple stages.
<商品ゾーンごとの集計>
人が検出された領域602についてアクションと方向が分かっているのでこれらを利用して、「各商品ゾーンに対するアクションの分布」を作成できる。商品ゾーンとは同じ種類の商品や関連した商品が集まっている店舗内の場所である。具体的には1つ以上の棚の集合であったり、商品が密接して配置されたりしている場所である。
<Aggregation by product zone>
Since the action and direction of the
図9は商品ゾーン610ごとの集計を模式的に説明する図の一例である。商品ゾーン610の形状は不定形であるが、多角形でもよい。閲覧者Yは集計したい商品ゾーン610を予め定義しておく。図9では2つの商品ゾーン610A,Bが図示されている。人が検出される領域602は、商品ゾーン610に隣接していたり、重なっていたりする。来客者は商品ゾーン610に対し何らかのアクションを取ることが多いと考えられる。したがって、商品ゾーン610を向いている領域602のアクションを、商品ゾーン610に対して行われたものとみなし評価部56が集計する。
FIG. 9 is an example of a diagram schematically explaining the aggregation for each
図9の領域602A〜602Cはそれぞれ商品ゾーン610Aと隣接している。隣接しているとは商品ゾーン610の中心と領域602の中心が所定距離内であることをいう。この距離は画像上のピクセル数でよい。また、領域602A〜602Cで行われたアクションは、商品ゾーン610Aを向いている。商品ゾーン610を向いているとは、アクションの方向を延長すると延長線上に商品ゾーン610があることをいう。例えば、商品ゾーンの外縁をいくつかの点の集合として表しておき、アクションの方向の延長線がこの点から所定距離内を通過する場合に延長線上に商品ゾーン610があると判断できる。あるいは、簡略化して商品ゾーンの外接矩形と延長線が交差する場合に、延長線上に商品ゾーン610があると判断してもよい。
よって領域602A〜602Cのアクションは、商品ゾーン610Aに対して行われたとみなして評価部56が集計する。一方、領域602Dは、商品ゾーン610Aだけでなく商品ゾーン610Bと隣接している(又は重複領域を持っている)。しかし、アクションの方向が商品ゾーン610Bを向いている(アクションの方向に延長すると、商品ゾーン610Bに到達する)ため、商品ゾーン610Bへのアクションとして集計する。
Therefore, the actions in the
また領域602Eは商品ゾーン610Aと重複しているが、アクションの方向が商品ゾーン610Aを向いていないため、商品ゾーン610Aへのアクションとして集計しない。
Further, although the
評価部56はこれらの処理をすべての領域602に対して行い、領域602と商品ゾーン610を対応づける。商品ゾーン610A,610Bは以下のように領域602とそのアクションと対応付けられる。
The
商品ゾーン610A:アクション4×1、アクション2×2
商品ゾーン610B:アクション3×1
表7は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。なお、表7の説明では、表5との相違を主に説明する。表7の解析情報テーブルには、対象ゾーンの座標のフィールドが追加されている。対象ゾーンの座標のフィールドは、商品ゾーン610を特定する情報が登録されている。したがって、各領域602のアクションが向いている方向の商品ゾーン610と領域602が対応付けられる。商品ゾーン610を特定する情報は、対象ゾーンの外縁の点を示す座標の集合、又は、外接矩形を生成した場合の左上頂点の座標(x,y)と幅(width)と高さ(height)などである。
Table 7 is an analysis information table showing each information stored in the analysis
更に、評価部56は、商品ゾーン610ごとにアクションの数を集計することにより、表8に示すように、各商品ゾーン610に対する各アクションの分布テーブルが得られる。表8では、ある集計期間の間、各商品ゾーン610において、アクション0〜5が判断された回数が示されている。したがって、商品ゾーン610ごとに各アクションの頻度が分かり、店舗内で見ればアクションの分布が得られることになる。
Further, the
<商品ゾーンの判断>
図10は、領域602に関する商品ゾーン610を判断する手順を示すフローチャート図の一例である。図10の処理は、アクションの判断が終わるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
<Judgment of product zone>
FIG. 10 is an example of a flowchart showing a procedure for determining the
評価部56は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。
The
次に、評価部56は、順番に画像データを1つずつ読み出す(S20)。
Next, the
そして、評価部56は、画像データに人が検出された領域602があるか否かを判断する(S30)。
Then, the
ステップS30の判断がYesの場合、評価部56は、人が検出された領域602に隣接又は重複する商品ゾーン610があるか否かを判断する(S40)。この判断は、商品ゾーン610の中心と領域602の中心が所定距離内であるかどうかを判断すればよい。
If the determination in step S30 is Yes, the
ステップS40の判断がNoの場合、処理はステップS30に戻る。ステップS40の判断がYesの場合、評価部56は領域602で判断されたアクションが方向を持っているか否かを判断する(S50)。これはアクションの番号を判断すればよい。アクション0以外は方向を持っている。
If the determination in step S40 is No, the process returns to step S30. If the determination in step S40 is Yes, the
ステップS50の判断がNoの場合、評価部56は隣接する全ての商品ゾーン610へのアクションであるとして判断し、アクションの数を1つ大きくする(S60)。これにより、方向が不明の場合も領域602を集計することができる。
If the determination in step S50 is No, the
ステップS50の判断がYesの場合、評価部56はアクションの方向の延長線上に隣接する商品ゾーン610があるか否かを判断する(S70)。
If the determination in step S50 is Yes, the
ステップS70の判断がNoの場合、処理はステップS30に戻る。ステップS70の判断がYesの場合、評価部56はアクションの方向の延長線上にある商品ゾーン610のアクションの数を1つ大きくする(S80)。
If the determination in step S70 is No, the process returns to step S30. If the determination in step S70 is Yes, the
ステップS30の判断がNoの場合、評価部56は次の画像があるか否かを判断する(S90)。
If the determination in step S30 is No, the
ステップS90の判断がYesの場合、処理はステップS20に戻り、ステップS90の判断がNoの場合、図10の処理は終了する。 If the determination in step S90 is Yes, the process returns to step S20, and if the determination in step S90 is No, the process in FIG. 10 ends.
以上説明したように本実施例の画像処理システム200では、来客者の商品に対する興味の程度を多段階に評価できる。また、アクションの方向に基づいて商品ゾーン610を判断し、商品ゾーン610に対し行われた興味(アクション)の数をカウントできるので、ある商品ゾーン610ごとにどのような興味が多いかを定量化できる。したがって、商品ゾーン610に対するアクション(興味)の内容を閲覧者Yなどが分析できるようになる。
As described above, in the
本実施例では、商品ゾーン610が予め決まっていない場合に商品ゾーン610を決定する画像処理システム200について説明する。なお、画像処理システム200の機能については実施例1と同様であるか、違いがあっても本実施例の説明には支障がないものとする。
In this embodiment, the
実施例1では商品ゾーン610が予め定義されていたが、予め定義されていなくても人が検出された領域602に基づいて画像管理装置5が商品ゾーン610を定義することができる。アクションの方向が商品ゾーン610であると推定してよいためである。したがって、画像管理装置5は領域602と領域602が持つアクションの方向から商品ゾーン610を推定又は特定できる。
In the first embodiment, the
図11は、商品ゾーン610の定義方法を模式的に示す図である。まず、人物検出部52が人を検出することで領域602A〜602Fが検出されている。画像解析部55は領域602A〜602Fのアクションを判断しており、方向が分かっている。アクションの方向に商品ゾーン610がある場合が多いと考えてよいため、評価部56はアクションの方向に領域602のサイズに応じた大きさの商品ゾーン610を定義する。
FIG. 11 is a diagram schematically showing a method of defining the
図11では、各領域602の短辺(幅)と同じ長さの辺を持った正方形を商品ゾーン610として図示している。評価部56は、アクションの方向を示す直線と領域602から短辺(幅)の半分だけ離れた垂直線又は水平線の交点を正方形の中心に決定する。すなわち、アクションの方向を示す直線が領域602の上辺と交差する場合、領域602の上辺から短辺(幅)の半分だけ離れた上辺と平行な水平線との交点が求められる。アクションの方向を示す直線が領域602の下辺と交差する場合、領域602の下辺から短辺(幅)の半分だけ離れた下辺と平行な水平線との交点が求められる。アクションの方向を示す直線が領域602の右辺と交差する場合、領域602の右辺から短辺(幅)の半分だけ離れた右辺と平行な垂直線との交点が求められる。アクションの方向を示す直線が領域602の左辺と交差する場合、領域602の左辺から短辺(幅)の半分だけ離れた左辺と平行な垂直線との交点が求められる。
In FIG. 11, a square having a side having the same length as the short side (width) of each
この正方形の中心から上下左右に短辺(幅)の半分はなれた直線で囲まれる矩形が求める正方形である。商品ゾーン610を領域602の短辺(幅)と同じ長さの辺を持った正方形としたので、商品ゾーン610に領域602のサイズを反映させることができる。なお、領域602の長辺(高さ)と同じ長さの辺を持つ正方形や、領域602と同じ幅と高さを持つ長方形を商品ゾーン610として定義してもよい。また、商品ゾーン610は正方形や長方形などの矩形の他、円や楕円などでもよい。この場合も、円の直径や楕円の長軸又は短軸に領域602のサイズが反映されることが好ましい。
Half of the short side (width) from the center of this square to the top, bottom, left, and right is the square required by the rectangle surrounded by a straight line. Since the
例外として、領域602Fのようにアクションが方向を持たない場合がある。この場合、領域602Fの来客者がどの方向に対しアクションしているのか不明なので、評価部56は商品ゾーン610を定義しない。また、前後の画像データではアクションが検出されている可能性もある。ただし、周辺の全ての方向にアクションを行い得ると推定して、領域602Fの周囲の任意の方向又は全方向に商品ゾーン610を設定してもよい。
As an exception, the action may have no direction, as in
図11では、領域602Aに対し商品ゾーン610A、領域602Bに対し商品ゾーン610B、領域602Cに対し商品ゾーン610C、領域602Dに対し商品ゾーン610D、領域602Eに対し商品ゾーン610E、がそれぞれ定義されている。領域602Fに対しては商品ゾーンが定義されない。
In FIG. 11, the
図12は、評価部56が商品ゾーン610を定義する手順を示すフローチャート図の一例である。図12の処理は、アクションの判断が終わるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
FIG. 12 is an example of a flowchart showing a procedure in which the
評価部56は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。
The
次に、評価部56は、順番に画像データを1つずつ読み出す(S20)。
Next, the
そして、評価部56は、画像データに人が検出された領域602があるか否かを判断する(S30)。
Then, the
ステップS30の判断がYesの場合、評価部56は領域602がアクションの方向を持っているか否かを判断する(S40)。
If the determination in step S30 is Yes, the
ステップS40の判断がNoの場合、処理はステップS30に戻る。ステップS40の判断がYesの場合、評価部56はアクションの方向であって、領域602に隣接する商品ゾーン610を定義する(S50)。
If the determination in step S40 is No, the process returns to step S30. If the determination in step S40 is Yes, the
この後、処理はステップS30に戻り、領域602がある間、ステップS30〜S50が実行される。
After this, the process returns to step S30, and steps S30 to S50 are executed while there is an
ステップS30の判断がNoの場合、評価部56は次の画像データがあるか否かを判断し(S60)、次の画像データがなくなると図12の処理が終了する。
If the determination in step S30 is No, the
以上の処理により、領域602とアクションの方向から算出される商品ゾーン610が定義され、領域602に商品ゾーン610が対応付けられた解析情報管理DB5005が得られる。
By the above processing, the
表9は、本実施例において解析情報管理DB5005に記憶される解析情報テーブルを模式的に示す。表9の説明では、表5との相違を主に説明する。表9の解析情報テーブルには、商品ゾーン610の座標のフィールドが追加されている。商品ゾーン610の座標は、領域602とアクションの方向に基づいて定義された商品ゾーン610の左上頂点の座標である。商品ゾーン610である正方形の中心の座標でもよい。幅と高さは互いに同じであり、領域602の幅と同じである。
Table 9 schematically shows the analysis information table stored in the analysis
このように本実施例の画像処理システムは、商品ゾーン610が定義されていなくても領域602に基づいて商品ゾーン610を定義することができる。商品ゾーン610が定義されれば商品ゾーン610に対するアクション(興味)の内容を閲覧者Yなどが分析できるようになる。
As described above, the image processing system of the present embodiment can define the
本実施例では実施例1、2で得られた解析情報テーブルの内容を表示する情報端末7について説明する。これにより、来客者の興味の程度をヒートマップなどのような分布表現で表示することが可能になる。閲覧者Yは商品に対する興味の度合いを視覚的に把握することができる。
In this embodiment, the
図13は、本実施例の画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。また、本実施例において、図6において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。図13の情報端末7は情報視覚化部74を有している。情報視覚化部74は、図5に示されているCPU501の処理によって実現され、解析情報テーブルや分布テーブルを視覚化するための各種の評価を行う。
FIG. 13 is a functional block diagram of the
視覚化は実施例1と実施例2で少し異なっているため、実施例1の場合と実施例2の場合を分けて説明する。 Since the visualization is slightly different between Example 1 and Example 2, the case of Example 1 and the case of Example 2 will be described separately.
<実施例1 商品ゾーンが予め定義されている場合>
実施例1では表8の分布テーブルが得られていることになる。情報視覚化部74は閲覧者Yの操作に応じてこの分布テーブルのアクションの回数を加工して、表示制御部73がディスプレイ508に表示する。以下では、閲覧者の3つの操作に対する表示例を説明する。
<Example 1 When the product zone is defined in advance>
In Example 1, the distribution table shown in Table 8 is obtained. The
1.操作1
特定のアクション(興味度)を閲覧者Yが指定して、情報端末7はその興味度がカウントされた回数を視覚的に表示する。図14は閲覧者Yが指定する興味度を示す図の一例であり、図15は操作1に対し情報端末7が表示する画面例を示す図の一例である。
1. 1.
The viewer Y specifies a specific action (interest level), and the
1.1 まず、閲覧者Yは、着目したい興味度を指定する。図14(a)に示すように、情報端末7が画像データを取得し、閲覧者Yがマウスやタッチパネルなどのポインティングデバイスで所定のメニューを押下する。受付部72はこの操作を受け付けて表示制御部73が図14(b)のプルダウンメニューを表示させる。閲覧者Yはポインティングデバイスで興味度を選択する。受付部72はこの操作を受け付けて表示制御部73が図14(c)のように、閲覧者Yが選択した興味度(図では興味度2)をメニューに表示する。
1.1 First, the viewer Y specifies the degree of interest that he / she wants to pay attention to. As shown in FIG. 14A, the
1.2 情報視覚化部74は、分布テーブルにおいて表示中の画像データに対応付けられている1つ以上の商品ゾーン610から、受付部72が受け付けた興味度の回数を取得する。例えば、興味度が2であるとして表8を例にすると13,17…N2mの回数が取得される。情報視覚化部74は、回数の大小を色に変換する。色への変換方法は主に2つある。1つは、いくつかの閾値で区切って2つの閾値に含まれる回数に所定の色に割り当てる方法である。もう1つは、全ての商品ゾーン610の回数の合計で各商品ゾーン610の回数で除算してパーセンテージを算出し、同様に閾値で区切って回数に色を割り当てる方法である。前者の方法では、絶対的な回数の大小を色で表示することができ、後者の方法ではある画像データにおけるある興味度について各商品ゾーン610の相対的な比較が可能になる。
1.2 The
図15では、画像データに重畳して2つの商品ゾーン610が図示されており、それぞれが異なる色で表示されている。図では白黒であるが実際にはカラーで表示される。また、画像データの右端には色ガイド620が表示される。色ガイド620は色がどのくらいの回数を表すかを示す。したがって、閲覧者Yは商品ゾーン610の色と色ガイド620を比較して、各商品ゾーン610に指定した興味度のアクションがどのくらいの回数、カウントされたかを視覚的に把握できる。
In FIG. 15, two
また、図15に示すように、商品ゾーン610に回数を重畳して表示してもよい。閲覧者Yは回数そのものを把握できる。
Further, as shown in FIG. 15, the number of times may be superimposed and displayed on the
なお、商品ゾーン610の原点、幅、高さは分布テーブルに登録されているため、表示制御部73は画像データに商品ゾーン610を示す矩形を描画できる。領域602を半透明にして描画してもよい。これにより、閲覧者Yは色の付された商品ゾーン610にどのような商品があるかを把握できる。
Since the origin, width, and height of the
2.操作2
商品ゾーン610を閲覧者Yが指定して、情報端末7はその商品ゾーン610で各興味度がカウントされた回数を視覚的に表示する。図16は操作2に対し情報端末7が表示する画面例を示す図の一例である。
2.
The viewer Y designates the
2.1 閲覧者Yは、店舗を撮像した画像データをディスプレイ508に表示する。また、閲覧者Yは来客者の興味度を知りたい箇所(商品ゾーン)をポインティングデバイス640で指定する。受付部72は閲覧者Yが指定した位置の座標を受け付ける。
2.1 The viewer Y displays the image data obtained by capturing the image of the store on the
2.2 情報視覚化部74は、受け取った座標を含む又はその座標に最も近い商品ゾーン610を分布テーブルから探し出す。
2.2 The
2.3 情報視覚化部74は、特定した商品ゾーン610に対応する興味度と回数の組を分布テーブルから取得する。表8の例で閲覧者Yがx1,y1で指定される商品ゾーン610を取得した場合、興味度0:52、興味度1:23、興味度2:13、興味度3:11、興味度4:7、興味度5:4、という興味度と回数の組が取得される。
2.3 The
2.4 情報視覚化部74は、興味度と回数の対応を視覚的に表示する(例えば、ポップアップ表示する)。図16(b)では棒グラフで各興味度の回数が表示されている。興味度0〜5には予め色が対応付けられている。各興味度の棒グラフにおける高さに回数の違いが反映される。例えば、最も回数が多い興味度の高さがある一定の高さになり、他の興味度のグラフの高さは比例計算で決定される。
2.4 The
また、例えば、各興味度の回数を合計し各回数を除算することでパーセンテージを算出し、相対的な違いをグラフで表示してもよい。図16(b)では円グラフで各興味度の回数が表示されている。これにより、相対的な違いを閲覧者Yが把握しやすくなる。 Further, for example, the percentage may be calculated by summing the number of times of each degree of interest and dividing each number of times, and the relative difference may be displayed in a graph. In FIG. 16B, the number of times of each degree of interest is displayed in a pie chart. This makes it easier for the viewer Y to grasp the relative difference.
したがって、操作2によれば、指定された商品ゾーンにおける興味度とその興味度を示した来客者の人数を閲覧者Yが視覚的に把握できる。
Therefore, according to the
3.操作3
画像データの全ての商品ゾーン610の興味度の差異を一覧表示する。情報端末7は商品ゾーン610ごとに興味度と回数の代表値を算出し、視覚的に表示する。図17は操作3に対し情報端末7が表示する画面例を示す図の一例である。
3. 3.
The difference in the degree of interest of all the
3.1 閲覧者Yは、画像データの全ての商品ゾーン610の興味度の差異を一覧表示する操作を行う。受付部72がこの操作を受け付け、情報視覚化部74は、商品ゾーン610ごとに、来客者が示した多段階の興味度の人数を反映する代表値を所定の計算式により算出する。
3.1 Viewer Y performs an operation of displaying a list of differences in the degree of interest of all
計算式の例としては、興味度ごとに重みを付与し回数を乗じて足し合わせる式がある。例えば、興味度が0〜5があるとすると、興味度0の重みは0、興味度1の重みは1、興味度2の重みは2、興味度3の重みは3、興味度4の重みは4、興味度5の重みは5である。興味度0〜5は興味が強いほど数値が大きくなっている。表8の例では、x1,y1で指定される商品ゾーン610について、興味度0×52、興味度1×23、興味度2×13、興味度3×11、興味度4×7、興味度5×4、が算出される。これらの興味度と回数の積の合計が代表値である。
As an example of the calculation formula, there is a formula in which weights are given for each degree of interest, multiplied by the number of times, and added. For example, if the degree of interest is 0 to 5, the weight of the degree of
この他、最も頻度が多い回数の興味度と該回数の積(最頻値)、回数が中央値になる興味度と該回数の積(中間値)、回数の合計を6で除算した平均値、最も多い回数の興味度と該回数の積(最大値)を用いてもよい。あるいは、回数との積を求めずに、回数に基づいて興味度を取り出してもよい。 In addition, the product of the most frequent number of times of interest and the number of times (mode), the product of the degree of interest with the median number of times and the number of times (intermediate value), and the average value obtained by dividing the total number of times by 6. , The product of the highest number of interests and the number of times (maximum value) may be used. Alternatively, the degree of interest may be extracted based on the number of times without obtaining the product with the number of times.
また、これらの代表値の求め方を情報端末7がディスプレイ508に表示して、閲覧者Yに選択させてもよい。
Further, the
3.2 代表値が算出されたら、情報視覚化部74は、代表値に応じて商品ゾーン610を色に対応させる。色を対応させる方法は、操作1と同様でよい。
3.2 After the representative value is calculated, the
3.3 図17に示すように、画像データの5つの商品ゾーン610が代表値に対応した色で表示される。
3.3 As shown in FIG. 17, the five
したがって、操作3によれば、全ての商品ゾーンについて興味度の差異を閲覧者Yは視覚的に把握できる。
Therefore, according to the
<実施例2 商品ゾーンが予め定義されていない場合>
実施例2では表9の解析情報テーブルが得られていることになる。情報視覚化部74は閲覧者Yの操作に応じて解析情報テーブルの商品ゾーン610の座標を使用して、表示制御部73がディスプレイ508に商品ゾーン610を表示する。以下では、閲覧者の3つの操作に対する表示例を説明する。
<Example 2 When the product zone is not defined in advance>
In the second embodiment, the analysis information table shown in Table 9 is obtained. The
4.操作4
特定のアクション(興味度)を閲覧者Yが指定して、情報端末7がその興味度に対応する商品ゾーン610を視覚的に表示する。図18は操作4に対し情報端末7が表示する画面例を示す図の一例である。
4.
The viewer Y specifies a specific action (interest level), and the
4.1 閲覧者Yは興味度を選択する。選択方法は操作1で説明した方法と同様でよい。
4.1 Viewer Y selects the degree of interest. The selection method may be the same as the method described in
4.2 情報視覚化部74は選択された興味度が対応付けられた商品ゾーン610の座標を解析情報テーブルから読み出す。情報視覚化部74は商品ゾーン610に興味度に基づいて決定される色を対応付ける。図18に示すように、選択された興味度を有する商品ゾーン610が画像データに重複して表示される。なお、複数の商品ゾーン610が重なっている場合、重なる商品ゾーン610が含まれる範囲をひとつの連続した商品ゾーン610と見なす。
4.2 The
したがって、操作4によれば、指定された興味度が生じた商品ゾーンを閲覧者Yが視覚的に把握できる。
Therefore, according to the
5.操作5
商品ゾーン610を閲覧者Yが指定して、情報端末7がその商品ゾーン610の興味度を視覚的に表示する。図19は操作5に対し情報端末7が表示する画面例を示す図の一例である。
5.
The viewer Y designates the
5.1 図19(a)に示すように、ユーザは画像データの中で来客者の興味度を知りたい箇所をポインティングデバイスなどで指定する。受付部72はポインティングデバイス640が入力した位置の座標を取得する。
5.1 As shown in FIG. 19A, the user specifies a part of the image data in which he / she wants to know the degree of interest of the visitor with a pointing device or the like. The
5.2 閲覧者は取得された座標に最も近い商品ゾーン610を解析情報テーブルから探し出す。該当する商品ゾーン610が2つ以上、存在する場合、図19(b)に示すように情報視覚化部74は、複数の商品ゾーン610を閲覧者Yに提示し、どれか一つの商品ゾーン610を選択させる。図19(c)に示すように、受付部72は1つの商品ゾーン610の選択を受け付ける。表示制御部73は必要に応じて画像データを拡大表示(ズーム・イン)する。
5.2 The viewer searches the analysis information table for the
5.3 情報視覚化部74はこのようにして求めた商品ゾーン610に対応する興味度を解析情報テーブルから取得して、興味度によって決まっている色を割り当てる。
5.3 The
5.4 図19(d)に示すように、表示制御部73は商品ゾーン610を割り当てられた色で画像データに表示する。
5.4 As shown in FIG. 19D, the
したがって、操作5によれば、指定された商品ゾーンにおける興味度を閲覧者Yが視覚的に把握できる。
Therefore, according to the
6.操作6
画像データの全ての商品ゾーン610の興味度の差異を一覧表示する。情報端末7は商品ゾーン610ごとに興味度を色で示す。商品ゾーン610が重なっている領域602は、興味度を足し合わせてから色に変換する。図20は操作6に対し情報端末7が表示する画面例を示す図の一例である。
6. Operation 6
The difference in the degree of interest of all the
6.1 閲覧者Yは、画像データの全ての商品ゾーン610の興味度の差異を一覧表示する操作を行う。受付部72がこの操作を受け付ける。
6.1 Viewer Y performs an operation of displaying a list of differences in the degree of interest of all
6.2 情報視覚化部74は、それぞれの商品ゾーン610に対応する興味度を解析情報テーブルから取得する。商品ゾーン610が重なっている範囲は、重なりに応じた興味度を算出する。この算出方法は図21にて説明される。
6.2 The
6.3 情報視覚化部74は、興味度を色に当てはめてヒートマップを生成する。ヒートマップの作成方法は図21にて後述される。
6.3 The
6.4 図20に示すように、表示制御部73は画像データにヒートマップを重畳して表示する。図20では、同心円状の色の濃度が徐々に変化する(グラデーション)商品ゾーン610が表示されている。色が濃いほど商品ゾーン610が重なっていることを示す。
6.4 As shown in FIG. 20, the
したがって、操作6によれば、色の濃さによって来客者が各商品ゾーン610にどのくらい興味を示したかを閲覧者Yが視覚的に判断できる。
Therefore, according to the operation 6, the viewer Y can visually determine how much the visitor is interested in each
<ヒートマップの作成>
図21を用いてヒートマップの作成方法を説明する。図21は、ヒートマップの作成に関し重み付けを説明する図の一例である。
<Creating a heat map>
A method of creating a heat map will be described with reference to FIG. FIG. 21 is an example of a diagram illustrating weighting with respect to the creation of a heat map.
商品ゾーン610にグラデーションをレンダリングするための重み付け値を情報視覚化部74が設定する。図21に示すように、商品ゾーン610である矩形の中心点(cx1, cy1)を算出し、この点を中心とし近傍に一定間隔に格子点を設定する。格子点数を一定とするため、間隔は商品ゾーン610のサイズに応じた値とする。これにより、商品ゾーン610の大きさに応じて描画するグラデーションのサイズに差を生じさせることができる。そして、各格子点に、興味度に応じた値であって、中心を最大値となる重み付け値を設定する。
The
また、ある商品ゾーン610と重なり合う別の商品ゾーン610がある場合、各々の中心点の平均の中心点(cxn, cyn )を算出する。cxn=cx1+cx2、cyn=cy1+cy2である。同様に、中心とし近傍に一定間隔に格子点を設定する。そして、平均の中心点が相対的に高値となるように重み付け値を算出する。この時の重み付け値は商品ゾーン610が1つの場合よりも大きい。例えば、着目している商品ゾーン610と重複する全ての商品ゾーン610の数をカウントして、この数と平均の興味度の積に応じた最大値を平均の中心点に設定する。なお、各商品ゾーン610は1度しか重複する数にカウントされない。
Further, when there is another
したがって、興味度が高く重複している商品ゾーンほど、中心点の重み付け値が高値となる。中心点の周りの格子点は、中心点から離れるほど小さくなる重み付けが与えられる。これにより、商品ゾーン610をグラデーションで表示でき、商品ゾーン610が集まる部分を濃く描画できる。
Therefore, the higher the degree of interest and the more overlapping product zones, the higher the weighting value of the center point. The grid points around the center point are weighted as they move away from the center point. As a result, the
なお、中心点の周囲に格子点を設定するのでなく、中心点を中心にガウス関数などによりなだらかな色の変化を与えてもよい。 Instead of setting grid points around the center point, a gentle color change may be given around the center point by a Gaussian function or the like.
また、ある商品ゾーン610と重なり合う別の商品ゾーン610がある場合、それぞれの格子点の重み付け値をそのまま合計してもよい。格子点が完全に一致することは少ないので着目している商品ゾーン610の格子点と最も近い格子点の重み付け値を合計する。この場合、重み付け値に応じて濃度が高い色が設定される。多くの商品ゾーン610が重なるほど格子点の重み付け値が大きくなるので、商品ゾーン610が多くある場所を濃く表示できる。
Further, when there is another
実施例1〜3で説明した画像処理システム200が例えば小売店に配置された場合を想定する。撮像装置1は定期的に周囲を撮像しているがスタッフが店内で何らかの注目すべき事象に気づく場合がある。例えば、来客者同士のトラブル、特異な行動をする客、病人発生、商品の散乱、施設の損壊、などがある。これらの事象は撮像装置1により撮像されているが、こういった事象は閲覧者Yも把握しておくべきことである。このため、スタッフがこういった事象に遭遇した場合、「今、起こったこと」を後から閲覧者Yが画像で確認したい場合が少なくない。
It is assumed that the
閲覧者Yが後から画像を確認するためには、事象に気づいた時刻や場所などを記憶しておくかメモしておくこと等が必要である。しかし、このような作業は忙しいスタッフにとって面倒である。そこで、スタッフ等が撮像を継続している撮像装置1の画像データに事象が起こった旨を記録することが考えられる。例えば、ある時間範囲の画像データに事象が起こった旨を記録しておけば、後から事象が起きた頃の画像を容易に探し出せる。
In order for the viewer Y to check the image later, it is necessary to memorize or make a note of the time and place where the event was noticed. However, such work is troublesome for busy staff. Therefore, it is conceivable that the staff or the like records that an event has occurred in the image data of the
しかし、事象が起こった旨を記録する権限があるのは撮像装置1の操作権限を持つ者(一般には店舗の店長や本社のマネージャ等。本実施例では閲覧者Y。)のみに限られ、店舗で実際に事象に遭遇する機会が最も多い一般のスタッフはそもそも撮像装置1の操作権限がない。スタッフにこのような権限が与えられていれば、スタッフ又は閲覧者Yが画像の閲覧時に画像データに事象が起こった旨を記録することはできるが、リアルタイムに事象が起こった旨を記録することは困難であった。
However, only the person who has the authority to operate the imaging device 1 (generally, the store manager, the manager of the head office, etc., in this embodiment, the viewer Y) has the authority to record the fact that the event has occurred. The general staff, who have the most chances of actually encountering an event in a store, do not have the authority to operate the
そこで、本実施例では、撮像装置1の撮像中に注目すべき事象が発生した場合、スタッフが画像管理装置5に通知することで、事象が写った特定の画像データに画像管理装置5が、事象が起こった旨を記録する。このような構成にすれば、スタッフはリアルタイムに事象が起こった旨を画像データに記録できる。したがって、閲覧者Yは後から記録を検索するなどして、事象が写っている画像データに速やかにアクセスできる。
Therefore, in the present embodiment, when a remarkable event occurs during the imaging of the
<システム構成について>
図22は、画像処理システム200の概略構成図の一例である。なお、図22の説明では、図2において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
<About system configuration>
FIG. 22 is an example of a schematic configuration diagram of the
図22にはスタッフが操作するスタッフ端末4が記載されている。スタッフZは、店舗の職員、従業員、部員、社員、アルバイト、パートなどである。スタッフZに閲覧者Yや設置者Xが含まれてよい。スタッフ端末4は、可搬性が高い情報処理装置であり、例えば、スマートフォン、タブレット端末、ノートPC、ウェアラブルPC、ゲーム機、携帯電話、PDAなどであるが、これらに限られるものではない。また、可搬性が高い必要はなく据え置き型の情報処理装置をスタッフZが使用してもよい。
FIG. 22 shows a
スタッフ端末4では、スタッフ端末4用のプログラムが動作している。スタッフ端末4用のプログラムは、例えばブラウザソフトウェアや画像処理システム200に専用のアプリケーションソフトウェアである。専用のアプリケーションソフトウェアは画像管理装置5のIPアドレス等を保持しており画像管理装置5と通信する。また、ブラウザソフトウェアの場合、スタッフZの操作によりスタッフ端末4が画像管理装置5と通信する。
On the
スタッフ端末4は、ユーザの操作を受け付けて事象記録要求を画像管理装置5に送信する。事象記録要求とは、事象が起こった旨の記録の要求である。詳細は後述される。
The
図23は、スタッフ端末4のハードウェア構成図の一例を示す。スタッフ端末4は、スタッフ端末4の全体の動作を制御するCPU401、IPL(Initial Program Loader)等のプログラムを記憶したROM402、CPU401のワークエリアとして使用されるRAM403を有する。また、スタッフ端末4用のプログラム430や画像データ等の各種データを記憶するフラッシュメモリ404、CPU401の制御にしたがってフラッシュメモリ404に対する各種データの読み出し又は書き込みを制御するSSD(Solid State Drive)405を有する。また、フラッシュメモリ等の記録メディア406に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ407、スタッフ端末4に対する各種操作を受け付ける操作ボタン408、スタッフ端末4の電源のON/OFFを切り換えるための電源スイッチ409、通信ネットワークを利用して無線又は有線でデータ伝送をするためのネットワークI/F(Interface)417を有する。
FIG. 23 shows an example of the hardware configuration diagram of the
また、スタッフ端末4は、CPU401の制御にしたがって被写体を撮像して画像データを取得する内蔵型のカメラ412、このカメラ412の駆動を制御する撮像素子I/F413、音声を入力する内蔵型のマイク414、音声を出力する内蔵型のスピーカ415を有する。また、CPU401の制御にしたがってマイク414及びスピーカ415との間で音声信号の入出力を処理する音声入出力I/F416、CPU401の制御にしたがってディスプレイ450に画像データを伝送するディスプレイI/F417、各種の外部機器を接続するための外部機器接続I/F418を有する。また、GPSの衛星からの電波を受信して位置を検出するGPS受信装置419、スタッフ端末4に生じる加速度を検出する加速度センサ420、携帯電話網を介して音声通信・データ通信を行うLTE通信部421、及び、上記各構成要素を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン422を有する。
Further, the
ディスプレイ450は、液晶や有機ELによって構成され、ユーザが操作するメニュー、撮像した映像、メッセージなどを表示する表示領域である。ディスプレイI/F417は、ディスプレイ450のタッチパネル機能に対応している。
The
カメラ412は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)等が用いられる。 The camera 412 includes a lens and a solid-state image sensor that converts light into electric charges to digitize an image (video) of the subject. As the solid-state image sensor, CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Coupled Device) Etc. are used.
外部機器接続I/F418には、USB(Universal Serial Bus)ケーブル等によって、各種の外部デバイスを装着可能である。例えば、Bluetooth(登録商標)などの近距離無線通信装置を接続できる。 Various external devices can be attached to the external device connection I / F418 by a USB (Universal Serial Bus) cable or the like. For example, a short-range wireless communication device such as Bluetooth (registered trademark) can be connected.
また、フラッシュメモリ404にはスタッフ端末4用のプログラム430が記憶されている。スタッフ端末4用のプログラム430はネットワークI/F411によりプログラム配信用のサーバからダウンロードされる。
Further, the
なお、記録メディア406は、スタッフ端末4に対して着脱自在な構成となっている。また、上記のプログラム430は、記録メディア406に記録された状態で配布される場合がある。
The
<機能について>
図24は、本実施例の画像処理システム200の一部を構成する、画像管理装置5、情報端末7及びスタッフ端末4の各機能ブロック図である。なお、撮像装置1と通信端末3については省略した。本実施例において、図13において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
<About functions>
FIG. 24 is a functional block diagram of each of the
図24の画像管理装置5は事象記録部57を有している。事象記録部57は、図5に示されているCPU501の処理によって実現され、スタッフ端末4からの事象記録要求を受信すると画像管理テーブルに事象フラグを設定する。
The
例えば、画像IDがP0001の事象フラグには「ON:S001,C001」と設定されているので、スタッフIDがS001のスタッフZが、カテゴリIDがC001の事象フラグを設定したことが示されている。なお、1つの画像データに複数のスタッフZが事象フラグを設定できる。 For example, since the event flag with the image ID P0001 is set to "ON: S001, C001", it is shown that the staff Z with the staff ID S001 has set the event flag with the category ID C001. .. It should be noted that a plurality of staff Zs can set event flags for one image data.
<<スタッフ端末4の機能について>>
スタッフ端末4は、図示するように送受信部41、受付部42、表示制御部43、事象記録要求部44、及び、記憶・読出部49を有する。これら各部は、図23に示されている各構成要素のいずれかが、フラッシュメモリ404からRAM403上に展開されたスタッフ端末4用のプログラムに従ったCPU401からの命令によって動作することで実現される機能又は手段である。
<< Functions of
As shown in the figure, the
また、スタッフ端末4は、図23に示されているROM402、RAM403、及びフラッシュメモリ404の1つ以上によって構築される記憶部4000を有している。記憶部4000にはスタッフ端末4用のプログラム430が記憶されている。また、スタッフIDや認証のためのパスワードが記憶されていてもよい。
Further, the
スタッフ端末4の送受信部41は、主に、図23に示されているネットワークI/F411及びCPU401の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、スタッフ端末4が画像管理装置5と通信する場合でも、「送受信部41を介して」という記載を省略する場合がある。また、スタッフ端末4はLTE通信部421を使用して通信してもよい。
The transmission /
スタッフ端末4の受付部42は、主に、図23に示されている操作ボタン408及びCPU401の処理によって実現され、スタッフZからの操作入力を受け付ける。
The
表示制御部43は、主に、図23に示されているディスプレイI/F417及びCPU401の処理によって実現され、CUI(Character User Interface)やGUI(Graphical User Interface)と呼ばれる画面を作成しディスプレイ450に表示させる。
The
事象記録要求部44は、主に、図23に示されているCPU401の処理によって実現され、ユーザが所定の操作を行った場合、事象記録要求をサーバに送信する。事象記録要求には、事象が起こった旨の記録の要求に加え、撮像装置1の端末ID、事象開始情報、事象終了情報、スタッフID、及びカテゴリIDが含まれることが好ましい。事象開始情報は事象フラグの設定を開始する時刻に関する情報であり、事象終了情報は事象フラグの設定を終了する時刻に関する情報である。
The event
記憶・読出部49は、主に、図23に示されているCPU401の処理によって実現され、記憶部4000に各種データを記憶したり、記憶部4000から各種データを読み出したりする。
The storage /
<事象の記録について>
図25は店舗における画像処理システム200の利用形態を説明する図の一例である。店舗に撮像装置1が設置され、店内の様子を定期的に撮像している(定点観測している)。また、店内ではスタッフ端末4を携帯するスタッフZが作業している。上記のように、撮像された画像データは画像管理テーブルに登録される。図25には表10の画像データのファイル名を除く項目が示されている。すなわち、図25では3つの画像データが撮像された様子を模式的に示しており、それぞれに来客者Gが撮像されている。3つの画像データ601の1つに、端末ID、画像ID、撮像日時、及び、事象フラグが示されている。撮像中又は撮像後、店舗のバックヤードや店舗外で閲覧者Yが画像データを閲覧できる。
<About event recording>
FIG. 25 is an example of a diagram illustrating a usage pattern of the
次に、図26に示すように、店舗内で注目すべき事象が発生したものとする。図26は、来客者Gが倒れるという事象が発生した店舗を示す図である。スタッフZはこの事象に遭遇し注目すべき事象であると判断する。 Next, as shown in FIG. 26, it is assumed that a notable event has occurred in the store. FIG. 26 is a diagram showing a store in which the event that the visitor G collapses occurs. Staff Z encounters this event and determines that it is a noteworthy event.
来客者Gが倒れる様子は撮像されているので事象自体は画像データに記録されている。図26では4つの画像データが撮像されているが、4つめの画像データには倒れた来客者Gが撮像されている。この事象を閲覧者Yが閲覧する場合、事象が捉えられている画像データを容易に探し出せることが好ましい。そこで、スタッフZは、店舗内で事象が写っている画像データに事象が写っていることを示す印(事象フラグ)を付与する。 Since the appearance of the visitor G falling down is imaged, the event itself is recorded in the image data. In FIG. 26, four image data are imaged, and the fallen visitor G is imaged in the fourth image data. When the viewer Y browses this event, it is preferable that the image data in which the event is captured can be easily found. Therefore, the staff Z gives a mark (event flag) indicating that the event is captured in the image data in which the event is captured in the store.
図27を用いて、スタッフによる事象記録のためのスタッフ端末4の操作について説明する。この操作により事象記録要求が画像管理装置5に送信される。図27は、スタッフ端末4のディスプレイ450に表示される事象記録画面680の一例を示す。事象記録画面680はスタッフ端末4用のプログラム430が生成する画面の1つである。事象記録画面680は、カメラ番号611、カテゴリ選択欄612、開始時間欄613、終了時間欄614、開始ボタン615、及び、終了ボタン616を有する。
The operation of the
カメラ番号611は、撮像装置1を特定するための番号である。スタッフZは事象が起きた場所を撮像している撮像装置1のカメラ番号611を指定する。カメラ番号611は端末IDと同じでもよいし異なっていてもよい。異なっている場合は、カメラ番号611と端末IDが対応付けられたテーブルを用いて画像管理装置5がカメラ番号611を端末IDに変換する。
The
カテゴリ選択欄612は、事象のカテゴリをスタッフZが選択するための欄である。カテゴリの一例は、来客者同士のトラブル、特異な行動をする来客者、病人発生、商品の散乱、施設の損壊、その他などである。
The
開始時間欄613は、スタッフZが事象記録要求を画像管理装置5に送信した時(又は受信した時)を基準に、事象フラグの設定を遡る時間をスタッフZが指定するための欄である。スタッフZが事象を発見した時はすでに事象が起きた後なので、事象は事象記録要求よりも前に始まっている。このため、スタッフZはどのくらい前に事象が起きたかを推定して開始時間欄613に設定する。開始時間欄の時間は事象開始情報に相当する。
The
終了時間欄614は、スタッフZが終了ボタン616を押下して事象記録終了を画像管理装置5に送信した時(又は受信した時)を基準に、事象フラグの設定を延長する時間をスタッフZが指定するための欄である。スタッフZが事象の終了を確認した時に終了ボタン616を押下することができればよいが、スタッフZは作業に追われて終了ボタン616を押下することを忘れる場合がある。このため、スタッフZは開始ボタン615の押下後、どのくらい記録すれば事象を記録し終わるか推定して終了時間欄614に設定する。これにより、早めに終了ボタン616を押下しておくことができるので、終了ボタン616の押し忘れを抑制できる。終了時間欄の時間は事象終了情報に相当する。
In the
開始ボタン615は、スタッフZが事象記録要求を画像管理装置5に送信するためのボタンである。終了ボタン616は、スタッフZが事象記録終了を画像管理装置5に送信するためのボタンである。なお、スタッフが終了ボタン616を押し忘れても、画像管理装置5の事象記録部57は事象記録要求から所定の時間の経過後に自動的に終了ボタン616が押下されたとみなす。
The
変形例として、スタッフ端末4は、開始ボタン615の押下で開始時間欄613と終了時間欄614の両方を画像管理装置5に送信してよい。これにより、スタッフZは1回の操作で事象開始情報と事象終了情報を送信できる。この場合、終了ボタン616はなくてもよいし、終了ボタン616は即座に記録を終了するためのボタンとして用意されていてもよい。また、スタッフZはスタッフ端末4用のプログラム430を起動させた際に画像管理装置5にログインしている。このため、事象記録要求と事象記録終了にはスタッフIDが含まれている。
As a modification, the
図28は、事象記録要求により設定される事象フラグを模式的に説明する図の一例である。画像管理装置5の事象記録部57は事象記録要求に基づいて画像管理テーブルの事象フラグにONを設定し、事象記録終了に基づいてONの設定を終了する。事象フラグはOFFが初期状態(デフォルト値)である。事象開始情報により「13:52:24」という時刻が指定され、事象終了情報によりそれから6秒後が指定されたものとする。
FIG. 28 is an example of a diagram schematically illustrating an event flag set by an event record request. The
この場合、図28に示すように「13:52:24」〜「13:52:29」の画像データに対し事象記録部57が事象フラグにONを設定する。すなわち、図28で太い枠で強調された画像データにはONの事象フラグが設定される。また、図28には記載がないがスタッフIDとカテゴリIDが設定されている。
In this case, as shown in FIG. 28, the
したがって、閲覧者Yは事象フラグがONの画像データを検索することで、事象が写っている画像データを速やかに閲覧できる。また、スタッフZが事象に気づいた時から過去に遡って画像データを閲覧できる。 Therefore, the viewer Y can quickly browse the image data in which the event is captured by searching the image data in which the event flag is ON. In addition, the image data can be browsed retroactively from the time when the staff Z notices the event.
<画像管理装置の動作について>
図29は、画像処理システム200の全体的な動作手順を示すシーケンス図の一例である。
S1:撮像装置1は画像管理装置5からの指示により定期的に周囲を撮像する。
S2:撮像装置1の接続部15は画像データを通信端末3に送信する。
S3:通信端末3の送受信部31は画像データを画像管理装置5に送信する。
S4:画像管理装置5の記憶・読出部は画像管理テーブルに画像データを登録する。ステップS1〜S4は繰り返し実行される。
S5:スタッフZの操作を受け付けて、スタッフ端末4が事象記録要求を画像管理装置5に送信する。
S6:画像管理装置5の事象記録部57は画像管理テーブルの事象フラグにONを設定する。詳細は図30にて説明される。
S7:スタッフ端末4が事象記録終了を画像管理装置5に送信する。これにより、事象フラグにONを設定することが終了される。詳細は図30にて説明される。
<About the operation of the image management device>
FIG. 29 is an example of a sequence diagram showing the overall operation procedure of the
S1: The
S2: The
S3: The transmission /
S4: The storage / reading unit of the
S5: Upon receiving the operation of the staff Z, the
S6: The
S7: The
図30は、画像管理装置5が画像を管理する手順を示すフローチャート図の一例である。図30の処理は、例えば、画像データの撮像ごとに繰り返し実行される。
FIG. 30 is an example of a flowchart showing a procedure in which the
画像管理装置5は定期的に撮像装置1に撮像させるものとする。このため、画像管理装置5は撮像時刻になったかどうかを判断する(S10)。ステップS10の判断がNoの場合、図30の処理は終了する。
The
ステップS10の判断がYesの場合、画像管理装置5は撮像装置1に対し画像の撮像を要求する(S20)。撮像装置1が撮像した画像データは画像管理装置5に送信される。
If the determination in step S10 is Yes, the
次に、事象記録部57は事象記録要求を受信したか否かを判断する(S30)。事象記録要求が受信されない場合、図30の処理は終了する。
Next, the
ステップS30の判断がYesの場合、事象記録部57は事象記録終了を受信したか否かを判断する(S40)。事象記録終了には終了時間欄614がゼロの場合とそうでない場合がある。
If the determination in step S30 is Yes, the
終了時間欄614がゼロの事象記録終了を受信した場合(S40のYes)、図30の処理は終了する。
When the event recording end of zero in the
終了時間欄614がゼロの事象記録終了を受信してない場合、又は、事象記録終了を受信していない場合(S40のNo)、終了予定時間が経過したか否かを判断する(S50)。この終了予定時間は、ゼロ以外の終了時間欄614で指定される時間、又は、スタッフZが終了ボタン616を押し忘れた場合に記録開始から自動で設定されている時間である。ステップS50の判断がYesの場合、図30の処理は終了する。
When the event recording end of zero in the
ステップS50の判断がNoの場合、事象記録部57は画像データの事象フラグにONを設定する(S60)。事象記録部57は撮像された直後の画像データの事象フラグをONに設定すると共に、記録開始情報で指定された過去の画像データの事象フラグもONに設定する。
If the determination in step S50 is No, the
このように、スタッフZはスタッフ端末4を使用して事象記録要求を画像管理装置5に送信でき、閲覧者Yは事象フラグがONの画像データを検索することで、事象が写っている画像データを速やかに閲覧できる。
In this way, the staff Z can send the event recording request to the
<ジェスチャによる事象が起こった旨の記録の要求>
上記の本実施例ではスタッフZがスタッフ端末4を操作する必要があるため、事象が起こった旨の記録を要求するために時間がかかってしまう傾向がある。そこで、スタッフZがジェスチャにより事象フラグをONに設定できれば便利である。事象に遭遇したスタッフZは撮像装置1に向かって予め定められているジェスチャを行う。
<Request for recording that a gesture event has occurred>
In the above embodiment, since the staff Z needs to operate the
この場合のジェスチャとしては、日常的な作業では行わない動作であればよい。例えば、両手を垂直方向に挙げて左右に90°開く動作を繰り返す、頭上に挙げた両手で円を形成するなどである。あるいは、特定の道具(旗など)を決まった方向に動かす、あるいはライトを点灯して撮像装置1に向ける、などでもよい。撮像装置1は全天球画像を撮像するので、スタッフZは事象の撮像の邪魔にならない位置でジェスチャを行うことができる。また、事象が出現している場所から離れた位置でスタッフZがジェスチャする場合、スタッフZは事象が出現している場所を指し示す動作を行う。この動作がジェスチャとなることで、事象が起こった旨の記録の要求をスタッフZが送信でき、事象の場所をスタッフZが知らせることができる。
In this case, the gesture may be an operation that is not performed in daily work. For example, the operation of raising both hands in the vertical direction and opening 90 ° to the left and right is repeated, and the two hands raised above the head form a circle. Alternatively, a specific tool (flag, etc.) may be moved in a fixed direction, or a light may be turned on and pointed at the
スタッフZのジェスチャが写っている画像データは画像管理装置5に送信される。つまり、事象が出現している全天球の画像データにスタッフZが写りこんだ状態で画像管理装置5に送信される。画像解析部55は画像を解析しスタッフZのジェスチャを検出する。予め定められたジェスチャが映っている場合、事象記録部57は画像管理テーブルの事象フラグにONを設定する。なお、画像データを過去にどの程度遡り、どのくらいでONの設定を終了するかは予め事象記録部57に登録されているものとする。
The image data showing the gesture of the staff Z is transmitted to the
図31は、画像管理装置5がジェスチャを検出して事象フラグをONに設定する手順を示すフローチャート図の一例である。図31の処理は、画像データの撮像中、繰り返し実行される。
FIG. 31 is an example of a flowchart showing a procedure in which the
まず、画像管理装置5の送受信部51は画像データを受信する(S10)。
First, the transmission /
次に、画像管理装置5の画像解析部55は画像データを解析し、ジェスチャが含まれているか否かを判断する(S20)。ジェスチャが含まれていない場合、処理はステップS40に進む。
Next, the
ジェスチャが検出された場合、事象記録部57は予め定められた所定時間前まで画像管理テーブルの事象フラグをONに設定する(S30)。なお、どの撮像装置1が撮像したかはジェスチャが含まれる画像データを送信した撮像装置1として決定される。また、カテゴリIDやスタッフIDは登録されなくてもよい。あるいは、画像解析部55が顔認識を行ったり名札などを文字認識したりしてスタッフZを特定してもよい。また、スタッフZが事象のカテゴリに応じてジェスチャを変えることなどにより、事象記録部57はカテゴリIDを特定できる。
When the gesture is detected, the
ジェスチャが検出されない場合(S20のNo)、事象記録部57は予め定められた所定時間が経過したか否かを判断する(S40)。所定時間が経過するまでは、引き続き、画像管理テーブルの事象フラグをONに設定する(S50)。
When the gesture is not detected (No in S20), the
所定時間が経過した場合(S40のNo)、事象フラグをONに設定することなく図31の処理は終了する。 When the predetermined time has elapsed (No in S40), the process of FIG. 31 ends without setting the event flag to ON.
このように、スタッフZがスタッフ端末4を操作しなくてもジェスチャにより事象が起こった旨の記録を要求できる。
In this way, it is possible to request a record that an event has occurred due to a gesture without the staff Z operating the
<ジェスチャで事象記録要求を送信する>
また、スタッフZはスタッフ端末4を使ったジェスチャで事象記録要求を画像管理装置5に送信してもよい。すなわち、スタッフ端末4とジェスチャの両方が使用される。
<Send event record request by gesture>
Further, the staff Z may transmit the event recording request to the
図32は、スタッフ端末4と画像管理装置5の間で行われる動作を示すシーケンス図の一例である。
FIG. 32 is an example of a sequence diagram showing an operation performed between the
S1:まず、スタッフZは事象に遭遇すると、スタッフ端末4を用いたジェスチャを行う。例えば、スタッフ端末4を左右に振る、上下に振る、大きく円を描くように回す、等を行う。これらのジェスチャにより生じる時系列の加速度の変化を加速度センサ420が検出する。スタッフ端末4の事象記録要求部44は予め定められた加速度のパターンが検出されると、事象記録要求を送信するためのジェスチャが検出されたと判断する。
S1: First, when the staff Z encounters an event, he makes a gesture using the
S2:スタッフ端末4の事象記録要求部44は事象記録要求を画像管理装置5に送信する。この事象記録要求には。スタッフIDが含まれるが、端末ID、事象開始情報、事象終了情報、及びカテゴリIDは含まれない。
S2: The event
S3:画像管理装置5の送受信部51は事象記録要求を受信し、事象記録部57は受信した前後の時間(前後時間)を決定する。例えば、前後5分、受信する前に3分・受信後に5分などのように決定する。これにより、事象開始情報、事象終了情報が不要になる。
S3: The transmission /
S4:次に、画像解析部55はステップS3で決定した前後時間の画像データからステップS1のジェスチャを検出する。すなわち、撮像装置1が複数ある場合に、ジェスチャが検出された撮像装置1を特定できる。
S4: Next, the
S5:画像管理装置5の事象記録部57は、特定した撮像装置1が撮像した画像データに対応付けて事象フラグをONに設定する。なお、前後時間より事象フラグをONに設定する画像データを特定でき、スタッフIDも送信されている。
S5: The
したがって、スタッフZは事象記録画面680を操作しなくても事象記録要求を送信できる。事象開始情報、事象終了情報を送信できなくてもおよその前後時間を決定し、スタッフIDも登録できる。また、ジェスチャの種類によってカテゴリIDを登録することも可能である。
Therefore, the staff Z can transmit the event recording request without operating the
<周囲の音量の変化による事象記録要求の送信>
スタッフZが主体的に事象記録要求を送信する他、環境の変化を撮像装置1等が検出して事象記録要求を画像管理装置5に送信してもよい。例えば、何かの事象が起こった場合、来客者Gが騒いだり大きな音が発生したりする場合がある。そこで、周囲の音量が閾値を超えた場合に、通信端末3が事象記録要求を画像管理装置5に送信する。
<Sending event record request due to change in ambient volume>
In addition to the staff Z proactively transmitting the event recording request, the
図33は、通信端末3が事象記録要求を画像管理装置5に送信するシーケンス図の一例である。
S1:撮像装置1はマイク108を備えているため、常にマイク108で周囲の音を集音している。
S2:また、撮像装置1は定期的に周囲を撮像している。
S3:撮像装置1は撮像前後に集音した音データと共に画像データを通信端末3に送信する。
S4:通信端末3の接続部33は音データと画像データを受信し、例えば受付部32が音データの音量が閾値以上か否かを判断する。
S5:閾値以上の場合、送受信部31は画像データと共に事象記録要求を画像管理装置5に送信する。この事象記録要求には、端末IDが含まれる。事象開始情報、事象終了情報は含まれないが、画像管理装置5はおよその前後時間を決定できる。また、カテゴリIDについては送信されないが、周囲が騒がしかったことを示すカテゴリIDが設定される。
S6:閾値以上の場合、送受信部31は画像データを画像管理装置5に送信する。
FIG. 33 is an example of a sequence diagram in which the
S1: Since the
S2: Further, the
S3: The
S4: The
S5: When the threshold value is equal to or higher than the threshold value, the transmission /
S6: When the threshold value is equal to or higher than the threshold value, the transmission /
このように音量を契機にして事象記録要求を画像管理装置5に送信できるので、スタッフZが事象記録要求を画像管理装置5に送信しなくても事象フラグをONに設定できる。なお、音量の他、建物に生じた振動(地震など)、温度、湿度などを契機としてもよい。
Since the event recording request can be transmitted to the
<閲覧について>
図34は、情報端末7のディスプレイ508に表示される閲覧画面690の一例である。閲覧画面690は、メニュー欄627、画像部625、及び、サムネイル部626を有する。メニュー欄627は、カテゴリ指定欄621とスタッフ選択欄622を有する。カテゴリ指定欄621は、閲覧者Yがカテゴリを選択するための欄であり、スタッフ選択欄622は閲覧者YがスタッフZを選択するための欄である。したがって、閲覧者YはカテゴリやスタッフZを指定して事象フラグがONの画像データを検索できる。
<About browsing>
FIG. 34 is an example of the
また、サムネイル部626にはサムネイル画像623が表示される。事象フラグがONの画像データのサムネイル画像623には、アイコン624が表示される。したがって、閲覧者Yは、事象フラグがONの画像データを検索しなくても、どの画像データの事象フラグがONかを一目で把握できる。
Further, the
以上説明したように、本実施例の画像処理システム200では、スタッフが事象に遭遇したタイミングで画像データに事象が起こった旨を記録できる。
As described above, in the
本実施例では実施例1、2で得られた解析情報テーブルの内容を表示する情報端末7について説明する。実施例1、2により、各商品ゾーン610に対する来客者Gの興味度を多段階に評価した。また、実施例3では来客者の興味の程度をヒートマップなどで表示することができた。しかし、実施例3の表示では、閲覧者Yは来客者Gを閲覧することができなかった。すなわち、店舗内の各商品ゾーン610に対して実際の来客者Gが興味を示している様子を閲覧者Yが視覚的に把握するにはヒートマップと画像データと照らし合わせる必要がある。
In this embodiment, the
そこで、本実施例では、所定の興味度の来客者Gを画像データに配置して表示することができる画像処理システム200について説明する。これにより、閲覧者Yは来客者Gの購買行動をより詳しく解析できるようになる。
Therefore, in this embodiment, an
なお、本実施例において、画像管理装置5と情報端末7の機能ブロック図は、実施例3の図13と同様でよい。情報端末7の情報視覚化部74は、商品に興味を示している来客者Gを画像データの商品ゾーン610に対応づけて表示する。したがって、画像データ上のどの商品ゾーン610に対してどのように興味を示しているかを閲覧者が把握しやすくなる。具体的には、商品ゾーン610に対して興味を示す来客者G(の画像)が、興味の対象とした商品ゾーン610に重畳して表示される、あるいは、時系列に沿って1つ1つスライドショーで表示される。以下では、いくつかの実施形態に分けて説明する。
In this embodiment, the functional block diagram of the
<第1実施形態>
第1実施形態では、閲覧者Yは任意の興味度を指定できる。情報端末7は指定された興味度を示した来客者Gを1つの画像データに表示させる。
<First Embodiment>
In the first embodiment, the viewer Y can specify an arbitrary degree of interest. The
図35は、来客者が画像データに合成された来客者合成画面660を示す図の一例である。来客者合成画面660には複数の来客者Gが写っている。これらの来客者Gは同じ興味度を示した来客者である。1つの画像データに複数の来客者Gが表示されているのは、情報視覚化部74が来客者Gを合成したためである。以下、このような画像データの表示手順を説明する。
FIG. 35 is an example of a diagram showing a
図36は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図36の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。
FIG. 36 is an example of a flowchart showing a procedure in which the
情報端末7の受付部72は母集団の設定を受け付ける(S10)。母集団とは、解析の対象となる画像データをいう。例えば、端末IDにより撮像装置1が特定され、また、ある時間範囲、ある特定の日、ある曜日などを閲覧者Yが設定できる。
The
次に、受付部72は興味度の設定を受け付ける(S20)。すなわち、図14に示すユーザインタフェースから閲覧者Yは興味度を指定する。なお、閲覧者Yは複数の興味度を選択できる。
Next, the
次に、情報視覚化部74は、解析情報テーブルから指定された興味度が対応付けられている画像データを特定する(S30)。表7の解析情報テーブルに示すようにアクション(興味度)に画像IDが対応付けられており、表9の解析情報テーブルに示すようにアクション(興味度)に画像IDが対応付けられている。
Next, the
次に、情報視覚化部74は人が写っていない無人画像を読み出す(S40)。無人画像は、例えば、開店前に撮像された画像データなどである。なお、無人画像を使う必要はなく、ステップS30で特定した任意の画像データを使ってもよい。
Next, the
次に、情報視覚化部74は、解析情報テーブルで指定された興味度の領域範囲を取得して画像データから人部分をトリミングする(S50)。人部分は領域範囲と同じものである。解析情報テーブルには人が検知されている領域を特定できる領域範囲が登録されているので、人が写っている矩形の人部分をトリミングできる。
Next, the
次に、情報視覚化部74は、無人画像にトリミングした人部分を合成する(S60)。この合成は、領域範囲で指定される場所に単に人部分を重畳する(又は配置する)処理でよい。撮像装置1は同じ範囲の画像データを撮像しているので、合成しても各来客者Gの背景は同じであるため違和感が生じにくい。
Next, the
情報視覚化部74は、1つの無人画像に一人以上の来客者Gが写っている画像データを表示する(S70)。これにより、図35の画像データが表示される。画像データにはある興味度の来客者Gが実際に写っているので、閲覧者はどのような来客者G(男女、年齢層、服装など)がこの興味度を示したかを確認できる。また、どの場所に来客者Gが多い又は少ないなどを確認できる。なお、図14で閲覧者Yが複数の興味度を選択した場合、第5実施形態又は第6実施形態のように各来客者Gが興味度に応じて色分けして表示されることが好ましい。
The
<第2実施形態>
第2実施形態でも閲覧者Yが任意の興味度を指定できる点は同じであるが、情報端末7は指定された興味度を示した来客者Gの画像データを1つ1つ表示させる。
<Second Embodiment>
The second embodiment is the same in that the viewer Y can specify an arbitrary degree of interest, but the
図37は、情報端末7がディスプレイ508に表示した画像データ601を示す図である。図37では同じ興味度を示した来客者Gが写っている画像データが時系列に表示される。なお、画像データに複数の来客者Gが写っている場合、1つの画像データに複数の来客者Gが表示される。図37では再生ボタン641、早送りボタン643、及び、巻き戻しボタン642が表示されている。閲覧者Yは再生ボタン641を押下して次の画像データを表示させ、早送りボタン643で自動的に次々と画像データを表示させ、巻き戻しボタン642で次々と時間的に前の画像データを表示させる。以下、このような画像データの表示手順を説明する。
FIG. 37 is a diagram showing
図38は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図38の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10〜S30の処理は図36と同様である。
FIG. 38 is an example of a flowchart showing a procedure in which the
ステップS40では、情報視覚化部74は画像データを時系列にソートする(S40)。
In step S40, the
以降は、受付部72が受け付けた操作に応じて、表示制御部73が画像データを切り替えてディスプレイ508に表示する(S50)。
After that, the
したがって、画像データには一度に撮像された来客者Gしか写っていないので、閲覧者Yは各来客者Gを解析しやすい。また、時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。 Therefore, since only the visitor G captured at one time is shown in the image data, the viewer Y can easily analyze each visitor G. In addition, it is possible to analyze how the visitor G has moved over time and what kind of visitor G is common.
<第3実施形態>
第3実施形態では、閲覧者Yが興味を持っている商品ゾーン610に対し、興味を示した来客者Gを表示させる。
<Third Embodiment>
In the third embodiment, the visitor G who has shown interest is displayed in the
まず、図39を用いて閲覧者の操作とディスプレイ508に表示される画像データを説明する。図39は、閲覧者が行う解析操作を説明する図の一例である。
First, the operation of the viewer and the image data displayed on the
1.図39(a)に示すように、閲覧者Yは商品ゾーン610をポインティングデバイス640などで指定する(クリックする)。この商品ゾーン610は、どのくらいの数の来客者Gがどの程度の興味度を示したかを閲覧者Yが知りたい商品ゾーン610である。
1. 1. As shown in FIG. 39 (a), the viewer Y designates (clicks) the
2.図39(b)に示すように、情報端末7はクリックされた位置を含む商品ゾーン610をディスプレイ508に表示する。
2. As shown in FIG. 39B, the
3.図39(c)に示すように、複数の商品ゾーン610がある場合、閲覧者Yは1つの商品ゾーン610をマウスなどで選択する。
3. 3. As shown in FIG. 39 (c), when there are a plurality of
4.図40に示すように、情報端末7は、この商品ゾーン610に興味を示した来客者Gを1つの画像データに合成した来客者合成画面660を表示する。この来客者合成画面660によれば、閲覧者Yは商品ゾーン610ごとにどのくらいの来客者Gが興味を示したかを把握できる。図40の来客者合成枠670は複数の来客者Gの外接矩形であるが、この来客者合成枠670が大きいほど1つの商品ゾーン610に興味を示した来客者Gの場所に広がりがあることになる。よって、閲覧者Yは狙い通りの集客が行われているかどうかなどを判断して商品の配置を換えたりすることができる。なお、来客者合成枠670の形状は円形や多角形などでよく、その形状は限定されない。
4. As shown in FIG. 40, the
以下、このような画像データの表示手順を説明する。
図41は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図38の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10の処理は図38と同様である。
The procedure for displaying such image data will be described below.
FIG. 41 is an example of a flowchart showing a procedure in which the
次に、受付部72は任意の画像データの場所の指定を受け付ける(S20)。任意の画像データは無人画像でよいが、画像データの撮像範囲は同じなのでどの画像データでもよい。
Next, the
次に情報視覚化部74はステップS20の場所を含む商品ゾーン610を特定する(S30)。解析情報テーブルには対象ゾーンの座標が登録されているため、ステップS20の場所を含む商品ゾーン610を特定できる。
Next, the
情報視覚化部74は複数の商品ゾーン610を特定したか否かを判断する(S40)。複数ある場合は、表示制御部73が複数の商品ゾーン610を画像データに強調して表示し、受付部72が1つの商品ゾーン610の選択を受け付ける(S50)。
The
次に、情報視覚化部74は、選択された商品ゾーン610に対応付けられている領域範囲と画像データを特定する(S60)。上記のように解析情報テーブルから商品ゾーン610に対応付けられている領域範囲を特定でき、この領域範囲を有する画像データを特定できる。以降のステップS70〜S100の処理は図36のステップS40〜S70と同様でよい。
Next, the
このように、閲覧者Yが知りたい商品ゾーンに対し興味を示した来客者を表示できるので、閲覧者Yはどのような来客者がどのくらい興味を示したかを解析できる。 In this way, since the visitors who are interested in the product zone that the viewer Y wants to know can be displayed, the viewer Y can analyze what kind of visitors are interested and how much.
<第4実施形態>
第4実施形態も第3実施形態同様に、閲覧者Yが興味を持っている商品ゾーン610に対し、興味を示した来客者Gを表示させる。しかし、第4実施形態では、情報端末7は指定された商品ゾーン610に興味度を示した来客者Gの画像データを1つ1つ表示させる。
<Fourth Embodiment>
Similarly to the third embodiment, the fourth embodiment also displays the visitor G who has shown interest in the
図42は、第4実施形態で表示される画像データの生成方法を説明する図の一例である。
1.図42(a)の画像データの生成方法は図40と同様である。図42(a)では閲覧者Yが指定した商品ゾーン610が表示されているが、これはなくてもよい。
2.次に、図42(b)に示すように、情報端末7は商品ゾーン610に興味を示した来客者Gが占める領域範囲の外接矩形を算出する。これが図40の来客者合成枠670である。
3.図42(c)に示すように、情報端末7は来客者合成枠670を強調して表示する。
4.図43は、同じ商品ゾーン610に興味度を示した来客者Gが写っている画像データが時系列に来客者合成枠670と共に表示される図の一例である。
FIG. 42 is an example of a diagram illustrating a method of generating image data displayed in the fourth embodiment.
1. 1. The method of generating the image data in FIG. 42 (a) is the same as that in FIG. 40. In FIG. 42 (a), the
2. Next, as shown in FIG. 42B, the
3. 3. As shown in FIG. 42 (c), the
4. FIG. 43 is an example of a diagram in which image data showing a visitor G who has shown an interest in the
なお、画像データに複数の来客者Gが写っている場合、複数の来客者Gが表示される。ある商品ゾーン610に対し興味を示した来客者Gのうち、一度に撮像された来客者Gしか表示されないので、閲覧者Yは各来客者Gを解析しやすい。また、時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。なお、図43では、来客者合成枠670の外に来客者Gが写っている場合があるが、来客者合成枠670があるので閲覧者は、来客者合成枠670の外の来客者Gを無視できる。また、来客者合成枠670内の来客者Gのみをトリミングして無人画像に配置してもよい。
When a plurality of visitors G are shown in the image data, the plurality of visitors G are displayed. Of the visitors G who are interested in a
以下、このような画像データの表示手順を説明する。
図44は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図44の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10〜S60の処理は図41と同様である。
The procedure for displaying such image data will be described below.
FIG. 44 is an example of a flowchart showing a procedure in which the
ステップS70では、情報視覚化部74は画像データを時系列にソートする(S70)。
In step S70, the
以降は、受付部72が受け付けた操作に応じて、表示制御部73が画像データを切り替えてディスプレイ508に表示する(S80)。なお、この時、表示制御部73は来客者合成枠670を表示する。
After that, the
したがって、閲覧者Yはある商品ゾーン610に興味を示した来客者Gを個別に解析しやすい。また、来客者合成枠670の中で時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。
Therefore, the viewer Y can easily analyze the visitor G who is interested in a
<第5実施形態>
第5実施形態では、第3実施形態において来客者Gを興味度で色分けして表示する画像処理システムを説明する。
<Fifth Embodiment>
In the fifth embodiment, an image processing system for displaying the visitor G in a color-coded manner according to the degree of interest in the third embodiment will be described.
図45は、ディスプレイ508に表示される画像データを説明する図の一例である。図45では各来客者Gが、興味度によって異なる色で表示されている。色分けするまでの処理は第3実施形態と同様でよい。
FIG. 45 is an example of a diagram illustrating image data displayed on the
図46は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図46の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。まず、図46はステップS85を除き図41と同様である。
FIG. 46 is an example of a flowchart showing a procedure in which the
ステップS85では、情報視覚化部74は人部分を興味度に応じて着色する(S85)。表7の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられており、表9の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられている。これにより、図45に示すように興味度によって異なる色で来客者Gを表示できる。なお、人部分は矩形領域なので、図45のように人型に表示することは困難な可能性がある。この場合、表示制御部73は各人部分に半透明の処理を施すなどが好ましい。
In step S85, the
したがって、ある商品ゾーン610に対し複数の来客者Gが表示されても、閲覧者Yは各来客者Gの興味度を判別しやすくなる。
Therefore, even if a plurality of visitors G are displayed for a
<第6実施形態>
第6実施形態では、第4実施形態において来客者Gを興味度で色分けして表示する画像処理システムを説明する。
<Sixth Embodiment>
In the sixth embodiment, an image processing system for displaying the visitor G in a color-coded manner according to the degree of interest in the fourth embodiment will be described.
図47は、ディスプレイ508に表示される画像データを説明する図の一例である。図47では各来客者Gが、興味度によって異なる色で表示されている。色分けするまでの処理は第4実施形態と同様でよい。
FIG. 47 is an example of a diagram illustrating image data displayed on the
図48は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図48の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。まず、図48はステップS80を除き図44と同様である。
FIG. 48 is an example of a flowchart showing a procedure in which the
ステップS80では、情報視覚化部74は閲覧者の操作を受け付けて、人部分を興味度で着色し、切り替えて表示する(S80)。表7の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられており、表9の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられている。これにより、図47に示すように興味度によって異なる色で来客者Gを表示できる。
In step S80, the
したがって、ある商品ゾーン610に対し興味がある来客者Gがどのくらいの興味度かを、閲覧者Yは一人ずつ(一画像データずつ)解析できる。また、時間的にどのように変化するかを解析できる。
Therefore, the viewer Y can analyze the degree of interest of the visitor G who is interested in a
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.
例えば、上記の実施形態では、画像管理装置5が人を検出したり、アクションを判断したが、情報端末7が人を検出したり、アクションを判断してもよい。また、上記の実施形態では情報端末7が商品ゾーン610の色を決定していたが、商品ゾーン610の色を画像管理装置5が決定してもよい。画像管理装置5が第5実施例の処理を行ってもよい。また、情報端末7と画像管理装置5が一体の情報処理装置が本実施形態で説明された処理を一台で実行してもよい。また、画像管理装置5が有する機能の全て又は1以上を情報端末7が有していてよく、情報端末7が有する機能の全て又は1以上を画像管理装置5が有していてもよい。
For example, in the above embodiment, the
また、以上の実施例で示した図6、13、24などの構成例は、撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。
Further, the configuration examples of FIGS. 6, 13, and 24 shown in the above embodiments are mainly used in order to facilitate understanding of the processes of the
また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。
Further, the database of the storage unit 5000 of the
なお、人物検出部52は人検出手段の一例であり、画像解析部55は動作判断手段の一例であり、評価部56は評価手段の一例であり、表示制御部73は表示手段の一例であり、ディスプレイ508は表示装置の一例である。商品ゾーン610は所定領域の一例であり、領域602は人領域の一例であり、受付部72は受付手段の一例であり、事象記録部57はフラグ設定手段の一例である。
The
1 :撮像装置
3 :通信端末
5 :画像管理装置
7 :情報端末
44 :事象記録要求部
51 :送受信部
52 :人物検出部
55 :画像解析部
56 :評価部
57 :事象記録部
73 :情報視覚化部74
200 :画像処理システム
1: Imaging device 3: Communication terminal 5: Image management device 7: Information terminal 44: Event recording request unit 51: Transmission / reception unit 52: Person detection unit 55: Image analysis unit 56: Evaluation unit 57: Event recording unit 73: Information
200: Image processing system
Claims (19)
画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、
前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、
前記領域の指定を受け付ける受付手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する画像処理システム。 An image processing system having one or more information processing devices.
A person detection means that detects a person area including a person from image data,
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. When,
A display means for displaying the evaluation by the evaluation means on the display device together with the image data,
It has a reception means for accepting the designation of the area.
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
The display means is an image processing system that visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means.
前記表示手段は、前記評価手段による多段階の評価を前記画像データと共に表示装置に表示する請求項1に記載の画像処理システム。 The evaluation means evaluates the region in multiple stages according to the operation.
The image processing system according to claim 1, wherein the display means displays a multi-step evaluation by the evaluation means on a display device together with the image data.
前記領域の指定を受け付ける受付手段を有し、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する請求項1〜6のいずれか1項に記載の画像処理システム。 The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
It has a reception means that accepts the designation of the area.
The image processing system according to any one of claims 1 to 6, wherein the display means visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means. ..
所定の操作を受け付ける受付手段を有し、
前記受付手段が前記所定の操作を受け付けた場合、前記表示手段は、前記評価の段階と 前記回数から前記領域を代表する代表値を算出し、前記代表値を視覚化して表示する請求項1〜6のいずれか1項に記載の画像処理システム。 The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
It has a reception means that accepts predetermined operations,
When the receiving means receives the predetermined operation, the display means calculates a representative value representing the area from the evaluation stage and the number of times, and visualizes and displays the representative value. The image processing system according to any one of 6.
前記評価の段階の指定を受け付ける受付手段を有し、
前記表示手段は、前記受付手段が受け付けた前記評価の段階が付与されている前記領域を視覚化して表示する請求項9又は10に記載の画像処理システム。 The evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages.
It has a reception means that accepts the designation of the evaluation stage.
The image processing system according to claim 9 or 10 , wherein the display means visualizes and displays the area to which the evaluation stage received by the reception means is given.
前記画像データの位置の指定を受け付ける受付手段を有し、
前記表示手段は、前記受付手段が受け付けた前記位置に最も近い前記領域に付与された前記評価の段階を視覚化して表示する請求項9又は10に記載の画像処理システム。 The evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages.
It has a reception means that accepts the designation of the position of the image data.
The image processing system according to claim 9 or 10 , wherein the display means visualizes and displays the evaluation stage given to the area closest to the position received by the reception means.
所定の操作を受け付ける受付手段を有し、
前記受付手段が前記所定の操作を受け付けた場合、前記表示手段は、複数の前記領域の重なりが大きいほど中心の濃度が大きくなり、前記中心から離れるほど徐々に濃度が小さくなる色で前記領域を表示する請求項9又は10に記載の画像処理システム。 The evaluation means imparts the evaluation stage to the region when the region is evaluated in multiple stages.
It has a reception means that accepts predetermined operations,
If the reception unit receives the predetermined operation, the display means, overlaps a plurality of the regions as the concentration of the center is increased larger, the region in the color gradually concentration decreases with increasing distance from the center The image processing system according to claim 9 or 10.
少なくとも通知を取得した時の画像データに事象が撮像されている旨の事象フラグを設定するフラグ設定手段を有する請求項1〜13のいずれか1項に記載の画像処理システム。 When a notification that the image pickup device that captures image data is capturing a predetermined event is obtained from an arbitrary information processing device,
The image processing system according to any one of claims 1 to 13 , further comprising a flag setting means for setting an event flag indicating that an event is captured in the image data at least when the notification is acquired.
を有する請求項1〜13のいずれか1項に記載の画像処理システム。 Person the region of the specified evaluation phase and direction of operation, or the display means to display the image data including the person who indicates the direction of the operation to the region on the display device,
The image processing system according to any one of claims 1 to 13.
画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとに前記情報端末に送信する情報処理装置。 An information processing device capable of communicating with an information terminal that displays the evaluation by the information processing device together with the image data captured by the image pickup device on the display device.
A person detection means that detects a person area including a person from image data,
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. And have
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
An information processing device that transmits the number of times the same evaluation stage is given to the area to the information terminal for each area.
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントする情報処理装置と通信可能な情報端末であって、
前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、
前記領域の指定を受け付ける受付手段と、を有し、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する情報端末。 A person detection means that detects a person area including a person from the image data captured by the image pickup device, and
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. And have
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. An information terminal that can communicate with the information processing device that counts
Display means for displaying on the display device evaluation by the evaluation unit together with the image data,
It has a reception means for accepting the designation of the area.
The display means is an information terminal that visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means.
画像データから人が含まれる人領域を検出する人検出手段と、
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段、として機能させ、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントし、
前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとに前記情報端末に送信するプログラム。 An information processing device that can communicate with an information terminal that displays the evaluation by the information processing device on the display device together with the image data captured by the image pickup device.
A person detection means that detects a person area including a person from image data,
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. To function as,
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. Count and
A program that transmits the number of times the same evaluation stage is given to the area to the information terminal for each area.
前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
予め定められた複数の領域のうち前記方向にあることで決定される前記領域、又は、前記方向及び前記人領域の大きさに応じて決定される前記領域を前記動作に応じて評価する評価手段と、を有し、
前記評価手段は、前記領域を多段階に評価した際の前記評価の段階を前記領域に付与し、複数の前記画像データの前記領域に対し同じ前記評価の段階を付与した回数を前記領域ごとにカウントする情報処理装置と通信可能な情報端末を、
前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、
前記領域の指定を受け付ける受付手段、として機能させ、
前記表示手段は、前記受付手段が受け付けた前記領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示するプログラム。 A person detection means that detects a person area including a person from the image data captured by the image pickup device, and
An motion determining means for determining the motion of the person and the direction of the motion from the human area detected by the human detecting means, and
An evaluation means for evaluating the region determined by being in the direction among a plurality of predetermined regions, or the region determined according to the direction and the size of the human region according to the operation. And have
The evaluation means assigns the evaluation stage when the region is evaluated in multiple stages to the region, and assigns the same evaluation stage to the region of the plurality of image data for each region. An information terminal that can communicate with the information processing device that counts
Display means for displaying on the display device evaluation by the evaluation unit together with the image data,
To function as a reception means for accepting the designation of the area,
The display means is a program that visualizes and displays the number of times of each of the evaluation stages associated with the area received by the reception means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/443,078 US10360572B2 (en) | 2016-03-07 | 2017-02-27 | Image processing system, method and computer program product for evaluating level of interest based on direction of human action |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016043292 | 2016-03-07 | ||
JP2016043292 | 2016-03-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017162432A JP2017162432A (en) | 2017-09-14 |
JP6852293B2 true JP6852293B2 (en) | 2021-03-31 |
Family
ID=59857176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016133327A Active JP6852293B2 (en) | 2016-03-07 | 2016-07-05 | Image processing system, information processing device, information terminal, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6852293B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7062985B2 (en) * | 2018-02-06 | 2022-05-09 | コニカミノルタ株式会社 | Customer behavior analysis system and customer behavior analysis method |
WO2019168162A1 (en) * | 2018-03-01 | 2019-09-06 | 学校法人玉川学園 | Information processing device, information processing method, and program |
JP7081310B2 (en) * | 2018-06-01 | 2022-06-07 | コニカミノルタ株式会社 | Behavioral analytics device, behavioral analytics system, behavioral analytics method, program and recording medium |
JP6593949B1 (en) * | 2019-07-31 | 2019-10-23 | アースアイズ株式会社 | Information processing apparatus and marketing activity support apparatus |
WO2022064632A1 (en) * | 2020-09-25 | 2022-03-31 | 日本電気株式会社 | Image processing device, image processing method, and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4972491B2 (en) * | 2007-08-20 | 2012-07-11 | 株式会社構造計画研究所 | Customer movement judgment system |
JP2010067079A (en) * | 2008-09-11 | 2010-03-25 | Dainippon Printing Co Ltd | Behavior analysis system and behavior analysis method |
JP2011248836A (en) * | 2010-05-31 | 2011-12-08 | Nomura Research Institute Ltd | Residence detection system and program |
JP5356615B1 (en) * | 2013-02-01 | 2013-12-04 | パナソニック株式会社 | Customer behavior analysis device, customer behavior analysis system, and customer behavior analysis method |
JP6240203B2 (en) * | 2013-09-19 | 2017-11-29 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Control method for displaying merchandising information on information terminal |
JP6205484B2 (en) * | 2014-04-23 | 2017-09-27 | 株式会社日立製作所 | Behavior analysis device |
JP2016024601A (en) * | 2014-07-18 | 2016-02-08 | 日本電気株式会社 | Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program |
-
2016
- 2016-07-05 JP JP2016133327A patent/JP6852293B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017162432A (en) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10360572B2 (en) | Image processing system, method and computer program product for evaluating level of interest based on direction of human action | |
JP6852293B2 (en) | Image processing system, information processing device, information terminal, program | |
US10277836B2 (en) | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product | |
US10951862B2 (en) | Systems and methods for managing and displaying video sources | |
JP5707562B1 (en) | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD | |
US9836115B2 (en) | Information processing device, information processing method, and program | |
US9639988B2 (en) | Information processing apparatus and computer program product for processing a virtual object | |
JP5527423B2 (en) | Image processing system, image processing method, and storage medium storing image processing program | |
JP6254577B2 (en) | Information processing apparatus, system, information processing method, and program | |
US20180025233A1 (en) | Image-capturing device, recording device, and video output control device | |
JP2015149557A (en) | Monitoring device, monitoring system, and monitoring method | |
CN111178294A (en) | State recognition method, device, equipment and storage medium | |
US9886698B2 (en) | Augmented reality product brochure application | |
JP6686547B2 (en) | Image processing system, program, image processing method | |
JP2017211811A (en) | Display control program, display control method and display control device | |
JP6617547B2 (en) | Image management system, image management method, and program | |
JP2017182681A (en) | Image processing system, information processing device, and program | |
JP7124281B2 (en) | Program, information processing device, image processing system | |
JP5947902B2 (en) | Face-to-face data generation apparatus and face-to-face data generation method | |
KR20160108103A (en) | Use terminal device, digital signage device and control methods thereof | |
US10372297B2 (en) | Image control method and device | |
US20230079461A1 (en) | Information processing apparatus, information processing system, and information processing method | |
JP5493581B2 (en) | Information processing system, information processing apparatus, information management apparatus, and program | |
JP7343973B2 (en) | Behavior pattern analysis support device, behavior pattern analysis support system, and behavior pattern analysis support method | |
JP2023177431A (en) | Image processor, method for processing image, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210222 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6852293 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |