JP2017162432A - 画像処理システム、情報処理装置、情報端末、プログラム - Google Patents

画像処理システム、情報処理装置、情報端末、プログラム Download PDF

Info

Publication number
JP2017162432A
JP2017162432A JP2016133327A JP2016133327A JP2017162432A JP 2017162432 A JP2017162432 A JP 2017162432A JP 2016133327 A JP2016133327 A JP 2016133327A JP 2016133327 A JP2016133327 A JP 2016133327A JP 2017162432 A JP2017162432 A JP 2017162432A
Authority
JP
Japan
Prior art keywords
image data
image
evaluation
unit
predetermined area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016133327A
Other languages
English (en)
Other versions
JP6852293B2 (ja
Inventor
堀川 裕文
Hirofumi Horikawa
裕文 堀川
山本 健吾
Kengo Yamamoto
健吾 山本
真野 博子
Hiroko Mano
博子 真野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/443,078 priority Critical patent/US10360572B2/en
Publication of JP2017162432A publication Critical patent/JP2017162432A/ja
Application granted granted Critical
Publication of JP6852293B2 publication Critical patent/JP6852293B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人の興味の度合いをより詳細に判断することが可能な画像処理システムを提供すること。【解決手段】1つ以上の情報処理装置を有する画像処理システム200であって、画像データから人が含まれる人領域を検出する人検出手段52と、前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段55と、前記方向に基づいて決定される前記画像データの所定領域を前記動作に応じて評価する評価手段56と、前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段73と、を有する。【選択図】図1

Description

本発明は、画像処理システム、情報処理装置、情報端末及びプログラムに関する。
小売業ではPOS(Point Of System)の売上データを用いることで、売れている商品・売れていない商品を判別し、店長などが商品ごとに改善策を策定することが従来から行われている。具体的には価格設定などを見直すなどの従来の改善策の他に、VMD(Visual Merchandising)と呼ばれる商品の見せ方の改善が行われようになってきた。
しかしながら、POSの売上データを参照する方法では、商品が「売れたか否か」はわかるが、来客者が「各商品に対して興味を持ったのか否か」はわからないため、必ずしも適切な改善策を策定することができない場合があった。
そこで、カメラと画像処理技術を組み合わせることで映像を加工して店長等が分析しやすい情報を出力する監視システムが考案されている(例えば、特許文献1参照。)。特許文献1には、画像から店舗への来客者の購買行動を判断し、POSデータには現れない来客者の商品に対する行動を取得する技術が開示されている。このような技術が活用されれば、POSの売上データには現れない来客者の商品に対する行動を分析しやすくなる。
しかしながら、従来の技術では「商品(又は商品が置かれている棚)に対し来客者がアクセスしたか否か」の2種類を判断できても、来客者がどの程度その商品に興味を持ったのかを判断できないという問題があった。すなわち、来客者が商品に対しアクセスすれば商品に対して興味が「あった」と判別し、アクセスしなければ「なかった」と判別するという2種類の判別しかできず、来客者がどの程度その商品に興味を持ったのかを判断することができなかった。
本発明は上記課題に鑑み、人の興味の度合いをより詳細に判断することが可能な画像処理システムを提供することを目的とする。
本発明は、1つ以上の情報処理装置を有する画像処理システムであって、画像データから人が含まれる人領域を検出する人検出手段と、前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、前記方向に基づいて決定される前記画像データの所定領域を前記動作に応じて評価する評価手段と、前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、を有する。
人の興味の度合いをより詳細に判断することが可能な画像処理システムを提供することができる。
画像処理システムによる人の興味の度合いの判断例を説明する図である。 画像処理システムの概略構成図の一例である。 撮像装置のハードウェア構成図の一例である。 無線通信機能を有したクレードルの場合の通信端末のハードウェア構成図の一例である。 画像管理装置及び情報端末のハードウェア構成図の一例である。 画像処理システムの一部を構成する、撮像装置、通信端末、画像管理装置、及び情報端末の各機能ブロック図の一例である。 人が検出された領域を模式的に示す図の一例である。 画像解析部がアクションを判断する手順を示すフローチャート図の一例である。 商品ゾーンごとの集計を模式的に説明する図の一例である。 領域に関する商品ゾーンを判断する手順を示すフローチャート図の一例である。 商品ゾーンの定義方法を模式的に示す図である。 評価部が商品ゾーンを定義する手順を示すフローチャート図の一例である。 撮像装置、通信端末、画像管理装置、及び情報端末の各機能ブロック図である(実施例3)。 閲覧者が指定する興味度を示す図の一例である。 操作1に対し情報端末が表示する画面例を示す図の一例である。 操作2に対し情報端末が表示する画面例を示す図の一例である。 操作3に対し情報端末が表示する画面例を示す図の一例である。 操作4に対し情報端末が表示する画面例を示す図の一例である。 操作5に対し情報端末が表示する画面例を示す図の一例である。 操作6に対し情報端末が表示する画面例を示す図の一例である。 ヒートマップの作成に関し重み付けを説明する図の一例である。 画像処理システムの概略構成図の一例である(実施例4)。 スタッフ端末のハードウェア構成図の一例である。 本実施例の画像処理システムの一部を構成する、画像管理装置、情報端末及びスタッフ端末の各機能ブロック図である(実施例4)。 店舗における画像処理システムの利用形態を説明する図の一例である。 来客者が倒れるという事象が発生した店舗を示す図である。 スタッフ端末のディスプレイに表示される事象記録画面の一例を示す図である。 事象記録要求により設定される事象フラグを模式的に説明する図の一例である。 画像処理システムの全体的な動作手順を示すシーケンス図の一例である。 画像管理装置が画像を管理する手順を示すフローチャート図の一例である。 画像管理装置がジェスチャを検出して事象フラグをONに設定する手順を示すフローチャート図の一例である。 スタッフ端末と画像管理装置の間で行われる動作を示すシーケンス図の一例である。 通信端末が事象記録要求を画像管理装置に送信するシーケンス図の一例である。 情報端末のディスプレイに表示される閲覧画面の一例である。 来客者が画像データに合成された来客者合成画面を示す図の一例である(第1実施形態)。 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。 情報端末がディスプレイに表示した画像データを示す図の一例である(第2実施形態)。 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。 閲覧者が行う解析操作を説明する図の一例である(第3実施形態)。 来客者合成画面の一例を示す図である。 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。 第4実施形態で表示される画像データの生成方法を説明する図の一例である(第4実施形態)。 同じ商品ゾーンに興味度を示した来客者が写っている画像データが時系列に来客者合成枠と共に表示される図の一例である。 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。 ディスプレイに表示される画像データを説明する図の一例である(第5実施形態)。 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。 ディスプレイに表示される画像データを説明する図の一例である(第6実施形態)。 情報視覚化部が画像データに来客者を合成する手順を示すフローチャート図の一例である。
以下、本発明を実施するための形態について図面を参照しながら説明する。
<本実施形態の画像解析の一例>
図1は、画像処理システムによる人の興味の度合いの判断例を説明する図である。図1では、一例としてアパレル業界の店舗を来客者が訪れた場合を例にして説明する。来客者は目的の商品まで店内を歩いたり、興味を引く商品を探したりしながら店内を歩く。画像処理システムは各地に設置された広角カメラにより来客者を撮像し、画像データを解析して来客者のアクションを判断する。
図1(a)に示すように、画像処理システムは、まず来客者が歩いているかどうかを判断できる。歩いている場合、画像処理システムは更に顔向きなどから進行方向を向いているのか商品の方向を向いているのかなどを判断できる。進行方向を向いていない場合、何らかの商品を見たと考えてよいので、来客者が歩きながら商品の方向を見たと判断できる。
また、図1(b)に示すように、来客者が立ち止まっている場合、来客者は何らかの商品を立ち止まって見ていると判断できる。立ち止まって見ている場合は、歩きながら見ている場合よりも興味の度合いが高いと判断できる。更に、図1(c)に示すように画像処理システムは画像を解析して、来客者が手を伸ばしたか否かを判断できる。手を伸ばして見ている場合、立ち止まって見ている場合よりも興味の度合いが高いと判断できる。
また、図1(d)に示すように、画像処理システムは商品である服を来客者が身体に当てているかどうかを解析できる。この場合、手を伸ばして見ている場合よりも興味の度合いが高いと判断できる。
このように、本実施形態の画像処理システムは、店舗内の来客者の様子を撮像した画像から種々の動作を判断することで、商品又は商品ゾーンに対する興味の度合いを多段階に判断することができる。また、来客者の動作の対象は興味の対象であり、動作の方向により予め定義されていた商品ゾーンを決定すれば、商品ゾーンに対する興味の強さを視覚的に表示することも可能となる。
<用語について>
上記の広角画像は、所定よりも画角が広い画像であり、少なくとも通常の撮像装置(例えば35mmフィルムのカメラ)の画角よりも広い画角の画像をいう。あるいは、魚眼レンズで撮像されている画像のように湾曲した画像をいう。広角画像の一例の全天球画像は、周囲360°の全方位が撮像された画像である。全方位画像、パノラマ画像、全天球パノラマ画像など、どのように呼ばれていてもよい。また、周囲360°の画像の一部が画像処理などの関係で欠けていても本実施形態の説明に支障がない場合は全天球画像と称する。全天球画像により広範囲をカバーできるので撮像装置の設置数を少なくすることができる。
人とは興味、関心、反応又は応答などの動作を示す者である。動作により興味、関心、反応又は応答の程度が判断される。なお、人の他、動物などが検出されてもよい。人は屋内で検出されても屋外で検出されてもよい。屋内又は屋外では商品やサービスが提供される。商品やサービスは興味等の対象となる。
評価とは、この興味の程度を決定したり判断したりすることをいう。本実施形態では興味の程度が多段階に評価される。多段階とは少なくとも3段階以上であることが好ましい。
<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、情報端末7を有している。撮像装置1は設置者Xにより店舗内に設置されている。情報端末7は閲覧者Yにより操作される。
通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や情報端末7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。
撮像装置1は、上記のように1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。
なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。
通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。
画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。
なお、画像管理装置5にはクラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。
情報端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。
撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。情報端末7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、情報端末7は本社以外の場所からも画像管理装置5と通信可能である。画像管理装置5は、各拠点の通信端末3から送られて来た画像データやその解析結果を情報端末7に送信する。
<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,情報端末7及び画像管理装置5のハードウェア構成を説明する。
<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、メルカトル画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
通信部117は、撮像装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。
また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。
通信部305は、アンテナ305aを利用して無線通信信号により、無線ルータ9a等と通信を行う。
図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。
<<画像管理装置、情報端末7>>
図5を用いて、画像管理装置5及びノートPCの場合の情報端末7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び情報端末7のハードウェア構成図である。画像管理装置5及び情報端末7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。情報端末7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<画像処理システムの機能について>
図6は、本実施形態の画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。
<<撮像装置1の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置用のプログラム及び端末IDが記憶されている。
撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。
撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。
集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。
接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。
記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。
<<通信端末3の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末用のプログラムが記憶されている。
(通信端末3の各機能構成)
通信端末3の送受信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。
記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。
<<画像管理装置の機能構成>>
画像管理装置5は、送受信部51、人物検出部52、サムネイル作成部53、画面作成部54、画像解析部55、評価部56、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、画像管理装置5は、図4に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、撮像管理DB5002、画像管理DB5003、サムネイル管理DB5004、解析情報管理DB5005、及び、興味度管理DB5006が構築されている。以下、各データベースについて説明する。
Figure 2017162432

表1は、拠点管理DB5001に記憶される各情報をテーブル状に示す拠点管理テーブルを示す。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。
拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。
拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。
端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置(端末ID)が設置されており、それらの位置が拠点レイアウトマップに登録されている。
拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。
Figure 2017162432

表2は、撮像管理DB5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Figure 2017162432

表3は、画像管理DB5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。画像IDは、画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
例えば、情報端末7で画像管理装置5にアクセスし、表2の撮像管理テーブルから拠点名と撮像タイトルを選ぶ。画像管理装置5は拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。
当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。
Figure 2017162432

表4は、サムネイル管理DB5004に記憶される各情報をテーブル状に示すサムネイル管理テーブルである。サムネイルとは親指程度のという意味であり、サムネイル画像は縮小した、画素数を低減した又は一覧用のイメージデータという意味になる。
サムネイル管理テーブルでは、画像IDごとに、サムネイルID、サムネイル画像のファイル名、及び所定領域情報が関連付けて記憶されている。サムネイルIDは、画像IDで示される画像データに基づいて作成されたサムネイル画像を一意に識別するための識別情報の一例である。サムネイル固有情報と称してもよい。サムネイル画像のファイル名は、サムネイルIDで示されるサムネイル画像のファイル名である。サムネイル画像のファイル名は画像管理装置5が付与する。所定領域情報は、画像IDで示される画像データにおいて、サムネイル画像が作成された所定領域を示す。サムネイル管理テーブルは、主に画像管理装置5が登録する。
Figure 2017162432

表5は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。解析情報テーブルでは、画像IDごとに、領域ID、領域範囲、アクション及び方向が関連付けて記憶されている。画像IDについては上記のとおりである。領域ID、範囲、アクション、及び、方向について詳細は後述される。まず、領域は、全天球画像の解析により来客者(人)が検出された来客者の外接矩形である。領域IDは、領域を一意に識別するための識別情報の一例である。領域番号や領域固有情報と称してもよい。例えば、画像ごとに1から始まる連番がareaの"n"に設定される。
領域範囲は領域を特定するための情報である。来客者が検出される領域は矩形であるものとして、例えば、左上頂点の座標(x,y)と幅(width)と高さ(height)が領域範囲となる。対角の2点の座標で領域が特定されてもよい。なお、領域範囲は、全天球に画像が貼り付けられる前の平面の状態の平面画像の座標系に基づいて決定されている。補足すると、撮像装置1は当初、平面画像を出力するが、閲覧時には全天球に平面画像が貼り付けられ全天球画像が作成されている。アクションは、領域で検出された来客者の動作内容であり、表8に示す番号に置き換えられている。方向は、アクションの方向(動作の方向)を示す。
Figure 2017162432

表6は、興味度管理DB5006に記憶される各情報をテーブル状に示す興味度管理テーブルである。興味度管理テーブルでは、来客者のアクションごとにアクションがどの程度の興味の強さを意味するかが登録されている。この興味の強さが興味度である。したがって、画像管理装置5はアクションから興味度を決定できる。なお、来客者のアクションとは商品に対し来客者が示した行動、動作又は反応等を示す。アクションには単に通り過ぎたことが含まれる。
(画像管理装置の各機能構成)
画像管理装置5の送受信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は情報端末7と各種データの送受信を行う。なお、以下では、画像管理装置5が情報端末7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
人物検出部52は、主に、図5に示されているCPU501の処理によって実現され、画像データから人を検出する。この人の検出は適切な特徴量の設定と、学習識別装置の設定により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置としては、SVM(Support Vector Machines)、AdaBoostを用いたカスケード分類などが知られている。ただし、これらに限られるものではなく人を検出できればよい。
サムネイル作成部53は、主に、図5に示されているCPU501の処理によって実現され、所定領域画像のサムネイル画像を作成する。
画面作成部54は、画像データを情報端末7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで情報端末7が画像データを表示するための画面情報を作成する。
画像解析部55は、主に、図5に示されているCPU501の処理によって実現され、来客者が検出された領域に対し来客者のアクションを判断する画像処理を行う。動作そのものを画像から判断することは困難であるため姿勢形状とのマッチングによりアクションを判断する。すなわち、画像処理システムの運営者などが代表的な姿勢を登録しておき、画像解析部55が検出された人の形状とマッチングを行う。アクションとして代表的な姿勢(上記した、進行方向を向いて歩いている、進行方向を向かないで歩いている、歩いていない、商品に手を伸ばす、商品を身体に当てるなど)を例えばSVMに学習させる。来客者の動作と姿勢の間には相関があるので、姿勢を個別に学習する。好ましくは、SVMは移動状態と静止状態で別々に姿勢を学習する。これにより1つのSVMが学習する姿勢の数が減少するので、SVMの姿勢認識精度が向上する。なお、移動状態か静止状態かは、全天球画像が動画であれば来客者が移動するかどうかにより判断してもよいし、画像が変化したことにより判別してもよいし、脚部の開きの大きさをパターンマッチング等により判別してもよい。姿勢を判断する際にアクションの方向も判断される。なお、姿勢の判断については非特許文献1を参照されたい。
評価部56は、主に、図5に示されているCPU501の処理によって実現され、決定されたアクションを、興味度管理DB5006に基づいて興味度に変換する。また、評価部56は、時系列の複数の画像データについて、アクションの方向から後述する商品ゾーンを特定し、商品ゾーンごとに同じアクション(興味度)が与えられた回数をカウントする。
記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。
<情報端末7の機能構成>
情報端末7は、送受信部71、受付部72、表示制御部73、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された情報端末7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、情報端末7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には情報端末7用のプログラムが記憶されている。情報端末7用のプログラムは、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。
(情報端末7の各機能構成)
情報端末7の送受信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、情報端末7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。
表示制御部73は、主に、図5に示されているCPU501の処理によって実現され、画像管理装置5から送信された画面情報を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。
記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。
<人の検出とアクションの判断例>
画像管理装置5が来客者の商品に対する興味の度合いを判断するには、画像管理装置5が人を検出することが必要になる。人物検出部52は画像処理にて人を検出し、検出した領域を画像内の座標として解析情報管理DB5005に登録し、画像解析部55は領域からアクションを判断する。
図7は、人が検出された領域602を模式的に示す図の一例である。図7(a)では、5つの領域602が検出されている。図7(a)の平面画像は例えば全天球に貼り付けられる前のメルカトル図法により作成された画像である。天井部は歪んでいる可能性があるが天井には人がいないため不都合は少ない。また、全天球画像のうち足下に近い部分も歪んでいる可能性があるが床に近い所定範囲(閾値となる緯度以下)では人検出を行わなければよい。あるいは、全天球画像に変換された状態で人を検出したりアクションを判断したりしてもよい。
画像解析部55は、人が検出された領域602に対し来客者が行うアクションを判断する。その結果、図7(b)のように各領域602は、判断されたアクション603とそのアクションの方向を持つ。
例えば、歩いている場合に顔向きが正面方向か横向きかをパターンマッチングにより判断できる。アクション0の場合、方向はない。顔向きが商品の向きの場合、アクション1と判断されるが、この場合は顔の向きがアクションの方向である。また、立ち止まっていると判断され、パターンマッチングにより手を伸ばしたと判断されると、アクション3と判断されるが、この場合の方向は来客者が伸ばした手の方向である。
パターンマッチングにより商品を身体に当てたと判断されるとアクション4と判断されるが、この場合、過去の画像データから来客者が商品を取った棚の方向が判断される。パターンマッチングにより商品を身体に当てたと判断されるとアクション5と判断されるが、この場合、過去の画像データから来客者が商品を取った棚の方向が判断される。
なお、アクションの内容は0〜5の6個に限られず、より多くの種類のアクションを判断してもよい。また、方向は平面画像の所定方向(例えばx方向、y方向)を0度にして時計回り又は反時計回りに360度の値を取る。画像解析部55はその矩形データとアクションの判断結果を解析情報管理DB5005に登録する。
図7(c)は、撮像装置1により撮像された画像の一例を示す。二人の来客者が人として検出され、それぞれの領域602が図示されている。このような画像は、情報端末7が画像管理装置5から取得することができる。
<アクションの判断手順>
図8は、画像解析部55がアクションを判断する手順を示すフローチャート図の一例である。図8の処理は、画像データへの人の検出処理が行われるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
画像解析部55は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。
次に、画像解析部55は、順番に画像データを1つずつ読み出す(S20)。
そして、画像解析部55は、画像データに人が検出された領域602があるか否かを判断する(S30)。
ステップS30の判断がNoの場合、処理はステップS170に進む。ステップS30の判断がYesの場合、画像解析部55は姿勢を推定する(S40)。姿勢の推定により顔向きも推定される。
まず、姿勢に基づいて歩いているか否かを判断する(S50)。ステップS40の判断がYesの場合、画像解析部55は顔が進行方向を向いているか否かを判断する(S60)。
ステップS60の判断がYesの場合、画像解析部55は商品を見ずに通り過ぎたというアクションを来客者が行ったと判断する(S70)。
ステップS60の判断がNoの場合、画像解析部55は商品を歩きながら見たというアクションを来客者が行ったと判断する(S80)。
次に、ステップS50の判断がNoの場合、来客者は立ち止まっているので、画像解析部55は手を伸ばしているか否かを判断する(S90)。
ステップS90の判断がYesの場合、画像解析部55は来客者が商品に手を伸ばしていると判断する(S100)。
ステップS90の判断がNoの場合、画像解析部55は来客者が商品を持っているか否かを判断する(S110)。
ステップS110の判断がNoの場合、画像解析部55は来客者が商品を立ち止まって見ているというアクションを行ったと判断する(S120)。
ステップS110の判断がYesの場合、画像解析部55は来客者が商品をかごに入れた(又は持っていった)、体に当てた、又は、棚に戻したかどうかを判断する(S130)。
この結果、画像解析部55は来客者が商品をかごに入れたというアクションを行ったと判断するか(S140)、来客者が商品を体に当てたというアクションを行ったと判断するか(S150)、又は、来客者が商品を棚に返したと判断する(S160)。
次に、処理はステップS30に戻り、ステップS30でNoと判断されると、画像解析部55は次の画像データがあるか否かを判断する(S170)。画像データがある場合、処理はステップS20に戻り、次の画像データがない場合、図8の処理は終了する。
このように姿勢から種々のアクションを判断できる。種々のアクションを判断できれば興味度を多段階に判断できる。
<商品ゾーンごとの集計>
人が検出された領域602についてアクションと方向が分かっているのでこれらを利用して、「各商品ゾーンに対するアクションの分布」を作成できる。商品ゾーンとは同じ種類の商品や関連した商品が集まっている店舗内の場所である。具体的には1つ以上の棚の集合であったり、商品が密接して配置されたりしている場所である。
図9は商品ゾーン610ごとの集計を模式的に説明する図の一例である。商品ゾーン610の形状は不定形であるが、多角形でもよい。閲覧者Yは集計したい商品ゾーン610を予め定義しておく。図9では2つの商品ゾーン610A,Bが図示されている。人が検出される領域602は、商品ゾーン610に隣接していたり、重なっていたりする。来客者は商品ゾーン610に対し何らかのアクションを取ることが多いと考えられる。したがって、商品ゾーン610を向いている領域602のアクションを、商品ゾーン610に対して行われたものとみなし評価部56が集計する。
図9の領域602A〜602Cはそれぞれ商品ゾーン610Aと隣接している。隣接しているとは商品ゾーン610の中心と領域602の中心が所定距離内であることをいう。この距離は画像上のピクセル数でよい。また、領域602A〜602Cで行われたアクションは、商品ゾーン610Aを向いている。商品ゾーン610を向いているとは、アクションの方向を延長すると延長線上に商品ゾーン610があることをいう。例えば、商品ゾーンの外縁をいくつかの点の集合として表しておき、アクションの方向の延長線がこの点から所定距離内を通過する場合に延長線上に商品ゾーン610があると判断できる。あるいは、簡略化して商品ゾーンの外接矩形と延長線が交差する場合に、延長線上に商品ゾーン610があると判断してもよい。
よって領域602A〜602Cのアクションは、商品ゾーン610Aに対して行われたとみなして評価部56が集計する。一方、領域602Dは、商品ゾーン610Aだけでなく商品ゾーン610Bと隣接している(又は重複領域を持っている)。しかし、アクションの方向が商品ゾーン610Bを向いている(アクションの方向に延長すると、商品ゾーン610Bに到達する)ため、商品ゾーン610Bへのアクションとして集計する。
また領域602Eは商品ゾーン610Aと重複しているが、アクションの方向が商品ゾーン610Aを向いていないため、商品ゾーン610Aへのアクションとして集計しない。
評価部56はこれらの処理をすべての領域602に対して行い、領域602と商品ゾーン610を対応づける。商品ゾーン610A,610Bは以下のように領域602とそのアクションと対応付けられる。
商品ゾーン610A:アクション4×1、アクション2×2
商品ゾーン610B:アクション3×1
Figure 2017162432

表7は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。なお、表7の説明では、表5との相違を主に説明する。表7の解析情報テーブルには、対象ゾーンの座標のフィールドが追加されている。対象ゾーンの座標のフィールドは、商品ゾーン610を特定する情報が登録されている。したがって、各領域602のアクションが向いている方向の商品ゾーン610と領域602が対応付けられる。商品ゾーン610を特定する情報は、対象ゾーンの外縁の点を示す座標の集合、又は、外接矩形を生成した場合の左上頂点の座標(x,y)と幅(width)と高さ(height)などである。
Figure 2017162432

更に、評価部56は、商品ゾーン610ごとにアクションの数を集計することにより、表8に示すように、各商品ゾーン610に対する各アクションの分布テーブルが得られる。表8では、ある集計期間の間、各商品ゾーン610において、アクション0〜5が判断された回数が示されている。したがって、商品ゾーン610ごとに各アクションの頻度が分かり、店舗内で見ればアクションの分布が得られることになる。
<商品ゾーンの判断>
図10は、領域602に関する商品ゾーン610を判断する手順を示すフローチャート図の一例である。図10の処理は、アクションの判断が終わるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
評価部56は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。
次に、評価部56は、順番に画像データを1つずつ読み出す(S20)。
そして、評価部56は、画像データに人が検出された領域602があるか否かを判断する(S30)。
ステップS30の判断がYesの場合、評価部56は、人が検出された領域602に隣接又は重複する商品ゾーン610があるか否かを判断する(S40)。この判断は、商品ゾーン610の中心と領域602の中心が所定距離内であるかどうかを判断すればよい。
ステップS40の判断がNoの場合、処理はステップS30に戻る。ステップS40の判断がYesの場合、評価部56は領域602で判断されたアクションが方向を持っているか否かを判断する(S50)。これはアクションの番号を判断すればよい。アクション0以外は方向を持っている。
ステップS50の判断がNoの場合、評価部56は隣接する全ての商品ゾーン610へのアクションであるとして判断し、アクションの数を1つ大きくする(S60)。これにより、方向が不明の場合も領域602を集計することができる。
ステップS50の判断がYesの場合、評価部56はアクションの方向の延長線上に隣接する商品ゾーン610があるか否かを判断する(S70)。
ステップS70の判断がNoの場合、処理はステップS30に戻る。ステップS70の判断がYesの場合、評価部56はアクションの方向の延長線上にある商品ゾーン610のアクションの数を1つ大きくする(S80)。
ステップS30の判断がNoの場合、評価部56は次の画像があるか否かを判断する(S90)。
ステップS90の判断がYesの場合、処理はステップS20に戻り、ステップS90の判断がNoの場合、図10の処理は終了する。
以上説明したように本実施例の画像処理システム200では、来客者の商品に対する興味の程度を多段階に評価できる。また、アクションの方向に基づいて商品ゾーン610を判断し、商品ゾーン610に対し行われた興味(アクション)の数をカウントできるので、ある商品ゾーン610ごとにどのような興味が多いかを定量化できる。したがって、商品ゾーン610に対するアクション(興味)の内容を閲覧者Yなどが分析できるようになる。
本実施例では、商品ゾーン610が予め決まっていない場合に商品ゾーン610を決定する画像処理システム200について説明する。なお、画像処理システム200の機能については実施例1と同様であるか、違いがあっても本実施例の説明には支障がないものとする。
実施例1では商品ゾーン610が予め定義されていたが、予め定義されていなくても人が検出された領域602に基づいて画像管理装置5が商品ゾーン610を定義することができる。アクションの方向が商品ゾーン610であると推定してよいためである。したがって、画像管理装置5は領域602と領域602が持つアクションの方向から商品ゾーン610を推定又は特定できる。
図11は、商品ゾーン610の定義方法を模式的に示す図である。まず、人物検出部52が人を検出することで領域602A〜602Fが検出されている。画像解析部55は領域602A〜602Fのアクションを判断しており、方向が分かっている。アクションの方向に商品ゾーン610がある場合が多いと考えてよいため、評価部56はアクションの方向に領域602のサイズに応じた大きさの商品ゾーン610を定義する。
図11では、各領域602の短辺(幅)と同じ長さの辺を持った正方形を商品ゾーン610として図示している。評価部56は、アクションの方向を示す直線と領域602から短辺(幅)の半分だけ離れた垂直線又は水平線の交点を正方形の中心に決定する。すなわち、アクションの方向を示す直線が領域602の上辺と交差する場合、領域602の上辺から短辺(幅)の半分だけ離れた上辺と平行な水平線との交点が求められる。アクションの方向を示す直線が領域602の下辺と交差する場合、領域602の下辺から短辺(幅)の半分だけ離れた下辺と平行な水平線との交点が求められる。アクションの方向を示す直線が領域602の右辺と交差する場合、領域602の右辺から短辺(幅)の半分だけ離れた右辺と平行な垂直線との交点が求められる。アクションの方向を示す直線が領域602の左辺と交差する場合、領域602の左辺から短辺(幅)の半分だけ離れた左辺と平行な垂直線との交点が求められる。
この正方形の中心から上下左右に短辺(幅)の半分はなれた直線で囲まれる矩形が求める正方形である。商品ゾーン610を領域602の短辺(幅)と同じ長さの辺を持った正方形としたので、商品ゾーン610に領域602のサイズを反映させることができる。なお、領域602の長辺(高さ)と同じ長さの辺を持つ正方形や、領域602と同じ幅と高さを持つ長方形を商品ゾーン610として定義してもよい。また、商品ゾーン610は正方形や長方形などの矩形の他、円や楕円などでもよい。この場合も、円の直径や楕円の長軸又は短軸に領域602のサイズが反映されることが好ましい。
例外として、領域602Fのようにアクションが方向を持たない場合がある。この場合、領域602Fの来客者がどの方向に対しアクションしているのか不明なので、評価部56は商品ゾーン610を定義しない。また、前後の画像データではアクションが検出されている可能性もある。ただし、周辺の全ての方向にアクションを行い得ると推定して、領域602Fの周囲の任意の方向又は全方向に商品ゾーン610を設定してもよい。
図11では、領域602Aに対し商品ゾーン610A、領域602Bに対し商品ゾーン610B、領域602Cに対し商品ゾーン610C、領域602Dに対し商品ゾーン610D、領域602Eに対し商品ゾーン610E、がそれぞれ定義されている。領域602Fに対しては商品ゾーンが定義されない。
図12は、評価部56が商品ゾーン610を定義する手順を示すフローチャート図の一例である。図12の処理は、アクションの判断が終わるとスタートする。あるいは、閲覧者Yが画像管理装置5に処理を要求する。
評価部56は画像管理DB5003を参照して例えば一連の画像データを取得する(S10)。一連の画像データは、例えば、同じ撮像装置1が撮像したある期間の画像データである。
次に、評価部56は、順番に画像データを1つずつ読み出す(S20)。
そして、評価部56は、画像データに人が検出された領域602があるか否かを判断する(S30)。
ステップS30の判断がYesの場合、評価部56は領域602がアクションの方向を持っているか否かを判断する(S40)。
ステップS40の判断がNoの場合、処理はステップS30に戻る。ステップS40の判断がYesの場合、評価部56はアクションの方向であって、領域602に隣接する商品ゾーン610を定義する(S50)。
この後、処理はステップS30に戻り、領域602がある間、ステップS30〜S50が実行される。
ステップS30の判断がNoの場合、評価部56は次の画像データがあるか否かを判断し(S60)、次の画像データがなくなると図12の処理が終了する。
以上の処理により、領域602とアクションの方向から算出される商品ゾーン610が定義され、領域602に商品ゾーン610が対応付けられた解析情報管理DB5005が得られる。
Figure 2017162432

表9は、本実施例において解析情報管理DB5005に記憶される解析情報テーブルを模式的に示す。表9の説明では、表5との相違を主に説明する。表9の解析情報テーブルには、商品ゾーン610の座標のフィールドが追加されている。商品ゾーン610の座標は、領域602とアクションの方向に基づいて定義された商品ゾーン610の左上頂点の座標である。商品ゾーン610である正方形の中心の座標でもよい。幅と高さは互いに同じであり、領域602の幅と同じである。
このように本実施例の画像処理システムは、商品ゾーン610が定義されていなくても領域602に基づいて商品ゾーン610を定義することができる。商品ゾーン610が定義されれば商品ゾーン610に対するアクション(興味)の内容を閲覧者Yなどが分析できるようになる。
本実施例では実施例1、2で得られた解析情報テーブルの内容を表示する情報端末7について説明する。これにより、来客者の興味の程度をヒートマップなどのような分布表現で表示することが可能になる。閲覧者Yは商品に対する興味の度合いを視覚的に把握することができる。
図13は、本実施例の画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。また、本実施例において、図6において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。図13の情報端末7は情報視覚化部74を有している。情報視覚化部74は、図5に示されているCPU501の処理によって実現され、解析情報テーブルや分布テーブルを視覚化するための各種の評価を行う。
視覚化は実施例1と実施例2で少し異なっているため、実施例1の場合と実施例2の場合を分けて説明する。
<実施例1 商品ゾーンが予め定義されている場合>
実施例1では表8の分布テーブルが得られていることになる。情報視覚化部74は閲覧者Yの操作に応じてこの分布テーブルのアクションの回数を加工して、表示制御部73がディスプレイ508に表示する。以下では、閲覧者の3つの操作に対する表示例を説明する。
1.操作1
特定のアクション(興味度)を閲覧者Yが指定して、情報端末7はその興味度がカウントされた回数を視覚的に表示する。図14は閲覧者Yが指定する興味度を示す図の一例であり、図15は操作1に対し情報端末7が表示する画面例を示す図の一例である。
1.1 まず、閲覧者Yは、着目したい興味度を指定する。図14(a)に示すように、情報端末7が画像データを取得し、閲覧者Yがマウスやタッチパネルなどのポインティングデバイスで所定のメニューを押下する。受付部72はこの操作を受け付けて表示制御部73が図14(b)のプルダウンメニューを表示させる。閲覧者Yはポインティングデバイスで興味度を選択する。受付部72はこの操作を受け付けて表示制御部73が図14(c)のように、閲覧者Yが選択した興味度(図では興味度2)をメニューに表示する。
1.2 情報視覚化部74は、分布テーブルにおいて表示中の画像データに対応付けられている1つ以上の商品ゾーン610から、受付部72が受け付けた興味度の回数を取得する。例えば、興味度が2であるとして表8を例にすると13,17…N2mの回数が取得される。情報視覚化部74は、回数の大小を色に変換する。色への変換方法は主に2つある。1つは、いくつかの閾値で区切って2つの閾値に含まれる回数に所定の色に割り当てる方法である。もう1つは、全ての商品ゾーン610の回数の合計で各商品ゾーン610の回数で除算してパーセンテージを算出し、同様に閾値で区切って回数に色を割り当てる方法である。前者の方法では、絶対的な回数の大小を色で表示することができ、後者の方法ではある画像データにおけるある興味度について各商品ゾーン610の相対的な比較が可能になる。
図15では、画像データに重畳して2つの商品ゾーン610が図示されており、それぞれが異なる色で表示されている。図では白黒であるが実際にはカラーで表示される。また、画像データの右端には色ガイド620が表示される。色ガイド620は色がどのくらいの回数を表すかを示す。したがって、閲覧者Yは商品ゾーン610の色と色ガイド620を比較して、各商品ゾーン610に指定した興味度のアクションがどのくらいの回数、カウントされたかを視覚的に把握できる。
また、図15に示すように、商品ゾーン610に回数を重畳して表示してもよい。閲覧者Yは回数そのものを把握できる。
なお、商品ゾーン610の原点、幅、高さは分布テーブルに登録されているため、表示制御部73は画像データに商品ゾーン610を示す矩形を描画できる。領域602を半透明にして描画してもよい。これにより、閲覧者Yは色の付された商品ゾーン610にどのような商品があるかを把握できる。
2.操作2
商品ゾーン610を閲覧者Yが指定して、情報端末7はその商品ゾーン610で各興味度がカウントされた回数を視覚的に表示する。図16は操作2に対し情報端末7が表示する画面例を示す図の一例である。
2.1 閲覧者Yは、店舗を撮像した画像データをディスプレイ508に表示する。また、閲覧者Yは来客者の興味度を知りたい箇所(商品ゾーン)をポインティングデバイス640で指定する。受付部72は閲覧者Yが指定した位置の座標を受け付ける。
2.2 情報視覚化部74は、受け取った座標を含む又はその座標に最も近い商品ゾーン610を分布テーブルから探し出す。
2.3 情報視覚化部74は、特定した商品ゾーン610に対応する興味度と回数の組を分布テーブルから取得する。表8の例で閲覧者Yがx1,y1で指定される商品ゾーン610を取得した場合、興味度0:52、興味度1:23、興味度2:13、興味度3:11、興味度4:7、興味度5:4、という興味度と回数の組が取得される。
2.4 情報視覚化部74は、興味度と回数の対応を視覚的に表示する(例えば、ポップアップ表示する)。図16(b)では棒グラフで各興味度の回数が表示されている。興味度0〜5には予め色が対応付けられている。各興味度の棒グラフにおける高さに回数の違いが反映される。例えば、最も回数が多い興味度の高さがある一定の高さになり、他の興味度のグラフの高さは比例計算で決定される。
また、例えば、各興味度の回数を合計し各回数を除算することでパーセンテージを算出し、相対的な違いをグラフで表示してもよい。図16(b)では円グラフで各興味度の回数が表示されている。これにより、相対的な違いを閲覧者Yが把握しやすくなる。
したがって、操作2によれば、指定された商品ゾーンにおける興味度とその興味度を示した来客者の人数を閲覧者Yが視覚的に把握できる。
3.操作3
画像データの全ての商品ゾーン610の興味度の差異を一覧表示する。情報端末7は商品ゾーン610ごとに興味度と回数の代表値を算出し、視覚的に表示する。図17は操作3に対し情報端末7が表示する画面例を示す図の一例である。
3.1 閲覧者Yは、画像データの全ての商品ゾーン610の興味度の差異を一覧表示する操作を行う。受付部72がこの操作を受け付け、情報視覚化部74は、商品ゾーン610ごとに、来客者が示した多段階の興味度の人数を反映する代表値を所定の計算式により算出する。
計算式の例としては、興味度ごとに重みを付与し回数を乗じて足し合わせる式がある。例えば、興味度が0〜5があるとすると、興味度0の重みは0、興味度1の重みは1、興味度2の重みは2、興味度3の重みは3、興味度4の重みは4、興味度5の重みは5である。興味度0〜5は興味が強いほど数値が大きくなっている。表8の例では、x1,y1で指定される商品ゾーン610について、興味度0×52、興味度1×23、興味度2×13、興味度3×11、興味度4×7、興味度5×4、が算出される。これらの興味度と回数の積の合計が代表値である。
この他、最も頻度が多い回数の興味度と該回数の積(最頻値)、回数が中央値になる興味度と該回数の積(中間値)、回数の合計を6で除算した平均値、最も多い回数の興味度と該回数の積(最大値)を用いてもよい。あるいは、回数との積を求めずに、回数に基づいて興味度を取り出してもよい。
また、これらの代表値の求め方を情報端末7がディスプレイ508に表示して、閲覧者Yに選択させてもよい。
3.2 代表値が算出されたら、情報視覚化部74は、代表値に応じて商品ゾーン610を色に対応させる。色を対応させる方法は、操作1と同様でよい。
3.3 図17に示すように、画像データの5つの商品ゾーン610が代表値に対応した色で表示される。
したがって、操作3によれば、全ての商品ゾーンについて興味度の差異を閲覧者Yは視覚的に把握できる。
<実施例2 商品ゾーンが予め定義されていない場合>
実施例2では表9の解析情報テーブルが得られていることになる。情報視覚化部74は閲覧者Yの操作に応じて解析情報テーブルの商品ゾーン610の座標を使用して、表示制御部73がディスプレイ508に商品ゾーン610を表示する。以下では、閲覧者の3つの操作に対する表示例を説明する。
4.操作4
特定のアクション(興味度)を閲覧者Yが指定して、情報端末7がその興味度に対応する商品ゾーン610を視覚的に表示する。図18は操作4に対し情報端末7が表示する画面例を示す図の一例である。
4.1 閲覧者Yは興味度を選択する。選択方法は操作1で説明した方法と同様でよい。
4.2 情報視覚化部74は選択された興味度が対応付けられた商品ゾーン610の座標を解析情報テーブルから読み出す。情報視覚化部74は商品ゾーン610に興味度に基づいて決定される色を対応付ける。図18に示すように、選択された興味度を有する商品ゾーン610が画像データに重複して表示される。なお、複数の商品ゾーン610が重なっている場合、重なる商品ゾーン610が含まれる範囲をひとつの連続した商品ゾーン610と見なす。
したがって、操作4によれば、指定された興味度が生じた商品ゾーンを閲覧者Yが視覚的に把握できる。
5.操作5
商品ゾーン610を閲覧者Yが指定して、情報端末7がその商品ゾーン610の興味度を視覚的に表示する。図19は操作5に対し情報端末7が表示する画面例を示す図の一例である。
5.1 図19(a)に示すように、ユーザは画像データの中で来客者の興味度を知りたい箇所をポインティングデバイスなどで指定する。受付部72はポインティングデバイス640が入力した位置の座標を取得する。
5.2 閲覧者は取得された座標に最も近い商品ゾーン610を解析情報テーブルから探し出す。該当する商品ゾーン610が2つ以上、存在する場合、図19(b)に示すように情報視覚化部74は、複数の商品ゾーン610を閲覧者Yに提示し、どれか一つの商品ゾーン610を選択させる。図19(c)に示すように、受付部72は1つの商品ゾーン610の選択を受け付ける。表示制御部73は必要に応じて画像データを拡大表示(ズーム・イン)する。
5.3 情報視覚化部74はこのようにして求めた商品ゾーン610に対応する興味度を解析情報テーブルから取得して、興味度によって決まっている色を割り当てる。
5.4 図19(d)に示すように、表示制御部73は商品ゾーン610を割り当てられた色で画像データに表示する。
したがって、操作5によれば、指定された商品ゾーンにおける興味度を閲覧者Yが視覚的に把握できる。
6.操作6
画像データの全ての商品ゾーン610の興味度の差異を一覧表示する。情報端末7は商品ゾーン610ごとに興味度を色で示す。商品ゾーン610が重なっている領域602は、興味度を足し合わせてから色に変換する。図20は操作6に対し情報端末7が表示する画面例を示す図の一例である。
6.1 閲覧者Yは、画像データの全ての商品ゾーン610の興味度の差異を一覧表示する操作を行う。受付部72がこの操作を受け付ける。
6.2 情報視覚化部74は、それぞれの商品ゾーン610に対応する興味度を解析情報テーブルから取得する。商品ゾーン610が重なっている範囲は、重なりに応じた興味度を算出する。この算出方法は図21にて説明される。
6.3 情報視覚化部74は、興味度を色に当てはめてヒートマップを生成する。ヒートマップの作成方法は図21にて後述される。
6.4 図20に示すように、表示制御部73は画像データにヒートマップを重畳して表示する。図20では、同心円状の色の濃度が徐々に変化する(グラデーション)商品ゾーン610が表示されている。色が濃いほど商品ゾーン610が重なっていることを示す。
したがって、操作6によれば、色の濃さによって来客者が各商品ゾーン610にどのくらい興味を示したかを閲覧者Yが視覚的に判断できる。
<ヒートマップの作成>
図21を用いてヒートマップの作成方法を説明する。図21は、ヒートマップの作成に関し重み付けを説明する図の一例である。
商品ゾーン610にグラデーションをレンダリングするための重み付け値を情報視覚化部74が設定する。図21に示すように、商品ゾーン610である矩形の中心点(cx1, cy1)を算出し、この点を中心とし近傍に一定間隔に格子点を設定する。格子点数を一定とするため、間隔は商品ゾーン610のサイズに応じた値とする。これにより、商品ゾーン610の大きさに応じて描画するグラデーションのサイズに差を生じさせることができる。そして、各格子点に、興味度に応じた値であって、中心を最大値となる重み付け値を設定する。
また、ある商品ゾーン610と重なり合う別の商品ゾーン610がある場合、各々の中心点の平均の中心点(cxn, cyn )を算出する。cxn=cx1+cx2、cyn=cy1+cy2である。同様に、中心とし近傍に一定間隔に格子点を設定する。そして、平均の中心点が相対的に高値となるように重み付け値を算出する。この時の重み付け値は商品ゾーン610が1つの場合よりも大きい。例えば、着目している商品ゾーン610と重複する全ての商品ゾーン610の数をカウントして、この数と平均の興味度の積に応じた最大値を平均の中心点に設定する。なお、各商品ゾーン610は1度しか重複する数にカウントされない。
したがって、興味度が高く重複している商品ゾーンほど、中心点の重み付け値が高値となる。中心点の周りの格子点は、中心点から離れるほど小さくなる重み付けが与えられる。これにより、商品ゾーン610をグラデーションで表示でき、商品ゾーン610が集まる部分を濃く描画できる。
なお、中心点の周囲に格子点を設定するのでなく、中心点を中心にガウス関数などによりなだらかな色の変化を与えてもよい。
また、ある商品ゾーン610と重なり合う別の商品ゾーン610がある場合、それぞれの格子点の重み付け値をそのまま合計してもよい。格子点が完全に一致することは少ないので着目している商品ゾーン610の格子点と最も近い格子点の重み付け値を合計する。この場合、重み付け値に応じて濃度が高い色が設定される。多くの商品ゾーン610が重なるほど格子点の重み付け値が大きくなるので、商品ゾーン610が多くある場所を濃く表示できる。
実施例1〜3で説明した画像処理システム200が例えば小売店に配置された場合を想定する。撮像装置1は定期的に周囲を撮像しているがスタッフが店内で何らかの注目すべき事象に気づく場合がある。例えば、来客者同士のトラブル、特異な行動をする客、病人発生、商品の散乱、施設の損壊、などがある。これらの事象は撮像装置1により撮像されているが、こういった事象は閲覧者Yも把握しておくべきことである。このため、スタッフがこういった事象に遭遇した場合、「今、起こったこと」を後から閲覧者Yが画像で確認したい場合が少なくない。
閲覧者Yが後から画像を確認するためには、事象に気づいた時刻や場所などを記憶しておくかメモしておくこと等が必要である。しかし、このような作業は忙しいスタッフにとって面倒である。そこで、スタッフ等が撮像を継続している撮像装置1の画像データに事象が起こった旨を記録することが考えられる。例えば、ある時間範囲の画像データに事象が起こった旨を記録しておけば、後から事象が起きた頃の画像を容易に探し出せる。
しかし、事象が起こった旨を記録する権限があるのは撮像装置1の操作権限を持つ者(一般には店舗の店長や本社のマネージャ等。本実施例では閲覧者Y。)のみに限られ、店舗で実際に事象に遭遇する機会が最も多い一般のスタッフはそもそも撮像装置1の操作権限がない。スタッフにこのような権限が与えられていれば、スタッフ又は閲覧者Yが画像の閲覧時に画像データに事象が起こった旨を記録することはできるが、リアルタイムに事象が起こった旨を記録することは困難であった。
そこで、本実施例では、撮像装置1の撮像中に注目すべき事象が発生した場合、スタッフが画像管理装置5に通知することで、事象が写った特定の画像データに画像管理装置5が、事象が起こった旨を記録する。このような構成にすれば、スタッフはリアルタイムに事象が起こった旨を画像データに記録できる。したがって、閲覧者Yは後から記録を検索するなどして、事象が写っている画像データに速やかにアクセスできる。
<システム構成について>
図22は、画像処理システム200の概略構成図の一例である。なお、図22の説明では、図2において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
図22にはスタッフが操作するスタッフ端末4が記載されている。スタッフZは、店舗の職員、従業員、部員、社員、アルバイト、パートなどである。スタッフZに閲覧者Yや設置者Xが含まれてよい。スタッフ端末4は、可搬性が高い情報処理装置であり、例えば、スマートフォン、タブレット端末、ノートPC、ウェアラブルPC、ゲーム機、携帯電話、PDAなどであるが、これらに限られるものではない。また、可搬性が高い必要はなく据え置き型の情報処理装置をスタッフZが使用してもよい。
スタッフ端末4では、スタッフ端末4用のプログラムが動作している。スタッフ端末4用のプログラムは、例えばブラウザソフトウェアや画像処理システム200に専用のアプリケーションソフトウェアである。専用のアプリケーションソフトウェアは画像管理装置5のIPアドレス等を保持しており画像管理装置5と通信する。また、ブラウザソフトウェアの場合、スタッフZの操作によりスタッフ端末4が画像管理装置5と通信する。
スタッフ端末4は、ユーザの操作を受け付けて事象記録要求を画像管理装置5に送信する。事象記録要求とは、事象が起こった旨の記録の要求である。詳細は後述される。
図23は、スタッフ端末4のハードウェア構成図の一例を示す。スタッフ端末4は、スタッフ端末4の全体の動作を制御するCPU401、IPL(Initial Program Loader)等のプログラムを記憶したROM402、CPU401のワークエリアとして使用されるRAM403を有する。また、スタッフ端末4用のプログラム430や画像データ等の各種データを記憶するフラッシュメモリ404、CPU401の制御にしたがってフラッシュメモリ404に対する各種データの読み出し又は書き込みを制御するSSD(Solid State Drive)405を有する。また、フラッシュメモリ等の記録メディア406に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ407、スタッフ端末4に対する各種操作を受け付ける操作ボタン408、スタッフ端末4の電源のON/OFFを切り換えるための電源スイッチ409、通信ネットワークを利用して無線又は有線でデータ伝送をするためのネットワークI/F(Interface)417を有する。
また、スタッフ端末4は、CPU401の制御にしたがって被写体を撮像して画像データを取得する内蔵型のカメラ412、このカメラ412の駆動を制御する撮像素子I/F413、音声を入力する内蔵型のマイク414、音声を出力する内蔵型のスピーカ415を有する。また、CPU401の制御にしたがってマイク414及びスピーカ415との間で音声信号の入出力を処理する音声入出力I/F416、CPU401の制御にしたがってディスプレイ450に画像データを伝送するディスプレイI/F417、各種の外部機器を接続するための外部機器接続I/F418を有する。また、GPSの衛星からの電波を受信して位置を検出するGPS受信装置419、スタッフ端末4に生じる加速度を検出する加速度センサ420、携帯電話網を介して音声通信・データ通信を行うLTE通信部421、及び、上記各構成要素を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン422を有する。
ディスプレイ450は、液晶や有機ELによって構成され、ユーザが操作するメニュー、撮像した映像、メッセージなどを表示する表示領域である。ディスプレイI/F417は、ディスプレイ450のタッチパネル機能に対応している。
カメラ412は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)等が用いられる。
外部機器接続I/F418には、USB(Universal Serial Bus)ケーブル等によって、各種の外部デバイスを装着可能である。例えば、Bluetooth(登録商標)などの近距離無線通信装置を接続できる。
また、フラッシュメモリ404にはスタッフ端末4用のプログラム430が記憶されている。スタッフ端末4用のプログラム430はネットワークI/F411によりプログラム配信用のサーバからダウンロードされる。
なお、記録メディア406は、スタッフ端末4に対して着脱自在な構成となっている。また、上記のプログラム430は、記録メディア406に記録された状態で配布される場合がある。
<機能について>
図24は、本実施例の画像処理システム200の一部を構成する、画像管理装置5、情報端末7及びスタッフ端末4の各機能ブロック図である。なお、撮像装置1と通信端末3については省略した。本実施例において、図13において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
図24の画像管理装置5は事象記録部57を有している。事象記録部57は、図5に示されているCPU501の処理によって実現され、スタッフ端末4からの事象記録要求を受信すると画像管理テーブルに事象フラグを設定する。
Figure 2017162432
表10は、本実施例の画像管理DB5003に記憶される画像管理テーブルを示す。表10の画像管理テーブルでは、新たに事象フラグのフィールドを有している。事象フラグにはON又はOFF(OFFの場合は何も記録されなくてよい)が設定される。ONの場合には、更にスタッフIDとカテゴリIDが設定される。スタッフIDはスタッフZを特定する機能を有する情報であり、スタッフ特定情報と称してもよい。また、カテゴリIDは後述する事象のカテゴリを特定する機能を有する情報であり、事象分類情報と称してもよい。
例えば、画像IDがP0001の事象フラグには「ON:S001,C001」と設定されているので、スタッフIDがS001のスタッフZが、カテゴリIDがC001の事象フラグを設定したことが示されている。なお、1つの画像データに複数のスタッフZが事象フラグを設定できる。
<<スタッフ端末4の機能について>>
スタッフ端末4は、図示するように送受信部41、受付部42、表示制御部43、事象記録要求部44、及び、記憶・読出部49を有する。これら各部は、図23に示されている各構成要素のいずれかが、フラッシュメモリ404からRAM403上に展開されたスタッフ端末4用のプログラムに従ったCPU401からの命令によって動作することで実現される機能又は手段である。
また、スタッフ端末4は、図23に示されているROM402、RAM403、及びフラッシュメモリ404の1つ以上によって構築される記憶部4000を有している。記憶部4000にはスタッフ端末4用のプログラム430が記憶されている。また、スタッフIDや認証のためのパスワードが記憶されていてもよい。
スタッフ端末4の送受信部41は、主に、図23に示されているネットワークI/F411及びCPU401の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、スタッフ端末4が画像管理装置5と通信する場合でも、「送受信部41を介して」という記載を省略する場合がある。また、スタッフ端末4はLTE通信部421を使用して通信してもよい。
スタッフ端末4の受付部42は、主に、図23に示されている操作ボタン408及びCPU401の処理によって実現され、スタッフZからの操作入力を受け付ける。
表示制御部43は、主に、図23に示されているディスプレイI/F417及びCPU401の処理によって実現され、CUI(Character User Interface)やGUI(Graphical User Interface)と呼ばれる画面を作成しディスプレイ450に表示させる。
事象記録要求部44は、主に、図23に示されているCPU401の処理によって実現され、ユーザが所定の操作を行った場合、事象記録要求をサーバに送信する。事象記録要求には、事象が起こった旨の記録の要求に加え、撮像装置1の端末ID、事象開始情報、事象終了情報、スタッフID、及びカテゴリIDが含まれることが好ましい。事象開始情報は事象フラグの設定を開始する時刻に関する情報であり、事象終了情報は事象フラグの設定を終了する時刻に関する情報である。
記憶・読出部49は、主に、図23に示されているCPU401の処理によって実現され、記憶部4000に各種データを記憶したり、記憶部4000から各種データを読み出したりする。
<事象の記録について>
図25は店舗における画像処理システム200の利用形態を説明する図の一例である。店舗に撮像装置1が設置され、店内の様子を定期的に撮像している(定点観測している)。また、店内ではスタッフ端末4を携帯するスタッフZが作業している。上記のように、撮像された画像データは画像管理テーブルに登録される。図25には表10の画像データのファイル名を除く項目が示されている。すなわち、図25では3つの画像データが撮像された様子を模式的に示しており、それぞれに来客者Gが撮像されている。3つの画像データ601の1つに、端末ID、画像ID、撮像日時、及び、事象フラグが示されている。撮像中又は撮像後、店舗のバックヤードや店舗外で閲覧者Yが画像データを閲覧できる。
次に、図26に示すように、店舗内で注目すべき事象が発生したものとする。図26は、来客者Gが倒れるという事象が発生した店舗を示す図である。スタッフZはこの事象に遭遇し注目すべき事象であると判断する。
来客者Gが倒れる様子は撮像されているので事象自体は画像データに記録されている。図26では4つの画像データが撮像されているが、4つめの画像データには倒れた来客者Gが撮像されている。この事象を閲覧者Yが閲覧する場合、事象が捉えられている画像データを容易に探し出せることが好ましい。そこで、スタッフZは、店舗内で事象が写っている画像データに事象が写っていることを示す印(事象フラグ)を付与する。
図27を用いて、スタッフによる事象記録のためのスタッフ端末4の操作について説明する。この操作により事象記録要求が画像管理装置5に送信される。図27は、スタッフ端末4のディスプレイ450に表示される事象記録画面680の一例を示す。事象記録画面680はスタッフ端末4用のプログラム430が生成する画面の1つである。事象記録画面680は、カメラ番号611、カテゴリ選択欄612、開始時間欄613、終了時間欄614、開始ボタン615、及び、終了ボタン616を有する。
カメラ番号611は、撮像装置1を特定するための番号である。スタッフZは事象が起きた場所を撮像している撮像装置1のカメラ番号611を指定する。カメラ番号611は端末IDと同じでもよいし異なっていてもよい。異なっている場合は、カメラ番号611と端末IDが対応付けられたテーブルを用いて画像管理装置5がカメラ番号611を端末IDに変換する。
カテゴリ選択欄612は、事象のカテゴリをスタッフZが選択するための欄である。カテゴリの一例は、来客者同士のトラブル、特異な行動をする来客者、病人発生、商品の散乱、施設の損壊、その他などである。
開始時間欄613は、スタッフZが事象記録要求を画像管理装置5に送信した時(又は受信した時)を基準に、事象フラグの設定を遡る時間をスタッフZが指定するための欄である。スタッフZが事象を発見した時はすでに事象が起きた後なので、事象は事象記録要求よりも前に始まっている。このため、スタッフZはどのくらい前に事象が起きたかを推定して開始時間欄613に設定する。開始時間欄の時間は事象開始情報に相当する。
終了時間欄614は、スタッフZが終了ボタン616を押下して事象記録終了を画像管理装置5に送信した時(又は受信した時)を基準に、事象フラグの設定を延長する時間をスタッフZが指定するための欄である。スタッフZが事象の終了を確認した時に終了ボタン616を押下することができればよいが、スタッフZは作業に追われて終了ボタン616を押下することを忘れる場合がある。このため、スタッフZは開始ボタン615の押下後、どのくらい記録すれば事象を記録し終わるか推定して終了時間欄614に設定する。これにより、早めに終了ボタン616を押下しておくことができるので、終了ボタン616の押し忘れを抑制できる。終了時間欄の時間は事象終了情報に相当する。
開始ボタン615は、スタッフZが事象記録要求を画像管理装置5に送信するためのボタンである。終了ボタン616は、スタッフZが事象記録終了を画像管理装置5に送信するためのボタンである。なお、スタッフが終了ボタン616を押し忘れても、画像管理装置5の事象記録部57は事象記録要求から所定の時間の経過後に自動的に終了ボタン616が押下されたとみなす。
変形例として、スタッフ端末4は、開始ボタン615の押下で開始時間欄613と終了時間欄614の両方を画像管理装置5に送信してよい。これにより、スタッフZは1回の操作で事象開始情報と事象終了情報を送信できる。この場合、終了ボタン616はなくてもよいし、終了ボタン616は即座に記録を終了するためのボタンとして用意されていてもよい。また、スタッフZはスタッフ端末4用のプログラム430を起動させた際に画像管理装置5にログインしている。このため、事象記録要求と事象記録終了にはスタッフIDが含まれている。
図28は、事象記録要求により設定される事象フラグを模式的に説明する図の一例である。画像管理装置5の事象記録部57は事象記録要求に基づいて画像管理テーブルの事象フラグにONを設定し、事象記録終了に基づいてONの設定を終了する。事象フラグはOFFが初期状態(デフォルト値)である。事象開始情報により「13:52:24」という時刻が指定され、事象終了情報によりそれから6秒後が指定されたものとする。
この場合、図28に示すように「13:52:24」〜「13:52:29」の画像データに対し事象記録部57が事象フラグにONを設定する。すなわち、図28で太い枠で強調された画像データにはONの事象フラグが設定される。また、図28には記載がないがスタッフIDとカテゴリIDが設定されている。
したがって、閲覧者Yは事象フラグがONの画像データを検索することで、事象が写っている画像データを速やかに閲覧できる。また、スタッフZが事象に気づいた時から過去に遡って画像データを閲覧できる。
<画像管理装置の動作について>
図29は、画像処理システム200の全体的な動作手順を示すシーケンス図の一例である。
S1:撮像装置1は画像管理装置5からの指示により定期的に周囲を撮像する。
S2:撮像装置1の接続部15は画像データを通信端末3に送信する。
S3:通信端末3の送受信部31は画像データを画像管理装置5に送信する。
S4:画像管理装置5の記憶・読出部は画像管理テーブルに画像データを登録する。ステップS1〜S4は繰り返し実行される。
S5:スタッフZの操作を受け付けて、スタッフ端末4が事象記録要求を画像管理装置5に送信する。
S6:画像管理装置5の事象記録部57は画像管理テーブルの事象フラグにONを設定する。詳細は図30にて説明される。
S7:スタッフ端末4が事象記録終了を画像管理装置5に送信する。これにより、事象フラグにONを設定することが終了される。詳細は図30にて説明される。
図30は、画像管理装置5が画像を管理する手順を示すフローチャート図の一例である。図30の処理は、例えば、画像データの撮像ごとに繰り返し実行される。
画像管理装置5は定期的に撮像装置1に撮像させるものとする。このため、画像管理装置5は撮像時刻になったかどうかを判断する(S10)。ステップS10の判断がNoの場合、図30の処理は終了する。
ステップS10の判断がYesの場合、画像管理装置5は撮像装置1に対し画像の撮像を要求する(S20)。撮像装置1が撮像した画像データは画像管理装置5に送信される。
次に、事象記録部57は事象記録要求を受信したか否かを判断する(S30)。事象記録要求が受信されない場合、図30の処理は終了する。
ステップS30の判断がYesの場合、事象記録部57は事象記録終了を受信したか否かを判断する(S40)。事象記録終了には終了時間欄614がゼロの場合とそうでない場合がある。
終了時間欄614がゼロの事象記録終了を受信した場合(S40のYes)、図30の処理は終了する。
終了時間欄614がゼロの事象記録終了を受信してない場合、又は、事象記録終了を受信していない場合(S40のNo)、終了予定時間が経過したか否かを判断する(S50)。この終了予定時間は、ゼロ以外の終了時間欄614で指定される時間、又は、スタッフZが終了ボタン616を押し忘れた場合に記録開始から自動で設定されている時間である。ステップS50の判断がYesの場合、図30の処理は終了する。
ステップS50の判断がNoの場合、事象記録部57は画像データの事象フラグにONを設定する(S60)。事象記録部57は撮像された直後の画像データの事象フラグをONに設定すると共に、記録開始情報で指定された過去の画像データの事象フラグもONに設定する。
このように、スタッフZはスタッフ端末4を使用して事象記録要求を画像管理装置5に送信でき、閲覧者Yは事象フラグがONの画像データを検索することで、事象が写っている画像データを速やかに閲覧できる。
<ジェスチャによる事象が起こった旨の記録の要求>
上記の本実施例ではスタッフZがスタッフ端末4を操作する必要があるため、事象が起こった旨の記録を要求するために時間がかかってしまう傾向がある。そこで、スタッフZがジェスチャにより事象フラグをONに設定できれば便利である。事象に遭遇したスタッフZは撮像装置1に向かって予め定められているジェスチャを行う。
この場合のジェスチャとしては、日常的な作業では行わない動作であればよい。例えば、両手を垂直方向に挙げて左右に90°開く動作を繰り返す、頭上に挙げた両手で円を形成するなどである。あるいは、特定の道具(旗など)を決まった方向に動かす、あるいはライトを点灯して撮像装置1に向ける、などでもよい。撮像装置1は全天球画像を撮像するので、スタッフZは事象の撮像の邪魔にならない位置でジェスチャを行うことができる。また、事象が出現している場所から離れた位置でスタッフZがジェスチャする場合、スタッフZは事象が出現している場所を指し示す動作を行う。この動作がジェスチャとなることで、事象が起こった旨の記録の要求をスタッフZが送信でき、事象の場所をスタッフZが知らせることができる。
スタッフZのジェスチャが写っている画像データは画像管理装置5に送信される。つまり、事象が出現している全天球の画像データにスタッフZが写りこんだ状態で画像管理装置5に送信される。画像解析部55は画像を解析しスタッフZのジェスチャを検出する。予め定められたジェスチャが映っている場合、事象記録部57は画像管理テーブルの事象フラグにONを設定する。なお、画像データを過去にどの程度遡り、どのくらいでONの設定を終了するかは予め事象記録部57に登録されているものとする。
図31は、画像管理装置5がジェスチャを検出して事象フラグをONに設定する手順を示すフローチャート図の一例である。図31の処理は、画像データの撮像中、繰り返し実行される。
まず、画像管理装置5の送受信部51は画像データを受信する(S10)。
次に、画像管理装置5の画像解析部55は画像データを解析し、ジェスチャが含まれているか否かを判断する(S20)。ジェスチャが含まれていない場合、処理はステップS40に進む。
ジェスチャが検出された場合、事象記録部57は予め定められた所定時間前まで画像管理テーブルの事象フラグをONに設定する(S30)。なお、どの撮像装置1が撮像したかはジェスチャが含まれる画像データを送信した撮像装置1として決定される。また、カテゴリIDやスタッフIDは登録されなくてもよい。あるいは、画像解析部55が顔認識を行ったり名札などを文字認識したりしてスタッフZを特定してもよい。また、スタッフZが事象のカテゴリに応じてジェスチャを変えることなどにより、事象記録部57はカテゴリIDを特定できる。
ジェスチャが検出されない場合(S20のNo)、事象記録部57は予め定められた所定時間が経過したか否かを判断する(S40)。所定時間が経過するまでは、引き続き、画像管理テーブルの事象フラグをONに設定する(S50)。
所定時間が経過した場合(S40のNo)、事象フラグをONに設定することなく図31の処理は終了する。
このように、スタッフZがスタッフ端末4を操作しなくてもジェスチャにより事象が起こった旨の記録を要求できる。
<ジェスチャで事象記録要求を送信する>
また、スタッフZはスタッフ端末4を使ったジェスチャで事象記録要求を画像管理装置5に送信してもよい。すなわち、スタッフ端末4とジェスチャの両方が使用される。
図32は、スタッフ端末4と画像管理装置5の間で行われる動作を示すシーケンス図の一例である。
S1:まず、スタッフZは事象に遭遇すると、スタッフ端末4を用いたジェスチャを行う。例えば、スタッフ端末4を左右に振る、上下に振る、大きく円を描くように回す、等を行う。これらのジェスチャにより生じる時系列の加速度の変化を加速度センサ420が検出する。スタッフ端末4の事象記録要求部44は予め定められた加速度のパターンが検出されると、事象記録要求を送信するためのジェスチャが検出されたと判断する。
S2:スタッフ端末4の事象記録要求部44は事象記録要求を画像管理装置5に送信する。この事象記録要求には。スタッフIDが含まれるが、端末ID、事象開始情報、事象終了情報、及びカテゴリIDは含まれない。
S3:画像管理装置5の送受信部51は事象記録要求を受信し、事象記録部57は受信した前後の時間(前後時間)を決定する。例えば、前後5分、受信する前に3分・受信後に5分などのように決定する。これにより、事象開始情報、事象終了情報が不要になる。
S4:次に、画像解析部55はステップS3で決定した前後時間の画像データからステップS1のジェスチャを検出する。すなわち、撮像装置1が複数ある場合に、ジェスチャが検出された撮像装置1を特定できる。
S5:画像管理装置5の事象記録部57は、特定した撮像装置1が撮像した画像データに対応付けて事象フラグをONに設定する。なお、前後時間より事象フラグをONに設定する画像データを特定でき、スタッフIDも送信されている。
したがって、スタッフZは事象記録画面680を操作しなくても事象記録要求を送信できる。事象開始情報、事象終了情報を送信できなくてもおよその前後時間を決定し、スタッフIDも登録できる。また、ジェスチャの種類によってカテゴリIDを登録することも可能である。
<周囲の音量の変化による事象記録要求の送信>
スタッフZが主体的に事象記録要求を送信する他、環境の変化を撮像装置1等が検出して事象記録要求を画像管理装置5に送信してもよい。例えば、何かの事象が起こった場合、来客者Gが騒いだり大きな音が発生したりする場合がある。そこで、周囲の音量が閾値を超えた場合に、通信端末3が事象記録要求を画像管理装置5に送信する。
図33は、通信端末3が事象記録要求を画像管理装置5に送信するシーケンス図の一例である。
S1:撮像装置1はマイク108を備えているため、常にマイク108で周囲の音を集音している。
S2:また、撮像装置1は定期的に周囲を撮像している。
S3:撮像装置1は撮像前後に集音した音データと共に画像データを通信端末3に送信する。
S4:通信端末3の接続部33は音データと画像データを受信し、例えば受付部32が音データの音量が閾値以上か否かを判断する。
S5:閾値以上の場合、送受信部31は画像データと共に事象記録要求を画像管理装置5に送信する。この事象記録要求には、端末IDが含まれる。事象開始情報、事象終了情報は含まれないが、画像管理装置5はおよその前後時間を決定できる。また、カテゴリIDについては送信されないが、周囲が騒がしかったことを示すカテゴリIDが設定される。
S6:閾値以上の場合、送受信部31は画像データを画像管理装置5に送信する。
このように音量を契機にして事象記録要求を画像管理装置5に送信できるので、スタッフZが事象記録要求を画像管理装置5に送信しなくても事象フラグをONに設定できる。なお、音量の他、建物に生じた振動(地震など)、温度、湿度などを契機としてもよい。
<閲覧について>
図34は、情報端末7のディスプレイ508に表示される閲覧画面690の一例である。閲覧画面690は、メニュー欄627、画像部625、及び、サムネイル部626を有する。メニュー欄627は、カテゴリ指定欄621とスタッフ選択欄622を有する。カテゴリ指定欄621は、閲覧者Yがカテゴリを選択するための欄であり、スタッフ選択欄622は閲覧者YがスタッフZを選択するための欄である。したがって、閲覧者YはカテゴリやスタッフZを指定して事象フラグがONの画像データを検索できる。
また、サムネイル部626にはサムネイル画像623が表示される。事象フラグがONの画像データのサムネイル画像623には、アイコン624が表示される。したがって、閲覧者Yは、事象フラグがONの画像データを検索しなくても、どの画像データの事象フラグがONかを一目で把握できる。
以上説明したように、本実施例の画像処理システム200では、スタッフが事象に遭遇したタイミングで画像データに事象が起こった旨を記録できる。
本実施例では実施例1、2で得られた解析情報テーブルの内容を表示する情報端末7について説明する。実施例1、2により、各商品ゾーン610に対する来客者Gの興味度を多段階に評価した。また、実施例3では来客者の興味の程度をヒートマップなどで表示することができた。しかし、実施例3の表示では、閲覧者Yは来客者Gを閲覧することができなかった。すなわち、店舗内の各商品ゾーン610に対して実際の来客者Gが興味を示している様子を閲覧者Yが視覚的に把握するにはヒートマップと画像データと照らし合わせる必要がある。
そこで、本実施例では、所定の興味度の来客者Gを画像データに配置して表示することができる画像処理システム200について説明する。これにより、閲覧者Yは来客者Gの購買行動をより詳しく解析できるようになる。
なお、本実施例において、画像管理装置5と情報端末7の機能ブロック図は、実施例3の図13と同様でよい。情報端末7の情報視覚化部74は、商品に興味を示している来客者Gを画像データの商品ゾーン610に対応づけて表示する。したがって、画像データ上のどの商品ゾーン610に対してどのように興味を示しているかを閲覧者が把握しやすくなる。具体的には、商品ゾーン610に対して興味を示す来客者G(の画像)が、興味の対象とした商品ゾーン610に重畳して表示される、あるいは、時系列に沿って1つ1つスライドショーで表示される。以下では、いくつかの実施形態に分けて説明する。
<第1実施形態>
第1実施形態では、閲覧者Yは任意の興味度を指定できる。情報端末7は指定された興味度を示した来客者Gを1つの画像データに表示させる。
図35は、来客者が画像データに合成された来客者合成画面660を示す図の一例である。来客者合成画面660には複数の来客者Gが写っている。これらの来客者Gは同じ興味度を示した来客者である。1つの画像データに複数の来客者Gが表示されているのは、情報視覚化部74が来客者Gを合成したためである。以下、このような画像データの表示手順を説明する。
図36は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図36の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。
情報端末7の受付部72は母集団の設定を受け付ける(S10)。母集団とは、解析の対象となる画像データをいう。例えば、端末IDにより撮像装置1が特定され、また、ある時間範囲、ある特定の日、ある曜日などを閲覧者Yが設定できる。
次に、受付部72は興味度の設定を受け付ける(S20)。すなわち、図14に示すユーザインタフェースから閲覧者Yは興味度を指定する。なお、閲覧者Yは複数の興味度を選択できる。
次に、情報視覚化部74は、解析情報テーブルから指定された興味度が対応付けられている画像データを特定する(S30)。表7の解析情報テーブルに示すようにアクション(興味度)に画像IDが対応付けられており、表9の解析情報テーブルに示すようにアクション(興味度)に画像IDが対応付けられている。
次に、情報視覚化部74は人が写っていない無人画像を読み出す(S40)。無人画像は、例えば、開店前に撮像された画像データなどである。なお、無人画像を使う必要はなく、ステップS30で特定した任意の画像データを使ってもよい。
次に、情報視覚化部74は、解析情報テーブルで指定された興味度の領域範囲を取得して画像データから人部分をトリミングする(S50)。人部分は領域範囲と同じものである。解析情報テーブルには人が検知されている領域を特定できる領域範囲が登録されているので、人が写っている矩形の人部分をトリミングできる。
次に、情報視覚化部74は、無人画像にトリミングした人部分を合成する(S60)。この合成は、領域範囲で指定される場所に単に人部分を重畳する(又は配置する)処理でよい。撮像装置1は同じ範囲の画像データを撮像しているので、合成しても各来客者Gの背景は同じであるため違和感が生じにくい。
情報視覚化部74は、1つの無人画像に一人以上の来客者Gが写っている画像データを表示する(S70)。これにより、図35の画像データが表示される。画像データにはある興味度の来客者Gが実際に写っているので、閲覧者はどのような来客者G(男女、年齢層、服装など)がこの興味度を示したかを確認できる。また、どの場所に来客者Gが多い又は少ないなどを確認できる。なお、図14で閲覧者Yが複数の興味度を選択した場合、第5実施形態又は第6実施形態のように各来客者Gが興味度に応じて色分けして表示されることが好ましい。
<第2実施形態>
第2実施形態でも閲覧者Yが任意の興味度を指定できる点は同じであるが、情報端末7は指定された興味度を示した来客者Gの画像データを1つ1つ表示させる。
図37は、情報端末7がディスプレイ508に表示した画像データ601を示す図である。図37では同じ興味度を示した来客者Gが写っている画像データが時系列に表示される。なお、画像データに複数の来客者Gが写っている場合、1つの画像データに複数の来客者Gが表示される。図37では再生ボタン641、早送りボタン643、及び、巻き戻しボタン642が表示されている。閲覧者Yは再生ボタン641を押下して次の画像データを表示させ、早送りボタン643で自動的に次々と画像データを表示させ、巻き戻しボタン642で次々と時間的に前の画像データを表示させる。以下、このような画像データの表示手順を説明する。
図38は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図38の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10〜S30の処理は図36と同様である。
ステップS40では、情報視覚化部74は画像データを時系列にソートする(S40)。
以降は、受付部72が受け付けた操作に応じて、表示制御部73が画像データを切り替えてディスプレイ508に表示する(S50)。
したがって、画像データには一度に撮像された来客者Gしか写っていないので、閲覧者Yは各来客者Gを解析しやすい。また、時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。
<第3実施形態>
第3実施形態では、閲覧者Yが興味を持っている商品ゾーン610に対し、興味を示した来客者Gを表示させる。
まず、図39を用いて閲覧者の操作とディスプレイ508に表示される画像データを説明する。図39は、閲覧者が行う解析操作を説明する図の一例である。
1.図39(a)に示すように、閲覧者Yは商品ゾーン610をポインティングデバイス640などで指定する(クリックする)。この商品ゾーン610は、どのくらいの数の来客者Gがどの程度の興味度を示したかを閲覧者Yが知りたい商品ゾーン610である。
2.図39(b)に示すように、情報端末7はクリックされた位置を含む商品ゾーン610をディスプレイ508に表示する。
3.図39(c)に示すように、複数の商品ゾーン610がある場合、閲覧者Yは1つの商品ゾーン610をマウスなどで選択する。
4.図40に示すように、情報端末7は、この商品ゾーン610に興味を示した来客者Gを1つの画像データに合成した来客者合成画面660を表示する。この来客者合成画面660によれば、閲覧者Yは商品ゾーン610ごとにどのくらいの来客者Gが興味を示したかを把握できる。図40の来客者合成枠670は複数の来客者Gの外接矩形であるが、この来客者合成枠670が大きいほど1つの商品ゾーン610に興味を示した来客者Gの場所に広がりがあることになる。よって、閲覧者Yは狙い通りの集客が行われているかどうかなどを判断して商品の配置を換えたりすることができる。なお、来客者合成枠670の形状は円形や多角形などでよく、その形状は限定されない。
以下、このような画像データの表示手順を説明する。
図41は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図38の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10の処理は図38と同様である。
次に、受付部72は任意の画像データの場所の指定を受け付ける(S20)。任意の画像データは無人画像でよいが、画像データの撮像範囲は同じなのでどの画像データでもよい。
次に情報視覚化部74はステップS20の場所を含む商品ゾーン610を特定する(S30)。解析情報テーブルには対象ゾーンの座標が登録されているため、ステップS20の場所を含む商品ゾーン610を特定できる。
情報視覚化部74は複数の商品ゾーン610を特定したか否かを判断する(S40)。複数ある場合は、表示制御部73が複数の商品ゾーン610を画像データに強調して表示し、受付部72が1つの商品ゾーン610の選択を受け付ける(S50)。
次に、情報視覚化部74は、選択された商品ゾーン610に対応付けられている領域範囲と画像データを特定する(S60)。上記のように解析情報テーブルから商品ゾーン610に対応付けられている領域範囲を特定でき、この領域範囲を有する画像データを特定できる。以降のステップS70〜S100の処理は図36のステップS40〜S70と同様でよい。
このように、閲覧者Yが知りたい商品ゾーンに対し興味を示した来客者を表示できるので、閲覧者Yはどのような来客者がどのくらい興味を示したかを解析できる。
<第4実施形態>
第4実施形態も第3実施形態同様に、閲覧者Yが興味を持っている商品ゾーン610に対し、興味を示した来客者Gを表示させる。しかし、第4実施形態では、情報端末7は指定された商品ゾーン610に興味度を示した来客者Gの画像データを1つ1つ表示させる。
図42は、第4実施形態で表示される画像データの生成方法を説明する図の一例である。
1.図42(a)の画像データの生成方法は図40と同様である。図42(a)では閲覧者Yが指定した商品ゾーン610が表示されているが、これはなくてもよい。
2.次に、図42(b)に示すように、情報端末7は商品ゾーン610に興味を示した来客者Gが占める領域範囲の外接矩形を算出する。これが図40の来客者合成枠670である。
3.図42(c)に示すように、情報端末7は来客者合成枠670を強調して表示する。
4.図43は、同じ商品ゾーン610に興味度を示した来客者Gが写っている画像データが時系列に来客者合成枠670と共に表示される図の一例である。
なお、画像データに複数の来客者Gが写っている場合、複数の来客者Gが表示される。ある商品ゾーン610に対し興味を示した来客者Gのうち、一度に撮像された来客者Gしか表示されないので、閲覧者Yは各来客者Gを解析しやすい。また、時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。なお、図43では、来客者合成枠670の外に来客者Gが写っている場合があるが、来客者合成枠670があるので閲覧者は、来客者合成枠670の外の来客者Gを無視できる。また、来客者合成枠670内の来客者Gのみをトリミングして無人画像に配置してもよい。
以下、このような画像データの表示手順を説明する。
図44は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図44の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。ステップS10〜S60の処理は図41と同様である。
ステップS70では、情報視覚化部74は画像データを時系列にソートする(S70)。
以降は、受付部72が受け付けた操作に応じて、表示制御部73が画像データを切り替えてディスプレイ508に表示する(S80)。なお、この時、表示制御部73は来客者合成枠670を表示する。
したがって、閲覧者Yはある商品ゾーン610に興味を示した来客者Gを個別に解析しやすい。また、来客者合成枠670の中で時間と共に来客者Gがどのように移動したかや、どのような来客者Gが多いかを解析できる。
<第5実施形態>
第5実施形態では、第3実施形態において来客者Gを興味度で色分けして表示する画像処理システムを説明する。
図45は、ディスプレイ508に表示される画像データを説明する図の一例である。図45では各来客者Gが、興味度によって異なる色で表示されている。色分けするまでの処理は第3実施形態と同様でよい。
図46は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図46の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。まず、図46はステップS85を除き図41と同様である。
ステップS85では、情報視覚化部74は人部分を興味度に応じて着色する(S85)。表7の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられており、表9の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられている。これにより、図45に示すように興味度によって異なる色で来客者Gを表示できる。なお、人部分は矩形領域なので、図45のように人型に表示することは困難な可能性がある。この場合、表示制御部73は各人部分に半透明の処理を施すなどが好ましい。
したがって、ある商品ゾーン610に対し複数の来客者Gが表示されても、閲覧者Yは各来客者Gの興味度を判別しやすくなる。
<第6実施形態>
第6実施形態では、第4実施形態において来客者Gを興味度で色分けして表示する画像処理システムを説明する。
図47は、ディスプレイ508に表示される画像データを説明する図の一例である。図47では各来客者Gが、興味度によって異なる色で表示されている。色分けするまでの処理は第4実施形態と同様でよい。
図48は情報視覚化部74が画像データに来客者Gを合成する手順を示すフローチャート図の一例である。図48の処理は、例えば閲覧者Yが画像を解析するための操作を行うとスタートする。まず、図48はステップS80を除き図44と同様である。
ステップS80では、情報視覚化部74は閲覧者の操作を受け付けて、人部分を興味度で着色し、切り替えて表示する(S80)。表7の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられており、表9の解析情報テーブルに示すように領域範囲にはアクション(興味度)が対応付けられている。これにより、図47に示すように興味度によって異なる色で来客者Gを表示できる。
したがって、ある商品ゾーン610に対し興味がある来客者Gがどのくらいの興味度かを、閲覧者Yは一人ずつ(一画像データずつ)解析できる。また、時間的にどのように変化するかを解析できる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、上記の実施形態では、画像管理装置5が人を検出したり、アクションを判断したが、情報端末7が人を検出したり、アクションを判断してもよい。また、上記の実施形態では情報端末7が商品ゾーン610の色を決定していたが、商品ゾーン610の色を画像管理装置5が決定してもよい。画像管理装置5が第5実施例の処理を行ってもよい。また、情報端末7と画像管理装置5が一体の情報処理装置が本実施形態で説明された処理を一台で実行してもよい。また、画像管理装置5が有する機能の全て又は1以上を情報端末7が有していてよく、情報端末7が有する機能の全て又は1以上を画像管理装置5が有していてもよい。
また、以上の実施例で示した図6、13、24などの構成例は、撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。
また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。
なお、人物検出部52は人検出手段の一例であり、画像解析部55は動作判断手段の一例であり、評価部56は評価手段の一例であり、表示制御部73は表示手段の一例であり、ディスプレイ508は表示装置の一例である。商品ゾーン610は所定領域の一例であり、領域602は人領域の一例であり、受付部72は受付手段の一例であり、事象記録部57はフラグ設定手段の一例である。
1 :撮像装置
3 :通信端末
5 :画像管理装置
7 :情報端末
44 :事象記録要求部
51 :送受信部
52 :人物検出部
55 :画像解析部
56 :評価部
57 :事象記録部
73 :情報視覚化部74
200 :画像処理システム
特許第4972491号公報
中島慶人著、「監視システムのための画像処理による移動人物の検出と認識に関する研究」、総合研究大学院大学学位授与論文、2006年9月29日

Claims (20)

  1. 1つ以上の情報処理装置を有する画像処理システムであって、
    画像データから人が含まれる人領域を検出する人検出手段と、
    前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
    前記方向に基づいて決定される前記画像データの所定領域を前記動作に応じて評価する評価手段と、
    前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段と、
    を有する画像処理システム。
  2. 前記評価手段は、前記所定領域を前記動作に応じて多段階に評価し、
    前記表示手段は、前記評価手段による多段階の評価を前記画像データと共に表示装置に表示する請求項1に記載の画像処理システム。
  3. 前記評価手段は、予め定められている前記所定領域を前記方向に基づいて決定して前記動作に応じて評価する請求項1又は2に記載の画像処理システム。
  4. 前記評価手段は、予め定められている1つ以上の前記所定領域から前記方向の延長線上にある前記所定領域を決定して前記動作に応じて評価する請求項3に記載の画像処理システム。
  5. 前記評価手段は、予め定められている1つ以上の前記所定領域のうち、前記方向の延長線上にあり、かつ、前記方向が判断された前記人領域に隣接した前記所定領域を決定して前記動作に応じて評価する請求項4に記載の画像処理システム。
  6. 前記方向が判断されない場合、前記人領域に隣接した全ての前記所定領域を前記動作に応じて評価する請求項3に記載の画像処理システム。
  7. 前記評価手段は、前記所定領域を多段階に評価した際の前記評価の段階を前記所定領域に付与し、複数の前記画像データの前記所定領域に対し同じ前記評価の段階を付与した回数を前記所定領域ごとにカウントし、
    前記評価の段階の指定を受け付ける受付手段を有し、
    前記表示手段は、前記受付手段が受け付けた前記評価の段階についてカウントされている前記回数を前記所定領域ごとに視覚化して表示する請求項1〜6のいずれか1項に記載の画像処理システム。
  8. 前記評価手段は、前記所定領域を多段階に評価した際の前記評価の段階を前記所定領域に付与し、複数の前記画像データの前記所定領域に対し同じ前記評価の段階を付与した回数を前記所定領域ごとにカウントし、
    前記所定領域の指定を受け付ける受付手段を有し、
    前記表示手段は、前記受付手段が受け付けた前記所定領域に対応付けられている前記評価の段階のそれぞれの前記回数を視覚化して表示する請求項1〜6のいずれか1項に記載の画像処理システム。
  9. 前記評価手段は、前記所定領域を多段階に評価した際の前記評価の段階を前記所定領域に付与し、複数の前記画像データの前記所定領域に対し同じ前記評価の段階を付与した回数を前記所定領域ごとにカウントし、
    所定の操作を受け付ける受付手段を有し、
    前記受付手段が前記所定の操作を受け付けた場合、前記表示手段は、前記評価の段階と前記回数から前記所定領域を代表する代表値を算出し、前記代表値を視覚化して表示する請求項1〜6のいずれか1項に記載の画像処理システム。
  10. 前記評価手段は、前記人領域に対し前記動作の前記方向に隣接した範囲を前記所定領域に決定し、該所定領域を前記動作に応じて評価する請求項1に記載の画像処理システム。
  11. 前記評価手段は、前記人領域に隣接する前記範囲の大きさを、前記人領域の大きさに応じて変化させる請求項10に記載の画像処理システム。
  12. 前記評価手段は、前記所定領域を多段階に評価した際の前記評価の段階を前記所定領域に付与し、
    前記評価の段階の指定を受け付ける受付手段を有し、
    前記表示手段は、前記受付手段が受け付けた前記評価の段階が付与されている前記所定領域を視覚化して表示する請求項10又は11に記載の画像処理システム。
  13. 前記評価手段は、前記所定領域を多段階に評価した際の前記評価の段階を前記所定領域に付与し、
    前記画像データの位置の指定を受け付ける受付手段を有し、
    前記表示手段は、前記受付手段が受け付けた前記位置に最も近い前記所定領域に付与された前記評価の段階を視覚化して表示する請求項10又は11に記載の画像処理システム。
  14. 前記評価手段は、前記所定領域を多段階に評価した際の前記評価の段階を前記所定領域に付与し、
    所定の操作を受け付ける受付手段を有し、
    前記受付手段が前記所定の操作を受け付けた場合、前記表示手段は、複数の前記所定領域の重なりが大きいほど中心の濃度が大きくなり、前記中心から離れるほど徐々に濃度が小さくなる色で前記所定領域を表示する請求項10又は11に記載の画像処理システム。
  15. 任意の情報処理装置から、画像データを撮像する撮像装置が所定の事象を撮像している旨の通知を取得した場合、
    少なくとも通知を取得した時の画像データに事象が撮像されている旨の事象フラグを設定するフラグ設定手段を有する請求項1〜14のいずれか1項に記載の画像処理システム。
  16. 指定された評価の段階の前記所定領域を動作の方向とする人、又は、前記所定領域に前記動作の方向を示した人を含む画像データを表示装置に表示する表示手段と、
    を有する請求項1〜14いずれか1項に記載の画像処理システム。
  17. 撮像装置が撮像した画像データと共に情報処理装置による評価を表示装置に表示する情報端末と通信可能な情報処理装置であって、
    画像データから人が含まれる人領域を検出する人検出手段と、
    前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
    前記方向に基づいて決定される前記画像データの所定領域を前記動作に応じて評価する評価手段と、を有する情報処理装置。
  18. 撮像装置が撮像した画像データから人が含まれる人領域を検出する人検出手段と、
    前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
    前記方向に基づいて決定される前記画像データの所定領域を前記動作に応じて評価する評価手段と、を有する情報処理装置と通信可能な情報端末であって、
    前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段、を有する情報端末。
  19. 撮像装置が撮像した画像データと共に情報処理装置による評価を表示装置に表示する情報端末と通信可能な情報処理装置を、
    画像データから人が含まれる人領域を検出する人検出手段と、
    前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
    前記方向に基づいて決定される前記画像データの所定領域を前記動作に応じて評価する評価手段、として機能させるためのプログラム。
  20. 撮像装置が撮像した画像データから人が含まれる人領域を検出する人検出手段と、
    前記人検出手段によって検出された前記人領域から前記人の動作と該動作の方向を判断する動作判断手段と、
    前記方向に基づいて決定される前記画像データの所定領域を前記動作に応じて評価する評価手段と、を有する情報処理装置と通信可能な情報端末を、
    前記画像データと共に前記評価手段による評価を表示装置に表示する表示手段、として機能させるためのプログラム。
JP2016133327A 2016-03-07 2016-07-05 画像処理システム、情報処理装置、情報端末、プログラム Active JP6852293B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/443,078 US10360572B2 (en) 2016-03-07 2017-02-27 Image processing system, method and computer program product for evaluating level of interest based on direction of human action

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016043292 2016-03-07
JP2016043292 2016-03-07

Publications (2)

Publication Number Publication Date
JP2017162432A true JP2017162432A (ja) 2017-09-14
JP6852293B2 JP6852293B2 (ja) 2021-03-31

Family

ID=59857176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133327A Active JP6852293B2 (ja) 2016-03-07 2016-07-05 画像処理システム、情報処理装置、情報端末、プログラム

Country Status (1)

Country Link
JP (1) JP6852293B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139321A (ja) * 2018-02-06 2019-08-22 コニカミノルタ株式会社 顧客行動分析システムおよび顧客行動分析方法
WO2019168162A1 (ja) * 2018-03-01 2019-09-06 学校法人玉川学園 情報処理装置、情報処理方法、及びプログラム
JP6593949B1 (ja) * 2019-07-31 2019-10-23 アースアイズ株式会社 情報処理装置、及び、マーケティング活動支援装置
JP2019211891A (ja) * 2018-06-01 2019-12-12 コニカミノルタ株式会社 行動分析装置、行動分析システム、行動分析方法、プログラムおよび記録媒体
WO2022064632A1 (ja) * 2020-09-25 2022-03-31 日本電気株式会社 画像処理装置、画像処理方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
JP2010067079A (ja) * 2008-09-11 2010-03-25 Dainippon Printing Co Ltd 行動解析システムおよび行動解析方法
JP2011248836A (ja) * 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム
JP2014149686A (ja) * 2013-02-01 2014-08-21 Panasonic Corp 顧客行動分析装置、顧客行動分析システムおよび顧客行動分析方法
WO2015040661A1 (ja) * 2013-09-19 2015-03-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報端末にマーチャンダイジング情報を表示させる制御方法
WO2015162723A1 (ja) * 2014-04-23 2015-10-29 株式会社日立製作所 行動分析装置
JP2016024601A (ja) * 2014-07-18 2016-02-08 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、商品推薦方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048430A (ja) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc 顧客動作分析装置、顧客動作判定システム、及び顧客購買行動分析システム
JP2010067079A (ja) * 2008-09-11 2010-03-25 Dainippon Printing Co Ltd 行動解析システムおよび行動解析方法
JP2011248836A (ja) * 2010-05-31 2011-12-08 Nomura Research Institute Ltd 滞留検出システム及びプログラム
JP2014149686A (ja) * 2013-02-01 2014-08-21 Panasonic Corp 顧客行動分析装置、顧客行動分析システムおよび顧客行動分析方法
WO2015040661A1 (ja) * 2013-09-19 2015-03-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報端末にマーチャンダイジング情報を表示させる制御方法
WO2015162723A1 (ja) * 2014-04-23 2015-10-29 株式会社日立製作所 行動分析装置
JP2016024601A (ja) * 2014-07-18 2016-02-08 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、商品推薦方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
エン セイ JING YAN: "店舗内の消費者の購買行動の動画像処理とベイジアンネットワークによる認識法の検討 Study of Recognizing", 電子情報通信学会技術研究報告 IEICE TECHNICAL REPORT, vol. 第114巻/197号, JPN6020022842, 25 August 2014 (2014-08-25), JP, pages 101 - 106, ISSN: 0004296056 *
目次 康男: "ビデオカメラがセンサーに変わる", 日経コンピュータ NIKKEI COMPUTER, vol. 638号, JPN6020022840, 31 October 2005 (2005-10-31), JP, pages 66 - 70, ISSN: 0004296055 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139321A (ja) * 2018-02-06 2019-08-22 コニカミノルタ株式会社 顧客行動分析システムおよび顧客行動分析方法
JP7062985B2 (ja) 2018-02-06 2022-05-09 コニカミノルタ株式会社 顧客行動分析システムおよび顧客行動分析方法
WO2019168162A1 (ja) * 2018-03-01 2019-09-06 学校法人玉川学園 情報処理装置、情報処理方法、及びプログラム
JP2019211891A (ja) * 2018-06-01 2019-12-12 コニカミノルタ株式会社 行動分析装置、行動分析システム、行動分析方法、プログラムおよび記録媒体
JP7081310B2 (ja) 2018-06-01 2022-06-07 コニカミノルタ株式会社 行動分析装置、行動分析システム、行動分析方法、プログラムおよび記録媒体
JP6593949B1 (ja) * 2019-07-31 2019-10-23 アースアイズ株式会社 情報処理装置、及び、マーケティング活動支援装置
WO2021020500A1 (ja) * 2019-07-31 2021-02-04 アースアイズ株式会社 情報処理装置、及び、マーケティング活動支援装置
JP2021026336A (ja) * 2019-07-31 2021-02-22 アースアイズ株式会社 情報処理装置、及び、マーケティング活動支援装置
WO2022064632A1 (ja) * 2020-09-25 2022-03-31 日本電気株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP6852293B2 (ja) 2021-03-31

Similar Documents

Publication Publication Date Title
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
US10277836B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP6852293B2 (ja) 画像処理システム、情報処理装置、情報端末、プログラム
US10951862B2 (en) Systems and methods for managing and displaying video sources
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
JP5707562B1 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5527423B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
US20190268587A1 (en) Information processing device, information processing method, and program
CN102737405A (zh) 图像处理设备、图像处理方法和程序
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
US10262221B2 (en) Event searching apparatus and system
CN111178294A (zh) 状态识别方法、装置、设备及存储介质
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
JP2017211811A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP6593922B2 (ja) 画像監視システム
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP6510116B2 (ja) 仮想オブジェクトの表示システムを用いた顧客把握システム、顧客把握システムプログラム及び顧客把握方法
JP7124281B2 (ja) プログラム、情報処理装置、画像処理システム
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
KR20160108103A (ko) 사용자 단말 장치, 디지털 사이니지 장치 및 그 제어 방법들
EP3244293B1 (en) Selection option information presentation system and method
US20230079461A1 (en) Information processing apparatus, information processing system, and information processing method
JP6368881B1 (ja) 表示制御システム,端末装置,コンピュータプログラム,及び表示制御方法
JP7343973B2 (ja) 行動パタン分析支援装置、行動パタン分析支援システム及び行動パタン分析支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R151 Written notification of patent or utility model registration

Ref document number: 6852293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151