JP2017182681A - 画像処理システム、情報処理装置、プログラム - Google Patents

画像処理システム、情報処理装置、プログラム Download PDF

Info

Publication number
JP2017182681A
JP2017182681A JP2016072662A JP2016072662A JP2017182681A JP 2017182681 A JP2017182681 A JP 2017182681A JP 2016072662 A JP2016072662 A JP 2016072662A JP 2016072662 A JP2016072662 A JP 2016072662A JP 2017182681 A JP2017182681 A JP 2017182681A
Authority
JP
Japan
Prior art keywords
analysis information
image data
image
information
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016072662A
Other languages
English (en)
Inventor
達也 永渕
Tatsuya Nagabuchi
達也 永渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016072662A priority Critical patent/JP2017182681A/ja
Priority to US15/449,528 priority patent/US10277836B2/en
Publication of JP2017182681A publication Critical patent/JP2017182681A/ja
Priority to US16/283,456 priority patent/US10827133B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】三次元で表現された画像と複数の解析情報を表示することができる画像処理システムを提供すること。【解決手段】所定よりも広角の画像データと前記画像データの解析情報を表示する画像処理システム200であって、前記画像データを解析して得られた第一の解析情報を前記画像データに関連付ける情報関連付け手段82と、前記第一の解析情報が関連付けられた前記画像データを三次元空間に配置する配置手段81と、前記画像データを解析して得られた第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データと関連付けて配置する解析情報配置手段83と、前記第一の解析情報、前記第二の解析情報、及び前記画像データを表示装置に表示する表示手段73と、を有する。【選択図】図1

Description

本発明は、画像処理システム、情報処理装置及びプログラムに関する。
画像データを解析して得られた解析情報をコンピュータが加工して表示することで、解析情報をユーザが理解しやすくなる。例えば、複数の解析情報を比較した棒グラフや円グラフなどが従来から知られている。また、色の違いで解析情報を視覚化したり、強調したりすることができるため、従来から解析情報をカラー表示することが行われている。
また、実空間の三次元オブジェクトをコンピュータに表示させる際に、三次元オブジェクトを少ない違和感で平面(画面)に表示する処理が行われている(例えば、特許文献1参照。)。特許文献1には、2D画像の特徴に基づいてコンテンツに対応するカラーマップタグを複数の領域に選択的に割り当て、カラーマップタグにしたがって3D画像の複数の領域の各々に異なるカラーマップを選択的に割り当てる方法が開示されている。
しかしながら、従来の方法では、画像データが三次元で表現されている場合に、複数の解析情報に適切な視覚的効果を与えて表示することが考慮されていないという問題があった。すなわち、平面の画像データを例えば色分けして解析情報を視覚化すること、又は、解析情報を仮想的な立体で表して平面上で視覚化することは個別にできても、複数の解析情報を三次元の画像データに対し適切に表示することが困難であった。
本発明は、上記課題に鑑み、三次元で表現された画像と複数の解析情報を表示することができる画像処理システムを提供することを目的とする。
本発明は、所定よりも広角の画像データと前記画像データの解析情報を表示する画像処理システムであって、前記画像データを解析して得られた第一の解析情報を前記画像データに関連づける情報関連付け手段と、前記第一の解析情報が関連付けられた前記画像データを三次元空間に配置する配置手段と、前記画像データを解析して得られた第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データと関連付けて配置する解析情報配置手段と、前記第一の解析情報、前記第二の解析情報、及び前記画像データを表示装置に表示する表示手段と、を有する。
三次元で表現された画像と複数の解析情報を表示することができる画像処理システムを提供することができる。
情報端末が表示する解析情報表示画面の一例を示す図である。 画像処理システムの概略構成図の一例である。 撮像装置のハードウェア構成図の一例である。 無線通信機能を有したクレードルの場合の通信端末のハードウェア構成図の一例である。 画像管理装置及び情報端末のハードウェア構成図の一例である。 画像処理システムが有する撮像装置、通信端末、画像管理装置、及び情報端末の各機能ブロック図の一例である。 情報端末がヒートマップ画像を作成する手順を示すフローチャート図の一例である。 情報端末がヒートマップ画像を作成する手順を示すフローチャート図の一例である。 描画点(第1の人検知領域の第1の中心点及び点数)を定める処理を示した概念図である。 描画点(第2の人検知領域の第2の中心点及び点数)を定める処理を示した概念図である。 描画点(第1の中心点と第2の中心点の平均中心点及び点数)を定める処理を示した概念図である。 描画点(第3の人検知領域の第3の中心点及び点数)を定める処理を示した概念図である。 描画点(第1の中心点と第2の中心点の平均中心点及び点数)、並びに描画点(第2の中心点と第3の中心点の平均中心点及び点数)を定める処理を示した概念図である。 描画点(平均中心点同士の平均中心点(第2平均中心点)及び点数)を定める処理を示した概念図である。 描画点(第4の人検知領域の第4の中心点及び点数)を定める処理を示した概念図である。 描画点(複数の画像のそれぞれの各種中心点及び点数)を示した概念図である。 複数の画像における所定範囲内の描画点の集約を示した概念図である。 描画点に基づいて作成されたヒートマップ画像が付された画像データを示す図の一例である。 平面の画像データの全天球画像への貼り付けを模式的に説明する図の一例である。 全天球画像と仮想カメラICのワールド座標系における配置例を説明する図の一例である。 全天球画像の一例を示す図である。 棒グラフの描画を説明する図の一例である。 棒グラフ演算部が棒グラフを作成する手順を示すフローチャート図の一例である。 棒グラフのレンダリングについて説明する図の一例である。 情報端末がディスプレイに表示する設定画面の一例である。 仮想カメラの位置と画角に対する全天球の関係を模式的に説明する図の一例である。 画像データが全天球の内側又は外側に貼り付けられる際の切り替えについて説明する図の一例である。 棒グラフの高さに基づいて平滑化された全天球画像を示す図の一例である。 棒グラフの高さに基づく各エリアの棒グラフの高さの平滑化を説明する図の一例である。
以下、本発明を実施するための形態について図面を参照しながら説明する。
図1は、本実施形態において情報端末7が表示する解析情報表示画面601の一例を示す図である。この解析情報表示画面601には全天球画像602が表示されており、全天球画像602に複数の解析情報が視覚化して表示されている。複数の解析情報の一方の一例は述べ人数であり、述べ人数の大小が色分けして表示されている。述べ人数とは例えば異なる時刻に撮像された全天球画像で検知された人の数である。述べ人数が色分けして表示された色分け部分を色分け表示603と称する。
複数の解析情報の他方の一例は個別の人の人数(個別人数という)である。個別人数は、同一人物が検知された回数に関わらず一人とカウントする人数である。解析情報表示画面601では個別人数が棒グラフ604の高さで表されている。この棒グラフ604は後述するエリア(領域)ごとにカウントされている。また、全天球画像602は三次元空間の座標を有しており、棒グラフ604も三次元の情報を有している。つまり、三次元空間に棒グラフ604が表されている。三次元空間に棒グラフ604が表されるので、後述するように全天球画像602を閲覧者が回転させると棒グラフ604を様々な角度から表示でき、棒グラフ604がどの領域にあり色分け表示603とのどのような関連があるかを閲覧者が確認できる。
このように、本実施形態の情報端末7は、解析情報を色分けして表示できるだけでなく、全天球画像602が三次元空間で表示されることを利用して解析情報を立体的に表示できるため、閲覧者は両者の関係を把握しやすくなる。また、色分けと立体表示により明確に区別されるので、両者を表示でき、色分けされた解析情報と立体表示された解析情報を別々に表示する必要がない。
<用語について>
上記の広角画像は、所定よりも画角が広い画像であり、少なくとも通常の撮像装置(例えば35mmフィルムのカメラ)の画角よりも広い画角の画像をいう。あるいは、魚眼レンズで撮像されている画像のように湾曲した画像をいう。広角画像の一例の全天球画像は、周囲360°の全方位が撮像された画像である。全方位画像、パノラマ画像、全天球パノラマ画像など、どのように呼ばれていてもよい。また、周囲360°の画像の一部が画像処理などの関係で欠けていても本実施形態の説明に支障がない場合は全天球画像と称する。全天球画像により広範囲をカバーできるので撮像装置の設置数を少なくすることができる。
オブジェクトとは、立体的に表現可能な対象である。オブジェクトは三次元空間に配置可能であり、三次元の座標を持っている。
また、本実施形態において画像と画像データという用語は厳密には区別されずに使用される。また、平面の画像データが全天球画像に変換されるが、説明の便宜上、平面の画像データを全天球画像と称する場合がある。
<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、情報端末7を有している。撮像装置1は設置者Xにより店舗内に設置されている。情報端末7は閲覧者Yにより操作される。
通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や情報端末7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。
撮像装置1は、上記のように1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。
なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。
通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。
画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。
なお、画像管理装置5にはクラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。
情報端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。
撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。情報端末7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、情報端末7は本社以外の場所からも画像管理装置5と通信可能である。画像管理装置5は、各拠点の通信端末3から送られて来た画像データやその解析結果を情報端末7に送信する。
<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,情報端末7及び画像管理装置5のハードウェア構成を説明する。
<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、メルカトル画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。閲覧者は操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
通信部117は、撮像装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。
また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。
通信部305は、アンテナ305aを利用して無線通信信号により、無線ルータ9a等と通信を行う。
図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。
<<画像管理装置、情報端末>>
図5を用いて、画像管理装置5及びノートPCの場合の情報端末7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び情報端末7のハードウェア構成図である。画像管理装置5及び情報端末7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。情報端末7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図5に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<画像処理システムの機能について>
図6は、本実施形態の画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。
<<撮像装置1の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置用のプログラム及び端末IDが記憶されている。
撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、閲覧者(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。
撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。
集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。
接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。
記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。
<<通信端末3の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末用のプログラムが記憶されている。
(通信端末3の各機能構成)
通信端末3の送受信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
通信端末3の受付部32は、主に、図4に示されているCPU301等の処理によって実現され、閲覧者(図2では、設置者X)からの操作入力を受け付ける。
接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。
記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。
<<画像管理装置の機能構成>>
画像管理装置5は、送受信部51、人物検知部52、サムネイル作成部53、画面作成部54、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、画像管理装置5は、図5に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、撮像管理DB5002、画像管理DB5003、サムネイル管理DB5004、解析情報管理DB5005、及び、点数表・描画点表DB5006が構築されている。以下、各データベースについて説明する。
Figure 2017182681
表1は、拠点管理DB5001に記憶される各情報をテーブル状に示す拠点管理テーブルを示す。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。
拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。
拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。
端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置(端末ID)が設置されており、それらの位置が拠点レイアウトマップに登録されている。
拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。
Figure 2017182681
表2は、撮像管理DB5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Figure 2017182681
表3は、画像管理DB5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。画像IDは、画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
例えば、情報端末7で画像管理装置5にアクセスし、表2の撮像管理テーブルから拠点名と撮像タイトルを選ぶ。画像管理装置5は拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。
当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。
Figure 2017182681
表4は、サムネイル管理DB5004に記憶される各情報をテーブル状に示すサムネイル管理テーブルである。サムネイルとは親指程度のという意味であり、サムネイル画像は縮小した、画素数を低減した又は一覧用のイメージデータという意味になる。
サムネイル管理テーブルでは、画像IDごとに、サムネイルID、サムネイル画像のファイル名、及び所定領域情報が関連付けて記憶されている。サムネイルIDは、画像IDで示される画像データに基づいて作成されたサムネイル画像を一意に識別するための識別情報の一例である。サムネイル固有情報と称してもよい。サムネイル画像のファイル名は、サムネイルIDで示されるサムネイル画像のファイル名である。サムネイル画像のファイル名は画像管理装置5が付与する。所定領域情報は、画像IDで示される画像データにおいて、サムネイル画像が作成された所定領域を示す。サムネイル管理テーブルは、主に画像管理装置5が登録する。
Figure 2017182681
表5は、解析情報管理DB5005に記憶される各情報をテーブル状に示す解析情報テーブルである。解析情報テーブルでは、画像IDごとに、領域ID及び領域範囲が関連付けて記憶されている。画像IDについては上記のとおりである。領域範囲とは画像データにおいて人検知領域を特定するための情報である。人検知領域は、画像データの解析により来客者(人)が検出された来客者の外接矩形である。領域IDは、人検知領域を一意に識別するための識別情報の一例である。領域番号や領域固有情報と称してもよい。例えば、画像ごとに1から始まる連番がareanの"n"に設定される。
領域範囲により人検知領域が特定される。来客者が検出される人検知領域は矩形であるものとして、例えば、左上頂点の座標(x,y)と幅(width)と高さ(height)が領域範囲となる。対角の2点の座標で人検知領域が特定されてもよい。なお、領域範囲は、全天球に画像が貼り付けられる前の平面の状態の画像データの座標に基づいて決定されている。補足すると、撮像装置1は当初、平面画像を出力するが、閲覧時には全天球に平面画像が貼り付けられ全天球画像が作成されている。
Figure 2017182681
表6は、点数表・描画点表DB5006に記憶される各情報をテーブル状に示す点数表及び描画点表である。点数表は、表6(a)に示されているように、中心点の種類と、予め定められた点数が関連付けられている。これら各種中心点のいずれかと点数により描画点が算出される。画像管理装置5は予め点数表を記憶しておき、情報端末7に対して点数表を送信することで、情報端末7はヒートマップ画像を作成する際に点数表を利用する。
また、中心点の種類は、中心点(基本中心点)、複数の中心点同士の中心点を示す平均中心点(第1の平均中心点)、及び複数の前記平均中心点同士の平均中心点(第2平均中心点)を含む。また、点数は、平均点、平均中心点、及び第2平均中心点の順に高い値となる。
表6(b)は、描画点表を示す。描画点表は、各描画点情報(描画点の位置と点数)を管理するための表である。画像管理装置は、予め描画点表(描画点の位置と得点が空の状態)を記憶しておき、情報端末7に対して描画点表(描画点の位置と得点が空の状態)を送信する。情報端末7は、描画点表に描画点の位置及び点数を保存することで、ヒートマップ画像の作成に利用する。
(画像管理装置の各機能構成)
画像管理装置5の送受信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は情報端末7と各種データの送受信を行う。なお、以下では、画像管理装置5が情報端末7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
人物検知部52は、主に、図5に示されているCPU501の処理によって実現され、画像データから人を検出する。この人の検出は適切な特徴量の設定と、学習識別装置の設定により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置としては、ディープラーニング、SVM(Support Vector Machines)、AdaBoostを用いたカスケード分類などが知られている。ただし、これらに限られるものではなく人を検出できればよい。
サムネイル作成部53は、主に、図5に示されているCPU501の処理によって実現され、所定領域画像のサムネイル画像を作成する。
画面作成部54は、画像データを情報端末7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで情報端末7が画像データを表示するための画面情報を作成する。画面情報の作成はこれらに限られず情報端末7が解釈できる形式で送信されればよい。
記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。
<情報端末7の機能構成>
情報端末7は、送受信部71、受付部72、表示制御部73、ヒートマップ演算部74、棒グラフ演算部75、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された情報端末7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、情報端末7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には情報端末7用のプログラムが記憶されている。情報端末7用のプログラムは、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。また、画像管理装置5から情報端末7に送信されるHTMLやスクリプト言語で記述された情報も情報端末7用のプログラムとなる。
(情報端末7の各機能構成)
情報端末7の送受信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、情報端末7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。
表示制御部73は、主に、図5に示されているCPU501の処理によって実現され、画像管理装置5から送信された画面情報を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。表示制御部73は、更に画像表示部81、画像重畳部82及び棒グラフ表示部83を有する。画像表示部81は、平面の画像データを全天球に貼り付けることで三次元空間に配置する。画像重畳部82は、ヒートマップ演算部74が作成したヒートマップ画像を平面の画像データに重畳させる。棒グラフ表示部83は、棒グラフ604を全天球の外側に配置することで三次元空間に配置する。
ヒートマップ演算部74は、図5に示されているCPU501の処理によって実現され、解析情報からヒートマップ画像を作成する。ヒートマップ画像は、例えば延べ人数が検知された場所が延べ人数に応じて色分けされた分布表現である。例えば、人が多く検知された場所は濃い色が与えられ、人が少ない場所は薄い色で表示されるか又は色が与えられない。
棒グラフ演算部75は、図5に示されているCPU501の処理によって実現され、解析情報の棒グラフ604を作成する。棒グラフ演算部75は、異なる時刻に撮像された全天球画像の同じエリアで人が検出された場合、人の同一性を判断する。同じ人かどうかは、顔、服装、背格好などを組み合わせて判断される。顔で判断される場合、棒グラフ演算部75は顔認識を行い、顔の眉、眼、鼻孔、唇などの位置を特定でき、これらの顔のパーツの間隔やパーツを結ぶ直線の角度などから人の同一性を判断する。服装の場合、例えば画素値のヒストグラムを作成し、各画素値の画素数の比率から同一性を判断する。背格好の場合、人の外接矩形の高さが同程度どうかが判断される。
棒グラフ演算部75は、エリアごとに個別人数をカウントする。つまり、個体の識別を行い、同一の人ごとにカウントする。異なる人が検知されると人ごとに人数をカウントする。したがって、エリアごとに、個別の人の数だけの個別人数がカウントされる。同じ人についてカウントされた個別人数が2以上でも一人と見なすことができる。また、棒グラフ演算部75は、個別の人のエリアにおける滞在時間を集計する。例えば、3回の撮像で連続して同じ人が検知された場合、滞在時間は3である。撮像間隔又は全天球画像のメタデータである撮像時刻に基づいてこれを時間に変換してもよい。
記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。
<ヒートマップ画像の作成>
まず、図7を用いてヒートマップ画像の作成手順を説明する。図7は情報端末7がヒートマップ画像を作成する手順を示すフローチャート図の一例である。図7の処理は、閲覧者がヒートマップを用いた解析を行うための操作を行うとスタートする。なお、閲覧者が指定した画像データは画像管理装置5から情報端末7に送信されている。送信の際、画像データに対応付けられている、解析情報管理DB5005や点数表・描画点表DB5006が情報端末7に送信されている。
まず、記憶・読出部79は、記憶部7000から、元の画像データの解像度を読み出す(S11)。また、記憶・読出部79は、記憶部7000から解析情報管理DB5005の領域範囲を読み出す(S12)。そして、記憶・読出部79は、記憶部7000に記憶されている元の画像データ群のうち、取得していない任意の画像データを読み出す(S13)。
次に、ヒートマップ演算部74は、新たに読み出された画像データの画像IDと同じ画像IDが解析情報管理DB5005において関連付けられている領域IDがあるか否かにより、人検知領域があるか否かを判断する(S14)。
ヒートマップ演算部74が人検知領域がないと判断した場合には(S14のNo)、処理はステップS26に進む。一方、ヒートマップ演算部74が、人検知領域があると判断した場合(S14のYes)、ヒートマップ演算部74は、領域範囲に基づき、人検知領域の中心点を算出すると共に、点数表を利用して、中心点p1の得点を算出する(S15)。
具体的には、図9(a)に示されているように、任意の画像データにおいて、例えば、4つの人検知領域が存在する場合、ヒートマップ演算部74は、まず人検知領域a1を選択し、図9(b)に示されているように、人検知領域a1の中心点p1を算出する。そして、ヒートマップ演算部74は点数表を利用して、図9(c)に示されているように、中心点p1の得点を算出することで、描画点s1を算出する。この描画点s1は、中心点p1の位置と得点の両方の情報を有している。描画点は、ヒートマップ画像が作成される際の色の濃淡の重み付けに利用される。
図7に戻り、ヒートマップ演算部74は、記憶部7000に記憶されている描画点表に、描画点s1を示す描画点情報を保存する(S16)。
続いて、図8に示されているように、ヒートマップ演算部74は、同じ任意の撮像画像において、選択されていない人検知領域があるか否かを判断する(S17)。そして、ヒートマップ演算部74が選択されていない人検知領域があると判断した場合(S17のYes)、上記ステップS15,S16と同様の処理が行なわれる。即ち、ヒートマップ演算部74は、人検知領域における領域範囲に基づき、次の人検知領域の中心点を算出すると共に、点数表を利用して、中心点p2の得点を算出する(S18)。
具体的には、図10(a)に示されているように、同じ任意の画像データにおいて、ヒートマップ演算部74は、次の人検知領域a2を選択し、図10(b)に示されているように、人検知領域a2の中心点p2を算出する。そして、ヒートマップ演算部74は、点数表を利用して、図10(c)に示されているように、中心点p2の得点を算出することで、描画点s2を算出する。この描画点s2は、中心点p2の位置と得点の両方の情報を有している。そして、図8に戻り、ヒートマップ演算部74は、記憶部7000に記憶されている描画点表に、描画点s2を示す描画点情報を保存する(S19)。
次に、ヒートマップ演算部74は、一の人検知領域に他の人検知領域の中心点は含まれるか否かを判断する(S20)。そして、ヒートマップ演算部74が含まれないと判断した場合(S20のNo)、ステップS17の処理に戻る。
一方、ヒートマップ演算部74が含まれると判断した場合には(S20のYes)、ヒートマップ演算部74は、点数表を利用して、平均中心点を算出する(S21)。具体的には、図11(a)に示されているように、人検知領域a2に人検知領域a1の中心が含まれている場合には、ヒートマップ演算部74は、描画点s1と描画点s2の真ん中の位置を平均中心点p12として算出する。そして、ヒートマップ演算部74は、点数表を利用して、平均中心点p12の得点を算出することで、新たに描画点s12を算出する。この描画点s12は、平均中心点p12の位置と得点の両方の情報を有している。
そして、図8に戻り、ヒートマップ演算部74は、記憶部7000に記憶されている描画点表に描画点s12を示す描画点情報を保存する(S22)。
続いて、ヒートマップ演算部74は算出された平均中心点が複数あるか否かを判断する(S23)。ここでは、まだ1つしかないため、ステップS17の処理に戻る。
そして、ステップS17によって、ヒートマップ演算部74が3つ目の人検知領域a3があると判断すると(S17のYes)、3つ目の人検知領域a3において、上記ステップS18,S19と同様の処理が行なわれる。
具体的には、図12(a)に示されているように、同じ任意の画像データにおいて、ヒートマップ演算部74は、3つ目の人検知領域a3を選択し、図12(b)に示されているように、人検知領域a3の中心点p3を算出する。そして、ヒートマップ演算部74は、点数表を利用して、図12(c)に示されているように、中心点p3の得点を算出することで、描画点s3を算出する。この描画点s3は、中心点p3の位置と得点の両方の情報を有している。
更に、ステップS20の処理後、ステップS21,S22の処理が行なわれる。具体的には、図13(a)に示されているように、人検知領域a3に人検知領域a1,a2の中心が含まれている場合には、ヒートマップ演算部74は、描画点s1と描画点s3の真ん中の位置を平均中心点p13として算出すると共に、描画点s2と描画点s3の真ん中の位置を平均中心点p23として算出する。
そして、ヒートマップ演算部74は、点数表を利用して、平均中心点p13,p23の各得点を算出することで、新たに描画点s13,s23を算出する。各描画点s13,s23は、それぞれ平均中心点p13,p23の位置と得点の両方の情報を有している。そして、ヒートマップ演算部74は、記憶部7000に記憶されている描画点表に描画点s13,s23を示す各描画点情報を保存する。
次に、ヒートマップ演算部74は、算出された平均中心点が複数あるか否かを判断する(S23)。ヒートマップ演算部74が複数あると判断した場合には(S23のYes)、ヒートマップ演算部74は、平均中心点同士の平均中心点(第2平均中心点)を算出すると共に、点数表を利用して、第2平均中心点の得点を算出することで、描画点を算出する(S24)。
具体的には、図14(a)に示されているように、ヒートマップ演算部74は、3つの描画点s12,s13,s23の真ん中(重心)の位置を第2平均中心点p121323として算出する。そして、ヒートマップ演算部74は、点数表を利用して、第2平均中心点p121323の得点を算出することで、新たに描画点s121323を算出する。描画点s121323は、第2平均中心点p121323の位置と得点の両方の情報を有している。そして、ヒートマップ演算部74は、記憶部7000に記憶されている描画点表に描画点s121323を示す描画点情報を保存する(S25)。
次に、ステップS17に戻り、YESに進み、ステップS18,S19の処理が行なわれる。具体的には、図15(a)に示されているように、同じ任意の撮像画像において、ヒートマップ演算部74は、4つ目の人検知領域a4を選択し、図15(b)に示されているように、人検知領域a4の中心点p4を算出する。そして、ヒートマップ演算部74は、点数表を利用して、図15(c)に示されているように、中心点p4の得点を算出することで、描画点s4を算出する。この描画点s4は、中心点p4の位置と得点の両方の情報を有している。
そして、ヒートマップ演算部74は、記憶部7000に記憶されている描画点表に、描画点s4を示す描画点情報を保存する。これにより、任意の画像データ内の全ての人検知領域についての描画点の算出が行なわれるため、ステップS17の処理に戻ると、ヒートマップ演算部74は、選択されていない人検知領域がない(S17のNo)と判断し、図7に示されているステップS26の処理に進む。
次に、ヒートマップ演算部74は、画像データ群のうち、読み出されていない画像データがあるか否かを判断する(S26)。そして、ヒートマップ演算部74が読み出されていない撮像画像データがあると判断した場合には(S26のYes)、ステップS13の処理に戻る。
一方、ヒートマップ演算部74が、読み出されていない画像データがないと判断した場合には(S26のYes)、ヒートマップ演算部74は、所定範囲内の描画点を集約して、描画点表に集約後の描画点を示す描画点情報を保存する(S28)。
ここで、具体例として、例えば、図16(a)、(b)、(c)に示されているように、続けて撮像されることで得られた3つの画像データd1、d2、d3があり、それぞれの描画点s41,s42,s43が同じ位置でない状態について説明する。3つの画像データを重ねると、図17(a)に示されているように、描画点s41を中心とした所定範囲内(波線部分)に他の描画点s42,s43が存在している。このような場合、ヒートマップ演算部74は、3つの描画点s41,s42,s43を1つの描画点s414243に集約する。この場合、描画点s414243の得点は、3つの描画点s41,s42,s43の各得点の合計となる。なお、集約後の描画点s414243を示す描画点情報が保存される場合、集約前の各描画点s41,s42,s43の各描画点情報はそのまま保存される。但し、集約後の描画点s414243を示す描画点情報が保存されることに代えて、集約前の各描画点s41,s42,s43の各描画点情報が削除されるようにしてもよい。
以上により、全ての画像データについて描画点の算出が行なわれ、描画点表に全ての描画点情報が保存されると、画像重畳部82は、描画点表の全ての描画点情報に基づき、ヒートマップ画像をレンダリングする。すなわち平面の画像データと同じサイズの描画メモリに描画点情報に基づき色分け表示603を生成する。これを画像データに重畳することで画像データとヒートマップ画像を関連付ける。
図18は、描画点に基づいて作成されたヒートマップ画像が付された画像データを示す図の一例である。図面は白黒であるが、異なる時刻に撮像された画像データにおいて人検知領域が存在する数に応じ、数が多い方から少ない方にかけて、赤色、オレンジ色、黄色、黄緑色、青色等で表現される。しかし、ここでは、白黒の濃淡で表現し、多い方から少ない方にかけて、濃色から淡色で表現されている。
また、図7〜図17で説明したヒートマップ画像の作成方法は一例に過ぎず、延べ人数が検知された場所が延べ人数に応じて色分けされた分布表現で表示できれば、作成方法は限定されない。
<平面の画像データの全天球画像への変換>
次に、平面の画像データの全天球画像への変換について説明する。全天球画像へ変換されることで三次元空間に画像データが全天球画像として配置される。画像表示部81は図18のように、ヒートマップ画像が重畳された画像データを全天球画像に変換して情報端末7のディスプレイ508に表示させる。
ここでは、メルカトル図法で平面の画像データが得られている場合を例にして説明する。球体の緯度と経度と、メルカトル図法の座標X,Yには以下の関係がある。なお、Rは球の半径である。
X=π×R×(経度/180)
Y=−R×Log(tan((45+緯度/2)×π/180))
半径Rは画像データの水平方向の解像度(画素数)を用いて、水平方向の解像度=2Rπにより求めることができる。したがって、図19に示すように、画像表示部81はヒートマップ画像が重畳された平面の画像データの各画素を球体の表面に貼り付け全天球画像を得ることができる。なお、図19では緯度をφ、経度をθとしている。緯度90度でtanが無限大となるため緯度90又はこの周辺の画像は保管処理などで生成する。
また、画像表示部81は、後の処理のため、緯度φ、経度θ、半径Rで表される極座標を直行座標(x、y、z)に変換する。変換式は以下のとおりである。
x=Rsinθ・cosφ、y=Rsinθ・sinφ、z=Rcosθ
なお、この場合の直行座標の原点は球の中心であるが、
次に、表示制御部73は全天球画像をディスプレイ508に表示するための画像処理を行う。具体的には、全天球画像と仮想カメラICをワールド座標系に配置して、全天球画像をディスプレイ508に射影変換する。
図20は、全天球画像と仮想カメラICのワールド座標系における配置例を説明する図の一例である。仮想カメラICは、3次元の全天球として表示されている全天球画像に対して、その画像を見る閲覧者の視点の位置に相当するものである。全天球画像が、全天球CSであるとすると、図20に示されているように、仮想カメラICが全天球画像の外部に位置している。全天球画像における所定領域Tは、仮想カメラICと全天球画像との距離によって決まる。仮想カメラICが全天球画像に接近すると所定領域Tは狭くなるし(画像が大きく映る)、仮想カメラICが全天球画像から離れると所定領域Tは広くなる(画像が小さく映る)。
閲覧者が行う拡大・縮小の操作は、仮想カメラICと全天球画像との距離の変更に相当する。仮想カメラICと全天球画像のどちらが移動したと仮定して所定領域Tを計算しても結果は同じである。また、閲覧者は、全天球画像を上下左右に回転させて所定領域Tを移動させることができる。この処理は、仮想カメラICの位置を移動することと等価である。
続いて座標変換について説明する。三次元の全天球画像を2次元のディスプレイ508に表示するには、情報端末7が、ワールド変換、ビュー変換、射影変換、及び、ビューポート変換(正規化処理)の各処理を行う。ワールド変換は全天球画像をワールド座標系に配置することを言う。なお、ワールド座標系における全天球画像と仮想カメラICの初期位置は予め決まっているものとする。上記の緯度・経度から変換された全天球画像の座標は球の中心を原点とする座標系なので、平行移動、回転移動の一般的な変換行列Mwでワールド座標系の座標に変換できる。全天球画像の中心を原点とする座標系がワールド座標系でもよい。
ビュー変換は仮想カメラICの座標を回転、平行移動させる変換であり、三次元の全天球画像を仮想カメラICの向きと全天球画像までの距離に応じた画像に変換する処理に相当する。この変換を行う行列をビュー変換行列Mvという。すなわち、仮想カメラICの位置と向きを閲覧者が操作する位置と向きに移動させる処理に相当する。
次に、射影変換は、三次元のオブジェクトを仮想カメラICから所定距離の画面に射影した場合の二次元座標に変換する処理である。この変換を行う行列を射影変換行列Mpという。
射影変換が行われた後の座標はX軸(-1.0〜+1.0)、Y軸(-1.0〜+1.0)、Z軸(0.0〜+1.0)に変換されている。ビューポート変換はこれをディスプレイ508の座標へ変換する。すなわち、射影変換後のX=-1.0がディスプレイ508のX=0ピクセルに、射影変換後のX=1.0がディスプレイ508のX=解像度(例えば1280)に対応付けられる。射影変換後のY=-1.0がディスプレイ508のY=0ピクセルに、射影変換後のY=1.0がディスプレイ508のY=解像度(例えば720)に対応付けられる。この変換を行う行列をビューポート変換行列Msという。
以上により、表示制御部73がMsMpMvをワールド座標系の全天球画像の各座標に乗じると、ディスプレイ508の座標に変換できる。表示制御部73はヒートマップ画像が重畳され三次元の座標を持つ全天球画像を情報端末7のディスプレイ508に表示することができる。
図21は、全天球画像の一例を示す。図21(a)と(b)は図18の画像データが全天球画像に変換されたものである。図21(a)と(b)の違いは仮想カメラICの向きであり、閲覧者が自由に三次元の全天球画像を自由に表示できる。そして、図21(a)(b)では棒グラフ604が表示されている。以下ではこの棒グラフ604について説明する。なお、図21は、全天球画像に対する仮想カメラICの距離が長いため、全天球画像が球体で表示されている。全天球画像と仮想カメラICの距離が短くなると、図21の全天球画像が図18のように表示されるため、閲覧者は画像を拡大してみたり、全天球画像として俯瞰したりすることができる。
<棒グラフの表示>
図18のようにヒートマップ画像を表示することで、人が検知されやすい場所が赤色などの濃い色で表示されるため、閲覧者は一目で人が検知されやすい場所を特定できる。しかしながら、ヒートマップ画像では1人の人が同じ場所で何度も検出されたのか、複数の人が1度ずつ検出されたのかを閲覧者が判別することが困難になる。
そこで、本実施形態では、異なる時刻に撮像された画像データで検知された人が同じ人かどうかを情報端末7が判別して個別人数をカウントする。そして、個別人数を棒グラフ604で表示する。
図22は、棒グラフ604の描画を説明する図の一例である。棒グラフ604を描画するため、棒グラフ演算部75は平面の画像データを正方形又は長方形のエリア610に分割する。エリア610のサイズは限定されず、例えば閲覧者が任意に設定できることが好ましい。閲覧者が設定しない場合、例えば初期設定のサイズでエリア610に分割される。
棒グラフ演算部75は、閲覧者などに指定された時間内に撮像された全天球画像において、エリア610ごとに異なる人が何人検出されたのかを集計する。例えば、あるエリア610においてAさんが3回、Bさんが1回(同じ人かどうか分かればよいので個人識別までは行わなくてよい)、検知された場合、検知された回数はAさんが3回、Bさんが1回であるが、個別人数は、Aさんが1人、Bさんも1人である。一方、ヒートマップ画像では4人が検知された場合の色分け表示603で表示される。したがって、同じ人が何度も検出された場合、棒グラフ604とヒートマップ画像との対比により閲覧者は同じ人が何度も検出されたために色が赤いなどということを判断できる。逆に、棒グラフ604が長ければ違う人が何人も検出されたため、ヒートマップ画像の色が赤いなどということを判断できる。
図23は、棒グラフ演算部75が棒グラフ604を作成する手順を示すフローチャート図の一例である。図23の処理は、閲覧者が棒グラフ604を表示する操作を行うことでスタートする。
棒グラフ演算部75は、平面の画像データの解像度を取得し、また、解析情報管理DB5005の解析情報を取得する(S10)。
次に、棒グラフ演算部75は画像群(一連の画像データ)を取得する(S20)。一連の画像データとは、図25で後述するように閲覧者が指定する時間範囲に1つの撮像装置1により撮像された複数の画像データ、ある撮像装置1が撮像した全ての画像データなどである。
棒グラフ演算部75は1つずつ画像データを参照する(S30)。
そして、棒グラフ演算部75は解析情報管理DB5005の解析情報を参照して次の人検知領域があるか否かを判断する(S40)。
ステップS40の判断がNoの場合、処理はステップS80に進む。ステップS40の判断がYesの場合、棒グラフ演算部75はこの人検知領域の人が過去に同じエリアで検知されているか否かを判断する(S50)。補足すると、まず、棒グラフ演算部75は人検知領域の重心(又は中心)が属するエリア610を決定する。そして、時間的に1つ前の画像データの同じエリアで検知された人がいるか否かを判断する。同じエリアで検知された人がいる場合、棒グラフ演算部75は現在の画像データの領域範囲の人と、時間的に1つ前の画像データの領域範囲の人(同じエリアに重心又は中心を持つ人検知領域の人)が同じかどうかを判断する。判断方法は上記のとおりである。同じ人の場合、ステップS50の判断はYesとなる。
ステップS50の判断がYesの場合、棒グラフ演算部75は人検知領域の重心(又は中心)が属するエリアの個別の人の検知回数をカウントアップする(S60)。例えば、Aさんが同じエリアで検知された場合、このエリアにおけるAさんの検知回数を1つ大きくする。このように、Aさんの検知回数を大きくするのはAさんの滞在時間を測定するためである。滞在時間を測定せずに、Aさんという個人の個別人数を単純に測定する場合はカウントアップしないでよい。
ステップS50の判断がNoの場合、棒グラフ演算部75は人検知領域の重心(又は中心)が属するエリアで人が検知されたことを記録する(S70)。例えば、人検知領域の重心(又は中心)が属するエリアでBさんが初めて検知された場合、このエリアで人が検知された旨が記録される。Bさんという個人を識別する情報はなくてよい。
次に、棒グラフ演算部75は次の画像データがあるか否かを判断する(S80)。次の画像データがある場合(S80のYes)、処理はステップS30に戻り、ステップS30〜S70が実行される。
次の画像データがない場合(S80のNo)、棒グラフ演算部75はエリアごとに個別人数を集計する(S90)。すなわち、同じAさんが複数回、同じエリアで検知されていても個別人数は1人とカウントされる。また、Bさんが1回でもエリアで検知されていれば個別人数は1人とカウントされる。この場合、このエリアの個別人数は合計して2人である。ただし、合計せずに個別の人ごとに個別人数を有していてもよい。
次に、棒グラフ演算部75は、検知された人ごとに滞在時間を算出する(S100)。すなわち、同じ人がどのくらいの時間、エリアに滞在したか算出される。例えば、同じAさんが3回、同じエリアで検知されている場合、滞在時間は3である。Bさんが1回、エリアで検知されている場合、滞在時間は1である。この滞在時間の3や1を、時間の単位(例えば分)に変換してもよい。滞在時間は人ごとに集計されてもよいし、エリア単位で合計されてもよい。
図23のステップS50では1つ前の撮像時刻の画像データのみで同じ人が検知されたかどうかが判断されている。しかし、棒グラフ演算部75は、過去の全ての画像データで同じ人が検知されたかどうかを判断してもよい。棒グラフ演算部75は同じ人ごとに個別人数をカウントする。したがって、いったん売り場を離れたが戻ってきた人を識別できる。更に、棒グラフ演算部75は戻ってきた人の数をカウントすることもできる。例えば、Aさんが合計で3回検知されたが、そのうち、1回は売り場に戻ってから検知された場合、Aさんが戻ってきた回数が1になる。Bさんなど他の来客者についても同様にカウントできる。
次に、棒グラフ表示部83はエリアごとに個別人数をレンダリングする(S110)。詳細は図24を用いて説明する。なお、レンダリングとは立体形状の棒グラフを2次元のディスプレイ508に表示することをいう。
図23の処理を情報端末7でなく画像管理装置5が行ってもよい。この場合、閲覧者が図25の設定画面で入力した設定が画像管理装置5に送信される。画像管理装置5はヒートマップ画像を作成し画像データに重畳して、個別人数をカウントして棒グラフを作成し全天球画像に配置する。これを2次元の画面に描画して情報端末7に送信する。
図24を用いて棒グラフ604のレンダリングについて説明する。図24(a)に示すように、棒グラフ表示部83はエリアごとの個別人数の合計を図24(b)に示すように全天球画像602で棒グラフ604として表示する。エリアごとに滞在時間の合計を棒グラフ604とすることもできる。
説明の便宜上、棒グラフ表示部83は平面の画像データを三次元のローカル座標系に配置し、エリアに棒グラフ604を作成する。まず、各エリア610の中心Pの座標は明らかであるので、平面の画像データから全天球画像への変換と同様に、図24(b)における位置P´(x0,y0,z0)が算出される。
位置P´で全天球に接する接平面620の方程式は以下で与えられる。a,b,c,は全天球画像602の中心の座標である。また、x,y,zの係数がそのまま接平面620の法線ベクトルnである。
(x0-a)(x-a)+(y0-b)(y-b)+(z0-c)(z-c)=R2
図24(a)に示すように、棒グラフ表示部83はローカル座標系の各エリアで個別人数に比例した高さの棒グラフ604を作成する。説明を容易にするため、ローカル座標系とワールド座標系のX,Y,Z軸が同じ方向であるとする。ローカル座標系の棒グラフ604をワールド座標系に配置する際、棒グラフ表示部83は、(x0-a)とX軸のなす角度、(y0-b)とY軸のなす角度、(z0-c)とZ軸のなす角度、ローカル座標系の棒グラフ604を回転させる。また、中心Pが位置P´に移動する平行移動で移動させる。
このように立体の棒グラフ604を全天球画像602の外側に貼り付けることができる。ワールド座標系に棒グラフ604が配置されたので、以降は上記の変換により表示制御部73がディスプレイ508に表示することができる。なお、滞在時間も個別人数と同様に棒グラフ604で表示することができる。
以上説明したように、本実施形態の情報端末7は、全天球画像に個別人数を立体的に表示するため、色分けされた解析情報と立体表示された解析情報を同時に表示できる。閲覧者は複数の解析情報の関係を把握しやすくなる。
このように、形状(高さ)により解析情報の大きさを表すことができる。高さ以外にも形状として棒グラフ604の太さで解析情報の大きさを表すことができる。また、立体的に表すことができれば棒グラフ604以外の立体物で解析情報を表してもよい。例えば、円柱や三角柱などの多角柱又は円すいや三角すいなどの多角すい等で解析情報を表すことができる。
<解析情報のその他の例>
本実施形態では、解析情報として延べ人数、個別人数及び滞在時間を例とし、延べ人数を色で個別人数又は滞在時間を棒グラフ604でそれぞれ表した。しかし、解析情報はこれらに限られない。解析情報のその他の例を以下に示す。
Figure 2017182681
表7は複数の解析情報を表示するに当たり、色の濃淡で表示される解析情報と棒グラフ604で表示される解析情報の組み合わせの例を示す。色の濃淡で表示される解析情報は第一の解析情報であり、棒グラフ604で表示される解析情報は第二の解析情報の一例である。
まず、「個別人数」と「エリアの商品を購入した人数」の組み合わせでは、個別人数が色の濃淡で表示される。延べ人数が個別人数に置き換わっただけで上記の図7〜17で説明した処理でヒートマップ演算部74は個別人数を色の濃淡で表示できる(ヒートマップ画像を作成する)。この個別人数はエリアごとの個別人数の合計である。あるいは、エリアを個別人数の合計に応じた色で塗り分けでもよい。エリアの商品を購入した人数とは、各エリアの商品を購入した人の人数である。例えば、POS(Point Of Sales)では各商品の売上をリアルタイムで管理しているため、何時にどの商品が売れたというデータを持っている。また、棒グラフ演算部75はエリアごとに商品IDなどを対応付けて管理しているものとする。エリアと商品IDの対応はPOSが持っていてもよい。棒グラフ演算部75は閲覧者が指定した時間の範囲でエリアの商品IDと一致する販売記録の商品の数をカウントする。エリアで販売された商品の数を購入した人数としてもよい。また、商品でなく購入した人の数をカウントしてもよい。
「個別人数」と「エリアの売上高」の組み合わせでは、個別人数が色の濃淡で表示される。個別人数のヒートマップ画像は「個別人数」と「エリアの商品を購入した人数」と同じでよい。また、エリアの売上高も同様にPOSが利用される。棒グラフ演算部75は閲覧者が指定した時間の範囲でエリアの商品IDと一致する販売記録の商品の売上高を合計する。
「商品を手に取った人数」と「エリアの商品を購入した人数」の組み合わせでは、商品を手に取った人数が色の濃淡で表示される。この場合、画像管理装置5は予め画像解析により商品を手に取るという行為を行った人の領域範囲を解析情報管理DB5005に記録しておく。商品を手に取るという行為の検出には、機械学習やパターンマッチングが利用される。また、商品を手に取った人の解析を情報端末7が行ってもよい。画像データごとに人の領域範囲が得られるので、ヒートマップ演算部74は延べ人数の場合と同様に商品を手に取った人数を色の濃淡で表示できる。
このように、本実施形態では、種々の解析情報を、色と棒グラフ604の組み合わせで視覚的に表示できる。
<ユーザインタフェース>
続いて、図25を用いて、情報端末7のユーザインタフェースについて説明する。図25は情報端末7がディスプレイ508に表示する設定画面701の一例を示す。設定画面701は画像表示欄702、ヒートマップ選択欄703、バーチャート選択欄704、滞在時間の下限欄と上限欄706、表示ボタン705、日時範囲設定欄707、及び、カメラID選択欄708を有する。
画像表示欄702には全天球画像が表示される。複数の全天球画像が解析の対象なので、閲覧者が選択した全天球画像が表示される。ヒートマップ選択欄703には色の濃淡で表示される解析情報がプルダウンで表示される。バーチャート選択欄704には棒グラフ604で表示される解析情報がプルダウンで表示される。滞在時間の下限欄と上限欄706には、滞在時間の下限と上限が入力される。表示ボタン705はヒートマップ画像及び棒グラフ604の表示の有無が設定される。日時範囲設定欄707には解析の対象の画像データが撮像された日時の範囲が設定される。カメラID選択欄708には解析の対象となる画像データを撮像した撮像装置1がプルダウンで表示される。
このように設定画面701に種々の表示条件が表示されるので、閲覧者はインタラクティブに表示条件を切り替えて表示することができる。例えば、滞在時間の下限により、情報端末7は滞在時間が短い人の個別人数を表示しなくなる。逆に、滞在時間の上限により情報端末7は極端に滞在時間が長い人の個別人数を表示しなくなる。したがって、滞在時間の下限欄と上限欄706により棒グラフ604で表示される個別人数等をフィルタリングすることが可能になる。
滞在時間によるフィルタリングは、図23のステップS90の前にステップS100を行い、滞在時間が上限と下限に入る人の人数をカウントすればよい。
なお、図25に示す他、エリアのサイズ又は数を設定する欄を設定画面701が有することが好適である。
また、設定画面701はデータ保存ボタン709、インポートボタン710、及び、エクスポートボタン711を有している。データ保存ボタン709を閲覧者が押下すると、受付部72が押下を受け付け、ヒートマップ演算部74が記憶部7000に解析情報表示データを保存する。表8は解析情報表示データを模式的に説明する図の一例である。
Figure 2017182681
表8の解析情報表示データでは、データID、画像ID、ヒートマップ画像、高さデータ、滞在時間、及び、対象範囲が対応付けて記憶される。データIDは保存される解析情報表示データを一意に識別するための識別情報である。画像IDは上記したものであるが、解析に使用された複数の画像データのうちディスプレイ508に表示されている画像データの画像IDである。ヒートマップ画像は、色の濃淡で表示されている解析情報とヒートマップ画像そのものである。高さデータは、棒グラフ604で表示される解析情報と各エリアの人数(表8では個別人数)である。滞在時間は滞在時間の下限欄と上限欄706で設定された値である。対象範囲は日時範囲設定欄707で設定された値である。
このように、集計された解析情報表示データが保存されるので、次回、閲覧者が表示させたい場合に再度、集計するよりも短時間に表示できる。また、画像データのダウンロードも不要なので、通信コスト及び計算コストを低減することができる。
また、エクスポートボタン711を閲覧者が押下すると、受付部72が押下を受け付け、記憶・読出部79が所定のファイル形式で記憶部7000や記憶媒体に解析情報表示データを保存する。所定のファイル形式とは例えばエクセル形式などである。エクセル形式で、所定のシートに画像データ、ヒートマップ画像及び高さデータを保存でき、解析情報表示データに含まれるその他のデータをシートに保存できる。したがって、閲覧者は所定のファイル形式で編集された解析情報表示データを更に加工したり、高さデータなどを編集できる。
また、インポートボタン710を閲覧者が押下すると、受付部72が押下を受け付け、記憶・読出部79が所定のファイル形式の解析情報表示データを記憶部7000や記憶媒体から読み出し、情報端末7が扱うデータ形式に変換する。例えば、エクセル形式で保存されている場合、どのシートのどのセルに解析情報表示データが格納されているかという情報を記憶・読出部79が保持している。したがって、エクスポートされた所定のファイル形式の解析情報表示データを情報端末7が扱うデータ形式に変換できる。閲覧者は、所定のファイル形式で編集された高さデータなどを再度、ディスプレイ508に表示できる。
<球の内側への画像表示と外側への表示の切り替え>
図20等で説明したように、全天球の内側に画像データが貼り付けられるが、全天球の外側に画像データが貼り付けられてもよい。この貼付場所を情報端末7が切り替えるための切替条件として、以下のような切替条件が考えられる。
Figure 2017182681
表9の切替条件によれば、仮想カメラICの位置が、全天球画像の全体が画角に入らない位置であれば、画像データが全天球の内側に貼り付けられ、解析情報としてヒートマップ画像が表示される。仮想カメラICの位置が、全天球の全体が画角に入る位置であれば、画像データが全天球の外側に貼り付けられ、解析情報としてヒートマップ画像と棒グラフ604が表示される。
図26を用いて説明する。図26は仮想カメラICの位置と画角に対する全天球の関係を模式的に説明する図の一例である。図26(a)では、仮想カメラICの画角αに全天球画像の全体が入っていない。したがって、全天球の内側に画像データが貼り付けられ、ヒートマップ画像のみが表示される。これに対し図26(b)では、仮想カメラICの画角αに全天球画像の全体が入っている。したがって、全天球の外側に画像データが貼り付けられ、ヒートマップ画像と棒グラフ604が表示される。
閲覧者は、複数の解析情報を画像と一緒に閲覧したい場合は全天球の外側から、画像自体を大きく見たい場合は球の内側からといった使い分けが可能となる。
図27(a)を用いて切り替えの判断について説明する。全天球の直径は2R、仮想カメラICの画角をαとする。仮想カメラICに全天球の全体がちょうど収まる時の仮想カメラICの位置は、全天球の中心から距離Lの位置である。
距離L=R/(tan(α/2))
したがって、仮想カメラICのワールド座標系における座標と全天球の中心との距離Lを定期的に算出して、距離L>L0かどうかを画像重畳部82と棒グラフ表示部83が判断することで、画像の描画位置(内側、外側)、及び、棒グラフ604の表示有無を判断できる。
次に、図27(b)〜(e)を用いて、全天球の内側への描画と外側への描画について説明する。画像重畳部82は、図27(b)のように内側に描画されている画像を、図27(c)に示すように外側に描画する。あるいはこの逆を行う。したがって、画像を内側から外側へ、外側から内側に平行移動すればよい。
図27(d)は全天球を上面から見た図であり、図27(e)は全天球を側面から見た図である。まず、経度θ1〜θ2の範囲がディスプレイ508に映っているとする。経度θ1〜θ2は三次元のオブジェクトを二次元に射影した場合と逆の変換により求めることができる。この時の表示されている経度の範囲はA度である。A度は緯度によって異なるが、ディスプレイ508上の座標から算出できる。あるいは、距離L0は一定なので距離L0の時のA度を緯度ごとに予め求めておくことができる。
内側の画像が外側に平行移動するとθ1はθ1´に移動し、θ2はθ2´に移動する。したがって、以下の計算によりθ1´、θ2´を求めることができる。
θ1´=θ1−(180−A)
θ2´=θ2+(180−A)
次に、緯度φ1〜φ2の範囲がディスプレイ508に映っているとする。緯度φ1〜φ2は三次元のオブジェクトを二次元に射影した場合と逆の変換により求めることができる。この時の緯度の範囲はB度である。B度は経度によって異なるが、ディスプレイ508上の座標から算出できる。あるいは、距離L0は一定なので距離L0の時のB度を経度ごとに予め求めておくことができる。
内側の画像が外側に平行移動するとφ1はφ1´に移動し、φ2はφ2´に移動する。しかし、平行移動の場合、緯度は一定でよいので以下の関係がある
φ1´=φ1
φ2´=φ2
以上のようにθ1、φ1、θ2、φ2で決定される矩形領域の画像を、θ1´、φ1´、θ2´、φ2´で決定される矩形領域に移動する。緯度に変更がないので、経度だけを変更すればよい。θ1´〜θ1の範囲の画像、θ2´〜θ2の範囲の画像も向きを考慮して外側に描画できる。
なお、棒グラフ604については、エリアの中心(重心)を特定し法線ベクトルを求めることで上記と同様に表示できる。エリアの中心(重心)は同じようにエリアの中心(重心)の経度を変更することで求められる。
<棒グラフの平滑化>
上記の棒グラフ604の高さに基づいて各エリアの棒グラフ604を平滑化することで閲覧者が見やすくなる場合がある。図28(a)は棒グラフ604の高さが平滑化された平滑化グラフ720を有する全天球画像を示し、図28(b)は平滑化グラフ720のみを示す。棒グラフ604では棒グラフ604がないエリアが存在したが、平滑化グラフ720では棒グラフ604がない場所に高さが与えられる。
図29は平滑化処理を説明する図の一例である。最も簡単には、ローカル座標系に配置された画像データの棒グラフ604に対し、棒グラフ表示部83は所定距離内で隣接した棒グラフ604の上面の中心を直線で結ぶ。3つ又は4つの棒グラフ604で1つの面ができるため、この面をポリゴンとして三次元空間に配置することでエリアを平滑化して、全天球画像に平滑化グラフ720を表示できる。
また、平滑化フィルターを使用してもよい。例えば3×3のエリアごとにフィルターをかける場合、3×3で各要素が1/9のオペレータ(演算子)を用意し、注目するエリア(中央のエリア)とその周辺の高さをそれぞれ掛け合わせ、注目するエリアの高さを求める。これを各エリアについて行うと、全体が平滑化される。各エリアで平滑化後の高さが得られるので、高さを結んだポリゴンで表してもよいし、棒グラフで表してもよい。なお、注目するエリアに近いほど要素を大きくし、遠くなるほど要素を小さくなるようにオペレータ(演算子)が決定されるガウシアンフィルタで平滑化してもよい。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、本実施形態では1つの解析情報を色分け表示603で表し、1つの解析情報を棒グラフ604で表したが、複数の解析情報が色分け表示603により同時に表わされてもよいし、複数の解析情報が棒グラフ604により同時に表わされてもよい。
また、本実施形態では、全天球の外側に棒グラフが配置されたが、全天球の内側に棒グラフが配置されてもよい。
例えば、情報端末7と画像管理装置5が一体の情報処理装置が本実施形態で説明された処理を一台で実行してもよい。また、画像管理装置5が有する機能の全て又は1以上を情報端末7が有していてよく、情報端末7が有する機能の全て又は1以上を画像管理装置5が有していてもよい。すなわち、本実施形態で情報端末7が行う処理を画像管理装置5が行ってもよく、画像管理装置5が行う処理を情報端末7が行ってもよい。
また、以上の実施例で示した図6などの構成例は、撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。
また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。
なお、画像重畳部82は情報関連付け手段の一例であり、画像表示部81は配置手段の一例であり、棒グラフ表示部83は解析情報配置手段の一例であり、表示制御部73は表示手段の一例であり、ディスプレイ508は表示装置の一例であり、棒グラフ演算部75は作成手段の一例である。受付部72は受付手段の一例であり、記憶・読出部79は記憶手段の一例であり、記憶部7000は記憶装置の一例である。
1 撮像装置
3 通信端末
5 画像管理装置
7 情報端末
52 人物検出部
73 表示制御部
74 ヒートマップ演算部
75 棒グラフ演算部
81 画像表示部
82 画像重畳部
83 棒グラフ表示部
200 画像処理システム
特表2012‐517652号公報

Claims (17)

  1. 所定よりも広角の画像データと前記画像データの解析情報を表示する画像処理システムであって、
    前記画像データを解析して得られた第一の解析情報を前記画像データに関連づける情報関連付け手段と、
    前記第一の解析情報が関連付けられた前記画像データを三次元空間に配置する配置手段と、
    前記画像データを解析して得られた第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データと関連付けて配置する解析情報配置手段と、
    前記第一の解析情報、前記第二の解析情報、及び前記画像データを表示装置に表示する表示手段と、を有する画像処理システム。
  2. 前記情報関連付け手段は、前記第一の解析情報を画像の濃淡で表し、
    前記解析情報配置手段は前記第二の解析情報の大きさを前記オブジェクトの形状で表す請求項1に記載の画像処理システム。
  3. 前記画像データが分割して生成されたエリアごとに前記画像データを解析して前記エリアごとに前記第二の解析情報を作成する作成手段を有し、
    前記解析情報配置手段は、前記第二の解析情報の大きさが形状で表された前記オブジェクトを三次元空間の前記画像データの前記エリアに配置する請求項2に記載の画像処理システム。
  4. 前記配置手段は、球体に前記画像データを貼り付けることで三次元空間に前記画像データを配置し、
    前記解析情報配置手段は、前記球体の表面に前記オブジェクトを配置する請求項3に記載の画像処理システム。
  5. 前記解析情報配置手段は、各エリアの前記オブジェクトの高さを周囲の前記エリアの前記オブジェクトの高さに基づいて平滑化する請求項4に記載の画像処理システム。
  6. 前記配置手段は、球体に前記画像データを貼り付けることで三次元空間に前記画像データを配置し、
    前記表示手段は、所定の画角を有する視点の前記画角に入る前記球体の少なくとも一部の画像を前記表示装置に射影するものであり、
    前記画角に前記球体の全体が入る場合、前記配置手段は前記球体の外側に前記画像データを貼り付け、
    前記画角に前記球体の全体が入らない場合、前記配置手段は前記球体の内側に前記画像データを貼り付ける請求項1〜5のいずれか1項に記載の画像処理システム。
  7. 前記解析情報配置手段は、前記画角に前記球体の全体が入る場合、前記球体に前記オブジェクトを配置し、前記画角に前記球体の全体が入らない場合、前記球体に前記オブジェクトを配置しない請求項6に記載の画像処理システム。
  8. 前記表示手段は、前記第一の解析情報及び前記第二の解析情報の表示に関する設定を受け付ける設定画面を前記表示装置に表示し、
    前記第一の解析情報及び前記第二の解析情報を作成するための前記画像データの選択を受け付ける受付手段を有する請求項1〜7のいずれか1項に記載の画像処理システム。
  9. 前記受付手段は、前記第二の解析情報の範囲の指定を受け付け、
    前記解析情報配置手段は、指定された範囲の前記第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データに配置する請求項8に記載の画像処理システム。
  10. 前記受付手段は、複数の前記第一の解析情報から1つの前記第一の解析情報の選択を受け付け、複数の前記第二の解析情報から1つの前記第二の解析情報の選択を受け付け、
    前記表示手段は、選択された前記第一の解析情報及び前記第二の解析情報を前記表示装置に表示する請求項8又は9に記載の画像処理システム。
  11. 前記受付手段は、前記第一の解析情報及び前記第二の解析情報の表示の有無を受け付ける請求項10に記載の画像処理システム。
  12. 前記画像データ、前記第一の解析情報及び前記第二の解析情報を記憶装置に記憶させる記憶手段を有し、
    前記記憶手段は前記記憶装置から前記画像データ、前記第一の解析情報及び前記第二の解析情報を読み出し、
    前記表示手段は、前記記憶手段が読み出した前記画像データ、前記第一の解析情報及び前記第二の解析情報を表示装置に表示する請求項1〜11のいずれか1項に記載の画像処理システム。
  13. 前記記憶手段は、前記画像データ、前記第一の解析情報及び前記第二の解析情報を所定のファイル形式で記憶装置にエクスポートし、
    前記記憶装置から、所定のファイル形式の前記画像データ、前記第一の解析情報及び前記第二の解析情報をインポートする請求項12に記載の画像処理システム。
  14. 所定よりも広角の画像データと前記画像データの解析情報を表示する情報処理装置であって、
    前記画像データを解析して得られた第一の解析情報を前記画像データに関連付ける情報関連付け手段と、
    前記第一の解析情報が関連付けられた前記画像データを三次元空間に配置する配置手段と、
    前記画像データを解析して得られた第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データを関連付けて配置する解析情報配置手段と、
    前記第一の解析情報、前記第二の解析情報、及び前記画像データを表示装置に表示する表示手段と、を有する情報処理装置。
  15. 所定よりも広角の画像データを解析して得られた第一の解析情報を前記画像データに関連付ける情報関連付け手段と、
    前記第一の解析情報が関連付けられた前記画像データを三次元空間に配置する配置手段と、
    前記画像データを解析して得られた第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データと関連付けて配置する解析情報配置手段と、を有し、
    前記第一の解析情報、前記第二の解析情報、及び前記画像データを他の情報処理装置に送信して表示させる情報処理装置。
  16. 所定よりも広角の画像データと前記画像データの解析情報を表示する情報処理装置を、
    前記画像データを解析して得られた第一の解析情報を前記画像データに関連付ける情報関連付け手段と、
    前記第一の解析情報が関連付けられた前記画像データを三次元空間に配置する配置手段と、
    前記画像データを解析して得られた第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データと関連付けて配置する解析情報配置手段と、
    前記第一の解析情報、前記第二の解析情報、及び前記画像データを表示装置に表示する表示手段、として機能させるためのプログラム。
  17. 情報処理装置に、
    所定よりも広角の画像データを解析して得られた第一の解析情報を前記画像データと関連付けるステップと、
    前記第一の解析情報が関連付けられた前記画像データを三次元空間に配置するステップと、
    前記画像データを解析して得られた第二の解析情報を三次元空間のオブジェクトとして三次元空間の前記画像データと関連付けて配置するステップと、
    前記情報処理装置に、前記第一の解析情報、前記第二の解析情報、及び前記画像データを他の情報処理装置に送信して表示させるステップと、
    を実行させるためのプログラム。
JP2016072662A 2016-03-07 2016-03-31 画像処理システム、情報処理装置、プログラム Pending JP2017182681A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016072662A JP2017182681A (ja) 2016-03-31 2016-03-31 画像処理システム、情報処理装置、プログラム
US15/449,528 US10277836B2 (en) 2016-03-07 2017-03-03 Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US16/283,456 US10827133B2 (en) 2016-03-07 2019-02-22 Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016072662A JP2017182681A (ja) 2016-03-31 2016-03-31 画像処理システム、情報処理装置、プログラム

Publications (1)

Publication Number Publication Date
JP2017182681A true JP2017182681A (ja) 2017-10-05

Family

ID=60006226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016072662A Pending JP2017182681A (ja) 2016-03-07 2016-03-31 画像処理システム、情報処理装置、プログラム

Country Status (1)

Country Link
JP (1) JP2017182681A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096120A (ja) * 2017-11-24 2019-06-20 エヌ・ティ・ティ・コムウェア株式会社 可視化装置、可視化方法、可視化プログラムおよび記録媒体
JP2019212137A (ja) * 2018-06-06 2019-12-12 株式会社アルファコード ヒートマップ提示装置およびヒートマップ提示用プログラム
WO2024024357A1 (ja) * 2022-07-29 2024-02-01 ガラクーダ株式会社 画像表示装置および画像表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010049346A (ja) * 2008-08-19 2010-03-04 Canon Inc 画像表示装置
JP2015046171A (ja) * 2014-09-29 2015-03-12 株式会社リコー 画像を生成する装置および方法
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010049346A (ja) * 2008-08-19 2010-03-04 Canon Inc 画像表示装置
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP2015046171A (ja) * 2014-09-29 2015-03-12 株式会社リコー 画像を生成する装置および方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松本 隆史,外3名: "動線分析における分析項目の同時可視化手法の提案", 第19回マルチメディア通信と分散処理ワークショップ DPS WORKSHOP 2011 (第1回〜第, JPN6019048878, 2011, JP, pages 63 - 69, ISSN: 0004286316 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096120A (ja) * 2017-11-24 2019-06-20 エヌ・ティ・ティ・コムウェア株式会社 可視化装置、可視化方法、可視化プログラムおよび記録媒体
JP2019212137A (ja) * 2018-06-06 2019-12-12 株式会社アルファコード ヒートマップ提示装置およびヒートマップ提示用プログラム
JP7168969B2 (ja) 2018-06-06 2022-11-10 株式会社アルファコード ヒートマップ提示装置およびヒートマップ提示用プログラム
WO2024024357A1 (ja) * 2022-07-29 2024-02-01 ガラクーダ株式会社 画像表示装置および画像表示方法

Similar Documents

Publication Publication Date Title
US10827133B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US11509825B2 (en) Image management system, image management method, and computer program product
JP2014112302A (ja) 所定領域管理システム、通信方法、及びプログラム
JP2017187850A (ja) 画像処理システム、情報処理装置、プログラム
JP2017135659A (ja) 画像管理システム、画像管理方法、画像通信システム及びプログラム
US20170178396A1 (en) Generating virtual shadows for displayable elements
US10652459B2 (en) Information processing system, information processing method, and non-transitory computer-readable storage medium
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
US20220035592A1 (en) Image management system, image management method, and program
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP6115113B2 (ja) 所定領域管理システム、所定領域管理方法、及びプログラム
JP2016194784A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
JP2016194783A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2022013427A (ja) 情報処理装置、画像生成方法、プログラム
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP2017162014A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP2021125145A (ja) 情報処理装置、画像処理システム、プログラム
JP2020086860A (ja) 管理システム、情報処理システム、情報処理方法およびプログラム
JP2024033277A (ja) 通信システム、情報処理システム、映像再生方法、プログラム
JP2017068832A (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP2016194782A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
JP2017037423A (ja) 画像管理システム、画像管理方法、画像通信システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200616