JP2018139052A - 通信端末、画像通信システム、表示方法、及びプログラム - Google Patents
通信端末、画像通信システム、表示方法、及びプログラム Download PDFInfo
- Publication number
- JP2018139052A JP2018139052A JP2017033507A JP2017033507A JP2018139052A JP 2018139052 A JP2018139052 A JP 2018139052A JP 2017033507 A JP2017033507 A JP 2017033507A JP 2017033507 A JP2017033507 A JP 2017033507A JP 2018139052 A JP2018139052 A JP 2018139052A
- Authority
- JP
- Japan
- Prior art keywords
- image
- communication terminal
- subject
- person
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】人物が表されている撮影画像とは別に、人物の滞留や動線をヒートマップ画像により表すシステムが知られている。これに対して、人物が表されている撮影画像に、人物の滞留や動線を表すヒートマップ画像をマッピングして表示すれば、閲覧者は、ヒートマップ画像によって撮影画像が表している状況を把握し易くなる。しかし、人物等の被検体が滞留した状態を示すヒートマップ画像を表示することは、今までできなかった。そのため、人物等の披検体の滞留の分析を正確に行なうことができないという課題が生じる。【解決手段】各被検体の検出領域内の所定位置及び当該検出領域の特徴量を色の濃淡の重み付けに利用して、ヒートマップ画像をレンダリングすることで、人物等の披検体の滞留の分析を、より正確に行なうことができるという効果を奏する。【選択図】図22
Description
本発明は、通信端末、画像通信システム、表示方法、及びプログラムに関するものである。
近年、撮影画像データから、人物の動線を分析して、店舗運営、商品企画、道路の整備、防犯等に反映する事例が増えており、そのための技術として監視カメラと画像処理技術を組み合わせた監視システムが知られている(特許文献1参照)。
また、人物が表されている撮影画像とは別に、人物の動線をヒートマップ画像により表すシステムが知られている(特許文献2参照)。これに対して、人物が表されている撮影画像に、人物の動線を表すヒートマップ画像をマッピングして表示すれば、閲覧者は、ヒートマップ画像によって撮影画像が表している状況を把握し易くなる。
しかしながら、人物等の被検体が滞留した状態を示すヒートマップ画像を表示することは、今までできなかった。そのため、人物等の披検体の滞留の分析を正確に行なうことができないという課題が生じる。
請求項1に係る発明は、所定の位置で撮影されることで得られた撮影画像データに係る撮影画像にヒートマップ画像をマッピングして表示する通信端末であって、前記所定の位置で時間経過により撮影されることで得られた複数の撮影画像データにおける各被検体の検出領域内の所定位置及び当該検出領域の特徴量を算出する算出手段と、前記算出手段によって算出された前記所定位置及び特徴量を色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングするレンダリング手段と、前記撮影画像に前記ヒートマップ画像をマッピングして表示させる表示制御手段と、を有する通信端末である。
以上説明したように本発明によれば、各被検体の検出領域内の所定位置及び当該検出領域の特徴量を色の濃淡の重み付けに利用して、ヒートマップ画像をレンダリングすることで、人物等の披検体の滞留の分析を、より正確に行なうことができるという効果を奏する。
<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。
図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。また、図1(b)に示されているように、撮影装置1の正面側には、シャッターボタン等の操作部115が設けられている。
次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。
以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。
なお、図5は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、3次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、例えば、座標x(rH)、座標y(rV)、及び画角α(angle)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。
そして、図6(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図6(b)に示されているように、所定のディスプレイに、所定領域画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(x,y,α)によって表された画像である。
ここで、図7を用いて、所定領域情報と所定領域画像の関係について説明する。なお、図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角を2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから所定領域Tの中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の式(式1)で示される三角関数が成り立つ。
Lf=tan(α/2)・・・(式1)
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
図8に示されているように、本実施形態の画像通信システムは、撮影装置1、通信端末3、無線ルータ9a、画像管理システム5、及び通信端末7によって構成されている。
このうち、撮影装置1は、上述のように、全天球(360°)パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置1は、一般的なデジタルカメラであっても良く、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために全天球パノラマ画像を得るためのデジタルカメラとして説明を行う。通信端末3は、撮影装置1への充電やデータ送受信を行なうクレードル(Cradle)の一例である。また、通信端末3は、接点を介して撮影装置1とデータ通信を行なうことができると共に、無線ルータ9a及び通信ネットワーク9を介して画像管理システム5とデータ通信を行なうことができる。なお、通信ネットワーク9は、例えば、インターネットである。
また、画像管理システム5は、例えば、サーバコンピュータであり、通信ネットワーク9を介して、通信端末3,5とデータ通信を行なうことができる。画像管理システム5には、OpenGL ESがインストールされており、全天球パノラマ画像を作成する。
また、通信端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理システム5とデータ通信を行なうことができる。なお、画像管理システム5は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
<実施形態のハードウェア構成>
次に、図9乃至図11を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
次に、図9乃至図11を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
まず、図9を用いて、撮影装置1のハードウェア構成を説明する。なお、図9は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
次に、図10を用いて、通信端末3のハードウェア構成を説明する。なお、図10は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
図10に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305を備えている。
なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。
更に、通信端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、無線ルータ9a等と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
図11を用いて、画像管理システム5及びノートPCの場合の通信端末7のハードウェア構成を説明する。なお、図11は、画像管理システム5及び通信端末7のハードウェア構成図である。画像管理システム5、及び通信端末7は、ともにコンピュータであるため、以下では、画像管理システム5の構成について説明し、通信端末7の構成の説明は省略する。
画像管理システム5は、画像管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、画像管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<実施形態の処理の概略>
次に、図12を用いて、本実施形態の処理の概略について説明する。図12は、本実施形態の処理の概略を示した図である。
次に、図12を用いて、本実施形態の処理の概略について説明する。図12は、本実施形態の処理の概略を示した図である。
まず、通信端末3が撮影装置1から、撮影画像データ、所定領域情報、及び関連情報を取得する(ステップS1)。そして、通信端末3は、画像管理システム5に対して、撮影画像データ、所定領域画像、及び関連情報を送信する(ステップS2)。通信端末3は、ステップS1,S2の処理を繰り返す。このステップS1,S2の処理は、最初の処理から5秒後に2回目の処理が行なわれ、更に6秒後に3回目の処理が行なわれるように、処理の間隔が一定ではない。但し、例えば、5秒毎の一定時間毎にステップS1.S2の処理が行なわれるようにしてもよい。
次に、画像管理システム5は、撮影画像データから人物の画像である人物像の範囲(「人物検出領域」という)を検出して、人物検出情報を作成する(ステップS3)。そして、画像管理システム5は、所定領域画像、及び関連情報を送信する(ステップS4)。次に、画像管理システム5は、通信端末7からの要求に応じて、通信端末7に対して、人物検出情報、及び撮影画像データ群を送信する(ステップS5)。これにより、通信端末7は、後述の記憶部7000に、人物検出情報、及び撮影画像データ群を記憶する。
次に、通信端末7は、図22に示されているようなヒートマップ画像を作成する(ステップS6)。これにより、閲覧者Yは、所定期間の複数の全天球パノラマ画像(又は所定領域画像)を閲覧しなくても、ヒートマップ画像を閲覧することで、人物の滞留の動向を認識することができる。
<<実施形態の機能構成>>
次に、図9乃至図11、及び図13を用いて、本実施形態の機能構成について説明する。図13は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及通信端末7の各機能ブロック図である。図13では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
次に、図9乃至図11、及び図13を用いて、本実施形態の機能構成について説明する。図13は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及通信端末7の各機能ブロック図である。図13では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
<撮影装置1の機能構成>
図13に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、接続部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
図13に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、接続部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
(撮影装置1の各機能構成)
次に、図9及び図13を用いて、撮影装置1の各機能構成について更に詳細に説明する。
次に、図9及び図13を用いて、撮影装置1の各機能構成について更に詳細に説明する。
撮影装置1の受付部12は、主に、図9に示されている操作部115及びCPU111の処理によって実現され、利用者(図8では、設置者X)からの操作入力を受け付ける。
撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。
集音部14は、図9に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。
接続部18は、主に、電気接点、及びCPU111の処理によって実現され、通信端末3からの電源供給を受けると共に、データ通信を行う。
記憶・読出部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
<通信端末3の機能構成>
図13に示されているように、通信端末3は、送受信部31、接続部38、及び記憶・読出部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
図13に示されているように、通信端末3は、送受信部31、接続部38、及び記憶・読出部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
また、通信端末3は、図10に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。
(通信端末3の各機能構成)
次に、図10及び図13を用いて、通信端末3の各機能構成について更に詳細に説明する。
次に、図10及び図13を用いて、通信端末3の各機能構成について更に詳細に説明する。
通信端末3の送受信部31は、主に、図10に示されている通信部313及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理システム5と各種データ(または情報)の送受信を行う。
接続部38は、主に、電気接点、及びCPU301の処理によって実現され、通信端末3に電源供給すると共に、データ通信を行う。
記憶・読出部39は、主に、図10に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。
<画像管理システムの機能構成>
次に、図11及び図13を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、検出部52、及び記憶・読出部59を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
次に、図11及び図13を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、検出部52、及び記憶・読出部59を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、画像管理システム5は、図11に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、通信端末3から送られて来る撮影画像データが記憶される。
更に、記憶部5000には、人物画像管理DB5001が構築されている。人物画像管理DB5001は、後述の人物画像管理テーブルによって構成されている。以下、人物画像管理テーブルについて詳細に説明する。
(人物画像管理テーブル)
図14は、人物画像管理テーブルを示す概念図である。この人物画像管理テーブルでは、撮影画像ID毎に、撮影画像データのファイル名、撮影画像の撮影日時、人物検出領域ID、及び人物位置と範囲が関連付けて記憶されて管理されている。
図14は、人物画像管理テーブルを示す概念図である。この人物画像管理テーブルでは、撮影画像ID毎に、撮影画像データのファイル名、撮影画像の撮影日時、人物検出領域ID、及び人物位置と範囲が関連付けて記憶されて管理されている。
このうち、撮影画像IDは、撮影画像データを識別するための撮影画像識別情報の一例である。撮影画像データのファイル名は、この関連付けられている撮影画像IDで示される撮影画像データのファイル名である。撮影画像の撮影日時は、この関連付けられている撮影画像データが装置IDで示される撮影装置1で撮影された日時である。撮影画像データは、記憶部5000に記憶されている。
また、人物検出領域IDは、検出部52によって、撮影画像データから検出された人物検出領域を識別するための人物検出領域識別情報の一例である。人物検出領域は、図15に示されているように、人物位置と範囲によって示され、人物像(矩形画像)の基準位置(x,y)を示す人物位置と、この人物位置からの横幅(w)及び高さ(h)を示す範囲によって構成されている。人物位置と範囲は、撮影画像(全天球パノラマ画像)データにおける人物画像の特定の1点と、幅と高さによる範囲である。例えば、図15に示されているように、人物像は矩形状に検知され、矩形の左上の角が人物の基準位置(x11,y11)を示し、矩形の幅がw11で、矩形の高さがh11を示す。
また、人物画像管理テーブルの各項目(フィールド)のうち、撮影画像ID、人物検出領域ID、及び人物位置と範囲が、図12に示されているステップS5で送信される人物検出情報を構成する。
(画像管理システムの各機能構成)
次に、図13を用いて、画像管理システム5の各機能構成について詳細に説明する。
次に、図13を用いて、画像管理システム5の各機能構成について詳細に説明する。
画像管理システム5の送受信部51は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は通信端末7と各種データ(または情報)の送受信を行う。
検出部52は、主に、図11に示されているCPU501の処理によって実現され、撮影画像データにおける人物像を検出する。この人物像の検出は、SVM(Support Vector Machine)の人物検出方式等により行なわれる。具体的には、検出部52は、撮影画像データにおける人物像の特徴量に基づいて各人物を検出し、検出した各人物像の撮影画像(2次元画像)データにおける位置を特定する。この場合の特徴量は、例えば、人物の縦横サイズ、色彩、及び顔、並びに人物の検出領域の面積である。
記憶・読出部59は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。
<通信端末7の機能構成>
次に、図11及び図13を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、表示制御部73、ヒートマップ作成部74、及び、記憶・読出部79を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
次に、図11及び図13を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、表示制御部73、ヒートマップ作成部74、及び、記憶・読出部79を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、通信端末7は、図11に示されているRAM503、及びHD504によって構築される記憶部7000を有している。
(通信端末7の各機能構成)
次に、図13を用いて、通信端末7の各機能構成について詳細に説明する。
次に、図13を用いて、通信端末7の各機能構成について詳細に説明する。
通信端末7の送受信部71は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理システム5と各種データ(または情報)の送受信を行う。
受付部72は、主に、図11に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、利用者(図8では、閲覧者Y)からの操作入力を受け付ける。
表示制御部73は、主に、図11に示されているCPU501の処理によって実現され、通信端末7のディスプレイ508に各種画像を表示させるための制御を行なう。表示制御部73は、例えば、撮影画像データに関する画像(所定領域画像、特定領域画像、又は撮影画像)にヒートマップ画像をマッピングして、通信端末7のディスプレイ508に表示させる。
ヒートマップ作成部74は、主に、図11に示されているCPU501の処理によって実現され、ヒートマップ画像を作成する。
記憶・読出部79は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。
ここで、ヒートマップ作成部74について詳細に説明する。ヒートマップ作成部74は、読出部74b、判断部74c、保存部74d、算出部74e、加算部74g、及びレンダリング部74hを含んでいる。
これらのうち、読出部74bは、例えば、記憶部7000から、各種データを読み出す。
判断部74cは、例えば、複数の撮影画像データのうちの第1の撮影画像データにおける第1の人物の検出領域内の第1の位置及び第1の人物の検出領域の第1の面積が、複数の撮影画像データのうちで第1の撮影画像データが得られた後に得られた第2の撮影画像データにおける第2の人物の検出領域内の第2の位置及び第2の人物の検出領域の第2の面積に対して、所定範囲内であるか否かにより、前記第1の人物と第2の人物が同一体であるか否かを判断する。
保存部74dは、例えば、記憶部7000に各種データを保存する。
算出部74eは、例えば、人物検出情報における人物位置と範囲に基づき、人物検出領域の中心点の位置を算出すると共に、人物検出領域の面積を算出する。
加算部74gは、図19(b)に示されているように、後述の中間テーブルにおいて、滞留ポイント欄に差分時間を加算する。
レンダリング部74hは、例えば、図21に示されている最終テーブルを色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングする。
<<実施形態の処理又は動作>>
続いて、図16乃至図22を用いて、本実施形態の処理又は動作について説明する。図16は、ヒートマップ画像の作成方法を示すフローチャート(前半)である。図17は、ヒートマップ画像の作成方法を示すフローチャート(後半)である。図18乃至図21は、滞留ポイントを算出する際の概念図を示す。特に、図18乃至図20の(a)は人物検出領域が表わされた撮影画像の概念図を示す。図18乃至図20の(b)は人物特定情報を示す。図18乃至図21の(c)は中間テーブルの概念図を示す。図18乃至図20の(c)及び図21は、最終テーブルの概念図を示す。ここでは、特徴量の一例として人物の検出領域の面積を利用する場合について説明する。
続いて、図16乃至図22を用いて、本実施形態の処理又は動作について説明する。図16は、ヒートマップ画像の作成方法を示すフローチャート(前半)である。図17は、ヒートマップ画像の作成方法を示すフローチャート(後半)である。図18乃至図21は、滞留ポイントを算出する際の概念図を示す。特に、図18乃至図20の(a)は人物検出領域が表わされた撮影画像の概念図を示す。図18乃至図20の(b)は人物特定情報を示す。図18乃至図21の(c)は中間テーブルの概念図を示す。図18乃至図20の(c)及び図21は、最終テーブルの概念図を示す。ここでは、特徴量の一例として人物の検出領域の面積を利用する場合について説明する。
まず、読出部74bは、記憶部7000から、元の撮影画像データの解像度を読み出す(ステップS11)。また、読出部74bは、記憶部7000から、全ての人物検出情報を読み出す(ステップS12)。そして、読出部74bは、記憶部7000に記憶されており、まだ読み出されていない撮影画像データを検索する(ステップS13)。
次に、判断部74cは、ステップS13による検索によって、読み出されていない撮影画像データがあるか否かを判断する(ステップS14)。そして、判断部74cによって読み出されていない撮影画像データがあると判断された場合には、読出部74bは、記憶部7000から、まだ読み出されていない撮影画像データを読み出す(ステップS15)。なお、ステップS14において、判断部74cによって読み出されていない撮影画像データがないと判断された場合には、後述のステップS41の処理に進む。
次に、判断部74cは、新たに読み出された撮影画像データを示す撮影画像IDと同じ撮影画像IDで特定される人物検出情報があるか否かにより、ステップS15によって読み出された同じ撮影画像データに次の人物検出領域があるかを判断する(ステップS16)。このステップS16の処理は、後述の比較元である人物検出領域を検索するための処理である。なお、最初の判断は、「次の」ではなく「最初の」人物検出領域があるか否かの判断である。全ての人物検出情報を図14で示すとすると、最初の判断の場合、判断部74cは、撮影画像ID「p001」で特定される人物検出情報として、人物検出領域ID「a0011」で示される人物検出情報があると判断する。また、次の場合は、判断部74cは、同じく撮影画像ID「p001」で特定される人物検出情報として、次の人物検出領域ID「a0012」で示される人物検出情報があると判断する。
そして、ステップS16により、判断部74cによって同じ撮影画像データに次の(最初の)人物検出領域があると判断された場合には(YES)、算出部74eは、人物検出情報における人物位置と範囲に基づき、人物検出領域の中心点の位置を算出すると共に、人物検出領域の面積を算出する(ステップS17)。具体的には、算出部74eは、人物を含む矩形領域の任意の角の位置と、この位置からの矩形領域の幅及び高さを示す範囲によって、検出領域を特定する。なお、算出部74eは、人物検出領域の面積を算出する場合、上述のステップS11によって読み出された解像度の情報を用いる。
例えば、図18(a)に示されているように、最初の撮影日時の撮影画像データにおいて、4つの人物検出領域が存在する場合、算出部74eは、最初に、人物検出領域ID「a0011」で特定される人物検出情報の人物範囲(x11,y11,w11,h11)の情報に基づき、人物検出領域a1の中心点pa1の位置(x1,y1)及び面積α1を算出する。そして、保存部74dは、ステップS17によって算出された中心点位置及び面積を、図18(b)に示されているように、識別子を付して人物特定情報として記憶部7000に一時的に保存する(ステップS18)。図18(b)に示されている人物特定情報は、中心点位置(x1,y1)及び面積α1に、識別子「a01」が関連付けられている。但し、最初の撮影画像データでは、1つ前の撮影時間の撮影画像データがなく、この1つ前の撮影時間の撮影画像データ内の比較先である人物検出領域がないため、類否判断結果は無い状態である。
なお、人物検出領域a1,a2,a3,a4は、それぞれ中心点pa1,pa2,pa3,pa4を含み、更に、それぞれ識別子a01,a02,a03,a04で特定される。
続いて、上記ステップS16に戻り、判断部74cは、ステップS15によって読み出された同じ撮影画像データ(図18(a)参照)に次の人物検出領域があるかを判断する。この場合、全ての人物検出情報を図14で示すとすると、判断部74cは、同じ撮影画像ID「p001」で特定される次の人物検出情報として、人物検出領域ID「a0012」で示される人物検出情報があると判断する。そして、ステップS17により、算出部74eは、人物検出領域ID「a0012」で特定される人物検出情報の人物範囲(x12,y12,w12,h12)の情報に基づき、図18(a)に示されているように、人物検出領域a2の中心点pa2の位置(x2,y2)及び面積α2を算出する。そして、ステップS18により、保存部74dは、ステップS17によって算出された中心点の位置及び面積を、図18(b)に示されているように、識別子を付して記憶部7000に一時的に保存する。図18(b)では、中心点の位置(x2,y2)及び面積α2に、識別子「a02」が付されて関連付けて保存されている。
以上のようにして、ステップS16〜S18の処理が繰り返され、ステップS16において、判断部74cが、ステップS15によって読み出された同じ撮影画像データに次の人物検出領域がないと判断した場合には(NO)、図17に示されているステップS21の処理に進む。
次に、判断部74cは、滞留者又は滞留候補者がいるかを判断する(ステップS21)。
具体的には、判断部74cは「滞留候補者」がいるかを判断する場合には、上記ステップS18で一時保存された識別子が、中間テーブルで既に管理されているかを判断する。そして、中間テーブルで管理されていない場合には、判断部74cは、「滞在候補者」がいないと判断する。
具体的には、判断部74cは「滞留候補者」がいるかを判断する場合には、上記ステップS18で一時保存された識別子が、中間テーブルで既に管理されているかを判断する。そして、中間テーブルで管理されていない場合には、判断部74cは、「滞在候補者」がいないと判断する。
また、判断部74cは「滞留者」がいるかを判断する場合には、上記ステップS18で類否判断結果として一時保存されている識別子が、中間テーブルで管理されているかを判断する。即ち、判断部74cは「滞留者」がいるかを判断する場合には、上記ステップS18で一時保存された識別子で示される人物検出領域に同一又は類似する人物検出領域を示す識別子が、中間テーブルで既に管理されているかを判断する。そして、中間テーブルで管理されていない場合には、判断部74cは、「滞在者」がいないと判断する。
例えば、最初は、中間テーブルには何も管理されていないため、判断部74cは、図18(b)に示されている各人物特定情報に係る人物を、全て滞留候補者と判断する。
そして、判断部74cが、滞留者及び滞留者候補がいないと判断した場合には(NO)、記憶・読出部79は、記憶部7000に記憶されている中間テーブルに、新たな比較元である人物検出領域の識別子と、それぞれの滞留ポイントを関連付けて保存する(ステップS22)。最初は、図18(c)に示されているように、1つ前の撮影日時の撮影画像データがないため、全ての人物検出領域を示す識別子が管理され、各滞留ポイントは全て0である。なお、中間テーブルには、人物検出領域の識別子毎に、滞留ポイントが関連付けられた中間データが管理されている。
次に、算出部74aは、1つ前の撮影日時の撮影画像データと、今回の撮影日時の撮影画像データとの撮影日時の差分時間を算出する(ステップS23)。ここでは、1つ前の撮影日時の撮影画像データがないため、撮影日時の差分時間は0(秒)である。そして、加算部74gは、中間テーブルにおいて、滞留ポイント欄に差分時間を加算する(ステップS24)。ここでは、最初の撮影画像データであるため、全ての識別子の滞留ポイントが0である。その後、ステップS14に進み、2順目の処理が進む。なお、この時点では、図18(d)に示されている最終テーブルで管理するデータはない。
そして、ステップS14において、判断部74cは、読み出されていない撮影画像データがあるかを判断する。判断部74cが、読み出されていない撮影画像データがあると判断した場合には(YES)、ステップS15において、記憶・読出部97は、この読み出されていない2番目の撮影日時の撮影画像データを読み出す。
次に、ステップS16において、判断部74cが、ステップS15によって読み出された同じ2番目の撮影日時の撮影画像データに、次の人物検出領域があるかを判断する。なお、最初の判断は、「次の」ではなく「最初の」人物検出領域があるか否かの判断である。
例えば、全ての人物検出情報を図14で示すとすると、2番目の撮影日時の撮影画像データの場合、ステップS16において、判断部74cは、撮影画像ID「p002」で特定される最初の人物検出情報として、人物検出領域ID「a0021」で示される人物検出情報があると判断する。そして、図19(a)に示されているように、例えば、4つの人物検出領域が存在する場合、ステップS17において、算出部74eは、人物検出領域ID「a0021」で特定される人物検出情報の人物範囲(x21,y21,w21,h21)の情報に基づき、人物検出領域b1の中心点pb1の位置(x1,y1)及び面積α1を算出する。そして、ステップS18によって、保存部74dは、ステップS17によって算出された中心点の位置及び面積を、図19(b)に示されているように、識別子を付して人物特定情報として記憶部7000に一時的に保存する。図19(b)では、中心点の位置(x1,y1)及び面積α1に、識別子「b01」が付されて関連付けて保存されている。
なお、人物検出領域b1,b2,b3,b4は、それぞれ中心点pb1,pb2,pb3,pb4を含み、更に、それぞれ識別子b01,b02,b03,b04で特定される。
次に、上記ステップS16に戻り、判断部74cは、ステップS15によって読み出された同じ撮影画像データ(図19(b)参照)に次の人物検出領域があるかを判断する。この場合、全ての人物検出情報を図14で示すとすると、次の判断の場合、判断部74cは、同じ撮影画像ID「p002」で特定される次の人物検出情報として、人物検出領域ID「a0022」で示される人物検出情報があると判断する。そして、ステップS17により、算出部74eは、人物検出領域ID「a0022」で特定される人物検出情報の人物範囲(x22,y22,w22,h22)の情報に基づき、図19(a)に示されているように、人物検出領域b2の中心点pa2の位置(x2,y2)及び面積α2を算出する。そして、ステップS18により、保存部74dは、ステップS17によって算出された中心点の位置及び面積を、図19(b)に示されているように、識別子を付して人物特定情報として記憶部7000に一時的に保存する。図19(b)では、中心点の位置(x2,y2)及び面積α2に、識別子「b02」が付されて関連付けて保存されている。
以上のようにして、ステップS16〜S18の処理が繰り返され、ステップS16において、判断部74cが、ステップS15によって読み出された同じ2番目の撮影時間の撮影画像データに次の人物検出領域がないと判断した場合には(NO)、図17に示されているステップS21の処理に進む。
続いて、ステップS21において、判断部74cが、滞留者又は滞留候補者がいると判断した場合には(YES)、更に、判断部74cは、図19(b)に示されている人物特定情報において、各識別子で示される比較元としての人物検出領域に対して、図18(b)に示されている1つ前の撮影時間の撮影画像データの中で次に近い人物検出領域があるかを判断する(ステップS25)。なお、最初の判断は、「次の」ではなく「最初の」人物検出領域があるか否かの判断である。ここでは、判断部74cは、図18(b)において、比較先である識別子a01で示される人物検出領域a1があると判断する。
次に、判断部74cは、比較元である今回の撮影時間の人物検出領域と、比較先である1つ前の撮影時間の任意の人物検出領域との各中心点位置の距離及び領域の面積比が、それぞれ所定値(例えば、距離が10画素、面積比は80%〜120%)内であるかの判断により、両者の類否判断を行なう(ステップS26)。このステップS26において、判断部74cが、所定値内であると判断した場合には(YES)、保存部74dは、図19(b)に示されているように、類否判断結果を一時保存する(ステップS27)。例えば、比較元である識別子b01で示される人物検出領域b1(図19(a)参照)に対して、最初の比較先の人物検出領域a1(図18(a)参照)が同じ又は類似している場合には、保存部74dは、図19(b)に示されている識別子b01の類否判断結果として、比較元の人物検出領域a1の識別子a01と関連付けて保存する。
次に、算出部74eは、1つ前の撮影画像データの撮影日時と、今回の撮影画像データの撮影日時の差分時間を算出する(ステップS28)。加算部74hは、図19(c)に示されているように、中間テーブルにおいて、類否判断結果として示されている識別子a01の滞留ポイント欄において、ステップS28によって算出された差分時間を加算する(ステップS29)。ここでは、図14に示されているように、1つ前の撮影画像データ(撮影画像ID「p001」)と今回の撮影画像データ(撮影画像ID「p002」)との差分時間は、5(秒)であり、図18(c)で示されている1つ前の中間テーブルの識別子a01の滞留ポイントは0であるため、図19(c)に示されている識別子a01の滞留ポイントは5(=0+5)となる。なお、保存部74dは、今回の撮影画像データの比較元である人物検出領域b1の識別子b01を、図19(c)に示されている中間テーブルに保存せずに、類似と判断された比較元である人物検出領域a1の識別子a01を保存したままにしておく。図18(a)と図19(a)とを比較すると、識別子a01で示される人物検出領域a1と、識別子b01で示される人物検出領域b1とが同一又は類似していると判断される。そして、上記ステップS21の処理に戻る。
このように、ステップS21〜S29の処理が繰り返され、例えば、図18(c)に示されているような中間テーブルにおいて、識別子a01,a02の滞留ポイントの加算が終了する。
一方、上記ステップS26において、判断部74cが、所定値内ではない(所定値外である)と判断した場合には(YES)、保存部74dは、図19(b)に示されているように、類否判断結果を一時保存する(ステップS27)。例えば、比較元である識別子b03で示される人物検出領域b3(図19(a)参照)に対して、いずれの比較先の人物検出領域に対しても同一又は類似ではない場合には、保存部74dは、図19(b)に示されている識別子b01の類否判断結果を「×」として保存する。なお、同一又は類似ではない旨を保存できれば、「×」でなくても構わない。これにより、図18(a)及び図19(a)において、人物検出領域b1は人物検出領域a1に同一又は類似と判断され、人物検出領域b2は人物検出領域a2に同一又は類似と判断される。これに対して、人物検出領域b3及び人物検出領域b4は、それぞれ同一又は類似する人物検出領域がないと判断される。この場合、図19に示されている中間テーブルには、新たな識別子b03,b04が、滞留ポイント0として管理される。
一方、上記ステップS25において、判断部74cが、図18(b)に示されている1つ前の撮影時間の撮影画像データの中で、次に近い人物検出領域がないと判断した場合には(NO)、保存部74dは、比較元である人物検出領域を示す識別子を、中間テーブルから、図19(d)に示されている最終テーブルに移行する(ステップS31)。例えば、図18(c)に示されている中間テーブルにおいて、識別子a03,a04で示される人物検出領域a3,a4が、次の撮影時間の撮影画像データにおける各人物検出領域に対して、同一及び類似ではない場合には、保存部74dによって、図19(d)に示されているように最終テーブルに移行される。例えば、図19(d)に示されている最終テーブルの移行対象は、中間テーブル(図18(c)参照)における識別子及び滞留ポイント、並びに人物特定情報(図18(b)参照)において同じ識別子に対応する中心点位置及び面積の情報である。
以上のように、ステップ14〜S31の処理を繰り返すことで、3番目の撮影時間の撮影画像データにおいて、例えば、図20(a)に示されているように、4つの人物検出領域が存在する場合、人物特定情報は図20(b)に示され、中間テーブル及び最終テーブルは、図20(c),(d)に示されているようなデータを管理することになる。ここでは、識別子c01で示される人物検出領域pc1は、2つ前の撮影時間の撮影画像データにおける識別子a01で示される人物検出領域pa1と同一又は類似であると判断されため、図20(c)における中間テーブルでは、識別子a01の滞留ポイントが更に「6」加算され、「11」になっている。
なお、人物検出領域c1,c2,c3,c4は、それぞれ中心点pc1,pc2,pc3,pc4を含み、更に、それぞれ識別子c01,c02,c03,c04で特定される。
一方、上記ステップS14において、判断部74cが、読み出されていない撮影画像データがないと判断した場合には(NO)、保存部74dは、図20(c)に示されている全ての比較元としての人物検出領域を示す識別子を、中間テーブルから図21に示されているように全て移行する。この場合の移行対象は、中間テーブル(図20(c)参照)における識別子及び滞留ポイント、並びに人物特定情報(図20(b)参照)において同じ識別子に対応する中心点位置及び面積の情報である。
以上により、全ての撮影画像データにおける人物検出領域について滞留ポイントの算出が行なわれると、レンダリング部74hは、図21に示されている最終テーブルに基づいて、ヒートマップ画像をレンダリングする。図22は、滞留ポイントに基づいて作成されたヒートマップ画像が付された所定領域画像を示す図である。図22は、ある衣服店の店内の撮影画像を示している。この所定領域画像を含む撮影画像データは、例えば、ステップS14によって最初に読み出された撮影画像データである。そして、表示制御部73は、所定領域画像にヒートマップ画像をマッピングして、通信端末7のディスプレイ508に表示させる。実際には、滞留時間が長い方から短い方にかけて、赤色、オレンジ色、黄色、黄緑色、青色等で表現される。しかし、図22では、白黒の濃淡で表現し、滞留時間が長い方から短い方にかけて、濃色から淡色で表現されている。これにより、閲覧者Yは、来客者が、どの商品に興味を示したかを容易に把握することができる。
なお、1つ前の撮影された撮影画像データにおける第1の人物と、今回の撮影画像データにおける第2の人物がある場合、判断部74cによって、第1の人物と第2の人物が同一体であると判断された場合には、レンダリング部74hは淡い色とし、判断部74cによって、第1の人物と第2の人物が同一体でないと判断された場合には、レンダリング部74hは濃い色としてもよい。また、第2の人物の撮影時間と第1の人物の撮影時間との差分時間が大きいほど、レンダリング部74hは濃い色としてもよい。
また、図22では、表示制御部73は、ヒートマップ画像が重畳表示された撮影画像の下側に、予め設定された閾値(時間)以上滞留した人物をヒートマップ画像して表わすべく、スライダsを表示している。ここでは、滞留時間が10秒(滞留ポイント10)以上の滞留者をヒートアップ画像で表示するような設定を示している。
更に、図22では、表示制御部73は、閾値(時間)の上限の設定を表わすべく、上限値(MAX)を表示している。ここでは、上限値が1分である設定を示している。このように、上限値を定めることで、例えば、商品の整理等で長時間同じ場所に滞留することになるような店員をヒートマップ画像で表示しないようにして、来客者のみをヒートマップ画像で表示することができる。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、各人物の検出領域内の所定位置及び検出領域の面積を色の濃淡の重み付けに利用して、ヒートマップ画像をレンダリングすることで、人物等の披検体の滞留の分析を、より正確に行なうことができるという効果を奏する。
以上説明したように本実施形態によれば、各人物の検出領域内の所定位置及び検出領域の面積を色の濃淡の重み付けに利用して、ヒートマップ画像をレンダリングすることで、人物等の披検体の滞留の分析を、より正確に行なうことができるという効果を奏する。
特に、撮影画像が全天球画像の場合、広い範囲で人物が映し出されるため、人物等の披検体の滞留を探し出すのは困難であるため、本実施形態は非常に有用である。
〔実施形態の補足〕
上記実施形態では、人物の検出領域について説明したが、これに限らず、移動するものであれば、動物、貨物、車両等であっても良い。人物、動物、貨物、車両等は、被検体の一例である。
上記実施形態では、人物の検出領域について説明したが、これに限らず、移動するものであれば、動物、貨物、車両等であっても良い。人物、動物、貨物、車両等は、被検体の一例である。
また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
更に、通信端末7は、ノートPCだけでなく、デスクトップ型のPC等のパーソナルコンピュータであってもよく、更に、スマートフォン、タブレット型端末、又はスマートウォッチであってもよい。
1 撮影装置
3 通信端末
5 画像管理システム
7 通信端末
9 通信ネットワーク
71 送受信部
72 受付部
73 表示制御部(表示制御手段の一例)
74 ヒートマップ作成部
74b 読出部
74c 判断部(判断手段の一例)
74d 保存部
74e 算出部(算出手段の一例)
74g 加算部
74h レンダリング部(レンダリング手段の一例)
5000 記憶部
5001 人物画像管理DB
7000 記憶部
3 通信端末
5 画像管理システム
7 通信端末
9 通信ネットワーク
71 送受信部
72 受付部
73 表示制御部(表示制御手段の一例)
74 ヒートマップ作成部
74b 読出部
74c 判断部(判断手段の一例)
74d 保存部
74e 算出部(算出手段の一例)
74g 加算部
74h レンダリング部(レンダリング手段の一例)
5000 記憶部
5001 人物画像管理DB
7000 記憶部
Claims (10)
- 所定の位置で撮影されることで得られた撮影画像データに係る撮影画像にヒートマップ画像をマッピングして表示する通信端末であって、
前記所定の位置で時間経過により撮影されることで得られた複数の撮影画像データにおける被検体の検出領域の位置及び当該検出領域の特徴量を算出する算出手段と、
前記算出手段によって算出された前記所定位置及び特徴量を色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングするレンダリング手段と、
前記撮影画像に前記ヒートマップ画像をマッピングして表示させる表示制御手段と、
を有する通信端末。 - 前記複数の撮影画像データのうちの第1の撮影画像データにおける第1の被検体の検出領域内の第1の位置及び当該検出領域の第1の特徴量が、前記複数の撮影画像データのうちで前記第1の撮影画像データが得られた後に得られた第2の撮影画像データにおける第2の被検体の検出領域内の第2の位置及び当該検出領域の第2の特徴量に対して、所定範囲内であるか否かにより、前記第1の被検体と前記第2の被検体が同一体であるか否かを判断する判断手段を有し、
前記判断手段によって、前記第1の被検体と前記第2の被検体が同一体であると判断された場合と同一体でないと判断された場合とで、前記レンダリング手段は、色の濃淡の重み付けを変えることを特徴とする通信端末。 - 前記判断手段によって、前記第1の被検体と前記第2の被検体が同一体であると判断された場合には、前記レンダリング手段は淡い色とし、前記判断手段によって、前記第1の被検体と前記第2の被検体が同一体でないと判断された場合には、前記レンダリング手段は濃い色とすることを特徴とする請求項2に記載の通信端末。
- 前記第2の被検体の撮影時間と前記第1の被検体の撮影時間との差分時間が大きいほど、前記レンダリング手段は濃い色とすることを特徴とする請求項3に記載の通信端末。
- 前記算出手段は、前記被検体を含む矩形領域の任意の角の位置と、当該位置からの前記矩形領域の幅及び高さを示す範囲によって、前記検出領域を特定する請求項1乃至4のいずれか一項に記載の通信端末。
- 前記特徴量は、前記被検体の縦横サイズ、色彩、及び顔、並びに前記検出領域の面積であることを特徴とする請求項1乃至5のいずれか一項に記載の通信端末。
- 前記通信端末は、パーソナルコンピュータ、スマートフォン、タブレット型端末、又はスマートウォッチである請求項1乃至6のいずれか一項に記載の通信端末。
- 請求項1乃至7に記載の通信端末と、
前記複数の撮影画像データを管理する画像管理システムと、
を有する画像通信システムであって、
前記通信端末は、前記画像管理システムから前記複数の撮影画像データを受信する受信手段を有することを特徴とする画像通信システム。 - 所定の位置で撮影されることで得られた撮影画像データに係る撮影画像にヒートマップ画像をマッピングして表示する通信端末が実行する表示方法であって、
前記通信端末が、
前記所定の位置で時間経過により撮影されることで得られた複数の撮影画像データにおける各被検体の検出領域内の所定位置及び当該検出領域の特徴量を算出する算出ステップと、
前記算出ステップによって算出された前記所定位置及び特徴量を色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングするレンダリングステップと、
前記撮影画像に前記ヒートマップ画像をマッピングして表示させる表示制御ステップと、
を実行することを特徴とする表示方法。 - コンピュータに、請求項9に記載の表示方法を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033507A JP2018139052A (ja) | 2017-02-24 | 2017-02-24 | 通信端末、画像通信システム、表示方法、及びプログラム |
US15/449,528 US10277836B2 (en) | 2016-03-07 | 2017-03-03 | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
US16/283,456 US10827133B2 (en) | 2016-03-07 | 2019-02-22 | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033507A JP2018139052A (ja) | 2017-02-24 | 2017-02-24 | 通信端末、画像通信システム、表示方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018139052A true JP2018139052A (ja) | 2018-09-06 |
Family
ID=63451409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017033507A Pending JP2018139052A (ja) | 2016-03-07 | 2017-02-24 | 通信端末、画像通信システム、表示方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018139052A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3549923A1 (en) | 2018-04-05 | 2019-10-09 | Nichia Corporation | Ceramic complex, light source for projector, and method for producing ceramic complex |
CN113269011A (zh) * | 2020-02-17 | 2021-08-17 | 浙江宇视科技有限公司 | 车辆检测方法、装置、设备及存储介质 |
CN113273178A (zh) * | 2019-01-30 | 2021-08-17 | 松下知识产权经营株式会社 | 畜舍监视方法和畜舍监视系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012186743A (ja) * | 2011-03-08 | 2012-09-27 | Canon Inc | 追尾機能付き撮影装置及び方法 |
JP2013247508A (ja) * | 2012-05-25 | 2013-12-09 | Canon Inc | 自動追尾カメラの制御装置及び該制御装置を有する自動追尾カメラ |
JP2014039166A (ja) * | 2012-08-16 | 2014-02-27 | Canon Inc | 自動追尾カメラの制御装置及びそれを備える自動追尾カメラ |
JP2016048834A (ja) * | 2014-08-27 | 2016-04-07 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
-
2017
- 2017-02-24 JP JP2017033507A patent/JP2018139052A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012186743A (ja) * | 2011-03-08 | 2012-09-27 | Canon Inc | 追尾機能付き撮影装置及び方法 |
JP2013247508A (ja) * | 2012-05-25 | 2013-12-09 | Canon Inc | 自動追尾カメラの制御装置及び該制御装置を有する自動追尾カメラ |
JP2014039166A (ja) * | 2012-08-16 | 2014-02-27 | Canon Inc | 自動追尾カメラの制御装置及びそれを備える自動追尾カメラ |
JP2016048834A (ja) * | 2014-08-27 | 2016-04-07 | パナソニックIpマネジメント株式会社 | モニタリング装置、モニタリングシステムおよびモニタリング方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3549923A1 (en) | 2018-04-05 | 2019-10-09 | Nichia Corporation | Ceramic complex, light source for projector, and method for producing ceramic complex |
CN113273178A (zh) * | 2019-01-30 | 2021-08-17 | 松下知识产权经营株式会社 | 畜舍监视方法和畜舍监视系统 |
CN113269011A (zh) * | 2020-02-17 | 2021-08-17 | 浙江宇视科技有限公司 | 车辆检测方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10681271B2 (en) | Image processing apparatus, image capturing system, image processing method, and recording medium | |
US10827133B2 (en) | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product | |
US10593014B2 (en) | Image processing apparatus, image processing system, image capturing system, image processing method | |
US10187571B2 (en) | Image management apparatus, image communication system, method for controlling display of captured image, and non-transitory computer-readable medium | |
JP2019057903A (ja) | 画像処理装置、撮影システム、画像処理方法、及びプログラム | |
JP2019057264A (ja) | 画像処理装置、撮影システム、画像処理方法、及びプログラム | |
JP2017212510A (ja) | 画像管理装置、プログラム、画像管理システム及び情報端末 | |
US11062422B2 (en) | Image processing apparatus, image communication system, image processing method, and recording medium | |
JP2018139052A (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
CN111226255A (zh) | 图像处理设备,图像捕获系统,图像处理方法和记录介质 | |
JP6720778B2 (ja) | 画像管理システム、画像管理方法、及びプログラム | |
JP2018110384A (ja) | 画像処理装置、撮影システム、画像処理方法、及びプログラム | |
US20170091899A1 (en) | Image management apparatus and system, and method for controlling display of captured image | |
US11195295B2 (en) | Control system, method of performing analysis and storage medium | |
JP2016194783A (ja) | 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム | |
JP2016194784A (ja) | 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム | |
JP2018109946A (ja) | 表示装置、プログラム、表示方法 | |
JP6812643B2 (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
JP2018026642A (ja) | 画像管理システム、画像通信システム、画像管理方法、及びプログラム | |
JP2017182681A (ja) | 画像処理システム、情報処理装置、プログラム | |
JP2019185757A (ja) | 画像処理装置、撮影システム、画像処理方法、及びプログラム | |
JP2017184025A (ja) | 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム | |
JP2018157538A (ja) | プログラム、撮像システム、情報処理装置 | |
CN112887663A (zh) | 图像显示方法、图像通信系统、摄影装置、以及存储介质 | |
JP2020088571A (ja) | 管理システム、情報処理システム、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201225 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210601 |