JP2017162014A - 通信端末、画像通信システム、表示方法、及びプログラム - Google Patents

通信端末、画像通信システム、表示方法、及びプログラム Download PDF

Info

Publication number
JP2017162014A
JP2017162014A JP2016043742A JP2016043742A JP2017162014A JP 2017162014 A JP2017162014 A JP 2017162014A JP 2016043742 A JP2016043742 A JP 2016043742A JP 2016043742 A JP2016043742 A JP 2016043742A JP 2017162014 A JP2017162014 A JP 2017162014A
Authority
JP
Japan
Prior art keywords
image
communication terminal
center point
heat map
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016043742A
Other languages
English (en)
Other versions
JP6812643B2 (ja
Inventor
聖 三井
Satoshi Mitsui
聖 三井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016043742A priority Critical patent/JP6812643B2/ja
Priority to US15/449,528 priority patent/US10277836B2/en
Publication of JP2017162014A publication Critical patent/JP2017162014A/ja
Priority to US16/283,456 priority patent/US10827133B2/en
Application granted granted Critical
Publication of JP6812643B2 publication Critical patent/JP6812643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人物が表されている撮影画像とは別に、人物の滞留や動線をヒートマップ画像により表すシステムが知られている。これに対して、人物が表されている撮影画像に、人物の滞留や動線を表すヒートマップ画像をマッピングして表示すれば、閲覧者は、ヒートマップ画像によって撮影画像が表している状況を把握し易くなる。しかし、単に撮影画像に対して、人物の滞留や動線を表すヒートマップ画像をマッピングすると、ヒートマップ画像によって、人物の顔や足等が見えづらくなるため、むしろヒートマップ画像が邪魔になる。【解決手段】人物検出領域の中心点を色の濃淡の重み付けに利用して、ヒートマップ画像をレンダリングすることで、人物の顔や足等を表示することができる。これにより、ヒートマップ画像が邪魔にならないため、閲覧者は、ヒートマップ画像からの情報を得られると共に、撮影画像が表している状況を把握し易いという効果を奏する。【選択図】図29

Description

本発明は、通信端末、画像通信システム、表示方法、及びプログラムに関するものである。
近年、撮影画像データから、人物の滞留や動線を分析して、店舗運営、商品企画、道路の整備、防犯等に反映する事例が増えており、そのための技術として監視カメラと画像処理技術を組み合わせた監視システムが知られている(特許文献1参照)。
また、人物が表されている撮影画像とは別に、人物の滞留や動線をヒートマップ画像により表すシステムが知られている(特許文献2参照)。これに対して、人物が表されている撮影画像に、人物の滞留や動線を表すヒートマップ画像をマッピングして表示すれば、閲覧者は、ヒートマップ画像によって撮影画像が表している状況を把握し易くなる。
しかしながら、単に撮影画像に対して、人物の滞留や動線を表すヒートマップ画像をマッピングすると、ヒートマップ画像によって、人物の顔や足等が見えづらくなるため、むしろヒートマップ画像が邪魔になり、閲覧者は、撮影画像が表している状況を把握し難いという課題が生じる。
請求項1に係る発明は、所定の位置で撮影されることで得られた撮影画像データに係る撮影画像にヒートマップ画像をマッピングして表示する通信端末であって、前記所定の位置で時間経過により撮影されることで得られた複数の撮影画像データにおける各人物検出領域の中心点を算出する算出手段と、前記算出手段によって算出された前記中心点を色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングするレンダリング手段と、前記撮影画像に前記ヒートマップ画像をマッピングして表示する表示制御手段と、を有する通信端末である。
以上説明したように本発明によれば、人物検出領域の中心点を色の濃淡の重み付けに利用して、ヒートマップ画像をレンダリングすることで、人物の顔や足等を表示することができる。これにより、ヒートマップ画像が邪魔にならないため、閲覧者は、ヒートマップ画像からの情報を得られると共に、撮影画像が表している状況を把握し易いという効果を奏する。
(a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。 撮影装置の使用イメージ図である。 (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。 (a)メルカトル画像で球を被う状態を示した概念図、(b)全天球パノラマ画像を示した図である。 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。 (a)は図4の立体斜視図、(b)はディスプレイに所定領域の画像が表示された通信端末を示す図である。 所定領域情報と所定領域画像との関係を示した図である。 本発明の実施形態に係る画像通信システムの概略図である。 撮影装置のハードウェア構成図である。 通信端末3のハードウェア構成図である。 画像管理システム及び通信端末のハードウェア構成図である。 本実施形態の処理の概略を示した図である。 画像通信システムの機能ブロック図である。 人物画像管理テーブルを示す概念図である。 人物画像の位置と範囲の概念図である。 (a)点数表の概念図であり、(b)描画点表の概念図である。 第1の実施形態におけるヒートマップ画像の作成方法を示すフローチャートである。 第1の実施形態におけるヒートマップ画像の作成方法を示すフローチャートである。 描画点(第1の人物検知領域の第1の中心点及び点数)を定める処理を示した概念図である。 描画点(第2の人物検知領域の第2の中心点及び点数)を定める処理を示した概念図である。 描画点(第1の中心点と第2の中心点の平均中心点及び点数)を定める処理を示した概念図である。 描画点(第3の人物検知領域の第3の中心点及び点数)を定める処理を示した概念図である。 描画点(第1の中心点と第2の中心点の平均中心点及び点数)、並びに描画点(第2の中心点と第3の中心点の平均中心点及び点数)を定める処理を示した概念図である。 描画点(平均中心点同士の平均中心点(第2平均中心点)及び点数)を定める処理を示した概念図である。 描画点(第4の人物検知領域の第4の中心点及び点数)定める処理を示した概念図である。 描画点(複数の画像のそれぞれの各種中心点及び点数)を示した概念図である。 複数の画像における所定範囲内の描画点の集約を示した概念図である。 描画点に基づいて作成されたヒートマップ画像が付された所定領域画像を示す図である。 描画点に基づいて作成されたヒートマップ画像が付された全天球パノラマ画像を示す図である。 全天球パノラマ画像とヒートマップ画像の関係を示した概念図である。 第2の実施形態におけるヒートマップ画像の作成方法を示すフローチャートである。 第2の実施形態におけるヒートマップ画像の作成方法を示すフローチャートである。 各描画点(第1乃至第4の人物検知領域の第1乃至第4の中心点及び各点数)を定める処理を示した概念図である。 描画点(第1の中心点と第2の中心点の平均中心点及び点数)、描画点(第1の中心点と第3の中心点の平均中心点及び点数)、及び描画点(第2の中心点と第3の中心点の平均中心点及び点数)を定める処理を示した概念図である。
〔第1の実施形態〕
以下、図面を用いて、本発明の第1の実施形態について説明する。
<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図7を用いて、全天球パノラマ画像の生成方法について説明する。
まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。
図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),(b),(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。また、図1(b)に示されているように、撮影装置1の正面側には、シャッターボタン等の操作部115が設けられている。
次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。
図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。
以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。
なお、図5は、全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、3次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図である。また、図6(a)では、図4に示されている全天球パノラマ画像が、3次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、この全天球パノラマ画像における仮想カメラICの位置の所定領域情報によって特定される。この所定領域情報は、例えば、座標x(rH)、座標y(rV)、及び画角α(angle)によって示される。所定領域Tのズームは、画角αの範囲(円弧)を広げたり縮めたりすることで表現することができる。また、所定領域Tのズームは、仮想カメラICを全天球パノラマ画像に近づいたり、遠ざけたりすることで表現することもできる。
そして、図6(a)で示されているように、全天球パノラマ画像における所定領域Tの画像は、図6(b)に示されているように、所定のディスプレイに、所定領域画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(x,y,α)によって表された画像である。
ここで、図7を用いて、所定領域情報と所定領域画像の関係について説明する。なお、図7は、所定領域情報と所定領域画像の関係との関係を示した図である。図7に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角線画角を2Lとした場合の中心点CPが、所定領域情報の(x,y)パラメータとなる。fは仮想カメラICから所定領域Tの中心点CPまでの距離である。そして、図7では、一般的に以下の式(1)で示される三角関数が成り立つ。
Lf=tan(α/2)・・・(式1)
<画像通信システムの概略>
続いて、図8を用いて、本実施形態の画像通信システムの構成の概略について説明する。図8は、本実施形態の画像通信システムの構成の概略図である。
図8に示されているように、本実施形態の画像通信システムは、撮影装置1、通信端末3、無線ルータ9a、画像管理システム5、及び通信端末7によって構成されている。
このうち、撮影装置1は、上述のように、全天球(360°)パノラマ画像を得るためのデジタルカメラである。なお、この撮影装置1は、一般的なデジタルカメラであっても良く、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために全天球パノラマ画像を得るためのデジタルカメラとして説明を行う。通信端末3は、撮影装置1への充電やデータ送受信を行なうクレードル(Cradle)の一例である。また、通信端末3は、接点を介して撮影装置1とデータ通信を行なうことができると共に、無線ルータ9a及び通信ネットワーク9を介して画像管理システム5とデータ通信を行なうことができる。なお、通信ネットワーク9は、例えば、インターネットである。
また、画像管理システム5は、例えば、サーバコンピュータであり、通信ネットワーク9を介して、通信端末3,5とデータ通信を行なうことができる。画像管理システム5には、OpenGL ESがインストールされており、全天球パノラマ画像を作成する。
また、通信端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理システム5とデータ通信を行なうことができる。なお、画像管理システム5は、単一のサーバコンピュータによって構成されてもよいし、複数のサーバコンピュータによって構成されてもよい。
<実施形態のハードウェア構成>
次に、図9乃至図11を用いて、本実施形態の撮影装置1、通信端末3,7、及び画像管理システム5のハードウェア構成を詳細に説明する。
まず、図9を用いて、撮影装置1のハードウェア構成を説明する。なお、図9は、撮影装置のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全方位撮影装置とするが、撮像素子は3つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
図9に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置には表示部が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
通信部117は、撮影装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)やNFC等の短距離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。
次に、図10を用いて、通信端末3のハードウェア構成を説明する。なお、図10は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
図10に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)303、CPU301の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)304、CPU301の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ305を備えている。
なお、EEPROM304には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ305の代わりにCCDセンサを用いてもよい。
更に、通信端末3は、アンテナ313a、このアンテナ313aを利用して無線通信信号により、無線ルータ9a等と通信を行う通信部313、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部314、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
図11を用いて、画像管理システム5及びノートPCの場合の通信端末7のハードウェア構成を説明する。なお、図11は、画像管理システム5及び通信端末7のハードウェア構成図である。画像管理システム5、及び通信端末7は、ともにコンピュータであるため、以下では、画像管理システム5の構成について説明し、通信端末7の構成の説明は省略する。
画像管理システム5は、画像管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、画像管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514、及び、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<実施形態の処理の概略>
次に、図12を用いて、本実施形態の処理の概略について説明する。図12は、本実施形態の処理の概略を示した図である。
まず、通信端末3が撮影装置1から、撮影画像データ、所定領域情報、及び関連情報を取得する(ステップS1)。そして、通信端末3は、画像管理システム5に対して、撮影画像データ、所定領域画像、及び関連情報を送信する(ステップS2)。この送信は、例えば、1分おきに行なわれる。次に、画像管理システム5は、撮影画像データから人物の画像である人物像を検出する(ステップS3)。そして、画像管理システム5は、所定領域画像、及び関連情報を送信する(ステップS4)。次に、画像管理システム5は、通信端末7からの要求に応じて、通信端末7に対して、点数表、描画点表(描画点位置と点数が空の状態)、人物検出情報、及び撮影画像データ群を送信する(ステップS5)。これにより、通信端末7は、後述の記憶部7000に、点数表、描画点表(描画点位置と点数が空の状態)、人物検出情報、及び撮影画像データ群を記憶する。また、各撮影画像データには、撮影画像データを識別するための撮影画像IDが付されている。
次に、通信端末7は、図28及び図29に示されているようなヒートマップ画像を作成する(ステップS6)。これにより、閲覧者Yは、所定期間の複数の全天球パノラマ画像(又は所定領域画像)を閲覧しなくても、ヒートマップ画像を閲覧することで、人物の動向を認識することができる。
<<実施形態の機能構成>>
次に、図9乃至図11、及び図13を用いて、本実施形態の機能構成について説明する。図13は、本実施形態の画像通信システムの一部を構成する、撮影装置1、通信端末3、画像管理システム5、及通信端末7の各機能ブロック図である。図13では、画像管理システム5が、通信ネットワーク9を介して、通信端末3及び通信端末7とデータ通信することができる。
<撮影装置1の機能構成>
図13に示されているように、撮影装置1は、受付部12、撮像部13、集音部14、接続部18、及び記憶・読出部19を有している。これら各部は、図9に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影蔵置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、撮影装置1は、図9に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000を有している。
(撮影装置1の各機能構成)
次に、図9及び図13を用いて、撮影装置1の各機能構成について更に詳細に説明する。
撮影装置1の受付部12は、主に、図9に示されている操作部115及びCPU111の処理によって実現され、利用者(図8では、設置者X)からの操作入力を受け付ける。
撮像部13は、主に、図9に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。
集音部14は、図9に示されている108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を収音する。
接続部18は、主に、電気接点、及びCPU111の処理によって実現され、通信端末3からの電源供給を受けると共に、データ通信を行う。
記憶・読出部19は、主に、図9に示されているCPU111の処理によって実現され、記憶部1000に各種データ(または情報)を記憶したり、記憶部1000から各種データ(または情報)を読み出したりする。
<通信端末3の機能構成>
図13に示されているように、通信端末3は、送受信部31、接続部38、及び記憶・読出部39を有している。これら各部は、図10に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開された通信端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
また、通信端末3は、図10に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。
(通信端末3の各機能構成)
次に、図10及び図13を用いて、通信端末3の各機能構成について更に詳細に説明する。
通信端末3の送受信部31は、主に、図10に示されている通信部313及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理システム5と各種データ(または情報)の送受信を行う。
接続部38は、主に、電気接点、及びCPU301の処理によって実現され、通信端末3に電源供給すると共に、データ通信を行う。
記憶・読出部39は、主に、図10に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。
<画像管理システムの機能構成>
次に、図11及び図13を用いて、画像管理システム5の各機能構成について詳細に説明する。画像管理システム5は、送受信部51、検出部52、及び記憶・読出部59を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、画像管理システム5は、図11に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、通信端末3から送られて来る撮影画像データが記憶される。また、記憶部5000には、後述の図16(a)に示されている点数表、及び図16(b)に示されている描画点表が記憶されている。
更に、記憶部5000には、人物画像管理DB5001が構築されている。人物画像管理DB5001は、後述の人物画像管理テーブルによって構成されている。以下、人物画像管理テーブル、点数表、及び描画点表について詳細に説明する。
(人物画像管理テーブル)
図14は、人物画像管理テーブルを示す概念図である。この人物画像管理テーブルでは、撮影画像ID毎に、撮影画像データのファイル名、撮影画像の撮影日時、人物検出領域ID、及び人物位置と範囲が関連付けて記憶されて管理されている。
このうち、撮影画像IDは、撮影画像データを識別するための撮影画像識別情報の一例である。撮影画像データのファイル名は、この関連付けられている撮影画像IDで示される撮影画像データのファイル名である。撮影画像の撮影日時は、この関連付けられている撮影画像データが装置IDで示される撮影装置1で撮影された日時である。撮影画像データは、記憶部5000に記憶されている。
また、人物検出領域IDは、検出部52によって、撮影画像データから検出された人物検出領域を識別するための人物検出領域識別情報の一例である。人物検出領域は、図15に示されているように、人物位置と範囲によって示され、人物像(矩形画像)の基準位置(x,y)を示す人物位置と、この人物位置からの横幅(w)及び高さ(h)を示す範囲によって構成されている。検出部52は、撮影画像データに任意の人物像が含まれていることを検知するだけでなく、人物の縦横サイズや色彩等の特徴量に基づいて各人物を区別して検知することができる。人物位置と範囲は、撮影画像(全天球パノラマ画像)データにおける人物画像の特定の1点と、幅と高さによる範囲である。例えば、図15に示されているように、人物像は矩形状に検知され、矩形の左上の角が人物の基準位置(x11,y11)を示し、矩形の幅がw11で、矩形の高さがh11を示す。
また、人物画像管理テーブルの各項目(フィールド)のうち、撮影画像ID、人物検出領域ID、及び人物位置と範囲が、図12に示されているステップS5で送信される人物検出情報を構成する。
(点数表)
図16(a)は、点数表の概念図である。画像管理システム5は予め点数表を記憶しておき、通信端末7に対して点数表を送信することで、通信端末7はヒートマップ画像を作成する際に点数表を利用する。点数表は、図16(a)に示されているように、中心点の種類と、予め定められた点数が関連付けられている。これら各種中心点のいずれかと点数により描画点が算出される。画像管理システム5は予め描画点表を記憶しておき、通信端末7に対して点数表を送信することで、通信端末7はヒートマップ画像を作成する際に点数表を利用する。
また、中心点の種類は、中心点(基本中心点)、複数の中心点同士の中心点を示す平均中心点(第1の平均中心点)、及び複数の前記平均中心点同士の平均中心点(第2平均中心点)を含む。また、点数は、平均点、平均中心点、及び第2平均中心点の順に高い値となる。
(描画点表)
図16(b)は、描画点表の概念図である。描画点表は、各描画点情報(描画点の位置と点数)を管理するための表である。画像管理システム5は、予め描画点表(描画点の位置と得点が空の状態)を記憶しておき、通信端末7に対して描画点表(描画点の位置と得点が空の状態)を送信する。通信端末7は、描画点表に描画点の位置及び点数を保存することで、ヒートマップ画像の作成に利用する。
(画像管理システムの各機能構成)
次に、図13を用いて、画像管理システム5の各機能構成について詳細に説明する。
画像管理システム5の送受信部51は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して通信端末3、又は通信端末7と各種データ(または情報)の送受信を行う。
検出部52は、主に、図11に示されているCPU501の処理によって実現され、撮影画像データにおける人物像を検出する。この人物像の検出は、SVM(Support Vector Machine)の人物検出方式等により行なわれる。具体的には、検出部52は、撮影画像データにおける人物像の特徴量に基づいて各人物を検出し、検出した各人物像の撮影画像(2次元画像)データにおける位置を特定する。この場合の特徴量は、例えば、人物の縦横サイズ、色彩、顔等である。
記憶・読出部59は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。
<通信端末7の機能構成>
次に、図11及び図13を用いて、通信端末7の機能構成について詳細に説明する。通信端末7は、送受信部71、受付部72、表示制御部73、ヒートマップ作成部74、及び、記憶・読出部79を有している。これら各部は、図11に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信端末7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、通信端末7は、図11に示されているRAM503、及びHD504によって構築される記憶部7000を有している。
(通信端末7の各機能構成)
次に、図13を用いて、通信端末7の各機能構成について詳細に説明する。
通信端末7の送受信部71は、主に、図11に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク9を介して画像管理システム5と各種データ(または情報)の送受信を行う。
受付部72は、主に、図11に示されているキーボード511及びマウス512、並びにCPU501の処理によって実現され、利用者(図8では、閲覧者Y)からの操作入力を受け付ける。
表示制御部73は、主に、図11に示されているCPU501の処理によって実現され、通信端末7のディスプレイ508に各種画像を表示させるための制御を行なう。表示制御部73は、例えば、撮影画像データに関する画像(所定領域画像、特定領域画像、又は撮影画像)にヒートマップ画像をマッピングして、通信端末7のディスプレイ508に表示させる。
ヒートマップ作成部74は、主に、図11に示されているCPU501の処理によって実現され、ヒートマップ画像を作成する。
記憶・読出部79は、主に、図11に示されているHDD505、及びCPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。
ここで、ヒートマップ作成部74について詳細に説明する。ヒートマップ作成部74は、読出部74b、判断部74c、保存部74d、算出部74e、集約部74f、及びレンダリング部74gを含んでいる。
これらのうち、読出部74bは、例えば、記憶部7000から、点数表、描画点表等、各種データを読み出す。
判断部74cは、例えば、画像管理システム5から送られて来た人物検出情報に基づき、任意の撮影画像データに人物検出領域はあるか否か等の判断を行なう。
保存部74dは、例えば、記憶部7000に描画点の保存等を行なう。
算出部74eは、例えば、所定の位置で時間経過により撮影されることで得られた複数の撮影画像データにおける各人物検出領域の中心点を算出する。また、算出部74eは、点数表に基づいて中心点の点数を算出し、これにより描画点を算出する。更に、算出部74eは、人物検出領域を、人物を含む矩形領域の任意の角の位置を示す人物位置と、当該人物位置からの前記矩形領域の幅及び高さを示す範囲によって特定する。
集約部74fは、例えば、複数の撮影画像データにおける複数の中心点が所定範囲内に存在する場合には、所定範囲内の複数の中心点を集約して、単一の中心点にすると共に、各中心点の点数の合計を集約後の中心点の点数と定める。
レンダリング部74gは、例えば、算出部74eによって算出された中心点に基づく描画点を色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングする。また、レンダリング部74gは、色の濃淡の重み付けを定める際に、点数が高いほど中心点を濃い色に定める。更に、レンダリング部74gは、集約部74fによって定められた単一の中心点と点数の合計を、色の濃淡の重み付けに利用する。
<<実施形態の処理又は動作>>
続いて、図18乃至図29を用いて、本実施形態の処理又は動作について説明する。
まず、読出部74bは、記憶部7000から、元の撮影画像データの解像度を読み出す(ステップS11)。また、読出部74bは、記憶部7000から、人物検出情報を読み出す(ステップS12)。そして、読出部74baは、記憶部7000に記憶されている元の撮影画像データ群のうち、取得していない任意の撮影画像データを読み出す(ステップS13)。
次に、判断部74cは、新たに読み出された撮影画像データの撮影画像IDと同じ撮影画像IDが人物検出情報において関連付けられている人物検出領域IDがあるか否かにより、人物検出領域があるか否かを判断する(ステップS14)。そして、判断部74cが、人物検出領域がないと判断した場合には(NO)、ステップS26の処理に進む。一方、判断部74cが、人物検出領域があると判断した場合には(YES)、算出部74eは、人物検出情報における人物位置と範囲に基づき、人物検出領域の中心点を算出すると共に、点数表(図16(a)参照)を利用して、中心点p1の得点を算出する(ステップS15)。具体的には、図19(a)に示されているように、任意の撮影画像において、例えば、4つの人物検出領域が存在する場合、算出部74eは、まず人物検出領域a1を選択し、図19(b)に示されているように、人物検出領域a1の中心点p1を算出する。そして、算出部74eは、点数表(図16(a)参照)を利用して、図19(c)に示されているように、中心点p1の得点を算出することで、描画点s1を算出する。この描画点s1は、中心点p1の位置と得点の両方の情報を有している。描画点は、ヒートマップ画像が作成される際の色の濃淡の重み付けに利用される。そして、図17に戻り、保存部74dは、記憶部7000に記憶されている描画点表に、描画点s1を示す描画点情報を保存する(ステップS16)。
続いて、図18に示されているように、判断部74cは、同じ任意の撮影画像において、選択されていない人物検出領域があるか否かを判断する(ステップS17)。そして、判断部74cが選択されていない人物検出領域があると判断した場合には(YES)、上記ステップS15,S16と同様の処理が行なわれる。即ち、算出部74eは、人物検出情報における人物位置と範囲に基づき、次の人物検出領域の中心点を算出すると共に、点数表(図16(a)参照)を利用して、中心点p2の得点を算出する(ステップS18)。具体的には、図20(a)に示されているように、同じ任意の撮影画像において、算出部74eは、次の人物検出領域a2を選択し、図20(b)に示されているように、人物検出領域a2の中心点p2を算出する。そして、算出部74eは、点数表(図16(a)参照)を利用して、図20(c)に示されているように、中心点p2の得点を算出することで、描画点s2を算出する。この描画点s2は、中心点p2の位置と得点の両方の情報を有している。そして、図18に戻り、保存部74dは、記憶部7000に記憶されている描画点表に、描画点s2を示す描画点情報を保存する(ステップS19)。
次に、判断部74cは、一の人物検出領域に他の人物検出領域の中心点は含まれるか否かを判断する(ステップS20)。そして、判断部74cが、含まれないと判断した場合には(NO)、ステップS17の処理に戻る。一方、判断部74cが、含まれると判断した場合には(YES)、算出部74eは、点数表(図16(a)参照)を利用して、平均中心点を算出する(ステップS21)。具体的には、図21(a)に示されているように、人物検出領域a2に人物検出領域a1の中心が含まれている場合には、算出部74eは、描画点s1と描画点s2の真ん中の位置を平均中心点p12として算出する。そして、算出部74eは、点数表(図16(a)参照)を利用して、平均中心点p12の得点を算出することで、新たに描画点s12を算出する。この描画点s12は、平均中心点p12の位置と得点の両方の情報を有している。そして、図18に戻り、保存部74dは、記憶部7000に記憶されている描画点表に、描画点s12を示す描画点情報を保存する(ステップS22)。
続いて、判断部74cは、算出部74eによって算出された平均中心点が複数あるか否かを判断する(ステップS23)。ここでは、まだ1つしかないため、ステップS17の処理に戻る(NO)。そして、ステップS17によって、判断部74cが、図22に示されているように、3つ目の人物検出領域a3があると判断すると(YES)、人物検出領域a3において、上記ステップS18,S19と同様の処理が行なわれる。具体的には、図22(a)に示されているように、同じ任意の撮影画像において、算出部74eは、3つ目の人物検出領域a3を選択し、図22(b)に示されているように、人物検出領域a3の中心点p3を算出する。そして、算出部74eは、点数表(図16(a)参照)を利用して、図22(c)に示されているように、中心点p3の得点を算出することで、描画点s3を算出する。この描画点s3は、中心点p3の位置と得点の両方の情報を有している。
更に、ステップS20の処理後、ステップS21,S22の処理が行なわれる。具体的には、図23(a)に示されているように、人物検出領域a3に人物検出領域a1,a2の中心が含まれている場合には、算出部74eは、描画点s1と描画点s3の真ん中の位置を平均中心点p13として算出すると共に、描画点s2と描画点s3の真ん中の位置を平均中心点p23として算出する。そして、算出部74eは、点数表(図16(a)参照)を利用して、平均中心点p13,p23の各得点を算出することで、新たに描画点s13,s23を算出する。各描画点s13,s23は、それぞれ平均中心点p13,p23の位置と得点の両方の情報を有している。そして、保存部74dは、記憶部7000に記憶されている描画点表に、描画点s13,s23を示す各描画点情報を保存する。
次に、判断部74cは、算出部74eによって算出された平均中心点が複数あるか否かを判断する(ステップS23)。算出部74eが複数あると判断した場合には(YES)、算出部74eは、平均中心点同士の平均中心点(第2平均中心点)を算出すると共に、点数表(図16(a)参照)を利用して、第2平均中心点の得点を算出することで、描画点を算出する(ステップS24)。具体的には、図24(a)に示されているように、算出部74eは、3つの描画点s12,s13,s23の真ん中(重心)の位置を第2平均中心点p121323として算出する。そして、算出部74eは、点数表(図16(a)参照)を利用して、第2平均中心点p121323の得点を算出することで、新たに描画点s121323を算出する。描画点s121323は、第2平均中心点p121323の位置と得点の両方の情報を有している。そして、保存部74dは、記憶部7000に記憶されている描画点表に、描画点s121323を示す描画点情報を保存する(ステップS25)。
次に、ステップS17に戻り、YESに進み、ステップS18,S19の処理が行なわれる。具体的には、図25(a)に示されているように、同じ任意の撮影画像において、算出部74eは、4つ目の人物検出領域a4を選択し、図25(b)に示されているように、人物検出領域a4の中心点p4を算出する。そして、算出部74eは、点数表(図16(a)参照)を利用して、図25(c)に示されているように、中心点p4の得点を算出することで、描画点s4を算出する。この描画点s4は、中心点p4の位置と得点の両方の情報を有している。そして、保存部74dは、記憶部7000に記憶されている描画点表に、描画点s4を示す描画点情報を保存する。これにより、任意の撮影画像データ内の全ての人物検出領域についての描画点の算出が行なわれるため、ステップS17の処理に戻ると、判断部74cは、選択されていない人物検出領域がない(NO)と判断し、図17に示されているステップS26の処理に進む。
次に、判断部74cは、撮影画像データ群のうち、読出部74bによって読み出されていない撮影画像データがあるか否かを判断する(ステップS26)。そして、判断部74cが、読み出されていない撮影画像データがあると判断した場合には(YES)、ステップS13の処理に戻る。
一方、判断部74cが、読み出されていない撮影画像データがないと判断した場合には(YES)、集約部74fは、所定範囲内の描画点を集約して、保存部74dが描画点表に集約後の描画点を示す描画点情報を保存する(ステップS28)。ここで、具体例として、例えば、図26(a)、(b)、(c)に示されているように、続けて撮影されることで得られた3つの撮影画像データd1、d2、d3があり、それぞれの描画点s41,s42,s43が同じ位置でない状態について説明する。3つの撮影画像データを重ねると、図27(a)に示されているように、描画点s41を中心とした所定範囲内(波線部分)に他の描画点s42,s43が存在している。このような場合、集約部74fは、3つの描画点s41,s42,s43を1つの描画点s414243に集約する。この場合、描画点s414243の得点は、3つの描画点s41,s42,s43の各得点の合計となる。なお、集約後の描画点s414243を示す描画点情報が保存される場合、集約前の各描画点s41,s42,s43の各描画点情報はそのまま保存される。但し、集約後の描画点s414243を示す描画点情報が保存されることに代えて、集約前の各描画点s41,s42,s43の各描画点情報が削除されるようにしてもよい。
以上により、全ての撮影画像データについて描画点の算出が行なわれ、描画点表に全ての描画点情報が保存されると、レンダリング部74gは、描画点表の全ての描画点情報に基づき、ヒートマップ画像をレンダリングする。図28は、描画点に基づいて作成されたヒートマップ画像が付された所定領域画像(特定領域画像を含む)を示す図である。表示制御部73は、特定領域画像にヒートマップ画像をマッピングして、通信端末7のディスプレイ508に表示させる。実際には、複数の撮影画像データにおいて人物検出領域が存在する数に応じ、数が多い方から少ない方にかけて、赤色、オレンジ色、黄色、黄緑色、青色等で表現される。しかし、ここでは、白黒の濃淡で表現し、多い方から少ない方にかけて、濃色から淡色で表現されている。
また、図29は、描画点に基づいて作成されたヒートマップ画像が付された全天球パノラマ画像を示す図である。図29に示されているように、全天球パノラマ画像の場合、図5に示されている仮想カメラICを立体球CSから遠ざけると(画角を広くすると)、表示制御部73は、ヒートマップ画像が全天球パノラマ画像の手前側に回り込んで、ヒートマップ画像の裏面側を表示させる。
ここで、図29に示されているヒートマップ画像の表示について、図30を用いて詳細に説明する。図30は、全天球パノラマ画像とヒートマップ画像の関係を示した概念図である。図30は、図5における上部から見た図を流用したものであり、立体球CSに対して全天球パノラマ画像(波線)が貼り付けられた状態で、ヒートマップ画像h1,h2がマッチングされている場合を示している。仮想カメラICから全天球パノラマ画像を見る場合、撮影画像の一部である所定領域Tの所定領域画像、ヒートマップ画像h1の表面側、及びヒートマップ画像h2の裏面側を見ることができる。この場合、ヒートマップ画像h2が全天球パノラマ画像の手前側(仮想カメラ側)に回り込んで、ヒートマップ画像h2の裏面側が表示されている。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、レンダリング部74gが、人物検出領域a1等の中心点p1による描画点s1等を色の濃淡の重み付けに利用して、ヒートマップ画像をレンダリングする。そして、表示制御部73は、図28又は図29に示されているように、撮影画像データに係る撮影画像にヒートマップ画像をマッピングして表示させる。このように、表示制御部73が、ヒートマップ画像をマッピングしても、人物の顔や足を表示することができる。このように、ヒートマップ画像が邪魔にならないため、閲覧者は、ヒートマップ画像からの情報を得られると共に、撮影画像が表している状況を把握し易いという効果を奏する。
また、本実施形態によれば、図29に示されているように、表示制御部73は、全天球パノラマ画像を表示する場合、ヒートマップ画像が全天球パノラマ画像の手前側に回り込んでヒートマップ画像の裏面側を表示させることが可能である。これにより、表示制御部73は、立体的にヒートマップ画像を表示することができるため、全天球パノラマ画像特有のヒートマップ画像の表示方法により、閲覧者は撮影画像が表している状況を把握し易いという効果を奏する。
〔第2の実施形態〕
以下、図面を用いて、本発明の第2の実施形態について説明する。なお、本実施形態は、第1の実施形態と処理又は動作が異なるだけであるため、以下では処理又は動作を説明する。
<<実施形態の処理又は動作>>
図31乃至図34を用いて、本実施形態の処理又は動作について説明する。図31は、第2の実施形態におけるヒートマップ画像の作成方法を示すフローチャートである。図32は、第2の実施形態におけるヒートマップ画像の作成方法を示すフローチャートである。図33は、各描画点(第1乃至第4の人物検知領域の第1乃至第4の中心点及び各点数)を定める処理を示した概念図である。図34は、描画点(第1の中心点と第2の中心点の平均中心点及び点数)、描画点(第1の中心点と第3の中心点の平均中心点及び点数)、及び描画点(第2の中心点と第3の中心点の平均中心点及び点数)を定める処理を示した概念図である。
第1の実施形態では、算出部74eが、図19及び図20に示されているように人物検出領域a1,a2における描画点s1,s2を算出した後、図21に示されているように平均中心点における描画点s12を算出した。そして、算出部74eが、図22に示されているように人物検出領域a3における描画点s3を算出した後、図23に示されているように平均中心点における描画点s13,s23を算出した。
これに対して、第2の実施形態では、算出部74eが、図33(a)に示されているように、まとめて人物検出領域a1,a2,a3における中心点p1,p2,p3を算出することで、図33(b)に示されているように、まとめて描画点s1,s2,s3を算出する。そして、算出部74eが、図34(a)に示されているように、まとめて平均中心点p12,p13,p23を算出し、図34(b)に示されているように、まとめて平均中心点における描画点s12、s13、s23を算出する。即ち、図31及び図32において、ステップS111〜S125の処理は、それぞれ図17及び図18において、ステップS11,S12,S13,S14,S15,S16,S21,S22,S23,S24,S25,S16,S26,S27,S28の各処理に対応する。
<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、第1の実施形態と同様の効果を奏する。
〔実施形態の補足〕
更に、上記実施形態における画像管理システム5は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。
また、上記実施形態の各プログラムが記憶されたCD−ROM等の記録媒体、並びに、これらプログラムが記憶されたHD504は、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。
更に、通信端末7は、ノートPCだけでなく、デスクトップ型のPC等のパーソナルコンピュータであってもよく、更に、スマートフォン、タブレット型端末、又はスマートウォッチであってもよい。
1 撮影装置
3 通信端末
5 画像管理システム
7 通信端末
9 通信ネットワーク
71 送受信部
72 受付部
73 表示制御部
74 ヒートマップ作成部
74b 読出部
74c 判断部
74d 保有部
74e 算出部
74f 集約部
74g レンダリング部
5000 記憶部
5001 人物画像管理DB
7000 記憶部
特開2011−61511号公報 特開2009−134688号公報

Claims (10)

  1. 所定の位置で撮影されることで得られた撮影画像データに係る撮影画像にヒートマップ画像をマッピングして表示する通信端末であって、
    前記所定の位置で時間経過により撮影されることで得られた複数の撮影画像データにおける各人物検出領域の中心点を算出する算出手段と、
    前記算出手段によって算出された前記中心点を色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングするレンダリング手段と、
    前記撮影画像に前記ヒートマップ画像をマッピングして表示させる表示制御手段と、
    を有する通信端末。
  2. 前記撮影画像は全天球パノラマ画像であり、
    前記表示制御手段は、前記全天球パノラマ画像を表示する場合、前記ヒートマップ画像が全天球パノラマ画像の手前側に回り込んで前記ヒートマップ画像の裏面側を表示させることが可能である請求項1に記載の通信端末。
  3. 請求項1又は2に記載の通信端末であって、
    前記中心点の種類及び当該種類に応じて定められている点数が関連付けられた点数表を記憶する記憶手段を有し、
    前記算出手段は、前記点数表に基づいて、前記中心点の点数を算出し、
    前記レンダリング手段は、前記色の濃淡の重み付けを定める際に、前記点数が高いほど前記中心点を濃い色に定める通信端末。
  4. 前記中心点の種類は、中心点、複数の中心点同士の中心点を示す平均中心点、及び複数の前記平均中心点同士の中心点を示す第2平均中心点を含み、
    前記点数は、前記平均点、平均中心点、及び第2平均中心点の順に高い値である請求項3に記載の通信端末。
  5. 前記算出手段は、前記人物検出領域を、前記人物を含む矩形領域の任意の角の位置を示す人物位置と、当該人物位置からの前記矩形領域の幅及び高さを示す範囲によって特定する請求項1乃至4に記載の通信端末。
  6. 請求項3又は4に記載の通信端末であって、
    前記複数の撮影画像データにおける複数の中心点が所定範囲内に存在する場合には、前記所定範囲内の前記複数の中心点を集約して、単一の中心点にすると共に、各中心点の点数の合計を集約後の中心点の点数と定める集約手段を有し、
    前記レンダリング手段は、集約手段によって定められた前記単一の中心点と前記点数の合計を、色の濃淡の重み付けに利用する通信端末。
  7. 前記通信端末は、パーソナルコンピュータ、スマートフォン、タブレット型端末、又はスマートウォッチである請求項1乃至6に記載の通信端末。
  8. 請求項1乃至7に記載の通信端末と、
    前記複数の撮影画像データを管理する画像管理システムと、
    を有する画像通信システムであって、
    前記通信端末は、前記画像管理システムから前記複数の撮影画像データを受信する受信手段を有する、画像通信システム。
  9. 所定の位置で撮影されることで得られた撮影画像データに係る撮影画像にヒートマップ画像をマッピングして表示する通信端末が実行する表示方法であって、
    前記通信端末が、
    前記所定の位置で時間経過により撮影されることで得られた複数の撮影画像データにおける各人物検出領域の中心点を算出する算出ステップと、
    前記算出された前記中心点を色の濃淡の重み付けに利用することで、ヒートマップ画像をレンダリングするレンダリングステップと、
    前記撮影画像に前記ヒートマップ画像をマッピングして表示する表示制御ステップと、
    を実行する表示方法。
  10. コンピュータに、請求項9に記載の表示方法を実行させるプログラム。
JP2016043742A 2016-03-07 2016-03-07 通信端末、画像通信システム、表示方法、及びプログラム Active JP6812643B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016043742A JP6812643B2 (ja) 2016-03-07 2016-03-07 通信端末、画像通信システム、表示方法、及びプログラム
US15/449,528 US10277836B2 (en) 2016-03-07 2017-03-03 Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US16/283,456 US10827133B2 (en) 2016-03-07 2019-02-22 Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016043742A JP6812643B2 (ja) 2016-03-07 2016-03-07 通信端末、画像通信システム、表示方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017162014A true JP2017162014A (ja) 2017-09-14
JP6812643B2 JP6812643B2 (ja) 2021-01-13

Family

ID=59857013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016043742A Active JP6812643B2 (ja) 2016-03-07 2016-03-07 通信端末、画像通信システム、表示方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6812643B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200112A (zh) * 2020-10-19 2021-01-08 烟台创迹软件有限公司 一种店铺全景人群热力分析的系统
US11195295B2 (en) 2018-11-22 2021-12-07 Ricoh Company, Ltd. Control system, method of performing analysis and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243155A (ja) * 2010-05-21 2011-12-01 Panasonic Corp 動線作成装置及び動線作成方法
JP2015046171A (ja) * 2014-09-29 2015-03-12 株式会社リコー 画像を生成する装置および方法
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011243155A (ja) * 2010-05-21 2011-12-01 Panasonic Corp 動線作成装置及び動線作成方法
JP5866564B1 (ja) * 2014-08-27 2016-02-17 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP2015046171A (ja) * 2014-09-29 2015-03-12 株式会社リコー 画像を生成する装置および方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195295B2 (en) 2018-11-22 2021-12-07 Ricoh Company, Ltd. Control system, method of performing analysis and storage medium
CN112200112A (zh) * 2020-10-19 2021-01-08 烟台创迹软件有限公司 一种店铺全景人群热力分析的系统

Also Published As

Publication number Publication date
JP6812643B2 (ja) 2021-01-13

Similar Documents

Publication Publication Date Title
JP6186775B2 (ja) 通信端末、表示方法、及びプログラム
US20180270417A1 (en) Image processing apparatus, image capturing system, image processing method, and recording medium
JP2018129716A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2017135659A (ja) 画像管理システム、画像管理方法、画像通信システム及びプログラム
JP2014131215A (ja) 画像管理システム、画像管理方法、及びプログラム
JP2019057903A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP2019057264A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2017212510A (ja) 画像管理装置、プログラム、画像管理システム及び情報端末
JP2019075766A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP6358339B2 (ja) 画像管理システム、及び画像管理方法
JP2018110384A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP2018109946A (ja) 表示装置、プログラム、表示方法
US10147160B2 (en) Image management apparatus and system, and method for controlling display of captured image
JP6720778B2 (ja) 画像管理システム、画像管理方法、及びプログラム
JP2018056889A (ja) 表示端末、表示方法、及びプログラム
JP2018139052A (ja) 通信端末、画像通信システム、表示方法、及びプログラム
JP6812643B2 (ja) 通信端末、画像通信システム、表示方法、及びプログラム
US20200167948A1 (en) Control system, method of performing analysis and storage medium
JP2018026642A (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP2019185757A (ja) 画像処理装置、撮影システム、画像処理方法、及びプログラム
JP6586819B2 (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム
JP2018109971A (ja) 画像処理装置、画像処理システム、撮影システム、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201130

R151 Written notification of patent or utility model registration

Ref document number: 6812643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151