JP2017163195A - 画像処理システム、プログラム、画像処理方法 - Google Patents

画像処理システム、プログラム、画像処理方法 Download PDF

Info

Publication number
JP2017163195A
JP2017163195A JP2016043293A JP2016043293A JP2017163195A JP 2017163195 A JP2017163195 A JP 2017163195A JP 2016043293 A JP2016043293 A JP 2016043293A JP 2016043293 A JP2016043293 A JP 2016043293A JP 2017163195 A JP2017163195 A JP 2017163195A
Authority
JP
Japan
Prior art keywords
area
image
coordinates
region
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016043293A
Other languages
English (en)
Other versions
JP6686547B2 (ja
Inventor
聖 三井
Satoshi Mitsui
聖 三井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016043293A priority Critical patent/JP6686547B2/ja
Priority to US15/446,125 priority patent/US10652459B2/en
Publication of JP2017163195A publication Critical patent/JP2017163195A/ja
Priority to US16/838,341 priority patent/US11134193B2/en
Application granted granted Critical
Publication of JP6686547B2 publication Critical patent/JP6686547B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】広角画像に対し付加的な情報を付加できる画像処理システムを提供すること。【解決手段】1つ以上の情報処理装置5,7を含む画像処理システム200であって、所定よりも画角が広い広角画像を表示装置に表示する表示手段73と、前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段72と、前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段74と、前記平面画像の解析結果が有する座標と前記領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段56と、を有する。【選択図】図1

Description

本発明は、画像処理システム、プログラム及び画像処理方法に関する。
来客者の行動を小売店の店長等が分析して店舗運営や商品企画等に反映させることが従来から行われている。解析には例えば店舗内に設置されたカメラの映像が利用され、店長などは店舗内の映像を見て来客者がどのように移動するか、どの場所に滞留するかなどを把握する。これにより、来客者の動線や興味を引きやすい商品や展示方法が分かるため店舗運営や商品企画等に反映させることができる。
単に店内の各場所の映像を提供するだけでなく、カメラと画像処理技術を組み合わせることで映像を加工して店長等が分析しやすい情報を出力する監視システムが考案されている(例えば、特許文献1参照。)。特許文献1には、店舗エリア内を細分化して複数のサブエリアを形成し、動線データベース内の各動線データから指定されたサブエリアを通過した人物の動線データを抽出する人物行動分析装置が開示されている。
このように映像から人を検知すれば、人の検知結果をヒートマップ(対象をマスに区切り、各マスの注目度に応じてマスの表示色を変更する分析方法)などの分布表現に変換して元の映像に付加するといった活用も可能になる。
ところで、監視カメラに広角な画角の広角カメラを採用することで一台のカメラで広い場所をカバーできるため、コスト増を抑制できる。このため、監視カメラとして広角カメラが採用される場合が増えてきている。
しかしながら、画角が広い広角画像で例えばヒートマップ等の分布表現を行っても所望の情報が得られない場合がある。例えば、天井には人が存在しないが広角画像に天井が映っている場合、天井を含めてヒートマップが作成されてしまう。この場合、天井に比べて通路の方が遙かに人が検知されやすいため(例えば通路だけが真っ赤になる)、ヒートマップにより天井に人がいないことは分かっても、通路のどこにどのくらいの人がいるかという本来知りたい情報が得られない。
そこで、広角画像に店長等がエリアを設定してこのエリア内の人などを検知することが考えられる。しかし、広角画像は立体的に歪曲しており、店長等がこの広角画像を見て分析するのに対し、人の検知などの画像解析は広角画像が平面画像に変換された状態で行われるため、人の検知結果を設定されたエリアに適用することが困難であるという問題があった。
本発明は、上記課題に鑑み、広角画像に対し付加的な情報を付加できる画像処理システムを提供することを目的とする。
本発明は、1つ以上の情報処理装置を含む画像処理システムであって、所定よりも画角が広い広角画像を表示装置に表示する表示手段と、前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、前記平面画像の解析結果が有する座標と前記領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段と、を有する。
広角画像に対し付加的な情報を付加できる画像処理システムを提供することができる。
画像処理システムによる処理の概略を説明する図の一例である。 画像処理システムの概略構成図の一例である。 撮像装置のハードウェア構成図の一例である。 無線通信機能を有したクレードルの場合の通信端末のハードウェア構成図の一例である。 画像管理装置及び情報端末のハードウェア構成図の一例である。 画像処理システムの一部を構成する、撮像装置、通信端末、画像管理装置、及び情報端末の各機能ブロック図の一例である。 閲覧者Yがエリアを登録するために操作するポインティングデバイスの軌跡を説明する図の一例である 全天球画像が処理される各フェーズの画像の形態と座標の変換を説明する図の一例である。 閲覧者が指定したエリアを情報端末が画像管理装置に登録する手順を示すフローチャート図の一例である 終了点が平面画像の端部を跨ぐエリアを説明する図の一例である。 画像管理装置のエリア検査部がエリアを検査する手順を示すフローチャート図の一例である。 エリアと人検知エリアを説明する図の一例である。 画像管理装置がエリアを表示するための処理手順を示すフローチャート図の一例である。 エリアの登録時に情報端末がディスプレイに表示するエリア登録画面の一例である。 エリアの登録例を説明する図の一例である。 エリアの関連付けを説明する図の一例である。 エリア表示画面の一例を示す図である。 他方のエリアに包含されたエリアの表示例を示す図である。 エリアの検査結果を説明する図の一例である。
以下、本発明を実施するための形態について図面を参照しながら説明する。
図1は、本実施形態の画像処理システムによる処理の概略を説明する図の一例である。画像処理システムは周囲の360°の画角を撮像可能な撮像装置を有している。この撮像装置が撮像した画像を全天球画像と称することにする。
(1)図1(a)に示すように閲覧者は情報端末7を操作して全天球画像10を回転、拡大、縮小などして全天球画像10の所望の表示範囲640を閲覧できる。全天球画像10は球体なのでこの表示範囲640は厳密には三次元に湾曲しているが、表示範囲640は全天球画像10のごく一部なのでほとんど気にならない。閲覧者は全天球画像10を平面画像に変換していない状態で、全天球画像10から任意のエリア602を指定する。このエリア602の例えば対角頂点は画面上の座標(以下、スクリーン座標という)で特定される。
(2)図1(b)に示すように、情報端末7は、エリア602を示すスクリーン座標をワールド座標系(三次元座標)に変換する。これは、画面は二次元であるが閲覧者Yが指し示すエリア602は曲面に映っているため、この曲面におけるエリア602の位置を精度よく特定するためである。
(3)図1(c)に示すように、情報端末7はエリア602の三次元座標を二次元座標に変換する。この二次元座標は、平面画像に全天球画像が変換される前の座標系における座標である。したがって、平面画像11におけるエリア602の位置が特定される。
平面画像11は人検知の解析の際に使用される画像であり、人が検知された人検知エリア(対象領域)も平面画像11の二次元座標で特定されている。したがって、人検知エリアと閲覧者が設定したエリア602を同じ座標系で扱うことが可能になり、人検知エリアと設定されたエリアの相対位置によってエリアに人が存在したか否かが判断される。
また、再度、情報端末7がエリア602を表示する際は、エリア602の座標が全天球画像10と同じ三次元座標に変換されるので、閲覧者Yが設定したエリア602が設定時と同じように表示される。
このように本実施形態の画像処理システムは、全天球画像10を撮像する撮像装置を使用することでコスト増を抑制できる。また、全天球画像10のように広い画像データに閲覧者が任意にエリア602を設定するので天井などを検知対象から除外できる。全天球画像10のように歪曲した画像データにエリア602が設定されても、人検知などの解析(画像処理)が行われる平面画像11の座標系にエリア602の座標が変換されるので、人検知等の解析結果を設定されたエリア602に適用しやすくなる。
<用語について>
所定よりも画角が広い広角画像とは、少なくとも通常の撮像装置(例えば35mmフィルムのカメラ)の画角よりも広い画角の画像をいう。あるいは、魚眼レンズで撮像されている画像のように湾曲した画像をいう。好ましくは水平方向に360°上下方向に180°の画角を有するが必ずしも水平方向に360°上下方向に180°の画角を有さなくてもよい。本実施形態では一例として全天球画像を用いて説明する。
なお、撮像装置1は当初、平面画像を出力するが、閲覧時には全天球に平面画像が貼り付けられ全天球画像10が作成されている。本実施形態ではエリアの指定後エリアが平面画像の座標に変換される。
領域とは広角画像内の一部をいう。エリア、区域又は範囲と称されてもよい。領域はどのような形状でもよい。本実施形態ではエリアという用語で説明する。
広角画像が解析されるとは、広角画像に対し何らかの画像解析が行われることをいう。画像解析とは対象の検知や認識である。また、対象とは全天球画像に撮像されている被写体である。閲覧者が中止する被写体が対象となりうる。また、対象とは全天球画像に映っていたりいなかったりする場合があるため移動可能であるか又は可搬性があるものである。また、対象とはドアのように形状が変化したり、ランプのように点灯又は消灯してその状態が変化するものである。本実施形態では一例として対象が人(歩行者)であるとして説明する。
領域(エリア)に関する情報とは、広角画像の解析結果に基づいて作成される領域(エリア)の情報をいう。広角画像の解析結果が対象の検知結果である場合、領域(エリア)に関する情報は対象の有無に関する情報である。また、広角画像の解析結果が対象の動作内容である場合、領域(エリア)に関する情報は対象がどのような動作をしているかに関する情報である。広角画像の解析結果が対象の状態である場合、領域(エリア)に関する情報は対象の状態に関する情報である。また、領域(エリア)に関する情報は広角画像の解析結果が加工されたものでもよい。例えば、一定期間の広角画像の解析結果がある場合、領域(エリア)に関する情報は対象が検知された回数、頻度、状態が変化した回数や頻度などが加工された情報となる。
<画像処理システムのシステム構成>
図2は、画像処理システム200の概略構成図の一例である。画像処理システム200は、通信ネットワーク9を介して接続された画像管理装置5、撮像装置1、通信端末3、及び、情報端末7を有している。撮像装置1は設置者Xにより店舗内に設置されている。情報端末7は閲覧者Yにより操作される。
通信ネットワーク9は、店舗内や閲覧者Yの所属先の企業のLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等の少なくとも1つを含んで構築されている。通信端末3や情報端末7がLANを介さずに直接、回線電話網や携帯電話網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。また、通信ネットワークにはWANやインターネットが含まれる。通信ネットワークは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。
撮像装置1は、上記のように1度の撮像で周囲360度を撮像し全天球画像を作成するカメラである。デジタルスチルカメラ又はデジタルビデオカメラと呼ばれる場合がある。また、通信端末3にカメラが付いている場合は、通信端末3がデジタルカメラとなりうる。本実施形態では、説明を分かりやすくするために撮像装置1は全天球画像を得るためのデジタルカメラとして説明を行う。撮像装置1は定期的に周囲360を撮像する。必ずしも定期的である必要はなく、不定期に撮像してもよいし、設置者Xの操作により撮像してもよいし、閲覧者Yが画像管理装置5に要求することで画像管理装置5からの命令で撮像してもよい。
なお、撮像装置1は、視線が異なる何枚かの風景を自動的に撮像し、複数の画像データを合成することで全天球画像を作成してもよい。
通信端末3は、撮像装置1の代わりに通信ネットワーク9に接続する通信機能を有している。通信端末3は、撮像装置1への電力供給や店舗への固定を行うためのクレードル(Cradle)である。クレードルとは、撮像装置1の機能を拡張する拡張機器をいう。通信端末3は撮像装置1と接続するためのインタフェースを有し、これにより撮像装置1は通信端末3の機能を利用できる。通信端末3は、このインタフェースを介して撮像装置1とデータ通信を行なう。そして、無線ルータ9a及び通信ネットワーク9を介して画像管理装置5とデータ通信を行なう。
なお、撮像装置1が無線ルータ9aや通信ネットワーク9と直接、データ通信する機能を有する場合、通信端末3はなくてもよい。あるいは、撮像装置1と通信端末3が一体に構成されていてもよい。
画像管理装置5は、例えば、サーバとして機能する情報処理装置であり、通信ネットワーク9を介して、通信端末3及び情報端末7とデータ通信を行なうことができる。画像管理装置5には、OpenGL ES(3Dグラフィックス用のAPI:Application Interface)がインストールされている。OpenGL ESを呼び出すことでメルカトル画像から全天球画像を作成したり、全天球画像の一部の画像(所定領域画像)のサムネイル画像を作成したりすることができる。
なお、画像管理装置5にはクラウドコンピューティングが適用されていることが好ましい。クラウドコンピューティングの物理的な構成に厳密な定義はないが、情報処理装置を構成するCPU、RAM、ストレージなどのリソースが負荷に応じて動的に接続・切断されることで情報処理装置の構成や設置場所が柔軟に変更される構成が知られている。また、クラウドコンピューティングでは、画像管理装置5が仮想化されることが一般的である。1台の情報処理装置が仮想化によって複数の画像管理装置5としての機能を提供することや、複数の情報処理装置が仮想化によって一台の画像管理装置5としての機能を提供することができる。なお、画像管理装置5がクラウドコンピューティングとしてではなく単独の情報処理装置により提供されることも可能である。
情報端末7は、例えば、ノートPC(Personal Computer)であり、通信ネットワーク9を介して、画像管理装置5とデータ通信を行う。情報端末7は、ノートPCの他、タブレット端末、PC、PDA(Personal Digital Assistant)、電子黒板、テレビ会議端末、ウェアラブルPC、ゲーム機、携帯電話、カーナビゲーションシステム、スマートフォンなどでもよい。また、これらに限られるものではない。
撮像装置1、通信端末3、及び無線ルータ9aは、店舗等の各販売拠点で設置者Xによって所定の位置に設置される。情報端末7は、各販売拠点を統括する本社等に設置され、画像管理装置5を介して送られて来る各拠点の状況を表した画像を表示することで、閲覧者Yが各拠点の状況を表した画像を閲覧することができる。ただし、情報端末7は本社以外の場所からも画像管理装置5と通信可能である。
<実施形態のハードウェア構成>
次に、図3〜図5を用いて、本実施形態の撮像装置1、通信端末3,情報端末7及び画像管理装置5のハードウェア構成を説明する。
<<撮像装置>>
図3は、撮像装置1のハードウェア構成図の一例である。以下では、撮像装置1は、2つの撮像素子を使用した全方位撮像装置とするが、撮像素子は3つ以上でもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮像ユニットを取り付けることで、実質的に撮像装置1と同じ機能を有するようにしてもよい。
図3に示されているように、撮像装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。
このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とはパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。更に、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。
画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、いわゆるメルカトル画像のデータを作成する。
撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。
また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置1によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置1には表示部が設けられていないが、表示部を設けてもよい。
マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU111は、撮像装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。
操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。
ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わずにネットワークインタフェースである場合も考えられる。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/FとなるネットワークI/F116を介して通信端末3等の外部装置に送信されたりする。
通信部117は、撮像装置1に設けられたアンテナ117aを介して、WiFi(wireless fidelity)、NFC、又はLTE(Long Term Evolution)等の離無線技術によって、通信端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータを通信端末3の外部装置に送信することができる。
電子コンパス118は、地球の磁気から撮像装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
<<通信端末>>
次に、図4を用いて、通信端末3のハードウェア構成を説明する。なお、図4は、無線通信機能を有したクレードルの場合の通信端末3のハードウェア構成図である。
図4に示されているように、通信端末3は、通信端末3全体の動作を制御するCPU301、基本入出力プログラムを記憶したROM302、CPU301のワークエリアとして使用されるRAM(Random Access Memory)304、Wi-fi、NFC、LTE等でデータ通信する通信部305、撮像装置1と有線で通信するためのUSB I/F303、カレンダーや時間情報を保持するRTC(Real Time Clock)306を有している。
また、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン310を備えている。
なお、ROM302には、CPU301が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。
通信部305は、アンテナ305aを利用して無線通信の信号により、無線ルータ9a等と通信を行う。
図示する他、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって通信端末3の位置情報(緯度、経度、及び高度)を含んだGPS信号を受信するGPS受信部を備えていてもよい。
<<画像管理装置、情報端末>>
図5を用いて、画像管理装置5及びノートPCの場合の情報端末7のハードウェア構成を説明する。なお、図5は、画像管理装置5及び情報端末7のハードウェア構成図である。画像管理装置5及び情報端末7はともにコンピュータであるため、以下では、画像管理装置5の構成について説明する。情報端末7の構成は画像管理装置5と同様であるとし、相違があるとしても本実施形態の説明に関し支障がないものとする。
画像管理装置5は、画像管理装置5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503を有する。また、画像管理装置5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505を有する。また、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508を有する。ディスプレイ508にはタッチパネルが装着されていることが好ましい。また、通信ネットワーク9を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512を有する。また、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ514を有する。また、上記各構成要素を図11に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。
<画像処理システムの機能について>
図6は、画像処理システム200の一部を構成する、撮像装置1、通信端末3、画像管理装置5、及び情報端末7の各機能ブロック図である。
<<撮像装置1の機能構成>>
撮像装置1は、受付部12、撮像部13、集音部14、接続部15、及び記憶・読出部19を有している。これら各部は、図3に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮像装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
また、撮像装置1は、図3に示されているROM112、SRAM113、及びDRAM114の1つ以上によって構築される記憶部1000を有している。記憶部1000には撮像装置用のプログラム及び端末IDが記憶されている。
撮像装置1の受付部12は、主に、図3に示されている操作部115及びCPU111の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。なお、撮像装置1は設置者Xによる撮像のための操作がなくても自動的かつ定期的に周囲を撮像する。定期の間隔は、設置者Xが撮像装置1に設定してもよいし、閲覧者Yが画像管理装置5を介して設定してもよい。
撮像部13は、主に、図3に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、及びCPU111の処理によって実現され、風景等を撮像し、画像データを作成する。
集音部14は、主に、図3に示されているマイク108及び音処理ユニット109、及び、CPU111の処理によって実現され、撮像装置1の周囲の音を収音する。
接続部15は、主に、ネットワークI/F116及びCPU111の処理によって実現され、通信端末3からの電力供給を受けると共に、通信端末3とデータ通信を行う。
記憶・読出部19は、主に、図3に示されているCPU111の処理によって実現され、記憶部1000に各種データを記憶したり、記憶部1000から各種データを読み出したりする。なお、以下では、撮像装置1が記憶部1000から読み書きする場合でも「記憶・読出部19を介して」という記載を省略する場合がある。
<<通信端末3の機能構成>>
通信端末3は、送受信部31、受付部32、接続部33、及び記憶・読出部39を有している。これら各部は、図4に示されている各構成要素のいずれかが、ROM302からRAM304上に展開された通信端末用のプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
また、通信端末3は、図4に示されているROM302及びRAM304によって構築される記憶部3000を有している。記憶部3000には通信端末用のプログラムが記憶されている。
(通信端末3の各機能構成)
通信端末3の送受信部31は、主に、図4に示されている通信部305及びCPU301の処理によって実現され、無線ルータ9a及び通信ネットワーク9を介して、画像管理装置5と各種データの送受信を行う。なお、以下では、通信端末3が画像管理装置5と通信する場合でも、「送受信部31を介して」という記載を省略する場合がある。
受付部32は、主に図4に示されているCPU301の処理によって実現され、ユーザ(図2では、設置者X)からの操作入力を受け付ける。
接続部33は、主に、図4に示されているUSB I/F303、及びCPU301の処理によって実現され、撮像装置1に電力供給すると共に、データ通信を行う。
記憶・読出部39は、主に、図4に示されているCPU301の処理によって実現され、記憶部3000に各種データを記憶したり、記憶部3000から各種データを読み出したりする。なお、以下では、通信端末3が記憶部3000から読み書きする場合でも「記憶・読出部39を介して」という記載を省略する場合がある。
<<画像管理装置の機能構成>>
画像管理装置5は、送受信部51、人物検知部52、サムネイル作成部53、画面作成部54、エリア登録部55、エリア検査部56、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された画像管理装置用の装置プログラム5010に従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、画像管理装置5は、図5に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、拠点管理DB5001、撮像管理DB5002、画像管理DB5003、サムネイル管理DB5004、エリア情報管理DB5005、及び、解析情報管理DB5006が構築されている。以下、各データベースについて説明する。
Figure 2017163195
表1は、拠点管理DB5001に記憶される各情報をテーブル状に示す拠点管理テーブルである。拠点管理テーブルでは、地域ID、地域名、拠点ID、拠点名、拠点レイアウトマップ、及び、装置IDの各フィールドが関連付けて記憶されている。また、拠点管理テーブルの1つの行をレコードという場合がある。以下の各テーブルでも同様である。このうち、地域IDは、地域を識別するための識別情報である。地域IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。
地域名は、例えば、関東、東京、渋谷区、ニューヨーク州、ニューヨーク市等、土地の区域又は範囲を示す。地域名称と言ってもよい。なお、識別情報とは、複数の対象からある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち2つ以上の組み合わせをいう。以下のID又は識別情報についても同じである。
拠点IDは、拠点を識別するための識別情報の一例である。拠点IDは拠点名に対し重複しないように付与される。拠点固有情報と称してもよい。拠点IDの一例としては重複しない番号とアルファベットの組み合わせが挙げられる。拠点とは撮像装置1が設置され周囲を撮像するよりどころとなる所を言う。拠点の一例が店舗である。
拠点名は、渋谷店等の店舗名や、渋谷会場等の会場名等であり、拠点の名称である。拠点レイアウトマップには、各拠点のレイアウトや地図を示す画像データなどのファイル名が登録される。拠点レイアウトマップにより拠点における撮像装置1や取扱商品などの位置が2次元座標で特定される。
端末IDは、撮像装置1を識別するための識別情報である。端末固有情報と称してもよい。端末IDは、例えば、撮像装置1の例えばシリアル番号、製造番号、型番と重複しない数値、IPアドレス、又は、MACアドレスなどであるがこれらには限定されない。表1に示すように、1つの拠点には1つ以上の撮像装置(端末ID)が設置されており、それらの位置がレイアウトマップなどで管理されている。拠点管理テーブルは、設置者X又は閲覧者Yが登録してもよいし、画像処理システム200のサプライヤーが登録してもよい。
Figure 2017163195
表2は、撮像管理DB5002に記憶される各情報をテーブル状に示す撮像管理テーブルである。撮像管理テーブルでは、拠点IDごとに、撮像タイトル、撮像開始日時、及び撮像終了日時の各フィールドが関連付けて記憶されている。撮像タイトルは、閲覧者Yが入力したイベントのタイトルである。つまり、閲覧者Yが消費者の行動を監視したい何らかのイベントが店舗で催される場合に、このイベントの名称が撮像タイトルとなる。当然ながら、イベントの名称は閲覧者Yが任意に付与できるためイベントの名称でなくてもよい。例えば、単に撮像年月日とすることもできる。閲覧者Yは、画像データの複数のファイルから所望の画像データを抽出する際に、撮像タイトルを参照することができる。なお、1回の撮像イベントで複数の画像データが時系列に(定期的に)撮像される。撮像開始日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を開始する(又は開始した)日時を示す。撮像終了日時は、閲覧者Yによって入力された日時であり、撮像装置1が撮像を終了する(又は終了した)日時を示す。閲覧者Yは撮像開始日時と撮像終了日時を事前に登録しておくこともできる(予約撮像)。撮像管理テーブルは、主に画像管理装置5が登録する。
Figure 2017163195
表3は、画像管理DB5003に記憶される各情報をテーブル状に示す画像管理テーブルである。画像管理テーブルでは、端末IDごとに、画像ID、画像データのファイル名、及び撮像日時が関連付けて記憶されている。画像IDは、画像データを一意に識別するための識別情報の一例である。画像固有情報と称してもよい。画像データのファイル名は、画像IDで特定される画像データのファイル名である。撮像日時は画像データが端末IDで示される撮像装置1で撮像された日時である。画像データも、記憶部5000に記憶されている。
例えば、画像ファイルの閲覧の際、閲覧者Yは情報端末7で画像管理装置5にアクセスし、表2の撮像管理テーブルから撮像タイトルを選ぶ。画像管理装置5はこの撮像タイトルの拠点IDに対応付けられている端末IDを表1の拠点管理テーブルから読み出すことができる。端末IDが明らかになるので、画像管理テーブルの端末IDに対応付けられた画像データのうち撮像日時が撮像開始日時から撮像終了日時に含まれる画像データを画像管理装置5が特定できる。
当然ながら、閲覧者Yは端末IDや拠点IDを直接指定することもできる。本実施形態では、簡単のため閲覧者Yが端末IDを指定して閲覧する態様を主に説明する。なお、画像管理テーブルは、主に画像管理装置5が登録する。
Figure 2017163195
表4は、サムネイル管理DB5004に記憶される各情報をテーブル状に示すサムネイル管理テーブルである。サムネイルとは親指程度のという意味であり、サムネイル画像は縮小した、画素数を低減した又は一覧用のイメージデータという意味になる。
サムネイル管理テーブルでは、画像IDごとに、サムネイルID、サムネイル画像のファイル名、及び所定領域情報が関連付けて記憶されている。サムネイルIDは、画像IDで示される画像データに基づいて作成されたサムネイル画像を一意に識別するための識別情報の一例である。サムネイル固有情報と称してもよい。サムネイル画像のファイル名は、サムネイルIDで示されるサムネイル画像のファイル名である。サムネイル画像のファイル名は画像管理装置5が付与する。所定領域情報は、画像IDで示される画像データにおいて、サムネイル画像が作成された所定領域を示す。サムネイル管理テーブルは、主に画像管理装置5が登録する。
Figure 2017163195
表5は、エリア情報管理DB5005に記憶される各情報をテーブル状に示すエリア情報テーブルである。エリア情報テーブルでは、端末IDごとに、登録エリアID、登録エリアの名称、値、及び、関連づけの各フィールドが関連付けて記憶されている。端末IDは上記と同じものである。登録エリアIDは登録されたエリアを一意に識別するための識別情報の一例である。エリア固有情報と称してもよい。登録エリアの名称は、閲覧者Yが任意に付与することができるエリアの名称である。値は、エリアを特定するための情報であり、エリアが矩形であれば例えば、左上のコーナーの座標(x,y)と幅(width)と高さ(height)である。対角の2点の座標でもよい。エリア情報テーブルの値は、平面画像の座標系に基づいて決定されている。関連づけのフィールドにはエリアに関連付けられた他のエリアの登録エリアIDが登録される。例えば、表5のarea_1はarea_3と関連付けられている。エリアの関連づけは閲覧者Yが任意に行うことができる。また、3つ以上のエリアを関連付けることもできる。
各エリアの座標は重なり合っていてもよい。二つのエリア(area_A, area_B)を包含関係にある(area_A⊃area_B)ように登録することができる。これにより、area_A内で更に特定のエリア(area_B)の人の有無などを閲覧者Yが分析したい場合、包含関係にあるエリアを登録することで、area_A内で検知された人数に対して更にarea_Bで検知された人数を把握することができる。また、area_A に対し複数のarea_Bを閲覧者Yが登録することで、人がいない天井等を除外してヒートマップを作成できる。このように、画像全体に対して分析する母数を限定することができ、不要な情報を排除した分析を行うことができる。
Figure 2017163195
表6は、解析情報管理DB5006に記憶される各情報をテーブル状に示す解析情報テーブルである。解析情報テーブルでは、画像IDごとに、人検知エリアID、及び値が関連づけて管理されている。画像IDは上記と同じである。人検知エリアIDは人が検知されたエリアを一意に識別するための識別情報の一例である。人検知エリア固有情報と称してもよい。値は、人検知エリアを特定するための情報である。データの形式は登録エリアと同様である。例えば、画像ID=au123456ifauyの全天球画像(全天球画像に変換される前の平面画像)には2つの人検知エリアがあり、それぞれの値が登録されている。
(画像管理装置の各機能構成)
画像管理装置5の送受信部51は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して通信端末3、又は情報端末7と各種データの送受信を行う。なお、以下では、画像管理装置5が情報端末7と通信する場合でも、「送受信部51を介して」という記載を省略する場合がある。
人物検知部52は、主に、図5に示されているCPU501の処理等によって実現され、画像データから人物を検知する。この人物の検知は適切な特徴量の設定と、学習識別装置の設定により行われる。例えば、特徴量としては、Haar-like特徴、LBP(Local Binary Patterns)特徴、HOG(Histogram of Oriented Gradients)特徴などが知られている。また、学習識別装置としては、SVM(Support Vector Machines)、AdaBoostを用いたカスケード分類などが知られている。ただし、これらに限られるものではなく人を検知できればよい。
サムネイル作成部53は、主に、図5に示されているCPU501の処理等によって実現され、所定領域画像のサムネイル画像を作成する。
画面作成部54は、図5に示されているCPU501の処理によって実現され、画像データを情報端末7に送信する際に、HTMLデータ、JavaScript(登録商標)及びCSSなどで情報端末7が画像データを表示するための画面情報を作成する。エリアを特定する情報は平面画像の座標系で記述されているので、エリアを表示するための画面データを送信する際、画面作成部54はエリアの座標をワールド座標系の座標に変換する処理を行う。
エリア登録部55は、図5に示されているCPU501の処理等によって実現され、情報端末7からエリア情報テーブルに登録する情報を取得してエリア情報管理DB5005に登録する。
エリア検査部56は、図5に示されているCPU501の処理等によって実現され、解析情報を用いてエリアを検査し、エリアに関する情報を作成する。
記憶・読出部59は、主に、図5に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データを記憶したり、記憶部5000から各種データを読み出したりする。なお、以下では、画像管理装置5が記憶部5000から読み書きする場合でも「記憶・読出部59を介して」という記載を省略する場合がある。
<情報端末7の機能構成>
情報端末7は、送受信部71、受付部72、表示制御部73、エリア座標算出部74、及び、記憶・読出部79を有している。これら各部は、図5に示されている各構成要素のいずれかが、HD504からRAM503上に展開された情報端末7用のプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
また、情報端末7は、図5に示されているRAM503、及びHD504によって構築される記憶部7000を有している。記憶部7000には情報端末7用の端末プログラム7010が記憶されている。情報端末7用の端末プログラム7010は、例えばブラウザソフトウェアであるが、ブラウザソフトウェアのような通信機能を備えたアプリケーションソフトウェアでもよい。また、ブラウザソフトウェアは画面データを実行して画面を表示したり、操作を受け付けたりするため、端末プログラム7010には画像管理装置5が送信する画面データ(HTML、JavaScript(登録商標)等)が含まれる。
(情報端末7の各機能構成)
情報端末7の送受信部71は、主に、図5に示されているネットワークI/F509及びCPU501の処理等によって実現され、通信ネットワーク9を介して画像管理装置5と各種データの送受信を行う。なお、以下では、情報端末7が画像管理装置5と通信する場合でも、「送受信部71を介して」という記載を省略する場合がある。
受付部72は、主に、図5に示されているキーボード511及びマウス512、並びにCPU501の処理等によって実現され、ユーザ(図2では、閲覧者Y)からの操作入力を受け付ける。
表示制御部73は、主に、図5に示されているCPU501の処理等によって実現され、画像管理装置5から送信された画面情報を解釈して情報端末7のディスプレイ508に各種画面を表示させるための制御を行なう。
エリア座標算出部74は、受付部72が受け付けたエリアを指定する画面上の座標を、平面画像の座標に変換する。すなわち、ワールド座標系への変換、平面画像の二次元座標への変換を行う。
記憶・読出部79は、主に、図5に示されているHD504、及びCPU501の処理によって実現され、記憶部7000に各種データを記憶したり、記憶部7000から各種データを読み出したりする。なお、以下では、情報端末7が記憶部7000から読み書きする場合でも「記憶・読出部79を介して」という記載を省略する場合がある。
<エリアの登録>
図7を用いてエリアの登録について説明する。図7は、閲覧者Yがエリアを登録するために操作するポインティングデバイスの軌跡を説明する図の一例である。閲覧者Yは情報端末7のキーボード511やマウス512又はタッチパネルなどのポインティングデバイスを操作してある点からある点までドラッグする。情報端末7の受付部72はこの操作を受け付けて、図7(a)に示すような矢印で表される軌跡を取得する。図7で示される座標はディスプレイ508に全天球画像のまま表示された場合の画面におけるスクリーン座標である。
エリアを登録するための操作の一例は、ポインティングデバイスを用いて任意の箇所をドラッグする操作である。ディスプレイ508がタッチパネルを有する場合、タッチドラッグや、ピンチ操作で登録を受け付けてもよい。これらの場合、受付部72は、該操作の際にドラッグの開始点651と終了点652の座標を取得する。図7(a)では開始点651がエリア602の左上頂点(upperLeft)、終了点652がエリア602の右下頂点(lowerRight)であるが、ドラッグの方向により開始点651と終了点652がエリア602のどの頂点となるかは異なる。
また、図7(b)に示すように右下から左上に閲覧者Yがドラッグした場合、開始点よりも終了点の方が、座標が小さくなる。この場合、エリア座標算出部74は開始点651を基準にして終了点652に至までの軌跡の座標からドラッグ方向を判断する。軌跡によりドラッグ方向が左上であると判断すると、開始点651に対し負値の幅と負値の高さを検出する。
また、図7(c)に示すようにドラッグ方向が左下であると判断すると、開始点651に対し負値の幅と正値の高さを検出する。また、図7(d)に示すようにドラッグ方向が右上であると判断すると、開始点651に対し正値の幅と負値の高さを検出する。
受付部72は閲覧者Yのドラッグ方向を検出して原点(開始点の場合、終了点の場合、それ以外の場合がある)、幅(lrx1-ulx1)or(urx1-llx1)及び高さ(lry1-uly1)(lly1-ury1)、を算出する。原点はエリアの左上頂点であるものとする。例えば、図7(b)の開始点651に負値の幅と負値の高さを加えると、原点(左上頂点)の座標が得られる。図7(c)(d)についても同様である。
対角頂点の2点の座標でなく原点に対し幅と高さが記録されることで、全天球画像においても適切にエリアを指定できる。すなわち、全天球画像は境目がないので2点によるエリアの指定では二通りの領域指定(左上頂点からエリア内を通って右下頂点に至る領域、右下頂点からエリア外を通って左上頂点に至る領域)が可能なためである。このように、全天球画像に特有の処理として、受付部72はドラッグ方向が様々であってもそれを吸収してエリアの特定する情報を適切に算出することができる。
なお、エリアの形状は矩形でなくてもよく、ポインティングデバイスの任意の軌跡が囲む領域でエリアを特定してもよい。この場合、エリアは時系列の座標で特定される。また、閲覧者Yが任意の2点をポインティングデバイスで指し示した場合の座標からエリアを特定してもよい。この場合、閲覧者Yは左上の頂点の次に右下の頂点を指し示すなどの規則に従うことが好ましい。
<座標変換について>
図8は全天球画像が処理される各フェーズの画像の形態と座標の変換を説明する図の一例である。図8(a)は変換の手順を示す。
・スクリーン座標系からワールド座標系
この変換にはビュー変換と射影変換が使用される。一般にはワールド座標系からスクリーン座標系へ変換されるので、本実施形態ではビュー変換と射影変換のそれぞれ逆変換が適用される。ビュー変換は仮想的なカメラの座標を回転、平行移動させる変換であり、三次元のオブジェクトをカメラの向きに応じた画像に変換する処理に相当する。ビュー変換の変換行列Mvは以下のようになる。
Figure 2017163195
ここでXx、Yx、ZxはカメラのX軸を、Xy、Yy、ZyはカメラのY軸を、Xz、Yz、ZzはカメラのZ軸を示し、Pはカメラの位置ベクトル、X,Y,ZはX軸、Y軸、Z軸の方向余弦を示す。
次に、射影変換は、三次元のオブジェクトをカメラから所定距離の画面に射影した場合の二次元座標に変換する。図8(b)は射影変換を説明する図である。カメラからスクリーンm2までの距離をN,オブジェクトが存在しうる範囲を面m1までの距離Fとする。θは情報端末7の画面の幅方向の画角である。これらから射影変換行列Mpは以下のようになる。なお、距離N、Fは予め定められた値が設定される。
Figure 2017163195
したがって、スクリーン座標における全天球画像の任意の点の座標(x、y、z)はワールド座標系の座標(x、y、z)に以下のように変換される。zは以下の式で算出される。このZはオブジェクトまでの距離である。
zc={(N+F)Z−2NF}/(N−F)
Figure 2017163195
・ワールド座標系からuv座標系
この変換はワールド座標系の全天球画像を正規化することで行われる。正規化とは座標の範囲が(0, 0) から (1, 1)に含まれるようにすることをいう。uv座標系の座標を(u, v)とする。また、仮想的なカメラからの距離r、距離rに対するx、y、zの比をdx、dy、dzとする。
r = sqrt(x ^2, + y^2 + z^2)
dx = x/r
dy = y/r
dz = z/r
以上からu座標は以下のようになる。
u = 1/2 + arctan(dz/dx) / 2*PI + 1/4
但し、u ≧ 1のとき u=u-1とする。
また、v座標は以下のようになる。
v = 1/2 - arcsin(dy) / PI
・uv座標系から平面画像の座標系
正規化されたuv座標と、平面画像の解像度の積を算出する。
平面画像のx方向の解像度をresolutionWidth、y方向の解像度をresolutionHeightとする。
平面画像の座標 (x, y) = (u * resolutionWidth, v * resolutionHeight)
以上により、情報端末7で指定されたエリアのディスプレイ508のスクリーン座標を平面画像の座標に変換できる。
なお、平面画像をディスプレイ508に表示する際はこの逆の変換を行えばよい。
<エリアの登録>
続いて、図9〜13を用いて画像処理システム200の動作手順を説明する。
図9は、閲覧者が指定したエリアを情報端末7が画像管理装置5に登録する手順を示すフローチャート図の一例である。図9の処理は、閲覧者Yがエリアの登録を開始する操作を行うとスタートする。また、図10を適宜参照して説明する。図10は右下頂点が平面画像の端部を跨ぐエリアを説明する図の一例である。
情報端末7には画像データがダウンロードされている。画像データは端末IDと関連付けられてるので情報端末7は端末IDを保持している。閲覧者Yはポインティングデバイスによるドラッグ操作を開始する。情報端末7の受付部72はドラッグ操作を受け付ける(S10)。受付部72は例えば、マウスのオンマウスダウンイベントやタッチパネルのタッチイベントを取得する。この時、ディスプレイ508の左上コーナーを原点とするスクリーン座標を取得できる。
次に、エリア座標算出部74は開始点651の座標を記憶部7000などに記録する(S20)。
次に、エリア座標算出部74はドラッグ操作は継続しているか否かを判断する(S30)。受付部72が例えば、オンマウスアップイベントを検出すると、ステップS30の判断はNoになる。
ステップS30の判断がYesの間、エリア座標算出部74はドラッグが続く限りエリアの矩形を更新しながら、ポインティングデバイスの現在の座標を記録する(S40)。
ステップS30の判断がNoの場合、エリア座標算出部74はドラッグ操作が終了した時点での現在の座標が、終了点652の座標であると判断する(S50)。なお、図7で説明したように常にポインティングデバイスの座標が検知されるのでドラッグ方向が判断され、ドラッグ方向に依存しないエリアの座標(左上頂点と右下頂点)が得られている。
次に、エリア座標算出部74は、左上頂点の座標と右下頂点の座標を座標変換する。上記のように、スクリーン座標系→ワールド座標系→uv座標系→平面画像の座標系に変換する(S60)。
変換処理により最終的に得られる座標は全天球画像が二次元で表現された平面座標のものなので、左上頂点と右下頂点が平面画像の端部を跨ぐ場合がある。この場合、端部を跨ぐことを考慮してエリアの幅と高さを算出しないと、幅や高さが負値になりエリアを正しく特定できない。
図10には、平面画像において端部を跨ぐ左上頂点と右下頂点が示されている。図10に示すように、平面画像におけるエリアの配置には4つのパターンがあり得る。パターン1は、右下頂点がx方向の端部とy方向の端部を跨がない場合である。パターン1の場合、エリアは分割されない。端部を跨ぐとは、平面画像のx方向の解像度又はy方向の解像度を右下頂点が超えてしまうことをいう。あるいは、右下頂点の座標が左上頂点の座標よりも小さいことをいう。
パターン2は右下頂点がy方向の端部のみを跨ぐ場合である。この場合、エリアは上下に2つに分割される。パターン3は右下頂点がx方向の端部のみを跨ぐ場合である。この場合、エリアは左右に2つに分割される。パターン4は右下頂点がx方向とy方向の両方で端部を跨ぐ場合である。この場合、エリアは上下左右の4つに分割される。エリア座標算出部74はこのパターンを判断してエリアの幅と高さを適切に算出する。エリア1〜4はそれぞれパターン1〜4に適合するものとし、エリア1〜4の左上頂点と右下頂点の座標を以下に示す。
エリア1:左上頂点(ulx1,uly1)、右下頂点(lrx1,lry1)
エリア2:左上頂点(ulx2,uly2)、右下頂点(lrx2,lry2)
エリア3:左上頂点(ulx3,uly3)、右下頂点(lrx3,lry3)
エリア4:左上頂点(ulx4,uly4)、右下頂点(lrx4,lry4)
図10から明らかなように、各エリアの幅と高さは以下のように算出される。
エリア1:幅 =lrx1−ulx1
高さ=lry1−ulx1
エリア2:幅 =lrx2−ulx2
高さ=高さの解像度−uly2+lry2
エリア3:幅 =幅の解像度−ulx3+lrx3
高さ=lry3−ulx3
エリア4:幅 =幅の解像度−ulx4+lrx4
高さ=高さの解像度−uly4+lry4
図9に戻って説明する。
次に、右下頂点のx座標が左上頂点のx座標よりも大きいか否かを判断する(S70)。すなわち、パターン3か4であるかどうかを判断する。
ステップS70の判断がYesの場合、パターン1又は2なのでエリア座標算出部74は、右下頂点のx座標から左上頂点のx座標の差分を算出する(S80)。つまり、右下頂点と左上頂点の差分をそのままエリアの幅とする。
ステップS70の判断がNoの場合、パターン3又は4なのでエリア座標算出部74は、幅の解像度を考慮して幅を算出する(S90)。具体的には上記のエリア3、4の幅の算出式で算出する。
次に、右下頂点のy座標が左上頂点のy座標よりも大きいか否かを判断する(S100)。すなわち、パターン2か4であるかどうかを判断する。
ステップS100の判断がYesの場合、パターン1又は3なのでエリア座標算出部74は、右下頂点のy座標から左上頂点のy座標の差分を算出する(S110)。つまり、右下頂点と左上頂点の差分をそのままエリアの高さとする。
ステップS100の判断がNoの場合、パターン2又は4なのでエリア座標算出部74は、高さの解像度を考慮して高さを算出する(S120)。具体的には上記のエリア2、4の高さの算出式で算出する。
このように、右下頂点が平面画像の端部を跨ぐか否かを判断して、跨ぐ場合には解像度を考慮して幅と高さを算出することで、エリアの左上頂点に対する幅と高さを正しく算出できる。全天球画像のままエリアを閲覧者Yが指定しても、平面画像において正しくエリアを特定できる。
幅と高さの算出が完了すると、エリア座標算出部74はエリアの任意の名称の入力を受け付ける(S130)。詳細は図14(b)にて説明される。
エリア座標算出部74は、端末ID、エリアの開始点、幅、高さ、及び、名称を画像管理装置5に送信する(S140)。以上が1つのエリアの登録であり、閲覧者Yはエリアごとに同様の処理を行う。
<エリアの検査>
平面画像にエリアが設定されたので、解析情報を用いてエリアを検査することができる。解析情報の一例として人の検知結果を使用する。
図11は、画像管理装置5のエリア検査部56がエリアを検査する手順を示すフローチャート図の一例である。なお、適宜図12を参照して説明する。図12はエリアと人検知エリアを説明する図の一例である。
例えば、エリアごとに人の有無を検知できれば、ある期間に各エリアにどの位の人が存在したかを定量的に調べることができる。図11では、エリアの検査の一例としてエリア毎の人数のカウント結果をグラフや数字等で出力する例を示す。図11の処理は例えば、閲覧者Yが端末IDや画像ID等を指定してエリアの検査を開始する操作を行うと実行される。あるいは、撮像装置1が撮像を終了させ人検知の解析が終了すると自動的に開始する。また、図11は1つの画像データ(画像フレーム)ごとに実行される。
まず、エリア検査部56は平面画像の解像度と解析情報を取得する(S10)。平面画像の解像度は図10の平面画像の解像度と同じであり予め既知であるか、記憶部5000に記憶されている。解析情報は解析情報管理DB5006に記憶されている。
次に、エリア検査部56はエリアを特定する情報をエリア情報管理DB5005から取得する(S20)。エリアは端末IDに関連付けられているので、エリアの検査の対象となっている画像データに関連付けられている端末IDを特定し、この端末IDに関連付けられている登録エリアIDの値(エリアを特定する情報)を順番に読み出す。
次のエリアが登録されていない場合(S30のNo)、図11の処理は終了する。
対のエリアが登録されている場合(S30のYes)、平面画像に対するエリアの位置を判断してエリアを分割する処理を行う(S40〜S80)。
エリアを分割する処理について図12に基づき説明する。図12のエリア1〜4はそれぞれ図10のエリア1〜4と同様である。エリア2〜4のように平面画像の端部を跨ぐエリアは、端部を跨いだ後のエリアがどこにあるかを特定しないと人検知エリアとの関係を判断できない。このため、平面画像の端部を跨ぐエリアは以下のように平面画像の端部で分割される。
エリア1:エリア1は平面画像の端部を跨がないのでエリア1は分割されない。
エリア2:エリア2は平面画像のy方向の端部を跨ぐのでエリア2とエリア2'に分割される。
エリア2 左上頂点(x2,y2)、 幅=width2,高さ=幅方向の解像度-y2
エリア2'左上頂点(x2,0)、幅=width2,高さ=height2−(高さの解像度-y2)
エリア3:エリア3は平面画像のx方向の端部を跨ぐのでエリア3とエリア3'に分割される。
エリア3 左上頂点(x3,y3)、幅=幅の解像度−x3、高さ=height
エリア3'左上頂点(0,y3)、幅=width3−(幅の解像度−x3)、高さ=height3
エリア4:エリア4は平面画像のx方向とy方向の端部を跨ぐのでエリア4、4'、4''、4'''に分割される。
エリア4 左上頂点(x4,y4)、幅=幅の解像度−x4、高さ=高さの解像度−y4
エリア4' 左上頂点(0,0)、幅=width4−(幅の解像度−x4),高さ=height4−(高さの解像度-y4)
エリア4''左上頂点(x4,0)、幅=幅の解像度−x4、高さ=height4−(高さの解像度-y4)
エリア4'''左上頂点(0,y4)、幅=width4−(幅の解像度−x4)、高さ=高さの解像度−y4
図11に戻って説明する。エリア検査部56は、エリアを特定する情報のうち原点(x,y)及び幅から、右下頂点の座標(lrx, lry)を算出する(S40)。すなわち、原点のx座標に幅を加算して、右下頂点の座標のx座標lrxを算出する。
右下頂点のx座標lrxが平面画像のx方向の解像度よりも大きいか否かを判断する(S50)。「平面画像のx方向の解像度<x座標lrx」の場合、右下頂点の座標が平面画像のx方向の端部を跨ぐ。すなわち、図12のエリア3の状態となる。
ステップS50の判断がYesの場合、エリア検査部56はエリアをx方向に二分割して、エリア3とエリア3'という2つのエリアを作成する(S60)。エリア3とエリア3'の(左上頂点の座標、幅、高さ)は図12で説明した。
次に、エリア検査部56は右下頂点のy座標lryが平面画像のy方向の解像度よりも大きいか否かを判断する(S70)。「平面画像のy方向の解像度<y座標lry」の場合、右下頂点の座標が平面画像のy方向の端部を跨ぐ。すなわち、図12のエリア2の状態となる。
ステップS70の判断がYesの場合、エリア検査部56はエリアをy方向に二分割して、エリア2とエリア2'という2つのエリアを作成する(S80)。エリア2とエリア2'の(左上頂点の座標、幅、高さ)は図12に示した。
また、ステップS50とS70の両方でYesと判断されるエリア4は、エリア4、4'、4''、4'''の4つに分割される。エリア4、4'、4''、4''' の(左上頂点の座標、幅、高さ)は図12に示した。
次に、この分割したエリアごとに人が検知された回数をカウントアップする処理を行う。エリア検査部56は、画像データに人検知エリアがあるか否かを判断する(S90)。ステップS90の判断がNoの場合、処理はステップS30に戻る。
ステップS90の判断がYesの場合、エリア検査部56は分割されたエリアを1つ取り出す(S100)。
そして、分割されたエリアに人検知エリアの中心が含まれるか否かを判断する(S110)。
ステップS110の判断がYesの場合、エリア検査部56はエリアで人が検知された回数を1つ大きくする(S120)。回数はエリアごとにカウントされ、エリアが分割されていても分割前のエリアごとにカウントされる。このように解析結果を用いてエリアごとにエリアに関する情報を作成できる。エリアが互いに重複していないという前提であるため、この後、処理はステップS90に戻り次の人検知エリアについて処理される。エリアが互いに重複している場合、処理はステップS100に戻ればよい。
ステップS110の判断がNoの場合、処理はステップS100に戻り次の分割されたエリアを取り出す。したがって、1つの人検知エリアに対し分割されたエリアが総当たりで人検知エリアの中心を含むか否かが判断される。
以上で、エリアごとに人が検知された数が測定された。次の画像データ(画像フレーム)で同じ処理を行えば、情報端末7はエリアごとにある期間に人が検知された回数や頻度などをグラフ等で表示できる。
また、情報端末7は包含するエリアと包含されるエリアを座標に基づいて特定し、包含するエリアにおける人検知の回数に対し、包含されるエリアにおける人の検知の回数の比などを算出できる。包含されるエリアが複数あれば、包含するエリアにおけるヒートマップなどを容易に作成できる。
なお、人検知エリアの中心を比較するのでなく人検知エリアの一部でもエリアと重複している場合に、エリアの人の数をカウントしてもよい。この場合、複数のエリアで同一人物がカウントされる場合があるが、エリアに接近した人をカウントできる。また、人検知エリアとエリアの重複面積が最も多いエリアの人の数をカウントしてもよい。この場合、複数のエリアで同一人物がカウントされることを抑制し、エリアに接近した人をカウントできる。また、人検知エリアとエリアの距離が閾値内の場合にエリアの人の数をカウントしてもよい。
<エリアの表示>
画像管理装置5に登録されているエリアを情報端末7が表示する処理を説明する。画像管理装置5に登録されているエリアを特定するための情報(値)は平面画像における座標であり、情報端末7は全天球画像を表示するので、エリアを特定する情報をワールド座標系の座標に変換する必要がある。
図13は、情報端末7がエリアを表示するための処理手順を示すフローチャート図の一例である。図13の処理は閲覧者Yが情報端末7を操作して画像データの閲覧を画像管理装置5に要求するとスタートする。なお、画像データが特定されているので端末IDが特定されている。
まず、情報端末7の表示制御部73は、平面画像の解像度を取得する(S10)。解像度は既知である。人検知エリアも表示する場合は、解析情報管理DB5006から解析情報を取得しておく。
表示制御部73は、エリアを特定する情報を画像管理装置5のエリア情報管理5005から取得する(S20)。エリアは端末IDに関連付けられているので、表示対象の画像データに関連付けられている端末IDを特定すればよい。
次に、表示制御部73は平面画像と同じ解像度のレンダリングベースを作成する(S30)。これは、全天球画像にレンダリングベースを新規レイヤとして貼り付けるためである。例えば、HTMLのタグであるcanvasタグを使用する。
表示制御部73は撮像装置1に次のエリアが登録されているか否かを判断する(S40)。撮像装置1に次のエリアが登録されている場合、表示制御部73はエリアの分割処理を行う(S50)。この分割処理は図11で説明した。
そして、分割された全てのエリアをレンダリングベースにレンダリングする(S60、S70)。分割されたエリアの座標が分かるので、レンダリングベースに矩形を描画すればよい。すなわち、分割されたエリアの座標で特定される四角形を描画する。エリアには半透明で表示される処理が施される。また、エリアごとに異なる色(半透明)が付される。半透明とすることで閲覧者Yは全天球画像を目視することができる。
すべてのエリアについて処理が終わると(S40のNo)、表示制御部73はレンダリングベースをレイヤ化する(S70)。レイヤ化とはcanvasタグの全体を1枚の画像データとして生成することをいう。エリアがない場所は完全な透明になる。
表示制御部73は、レイヤ化されたエリアを全天球画像に貼付する(S80)。すなわち、レイヤ化された平面画像を、従来と同様に全天球に貼り付ける処理を行う。これにより、全天球画像にレイヤが貼り付けられた状態になる。
閲覧者Yは全天球画像に重ねてエリアを確認することができる。なお、図13の処理を画像管理装置5が行ってもよい。閲覧者Yは画像データを表示しながらエリアを表示したりしなかったりを操作できる。
<画面例>
図14から図18を用いてエリアの登録から表示までの画面例を示す。
図14(a)はエリアの登録時に情報端末7がディスプレイ508に表示するエリア登録画面601の一例である。
閲覧者Yは全天球画像内を表示させエリアの登録を行うためのメニューを選択する。そして、上記のように、任意の位置をマウス等のポインティングデバイスでドラッグすることでエリアを指定する。図14(a)にはドラッグされたエリア602が点線で示されている。エリア602の位置が登録される。なお、処理としては、情報端末7の受付部72はドラッグの開始点と終了点の座標を検出して、表示制御部73がこの座標を対角頂点とする矩形を表示する。
閲覧者Yは図14(b)に示すようにエリアに名称を付与できる。図14(b)では名称登録欄603が表示されている。閲覧者Yは名称を入力してOKボタン604を押下する。情報端末7の受付部72はこの操作を受け付けて、送受信部71が端末ID、エリアを特定するための情報(値)及び名称を画像管理装置5に送信する。名称は任意であるが例えば、図14(b)のエリアは冷蔵庫に指定されたので「冷蔵庫」などを入力する。したがって、陳列する具体的な商品等で名称を付与できる。
図15(a)は複数の座標点によるエリアの登録例を説明する図の一例である。閲覧者Yは指定したいエリアを囲むように座標点605の入力を繰り返す(例えばポインティングデバイス650でクリック又はタッチする)。情報端末7の受付部72は座標点605の入力を受け付け、情報端末7の表示制御部73は座標点605と座標点605の間を点線で囲むなどしてエリア602を明示する。このようなエリアの登録は矩形以外のエリアを登録したい場合に有効である。
図15(b)はフリーハンドによるエリアの登録例を説明する図の一例である。この場合、閲覧者Yはエリアの外縁に沿ってポインティングデバイス650をドラッグする。情報端末7の受付部72は軌跡606の座標を受け付け、情報端末7の表示制御部73はポインティングデバイス650の軌跡606を線で表示するなどしてエリア602を明示する。任意の形状のエリアを短時間で指定できる。
図16(a)はエリアの関連付けを説明する図の一例である。閲覧者Yがエリア602Aの後にエリア602Bを指定した。例えばエリアAに「冷蔵庫」、エリアBに「レジ前」という名称が付与されたものとする。エリア602Bをエリア602Aと関連付けたい場合、閲覧者Yはエリア602Aを選択した状態で、例えばエリア602B内で右クリックすることにより関連づけのためのメニューを表示させる。エリア602Aには選択中であることを示すマーク660が表示される。受付部72はこのメニューの選択操作を受け付け、表示制御部73が図16(a)のようなエリア関連付け欄610が表示させる。エリア関連付け欄610には「関連づけするエリアを選択してください」というメッセージ611、選択中のエリア612として「レジ前」が表示される。
閲覧者Yがエリア602Aをポインティングデバイス650で選択すると、受付部72がポインティングデバイス650の位置を検出してエリア602Aが選択されたと判断する。受付部72はエリア602Aで登録されているエリアAの名称(冷蔵庫)をエリア関連付け欄610の関連付けられるエリア613に表示する。このように、閲覧者Yはエリアを選択するという簡単な操作でエリア同士を関連付けることができる。また、すでに指定されているエリアが表示されるので、閲覧者Yがこれから登録しようとしているエリアとの相対位置が分かりやすい。
図16(b)はエリアの中に更に登録されるエリアを説明する図の一例である。図16(b)ではエリア602Cの中にエリア602Aが登録されている。情報端末7はエリア602Cの座標とエリア602Aの座標を比較することでエリア602Aがエリア602Cに包含されていると判断できる。あるいは明示的に閲覧者Yが指定してもよい。したがって、画像管理装置5は、エリア602Cで検知された人の総数に対し更にエリア602Aで検知された人の数の比率などを簡単に算出できる。
図17はエリア表示画面621の一例を示す図である。図17(a)は、登録されたエリア602の表示例を示す図である。図17(a)では2つのエリア602A,602Dが表示されているがそれぞれが異なる色で表示されている。情報端末7がディスプレイ508に表示する画面データは、上記のように情報端末7の表示制御部73が作成するが画像管理装置5の画面作成部54も作成できる。図では白黒であるが、例えばエリア602Aは赤でエリア602Dは青で表示される。これにより、異なるエリア602が表示されていることを閲覧者Yに把握させやすくなる。なお、表示される色は一例であり、閲覧者Yが指定できてもよい。
一方、情報端末7の表示制御部73は関連づけされたエリアを同じ色で表示する。図17(b)では関連付けられた「レジ前」のエリア602Bと「冷蔵庫」のエリア602Aが同じ色で表示されている。情報端末7の表示制御部73、エリア情報管理DB5005を参照して関連付けのフィールドを読み出し、関連付けされている複数のエリアを同じ色に設定する。図では白黒であるが、例えば赤で表示される。なお、表示される色は一例である。閲覧者Yはエリアの色を見ることで関連付けられたエリアを判断しやすくなる。
なお、各エリアの色は半透明なので、各エリアが全天球画像に映っているどの被写体に対して指定されたのかを、閲覧者Yは容易に判断できる。
図18(a)は、他方のエリアに包含されたエリアの表示例を示す。それぞれのエリア602A,602Cが別々の色で表示されるので、閲覧者Yは包含されているエリアを判断しやすい。なお、包含されたエリア602Aが包含するエリア602Cと関連付けられた場合、同色になってしまい判別が困難になる。情報端末7の表示制御部73は、エリア情報管理DB5005を参照してエリアを特定する情報(値)を読み出し、一方が他方に完全に包含されるエリアを特定する。そして、包含されるエリアにエリアの色と異なる色の枠線を形成するなどする。これにより情報端末7が全天球画像を表示した際、重複したエリアが判別可能になる。あるいは、一方を点滅させたり、輝度を落としたり、同色の斜線で表示したりしてもよい。
図18(b)は人検知エリアの表示例を示す図である。情報端末7の表示制御部73は予め解析情報管理DB5006から読み出した人検知エリアを平面画像に形成しておく。形成方法はエリアの場合と同じである。このように、情報端末7は人検知エリア630をエリア602と共に又はエリア602とは別に表示することができる。情報端末7は閲覧者Yの操作で人検知エリアの表示と非表示を切り替えることができる。例えば、図18(b)の例では、人検知エリア630の中心がエリア602Aと重複しているので、エリア602Aにおいて人が検知されたと判断される。
<エリアの検査結果>
図19はエリアの検査結果を説明する図の一例である。図19(a)では横軸が日付、縦軸が検知された人の数である。人数はエリアごとにカウントされている。すなわち、1日当たりに検知された人の数がエリアごとに表示されている。閲覧者Yは表示させるエリアを選択できる。したがって、人が多いエリアや少ないエリアを判断しやすい。また、日付によってどのような変化があるかを把握しやすい。
図19(b)は、全天球画像の全体の人のカウント数が表示された画面を示す。図19(b)の下段のグラフは図19(a)と同じである。図19(b)の上段では日付ごとに全天球画像の全体で検知された人のカウント数が棒グラフで表示されている。なお、図19(b)では2つの撮像装置A,Bのカウント数が示されている。全天球画像の全体で検知される人のカウント数が多ければエリアで検知される人の数も多くなる傾向がある。したがって、全体と部分(エリア)の関係を把握しやすくすることもできる。
なお、図19のような検査結果を情報端末7は印刷することもできるし、他の機器や端末に送信することもできる。
<まとめ>
以上説明したように本実施形態の画像処理システムは、全天球画像10のように歪曲した画像データにエリア602が設定されても、エリア602が人検知などの解析(画像処理)が行われる平面画像11の座標系に変換されるので、人検知等の解析結果を設定されたエリア602に適用しやすい。また、全天球画像に境界がないが平面画像で境界(端部)が生じても、エリアを分割するのでエリアごとに人検知等の解析結果を正しく適用できる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、本実施形態では人が検知されたが、情報端末7は男女の別を判断して男女がそれぞれ検知された回数を表示してもよい。あるいは、手を伸ばす、座る、商品を戻すなどの動作を判別して各動作の回数を表示してもよい。また、商品の有無、商品の数、体積、商品の配置が乱れているかどうかなどを表示してもよい。
また、上記の実施形態では、情報端末7でエリアが登録され画像管理装置5がエリアに関する情報を作成したが、情報端末7でエリアに関する情報まで作成してもよいし、画像管理装置5がエリアの指定を受け付けてもよい。また、情報端末7と画像管理装置5が一体の情報処理装置が本実施形態で説明された処理を一台で実行してもよい。また、画像管理装置5が有する機能の全て又は1以上を情報端末7が有していてよく、情報端末7が有する機能の全て又は1以上を画像管理装置5が有していてもよい。
また、以上の実施例で示した図6などの構成例は、撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。撮像装置1、通信端末3、画像管理装置5及び情報端末7の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。また、画像処理システム200が複数の画像管理装置5を有していてもよい。
また、画像管理装置5の記憶部5000のデータベースは、画像管理装置5が直接有する他、画像管理装置5が読み書き可能な通信ネットワーク9上にあればよい。
なお、ディスプレイ508は表示装置の一例であり、受付部72は受付手段の一例であり、エリア座標算出部74は座標変換手段の一例であり、エリア検査部56は解析手段の一例であり、表示制御部73は表示手段の一例である。画像管理装置5は第一の情報処理装置の一例であり、情報端末7は第二の情報処理装置の一例である。本実施形態で説明した画像処理システム200が行う処理は画像処理方法の一例である。
1 :撮像装置
3 :通信端末
5 :画像管理装置
7 :情報端末
31 :送受信部
51 :送受信部
52 :人物検知部
54 :画面作成部
55 :エリア登録部
56 :エリア検査部
200 :画像処理システム
特開2009‐048229号公報

Claims (15)

  1. 1つ以上の情報処理装置を含む画像処理システムであって、
    所定よりも画角が広い広角画像を表示装置に表示する表示手段と、
    前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、
    前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、
    前記平面画像の解析結果が有する座標と前記領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段と、
    を有する画像処理システム。
  2. 前記座標変換手段は、前記領域の前記表示装置における座標を三次元座標に変換し、前記三次元座標を前記平面画像の座標に変換する請求項1に記載の画像処理システム。
  3. 前記広角画像は周囲360°が撮像された全天球画像であり、
    前記座標変換手段は、前記平面画像の座標に変換された前記領域が前記平面画像の解像度を超えている場合、前記平面画像の解像度を考慮して前記領域の幅と高さを算出し、
    前記解析手段は、前記幅及び高さを用いて算出した前記平面画像の座標における前記領域の右下頂点が前記平面画像の端部を跨ぐ場合、前記端部で前記領域を分割し、
    分割された各領域の座標と前記解析結果が有する座標とを比較する請求項1又は2に記載の画像処理システム。
  4. 前記解析手段が作成した前記領域に関する情報を前記領域ごとに出力する請求項1〜3のいずれか1項に記載の画像処理システム。
  5. 前記平面画像の前記解析結果は、予め定められた対象が前記平面画像で検知された場合に前記対象を含む対象領域の座標を有し、
    前記解析手段は、前記対象領域の少なくとも一部が前記領域と重複する場合、前記領域で前記対象が検知されたことに基づいて前記領域に関する情報を作成する請求項4に記載の画像処理システム。
  6. 前記解析手段は、前記広角画像ごとに前記対象領域の少なくとも一部が前記領域と重複するか否かを判断し、
    重複する場合に、前記領域ごとに前記対象が検知された回数をカウントし、
    前記表示手段は、前記回数を前記領域ごとに表示する請求項5に記載の画像処理システム。
  7. 前記表示手段は、前記広角画像の全体で前記対象が検知された回数と共に、前記領域ごとに前記対象が検知された回数を表示する請求項6に記載の画像処理システム。
  8. 前記受付手段は、前記表示装置におけるポインティングデバイスの2点の座標で指定される矩形の範囲、
    前記表示装置におけるポインティングデバイスの複数の点で囲まれる範囲、又は、
    前記表示装置におけるポインティングデバイスの軌跡で囲まれる範囲、により前記領域の指定を受け付ける請求項1〜7のいずれか1項に記載の画像処理システム。
  9. 前記受付手段は、すでに受け付けた前記領域を表示した状態で、次の前記領域の指定を受け付ける請求項8に記載の画像処理システム。
  10. 前記表示手段は、前記領域を前記表示装置に表示する際、前記領域を半透明にして前記広角画像に重ねて表示する請求項1〜9のいずれか1項に記載の画像処理システム。
  11. 前記受付手段は、指定された前記領域のうち任意の2つ以上の前記領域の関連付けを受け付け、
    前記表示手段は、関連付けられた2つの前記領域を同色で前記表示装置に表示する請求項10に記載の画像処理システム。
  12. 前記受付手段は、前記領域の全体が他方の前記領域に包含される前記領域の指定を受け付け、
    前記解析手段は、包含する前記領域で前記対象が検知された回数に対する、包含された前記領域で前記対象が検知された回数の比を算出し、
    前記表示手段は、前記比を表示する請求項7に記載の画像処理システム。
  13. 第一の情報処理装置と第二の情報処理装置を含む画像処理システムであって、
    前記第二の情報処理装置は、
    所定よりも画角が広い広角画像を表示装置に表示する表示手段と、
    前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、
    前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、を有し、
    前記第一の情報処理装置は、
    前記平面画像の解析結果が有する座標と前記領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段、を有する画像処理システム。
  14. 情報処理装置を、
    所定よりも画角が広い広角画像を表示装置に表示する表示手段と、
    前記表示装置に表示された前記広角画像の領域の指定を受け付ける受付手段と、
    前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換する座標変換手段と、
    前記平面画像の解析結果が有する座標と前記領域の座標を比較した結果に基づいて、前記領域に関する情報を作成する解析手段として機能させるためのプログラム。
  15. 1つ以上の情報処理装置を含む画像処理システムが行う画像処理方法であって、
    表示手段が、所定よりも画角が広い広角画像を表示装置に表示するステップと、
    受付手段が、前記表示装置に表示された前記広角画像の領域の指定を受け付けるステップと、
    座標変換手段が、前記表示装置における前記領域の座標を前記広角画像が解析される際の平面画像の座標に変換するステップと、
    解析手段が、前記平面画像の解析結果が有する座標と前記領域の座標を比較した結果に基づいて、前記領域に関する情報を作成するステップと、
    を有する画像処理方法。
JP2016043293A 2016-03-07 2016-03-07 画像処理システム、プログラム、画像処理方法 Active JP6686547B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016043293A JP6686547B2 (ja) 2016-03-07 2016-03-07 画像処理システム、プログラム、画像処理方法
US15/446,125 US10652459B2 (en) 2016-03-07 2017-03-01 Information processing system, information processing method, and non-transitory computer-readable storage medium
US16/838,341 US11134193B2 (en) 2016-03-07 2020-04-02 Information processing system, information processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016043293A JP6686547B2 (ja) 2016-03-07 2016-03-07 画像処理システム、プログラム、画像処理方法

Publications (2)

Publication Number Publication Date
JP2017163195A true JP2017163195A (ja) 2017-09-14
JP6686547B2 JP6686547B2 (ja) 2020-04-22

Family

ID=59854258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016043293A Active JP6686547B2 (ja) 2016-03-07 2016-03-07 画像処理システム、プログラム、画像処理方法

Country Status (1)

Country Link
JP (1) JP6686547B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128728A (ja) * 2018-01-23 2019-08-01 株式会社Nttファシリティーズ 情報管理システム、情報管理方法、及びプログラム
JP2020086860A (ja) * 2018-11-22 2020-06-04 株式会社リコー 管理システム、情報処理システム、情報処理方法およびプログラム
CN112307882A (zh) * 2019-07-31 2021-02-02 株式会社理光 图像判断装置及图像判断系统
US11195295B2 (en) 2018-11-22 2021-12-07 Ricoh Company, Ltd. Control system, method of performing analysis and storage medium
JP7327370B2 (ja) 2020-12-07 2023-08-16 横河電機株式会社 装置、方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347650A (ja) * 1999-06-07 2000-12-15 Matsushita Joho System Kk 画像表示装置及び方法
JP2015194901A (ja) * 2014-03-31 2015-11-05 セコム株式会社 追跡装置および追尾システム
JP2016048834A (ja) * 2014-08-27 2016-04-07 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000347650A (ja) * 1999-06-07 2000-12-15 Matsushita Joho System Kk 画像表示装置及び方法
JP2015194901A (ja) * 2014-03-31 2015-11-05 セコム株式会社 追跡装置および追尾システム
JP2016048834A (ja) * 2014-08-27 2016-04-07 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128728A (ja) * 2018-01-23 2019-08-01 株式会社Nttファシリティーズ 情報管理システム、情報管理方法、及びプログラム
JP7045863B2 (ja) 2018-01-23 2022-04-01 株式会社Nttファシリティーズ 情報管理システム、情報管理方法、及びプログラム
JP2020086860A (ja) * 2018-11-22 2020-06-04 株式会社リコー 管理システム、情報処理システム、情報処理方法およびプログラム
US11195295B2 (en) 2018-11-22 2021-12-07 Ricoh Company, Ltd. Control system, method of performing analysis and storage medium
CN112307882A (zh) * 2019-07-31 2021-02-02 株式会社理光 图像判断装置及图像判断系统
JP7327370B2 (ja) 2020-12-07 2023-08-16 横河電機株式会社 装置、方法およびプログラム

Also Published As

Publication number Publication date
JP6686547B2 (ja) 2020-04-22

Similar Documents

Publication Publication Date Title
US11509825B2 (en) Image management system, image management method, and computer program product
AU2017203098B2 (en) Information processing system and display control method
US10277836B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US9584694B2 (en) Predetermined-area management system, communication method, and computer program product
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
US11134193B2 (en) Information processing system, information processing method, and non-transitory computer-readable storage medium
US10360572B2 (en) Image processing system, method and computer program product for evaluating level of interest based on direction of human action
EP2974509B1 (en) Personal information communicator
JP2017187850A (ja) 画像処理システム、情報処理装置、プログラム
JP2017135659A (ja) 画像管理システム、画像管理方法、画像通信システム及びプログラム
JP6337907B2 (ja) 表示制御装置、表示制御方法およびプログラム
US11740850B2 (en) Image management system, image management method, and program
JP6852293B2 (ja) 画像処理システム、情報処理装置、情報端末、プログラム
JP2017211811A (ja) 表示制御プログラム、表示制御方法および表示制御装置
JP2017182681A (ja) 画像処理システム、情報処理装置、プログラム
JP6617547B2 (ja) 画像管理システム、画像管理方法、プログラム
JP2016194784A (ja) 画像管理システム、通信端末、通信システム、画像管理方法、及びプログラム
CN112862976B (zh) 一种数据处理方法、装置及电子设备
JP2021125145A (ja) 情報処理装置、画像処理システム、プログラム
JP2024050064A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2019057014A (ja) 被写体特定情報処理装置並びにその制御方法及び制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R151 Written notification of patent or utility model registration

Ref document number: 6686547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151