JP6435640B2 - 混雑度推定システム - Google Patents

混雑度推定システム Download PDF

Info

Publication number
JP6435640B2
JP6435640B2 JP2014104623A JP2014104623A JP6435640B2 JP 6435640 B2 JP6435640 B2 JP 6435640B2 JP 2014104623 A JP2014104623 A JP 2014104623A JP 2014104623 A JP2014104623 A JP 2014104623A JP 6435640 B2 JP6435640 B2 JP 6435640B2
Authority
JP
Japan
Prior art keywords
congestion degree
image
server
congestion
degree estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014104623A
Other languages
English (en)
Other versions
JP2015219833A (ja
Inventor
正永 中村
正永 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014104623A priority Critical patent/JP6435640B2/ja
Publication of JP2015219833A publication Critical patent/JP2015219833A/ja
Application granted granted Critical
Publication of JP6435640B2 publication Critical patent/JP6435640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、混雑度推定システムに関する。
ネットワークに接続された複数の監視カメラにより撮影して得られた画像を解析し、混雑状況を把握するシステムが、たとえば特許文献1に開示されている。
特開2011−008454
特許文献1に記載の発明では、監視カメラが設置されていない場所の混雑状況を把握することができない。
請求項1に記載の混雑度推定システムは、複数のウエアラブル端末とサーバとからなる混雑度推定システムであって、ウエアラブル端末は、被写体を撮影する撮影部と、現在位置を算出する位置検出部と、撮影部により撮影して得られた画像、および位置検出部により算出された現在位置をサーバに送信する端末通信部と、を備え、サーバは、複数のウエアラブル端末と通信するサーバ通信部と、複数のウエアラブル端末から送信されてサーバ通信部が受信する画像および現在位置が関連付けられて保存される記憶部と、記憶部に保存された画像を解析して人数と歩道の面積を算出し、算出された人数と歩道の面積とから歩道上の歩行者の混雑度を算出し、算出した混雑度および現在位置を関連付けてサーバ通信部により送信するサーバ制御部とを備える。
本発明によれば、監視カメラが設置されていない場所の混雑状況を把握することができる。
第1の実施の形態における混雑度推定システムの構成を示すブロック図 混雑度表の一例を示す図 エリア混雑度地図の一例を示す図 表示部における表示の一例を示す図 表示部における表示の変化の一例を示す図 混雑度推定サーバによる定期的な処理を表すフローチャート 混雑度推定サーバが通信を受信した際の処理を表すフローチャート ウエアラブル端末の視線検出部が注視を検出した際の処理を表すフローチャート ウエアラブル端末が通信を受信した際の処理を表すフローチャート 第2の実施の形態における混雑度推定システムの構成を示すブロック図 混雑度推定サーバが通信を受信した際の処理を表すフローチャート
(第1の実施の形態)
以下、図1〜9を参照して、混雑度推定システムの第1の実施の形態を説明する。本明細書において、混雑度とは1mあたりに存在する人の数をいい、混雑度が高いほど混雑している状態を示す。
図1は、混雑度推定システム1の構成を示すブロック図である。混雑度推定システム1は、混雑度推定サーバ10と、複数のウエアラブル端末20とから構成され、これらはネットワーク回線Xにより接続される。
混雑度推定サーバ10は、サーバ制御部11と、サーバ記憶部12と、サーバ通信部13と、地図データベース14と、顔画像データベース15とを備える。
サーバ制御部11は、不図示のCPU、ROM、およびRAMを備え、後述するプログラムをROMに保存し、そのプログラムをRAMに展開して実行する。RAMは、後述するプログラムの実行において、計算結果の一時的な保存にも使用される。
サーバ記憶部12は、不図示の磁気ディスクから構成され、サーバ記憶部12には、撮影画像12aと、画像情報12bと、混雑度表12cと、点群混雑度地図12dと、エリア混雑度地図12eと、処理対象条件とが保存されている。
撮影画像12aは、ウエアラブル端末20により撮影され、サーバ通信部13がウエアラブル端末20から受信した画像である。画像情報12bは、ウエアラブル端末20により撮影画像12aに関する各種情報であり、撮影画像12aとともにウエアラブル端末20から送信される。画像情報12bは、たとえば撮影位置、撮影時刻、撮影時にウエアラブル端末20の撮影部24が向いていた方向(以下、「撮影方向」と呼ぶ)、撮影画像12aを送信したウエアラブル端末20のネットワーク回線Xにおける識別情報、すなわちIPアドレスなどである。
混雑度表12cは、ある撮影画像12aが撮影された位置、その撮影画像12aをサーバ制御部11が画像解析して得られた混雑度、および性別ごと、年齢層ごとの混雑度を保存しており、たとえば図2に示すものである。
図2は混雑度表12cの一例を示しており、左から順に、ある撮影画像12aが撮影された緯度および経度、ある撮影画像12aから算出された性別および年齢層を問わない合計の混雑度、20歳未満の男性の混雑度、20歳〜60歳の男性の混雑度、60歳以上の男性の混雑度、20歳未満の女性の混雑度、20歳〜60歳の女性の混雑度、60歳以上の女性の混雑度、年齢及び性別が不明な者の混雑度、を示している。1つの撮影画像12aから図2の1行分の情報が得られる。
点群混雑度地図12dは、混雑度表12cに記載されている混雑度の情報を、地図データベース14に保存されている地図上に点として表示した画像であり、たとえば混雑度の高低を点の濃淡、大きさ、輝度により表現する。また、性別および年齢層ごとに分類して表示する場合には、色により複数に分類された混雑度を一覧性よく表示できる。
エリア混雑度地図12eは、地図データベース14に保存されている地図を所定のエリアに分割し、混雑度表12cから算出したエリアごとの平均混雑度を視覚的に表示する、たとえば図3に示す画像である。
図3は、エリア混雑度地図12eの一例を示しており、メッシュ状にエリアを分割し、東西方向に西から1、2、3、・・、南北方向に北からA、B、C、・・と名称を付して、各エリアはその組み合わせによりA1やC5と呼ぶ。図3では棒グラフの高さにより混雑度の高さを表しており、その内訳を性別および年齢層別の種別ごとに異なる態様により表示している。
処理対象条件は、サーバ制御部11が後述するプログラムにより定期的に処理する対象となる撮影画像12aの条件であり、たとえば撮影時刻が現在から15分以内で、かつ緯度および経度が○○県△△市の範囲内であることである。
図1に戻って説明を継続する。
サーバ通信部13は、ネットワーク回線Xを介して複数のウエアラブル端末20と通信を行う。サーバ通信部13は常に外部からの通信を待ち受けており、通信を受信するとサーバ制御部11に通知する。
地図データベース14は、不図示の磁気ディスクから構成され、地図データベース14には、少なくとも建物の位置、地形、主要な駅のデータを含む地図が保存される。そのため、地図データベース14を参照することにより、ある緯度と経度で表現される位置について屋内外の判断、すなわち建物の内部か否かを判断することができる。また、ユーザは地形及び駅により位置を把握できる。地図データベース14にはさらに、一般的な外側線の幅やガードレースの支柱の間隔の情報が保存されている。
顔画像データベース15は、不図示の磁気ディスクから構成され、顔画像データベース15には、性別および年齢層ごとに分類された顔の特徴量のサンプルが保存される。このサンプルは、性別および年齢層別が明らかな、膨大な数の顔画像から作成される。そのため、性別および年齢層が未知の顔画像があった場合に、その顔画像から特徴量を算出し、顔画像データベース15に保存されている特徴量のサンプルと比較することにより、その性別と年齢層を判別することができる。
ウエアラブル端末20は、端末制御部21と、端末通信部22と、表示部23と、撮影部24と、端末記憶部25と、視線検出部26と、GPS受信機27と、電子コンパス28とを備え、たとえばメガネの形態を有する。
端末制御部21は、不図示のCPU、ROM、およびRAMを備え、後述するプログラムをROMに保存し、そのプログラムをRAMに展開して実行する。また端末制御部21は、一定時間ごと、たとえば5分ごとに撮影部24に撮影の指令、GPS受信機27に現在位置算出の指令、電子コンパス28に撮影方向取得の指令を送る。そして、撮影部24から出力された画像、GPS受信機27から出力された現在位置、および電子コンパス28から出力された撮影部24の撮影方向を、現在時刻とともに混雑度推定サーバ10へ送信する。
端末通信部22は、ネットワーク回線Xを介して混雑度推定サーバ10と通信を行う。端末通信部22は常に外部からの通信を待ち受けており、通信を受信すると端末制御部21に通知する。
表示部23は、不図示のヘッドマウントディスプレイから構成され、端末制御部21から入力されたデータおよび動作設定用アイコンを表示する。たとえば、端末制御部21からエリア混雑度地図12eが入力されると、表示部23は図4に示す表示を行う。図4は、表示部23に表示されるエリア混雑度地図12e、動作設定用アイコンV、およびエリア混雑度地図12eの凡例Lの一例を示している。図4に示す動作設定用アイコンVをウエアラブル端末20のユーザが注視すると、その注視が視線検出部26により検出されて、端末制御部21が後述するプログラムを実行することにより表示部23の表示が変化する。たとえば、視線検出部26がユーザによる凡例Lのいずれかの項目の注視を検出すると、端末制御部21に注視した項目が出力される。そして、端末制御部21は選択された項目だけを表示部23に表示させる。図5は、表示部23にエリア混雑度地図12eの選択された項目だけを表示した一例を示している。図4の例では男性の全ての年齢層を表示していたが、図5の例では選択された60歳以上の年齢層のみが表示されている。
撮影部24は、不図示のカメラを備える。撮影部24は、端末制御部21からの指令により被写体を撮影し、撮影して得られた画像を端末制御部21に出力する。本明細書では、画像とは静止画像および連続的に撮影された一連の静止画像、すなわち動画像の両方を含む概念である。撮影部24は、端末制御部21からリアルタイム動画像の出力の指令を受けると、出力停止の指令を受けるまで連続的に撮影を行い、得られた画像であるリアルタイム動画像を端末制御部21に出力する。
端末記憶部25は、不図示のフラッシュメモリにより構成され、この端末記憶部25はには、混雑度推定サーバ10から受信したデータ、たとえば混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eが保存される。
視線検出部26は、不図示の赤外線カメラを備え、ユーザが注視している表示部23の座標を端末制御部21に出力する。視線検出部26は、赤外線カメラでユーザの眼球を撮影し、既知の視線検出手法によりユーザの視線の方向、およびウインクを検出する。視線の検出方法は例えば、瞳孔の中心と角膜曲率中心位置から視線を検出する手法が知られている。視線検出部26は、赤外線カメラによりユーザの目を撮影しているので、赤外線カメラにより撮影して得られた画像から黒目部分が消失したことにより、目を閉じたことを検出できる。無意識に行う瞬きと、意識的に行うウインクとを判別するために目を閉じている時間を利用し、たとえば目を閉じている時間が0.5秒〜2.0秒の場合をウインクと判断する。そして、目を閉じている時間が0.5秒未満の場合を瞬きと判断する。
視線検出部26は、一定時間にわたってユーザの視線の方向が一定であり、なおかつ瞬きをしていない場合には、ユーザがある点を注視していると判断する。そして、既知である表示部23の位置とユーザの視線の方向とから、ユーザが表示部23を注視していると判断する場合は、視線検出部26は、端末制御部21にユーザが注視している表示部23の座標を出力する。また、注視を検出した後にユーザによるウインクを検出した場合には、視線検出部26は表示部23の座標に続けてウインクの検出を端末制御部21に出力する。
GPS受信機27は、複数の衛星から電波を受信して現在地を算出し、端末制御部21からの要求に応じて現在地を端末制御部21に出力する。電子コンパス28は、3軸の地磁気センサを備え、端末制御部21からの要求に応じて、撮影部24の撮影方向の向きを端末制御部21に出力する。
地図データベース29は、混雑度推定サーバ10の地図データベース14と同様である。
第1の実施の形態の動作を説明する。
(1)サーバの定期的な動作
混雑度推定サーバ10のサーバ制御部11は、一定の時間間隔ごと、たとえば10分ごとに図6のフローチャートで動作が表されるプログラムを実行し、混雑度表12c、点群混雑度地図12d、およびエリア混雑度地図12eを新たに作成する。
ステップS102では、サーバ制御部11は、サーバ記憶部12に保存されている混雑度表12c、点群混雑度地図12d、およびエリア混雑度地図12eを削除してステップS104に進む。
ステップS104では、サーバ制御部11は、サーバ記憶部12に保存されている全ての画像情報12bを参照して、サーバ記憶部12に保存されている処理対象条件に該当する撮影画像12aを抽出する。そして、抽出した撮影画像12aの一覧を処理対象リストとして作成し、サーバ制御部11のRAMに保存してステップS106に進む。処理対象条件とは、たとえば撮影時刻が現在から15分以内で、かつ緯度および経度が○○県△△市の範囲内であることである。
ステップS106では、サーバ制御部11は、処理対象リストの先頭に記載されている撮影画像12aを処理対象に設定してステップS108に進む。後述するように、処理対象リストに記載された撮影画像12aは、リストの先頭から順番に処理対象となる。
ステップS108では、サーバ制御部11は、処理対象である撮影画像12aが撮影された撮影位置が含まれる画像情報12b、および地図データベース14を参照し、その撮影位置が屋外か否かを判断する。撮影位置が屋外であると判断する場合はステップS110に進み、撮影位置が屋外ではないと判断する場合はステップS124に進む。歩道の混雑度を算出することを目的としているからである。
ステップS110では、サーバ制御部11は、処理対象である撮影画像12aに画像処理を行い、認識した人物の足の付近が歩道であること、歩道の色はおおよそ均一であること、壁と歩道の色は明確なコントラストを有すること、などから歩道のエリアを抽出する。そして、撮影画像12aに撮影されている既知の大きさ、または既知の長さを有する物体を、たとえば地図データベース14に保存されている外側線の幅やガードレールの支柱の間隔の情報を利用して歩道の面積を算出し、RAMに保存してステップS112に進む。
ステップS112では、サーバ制御部11は、処理対象の撮影画像12aに画像処理を行い、顔画像データベース15を利用して撮影画像12aに撮影されている全ての人物について性別および年齢層を推定してステップS114に進む。顔画像データベース15には、性別および年齢が明らかな膨大な数の顔画像から作成した「顔の特徴量のサンプル」が保存されている。そのため、撮影画像12aに含まれている顔の特徴量を算出し、顔画像データベース15に保存されているサンプルと相関を比較することにより、性別および年齢層を推定できる。ただし、後ろを向いている場合や下を向いている場合など、処理対象の撮影画像12aから顔を認識できない場合にはステップS112では性別および年齢層を推定できない。
ステップS114では、サーバ制御部11は、ステップS112における画像処理により、処理対象の撮影画像12aに撮影されている全ての人の性別および年齢層が推定できたか否かを判断する。全て判断できたと判断する場合はステップS122に進み、1人でも推定できなかった人がいると判断する場合はステップS116に進む。
ステップS116では、サーバ制御部11は、処理対象の撮影画像12aが撮影された位置から所定の範囲内位置で撮影された他の撮影画像12a(以後、参照画像と呼ぶ)を用いて、ステップS112では性別および年齢層が推定できなかった人物(以下、判別対象者と呼ぶ)の性別および年齢層を推定する。参照画像は、処理対象の撮影画像12aを撮影したウエアラブル端末20、または他のウエアラブル端末20により撮影されて得られた撮影画像12aであって、画像情報12bに保存されている撮影位置、撮影時刻、および撮影方向によりサーバ記憶部12から抽出される。抽出した参照画像から判別対象者を認識するために、撮影位置、撮影時刻、撮影方向に加えて、処理対象の撮影画像12aにおける判別対象者の服装を利用する。そして、参照画像における判別対象者の画像を対象として、顔画像データベース15から判別対象者の性別および年齢層を推定する。ただし、複数の参照画像において判別対象者を抽出できた場合には、それら複数の参照画像における判別対象者の画像を対象として性別および年齢層を推定する。その後、ステップS118に進む。
ステップS118では、サーバ制御部11は、ステップS116における処理により、全ての判別対象者の性別および年齢層が推定できたか否かを判断する。全ての判別対象者の性別および年齢層が推定できたと判断する場合はステップS122に進み、いずれかの判別対象者の性別および年齢層が推定できなかったと判断する場合はステップS120に進む。
ステップS120では、サーバ制御部11は、処理対象の撮影画像12aおよび参照画像を用いて、判別対象者と並んで歩行している者を特定し、判別対象者の性別および年齢層は、判別対象者と並んで歩行している者と同一であると推定し、ステップS122に進む。性別および年齢層が近い友人同士が並んで歩くことが多いからである。なお、ステップS120においても性別および年齢層が不明の場合には、性別および年齢を不明として扱う。
ステップS122では、サーバ制御部11は、ステップS112において検出した人数、すなわち処理対象の撮影画像12aに撮影されていた人数を、ステップS108において算出した歩道の面積で除算して、単位面積当たりの人数、すなわち混雑度を算出する。また、ステップS112〜S120において推定した性別および年齢層別の人数を、ステップS108において算出した歩道の面積で除算して、性別および年齢層別の混雑度も算出する。サーバ制御部11は、処理対象の撮影画像12aの画像情報12bから撮影画像12aが撮影された緯度および経度を取得し、算出した混雑度とともに混雑度表12cに記録し、ステップS124に進む。図2に示す例においては、ステップS122が実行されるたびに、混雑度表12cが1行ずつ増える。なお、全ての処理対象である撮影画像12aについて処理が完了すると、混雑度表12cが完成する。
ステップS124では、サーバ制御部11は、現在の処理対象の撮影画像12aが、ステップS104において作成した処理対象リストに記載されている最後の画像であるか否かを判断する。最後の画像であると判断する場合はステップS126に進み、最後の画像ではないと判断する場合は処理対象リストに記載されている次の画像を処理対象に設定し、ステップS108に戻る。
ステップS126では、サーバ制御部11は、エリア混雑度地図12eを作成する準備として、混雑度表12cに記載された混雑度について所定のエリアごとの平均値を算出してステップS128に進む。所定のエリアとは、たとえば東西方向、南北方向に沿って切り分けたメッシュ状の50m四方のエリアであり、混雑度表12cに記載の緯度と経度からいずれのエリアに属するかを判断する。たとえば、あるエリアに図2に示した3つの地点のみが含まれる場合は、それぞれの合計混雑度が3.2、2.1、2.2なので、そのエリアの合計混雑度は平均値である2.5である。なお前述のように、すでに全ての処理対象である撮影画像12aについて処理が完了しているので、ステップS126の処理が開始された時には混雑度表12cは完成されている。
ステップS128では、サーバ制御部11は、混雑度表12cに記載されている情報を地図データベース14に保存されている地図の対応する位置に点データとして書込み、点群混雑度地図12dを作成してサーバ記憶部12に保存する。また、ステップS126において算出したエリアごとの混雑度の平均値を用いてエリア混雑度地図12eを作成し、サーバ記憶部12に保存する。その後、図6のフローチャートを終了する。点群混雑度地図12dでは、混雑度の大小を点の輝度により表現してもよいし、点の大きさにより表現してもよい。また、性別および年齢層ごとに表示する色を異ならせて区別してもよいし、性別および年齢層ごとに異なる点群混雑度地図12dを作成してもよい。エリア混雑度地図12eは、色の濃淡によりエリアごとの混雑度を表現してもよいし、性別および年齢層ごとに表示する色を異ならせて区別してもよい。さらに、性別および年齢層別の種別ごとに識別可能に表示した積み上げ棒グラフにより表示してもよい。
(2)ウエアラブル端末からの要求によるサーバの動作
混雑度推定サーバ10は、ウエアラブル端末20から、混雑度に関する情報または撮影画像12aのダウンロード要求、リアルタイム動画像の配信要求、および撮影した画像などのアップロード要求の通信を受ける。サーバ通信部13は常に外部からの通信を待ち受けており、通信を受信するとサーバ制御部11に受信したデータを出力する。サーバ制御部11は、サーバ通信部13からデータの出力を受けると、以下のようにサーバ通信部13が受信したデータを参照して処理を決定する。
図7は、混雑度推定サーバ10が、ウエアラブル端末20から通信を受けるとサーバ制御部11が実行するプログラムの動作を表すフローチャートである。本フローチャートの説明において、本フローチャートにより動作が表されるプログラムを実行するきっかけとなった通信を行ったウエアラブル端末20を「処理要求端末」と呼ぶ。
ステップS202では、サーバ制御部11は、受信したデータに画像データが含まれるか否かにより、当該通信がアップロード要求であるか否かを判断する。受信したデータが画像データを含むと判断する場合はステップS204に進み、受信したデータが画像データを含まないと判断する場合はステップS206に進む。
ステップS204では、サーバ制御部11は、受信したデータに含まれる画像データを撮影画像12aとしてサーバ記憶部12に保存する。また、受信したデータの画像データ以外のデータ、すなわち撮影位置、撮影時刻、撮影方向および、データを送信したウエアラブル端末20のネットワーク回線Xにおける識別情報を画像情報12bとして、同時に受信した撮影画像12aと関連付けてサーバ記憶部12に保存し、図7のフローチャートを終了する。
ステップS206では、サーバ制御部11は、受信したデータが撮影画像12aやリアルタイム動画像の要求であるか、混雑度に関する情報の要求であるかを判断する。これは、受信したデータに位置を指定する情報、たとえば緯度と経度、またはエリアの名称が含まれるか否かにより判断する。受信したデータに位置を指定する情報が含まれる場合には、撮影画像12aやリアルタイム動画像の要求であるとしてステップS208に進む。受信したデータに位置を指定する情報が含まれない場合には、混雑度に関する情報の要求であるとしてステップS207に進む。なお、以下では受信したデータに含まれていた位置を指定する情報により指定される位置を「指定位置」と呼ぶ。
ステップS207では、サーバ制御部11は、受信したデータは、混雑度表12c、点群混雑度地図12d、エリア混雑度地図12eのいずれかの要求なので、要求に応じたデータをサーバ記憶部12から読み出して処理要求端末に送信し、図7のフローチャートを終了する。
ステップS208では、サーバ制御部11は、受信したデータにリアルタイム動画像の指定が付加されているか否かを判断する。リアルタイム動画像の指定が付加されていると判断する場合はステップS210に進み、リアルタイム動画像の指定が付加されていないと判断する場合はステップS220に進む。
ステップS210では、サーバ制御部11は、サーバ記憶部12に保存されている画像情報12bを参照して、「指定位置に最も近い撮影位置」を有するウエアラブル端末20(以下、「リアルタイム動画像配信端末」と呼ぶ)のネットワーク回線Xにおける識別情報を検索し、ステップS212に進む。たとえば、リアルタイム動画像配信端末のIPアドレスを取得して、ステップS212に進む。
ステップS212では、サーバ制御部11は、ステップS210において検索したリアルタイム動画像配信端末の識別情報を利用して、リアルタイム動画像配信端末にリアルタイム動画像を要求しステップS214に進む。
ステップS214では、サーバ制御部11は、リアルタイム動画像配信端末から受信すると処理要求端末へのリアルタイム動画像の送信処理を開始し、ステップS216に進む。なお、これ以後はステップS218において送信を停止するまで、リアルタイム動画像配信端末から受信した動画像の処理要求端末への送信は継続されている。
ステップS216では、サーバ制御部11は、所定時間だけ待機してステップS218に進む。前述のとおり、このステップS216における待機時間中にも、リアルタイム動画像配信端末から受信したリアルタイム動画像の処理要求端末への送信は継続している。
ステップS218では、サーバ制御部11は、リアルタイム動画像配信端末からのリアルタイム動画像の受信、および処理要求端末へのリアルタイム動画像の送信を終了し、図7のフローチャートを終了する。
ステップS220では、サーバ制御部11は、画像情報12bを参照して、撮影位置が指定位置から所定距離内で、かつ現在時刻から所定時間以内に撮影された撮影画像12aを選択し、ステップS222に進む。
ステップS222では、サーバ制御部11は、ステップS220において選択した撮影画像12aを処理要求端末へ送信し、図7のフローチャートを終了する。
(3)ウエアラブル端末の動作
ウエアラブル端末20の視線検出部26は常にユーザの視線の動きを検出している。視線検出部26は、表示部23に図4のように混雑度データが表示されている際に、ユーザが表示部23の地図または動作設定アイコンVを注視したことを検出すると、端末制御部21にユーザが注視していた表示部23の座標および注視後のウインクの有無を出力する。
図8は、端末制御部21が視線検出部26から入力を受けると実行するプログラムの動作を表すフローチャートである。
ステップS302では、端末制御部21は、視線検出部26から入力されたユーザの注視座標と、表示部23に表示されているデータを使用して、ユーザが注視していたのは地図上の点であるか否かを判断する。地図上の点であると判断する場合はステップS304に進み、地図上の点ではないと判断する場合はステップS314に進む。
ステップS304では、端末制御部21は、視線検出部26からユーザがウインクをしたという情報が入力されたか否かを判断する。ウインクをしたという情報が入力されたと判断する場合はステップS306に進み、ウインクをしたという情報が入力されていないと判断する場合はステップS308に進む。
ステップS306では、端末制御部21は、リアルタイム動画像の指定とともに、ユーザが注視していた位置を混雑度推定サーバ10に送信し、ステップS310に進む。端末制御部21は、ユーザの注視していた地理的な位置を、表示部23の表示およびユーザの注視していた表示画面上の座標から、緯度と経度、またはエリアの名称として特定する。
ステップS308では、端末制御部21は、ユーザが注視していた地理的な位置を混雑度推定サーバ10に送信し、ステップS310に進む。ただし、ステップS306とは異なり、リアルタイム動画像の指定を行わない。ユーザが注視していた位置は、表示部23の表示およびユーザの注視していた表示画面上の座標から、緯度と経度、またはエリアの名称として特定する。
ステップS310では、端末制御部21は、混雑度推定サーバ10からリアルタイム動画像、撮影画像12a、点群混雑度地図12dまたはエリア混雑度地図12eを受信してステップS312に進む。
ステップS312では、端末制御部21は、混雑度推定サーバ10から受信したデータを表示部23に表示して図8のフローチャートを終了する。
ステップS314では、端末制御部21は、ユーザの注視していた座標からユーザが注視していた動作設定アイコンVがV1〜V4のいずれかを特定し、注視していたアイコンにマーカMをセットして表示部23の表示を更新してステップS316に進む。ただし、アイコンV1かアイコンV2に1つのマーカMが、アイコンV3かアイコンV4に1つのマーカMがセットされる。
ステップS316では、端末制御部21は、ステップS314による表示部23の表示更新後の表示において、受信設定のアイコンである地図V1と表V2のいずれが選択されているか、すなわちどちらにマーカMがセットされているかを判断する。地図V1が選択されていると判断する場合はステップ318に進み、表V2が選択されていると判断する場合はステップS324に進む。
ステップS318では、端末制御部21は、ステップS314による表示部23の表示更新後の表示において、表示設定のアイコンであるドットV3とエリアV4のいずれが選択されているか、すなわちどちらにマーカMがセットされているかを判断する。ドットV3が選択されていると判断する場合はステップ322に進み、エリアV4が選択されていると判断する場合はステップ320に進む。
ステップS320では、端末制御部21は、混雑度推定サーバ10にエリア表示のマッピングデータであるエリア混雑度地図12eの要求を送信し、ステップS310に進む。
ステップS322では、端末制御部21は、混雑度推定サーバ10に点表示のマッピングデータである点群混雑度地図12dの要求を送信し、ステップS310に進む。
ステップS324では、端末制御部21は、混雑度推定サーバ10に混雑度表12cの要求を送信し、ステップS326に進む。
ステップS326では、端末制御部21は、混雑度推定サーバ10から混雑度表12cを受信してステップS328に進む。
ステップS328では、端末制御部21は、表示設定のアイコンであるドットV3とエリアV4のいずれが選択されているか、すなわちどちらにマーカMがセットされているかを判断する。ドットV3が選択されていると判断する場合はステップ334に進み、表V2が選択されていると判断する場合はステップS330に進む。
ステップS330では、端末制御部21は、図6のステップS126と同様に、エリア混雑度地図12eを作成する準備として、混雑度表12cに記載された混雑度について所定のエリアごとの平均値を算出してステップS332に進む。所定のエリアとは、たとえば東西方向、南北方向に沿って切り分けたメッシュ状の50m四方のエリアであり、混雑度表12cに記載の緯度と経度からいずれのエリアに属するかを判断する。
ステップS332では、端末制御部21は、混雑度推定サーバ10から受信した混雑度表12cに記載されている情報を、地図データベース29に保存されている地図の対応する位置に点データとして書込み、点群混雑度地図12dを作成する。そして、表示部23に表示させ、図8のフローチャートを終了する。
ステップS334では、端末制御部21は、ステップS330において作成したデータにより、エリア混雑度地図12eを作成して表示部23に表示し、図8のフローチャートを終了する。
ウエアラブル端末20の端末通信部22は、常に外部からの通信を待ち受けており、リアルタイム動画像の要求を受信すると端末制御部21に伝達する。
図9は、端末通信部22から通信の受信を伝達されると端末制御部21が実行するプログラムの動作を示すフローチャートである。
ステップS402では、端末制御部21は、撮影部24による撮影を開始し、撮影したリアルタイムの動画像を要求を送信した混雑度推定サーバ10へ端末通信部22から送信してステップS404に進む。ステップS402の実行以後は、ステップS406において接続が切断されるまでは、撮影部24により撮影した動画像は混雑度推定サーバ10へ継続的に送信される。
ステップS404では、端末制御部21は、所定の時間、たとえば10秒間待機してステップS406に進む。ただし、所定の時間の間であっても当該ウエアラブル端末20のユーザによる、視線検出部26からの明示の入力によりステップS406に進んでもよい。
ステップS406では、端末制御部21は、混雑度推定サーバ10への動画像の送信および撮影部24による撮影を終了し、図9のフローチャートを終了する。
(動作の要約)
第1の実施の形態において、混雑度推定サーバ10およびウエアラブル端末20は以下の動作を行う。
ウエアラブル端末20は、一定時間間隔ごとに撮影部24により撮影して得られた撮影画像12aを、撮影位置の情報などとともに混雑度推定サーバ10に送信する。
複数のウエアラブル端末20から撮影画像12aおよび画像情報12bを受信する混雑度推定サーバ10は、画像解析により撮影画像12aから人数および歩道の面積を算出して混雑度を算出し、その撮影画像12aが撮影された位置とともに混雑度表12cに記録する。そして、混雑度表12cに記録された混雑度を地図データベース14の地図にマッピングし、点群混雑度地図12dおよびエリア混雑度地図12eを作成する。混雑度推定サーバ10は、要求に応じて混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eを送信する。
ウエアラブル端末20は、動作設定アイコンVの設定に従い、混雑度推定サーバ10から混雑度表12cを受信して、点群混雑度地図12dまたはエリア混雑度地図12eを作成して表示部23に表示する。もしくは、混雑度推定サーバ10から点群混雑度地図12dまたはエリア混雑度地図12eを受信して表示部23に表示する。
混雑度推定サーバ10は、外部からの要求に応じて、作成された混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eを送信する。さらに、位置を指定した要求を受けると、指定された位置付近で撮影された撮影画像12a、または指定された位置付近のウエアラブル端末20からのリアルタイム動画像を送信する。
ウエアラブル端末20は視線検出部26を備え、ウエアラブル端末20のユーザが表示部23上の点を注視していることを検出すると、視線検出部26は端末制御部21に注視位置の情報を伝達する。端末制御部21は、ユーザが地図上の点を注視していたと判断する場合は、混雑度推定サーバ10に位置情報を送信し、指定した位置付近で撮影された撮影画像12aまたはリアルタイム動画像を混雑度推定サーバ10から受信する。端末制御部21は、ユーザが動作設定アイコンVを注視していたと判断する場合は、注視されていたアイコンVにマーカMをセットし、混雑度推定サーバ10に情報を要求して受信したデータに基づき、点群混雑度地図12dまたはエリア混雑度地図12eを表示部23に表示する。
以上説明した第1の実施の形態において、混雑度推定システム1は以下の作用効果を奏する。
(1)混雑度推定システム1は、複数のウエアラブル端末20と混雑度推定サーバ10とから構成される。ウエアラブル端末20は、被写体を撮影する撮影部24と、現在位置を算出するGPS受信機27と、撮影部24により撮影して得られた画像、およびGPS受信機27により算出した現在位置をサーバに送信する端末通信部22と、を備える。混雑度推定サーバ10は、複数のウエアラブル端末20と通信するサーバ通信部13と、複数のウエアラブル端末20から送信されてサーバ通信部13が受信する撮影画像12aおよび現在位置が関連付けられて保存されるサーバ記憶部12と、サーバ記憶部12に保存された撮影画像12aを解析して人数と面積とから算出される混雑度を算出し、算出した混雑度および現在位置をサーバ通信部13により送信するサーバ制御部11とを備える。
ウエアラブル端末20を装着してユーザが移動することにより、監視カメラが設置されていない場所の混雑状況を、混雑度推定システム1を利用している他のユーザが把握することができる。また、混雑度が高い場所ほどウエアラブル端末20を装着しているユーザがいる可能性が高いため、混雑度が高い場所ほど多くの撮影画像12aを得ることができ、混雑度の算出精度が向上する。
(2)混雑度推定サーバ10は、地図を保存する地図データベース14をさらに備える。サーバ制御部11は、地図データベース14に保存されている地図上の、その混雑度の算出に使用した撮影画像12aが撮影された位置に算出した混雑度をマッピングし、算出した混雑度がマッピングされた地図をサーバ通信部13により送信する。
そのため、ウエアラブル端末20は地図データベース14を備える必要がなく、少ない記憶領域で足りる。また、算出した混雑度を地図上にマッピングする処理が不要なので、ウエアラブル端末20の計算量を削減することができる。
(3)混雑度推定サーバ10のサーバ制御部11は、ウエアラブル端末20から位置を指定した情報の送信要求を受信すると、サーバ記憶部12に保存されている撮影画像12aの中から指定された位置に最も近い、または指定された位置から所定距離範囲内の現在位置を有する撮影画像12aを、送信要求を送信したウエアラブル端末20に送信する。
ウエアラブル端末20は、位置を指定した情報の送信要求を混雑度推定サーバ10に送信することにより、指定した位置付近で撮影された撮影画像12aを受信できるので、指定した位置の様子を具体的に知ることができる。
(4)混雑度推定サーバ10のサーバ制御部11は、ウエアラブル端末20から位置を指定した情報の送信要求を受信すると、受信した位置に最も近い、または指定された位置から所定距離範囲内の現在位置を有するウエアラブル端末20にリアルタイム動画像の送信を要求する。そして、当該ウエアラブル端末20から受信したリアルタイム動画像を送信要求を送信したウエアラブル端末20に送信する。
ウエアラブル端末20は、地図上の位置を混雑度推定サーバ10に送信することにより、指定した位置付近で撮影されたリアルタイム動画像を受信できるので、指定した位置の現在の様子を詳しく知ることができる。
(5)ウエアラブル端末20は、ユーザの目による入力を検出し、目の動きにより位置の情報を入力する視線検出部26を備える。視線検出部26が、ユーザによる表示部23に表示されている地図上の点の注視を検出すると、注視している位置を指定して情報の送信要求を混雑度推定サーバ10へ送信するサーバ制御部11とをさらに備える。
そのため、ウエアラブル端末20のユーザは、手を使わずに目の動きのみで容易に地図上の位置を混雑度推定サーバ10へ送信し、指定した位置の画像を受信して閲覧することができる。
(6)サーバ制御部11は、顔画像データベース15を利用して撮影画像12aに撮影されている全ての人物について性別および年齢層を推定して、性別および年齢層ごとに混雑度を算出する。
そのため、ウエアラブル端末20のユーザは、市場調査または宣伝広告の対象となる性別および年齢層を特定し、対象者の混雑度が高くかつ対象者以外の混雑度が低いエリアを対象エリアとすることで、市場調査や宣伝広告の効率を向上させることができる。
(7)ウエアラブル端末20は、撮影部24の撮影方向を検出する電子コンパス28をさらに備える。ウエアラブル端末20の端末通信部22は、撮影部24により撮影して得られた撮影画像12a、GPS受信機27により検出した現在位置、および電子コンパス28により検出した撮影部24の撮影方向を混雑度推定サーバ10に送信する。混雑度推定サーバ10のサーバ制御部11は、混雑度算出処理において、複数のウエアラブル端末20から受信した、撮影画像12a、現在位置、撮影方向を組み合わせて、複数の撮影画像12aに撮影された同一人物を識別し、受信した複数のうち1以上の撮影画像12aを用いて人物の性別および年齢層を推定する。
そのため、ある撮影画像12aでは後ろ姿しか撮影されておらず、性別および年齢層の判別が不可能であっても、撮影位置、時刻、向き、服装などを利用して他の撮影画像12aから同一人物を識別し、性別および年齢層を判別することにより、システム全体として性別および年齢層が不明な人の数を減らすことができる。また、複数の角度から撮影された撮影画像12aを用いることにより、性別および年齢層の推定精度を向上させることができる。
(変形例1)
第1の実施の形態においては、ウエアラブル端末20のみが混雑度推定サーバ10と通信を行ったが、ネットワーク回線Xに接続されている他の通信機器が混雑度推定サーバ10と通信を行ってもよい。
他の通信機器は、混雑度推定サーバ10に撮影画像12aを送信しないが、汎用的な入力デバイス、たとえばマウスとキーボードによりある位置を指定して混雑度推定サーバ10に情報送信の要求を送信し、その位置付近の撮影画像12aまたはリアルタイム動画像を受信してもよい。また、混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eを混雑度推定サーバ10に要求して受信してもよい。
この変形例1によれば、ウエアラブル端末20が撮影し、混雑度推定サーバ10が加工または中継する情報を多様な情報通信機器から利用することができる。
(変形例2)
第1の実施の形態においてウエアラブル端末20は、定期的に撮影を行い撮影画像12a、すなわち静止画像を混雑度推定サーバ10に送信したが、静止画像ではなく動画像を撮影して混雑度推定サーバ10に送信してもよい。また、ウエアラブル端末20はリアルタイム動画像の要求を受けた際に新たに撮影を行い、撮影して得られた撮影画像12aを混雑度推定サーバ10に送信してもよい。
(変形例3)
第1の実施の形態において混雑度推定サーバ10は、位置の指定およびリアルタイムの指定を受けると、ある1台のウエアラブル端末20に対してのみリアルタイム動画像を要求したが、要求対象はこれに限定されない。混雑度推定サーバ10は、指定された位置に最も近い、または指定された位置から所定範囲内、たとえば10メートル以内に撮影位置を有する複数のウエアラブル端末20に対してリアルタイム動画像を要求してもよい。そして、複数のウエアラブル端末20から受信したリアルタイム動画像を縮小し、複数のリアルタイム動画像を同時に処理要求端末へ送信してもよい。たとえば、4台のウエアラブル端末20から受信した4つのリアルタイム動画像を縮小し、1画面にその4つのリアルタイム動画像を収めて、処理要求端末へ送信してもよい。また、受信した複数のリアルタイム動画像を順次切り替えながら処理要求端末へ送信してもよい。また、順次切り替える場合には1台のウエアラブル端末20からリアルタイム動画像を受信する時間は短くてもよい。
この変形例3によれば、処理要求端末は複数のウエアラブル端末20により撮影されたリアルタイム動画像を受信できるので、指定した位置の情報をより詳しく知ることができる。また、1台のウエアラブル端末20から配信される動画像の時間を短くすることにより、動画像を配信しているウエアラブル端末20の特定、およびウエアラブル端末20により撮影されている者の特定を難しくし、プライバシーを保護することができる。
(変形例4)
第1の実施の形態においてウエアラブル端末20は、ウエアラブル端末20のユーザからの入力は視線検出部26のみが受けたが、ユーザからの情報入力手段はこれに限定されない。ウエアラブル端末20がタッチセンサまたはボタンを備え、端末制御部21は、図8に動作を示したプログラムの実行の際に、ユーザによるタッチセンサまたはボタンを用いた表示画面上の座標の入力を、視線検出部26による視線の検出と同様に扱ってもよい。
この変形例4によれば、ウエアラブル端末20のユーザは多彩な方法で位置情報の入力を行うことができる。
(変形例5)
第1の実施の形態において、年齢層は3区分に分かれているが、年齢層の区分はこれに限定されない。年齢層の区分は、第1の実施の形態よりも少ない2区分でもよいし、第1の実施の形態よりも多い4区分以上でもよいし、1歳ごとの区分すなわち年齢の区分でもよい。また、年齢層の区分をなくして性別のみの区分でもよい。
第1の実施の形態において、図3に示したエリア混雑度地図12eの一例では、棒グラフの高さにより混雑度の高低を表現したが、表現方法はこれに限定されず、色の濃淡により表現してもよい。また、図3では男性の混雑度を表示しているが、女性の混雑度も併せて表示してもよいし、特定の性別および年齢層のみを表示してもよい。
また、図3に示すエリア混雑度地図12eでは、棒グラフの幅が太いため、地形や鉄道線路、行政区分の境界線などが描かれる地表部が一切表示されていないが、棒グラフの幅を補足する、もしくは半透明の表示にして地表部を表示してもよい。
第1の実施の形態において、混雑度推定サーバ10がウエアラブル端末20から受信するデータに撮影時刻が含まれることを前提としていた。しかし、受信したデータに撮影時刻が含まれていない場合は、混雑度推定サーバ10がデータを受信した時刻を撮影時刻とし、その時刻を画像情報12bとして保存してもよい。
第1の実施の形態において、処理対象条件は混雑度推定サーバ10のサーバ記憶部12に保存されていたが、これは外部から書き変え可能であってもよい。たとえば、ウエアラブル端末20から通信により書き換え可能であってもよい。
(第2の実施の形態)
図10〜11を参照して、本発明による混雑度推定システムの第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、第1の実施の形態における動作に加えて、ウエアラブル端末が撮影して得られた画像を利用した探索を行う点で、第1の実施の形態と異なる。
探索する対象は、画像により特定される、人物、ユーザの所有物、ペットなどであり、その画像はウエアラブル端末20から探索対象画像12fとして混雑度推定サーバ10に送信される。混雑度推定サーバ10が探索対象画像12fの被写体を被写体として含む撮影画像12aを探索し、その撮影画像12aの画像情報12bをウエアラブル端末20に送信することで、ウエアラブル端末20のユーザは探索対象にたどり着くことができる。
図10は、第2の実施の形態における混雑度推定システム1のブロック図である。第2の実施の形態における、混雑度推定システム1の構成の第1の実施の形態との主な違いは、サーバ記憶部12には探索対象画像12fおよび探索結果連絡先12gがさらに保存される点である。
検索対象画像12fは、混雑度推定サーバ10がウエアラブル端末20から受信する画像である。撮影画像12aも検索対象画像12fと同様にウエアラブル端末20から受信するが、撮影画像12aは撮影位置、撮影時刻、等とともに送信されるのに対して、検索対象画像12fは画像のみが送信されるため、混雑度推定サーバ10はどちらの画像として扱うかを判断できる。後述するように混雑度推定サーバ10は、検索対象画像12fとして保存されている画像に撮影されている被写体が撮影されている撮影画像12aを探索する。
探索結果連絡先12gには、検索対象画像12fを送信したウエアラブル端末20のネットワーク上の識別子、たとえばIPアドレスが、その探索対象画像12fと関連付けて保存されている。混雑度推定サーバ10は、検索対象画像12fを受信しても必ずしもすぐには検索対象画像12fを含む撮影画像12aを発見できないため、将来発見した際に情報を送信する目的で、その情報の送信先を探索結果連絡先12gとして保存する。
第2の実施の形態における動作を説明する。
図11のフローチャートに示すプログラムは、第1の実施の形態における図7のフローチャートに示すプログラムに代わって、第2の実施の形態においてサーバ制御部11がサーバ通信部13からデータの出力を受けると実行する処理手順を示すものである。
ステップS502では、サーバ制御部11は、受信した画像が探索対象画像12fであるか否かを判断する。探索対象画像12fは撮影画像12aと同様に画像であるが、撮影画像12aとは異なり撮影位置などの付帯する情報がないので、撮影画像12aと区別することができる。サーバ制御部11は、探索対象画像12fを受信したと判断する場合はステップS504に進み、探索対象画像12fを受信していないと判断する場合はステップS202Aに進む。なお、ステップS202A以下の処理も、図7とは一部異なるので後に説明する。
ステップS504では、サーバ制御部11は、サーバ記憶部12に保存されている全ての撮影画像12aを対象として、受信した探索対象画像12fの被写体が被写体として含まれる画像を検索し、ステップS506に進む。
ステップS506では、サーバ制御部11は、ステップS504における検索により、サーバ記憶部12に保存されているいずれかの撮影画像12aに探索対象画像12fが含まれていたか否かを判断する。いずれかの撮影画像12aに探索対象画像12fが含まれていたと判断する場合はステップS508に進み、いずれの撮影画像12aにも探索対象画像12fが含まれていなかったと判断する場合はステップS510に進む。
ステップS508では、サーバ制御部11は、ステップS504における検索により探索対象画像12fを含むと判断した撮影画像12aの画像情報12b、および探索対象画像12fを、探索対象画像12fを送信したウエアラブル端末20に送信し、ステップS510に進む。
ステップS510では、サーバ制御部11は、受信した探索対象画像12fをサーバ記憶部12に保存する。また、その探索対象画像12fを送信したウエアラブル端末20のネットワーク上の識別子、たとえばIPアドレスを、その探索対象画像12fと関連付けて探索結果連絡先12gに保存し、図11のフローチャートを終了する。
ステップS202Aでは、サーバ制御部11は、受信したデータに画像データが含まれるか否かにより、当該通信がアップロード要求であるか否かを判断する。受信したデータは画像データを含むと判断する場合はステップS514に進み、受信したデータは画像データを含まないと判断する場合はステップS512に進む。
ステップS512では、サーバ制御部11は、図7におけるステップS206以下の処理を行い、図11のフローチャートを終了する。
ステップS514では、サーバ制御部11は、サーバ記憶部12に保存している探索対象画像12fから、受信したデータに含まれる画像データの一部と一致する探索対象画像12fを検索し、ステップS516に進む。
ステップS516では、サーバ制御部11は、ステップS514における処理の結果から、受信したデータに含まれる画像データが、サーバ記憶部12に保存しているいずれかの探索対象画像12fの被写体を含むか否かを判断する。いずれかの探索対象画像12fを含むと判断する場合はステップS518に進み、いずれの探索対象画像12fも含まないと判断する場合はステップS204Aに進む。
ステップS518では、サーバ制御部11は、ステップS504における検索により探索対象画像12fを含むと判断した撮影画像12aの画像情報12b、および当該探索対象画像12fを、当該探索対象画像12fに関連付けられた探索結果連絡先12gに記載のウエアラブル端末20へ送信し、ステップS204Aに進む。
ステップS204Aでは、サーバ制御部11は、受信したデータに含まれる画像データを撮影画像12aとしてサーバ記憶部12に保存し、受信したデータの画像データ以外を画像情報12bとしてサーバ記憶部12に保存して図7のフローチャートを終了する。
混雑度推定サーバ10のサーバ制御部11が、一定の時間間隔ごとに図6のフローチャートで動作が表されるプログラムを実行し、混雑度表12c、点群混雑度地図12d、およびエリア混雑度地図12eを新たに作成する点は、第1の実施の形態と同様である。
ウエアラブル端末20の動作を説明する。
ウエアラブル端末20の視線検出部26は、ユーザのウインクを検出すると端末制御部21にウインクの検出を出力し、それを受けた端末制御部21は、撮影部24により被写体を撮影し、撮影して得られた画像を端末記憶部25に保存する。端末制御部21は、ユーザによる不図示のボタン操作により、端末記憶部25に保存しているいずれかの画像の全体、またはある一部分を混雑度推定サーバ10に送信することができる。この画像は、混雑度推定サーバ10では探索対象画像12fとして扱われる。
混雑度推定サーバ10により、探索対象画像12fを含む撮影画像12aが発見されると、ウエアラブル端末20は、その撮影画像12aの画像情報12b、すなわちその撮影画像12aが撮影された位置、時刻、撮影方向および探索対象画像12fを受信する。
第2の実施の形態において、混雑度推定システム1は第1の実施の形態の他に以下の動作を行う。
混雑度推定サーバ10は、探索対象画像12fを受信すると、サーバ記憶部12に保存している全ての撮影画像12aを検索し、探索対象画像12fを含む撮影画像12aの画像情報12bを、探索対象画像12fを送信したウエアラブル端末20に送信する。また、探索対象画像12fを受信した後に新たに撮影画像12aを受信すると、その撮影画像12aが探索対象画像12fを含むか否かを判断し、含む場合はその撮影画像12aの画像情報12bを探索対象画像12fを送信したウエアラブル端末20に送信する。
以上説明した第2の実施の形態において、混雑度推定システム1は以下の作用効果を奏する。
(1)混雑度推定サーバ10のサーバ制御部11は、探索対象画像12fを含む撮影画像12aを検索し、探索対象画像12fを含む撮影画像12aの画像情報12bを探索対象画像12fの送信元に送信する。
そのため、混雑度推定システム1のユーザは、子供の写真や遺失物の写真を探索対象画像12fとして送信することにより、迷子の子供や遺失物の所在地を容易に知ることができる。
(2)混雑度推定サーバ10のサーバ制御部11は、探索対象画像12fを受信すると、サーバ記憶部12に保存されている全ての撮影画像12aを検索し、探索対象画像12fを含む撮影画像12aの画像情報12bを探索対象画像12fの送信元に送信する。
そのため、混雑度推定システム1のユーザは、得られた情報から探索対象の過去の移動軌跡を知ることができる。さらに、得られた移動軌跡を用いて、今後の移動予測をすることができる。
(3)混雑度推定サーバ10のサーバ制御部11は、探索対象画像12fの受信後に、新たに撮影画像12aを受信すると、その撮影画像12aに含まれる探索対象画像12fを特定し、その探索対象画像12fの送信元に受信した撮影画像12aの画像情報12bを送信する。
そのため、混雑度推定サーバ10において、探索対象画像12fの検索が可能な限り早期に行い、探索対象画像12fの送信元に最新の情報を伝達できる。
(変形例6)
第2の実施の形態において、探索対象画像12fを含む撮影画像12aが特定された場合に、その撮影画像12aの画像情報12bおよびその探索対象画像12fを送信したが、送信するデータはこれに限定されない。
撮影画像12aの画像情報12bから緯度および経度を抽出して、その位置を撮影画像12aの撮影位置として地図データベース14に保存されている地図にマッピングし、その地図もあわせて送信してもよい。さらに、地図を所定の大きさのエリアに分割し、探索対象画像12fを含む撮影画像12aの撮影位置が各エリアに含まれる数の多少により識別可能に表示してもよい。たとえば、探索対象画像12fを含む撮影画像12aが多く撮影されたエリアほど、明るく表示してもよい。
この変形例6によれば、探索対象の所在を容易に把握することができる。特に、ペットが探索対象の場合には、一箇所には留まらず移動を繰り返していることが多いので、撮影された頻度の高いエリアを把握することにより、発見が容易になる。
上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
1 … 混雑度推定システム
10 … 混雑度推定サーバ
11 … サーバ制御部
12 … サーバ記憶部
12a … 撮影画像
12b … 画像情報
12c … 混雑度表
12d … 点群混雑度地図
12e … エリア混雑度地図
12f … 探索対象画像
12g … 探索結果連絡先
13 … サーバ通信部
14 … 地図データベース
15 … 顔画像データベース
20 … ウエアラブル端末
21 … 端末制御部
22 … 端末通信部
23 … 表示部
24 … 撮影部
25 … 端末記憶部
26 … 視線検出部
27 … GPS受信機
28 … 電子コンパス
29 … 地図データベース

Claims (10)

  1. 複数のウエアラブル端末とサーバとからなる混雑度推定システムであって、
    前記ウエアラブル端末は、
    被写体を撮影する撮影部と、
    現在位置を算出する位置検出部と、
    前記撮影部により撮影して得られた画像、および前記位置検出部により算出された前記現在位置を前記サーバに送信する端末通信部と、を備え、
    前記サーバは、
    前記複数のウエアラブル端末と通信するサーバ通信部と、
    前記複数のウエアラブル端末から送信されて前記サーバ通信部が受信する前記画像および前記現在位置が関連付けられて保存される記憶部と、
    前記記憶部に保存された前記画像を解析して人数と歩道の面積を算出し、算出された前記人数と前記歩道の面積とから前記歩道上の歩行者の混雑度を算出し、前記算出した混雑度および前記現在位置を関連付けて前記サーバ通信部により送信するサーバ制御部とを備える混雑度推定システム。
  2. 請求項1に記載の混雑度推定システムにおいて、
    前記サーバは、地図情報を保存する地図データベースをさらに備え、
    前記サーバ制御部は、前記画像を解析して前記歩道のエリアを抽出し、地図データベースに保存されている前記地図情報を参照して前記歩道の面積を算出する混雑度推定システム。
  3. 請求項1に記載の混雑度推定システムにおいて、
    前記サーバは、地図情報を保存する地図データベースをさらに備え、
    前記サーバ制御部は、前記現在位置を参照して、前記算出した前記歩道上の歩行者の混雑度を前記地図データベースに保存されている前記地図情報にマッピングし、前記算出した混雑度がマッピングされた地図情報を前記サーバ通信部により送信する混雑度推定システム。
  4. 請求項1乃至3のいずれか1項に記載の混雑度推定システムにおいて、
    前記サーバ制御部は、
    前記ウエアラブル端末から位置を指定した情報の送信要求を受信すると、前記記憶部に保存されている前記画像の中から前記指定された位置に最も近い、または前記指定された位置から所定距離範囲内の現在位置を有する画像を、前記送信要求した前記ウエアラブル端末に送信する混雑度推定システム。
  5. 請求項1乃至3のいずれか1項に記載の混雑度推定システムにおいて、
    前記サーバ制御部は、
    前記ウエアラブル端末から位置を指定した情報の送信要求を受信すると、前記指定された位置に最も近い、または前記指定された位置から所定距離範囲内の現在位置を有するウエアラブル端末に画像を要求し、当該ウエアラブル端末から受信した画像を前記送信要求した前記ウエアラブル端末に送信する混雑度推定システム。
  6. 請求項4または5に記載の混雑度推定システムにおいて、
    前記ウエアラブル端末は、
    ユーザの入力を検出する入力部と、
    前記入力部により位置の情報が入力されると、当該位置を指定する前記情報の送信要求を端末通信部からサーバへ送信する制御部とをさらに備える混雑度推定システム。
  7. 請求項6に記載の混雑度推定システムにおいて、
    前記入力部は、ユーザの目の動きを検出し、目の動きにより位置の情報を入力する混雑度推定システム。
  8. 請求項1乃至7のいずれか1項に記載の混雑度推定システムにおいて、
    前記サーバ制御部は、前記画像解析において前記歩道上の歩行者の性別および年齢層を推定し、性別および年齢層ごとに前記歩道上の歩行者の混雑度を算出する混雑度推定システム。
  9. 請求項8に記載の混雑度推定システムにおいて、
    前記サーバ制御部は、性別および年齢層ごとの前記歩道上の歩行者の混雑度を所定のエリアごとの値に分割し、分割した前記所定のエリアごとの前記混雑度の値に基づいて前記性別および前記年齢層が識別可能なグラフを作成する混雑度推定システム。
  10. 請求項8または請求項9に記載の混雑度推定システムにおいて、
    前記ウエアラブル端末は、
    前記撮影部の撮影方向を検出する方向検出部をさらに備え、
    前記端末通信部は、前記撮影部により撮影して得られた画像、前記位置検出部により検出した位置、および前記方向検出部により検出した向きを前記サーバに送信し、
    前記サーバ制御部は、前記複数のウエアラブル端末から受信した前記画像、前記位置、および前記向きを組み合わせて、複数の前記撮影部により撮影して得られた画像に撮影された同一人物を識別し、前記複数の撮影部の少なくとも1以上の撮影部により撮影して得られた画像を用いて前記歩道上の歩行者の性別および年齢層を推定する混雑度推定システム。
JP2014104623A 2014-05-20 2014-05-20 混雑度推定システム Active JP6435640B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014104623A JP6435640B2 (ja) 2014-05-20 2014-05-20 混雑度推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014104623A JP6435640B2 (ja) 2014-05-20 2014-05-20 混雑度推定システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018214820A Division JP2019023939A (ja) 2018-11-15 2018-11-15 ウェアラブル端末

Publications (2)

Publication Number Publication Date
JP2015219833A JP2015219833A (ja) 2015-12-07
JP6435640B2 true JP6435640B2 (ja) 2018-12-12

Family

ID=54779123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014104623A Active JP6435640B2 (ja) 2014-05-20 2014-05-20 混雑度推定システム

Country Status (1)

Country Link
JP (1) JP6435640B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6674791B2 (ja) 2016-02-17 2020-04-01 株式会社Screenホールディングス 混雑度推定方法、人数推定方法、混雑度推定プログラム、人数推定プログラム、および人数推定システム
KR102191663B1 (ko) * 2019-02-21 2020-12-16 주식회사 고양이뿔 성폭력 예방을 위한 커뮤니티 매핑 방법
CN115546826A (zh) * 2022-09-13 2022-12-30 西北大学 公交车拥挤度检测方法、装置及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260162A (ja) * 2001-03-02 2002-09-13 Mitsubishi Heavy Ind Ltd 交通情報提供システム
JP2007201556A (ja) * 2006-01-23 2007-08-09 Fujifilm Corp 混雑情報提供システム及び方法
JP5245257B2 (ja) * 2006-11-22 2013-07-24 ソニー株式会社 画像表示システム、表示装置、表示方法
JP5034701B2 (ja) * 2007-06-14 2012-09-26 日本電気株式会社 観光客の誘導方法、そのシステム及びそのプログラム
JP2012238104A (ja) * 2011-05-10 2012-12-06 Nec Commun Syst Ltd 混雑情報収集表示装置、混雑情報管理サーバ、混雑情報表示システム、方法およびプログラム
JP2014049086A (ja) * 2012-09-04 2014-03-17 Toshiba Tec Corp 情報処理装置およびプログラム
JP5888205B2 (ja) * 2012-11-02 2016-03-16 ソニー株式会社 画像表示装置並びに情報入力装置
JP5438859B1 (ja) * 2013-05-30 2014-03-12 パナソニック株式会社 客層分析装置、客層分析システムおよび客層分析方法

Also Published As

Publication number Publication date
JP2015219833A (ja) 2015-12-07

Similar Documents

Publication Publication Date Title
JP7184148B2 (ja) 監視システム、管理装置および監視方法
US10972864B2 (en) Information recommendation method, apparatus, device and computer readable storage medium
JP6573346B1 (ja) 人物検索システムおよび人物検索方法
JP5994397B2 (ja) 情報処理装置、情報処理方法およびプログラム
EP3340177B1 (en) Method and system for creating virtual message onto a moving object and searching the same
JP6099833B1 (ja) 画像処理装置、画像処理システム及び画像処理方法
JP6089157B1 (ja) 服装情報提供システム、服装情報提供方法、およびプログラム
JP6126759B1 (ja) 情報提供システム
JPWO2009038149A1 (ja) 映像提供システム、および映像提供方法
WO2021068553A1 (zh) 一种监控方法、装置和设备
JP6435640B2 (ja) 混雑度推定システム
CN111310524B (zh) 多视频关联方法及装置
JP2014164374A (ja) 情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラム
KR20230008483A (ko) 보행량 측정 장치 및 방법
JP2015215766A (ja) 避難経路提供システム、避難経路提供方法、及び避難経路提供プログラム
JP2019023939A (ja) ウェアラブル端末
JP6796000B2 (ja) 監視支援装置及び監視システム
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
US11216969B2 (en) System, method, and computer-readable medium for managing position of target
US20150379040A1 (en) Generating automated tours of geographic-location related features
JP2020047259A (ja) 人物検索システムおよび人物検索方法
JP5885480B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム
JP2017181353A (ja) 経路提示システム
KR101844588B1 (ko) 실내 측위를 이용한 영상 제공 장치 및 방법
JP2016139957A (ja) 撮像装置、撮像方法及び撮像プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180927

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6435640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250