JP6631694B2 - 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム - Google Patents

捜索支援装置、捜索支援システム、捜索支援方法及びプログラム Download PDF

Info

Publication number
JP6631694B2
JP6631694B2 JP2018505950A JP2018505950A JP6631694B2 JP 6631694 B2 JP6631694 B2 JP 6631694B2 JP 2018505950 A JP2018505950 A JP 2018505950A JP 2018505950 A JP2018505950 A JP 2018505950A JP 6631694 B2 JP6631694 B2 JP 6631694B2
Authority
JP
Japan
Prior art keywords
data
image
unit
image data
search support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018505950A
Other languages
English (en)
Other versions
JPWO2017159680A1 (ja
Inventor
鈴木 慎也
慎也 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017159680A1 publication Critical patent/JPWO2017159680A1/ja
Application granted granted Critical
Publication of JP6631694B2 publication Critical patent/JP6631694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本開示は、捜索支援装置等に関する。
防犯等の目的で物体を認識したり追尾したりする技術が知られている。特許文献1は、不審者を監視して当該不審者に警告を行う技術を開示している。特許文献2は、警報音のほかに発光や振動によって移動体の接近を装着者に通知する技術を開示している。特許文献3は、人物の行動パターンに基づいて不審者であるか否かを判定する技術を開示している。
特開2008−117132号公報 特開2009−187355号公報 特開2010−211514号公報
特許文献1〜3に記載された技術において、物体の認識や捜索には、カメラによる撮影が行われる。しかし、特許文献1〜3に記載された技術のいずれによっても、認識された物体のカメラや装着者からみた方向を撮影画像に基づいて特定することはできない。
本開示の例示的な目的の一つは、捜索者による物体の発見を容易にすることである。
本開示の一態様に係る捜索支援装置は、撮影画像を示す画像データと、当該撮影画像の撮影方向に関連付けられた方向データとを取得する取得手段と、前記取得された画像データを用いて、所定の条件を満たす物体を認識する認識手段と、前記取得された方向データを用いて、前記認識された物体の方向を特定する特定手段と、前記特定された方向を示す報知データを出力する出力手段とを含む。
本開示の別の態様に係る捜索支援システムは、画像データを出力するクライアント装置と、前記画像データに基づいて所定の条件を満たす物体を認識するサーバ装置とを含み、前記クライアント装置は、前記サーバ装置と通信する第1の通信手段と、撮影画像を示す画像データを出力する撮影手段と、前記撮影画像の撮影方向に関連付けられた方向データを出力する検知手段と、前記物体が認識されたことを報知する報知手段とを含み、前記サーバ装置は、前記クライアント装置と通信する第2の通信手段と、前記画像データを用いて前記物体を認識する認識手段と、前記方向データを用いて、前記認識された物体の方向を特定する特定手段と、前記特定された方向を示す報知データを出力する出力手段とを含む。
本開示のさらに別の態様に係る捜索支援方法は、撮影画像を示す画像データと、当該撮影画像の撮影方向に関連付けられた方向データとを取得し、前記取得された画像データを用いて、所定の条件を満たす物体を認識し、前記取得された方向データを用いて、前記認識された物体の方向を特定し、前記特定された方向を示す報知データを出力する。
本開示のさらに別の態様に係るプログラム記録媒体は、コンピュータに、撮影画像を示す画像データと、当該撮影画像の撮影方向に関連付けられた方向データとを取得する処理と、前記取得された画像データを用いて、所定の条件を満たす物体を認識する処理と、前記取得された方向データを用いて、前記認識された物体の方向を特定する処理と、前記特定された方向を示す報知データを出力する処理とを実行させるためのプログラムをコンピュータ読取可能に記録する。
本開示によれば、捜索者による物体の発見を容易にすることが可能である。
図1は、捜索支援装置の構成の一例を示すブロック図である。 図2は、捜索支援装置の動作の一例を示すフローチャートである。 図3は、捜索支援システムの構成の一例を示すブロック図である。 図4は、サーバ装置及びクライアント装置の動作の一例を示すシーケンスチャートである。 図5は、捜索支援システムの構成の別の例を示すブロック図である。 図6は、クライアント装置の構成の一例を示すブロック図である。 図7は、カメラ部及び測位部の構成の一例を示す図である。 図8は、触覚インタフェース部の構成の一例を示す図である。 図9は、捜索支援システムの動作の一例を示すシーケンスチャートである。 図10は、送信処理の一例を示すフローチャートである。 図11は、データの関連付けを説明するための図である。 図12は、認識処理の一例を示すフローチャートである。 図13は、バイブレータの振動パターンの一例を示す図である。 図14は、バイブレータの振動パターンの別の例を示す図である。 図15は、バイブレータの振動パターンのさらに別の例を示す図である。 図16は、捜索者と特定人物の位置関係を例示する図である。 図17は、コンピュータ装置のハードウェア構成の一例を示すブロック図である。
[第1実施形態]
図1は、一実施形態に係る捜索支援装置100の構成を示すブロック図である。捜索支援装置100は、ユーザによる物体の捜索を支援するための情報処理装置である。ユーザは、歩行しながら、又は車両によって移動しながら、所定の物体を捜索する。ここでいう物体は、物体認識技術により認識可能な物体であり、例えば、特定の人物である。ただし、本実施形態において捜索対象とされる物体は、他の物体と識別可能な一定の特徴を有していれば、特定の人物に限定されない。以下においては、捜索支援装置100のユーザのことを「捜索者」ともいう。
一の態様において、捜索支援装置100は、捜索者が所持又は装着する電子機器とデータを授受することによって物体の捜索を支援する。あるいは、捜索支援装置100は、捜索者が所持又は装着する電子機器の一機能として実現されてもよい。
捜索支援装置100は、取得部110と、認識部120と、特定部130と、出力部140とを少なくとも含む。捜索支援装置100は、例えば、所定のプログラムを実行することによってこれらの構成要素に相当する機能を実現することができる。
取得部110は、物体の認識に必要なデータを取得する。取得部110は、撮影画像(静止画又は動画)を示す画像データと、当該撮影画像の撮影方向と関連付けられた方向を示す方向データとを少なくとも取得する。取得部110は、例えば、イメージセンサ又はイメージセンサを含む撮影機器(カメラ等)から画像データを取得することができる。また、取得部110は、いわゆる電子コンパスのような、地磁気に基づいて方位を計測する機器から方向データを取得することができる。
本実施形態において、画像データ及び方向データは、互いに関連付けられている。具体的には、方向データが示す方向は、画像データが示す撮影画像の撮影方向と関連付けられている。ここでいう撮影方向は、撮影画像からみた正面の方向、換言すれば撮影画像を撮影した撮影部の光軸方向に相当する。例えば、方向データは、画像データが示す撮影画像がいずれの方向を撮影した画像であるのかを示す。なお、本実施形態において、画像データは、撮影方向が一定ではなく変化し得る。
認識部120は、取得部110により取得された画像データを用いて所定の物体を認識する。認識部120は、周知の物体認識技術を用いて物体を認識する。認識部120により認識される物体は、所定の条件を満たす物体である。ここでいう所定の条件は、例えば、データベースにあらかじめ登録されている。
一の態様において、認識部120は、撮影画像に対してパターンマッチングを実行し、所定の条件を満たす画像を検出した場合に所定の物体を認識したと判断する。認識部120は、物体の認識に各種の画像特徴量を用いることができる。認識部120が用いる画像特徴量は、認識される物体に応じて異なり得る。
なお、撮影画像は、認識対象の物体を常に含むとは限らない。また、認識部120は、撮影画像に認識対象の物体が含まれる場合であっても、当該物体の一部が他の物体に遮蔽されているなどして認識に失敗することもあり得る。したがって、認識部120は、物体の認識を試行しているともいえる。
特定部130は、認識部120により認識された物体の方向を特定する。特定部130は、取得部110により取得された方向データを用いて物体の方向を特定することができる。ここでいう方向とは、例えば、撮影画像における所定の方向(例えば正面)からのずれをいう。すなわち、特定部130は、撮影画像において、認識部120により認識された物体が所定の方向からどの程度ずれた方向にあるかを特定しているともいえる。また、特定部130は、物体の方向に加え、当該方向における位置、すなわち奥行き(撮影位置からの距離)を特定してもよい。
出力部140は、報知データを出力する。ここにおいて、報知データとは、所定の物体の存在を報知するためのデータをいう。報知データは、特定部130により特定された方向を示す。一の態様において、出力部140は、捜索者が所持又は装着する電子機器に報知データを出力する。あるいは、出力部140は、所定の記憶媒体に報知データを出力してもよい。
図2は、捜索支援装置100の動作を示すフローチャートである。ステップS11において、取得部110は、画像データ及び方向データを取得する。ステップS12において、認識部120は、ステップS11において取得された画像データに基づいて所定の物体を認識する。
ステップS13において、認識部120は、物体認識の成否を判断する。認識部120は、物体が認識されれば(ステップS13:YES)、物体の認識に成功したことを特定部130に通知する。また、認識部120は、物体が認識されなければ(ステップS13:NO)、ステップS11以降の処理を再度実行させる。この場合、取得部110は、物体認識が行われていない新たな画像データを取得する。
物体が認識された場合、特定部130は、ステップS14において、ステップS12において認識された物体の方向を特定する。ステップS15において、出力部140は、ステップS14において特定された方向を示す報知データを出力する。
以上のとおり、本実施形態に係る捜索支援装置100は、画像データに対応する方向データを取得し、認識された物体の方向を方向データに基づいて特定する構成を有する。この構成により、捜索支援装置100は、捜索者による物体の発見を容易にすることが可能である。例えば、捜索支援装置100は、画像データの撮影方向が変化した場合であっても、方向データにより示される方向が撮影方向と関連付けられているため、認識された物体の方向を特定することが可能である。
[第2実施形態]
図3は、別の実施形態に係る捜索支援システム200の構成を示すブロック図である。捜索支援システム200は、サーバ装置210と、クライアント装置220とを有する。サーバ装置210及びクライアント装置220は、ネットワーク230によって通信可能に相互接続されている。なお、捜索支援システム200におけるサーバ装置210及びクライアント装置220の数は、特に限定されない。
なお、本実施形態以降の実施形態において、第1実施形態に記載された用語と同一の用語は、特に定義又は説明がある場合を除き、第1実施形態と同様の意味で用いられる。また、本実施形態以降の実施形態において、第2実施形態と同一の符号を付された構成要素は、第2実施形態と同様の構成又は機能を有する。上述された実施形態と重複する説明は、適宜省略される。
クライアント装置220は、捜索者によって所持され、捜索者とともに移動する電子機器である。クライアント装置220は、例えば、スマートフォンであってもよいし、いわゆるウェアラブル端末であってもよい。あるいは、捜索者が車両に乗車しながら捜索を行う場合、クライアント装置220は、当該車両に搭載された車載機器であってもよい。
また、クライアント装置220は、複数の機器によって構成されてもよい。例えば、クライアント装置220は、ウェアラブル端末とスマートフォンの組み合わせによって構成されてもよい。この場合、ウェアラブル端末及びスマートフォンは、互いに協働することによってクライアント装置220に相当する機能を実現する。
クライアント装置220は、撮影部221と、検知部222と、報知部223と、通信部224とを含む。撮影部221は、1又は複数のイメージセンサを含む。イメージセンサは、クライアント装置220の特定の位置に設置され、特定の方向を撮影する。撮影部221は、画像データを出力する。検知部222は、方向を検知するセンサを含む。検知部222は、例えば、電子コンパスを含んで構成される。検知部222は、方向データを出力する。
報知部223は、サーバ装置210から送信された報知データに従って情報を報知する。報知部223は、例えば、バイブレータ、ディスプレイなどを有する。通信部224は、サーバ装置210に画像データ及び方向データを送信し、サーバ装置210から報知データを受信する。
サーバ装置210は、第1実施形態の捜索支援装置100の一例に相当する。サーバ装置210は、クライアント装置220から画像データ及び方向データを受信し、画像データに基づいて物体を認識する。また、サーバ装置210は、報知データをクライアント装置220に送信する。
サーバ装置210は、画像処理部211と通信部212とを含む。画像処理部211は、捜索支援装置100の構成、すなわち、取得部110、認識部120、特定部130及び出力部140に相当する構成を有する。通信部212は、クライアント装置220に報知データを送信し、クライアント装置220から画像データ及び方向データを受信する。サーバ装置210は、いわゆるエッジサーバ、すなわち、エッジコンピューティングを利用し、エンドユーザに対して物理的及びネットワーク的に近くに分散配置されたサーバ装置であってもよい。
図4は、サーバ装置210及びクライアント装置220の動作を示すシーケンスチャートである。ステップS21において、クライアント装置220は、画像データ及び方向データを生成する。ステップS22において、クライアント装置220は、ステップS21において生成された画像データ及び方向データをサーバ装置210に送信する。
画像データ及び方向データは、例えば、時刻を表す時刻データによって関連付けられる。すなわち、画像データ及び方向データは、ある時刻における撮影画像と当該時刻におけるイメージセンサの撮影方向が特定可能なデータ構造を有する。
クライアント装置220から画像データ及び方向データを受信すると、サーバ装置210は、ステップS23において所定の物体を認識し、ステップS24において当該物体の方向を特定する。ステップS23、S24の処理の詳細は、第1実施形態のステップS12、S14の処理と同様である。
ステップS25において、サーバ装置210は、報知データをクライアント装置220に送信する。報知データを受信すると、クライアント装置220は、ステップS26において報知データに応じた処理を実行する。例えば、クライアント装置220は、物体の方向を画像又は振動によって報知する。
本実施形態に係る捜索支援システム200は、第1実施形態の捜索支援装置100と同様の効果を奏することができる。すなわち、捜索支援システム200は、画像データに対応する方向データを取得し、認識された物体の方向を方向データに基づいて特定する構成を有することにより、捜索者による物体の発見を容易にすることが可能である。
また、捜索支援システム200は、物体認識をサーバ装置210で実行する構成を採用することにより、同構成を有しない場合に比べ、クライアント装置220の負荷を軽減することが可能である。また、この構成により、サーバ装置210は、クライアント装置220が複数ある場合に、それぞれに対応する物体認識をまとめて実行することが可能である。
[第3実施形態]
図5は、さらに別の実施形態に係る捜索支援システム300の構成を示すブロック図である。捜索支援システム300は、クラウドサーバ310と、エッジサーバ320と、クライアント装置330とを含む。クラウドサーバ310、エッジサーバ320及びクライアント装置330の数は、特に限定されない。
本実施形態において、認識対象の物体は、あらかじめ登録された特定の人物である。認識対象の人物は、例えば、指名手配犯や行方不明者である。認識対象の人物は、外観の一部(顔、服装、所持品など)が既知であり、この既知の部分によって他人と識別される。
クラウドサーバ310は、データベース311を有するサーバ装置である。データベース311は、認識対象の人物を示す人物データを蓄積したデータベースである。クラウドサーバ310は、人物データの登録を受け付け、人物データをエッジサーバ320に送信する。
人物データは、認識対象の人物を特徴付けるデータである。人物データは、例えば、認識される人物の顔を撮影した画像データを含む。あるいは、人物データは、認識される人物の特徴を画像特徴量によって記述したデータであってもよい。また、人物データは、認識される人物の識別情報や属性情報(氏名、年齢、性別、身長など)を含んでもよい。
エッジサーバ320は、物体認識を実行するサーバである。エッジサーバ320は、第2実施形態のサーバ装置210と同様の構成を有する。エッジサーバ320は、クラウドサーバ310から人物データの一部又は全部を受信し、この人物データを用いて物体認識を実行する。
複数のエッジサーバ320は、それぞれ異なる人物データを記憶していてもよい。すなわち、複数のエッジサーバ320は、認識対象の人物が異なっていてもよい。例えば、ある場所に対応するエッジサーバ320と別の場所に対応するエッジサーバ320とでは、人物データが異なっていてもよい。
クライアント装置330は、捜索者に所持される電子機器である。クライアント装置330は、複数のエッジサーバ320のいずれかとデータを授受し、エッジサーバ320による物体の認識結果に応じた処理を実行する。クライアント装置300は、移動通信網などのネットワークを介してエッジサーバ320に接続される。
図6は、クライアント装置330の詳細な構成を示すブロック図である。クライアント装置330は、第1ユニット330Aと第2ユニット330Bに大別される。第1ユニット330Aは、捜索者の頭部に装着される。第1ユニット330Aの各部は、例えば、ヘルメットやヘッドギアに装着されている。第1ユニット330Aは、カメラ部331と、測位部332と、触覚インタフェース部333と、第1通信部334とを含む。
第2ユニット330Bは、第1ユニット330Aと通信可能な範囲にあれば、その位置は特に限定されない。例えば、第2ユニット330Bは、捜索者が着用している衣服のポケットの中や捜索者の携行品(バッグ等)の中にあってもよい。第2ユニット330Bは、例えば、スマートフォン等の移動通信端末であってもよい。第2ユニット330Bは、第2通信部335と、第3通信部336と、制御部337とを含む。
カメラ部331は、複数のイメージセンサを有する。第1ユニット330Aにおいて、この複数のイメージセンサは、撮影方向が互いに異なるように配置される。イメージセンサの数は、特定の数に限定されないが、それぞれの画角(撮影範囲)などを考慮して適宜に決定される。一の態様において、イメージセンサは、全方位(すなわち360°)が同時に撮影できるように配置される。カメラ部331は、第2実施形態の撮影部221の一例に相当する。
測位部332は、地磁気センサを有し、地磁気に基づいて特定の方向の方位を検出する。ここでいう特定の方向は、捜索者が第1ユニット330Aを頭部に装着した場合の正面の方向、すなわち捜索者の顔が向いている方向に相当する。なお、測位部332は、第1ユニット330Aの特定の位置に配置され、第1ユニット330Aとの相対的な位置関係が一定であるとする。測位部332は、このような特定の方向を示す方向データを出力する。方向データは、例えば、ここでいう特定の方向と基準方向(例えば北)との差を示す方位角によって特定の方向を表現する。また、測位部332は、位置を表す位置データを取得する。例えば、測位部332は、GPS(Global Positioning System)などの航法衛星システムに準拠した信号に基づいて第1ユニット330Aの位置(すなわち捜索者の位置)を特定する。この場合、位置データは、捜索者の位置を緯度及び経度によって表す。測位部332による測位(すなわち位置特定)の具体的な手法は、特に限定されない。測位部332は、第2実施形態の検知部222の一例に相当する。
触覚インタフェース部333は、複数のバイブレータを有する。触覚インタフェース部333は、振動制御データに応じて、特定のバイブレータのみが振動し、他のバイブレータが振動しないように複数のバイブレータを制御することができる。また、触覚インタフェース部333は、バイブレータによる振動の強度を変更できるように構成されてもよい。触覚インタフェース部333は、第2実施形態の報知部223の一例に相当する。
第1通信部334は、第2ユニット330Bの第2通信部335との間でデータを授受する。第1通信部334及び第2通信部335は、有線接続されてもよいが、Bluetooth(登録商標)等の所定の無線通信方式に従って無線接続されてもよい。
第3通信部336は、エッジサーバ320に接続するインタフェースである。第3通信部336は、エッジサーバ320から受信したデータを制御部337に供給し、第2通信部335又は制御部337から取得したデータをエッジサーバ320に送信する。第3通信部336は、第2実施形態の通信部224の一例に相当する。
制御部337は、クライアント装置330の各部の動作を制御する。例えば、制御部337は、画像データ、方向データ及び位置データを関連付ける。あるいは、制御部337は、振動制御データに基づいて触覚インタフェース部333の動作を制御する。なお、制御部337は、時刻を特定する機能を有する。
図7は、カメラ部331、測位部332の構成の一例を示す図である。この例において、カメラ部331は、イメージセンサIS1、IS2、IS3、IS4、IS5、IS6、IS7及びIS8を有する。また、測位部332は、地磁気センサMS1を有する。また、この例において、捜索者の正面側には、イメージセンサIS1が設置される。したがって、イメージセンサIS1は、捜索者の前方を撮影する。同様に、イメージセンサIS3、IS5、IS7は、それぞれ捜索者の右方(IS3)、後方(IS5)、左方(IS7)を撮影する。
説明の便宜上、以下においては、捜索者からみた正面を撮影方向の基準とし、この方向を0°とする。この場合、捜索者の右、後、左は、それぞれ90°(右)、180°(後)、270°(左)である。イメージセンサIS1〜IS8の撮影方向は、それぞれ、隣り合うイメージセンサの撮影方向と45°ずつ異なっている。したがって、地磁気センサMS1からの方向データとイメージセンサIS1〜IS8からの画像データとにより、いずれかの画像データから物体が認識された場合に当該物体のおおよその方向(北方向、北西方向といった程度)が特定可能である。
なお、この撮影方向は、捜索者の向きを基準とした方向であるため、特定の方位(すなわち東西南北)とは必ずしも一致しない。つまり、捜索者が進行方向を変えたり首を旋回させたりすれば、撮影方向と実際の方位との対応関係も変化する。
図8は、触覚インタフェース部333の構成の一例を示す図である。この例において、触覚インタフェース部333は、バイブレータB01〜B25を有する。また、この例において、捜索者の正面側には、バイブレータB01及びB17が設置される。同様に、バイブレータB05及びB19、B09及びB21、B13及びB23は、それぞれ捜索者の右方(B05及びB19)、後方(B09及びB21)、左方(B13及びB23)に設置される。また、バイブレータB25は、捜索者の頭頂部に設置される。
なお、イメージセンサ、地磁気センサ又はバイブレータの配置は、図7又は図8に例示された配置に限定されない。また、カメラ部331は、各イメージセンサによって撮影された撮影画像を個々の画像データとして出力してもよいが、複数の撮影画像を合成した画像データを出力してもよい。また、カメラ部331は、捜索者の前後左右だけでなく上方(又は下方)を撮影するイメージセンサを含んでもよい。
図9は、捜索支援システム300の動作の概要を示すシーケンスチャートである。ステップS31において、エッジサーバ320は、クラウドサーバ310から人物データを受信する。ステップS32において、エッジサーバ320は、人物データを登録する。エッジサーバ320は、ステップS32において登録された人物データに基づいて物体(本実施形態においては人物)を認識する。この人物データによって識別される人物のことを、以下においては「特定人物」ともいう。
ステップS33において、クライアント装置330は、データの送信処理を実行する。ここでいう送信処理は、取得されたデータ(画像データ、方向データ及び位置データ)を関連付ける処理を含む。クライアント装置330は、ステップS34において、送信処理によって関連付けられたデータをエッジサーバ320に送信する。
図10は、ステップS33の送信処理を示すフローチャートである。ステップS331において、クライアント装置330(具体的には制御部337)は、第1ユニット330Aから送信された画像データ、方向データ及び位置データを取得する。ステップS332において、クライアント装置330は、ステップS331において取得されたデータを時刻データに基づいて関連付ける。
図11は、ステップS332におけるデータの関連付けを説明するための図である。クライアント装置330は、図11に例示されるように、同時刻に取得されたデータに対して同一の時刻を割り当てることによって、画像データ、方向データ及び位置データを関連付ける。
なお、クライアント装置330による関連付けの手法は、エッジサーバ320がその関連付けを特定できる手法であれば、特に限定されない。例えば、クライアント装置330は、画像データ、方向データ及び位置データに時刻データを埋め込んでもよく、同じ時刻に対応する画像データ、方向データ、位置データ及び時刻データを結合して一群のデータにしてもよい。
ステップS35において、エッジサーバ320は、ステップS34において送信されたデータに基づいて認識処理を実行する。ここでいう認識処理は、人物データに基づいて登録された特定人物を認識する処理である。人物データにより与えられる所定の条件を満たす人物、すなわち特定人物が認識された場合、エッジサーバ320は、ステップS36において報知データをクライアント装置330に送信する。また、エッジサーバ320は、ステップS37において、ステップS35において認識された特定人物に関連するデータ(当該特定人物の識別情報、認識された方向など)を送信する。
なお、ステップS37の処理は、必須の処理ではない。すなわち、エッジサーバ320は、特定人物が認識された場合であっても、ステップS37の処理を実行しなくてもよい。また、特定人物が認識されなかった場合、エッジサーバ320は、ステップS36、S37の処理を実行しない。
図12は、ステップS35の認識処理の一例を示すフローチャートである。ステップS351において、エッジサーバ320は、人間の顔を検出する。すなわち、エッジサーバ320は、ステップS351において、撮影画像から人間の顔らしい特徴を有する領域を検出する。エッジサーバ320は、一般物体認識の周知技術を用いて顔を検出することが可能である。
ステップS352において、エッジサーバ320は、ステップS351において検出された顔が特定人物の顔であるか判断する。ステップS352の処理のことを、以下においては「顔認識」ともいう。顔認識は、顔認証とも呼ばれる。エッジサーバ320は、特定物体認識の周知技術を用いて顔を検出することが可能である。具体的には、エッジサーバ320は、ステップS32において登録された人物データを参照することによって顔認識を実行することが可能である。
ステップS353において、エッジサーバ320は、ステップS352において認識された顔の撮影画像における方向を特定する。例えば、エッジサーバ320は、特定人物の顔が認識された位置を撮影方向によって特定する。すなわち、エッジサーバ320は、捜索者の撮影時における正面を基準として何度の撮影方向に特定人物が認識されたかを判断する。
なお、このときエッジサーバ320は、ステップS352において認識された顔の大きさに基づいて、捜索者から特定人物までのおおよその距離を算出してもよい。捜索者を基準とした特定人物の方向と距離が特定されれば、これらと捜索者の位置とに基づいて特定人物の位置を特定することができる。
ステップS354において、エッジサーバ320は、報知データを生成する。報知データは、ステップS353において特定された撮影方向を示すデータや撮影時刻を示す時刻データを含み得る。また、報知データは、特定人物の位置を示すデータを含んでもよい。
ステップS38において、クライアント装置330は、報知データに基づいてバイブレータを振動させる。例えば、クライアント装置330は、報知データに含まれる撮影方向を示すデータを用いて特定人物の方向を特定し、振動させるべきバイブレータを決定する。なお、クライアント装置330は、報知する時点での捜索者の方向が撮影時の方向から変化している場合には、その変化分を加算又は減算して特定人物の方向を特定してもよい。また、クライアント装置330は、捜索者と特定人物との距離に応じて振動の強度を異ならせてもよい。
エッジサーバ320及びクライアント装置330は、画像データが生成される毎に、ステップS33〜S38の処理を繰り返す。その結果、捜索者の位置及び向きは、時間の経過に応じて変化し得る。同様に、特定人物の位置も、時間の経過に応じて変化し得る。
したがって、捜索者と特定人物の位置関係は、時々刻々と変化する可能性がある。例えば、捜索者からみた特定人物の位置は、左前方から右前方へと前方を横切るように移動したり、捜索者に近付いたり、捜索者から遠ざかったりする可能性がある。このような場合、エッジサーバ320は、振動させるバイブレータを変えたり、バイブレータの振動強度を変えたりすることによって特定人物の移動を捜索者に報知する。
図13〜図15は、バイブレータの振動パターンを例示する図である。図13は、特定人物の位置が左前方から右前方へと移動する場合を示している。この場合、触覚インタフェース部333は、バイブレータB15、B16、B01、B02、B03の順に振動させる。
図14は、捜索者の背後にいる特定人物が捜索者に接近する場合を示している。この場合、触覚インタフェース部333は、バイブレータB21、B25の順に振動させる。また、図15は、捜索者の背後にいる特定人物が捜索者から離れる場合を示している。この場合、触覚インタフェース部333は、バイブレータB21、B09の順に振動させる。
あるいは、触覚インタフェース部333は、図14又は図15の例の場合、後方に相当するバイブレータB09、B21、B25のうちの振動させるバイブレータの個数を増減させたり、バイブレータの振動強度を変化させたりすることによって、特定人物との距離の変化を捜索者に報知してもよい。
本実施形態に係る捜索支援システム300は、第2実施形態の捜索支援システム200と同様の効果を奏することができる。すなわち、捜索支援システム300は、画像データに対応する方向データを取得し、認識された物体の方向を方向データに基づいて特定する構成を有することにより、捜索者による物体の発見を容易にすることが可能である。また、捜索支援システム300は、物体認識をクライアント装置330で実行する場合に比べ、クライアント装置330の負荷を軽減することが可能である。
また、捜索支援システム300は、特定人物の捜索に際し、捜索者の人的能力を補助することができる。ここでいう人的能力は、視覚や聴覚に加え、記憶力などを含む。つまり、捜索支援装置100は、捜索者の人的能力のみによっては発見できない可能性がある特定人物を発見できる可能性を高めることに寄与するといえる。
例えば、人間は、自らの視覚のみによっては、前後左右を同時に視認することはできない。また、人間の視覚では、群衆の中から特定の人物を見分けたりすることが困難な場合もある。したがって、捜索者は、仮に特定人物が自らの近くにいた場合であったとしても、当該人物を正確に発見できるとは限らない。
捜索支援システム300は、このような場合において、捜索者の視覚を補助することが可能である。例えば、捜索支援システム300は、捜索者にとっての正面であるか否かを問わず、複数の撮影方向により画像を撮影するため、捜索者が視認できないような位置に特定人物がいた場合であっても当該人物を認識することが可能である。
また、捜索支援システム300は、特定人物の存在を振動により捜索者に報知する構成を有することにより、捜索者の視覚及び聴覚を妨げないようにすることが可能である。したがって、捜索者は、捜索支援システム300からの情報の取得に視覚及び聴覚を用いる必要がなく、視覚及び聴覚を(自らによる)捜索者の発見に集中させることが可能である。
[変形例]
本開示は、上述された第1実施形態〜第3実施形態に限定されない。本開示は、上述された実施形態に対して当業者が把握し得る変形又は応用を適用した実施形態を含み得る。例えば、本開示は、以下に記載される変形例を含む。また、本開示は、本明細書に記載された事項を必要に応じて適宜に組み合わせた形態を含み得る。例えば、特定の実施形態を用いて説明された事項は、矛盾を生じない範囲において、他の実施形態に対しても適用され得る。
(変形例1)
クライアント装置330は、特定人物の存在を振動以外の態様で捜索者に報知してもよい。例えば、クライアント装置330は、触覚インタフェース部333に代えて、又は触覚インタフェース部333とともに、画像又は音声によって特定人物の存在を報知する構成を有してもよい。クライアント装置330は、その報知の態様に応じた形状(眼鏡型、ヘッドホン型など)で構成されてもよい。あるいは、クライアント装置330は、画像又は音声によって特定人物の存在を報知する構成を第2ユニット330Bに含んでもよい。
(変形例2)
クライアント装置330は、人間以外の物体に搭載されてもよい。例えば、クライアント装置330は、ロボット又は自動運転車に搭載されてもよい。この場合、クライアント装置330は、触覚インタフェース部333に代えて、ロボット又は自動運転車に報知データを供給する構成を有する。この場合、捜索者は、ロボット又は自動運転車を遠隔操作したり、撮影画像を遠隔から確認したりすることも可能である。
(変形例3)
捜索対象とされる物体の数は、特定の数に限定されない。例えば、捜索支援システム300は、複数の特定人物を同時に認識できるように構成されてもよい。このような場合において、クライアント装置330は、複数の特定人物が認識されたときに、振動パターンを特定人物の人数に応じて変えてもよい。また、クライアント装置330は、複数の特定人物が認識された場合に、それぞれの人物の方向に対応するバイブレータを交互に振動させてもよい。
(変形例4)
捜索支援システム300は、捜索者が複数いる場合(すなわち、クライアント装置330が複数ある場合)において、いずれかのクライアント装置330が特定人物を認識したとき、当該装置が特定人物を認識したことを他のクライアント装置に報知してもよい。
例えば、クラウドサーバ310又はエッジサーバ320は、特定のクライアント装置330において特定人物が認識された場合に、当該装置からの距離が所定の範囲内にある他のクライアント装置330に当該特定人物がいる可能性があることを報知してもよい。クラウドサーバ310又はエッジサーバ320は、特定人物が認識されたことを全てのクライアント装置330に報知してもよい。
また、エッジサーバ320は、複数のクライアント装置330が同時刻に同一の特定人物を認識できた場合、当該複数のクライアント装置330からの位置データと方向データとに基づいて特定人物の位置を特定することが可能である。エッジサーバ320は、複数のクライアント装置330が同一の特定人物を認識できていれば、特定人物(又はクライアント装置330)の位置が変化しても特定人物の座標を特定し続けることが可能である。
図16は、捜索者(2名)と特定人物の位置関係を例示する図である。この例において、点P1及びP2は、それぞれ捜索者の位置を示す。また、点Pxは、特定人物の位置を示す。ここにおいて、点P1及びP2の座標とそれぞれの座標からみた点Pxの方向が与えられると、点Pxの座標は、一意的に特定可能である。
(変形例5)
本開示に係る各装置(捜索支援装置100、サーバ装置210、クライアント装置220、クラウドサーバ310、エッジサーバ320及びクライアント装置330)の具体的なハードウェア構成は、さまざまなバリエーションを含み、特定の構成に限定されない。例えば、これらの装置は、ソフトウェアを用いて実現されてもよく、複数のハードウェアを用いて各種処理を分担するように構成されてもよい。
図17は、本開示に係る装置を実現するコンピュータ装置400のハードウェア構成の一例を示すブロック図である。コンピュータ装置400は、CPU(Central Processing Unit)401と、ROM(Read Only Memory)402と、RAM(Random Access Memory)403と、記憶装置404と、ドライブ装置405と、通信インタフェース406と、入出力インタフェース407とを備える。本開示に係る装置は、図17に示される構成(又はその一部)によって実現され得る。
CPU401は、RAM403を用いてプログラム408を実行する。プログラム408は、ROM402に記憶されていてもよい。また、プログラム408は、メモリカード等の記録媒体409に記録され、ドライブ装置405によって読み出されてもよいし、外部装置からネットワーク410を介して送信されてもよい。通信インタフェース406は、ネットワーク410を介して外部装置とデータをやり取りする。入出力インタフェース407は、周辺機器(入力装置、表示装置など)とデータをやり取りする。通信インタフェース406及び入出力インタフェース407は、データを取得又は出力する手段として機能することができる。
なお、本開示に係る装置の構成要素は、単一の回路(プロセッサ等)によって構成されてもよいし、複数の回路の組み合わせによって構成されてもよい。ここでいう回路(circuitry)は、専用又は汎用のいずれであってもよい。
上述された実施形態において単体の装置として説明された構成は、複数の装置に分散して設けられてもよい。例えば、サーバ装置210又はエッジサーバ320は、クラウドコンピューティング技術などを用いて、複数のコンピュータ装置によって実現されてもよい。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2016年3月17日に出願された日本出願特願2016−053569を基礎とする優先権を主張し、その開示の全てをここに取り込む。
100 捜索支援装置
110 取得部
120 認識部
130 特定部
140 出力部
200、300 捜索支援システム
210 サーバ装置
211 画像処理部
212 通信部
220、330 クライアント装置
221 撮影部
222 検知部
223 報知部
224 通信部
310 クラウドサーバ
320 エッジサーバ
331 カメラ部
332 測位部
333 触覚インタフェース部
334 第1通信部
335 第2通信部
336 第3通信部
337 制御部
400 コンピュータ装置

Claims (7)

  1. 撮影画像を示す画像データと、当該撮影画像の撮影方向に関連付けられた方向データとを取得する取得手段と、
    前記取得された画像データを用いて、所定の条件を満たす物体を認識する認識手段と、
    前記取得された方向データを用いて、前記認識された物体の方向を特定する特定手段と、
    前記特定された方向を示す報知データを出力する出力手段と
    前記報知データに基づいて振動が制御される複数のバイブレータを含むクライアント装置に前記報知データを送信する通信手段と、
    を備える捜索支援装置。
  2. 前記取得手段は、前記画像データと、当該画像データにより示される撮影画像が撮影された時刻に関連付けられた前記方向データとを取得する
    請求項1に記載の捜索支援装置。
  3. 前記取得手段は、前記画像データ及び前記方向データを、複数の機器から取得し、
    前記認識手段は、前記複数の機器のそれぞれから取得された前記画像データを用いて前記物体を認識し、前記複数の機器のそれぞれから取得された前記方向データを用いて前記物体の方向を特定する
    請求項1又は請求項2に記載の捜索支援装置。
  4. 前記取得手段は、前記画像データと、前記方向データと、当該画像データにより示される撮影画像が撮影された位置を示す位置データとを取得し、
    前記特定手段は、前記取得された方向データ及び位置データを用いて、前記認識された物体の位置を特定する
    請求項3に記載の捜索支援装置。
  5. 画像データを出力するクライアント装置と、前記画像データに基づいて所定の条件を満たす物体を認識するサーバ装置とを備え、
    前記クライアント装置は、前記サーバ装置と通信する第1の通信手段と、
    撮影画像を示す画像データを出力する撮影手段と、
    前記撮影画像の撮影方向に関連付けられた方向データを出力する検知手段と、
    前記物体が認識されたことを報知する報知手段とを備え、
    前記サーバ装置は、
    前記クライアント装置と通信する第2の通信手段と、
    前記画像データを用いて前記物体を認識する認識手段と、
    前記方向データを用いて、前記認識された物体の方向を特定する特定手段と、
    前記特定された方向を示す報知データを出力する出力手段とを備え
    前記報知手段は、
    複数のバイブレータを備え、当該複数のバイブレータによる振動を前記報知データに基づいて制御す
    捜索支援システム。
  6. 撮影画像を示す画像データと、当該撮影画像の撮影方向に関連付けられた方向データとを取得し、
    前記取得された画像データを用いて、所定の条件を満たす物体を認識し、
    前記取得された方向データを用いて、前記認識された物体の方向を特定し、
    前記特定された方向を示す報知データを出力し、
    前記報知データに基づいて振動が制御される複数のバイブレータを含むクライアント装置に前記報知データを送信する
    捜索支援方法。
  7. コンピュータに、
    撮影画像を示す画像データと、当該撮影画像の撮影方向に関連付けられた方向データとを取得する処理と、
    前記取得された画像データを用いて、所定の条件を満たす物体を認識する処理と、
    前記取得された方向データを用いて、前記認識された物体の方向を特定する処理と、
    前記特定された方向を示す報知データを出力する処理と、
    前記報知データに基づいて振動が制御される複数のバイブレータを含むクライアント装置に前記報知データを送信する処理と
    を実行させるためのプログラム。
JP2018505950A 2016-03-17 2017-03-14 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム Active JP6631694B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016053569 2016-03-17
JP2016053569 2016-03-17
PCT/JP2017/010196 WO2017159680A1 (ja) 2016-03-17 2017-03-14 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム記録媒体

Publications (2)

Publication Number Publication Date
JPWO2017159680A1 JPWO2017159680A1 (ja) 2019-02-14
JP6631694B2 true JP6631694B2 (ja) 2020-01-15

Family

ID=59852279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018505950A Active JP6631694B2 (ja) 2016-03-17 2017-03-14 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6631694B2 (ja)
WO (1) WO2017159680A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6977492B2 (ja) * 2017-11-13 2021-12-08 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP7052305B2 (ja) 2017-11-13 2022-04-12 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP6870584B2 (ja) 2017-11-13 2021-05-12 トヨタ自動車株式会社 救援システムおよび救援方法、ならびにそれに使用されるサーバおよびプログラム
JP7024396B2 (ja) * 2017-12-26 2022-02-24 トヨタ自動車株式会社 人物探索システム
JP6973294B2 (ja) * 2018-05-25 2021-11-24 トヨタ自動車株式会社 車両捜索システムおよび車両捜索方法
JP7151449B2 (ja) * 2018-12-14 2022-10-12 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
JP4825552B2 (ja) * 2006-03-13 2011-11-30 国立大学法人 奈良先端科学技術大学院大学 音声認識装置、周波数スペクトル取得装置および音声認識方法
JP5768647B2 (ja) * 2011-10-11 2015-08-26 富士通株式会社 画像認識システムおよび画像認識方法

Also Published As

Publication number Publication date
JPWO2017159680A1 (ja) 2019-02-14
WO2017159680A1 (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6631694B2 (ja) 捜索支援装置、捜索支援システム、捜索支援方法及びプログラム
US11967020B2 (en) Cross reality system with map processing using multi-resolution frame descriptors
US11632679B2 (en) Cross reality system with wireless fingerprints
CN104820488B (zh) 用户定向式个人信息助理
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
US20120026088A1 (en) Handheld device with projected user interface and interactive image
JP6943988B2 (ja) 移動可能物体の制御方法、機器およびシステム
KR20180135487A (ko) 증강 현실 시스템들을 사용한 전자기 추적
KR20190118545A (ko) 위성 위치 확인 시스템(gps) 차단 환경 내 네비게이션을 위한 방법, 시스템 및 소프트웨어
JP2008227877A (ja) 映像情報処理装置
WO2016054773A1 (zh) 目标设备的定位方法和移动终端
KR20150061587A (ko) 관성 센서를 사용하여 위치 선정을 위해 위치 시그니처들을 자동적으로 생성하는 방법 및 시스템
JP5854714B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム
JP2024012472A (ja) 監視対象識別装置、監視対象識別システム、および、監視対象識別方法
JP2023075236A (ja) 軌跡表示装置
JP5801690B2 (ja) 画像処理装置、画像処理方法
JP6776600B2 (ja) 画像表示システム、情報処理装置、及びプログラム
JP6382772B2 (ja) 視線誘導装置、視線誘導方法、および視線誘導プログラム
JP5885480B2 (ja) 情報処理装置、情報処理装置の制御方法、プログラム
WO2020045092A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2020088095A1 (en) Fisheye infrared depth detection
JP6523353B2 (ja) 端末装置及びプログラム
CN114184193B (zh) 定位方法及系统
US12108238B2 (en) Information processing device, control method, and non-transitory computer-readable medium
EP4246282A1 (en) Information processing apparatus, information processing system, and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150