JP6270410B2 - サーバ装置、情報処理方法及びプログラム - Google Patents
サーバ装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6270410B2 JP6270410B2 JP2013221313A JP2013221313A JP6270410B2 JP 6270410 B2 JP6270410 B2 JP 6270410B2 JP 2013221313 A JP2013221313 A JP 2013221313A JP 2013221313 A JP2013221313 A JP 2013221313A JP 6270410 B2 JP6270410 B2 JP 6270410B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- terminal device
- mobile terminal
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Telephonic Communication Services (AREA)
- Navigation (AREA)
Description
特許文献1では、携帯電話等のカメラで撮影した画像を解析し、抽出される位置情報を基に、利用者の要望に適合する目的地或いは経由地を検索し誘導するという方法が提案されている。
特許文献2では、自分以外の移動体に装着された撮像装置を利用者が指定し、上記撮像装置で撮像された画像を表示装置で表示することにより、利用者が自分以外の移動体から見える光景を任意に、かつ、容易にみることのできる方法が提案されている。
特許文献3では、利用者が保持する移動端末装置と特定の場所に固定設置される顧客検出装置で利用者の位置情報を把握し、上記移動端末装置に与えるサービスコンテンツを抽出して提供するというシステムが提案されている。
図1は、サーバ装置のハードウェア構成の一例を示す図である。
CPU102は、サーバ装置の全体を制御する。ROM103は、プログラム等を格納する。RAM104は、CPU102等において処理中のデータ等を一時記憶する。外部記憶装置105は、記憶装置の一例であり、例えば、磁気ディスク等である。
ネットワークインターフェース106は、サーバ装置をLANやWANと接続し、遠隔地の装置と通信を行う。操作部108は、サーバ装置の操作を行うキーボード等である。表示部107は、サーバ装置の状態や作業者への情報を表示する。タッチパネル液晶モニターのように、操作部108と表示部107とが一体となっていてもよい。
これら各構成要素はシステムバス101上に配置される。
CPU102が、ROM103、又は外部記憶装置105等に記憶されているプログラムに基づきRAM104等を使用しながら処理を実行することによって、サーバ装置の機能や後述するフローチャートの処理が実現される。
なお、後述するカメラや携帯端末装置もCPUやメモリ等を有する。そして、各装置のCPUが各装置のメモリに記憶されているプログラムに基づき処理を実行することによって各装置の機能等が実現される。
図2は、カメラシステムのシステム構成及びシステムを構成する各装置の機能構成等の一例を示す図である。
カメラシステムは、システム構成として、撮影システム1、サーバ装置2、携帯端末装置3を含む。ここで、サーバ装置2は、情報取得意思管理部21と、映像受信部22と、映像送信部23と、行動情報フィルタ部4と、映像フィルタ部5と、を機能構成として含む。更に、行動情報フィルタ部4は、行動情報取得部41と、行動情報解析部42と、行動予測部43と、カメラ候補選定部44と、を機能構成として含む。また、映像フィルタ部5は、映像抽出部51と、映像解析部52と、映像選定部53と、を機能構成として含む。
撮影システム1は、複数のカメラを含み、監視対象地域内の特定領域の映像をリアルタイムに撮影し、記録する。
サーバ装置2は、撮影システム1によって撮影された映像を受信し、記録を行う。そして、サーバ装置2は、情報取得者が携帯する携帯端末装置3が監視対象地域に入り、自動或いは手動で監視対象地域内の映像(映像情報)を取得する意思表示をした場合、携帯端末装置3に映像を送信する。サーバ装置2は、行動情報フィルタ部4及び映像フィルタ部5のカメラの選定結果と、イベントの検知結果と、を基に映像を携帯端末装置3に送信する。
情報取得意思を示すことは、取得要求の一例である。
行動予測部43は、解析結果を基に情報取得者の今後の行動を予測、類推する。
カメラ候補選定部44は、その予測、類推情報を基に監視対象内にある複数のカメラの中から表示すべきカメラの候補を選定する。選定されたカメラ候補は映像フィルタ部5に送られる。
映像抽出部51は、行動情報フィルタ部4から送られたカメラ候補情報の現映像及び記録映像の中から映像を抽出する。
映像解析部52は、抽出された映像を解析し、映像からイベントを検知する。
映像選定部53は、イベントの検知結果に基づいて情報取得者が携帯する携帯端末装置3に送信する、情報取得者の目的地までの経路選択に係る映像を選定する。つまり、映像選定部53は、カメラ候補の選定結果と、イベントの検知結果と、に基づいて、携帯端末装置3に送信する映像を選定する。
選定された映像はサーバ装置2の映像送信部23によって携帯端末装置3に送信され、表示され情報取得者が映像を確認することができる。情報取得者が移動した際には逐次、同様の情報取得、解析及び映像表示のサイクルが行われるシステムとなっており、情報取得者が自身の行動に合わせたリアルタイムな映像の取得、確認ができる。
撮影システム1は、特定領域を撮像するカメラ、例えば、図2においてはカメラA11、カメラB12、カメラC13のように複数のカメラと、カメラ間を連携するネットワーク14を含む。カメラの台数は監視する地域の広さや監視する内容によって決められればよく、特に限定されない。またネットワークの帯域や転送速度も情報取得者に適切に映像を提供できる容量であればよく、特に限定されない。
カメラは例えば道路上においては監視したい領域を撮影可能なように設置される。監視したい領域とは路面や、路面から数メートル上方、人や障害物等の存在を撮影できる領域のことである。道路脇にある塀などが存在する場合、その裏側を撮影可能なようにカメラが設置されることもある。このような場所は死角になりやすく、なんらかの異常状態、例えば人の潜みや危険物の放置等が発生しやすい場所でもあるため効果的に異常(イベント)を撮影できる可能性がある。また、1台のカメラの撮影領域は定期的或いは不定期に変更することができる。例えば、カメラは、サーバ装置2等からの制御に基づき、上下左右方向の撮像方向の変更やズームや広角撮影を行うことができる。このことにより、カメラの設置台数を少なくする効果が期待できる。各カメラは各々がネットワークで連携できるシステム構成となっており、カメラ間連携は有線でも無線でもよい。各カメラが撮影した映像はサーバ装置2の映像受信部22に送信され、記録されるが、各カメラが撮影した映像を記録する映像記録部がカメラ毎や撮影システムのネットワーク内にあってもよく、撮影された映像の記録、保管場所は特に限定されない。
サーバ装置2は、上述したように、機能構成として、情報取得意思管理部21、映像受信部22、映像送信部23を含む。なお、行動情報フィルタ部4や映像フィルタ部5も含むがこれらは後述する。
情報取得意思管理部21は、携帯端末装置3からの信号によって、情報取得者が監視対象地域内の映像を取得する意思の確認と管理とを行う。映像取得の意思確認を行うことによって、携帯端末装置3を持つが情報が不要な情報取得者がいた場合には映像を送らないことができ、ネットワーク負荷の軽減や不要な情報漏洩の危険を回避することができる。情報取得意思管理部21が情報取得意思の管理を行うことで、監視対象地域内に複数の情報取得者が存在する場合でも、各情報取得者に適した映像を適切なタイミングで各々の携帯端末装置3に送信し、個々の情報取得者に有益な映像を送信することができる。
映像受信部22は、撮影システム1によって撮影された映像を受信し、記録する。映像フィルタ部5によって複数カメラ間の映像比較や時間的変化の比較解析を行う場合、撮影システム1のカメラ単体に存在する記録部のみでは比較が困難である場合がある。その場合、映像受信部22にて一括に比較対象を管理し、そこから記録映像を抽出することでカメラ単体の記録容量や演算力不足による問題を回避することができる。
映像送信部23は、情報取得意思管理部21と連動し、行動情報フィルタ部4、映像フィルタ部5の解析結果を受けて選定された映像を携帯端末装置3に送信する。これにより情報取得者が、適切なタイミングで適切な映像を確認することができる。
携帯端末装置3は、情報取得者によって携帯され、情報取得意思表示部31、情報受信部32及び映像表示部33を少なくとも含む。
情報取得意思表示部31は、情報取得者が監視対象地域内に存在する場合に自動或いは手動で情報取得の意思表示を行う機能である。監視対象地域内で携帯端末装置の個体識別が行われるため、携帯端末装置3には個体識別IDが割り振られることが望ましい。個体識別IDは、固定のものでも監視対象地域内に出入りする毎に変更されるものでもよい。カメラシステムは、情報取得者に適切な情報を提供するため、情報を必要とする情報取得者が監視対象地域内に存在することを確認する必要がある。
そのため、例えば、情報取得者自らが撮影システム1のカメラに対して携帯端末装置3を撮影させる、或いは情報取得者自らが携帯端末装置3を用いて個体識別IDを情報取得意思管理部21に送信する。このようにして情報取得者が監視対象地域内に存在することをカメラシステムに認識させることができる。また、情報取得者の移動に伴い、携帯端末装置3が監視対象地域内に入った際に自動で情報取得意思を示すこともできる。例えば、GPSを利用し携帯端末装置3が監視対象地域内に入った際に携帯端末装置3が自動で個体識別IDを情報取得意思管理部21に無線送信するようにしてもよい。情報取得者が同一グループとして複数人存在する場合、各情報取得者に独立の映像を提示する場合と全情報取得者に同じ映像を提示する場合とがある。これは情報取得者を識別する個体識別IDに加え、同一グループ識別IDを割り振ることで対応できる。同一グループ識別IDの登録は予め決められた個体識別IDを用いるのがセキュリティの観点では好ましいが、特にそれには限定されない。
情報取得意思表示部31による情報取得意思管理部21への情報の送信は、取得要求送信の処理の一例である。
携帯端末装置3は、行動情報入力部を有することもできる。行動情報入力部とは、例えば、現在地や目的地、移動速度等の情報の入力部である。行動情報入力部が携帯端末装置3に備わることで、情報取得者が能動的に現在地や目的地、経由地、目的地に到着しなければならない時間等の情報を入力できる。これにより、より詳細な行動の推測ができ、行動情報フィルタ部4及び映像フィルタ部5により選定される映像が情報取得者の要求に適合しやすくなるという効果がある。
行動情報フィルタ部4は、行動情報取得部41、行動情報解析部42、行動予測部43、カメラ候補選定部44を含む。
行動情報取得部41は、撮影システム1による情報取得者自身の記録映像や、上述の行動情報入力部により入力される情報を基に情報取得者の行動情報を取得する。その情報は例えば、現在地、目的地、現在時刻、到達目標時刻、制限時間、天候、経由希望地、移動方向、警戒対象事象、移動速度、体調、精神状態等、情報取得者の要求や行動を推測するために必要な情報のことである。上記の情報は一例であり、情報取得者の要求や行動を推測するための情報であればこれらに限定されない。
行動情報取得部41が現在地及び目的地の情報を入手した場合、行動情報解析部42がその情報を解析し情報取得者がどの程度の距離を移動する必要があるかを算出することができる。詳細な地図情報を用いることで、行動情報解析部42は、実際の選択可能な経路毎に距離算出を行うこともできる。目的地の入力情報は住所や建造物名などでもよいし、知人の名前やテーマパークにおける人気キャラクターの名称などでもよい。
カメラシステムによれば、情報取得者の行動情報に合わせて目的地までの映像を情報取得者に提供できる。そのため、カメラシステムは、目的地(接近したい興味対象の居場所を含む)が時間経過に伴って変化した場合においても追跡し、そこに至る経路上の映像を提供する。この情報取得者は、適切な経路選択が可能となる。
一般道路上であれば、行動予測部43等は、現在時刻の入力から明るさを予測することができる。これらの情報を基に行動予測部43は、例えば、昼間で明るい場合、情報取得者の精神状態は安定しているが、夜間で暗い場合は警戒対象に対する不安が大きくなることを予測する。
また、経由希望地の情報が行動情報取得部41によって取得されれば、行動予測部43は、選択しうる経路を限定することが可能となる。このことにより、後述する映像フィルタ部5において抽出、解析される映像を限定することができる。
また移動速度の情報を行動情報解析部42によって解析する。そして、行動予測部43が選択しうる経路の選択を可能にし、更には行動予測部43によって情報取得者の状況を推定することができる可能性がある。例えば、行動予測部43は、情報取得者が速度情報を基に立ち止まっている、歩いている、走っている等の行動を解析する。成人男性の通常の歩行速度が80m/分であるとすると、150m/分の速度で移動していると入力される場合、行動予測部43は、急いでいると推測する。速度情報は例えば、携帯端末装置3に速度情報を直接入力することもできるし、GPSによる位置情報と時刻情報とから行動予測部43等が移動速度を算出することもできる。しかし、これらに限定されない。例えば、カメラシステムは、撮影された情報取得者自身の振る舞いによって、行動情報を取得することもできる。
行動情報解析部42は、行動情報取得部41が取得した上記のような行動情報を、解析する。そして、行動予測部43は、解析の結果に基づき情報取得者の行動を予測する。カメラ候補選定部44は、予測結果に適合する経路にあるカメラを選択することができる。上記の行動情報は携帯端末装置3への手動入力に限らず自動での取得でもよい。自動で取得する場合は、携帯端末装置3にこれらの情報を取得できる機能を搭載しておけばよく、例えば時計やGPS機能、脈拍計測センサー等がそれにあたる。携帯端末装置3に内蔵されるカメラや、監視対象地域にあるカメラで情報取得者自身を撮影しその情報を携帯端末装置3に送ることで、例えば骨折などの外傷等を行動情報としてカメラシステムに入力することもできる。
映像フィルタ部5は、映像抽出部51、映像解析部52、映像選定部53を含む。
映像抽出部51は、行動情報フィルタ部4のカメラ候補選定部44によって選定されたカメラの記録映像を抽出する。抽出される映像は一定期間前の過去の映像であっても現在の映像であってもよく、過去から現在にわたる一連の映像であってもよい。
映像解析部52は、映像抽出部51によって抽出された映像を解析する。例えば、映像解析部52は、複数のカメラの現時点の映像で映っている人数を比較することで、混雑具合を検知することができる。また、映像解析部52は、通常道路上にはない通行止め看板や標識を検知し、移動する上で障害となる通行止め区間の検知をすることもできる。
混雑具合はイベントの一例である。また、通行止め区間の発生もイベントの一例である。
逆流はイベントの一例である。
このように様々な映像を映像フィルタ部5によって抽出することができ、図3において、カメラA11及びカメラB12に対応する現映像確認部521A、521Bで各々のカメラの現映像を確認する。そして、カメラ間映像比較部523は、両映像を比較する。そして、空間的特徴抽出部524は、上述のような様々な空間的な差異を異常(イベント)として抽出する。このことで上述した処理を実現できる。
上述のような様々な空間的な差異は、空間的特徴の一例である。
同一人物の出現頻度は、時間的特徴の一例である。また、不審な行動もイベントの一例である。
更に、映像解析部52は、記録映像内に複数回出現する人物の出現時間間隔と最終出現時刻から現在時刻までの時間間隔との差異を解析する。このことで、映像解析部52は、その警戒対象人物が現在も該当カメラ近隣にいるかどうかを推測し、引き続き該当人物を警戒対象とするかどうかを解析することができる。或いは、映像解析部52は、特定のカメラの人の流れや車の流れの時間的変化を追跡することで、異常を抽出することができる。カメラA11に混雑状態が記録されて現在もその状態が継続しているとして、あるときに一定方向に直線的に移動していた人の流れが蛇行するようになったとする。この場合、蛇行し始める空間のあたりに何かしらの異常、例えば、誰かが倒れている状況や混雑の中でけんかが発生した状況などの可能性が示唆される。映像解析部52は、このように空間的には同一で時間的に連続な映像を比較することで、異常状態(イベント)を検知することもできる。
また、複数のカメラに異なる人物が一人映っている場合があるとき、一方のカメラの人物は移動し、一定時間前にはそのカメラには映っておらず、他方のカメラの人物は移動しておらず一定時間前にもそのカメラに映っている場合を想定する。このような場合、移動していない人物が何かの機会をうかがい潜んでいる可能性が考えられる。
前記警戒対象は、空間的/時間的特徴の一例である。潜伏もイベントの一例である。
上記のように抽出される空間的、時間的な異常が映像解析部52の結果として利用され、図3のように行動情報フィルタ部4の行動予測部43の結果とあわせて情報取得者に提供される映像が映像選定部53で選定される。
映像の異常としてとらえられる事象は上記の状況にかかわらず、情報取得者が得たいと設定した情報や、普段と異なる状況であれば上記に限定されない。更に、情報取得者が認識した警戒対象を追跡したい場合、カメラシステムは、映像から特徴を抽出して警戒対象を認識し、その警戒対象の挙動を優先的に情報取得者に送信するということもできる。この映像から特徴を抽出する方法は、画像認識技術や人物識別技術など複数の技術を用いることができるが、特徴抽出技術の内容には特に限定されない。
以下、図2、図3、図4、図5に従い、実施形態1の情報処理について説明する。
本実施形態では、ある監視対象地域200に配置されたカメラ及び情報取得者が保持する携帯端末装置を含むカメラシステムについて述べる。携帯端末装置3はスマートフォンなどであってもよい。
情報取得者210にとって、監視対象地域200の回避したい事象や安全を阻害する予兆となると思われる対象を警戒対象300、301、302、303とする。
例えば本実施形態では監視対象地域200において、警戒対象300、301、302、303は事件や犯罪の現場等の明確な危険や、道路工事による通行止め区域が考えられる。警戒対象300、301、302、303はこれに限定するものではなく、例えば、暗がりなどで一定時間以上屯している人物や、長時間エンジン稼働状態で停車している車、或いは周囲をうろつき短時間に複数回同一カメラに表示される人物の存在などが考えられる。上記に挙げた例のように、明らかに危険と判断することはできないが、情報取得者の接近により犯罪に結びつく可能性がある危険の予兆であれば警戒対象としてよいものとする。
警戒対象300、301、302、303は情報取得者210が監視対象地域200を移動中に発生する場合もありうる。予め設定された情報ではなく、カメラシステムが、監視対象地域200のカメラ(231〜240)映像をリアルタイムに解析し、情報取得者210の行動情報に照らして適切な映像を送る。このことで情報取得者210が望まない警戒対象300、301、302、303を回避して目的地へ到達することができる。
以下、実施形態2の情報処理について説明する。
監視対象地域200内に、情報取得者210が積極的に接近したい興味の対象を興味対象260と、回避したい事象や安全を阻害する予兆となると思われる対象となる警戒対象310、311、312、313と、が共存する場合が考えられる(図6)。このような場合の実施形態として、例えば、テーマパークでの人気キャラクターの居場所等を興味対象とし、その居場所に至るまでの経路上の混雑している場所を警戒対象として設定する。このような場合、極力混雑状態である警戒対象は避け、興味対象の居場所に早く到着したいという要求が考えられる。
本実施形態では、ユーザは、テーマパーク内の人気キャラクターを予め映像フィルタ部5のデータベースに興味対象として登録しておくことができる。この場合、ユーザは、情報取得者の行動情報として現在地として、また、データベースに登録されたキャラクターの中から興味のあるキャラクターの居場所を目的地として設定することができる。
情報取得者210は携帯端末装置3により現在地と目的地として人気キャラクター260の名称とを行動情報として入力する。行動情報取得部41は、この行動情報を得て設定する。
現在時刻が未入力の場合でも、監視対象地域200がテーマパークで目的地が人気キャラクターの居場所であるから、行動予測部43は、行動情報解析部42の解析結果を基に情報取得者210が人気キャラクター260に早く会いたいと考えていると予測する。
そして、カメラ候補選定部44は、最短経路のカメラを映像フィルタ部5の解析対象となるカメラとして選定する。
人気キャラクター260の居場所まで早く移動したいと予測されているため、映像フィルタ部5は、混雑していない経路の映像を優先的に選択するものとする。
そして、映像解析部52によって上記各カメラの現映像が比較解析されることで、混雑している場所310、311、312、313が警戒対象として抽出される。この場合、カメラ232、236が混雑している場所311と310とを各々撮影していることになる。そのため、携帯端末装置3に優先的に送信されるカメラは、カメラ231、233、234、237、238が選定される。
この選定された複数のカメラの撮影範囲を通って人気キャラクター260の居場所へ遠回りせずに移動する経路は、例えば図7の点線矢印で示した経路403、404、405が考えられる。各経路を撮影するカメラの組み合わせは、カメラ231、237、238の組み合わせ、カメラ231、234、237、238の組み合わせ、カメラ233、234、232、237、238の組み合わせが考えられる。
複数のカメラ映像が選択された場合は、携帯端末装置3の映像表示部33を分割して表示することもできるし、情報取得者210の現在地に近い順番、或いは目的地である人気キャラクター260の居場所に近い順番に表示することもできる。
しかし、このとき目的地である人気キャラクター260も407のように移動しており、先の情報に従って行動を継続しては、情報取得者210は人気キャラクター260に会うことができない可能性が高い。そのため、人気キャラクター260の移動が発生した場合、本実施形態のカメラシステムでは、情報取得者210の現在地情報を基に解析候補カメラの選定を逐次行い、再解析をすることができる。再解析を行うとき情報取得者210が人気キャラクター260の基に移動する経路は図8の点線矢印408のような経路が考えられる。先の解析によって混雑している場所310、311、312、313は把握されているため、カメラ候補選定部44は、予め混雑している場所を避ける経路を撮影するカメラ231、233、234、235、237、240を選定する。混雑している場所が変わっている場合や、他の異常が発生している場合は、その解析結果を勘案して候補カメラが選定されるようにしてもよい。
その結果、情報取得者210は、現時点の人気キャラクター260の居場所と進行方向とを携帯端末装置3に表示される映像から把握し、リアルタイムに対応を考えることができる。この場合、監視対象地域200内をカメラ237の方向へ進行していたが、カメラ231の方向へ経路変更した方が人気キャラクター260の出会う確率が高いと考えられる。そのため、情報取得者210はカメラ231の方角へ向けて方向を転換すると判断することができる。
以下、実施形態3の情報処理について説明する。
情報取得者が複数存在する場合を示す。このような状況のより具体的な例としては例えば、警官や町内会等の治安維持活動における見回り等が挙げられる(図9)。
情報取得者として警官220、221、222、223が監視対象地域200の治安維持活動をすると設定する。警官220、221、222、223は単独行動する場合と連携行動をする場合とがあるため、携帯端末装置は予め設定された個別識別ID及びグループ識別IDを有する。本実施形態では警戒対象の例として深夜に屯する複数の少年少女とする。
警官220、221、222、223は監視対象地域200をパトロールしており、各警官の現在値と進行方向とが各々の行動情報フィルタ部4の情報として使用される。例えば、パトロール範囲として各々の持ち場があり、自分を中心とした同心円を中心に見回りをすると設定する。このようなパトロールの場合、其々の持ち場はあるが、互いに連携して行動することが想定される。そのため、各警官同士の情報共有は密に行う方が好ましい。この場合、各個人へ独立に映像を提供する場合と、全員に同じ映像を提供する場合とでパトロールの効果を高めることがありうる。
行動情報フィルタ部4は、各警官と各カメラの現在地情報とから距離を割り出し、各々の距離を比較することで選定することができる。
この後、映像フィルタ部5は、各警官には選定されたカメラ候補の中で空間的、或いは時間的な異変がないかを映像を基に解析する。その中で異変度が高い映像から各警官の携帯端末装置3に映像が送信される。
本実施形態では、警官222への提示候補として選定されたカメラ232の映像が映像解析部52によって他のカメラとの空間的差異である警戒対象320、321、322、323の屯を検出する。その後、映像選定部53によって選定されたカメラ232の映像が、映像送信部23によって、警官222の携帯端末装置3に優先的に送信、表示される。そのため、警官222は警戒対象320、321、322、323の存在を素早く察知し対応にあたることができる。
しかし、カメラシステムを用いれば、グループ識別IDによってグルーピングされた複数の情報取得者は、カメラシステムの映像フィルタ部5による選定によって容易に同様の情報を共有することができる。例えば、警官220、221、222、223の各々への携帯端末装置3に送信表示された映像を更に映像フィルタ部5を用いて解析する。このことで、全警官に送信された映像の中で最も異変度が高い映像を全ての警官220、221、222、223に送信することができる。これによって警戒対象320、321、322、323を発見した警官222以外の警官220、221、223も警官222の持ち場への注意ができ、場合によっては連携して対応することができるという効果がある。
このように同一グループの情報取得者がいる場合、映像フィルタ部5とサーバ装置2とは、各情報取得者の携帯端末装置3に独立の映像を送信すると同時に各々の送信映像を比較し、特に異常度の高い映像をグループ内で共有するよう優先的に送信することもできる。
このようなパトロールの場合、上述のように警戒対象320、321、322、323を認識した後、映像解析による特徴抽出をして警戒対象毎を認識できるようにすることもできる。その場合、図10のように警戒対象320、321、322、323が逃走をはかった場合でもカメラが追跡し警戒対象の特定が可能となる効果がある。警戒対象320、321、322、323が離散して逃走を図った場合、各カメラには監視対象が一人ずつ映ることになる。その場合は空間的な差が異変とは検知されないが、同一カメラの時系列的変化を抽出することで監視対象の逃走映像が各警官に送信され携帯端末装置に表示される。これにより監視対象の追跡或いは、逃走方向をリアルタイムで確認しながら応援要請を行うことができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
例えば、上述した実施形態では、同一のサーバ装置内に行動情報フィルタ部4や映像フィルタ部5等の複数の機能があるものとして説明を行った。しかしながら、複数のサーバ装置で構成されるシステムにおいて、行動情報フィルタ部4や映像フィルタ部5が実現されるようにしてもよい。また、行動情報フィルタ部4や映像フィルタ部5は、別個独立した他の装置においてそれぞれ実装されていてもよい。
Claims (9)
- 監視対象地域内の映像を撮影する複数の撮影装置により撮影された映像を携帯端末装置に送信するサーバ装置であって、
前記携帯端末装置から現在地と目的地とを取得する取得手段と、
前記取得手段により取得された前記現在地と前記目的地と、前記複数の撮影装置により撮影された映像から検知されたイベントと、地図情報とに基づいて、前記現在地から前記目的地への経路に係る映像を前記複数の撮影装置により撮影された映像から選定する選定手段と、
前記選定手段により選定された映像を前記携帯端末装置に送信する送信手段と、
を有するサーバ装置。 - 前記取得手段は、前記携帯端末装置から前記現在地と移動する目的物体の位置である前記目的地とを取得し、
前記選定手段は、更に、前記目的物体の移動に併せて、前記目的物体の移動方向を予測し、予測結果に基づいて、前記移動方向に係る映像を前記複数の撮影装置により撮影された映像から選定し、
前記送信手段は、前記選定手段により選定された前記移動方向に係る映像を前記携帯端末装置に送信する請求項1記載のサーバ装置。 - 前記選定手段は、前記現在地と前記目的地と、前記複数の撮影装置により撮影された映像から検知された混雑イベントと、前記地図情報とに基づいて、混雑している場所を避ける前記現在地から前記目的地への経路に係る映像を前記複数の撮影装置により撮影された映像から選定する請求項1又は2記載のサーバ装置。
- 監視対象地域内の映像を撮影する複数の撮影装置により撮影された映像を携帯端末装置に送信するサーバ装置であって、
前記携帯端末装置から現在地を取得する取得手段と、
前記取得手段により取得された前記現在地と、前記複数の撮像装置により撮影された映像から検知されたイベントと、地図情報とに基づいて、前記現在地から前記イベントへの経路に係る映像を前記複数の撮影装置により撮影された映像から選定する選定手段と、
前記選定手段により選定された映像を前記携帯端末装置に送信する送信手段と、
を有するサーバ装置。 - 監視対象地域内の映像を撮影する複数の撮影装置により撮影された映像を携帯端末装置に送信するサーバ装置が実行する情報処理方法であって、
前記携帯端末装置から現在地と目的地とを取得する取得ステップと、
前記取得ステップで取得された前記現在地と前記目的地と、前記複数の撮影装置により撮影された映像から検知されたイベントと、地図情報とに基づいて、前記現在地から前記目的地への経路に係る映像を前記複数の撮影装置により撮影された映像から選定する第1の選定ステップと、
前記第1の選定ステップで選定された映像を前記携帯端末装置に送信する第1の送信ステップと、
を含む情報処理方法。 - 前記取得ステップでは、前記携帯端末装置から前記現在地と移動する目的物体の位置である前記目的地とを取得し、
前記目的物体の移動に併せて、前記目的物体の移動方向を予測し、予測結果に基づいて、前記移動方向に係る映像を前記複数の撮影装置により撮影された映像から選定する第2の選定ステップと、
前記第2の選定ステップで選定された前記移動方向に係る映像を前記携帯端末装置に送信する第2の送信ステップと、
を更に含む請求項5記載の情報処理方法。 - 前記第1の選定ステップでは、前記現在地と前記目的地と、前記複数の撮影装置により撮影された映像から検知された混雑イベントと、前記地図情報とに基づいて、混雑している場所を避ける前記現在地から前記目的地への経路に係る映像を前記複数の撮影装置により撮影された映像から選定する請求項5又は6記載の情報処理方法。
- 監視対象地域内の映像を撮影する複数の撮影装置により撮影された映像を携帯端末装置に送信するサーバ装置が実行する情報処理方法であって、
前記携帯端末装置から現在地を取得する取得ステップと、
前記取得ステップで取得された前記現在地と、前記複数の撮像装置により撮影された映像から検知されたイベントと、地図情報とに基づいて、前記現在地から前記イベントへの経路に係る映像を前記複数の撮影装置により撮影された映像から選定する選定ステップと、
前記選定ステップで選定された映像を前記携帯端末装置に送信する送信ステップと、
を含む情報処理方法。 - コンピュータを、請求項1乃至4何れか1項記載のサーバ装置の各手段として、機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013221313A JP6270410B2 (ja) | 2013-10-24 | 2013-10-24 | サーバ装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013221313A JP6270410B2 (ja) | 2013-10-24 | 2013-10-24 | サーバ装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015082820A JP2015082820A (ja) | 2015-04-27 |
JP2015082820A5 JP2015082820A5 (ja) | 2016-11-24 |
JP6270410B2 true JP6270410B2 (ja) | 2018-01-31 |
Family
ID=53013200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013221313A Active JP6270410B2 (ja) | 2013-10-24 | 2013-10-24 | サーバ装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6270410B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6616119B2 (ja) * | 2015-08-04 | 2019-12-04 | 株式会社日立国際電気 | 監視システム |
JP6930426B2 (ja) * | 2015-12-28 | 2021-09-01 | 日本電気株式会社 | 映像送信装置、映像送信方法、及びプログラム |
JP6740074B2 (ja) * | 2016-09-30 | 2020-08-12 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
SG10201807678WA (en) | 2018-09-06 | 2020-04-29 | Nec Asia Pacific Pte Ltd | A method for identifying potential associates of at least one target person, and an identification device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002008185A (ja) * | 2000-06-23 | 2002-01-11 | Nec Corp | 交通状況提供サービスシステムおよび方法 |
US20020168084A1 (en) * | 2001-05-14 | 2002-11-14 | Koninklijke Philips Electronics N.V. | Method and apparatus for assisting visitors in navigating retail and exhibition-like events using image-based crowd analysis |
JP2003046969A (ja) * | 2001-07-30 | 2003-02-14 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2003151070A (ja) * | 2001-11-13 | 2003-05-23 | Sony Corp | 情報処理システム、情報処理装置および方法、記録媒体、並びにプログラム |
JP3739736B2 (ja) * | 2002-08-26 | 2006-01-25 | 東芝プラントシステム株式会社 | 見学情報提供システム |
JP2007066106A (ja) * | 2005-08-31 | 2007-03-15 | Fujitsu Ltd | 経路案内装置 |
JP5052003B2 (ja) * | 2005-12-20 | 2012-10-17 | パナソニック株式会社 | 情報配信システム |
JP2009145221A (ja) * | 2007-12-14 | 2009-07-02 | Pioneer Electronic Corp | ナビゲーションシステム、携帯用端末装置、サーバ装置、携帯用端末装置用プログラム、サーバ装置用プログラム及び誘導方法 |
-
2013
- 2013-10-24 JP JP2013221313A patent/JP6270410B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015082820A (ja) | 2015-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11157778B2 (en) | Image analysis system, image analysis method, and storage medium | |
US10977917B2 (en) | Surveillance camera system and surveillance method | |
US11823492B2 (en) | Technique for providing security | |
US11394933B2 (en) | System and method for gate monitoring during departure or arrival of an autonomous vehicle | |
JP7184148B2 (ja) | 監視システム、管理装置および監視方法 | |
US7535353B2 (en) | Surveillance system and surveillance method | |
US9077845B2 (en) | Video processing | |
CN110659555A (zh) | 遗留物检测系统 | |
GB2503335A (en) | Post event alarm analysis in CCTV and security systems | |
JP6270410B2 (ja) | サーバ装置、情報処理方法及びプログラム | |
JP6110183B2 (ja) | 防犯システム | |
JP2020187781A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2018179202A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
RU2268497C2 (ru) | Система и способ автоматизированного видеонаблюдения и распознавания объектов и ситуаций | |
JP2007195130A (ja) | 映像監視システム | |
JP6977328B2 (ja) | 顔認証装置、人物追跡システム、人物追跡方法、および、人物追跡プログラム | |
KR20160074208A (ko) | 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법 | |
JP2005086626A (ja) | 広域監視装置 | |
KR102015959B1 (ko) | 사물 인터넷 카메라를 이용하는 딥러닝 기반의 지능형 방범 시스템 및 그의 처리 방법 | |
JP2015056697A (ja) | 監視システムおよびその制御方法 | |
JP2015088816A (ja) | 画像監視システム | |
US11610469B2 (en) | Abnormal behavior notification device, abnormal behavior notification system, abnormal behavior notification method, and recording medium | |
CN113823072A (zh) | 人物追踪支援装置及人物追踪支援系统 | |
JP2017017488A (ja) | 監視システム、撮影制御方法及びプログラム | |
EP3893524A1 (en) | Hierarchical architecture of a security system for restricted areas of a site |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170912 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171226 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6270410 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |