JP2019092052A - 通信装置、通信システムおよび移動体追跡方法 - Google Patents

通信装置、通信システムおよび移動体追跡方法 Download PDF

Info

Publication number
JP2019092052A
JP2019092052A JP2017219681A JP2017219681A JP2019092052A JP 2019092052 A JP2019092052 A JP 2019092052A JP 2017219681 A JP2017219681 A JP 2017219681A JP 2017219681 A JP2017219681 A JP 2017219681A JP 2019092052 A JP2019092052 A JP 2019092052A
Authority
JP
Japan
Prior art keywords
information
trail
passage
search
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017219681A
Other languages
English (en)
Other versions
JP6969987B2 (ja
Inventor
上杉 充
Mitsuru Uesugi
充 上杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2017219681A priority Critical patent/JP6969987B2/ja
Priority to EP18879428.3A priority patent/EP3713225A4/en
Priority to PCT/JP2018/029394 priority patent/WO2019097775A1/ja
Priority to US16/764,128 priority patent/US11270444B2/en
Publication of JP2019092052A publication Critical patent/JP2019092052A/ja
Application granted granted Critical
Publication of JP6969987B2 publication Critical patent/JP6969987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2183Cache memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Selective Calling Equipment (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】移動体を効率よく追跡できるようにする。【解決手段】サーバ1が、情報指向ネットワーク内に存在するカメラ2から追跡対象となる移動体の通過証跡情報を収集して、移動体を追跡する。特に、サーバ1が、カメラ2で取得した通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する要求メッセージを、情報指向ネットワークに送信し、通過証跡情報を含む応答メッセージを、情報指向ネットワークから受信して、指定した探索エリアおよび探索期間に該当する通過証跡情報を収集して、追跡情報を生成する。【選択図】図1

Description

本発明は、情報指向ネットワークに接続された通信装置と、情報指向ネットワーク内に存在する検出装置とを備える通信システム、および通信装置が、情報指向ネットワーク内に存在する検出装置から追跡対象となる移動体の通過証跡情報を収集して、移動体を追跡する移動体追跡方法に関するものである。
現在、IPネットワーク(インターネット)が広く普及している。このIPネットワークでは、デバイスに蓄積されたコンテンツをユーザ端末で取得する場合、デバイスのIPアドレスを入手して、そのIPアドレスを用いてデバイスにアクセスすることで、必要なコンテンツを取得することができる。
一方、このようなIPネットワークに代わる技術として、情報指向ネットワーク(ICN:Information Centric Network)の技術が知られている(特許文献1参照)。この情報指向ネットワークは、NDN(Named Data Network)とも呼ばれており、また、ルーティング(経路制御)の方法に注目して、「属性ルーティング」、「名前ルーティング」、「情報ルーティング」などとも呼ばれており、デバイスに蓄積されたコンテンツを、コンテンツの属性や名称などを用いて収集することができるように構築されている。
特開2015−212935号公報
さて、防犯などの用途で街中に多数のカメラが設置されており、このカメラで撮影された映像を用いて事件の犯人を追跡するようにすると、犯行現場から逃走する犯人を確実に追跡することができる。
しかしながら、現在のIPネットワークでは、カメラを1つずつ指定して映像を収集する必要があるため、犯人が映る映像を探し出すために膨大な手間を要するという問題があった。一方、前記従来の技術のように、情報指向ネットワークを利用すると、コンテンツの属性や名称として、例えば「防犯カメラの映像」を指定することで、街中の防犯カメラの映像を比較的容易に収集することができるが、収集した映像には犯人が映っていない映像も多数含まれるため、犯人を効率よく追跡することができないという問題があった。
そこで、本発明は、犯人などの移動体を効率よく追跡することができる通信装置、通信システムおよび移動体追跡方法を提供することを主な目的とする。
本発明の通信装置は、情報指向ネットワークに接続された通信装置であって、前記情報指向ネットワークに要求メッセージを送信し、前記情報指向ネットワークから応答メッセージを受信する通信部と、前記情報指向ネットワーク内に存在する検出装置で取得した追跡対象となる移動体の通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する前記要求メッセージを、前記通信部から前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記通信部で前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する制御部と、を備える構成とする。
また、本発明の通信システムは、情報指向ネットワークに接続された通信装置と、前記情報指向ネットワーク内に存在する検出装置とを備える通信システムであって、前記通信装置は、前記情報指向ネットワークに要求メッセージを送信し、前記情報指向ネットワークから応答メッセージを受信する通信部と、前記情報指向ネットワーク内に存在する検出装置で取得した追跡対象となる移動体の通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する前記要求メッセージを、前記通信部から前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記通信部で前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する制御部と、を備える構成とする。
また、本発明の移動体追跡方法は、通信装置が、情報指向ネットワーク内に存在する検出装置から追跡対象となる移動体の通過証跡情報を収集して、移動体を追跡する移動体追跡方法であって、前記検出装置で取得した前記通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する前記要求メッセージを、前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する構成とする。
本発明によれば、情報指向ネットワークでは、位置を指定することで、データの入手範囲を調整することができることから、探索エリアを限定することができ、さらに、探索期間を限定するため、移動体の通過証跡情報を効率よく収集することができる。これにより、移動体を効率よく追跡することができる。
第1実施形態に係る通信システムの全体構成図 第1実施形態に係るサーバ1で行われる移動体追跡の概要を示す説明図 第1実施形態に係るサーバ1およびカメラ2で行われる処理の概要を示す説明図 第1実施形態に係るサーバ1、カメラ2、およびルータ3の概略構成を示すブロック図 第1実施形態に係る通信システムの動作手順を示すシーケンス図 第1実施形態に係る通信システムの動作手順を示すシーケンス図 第1実施形態に係る通信システムの動作手順を示すシーケンス図 第1実施形態に係る探索エリアを示す説明図 第1実施形態に係る探索エリアおよび探索期間の遷移状況を示す説明図 第1実施形態に係るサーバ1で行われる通過証跡探索処理の手順を示すフロー図 第1実施形態の変形例に係る探索エリアおよび探索期間の遷移状況を示す説明図 第1実施形態の変形例に係るサーバ1で行われる通過証跡探索処理の手順を示すフロー図 第1実施形態の別の変形例に係る探索エリアおよび探索期間の遷移状況を示す説明図 第1実施形態の別の変形例に係るサーバ1で行われる通過証跡探索処理の手順を示すフロー図 第2実施形態に係るサーバ1、カメラ2、およびルータ3の概略構成を示すブロック図 第3実施形態に係るランデブーノードへの位置登録時のサブスクライブメッセージの一例を示す説明図 第3実施形態に係る通過証跡探索時のパブリッシュメッセージの一例を示す説明図
前記課題を解決するためになされた第1の発明は、情報指向ネットワークに接続された通信装置であって、前記情報指向ネットワークに要求メッセージを送信し、前記情報指向ネットワークから応答メッセージを受信する通信部と、前記情報指向ネットワーク内に存在する検出装置で取得した追跡対象となる移動体の通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する前記要求メッセージを、前記通信部から前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記通信部で前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する制御部と、を備える構成とする。
これによると、情報指向ネットワークでは、位置を指定することで、データの入手範囲を調整することができることから、探索エリアを限定することができ、さらに、探索期間を限定するため、移動体の通過証跡情報を効率よく収集することができる。これにより、移動体を効率よく追跡することができる。
また、第2の発明は、前記通信部は、追跡対象となる移動体の特徴情報を含む前記要求メッセージを前記情報指向ネットワークに送信し、前記検出装置において自装置で取得した検出情報と前記特徴情報とを照合することで得られる通過証跡の有無に関する照合結果情報を含む前記応答メッセージを受信する構成とする。
これによると、検出装置(例えばカメラ)において検出情報(例えば映像)と特徴情報との照合を行い、検出情報自体をネットワークに送信しないため、ネットワークの負荷を軽減することができる。
また、第3の発明は、前記通信部は、前記検出装置で取得した検出情報を含む前記応答メッセージを受信し、前記制御部は、前記応答メッセージに含まれる前記検出情報と、追跡対象となる移動体の特徴情報とを照合して、通過証跡の有無を判定する構成とする。
これによると、通信装置が、検出情報(例えば映像)と特徴情報との照合を行うため、検出装置の負荷を軽減することができる。
また、第4の発明は、前記制御部は、追跡開始位置および追跡開始時刻をそれぞれ基準位置および基準時刻として、その基準位置および基準時刻に基づいて前記探索エリアおよび前記探索期間を設定して通過証跡を探索し、通過証跡を発見すると、その発見位置および発見時刻をそれぞれ新たな基準位置および基準時刻として、その基準位置および基準時刻に基づいて新たな前記探索エリアおよび前記探索期間を設定して新たな通過証跡を探索し、この通過証跡の探索を、現時刻の通過証跡を発見するまで繰り返す構成とする。
これによると、時系列で並んだ通過証跡が順次発見され、通過証跡を効率よく収集することができる。
また、第5の発明は、前記制御部は、前記探索エリアを次第に拡大しながら前記通過証跡を探索し、前記探索エリアが所定の拡大限度に達しても前記通過証跡が見つからない場合には、前記探索期間を延長する構成とする。
これによると、探索エリアの拡大を優先して通過証跡を探索することができる。
また、第6の発明は、前記制御部は、前記探索期間を次第に延長しながら前記通過証跡を探索し、前記探索期間が所定の延長限度に達しても前記通過証跡が見つからない場合には、前記探索エリアを拡大する構成とする。
これによると、探索期間の延長を優先して通過証跡を探索することができる。
また、第7の発明は、前記制御部は、前記探索エリアを次第に拡大すると同時に前記探索期間を次第に延長しながら前記通過証跡を探索する構成とする。
これによると、探索エリアの拡大と探索期間の延長とを同時に行うことで、効率よく通過証跡を探索することができる。
また、第8の発明は、前記制御部は、ユーザの指定に応じて、追跡の位置的な範囲および時間的な範囲を設定して、その追跡の位置的な範囲および時間的な範囲で、前記通過証跡を収集する構成とする。
これによると、追跡の位置的な範囲および時間的な範囲を限定することができるため、より一層効率よく移動体を追跡することができる。
また、第9の発明は、前記制御部は、1回の探索で複数の前記通過証跡が見つかった場合、所定の選択方法に基づいて、複数の前記通過証跡の中から1つを選択する構成とする。
これによると、より一層効率よく移動体を追跡することができる。
また、第10の発明は、前記制御部は、移動体の将来の予測位置を予測して、その将来の予測位置と適合しない前記通過証跡を除外する構成とする。
これによると、通過証跡の誤判定を避けることができる。なお、移動体の将来の予測位置は、例えば過去の移動状況から予測することができる。
また、第11の発明は、前記制御部は、移動体の将来の予測位置を予測して、その将来の予測位置から前記通過証跡の収集を開始する構成とする。
これによると、途中経路の追跡を省略することができるため、より一層効率よく移動体を追跡することができる。
また、第12の発明は、情報指向ネットワークに接続された通信装置と、前記情報指向ネットワーク内に存在する検出装置とを備える通信システムであって、前記通信装置は、前記情報指向ネットワークに要求メッセージを送信し、前記情報指向ネットワークから応答メッセージを受信する通信部と、前記情報指向ネットワーク内に存在する検出装置で取得した追跡対象となる移動体の通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する前記要求メッセージを、前記通信部から前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記通信部で前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する制御部と、を備える構成とする。
これによると、第1の発明と同様に、移動体を効率よく追跡することができる。
また、第13の発明は、通信装置が、情報指向ネットワーク内に存在する検出装置から追跡対象となる移動体の通過証跡情報を収集して、移動体を追跡する移動体追跡方法であって、前記検出装置で取得した前記通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する要求メッセージを、前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する構成とする。
これによると、第1の発明と同様に、移動体を効率よく追跡することができる。
以下、本発明の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
図1は、第1実施形態に係る通信システムの全体構成図である。
この通信システムは、情報指向ネットワーク(ICN:Information Centric Network)を用いて移動体を追跡するものであり、サーバ1(通信装置)と、カメラ2(検出装置)と、ルータ3と、を備えており、サーバ1、カメラ2およびルータ3は、情報指向ネットワークを介して相互に接続されている。
サーバ1は、ユーザ(捜索者)が移動体の追跡に係る操作を行い、追跡対象となる移動体が通過したことを表す通過証跡に関する情報(通過証跡情報)をカメラ2から収集して移動体を追跡する処理を行い、追跡結果をユーザに提示する。
カメラ2は、街中の道路などに設置され、周辺を撮影して、撮影した映像を一定間隔(例えば30秒ごと)にファイル化して蓄積する。本実施形態では、追跡対象となる移動体(犯人)が映像に映っていることを、移動体の通過証跡とし、カメラ2において、追跡対象となる移動体(犯人)が映像に映っているか否かの照合を行うことで、移動体の通過証跡があるか否かを判定して、その判定結果を通過証跡情報としてサーバ1に提供する。
ルータ3は、サーバ1およびカメラ2から送信されるメッセージを中継する。本実施形態では、通過証跡情報の提供を要求する要求メッセージ(インタレスト)がサーバ1から送信され、その要求メッセージに応じて、カメラから応答メッセージがサーバ1に送信される。
また、本実施形態では、情報指向ネットワークが木構造で構築される。図1に示す例では、位置/0のルータ3の配下に、位置/0/0、位置/0/1の各ルータ3が接続されている。また、位置/0/0のルータ3の配下に、位置/0/0/0、位置/0/0/1の各ルータ3が接続されている。また、位置/0/1のルータ3の配下に、位置/0/1/0、位置/0/1/1、位置/0/1/2の各ルータが接続されている。また、位置/0/0/0、位置/0/0/1、位置/0/1/0、位置/0/1/1、位置/0/1/2の各ルータ3の配下にそれぞれ、複数のカメラ2が接続されている。
なお、情報指向ネットワークは、物理的に木構造で構築されている必要はなく、ノードとなるデバイス(カメラ2およびルータ3)の位置を規定する情報(デバイス番号)で仮想的な木構造が構築されていればよい。
このような情報指向ネットワークでは、ノードとなるデバイス(カメラ2およびルータ3)の位置を指定することで、要求メッセージの送付範囲、すなわち、通過証跡情報の入手範囲を調整することができる。
具体的には、要求メッセージでカメラ2を個別に指定することで、指定したカメラ2から通過証跡情報を入手することができ、要求メッセージでカメラ2の上位のルータ3を指定することで、指定したルータ3の配下の全てのカメラ2から通過証跡情報を入手することができる。
次に、第1実施形態に係るサーバ1で行われる移動体追跡の概要について説明する。図2は、サーバ1で行われる移動体追跡の概要を示す説明図である。
サーバ1では、移動体を追跡する処理を行い、移動体の移動経路を取得する。例えば、事件発生地点(犯行現場)から逃走する犯人を追跡して、犯人の逃走経路を取得する。この移動体の追跡は、追跡対象となる移動体が過去に実際に存在した地点を追跡開始位置とし、また、移動体が追跡開始位置に存在した時刻を追跡開始時刻として、追跡を開始する。犯人の追跡では、事件発生地点が追跡開始位置となり、事件発生時刻が追跡開始時刻となる。
また、本実施形態では、追跡対象となる移動体(犯人)がカメラ2の映像に映っていることを、カメラ2の設置地点を移動体(犯人)が通過したことを表す通過証跡として、この移動体の通過証跡を順次探索することで、移動体の移動経路(犯人の逃走経路)を取得する。そして、現時刻の通過証跡を発見すると、その通過証跡の位置を移動体(犯人)の現在位置として、追跡を終了する。
このようにして追跡対象となる移動体(犯人)の通過証跡を収集すると、その通過証跡を時系列で並べた追跡情報を生成してユーザに提示する。本実施形態では、サーバ1で追跡情報を画面表示する。犯人の追跡では、犯人の逃走経路および現在位置を、警察などの捜査機関に通知することで、犯人をピンポイントで捕獲(逮捕)することができる。
次に、第1実施形態に係るサーバ1およびカメラ2で行われる処理の概要について説明する。図3は、サーバ1およびカメラ2で行われる処理の概要を示す説明図である。なお、ここでは、ルータ3を省略して示している。
サーバ1では、追跡対象となる移動体の特徴情報と、追跡開始位置および追跡開始時刻とをユーザが入力する。例えば、犯行現場から逃走する犯人を追跡する場合には、移動体の特徴情報として、犯人の似顔絵やモンタージュ写真を入力し、事件発生位置を追跡開始位置として入力し、事件発生時刻を追跡開始時刻として入力する。
サーバ1では、追跡開始位置および追跡開始時刻に基づいて、通過証跡の探索を開始する。このとき、通過証跡情報の提供を要求する要求メッセージをサーバ1からカメラ2に送信する。この要求メッセージには移動体の特徴情報(似顔絵など)が含まれる。
カメラ2では、サーバ1からの要求メッセージを受信すると、その要求メッセージに含まれる特徴情報(似顔絵など)と、自装置に蓄積された映像とを照合して、犯人の通過証跡があるか否か、すなわち、映像に犯人が映っているか否かを判定する。このとき、映像に映る移動体(人物)が追跡対象(犯人)である可能性の高さを表す照合確度(照合の確からしさ、認識率)を取得して、その照合確度が所定のしきい値(例えば90%)に達している場合に、通過証跡であると判定する。
次に、カメラ2では、照合結果情報を含む応答メッセージをサーバ1に送信する。本実施形態では、照合結果情報として、通過証跡を発見したか否かに関する情報および照合確度が応答メッセージに付加される。
サーバ1では、カメラ2からの応答メッセージを受信すると、その応答メッセージに含まれる照合結果情報を取得して、その照合結果情報に基づいて、発見した通過証跡を時系列で並べた追跡情報を生成して、その追跡情報をユーザに提示する。
また、本実施形態では、追跡開始位置および追跡開始時刻をそれぞれ基準位置および基準時刻として、その基準位置および基準時刻に基づいて、最初の通過証跡を探索する範囲(探索エリアおよび探索期間)を設定して通過証跡を探索する。そして、通過証跡を発見すると、その通過証跡の発見位置および発見時刻をそれぞれ新たな基準位置および基準時刻として、次の通過証跡を探索する範囲(探索エリアおよび探索期間)を設定して通過証跡を探索する。以降、通過証跡を発見する度に、探索する範囲(探索エリアおよび探索期間)を新たに設定して通過証跡を探索する処理を繰り返す。
サーバ1から送信される要求メッセージには、探索エリアの位置情報が含まれており、この位置情報に基づいて、情報指向ネットワーク内のルータ3は、探索エリア内に位置するカメラ2に要求メッセージを転送する。これにより、探索エリア内に位置するカメラ2から通過証跡情報を収集することができる。
また、サーバ1から送信される要求メッセージには、探索期間の時間情報が含まれており、この探索期間の時間情報に基づいて、カメラ2では、自装置に蓄積された映像の中から、探索期間に該当する映像を検索して、見つかった映像を特徴情報と照合することで、探索期間内の通過証跡情報を取得することができる。
次に、第1実施形態に係るサーバ1、カメラ2、およびルータ3の概略構成について説明する。図4は、サーバ1、カメラ2、およびルータ3の概略構成を示すブロック図である。
サーバ1は、通信部11と、制御部12と、記憶部13と、入力部14と、表示部15と、を備えている。
通信部11は、ネットワークに要求メッセージを送信し、ネットワークから送信される応答メッセージを受信する。
記憶部13は、制御部12を構成するプロセッサで実行されるプログラムを記憶する。
入力部14は、追跡開始位置および追跡開始時刻に関する情報および追跡対象の特徴情報を指定する入力操作をユーザが行う。例えば、追跡開始位置および追跡開始時刻として事件発生地点および事件発生時刻をユーザが指定する。また、探索対象の特徴情報として、犯人の似顔絵の画像情報をユーザが指定する。
表示部15は、制御部12で生成した追跡情報を画面表示する。
制御部12は、メッセージ制御部16と、通過証跡探索部17と、追跡情報生成部18と、を備えている。この制御部12は、プロセッサで構成され、制御部12の各部は、記憶部13に記憶されたプログラムをプロセッサで実行することで実現される。
メッセージ制御部16は、要求メッセージを生成して、その要求メッセージを通信部11からネットワークに送信する。
通過証跡探索部17は、追跡対象となる移動体(犯人)の通過証跡を探索する。本実施形態では、まず、探索条件として探索エリアおよび探索期間を設定し、その探索エリアおよび探索期間を指定して移動体の通過証跡情報の提供を要求する要求メッセージをネットワークに送信して、探索エリア内に位置するカメラ2から、設定した探索エリアおよび探索時間に該当する通過証跡情報を収集する。特に本実施形態では、追跡対象となる移動体の特徴情報(似顔絵など)を要求メッセージに付加して送信して、カメラ2に、特徴情報を用いて、探索期間内に撮影された映像に犯人が映っているか否かを判定する照合処理を行わせて、カメラ2から照合結果情報を含む応答メッセージを受信することで、通過証跡情報としての照合結果情報を収集する。
このとき、入力部14で取得した追跡開始位置および追跡開始時刻に基づいて、最初の探索条件(探索エリアおよび探索期間)を設定して、その探索条件に該当する通過証跡情報をカメラ2から収集し、ここで、通過証跡を発見できない場合には、新たな探索条件(探索エリアおよび探索期間)を設定して、その探索条件に該当する通過証跡情報をカメラ2から収集し、この探索条件の設定と通過証跡情報の収集を、通過証跡を発見できるまで繰り返す。
また、本実施形態では、入力部14でユーザが行う指定操作に応じて、追跡の位置的な範囲および時間的な範囲を設定して、その追跡の位置的な範囲および時間的な範囲で、通過証跡を収集する。
追跡情報生成部18は、通過証跡探索部17で取得した通過証跡の発見位置および発見時刻に基づいて、時系列で並んだ複数の通過証跡を結んだ移動経路(逃走経路)に関する追跡情報を生成する。この追跡情報生成部18で生成した追跡情報は表示部15に画面表示される。
ルータ3は、通信部31と、制御部32と、記憶部33と、を備えている。
通信部31は、ネットワークとの間で要求メッセージおよび応答メッセージの送受信を行う。
記憶部33は、制御部32を構成するプロセッサで実行されるプログラムを記憶する。
制御部32は、転送制御部34を備えている。この制御部32は、プロセッサで構成され、制御部32の転送制御部34は、記憶部33に記憶されたプログラムをプロセッサで実行することで実現される。
転送制御部34は、通信部31で受信した要求メッセージおよび応答メッセージの転送を制御し、通信部31で要求メッセージおよび応答メッセージを受信すると、指定された宛先に対応する転送先を選択して、要求メッセージおよび応答メッセージを通信部31から送信する。特に、通信部31で要求メッセージを受信した場合に、宛先が自ノード(自装置)である場合には、自ノードの配下のノードを転送先に選択して要求メッセージを送信する。
カメラ2は、撮影部21と、通信部22と、制御部23と、記憶部24と、を備えている。
撮影部21は、カメラ2の周辺を撮影して、映像を出力する。
通信部22は、ネットワークから送信される要求メッセージを受信し、ネットワークに応答メッセージを送信する。
記憶部24は、撮影部21から出力される映像を蓄積する。また、記憶部24は、制御部23を構成するプロセッサで実行されるプログラムを記憶する。
制御部23は、メッセージ制御部25と、検索部26と、照合部27と、を備えている。この制御部23は、プロセッサで構成され、制御部23の各部は、記憶部24に記憶されたプログラムをプロセッサで実行することで実現される。
メッセージ制御部25は、通信部22でネットワークから要求メッセージを受信すると、応答メッセージを生成して、その応答メッセージを通信部22からネットワークに送信する。
検索部26は、通信部22で受信した要求メッセージに含まれる探索期間の時間情報に基づいて、記憶部24に蓄積された映像の中から、探索期間に該当する映像を検索する。
照合部27は、通信部22で受信した要求メッセージに含まれる特徴情報(似顔絵など)と、検索部26で取得した映像とを照合して、犯人の通過証跡、すなわち、映像に犯人が映っているか否かを判定する。メッセージ制御部25は、照合部27で取得した照合結果情報、すなわち、通過証跡を発見した否かに関する情報および照合確度を含む応答メッセージをネットワークに送信する。
次に、第1実施形態に係る通信システムの動作手順について説明する。図5、図6、図7は、通信システムの動作手順を示すシーケンス図である。
情報指向ネットワークでは、ノードとなるデバイス(カメラ2およびルータ3)の位置を指定することで、要求メッセージの送信範囲、すなわち、通過証跡情報の入手範囲を調整することができる。
まず、図5に示すように、サーバ1は、要求メッセージで、探索エリア内に位置するカメラ2を個別に指定することで、指定したカメラ2から照合結果情報を収集することができる。図5に示す例では、要求メッセージで位置/0/0/1/0のカメラ2が指定されている。
この場合、まず、サーバ1から要求メッセージがネットワークに送信される。この要求メッセージは、位置/0のルータ3、その配下の位置/0/0のルータ3、さらにその配下の位置/0/0/1のルータ3を経由して、宛先に指定された位置/0/0/1/0のカメラ2に転送される。なお、位置/0/0/1のルータ3の配下の位置/0/0/1/1のカメラ2は、宛先に指定されていないため、要求メッセージは転送されない。
この要求メッセージには、探索エリアの位置情報と、探索期間の時間情報と、照合対象となるコンテンツの属性情報(カメラ映像)と、追跡対象となる移動体の特徴情報(照合データ:似顔絵)と、が含まれる。
位置/0/0/1/0のカメラ2では、自装置に蓄積された映像と特徴情報との照合が行われ、この位置/0/0/1/0のカメラ2から、照合結果情報を含む応答メッセージがネットワークに送信される。この応答メッセージは、上位の位置/0/0/1のルータ3、位置/0/0のルータ3、および位置/0のルータ3に順次転送され、さらにその位置/0のルータ3からサーバ1に転送される。
この応答メッセージには、情報提供元のカメラ2の位置情報と、時間情報(日付および時刻)と、照合結果情報、すなわち、通過証跡を発見した否かに関する情報および照合確度と、が含まれる。
また、図6に示すように、要求メッセージで、探索エリア内に位置するカメラ2の位置ではなく、カメラ2が直接接続するルータ3の位置を指定することで、指定したルータ3の配下の全てのカメラ2から照合結果情報を収集することができる。図6に示す例では、要求メッセージで位置/0/0/1のルータ3が指定されており、位置/0/0/1のルータ3の配下の全てのカメラ2(この場合は/0/0/1/0と/0/0/1/1の2つ)の照合結果情報を収集することができる。
この場合、まず、サーバ1から要求メッセージがネットワークに送信される。この要求メッセージは、位置/0のルータ3、その配下の位置/0/0のルータ3、さらにその配下の位置/0/0/1のルータ3に順次転送される。次に、位置/0/0/1のルータ3から要求メッセージが配下の位置/0/0/1/0,位置/0/0/1/1の各カメラ2に転送される。
位置/0/0/1/0,位置/0/0/1/1の各カメラ2では、自装置に蓄積された映像と特徴情報との照合が行われ、この位置/0/0/1/0,位置/0/0/1/1の各カメラ2から、照合結果情報を含む応答メッセージがネットワークに送信される。この応答メッセージは、上位の位置/0/0/1のルータ3、位置/0/0のルータ3、および位置/0のルータ3に順次転送され、さらにその位置/0のルータ3からサーバ1に転送される。
また、図7に示すように、要求メッセージで、探索エリア内に位置するカメラ2が直接接続するルータ3の更に上位のルータ3を指定することで、指定したルータ3の配下の全てのカメラ2から照合結果情報を収集することができる。図7に示す例では、要求メッセージで位置/0/0のルータ3が指定されており、位置/0/0のルータ3の配下の全てのカメラ2(この例では7つのカメラ2)の照合結果情報を収集することができる。
この場合、まず、サーバ1から要求メッセージがネットワークに送信される。この要求メッセージは、位置/0のルータ3を経由して位置/0/0のルータ3に転送される。次に、位置/0/0のルータ3から、配下の位置/0/0/0,位置/0/0/1の各ルータ3に要求メッセージが転送される。次に、位置/0/0/0のルータ3から、配下の位置/0/0/0/0〜位置/0/0/0/4の各カメラ2に要求メッセージが転送される。また、位置/0/0/1のルータ3から、配下の位置/0/0/1/0,位置/0/0/1/1の各カメラ2に要求メッセージが転送される。
位置/0/0/0/0〜位置/0/0/0/4の各カメラ2では、自装置に蓄積された映像と特徴情報との照合が行われ、この位置/0/0/0/0〜位置/0/0/0/4の各カメラ2から、照合結果情報を含む応答メッセージがネットワークに送信される。この応答メッセージは、上位の位置/0/0/0のルータ3、位置/0/0のルータ3、および位置/0のルータ3に順次転送され、さらにその位置/0のルータ3からサーバ1に転送される。
また、位置/0/0/1/0,位置/0/0/1/1の各カメラ2でも、自装置に蓄積された映像と特徴情報との照合が行われ、この位置/0/0/1/0,位置/0/0/1/1の各カメラ2から、照合結果情報を含む応答メッセージがネットワークに送信される。この応答メッセージは、上位の位置/0/0/1のルータ3、位置/0/0のルータ3、および位置/0のルータ3に順次転送され、さらにその位置/0のルータ3からサーバ1に転送される。
次に、第1実施形態に係るサーバ1で行われる通過証跡探索処理について説明する。図8は、探索エリアを示す説明図である。図9は、探索エリアおよび探索期間の遷移状況を示す説明図である。
サーバ1の通過証跡探索部17では、基準位置の周囲に探索エリアを設定して、その探索エリア内に位置するカメラ2の照合結果情報を収集して、探索エリア内の通過証跡を探索する。ここで、追跡開始時には、追跡開始位置(事件発生地点)を基準位置に設定して探索を行い、通過証跡を発見すると、その発見位置を新たな基準位置として次の探索エリアの探索を行う。この通過証跡の探索を繰り返すことで、移動経路(逃走経路)上に並んだ複数の通過証跡を取得することができる。
このとき、まず、図8(A−1)に示すように、基準位置の周囲に小さい探索エリアを設定して通過証跡を探索し、この探索エリアで通過証跡が見つからない場合には、図8(A−2)に示すように、探索エリアを拡大して通過証跡を探索する。このとき、探索済みのエリアを除外して探索を行う。このように本実施形態では、探索エリアを順次拡大しながら通過証跡を探索し、探索エリアが拡大限度に達しても通過証跡を発見できない場合には、探索失敗とする。
ここで、図8(A−1),(A−2)に示す例では、基準位置を中心にした円形状またはドーナツ形状に探索エリアを設定している。一方、図8(B−1),(B−2)に示す例では、基準位置を中心にした矩形状またはロ字形状に探索エリアを設定している。
なお、探索エリアは、移動体の種類(人物、車両、動物など)に応じて異なる大きさに設定するとよい。すなわち、移動体の種類に応じて移動体の移動速度が異なり、具体的には、犯人が徒歩で逃走している場合と、犯人が車両に乗って逃走している場合とでは、移動速度が異なり、移動速度が早い場合には、探索エリアを大きく設定するとよい。
また、探索エリアは、道路の構成やネットワークの構成に基づいて、形状や大きさを設定するようにしてもよい。
また、本実施形態では、基準時刻から所定時間の範囲を探索期間に設定して、その探索期間内の映像に関する照合結果情報を収集して、探索期間内の通過証跡を探索する。ここで、追跡開始時には、追跡開始時刻(事件発生時刻)を基準時刻に設定して探索を行い、通過証跡を発見すると、その発見時刻を新たな基準時刻として次の探索期間の探索を行う。この通過証跡の探索を繰り返すことで、複数の通過証跡を時系列で取得することができる。そして、現時刻の通過証跡を発見すると、その通過証跡の発見位置が犯人の現在位置となる。
このとき、まず、図9(A)に示すように、基準位置の周囲に探索エリアを設定すると共に基準時刻から所定時間の範囲を探索期間に設定して通過証跡を探索し、この探索条件で通過証跡が見つからない場合には、図9(B)に示すように、探索エリアを拡大して通過証跡を探索する。そして、図9(C)に示すように、探索エリアが拡大限度に達しても通過証跡を発見できない場合には、図9(D)に示すように、探索期間を延長すると共に探索エリアを元に戻して、通過証跡を探索する。そして、通過証跡が見つからない場合には、図9(E)に示すように、探索エリアを拡大して通過証跡を探索する。そして、図9(F)に示すように、探索エリアが拡大限度に達しても通過証跡を発見できない場合には、さらに探索期間を延長して通過証跡を探索する。そして、探索期間が延長限度に達しても通過証跡を発見できない場合には、探索失敗とする。
このように本実施形態では、探索エリアを次第に拡大しながら探索する処理と、探索期間を次第に拡大しながら探索する処理とを組み合わせるようにしており、特に、探索エリアの拡大を探索期間の拡大より優先しながら通過証跡を探索する。
なお、探索エリアは、同一の拡大幅で拡大してもよく、また、異なる拡大幅で拡大してもよい。また、探索期間は、同一の延長幅で延長してもよく、また、異なる延長幅で延長してもよい。
次に、第1実施形態に係るサーバ1で行われる通過証跡探索処理の手順について説明する。図10は、サーバ1で行われる通過証跡探索処理の手順を示すフロー図である。
サーバ1の通過証跡探索部17では、まず、今回の探索条件を設定する。すなわち、前回の通過証跡の発見位置を今回の基準位置に設定し、前回の通過証跡の発見時刻を今回の基準時刻に設定する。そして、今回の基準位置に対応する最小のエリアを今回の探索エリアに設定し、今回の基準時刻に対応する最短の期間を今回の探索期間に設定する(ST101)。なお、最初の探索では、追跡開始位置(事件発生位置)を今回の基準位置に設定し、追跡開始時刻(事件発生時刻)を今回の基準時刻に設定する。
次に、今回の探索条件、すなわち今回の探索エリアおよび探索期間に該当する全ての照合結果情報をカメラ2から収集する(ST102)。このとき、今回の探索エリアの位置情報と今回の探索期間の時間情報とを含む要求メッセージを通信部11から送信し、カメラ2からの応答メッセージを通信部11で受信すると、その応答メッセージに含まれる照合結果情報を取得する。
次に、収集した照合結果情報の中に通過証跡があるか否かを判定する(ST103)。このとき、複数の通過証跡がある場合には、所定の選択方法に基づいて、複数の通過証跡の中から1つを選択する。
ここで、通過証跡を発見できない場合には(ST103でNo)、次に、今回の探索エリアが拡大限度に達しているか否かを判定する(ST104)。
ここで、今回の探索エリアが拡大限度に達していない場合には(ST104でNo)、探索エリアを所定幅だけ拡大する(ST105)。そして、ST102に戻り、新たな探索条件に該当する照合結果情報を収集する。
一方、今回の探索エリアが拡大限度に達している場合には(ST104でYes)、探索エリアを最初の探索エリアに戻す、すなわち、前回の発見地点に対応する最小の探索エリアを新たな探索エリアに設定する(ST106)。
次に、今回の探索期間が延長限度に達しているか否かを判定する(ST107)。
ここで、今回の探索期間が延長限度に達していない場合には(ST107でNo)、探索期間を所定幅だけ延長する(ST108)。そして、ST102に戻り、新たな探索条件に該当する照合結果情報を収集する。
一方、今回の探索期間が延長限度に達している場合には(ST107でYes)、追跡を終了する(ST111)。この場合、通過証跡を発見できていないため、追跡失敗となる。
また、通過証跡を発見した場合には(ST103でYes)、通過証跡が発見されたカメラ2の位置を発見位置に設定し、通過証跡が発見された映像の時刻を発見時刻に設定する(ST109)。
次に、今回の探索期間が現時刻に達している否かを判定する(ST110)。
ここで、今回の探索期間が現時刻に達していない場合には(ST110でNo)、ST101に戻り、次の通過証跡の探索に進む。
一方、今回の探索期間が現時刻に達している場合には(ST110でYes)、追跡を終了し、通過証跡の発見位置を犯人の現在位置に設定する(ST111)。
ところで、サーバ1の通過証跡探索部17では、探索エリアおよび探索期間を設定して通過証跡を探索する処理を繰り返すが、1回の探索で、複数の通過証跡が見つかる場合がある。この場合、複数の通過証跡の中から1つを選択する。
通過証跡を選択する際には、複数の通過証跡の中からランダムに1つを選択するようにしてもよい。また、発見位置が基準位置に最も近い通過証跡を選択するようにしてもよい。また、発見時刻が基準時刻に最も近い通過証跡を選択するようにしてもよい。また、発見位置と基準位置との間隔および発見時刻と基準時刻との間隔の両方を勘案して通過証跡を選択するようにしてもよい。
また、移動体の過去の移動状況(移動体の軌跡や加速度など)や、移動体の属性(人物、車両など)や、周辺の道路、建物および地形の状況に基づいて、移動体の将来の位置(移動経路)を予測して、発見位置および発見時刻が移動体の将来の予測位置に最も適合する通過証跡を選択するようにしてもよい。
また、本実施形態では、通過証跡の照合確度(照合の確からしさ)、すなわち、映像に映る人物が犯人である可能性の高さを表す評価値をカメラ2から取得することから、この照合確度が最も高い通過証跡を選択するようにしてもよい。
また、複数の通過証跡が見つかった場合に、通過証跡を1つに絞り込まずに、その複数の通過証跡を採用して、各通過証跡に基づく追跡を別々に行った上で、得られた複数の移動経路の中から、最も適切な移動経路を選択するようにしてもよい。
また、サーバ1の通過証跡探索部17では、移動体が通過していないにも拘わらず通過証跡があると判定する誤判定を避けるため、追跡対象となる移動体の特徴情報と映像との照合で取得した照合確度(照合の確からしさ)以外の情報に基づいて、通過証跡であるか否かを検証するとよい。
例えば、前記のように、移動体の過去の移動状況などに基づいて、移動体の将来の位置(移動経路)を予測して、その将来の予測位置(移動経路)と適合しない通過証跡を除外するようにするとよい。具体的には、予測した将来の位置と通過証跡の発見位置とが所定距離以上離れている場合には、その通過証跡を除外するようにする。
また、サーバ1の通過証跡探索部17では、前記のように、移動体の過去の移動状況などに基づいて、移動体の将来の位置(移動経路)を予測して、その将来の予測位置から通過証跡の収集を開始するようにしてもよい。具体的には、予測した将来の位置を新たな基準位置に設定して通過証跡を探索するようにする。これにより、前回の通過証跡の発見位置から離れた地点から追跡を開始し、途中経路の追跡を省略することで、より一層効率よく移動体を追跡することができる。なお、例えば、車両が、分岐がない道路を一定速度で走行しているものと想定される場合、所定時間後の位置を推定することができる。
また、本実施形態では、応答メッセージに、照合結果情報として、通過証跡の有無に関する情報と照合確度とを付加して送信するようにしたが、照合確度のみを応答メッセージに付加して送信し、照合確度をしきい値と比較して通過証跡の有無を判定する処理を、サーバ1で行うようにしてもよい。
(第1実施形態の変形例)
次に、第1実施形態の変形例について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図11は、探索エリアおよび探索期間の遷移状況を示す説明図である。
第1実施形態では、探索エリアの拡大を探索期間の延長より優先して通過証跡を探索するようにしたが、本変形例では、探索期間の映像を探索エリアの拡大より優先して通過証跡を探索するようにする。
具体的には、まず、図11(A)に示すように、基準位置の周囲に探索エリアを設定すると共に基準時刻から所定時間の範囲を探索期間に設定して通過証跡を探索し、この探索条件で通過証跡が見つからない場合には、図11(B)に示すように、探索期間を延長して、通過証跡を探索する。そして、図11(C)に示すように、探索期間が延長限度に達しても通過証跡を発見できない場合には、図11(D)に示すように、探索エリアを拡大すると共に探索期間を元に戻して、通過証跡を探索する。そして、通過証跡を発見できない場合には、図11(E)に示すように、探索期間を延長して、通過証跡を探索する。そして、図11(F)に示すように、探索期間が延長限度に達しても通過証跡を発見できない場合には、さらに探索エリアを拡大して通過証跡を探索する。そして、探索エリアが拡大限度に達しても通過証跡を発見できない場合には、探索失敗とする。
次に、第1実施形態の変形例に係るサーバ1で行われる通過証跡探索処理の手順について説明する。図12は、サーバ1で行われる通過証跡探索処理の手順を示すフロー図である。なお、第1実施形態(図10)と同様の処理には同一のステップ番号を付与している。
サーバ1の通過証跡探索部17では、まず、今回の探索条件を設定する。すなわち、前回の通過証跡の発見位置を今回の基準位置に設定し、前回の通過証跡の発見時刻を今回の基準時刻に設定する。そして、今回の基準位置に対応する最小のエリアを今回の探索エリアに設定し、今回の基準時刻に対応する最短の期間を今回の探索期間に設定する(ST101)。
次に、今回の探索条件、すなわち今回の探索エリアおよび探索期間に該当する全ての照合結果情報をカメラ2から収集する(ST102)。
次に、収集した照合結果情報の中に通過証跡があるか否かを判定する(ST103)。
ここで、通過証跡を発見できない場合には(ST103でNo)、次に、今回の探索期間が延長限度に達しているか否かを判定する(ST107)。
ここで、今回の探索期間が延長限度に達していない場合には(ST107でNo)、探索期間を所定幅だけ延長する(ST108)。そして、ST102に戻り、新たな探索条件に該当する照合結果情報を収集する。
一方、今回の探索期間が延長限度に達している場合には(ST107でYes)、探索期間を最初の探索期間に戻す(ST121)。
次に、今回の探索エリアが拡大限度に達しているか否かを判定する(ST104)。
ここで、今回の探索エリアが拡大限度に達していない場合には(ST104でNo)、探索エリアを所定幅だけ拡大する(ST105)。そして、ST102に戻り、新たな探索条件に該当する照合結果情報を収集する。
一方、今回の探索エリアが拡大限度に達している場合には(ST104でYes)、追跡を終了する(ST109)。この場合、通過証跡を発見できていないため、追跡失敗となる。
また、通過証跡を発見した場合には(ST103でYes)、通過証跡が発見されたカメラ2の位置を発見位置に設定し、通過証跡が発見された映像の時刻を発見時刻に設定する(ST109)。
次に、今回の探索期間が現時刻に達している否かを判定する(ST110)。
ここで、今回の探索期間が現時刻に達していない場合には(ST110でNo)、ST101に戻り、次の通過証跡の探索に進む。
一方、今回の探索期間が現時刻に達している場合には(ST110でYes)、追跡を終了し、通過証跡の発見位置を犯人の現在位置に設定する(ST111)。
(第1実施形態の別の変形例)
次に、第1実施形態の別の変形例について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図13は、探索エリアおよび探索期間の遷移状況を示す説明図である。
第1実施形態では、探索エリアの拡大を探索期間の延長より優先して通過証跡を探索するようにし、前記の変形例では、探索期間の延長を探索エリアの拡大より優先して通過証跡を探索するようにしたが、本変形例では、探索エリアの拡大と探索期間の延長とを同時に行いながら通過証跡を探索するようにする。
具体的には、まず、図13(A)に示すように、基準位置の周囲に探索エリアを設定すると共に基準時刻から所定時間の範囲を探索期間に設定して通過証跡を探索し、この探索条件で通過証跡が見つからない場合には、図13(B)に示すように、探索エリアを拡大すると共に探索期間を延長して、通過証跡を探索する。そして、通過証跡が見つからない場合には、図13(C)、図13(D)に示すように、順次、探索エリアを拡大すると共に探索期間を延長して、通過証跡を探索する。そして、図13(E)に示すように、探索エリアが拡大限度に達するか、または探索期間が延長限度に達しても、通過証跡を発見できない場合には、探索失敗とする。
ここで、探索エリアを拡大すると共に探索期間を延長する際には、探索エリアの各範囲に応じた時間枠を設定する。すなわち、本実施形態では、探索期間を段階的に延長するが、その探索期間の延長分を新たな時間枠に設定する。そして、最初の探索エリアから順次拡大した範囲に対して、最も新しい時間枠から順に時間枠が割り当てられる。これにより、基準位置に近い位置では基準時刻から離れた時刻で探索が行われ、基準位置から離れた位置では基準時刻に近い時刻で探索が行われる。
次に、第1実施形態の別の変形例に係るサーバ1で行われる通過証跡探索処理の手順について説明する。図14は、サーバ1で行われる通過証跡探索処理の手順を示すフロー図である。なお、第1実施形態およびその変形例(図10,図12)と同様の処理には同一のステップ番号を付与している。
サーバ1の通過証跡探索部17では、まず、今回の探索条件を設定する。すなわち、前回の通過証跡の発見位置を今回の基準位置に設定し、前回の通過証跡の発見時刻を今回の基準時刻に設定する。そして、今回の基準位置に対応する最小のエリアを今回の探索エリアに設定し、今回の基準時刻に対応する最短の期間を今回の探索期間に設定する(ST101)。
次に、今回の探索エリアの各範囲に応じた時間枠を設定する(ST131)。
次に、今回の探索条件、すなわち今回の探索エリアおよび探索期間に該当する全ての照合結果情報をカメラ2から収集する(ST102)。
次に、収集した照合結果情報の中に通過証跡があるか否かを判定する(ST103)。
ここで、通過証跡を発見できない場合には(ST103でNo)、次に、今回の探索エリアが拡大限度に達しているか否かを判定する(ST104)。
ここで、今回の探索エリアが拡大限度に達していない場合には(ST104でNo)、次に、今回の探索期間が延長限度に達しているか否かを判定する(ST107)。
ここで、今回の探索期間が延長限度に達していない場合には(ST107でNo)、探索エリアを所定幅だけ拡大すると共に探索期間を所定幅だけ延長する(ST132)。そして、ST131に戻り、探索エリアの各範囲に応じた新たな時間枠を設定する。
一方、今回の探索エリアが拡大限度に達している場合や(ST104でYes)、今回の探索期間が延長限度に達している場合には(ST107でYes)、追跡を終了する(ST111)。この場合、通過証跡を発見できていないため、追跡失敗となる。
また、通過証跡を発見した場合には(ST103でYes)、通過証跡が発見されたカメラ2の位置を発見位置に設定し、通過証跡が発見された映像の時刻を発見時刻に設定する(ST110)。
次に、今回の探索期間が現時刻に達しているか否かを判定する(ST110)。
ここで、今回の探索期間が現時刻に達していない場合には(ST110でNo)、ST101に戻り、次の通過証跡の探索に進む。
一方、今回の探索期間が現時刻に達している場合には(ST110でYes)、追跡を終了し、通過証跡の発見位置を犯人の現在位置に設定する(ST111)。
(第2実施形態)
次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図15は、サーバ1、カメラ2、およびルータ3の概略構成を示すブロック図である。
第1実施形態では、特徴情報(似顔絵)と映像とを照合して通過証跡の有無を判定する照合処理をカメラ2で行うようにしたが、本実施形態では、照合処理をサーバ1で行うようにする。また、第1実施形態では、通過証跡情報として、照合結果情報、すなわち、通過証跡を発見した否かに関する情報および照合確度を含む応答メッセージが、カメラ2からサーバ1に送信されるが、本実施形態では、通過証跡情報として、カメラ2の映像を含む応答メッセージが、カメラ2からサーバ1に送信される。
サーバ1の構成は、第1実施形態(図4参照)と略同様であるが、制御部12が、照合部19を備えている。この照合部19は、入力部14で取得した探索対象となる移動体の特徴情報(似顔絵など)と、通信部11で受信した応答メッセージに含まれるカメラ2の映像とを照合して、犯人の通過証跡の有無、すなわち、映像に犯人が映っているか否かを判定する。通過証跡探索部17は、照合部19の照合結果に基づいて、通過証跡の探索を行う。
カメラ2の構成は、第1実施形態(図4参照)と略同様であるが、第1実施形態において制御部23に設けられていた照合部27が省略されている。メッセージ制御部25は、検索部26で取得した探索期間の映像を含む応答メッセージを通信部22から送信する。
ルータ3の構成は、第1実施形態(図4参照)と同様である。
なお、第1実施形態では、カメラ2の映像と探索対象となる移動体の特徴情報との照合をカメラ2で行い、第2実施形態では、照合をサーバ1で行うようにしたが、照合をカメラ2で行う構成と、照合をサーバ1で行う構成とを組み合わせることも可能である。すなわち、照合機能のあるカメラ2からは照合結果を取得し、照合機能のないカメラ2からは映像を取得して照合を行う。これにより、照合機能のあるカメラ2と照合機能のないカメラ2とが混在する状態でもシステムを運用することができる。また、カメラ2では少ない演算量で粗い照合を行って、該当の可能性の有無だけを検査し、可能性のある映像のみをサーバ1に転送して、サーバ1で演算量の多い詳細照合を行うことでも良い。
(第3実施形態)
次に、第3実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図16は、ランデブーノードへの位置登録時のサブスクライブメッセージの一例を示す説明図である。図17は、通過証跡探索時のパブリッシュメッセージの一例を示す説明図である。
本実施形態では、COPSS(Content Oriented Publish/Subscribe System)を採用する。このCOPSSでは、ネットワークの階層構造の最上位にランデブーノード(RN:Rendezvous Node)が設けられる。図16,図17に示す例では、位置/0のルータ3がランデブーノードとなる。
このCOPSSでは、まず、サーバ1、カメラ2およびルータ3は、ランデブーノードとなるルータ3にサブスクライブメッセージを送信することにより、サーバ1、カメラ2およびルータ3の位置(宛先情報)をランデブーノードとなるルータ3に登録する。なお、登録された位置情報(宛先情報)は一定時間が経過すると消去されるため、この位置の登録は、所定周期で繰り返し実施されるものである。
具体的には、図16に示すように、ランデブーノードとなる位置/0のルータ3に対して、サーバ1からサブスクライブメッセージが送信される。このサブスクライブメッセージには、情報収集者であるサーバ1の宛先情報(Collector0)が含まれる。
また、ランデブーノードとなる位置/0のルータ3に対して、配下のカメラ2やルータ3からサブスクライブメッセージが送信される。図16では、サブスクライブメッセージとして、カメラ2の位置情報(/0/1/2/0、/0/0/0/2など)と、デバイスの属性情報、すなわち、カメラ2であることを表す情報(#datカメラ)とが含まれている例を示す。
ランデブーノードとなるルータ3は、配下の各ルータ3の位置情報、配下の各カメラ2(デバイス)の位置情報および属性情報、および返信先情報、すなわち、情報収集者となるサーバ1の宛先情報を管理する。
また、本実施形態では、通過証跡探索時に、追跡対象となる移動体の通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する要求メッセージとしてのパブリッシュメッセージがサーバ1から送信され、これに応じて、通過証跡情報を含む応答メッセージとしてのパブリッシュメッセージがカメラ2から送信される。
具体的には、図17に示すように、まず、ランデブーノードとなる位置/0のルータ3に対して、サーバ1からパブリッシュメッセージ(要求メッセージ)が送信される。このパブリッシュメッセージには、ランデブーノードの識別情報(RN)と、探索エリアの位置情報(位置/0/1/2/0)と、カメラ2に対してデータ(映像、照合結果など)を要求する旨の情報(#dat/カメラ)と、探索期間の時間情報と、特徴情報(似顔絵の画像情報)とが含まれる。
ランデブーノードとなる位置/0のルータ3では、サーバ1からパブリッシュメッセージを受信すると、自装置に記憶された管理情報に基づいて、パブリッシュメッセージを、配下の位置/0/1のルータ3および位置/0/1/2のルータ3を経由して、探索エリア内の位置/0/1/2/0のカメラ2に転送する。
位置/0/1/2/0のカメラ2では、ランデブーノードとなるルータ3からパブリッシュメッセージを受信すると、指定された時刻の映像と指定された似顔絵との照合処理を行う。そして、ランデブーノードとなるルータ3に対して、カメラ2からパブリッシュメッセージ(応答メッセージ)が送信される。このパブリッシュメッセージには、ランデブーノードとなるルータ3の識別情報(RN)と、情報提供先となるサーバ1の宛先情報(Collector0)と、情報提供元のカメラ2の位置情報(位置/0/1/2/0)と、照合結果情報、すなわち、通過証跡を発見したか否かに関する情報(この例ではOK)および照合確度(この例では90%)と、が含まれる。
ランデブーノードとなるルータ3では、カメラ2(位置/0/1/2/0)からパブリッシュメッセージを受信すると、自装置に記憶された管理情報に基づいて、パブリッシュメッセージを、情報提供先となるサーバ1(Collecotor0)に送信する。
以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
例えば、前記の実施形態では、主に犯行現場から逃走する犯人を追跡する例について説明しており、この例では、人物(犯人)や犯人が乗る乗り物(車両など)が追跡対象となるが、追跡対象はこれに限定されず、その他の移動体、例えば、動物、ロボット、ドローンなどの飛翔体などでもよい。
また、前記の実施形態では、移動体を検出する検出装置として、映像を撮影するカメラ2の例について説明したが、検出装置はカメラ2に限定されるものではなく、例えば、音声を収音するマイクや、種々の状態(振動、温度、湿度、風速、気圧、日照、赤外線など)を検出するセンサや、電波やレーザーで移動体を検出するレーダなどでもよい。特に、マイクであれば、例えば、人物の音声を収音することで、声紋による人物照合が可能であり、車両の音声(エンジン音など)を収音することで、車両の特定が可能である。また、振動を検出するセンサであれば、追跡対象の車両が走行する際に発する固有の振動を検出することで、車両の特定が可能である。
また、検出装置は、追跡対象となる移動体の通過証跡が得られるものであればよく、街中などに防犯用や捜索用として設置された固定のものの他に、歩行者が身に付けるウェアラブルデバイスや、車両などの移動体に搭載されている移動するような検出デバイス、さらに、種々の物品に設けられるIoT(Internet of Things)デバイスでもよい。
また、複数種類の検出装置を組み合わせて通過証跡を検知する、例えば、映像による照合と音声による照合との両方の照合結果に基づいて、通過証跡の有無を判定するようにしてもよく、これにより、判定精度を向上させることができる。
また、映像による照合では、画像認識技術を用いて、映像に映る人物の性別や年齢などの属性を取得して、その属性による照合で絞り込むようにしてもよい。
また、前記の実施形態では、カメラ2が、自装置に蓄積された映像を用いて照合を行って、その照合結果をサーバ1に送信し、あるいは、カメラ2が、自装置に蓄積された映像をサーバ1に送信して、サーバ1が、受信した映像を用いて照合を行うようにしたが、情報指向ネットワークでは、ルータ3が、カメラ2の映像を蓄積することができるため、ルータ3が、自装置に蓄積された映像を用いて照合を行って、その照合結果をサーバ1に送信し、あるいは、ルータ3が、自装置に蓄積された映像をサーバ1に送信するようにしてもよい。この場合、ルータ3は、映像とともにカメラ2の位置情報をカメラ2から受信して、カメラ2の位置情報に基づいて、探索エリア内のカメラ2の映像か否かを判定すればよい。
本発明に係る通信装置、通信システムおよび移動体追跡方法は、犯人などの移動体を効率よく追跡することができる効果を有し、情報指向ネットワークに接続された通信装置、情報指向ネットワークに接続された通信装置と、情報指向ネットワーク内に存在する検出装置とを備える通信システム、および通信装置が、情報指向ネットワーク内に存在する検出装置から追跡対象となる移動体の通過証跡情報を収集して、移動体を追跡する移動体追跡方法などとして有用である。
1 サーバ(通信装置)
2 カメラ(検出装置)
3 ルータ
11 通信部
12 制御部
13 記憶部
14 入力部
15 表示部
21 撮影部
22 通信部
23 制御部
24 記憶部

Claims (13)

  1. 情報指向ネットワークに接続された通信装置であって、
    前記情報指向ネットワークに要求メッセージを送信し、前記情報指向ネットワークから応答メッセージを受信する通信部と、
    前記情報指向ネットワーク内に存在する検出装置で取得した追跡対象となる移動体の通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する前記要求メッセージを、前記通信部から前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記通信部で前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する制御部と、
    を備えることを特徴とする通信装置。
  2. 前記通信部は、追跡対象となる移動体の特徴情報を含む前記要求メッセージを前記情報指向ネットワークに送信し、前記検出装置において自装置で取得した検出情報と前記特徴情報とを照合することで得られる通過証跡の有無に関する照合結果情報を含む前記応答メッセージを受信することを特徴とする請求項1に記載の通信装置。
  3. 前記通信部は、前記検出装置で取得した検出情報を含む前記応答メッセージを受信し、
    前記制御部は、前記応答メッセージに含まれる前記検出情報と、追跡対象となる移動体の特徴情報とを照合して、通過証跡の有無を判定することを特徴とする請求項1に記載の通信装置。
  4. 前記制御部は、追跡開始位置および追跡開始時刻をそれぞれ基準位置および基準時刻として、その基準位置および基準時刻に基づいて前記探索エリアおよび前記探索期間を設定して通過証跡を探索し、通過証跡を発見すると、その発見位置および発見時刻をそれぞれ新たな基準位置および基準時刻として、その基準位置および基準時刻に基づいて新たな前記探索エリアおよび前記探索期間を設定して新たな通過証跡を探索し、この通過証跡の探索を、現時刻の通過証跡を発見するまで繰り返すことを特徴とする請求項1に記載の通信装置。
  5. 前記制御部は、前記探索エリアを次第に拡大しながら前記通過証跡を探索し、前記探索エリアが所定の拡大限度に達しても前記通過証跡が見つからない場合には、前記探索期間を延長することを特徴とする請求項1に記載の通信装置。
  6. 前記制御部は、前記探索期間を次第に延長しながら前記通過証跡を探索し、前記探索期間が所定の延長限度に達しても前記通過証跡が見つからない場合には、前記探索エリアを拡大することを特徴とする請求項1に記載の通信装置。
  7. 前記制御部は、前記探索エリアを次第に拡大すると同時に前記探索期間を次第に延長しながら前記通過証跡を探索することを特徴とする請求項1に記載の通信装置。
  8. 前記制御部は、ユーザの指定に応じて、追跡の位置的な範囲および時間的な範囲を設定して、その追跡の位置的な範囲および時間的な範囲で、前記通過証跡を収集することを特徴とする請求項1に記載の通信装置。
  9. 前記制御部は、1回の探索で複数の前記通過証跡が見つかった場合、所定の選択方法に基づいて、複数の前記通過証跡の中から1つを選択することを特徴とする請求項1に記載の通信装置。
  10. 前記制御部は、移動体の将来の位置を予測して、その将来の予測位置と適合しない前記通過証跡を除外することを特徴とする請求項1に記載の通信装置。
  11. 前記制御部は、移動体の将来の位置を予測して、その将来の予測位置から前記通過証跡の収集を開始することを特徴とする請求項1に記載の通信装置。
  12. 情報指向ネットワークに接続された通信装置と、前記情報指向ネットワーク内に存在する検出装置とを備える通信システムであって、
    前記通信装置は、
    前記情報指向ネットワークに要求メッセージを送信し、前記情報指向ネットワークから応答メッセージを受信する通信部と、
    前記情報指向ネットワーク内に存在する検出装置で取得した追跡対象となる移動体の通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する前記要求メッセージを、前記通信部から前記情報指向ネットワークに送信し、前記通過証跡情報を含む応答メッセージを、前記通信部で前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成する制御部と、
    を備えることを特徴とする通信システム。
  13. 通信装置が、情報指向ネットワーク内に存在する検出装置から追跡対象となる移動体の通過証跡情報を収集して、移動体を追跡する移動体追跡方法であって、
    前記検出装置で取得した前記通過証跡情報の提供を探索エリアおよび探索期間を指定して要求する要求メッセージを、前記情報指向ネットワークに送信し、
    前記通過証跡情報を含む応答メッセージを、前記情報指向ネットワークから受信して、指定した前記探索エリアおよび前記探索期間に該当する前記通過証跡情報を収集して、追跡情報を生成することを特徴とする移動体追跡方法。
JP2017219681A 2017-11-15 2017-11-15 通信装置、通信システムおよび移動体追跡方法 Active JP6969987B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017219681A JP6969987B2 (ja) 2017-11-15 2017-11-15 通信装置、通信システムおよび移動体追跡方法
EP18879428.3A EP3713225A4 (en) 2017-11-15 2018-08-06 COMMUNICATION DEVICE, COMMUNICATION SYSTEM, AND METHOD OF TRACKING A MOBILE BODY
PCT/JP2018/029394 WO2019097775A1 (ja) 2017-11-15 2018-08-06 通信装置、通信システムおよび移動体追跡方法
US16/764,128 US11270444B2 (en) 2017-11-15 2018-08-06 Communication device, communication system, and mobile body tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219681A JP6969987B2 (ja) 2017-11-15 2017-11-15 通信装置、通信システムおよび移動体追跡方法

Publications (2)

Publication Number Publication Date
JP2019092052A true JP2019092052A (ja) 2019-06-13
JP6969987B2 JP6969987B2 (ja) 2021-11-24

Family

ID=66537780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219681A Active JP6969987B2 (ja) 2017-11-15 2017-11-15 通信装置、通信システムおよび移動体追跡方法

Country Status (4)

Country Link
US (1) US11270444B2 (ja)
EP (1) EP3713225A4 (ja)
JP (1) JP6969987B2 (ja)
WO (1) WO2019097775A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021166065A (ja) * 2019-06-21 2021-10-14 ビッグローブ株式会社 捜査支援システム及び捜査支援方法
WO2023120013A1 (ja) * 2021-12-22 2023-06-29 キヤノン株式会社 制御装置、情報処理装置、及びこれらの制御方法およびプログラム
EP4362455A1 (en) 2022-10-27 2024-05-01 Fujitsu Limited Position prediction program, information processing device, and position prediction method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443510B2 (en) * 2020-08-03 2022-09-13 Motorola Solutions, Inc. Method, system and computer program product that provides virtual assistance in facilitating visual comparison
US20220137700A1 (en) * 2020-10-30 2022-05-05 Rovi Guides, Inc. System and method for selection of displayed objects by path tracing
US11599253B2 (en) * 2020-10-30 2023-03-07 ROVl GUIDES, INC. System and method for selection of displayed objects by path tracing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
US20150271267A1 (en) * 2014-03-24 2015-09-24 Palo Alto Research Center Incorporated Content-oriented federated object store
JP2015212935A (ja) * 2014-05-01 2015-11-26 パロ アルト リサーチ センター インコーポレイテッド 情報指向ネットワークのための説明可能な(accountable)コンテンツストア
JP2016531507A (ja) * 2013-08-05 2016-10-06 アルカテル−ルーセント 情報指向ネットワークのための動的なinterest転送のメカニズム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3992909B2 (ja) * 2000-07-03 2007-10-17 富士フイルム株式会社 本人画像提供システム
US20090231436A1 (en) * 2001-04-19 2009-09-17 Faltesek Anthony E Method and apparatus for tracking with identification
TWI405457B (zh) * 2008-12-18 2013-08-11 Ind Tech Res Inst 應用攝影機換手技術之多目標追蹤系統及其方法,與其智慧節點
GB2485390A (en) 2010-11-12 2012-05-16 Sony Corp Video Surveillance System that Detects Changes by Comparing a Current Image with a Reference Image
WO2013021275A1 (en) * 2011-08-10 2013-02-14 Yitzchak Kempinski A method for optimizing size and position of a search window of a tracking system
US9269243B2 (en) * 2011-10-07 2016-02-23 Siemens Aktiengesellschaft Method and user interface for forensic video search
GB2501542A (en) * 2012-04-28 2013-10-30 Bae Systems Plc Abnormal behaviour detection in video or image surveillance data
US9280833B2 (en) * 2013-03-05 2016-03-08 International Business Machines Corporation Topology determination for non-overlapping camera network
JP5506990B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6656987B2 (ja) * 2016-03-30 2020-03-04 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
US10171621B2 (en) * 2016-05-19 2019-01-01 Verizon Patent And Licensing Inc. Aggregating subscription information and requesting content objects based on aggregated subscription information
JP6742195B2 (ja) * 2016-08-23 2020-08-19 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016531507A (ja) * 2013-08-05 2016-10-06 アルカテル−ルーセント 情報指向ネットワークのための動的なinterest転送のメカニズム
WO2015098442A1 (ja) * 2013-12-26 2015-07-02 株式会社日立国際電気 映像検索システム及び映像検索方法
US20150271267A1 (en) * 2014-03-24 2015-09-24 Palo Alto Research Center Incorporated Content-oriented federated object store
JP2015212935A (ja) * 2014-05-01 2015-11-26 パロ アルト リサーチ センター インコーポレイテッド 情報指向ネットワークのための説明可能な(accountable)コンテンツストア

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
村本 衛一 EIICHI MURAMOTO: "パナソニックのICN研究開発", 電子情報通信学会2016年総合大会講演論文集 通信2 PROCEEDINGS OF THE 2016 IEICE GENERAL CONFEREN, JPN6018040440, 1 March 2016 (2016-03-01), JP, pages 5 - 6, ISSN: 0004607015 *
栗原 佳輝 YOSHIKI KURIHARA: "Publish/Subscribeを用いた位置ベースのフォワーディング手法の設計と評価 Design and S", 電子情報通信学会技術研究報告 VOL.116 NO.485 IEICE TECHNICAL REPORT, vol. 第116巻, 第485号, JPN6018040439, 23 February 2017 (2017-02-23), JP, pages 103 - 108, ISSN: 0004607014 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021166065A (ja) * 2019-06-21 2021-10-14 ビッグローブ株式会社 捜査支援システム及び捜査支援方法
WO2023120013A1 (ja) * 2021-12-22 2023-06-29 キヤノン株式会社 制御装置、情報処理装置、及びこれらの制御方法およびプログラム
EP4362455A1 (en) 2022-10-27 2024-05-01 Fujitsu Limited Position prediction program, information processing device, and position prediction method

Also Published As

Publication number Publication date
US20200279381A1 (en) 2020-09-03
WO2019097775A1 (ja) 2019-05-23
EP3713225A1 (en) 2020-09-23
US11270444B2 (en) 2022-03-08
JP6969987B2 (ja) 2021-11-24
EP3713225A4 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
WO2019097775A1 (ja) 通信装置、通信システムおよび移動体追跡方法
JP6486744B2 (ja) 地域監視サーバ、提供端末及びそのシステム
US9565534B2 (en) Apparatus and method for identifying point of interest in contents sharing system
JP5844920B2 (ja) 移動端末のナビゲーション機能に基づく画像位置特定方法およびシステム
JP6531341B2 (ja) 情報処理装置、サーバ、記憶媒体、および制御方法
US20140343984A1 (en) Spatial crowdsourcing with trustworthy query answering
EP3497590A1 (en) Distributed video storage and search with edge computing
JP2012108586A (ja) 交通情報システム、交通情報取得装置および交通情報提供装置
ES2923427T3 (es) Dispositivo de comunicación, sistema de comunicación y procedimiento de recopilación de contenido
CN111314843B (zh) 实况视图收集和传输系统
JP2020086659A (ja) 情報処理システム、プログラム、及び情報処理方法
JP2006332754A (ja) 画像配信方法、画像配信装置、事象検出装置、及び画像閲覧操作端末
JP6301779B2 (ja) センサ制御装置、センサ制御方法およびセンサ制御プログラム
JP2018169880A (ja) 車両捜索システム、ナンバープレート情報蓄積装置、および方法
JP2019028986A (ja) 情報処理方法、情報処理装置及び情報処理プログラム
KR101840300B1 (ko) Cctv 영상의 검색 장치 및 방법
CN105956091A (zh) 扩展信息获取方法及装置
KR101793630B1 (ko) 스마트기기 간의 협업 방법 및 클라우드 서버
KR20220023744A (ko) 사고 인지 장치 및 그 장치에서의 사고 인지 방법
JP2020030532A (ja) 制御装置及びプログラム
JP2007193475A (ja) 路上障害通報システム及び無線通信端末装置
JP5648536B2 (ja) 情報処理方法、プログラム及び装置
JP7360279B2 (ja) 情報収集方法、通信制御装置、およびコンテンツ蓄積装置
KR20150144639A (ko) 유비쿼터스 시티 기반의 다수개의 감시 카메라를 이용한 이동경로 예측 시스템 및 방법
JP7284867B2 (ja) 人物追跡管理サーバ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211028

R151 Written notification of patent or utility model registration

Ref document number: 6969987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151