JP2024063919A - 位置予測プログラム、情報処理装置及び位置予測方法 - Google Patents

位置予測プログラム、情報処理装置及び位置予測方法 Download PDF

Info

Publication number
JP2024063919A
JP2024063919A JP2022172099A JP2022172099A JP2024063919A JP 2024063919 A JP2024063919 A JP 2024063919A JP 2022172099 A JP2022172099 A JP 2022172099A JP 2022172099 A JP2022172099 A JP 2022172099A JP 2024063919 A JP2024063919 A JP 2024063919A
Authority
JP
Japan
Prior art keywords
prediction
calculated
positioning target
prediction time
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022172099A
Other languages
English (en)
Inventor
大祐 石井
Daisuke Ishii
健人 一角
Kento Ikkaku
悟 和田
Satoru Wada
遼雅 鈴木
Ryoga Suzuki
侑馬 小山
Yuma Koyama
眞平 佐藤
Shinpei Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Acuity Inc
Fujitsu Ltd
Original Assignee
Acuity Inc
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Acuity Inc, Fujitsu Ltd filed Critical Acuity Inc
Priority to JP2022172099A priority Critical patent/JP2024063919A/ja
Priority to US18/489,383 priority patent/US20240144492A1/en
Priority to EP23204856.1A priority patent/EP4362455A1/en
Publication of JP2024063919A publication Critical patent/JP2024063919A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】測位対象のトラッキングを高精度に行う位置予測プログラム、情報処理装置及び位置予測方法を提供する。【解決手段】位置予測処理は、過去の複数の予測タイミングにおける測位対象の事後推定位置の夫々から、次の予測タイミングにおける測位対象の事前推定位置を算出し、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置と、最後の予測タイミングの後に撮影装置から受信した画像データから算出された観測位置とに基づいて、次の予測タイミングにおける測位対象の観測予測位置を算出しS1、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置と、最後の予測タイミングの後に撮影装置から受信した画像データから算出された観測位置とに基づいて、次の予測タイミングにおける測位対象ОBの観測予測位置を算出しS2、上記各観測予測位置に基づいて事後推定位置を予測するS3。【選択図】図5

Description

本発明は、位置予測プログラム、情報処理装置及び位置予測方法に関する。
近年、映像データから測位対象(例えば、人や物)の位置を計算する情報処理システムが登場している。このような情報処理システムでは、例えば、カメラ等の撮影装置(以下、単に撮影装置とも呼ぶ)からリアルタイムに取得した映像データの分析処理を行うことによって、測位対象のトラッキングを行う(例えば、特許文献1乃至3参照)。
特開2022-072347号公報 特開2019-092052号公報 特開2000-348181号公報
上記のような情報処理システムでは、例えば、映像データから特定された測位対象の位置(以下、観測位置とも呼ぶ)を用いることにより、所定時間先の測位対象の位置を予測しながらトラッキングを行う。
しかしながら、上記のような情報処理システムでは、例えば、撮影装置と情報処理システムとの間のネットワークにおける通信状態等によって、映像データの到着タイミングが一定にならない場合がある。そのため、情報処理システムでは、例えば、測位対象の位置を予測することができない場合があり、測位対象のトラッキングを高精度に行うことができない場合がある。
そこで、一つの側面では、本発明は、測位対象のトラッキングを高精度に行うことを可能とする位置予測プログラム、情報処理装置及び位置予測方法を提供することを目的とする。
実施の形態の一態様では、撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータに実行させる位置予測プログラムであって、過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、前記第4位置を算出する処理では、前記最後の予測タイミングの後であって前記予測タイミングまでの間に、前記第1位置が複数算出された場合、複数算出された前記第1位置のそれぞれを用いることによって、前記予測タイミングにおける前記測位対象の第5位置をそれぞれ算出し、算出した前記第5位置のうち、前記第3位置との位置関係が所定条件を満たす位置を前記第4位置として算出する。
一つの側面によれば、測位対象のトラッキングを高精度に行うことが可能になる。
図1は、情報処理システム10の構成について説明する図である。 図2は、情報処理システム10の構成について説明する図である。 図3は、情報処理装置1のハードウエア構成を説明する図である。 図4は、第1の実施の形態における情報処理装置1の機能について説明する図である。 図5は、第1の実施の形態における位置予測処理の概略を説明するフローチャート図である。 図6は、第1の実施の形態における位置予測処理の概略を説明するフローチャート図である。 図7は、第1の実施の形態における位置予測処理の概略を説明するフローチャート図である。 図8は、第1の実施の形態における位置予測処理について説明するフローチャート図である。 図9は、第1の実施の形態における位置予測処理について説明するフローチャート図である。 図10は、第1の実施の形態における位置予測処理について説明するフローチャート図である。 図11は、位置予測処理の具体例について説明する図である。 図12は、位置予測処理の具体例について説明する図である。 図13は、位置予測処理の具体例について説明する図である。 図14は、位置予測処理の具体例について説明する図である。 図15は、位置予測処理の具体例について説明する図である。 図16は、位置予測処理の具体例について説明する図である。
[第1の実施の形態における情報処理システムの構成]
初めに、情報処理システム10の構成について説明を行う。図1及び図2は、情報処理システム10の構成について説明する図である。
図1に示す情報処理システム10は、例えば、情報処理装置1と、撮影装置2aと、撮影装置2bと、撮影装置2cと、撮影装置2dとを有する。以下、撮影装置2a、撮影装置2b、撮影装置2c及び撮影装置2dを総称して単に撮影装置2とも呼ぶ。なお、以下、情報処理システム10が4台の撮影装置2を有する場合について説明を行うが、情報処理システム10は、例えば、4台以外の台数の撮影装置2を有するものであってもよい。
撮影装置2は、例えば、工場の室内等に取り付けられた定点カメラであり、撮影可能範囲を継続的に撮影する。すなわち、撮影装置2は、例えば、撮影可能範囲に含まれる人物OB1や物OB2等の測位対象ОBを撮影する。そして、撮影装置2は、例えば、撮影した映像データ(映像データを構成する各フレーム)を情報処理装置1に対してリアルタイムに送信する。
なお、撮影装置2は、例えば、10(fps)の映像データを撮影して情報処理装置1に送信するものであってよい。すなわち、撮影装置2は、例えば、情報処理装置1に対して、100(ms)ごとにフレーム(以下、画像データとも呼ぶ)を送信するものであってよい。
情報処理装置1は、例えば、1以上の物理マシンまたは1以上の仮想マシンである。そして、情報処理装置1は、図2に示すように、例えば、撮影装置2によって撮影された各画像データに映る測位対象ОBの位置(以下、観測位置または第1位置とも呼ぶ)を算出する位置算出処理部11を有する。すなわち、位置算出処理部11は、例えば、撮影装置2から画像データを受信するごとに、受信した画像データに含まれる情報から測位対象ОBの観測位置を算出する。
また、情報処理装置1は、例えば、位置算出処理部11によって算出された観測位置を用いて次の予測タイミング(以下、単に予測タイミングとも呼ぶ)における測位対象ОBの位置(以下、事後推定位置または第2位置とも呼ぶ)を予測する処理(以下、位置予測処理とも呼ぶ)を行うことにより、測位対象ОBのトラッキングを行うトラッキング処理部12を有する。予測タイミングは、例えば、位置算出処理部11からの画像データの送信タイミングと同期しないタイミングであり、200(ms)等の所定時間ごとのタイミングである。すなわち、トラッキング処理部12は、位置算出処理部11が観測位置を算出するごとに、算出された観測位置を用いて次の予測タイミングにおける測位対象ОBの事後推定位置を予測する。
具体的に、本実施の形態における情報処理装置1は、トラッキング処理部12において、例えば、過去の複数の予測タイミング(以下、単に複数の予測タイミングとも呼ぶ)における測位対象ОBの事後推定位置のそれぞれから、次の予測タイミングにおける測位対象ОBの位置(以下、事前推定位置または第3位置とも呼ぶ)を算出する。そして、情報処理装置1は、例えば、複数の予測タイミングのうちの最後の予測タイミング(以下、単に最後の予測タイミングとも呼ぶ)における事後推定位置と、最後の予測タイミングの後に撮影装置2から受信した画像データから算出された観測位置とに基づいて、次の予測タイミングにおける測位対象ОBの位置(以下、観測予測位置または第4位置とも呼ぶ)を算出する。その後、情報処理装置1は、例えば、事前推定位置と観測予測位置とに基づいて事後推定位置を予測する。
さらに具体的に、本実施の形態における情報処理装置1は、例えば、最後の予測タイミングの後であって次の予測タイミングまでの間に、複数の観測位置が算出された場合、複数の観測位置のそれぞれを用いることによって次の予測タイミングにおける測位対象ОBの観測予測位置の候補位置(以下、単に候補位置または第5位置とも呼ぶ)をそれぞれ算出する。そして、情報処理装置1は、例えば、算出した候補位置のうち、候補位置との位置関係が所定条件を満たす位置を観測予測位置として算出する。
すなわち、本実施の形態における情報処理装置1は、例えば、前回の予測タイミングから次の予測タイミングまでの間に、観測予測位置の算出に用いることが可能な観測位置が複数発生した場合、各観測位置を用いて算出した候補位置のうち、事前推定位置と最も近い候補位置を観測予測位置として用いる。
これにより、本実施の形態における情報処理装置1は、例えば、撮影装置2と情報処理装置1との間のネットワークにおける通信状態が良好でなく、位置算出処理部11における画像データの受信タイミングが一定にならない場合であっても、次の予測タイミングにおける測位対象ОBの事後推定位置を算出することが可能になる。また、情報処理装置1は、例えば、位置算出処理部11(すなわち、トラッキング処理部12の前段)において処理遅延等が発生したことに起因して、トラッキング処理部12における観測位置131の受信タイミングが一定にならない場合であっても、次の予測タイミングにおける測位対象ОBの事後推定位置を算出することが可能になる。そのため、情報処理装置1は、例えば、これらのような場合であっても、測位対象ОBのトラッキングを精度良く行うことが可能になる。
[情報処理装置のハードウエア構成]
次に、情報処理装置1のハードウエア構成について説明を行う。図3は、情報処理装置1のハードウエア構成を説明する図である。
情報処理装置1は、図3に示すように、例えば、プロセッサであるCPU(Central Processing Unit)101と、メモリ102と、通信装置(I/Oインタフェース)103と、ストレージ104とを有する。各部は、バス105を介して互いに接続される。
ストレージ104は、例えば、位置予測処理を行うためのプログラム110を記憶するプログラム格納領域(図示せず)を有する。また、ストレージ104は、例えば、位置予測処理を行う際に用いられる情報を記憶する記憶部130(以下、情報格納領域130とも呼ぶ)を有する。なお、ストレージ104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
CPU101は、例えば、ストレージ104からメモリ102にロードされたプログラム110を実行して位置予測処理を行う。
また、通信装置103は、例えば、インターネット等のネットワークを介して撮影装置2との通信を行う。
[第1の実施の形態における情報処理装置の機能]
次に、第1の実施の形態における情報処理装置1の機能について説明を行う。図4は、第1の実施の形態における情報処理装置1の機能について説明する図である。
情報処理装置1は、図4に示すように、例えば、CPU101やメモリ102等のハードウエアとプログラム110とが有機的に協働することにより、トラッキング処理部12の機能として、位置受信部111と、第1位置算出部112と、第2位置算出部113と、位置予測部114とを含む各種機能を実現する。
また、情報格納領域130には、図4に示すように、例えば、観測位置131と、事前推定位置132と、観測予測位置133と、事後推定位置134とが記憶される。
位置受信部111は、例えば、位置算出処理部11において算出された観測位置131を受信する。そして、位置受信部111は、例えば、受信した観測位置131を情報格納領域130に記憶する。
第1位置算出部112は、例えば、過去の複数の予測タイミングにおける測位対象ОBの事後推定位置134のそれぞれから、次の予測タイミングにおける測位対象ОBの事前推定位置132を算出する。そして、第1位置算出部112は、例えば、算出した事前推定位置132を情報格納領域130に記憶する。
具体的に、第1位置算出部112は、例えば、過去の複数の予測タイミングにおける測位対象ОBの事後推定位置134の軌跡から、次の予測タイミングにおける測位対象ОBの事後推定位置134を推定し、推定した事後推定位置134を事前推定位置132として算出する。
さらに具体的に、第1位置算出部112は、例えば、過去の複数の予測タイミングにおける測位対象ОBの事後推定位置134の軌跡の延長線上の位置であって、最後の予測タイミングにおける事後推定位置134から次の予測タイミングまでに測位対象ОBが進むと予測可能な距離だけ離れた位置を、事前推定位置132として算出する。なお、第1位置算出部112は、例えば、過去の複数の予測タイミングにおける事後推定位置134のうちの予測タイミングが連続する2つの事後推定位置134の平均距離を、次の予測タイミングまでに測位対象ОBが進むと予測可能な距離として算出するものであってよい。
第2位置算出部113は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置134と、最後の予測タイミングの後に位置算出処理部11から受信した観測位置131とに基づいて、次の予測タイミングにおける測位対象ОBの観測予測位置133を算出する。そして、第2位置算出部113は、例えば、算出した観測予測位置133を情報格納領域130に記憶する。
具体的に、第2位置算出部113は、例えば、最後の予測タイミングにおける事後推定位置134と、最後の予測タイミングの後に位置算出処理部11から受信した観測位置131とを結ぶ直線の延長線上の位置であって、最後の予測タイミングにおける事後推定位置134から次の予測タイミングまでに測位対象ОBが進むと予測可能な距離だけ離れた位置を、観測予測位置133として算出する。
さらに具体的に、第2位置算出部113は、例えば、最後の予測タイミングの後であって次の予測タイミングまでの間に、位置算出処理部11によって複数の観測位置131が算出された場合(位置算出処理部11から複数の観測位置131が送信された場合)、複数の観測位置131のそれぞれを用いることによって、次の予測タイミングにおける測位対象ОBの観測予測位置133の候補位置をそれぞれ算出する。そして、第2位置算出部113は、例えば、算出した候補位置のうち、第1位置算出部112によって算出された事前推定位置132との位置関係が所定条件を満たす位置を観測予測位置133として算出する。
なお、第2位置算出部113は、この場合、例えば、算出した候補位置のうち、第1位置算出部112によって算出された事前推定位置132に最も近い位置を、観測予測位置133として算出するものであってよい。また、第2位置算出部113は、例えば、算出した候補位置のうち、位置算出処理部11からの送信タイミングが最も新しい観測位置131から算出された位置を、観測予測位置133として算出するものであってよい。また、第2位置算出部113は、例えば、算出した候補位置のうち、撮影装置2から送信された画像データの所定位置(例えば、中心付近等の予め指定された位置)に映る測位対象ОBに対応する観測位置131から算出された位置を、観測予測位置133として算出するものであってよい。
また、第2位置算出部113は、例えば、最後の予測タイミングから所定時間が経過する前に、位置算出処理部11によって観測位置131が算出された場合(位置算出処理部11から観測位置131が送信された場合)、過去の複数の予測タイミングのうちの最後の予測タイミングよりも前の予測タイミング(例えば、最後の予測タイミングの直前の予測タイミング)における事後推定位置134と、位置算出処理部11によって算出された観測位置131とに基づいて観測予測位置133を算出するものであってもよい。
位置予測部114は、例えば、第1位置算出部112が算出した事前推定位置132と、第2位置算出部113が算出した観測予測位置133とに基づいて事後推定位置134を予測する。そして、位置予測部114は、例えば、算出した事後推定位置134を情報格納領域130に記憶する。
具体的に、位置予測部114は、例えば、第1位置算出部112が算出した事前推定位置132と、第2位置算出部113が算出した観測予測位置133との中間の位置を事後推定位置134として予測する。
[第1の実施の形態における位置予測処理の概略]
次に、第1の実施の形態の概略について説明する。図5から図7は、第1の実施の形態における位置予測処理の概略を説明するフローチャート図である。
情報処理装置1は、図5に示すように、例えば、過去の複数の予測タイミングにおける測位対象ОBの事後推定位置134のそれぞれから、次の予測タイミングにおける測位対象ОBの事前推定位置132を算出する(S1)。
そして、情報処理装置1は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置134と、最後の予測タイミングの後に撮影装置2から受信した画像データから算出された観測位置131とに基づいて、次の予測タイミングにおける測位対象ОBの観測予測位置133を算出する(S2)。
具体的に、情報処理装置1は、図6に示すように、例えば、最後の予測タイミングの後であって次の予測タイミングまでの間に、位置算出処理部11から複数の観測位置131を受信しているか否かを判定する(S11)。
その結果、位置算出処理部11から複数の観測位置131を受信していると判定した場合(S11のYES)、情報処理装置1は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置134と、受信した複数の観測位置131のそれぞれとを用いることによって、次の予測タイミングにおける測位対象ОBの候補位置をそれぞれ算出する(S12)。
そして、情報処理装置1は、例えば、S12の処理において算出した候補位置のうち、S11の処理で算出された事前推定位置132との位置関係が所定条件を満たす位置を観測予測位置133として算出する(S13)。
一方、位置算出処理部11から複数の観測位置131を受信していないと判定した場合(S11のNO)、情報処理装置1は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置134と、受信した観測位置131とを用いることによって、次の予測タイミングにおける測位対象ОBの観測予測位置133を算出する(S14)。
なお、例えば、最後の予測タイミングの後であって次の予測タイミングまでの間に、位置算出処理部11から観測位置131を受信しなかった場合、情報処理装置1は、観測位置131に代えて、S1の処理で算出した事前推定位置132を用いることによって、次の予測タイミングにおける測位対象ОBの観測予測位置133を算出するものであってよい。
図5に戻り、情報処理装置1は、例えば、S1の処理において算出した事前推定位置132と、S2の処理において算出した観測予測位置133とに基づいて事後推定位置134を予測する(S3)。
具体的に、情報処理装置1は、この場合、例えば、S2に処理において算出した候補位置のうち、S1の処理において算出された事前推定位置132に最も近い位置を観測予測位置133として算出する。
これにより、本実施の形態における情報処理装置1は、例えば、撮影装置2と情報処理装置1との間のネットワークにおける通信状態が良好でなく、複数の観測位置131が短い時間内において位置算出処理部11から連続的に送信された場合であっても、観測予測位置133を算出することが可能になる。また、情報処理装置1は、例えば、位置算出処理部11において処理遅延等が発生したことに起因して、複数の観測位置131が短い時間内において位置算出処理部11から連続的に送信された場合であっても、観測予測位置133を算出することが可能になる。そのため、情報処理装置1は、例えば、これらのような場合であっても、測位対象ОBのトラッキングを精度良く行うことが可能になる。
なお、情報処理装置1は、S2の処理において、例えば、図6で説明した処理に代えて図7に示す処理を行うものであってもよい。
具体的に、情報処理装置1は、図7に示すように、例えば、最後の予測タイミングから所定時間が経過する前に、位置算出処理部11から観測位置131を受信したか否かを判定するものであってもよい(S21)。
その結果、最後の予測タイミングから所定時間が経過する前に、位置算出処理部11から観測位置131を受信したと判定した場合(S21のYES)、情報処理装置1は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングよりも前の予測タイミングにおける事後推定位置134と、受信した観測位置131とに基づいて観測予測位置133を算出するものであってもよい(S22)。
一方、最後の予測タイミングから所定時間が経過した後に、位置算出処理部11から観測位置131が受信したと判定した場合(S21のNO)、情報処理装置1は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置134と、受信した観測位置131とに基づいて観測予測位置133を算出するものであってもよい(S23)。
すなわち、観測予測位置133は、例えば、最後の予測タイミングにおける事後推定位置134と、最後の予測タイミングの後に位置算出処理部11から受信した観測位置131との延長線上の位置である。そのため、例えば、最後の予測タイミングにおける事後推定位置134と、最後の予測タイミングの後に位置算出処理部11から受信した観測位置131との間の距離が近い場合、言い換えれば、最後の予測タイミングにおける事後推定位置134の算出タイミングと、最後の予測タイミングの後に位置算出処理部11から受信した観測位置131の算出タイミングとの間隔が短い場合、情報処理装置1では、観測予測位置133の予測精度が低下する可能性がある。
そこで、情報処理装置1は、例えば、最後の予測タイミングから所定時間が経過する前に、位置算出処理部11から観測位置131を受信した場合、最後の予測タイミングにおける事後推定位置134に代えて、最後の予測タイミングよりも前の予測タイミング(例えば、最後の予測タイミングの直前の予測タイミング)における事後推定位置134を用いることにより、観測予測位置133を算出するものであってもよい。
これにより、本実施の形態における情報処理装置1は、例えば、撮影装置2と情報処理装置1との間のネットワークにおける通信状態が良好でなく、事後推定位置134の算出タイミングと観測位置131の算出タイミングとが近くなった場合であっても、観測予測位置133を精度良く算出することが可能になる。また、情報処理装置1は、例えば、位置算出処理部11において処理遅延が発生したことに起因して、事後推定位置134の算出タイミングと観測位置131の算出タイミングとが近くなった場合であっても、観測予測位置133を精度良く算出することが可能になる。そのため、情報処理装置1は、例えば、これらのような場合であっても、測位対象ОBのトラッキングを精度良く行うことが可能になる。
[第1の実施の形態における位置予測処理の詳細]
次に、第1の実施の形態における位置予測処理の詳細について説明する。図8から図10は、第1の実施の形態における位置予測処理について説明するフローチャート図である。
[位置予測処理のメイン処理]
初めに、位置予測位置のメイン処理について説明を行う。図8及び図9は、第1の実施の形態における位置予測処理のメイン処理について説明するフローチャート図である。
位置受信部111は、図8に示すように、例えば、位置算出処理部11において算出された観測位置131を受信する(S31)。
具体的に、位置算出処理部11は、例えば、撮影装置2から送信された画像データを受信した場合、受信した画像データに映る測位対象ОBを認識するとともに、測位対象ОBの観測位置131(例えば、実空間上における座標)を算出する。そして、位置受信部111は、例えば、位置算出処理部11から送信された観測位置131を受信する。
また、位置受信部111は、この場合、例えば、受信した観測位置131に対して、受信した観測位置131に対応する測位対象ОBの識別情報(以下、測位対象IDとも呼ぶ)を付加する。そして、位置受信部111は、例えば、測位対象IDが付加された観測位置131を情報格納領域130に記憶する。
具体的に、位置受信部111は、この場合、例えば、位置算出処理部11から過去に受信した観測位置131(測位対象IDが付加された観測位置131)を参照し、受信した観測位置131の近傍の観測位置131に対応する測位対象IDを特定する。そして、位置受信部111は、例えば、特定した測位対象IDを、受信した観測位置131に対して付加する。
なお、観測位置131に対する測位対象IDの付加は、例えば、位置算出処理部11において予め行われるものであってもよい。
そして、第1位置算出部112は、例えば、前回の予測タイミングからS31の処理が行われたタイミングまでの経過時間(以下、単に経過時間とも呼ぶ)を算出する(S32)。
その結果、経過時間が予め定められた閾値(以下、単に閾値とも呼ぶ)以下である場合(S33のYES)、第1位置算出部112は、例えば、前々回の予測タイミングにおける測位対象ОBの事後推定位置134と、S31の処理で受信した観測位置131とから観測予測位置133を算出する(S34)。ここでの閾値は、例えば、50(ms)であってよい。そして、第1位置算出部112は、例えば、算出した観測予測位置133を情報格納領域130に記憶する。
具体的に、第1位置算出部112は、例えば、情報格納領域130に記憶された事後推定位置134のうち、S31の処理で受信した観測位置131に付加された測位対象IDに対応する事後推定位置134であって、生成時刻が2番目に新しい事後推定位置134を取得する。そして、第1位置算出部112は、例えば、取得した事後推定位置134を用いることによって観測予測位置133を算出する。
すなわち、第1位置算出部112は、この場合、例えば、図7のS22の処理で説明した場合と同様に、前回の予測タイミングにおける測位対象ОBの事後推定位置134に代えて、前々回の予測タイミングにおける測位対象ОBの事後推定位置134を用いることによって、観測予測位置133の算出を行う。
一方、経過時間が予め定められた閾値以下でない場合(S33のNO)、第1位置算出部112は、例えば、前回の予測タイミングにおける測位対象ОBの事後推定位置134と、S31の処理で受信した観測位置131とから観測予測位置133を算出する(S35)。そして、第1位置算出部112は、例えば、算出した観測予測位置133を情報格納領域130に記憶する。
具体的に、第1位置算出部112は、例えば、情報格納領域130に記憶された事後推定位置134のうち、S31の処理で受信した観測位置131に付加された測位対象IDに対応する事後推定位置134であって、生成時刻が最も新しい事後推定位置134を取得する。そして、第1位置算出部112は、例えば、取得した事後推定位置134を用いることによって観測予測位置133を算出する。
次に、第1位置算出部112は、図9に示すように、例えば、前回の予測タイミングの後にS35の処理が行われた回数を特定する(S41)。
その結果、前回の予測タイミングの後にS35の処理が行われた回数が2回以上である場合、すなわち、直前に行われたS35の処理が1回目でない場合(S42のNO)、第1位置算出部112は、例えば、S35の処理で算出した観測予測位置133のうち、事前推定位置132に最も近い位置を観測予測位置133として特定する(S43)。
具体的に、第1位置算出部112は、例えば、S35の処理で算出した観測予測位置133のうち、生成時刻が最も新しい事前推定位置132に最も近い位置を観測予測位置133として特定する。
すなわち、第1位置算出部112は、この場合、例えば、図6のS12及びS13の処理で説明した場合と同様に、S35の処理で算出した観測予測位置133(候補位置)のうち、事前推定位置132に最も近い位置を観測予測位置133として特定する。
一方、前回の予測タイミングの後にS35の処理が行われた回数が1回目である場合(S42のYES)、第1位置算出部112は、例えば、S43の処理を行わない。
その後、位置予測部114は、例えば、S35の処理で算出した観測予測位置133(S43の処理で特定した観測予測位置133)と、事前推定位置132とから事後推定位置134を算出する(S43)。そして、位置予測部114は、例えば、算出した事後推定位置134を情報格納領域130に記憶する。
具体的に、第1位置算出部112は、例えば、情報格納領域130に記憶された事前推定位置132(後述する事前推定位置算出処理によって算出された事前推定位置132)のうち、S31の処理で受信した観測位置131に付加された測位対象IDに対応する事前推定位置132であって、生成時刻が最も新しい事前推定位置132を取得する。そして、第1位置算出部112は、例えば、取得した事前推定位置132を用いることによって事後推定位置134を算出する。
[事前推定位置算出処理]
次に、位置予測位置のうち、事前推定位置132を算出する処理(以下、事前推定位置算出処理とも呼ぶ)について説明を行う。図10は、第1の実施の形態における事前推定位置算出処理について説明するフローチャート図である。
第1位置算出部112は、図10に示すように、例えば、S52の処理が前回行われてから所定時間が経過するまで待機する(S51のNO)。ここでの所定時間は、例えば、200(ms)等の定期的な時間であってよい。
そして、S52の処理が前回行われてから所定時間が経過した場合(S51のYES)、第1位置算出部112は、例えば、過去の複数の予測タイミングにおける測位対象ОBの事後推定位置134から、次回の予測タイミングにおける事前推定位置132を算出する(S52)。
具体的に、第1位置算出部112は、例えば、過去の複数の予測タイミングにおける測位対象ОBの事後推定位置134の軌跡から、次の予測タイミングにおける測位対象ОBの事後推定位置134を推定し、推定した事後推定位置134を事前推定位置132として算出する。
なお、第1位置算出部112は、例えば、所定時間ごとに通知を行うタイマー(図示せず)から通知を受信したことに応じて、次回の予測タイミングにおける事前推定位置132の算出を行うものであってよい。
このように、本実施の形態における情報処理装置1は、トラッキング処理部12において、例えば、過去の複数の予測タイミングにおける測位対象ОBの事後推定位置134のそれぞれから、次の予測タイミングにおける測位対象ОBの事前推定位置132を算出する。そして、情報処理装置1は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングにおける事後推定位置134と、最後の予測タイミングの後に撮影装置2から受信した画像データから算出された観測位置131とに基づいて、次の予測タイミングにおける観測予測位置133を算出する。その後、情報処理装置1は、例えば、事前推定位置132と観測予測位置133とに基づいて事後推定位置134を予測する。
具体的に、本実施の形態における情報処理装置1は、例えば、最後の予測タイミングの後であって予測タイミングまでの間に、複数の観測位置131が算出された場合、複数の観測位置131のそれぞれを用いることによって予測タイミングにおける測位対象ОBの候補位置を算出する。そして、情報処理装置1は、例えば、算出した候補位置のうち、候補位置との位置関係が所定条件を満たす位置を観測予測位置133として算出する。
すなわち、本実施の形態における情報処理装置1は、例えば、前回の予測タイミングから次の予測タイミングまでの間に、観測予測位置133の算出に用いることが可能な観測位置131が複数発生した場合、各観測位置131を用いて算出した候補位置のうち、事前推定位置132と最も近い候補位置を観測予測位置133として用いる。
これにより、本実施の形態における情報処理装置1は、例えば、撮影装置2と情報処理装置1との間のネットワークにおける通信状態が良好でなく、位置算出処理部11における画像データの受信タイミングが一定にならない場合であっても、次の予測タイミングにおける測位対象ОBの事後推定位置134を算出することが可能になる。また、情報処理装置1は、例えば、位置算出処理部11において処理遅延が発生したことに起因して、トラッキング処理部12における観測位置131の受信タイミングが一定にならない場合であっても、次の予測タイミングにおける測位対象ОBの事後推定位置134を算出することが可能になる。そのため、情報処理装置1は、例えば、これらのような場合であっても、測位対象ОBのトラッキングを精度良く行うことが可能になる。
また、本実施の形態における情報処理装置1は、例えば、過去の複数の予測タイミングのうちの最後の予測タイミングから所定時間が経過する前に、撮影装置2から受信した画像データから観測位置131が算出された場合、過去の複数の予測タイミングのうちの最後の予測タイミングよりも前のタイミングにおける事後推定位置134と、撮影装置2から受信した画像データから算出された観測位置131とに基づいて観測予測位置133を算出する。
これにより、本実施の形態における情報処理装置1は、例えば、撮影装置2と情報処理装置1との間のネットワークにおける通信状態が良好でなく、事後推定位置134の算出タイミングと観測位置131の算出タイミングとが近くなった場合であっても、観測予測位置133を精度良く算出することが可能になる。また、情報処理装置1は、例えば、位置算出処理部11において処理遅延が発生したことに起因して、事後推定位置134の算出タイミングと観測位置131の算出タイミングとが近くなった場合であっても、観測予測位置133を精度良く算出することが可能になる。そのため、情報処理装置1は、例えば、これらのような場合であっても、測位対象ОBのトラッキングを精度良く行うことが可能になる。
したがって、本実施の形態における情報処理装置1は、例えば、各撮影装置2から位置算出処理部11に対する各画像データの送信タイミングや、位置算出処理部11からトラッキング処理部12に対する各観測位置131の送信タイミングを合わせることなく、測位対象ОBのトラッキングを精度良く行うことが可能になる。
[位置予測処理の具体例]
次に、位置予測処理の具体例について説明を行う。図11から図16は、位置予測処理の具体例について説明する図である。
図11に示す例は、位置予測処理が4回行われ、位置L1a、位置L1b、位置L1c及び位置L1dのそれぞれが事後推定位置134として算出されたことを示している。すなわち、図11に示す例は、例えば、測位対象ОBの移動経路として経路Rが予測されたことを示している。
そして、情報処理装置1は、図12に示すように、例えば、事前推定位置算出タイミングになったことに応じて、事前推定位置132として位置L2を算出する(S52)。具体的に、情報処理装置1は、例えば、事後推定位置134である位置L1a、位置L1b、位置L1c及び位置L1dの軌跡から、位置L2を事前推定位置132として算出する。
また、情報処理装置1は、図13に示すように、例えば、位置算出処理部11から観測位置131として位置L3を受信した場合、事後推定位置134である位置L1dと観測位置131である位置L3とを用いることによって、位置L4を観測予測位置133として算出する(S35)。
その後、情報処理装置1は、図14に示すように、例えば、事前推定位置132である位置L2と観測予測位置133である位置L4とを用いることによって、位置L1eを新たな事後推定位置134として算出する(S44)。
ここで、図15に示すように、例えば、事後推定位置134である位置L1dが算出された後、位置算出処理部11から観測位置131として位置L3aと位置L3bを受信した場合、情報処理装置1は、位置L1dと位置L3aとを用いることによって位置L4aを算出するとともに、位置L1dと位置L3bとを用いることによって位置L4bを算出する(S34)。そして、図15に示すように、例えば、事前推定位置132である位置L2からの距離が位置L4aよりも位置L4bの方が近い場合、情報処理装置1は、位置L4bを観測予測位置133として特定する(S43)。
また、図16に示すように、例えば、事後推定位置134である位置L1dが算出されてから所定時間が経過する前に、位置算出処理部11から観測位置131である位置L3を受信した場合、情報処理装置1は、位置L1dに代えて位置L1cを用いることによって、観測予測位置133である位置L4cを算出する。
以上の実施の形態をまとめると、以下の付記のとおりである。
(付記1)
撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータに実行させる位置予測プログラムであって、
過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
前記第4位置を算出する処理では、
前記最後の予測タイミングの後であって前記予測タイミングまでの間に、前記第1位置が複数算出された場合、複数算出された前記第1位置のそれぞれを用いることによって、前記予測タイミングにおける前記測位対象の第5位置をそれぞれ算出し、
算出した前記第5位置のうち、前記第3位置との位置関係が所定条件を満たす位置を前記第4位置として算出する、
ことを特徴とする位置予測プログラム。
(付記2)
付記1において、
前記第4位置を算出する処理では、前記第5位置のうち、前記第3位置からの距離が最も近い位置を前記第4位置として算出する、
ことを特徴とする位置予測プログラム。
(付記3)
付記1において、
前記第4位置を算出する処理では、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
ことを特徴とする位置予測プログラム。
(付記4)
付記1において、
前記第3位置を算出する処理では、前記複数の予測タイミングにおける前記測位対象の前記第2位置の軌跡から、前記第3位置を推定する、
ことを特徴とする位置予測プログラム。
(付記5)
撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータに実行させる位置予測プログラムであって、
過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
前記第4位置を算出する処理では、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
ことを特徴とする位置予測プログラム。
(付記6)
撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する情報処理装置であって、
過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出する第1位置算出部と、
前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出する第2位置算出部と、
前記第3位置と前記第4位置とに基づいて前記第2位置を予測する位置予測部と、を有し、
前記第2位置算出部は、
前記最後の予測タイミングの後であって前記予測タイミングまでの間に、前記第1位置が複数算出された場合、複数算出された前記第1位置のそれぞれを用いることによって、前記予測タイミングにおける前記測位対象の第5位置をそれぞれ算出し、
算出した前記第5位置のうち、前記第3位置との位置関係が所定条件を満たす位置を前記第4位置として算出する、
ことを特徴とする情報処理装置。
(付記7)
付記6において、
前記第2位置算出部は、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
ことを特徴とする情報処理装置。
(付記8)
撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する情報処理装置であって、
過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出する第1位置算出部と、
前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出する第2位置算出部と、
前記第3位置と前記第4位置とに基づいて前記第2位置を予測する位置予測部と、を有し、
前記第2位置算出部は、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
ことを特徴とする情報処理装置。
(付記9)
撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータが実行する位置予測方法であって、
過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
前記第4位置を算出する処理では、
前記最後の予測タイミングの後であって前記予測タイミングまでの間に、前記第1位置が複数算出された場合、複数算出された前記第1位置のそれぞれを用いることによって、前記予測タイミングにおける前記測位対象の第5位置をそれぞれ算出し、
算出した前記第5位置のうち、前記第3位置との位置関係が所定条件を満たす位置を前記第4位置として算出する、
ことを特徴とする位置予測方法。
(付記10)
付記9において、
前記第4位置を算出する処理では、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
ことを特徴とする位置予測方法。
(付記11)
撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータが実行する位置予測方法であって、
過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
前記第4位置を算出する処理では、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
ことを特徴とする位置予測方法。
1:情報処理装置 2a:撮影装置
2b:撮影装置 2c:撮影装置
2d:撮影装置 101:CPU
102:メモリ 103:I/Oインタフェース
104:ストレージ 105:バス
130:情報格納領域

Claims (9)

  1. 撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータに実行させる位置予測プログラムであって、
    過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
    前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
    前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
    前記第4位置を算出する処理では、
    前記最後の予測タイミングの後であって前記予測タイミングまでの間に、前記第1位置が複数算出された場合、複数算出された前記第1位置のそれぞれを用いることによって、前記予測タイミングにおける前記測位対象の第5位置をそれぞれ算出し、
    算出した前記第5位置のうち、前記第3位置との位置関係が所定条件を満たす位置を前記第4位置として算出する、
    ことを特徴とする位置予測プログラム。
  2. 請求項1において、
    前記第4位置を算出する処理では、前記第5位置のうち、前記第3位置からの距離が最も近い位置を前記第4位置として算出する、
    ことを特徴とする位置予測プログラム。
  3. 請求項1において、
    前記第4位置を算出する処理では、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
    ことを特徴とする位置予測プログラム。
  4. 請求項1において、
    前記第3位置を算出する処理では、前記複数の予測タイミングにおける前記測位対象の前記第2位置の軌跡から、前記第3位置を推定する、
    ことを特徴とする位置予測プログラム。
  5. 撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータに実行させる位置予測プログラムであって、
    過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
    前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
    前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
    前記第4位置を算出する処理では、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
    ことを特徴とする位置予測プログラム。
  6. 撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する情報処理装置であって、
    過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出する第1位置算出部と、
    前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出する第2位置算出部と、
    前記第3位置と前記第4位置とに基づいて前記第2位置を予測する位置予測部と、を有し、
    前記第2位置算出部は、
    前記最後の予測タイミングの後であって前記予測タイミングまでの間に、前記第1位置が複数算出された場合、複数算出された前記第1位置のそれぞれを用いることによって、前記予測タイミングにおける前記測位対象の第5位置をそれぞれ算出し、
    算出した前記第5位置のうち、前記第3位置との位置関係が所定条件を満たす位置を前記第4位置として算出する、
    ことを特徴とする情報処理装置。
  7. 撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する情報処理装置であって、
    過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出する第1位置算出部と、
    前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出する第2位置算出部と、
    前記第3位置と前記第4位置とに基づいて前記第2位置を予測する位置予測部と、を有し、
    前記第2位置算出部は、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
    ことを特徴とする情報処理装置。
  8. 撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータが実行する位置予測方法であって、
    過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
    前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
    前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
    前記第4位置を算出する処理では、
    前記最後の予測タイミングの後であって前記予測タイミングまでの間に、前記第1位置が複数算出された場合、複数算出された前記第1位置のそれぞれを用いることによって、前記予測タイミングにおける前記測位対象の第5位置をそれぞれ算出し、
    算出した前記第5位置のうち、前記第3位置との位置関係が所定条件を満たす位置を前記第4位置として算出する、
    ことを特徴とする位置予測方法。
  9. 撮影装置から受信した画像データから算出された測位対象の第1位置に基づいて予測タイミングにおける前記測位対象の第2位置を予測する処理をコンピュータが実行する位置予測方法であって、
    過去の複数の予測タイミングにおける前記第2位置のそれぞれから、前記予測タイミングにおける前記測位対象の第3位置を算出し、
    前記複数の予測タイミングのうちの最後の予測タイミングにおける前記第2位置と、前記最後の予測タイミングの後に前記撮影装置から受信した画像データから算出された前記第1位置とに基づいて、前記予測タイミングにおける前記測位対象の第4位置を算出し、
    前記第3位置と前記第4位置とに基づいて前記第2位置を予測し、
    前記第4位置を算出する処理では、前記最後の予測タイミングから所定時間が経過する前に、前記第1位置が算出された場合、前記複数の予測タイミングのうちの前記最後の予測タイミングよりも前のタイミングにおける前記第2位置と前記第1位置とに基づいて前記第4位置を算出する、
    ことを特徴とする位置予測方法。
JP2022172099A 2022-10-27 2022-10-27 位置予測プログラム、情報処理装置及び位置予測方法 Pending JP2024063919A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022172099A JP2024063919A (ja) 2022-10-27 2022-10-27 位置予測プログラム、情報処理装置及び位置予測方法
US18/489,383 US20240144492A1 (en) 2022-10-27 2023-10-18 Position prediction program, information processing device, and position prediction method
EP23204856.1A EP4362455A1 (en) 2022-10-27 2023-10-20 Position prediction program, information processing device, and position prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022172099A JP2024063919A (ja) 2022-10-27 2022-10-27 位置予測プログラム、情報処理装置及び位置予測方法

Publications (1)

Publication Number Publication Date
JP2024063919A true JP2024063919A (ja) 2024-05-14

Family

ID=88506551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022172099A Pending JP2024063919A (ja) 2022-10-27 2022-10-27 位置予測プログラム、情報処理装置及び位置予測方法

Country Status (3)

Country Link
US (1) US20240144492A1 (ja)
EP (1) EP4362455A1 (ja)
JP (1) JP2024063919A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3401512B2 (ja) 1999-03-26 2003-04-28 株式会社国際電気通信基礎技術研究所 移動物体追跡装置
US10664705B2 (en) * 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP6969987B2 (ja) 2017-11-15 2021-11-24 パナソニック株式会社 通信装置、通信システムおよび移動体追跡方法
US11131993B2 (en) * 2019-05-29 2021-09-28 Argo AI, LLC Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
JP2022072347A (ja) 2020-10-29 2022-05-17 清水建設株式会社 座標管理装置、座標管理方法、及びプログラム
CN115222769A (zh) * 2022-06-14 2022-10-21 京东科技信息技术有限公司 轨迹预测方法、装置和智能体

Also Published As

Publication number Publication date
US20240144492A1 (en) 2024-05-02
EP4362455A1 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
CN110310326B (zh) 一种视觉定位数据处理方法、装置、终端及计算机可读存储介质
CN110163885B (zh) 一种目标跟踪方法及装置
US8897543B1 (en) Bundle adjustment based on image capture intervals
JP7151488B2 (ja) 移動物体検出装置、移動物体検出方法及びプログラム
CN109145771B (zh) 一种人脸抓拍方法及装置
WO2022135027A1 (zh) 多目标跟踪方法、装置、计算机设备及存储介质
US8004528B2 (en) Method, systems and computer product for deriving three-dimensional information progressively from a streaming video sequence
CN111031348A (zh) 一种视频加扰方法、装置、服务器和存储介质
JP2014175706A (ja) 監視装置、監視方法および撮像部の配置方法
CN111626263A (zh) 一种视频感兴趣区域检测方法、装置、设备及介质
JP2021128753A (ja) 目標検出方法、装置、電子デバイス、記憶媒体、及びプログラム
CN115272426A (zh) 一种跨相机轨迹关联方法、装置及电子设备
JP6977337B2 (ja) 部位認識方法、装置、プログラム、及び撮像制御システム
CN106296730A (zh) 一种人体运动跟踪系统
JP2024063919A (ja) 位置予測プログラム、情報処理装置及び位置予測方法
CN113744299A (zh) 一种相机控制方法、装置、电子设备及存储介质
JP7497223B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2020052822A (ja) 情報処理装置、認証システムおよびそれらの制御方法、プログラム
WO2023197668A1 (zh) 机器人避障控制方法和装置
KR101273634B1 (ko) 모바일 기기를 이용하는 증강현실 환경에서 복수 객체 추적방법 및 이를 이용한 시스템
KR20170082331A (ko) 눈 위치 예측 방법 및 장치
JP2022075518A (ja) 生産ライン監視方法および生産ライン監視システム
EP4049534A1 (en) Fish counting system, fish counting method, and program
CN116996760A (zh) 视频数据的处理方法、装置、计算机可读介质及电子设备
JP2023042400A (ja) データ収集装置、データ収集方法及びデータ収集プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221028