JP2021135540A - 物体追跡装置、物体追跡方法、及び物体追跡プログラム - Google Patents

物体追跡装置、物体追跡方法、及び物体追跡プログラム Download PDF

Info

Publication number
JP2021135540A
JP2021135540A JP2020028740A JP2020028740A JP2021135540A JP 2021135540 A JP2021135540 A JP 2021135540A JP 2020028740 A JP2020028740 A JP 2020028740A JP 2020028740 A JP2020028740 A JP 2020028740A JP 2021135540 A JP2021135540 A JP 2021135540A
Authority
JP
Japan
Prior art keywords
result
unit
tracking
tracker
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020028740A
Other languages
English (en)
Other versions
JP7476563B2 (ja
Inventor
亮裕 中村
Akihiro Nakamura
亮裕 中村
亮暢 藤井
Akinobu Fujii
亮暢 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2020028740A priority Critical patent/JP7476563B2/ja
Publication of JP2021135540A publication Critical patent/JP2021135540A/ja
Application granted granted Critical
Publication of JP7476563B2 publication Critical patent/JP7476563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】通信の一時的な途絶に対してロバストであり、かつ、物体の種別を識別可能な追跡を実現する。【解決手段】物体追跡装置は、エリア内に設置されたセンサの出力から物体の各々の位置を検出し、検出結果を出力する検出部と、前記検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力する追跡部と、を含む。また、物体追跡装置は、前記物体のうちの自己位置の推定が可能な物体の各々から、当該物体により推定された自己位置の推定結果を受信する通信部と、統合部とを含む。統合部は、前記物体の各々から受信した前記推定結果を第2の結果として、所定の対応付けにより前記第1の結果の物体と前記第2の結果の物体とを統合して出力する。【選択図】図1

Description

本開示は、物体追跡装置、物体追跡方法、及び物体追跡プログラムに関する。
移動体の制御及び管理を行う管制に関する技術がある。
例えば、自動運転車両と手動運転車両とが共に通行可能な混走道路においても、自動運転車両及び手動運転車両を共に円滑に走行させることを可能とする技術がある(特許文献1参照)。この技術では、混走道路を走行する車両の台数、走行位置、走行速度、及び停
止位置等の監視情報に基づいて停止ゾーンに手動運転車両が停止したか否かを判定している。
また、移動体からの通信途絶に対して、精度の高い予測を行うと共に、予測した動的データを共有することで、シームレスな他の制御プログラムへの引き継ぎを実現する技術がある(特許文献2参照)。この技術では、移動体の位置を把握するダイナミックマップを用いて、通信途絶があった場合、該当する管理制御装置で車両の走行状態を予測し、かつ、ダイナミックマップを共有する他の管理制御装置へ予測データを送信している。
特開2017−220129号公報 特開2018−106504号公報
ここで、特許文献1では、交差点周辺のインフラセンサと、車車間との通信、又は路車間との通信を利用した車両識別の識別を実施している。しかし、通信が途絶した場合が考慮されていない。
また、特許文献2では、通信の途絶に着目しているものの、車両種別の識別、及びエリア内に設置されたインフラセンサの活用については考慮されていない。
本開示は、上記事情を鑑みて成されたものであり、通信の一時的な途絶に対してロバストであり、かつ、物体の種別を識別可能な追跡を実現する物体追跡装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本開示の物体追跡装置は、エリア内に設置されたセンサの出力から物体の各々の位置を検出し、検出結果を出力する検出部と、前記検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力する追跡部と、前記物体のうちの自己位置の推定が可能な物体の各々から、当該物体により推定された自己位置の推定結果を受信する通信部と、前記物体の各々から受信した前記推定結果を第2の結果として、所定の対応付けにより前記第1の結果の物体と前記第2の結果の物体とを統合して出力する統合部と、を含んで構成されている。
また、本開示の物体追跡方法は、エリア内に設置されたセンサの出力から物体の各々の位置を検出し、検出結果を出力し、前記検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力し、前記物体のうちの自己位置の推定が可能な物体の各々から、当該物体により推定された自己位置の推定結果を受信し、前記物体の各々から受信した前記推定結果を第2の結果として、所定の対応付けにより前記第1の結果の物体と前記第2の結果の物体とを統合して出力する、処理をコンピュータに実行させる。
また、本開示の物体追跡プログラムは、エリア内に設置されたセンサの出力から物体の各々の位置を検出し、検出結果を出力し、前記検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力し、前記物体のうちの自己位置の推定が可能な物体の各々から、当該物体により推定された自己位置の推定結果を受信し、前記物体の各々から受信した前記推定結果を第2の結果として、所定の対応付けにより前記第1の結果の物体と前記第2の結果の物体とを統合して出力する、処理をコンピュータに実行させる。
本開示の物体追跡装置、物体追跡方法、及び物体追跡プログラムによれば、通信の一時的な途絶に対してロバストであり、かつ、物体の種別を識別可能な追跡を実現することができる。
第1実施形態の物体追跡システムの構成を示すブロック図である。 物体追跡装置のハードウェア構成を示すブロック図である。 管制エリア内のインフラセンサの配置の一例を示す図である。 センサ数分の検出部とする場合の一例を示す図である。 センサ数分の第1追跡部とする場合の一例を示す図である。 第1実施形態の物体追跡装置による物体追跡処理の流れを示すフローチャートである。 第2実施形態の物体追跡システムの構成を示すブロック図である。 対応付け部の構成を示すブロック図である。 第1追跡器群と第2追跡器群との組み合わせの一例を示す図である。 時刻t2に通信が途絶し、更に物体A及びBが共に減速するような状況の一例を示すグラフである。 通信の途絶があった場合の実際の走行レーン上の物体A及び物体Bの時系列の推移及び対応付けの一例を示す図である。 通信途絶がない場合であって、誤った第1追跡器が生成された場合の対応付けの例である。 第2実施形態の物体追跡装置による物体追跡処理の流れを示すフローチャートである。 対応付け処理の流れを示すフローチャートである。 変形例における自己位置を保持する場合の一例を示すブロック図である。 変形例における移動体が検出部を有する場合の一例を示すブロック図である。
以下、図面を参照して本開示の実施形態を詳細に説明する。
本実施形態は、管制型の自動運転の応用を念頭に置いた技術である。手動運転車両が混在する環境で、管制が自動運転車両を制御する際、移動体の制御計画が必要となる。もっとも、通信可能な移動物体と通信が不可能な移動物体が混在する環境下で、通信を介した移動物の制御を計画するためには、移動物を追跡することに加えて、通信が可能か否か、制御対象か否かなどの対象の種類の識別が必要である。更に、一部の移動物体との通信が一時的に途絶した場合にも、追跡及び識別を適切に行うことが必要である。
そこで本実施形態の技術は、あるエリアに設置されたセンサ(以下、インフラセンサ、又は単にセンサと記載する)によって追跡した物体の位置と、車両自体で推定された自己位置とを統合する手法を用いる。以下、本実施形態では、追跡対象の物体が手動運転車両、又は自己位置推定が可能な自動運転車両である場合を例に説明する。なお、物体は車両に限定されるものではなく、管制の必要性がある他の移動体であってもよい。その場合、自己位置推定が可能な移動体が含まれていればよい。
[第1実施形態]
図1は、第1実施形態の物体追跡システム100の構成を示すブロック図である。図1に示すように、物体追跡システム100は、複数のセンサ110の各々と、追跡対象である移動体112の各々、及び追跡対象であり、かつ、自己位置推定が可能な移動体114の各々と、物体追跡装置130とが、ネットワークNを介して接続されている。ネットワークNは、例えば、インターネット回線、又は公衆無線LAN等である。本実施形態では、移動体112を物体A、移動体114を物体Bとして扱う。移動体112及び移動体114のそれぞれを総称する場合には単に移動体、又は物体と記載する。各機能構成については後述する。
図2は、物体追跡装置130のハードウェア構成を示すブロック図である。図2に示すように、物体追跡装置130は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。
CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、物体追跡プログラムが格納されている。
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の記憶装置により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。
表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能してもよい。
通信インタフェース17は、端末等の他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi−Fi(登録商標)等の規格が用いられる。以上が、物体追跡装置130のハードウェア構成の説明である。
物体追跡システム100の各機能構成を説明する。
移動体114は、通信部116と、自己位置推定部118とを含む。
物体追跡装置130は、通信部132と、検出部134と、第1追跡部136と、第2追跡部138と、統合部140とを含む。物体追跡装置130の処理は、予め設定した時間ごとに繰り返し、リアルタイムにエリア内を移動する移動体を統合し、出力する。これにより物体追跡装置130が管轄するエリアの管制を行う。
センサ110は、物体追跡システム100の管制エリア内に設置されたインフラセンサであり、本実施形態ではカメラを利用する。各センサ110により物体を撮影し、撮影したカメラ画像を物体追跡装置130に送信する。ここで撮影される物体は、移動体112である物体A、及び移動体114である物体Bを想定する。なお、物体の位置を検出可能な出力が得られるセンサであれば、カメラ以外でもよく、赤外線センサ、超音波センサ等を用いてもよい。
図3は、管制エリア内のインフラセンサの配置の一例を示す図である。図3の例ではC1〜C12、CR1、及びCR2がセンサ110に相当するインフラセンサであり、走行エリアを撮影するように設置されている。
移動体114は、自己位置推定部118で推定した自己位置の推定結果を、通信部116から物体追跡装置130に送信する。自己位置推定部118の自己位置推定手法については、本実施形態ではマップマッチングの手法を用いる。マップマッチングは外界センサで得た周辺環境の外形形状データと、予め用意した自己位置推定用の地図に含まれる環境外形データとをマッチングさせ、一致する地点を自己位置として推定する手法である。精度、及びロバスト性の向上を目的に、各種エンコーダなどの内界センサの検出結果も推定に用いる。一般的な自己位置推定の手法にはモンテカルロ定位などが知られているが、同手法に限定されるものではなく、GPSなどを用いた自己位置推定手法であってもよい。
次に、物体追跡装置130の各機能構成について説明する。各機能構成は、CPU11がROM12又はストレージ14に記憶された物体追跡プログラムを読み出し、RAM13に展開して実行することにより実現される。
通信部132は、センサ110の各々からカメラ画像を受信する。通信部132は、移動体114から自己位置の推定結果を受信する。
検出部134は、センサ110の各々の出力であるカメラ画像から物体の各々の位置を検出し、検出結果を出力する。ここで検出する物体は、例えば、移動体112の各々、及び移動体114の各々である。図4は、センサ数分の検出部とする場合の一例を示す図である。検出部134は、例えば図4に示すように、センサ110〜110のそれぞれと対応させた検出部134〜134として、センサ数分の検出部として構成できる。図3のように複数配置されたセンサ110により取得したカメラ画像から、一般的な物体検出手法を用いて、画像中の物体の位置を検出する。
第1追跡部136は、検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力する。第1追跡部136では、各検出部134〜134の出力を利用し、共通の座標系で物体の位置を追跡する。共通の座標系としては、例えば地図座標がある。複数のカメラを用いた多物体追跡の手法としては例えば参考文献1の手法を用いればよい。
[参考文献1]特開2016−71830号公報
このようにインフラセンサを用いて物体追跡を行い、通信の可、不可に関わらず、物体の位置及び速度を地図上で追跡する。上記例では、センサ110ごとに検出し、検出結果を第1追跡部136で統合して追跡する場合を例に説明したが、これに限らない。図5は、センサ数分の第1追跡部とする場合の一例を示す図である。例えば図5のように、第1追跡部136もセンサ110〜110と対応させた第1追跡部136〜136として、センサ110ごとに検出及び追跡を行なった後に、第1追跡統合部136により地図座標上で統合してもよい。
第2追跡部138は、移動体114から受信した自己位置の推定結果の推移から移動体114の位置を追跡した追跡結果を求め、第2の結果として出力する。第2追跡部138は、第1追跡部136と共通の座標系、例えば地図座標における各物体の自己位置を出力する必要がある。第2追跡部138では、受信した最新の自己位置の推定結果のみを保持してもよいし、例えばカルマンフィルタを利用してフィルタリングをしてもよい。また、各物体の自己位置の履歴を管理してもよい。
統合部140は、所定の対応付けにより第1の結果の物体と第2の結果の物体とを統合して出力する。例えば、それぞれの結果に含まれる物体の距離の近さに応じて距離の近い物体を対応付ける。これにより、同一物体を統合して出力する。また、統合結果の物体の各々には、物体の属性として、物体の種別、通信可能な否かの状態等を含めて出力してもよい。物体の種別は、例えば、車両であれば手動運転車両か自動運転車両かといった車両の種別である。
次に、第1実施形態に係る物体追跡装置130の作用について説明する。
図6は、第1実施形態の物体追跡装置130による物体追跡処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から物体追跡プログラムを読み出して、RAM13に展開して実行することにより、物体追跡処理が行なわれる。CPU11が物体追跡装置130の各部として処理を実行する。
ステップS100において、CPU11が通信部132として、センサ110の各々からカメラ画像、移動体114の各々から自己位置の推定結果を受信する。ここでの受信はセンサ110の各々、移動体114の各々の送信タイミングで随時行われる。
ステップS102において、CPU11が検出部134として、センサ110の各々の出力であるカメラ画像から物体の各々を検出し、検出結果を出力する。
ステップS104において、CPU11が第1追跡部136として、ステップS102の検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力する。
ステップS106において、CPU11が第2追跡部138として、移動体114から受信した自己位置の推定結果の推移から移動体114の位置を追跡した追跡結果を求め、第2の結果として出力する。
ステップS108において、CPU11が統合部140として、所定の対応付けにより第1の結果の物体と第2の結果の物体とを統合して出力する。
以上説明したように、第1実施形態に係る物体追跡システムによれば、通信の一時的な途絶に対してロバストであり、かつ、物体の種別を識別可能な追跡を実現する。
[第2実施形態]
次に第2実施形態について説明する。第2実施形態の手法は、第1実施形態の構成に加えて、更に予測を伴う対応付けを行うことにより、物体追跡の精度を高める構成である。なお、第1実施形態と同様の構成及び作用となる箇所については同一符号を付して説明を省略する。
図7は、第2実施形態の物体追跡システム200の構成を示すブロック図である。第2実施形態では、物体追跡装置230の構成が第1実施形態と異なり、対応付け部242と、対応付け履歴記憶部244とを含む。図8は、対応付け部242の構成を示すブロック図である。対応付け部242は、予測部250と、分類部252と、確認部254と、計算部256とを含む。物体追跡装置230のハードウェア構成は第1実施形態と同様である。
対応付け部242は、これらの各部の処理により、第1の結果の物体と第2の結果の物体とを履歴及び予測により対応付けた対応付けペアの対応付け結果を出力する。
対応付け部242の処理の前提として、第1の結果及び第2の結果において、それぞれの追跡結果の物体の各々を追跡器群とする。また、第1の結果及び第2の結果のそれぞれの追跡器を第1追跡器、及び第2追跡器とする。履歴とは、対応付け履歴記憶部244の対応付けペアの履歴である。対応付けペアとは、対応付けられた第1追跡器と第2追跡器との組である。ここでの履歴は、時系列に処理されて直近に対応付け履歴記憶部244に保存された組を指す。予測とは、予測部250による第1追跡器、及び第2追跡器のそれぞれの追跡器の時系列の状態の推移の予測結果である。追跡器とは、追跡の対象とした物体であり、推移の予測対象である。対応付け履歴記憶部244には、第1追跡器の各々と前記第2追跡器の各々との対応付けペアが逐次保存される。
予測部250は、第1の結果である第1追跡器の各々と、第2の結果である第2追跡器の各々とのそれぞれの追跡器群について、共通の時系列における状態の推移を予測した予測結果を出力する。共通の時系列の基準とする時刻は、現在の時刻、又は追跡器のうちの最新の時刻が挙げられる。状態は、ここではx軸及びy軸の位置とする。ここで、第2追跡器については、予測に使用した時刻と、最後に受信した時刻との差に応じた尤度を設定し、通信の不安定さを反映する。予測処理は、線形回帰モデル又はマルコフ過程等の任意の手法を用いればよい。
分類部252は、対応付け履歴記憶部244の対応付けの履歴と、予測結果とに基づいて、履歴及び予測に関する第1条件に従って、追跡器群を、第1条件を満たす追跡器群と、第1条件を満たさない追跡器群とのそれぞれに分類して出力する。第1条件とは、履歴の中で対応付けされている対応付けペアに着目している追跡器が含まれ、かつ、当該対応付けペアの第1追跡器及び第2追跡器が予測部250で予測対象とした追跡器に含まれることを条件とする。第1条件を満たす追跡器群とは、第1条件を満たす第1追跡器と第2追跡器との組の対応付けペアからなる。第1条件を満たさない追跡器群とは、条件を満たす追跡器群以外の第1追跡器群及び前記第2追跡器群である。ここでは追跡器ごとに第1条件を満たすか否かを判定して分類し、出力すればよい。第1条件の条件判定は、対応付けペアの存在の有無が条件となっているため、第1追跡器又は第2追跡器のいずれかに着目して行えばよい。ここでは、例えば、第2追跡器に着目して第2追跡器の全てについて第1条件の判定を行えば、第1条件を満たす対応付けペアを出力可能である。これにより入力された第1追跡器群及び第2追跡器群を、第1条件を満たす追跡器群と、第1条件を満たさない追跡器群とに分類する。第1条件を満たす追跡器群は、対応付けの確認が必要な対応付けペアとして確認部254に出力する。第1条件を満たさない追跡器群は、計算部256に出力し、追跡器の組の各々について対応付けを計算する。
確認部254は、第1条件を満たす対応付けペアからなる追跡器群について、尤もらしさに関する第2条件に従って、第2条件を満たすか否かを判定する。具体的には、第2条件は、第2追跡器の尤度が一定値以上で、かつ、マハラノビス距離が一定以上であることとする。このように第2追跡器の尤度で判定すると共に、対応付けペアの第1追跡器と第2追跡器との近さを評価する。第2条件を満たす場合には、対応付けペアを維持し、統合部140、及び対応付け履歴記憶部244に出力する。第2条件を満たさない場合には、対応付けペアを解除して、計算部256に出力する。また、第2条件の別の手法としては、第2追跡器の尤度に基づいて、対応付けの距離閾値を変更してもよい。また、マハラノビス距離に限らず、通常の距離を判定に利用してもよい。なお、第2追跡器の尤度は予測部250で用いた尤度と同様の尤度を用いる。これにより、予測した対応付けペアが、対応付けペアとして尤もらしいかを判別できる。また、通信の一時的な途絶への対処、及び第1追跡部136で誤った第1追跡器が生成されてしまった場合の対処が行える。第1追跡部136では、カメラ画像を元に追跡器を生成するため誤って本来は存在しないはずの第1追跡器が生成されてしまう場合がある。本処理によって、このような誤って生成された第1追跡器との対応付けを防止できる。
計算部256には、第1条件を満たさない追跡器群、及び第2条件を満たさない追跡器群が入力される。なお、第1条件、又は第2条件が本開示の所定の条件の一例である。
計算部256は、所定の条件を満たさない追跡器群について、第1追跡部と第2追跡部との組み合わせの各々について最適となる対応付けペアを計算し、統合部140、及び対応付け履歴記憶部244に出力する。計算部256は、第1追跡器と、第2追跡器との組み合わせの全てについて1対1で排他的な対応付けを計算する。マハラノビス距離に応じたコストを設定し、コストが最小となるような組み合わせを計算する。
図9は、第1追跡器群と第2追跡器群との組み合わせの一例を示す図である。図9に示すように、第1追跡器群(追跡器1)をN個、第2追跡器群(追跡器2)をM個とし、確認部254での閾値に相当するコストを設定したダミーノードを、第2追跡器側にN個追加して対応付けを計算する。これは2部グラフのマッチング問題となり、ハンガリアン法を利用すれば簡単に解くことが可能である。
対応付け履歴記憶部244には、確認部254、又は計算部256から出力された対応付けペアの履歴を保存する。履歴の長さは適切に設定すればよく、例えば最新の結果のみ、又は最新の数回分を設定して保存すればよい。
以上のような対応付け部242の処理が有効なシーンの例を図10に示す。図10は、時刻t2に通信が途絶し、更に物体A及びBが共に減速するような状況の一例を示すグラフである。図10において、縦軸がx軸方向の物体の位置、横軸が時系列の時間tを表している。物体Aが第1追跡器に対応し、物体Bが第2追跡器に対応する。通信の途絶については、物体Bとの通信が時刻tの時点から網掛けの範囲で途絶したという状況である。この場合、予測部250の予測において減速を反映できないため、時刻t1及び時刻t2の推移に応じた一次関数的な推移の予測となっている。しかし、実際には、物体Bは減速しているため対数的な推移となっている。実際の物体Bの動きと第2追跡器として予測された物体Bの動きとが乖離が生じてしまう。このように時刻t3での第2追跡器の予測の精度は大きく低下してしまう。
図11は、通信の途絶があった場合の実際の走行レーン上の物体A及び物体Bの時系列の推移及び対応付けの一例を示す図である。図11では、図10で示した物体A及び物体Bの2つの物体について、左側に物体A及び物体Bの時系列の位置を示し、右側に第1追跡器と第2追跡器との対応付けを示している。左側の物体Aは通信機能がなく、物体Bは通信機能があり、自己位置推定を行う。右側の楕円が第1追跡器を示し、三角が第2追跡器を示している。図11の例では、時刻tごとに第2追跡器の推移を予測して、単純に予測により近い第1追跡器と第2追跡器とを対応付けると仮定する。破線が予測される推移である。図11に示すように、時刻t1及び時刻t2では、予測において、後ろの第1追跡器に第2追跡器が対応付いている。これは左側の物体A及び物体Bの対応付けペアとして正しい。一方、時刻t3を見ると、予測において、前の第1追跡器に第2追跡器が誤って対応付けられてしまっている。このように、都度、予測して対応付けすると、通信の途絶によって対応付けが間違ってしまう場合がある。そのため、このような通信の途絶を想定して、通信状況の良い時刻t1及び時刻t2で対応付けた対応付けペアを対応付け履歴記憶部244に履歴として保存しておき、上記のように確認部254及び計算部256で処理する。この場合、時刻t3の時点の履歴として前の時刻t2の対応付けペアが残っており、かつ、当該対応付けペアについて予測が行われていれば第1条件を満たすため、確認部254で対応付けの確認が行われる。そして、確認部254で当該対応付けペアは第2条件を満たさなければ、対応付けが解除され、計算部256で新たに対応付けが行われる。これにより、時刻t3において後ろの第1追跡器に第2追跡器が正しく対応付けられた対応付けペアが生成できる。このように通信の途絶が生じた場合でも誤った対応付けを防止できる。
また、図12は、通信途絶がない場合であって、誤った第1追跡器が生成された場合の対応付けの例である。図12の右側に示すように、時刻t1の時点で誤った第1追跡器が生成され第1追跡器が3つ生成されてしまっている。実際は左側に示すように、物体は2つであるため、正しくは2つの第1追跡器が生成されるのが望ましいが、何らか障害物等を誤って検出してしまっているケースである。そのため時刻t1では、誤って生成された第1追跡器と第2追跡器とが対応付けられてしまっている。次に、時刻t2の時点では、誤って生成された第1生成器と、前方の第1生成器との距離が離れている。そのため時刻t1時点の対応付けペアは、確認部254での確認によって第2条件を満たさないと判定され、計算部256により新たな対応付けがなされる。これにより、正しい対応付けペアが対応付け履歴記憶部114に保存され、時刻t3の時点でも正しい対応付けペアを維持できる。
統合部140は、対応付け結果により第1の結果の物体と第2の結果の物体とを統合して出力する。対応付いていない追跡器についてはそのまま出力すればよく、対応付いた追跡器については第1追跡器又は第2追跡器のどちらかを選択して出力すればよい。選択については、例えば第2追跡器の尤度に応じて選択できる。また、第1追跡器についても尤度を計算しておき第2追跡器と比較してもよい。また、第2追跡器について位置の分散を推定しておき、分散行列に基づいて選択してもよい。
次に、第2実施形態に係る物体追跡装置230の作用について説明する。
図13は、第2実施形態の物体追跡装置230による物体追跡処理の流れを示すフローチャートである。ステップS106の処理の第2の結果を出力する処理の後に、ステップS200の処理が行われる。
ステップS200において、CPU11が対応付け部242として、第1の結果の物体と第2の結果の物体とを履歴及び予測により対応付けた対応付けペアの対応付け結果を出力する。対応付け処理の詳細については後述する。
ステップS202において、ステップS200の対応付け結果により第1の結果の物体と第2の結果の物体とを統合して出力する。
ステップS200の対応付け処理の作用について説明する。図14は、対応付け処理の流れを示すフローチャートである。
ステップS1200において、CPU11が予測部250として、第1の結果である第1追跡器の各々と、第2の結果である第2追跡器の各々とのそれぞれの追跡器群について、共通の時系列における状態の推移を予測した予測結果を出力する。
ステップS1202において、CPU11が分類部252として、追跡器群から条件判定する追跡器を選択する。ここでは、条件判定していない第2追跡器を順次選択すればよい。
ステップS1204において、CPU11が分類部252として、対応付け履歴記憶部244の対応付けの履歴と、予測結果とに基づいて、選択した追跡器が、第1条件を満たすか否かを判定する。満たしている場合にはステップS1206へ移行し、満たしていない場合にはステップS1208へ移行する。
ステップS1206において、CPU11が分類部252として、第1条件を満たす追跡器群に分類し、確認部254に出力する。
ステップS1208において、CPU11が分類部252として、第1条件を満たさない追跡器群に分類し、計算部256に出力する。
ステップS1210において、CPU11が分類部252として、全ての追跡器群について第1条件の条件判定が終了したかを判定し、終了していればステップS1212へ移行し、終了していなければステップS1202へ戻る。
ステップS1212において、CPU11が確認部254として、第1条件を満たす対応付けペアからなる追跡器群のうち条件判定する対応付けペアを選択する。
ステップS1214において、CPU11が確認部254として、選択した対応付けペアについて、尤もらしさに関する第2条件に従って、第2条件を満たすか否かを判定する。満たしている場合にはステップS1216へ移行し、満たしていない場合にはステップS1218へ移行する。
ステップS1216において、CPU11が確認部254として、第2条件を満たす対応付けペアとし、対応付けを維持する。
ステップS1218において、CPU11が確認部254として、第2条件を満たさない対応付けペアとし、対応付けを解除して計算部256に出力する。
ステップS1220において、CPU11が確認部254として、全ての対応付けペアについて第2条件の条件判定が終了したかを判定し、終了していればステップS1222へ移行し、終了していなければステップS1212へ戻る。
ステップS1222において、CPU11が計算部256として、所定の条件を満たさない追跡器群について、第1追跡部と第2追跡部との組み合わせの各々について最適となる対応付けペアを計算する。
ステップS1224において、CPU11が計算部256として、ステップS1216で対応付けを維持した対応付けペア、及びステップS1222で計算した対応付けペアを対応付け結果として、統合部140、及び対応付け履歴記憶部244に出力する。
以上説明したように、第2実施形態に係る物体追跡システムによれば、履歴及び予測による対応付けにより、通信の一時的な途絶に対してロバストであり、かつ、物体の種別を識別可能な追跡を実現する。
なお、本開示は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。以下に、変形例を説明する。
例えば、上述した各実施形態では、第2追跡部138を用いて自己位置推定の結果を追跡する場合を例に説明したが、これに限定されるものではない。例えば、図15に示すように、第2追跡部138を自己位置保持部238として受信した自己位置を保持するようにしてもよい。この場合には、受信した自己位置を時系列順に保持しておき、時系列順に保持された自己位置を追跡結果の代わりに第2の結果として用いればよい。
また、移動体114は、図16に示すように、センサ120及び検出部122の検出機能を有していてもよい。図16に示す例では、移動体114は、検出機能を有さない移動体114aと、検出機能を有する移動体114bとに分けられる。センサ120は、インフラセンサであるセンサ110と同様にカメラを利用して、カメラ画像を撮影する。センサ120は、もちろん他の赤外線センサ、超音波センサ等であってもよい。検出部122は、物体追跡装置130(230)の検出部134と同様の処理により周囲の物体を検出する。このように、移動体114が検出部122を有する場合には、物体追跡装置130(230)は、インフラセンサの出力に限らず、移動体114が検出した情報を受信して追跡処理に利用できる。当該検出した情報を地図座標に変換すれば、センサ110の情報と同様の追跡が実現できる。このように、移動体114から、周囲の物体の検出結果を受信し、第1追跡部136において検出結果として利用してもよい。
また、上述した第2実施形態では確認部254を含む場合を説明したが、これに限定されるものではない。例えば、確認部254の処理を省略してもよい。つまり第2条件による判定を省略して、第1条件を満たす対応付けペアは対応付けを維持したまま出力する簡素な構成としてもよい。この場合であっても、計算部256により計算により、第1条件を満たさない追跡器群について対応付けペアが計算される。
なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した物体追跡処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field−Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、物体追跡処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、物体追跡処理のプログラムがROMまたはストレージに予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD−ROM(Compact Disk Read Only Memory)、DVD−ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non−transitory)記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
100、200 物体追跡システム
110 センサ
112 移動体(物体A)
114 移動体(物体B)
116 通信部
118 自己位置推定部
120 センサ
122 検出部
130、230 物体追跡装置
132 通信部
134 検出部
136 第1追跡部
136A 第1追跡統合部
138 第2追跡部
140 統合部
242 対応付け部
244 対応付け履歴記憶部
250 予測部
252 分類部
254 確認部
256 計算部

Claims (10)

  1. エリア内に設置されたセンサの出力から物体の各々の位置を検出し、検出結果を出力する検出部と、
    前記検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力する追跡部と、
    前記物体のうちの自己位置の推定が可能な物体の各々から、当該物体により推定された自己位置の推定結果を受信する通信部と、
    前記物体の各々から受信した前記推定結果を第2の結果として、所定の対応付けにより前記第1の結果の物体と前記第2の結果の物体とを統合して出力する統合部と、
    を含む物体追跡装置。
  2. 前記追跡部は、前記第1の結果を出力する第1追跡部と、第2追跡部とを含み、
    前記第2追跡部は、前記推定結果の推移から前記物体の位置を追跡した追跡結果を求め、前記第2の結果として出力する請求項1に記載の物体追跡装置。
  3. 前記物体の各々から受信した前記推定結果を第2の結果として、前記第1の結果の物体と前記第2の結果の物体とを所定の履歴及び予測により対応付けた対応付け結果を出力する対応付け部を更に含み、
    前記統合部は、前記対応付け結果により前記第1の結果の物体と前記第2の結果の物体とを統合して出力する請求項1又は請求項2に記載の物体追跡装置。
  4. 前記対応付け部は、予測部と、分類部と、計算部とを含み、
    前記予測部は、前記第1の結果である第1追跡器の各々と、前記第2の結果である第2追跡器の各々とのそれぞれの追跡器群について、共通の時系列における状態の推移を予測した予測結果を出力し、
    前記分類部は、前記第1追跡器と前記第2追跡器との組である対応付けペアの対応付け履歴と、前記予測結果とに基づいて、前記履歴及び予測に関する第1条件に従って、前記追跡器群を、前記対応付けペアのうち前記第1条件を満たす対応付けペアからなる追跡器群と、所定の条件を満たさない追跡器群とのそれぞれに分類し、
    前記計算部は、前記所定の条件を満たさない追跡器群について、前記第1追跡器と前記第2追跡器との組み合わせの各々について最適となる対応付けペアを計算し、
    前記対応付け部は、前記第1条件を満たす対応付けペアと、前記計算部で計算された対応付けペアとを対応付け結果として出力する請求項3に記載の物体追跡装置。
  5. 前記対応付け部は、確認部を更に含み、
    前記確認部は、前記第1条件を満たす対応付けペアからなる追跡器群について、尤もらしさに関する第2条件に従って、当該第2条件を満たす場合には対応付けを維持して対応付けペアを出力し、前記第2条件を満たさない場合には、前記所定の条件を満たさないとして対応付けペアを解除して前記計算部に出力する請求項4に記載の物体追跡装置。
  6. 前記第1条件は、着目する追跡器について、前記履歴の対応付けペアに含まれ、かつ、前記予測結果に当該対応付けペアの追跡器が含まれることを条件とし、
    前記第2条件は、前記第2追跡器の尤度、及び当該対応付けペアの距離に基づく条件とする請求項5に記載の物体追跡装置。
  7. 前記物体のうち、周囲の物体を検出する機能を有する物体があり、
    前記通信部は、前記物体から、周囲の物体の検出結果を受信し、前記追跡部において前記検出結果として利用する請求項1〜請求項6の何れか1項に記載の物体追跡装置。
  8. 前記統合部は、統合の出力に前記物体の属性を含めて出力する請求項1〜請求項7の何れか1項に記載の物体追跡装置。
  9. エリア内に設置されたセンサの出力から物体の各々の位置を検出し、検出結果を出力し、
    前記検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力し、
    前記物体のうちの自己位置の推定が可能な物体の各々から、当該物体により推定された自己位置の推定結果を受信し、
    前記物体の各々から受信した前記推定結果を第2の結果として、所定の対応付けにより前記第1の結果の物体と前記第2の結果の物体とを統合して出力する、
    処理をコンピュータに実行させる物体追跡方法。
  10. エリア内に設置されたセンサの出力から物体の各々の位置を検出し、検出結果を出力し、
    前記検出結果から複数の物体の各々の位置を追跡した追跡結果である第1の結果を出力し、
    前記物体のうちの自己位置の推定が可能な物体の各々から、当該物体により推定された自己位置の推定結果を受信し、
    前記物体の各々から受信した前記推定結果を第2の結果として、所定の対応付けにより前記第1の結果の物体と前記第2の結果の物体とを統合して出力する、
    処理をコンピュータに実行させる物体追跡プログラム。
JP2020028740A 2020-02-21 2020-02-21 物体追跡装置、物体追跡方法、及び物体追跡プログラム Active JP7476563B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020028740A JP7476563B2 (ja) 2020-02-21 2020-02-21 物体追跡装置、物体追跡方法、及び物体追跡プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020028740A JP7476563B2 (ja) 2020-02-21 2020-02-21 物体追跡装置、物体追跡方法、及び物体追跡プログラム

Publications (2)

Publication Number Publication Date
JP2021135540A true JP2021135540A (ja) 2021-09-13
JP7476563B2 JP7476563B2 (ja) 2024-05-01

Family

ID=77661177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020028740A Active JP7476563B2 (ja) 2020-02-21 2020-02-21 物体追跡装置、物体追跡方法、及び物体追跡プログラム

Country Status (1)

Country Link
JP (1) JP7476563B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112658A1 (ja) * 2021-12-13 2023-06-22 Necソリューションイノベータ株式会社 物体照合システム、物体照合方法および物体照合プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226845A (ja) * 1997-08-19 2007-09-06 Siemens Vdo Automotive Corp 車両情報システム
JP2008226085A (ja) * 2007-03-15 2008-09-25 Seiko Epson Corp 業務管理システム、業務管理方法、業務管理装置、業務管理装置の制御方法、および、端末装置
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2018199372A (ja) * 2017-05-26 2018-12-20 三菱電機株式会社 目標軌跡追従制御装置および目標軌跡追従制御方法
JP2019219373A (ja) * 2018-06-20 2019-12-26 ラプソド ピーティーイー リミテッド レーダー及びカメラベースのデータ融合

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5214355B2 (ja) 2008-07-14 2013-06-19 株式会社アイ・トランスポート・ラボ 車両走行軌跡観測システム、車両走行軌跡観測方法、およびそのプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226845A (ja) * 1997-08-19 2007-09-06 Siemens Vdo Automotive Corp 車両情報システム
JP2008226085A (ja) * 2007-03-15 2008-09-25 Seiko Epson Corp 業務管理システム、業務管理方法、業務管理装置、業務管理装置の制御方法、および、端末装置
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2018199372A (ja) * 2017-05-26 2018-12-20 三菱電機株式会社 目標軌跡追従制御装置および目標軌跡追従制御方法
JP2019219373A (ja) * 2018-06-20 2019-12-26 ラプソド ピーティーイー リミテッド レーダー及びカメラベースのデータ融合

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112658A1 (ja) * 2021-12-13 2023-06-22 Necソリューションイノベータ株式会社 物体照合システム、物体照合方法および物体照合プログラム

Also Published As

Publication number Publication date
JP7476563B2 (ja) 2024-05-01

Similar Documents

Publication Publication Date Title
CN103781685B (zh) 车辆用自主行驶控制系统
JP6224370B2 (ja) 車両用コントローラ、車両システム
US20180067491A1 (en) Event classification and object tracking
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
JP7042905B2 (ja) 逆センサモデルを生成する方法および装置、ならびに障害物を検出するための方法
JP7258233B2 (ja) 後退ホライズン状態推定器
EP3494514A1 (en) Low-level sensor fusion
CN113228040A (zh) 多级对象行进方向估计
JP6694067B2 (ja) 物体検知装置及びそれを備えた車両制御システム
CN113330279A (zh) 用于确定车辆的位置的方法和系统
CN111258320A (zh) 一种机器人避障的方法及装置、机器人、可读存储介质
CN110775071A (zh) 自主车辆预留工作区的管理
JP2018158719A (ja) 自動運転車両に用いられる制御型の計画と制御システム
CN110850859B (zh) 一种机器人及其避障方法和避障系统
JP2020126634A (ja) 緊急車両をリアルタイムで検出し、緊急車両によって発生すると予想される状況に対処するための走行経路を計画する方法及び装置
JP2019016306A (ja) カバレッジ装置、移動体、制御装置、移動体の分散制御プログラム
JP7078909B2 (ja) 車両制御装置及び車両制御用コンピュータプログラム
WO2017167246A1 (zh) 一种数据处理方法及设备、存储介质
US20200019186A1 (en) Control device, control method, and non-transitory program recording medium
JP2021135540A (ja) 物体追跡装置、物体追跡方法、及び物体追跡プログラム
Miura et al. Adaptive robot speed control by considering map and motion uncertainty
JP2022187320A (ja) 制御装置、移動体、制御方法及びプログラム
JP2021043047A (ja) 走行予定経路通知装置
KR101912797B1 (ko) 이동로봇의 경로계획 방법
US20210302991A1 (en) Method and system for generating an enhanced field of view for an autonomous ground vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7476563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150