JP2021167770A - Target tracking device - Google Patents

Target tracking device Download PDF

Info

Publication number
JP2021167770A
JP2021167770A JP2020071227A JP2020071227A JP2021167770A JP 2021167770 A JP2021167770 A JP 2021167770A JP 2020071227 A JP2020071227 A JP 2020071227A JP 2020071227 A JP2020071227 A JP 2020071227A JP 2021167770 A JP2021167770 A JP 2021167770A
Authority
JP
Japan
Prior art keywords
target
value
reliability
sensor
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020071227A
Other languages
Japanese (ja)
Other versions
JP7277412B2 (en
Inventor
健 亢
Jian Kang
充啓 夏目
Mitsuhiro Natsume
規史 神田
Norifumi Kanda
亮 田村
Akira Tamura
洋平 関谷
Yohei Sekiya
領 渡邊
Ryo Watanabe
暁琳 郭
xiao lin Guo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2020071227A priority Critical patent/JP7277412B2/en
Publication of JP2021167770A publication Critical patent/JP2021167770A/en
Application granted granted Critical
Publication of JP7277412B2 publication Critical patent/JP7277412B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

To improve tracking accuracy of a target in the vicinity of a detection area limit of a sensor.SOLUTION: In S110, a server acquires sensor information and target information from a plurality of sensors. In S130, the server sets a connecting area whose detection accuracy is lower than that of other parts of a detection area. In S140, the reliability of a predicted value and an observed value is set, respectively. In S180, the server adjusts the reliability of the predicted value forming a pair of the observed value and the corresponding value when the observed value is in the connecting area. In S190, the server updates the estimated value of the target associated with the corresponding value pair using the corresponding value pair and the reliability set for the corresponding value pair.SELECTED DRAWING: Figure 5

Description

本開示は、複数のセンサから得られる物標の位置情報を用いて、物標を追跡する技術に関する。 The present disclosure relates to a technique for tracking a target using the position information of the target obtained from a plurality of sensors.

物標を検知する複数種類のセンサによる検知結果をインテリジェントに組み合わせることで、検知された物標の情報を利用するシステムの性能向上、及び機能実現を図ることが行われている。このようなシステムでは、物標を追跡する際、センサにて検知された物標位置の瞬時値の時系列観測情報を利用して、物標位置の推定精度を向上させている。但し、センサの検知エリアの限界近傍では、観測誤差及び誤検知が増大することにより物標の追跡精度が低下することが知られている。 By intelligently combining the detection results of a plurality of types of sensors that detect a target, the performance of the system that uses the detected target information is improved and the functions are realized. In such a system, when tracking a target, the time-series observation information of the instantaneous value of the target position detected by the sensor is used to improve the estimation accuracy of the target position. However, it is known that in the vicinity of the limit of the detection area of the sensor, the tracking accuracy of the target is lowered due to the increase in observation error and false detection.

特許文献1には、このような追跡精度の低下を抑制するために、複数センサを、互いの検知エリアの一部が重複するように配置することで、センサの検知エリアの境界付近に観測の冗長性を持たせる技術が提案されている。 In Patent Document 1, in order to suppress such a decrease in tracking accuracy, a plurality of sensors are arranged so that a part of each other's detection area overlaps, so that the observation can be performed near the boundary of the detection area of the sensor. A technique for providing redundancy has been proposed.

特表2019−519051号公報Special Table 2019-519051

しかしながら、発明者の詳細な検討の結果、上記従来技術では、以下の課題があることが見出された。すなわち、システムを構成する複数のセンサの中に、車載センサ等、検知エリアが移動するセンサが含まれている場合、検知エリアの境界付近に必ずしも冗長性を持たせることができず、観測誤差の抑制効果を十分に得られないという課題があった。 However, as a result of detailed examination by the inventor, it has been found that the above-mentioned prior art has the following problems. That is, when a plurality of sensors constituting the system include a sensor such as an in-vehicle sensor whose detection area moves, it is not always possible to provide redundancy in the vicinity of the boundary of the detection area, resulting in an observation error. There was a problem that the suppressive effect could not be sufficiently obtained.

本開示の1つの局面では、センサの検知エリアの限界近傍での物標の追跡精度を向上させる技術を提供する。 In one aspect of the present disclosure, there is provided a technique for improving the tracking accuracy of a target near the limit of the detection area of the sensor.

本開示の一態様は、物標追跡装置であって、情報取得部(5:S110)と、信頼度設定部(5:S140)と、推定値更新部(5:S190)と、エリア設定部(5:S130)と、信頼度調整部(5:S180)と、を備える。 One aspect of the present disclosure is a target tracking device, which includes an information acquisition unit (5: S110), a reliability setting unit (5: S140), an estimated value updating unit (5: S190), and an area setting unit. (5: S130) and a reliability adjusting unit (5: S180) are provided.

情報取得部は、複数のセンサから、センサの位置情報及びセンサの検知エリアを含むセンサ情報、並びに検出した物標の位置を含む物標情報を取得する。信頼度設定部は、処理サイクル毎に推定される物標の位置を推定値とし、前回の処理サイクルでの推定値から予測される物標の位置を予測値とし、情報取得部で取得された物標情報に示された物標の位置を観測値として、予測値及び観測値の信頼度をそれぞれ設定する。推定値更新部は、同一物標を表す予測値及び観測値である対応値ペア、及び対応値ペアについて信頼度設定部にて設定された信頼度を用いて、対応値ペアに対応づけられる物標の推定値を更新する。エリア設定部は、センサ情報に示された検知エリアの境界の一部を少なくとも含み、検知エリアにおける他のエリアより検知精度が低下するつなぎエリアを設定する。信頼度調整部は、観測値がつなぎエリアにある場合、観測値と対応値ペアを形成する予測値の信頼度を、信頼度が高くなるように調整する。 The information acquisition unit acquires the position information of the sensor, the sensor information including the detection area of the sensor, and the target information including the position of the detected target from the plurality of sensors. The reliability setting unit uses the position of the target estimated for each processing cycle as the estimated value, and the position of the target predicted from the estimated value in the previous processing cycle as the predicted value, and is acquired by the information acquisition unit. The position of the target indicated in the target information is used as the observed value, and the predicted value and the reliability of the observed value are set respectively. The estimated value update unit is associated with the corresponding value pair, which is the predicted value and the observed value representing the same target, and the reliability set by the reliability setting unit for the corresponding value pair. Update the target estimate. The area setting unit includes at least a part of the boundary of the detection area shown in the sensor information, and sets a connecting area in which the detection accuracy is lower than other areas in the detection area. When the observed value is in the connecting area, the reliability adjusting unit adjusts the reliability of the predicted value forming a pair of the observed value and the corresponding value so that the reliability is high.

このような構成によれば、センサの検出誤差、すなわち観測値の誤差が増大することによる、物標位置の推定精度、ひいては物標の追跡精度が低下することを抑制できる。 According to such a configuration, it is possible to suppress a decrease in the estimation accuracy of the target position and, by extension, the tracking accuracy of the target due to an increase in the detection error of the sensor, that is, the error of the observed value.

交通管制システムの構成を示すブロック図である。It is a block diagram which shows the structure of the traffic control system. 車載端末の構成を示すブロック図である。It is a block diagram which shows the structure of an in-vehicle terminal. インフラセンサの構成を示すブロック図である。It is a block diagram which shows the structure of an infrastructure sensor. サーバの構成を示すブロック図である。It is a block diagram which shows the structure of a server. サーバが実行する追跡処理のフローチャートである。It is a flowchart of the tracking process executed by the server. つなぎエリアの設定に関する説明図である。It is explanatory drawing about setting of a connecting area. つなぎエリアでの観測値、予測値、推定値の関係を示す説明図である。It is explanatory drawing which shows the relationship of the observed value, the predicted value, and the estimated value in a connecting area. つなぎエリアがある場合とない場合とで推定値をシミュレーションによって算出した結果を示すグラフである。It is a graph which shows the result of having calculated the estimated value by the simulation with and without the connecting area. つなぎエリアの他の設定方法を示す説明図である。It is explanatory drawing which shows the other setting method of the connection area. つなぎエリアの簡易的な設定方法を示す説明図である。It is explanatory drawing which shows the simple setting method of the connection area.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.全体構成]
図1に示す交通管制システム1は、交通環境下に存在する複数のセンサから取得した観測情報を統合して物標位置・運動等を推定し、交通環境にある各端末に推定結果を通知することで、自動運転及び運転支援の精度を向上させる。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. overall structure]
The traffic control system 1 shown in FIG. 1 integrates observation information acquired from a plurality of sensors existing in a traffic environment to estimate a target position, motion, etc., and notifies each terminal in the traffic environment of the estimation result. This will improve the accuracy of automatic driving and driving support.

交通管制システム1は、車載端末2と、インフラセンサ3と、サーバ5とを備える。サーバ5が物標追跡装置に相当する。
[1−1.車載端末]
車載端末2は、車両に搭載される。図2に示すように、車載端末2は、車内通信器21と、車外通信器22と、処理部23とを備える。車内通信器21は、当該車載端末2を搭載する車両(以下、自車両)の車載ネットワークを介して、種々の情報を取得する。車外通信器22は、無線通信によって、サーバ5との通信を実行する。処理部23は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。
The traffic control system 1 includes an in-vehicle terminal 2, an infrastructure sensor 3, and a server 5. The server 5 corresponds to a target tracking device.
[1-1. In-vehicle terminal]
The in-vehicle terminal 2 is mounted on the vehicle. As shown in FIG. 2, the in-vehicle terminal 2 includes an in-vehicle communication device 21, an out-of-vehicle communication device 22, and a processing unit 23. The in-vehicle communication device 21 acquires various information via the in-vehicle network of the vehicle (hereinafter, own vehicle) on which the in-vehicle terminal 2 is mounted. The out-of-vehicle communication device 22 executes communication with the server 5 by wireless communication. The processing unit 23 includes a microcomputer having a CPU and a memory such as a ROM and a RAM, and executes processing for realizing various functions.

車載端末2は、処理部23が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部231と、統合情報提供部232とを備える。
情報収集部231は、車内通信器21を介して、物標情報、センサ情報、及び車両状態情報を繰り返し収集し、車外通信器22を介してサーバ5に送信する。
The in-vehicle terminal 2 includes an information collecting unit 231 and an integrated information providing unit 232 as functional blocks representing functions realized by processing executed by the processing unit 23.
The information collecting unit 231 repeatedly collects the target information, the sensor information, and the vehicle state information via the in-vehicle communication device 21, and transmits the target information, the sensor information, and the vehicle state information to the server 5 via the out-of-vehicle communication device 22.

物標情報は、車両に搭載された周辺監視センサ群100にて検知される物標に関する観測情報である。周辺監視センサ群100には、ミリ波レーダ101、ライダー102、超音波センサ103、及びカメラ104等が含まれてもよい。以下では、周辺監視センサ群100に属するこれらの構成を、単にセンサ101〜104ともいう。物標情報は、情報生成源となるセンサ101〜104によって含まれる情報が異なるが、いずれの場合も、検知した物標の位置が少なくとも含まれる。物標情報には、物標の位置の他、物標までの距離、物標の移動速度及び移動方向、物標の大きさ、及び物標の種類等が含まれてもよい。なお、物標の位置、物標までの距離、物標の移動速度及び移動方向は、車載端末2を基準とした相対値によって表されてもよい。 The target information is observation information related to the target detected by the peripheral monitoring sensor group 100 mounted on the vehicle. Peripheral monitoring sensor group 100 may include millimeter wave radar 101, lidar 102, ultrasonic sensor 103, camera 104, and the like. Hereinafter, these configurations belonging to the peripheral monitoring sensor group 100 are also simply referred to as sensors 101 to 104. The target information includes different information depending on the sensors 101 to 104 that are information generation sources, but in each case, at least the position of the detected target is included. In addition to the position of the target, the target information may include the distance to the target, the moving speed and direction of the target, the size of the target, the type of the target, and the like. The position of the target, the distance to the target, the moving speed of the target, and the moving direction may be represented by relative values with respect to the in-vehicle terminal 2.

センサ情報には、個々のセンサ101〜104の性能に関する性能情報、及び自車両に対する取付状態を表す取付情報が含まれる。取付情報には、路面からの高さ、車両の直進方向及び水平方向に対する取付角度が含まれる。性能情報には、センサ種別、検知距離範囲、及び検知角度範囲が含まれる。検知距離範囲は、一定の条件下で、物標の検知を許容精度で行うことができる距離の範囲である。検知角度範囲は、一定の条件下で、物標の検知を許容精度で行うことができる角度の範囲である。一定条件には、例えば、照度値や反射率等を用いてもよい。また、許容精度は、検知確率が一定値(例えば、95%)以上であることを用いてもよい。ここでは、検知距離範囲及び検知角度範囲によって決まる検知エリアAの中心方向をセンサ正面方向として、取付角度は、センサ正面方向の向きを表す。また、検知角度範囲は、センサ正面方向を基準(すなわち、0°)として表す。 The sensor information includes performance information relating to the performance of the individual sensors 101 to 104, and mounting information indicating the mounting state with respect to the own vehicle. The mounting information includes the height from the road surface, the mounting angle with respect to the straight direction and the horizontal direction of the vehicle. Performance information includes sensor type, detection distance range, and detection angle range. The detection distance range is a range of distances at which a target can be detected with an allowable accuracy under certain conditions. The detection angle range is a range of angles at which the target can be detected with an allowable accuracy under certain conditions. For certain conditions, for example, an illuminance value, a reflectance, or the like may be used. Further, as the permissible accuracy, it may be used that the detection probability is a certain value (for example, 95%) or more. Here, the center direction of the detection area A determined by the detection distance range and the detection angle range is the sensor front direction, and the mounting angle represents the sensor front direction. Further, the detection angle range is expressed with the front direction of the sensor as a reference (that is, 0 °).

車両状態情報には、車両に搭載された位置センサ110にて検出される車両の位置及び進行方向が少なくとも含まれる。位置センサ110は、GNSS(すなわち、全地球航法衛星システム)を利用して情報を得る装置であってもよい。つまり、車両状態情報とセンサ情報に含まれる取付情報とを組み合わせることで、グローバル座標系におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。 The vehicle state information includes at least the position and the traveling direction of the vehicle detected by the position sensor 110 mounted on the vehicle. The position sensor 110 may be a device that obtains information by using GNSS (that is, a global navigation satellite system). That is, by combining the vehicle state information and the mounting information included in the sensor information, it is possible to specify the sensor position and the direction in the front direction of the sensor in the global coordinate system.

統合情報提供部232は、サーバ5から自車両の周辺に存在する物標等に関する統合情報を、車外通信器22を介して受信し、受信した統合情報を、車内通信器21を介して、自動運転及び運転支援に関わる車両制御を実行する各ECUに提供する。 The integrated information providing unit 232 receives integrated information about targets and the like existing in the vicinity of the own vehicle from the server 5 via the external communication device 22, and automatically receives the received integrated information via the in-vehicle communication device 21. It is provided to each ECU that executes vehicle control related to driving and driving support.

[1−2.インフラセンサ]
インフラセンサ3は、道路標識、信号機等の交通インフラの他、道路脇の建造物等に設置される。図3に示すように、インフラセンサ3は、センサ本体31と、通信器32と、処理部33と、を備える。
[1-2. Infrastructure sensor]
The infrastructure sensor 3 is installed not only in traffic infrastructure such as road signs and traffic lights, but also in buildings on the side of the road. As shown in FIG. 3, the infrastructure sensor 3 includes a sensor main body 31, a communication device 32, and a processing unit 33.

センサ本体31は、例えば、カメラ311及びレーダ312等を備える。センサ本体31は、カメラ311及びレーダ312におけるセンサ正面方向の向き(すなわち、センサ本体31の姿勢)を処理部33からの指示によって変化可能に構成される。以下では、カメラ311及びレーダ312を、単にセンサ311,312ともいう。 The sensor body 31 includes, for example, a camera 311 and a radar 312. The sensor main body 31 is configured so that the orientation of the camera 311 and the radar 312 in the front direction of the sensor (that is, the posture of the sensor main body 31) can be changed by an instruction from the processing unit 33. Hereinafter, the camera 311 and the radar 312 are also simply referred to as sensors 311, 312.

通信器32は、有線通信網又は無線通信網を介したサーバ5との通信を実行する。
処理部33は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。インフラセンサ3は、処理部33が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部331と、姿勢制御部332とを備える。
The communication device 32 executes communication with the server 5 via a wired communication network or a wireless communication network.
The processing unit 33 includes a microcomputer having a CPU and memories such as ROM and RAM, and executes processing for realizing various functions. The infrastructure sensor 3 includes an information collecting unit 331 and a posture control unit 332 as functional blocks representing functions realized by processing executed by the processing unit 33.

情報収集部331は、センサ本体31から物標情報を繰り返し収集し、収集した物標情報を、センサ情報及び姿勢情報と共に、通信器32を介してサーバ5に送信する。
物標情報及びセンサ情報は、基本的には、車載端末2の情報収集部231で収集される物標情報及びセンサ情報と同様である。但し、センサ情報に含まれる取付情報は、センサが予め設定された基準姿勢にあるときのセンサ正面方向の向き(以下、基準正面方向)が含まれる。姿勢情報は、姿勢制御部332によって決まるセンサ本体31の姿勢、すなわち、基準正面方向に対するセンサ正面方向の向きが含まれる。つまり、センサ情報に含まれる取付情報と、姿勢情報とを組み合わせることで、グローバル座標系におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。
The information collecting unit 331 repeatedly collects the target target information from the sensor main body 31, and transmits the collected target target information together with the sensor information and the attitude information to the server 5 via the communication device 32.
The target information and the sensor information are basically the same as the target information and the sensor information collected by the information collecting unit 231 of the in-vehicle terminal 2. However, the mounting information included in the sensor information includes the orientation in the front direction of the sensor (hereinafter, the reference front direction) when the sensor is in the preset reference posture. The attitude information includes the attitude of the sensor body 31 determined by the attitude control unit 332, that is, the orientation of the sensor in the front direction with respect to the reference front direction. That is, by combining the mounting information included in the sensor information and the attitude information, it is possible to specify the sensor position in the global coordinate system and the orientation in the front direction of the sensor.

なお、インフラセンサ3が、センサ本体31の姿勢を変更できないように構成されている場合は、姿勢制御部332及び姿勢情報は省略されてもよい。
ここでは、インフラセンサ3において物標情報を生成してサーバ5に提供する場合について説明したが、物標情報の代わりに、センサ本体31から得られる生データをサーバ5に提供するように構成されてもよい。この場合、サーバ5は、インフラセンサ3から取得する生データから物標情報を生成する機能を必要とする。
If the infrastructure sensor 3 is configured so that the posture of the sensor main body 31 cannot be changed, the posture control unit 332 and the posture information may be omitted.
Here, the case where the infrastructure sensor 3 generates the target information and provides it to the server 5 has been described, but instead of the target information, the raw data obtained from the sensor main body 31 is provided to the server 5. You may. In this case, the server 5 needs a function of generating target information from the raw data acquired from the infrastructure sensor 3.

以下では、周辺監視センサ群100に属するセンサ101〜104、及びセンサ本体31に属するセンサ311,312を一括してフィールドセンサSと呼び、個々のフィールドセンサSを識別する必要がある場合はSiで示す。iは正整数である。図1では、車両に搭載された周辺監視センサ群100に属するセンサ101〜104のいずれかをS1,S2とし、インフラセンサ3が有するセンサ本体31に属するセンサ311,312のいずれかをS3とする。また、各フィールドセンサS1〜S3の検知エリアをA1〜A3で表す。 In the following, the sensors 101 to 104 belonging to the peripheral monitoring sensor group 100 and the sensors 311, 312 belonging to the sensor main body 31 are collectively referred to as a field sensor S, and when it is necessary to identify each field sensor S, Si is used. show. i is a positive integer. In FIG. 1, any of the sensors 101 to 104 belonging to the peripheral monitoring sensor group 100 mounted on the vehicle is referred to as S1 and S2, and any of the sensors 311, 312 belonging to the sensor main body 31 of the infrastructure sensor 3 is referred to as S3. .. Further, the detection areas of the field sensors S1 to S3 are represented by A1 to A3.

[1−3.サーバ]
サーバ5は、交通環境下に存在する複数のフィールドセンサSiから情報を取得し、取得した情報を統合することで、単一センサの検知に比べ高精度かつロバストな検出を実現する。その検出結果である統合情報を、車載端末2に提供する。
[1-3. server]
The server 5 acquires information from a plurality of field sensors Si existing in a traffic environment and integrates the acquired information to realize highly accurate and robust detection as compared with the detection of a single sensor. The integrated information which is the detection result is provided to the in-vehicle terminal 2.

図4に示すように、サーバ5は、通信器51と、処理部52と、記憶部53とを備える。
通信器51は、車載端末2、インフラセンサ3との通信を実行する。
As shown in FIG. 4, the server 5 includes a communication device 51, a processing unit 52, and a storage unit 53.
The communication device 51 executes communication with the vehicle-mounted terminal 2 and the infrastructure sensor 3.

処理部52は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。
サーバ5は、処理部52が実行する処理によって実現される機能を表す機能ブロックとして、情報生成部521と、情報配信部522とを備える。
The processing unit 52 includes a microcomputer having a CPU and a memory such as a ROM and a RAM, and executes processing for realizing various functions.
The server 5 includes an information generation unit 521 and an information distribution unit 522 as functional blocks representing functions realized by processing executed by the processing unit 52.

情報生成部521は、通信器51を介して複数のフィールドセンサSから取得されるセンサ情報及び物標情報を用いて、対象エリアに存在する物標の情報を統合した統合情報を生成する。対象エリアは、サーバ5での処理の対象となるエリアであり、あらかじめサーバ5に割り当てられる。統合情報には、少なくとも物標の位置情報が含まれる。物標を追跡して位置情報を逐次更新する追跡処理の詳細については後述する。 The information generation unit 521 uses the sensor information and the target information acquired from the plurality of field sensors S via the communication device 51 to generate integrated information that integrates the target information existing in the target area. The target area is an area to be processed by the server 5, and is allocated to the server 5 in advance. The integrated information includes at least the position information of the target. The details of the tracking process of tracking the target and sequentially updating the position information will be described later.

情報配信部522は、情報生成部521で生成された統合情報を、対象エリアに存在する車載端末2に、通信器51を介して配信する。
記憶部53には、対象エリアの地図、及び対象エリア内で過去一定期間内に検出された物標の位置の時系列情報が少なくとも記憶される。
The information distribution unit 522 distributes the integrated information generated by the information generation unit 521 to the in-vehicle terminal 2 existing in the target area via the communication device 51.
The storage unit 53 stores at least a map of the target area and time-series information of the positions of the targets detected in the target area within a certain period in the past.

[2.追跡処理]
次に、サーバ5が情報生成部521としての機能の一部を実現するために実行する追跡処理を、図5のフローチャートを用いて説明する。
[2. Tracking process]
Next, the tracking process executed by the server 5 in order to realize a part of the function as the information generation unit 521 will be described with reference to the flowchart of FIG.

本処理は、サーバ5が起動している間、一定周期で繰り返し実行される。
S110では、サーバ5は、前回の処理サイクルから今回の処理サイクルまでの間に通信器51を介して受信された、物標情報及びセンサ情報を取得する。
This process is repeatedly executed at regular intervals while the server 5 is running.
In S110, the server 5 acquires the target information and the sensor information received via the communication device 51 between the previous processing cycle and the current processing cycle.

続くS120では、サーバ5は、S110にて取得したセンサ情報に基づき、対象エリアを示す地図上に、フィールドセンサSの位置及び検知エリアを示したセンサマップを生成する。 In the following S120, the server 5 generates a sensor map showing the position of the field sensor S and the detection area on the map showing the target area based on the sensor information acquired in S110.

続くS130では、サーバ5は、センサマップに示されたフィールドセンサSの検知エリアAに基づき、フィールドセンサSの検知性能が低下するつなぎエリアCXを設定する。例えば、図6に示すように、検知エリアの境界を基準として内側X[m]から外側Y[m]の範囲をつなぎエリアCXとしてもよい。また、つなぎエリアCXのうち、他のフィールドセンサSの検知エリアの非つなぎエリアと重複する場合、その重複部分は非つなぎエリアとする。ここでの非つなぎエリアは、検知エリアAからつなぎエリアCXを除いた範囲をいう。 In the subsequent S130, the server 5 sets a connecting area CX in which the detection performance of the field sensor S deteriorates based on the detection area A of the field sensor S shown in the sensor map. For example, as shown in FIG. 6, the range from the inner side X [m] to the outer side Y [m] may be connected as the area CX with reference to the boundary of the detection area. Further, when the connecting area CX overlaps with the non-connecting area of the detection area of the other field sensor S, the overlapping portion is regarded as the non-connecting area. The non-connecting area here means a range excluding the connecting area CX from the detection area A.

続くS140では、サーバ5は、前回の処理サイクルまでに検出されている物標(以下、追跡物標)についての予測値と、S110で取得した物標情報に示された物標(以下、観測物標)の位置である観測値のそれぞれについて、信頼度を設定する。信頼度は、位置の検出に用いられたセンサの種類、スペック、外部環境(すなわち、対象エリアの環境)、追跡物標の種類及び速度などうち、少なくとも1つの要素に基づいて設定される。 In the following S140, the server 5 uses the predicted value for the target detected up to the previous processing cycle (hereinafter, tracking target) and the target indicated in the target information acquired in S110 (hereinafter, observation). Set the reliability for each of the observed values that are the positions of the target). The reliability is set based on at least one factor such as the type of sensor used for position detection, specifications, external environment (that is, the environment of the target area), type of tracking target, and speed.

例えば、観測値の生成元となったフィールドセンサSが、天気の影響を受け易いライダー102である場合、観測値の信頼度を、晴れの場合は高く、雨や雪の場合は低く設定してもよい。また、予測値との一致度が高いほど観測値の信頼度を高く設定してもよい。また、予測値の場合、例えば、予測値に対応づけられる追跡物標が物標として最初に認識されてからの経過時間が長いほど信頼度を高く設定してもよい。また、予測値に対応づけられる追跡物標の種類が、走行中の車両など、位置を予測し易い物標である場合、予測値の信頼度を高く設定してもよい。 For example, when the field sensor S from which the observed value is generated is the rider 102, which is easily affected by the weather, the reliability of the observed value is set high in the case of sunny weather and low in the case of rain or snow. May be good. Further, the higher the degree of agreement with the predicted value, the higher the reliability of the observed value may be set. Further, in the case of the predicted value, for example, the higher the elapsed time from the first recognition of the tracking target associated with the predicted value as the target, the higher the reliability may be set. Further, when the type of the tracking target associated with the predicted value is a target whose position can be easily predicted, such as a moving vehicle, the reliability of the predicted value may be set high.

続くS150では、サーバ5は、追跡物標のうち、後述するS160〜S190の処理が未だ実施されていない、いずれか一つを、対象物標として選択する。
続くS160では、サーバ5は、対象物標と履歴接続を有する観測物標が存在するか否かを判定し、存在すれば処理をS170に移行し、存在しなければ処理をS180に移行する。なお、履歴接続の有無は、例えば、対象物標と観測物標との距離で判定することが考えられるが、これに限定されるものではなく、履歴接続の有無を判定する公知の手法を用いることができる。以下では、履歴接続があると判定された予測値と観測値との組み合わせを対応値ペアという。
In the subsequent S150, the server 5 selects one of the tracking targets, which has not yet been processed in S160 to S190 described later, as the target target.
In the following S160, the server 5 determines whether or not an observation target having a history connection with the target target exists, and if it exists, the process shifts to S170, and if it does not exist, the process shifts to S180. The presence or absence of the history connection can be determined by, for example, the distance between the object target and the observation target, but the present invention is not limited to this, and a known method for determining the presence or absence of the history connection is used. be able to. In the following, the combination of the predicted value and the observed value determined to have a historical connection is referred to as a corresponding value pair.

S170では、サーバ5は、対象物標の予測値と対応値ペアを構成する観測値に基づき、観測値がつなぎエリアCX内にあるか否かを判定し、つなぎエリアCX内にあればS180に移行し、つなぎエリアCX内になければ処理をS190に移行する。 In S170, the server 5 determines whether or not the observed value is in the connecting area CX based on the predicted value of the target object and the observed value constituting the corresponding value pair, and if it is in the connecting area CX, the server 5 determines in S180. If it is not within the connection area CX, the process is transferred to S190.

S180では、サーバ5は、対象物標の予測値の信頼度が高くなるように、該信頼度を調整して処理をS190に進める。
S190では、サーバ5は、対応値ペアと、対応値ペアについてS140にて設定された信頼度、又はS180にて調整された信頼度と、に従って、対象物標の位置(すなわち、推定値)を更新する。具体的には、例えば、信頼度を重みとする対応値ペアの重みづけ加算によって推定値を算出してもよい。また、対応値ペアのうち、いずれか信頼度の高い方の値をそのまま推定値としてもよい。対象物標の予測値と対応値ペアを構成する観測値が抽出されなかった場合、予測値をそのまま推定値としてもよい。なお、あらかじめ設定された上限回連続して履歴接続のある観測物標が抽出されなかった対象物標は、ロストしたものとして追跡物標から削除してもよい。
In S180, the server 5 adjusts the reliability so that the reliability of the predicted value of the target object becomes high, and proceeds to the process in S190.
In S190, the server 5 sets the position (that is, the estimated value) of the target target according to the corresponding value pair and the reliability set in S140 or the reliability adjusted in S180 for the corresponding value pair. Update. Specifically, for example, the estimated value may be calculated by weighting addition of a corresponding value pair whose weight is reliability. Further, of the corresponding value pairs, the value having the higher reliability may be used as the estimated value as it is. When the predicted value of the target object and the observed value constituting the corresponding value pair are not extracted, the predicted value may be used as the estimated value as it is. It should be noted that an object target for which an observation target with a history connection has not been extracted consecutively up to a preset upper limit may be deleted from the tracking target as if it was lost.

続く、S200では、サーバ5は、すべての追跡物標が先のS150で対象物標として選択されたか否かを判定する。サーバ5は、未選択の追跡物標が存在すると判定した場合は、処理をS150に戻し、全ての追跡物標が選択済みであると判定した場合は、処理をS210へ移行する。 Subsequently, in S200, the server 5 determines whether or not all the tracking targets have been selected as the target targets in the previous S150. When the server 5 determines that there is an unselected tracking target, it returns the process to S150, and when it determines that all the tracking targets have been selected, the server 5 shifts the process to S210.

S210では、サーバ5は、追跡物標の更新を行って処理を終了する。具体的には、既に登録されている追跡物標については、S190で更新された推定値を用いて、次回の処理サイクルで使用する予測値を算出する。いずれの追跡物標とも履歴接続が確認されなかった観測物標は、あらたな追跡物標として登録すると共に、観測値に基づいて次回の処理サイクルで使用する予測値を算出する。 In S210, the server 5 updates the tracking target and ends the process. Specifically, for the tracked target that has already been registered, the predicted value to be used in the next processing cycle is calculated using the estimated value updated in S190. Observatory targets for which no historical connection has been confirmed with any of the tracking targets are registered as new tracking targets, and the predicted values to be used in the next processing cycle are calculated based on the observed values.

なお、追跡処理において、S110が情報取得部に相当し、S130がエリア設定部に相当し、S140が信頼度設定部に相当し、S180が信頼度調整部に相当し、S190が推定値更新部に相当する。 In the tracking process, S110 corresponds to the information acquisition unit, S130 corresponds to the area setting unit, S140 corresponds to the reliability setting unit, S180 corresponds to the reliability adjustment unit, and S190 corresponds to the estimated value updating unit. Corresponds to.

[3.動作例]
図7は、フィールドセンサS1,S2の検知エリアA1,A2にエリアの重複がない場合を示す。物標が、検知エリアA1から検知エリアA2に移動する場合、検知エリアA1,A2の境界付近及び検知エリアA1,A2のいずれにも属さない範囲では、観測値の精度が低下する。このようなエリアがつなぎエリアCXとなる。図7では、便宜上、つなぎエリアCXを長方形で示す。
[3. Operation example]
FIG. 7 shows a case where the detection areas A1 and A2 of the field sensors S1 and S2 do not overlap. When the target moves from the detection area A1 to the detection area A2, the accuracy of the observed value is lowered in the vicinity of the boundary between the detection areas A1 and A2 and in the range not belonging to any of the detection areas A1 and A2. Such an area becomes a connecting area CX. In FIG. 7, for convenience, the connecting area CX is shown as a rectangle.

つなぎエリアCXでは、図7中の黒四角印で示された対象物標の観測値より、図7中の白抜き三角印で示された追跡物標の予測値の方が、図7中の黒四角印で示された対象物標の観測値より、信頼度が高く設定される。このため、つなぎエリアCXでは、位置精度が低下した観測値より、予測値を重視して推定値が算出される。 In the connecting area CX, the predicted value of the tracking target indicated by the white triangle mark in FIG. 7 is higher than the observed value of the target target indicated by the black square mark in FIG. 7. The reliability is set higher than the observed value of the object target indicated by the black square mark. Therefore, in the connecting area CX, the estimated value is calculated with more emphasis on the predicted value than the observed value whose position accuracy is lowered.

図8に示すように、つなぎエリアCXが設定されない場合、物標が検知エリアA1,A2を跨いで移動する際に、検知エリアの境界付近での観測値の検出誤差が増大するため、このような観測値を用いて算出される推定値は、実際の位置から大きく外れたものとなる。その結果、物標が検知エリアA1,A2を跨いだときに、フィールドセンサS1で最後に検出される観測値と、フィールドセンサS2で際初に検出される観測値とは、大きく異なったものとなる場合がある。その結果、両検知エリアA1,A2で検出された物標は同一であるにも関わらず、別の物標として認識されてしまう。これに対して つなぎエリアCXが設定される場合、つなぎエリアCXでは、予測値が重視されるように信頼度が調整される。このため、物標の移動の仕方が大きく変化をしない限り、推定値が真値から大きく外れることがなく、物標の追跡精度が維持される。 As shown in FIG. 8, when the connecting area CX is not set, when the target moves across the detection areas A1 and A2, the detection error of the observed value near the boundary of the detection area increases. The estimated value calculated by using various observed values deviates greatly from the actual position. As a result, when the target straddles the detection areas A1 and A2, the last observed value detected by the field sensor S1 and the first observed value detected by the field sensor S2 are significantly different. May become. As a result, although the targets detected in both detection areas A1 and A2 are the same, they are recognized as different targets. On the other hand, when the connecting area CX is set, the reliability is adjusted in the connecting area CX so that the predicted value is emphasized. Therefore, as long as the way of moving the target does not change significantly, the estimated value does not deviate significantly from the true value, and the tracking accuracy of the target is maintained.

[4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(4a)本実施形態では、観測値の精度が低下するエリアであるつなぎエリアCXを設定し、つなぎエリアCXでは、予測値の信頼度が高くなるように調整する。従って、つなぎエリアCXにおいて、センサの検出誤差が増大することによる物標位置の推定精度、ひいては、物標の追跡精度が低下することを抑制できる。更には、つなぎエリアCXにて物標の誤検知及び未検知が発生すること抑制できる。
[4. effect]
According to the embodiment described in detail above, the following effects are obtained.
(4a) In the present embodiment, the connecting area CX, which is an area where the accuracy of the observed value is lowered, is set, and the connecting area CX is adjusted so that the reliability of the predicted value is high. Therefore, in the connecting area CX, it is possible to suppress a decrease in the estimation accuracy of the target position due to an increase in the detection error of the sensor, and eventually a decrease in the tracking accuracy of the target. Further, it is possible to suppress the occurrence of false detection and non-detection of the target in the connecting area CX.

[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[5. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be implemented in various modifications.

(5a)上記実施形態では、フィールドセンサSの検知エリアAの境界付近の所定範囲がつなぎエリアCXとして設定されているが、本開示は、これに限定されるものではない。例えば、図9に示すように、上記実施形態で設定された検知エリアAの非つなぎエリア以外のすべてがつなぎエリアCXとして設定されてもよい。 (5a) In the above embodiment, a predetermined range near the boundary of the detection area A of the field sensor S is set as the connecting area CX, but the present disclosure is not limited to this. For example, as shown in FIG. 9, all of the detection area A other than the non-connecting area set in the above embodiment may be set as the connecting area CX.

(5b)上記実施形態では、検知エリアA毎に個別につなぎエリアCXが設定されているが、本開示は、これに限定されるものではない。例えば、図10に示すように、2つのフィールドセンサS1,S2をつなぐ直線上につなぎエリアCXを設定してもよい。この場合、つなぎエリアCXとして、上記直線上にエリア中心を有し、ベクトルV12と平行で辺長がE1の辺と、ベクトルABと直交し辺長がE2の辺とで形成される矩形状のエリアを設定してもよい。なお、つなぎエリアCXのエリア中心がフィールドセンサS1から距離D1だけ離れているとした場合、距離D1は、(1)式を満たすように設定されてもよい。但し、DはフィールドセンサS1,S2間の距離、R1はフィールドセンサS1の検知距離、R2はフィールドセンサS2の検知距離である。 (5b) In the above embodiment, the connecting area CX is individually set for each detection area A, but the present disclosure is not limited to this. For example, as shown in FIG. 10, the connecting area CX may be set on a straight line connecting the two field sensors S1 and S2. In this case, as the connecting area CX, a rectangular shape having an area center on the straight line and formed by a side parallel to the vector V12 and having a side length of E1 and a side orthogonal to the vector AB and having a side length of E2. You may set the area. If the center of the connecting area CX is separated from the field sensor S1 by a distance D1, the distance D1 may be set so as to satisfy the equation (1). However, D is the distance between the field sensors S1 and S2, R1 is the detection distance of the field sensor S1, and R2 is the detection distance of the field sensor S2.

D1/D=R1/(R1+R2) (1)
(5c)上記実施形態では、追跡物標の状態に関わらずつなぎエリアCXが設定されるが、本開示は、これに限定されるものではない。例えば、隣接する二つのフィールドセンサS1,S2の検知エリアA1,A2を跨いで移動する可能性がある追跡物標が存在する場合に、それら二つのフィールドセンサS1,S2の間にだけつなぎエリアCXを設定してもよい。例えば、追跡物標の移動方向を示すベクトルを移動ベクトルと、フィールドセンサS1からフィールドセンサS2を見た方向を示す位置ベクトルとが、一定の平行度を有する場合に、追跡物標は検知エリアA1,A2を跨いで移動する可能性があると判定してもよい。なお、移動ベクトルと位置ベクトルの平行度は、例えば、正規化された二つのベクトルの内積が一定値以上であるか否かによって判定してもよい。
D1 / D = R1 / (R1 + R2) (1)
(5c) In the above embodiment, the connecting area CX is set regardless of the state of the tracking target, but the present disclosure is not limited to this. For example, when there is a tracking target that may move across the detection areas A1 and A2 of two adjacent field sensors S1 and S2, the connecting area CX is provided only between the two field sensors S1 and S2. May be set. For example, when the movement vector of the vector indicating the moving direction of the tracking target and the position vector indicating the direction of viewing the field sensor S2 from the field sensor S1 have a certain degree of parallelism, the tracking target has the detection area A1. , It may be determined that there is a possibility of moving across A2. The parallelism between the movement vector and the position vector may be determined, for example, by whether or not the inner product of the two normalized vectors is equal to or greater than a certain value.

(5d)本開示に記載の処理部23,33,52及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部23,33,52及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部23,33,52及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。処理部23,33,52に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (5d) The processing units 23, 33, 52 and methods thereof described in the present disclosure are by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by the provided dedicated computer. Alternatively, the processing units 23, 33, 52 and methods thereof described in the present disclosure may be realized by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the processing units 23, 33, 52 and methods thereof described in the present disclosure consist of a processor and memory programmed to perform one or more functions and one or more hardware logic circuits. It may be realized by one or more dedicated computers configured in combination with a processor. The computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer. The method of realizing the functions of each part included in the processing units 23, 33, and 52 does not necessarily include software, and all the functions are realized by using one or more hardware. May be good.

(5e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (5e) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.

(5f)上述した物標追跡装置としてのサーバ5の他、当該物標追跡装置を構成要素とするシステム、当該物標追跡装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、位置推定方法など、種々の形態で本開示を実現することもできる。 (5f) In addition to the server 5 as the target tracking device described above, a system having the target tracking device as a component, a program for operating a computer as the target tracking device, a semiconductor memory recording this program, and the like. The present disclosure can also be realized in various forms such as a non-transitional substantive recording medium and a position estimation method.

1…交通管制システム、2…車載端末、3…インフラセンサ、5…サーバ、51…通信器、52…処理部、53…記憶部、521…情報生成部、522…情報配信部、A…検知エリア、CX…つなぎエリア、S…フィールドセンサ。 1 ... Traffic control system, 2 ... In-vehicle terminal, 3 ... Infrastructure sensor, 5 ... Server, 51 ... Communication device, 52 ... Processing unit, 53 ... Storage unit, 521 ... Information generation unit, 522 ... Information distribution unit, A ... Detection Area, CX ... Connecting area, S ... Field sensor.

Claims (4)

複数のセンサから、前記センサの位置情報及び前記センサの検知エリアを含むセンサ情報、並びに検出した物標の位置を含む物標情報を取得するように構成された情報取得部(5:S110)と、
処理サイクル毎に推定される前記物標の位置を推定値とし、前回の処理サイクルでの前記推定値から予測される前記物標の位置を予測値とし、前記情報取得部で取得された前記物標情報に示された物標の位置を観測値として、前記予測値及び前記観測値の信頼度をそれぞれ設定するように構成された信頼度設定部(5:S140)と、
同一物標を表す前記予測値及び前記観測値である対応値ペア、及び該対応値ペアについて前記信頼度設定部にて設定された前記信頼度を用いて、前記対応値ペアに対応づけられる前記物標の前記推定値を更新するように構成された推定値更新部(5:S190)と、
前記センサ情報に示された前記検知エリアの境界の一部を少なくとも含み、前記検知エリアにおける他のエリアより検知精度が低下するつなぎエリアを設定するように構成されたエリア設定部(5:S130)と、
前記観測値が前記つなぎエリアにある場合、該観測値と前記対応値ペアを形成する前記予測値の信頼度を、該信頼度が高くなるように調整するように構成された信頼度調整部(5:S180)と、
を備える物標追跡装置。
An information acquisition unit (5: S110) configured to acquire the position information of the sensor, the sensor information including the detection area of the sensor, and the target information including the detected position of the target from the plurality of sensors. ,
The target position estimated for each processing cycle is used as an estimated value, the target position predicted from the estimated value in the previous processing cycle is used as a predicted value, and the target acquired by the information acquisition unit is used as a predicted value. A reliability setting unit (5: S140) configured to set the predicted value and the reliability of the observed value, respectively, using the position of the target indicated in the target information as the observed value.
The predicted value representing the same target, the corresponding value pair which is the observed value, and the reliability set in the reliability setting unit for the corresponding value pair are used to associate the corresponding value pair with the corresponding value pair. An estimated value updating unit (5: S190) configured to update the estimated value of the target, and
An area setting unit (5: S130) that includes at least a part of the boundary of the detection area shown in the sensor information and is configured to set a connecting area whose detection accuracy is lower than that of other areas in the detection area. When,
When the observed value is in the connecting area, the reliability adjusting unit (reliability adjusting unit) configured to adjust the reliability of the predicted value forming the corresponding value pair with the observed value so as to increase the reliability. 5: S180) and
A target tracking device equipped with.
請求項1に記載の物標追跡装置であって、
前記信頼度調整部は、前記対応値ペアを形成する前記観測値が存在しない前記予測値の信頼度を、該信頼度が高くなるように調整するように構成された
物標追跡装置。
The target tracking device according to claim 1.
The reliability adjusting unit is a target tracking device configured to adjust the reliability of the predicted value in which the observed value forming the corresponding value pair does not exist so that the reliability becomes high.
請求項1又は請求項2に記載の物標追跡装置であって、
前記信頼度設定部は、前記つなぎエリア内での前記観測値の位置、前記観測値と前記予測値との一致度、前記予測値に対応づけられる前記物標の種類及び速度、該物標が最初に検出されてからの経過時間、前記観測値の生成元となった前記センサの種類及びスペック、前記観測値が取得されたときの外部環境のうち、少なくとも一つを用いて前記信頼度を設定するように構成された
物標追跡装置。
The target tracking device according to claim 1 or 2.
The reliability setting unit includes the position of the observed value in the connecting area, the degree of agreement between the observed value and the predicted value, the type and speed of the target associated with the predicted value, and the target. The reliability is determined using at least one of the elapsed time since the first detection, the type and specifications of the sensor from which the observed value was generated, and the external environment when the observed value was acquired. A target tracking device configured to set.
請求項1から請求項3までのいずれか1項に記載の物標追跡装置であって、
前記エリア設定部は、隣接する二つの前記センサの前記検知エリアの間に、前記つなぎエリアを設定するように構成された、
物標追跡装置。
The target tracking device according to any one of claims 1 to 3.
The area setting unit is configured to set the connecting area between the detection areas of two adjacent sensors.
Target tracking device.
JP2020071227A 2020-04-10 2020-04-10 Target tracker Active JP7277412B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020071227A JP7277412B2 (en) 2020-04-10 2020-04-10 Target tracker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020071227A JP7277412B2 (en) 2020-04-10 2020-04-10 Target tracker

Publications (2)

Publication Number Publication Date
JP2021167770A true JP2021167770A (en) 2021-10-21
JP7277412B2 JP7277412B2 (en) 2023-05-18

Family

ID=78079627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020071227A Active JP7277412B2 (en) 2020-04-10 2020-04-10 Target tracker

Country Status (1)

Country Link
JP (1) JP7277412B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210147A1 (en) * 2022-04-27 2023-11-02 トヨタ自動車株式会社 Foreign object detection system and vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349603A (en) * 2005-06-20 2006-12-28 Alpine Electronics Inc Radar system
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detector
JP2007041788A (en) * 2005-08-02 2007-02-15 Nissan Motor Co Ltd Obstacle determining apparatus and method
JP2007093543A (en) * 2005-09-30 2007-04-12 Alpine Electronics Inc Method and instrument for measuring position of target
JP2011123535A (en) * 2009-12-08 2011-06-23 Toyota Motor Corp Obstacle detection device
JP2018054405A (en) * 2016-09-28 2018-04-05 日産自動車株式会社 Object detection method and object detection apparatus
JP2019078554A (en) * 2017-10-20 2019-05-23 株式会社Soken Object detector

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349603A (en) * 2005-06-20 2006-12-28 Alpine Electronics Inc Radar system
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detector
JP2007041788A (en) * 2005-08-02 2007-02-15 Nissan Motor Co Ltd Obstacle determining apparatus and method
JP2007093543A (en) * 2005-09-30 2007-04-12 Alpine Electronics Inc Method and instrument for measuring position of target
JP2011123535A (en) * 2009-12-08 2011-06-23 Toyota Motor Corp Obstacle detection device
JP2018054405A (en) * 2016-09-28 2018-04-05 日産自動車株式会社 Object detection method and object detection apparatus
JP2019078554A (en) * 2017-10-20 2019-05-23 株式会社Soken Object detector

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023210147A1 (en) * 2022-04-27 2023-11-02 トヨタ自動車株式会社 Foreign object detection system and vehicle

Also Published As

Publication number Publication date
JP7277412B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
US10346683B2 (en) Method and apparatus for object identification and location correlation based on received images
JP2022113746A (en) Determination device
US11315420B2 (en) Moving object and driving support system for moving object
JPWO2018212346A1 (en) Control device, scanning system, control method, and program
KR102086270B1 (en) Control method and traveling control device of the traveling control device
JP6865521B2 (en) Navigation signal processing device, navigation signal processing method and navigation signal processing program
JP2015108604A (en) Vehicle position estimation system, device, method, and camera device
JP6973351B2 (en) Sensor calibration method and sensor calibration device
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
JP2017138660A (en) Object detection method, object detection device and program
WO2020085062A1 (en) Measurement accuracy calculation device, host position estimation device, control method, program, and storage medium
JP2023101820A (en) Self-location estimation device, control method, program, and storage medium
US11993289B2 (en) Vehicle control system and vehicle control method
JP2021167770A (en) Target tracking device
JP2019174191A (en) Data structure, information transmitting device, control method, program, and storage medium
US11754403B2 (en) Self-position correction method and self-position correction device
US20230039735A1 (en) Map update device and storage medium
JP2019132713A (en) Velocity computation device, velocity computation method, and program
US11475713B2 (en) Apparatus and method for estimating own vehicle behavior
WO2019188874A1 (en) Data structure, information processing device, and map data generation device
WO2018212290A1 (en) Information processing device, control method, program and storage medium
JP2021189062A (en) Information integrating device
JP7452349B2 (en) Traffic detection device and traffic detection method
WO2021112177A1 (en) Information processing apparatus, control method, program, and storage medium
US20240210178A1 (en) Map generation/self-position estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7277412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150