JP7277412B2 - Target tracker - Google Patents

Target tracker Download PDF

Info

Publication number
JP7277412B2
JP7277412B2 JP2020071227A JP2020071227A JP7277412B2 JP 7277412 B2 JP7277412 B2 JP 7277412B2 JP 2020071227 A JP2020071227 A JP 2020071227A JP 2020071227 A JP2020071227 A JP 2020071227A JP 7277412 B2 JP7277412 B2 JP 7277412B2
Authority
JP
Japan
Prior art keywords
target
value
information
reliability
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020071227A
Other languages
Japanese (ja)
Other versions
JP2021167770A (en
Inventor
健 亢
充啓 夏目
規史 神田
亮 田村
洋平 関谷
領 渡邊
暁琳 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020071227A priority Critical patent/JP7277412B2/en
Publication of JP2021167770A publication Critical patent/JP2021167770A/en
Application granted granted Critical
Publication of JP7277412B2 publication Critical patent/JP7277412B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本開示は、複数のセンサから得られる物標の位置情報を用いて、物標を追跡する技術に関する。 The present disclosure relates to technology for tracking a target using target position information obtained from a plurality of sensors.

物標を検知する複数種類のセンサによる検知結果をインテリジェントに組み合わせることで、検知された物標の情報を利用するシステムの性能向上、及び機能実現を図ることが行われている。このようなシステムでは、物標を追跡する際、センサにて検知された物標位置の瞬時値の時系列観測情報を利用して、物標位置の推定精度を向上させている。但し、センサの検知エリアの限界近傍では、観測誤差及び誤検知が増大することにより物標の追跡精度が低下することが知られている。 By intelligently combining detection results obtained by a plurality of types of sensors that detect targets, performance improvement and functional realization of systems that use information on detected targets have been attempted. In such a system, when tracking a target, time-series observation information of instantaneous values of the target position detected by the sensor is used to improve the accuracy of target position estimation. However, it is known that near the limit of the detection area of the sensor, the tracking accuracy of the target decreases due to an increase in observation errors and false detections.

特許文献1には、このような追跡精度の低下を抑制するために、複数センサを、互いの検知エリアの一部が重複するように配置することで、センサの検知エリアの境界付近に観測の冗長性を持たせる技術が提案されている。 In Patent Document 1, in order to suppress such a decrease in tracking accuracy, a plurality of sensors are arranged so that part of their detection areas overlap each other, so that observation is performed near the boundary of the detection areas of the sensors. Techniques for providing redundancy have been proposed.

特表2019-519051号公報Japanese Patent Application Publication No. 2019-519051

しかしながら、発明者の詳細な検討の結果、上記従来技術では、以下の課題があることが見出された。すなわち、システムを構成する複数のセンサの中に、車載センサ等、検知エリアが移動するセンサが含まれている場合、検知エリアの境界付近に必ずしも冗長性を持たせることができず、観測誤差の抑制効果を十分に得られないという課題があった。 However, as a result of detailed studies by the inventors, it was found that the above-described prior art has the following problems. In other words, when the multiple sensors that make up the system include sensors with moving detection areas, such as in-vehicle sensors, it is not always possible to provide redundancy near the boundaries of the detection areas, resulting in observation errors. There is a problem that a sufficient suppressing effect cannot be obtained.

本開示の1つの局面では、センサの検知エリアの限界近傍での物標の追跡精度を向上させる技術を提供する。 One aspect of the present disclosure provides a technique for improving target tracking accuracy near the limit of the detection area of a sensor.

本開示の一態様は、物標追跡装置であって、情報取得部(5:S110)と、信頼度設定部(5:S140)と、推定値更新部(5:S190)と、エリア設定部(5:S130)と、信頼度調整部(5:S180)と、を備える。 One aspect of the present disclosure is a target tracking device, which includes an information acquisition unit (5: S110), a reliability setting unit (5: S140), an estimated value update unit (5: S190), and an area setting unit (5: S130) and a reliability adjustment unit (5: S180).

情報取得部は、複数のセンサから、センサの位置情報及びセンサの検知エリアを含むセンサ情報、並びに検出した物標の位置を含む物標情報を取得する。信頼度設定部は、処理サイクル毎に推定される物標の位置を推定値とし、前回の処理サイクルでの推定値から予測される物標の位置を予測値とし、情報取得部で取得された物標情報に示された物標の位置を観測値として、予測値及び観測値の信頼度をそれぞれ設定する。推定値更新部は、同一物標を表す予測値及び観測値である対応値ペア、及び対応値ペアについて信頼度設定部にて設定された信頼度を用いて、対応値ペアに対応づけられる物標の推定値を更新する。エリア設定部は、センサ情報に示された検知エリアの境界の一部を少なくとも含み、検知エリアにおける他のエリアより検知精度が低下するつなぎエリアを設定する。信頼度調整部は、観測値がつなぎエリアにある場合、観測値と対応値ペアを形成する予測値の信頼度を、信頼度が高くなるように調整する。 The information acquisition unit acquires sensor information including position information of the sensors and detection areas of the sensors, and target information including the positions of the detected targets from the plurality of sensors. The reliability setting unit uses the position of the target that is estimated in each processing cycle as an estimated value, the position of the target that is predicted from the estimated value in the previous processing cycle as a predicted value, and uses Using the position of the target indicated in the target information as the observed value, the reliability of the predicted value and the observed value is set. The estimated value updating unit uses the corresponding value pair, which is the predicted value and the observed value representing the same target, and the reliability set by the reliability setting unit for the corresponding value pair to update the object associated with the corresponding value pair. Update target estimates. The area setting unit sets a connecting area that includes at least a part of the boundary of the detection area indicated by the sensor information and has lower detection accuracy than other areas in the detection area. The reliability adjustment unit adjusts the reliability of the predicted value forming the pair of the observed value and the corresponding value so as to increase the reliability when the observed value is in the connecting area.

このような構成によれば、センサの検出誤差、すなわち観測値の誤差が増大することによる、物標位置の推定精度、ひいては物標の追跡精度が低下することを抑制できる。 According to such a configuration, it is possible to suppress a decrease in target position estimation accuracy and target tracking accuracy due to an increase in sensor detection error, that is, observation value error.

交通管制システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a traffic control system; FIG. 車載端末の構成を示すブロック図である。2 is a block diagram showing the configuration of an in-vehicle terminal; FIG. インフラセンサの構成を示すブロック図である。It is a block diagram which shows the structure of an infrastructure sensor. サーバの構成を示すブロック図である。It is a block diagram which shows the structure of a server. サーバが実行する追跡処理のフローチャートである。4 is a flowchart of tracking processing executed by a server; つなぎエリアの設定に関する説明図である。FIG. 10 is an explanatory diagram regarding setting of a connecting area; つなぎエリアでの観測値、予測値、推定値の関係を示す説明図である。It is explanatory drawing which shows the relationship of the observed value in a connection area, a predicted value, and an estimated value. つなぎエリアがある場合とない場合とで推定値をシミュレーションによって算出した結果を示すグラフである。7 is a graph showing results of calculation of estimated values by simulation with and without a connecting area. つなぎエリアの他の設定方法を示す説明図である。FIG. 11 is an explanatory diagram showing another method of setting a connecting area; つなぎエリアの簡易的な設定方法を示す説明図である。FIG. 10 is an explanatory diagram showing a simple setting method for connecting areas;

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.全体構成]
図1に示す交通管制システム1は、交通環境下に存在する複数のセンサから取得した観測情報を統合して物標位置・運動等を推定し、交通環境にある各端末に推定結果を通知することで、自動運転及び運転支援の精度を向上させる。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. overall structure]
A traffic control system 1 shown in FIG. 1 integrates observation information acquired from multiple sensors existing in a traffic environment to estimate target positions, movements, etc., and notifies each terminal in the traffic environment of the estimation results. This will improve the accuracy of automated driving and driving assistance.

交通管制システム1は、車載端末2と、インフラセンサ3と、サーバ5とを備える。サーバ5が物標追跡装置に相当する。
[1-1.車載端末]
車載端末2は、車両に搭載される。図2に示すように、車載端末2は、車内通信器21と、車外通信器22と、処理部23とを備える。車内通信器21は、当該車載端末2を搭載する車両(以下、自車両)の車載ネットワークを介して、種々の情報を取得する。車外通信器22は、無線通信によって、サーバ5との通信を実行する。処理部23は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。
The traffic control system 1 includes an in-vehicle terminal 2 , an infrastructure sensor 3 and a server 5 . The server 5 corresponds to a target object tracking device.
[1-1. In-vehicle terminal]
The in-vehicle terminal 2 is mounted in a vehicle. As shown in FIG. 2 , the vehicle-mounted terminal 2 includes an in-vehicle communication device 21 , an external communication device 22 , and a processing section 23 . The in-vehicle communication device 21 acquires various information via an in-vehicle network of a vehicle (hereinafter referred to as own vehicle) in which the in-vehicle terminal 2 is mounted. The external communication device 22 communicates with the server 5 by wireless communication. The processing unit 23 includes a microcomputer having a CPU and memories such as ROM and RAM, and executes processing for realizing various functions.

車載端末2は、処理部23が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部231と、統合情報提供部232とを備える。
情報収集部231は、車内通信器21を介して、物標情報、センサ情報、及び車両状態情報を繰り返し収集し、車外通信器22を介してサーバ5に送信する。
The in-vehicle terminal 2 includes an information collecting unit 231 and an integrated information providing unit 232 as functional blocks representing functions realized by processing executed by the processing unit 23 .
The information collecting unit 231 repeatedly collects target information, sensor information, and vehicle state information via the in-vehicle communication device 21 and transmits the information to the server 5 via the external communication device 22 .

物標情報は、車両に搭載された周辺監視センサ群100にて検知される物標に関する観測情報である。周辺監視センサ群100には、ミリ波レーダ101、ライダー102、超音波センサ103、及びカメラ104等が含まれてもよい。以下では、周辺監視センサ群100に属するこれらの構成を、単にセンサ101~104ともいう。物標情報は、情報生成源となるセンサ101~104によって含まれる情報が異なるが、いずれの場合も、検知した物標の位置が少なくとも含まれる。物標情報には、物標の位置の他、物標までの距離、物標の移動速度及び移動方向、物標の大きさ、及び物標の種類等が含まれてもよい。なお、物標の位置、物標までの距離、物標の移動速度及び移動方向は、車載端末2を基準とした相対値によって表されてもよい。 The target object information is observation information about the target object detected by the perimeter monitoring sensor group 100 mounted on the vehicle. The peripheral monitoring sensor group 100 may include a millimeter wave radar 101, a lidar 102, an ultrasonic sensor 103, a camera 104, and the like. Hereinafter, these components belonging to the surroundings monitoring sensor group 100 are also simply referred to as sensors 101-104. The information included in the target information differs depending on the sensors 101 to 104 that are information generation sources, but in any case, at least the position of the detected target is included. The target information may include, in addition to the position of the target, the distance to the target, the moving speed and moving direction of the target, the size of the target, the type of the target, and the like. Note that the position of the target, the distance to the target, and the moving speed and moving direction of the target may be represented by relative values with the in-vehicle terminal 2 as a reference.

センサ情報には、個々のセンサ101~104の性能に関する性能情報、及び自車両に対する取付状態を表す取付情報が含まれる。取付情報には、路面からの高さ、車両の直進方向及び水平方向に対する取付角度が含まれる。性能情報には、センサ種別、検知距離範囲、及び検知角度範囲が含まれる。検知距離範囲は、一定の条件下で、物標の検知を許容精度で行うことができる距離の範囲である。検知角度範囲は、一定の条件下で、物標の検知を許容精度で行うことができる角度の範囲である。一定条件には、例えば、照度値や反射率等を用いてもよい。また、許容精度は、検知確率が一定値(例えば、95%)以上であることを用いてもよい。ここでは、検知距離範囲及び検知角度範囲によって決まる検知エリアAの中心方向をセンサ正面方向として、取付角度は、センサ正面方向の向きを表す。また、検知角度範囲は、センサ正面方向を基準(すなわち、0°)として表す。 The sensor information includes performance information regarding the performance of the individual sensors 101 to 104 and mounting information representing the mounting state with respect to the own vehicle. The mounting information includes the height from the road surface, the straight direction of the vehicle, and the mounting angle with respect to the horizontal direction. The performance information includes sensor type, detection distance range, and detection angle range. The detection distance range is the range of distances in which the target can be detected with acceptable accuracy under certain conditions. The detection angle range is the range of angles in which the target can be detected with acceptable accuracy under certain conditions. For example, an illuminance value, a reflectance, or the like may be used as the constant condition. Also, as the allowable accuracy, a detection probability of a certain value (for example, 95%) or more may be used. Here, the sensor front direction is the center direction of the detection area A determined by the detection distance range and the detection angle range, and the attachment angle represents the orientation of the sensor front direction. Also, the detection angle range is expressed with the front direction of the sensor as a reference (that is, 0°).

車両状態情報には、車両に搭載された位置センサ110にて検出される車両の位置及び進行方向が少なくとも含まれる。位置センサ110は、GNSS(すなわち、全地球航法衛星システム)を利用して情報を得る装置であってもよい。つまり、車両状態情報とセンサ情報に含まれる取付情報とを組み合わせることで、グローバル座標系におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。 The vehicle state information includes at least the position and traveling direction of the vehicle detected by the position sensor 110 mounted on the vehicle. Position sensor 110 may be a device that obtains information using GNSS (ie, Global Navigation Satellite System). That is, by combining the vehicle state information and the mounting information included in the sensor information, it is possible to specify the sensor position and the sensor front direction in the global coordinate system.

統合情報提供部232は、サーバ5から自車両の周辺に存在する物標等に関する統合情報を、車外通信器22を介して受信し、受信した統合情報を、車内通信器21を介して、自動運転及び運転支援に関わる車両制御を実行する各ECUに提供する。 The integrated information providing unit 232 receives integrated information about targets and the like existing around the own vehicle from the server 5 via the external communication device 22, and automatically transmits the received integrated information via the internal communication device 21. Provided to each ECU that executes vehicle control related to driving and driving support.

[1-2.インフラセンサ]
インフラセンサ3は、道路標識、信号機等の交通インフラの他、道路脇の建造物等に設置される。図3に示すように、インフラセンサ3は、センサ本体31と、通信器32と、処理部33と、を備える。
[1-2. Infrastructure sensor]
The infrastructure sensor 3 is installed on roadside buildings and the like in addition to traffic infrastructure such as road signs and traffic lights. As shown in FIG. 3 , the infrasensor 3 includes a sensor body 31 , a communication device 32 and a processing section 33 .

センサ本体31は、例えば、カメラ311及びレーダ312等を備える。センサ本体31は、カメラ311及びレーダ312におけるセンサ正面方向の向き(すなわち、センサ本体31の姿勢)を処理部33からの指示によって変化可能に構成される。以下では、カメラ311及びレーダ312を、単にセンサ311,312ともいう。 The sensor main body 31 includes, for example, a camera 311, a radar 312, and the like. The sensor main body 31 is configured to be able to change the orientation of the camera 311 and the radar 312 in the front direction of the sensor (that is, the orientation of the sensor main body 31 ) according to an instruction from the processing unit 33 . Below, the camera 311 and the radar 312 are also simply referred to as sensors 311 and 312 .

通信器32は、有線通信網又は無線通信網を介したサーバ5との通信を実行する。
処理部33は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。インフラセンサ3は、処理部33が実行する処理によって実現される機能を表す機能ブロックとして、情報収集部331と、姿勢制御部332とを備える。
The communication device 32 performs communication with the server 5 via a wired communication network or a wireless communication network.
The processing unit 33 includes a microcomputer having a CPU and memories such as ROM and RAM, and executes processing for realizing various functions. The infra-sensor 3 includes an information collection unit 331 and an attitude control unit 332 as functional blocks representing functions realized by processing executed by the processing unit 33 .

情報収集部331は、センサ本体31から物標情報を繰り返し収集し、収集した物標情報を、センサ情報及び姿勢情報と共に、通信器32を介してサーバ5に送信する。
物標情報及びセンサ情報は、基本的には、車載端末2の情報収集部231で収集される物標情報及びセンサ情報と同様である。但し、センサ情報に含まれる取付情報は、センサが予め設定された基準姿勢にあるときのセンサ正面方向の向き(以下、基準正面方向)が含まれる。姿勢情報は、姿勢制御部332によって決まるセンサ本体31の姿勢、すなわち、基準正面方向に対するセンサ正面方向の向きが含まれる。つまり、センサ情報に含まれる取付情報と、姿勢情報とを組み合わせることで、グローバル座標系におけるセンサ位置及びセンサ正面方向の向きを特定することが可能となる。
The information collecting unit 331 repeatedly collects target information from the sensor main body 31 and transmits the collected target information to the server 5 via the communication device 32 together with the sensor information and the attitude information.
The target information and sensor information are basically the same as the target information and sensor information collected by the information collection unit 231 of the vehicle-mounted terminal 2 . However, the mounting information included in the sensor information includes the direction of the front direction of the sensor when the sensor is in a preset reference posture (hereinafter referred to as the reference front direction). The attitude information includes the attitude of the sensor main body 31 determined by the attitude control section 332, that is, the orientation of the sensor front direction with respect to the reference front direction. That is, by combining the mounting information included in the sensor information and the orientation information, it is possible to identify the sensor position and the sensor front direction in the global coordinate system.

なお、インフラセンサ3が、センサ本体31の姿勢を変更できないように構成されている場合は、姿勢制御部332及び姿勢情報は省略されてもよい。
ここでは、インフラセンサ3において物標情報を生成してサーバ5に提供する場合について説明したが、物標情報の代わりに、センサ本体31から得られる生データをサーバ5に提供するように構成されてもよい。この場合、サーバ5は、インフラセンサ3から取得する生データから物標情報を生成する機能を必要とする。
If the infrasensor 3 is configured so that the orientation of the sensor main body 31 cannot be changed, the orientation control section 332 and the orientation information may be omitted.
Here, the case where target object information is generated in the infrastructure sensor 3 and provided to the server 5 has been described, but instead of the target object information, raw data obtained from the sensor main body 31 is provided to the server 5 . may In this case, the server 5 requires a function of generating target information from raw data acquired from the infrastructure sensor 3 .

以下では、周辺監視センサ群100に属するセンサ101~104、及びセンサ本体31に属するセンサ311,312を一括してフィールドセンサSと呼び、個々のフィールドセンサSを識別する必要がある場合はSiで示す。iは正整数である。図1では、車両に搭載された周辺監視センサ群100に属するセンサ101~104のいずれかをS1,S2とし、インフラセンサ3が有するセンサ本体31に属するセンサ311,312のいずれかをS3とする。また、各フィールドセンサS1~S3の検知エリアをA1~A3で表す。 Hereinafter, the sensors 101 to 104 belonging to the surrounding monitoring sensor group 100 and the sensors 311 and 312 belonging to the sensor main body 31 are collectively referred to as field sensors S, and when it is necessary to identify individual field sensors S, Si is used. show. i is a positive integer. In FIG. 1, any one of the sensors 101 to 104 belonging to the surrounding monitoring sensor group 100 mounted on the vehicle is designated as S1, S2, and one of the sensors 311, 312 belonging to the sensor body 31 of the infrastructure sensor 3 is designated as S3. . Also, detection areas of the field sensors S1 to S3 are represented by A1 to A3.

[1-3.サーバ]
サーバ5は、交通環境下に存在する複数のフィールドセンサSiから情報を取得し、取得した情報を統合することで、単一センサの検知に比べ高精度かつロバストな検出を実現する。その検出結果である統合情報を、車載端末2に提供する。
[1-3. server]
The server 5 acquires information from a plurality of field sensors Si present in the traffic environment and integrates the acquired information, thereby realizing highly accurate and robust detection compared to detection by a single sensor. Integrated information, which is the detection result, is provided to the vehicle-mounted terminal 2 .

図4に示すように、サーバ5は、通信器51と、処理部52と、記憶部53とを備える。
通信器51は、車載端末2、インフラセンサ3との通信を実行する。
As shown in FIG. 4 , the server 5 includes a communication device 51 , a processing section 52 and a storage section 53 .
The communication device 51 performs communication with the in-vehicle terminal 2 and the infrastructure sensor 3 .

処理部52は、CPUと、ROM及びRAM等のメモリと、を有するマイクロコンピュータを備え、種々の機能を実現するための処理を実行する。
サーバ5は、処理部52が実行する処理によって実現される機能を表す機能ブロックとして、情報生成部521と、情報配信部522とを備える。
The processing unit 52 includes a microcomputer having a CPU and memories such as ROM and RAM, and executes processing for realizing various functions.
The server 5 includes an information generating unit 521 and an information distributing unit 522 as functional blocks representing functions realized by processing executed by the processing unit 52 .

情報生成部521は、通信器51を介して複数のフィールドセンサSから取得されるセンサ情報及び物標情報を用いて、対象エリアに存在する物標の情報を統合した統合情報を生成する。対象エリアは、サーバ5での処理の対象となるエリアであり、あらかじめサーバ5に割り当てられる。統合情報には、少なくとも物標の位置情報が含まれる。物標を追跡して位置情報を逐次更新する追跡処理の詳細については後述する。 The information generation unit 521 uses sensor information and target information acquired from a plurality of field sensors S via the communication device 51 to generate integrated information that integrates information on targets existing in the target area. The target area is an area to be processed by the server 5 and is assigned to the server 5 in advance. Integrated information includes at least target position information. The details of the tracking process for tracking the target and sequentially updating the position information will be described later.

情報配信部522は、情報生成部521で生成された統合情報を、対象エリアに存在する車載端末2に、通信器51を介して配信する。
記憶部53には、対象エリアの地図、及び対象エリア内で過去一定期間内に検出された物標の位置の時系列情報が少なくとも記憶される。
The information distribution unit 522 distributes the integrated information generated by the information generation unit 521 to the vehicle-mounted terminals 2 existing in the target area via the communication device 51 .
The storage unit 53 stores at least a map of the target area and time-series information on the positions of targets detected within the target area within a certain period of time in the past.

[2.追跡処理]
次に、サーバ5が情報生成部521としての機能の一部を実現するために実行する追跡処理を、図5のフローチャートを用いて説明する。
[2. tracking process]
Next, the tracking process executed by the server 5 to implement part of the functions of the information generation unit 521 will be described with reference to the flowchart of FIG.

本処理は、サーバ5が起動している間、一定周期で繰り返し実行される。
S110では、サーバ5は、前回の処理サイクルから今回の処理サイクルまでの間に通信器51を介して受信された、物標情報及びセンサ情報を取得する。
This process is repeatedly executed at a constant cycle while the server 5 is running.
In S110, the server 5 acquires target information and sensor information received via the communication device 51 from the previous processing cycle to the current processing cycle.

続くS120では、サーバ5は、S110にて取得したセンサ情報に基づき、対象エリアを示す地図上に、フィールドセンサSの位置及び検知エリアを示したセンサマップを生成する。 In subsequent S120, the server 5 generates a sensor map showing the position and detection area of the field sensor S on the map showing the target area based on the sensor information acquired in S110.

続くS130では、サーバ5は、センサマップに示されたフィールドセンサSの検知エリアAに基づき、フィールドセンサSの検知性能が低下するつなぎエリアCXを設定する。例えば、図6に示すように、検知エリアの境界を基準として内側X[m]から外側Y[m]の範囲をつなぎエリアCXとしてもよい。また、つなぎエリアCXのうち、他のフィールドセンサSの検知エリアの非つなぎエリアと重複する場合、その重複部分は非つなぎエリアとする。ここでの非つなぎエリアは、検知エリアAからつなぎエリアCXを除いた範囲をいう。 In subsequent S130, the server 5 sets a connecting area CX where the detection performance of the field sensor S is degraded based on the detection area A of the field sensor S shown in the sensor map. For example, as shown in FIG. 6, the connecting area CX may be the range from the inside X[m] to the outside Y[m] with reference to the boundary of the detection area. Further, if the connecting area CX overlaps a non-connecting area of the detection area of another field sensor S, the overlapping portion is defined as a non-connecting area. The non-connecting area here refers to a range obtained by removing the connecting area CX from the detection area A. FIG.

続くS140では、サーバ5は、前回の処理サイクルまでに検出されている物標(以下、追跡物標)についての予測値と、S110で取得した物標情報に示された物標(以下、観測物標)の位置である観測値のそれぞれについて、信頼度を設定する。信頼度は、位置の検出に用いられたセンサの種類、スペック、外部環境(すなわち、対象エリアの環境)、追跡物標の種類及び速度などうち、少なくとも1つの要素に基づいて設定される。 In subsequent S140, the server 5 obtains predicted values for targets detected up to the previous processing cycle (hereinafter referred to as tracked targets) and targets indicated in the target information acquired in S110 (hereinafter referred to as observed targets). Set the confidence level for each observation that is the position of the target. The reliability is set based on at least one of the types of sensors used for position detection, specs, external environment (that is, the environment of the target area), types and speeds of tracking targets, and the like.

例えば、観測値の生成元となったフィールドセンサSが、天気の影響を受け易いライダー102である場合、観測値の信頼度を、晴れの場合は高く、雨や雪の場合は低く設定してもよい。また、予測値との一致度が高いほど観測値の信頼度を高く設定してもよい。また、予測値の場合、例えば、予測値に対応づけられる追跡物標が物標として最初に認識されてからの経過時間が長いほど信頼度を高く設定してもよい。また、予測値に対応づけられる追跡物標の種類が、走行中の車両など、位置を予測し易い物標である場合、予測値の信頼度を高く設定してもよい。 For example, if the field sensor S that generated the observed value is the lidar 102, which is easily affected by the weather, the reliability of the observed value is set high for fine weather and low for rain or snow. good too. Further, the higher the degree of matching with the predicted value, the higher the reliability of the observed value may be set. Further, in the case of the predicted value, for example, the longer the elapsed time since the tracked target associated with the predicted value was first recognized as the target, the higher the reliability may be set. Further, when the type of tracked target associated with the predicted value is a target whose position is easy to predict, such as a running vehicle, the reliability of the predicted value may be set high.

続くS150では、サーバ5は、追跡物標のうち、後述するS160~S190の処理が未だ実施されていない、いずれか一つを、対象物標として選択する。
続くS160では、サーバ5は、対象物標と履歴接続を有する観測物標が存在するか否かを判定し、存在すれば処理をS170に移行し、存在しなければ処理をS180に移行する。なお、履歴接続の有無は、例えば、対象物標と観測物標との距離で判定することが考えられるが、これに限定されるものではなく、履歴接続の有無を判定する公知の手法を用いることができる。以下では、履歴接続があると判定された予測値と観測値との組み合わせを対応値ペアという。
In subsequent S150, the server 5 selects any one of the tracking targets for which the processing of S160 to S190, which will be described later, has not yet been performed, as the target target.
In subsequent S160, the server 5 determines whether or not there is an observation target having a history connection with the target target. The presence or absence of history connection can be determined, for example, by the distance between the target target and the observation target, but the present invention is not limited to this, and a known method for determining the presence or absence of history connection is used. be able to. A combination of a predicted value and an observed value determined to have a history connection is hereinafter referred to as a corresponding value pair.

S170では、サーバ5は、対象物標の予測値と対応値ペアを構成する観測値に基づき、観測値がつなぎエリアCX内にあるか否かを判定し、つなぎエリアCX内にあればS180に移行し、つなぎエリアCX内になければ処理をS190に移行する。 In S170, the server 5 determines whether or not the observed value is within the connecting area CX based on the predicted value of the target object and the observed value forming the corresponding value pair. If it is not within the connection area CX, the process proceeds to S190.

S180では、サーバ5は、対象物標の予測値の信頼度が高くなるように、該信頼度を調整して処理をS190に進める。
S190では、サーバ5は、対応値ペアと、対応値ペアについてS140にて設定された信頼度、又はS180にて調整された信頼度と、に従って、対象物標の位置(すなわち、推定値)を更新する。具体的には、例えば、信頼度を重みとする対応値ペアの重みづけ加算によって推定値を算出してもよい。また、対応値ペアのうち、いずれか信頼度の高い方の値をそのまま推定値としてもよい。対象物標の予測値と対応値ペアを構成する観測値が抽出されなかった場合、予測値をそのまま推定値としてもよい。なお、あらかじめ設定された上限回連続して履歴接続のある観測物標が抽出されなかった対象物標は、ロストしたものとして追跡物標から削除してもよい。
In S180, the server 5 adjusts the reliability of the predicted value of the target target so that the reliability is increased, and advances the process to S190.
In S190, the server 5 calculates the position (that is, the estimated value) of the target object according to the corresponding value pair and the confidence level set in S140 or the confidence level adjusted in S180 for the corresponding value pair. Update. Specifically, for example, the estimated value may be calculated by weighted addition of corresponding value pairs weighted by reliability. Alternatively, one of the corresponding value pairs with higher reliability may be used as the estimated value as it is. If the predicted value of the target object and the observed value forming the corresponding value pair are not extracted, the predicted value may be used as the estimated value as it is. A target target for which an observation target having a history connection has not been extracted for a predetermined maximum number of consecutive times may be regarded as lost and deleted from the tracked target.

続く、S200では、サーバ5は、すべての追跡物標が先のS150で対象物標として選択されたか否かを判定する。サーバ5は、未選択の追跡物標が存在すると判定した場合は、処理をS150に戻し、全ての追跡物標が選択済みであると判定した場合は、処理をS210へ移行する。 Subsequently, in S200, the server 5 determines whether or not all tracked targets have been selected as target targets in the previous S150. If the server 5 determines that there are unselected tracking targets, the process returns to S150, and if it determines that all the tracking targets have been selected, the process proceeds to S210.

S210では、サーバ5は、追跡物標の更新を行って処理を終了する。具体的には、既に登録されている追跡物標については、S190で更新された推定値を用いて、次回の処理サイクルで使用する予測値を算出する。いずれの追跡物標とも履歴接続が確認されなかった観測物標は、あらたな追跡物標として登録すると共に、観測値に基づいて次回の処理サイクルで使用する予測値を算出する。 In S210, the server 5 updates the tracking target and terminates the process. Specifically, for already registered tracking targets, the estimated values updated in S190 are used to calculate predicted values to be used in the next processing cycle. An observation target for which history connection has not been confirmed with any tracking target is registered as a new tracking target, and a predicted value to be used in the next processing cycle is calculated based on the observed value.

なお、追跡処理において、S110が情報取得部に相当し、S130がエリア設定部に相当し、S140が信頼度設定部に相当し、S180が信頼度調整部に相当し、S190が推定値更新部に相当する。 In the tracking process, S110 corresponds to the information acquisition unit, S130 corresponds to the area setting unit, S140 corresponds to the reliability setting unit, S180 corresponds to the reliability adjustment unit, and S190 corresponds to the estimated value updating unit. corresponds to

[3.動作例]
図7は、フィールドセンサS1,S2の検知エリアA1,A2にエリアの重複がない場合を示す。物標が、検知エリアA1から検知エリアA2に移動する場合、検知エリアA1,A2の境界付近及び検知エリアA1,A2のいずれにも属さない範囲では、観測値の精度が低下する。このようなエリアがつなぎエリアCXとなる。図7では、便宜上、つなぎエリアCXを長方形で示す。
[3. Operation example]
FIG. 7 shows a case where the detection areas A1 and A2 of the field sensors S1 and S2 do not overlap. When the target moves from the detection area A1 to the detection area A2, the accuracy of the observed value decreases near the boundary between the detection areas A1 and A2 and in the range that does not belong to any of the detection areas A1 and A2. Such an area becomes the connection area CX. In FIG. 7, the connecting area CX is indicated by a rectangle for convenience.

つなぎエリアCXでは、図7中の黒四角印で示された対象物標の観測値より、図7中の白抜き三角印で示された追跡物標の予測値の方が、図7中の黒四角印で示された対象物標の観測値より、信頼度が高く設定される。このため、つなぎエリアCXでは、位置精度が低下した観測値より、予測値を重視して推定値が算出される。 In the connecting area CX, the predicted value of the tracking target indicated by the white triangle in FIG. 7 is higher than the observed value of the target target indicated by the black square in FIG. The reliability is set higher than the observed value of the target indicated by the black square mark. Therefore, in the connecting area CX, the estimated value is calculated with more emphasis on the predicted value than on the observed value with reduced positional accuracy.

図8に示すように、つなぎエリアCXが設定されない場合、物標が検知エリアA1,A2を跨いで移動する際に、検知エリアの境界付近での観測値の検出誤差が増大するため、このような観測値を用いて算出される推定値は、実際の位置から大きく外れたものとなる。その結果、物標が検知エリアA1,A2を跨いだときに、フィールドセンサS1で最後に検出される観測値と、フィールドセンサS2で際初に検出される観測値とは、大きく異なったものとなる場合がある。その結果、両検知エリアA1,A2で検出された物標は同一であるにも関わらず、別の物標として認識されてしまう。これに対して つなぎエリアCXが設定される場合、つなぎエリアCXでは、予測値が重視されるように信頼度が調整される。このため、物標の移動の仕方が大きく変化をしない限り、推定値が真値から大きく外れることがなく、物標の追跡精度が維持される。 As shown in FIG. 8, when the connecting area CX is not set, when the target moves across the detection areas A1 and A2, the detection error of the observed value increases near the boundary of the detection areas. Estimates calculated using small observations will deviate significantly from the actual position. As a result, when the target straddles the detection areas A1 and A2, the last observed value detected by the field sensor S1 and the first observed value detected by the field sensor S2 are significantly different. may become. As a result, although the targets detected in both detection areas A1 and A2 are the same, they are recognized as different targets. On the other hand, when the connecting area CX is set, the reliability is adjusted in the connecting area CX so that the predicted value is emphasized. Therefore, unless the movement of the target changes significantly, the estimated value does not greatly deviate from the true value, and the tracking accuracy of the target is maintained.

[4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(4a)本実施形態では、観測値の精度が低下するエリアであるつなぎエリアCXを設定し、つなぎエリアCXでは、予測値の信頼度が高くなるように調整する。従って、つなぎエリアCXにおいて、センサの検出誤差が増大することによる物標位置の推定精度、ひいては、物標の追跡精度が低下することを抑制できる。更には、つなぎエリアCXにて物標の誤検知及び未検知が発生すること抑制できる。
[4. effect]
According to the embodiment detailed above, the following effects are obtained.
(4a) In the present embodiment, a connecting area CX, which is an area where the accuracy of the observed value is lowered, is set, and in the connecting area CX, adjustment is made so that the reliability of the predicted value increases. Therefore, in the connecting area CX, it is possible to suppress a decrease in target position estimation accuracy and target tracking accuracy due to an increase in sensor detection error. Furthermore, it is possible to suppress erroneous detection and non-detection of the target in the connecting area CX.

[5.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[5. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(5a)上記実施形態では、フィールドセンサSの検知エリアAの境界付近の所定範囲がつなぎエリアCXとして設定されているが、本開示は、これに限定されるものではない。例えば、図9に示すように、上記実施形態で設定された検知エリアAの非つなぎエリア以外のすべてがつなぎエリアCXとして設定されてもよい。 (5a) In the above embodiment, a predetermined range near the boundary of the detection area A of the field sensor S is set as the connecting area CX, but the present disclosure is not limited to this. For example, as shown in FIG. 9, all detection areas A other than the non-connecting areas set in the above embodiment may be set as connecting areas CX.

(5b)上記実施形態では、検知エリアA毎に個別につなぎエリアCXが設定されているが、本開示は、これに限定されるものではない。例えば、図10に示すように、2つのフィールドセンサS1,S2をつなぐ直線上につなぎエリアCXを設定してもよい。この場合、つなぎエリアCXとして、上記直線上にエリア中心を有し、ベクトルV12と平行で辺長がE1の辺と、ベクトルABと直交し辺長がE2の辺とで形成される矩形状のエリアを設定してもよい。なお、つなぎエリアCXのエリア中心がフィールドセンサS1から距離D1だけ離れているとした場合、距離D1は、(1)式を満たすように設定されてもよい。但し、DはフィールドセンサS1,S2間の距離、R1はフィールドセンサS1の検知距離、R2はフィールドセンサS2の検知距離である。 (5b) In the above embodiment, the connecting areas CX are individually set for each detection area A, but the present disclosure is not limited to this. For example, as shown in FIG. 10, a connecting area CX may be set on a straight line connecting two field sensors S1 and S2. In this case, as the connection area CX, a rectangular shape having an area center on the above straight line and formed by a side parallel to the vector V12 and having a side length E1 and a side perpendicular to the vector AB and having a side length E2. area can be set. If the center of the connecting area CX is separated from the field sensor S1 by a distance D1, the distance D1 may be set so as to satisfy the formula (1). However, D is the distance between the field sensors S1 and S2, R1 is the detection distance of the field sensor S1, and R2 is the detection distance of the field sensor S2.

D1/D=R1/(R1+R2) (1)
(5c)上記実施形態では、追跡物標の状態に関わらずつなぎエリアCXが設定されるが、本開示は、これに限定されるものではない。例えば、隣接する二つのフィールドセンサS1,S2の検知エリアA1,A2を跨いで移動する可能性がある追跡物標が存在する場合に、それら二つのフィールドセンサS1,S2の間にだけつなぎエリアCXを設定してもよい。例えば、追跡物標の移動方向を示すベクトルを移動ベクトルと、フィールドセンサS1からフィールドセンサS2を見た方向を示す位置ベクトルとが、一定の平行度を有する場合に、追跡物標は検知エリアA1,A2を跨いで移動する可能性があると判定してもよい。なお、移動ベクトルと位置ベクトルの平行度は、例えば、正規化された二つのベクトルの内積が一定値以上であるか否かによって判定してもよい。
D1/D=R1/(R1+R2) (1)
(5c) In the above embodiment, the connecting area CX is set regardless of the state of the tracked target, but the present disclosure is not limited to this. For example, when there is a tracking target that may move across the detection areas A1 and A2 of two adjacent field sensors S1 and S2, the connecting area CX is set only between the two field sensors S1 and S2. may be set. For example, when the movement vector indicating the direction of movement of the tracked target and the position vector indicating the direction of viewing the field sensor S2 from the field sensor S1 have a certain degree of parallelism, the tracked target is located in the detection area A1. , A2. The degree of parallelism between the movement vector and the position vector may be determined, for example, by determining whether the inner product of the normalized two vectors is equal to or greater than a certain value.

(5d)本開示に記載の処理部23,33,52及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の処理部23,33,52及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の処理部23,33,52及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。処理部23,33,52に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (5d) processing units 23, 33, 52 and techniques described in this disclosure by configuring a processor and memory programmed to perform one or more functions embodied by a computer program; It may be implemented by a provided dedicated computer. Alternatively, the processing units 23, 33, 52 and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the processing units 23, 33, 52 and techniques described in this disclosure are configured with a processor and memory and one or more hardware logic circuits programmed to perform one or more functions. It may also be implemented by one or more dedicated computers configured in combination with processors. Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium. The method of realizing the function of each part included in the processing units 23, 33, 52 does not necessarily include software, and all the functions are realized using one or more pieces of hardware. good too.

(5e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (5e) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(5f)上述した物標追跡装置としてのサーバ5の他、当該物標追跡装置を構成要素とするシステム、当該物標追跡装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、位置推定方法など、種々の形態で本開示を実現することもできる。 (5f) In addition to the server 5 as the target tracking device described above, a system having the target tracking device as a component, a program for causing a computer to function as the target tracking device, a semiconductor memory storing this program, etc. The present disclosure can also be realized in various forms such as a non-transitional substantive recording medium, a position estimation method, and the like.

1…交通管制システム、2…車載端末、3…インフラセンサ、5…サーバ、51…通信器、52…処理部、53…記憶部、521…情報生成部、522…情報配信部、A…検知エリア、CX…つなぎエリア、S…フィールドセンサ。 DESCRIPTION OF SYMBOLS 1... Traffic control system, 2... Vehicle-mounted terminal, 3... Infrastructure sensor, 5... Server, 51... Communication device, 52... Processing part, 53... Storage part, 521... Information generation part, 522... Information distribution part, A... Detection area, CX... connecting area, S... field sensor.

Claims (4)

複数のセンサから、前記センサの位置情報及び前記センサの検知エリアを含むセンサ情報、並びに検出した物標の位置を含む物標情報を取得するように構成された情報取得部(5:S110)と、
処理サイクル毎に推定される前記物標の位置を推定値とし、前回の処理サイクルでの前記推定値から予測される前記物標の位置を予測値とし、前記情報取得部で取得された前記物標情報に示された物標の位置を観測値として、前記予測値及び前記観測値の信頼度をそれぞれ設定するように構成された信頼度設定部(5:S140)と、
同一物標を表す前記予測値及び前記観測値である対応値ペア、及び該対応値ペアについて前記信頼度設定部にて設定された前記信頼度を用いて、前記対応値ペアに対応づけられる前記物標の前記推定値を更新するように構成された推定値更新部(5:S190)と、
前記センサ情報に示された前記検知エリアの境界の一部を少なくとも含み、前記検知エリアにおける他のエリアより検知精度が低下するつなぎエリアを設定するように構成されたエリア設定部(5:S130)と、
前記観測値が前記つなぎエリアにある場合、該観測値と前記対応値ペアを形成する前記予測値の信頼度を、該信頼度が高くなるように調整するように構成された信頼度調整部(5:S180)と、
を備える物標追跡装置。
an information acquisition unit (5: S110) configured to acquire, from a plurality of sensors, sensor information including position information of the sensors and detection areas of the sensors, and target information including the positions of detected targets; ,
The position of the target estimated in each processing cycle is set as an estimated value, the position of the target predicted from the estimated value in the previous processing cycle is set as a predicted value, and the object acquired by the information acquisition unit is set as a predicted value. a reliability setting unit (5: S140) configured to set the reliability of each of the predicted value and the observed value using the position of the target indicated in the target information as the observed value;
Using the corresponding value pair, which is the predicted value and the observed value representing the same target, and the reliability set by the reliability setting unit for the corresponding value pair, the an estimated value updating unit (5: S190) configured to update the estimated value of the target;
an area setting unit (5: S130) configured to set a connecting area including at least part of a boundary of the detection area indicated in the sensor information and having lower detection accuracy than other areas in the detection area; and,
a reliability adjustment unit ( 5: S180) and
A target tracking device comprising a
請求項1に記載の物標追跡装置であって、
前記信頼度調整部は、前記対応値ペアを形成する前記観測値が存在しない前記予測値の信頼度を、該信頼度が高くなるように調整するように構成された
物標追跡装置。
The target tracking device according to claim 1,
The target tracking device, wherein the reliability adjustment unit is configured to adjust the reliability of the predicted value for which the observed value forming the corresponding value pair does not exist so that the reliability increases.
請求項1又は請求項2に記載の物標追跡装置であって、
前記信頼度設定部は、前記つなぎエリア内での前記観測値の位置、前記観測値と前記予測値との一致度、前記予測値に対応づけられる前記物標の種類及び速度、該物標が最初に検出されてからの経過時間、前記観測値の生成元となった前記センサの種類及びスペック、前記観測値が取得されたときの外部環境のうち、少なくとも一つを用いて前記信頼度を設定するように構成された
物標追跡装置。
The target tracking device according to claim 1 or claim 2,
The reliability setting unit determines the position of the observed value in the connecting area, the degree of matching between the observed value and the predicted value, the type and speed of the target associated with the predicted value, and the target The reliability is calculated using at least one of the elapsed time since the first detection, the type and specifications of the sensor that generated the observed value, and the external environment when the observed value was obtained. A target tracker configured to set.
請求項1から請求項3までのいずれか1項に記載の物標追跡装置であって、
前記エリア設定部は、隣接する二つの前記センサの前記検知エリアの間に、前記つなぎエリアを設定するように構成された、
物標追跡装置。
The target tracking device according to any one of claims 1 to 3,
The area setting unit is configured to set the connecting area between the detection areas of two adjacent sensors.
Target tracker.
JP2020071227A 2020-04-10 2020-04-10 Target tracker Active JP7277412B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020071227A JP7277412B2 (en) 2020-04-10 2020-04-10 Target tracker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020071227A JP7277412B2 (en) 2020-04-10 2020-04-10 Target tracker

Publications (2)

Publication Number Publication Date
JP2021167770A JP2021167770A (en) 2021-10-21
JP7277412B2 true JP7277412B2 (en) 2023-05-18

Family

ID=78079627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020071227A Active JP7277412B2 (en) 2020-04-10 2020-04-10 Target tracker

Country Status (1)

Country Link
JP (1) JP7277412B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023162767A (en) * 2022-04-27 2023-11-09 トヨタ自動車株式会社 Abnormal object detection system and vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349603A (en) 2005-06-20 2006-12-28 Alpine Electronics Inc Radar system
JP2011123535A (en) 2009-12-08 2011-06-23 Toyota Motor Corp Obstacle detection device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007024590A (en) * 2005-07-13 2007-02-01 Toyota Motor Corp Object detector
JP4517972B2 (en) * 2005-08-02 2010-08-04 日産自動車株式会社 Obstacle determination device and method
JP4993431B2 (en) * 2005-09-30 2012-08-08 アルパイン株式会社 Method and apparatus for measuring position of target
JP6967846B2 (en) * 2016-09-28 2021-11-17 日産自動車株式会社 Object detection method and object detection device
JP7002910B2 (en) * 2017-10-20 2022-01-20 株式会社Soken Object detection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349603A (en) 2005-06-20 2006-12-28 Alpine Electronics Inc Radar system
JP2011123535A (en) 2009-12-08 2011-06-23 Toyota Motor Corp Obstacle detection device

Also Published As

Publication number Publication date
JP2021167770A (en) 2021-10-21

Similar Documents

Publication Publication Date Title
US10677907B2 (en) Method to determine the orientation of a target vehicle
JP6325806B2 (en) Vehicle position estimation system
JP3711405B2 (en) Method and system for extracting vehicle road information using a camera
JP2022113746A (en) Determination device
KR102086270B1 (en) Control method and traveling control device of the traveling control device
JPWO2018212346A1 (en) Control device, scanning system, control method, and program
US20200072617A1 (en) Host vehicle position estimation device
Song et al. A fusion strategy for reliable vehicle positioning utilizing RFID and in-vehicle sensors
US20160189004A1 (en) Method and apparatus for object identification and location correlation based on received images
US10435019B2 (en) Course prediction method and course prediction device
JP6589570B2 (en) Center processing apparatus, map generation system, and program
US11538241B2 (en) Position estimating device
US20210055399A1 (en) Radar device
JP6593088B2 (en) Vehicle position estimation apparatus and program
JP6973351B2 (en) Sensor calibration method and sensor calibration device
JP6758160B2 (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
WO2018212292A1 (en) Information processing device, control method, program and storage medium
US20190179006A1 (en) Target detection device
JP7349561B2 (en) Map information correction method, driving support method, and map information correction device
JP7277412B2 (en) Target tracker
US20220227396A1 (en) Vehicle control system and vehicle control method
KR101929681B1 (en) Method and Apparatus for Peripheral Vehicle Location Estimation using V2V and Environment Scanning Sensor
JP7418196B2 (en) Travel trajectory estimation method and travel trajectory estimation device
CN113795726B (en) Self-position correction method and self-position correction device
US20230039735A1 (en) Map update device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7277412

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150