JP7325296B2 - Object recognition method and object recognition system - Google Patents

Object recognition method and object recognition system Download PDF

Info

Publication number
JP7325296B2
JP7325296B2 JP2019194692A JP2019194692A JP7325296B2 JP 7325296 B2 JP7325296 B2 JP 7325296B2 JP 2019194692 A JP2019194692 A JP 2019194692A JP 2019194692 A JP2019194692 A JP 2019194692A JP 7325296 B2 JP7325296 B2 JP 7325296B2
Authority
JP
Japan
Prior art keywords
detection
detected
road
stationary object
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019194692A
Other languages
Japanese (ja)
Other versions
JP2021068316A (en
Inventor
光範 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019194692A priority Critical patent/JP7325296B2/en
Publication of JP2021068316A publication Critical patent/JP2021068316A/en
Application granted granted Critical
Publication of JP7325296B2 publication Critical patent/JP7325296B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、物体認識方法及び物体認識システムに関する。 The present invention relates to an object recognition method and an object recognition system.

特許文献1には、駐車車両の駐車位置を特定する駐車車両検出装置が開示されている。駐車車両検出装置は、自車両に載置された撮像装置により撮像された画像に含まれる他の車両を検出し、検出した他の車両の位置を算出し、算出した位置を含む他の車両の情報を記憶し、他の車両の情報に基づいて、他の車両が駐車車両である可能性が高いか否か判定する。 Patent Literature 1 discloses a parked vehicle detection device that identifies the parking position of a parked vehicle. The parked vehicle detection device detects other vehicles included in an image captured by an imaging device mounted on the own vehicle, calculates the position of the detected other vehicle, and detects the position of the other vehicle including the calculated position. The information is stored, and based on the information of other vehicles, it is determined whether the other vehicle is likely to be a parked vehicle.

特開2015-76074号公報JP 2015-76074 A

しかしながら、静止物体とその背景とを区別して認識することが困難なことがある。例えば、撮像画像から静止物体を認識する場合、静止物体の色彩と背景の色彩とが似ていると静止物体と背景とが同化してしまい、これらの区別が困難になることがある。
また例えば、レーザレーダ等の測距装置で静止物体を検出する場合には、測距誤差のために静止物体と背景の静止物体との区別が困難になることがある。
本発明は、道路上の静止物体が存在する領域の推定精度を向上することを目的とする。
However, it is sometimes difficult to distinguish and recognize a stationary object from its background. For example, when recognizing a stationary object from a captured image, if the colors of the stationary object and the background are similar, the stationary object and the background are assimilated, making it difficult to distinguish between them.
Further, for example, when a stationary object is detected by a distance measuring device such as a laser radar, it may be difficult to distinguish between the stationary object and the background stationary object due to ranging errors.
SUMMARY OF THE INVENTION An object of the present invention is to improve the accuracy of estimating an area in which a stationary object exists on a road.

本発明の一態様による物体認識方法では、道路上の観測点から、道路に沿って延在する物標を検出し、物標の観測点から検出された部分が存在する区間である検出区間を検出し、複数の観測点でそれぞれ検出した複数の異なる検出区間の端点の位置に基づいて、道路上に静止物体が存在する領域である静止物体存在領域を推定する。 In an object recognition method according to an aspect of the present invention, a target extending along a road is detected from an observation point on the road, and a detection section, which is a section in which a portion of the target detected from the observation point exists, is detected. Based on the positions of the end points of a plurality of different detection sections detected at a plurality of observation points, a stationary object existence area, which is an area in which a stationary object exists on the road, is estimated.

本発明によれば、道路上の静止物体が存在する領域の推定精度を向上できる。 ADVANTAGE OF THE INVENTION According to this invention, the estimation precision of the area|region where a stationary object exists on a road can be improved.

第1実施形態の物体認識システムの一例の概略構成図である。1 is a schematic configuration diagram of an example of an object recognition system according to a first embodiment; FIG. 第1実施形態の物体認識方法の一例の説明図である。FIG. 4 is an explanatory diagram of an example of an object recognition method according to the first embodiment; 第1実施形態の物体認識方法の一例の説明図である。FIG. 4 is an explanatory diagram of an example of an object recognition method according to the first embodiment; 第1実施形態の物体認識方法の一例の説明図である。FIG. 4 is an explanatory diagram of an example of an object recognition method according to the first embodiment; 第1実施形態の物体認識方法の一例の説明図である。FIG. 4 is an explanatory diagram of an example of an object recognition method according to the first embodiment; 第1実施形態の物体認識方法の一例の説明図である。FIG. 4 is an explanatory diagram of an example of an object recognition method according to the first embodiment; 第1実施形態の物体認識システムの機能構成の一例のブロック図である。It is a block diagram of an example of functional composition of an object recognition system of a 1st embodiment. 第1実施形態の物体認識方法の一例のフローチャートである。4 is a flow chart of an example of an object recognition method according to the first embodiment; 第2実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 2nd Embodiment. 第2実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 2nd Embodiment. 第2実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 2nd Embodiment. 第2実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 2nd Embodiment. 第2実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 2nd Embodiment. 第2実施形態の物体認識方法の一例のフローチャートである。9 is a flow chart of an example of an object recognition method according to the second embodiment; 第2実施形態の物体認識システムにおけるデータ授受シーケンスの一例の説明図である。FIG. 11 is an explanatory diagram of an example of a data exchange sequence in the object recognition system of the second embodiment; 第3実施形態の物体認識システムの一例の概略構成図である。FIG. 11 is a schematic configuration diagram of an example of an object recognition system according to a third embodiment; 第3実施形態の物体認識システムの機能構成の一例のブロック図である。FIG. 11 is a block diagram of an example of the functional configuration of an object recognition system according to a third embodiment; FIG. 第3実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 3rd Embodiment. 第3実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 3rd Embodiment. 第3実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 3rd Embodiment. 静止物体存在領域の推定結果の補正処理の第1例の説明図である。FIG. 10 is an explanatory diagram of a first example of correction processing for the estimation result of the stationary object existence area; 静止物体存在領域の推定結果の補正処理の第2例の説明図である。FIG. 10 is an explanatory diagram of a second example of correction processing for the estimation result of the stationary object existence area; 静止物体存在領域の推定結果の補正処理の第3例の説明図である。FIG. 12 is an explanatory diagram of a third example of correction processing for the estimation result of the stationary object existence area; 検出区間の端点の補正処理の一例の説明図である。FIG. 10 is an explanatory diagram of an example of correction processing for end points of a detection section; 第3実施形態の物体認識方法の一例のフローチャートである。11 is a flow chart of an example of an object recognition method according to the third embodiment; 第4実施形態の物体認識システムの一例の概略構成図である。FIG. 11 is a schematic configuration diagram of an example of an object recognition system according to a fourth embodiment; 第4実施形態の物体認識システムの機能構成の一例のブロック図である。FIG. 12 is a block diagram of an example of the functional configuration of an object recognition system according to the fourth embodiment; FIG. 第4実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 4th Embodiment. 第4実施形態の物体認識方法の一例の説明図である。It is explanatory drawing of an example of the object recognition method of 4th Embodiment. 第4実施形態の物体認識方法の一例のフローチャートである。FIG. 12 is a flow chart of an example of an object recognition method according to the fourth embodiment; FIG.

以下、図面を参照して、本発明の実施形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。各図面は模式的なものであり、現実のものとは異なる場合が含まれる。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記の実施形態に例示した装置や方法に特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals, and overlapping descriptions are omitted. Each drawing is schematic and may differ from the actual one. The embodiments shown below exemplify devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is specific to the devices and methods illustrated in the following embodiments. not something to do. Various modifications can be made to the technical idea of the present invention within the technical scope described in the claims.

(第1実施形態)
(構成)
図1を参照する。第1実施形態の物体認識システム100は、第1車両1に搭載された外部センサ10と、測位装置11と、通信装置12と、コンピュータ15、16及び17を備える。第1車両1には、さらに車載装置13と、アクチュエータ14とが設けられている。
外部センサ10は、第1車両1の周囲の物体を検出する複数の異なる種類のセンサを備える。外部センサ10は、特許請求の範囲に記載の「物体検出手段」の一例である。
(First embodiment)
(composition)
Please refer to FIG. The object recognition system 100 of the first embodiment includes an external sensor 10 mounted on the first vehicle 1, a positioning device 11, a communication device 12, and computers 15, 16 and 17. The first vehicle 1 is further provided with an in-vehicle device 13 and an actuator 14 .
The external sensor 10 comprises a plurality of different types of sensors for detecting objects around the first vehicle 1 . The external sensor 10 is an example of the "object detection means" described in the claims.

例えば外部センサ10は、第1車両1に搭載されたカメラを備える。外部センサ10は、例えば第1車両1の周囲を撮像する1又は複数のカメラを備える。外部センサ10は、例えば、第1車両1の前方を撮像する画角90度の4K解像度カメラと、第1車両1の後方を撮像する画角90度の4K解像度カメラと、第1車両1の左側方を撮像する画角180度の4K解像度カメラと、第1車両1の右側方を撮像する画角180度の4K解像度カメラを備えてよい。 For example, the external sensor 10 comprises a camera mounted on the first vehicle 1 . The external sensor 10 includes, for example, one or more cameras that capture images of the surroundings of the first vehicle 1 . The external sensor 10 includes, for example, a 4K resolution camera with an angle of view of 90 degrees that captures the front of the first vehicle 1, a 4K resolution camera with an angle of view of 90 degrees that captures the rear of the first vehicle 1, A 4K resolution camera with an angle of view of 180 degrees for imaging the left side and a 4K resolution camera with an angle of view of 180 degrees for imaging the right side of the first vehicle 1 may be provided.

外部センサ10は、これらのカメラを同期させながら各々のカメラの撮像画像を取得することで、第1車両1の周囲360度の範囲を撮像する。
また例えば外部センサ10は、レーザレーダやミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの測距センサを備え、第1車両1の前方、後方又は側方の物体や道路白線、路面の位置データ又はポイントクラウドデータを取得してもよい。
The external sensor 10 captures a 360-degree range around the first vehicle 1 by acquiring images captured by each camera while synchronizing these cameras.
Further, for example, the external sensor 10 includes a ranging sensor such as a laser radar, a millimeter wave radar, or LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), and detects an object or road in front of, behind, or to the side of the first vehicle 1. White lines, road surface position data or point cloud data may be obtained.

測位装置11は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して、現在時刻と、第1車両1の現在位置及び進行方向を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置11は、例えば慣性航法装置であってもよく、オドメトリによって第1車両1の現在位置及び進行方向を測定してもよい。 The positioning device 11 includes a global positioning system (GNSS) receiver, receives radio waves from a plurality of navigation satellites, and measures the current time and the current position and traveling direction of the first vehicle 1 . A GNSS receiver may be, for example, a global positioning system (GPS) receiver or the like. The positioning device 11 may be, for example, an inertial navigation device, and may measure the current position and traveling direction of the first vehicle 1 by odometry.

通信装置12は、測位装置11から得られる現在時刻情報に基づいて外部センサ10に対して基準時刻を配信する。また、通信装置12は、コンピュータ15、16及び17の通信手段15a、16a及び17aを介して、それぞれ区間検出手段15b、差異検出手段16b及び領域推定手段17bとの間でデータの授受を行う。
車載装置13は、第1車両1の走行を制御する電子制御ユニット(ECU:Electronic Control Unit)である。例えば車載装置13は、第1車両1の現在位置と周囲環境に基づいて、運転者が関与せずに第1車両1を自動で運転する自動走行制御を行う。
The communication device 12 distributes the reference time to the external sensor 10 based on the current time information obtained from the positioning device 11 . Further, the communication device 12 exchanges data with the section detection means 15b, the difference detection means 16b and the area estimation means 17b via the communication means 15a, 16a and 17a of the computers 15, 16 and 17, respectively.
The in-vehicle device 13 is an electronic control unit (ECU) that controls running of the first vehicle 1 . For example, the in-vehicle device 13 performs automatic travel control for automatically driving the first vehicle 1 without involving the driver, based on the current position of the first vehicle 1 and the surrounding environment.

また例えば車載装置13は、周囲環境に基づいて第1車両1の操舵または加減速のみを制御する運転支援制御を行う。
車載装置13は、プロセッサと、記憶装置等の周辺部品とを含む。プロセッサは、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。記憶装置は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
Further, for example, the in-vehicle device 13 performs driving support control that controls only the steering or acceleration/deceleration of the first vehicle 1 based on the surrounding environment.
The in-vehicle device 13 includes a processor and peripheral components such as a storage device. The processor may be, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit). The storage device may comprise a semiconductor storage device, a magnetic storage device, an optical storage device, or the like. The storage device may include memories such as registers, cache memories, ROMs (Read Only Memories) used as main storages, and RAMs (Random Access Memories).

アクチュエータ14は、車載装置13からの制御信号に応じて、第1車両1のステアリングホイール、アクセル開度及びブレーキ装置を操作して、第1車両1の車両挙動を発生させる。アクチュエータ14は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、第1車両1のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、第1車両1のアクセル開度を制御する。ブレーキ制御アクチュエータは、第1車両1のブレーキ装置の制動動作を制御する。 The actuator 14 operates the steering wheel, the accelerator opening, and the braking device of the first vehicle 1 according to the control signal from the in-vehicle device 13 to cause the vehicle behavior of the first vehicle 1 . The actuator 14 includes a steering actuator, an accelerator opening actuator, and a brake control actuator. The steering actuator controls the steering direction and amount of steering of the first vehicle 1 . The accelerator opening actuator controls the accelerator opening of the first vehicle 1 . The brake control actuator controls the braking operation of the brake system of the first vehicle 1 .

コンピュータ15~17は、それぞれ通信手段15a~17aを備え、後述する区間検出手段15b、差異検出手段16b、及び領域推定手段17bとして動作する。コンピュータ15~17は、それぞれ別個のハードウエアとして実装されてもよく、共通のハードウエアに統合してもよい。
また例えば、コンピュータ15~17は、第1車両1に実装されてもよい。この場合、通信装置12及び通信手段15a~17aは、有線又は無線の通信手段によりデータを授受してよい。例えば、通信装置12及び通信手段15a~17aは、例えばCSMA/CA方式の多重通信(CAN:Controller Area Network)やフレックスレイ(Flex Ray)等の車載通信ネットワーク(車載LAN)を備えてもよい。
The computers 15 to 17 are provided with communication means 15a to 17a, respectively, and operate as section detection means 15b, difference detection means 16b, and area estimation means 17b, which will be described later. Computers 15-17 may each be implemented as separate hardware or may be integrated into common hardware.
Also, for example, the computers 15 to 17 may be mounted in the first vehicle 1 . In this case, the communication device 12 and the communication means 15a to 17a may exchange data by wired or wireless communication means. For example, the communication device 12 and the communication means 15a to 17a may be provided with an in-vehicle communication network (in-vehicle LAN) such as CSMA/CA multiplex communication (CAN: Controller Area Network) or Flex Ray.

コンピュータ15~17は、第1車両1以外の場所に実装されてもよい。この場合、例えば通信装置12及び通信手段15a~17aは、車車間通信、公衆携帯電話網、路車間通信、衛星通信等の無線通信手段を介して、互いにデータを授受する。コンピュータ15~17は、例えば、他車両、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバに実装されてもよい。 Computers 15 - 17 may be mounted at locations other than first vehicle 1 . In this case, for example, the communication device 12 and the communication means 15a to 17a exchange data with each other via wireless communication means such as vehicle-to-vehicle communication, public mobile phone network, road-to-vehicle communication, and satellite communication. The computers 15 to 17 may be installed, for example, in other vehicles, mobile edge computers on mobile phones/own networks, road traffic infrastructure servers installed on the roadside, or cloud servers on the Internet.

続いて、第1実施形態の物体認識システム100による物体認識方法の概要について説明する。
図2Aに示すように、第1車両1が道路200上を走行し、道路200に沿って延在する又は道路200沿いに連なって存在する物標202が存在する場合を想定する。例えば物標202は、道路200に沿って延在する道路構造物(ガードレールや縁石など)や、道路境界に描かれた道路白線などの道路200に沿って延在する路面ペイント、又は道路200の路面であってよい。また、物標202は、道路沿いに連なって存在する(道路200に沿って延在する)建物であってもよい。
道路200上には静止物体201が存在しており、道路200の一部を占有している。静止物体201は例えば駐車車両であってよい。
Next, an outline of an object recognition method by the object recognition system 100 of the first embodiment will be described.
As shown in FIG. 2A, it is assumed that the first vehicle 1 travels on a road 200 and there are targets 202 that extend along the road 200 or exist in a row along the road 200 . For example, the target 202 may be a road structure (guardrail, curb, etc.) extending along the road 200, road surface paint extending along the road 200 such as a road white line drawn on the road boundary, or road surface paint of the road 200. It can be a road surface. Also, the target 202 may be a building existing along the road (extending along the road 200).
A stationary object 201 exists on the road 200 and occupies part of the road 200 . Stationary object 201 may be, for example, a parked vehicle.

まず、図2Bに示すように、地点P1(観測点)において物標202を検出する。参照符号Sd11及びSd12は、物標202のうち地点P1から検出される部分が存在する区間(以下「検出区間」と表記する)を示す。
図2Bの例では、静止物体201によって物標202の一部分が地点P1からの見通し外の領域となる。このため、この部分は外部センサ10によって検出できず、検出区間Sd11及びSd12は不連続な検出区間として検出される。
このように不連続部分を挟んで隣接する一対の検出区間のうち、地点P1により近い検出区間Sd11を「第1検出区間」と表記する。また、地点P1からより遠い他方の検出区間Sd12を「第2検出区間」と表記する。
First, as shown in FIG. 2B, a target 202 is detected at point P1 (observation point). Reference signs Sd11 and Sd12 indicate sections in which portions of the target 202 that are detected from the point P1 are present (hereinafter referred to as "detection sections").
In the example of FIG. 2B, the stationary object 201 causes part of the target 202 to be a non-line-of-sight area from the point P1. Therefore, this portion cannot be detected by the external sensor 10, and the detection sections Sd11 and Sd12 are detected as discontinuous detection sections.
Of the pair of detection sections adjacent to each other across the discontinuous portion, the detection section Sd11 closer to the point P1 is referred to as a "first detection section". Also, the other detection section Sd12, which is farther from the point P1, is referred to as a "second detection section".

また、第1検出区間Sd11の両端のうち第2検出区間Sd12により近い一端の位置Pe11を第1検出区間Sd11の「終点」と表記する。
第2検出区間Sd12の両端のうち第1検出区間Sd11により近い一端の位置Ps12(すなわち、第2検出区間Sd12の両端のうち地点P1により近い一端の位置Ps12)を第2検出区間Sd12の「始点」と表記する。
さらに、第1検出区間Sd11の終点Pe11と第2検出区間Sd12の始点Ps12の間の区間を、物標202のうち地点P1から検出されない部分が存在する区間である非検出区間Su1として推定する。
Further, the position Pe11 of one end closer to the second detection section Sd12 among both ends of the first detection section Sd11 is referred to as the "end point" of the first detection section Sd11.
The position Ps12 of one end closer to the first detection section Sd11 among both ends of the second detection section Sd12 (that is, the position Ps12 of one end closer to the point P1 among both ends of the second detection section Sd12) is set as the "start point" of the second detection section Sd12. ”.
Furthermore, the section between the end point Pe11 of the first detection section Sd11 and the start point Ps12 of the second detection section Sd12 is estimated as a non-detection section Su1, which is a section in which there is a portion of the target 202 that is not detected from the point P1.

図2Cを参照する。次に、地点P1から所定距離離れた地点P2(観測点)から物標202を検出する。検出区間Sd21及びSd22は、物標202のうち地点P2から検出される部分が存在する第1検出区間及び第2検出区間である。図2Cにおいて、第1検出区間Sd21の終点Pe21と、第2検出区間Sd22の始点Ps22が図示されている。また、物標202のうち地点P2から検出されない部分が存在する区間である非検出区間Su2を推定する。 See FIG. 2C. Next, the target 202 is detected from a point P2 (observation point) which is a predetermined distance away from the point P1. The detection sections Sd21 and Sd22 are a first detection section and a second detection section in which a portion of the target 202 detected from the point P2 exists. FIG. 2C shows the end point Pe21 of the first detection section Sd21 and the start point Ps22 of the second detection section Sd22. Also, a non-detection section Su2, which is a section in which a portion of the target 202 that is not detected from the point P2 exists, is estimated.

次に、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との差異を検出する。具体的には、第2検出区間Sd12の始点Ps12と第2検出区間Sd22の始点Ps22との差異を検出する。
道路上の静止物体201によって、第1検出区間Sd11と第2検出区間Sd12とが寸断され、第1検出区間Sd21と第2検出区間Sd22とが寸断されている場合、図2B及び図2Cに示すように、始点Ps22は始点Ps12から移動する。
Next, the difference between the second detection section Sd12 detected at the point P1 and the second detection section Sd22 detected at the point P2 is detected. Specifically, the difference between the starting point Ps12 of the second detection section Sd12 and the starting point Ps22 of the second detection section Sd22 is detected.
When the first detection section Sd11 and the second detection section Sd12 are cut off by the stationary object 201 on the road, and the first detection section Sd21 and the second detection section Sd22 are cut off, FIGS. 2B and 2C show Thus, the starting point Ps22 moves from the starting point Ps12.

一方で、静止物体201が存在せず、物標202自体が単に途切れている場合には、どの地点から見ても始点Ps12と始点Ps22は一致する。
そこで始点Ps12と始点Ps22との間に差異が存在する場合には、静止物体201が存在すると判定する。始点Ps12と始点Ps22との間に差異がない場合には、静止物体201が存在しないと判定する。
On the other hand, when the stationary object 201 does not exist and the target 202 itself is simply interrupted, the start point Ps12 and the start point Ps22 match from any point.
Therefore, when there is a difference between the starting point Ps12 and the starting point Ps22, it is determined that the stationary object 201 exists. If there is no difference between the start point Ps12 and the start point Ps22, it is determined that the stationary object 201 does not exist.

図2Dを参照する。静止物体201が存在すると判定した場合、地点P1及びP2のいずれからも物標202が検出されない区間を「物体存在可能性区間」として推定する。物体存在可能性区間は、静止物体が存在する可能性がある区間である。
例えば、第1検出区間Sd21と第2検出区間Sd22の間の区間(終点Pe21から始点Ps22までの道路200の区間)を物体存在可能性区間として推定する。
See FIG. 2D. When it is determined that the stationary object 201 exists, a section in which the target 202 is not detected from either of the points P1 and P2 is estimated as an "object existence possibility section". An object presence possibility interval is an interval in which a stationary object may exist.
For example, the section between the first detection section Sd21 and the second detection section Sd22 (the section of the road 200 from the end point Pe21 to the start point Ps22) is estimated as the object presence possibility section.

なお、物体201が静止している場合、第1検出区間Sd11の終点Pe11と第1検出区間Sd21の終点Pe12は一致して共通の終点Peとなる。一方で、物体201が静止している場合、終点Pe11と終点Pe12は一致しない。
したがって、始点Ps12と始点Ps22との間に差異が存在することに加えて、終点Pe11と終点Pe12が変化しない場合に、静止物体201が存在すると判定してもよい。これにより移動物体を静止物体201と誤検出することを防止できる。
Note that when the object 201 is stationary, the end point Pe11 of the first detection section Sd11 and the end point Pe12 of the first detection section Sd21 coincide to form a common end point Pe. On the other hand, when the object 201 is stationary, the end point Pe11 and the end point Pe12 do not match.
Therefore, it may be determined that the stationary object 201 exists when there is a difference between the start point Ps12 and the start point Ps22 and the end point Pe11 and the end point Pe12 do not change. This can prevent the moving object from being erroneously detected as the stationary object 201 .

最後に、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。図2Eを参照する。
例えば、地点P2と始点Ps22とを結ぶ線分を「見通し境界線203」として算出する。見通し境界線は、静止物体201により見通し範囲外となる領域と見通し可能な領域との境界線を、観測点である地点P2まで延長した線分である。
例えば、共通の終点Peで第1検出区間Sd21と直角に交わる垂線204と、見通し境界線203との交点Pvを求める。終点Peと交点Pvとの間隔の長さに基づき静止物体存在領域の幅Wを算出し、終点Peから始点Ps22に亘って幅Wを有する領域205を静止物体存在領域として推定する。
Finally, the stationary object existence area is estimated by restricting the object existence possibility section in the road width direction. See FIG. 2E.
For example, a line segment connecting the point P2 and the starting point Ps22 is calculated as the "line of sight boundary line 203". The line of sight boundary line is a line segment obtained by extending the boundary line between the area outside the line of sight range and the area where the line of sight is visible due to the stationary object 201 to point P2, which is an observation point.
For example, the intersection point Pv between the line of sight boundary line 203 and the perpendicular line 204 perpendicularly crossing the first detection section Sd21 at the common end point Pe is obtained. The width W of the stationary object existence area is calculated based on the length of the interval between the end point Pe and the intersection point Pv, and the area 205 having the width W from the end point Pe to the start point Ps22 is estimated as the stationary object existence area.

また、例えば、終点Peと交点Pvを結ぶ線分と、交点Pvと始点Ps22を結ぶ線分と、始点Ps22と終点Peとを結ぶ線分に囲まれる領域を静止物体存在領域として推定してもよい。
以上のようにして、物体認識システム100は、道路に沿った物標202の一部分が静止物体201によって観測点から遮蔽されている場合には、観測点から検出される物標202の一部分の端点が観測点の変化に伴って変化することを利用して、静止物体201の存在領域を推定する。これにより、道路上の静止物体が存在する領域の推定精度を向上できる。
Alternatively, for example, an area surrounded by a line segment connecting the end point Pe and the intersection point Pv, a line segment connecting the intersection point Pv and the start point Ps22, and a line segment connecting the start point Ps22 and the end point Pe may be estimated as the stationary object presence area. good.
As described above, when a portion of the target 202 along the road is shielded from the observation point by the stationary object 201, the object recognition system 100 detects the endpoint of the portion of the target 202 detected from the observation point. changes as the observation point changes, the existence area of the stationary object 201 is estimated. As a result, it is possible to improve the accuracy of estimating an area in which a stationary object exists on the road.

次に、物体認識システム100の機能構成について説明する。図3は、第1実施形態の物体認識システム100の機能構成の一例のブロック図である。
物体認識システム100は、外部センサ10、測位装置11、区間検出手段15b、差異検出手段16b及び領域推定手段17b及びアクチュエータ14に加えて、軌道生成手段110と、走行制御手段111を備える。第1車両1の車載装置13は、軌道生成手段110及び走行制御手段111として動作する。
Next, a functional configuration of the object recognition system 100 will be described. FIG. 3 is a block diagram of an example of the functional configuration of the object recognition system 100 of the first embodiment.
The object recognition system 100 includes an external sensor 10, a positioning device 11, a section detection means 15b, a difference detection means 16b, an area estimation means 17b, an actuator 14, a trajectory generation means 110, and a travel control means 111. The in-vehicle device 13 of the first vehicle 1 operates as a trajectory generation means 110 and a travel control means 111 .

外部センサ10は、第1車両1の周囲の物体を検出する。例えば、外部センサ10は、車載カメラにより、第1車両の周囲の水平角度360度の見通し範囲で、50m程度の道路白線を撮影し、道路200に沿って延在する物標202として検出する。
測位装置11は、所定の座標を基準とする共通座標系(例えば世界座標系や地図座標系)における第1車両1の現在位置を測定する。
The external sensor 10 detects objects around the first vehicle 1 . For example, the external sensor 10 captures a road white line of about 50 m with a vehicle-mounted camera within a horizontal line of sight of 360 degrees around the first vehicle, and detects it as a target 202 extending along the road 200 .
The positioning device 11 measures the current position of the first vehicle 1 in a common coordinate system (for example, a world coordinate system or a map coordinate system) based on predetermined coordinates.

区間検出手段15bは、地点P1における外部センサ10による検出結果に基づいて、第1検出区間Sd11及び第2検出区間Sd12を検出し、非検出区間Su1を推定する。また、地点P1から所定距離Dだけ離れた地点P2における外部センサ10による検出結果に基づいて、第1検出区間Sd21及び第2検出区間Sd22を検出し、非検出区間Su2を推定する。 The section detection means 15b detects the first detection section Sd11 and the second detection section Sd12 based on the detection result of the external sensor 10 at the point P1, and estimates the non-detection section Su1. Also, based on the detection result by the external sensor 10 at a point P2 which is a predetermined distance D from the point P1, the first detection section Sd21 and the second detection section Sd22 are detected, and the non-detection section Su2 is estimated.

地点P1及びP2の間の所定距離Dは、外部センサ10による物標202の位置の検出誤差範囲に応じて決定してよい。
例えば、物標202が第1車両1から50m離れており、外部センサ10が10%程度の誤差を含む場合、地点P1と地点P2が十分離れていることを満たすために+10%のマージンを付与して、50m×20%=10mと所定距離Dとして定める。
The predetermined distance D between the points P1 and P2 may be determined according to the detection error range of the position of the target 202 by the external sensor 10 .
For example, if the target 202 is 50 m away from the first vehicle 1 and the external sensor 10 includes an error of about 10%, a +10% margin is given to satisfy that the points P1 and P2 are sufficiently far apart. Then, the predetermined distance D is determined as 50m×20%=10m.

差異検出手段16bは、区間検出手段15bの検出結果と、測位装置11による第1車両1の現在位置の測定結果とに基づいて、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との差異を検出する。
具体的には、第1車両1の現在位置に基づいて区間検出手段15bが検出した検出区間の座標系を共通座標系に変換し、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22とを共通座標系上で比較する。
The difference detection means 16b detects the second detection section Sd12 detected at the point P1 and the second detection section Sd12 detected at the point P2 based on the detection result of the section detection means 15b and the measurement result of the current position of the first vehicle 1 by the positioning device 11. The difference from the second detection section Sd22 is detected.
Specifically, the coordinate system of the detection section detected by the section detection means 15b based on the current position of the first vehicle 1 is converted into a common coordinate system, and the second detection section Sd12 detected at the point P1 and the second detection section Sd12 detected at the point P2 The detected second detection section Sd22 is compared on the common coordinate system.

例えば、第2検出区間Sd12の始点Ps12と第2検出区間Sd22の始点Ps22との差異を検出する。差異検出手段16bは検出結果を領域推定手段17bに送信する。
領域推定手段17bは、第2検出区間Sd12と第2検出区間Sd22との間に差異が存在する場合に、静止物体201が存在すると判定する。
第2検出区間Sd12と第2検出区間Sd22との間に差異がない場合、静止物体201が存在しないと判定する
For example, the difference between the starting point Ps12 of the second detection section Sd12 and the starting point Ps22 of the second detection section Sd22 is detected. The difference detection means 16b transmits the detection result to the area estimation means 17b.
The area estimation means 17b determines that the stationary object 201 exists when there is a difference between the second detection section Sd12 and the second detection section Sd22.
If there is no difference between the second detection section Sd12 and the second detection section Sd22, it is determined that the stationary object 201 does not exist.

また領域推定手段17bは、始点Ps12と始点Ps22との間に差異が存在することに加えて、第1検出区間Sd11の終点Pe11と第1検出区間Sd21の終点Pe21が変化しない場合に、静止物体201が存在すると判定してもよい。 In addition to the fact that there is a difference between the start point Ps12 and the start point Ps22, the area estimation means 17b also detects the stationary object 201 may be determined to exist.

静止物体201が存在すると判定した場合、領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間(例えば、第1検出区間Sd21と第2検出区間Sd22の間の区間)を物体存在可能性区間として推定する。
すなわち、領域推定手段17bは、物標202のうち地点P1から検出されない部分が存在する非検出区間Su1と、物標202のうち地点P2から検出されない部分が存在する区間である非検出区間Su2の重複領域を、物体存在可能性区間として推定する。
When it is determined that the stationary object 201 exists, the region estimation means 17b selects a section in which the target 202 is not detected from either of the points P1 and P2 (for example, a section between the first detection section Sd21 and the second detection section Sd22). is estimated as the object existence possibility interval.
That is, the area estimating means 17b divides the non-detection section Su1 in which a portion of the target 202 that is not detected from the point P1 exists, and the non-detection section Su2 that is a section in which a portion of the target 202 that is not detected from the point P2 exists. Overlap regions are estimated as object presence probability intervals.

さらに、領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。領域推定手段17bは、推定した静止物体存在領域の位置情報を車載装置13に出力する。
静止物体存在領域の位置情報は、例えば、静止物体存在領域の頂点の緯度経度などの座標とこれらの座標を結ぶリンク情報を含んでよい。静止物体存在領域の位置情報は、地図データベース上のレーンの識別情報と道のり距離によって静止物体存在領域が存在する区間を表現してもよく、道路リンクの識別情報と座標情報によって静止物体存在領域が存在する区間を表現してもよい。
Further, the region estimation means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region. The region estimating means 17b outputs the positional information of the estimated stationary object existence region to the in-vehicle device 13. FIG.
The position information of the stationary object existence area may include, for example, coordinates such as the latitude and longitude of the vertex of the stationary object existence area and link information connecting these coordinates. The position information of the stationary object existence area may express the section where the stationary object existence area exists by the lane identification information and the distance on the map database, and the stationary object existence area is expressed by the road link identification information and the coordinate information. An existing interval may be represented.

車載装置13の軌道生成手段110は、第1車両1の自動走行制御又は運転支援制御において、第1車両1を走行させる目標走行軌道と速度プロファイルを生成する。
領域推定手段17bが、第1車両1の進路の前方の静止物体存在領域を推定した場合、軌道生成手段110は、静止物体存在領域を回避するように目標走行軌道と速度プロファイルを生成する。
The trajectory generation means 110 of the in-vehicle device 13 generates a target travel trajectory and a speed profile on which the first vehicle 1 travels in automatic travel control or driving support control of the first vehicle 1 .
When the area estimating means 17b estimates the stationary object existence area ahead of the course of the first vehicle 1, the trajectory generating means 110 generates a target traveling trajectory and a speed profile so as to avoid the stationary object existing area.

走行制御手段111は、軌道生成手段110が生成した速度プロファイルに従う速度で第1車両1が目標走行軌道を走行するようにアクチュエータ14を駆動する。これによりアクチュエータ14は、例えば、第1車両1が静止物体存在領域を回避するように、第1車両1のステアリングの操舵方向及び操舵量を制御する。
またアクチュエータ14は、第1車両1が静止物体存在領域の手前で減速又は停車するように、第1車両1のブレーキ装置を制御する。
The traveling control means 111 drives the actuator 14 so that the first vehicle 1 travels on the target traveling trajectory at a speed according to the speed profile generated by the trajectory generating means 110 . Accordingly, the actuator 14 controls the steering direction and steering amount of the steering of the first vehicle 1, for example, so that the first vehicle 1 avoids the stationary object existence area.
The actuator 14 also controls the braking device of the first vehicle 1 so that the first vehicle 1 decelerates or stops before the stationary object existence area.

これにより、静止物体201の認識や大きさの判別が難しい状況において、静止物体201の周辺の物体を観測した結果に基づいて、その静止物体存在領域を予め推定できる。この結果、静止物体201の認識や大きさの判別を待たずに余裕を持って静止物体201を避ける車両挙動を発生できる。
また、車載装置13は、静止物体存在領域の存在やその位置情報を、第1車両1の運転者や乗員に、音声情報や視覚情報として通知してもよい。
As a result, in a situation where it is difficult to recognize the stationary object 201 and determine its size, the stationary object existence area can be estimated in advance based on the results of observing objects around the stationary object 201 . As a result, the vehicle behavior to avoid the stationary object 201 can be generated without waiting for the stationary object 201 to be recognized and its size determined.
Further, the in-vehicle device 13 may notify the presence of the stationary object presence area and its position information to the driver and passengers of the first vehicle 1 as audio information and visual information.

(動作)
次に、図4を参照して第1実施形態の物体認識方法の一例を説明する。
ステップS1において外部センサ10は、地点P1から見通し範囲内にある物標202を検出する。区間検出手段15bは、第1検出区間Sd11とその終点Pe11、及び第2検出区間Sd12とその始点Ps12を検出する。
(motion)
Next, an example of the object recognition method of the first embodiment will be described with reference to FIG.
In step S1, the external sensor 10 detects the target object 202 within the line of sight from the point P1. The section detection means 15b detects the first detection section Sd11 and its end point Pe11, and the second detection section Sd12 and its start point Ps12.

ステップS2において測位装置11は、第1車両1が地点P1から所定距離D離れた地点P2に到達したことを検出する。外部センサ10は、地点P2から見通し範囲内にある物標202を検出する。区間検出手段15bは、第1検出区間Sd21とその終点Pe21、及び第2検出区間Sd22とその始点Ps22を検出する。
ステップS3において差異検出手段16bは、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との相違を判定する。
In step S2, the positioning device 11 detects that the first vehicle 1 has reached a point P2 that is a predetermined distance D away from the point P1. The external sensor 10 detects a target 202 within the line of sight from the point P2. The section detection means 15b detects the first detection section Sd21 and its end point Pe21, and the second detection section Sd22 and its start point Ps22.
In step S3, the difference detection means 16b determines the difference between the second detection section Sd12 detected at the point P1 and the second detection section Sd22 detected at the point P2.

第2検出区間Sd12と第2検出区間Sd22に差異がある場合(ステップS3:Y)に、処理はステップS4へ進む。第2検出区間Sd12と第2検出区間Sd22に差異がない場合(ステップS3:N)に、物体存在可能性区間を推定せずに処理を終了する。
ステップS4において領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間を物体存在可能性区間として推定する。
If there is a difference between the second detection section Sd12 and the second detection section Sd22 (step S3: Y), the process proceeds to step S4. If there is no difference between the second detection section Sd12 and the second detection section Sd22 (step S3: N), the processing ends without estimating the object presence possibility section.
In step S4, the region estimation means 17b estimates a section in which the target object 202 is not detected from either of the points P1 and P2 as an object presence possibility section.

(第1実施形態の効果)
(1)外部センサ10は、道路200上の観測点P1、P2から、道路200に沿って延在する又は道路沿いに存在する物標202を検出する。区間検出手段15bは、物標202の観測点P1及びP2から検出された部分が存在する区間である検出区間Sd11、Sd12、Sd21及びSd22をそれぞれ検出する。差異検出手段16b、及び領域推定手段17bは、複数の観測点P1及びP2でそれぞれ検出した複数の異なる検出区間Sd11、Sd12、Sd21及びSd22の端点の位置に基づいて、道路200上に静止物体201が存在する領域である静止物体存在領域を推定する。
(Effect of the first embodiment)
(1) The external sensor 10 detects targets 202 extending or existing along the road 200 from observation points P1 and P2 on the road 200 . The section detection means 15b detects detection sections Sd11, Sd12, Sd21 and Sd22, which are sections in which portions of the target 202 detected from the observation points P1 and P2 are present. The difference detecting means 16b and the area estimating means 17b detect a stationary object 201 on the road 200 based on the positions of the end points of the plurality of different detection sections Sd11, Sd12, Sd21 and Sd22 respectively detected at the plurality of observation points P1 and P2. Estimate the stationary object presence region, which is the region where

これにより、道路200上の静止物体201が存在する領域の推定精度を向上できる。
また、静止物体201の認識や大きさの判別が難しい状況において、静止物体201の周辺の物標を観測した結果に基づいて、その静止物体存在領域を予め推定できる。この結果、静止物体201の認識や大きさの判別を待たずに余裕を持って静止物体201を避ける車両挙動を発生できる。
As a result, the accuracy of estimating the area where the stationary object 201 exists on the road 200 can be improved.
In addition, in a situation where it is difficult to recognize the stationary object 201 or determine its size, the stationary object existence area can be estimated in advance based on the results of observing targets around the stationary object 201 . As a result, the vehicle behavior to avoid the stationary object 201 can be generated without waiting for the stationary object 201 to be recognized and its size determined.

(2)区間検出手段15bは、物標202の観測点P1、P2から検出されない部分が存在する区間である非検出区間Su1及びSu2を、複数の観測点P1及びP2についてそれぞれ推定する。領域推定手段17bは、非検出区間Su1及びSu2の重複部分に基づいて静止物体存在領域を推定する。
これにより、観測点P1から物標202が検出されない区間と、観測点P2から物標202が検出されない区間の両方に基づいて静止物体存在領域を推定するので、静止物体存在領域を限定できる。
(2) The section detection means 15b estimates non-detection sections Su1 and Su2, which are sections in which there are portions not detected from the observation points P1 and P2 of the target 202, for the plurality of observation points P1 and P2. The region estimating means 17b estimates a stationary object existence region based on the overlapping portion of the non-detection sections Su1 and Su2.
As a result, the stationary object existence area is estimated based on both the section from the observation point P1 in which the target 202 is not detected and the section from the observation point P2 in which the target 202 is not detected, so that the stationary object existence area can be limited.

(3)観測点P1で不連続な複数の検出区間Sd11及びSd12が検出され、観測点P2で不連続な複数の検出区間Sd21及びSd22が検出される場合に、区間検出手段15bは、不連続部分を挟んで隣接する一対の検出区間のうち、観測点P1及びP2に比較的近い第1検出区間Sd11及びSd21と、観測点P1及びP2から比較的遠い第2検出区間Sd12及びSd22と、を検出する。領域推定手段17bは、第1検出区間の両端のうち第2検出区間に近い一方の端点Pe11及びPe21の位置が、複数の観測点P1及びP2から検出しても変化しない場合に、静止物体が存在すると判定する。
これによって、道路200上の移動物体を静止物体として誤検出するのを防止できる。
(3) When a plurality of discontinuous detection sections Sd11 and Sd12 are detected at the observation point P1 and a plurality of discontinuous detection sections Sd21 and Sd22 are detected at the observation point P2, the section detection means 15b Of the pair of detection intervals adjacent to each other across the part, the first detection intervals Sd11 and Sd21 relatively close to the observation points P1 and P2 and the second detection intervals Sd12 and Sd22 relatively far from the observation points P1 and P2 are selected. To detect. The region estimating means 17b detects the position of one of the endpoints Pe11 and Pe21 of the first detection section that is closer to the second detection section from a plurality of observation points P1 and P2. Determine that it exists.
This can prevent a moving object on the road 200 from being erroneously detected as a stationary object.

(変形例)
(1)予め既知の物標202の位置情報を有する地図情報に基づいて、観測点から外部センサ10が検出した物標202の検出位置(特に道幅方向位置)を補正してもよい。例えば、外部センサ10の検出位置に最も近い地図上の物標202の位置に、検出位置を補正してもよい。これにより、より正確な検出区間の位置を検出することができる。以下に説明する第2実施形態~第4実施形態においても同様である。
(Modification)
(1) Based on map information having known positional information of the target 202, the detected position (especially the position in the road width direction) of the target 202 detected by the external sensor 10 from the observation point may be corrected. For example, the detected position may be corrected to the position of the target 202 on the map that is closest to the detected position of the external sensor 10 . This makes it possible to detect the position of the detection section more accurately. The same applies to second to fourth embodiments described below.

(2)区間検出手段15bは、道路200の道路境界線より外側の物標を、道路200に沿って延在する又は道路200沿いに連なって存在する物標として検出してもよい。例えば区間検出手段15bは、道路境界線の位置情報を地図データベースから取得し、観測点と外部センサ10の検出位置とを結ぶ線分が道路境界線を横切る場合に、外部センサ10が検出した物標を、道路200に沿って延在する又は道路200沿いに連なって存在する物標として検出してもよい。これにより、道路200上の静止物体201により遮蔽される物標を選択することができる。以下に説明する第2実施形態~第4実施形態においても同様である。 (2) The section detection means 15b may detect targets outside the road boundary line of the road 200 as targets extending along the road 200 or existing continuously along the road 200 . For example, the section detection means 15b acquires the position information of the road boundary line from the map database, and detects the object detected by the external sensor 10 when the line segment connecting the observation point and the detection position of the external sensor 10 crosses the road boundary line. A landmark may be detected as a target that extends along the road 200 or exists in a row along the road 200 . As a result, a target that is blocked by the stationary object 201 on the road 200 can be selected. The same applies to second to fourth embodiments described below.

(3)物体認識システム100は、外部センサ10の検出信号に基づいて、道路200上の移動物体を検出する移動物体検出手段を備えてもよい。領域推定手段17bは、道路200上で移動物体が検出されない領域において、静止物体存在領域を推定してもよい。
上記のとおり、移動物体は静止物体よりも検出しやすい。移動物体が検出されない領域において静止物体存在領域を推定することにより、道路200上の移動物体を静止物体として誤検出するのを防止できる。以下に説明する第2実施形態~第4実施形態においても同様である。
(3) The object recognition system 100 may include moving object detection means for detecting a moving object on the road 200 based on the detection signal from the external sensor 10 . The area estimating means 17b may estimate the stationary object existence area in an area where no moving object is detected on the road 200. FIG.
As mentioned above, moving objects are easier to detect than stationary objects. By estimating the stationary object existence area in an area where no moving object is detected, it is possible to prevent a moving object on the road 200 from being erroneously detected as a stationary object. The same applies to second to fourth embodiments described below.

(第2実施形態)
(構成)
次に、第2実施形態を説明する。第2実施形態の物体認識システム100は、第1実施形態の物体認識システム100と同様の機能構成を有しており、同一の構成要素には同じ参照符号を付する。
図5A~図5Eを参照して、第2実施形態の物体認識方法を説明する。
まず、図5Aに示すように、外部センサ10は、地点P1から第1車両1の周囲の物体を検出する。
(Second embodiment)
(composition)
Next, a second embodiment will be described. The object recognition system 100 of the second embodiment has the same functional configuration as the object recognition system 100 of the first embodiment, and the same constituent elements are given the same reference numerals.
The object recognition method of the second embodiment will be described with reference to FIGS. 5A to 5E.
First, as shown in FIG. 5A, the external sensor 10 detects objects around the first vehicle 1 from a point P1.

区間検出手段15bは、外部センサ10による検出結果に基づいて、第1検出区間Sd11及び第2検出区間Sd12を検出する。
差異検出手段16bは、測位装置11による第1車両1の現在位置の測定結果に基づいて、区間検出手段15bの検出結果の座標系を共通座標系に変換し、第2検出区間Sd12の始点Ps12と地点P1とを結んだ線分を見通し境界線210として算出する。
The section detection means 15b detects the first detection section Sd11 and the second detection section Sd12 based on the detection result by the external sensor 10. FIG.
The difference detection means 16b converts the coordinate system of the detection result of the section detection means 15b into the common coordinate system based on the measurement result of the current position of the first vehicle 1 by the positioning device 11, and determines the starting point Ps12 of the second detection section Sd12. and the point P1 is calculated as the line of sight boundary line 210 .

図5Bを参照する。測位装置11は、第1車両1が地点P1から所定距離D離れた地点P2に到達したことを検出する。
外部センサ10は、地点P2から第1車両1の周囲の物体を検出する。区間検出手段15bは、外部センサ10による検出結果に基づいて、第1検出区間Sd21及び第2検出区間Sd22を検出する。
See FIG. 5B. The positioning device 11 detects that the first vehicle 1 has reached a point P2 that is a predetermined distance D away from the point P1.
The external sensor 10 detects objects around the first vehicle 1 from the point P2. The section detection means 15b detects the first detection section Sd21 and the second detection section Sd22 based on the detection result by the external sensor 10. FIG.

差異検出手段16bは、測位装置11による第1車両1の現在位置の測定結果に基づいて、区間検出手段15bの検出結果の座標系を共通座標系に変換し、第2検出区間Sd22の始点Ps22と地点P2とを結んだ線分を見通し境界線211として算出する。
差異検出手段16bは、見通し境界線210及び見通し境界線211に基づいて、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との間に差異があるか否かを判定する。
The difference detection means 16b converts the coordinate system of the detection result of the section detection means 15b into the common coordinate system based on the measurement result of the current position of the first vehicle 1 by the positioning device 11, and determines the starting point Ps22 of the second detection section Sd22. and the point P2 is calculated as the line of sight boundary line 211 .
The difference detection means 16b determines whether there is a difference between the second detection section Sd12 detected at the point P1 and the second detection section Sd22 detected at the point P2 based on the line of sight boundary line 210 and the line of sight boundary line 211. determine whether

道路上の静止物体201によって、第1検出区間Sd11と第2検出区間Sd12とが寸断され、第1検出区間Sd21と第2検出区間Sd22とが寸断されている場合、第2検出区間Sd12と第2検出区間Sd22の間に差異が生じ、その結果、図5Bに示すように、見通し境界線210及び見通し境界線211は唯一の交点Pcを有する。交点Pcの位置は、静止物体201の頂点の1つの位置と一致する。
一方で、静止物体201が存在せず、物標202自体が単に途切れている場合には、第2検出区間Sd12と第2検出区間Sd22の間に差異が生じず、見通し境界線210及び見通し境界線211の交点は存在しない。
When the first detection section Sd11 and the second detection section Sd12 are separated by the stationary object 201 on the road, and the first detection section Sd21 and the second detection section Sd22 are separated, the second detection section Sd12 and the second detection section Sd22 are separated. A difference occurs between the two detection intervals Sd22, so that the line of sight boundary 210 and the line of sight boundary 211 have only one point of intersection Pc, as shown in FIG. 5B. The position of the intersection point Pc coincides with the position of one of the vertices of the stationary object 201 .
On the other hand, when the stationary object 201 does not exist and the target 202 itself is simply interrupted, there is no difference between the second detection section Sd12 and the second detection section Sd22, and the line of sight boundary 210 and the line of sight boundary The intersection of lines 211 does not exist.

そこで、差異検出手段16bは、見通し境界線210及び見通し境界線211は唯一の交点Pcを有する場合に、第2検出区間Sd12と第2検出区間Sd22の間に差異があると判定する。具体的には、第2検出区間Sd12の始点Ps12と第2検出区間Sd22の始点Ps22との間に差異があると判定する。見通し境界線210及び見通し境界線211に唯一の交点Pcがない場合、第2検出区間Sd12と第2検出区間Sd22の間に差異がないと判定する。 Therefore, the difference detection means 16b determines that there is a difference between the second detection section Sd12 and the second detection section Sd22 when the line of sight boundary line 210 and the line of sight boundary line 211 have only one intersection point Pc. Specifically, it is determined that there is a difference between the starting point Ps12 of the second detection section Sd12 and the starting point Ps22 of the second detection section Sd22. If there is no single intersection point Pc between the line of sight boundary line 210 and the line of sight boundary line 211, it is determined that there is no difference between the second detection section Sd12 and the second detection section Sd22.

図5Cを参照する。領域推定手段17bは、第2検出区間Sd12と第2検出区間Sd22との間に差異が存在する場合に、地点P1及びP2のいずれからも物標202を検出できない区間(すなわち、第1検出区間Sd21と第2検出区間Sd22の間の区間)を、物体存在可能性区間として推定する。第2検出区間Sd12と第2検出区間Sd22との間に差異がない場合、静止物体201が存在しないと判定する。
領域推定手段17bは、始点Ps12と始点Ps22との間に差異が存在することに加えて、第1検出区間Sd11の終点Pe11と第1検出区間Sd21の終点Pe21が変化しない場合に、静止物体201が存在すると判定してもよい。
See FIG. 5C. When there is a difference between the second detection section Sd12 and the second detection section Sd22, the region estimation means 17b detects a section in which the target 202 cannot be detected from either of the points P1 and P2 (that is, the first detection section Sd21 and the second detection interval Sd22) is estimated as an object presence possibility interval. If there is no difference between the second detection section Sd12 and the second detection section Sd22, it is determined that the stationary object 201 does not exist.
The region estimating means 17b determines that the stationary object 201 may be determined to exist.

領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。図5Dを参照する。例えば領域推定手段17bは、第2検出区間Sd22の始点Ps22と、第1検出区間Sd11及びSd21の共通の終点Peとを結ぶ線分と、共通の終点Peと交点Pcとを結ぶ線分と、交点Pcと始点Ps22とを結ぶ線分に囲まれる領域を静止物体存在領域として推定してもよい。 The region estimating means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region. See FIG. 5D. For example, the region estimating means 17b includes a line segment connecting the starting point Ps22 of the second detection section Sd22 and the common end point Pe of the first detection sections Sd11 and Sd21, a line segment connecting the common end point Pe and the intersection point Pc, A region surrounded by a line segment connecting the intersection point Pc and the start point Ps22 may be estimated as the stationary object existence region.

図5Eを参照する。例えば領域推定手段17bは、共通の終点Peで第1検出区間Sd21と直角に交わる垂線204と、見通し境界線211との交点Pvを求める。領域推定手段17bは、終点Peと交点Pvを結ぶ線分と、交点Pvと始点Ps22を結ぶ線分と、始点Ps22と終点Peとを結ぶ線分に囲まれる領域を静止物体存在領域として推定してもよい。 See FIG. 5E. For example, the region estimating means 17b obtains an intersection point Pv between the line of sight boundary line 211 and a perpendicular line 204 perpendicularly intersecting the first detection section Sd21 at the common end point Pe. The area estimating means 17b estimates an area surrounded by a line segment connecting the end point Pe and the intersection point Pv, a line segment connecting the intersection point Pv and the start point Ps22, and a line segment connecting the start point Ps22 and the end point Pe as a stationary object presence area. may

(動作)
次に、図6を参照して第2実施形態の物体認識方法の一例を説明する。
ステップS10の処理は、図4のステップS1の処理と同様である。
ステップS11において差異検出手段16bは、地点P1と第2検出区間Sd12の始点Ps12を結ぶ見通し境界線210を算出する。
(motion)
Next, an example of the object recognition method of the second embodiment will be described with reference to FIG.
The processing of step S10 is the same as the processing of step S1 in FIG.
In step S11, the difference detection means 16b calculates a line of sight boundary line 210 connecting the point P1 and the start point Ps12 of the second detection section Sd12.

ステップS12の処理は、図4のステップS2の処理と同様である。
ステップS13において差異検出手段16bは、地点P2と第2検出区間Sd22の始点Ps22を結ぶ見通し境界線211を算出する。
ステップS14において差異検出手段16bは、境界線210及び211の唯一の交点Pcを算出できるか否かに応じて、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との相違があるか否かを判定する。
The process of step S12 is the same as the process of step S2 in FIG.
In step S13, the difference detection means 16b calculates the line of sight boundary line 211 connecting the point P2 and the start point Ps22 of the second detection section Sd22.
In step S14, the difference detection means 16b detects the second detection section Sd12 detected at the point P1 and the second detection section Sd12 detected at the point P2 depending on whether or not the only intersection point Pc of the boundary lines 210 and 211 can be calculated. It is determined whether or not there is a difference from Sd22.

第2検出区間Sd12と第2検出区間Sd22に差異がある場合(ステップS14:Y)に、処理はステップS15へ進む。第2検出区間Sd12と第2検出区間Sd22に差異がない場合(ステップS14:N)に、物体存在可能性区間を推定せずに処理を終了する。
ステップS15の処理は、図4のステップS4と同様である。
ステップS16において領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。その後に処理は終了する。
If there is a difference between the second detection section Sd12 and the second detection section Sd22 (step S14: Y), the process proceeds to step S15. If there is no difference between the second detection section Sd12 and the second detection section Sd22 (step S14: N), the processing ends without estimating the object existence possibility section.
The processing of step S15 is the same as that of step S4 in FIG.
In step S16, the region estimating means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region. Processing then ends.

次に、図7を参照し、物体認識システム100におけるデータ授受シーケンスの一例を説明する。
時刻t1において外部センサ10は、地点P1において第1車両1の周囲の物体を検出する。また測位装置11は第1車両1の現在位置を計測する。外部センサ10と測位装置11は、外部センサ10のセンサ信号(例えば車載カメラによる撮像データ)と、地点P1の位置データ、計測時刻データに、データ送信時刻情報を付加して、区間検出手段15bへ送信する。時刻t2において区間検出手段15bはこれらのデータを受信する。
Next, an example of a data exchange sequence in the object recognition system 100 will be described with reference to FIG.
At time t1, the external sensor 10 detects objects around the first vehicle 1 at the point P1. The positioning device 11 also measures the current position of the first vehicle 1 . The external sensor 10 and the positioning device 11 add data transmission time information to the sensor signal of the external sensor 10 (for example, data captured by an in-vehicle camera), the position data of the point P1, and the measurement time data, and send it to the section detection means 15b. Send. At time t2, the section detection means 15b receives these data.

区間検出手段15bは、時刻t3までに、第1検出区間Sd11と第2検出区間Sd12を検出する。
時刻t3において区間検出手段15bは、計測時刻と、地点P1の位置データと、第1検出区間Sd11と第2検出区間Sd12のデータ(各区間内で始点終点を含む2つ以上の点群をリンクで結合したデータ)を、差異検出手段16bへ送信する。
The section detection means 15b detects the first detection section Sd11 and the second detection section Sd12 by time t3.
At time t3, the section detection means 15b detects the measurement time, the position data of the point P1, the data of the first detection section Sd11 and the second detection section Sd12 (in each section, two or more point groups including the start and end points are linked). combined data) is sent to the difference detection means 16b.

時刻t4において差異検出手段16bはこれらのデータを受信する。差異検出手段16bは、地点P1と第2検出区間Sd12の始点Ps12を結ぶ見通し境界線210を算出する。
時刻t5において、測位装置11は第1車両1が地点P2に到達したことを検出する。
時刻t6において外部センサ10は、地点P2において第1車両1の周囲の物体を検出する。外部センサ10と測位装置11は、外部センサ10のセンサ信号(例えば車載カメラによる撮像データ)と、地点P2の位置データ、計測時刻データに、データ送信時刻情報を付加して、区間検出手段15bへ送信する。
At time t4, the difference detection means 16b receives these data. The difference detection means 16b calculates a line of sight boundary line 210 connecting the point P1 and the starting point Ps12 of the second detection section Sd12.
At time t5, the positioning device 11 detects that the first vehicle 1 has reached the point P2.
At time t6, the external sensor 10 detects objects around the first vehicle 1 at the point P2. The external sensor 10 and the positioning device 11 add the data transmission time information to the sensor signal of the external sensor 10 (for example, data captured by an in-vehicle camera), the position data of the point P2, and the measurement time data, and send it to the section detection means 15b. Send.

時刻t7において区間検出手段15bはこれらのデータを受信する。
区間検出手段15bは、時刻t8までに、第1検出区間Sd21と第2検出区間Sd22を検出する。
時刻t8において区間検出手段15bは、計測時刻と、地点P2の位置データと、第1検出区間Sd21と第2検出区間Sd22のデータ(各区間内で始点終点を含む2つ以上の点群をリンクで結合したデータ)を、差異検出手段16bへ送信する。
At time t7, the section detection means 15b receives these data.
The section detection means 15b detects the first detection section Sd21 and the second detection section Sd22 by time t8.
At time t8, the section detection means 15b detects the measurement time, the position data of the point P2, the data of the first detection section Sd21 and the second detection section Sd22 (in each section, two or more point groups including the start and end points are linked). combined data) is sent to the difference detection means 16b.

時刻t9において差異検出手段16bはこれらのデータを受信する。差異検出手段16bは、地点P2と第2検出区間Sd22の始点Ps22を結ぶ見通し境界線211を算出する。
時刻t10において差異検出手段16bは、計測時刻、地点P2の位置データ、第2検出区間Sd22のデータと、見通し境界線210及び211のデータ(始点終点を含む2つ以上の点群をリンクで結合したデータ)と、共通の終点Peの位置データを領域推定手段17bへ送信する。
At time t9, the difference detection means 16b receives these data. The difference detection means 16b calculates a line of sight boundary line 211 connecting the point P2 and the start point Ps22 of the second detection section Sd22.
At time t10, the difference detection means 16b detects the measurement time, the position data of the point P2, the data of the second detection section Sd22, and the data of the line-of-sight boundary lines 210 and 211 (two or more point groups including the start and end points are connected by links). data) and the position data of the common end point Pe are transmitted to the region estimation means 17b.

静止物体存在領域をより限定するために、第1検出区間Sd11及びSd21のデータ(各区間内で始点終点を含む2つ以上の点群をリンクで結合したデータ)を追加で送信してもよい。
時刻t11において領域推定手段17bはこれらのデータを受信して、静止物体存在領域を推定する。
In order to further limit the stationary object existence area, the data of the first detection sections Sd11 and Sd21 (data obtained by linking two or more point groups including the start point and end point in each section) may be additionally transmitted. .
At time t11, the region estimating means 17b receives these data and estimates the stationary object existence region.

なお、外部センサ10のセンサ信号が遠方の物体の画像データを含む場合(例えば道路境界線を表現する為の点群のうち1つ以上が30m以上にある等)は非圧縮あるいは可逆圧縮処理を行ったデータを送信し、それ以外の画像領域は圧縮画像を復調用識別情報付きで送信してよい。また、位置座標はGNSSで扱われる緯度経度や、最寄り交差点からの道のり距離、平面直角座標系(平成14年国土交通省告示第9号等で指定されるもの)を用いて表現してよい。時刻情報はGNSSから配信される時刻情報を用いてよい。 When the sensor signal of the external sensor 10 contains image data of a distant object (for example, one or more of the point groups for expressing the road boundary line is located at 30 m or more), uncompressed or lossless compression processing is performed. The processed data may be transmitted, and compressed images with demodulation identification information may be transmitted for other image areas. Also, the position coordinates may be expressed using latitude and longitude handled by GNSS, the distance from the nearest intersection, or a planar rectangular coordinate system (specified in Ministry of Land, Infrastructure, Transport and Tourism Notification No. 9, etc., 2002). Time information distributed from GNSS may be used as the time information.

(第2実施形態の効果)
(1)差異検出手段16bは、第2検出区間Sd12及びSd22の両端のうち観測点P1及びP2に近い一方の端点Ps12及びPs22と観測点P1及びP2とを結ぶ線分である見通し境界線210及び211を、複数の観測点P1及びP2についてそれぞれ算出する。差異検出手段16b及び領域推定手段17bは、複数の観測点P1及びP2で算出した見通し境界線210及び211に基づいて、静止物体存在領域を推定する。
このように、複数の観測点P1及びP2から第2検出区間Sd12及びSd22を検出することにより生じる見通し境界線210及び211の変化に基づいて静止物体存在領域を推定することにより、静止物体存在領域の推定精度を向上できる。
(Effect of Second Embodiment)
(1) The difference detection means 16b detects line-of-sight boundaries 210, which are line segments connecting the observation points P1 and P2 with the endpoints Ps12 and Ps22, which are closer to the observation points P1 and P2 than the two ends of the second detection sections Sd12 and Sd22. and 211 are calculated for a plurality of observation points P1 and P2, respectively. The difference detecting means 16b and the area estimating means 17b estimate the stationary object existing area based on the line of sight boundary lines 210 and 211 calculated at the plurality of observation points P1 and P2.
In this way, by estimating the stationary object existence area based on changes in the line of sight boundaries 210 and 211 caused by detecting the second detection sections Sd12 and Sd22 from the plurality of observation points P1 and P2, the stationary object existence area can improve the estimation accuracy of

(2)差異検出手段16b及び領域推定手段17bは、複数の観測点P1及びP2で算出した見通し境界線210及び211の交点Pcに基づいて、静止物体存在領域を推定する。交点Pcにより静止物体201の頂点の1つの位置を求めることができるので、静止物体存在領域の推定精度をさらに向上できる。 (2) The difference detection means 16b and the area estimation means 17b estimate the stationary object presence area based on the intersection point Pc of the line of sight boundary lines 210 and 211 calculated at the plurality of observation points P1 and P2. Since the position of one vertex of the stationary object 201 can be obtained from the intersection point Pc, the accuracy of estimating the stationary object existence area can be further improved.

(3)区間検出手段15bは、観測点P1及びP2の各々で不連続な複数の検出区間が検出される場合に、不連続部分を挟んで隣接する一対の検出区間のうち、観測点に比較的近い第1検出区間Sd11及びSd21と、観測点から比較的遠い第2検出区間Sd12及びSd22を検出する。領域推定手段17bは、第1検出区間Sd11及びSd21の両端のうち第2検出区間Sd12及びSd22に近い一方の端点Peで第1検出区間Sd21と直角に交わる垂線204と、見通し境界線211との交点Pvに基づいて、静止物体存在領域を推定する。 (3) When a plurality of discontinuous detection sections are detected at each of the observation points P1 and P2, the section detection means 15b compares a pair of detection sections adjacent to each other across the discontinuity between the observation points. First detection sections Sd11 and Sd21 that are closer to the target, and second detection sections Sd12 and Sd22 that are relatively far from the observation point are detected. The region estimating means 17b determines the line of sight boundary line 211 and a perpendicular line 204 perpendicularly intersecting the first detection section Sd21 at one end point Pe near the second detection sections Sd12 and Sd22 of both ends of the first detection sections Sd11 and Sd21. Based on the intersection point Pv, the stationary object existence area is estimated.

これにより、観測点P1と静止物体201との間に観測点P2がある場合、第1検出区間Sd11及びSd21の終点Pe11及びPe21が共通の終点Peとなり、終点Peに基づいて静止物体201の端点を決定することができる。また、垂線204と見通し境界線211との交点Pvを求めることにより、静止物体201の他の端点の近傍点を決定できる。これにより静止物体201の推定存在領域をより限定できる。 As a result, when the observation point P2 is between the observation point P1 and the stationary object 201, the endpoints Pe11 and Pe21 of the first detection sections Sd11 and Sd21 become the common endpoint Pe. can be determined. Further, by finding the intersection point Pv between the perpendicular 204 and the line of sight boundary line 211, it is possible to determine the neighboring point of the other end point of the stationary object 201. FIG. As a result, the estimated presence area of the stationary object 201 can be further limited.

(変形例)
上述の第1実施形態の変形例と同様に、予め既知の物標202の位置情報を有する地図情報に基づいて、観測点から外部センサ10が検出した物標202の検出位置(特に道幅方向位置)を補正してもよい。これにより、地図情報に基づいて見通し境界線210及び211を補正できる。
これにより、より正確な検出区間の位置を検出することができる。以下に説明する第3実施形態及び第4実施形態においても同様である。
(Modification)
Similar to the modified example of the first embodiment described above, based on the map information having the known position information of the target 202, the detection position of the target 202 detected by the external sensor 10 from the observation point (especially the position in the road width direction) ) may be corrected. Thereby, the line-of-sight boundaries 210 and 211 can be corrected based on the map information.
This makes it possible to detect the position of the detection section more accurately. The same applies to third and fourth embodiments described below.

(第3実施形態)
(構成)
次に、第3実施形態を説明する。第3実施形態の物体認識システム100では、複数の車両に搭載されたセンサにより、複数の地点から、道路に沿って延在する又は道路沿いに連なって存在する同一物体を検出する。複数の車両に搭載されたセンサの各々は、同一時刻に同一物体を検出してもよく、異なる時刻に同一物体を検出してもよい。
(Third embodiment)
(composition)
Next, a third embodiment will be described. In the object recognition system 100 of the third embodiment, sensors mounted on a plurality of vehicles detect the same object that extends along the road or that exists continuously along the road from a plurality of points. Each of the sensors mounted on a plurality of vehicles may detect the same object at the same time, or may detect the same object at different times.

図8を参照する。第3実施形態の物体認識システム100は、図1に示す第1実施形態の物体認識システム100の構成に加えて、第2車両2に搭載された外部センサ20と、測位装置21と、通信装置22を備える。
外部センサ20は、第2車両2の周囲の物体を検出する複数の異なる種類のセンサを備える。測位装置21は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して、現在時刻と、第2車両2の現在位置及び進行方向を測定する。
Please refer to FIG. In addition to the configuration of the object recognition system 100 of the first embodiment shown in FIG. 1, the object recognition system 100 of the third embodiment includes an external sensor 20 mounted on the second vehicle 2, a positioning device 21, and a communication device 22.
The external sensors 20 comprise multiple different types of sensors for detecting objects around the second vehicle 2 . The positioning device 21 has a global positioning system (GNSS) receiver, receives radio waves from a plurality of navigation satellites, and measures the current time and the current position and traveling direction of the second vehicle 2 .

外部センサ20は、例えば第1車両1の外部センサ10と同様の構成を有してよく、測位装置21は、例えば第1車両1の測位装置11と同様の構成を有してよい。
通信装置22は、測位装置21から得られる現在時刻情報に基づいて外部センサ20に対して基準時刻を配信する。また、通信装置22は、コンピュータ15、16及び17の通信手段15a、16a及び17aを介して、それぞれ区間検出手段15b、差異検出手段16b及び領域推定手段17bとの間でデータの送受信を行う。
The external sensor 20 may have the same configuration as the external sensor 10 of the first vehicle 1, for example, and the positioning device 21 may have the same configuration as the positioning device 11 of the first vehicle 1, for example.
The communication device 22 distributes the reference time to the external sensor 20 based on the current time information obtained from the positioning device 21 . The communication device 22 also transmits and receives data to and from the section detection means 15b, the difference detection means 16b and the area estimation means 17b via the communication means 15a, 16a and 17a of the computers 15, 16 and 17, respectively.

なお、コンピュータ15~17が、第2車両2に実装されてもよい。この場合、通信装置22及び通信手段15a~17aは、有線又は無線の通信手段によりデータを授受してよい。例えば、通信装置22及び通信手段15a~17aは、例えばCSMA/CA方式の多重通信(CAN:Controller Area Network)やフレックスレイ(Flex Ray)等の車載通信ネットワーク(車載LAN)を備えてもよい。 Note that the computers 15 to 17 may be mounted on the second vehicle 2. In this case, the communication device 22 and the communication means 15a to 17a may exchange data by wired or wireless communication means. For example, the communication device 22 and the communication means 15a to 17a may be provided with an in-vehicle communication network (in-vehicle LAN) such as CSMA/CA multiplex communication (CAN: Controller Area Network) or Flex Ray.

コンピュータ15~17は、第2車両2以外の場所に実装されてもよい。この場合、例えば通信装置22及び通信手段15a~17aは、車車間通信、公衆携帯電話網、路車間通信、衛星通信等の無線通信手段を介して、互いにデータを授受する。
コンピュータ15~17は、例えば、第1車両1等の他車両、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバに実装されてもよい。
Computers 15 - 17 may be mounted at locations other than second vehicle 2 . In this case, for example, the communication device 22 and the communication means 15a to 17a exchange data with each other via wireless communication means such as vehicle-to-vehicle communication, public mobile phone network, road-to-vehicle communication, satellite communication, and the like.
The computers 15 to 17 may be installed, for example, in other vehicles such as the first vehicle 1, mobile edge computers on a mobile phone/private network, road traffic infrastructure servers installed on the roadside, or cloud servers on the Internet.

第1車両1及び第2車両2により複数の地点から同時に観測する場合、第1車両1の通信装置12と第2車両2の通信装置22とは、低遅延の通信無線で直接接続してもよい。無線方式は、例えばIEEE802.11pで規定されるDSRC方式もしくは3GPP Release14以降で規定されるセルラV2X方式を用い、第1車両1と第2車両2との間で通信接続を確立してよい。 When observing simultaneously from a plurality of points by the first vehicle 1 and the second vehicle 2, the communication device 12 of the first vehicle 1 and the communication device 22 of the second vehicle 2 can be directly connected by low-delay wireless communication. good. The wireless system may establish a communication connection between the first vehicle 1 and the second vehicle 2 using, for example, the DSRC system defined by IEEE 802.11p or the cellular V2X system defined by 3GPP Release 14 or later.

図9を参照する。第3実施形態の物体認識システム100は、第1実施形態及び第2実施形態の物体認識システム100と同様の機能構成を有しており、同一の構成要素には同じ参照符号を付する。
物体認識システム100は、第1実施形態及び第2実施形態の区間検出手段15bと同様の機能を備える区間検出手段15b1及び15b2を、それぞれ第1車両1及び第2車両2に実装する。また物体認識システム100は、地図データベース18aと道路構造補正手段18bを備える。図9において地図データベースを「地図DB」と表記する。地図データベース18a及び道路構造補正手段18bは、第1車両1や第2車両2に実装されてもよく、その他の車両や、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバのいずれかに実装されてもよい。
See FIG. The object recognition system 100 of the third embodiment has the same functional configuration as the object recognition systems 100 of the first and second embodiments, and the same constituent elements are given the same reference numerals.
The object recognition system 100 mounts section detection means 15b1 and 15b2 having the same function as the section detection section 15b of the first and second embodiments in the first vehicle 1 and the second vehicle 2, respectively. The object recognition system 100 also includes a map database 18a and road structure correction means 18b. In FIG. 9, the map database is denoted as "map DB". The map database 18a and the road structure correction means 18b may be mounted on the first vehicle 1 or the second vehicle 2, and other vehicles, mobile phones/mobile edge computers on private network, road traffic installed on the roadside. It may be implemented in either an infrastructure server or a cloud server on the Internet.

外部センサ10及び20は、それぞれ第1車両1及び第2車両2の周囲の物体を検出する。測位装置11及び21は、第1車両1及び第2車両2のそれぞれの現在位置を測定する。
図10Aを参照する。第1車両1は地点P1に位置し、第2車両2は地点P2に位置する。第2車両2は、例えば第1車両1の対向車両又は交差車両であってよい。第1車両1の「交差車両」とは、第1車両1の進路と交差する進路上を走行する車両を意味する。
第3実施形態の物体認識システム100は、第1車両1及び第2車両2が位置する地点P1及びP2の間に存在する静止物体存在領域を推定する。
External sensors 10 and 20 detect objects around the first vehicle 1 and the second vehicle 2, respectively. The positioning devices 11 and 21 measure the current positions of the first vehicle 1 and the second vehicle 2, respectively.
See FIG. 10A. A first vehicle 1 is located at a point P1 and a second vehicle 2 is located at a point P2. The second vehicle 2 may be, for example, an oncoming vehicle of the first vehicle 1 or a crossing vehicle. The “intersecting vehicle” of the first vehicle 1 means a vehicle traveling on a route that intersects with the route of the first vehicle 1 .
The object recognition system 100 of the third embodiment estimates a stationary object existence area existing between points P1 and P2 where the first vehicle 1 and the second vehicle 2 are located.

第1車両1の区間検出手段15b1は、地点P1における外部センサ10による検出結果に基づいて、第1検出区間Sd11、第2検出区間Sd12、第1検出区間Sd11の終点Pe11、第2検出区間Sd12の始点Ps12を検出し、非検出区間Su1を推定する。第1車両1の通信装置12は、これらのデータを差異検出手段16bへ送信する。 The section detection means 15b1 of the first vehicle 1 detects a first detection section Sd11, a second detection section Sd12, an end point Pe11 of the first detection section Sd11, and a second detection section Sd12 based on the detection result of the external sensor 10 at the point P1. is detected, and the non-detection section Su1 is estimated. The communication device 12 of the first vehicle 1 transmits these data to the difference detection means 16b.

第2車両2の区間検出手段15b2は、地点P2における外部センサ20による検出結果に基づいて、第1検出区間Sd21、第2検出区間Sd22、第1検出区間Sd21の終点Pe21、第2検出区間Sd22の始点Ps22を検出し、非検出区間Su2を推定する。第2車両2の通信装置12は、これらのデータを差異検出手段16bへ送信する。 The section detection means 15b2 of the second vehicle 2 detects a first detection section Sd21, a second detection section Sd22, an end point Pe21 of the first detection section Sd21, and a second detection section Sd22 based on the detection result of the external sensor 20 at the point P2. is detected, and the non-detection section Su2 is estimated. The communication device 12 of the second vehicle 2 transmits these data to the difference detection means 16b.

差異検出手段16bは、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第1検出区間Sd21との差異を検出する。例えば、第2検出区間Sd12の始点Ps12と、第1検出区間Sd21の終点Pe21との差異を検出する。
または、地点P1で検出した第1検出区間Sd11と、地点P2で検出した第2検出区間Sd22との差異を検出する。例えば、第1検出区間Sd11の終点Pe11と、第2検出区間Sd22の始点Ps22との差異を検出する。
The difference detection means 16b detects the difference between the second detection section Sd12 detected at the point P1 and the first detection section Sd21 detected at the point P2. For example, the difference between the start point Ps12 of the second detection section Sd12 and the end point Pe21 of the first detection section Sd21 is detected.
Alternatively, the difference between the first detection section Sd11 detected at the point P1 and the second detection section Sd22 detected at the point P2 is detected. For example, the difference between the end point Pe11 of the first detection section Sd11 and the start point Ps22 of the second detection section Sd22 is detected.

さらに、差異検出手段16bは、地点P1と第2検出区間Sd12の始点Ps12とを結ぶ見通し境界線210を算出する。また、地点P2と第2検出区間Sd22の始点Ps22とを結ぶ見通し境界線211を算出する。
差異検出手段16bは、検出区間の差異の検出結果、及び算出した見通し境界線210及び211を領域推定手段17bに送信する。
Further, the difference detection means 16b calculates a line of sight boundary line 210 connecting the point P1 and the starting point Ps12 of the second detection section Sd12. Also, a line of sight boundary line 211 connecting the point P2 and the start point Ps22 of the second detection section Sd22 is calculated.
The difference detection means 16b transmits the detection result of the difference in the detection section and the calculated line-of-sight boundary lines 210 and 211 to the area estimation means 17b.

領域推定手段17bは、第2検出区間Sd12と第1検出区間Sd21との間に差異が存在する場合に、地点P1及びP2の間に静止物体201が存在すると判定する。または、第1検出区間Sd11と第2検出区間Sd22との間に差異が存在する場合に、地点P1及びP2の間に静止物体201が存在すると判定する。 The area estimation means 17b determines that the stationary object 201 exists between the points P1 and P2 when there is a difference between the second detection section Sd12 and the first detection section Sd21. Alternatively, when there is a difference between the first detection section Sd11 and the second detection section Sd22, it is determined that the stationary object 201 exists between the points P1 and P2.

図10Bを参照する。静止物体201が存在すると判定した場合、領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間を物体存在可能性区間として推定する。例えば、第1検出区間Sd11及びSd21の終点Pe11及びPe21の間の区間(すなわち、非検出区間Su1と非検出区間Su2の重複領域)を、物体存在可能性区間として推定する。
図10Cを参照する。領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域218を推定する。
See FIG. 10B. When it is determined that the stationary object 201 exists, the area estimation means 17b estimates a section in which the target 202 is not detected from either of the points P1 and P2 as an object existence possibility section. For example, the section between the end points Pe11 and Pe21 of the first detection sections Sd11 and Sd21 (that is, the overlapping area of the non-detection section Su1 and the non-detection section Su2) is estimated as the object presence possibility section.
See FIG. 10C. The area estimating means 17b estimates the stationary object existence area 218 by restricting the object existence possibility section in the road width direction.

例えば領域推定手段17bは、終点Pe11で第1検出区間Sd11と直角に交わる垂線216と、見通し境界線211との交点Pv1を求める。また、終点Pe21で第1検出区間Sd21と直角に交わる垂線217と、見通し境界線210との交点Pv2を求める。終点Pe11と交点Pv1を結ぶ線分、交点Pv1と交点Pv2を結ぶ線分、交点Pv2と終点Pe21を結ぶ線分、及び終点Pe21と終点Pe11を結ぶ線分に囲まれる領域を、静止物体存在領域として推定する。 For example, the region estimating means 17b obtains an intersection point Pv1 between the line of sight boundary line 211 and a perpendicular line 216 perpendicularly crossing the first detection section Sd11 at the end point Pe11. Also, an intersection point Pv2 between the line of sight boundary line 210 and the perpendicular line 217 perpendicularly crossing the first detection section Sd21 at the end point Pe21 is obtained. A region surrounded by a line segment connecting the end point Pe11 and the intersection point Pv1, a line segment connecting the intersection point Pv1 and the intersection point Pv2, a line segment connecting the intersection point Pv2 and the end point Pe21, and a line segment connecting the end point Pe21 and the end point Pe11 is defined as a stationary object existence region. estimated as

図9を参照する。静止物体存在領域が推定されると、道路構造補正手段18bは、静止物体存在領域が存在する区間における物標202の位置情報を、地図データベース18aから読み出す。
地図データベース18aは、道路形状や、地物、ランドマーク等の物標の位置や、物標が存在する区間情報などの地図情報を記憶している。地図データベース18aに記憶される物標には、道路200に沿って延在する又は道路200沿いに連なって存在する物標202が含まれる。地図データベース18aとして、例えば、自律走行用の地図として好適な高精度地図データを記憶してよい。
See FIG. After the stationary object existence area is estimated, the road structure correction means 18b reads the position information of the target object 202 in the section where the stationary object existence area exists from the map database 18a.
The map database 18a stores map information such as the shape of roads, the positions of targets such as features and landmarks, and section information where targets exist. The targets stored in the map database 18a include targets 202 that extend along the road 200 or exist in a row along the road 200. FIG. As the map database 18a, for example, high-precision map data suitable as a map for autonomous driving may be stored.

道路構造補正手段18bは、地図データベース18aから読み出した物標202の位置情報に基づいて、道路形状や道路の構造に起因して地点P1又はP2から物標202が検出されない範囲である検出不可範囲を算出する。
このような範囲では、領域推定手段17bは、誤って静止物体存在領域を推定する恐れがある。したがって、道路構造補正手段18bは、検出不可範囲において静止物体存在領域の推定を行わないように、静止物体存在領域の推定結果を補正する。具体的には、静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。
Based on the position information of the target 202 read from the map database 18a, the road structure correction means 18b determines the undetectable range, which is the range in which the target 202 cannot be detected from the point P1 or P2 due to the road shape and road structure. Calculate
In such a range, the area estimator 17b may erroneously estimate the stationary object existence area. Therefore, the road structure correction means 18b corrects the estimation result of the stationary object existence area so as not to estimate the stationary object existence area in the undetectable range. Specifically, when the stationary object existence area includes the undetectable range, the estimation of the stationary object existence area is cancelled.

図11Aを参照する。例えば道路に沿って延在する物標220としてガードレールや縁石を検出し、地点P1に位置する第1車両1の進路の前方にカーブ区間がある場合を想定する。このような場合には、カーブ区間の物標220の一部が地点P1から見て死角に入る。線分221は、地点P1から見たカーブ区間での見通し可能範囲と見通し外範囲との境界線を示している。
道路構造補正手段18bは、カーブ区間において外部センサ10により検出されない物標220の範囲を検出不可範囲として算出する。静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。
See FIG. 11A. For example, it is assumed that a guardrail or a curbstone is detected as the target object 220 extending along the road, and that there is a curved section ahead of the route of the first vehicle 1 located at the point P1. In such a case, part of the target 220 in the curve section is in the blind spot when viewed from the point P1. A line segment 221 indicates the boundary line between the line-of-sight range and the non-line-of-sight range in the curve section viewed from the point P1.
The road structure correction means 18b calculates the range of the target object 220 that is not detected by the external sensor 10 in the curve section as the undetectable range. If the stationary object existence area includes an undetectable range, the estimation of the stationary object existence area is cancelled.

図11Bを参照する。例えば道路に沿って延在する物標230として道路壁を検出し、地点P1に位置する第1車両1の進路の前方に交差点がある場合を想定する。交差点内には物標230が存在せず、また、交差道路に沿った物標230の一部が地点P1から見て死角に入る。線分231は、地点P1から見た交差点での見通し可能範囲と見通し外範囲との境界線を示している。
道路構造補正手段18bは、交差点において外部センサ10により検出されない物標220の範囲を検出不可範囲として算出する。静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。例えば、静止物体存在領域の位置と地図上の交差点の位置が等しく、静止物体存在領域の長さが交差道路の幅に近い場合に、静止物体存在領域の推定を取り消す。
See FIG. 11B. For example, it is assumed that a road wall is detected as a target 230 extending along the road, and an intersection is ahead of the route of the first vehicle 1 located at the point P1. The target 230 does not exist within the intersection, and part of the target 230 along the cross road is in the blind spot when viewed from the point P1. A line segment 231 indicates the boundary line between the line-of-sight range and the non-line-of-sight range at the intersection viewed from the point P1.
The road structure correction means 18b calculates the range of the target object 220 that is not detected by the external sensor 10 at the intersection as the undetectable range. If the stationary object existence area includes an undetectable range, the estimation of the stationary object existence area is canceled. For example, if the position of the stationary object existence area is equal to the position of the intersection on the map, and the length of the stationary object existence area is close to the width of the intersecting road, the estimation of the stationary object existence area is canceled.

図11Cを参照する。例えば道路に沿って延在する物標240として道路の路面を検出し、地点P1に位置する第1車両1の進路の前方に道路の高低差(凹部)がある場合を想定する。このような場合には、路面の凹部の一部が地点P1から見て死角に入る。
道路構造補正手段18bは、道路の高低差により外部センサ10により検出されない路面240の範囲を検出不可範囲として算出する。静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。
図9を参照する。軌道生成手段110は、領域推定手段17bが推定した静止物体存在領域のうち、道路構造補正手段18bにより取り消されなかった静止物体存在領域を回避するように目標走行軌道と速度プロファイルを生成する。
See FIG. 11C. For example, it is assumed that the road surface is detected as a target 240 extending along the road, and that there is an elevation difference (concave portion) in front of the route of the first vehicle 1 located at the point P1. In such a case, part of the concave portion of the road surface is in the blind spot when viewed from the point P1.
The road structure correction means 18b calculates the range of the road surface 240 that is not detected by the external sensor 10 due to the difference in road height as the undetectable range. If the stationary object existence area includes an undetectable range, the estimation of the stationary object existence area is cancelled.
See FIG. The trajectory generation means 110 generates a target travel trajectory and a speed profile so as to avoid the stationary object existence areas that have not been canceled by the road structure correction means 18b among the stationary object existence areas estimated by the area estimation means 17b.

なお、区間検出手段15b1及び15b2は、道路に沿って延在する物標として道路白線を検出する場合、破線の道路白線、または周期的な欠落部を有する道路白線の端点を、第1検出区間又は第2検出区間の端点と検出しないように、道路白線の端点の検出結果を補正してよい。
図11Dを参照する。道路白線250の端点の間隔が一定間隔Tである場合、区間検出手段15b1及び15b2は、これら一定間隔Tで存在する道路白線の端点を、第1検出区間又は第2検出区間の端点として検出することを禁止する。区間検出手段15b1及び15b2は、道路白線の端点251及び252の間隔Lと一定間隔Tとの差が所定閾値よりも大きい場合に、端点251及び252を第1検出区間及び第2検出区間の端点として検出する。
Note that when the section detection means 15b1 and 15b2 detect a road white line as a target extending along the road, the end points of the broken road white line or the road white line having periodic missing portions are detected as the first detection section. Alternatively, the detection result of the end point of the road white line may be corrected so as not to be detected as the end point of the second detection section.
See FIG. 11D. When the interval between the end points of the road white line 250 is a constant interval T, the section detection means 15b1 and 15b2 detect the end points of the road white line existing at the constant interval T as the end points of the first detection section or the second detection section. prohibited. The section detection means 15b1 and 15b2 detect the end points 251 and 252 as the end points of the first detection section and the second detection section when the difference between the interval L between the end points 251 and 252 of the road white line and the constant interval T is larger than a predetermined threshold. Detect as

(動作)
次に、図12を参照して第3実施形態の物体認識方法の一例を説明する。
ステップS30~S33の処理は、図6におけるステップS10~S13の処理と同様である。
ステップS34において差異検出手段16bは、地点P1で検出した検出区間と、地点P2で検出した検出区間との相違を判定する。
(motion)
Next, an example of the object recognition method of the third embodiment will be described with reference to FIG.
The processing of steps S30 to S33 is the same as the processing of steps S10 to S13 in FIG.
In step S34, the difference detection means 16b determines the difference between the detection section detected at the point P1 and the detection section detected at the point P2.

地点P1で検出した検出区間と地点P2で検出した検出区間に差異がある場合(ステップS34:Y)に、処理はステップS35に進む。差異がない場合(ステップS34:N)に、物体存在可能性区間を推定せずに処理を終了する。
ステップS35において領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間を物体存在可能性区間として推定する。
If there is a difference between the detected section detected at point P1 and the detected section detected at point P2 (step S34: Y), the process proceeds to step S35. If there is no difference (step S34: N), the process ends without estimating the object existence possibility interval.
In step S35, the region estimating means 17b estimates a section in which the target 202 is not detected from either of the points P1 and P2 as an object presence possibility section.

ステップS36において領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。
ステップS37において道路構造補正手段18bは、領域推定手段17bが推定した静止物体存在領域内に、道路形状や道路の構造に起因して物標202が検出されない範囲である検出不可範囲が存在するか否かを判定する。
In step S36, the region estimating means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region.
In step S37, the road structure correction means 18b determines whether there is an undetectable range in which the target object 202 cannot be detected due to the road shape or road structure within the stationary object presence area estimated by the area estimation means 17b. determine whether or not

静止物体存在領域内に検出不可範囲が存在する場合(ステップS37:Y)に処理はステップS39に進む。静止物体存在領域内に検出不可範囲が存在しない場合(ステップS37:N)に処理はステップS38に進む。
ステップS38において道路構造補正手段18bは、静止物体存在領域内に静止物体が存在すると判定する。軌道生成手段110は、目標走行軌道を走行する第1車両1が静止物体存在領域と干渉するか否かを判断し、静止物体存在領域か回避するように第1車両1の走行制御を実施する必要があるか否かを判定する。
If there is an undetectable range within the stationary object presence area (step S37: Y), the process proceeds to step S39. If there is no undetectable range within the stationary object presence area (step S37: N), the process proceeds to step S38.
In step S38, the road structure correction means 18b determines that a stationary object exists within the stationary object existence area. The trajectory generation means 110 determines whether or not the first vehicle 1 traveling on the target travel trajectory interferes with the stationary object existence area, and performs travel control of the first vehicle 1 so as to avoid the stationary object existence area. Determine if it is necessary.

静止物体存在領域か回避する場合に軌道生成手段110は、静止物体存在領域か回避するための目標走行軌道と速度プロファイルを生成する。その後に処理は終了する。
一方、ステップS39に道路構造補正手段18bは、静止物体存在領域内に静止物体が存在すると判定する。領域推定手段17bが推定した静止物体存在領域を取り消して、処理を終了する。
When the stationary object existence area is to be avoided, the trajectory generation means 110 generates a target travel trajectory and a speed profile for avoiding the stationary object existence area. Processing then ends.
On the other hand, in step S39, the road structure correction means 18b determines that a stationary object exists within the stationary object existence area. The stationary object presence area estimated by the area estimation means 17b is cancelled, and the process is terminated.

(第3実施形態の効果)
(1)道路構造補正手段18bは、道路に沿った物標の位置情報を有する地図情報に基づいて、観測点P1、P2から物標が検出されない範囲である検出不可範囲を算出する。道路構造補正手段18bは、検出不可範囲における静止物体存在領域の推定を禁止する。
これにより、静止物体の有無に関わらず道路に沿った物標を検出できない区間を、静止物体存在領域として誤検出することを防止できる。
(Effect of the third embodiment)
(1) The road structure correction means 18b calculates an undetectable range, which is a range in which targets are not detected from the observation points P1 and P2, based on map information having positional information of targets along the road. The road structure correction means 18b prohibits the estimation of the stationary object existence area in the undetectable range.
As a result, it is possible to prevent erroneous detection of a section along the road where a target object cannot be detected as a stationary object existing area regardless of the presence or absence of a stationary object.

(2)外部センサ10及び20は、道路に沿って延在する物標として道路区画線250を検出する。区間検出手段15b1及び15b2は、一定間隔で存在する道路区画線250の端点を、検出区間の端点として検出しない。
これにより、破線の道路白線または周期的な欠落部を有する道路白線が描かれている区間において、静止物体存在領域を誤検出することを防止できる。
(2) External sensors 10 and 20 detect road markings 250 as targets extending along the road. The section detection means 15b1 and 15b2 do not detect the end points of the road division lines 250 existing at regular intervals as the end points of the detection section.
As a result, it is possible to prevent erroneous detection of a stationary object existing area in a section where a broken road white line or a road white line having periodic missing portions is drawn.

(3)第1車両1の外部センサ10は、複数の観測点の一つである地点P1から物標202を検出し、第1車両1の対向車両又は交差車両である第2車両2の外部センサ20は、複数の観測点の他の一つである地点P2から物標を検出する。
これにより死角をなくして静止物体存在領域をより高精度に検出できる。
(3) The external sensor 10 of the first vehicle 1 detects the target 202 from the point P1, which is one of the plurality of observation points, and detects the target 202 outside the second vehicle 2, which is an oncoming vehicle or an intersecting vehicle of the first vehicle 1. The sensor 20 detects a target from point P2, which is another one of the plurality of observation points.
As a result, blind spots can be eliminated and the stationary object existence area can be detected with higher accuracy.

(4)第1車両1の外部センサ10は、複数の観測点の一つである地点P1から物標202を検出し、第1車両1の対向車両又は交差車両である第2車両2の外部センサ20は、複数の観測点の他の一つである地点P2から物標を検出する。
地点P1及びP2の各々で不連続な複数の検出区間が検出される場合に、区間検出手段15b1及び15b2は、不連続部分を挟んで隣接する一対の検出区間のうち、地点P1及びP2に比較的近い第1検出区間Sd11及びSd21と、地点P1及びP2から比較的遠い第2検出区間Sd12及びSd22と、第1検出区間Sd11及びSd21の両端のうち第2検出区間Sd12及びSd22に近い一方の端点である第1検出区間端点Pe11及びPe21とを検出する。
領域推定手段17bは、第1車両1及び第2車両2で各々検出した第1検出区間端点Pe11及びPe21に基づいて、静止物体存在領域を推定する。
これにより、静止物体201の両端の位置を特定できるため、静止物体存在領域をより高精度に検出できる。
(4) The external sensor 10 of the first vehicle 1 detects the target object 202 from the point P1, which is one of the plurality of observation points, and detects the target object 202 outside the second vehicle 2, which is an oncoming vehicle or an intersecting vehicle of the first vehicle 1. The sensor 20 detects a target from point P2, which is another one of the plurality of observation points.
When a plurality of discontinuous detection sections are detected at each of the points P1 and P2, the section detection means 15b1 and 15b2 compare points P1 and P2 among a pair of detection sections adjacent to each other across the discontinuous portion. First detection sections Sd11 and Sd21 close to the point, second detection sections Sd12 and Sd22 relatively far from the points P1 and P2, and one of both ends of the first detection sections Sd11 and Sd21 closer to the second detection sections Sd12 and Sd22. First detection section end points Pe11 and Pe21, which are end points, are detected.
The region estimating means 17b estimates a stationary object existing region based on the first detected section end points Pe11 and Pe21 detected by the first vehicle 1 and the second vehicle 2, respectively.
As a result, the positions of both ends of the stationary object 201 can be specified, so that the stationary object existence area can be detected with higher accuracy.

(変形例)
区間検出手段15b、差異検出手段16b及び領域推定手段17bは、第1実施形態及び第2実施形態の物体認識方法と同様の方法で、第2車両2が複数の異なる地点から検出した第1検出区間及び第2検出区間に基づいて静止物体存在領域を推定してもよい。領域推定手段17bは、推定した静止物体存在領域を第1車両1に送信してもよい。第1車両1は、例えば第2車両2よりも静止物体存在領域から遠くに位置する車両であってよい。
これにより、第2車両2によって推定した静止物体存在領域の情報に基づいて、後続の第1車両1の走行制御を実施することができる。
(Modification)
The section detection means 15b, the difference detection means 16b, and the area estimation means 17b use the same method as the object recognition method of the first and second embodiments to perform the first detection detected by the second vehicle 2 from a plurality of different points. A stationary object existence area may be estimated based on the section and the second detection section. The area estimation means 17b may transmit the estimated stationary object existence area to the first vehicle 1 . The first vehicle 1 may be a vehicle located farther from the stationary object existence area than the second vehicle 2, for example.
As a result, based on the information of the stationary object existence area estimated by the second vehicle 2 , it is possible to carry out travel control of the subsequent first vehicle 1 .

(第4実施形態)
(構成)
次に、第4実施形態を説明する。第4実施形態の物体認識システム100では、同じ領域の異なる時刻における静止物体存在領域を推定し、異なる時刻の静止物体存在領域どうしを比較する。静止物体存在領域が経時変化しない場合に、静止物体存在領域に静止物体が存在すると判定する。静止物体存在領域が経時変化する場合には、一時的に停車している車列が静止物体存在領域に存在していると判定する。
(Fourth embodiment)
(composition)
Next, a fourth embodiment will be described. The object recognition system 100 of the fourth embodiment estimates stationary object existence areas in the same area at different times, and compares the stationary object existence areas at different times. If the stationary object existence area does not change with time, it is determined that the stationary object exists in the stationary object existence area. When the stationary object existence area changes with time, it is determined that the train temporarily stopped exists in the stationary object existence area.

図13を参照する。第4実施形態の物体認識システム100は、図8に示す第3実施形態の物体認識システム100の構成に加えて、第3車両3に搭載された外部センサ30と、測位装置31と、通信装置32を備える。
外部センサ30は、第3車両3の周囲の物体を検出する複数の異なる種類のセンサを備える。測位装置31は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して、現在時刻と、第3車両3の現在位置及び進行方向を測定する。
Please refer to FIG. In addition to the configuration of the object recognition system 100 of the third embodiment shown in FIG. 8, the object recognition system 100 of the fourth embodiment includes an external sensor 30 mounted on the third vehicle 3, a positioning device 31 and a communication device 32.
The external sensors 30 comprise a plurality of different types of sensors for detecting objects around the third vehicle 3 . The positioning device 31 includes a global positioning system (GNSS) receiver, receives radio waves from a plurality of navigation satellites, and measures the current time and the current position and traveling direction of the third vehicle 3 .

外部センサ30は、例えば第2車両2の外部センサ20と同様の構成を有してよく、測位装置31は、例えば第2車両2の測位装置21と同様の構成を有してよい。
通信装置32は、測位装置31から得られる現在時刻情報に基づいて外部センサ30に対して基準時刻を配信する。また、通信装置32は、コンピュータ15、16及び17の通信手段15a、16a及び17aを介して、それぞれ区間検出手段15b、差異検出手段16b及び領域推定手段17bとの間でデータの送受信を行う。
The external sensor 30 may have the same configuration as the external sensor 20 of the second vehicle 2, for example, and the positioning device 31 may have the same configuration as the positioning device 21 of the second vehicle 2, for example.
The communication device 32 distributes the reference time to the external sensor 30 based on the current time information obtained from the positioning device 31 . The communication device 32 also transmits and receives data to and from the section detection means 15b, the difference detection means 16b and the area estimation means 17b via the communication means 15a, 16a and 17a of the computers 15, 16 and 17, respectively.

なお、コンピュータ15~17が、第3車両3に実装されてもよい。この場合、通信装置32及び通信手段15a~17aは、有線又は無線の通信手段によりデータを授受してよい。例えば、通信装置32及び通信手段15a~17aは、例えばCSMA/CA方式の多重通信(CAN:Controller Area Network)やフレックスレイ(Flex Ray)等の車載通信ネットワーク(車載LAN)を備えてもよい。 Note that the computers 15 to 17 may be installed in the third vehicle 3. In this case, the communication device 32 and the communication means 15a to 17a may exchange data by wired or wireless communication means. For example, the communication device 32 and the communication means 15a to 17a may be provided with an in-vehicle communication network (in-vehicle LAN) such as CSMA/CA multiplex communication (CAN: Controller Area Network) or Flex Ray.

コンピュータ15~17は、第3車両3以外の場所に実装されてもよい。この場合、例えば通信装置32及び通信手段15a~17aは、車車間通信、公衆携帯電話網、路車間通信、衛星通信等の無線通信手段を介して、互いにデータを授受する。
コンピュータ15~17は、例えば、第1車両1や第2車両2等の他車両、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバに実装されてもよい。
Computers 15 - 17 may be mounted at locations other than third vehicle 3 . In this case, for example, the communication device 32 and the communication means 15a to 17a exchange data with each other via wireless communication means such as vehicle-to-vehicle communication, public mobile phone network, road-to-vehicle communication, and satellite communication.
The computers 15 to 17 are implemented in, for example, other vehicles such as the first vehicle 1 and the second vehicle 2, a mobile edge computer on a mobile phone/private network, a road traffic infrastructure server installed on the roadside, or a cloud server on the Internet. may be

図14を参照する。第4実施形態の物体認識システム100は、第1実施形態及び第2実施形態の物体認識システム100と同様の機能構成を有しており、同一の構成要素には同じ参照符号を付する。
物体認識システム100は、第1実施形態及び第2実施形態の区間検出手段15bと同様の機能を備える区間検出手段15b2及び15b3を、それぞれ第2車両2及び第3車両3に実装する。
Please refer to FIG. The object recognition system 100 of the fourth embodiment has functional configurations similar to those of the object recognition systems 100 of the first and second embodiments, and the same components are denoted by the same reference numerals.
The object recognition system 100 mounts section detection means 15b2 and 15b3 having the same function as the section detection section 15b of the first and second embodiments in the second vehicle 2 and the third vehicle 3, respectively.

また物体認識システム100は停車車列判定手段19を備える。停車車列判定手段19は、第1車両1~第3車両3に実装されてもよく、その他の車両や、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバのいずれかに実装されてもよい。 The object recognition system 100 also includes a stop train determination means 19 . The stop train determination means 19 may be mounted on the first vehicle 1 to the third vehicle 3, other vehicles, mobile phones/mobile edge computers on private networks, road traffic infrastructure servers installed on the roadside, or It may be implemented on any cloud server on the Internet.

外部センサ20及び30は、それぞれ第2車両2及び第3車両3の周囲の物体を検出する。測位装置21及び31は、第2車両2及び第3車両3のそれぞれの現在位置を測定する。
区間検出手段15b2と、差異検出手段16bと、領域推定手段17bは、第2車両2の外部センサ20による検出結果と測位装置21の測定結果に基づいて、静止物体存在領域を推定する。
区間検出手段15b3と、差異検出手段16bと、領域推定手段17bは、第3車両3の外部センサ30による検出結果と測位装置31の測定結果に基づいて、静止物体存在領域を推定する。
External sensors 20 and 30 detect objects around the second vehicle 2 and the third vehicle 3, respectively. The positioning devices 21 and 31 measure the current positions of the second vehicle 2 and the third vehicle 3, respectively.
The section detecting means 15b2, the difference detecting means 16b, and the area estimating means 17b estimate the stationary object existing area based on the detection result of the external sensor 20 of the second vehicle 2 and the measurement result of the positioning device 21. FIG.
The section detecting means 15b3, the difference detecting means 16b, and the area estimating means 17b estimate the stationary object existence area based on the detection result of the external sensor 30 of the third vehicle 3 and the measurement result of the positioning device 31. FIG.

図15A及び図15Bは、異なる時刻に同一の領域を通過した第2車両2と第3車両3から測定した測定結果に基づいて推定した静止物体存在領域をそれぞれ示す。第3車両3は、所定時間t(例えば30秒)遅れて第2車両2と同じ領域を通過している。
白抜きの矩形は、道路に沿った物標を表す。ハッチングが施された領域r1~r4は静止物体存在領域を表す。
なお、外部センサ20及び30として第2車両2及び第3車両3の側方の物標を検出する側方センサを設けて、第2車両2及び第3車両3が通過する際に側方センサが道路に沿った物標を検出しない領域を、静止物体存在領域として推定してもよい。
15A and 15B respectively show stationary object existence regions estimated based on measurement results obtained from the second vehicle 2 and the third vehicle 3 that passed through the same region at different times. The third vehicle 3 passes through the same area as the second vehicle 2 with a delay of a predetermined time t (for example, 30 seconds).
Outlined rectangles represent targets along the road. Hatched regions r1 to r4 represent stationary object existence regions.
As the external sensors 20 and 30, side sensors for detecting targets on the sides of the second vehicle 2 and the third vehicle 3 are provided. A region in which does not detect a target along the road may be estimated as a stationary object existence region.

停車車列判定手段19は、異なる時刻において同じ領域にて推定された静止物体存在領域どうしを比較し、静止物体存在領域が経時変化するか否かを判定する。静止物体存在領域が経時変化しない場合に、静止物体存在領域に静止物体が存在すると判定する。静止物体存在領域が経時変化する場合には、一時的に停車している車列が静止物体存在領域に存在していると判定する。 The stationary train determination means 19 compares the stationary object existence areas estimated in the same area at different times, and determines whether the stationary object existence area changes with time. If the stationary object existence area does not change with time, it is determined that the stationary object exists in the stationary object existence area. When the stationary object existence area changes with time, it is determined that the train temporarily stopped exists in the stationary object existence area.

図15A及び図15Bに示す例では、所定時間tが経過しても静止物体存在領域r1の位置の変化がない。また、静止物体存在領域r1とr2の間の区間s1は延長しており、静止物体存在領域r2の位置が変化している。同様にr3及びr4の位置の変化が変化しており、静止物体存在領域r2とr3の間の区間s2、静止物体存在領域r3とr4の間の区間s3も延長している。 In the examples shown in FIGS. 15A and 15B, the position of the stationary object existence region r1 does not change even after the predetermined time t has passed. Also, the section s1 between the stationary object existence areas r1 and r2 is extended, and the position of the stationary object existence area r2 is changed. Similarly, the changes in the positions of r3 and r4 are changed, and the section s2 between the stationary object existence areas r2 and r3 and the section s3 between the stationary object existence areas r3 and r4 are also extended.

停車車列判定手段19は、特定の領域で検出された静止物体存在領域r1~r4とその間の区間s1~s3の一つ以上で経時変化が生じた場合に、これらの静止物体存在領域r1~r4は、停車車列であると判定し、領域推定手段17bが推定した静止物体存在領域を取り消す。
静止物体存在領域r1~r4と区間s1~s3の何れも経時変化しない場合に、静止物体存在領域r1~r4に静止物体が存在すると判定し、静止物体存在領域r1~r4の位置情報を第1車両1の車載装置13へ送信する。
The stopped train determination means 19 detects the stationary object existence areas r1 to r4 detected in the specific area and one or more of the sections s1 to s3 therebetween. R4 is determined to be a stopped train, and the stationary object presence region estimated by the region estimation means 17b is cancelled.
When none of the stationary object existence areas r1 to r4 and the sections s1 to s3 change with time, it is determined that the stationary object exists in the stationary object existence areas r1 to r4, and the position information of the stationary object existence areas r1 to r4 is set to the first It is transmitted to the in-vehicle device 13 of the vehicle 1 .

車載装置13の軌道生成手段110は、停車車列判定手段19から送信された静止物体存在領域r1~r4を回避するように目標走行軌道と速度プロファイルを生成する。
第1車両1は、例えば第2車両2や第3車両3よりも静止物体存在領域r1~r4から遠くに位置する車両であってよい。これにより、第2車両2及び第3車両3によって推定した静止物体存在領域の情報に基づいて、後続の第1車両1の走行制御を実施することができる。
The trajectory generation means 110 of the in-vehicle device 13 generates a target travel trajectory and a speed profile so as to avoid the stationary object existence areas r1 to r4 transmitted from the stop train determination means 19. FIG.
The first vehicle 1 may be a vehicle located farther from the stationary object existence regions r1 to r4 than the second vehicle 2 and the third vehicle 3, for example. As a result, based on the information of the stationary object existing area estimated by the second vehicle 2 and the third vehicle 3, the traveling control of the following first vehicle 1 can be performed.

(動作)
次に、図16を参照して第4実施形態の物体認識方法の一例を説明する。ステップS40~S46の処理は、図6に示した第2実施形態のステップS10~S16と同様であり、複数の車両(例えば第2車両2及び第3車両3)毎に実行する。
ステップS47において停車車列判定手段19は、異なる時刻において複数の車両が同じ領域にて推定された静止物体存在領域どうしを比較し、静止物体存在領域が経時変化するか否かを判定する。
(motion)
Next, an example of the object recognition method of the fourth embodiment will be described with reference to FIG. The processes of steps S40 to S46 are the same as steps S10 to S16 of the second embodiment shown in FIG. 6, and are executed for each of a plurality of vehicles (eg, second vehicle 2 and third vehicle 3).
In step S47, the stopped train determination means 19 compares the stationary object existence areas estimated in the same area by a plurality of vehicles at different times, and determines whether or not the stationary object existence area changes with time.

静止物体存在領域が経時変化する場合(ステップS47:Y)に処理はステップS49へ進む。静止物体存在領域が経時変化しない場合(ステップS47:N)に処理はステップS48へ進む。
ステップS48において停車車列判定手段19は、静止物体存在領域内に静止物体が存在すると判定する。軌道生成手段110は、目標走行軌道を走行する第1車両1が静止物体存在領域と干渉するか否かを判断し、静止物体存在領域か回避するように第1車両1の走行制御を実施する必要があるか否かを判定する。
If the stationary object existence area changes with time (step S47: Y), the process proceeds to step S49. If the stationary object presence area does not change over time (step S47: N), the process proceeds to step S48.
In step S48, the stopped train determination means 19 determines that a stationary object exists within the stationary object existence area. The trajectory generation means 110 determines whether or not the first vehicle 1 traveling on the target travel trajectory interferes with the stationary object existence area, and performs travel control of the first vehicle 1 so as to avoid the stationary object existence area. Determine if it is necessary.

静止物体存在領域か回避する場合に軌道生成手段110は、静止物体存在領域か回避するための目標走行軌道と速度プロファイルを生成する。その後に処理は終了する。
ステップS49において停車車列判定手段19は、静止物体存在領域に存在するのは停車車列であると判定し、領域推定手段17bが推定した静止物体存在領域を取り消す。その後に処理は終了する。
When the stationary object existence area is to be avoided, the trajectory generation means 110 generates a target travel trajectory and a speed profile for avoiding the stationary object existence area. Processing then ends.
In step S49, the stopped vehicle train determination means 19 determines that the stopped vehicle train exists in the stationary object existence area, and cancels the stationary object existence area estimated by the area estimation means 17b. Processing then ends.

(第4実施形態の効果)
停車車列判定手段19は、異なる時刻における静止物体存在領域を各々推定し、静止物体存在領域に経時変化がない場合に、前記静止物体存在領域に静止物体が存在すると判定する。これにより、一時的に停止している物体、例えば停車車両を静止物体と誤検出することを防止できる。
(Effect of the fourth embodiment)
The stopped train determination means 19 estimates stationary object existence areas at different times, and determines that a stationary object exists in the stationary object existence areas when there is no change over time in the stationary object existence areas. As a result, it is possible to prevent erroneous detection of a temporarily stopped object, such as a stopped vehicle, as a stationary object.

1…第1車両、2…第2車両、3…第3車両、10…外部センサ、11…測位装置、12…通信装置、13…車載装置、14…アクチュエータ、15…コンピュータ、15a…通信手段、15b、15b1~15b3…区間検出手段、16…コンピュータ、16b…差異検出手段、17…コンピュータ、17a…通信手段、17b…領域推定手段、18a…地図データベース、18b…道路構造補正手段、19…停車車列判定手段、20…外部センサ、21…測位装置、22…通信装置、30…外部センサ、31…測位装置、32…通信装置、100…物体認識システム、110…軌道生成手段、111…走行制御手段 DESCRIPTION OF SYMBOLS 1... 1st vehicle, 2... 2nd vehicle, 3... 3rd vehicle, 10... External sensor, 11... Positioning apparatus, 12... Communication apparatus, 13... In-vehicle apparatus, 14... Actuator, 15... Computer, 15a... Communication means , 15b, 15b1 to 15b3 section detection means 16 computer 16b difference detection means 17 computer 17a communication means 17b area estimation means 18a map database 18b road structure correction means 19 Stop train determination means 20 External sensor 21 Positioning device 22 Communication device 30 External sensor 31 Positioning device 32 Communication device 100 Object recognition system 110 Trajectory generation means 111 travel control means

Claims (14)

道路上の観測点から、前記道路に沿って延在する物標をセンサで検出し、
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記検出区間の両端のうち前記観測点に近い一方の端点と前記観測点とを結ぶ線分である見通し境界線を、前記複数の観測点についてそれぞれ算出し、
前記複数の観測点で算出した前記見通し境界線に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定する、
ことを特徴とする物体認識方法。
Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
A line segment connecting one of the two ends of the detection section closer to the observation point to the observation point based on the positions of the end points of the plurality of different detection sections respectively detected at the plurality of observation points. calculating a boundary line for each of the plurality of observation points;
estimating a stationary object existence area, which is an area in which a stationary object exists on the road, based on the line of sight boundary calculated at the plurality of observation points;
An object recognition method characterized by:
前記コンピュータは、前記複数の観測点で算出した前記見通し境界線の交点に基づいて、前記静止物体存在領域を推定することを特徴とする請求項1に記載の物体認識方法。 2. The object recognition method according to claim 1, wherein the computer estimates the stationary object existence area based on intersections of the lines of sight calculated at the plurality of observation points. 前記コンピュータは、
前記物標の前記観測点から検出されない部分が存在する区間である非検出区間を、前記複数の観測点についてそれぞれ推定し、
前記非検出区間の重複部分に基づいて、前記静止物体存在領域を推定する、
ことを特徴とする請求項1又は2に記載の物体認識方法。
The computer is
estimating, for each of the plurality of observation points, a non-detection section, which is a section in which there is a portion of the target that is not detected from the observation point;
estimating the stationary object existence area based on the overlapping portion of the non-detection interval;
3. The object recognition method according to claim 1 or 2, characterized in that:
前記コンピュータは、
前記観測点の各々で不連続な複数の前記検出区間が検出される場合に、不連続部分を挟んで隣接する一対の前記検出区間のうち、前記観測点に比較的近い第1検出区間と、前記観測点から比較的遠い第2検出区間と、を検出し、
前記第1検出区間の両端のうち前記第2検出区間に近い一方の端点で前記第1検出区間と直角に交わる垂線と、前記第2検出区間の両端のうち前記観測点に近い一方の端点と前記観測点とを結んだ前記見通し境界線との交点に基づいて、前記静止物体存在領域を推定する、
ことを特徴とする請求項1又は2に記載の物体認識方法。
The computer is
when a plurality of discontinuous detection intervals are detected at each of the observation points, a first detection interval relatively close to the observation point among a pair of the detection intervals adjacent across a discontinuous portion; detecting a second detection section relatively far from the observation point;
a perpendicular line perpendicularly crossing the first detection section at one end point near the second detection section among both ends of the first detection section; and one end point near the observation point among both ends of the second detection section. estimating the stationary object existence area based on the intersection with the line of sight boundary connecting the observation point;
3. The object recognition method according to claim 1 or 2, characterized in that:
前記コンピュータは、前記物標の位置情報を有する地図情報に基づいて、前記観測点から検出した前記物標の検出位置を補正することにより、前記見通し境界線を補正することを特徴とする請求項1又は4に記載の物体認識方法。 3. The computer corrects the line of sight boundary by correcting the detected position of the target detected from the observation point based on map information having position information of the target. 5. The object recognition method according to 1 or 4. 前記コンピュータは、
前記物標の位置情報を有する地図情報に基づいて、前記観測点から前記物標が検出されない範囲である検出不可範囲を算出し、
前記検出不可範囲において前記静止物体存在領域の推定を行わない、
ことを特徴とする請求項1~4のいずれか一項に記載の物体認識方法。
The computer is
calculating an undetectable range, which is a range in which the target is not detected from the observation point, based on map information having position information of the target;
not estimating the stationary object existence area in the undetectable range;
The object recognition method according to any one of claims 1 to 4, characterized in that:
前記物標は、前記道路に沿って延在する道路区画線であり、一定間隔で存在する前記道路区画線の端点を、前記検出区間の端点として検出しないことを特徴とする請求項1~6のいずれか一項に記載の物体認識方法。 6. The target is a road marking line extending along the road, and end points of the road marking line existing at regular intervals are not detected as end points of the detection section. The object recognition method according to any one of 1. 前記道路の道路境界線より外側の物標を、前記物標として前記センサで検出することを特徴とする請求項1~7のいずれか一項に記載の物体認識方法。 8. The object recognition method according to any one of claims 1 to 7, wherein a target outside a road boundary line of the road is detected by the sensor as the target. 道路上の観測点から、前記道路に沿って延在する物標をセンサで検出し、
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定し、
前記複数の観測点の一つにおいて第1車両から前記物標を検出し、前記複数の観測点の他の一つにおいて前記第1車両の対向車両又は交差車両である第2車両から前記物標を検出することを特徴とする物体認識方法。
Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
estimating a stationary object presence area, which is an area in which a stationary object exists on the road, based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points;
The target is detected from a first vehicle at one of the plurality of observation points, and the target is detected from a second vehicle, which is an oncoming vehicle or an intersecting vehicle of the first vehicle, at another one of the plurality of observation points. An object recognition method characterized by detecting
道路上の観測点から、前記道路に沿って延在する物標をセンサで検出し、
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定し、
前記複数の観測点の一つにおいて第1車両から前記物標を検出し、前記複数の観測点の他の一つにおいて前記第1車両の対向車両である第2車両から前記物標を検出し、
前記観測点の各々で不連続な複数の前記検出区間が検出される場合に、不連続部分を挟んで隣接する一対の前記検出区間のうち、前記観測点に比較的近い第1検出区間と、前記観測点から比較的遠い第2検出区間と、前記第1検出区間の両端のうち前記第2検出区間に近い一方の端点である第1検出区間端点と、を検出し、
前記第1車両及び前記第2車両で各々検出した第1検出区間端点に基づいて、前記静止物体存在領域を推定する、
ことを特徴とする物体認識方法。
Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
estimating a stationary object presence area, which is an area in which a stationary object exists on the road, based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points;
The target is detected from a first vehicle at one of the plurality of observation points, and the target is detected from a second vehicle that is an oncoming vehicle of the first vehicle at another one of the plurality of observation points. ,
when a plurality of discontinuous detection intervals are detected at each of the observation points, a first detection interval relatively close to the observation point among a pair of the detection intervals adjacent across a discontinuous portion; detecting a second detection interval relatively far from the observation point and a first detection interval end point that is one end point closer to the second detection interval out of both ends of the first detection interval;
estimating the stationary object existence area based on the first detection section end points detected by the first vehicle and the second vehicle;
An object recognition method characterized by:
前記コンピュータは、
異なる時刻における前記静止物体存在領域を各々推定し、
前記静止物体存在領域に経時変化がない場合に、前記静止物体存在領域に静止物体が存在すると判定する、
ことを特徴とする請求項1~9のいずれか一項に記載の物体認識方法。
The computer is
estimating each of the stationary object existence regions at different times;
determining that a stationary object exists in the stationary object existence area when the stationary object existence area does not change over time;
The object recognition method according to any one of claims 1 to 9, characterized in that:
道路上の観測点から、前記道路に沿って延在する物標をセンサで検出し、
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定し、
前記観測点の各々で不連続な複数の前記検出区間が検出される場合に、不連続部分を挟んで隣接する一対の前記検出区間のうち、前記観測点に比較的近い第1検出区間と、前記観測点から比較的遠い第2検出区間と、を検出し、
前記第1検出区間の両端のうち前記第2検出区間に近い一方の端点の位置が、前記複数の観測点から検出しても変化しない場合に、静止物体が存在すると判定することを特徴とする物体認識方法。
Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
estimating a stationary object presence area, which is an area in which a stationary object exists on the road, based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points;
when a plurality of discontinuous detection intervals are detected at each of the observation points, a first detection interval relatively close to the observation point among a pair of the detection intervals adjacent across a discontinuous portion; detecting a second detection section relatively far from the observation point;
It is determined that a stationary object exists when the position of one of the ends of the first detection section, which is closer to the second detection section, does not change even when detected from the plurality of observation points. Object recognition method.
前記コンピュータは、前記道路上で移動物体が検出されない領域において、前記静止物体存在領域を推定することを特徴とする請求項1~12のいずれか一項に記載の物体認識方法。 13. The object recognition method according to any one of claims 1 to 12, wherein the computer estimates the stationary object existence area in an area where no moving object is detected on the road. 道路上の観測点から、前記道路に沿って延在する又は前記道路沿いに存在する物標を検出するセンサと、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記検出区間の両端のうち前記観測点に近い一方の端点と前記観測点とを結ぶ線分である見通し境界線を、前記複数の観測点についてそれぞれ算出し、前記複数の観測点で算出した前記見通し境界線に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定するコンピュータと、
を備えることを特徴とする物体認識システム。
a sensor that detects a target extending along the road or present along the road from an observation point on the road;
Detecting a detection section, which is a section in which a portion of the target detected from the observation point exists, and determining the detection section based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points. A line of sight boundary line, which is a line segment connecting one of the two ends of the observation point near the observation point and the observation point, is calculated for each of the plurality of observation points, and the line of sight boundary line calculated at the plurality of observation points a computer for estimating a stationary object existence area, which is an area where a stationary object exists on the road, based on
An object recognition system comprising:
JP2019194692A 2019-10-25 2019-10-25 Object recognition method and object recognition system Active JP7325296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019194692A JP7325296B2 (en) 2019-10-25 2019-10-25 Object recognition method and object recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194692A JP7325296B2 (en) 2019-10-25 2019-10-25 Object recognition method and object recognition system

Publications (2)

Publication Number Publication Date
JP2021068316A JP2021068316A (en) 2021-04-30
JP7325296B2 true JP7325296B2 (en) 2023-08-14

Family

ID=75637347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194692A Active JP7325296B2 (en) 2019-10-25 2019-10-25 Object recognition method and object recognition system

Country Status (1)

Country Link
JP (1) JP7325296B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257449A (en) 2006-03-24 2007-10-04 Toyota Motor Corp Road division line detector
WO2013038818A1 (en) 2011-09-12 2013-03-21 日産自動車株式会社 Three-dimensional object detection device
JP2016218539A (en) 2015-05-15 2016-12-22 トヨタ自動車株式会社 Vehicle runway recognition device
JP2017076276A (en) 2015-10-15 2017-04-20 株式会社日本自動車部品総合研究所 Stationary object detection apparatus and program
JP2018120303A (en) 2017-01-23 2018-08-02 株式会社Soken Object detection device
JP2018206328A (en) 2017-05-31 2018-12-27 株式会社Soken Vehicle control device and vehicle control method
JP2019112007A (en) 2017-12-26 2019-07-11 本田技研工業株式会社 Vehicle control device, vehicle control method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345392A (en) * 1998-06-02 1999-12-14 Nissan Motor Co Ltd Device and method for detecting obstacle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257449A (en) 2006-03-24 2007-10-04 Toyota Motor Corp Road division line detector
WO2013038818A1 (en) 2011-09-12 2013-03-21 日産自動車株式会社 Three-dimensional object detection device
JP2016218539A (en) 2015-05-15 2016-12-22 トヨタ自動車株式会社 Vehicle runway recognition device
JP2017076276A (en) 2015-10-15 2017-04-20 株式会社日本自動車部品総合研究所 Stationary object detection apparatus and program
JP2018120303A (en) 2017-01-23 2018-08-02 株式会社Soken Object detection device
JP2018206328A (en) 2017-05-31 2018-12-27 株式会社Soken Vehicle control device and vehicle control method
JP2019112007A (en) 2017-12-26 2019-07-11 本田技研工業株式会社 Vehicle control device, vehicle control method, and program

Also Published As

Publication number Publication date
JP2021068316A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
EP3137850B1 (en) Method and system for determining a position relative to a digital map
JP5761162B2 (en) Vehicle position estimation device
JP6219312B2 (en) Method for determining the position of a vehicle in a lane traffic path of a road lane and a method for detecting alignment and collision risk between two vehicles
WO2015087502A1 (en) Vehicle self-location device
US10917808B2 (en) Extra-vehicular communication device, onboard device, onboard communication system, communication control method, and communication control program
JP2021099793A (en) Intelligent traffic control system and control method for the same
CN114127822B (en) Information processing device, information processing method, and information processing program
JP2019168432A (en) Own vehicle position estimating device
US11987245B2 (en) Method for controlling vehicle and vehicle control device
US11650321B2 (en) Apparatus and method for detecting tilt of LiDAR apparatus mounted to vehicle
JP7043765B2 (en) Vehicle driving control method and equipment
JP6989284B2 (en) Vehicle position estimation device and program
JP2020047210A (en) Object detection device
CN112689241B (en) Vehicle positioning calibration method and device
JP2023118759A (en) Measuring device, measuring method and program
KR102630991B1 (en) Method for determining driving posision of vehicle, apparatus thereof and driving control system
US20200118424A1 (en) Map information system
JP7325296B2 (en) Object recognition method and object recognition system
JP2018185156A (en) Target position estimation method and target position estimation device
EP3835724B1 (en) Self-location estimation method and self-location estimation device
JP2021068315A (en) Estimation method and estimation system of lane condition
JP7487713B2 (en) Vehicle display control device, vehicle display device, vehicle display control method and program
JP7241582B2 (en) MOBILE POSITION DETECTION METHOD AND MOBILE POSITION DETECTION SYSTEM
US20230031485A1 (en) Device and method for generating lane information
JP7468075B2 (en) Control System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230801

R150 Certificate of patent or registration of utility model

Ref document number: 7325296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150