JP6996368B2 - Server, obstacle recognition device - Google Patents

Server, obstacle recognition device Download PDF

Info

Publication number
JP6996368B2
JP6996368B2 JP2018047742A JP2018047742A JP6996368B2 JP 6996368 B2 JP6996368 B2 JP 6996368B2 JP 2018047742 A JP2018047742 A JP 2018047742A JP 2018047742 A JP2018047742 A JP 2018047742A JP 6996368 B2 JP6996368 B2 JP 6996368B2
Authority
JP
Japan
Prior art keywords
obstacle
likelihood
unit
provisional
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018047742A
Other languages
Japanese (ja)
Other versions
JP2019160003A (en
JP2019160003A5 (en
Inventor
勝之 森
正和 香川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018047742A priority Critical patent/JP6996368B2/en
Publication of JP2019160003A publication Critical patent/JP2019160003A/en
Publication of JP2019160003A5 publication Critical patent/JP2019160003A5/en
Application granted granted Critical
Publication of JP6996368B2 publication Critical patent/JP6996368B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、移動装置の進行方向における障害物を認識する技術に関する。 The present disclosure relates to a technique for recognizing an obstacle in the traveling direction of a mobile device.

特許文献1には、車両の運転が自動運転モードから手動運転モードへ切り替えられたことをトリガとして、車両の位置情報及びドライバの運転操作の特徴量を取得して、これらを用いて自動運転モードにおける運転操作の補正量を判定し、補正量を用いて自動運転モードにおける運転操作を補正することが記載されている。 In Patent Document 1, the position information of the vehicle and the characteristic amount of the driving operation of the driver are acquired by using the switching of the driving of the vehicle from the automatic driving mode to the manual driving mode as a trigger, and the automatic driving mode is used by using these. It is described that the correction amount of the driving operation in the above is determined and the driving operation in the automatic operation mode is corrected by using the correction amount.

国際公開第2015/159341号International Publication No. 2015/159341

車両の周囲の状況をセンサにより検出し、検出結果を用いて車両との衝突を回避すべき障害物を認識して自動運転を行う場合には、障害物の認識精度が高いことが好ましい。障害物の認識精度を向上させるために、例えば、手動運転モード時のドライバの運転操作とセンサの検出結果との関係を用いて、自動運転モード時のセンサの検出結果が障害物を示すか否かを判断することも考えられる。しかし、例えば、ドライバの運転が行われない場合など、上記関係を取得できない場合には、センサの検出結果が障害物を示すか否かを判断することはできない。そのため、障害物の認識精度を向上させることが可能な、新規の技術が求められていた。 When the situation around the vehicle is detected by a sensor and the detection result is used to recognize an obstacle that should avoid a collision with the vehicle for automatic driving, it is preferable that the recognition accuracy of the obstacle is high. In order to improve the recognition accuracy of obstacles, for example, using the relationship between the driver's driving operation in the manual operation mode and the sensor detection result, whether or not the sensor detection result in the automatic operation mode indicates an obstacle. It is also possible to judge whether or not. However, if the above relationship cannot be obtained, for example, when the driver is not operated, it cannot be determined whether or not the detection result of the sensor indicates an obstacle. Therefore, a new technique capable of improving the recognition accuracy of obstacles has been required.

本開示は、上述の課題を解決するためになされたものであり、以下の形態として実現することが可能である。 The present disclosure has been made to solve the above-mentioned problems, and can be realized as the following forms.

本開示の一形態によれば、前記移動装置の進行方向における物標の検出結果に基づいて算出された、前記進行方向に障害物が存在する尤度が、前記障害物なしを示す第1閾値以下でも、前記障害物ありを示す前記第1閾値より大きな第2閾値以上でもなく、前記障害物ありと暫定的に判断することである暫定的障害物ありを示す、前記第1閾値より大きく前記第2閾値より小さな値になった場合に、前記検出結果と前記尤度の算出結果とを前記障害物認識装置から受信し、物標と前記障害物との対応関係と、前記検出結果における物標と、の類似度を用いて、前記暫定的障害物ありを、前記障害物なし又は前記障害物ありに修正する修正部(220)と、前記障害物認識装置から受信した、前記暫定的障害物ありに対応する、前記検出結果および前記算出結果と、前記修正部による前記暫定的障害物ありの修正結果と、を教師あり学習のためのデータとして格納する格納部(240)と、前記格納部に格納された前記教師あり学習のためのデータを用いて教師あり学習を行い、尤度算出ロジックを再構築する学習部(230)と、前記尤度算出ロジックを、前記障害物認識装置に更新させる更新部(245)と、を備える。前記修正部による修正結果と前記尤度算出ロジックとのうち少なくともいずれかを前記障害物認識装置に送信する。
本開示の第二の形態によれば、移動可能な移動装置(100)に搭載されサーバ(250)と通信可能な障害物認識装置(60)が提供される。この障害物認識装置は、前記移動装置の進行方向における物標の検出結果を取得して、前記進行方向に前記移動装置との衝突回避が必要な障害物が存在する尤度を、予め定められた尤度算出ロジックを用いて算出する尤度算出部(40)と、前記尤度が第1閾値(X)以下である場合に前記障害物なしと判断し、前記尤度が前記第1閾値よりも大きい第2閾値(Y)以上である場合に前記障害物ありと判断し、前記尤度が前記第1閾値よりも大きく前記第2閾値よりも小さい場合に、前記障害物ありと暫定的に判断することである暫定的障害物ありと判断する、判断部(50)と、を備える。前記判断部が前記暫定的障害物ありと判断した場合に、前記サーバに、前記検出結果と前記尤度算出部の算出結果とを送信し、前記暫定的障害物ありという判断が前記障害物なし又は前記障害物ありに修正された修正結果を前記サーバから受信し、前記検出結果と前記算出結果とを用いて再構築された尤度算出ロジックを前記サーバから受信し、前記尤度算出部が用いる尤度算出ロジックを前記サーバから受信した尤度算出ロジックに更新する
According to one embodiment of the present disclosure, the likelihood that an obstacle is present in the traveling direction, which is calculated based on the detection result of the target in the traveling direction of the moving device, is the first threshold indicating that there is no obstacle. Even below, the above is not greater than or equal to the second threshold value larger than the first threshold value indicating the presence of the obstacle, and is larger than the first threshold value indicating the presence of the provisional obstacle, which is to provisionally determine that the presence of the obstacle is present. When the value becomes smaller than the second threshold value, the detection result and the calculation result of the likelihood are received from the obstacle recognition device, the correspondence relationship between the target and the obstacle, and the object in the detection result. The provisional obstacle received from the correction unit (220) that corrects the presence of the provisional obstacle to the absence of the obstacle or the presence of the obstacle by using the similarity with the mark, and the obstacle recognition device. A storage unit (240) that stores the detection result and the calculation result corresponding to the presence of an object, and the correction result of the provisional obstacle with the correction unit as data for supervised learning, and the storage unit. The learning unit (230) that performs supervised learning using the data for supervised learning stored in the unit and reconstructs the likelihood calculation logic, and the likelihood calculation logic are applied to the obstacle recognition device. It is provided with an update unit (245) for updating. At least one of the correction result by the correction unit and the likelihood calculation logic is transmitted to the obstacle recognition device.
According to the second aspect of the present disclosure, an obstacle recognition device (60) mounted on a mobile mobile device (100) and capable of communicating with a server (250) is provided. This obstacle recognition device acquires the detection result of the target in the traveling direction of the moving device, and determines in advance the likelihood that an obstacle that needs to avoid collision with the moving device exists in the traveling direction. The likelihood calculation unit (40) that calculates using the likelihood calculation logic, and if the likelihood is equal to or less than the first threshold value (X), it is determined that there is no obstacle, and the likelihood is the first threshold value. If it is greater than or equal to the second threshold value (Y), it is determined that there is an obstacle, and if the likelihood is larger than the first threshold value and smaller than the second threshold value, it is provisionally determined that there is an obstacle. It is provided with a judgment unit (50), which determines that there is a provisional obstacle. When the determination unit determines that there is a provisional obstacle, the detection result and the calculation result of the likelihood calculation unit are transmitted to the server, and the determination that there is a provisional obstacle is that there is no obstacle. Alternatively, the correction result corrected with the obstacle is received from the server, the likelihood calculation logic reconstructed using the detection result and the calculation result is received from the server, and the likelihood calculation unit receives the correction result. The likelihood calculation logic to be used is updated with the likelihood calculation logic received from the server .

この形態によれば、尤度が第1閾値よりも大きく第2閾値よりも小さい場合に暫定的障害物ありと判断するので、障害物の認識における安全性を高めることができ、暫定的障害物ありと判断された場合の撮像結果及び尤度算出結果を取得して修正するので、撮像結果及び尤度算出結果の全てを取得する場合と比べて、障害物認識装置とサーバとの通信負荷を軽減することができる。また、格納部には、暫定的障害物ありと判断された場合の検出結果と尤度算出結果と、暫定的障害物ありの修正結果と、が格納されるので、障害物の認識精度を向上させるための学習データを効率的に収集することができる。さらに、暫定的障害物ありと判断された場合のデータを用いて教師あり学習を行うので、疑わしいデータ、例えば発生頻度が低いために、尤度算出部における初期の尤度算出ロジックに考慮されていなかったシーンのデータを効率的に学習することができる。また、再構築された尤度算出ロジックによって、障害物認識装置の尤度算出ロジックが更新されるので、障害物認識装置において暫定的障害物ありと判断される頻度を減少させて、障害物の認識精度を向上させることができる。 According to this form, when the likelihood is larger than the first threshold value and smaller than the second threshold value, it is determined that there is a provisional obstacle, so that the safety in recognizing the obstacle can be enhanced, and the provisional obstacle can be improved. Since the imaging result and the likelihood calculation result when it is determined to be present are acquired and corrected, the communication load between the obstacle recognition device and the server is reduced as compared with the case where all the imaging results and the likelihood calculation results are acquired. Can be mitigated. Further, since the detection result and the likelihood calculation result when it is determined that there is a temporary obstacle and the correction result with the provisional obstacle are stored in the storage unit, the recognition accuracy of the obstacle is improved. It is possible to efficiently collect the learning data for making the result. Furthermore, since supervised learning is performed using the data when it is determined that there is a provisional obstacle, suspicious data, for example, because the frequency of occurrence is low, is considered in the initial likelihood calculation logic in the likelihood calculation unit. It is possible to efficiently learn the data of the scenes that did not exist. In addition, the reconstructed likelihood calculation logic updates the likelihood calculation logic of the obstacle recognition device, so that the frequency of determining that there is a provisional obstacle in the obstacle recognition device is reduced, and the obstacle is determined. The recognition accuracy can be improved.

障害物認識システムの構成を説明するための図。The figure for demonstrating the structure of an obstacle recognition system. 障害物認識処理のうち、主に車両側の処理について示す図。The figure which shows mainly the process on the vehicle side in the obstacle recognition process. 障害物認識処理のうち、主にサーバ側の処理について示す図。A diagram showing mainly server-side processing among obstacle recognition processing. 第1センサの検出結果を示すイメージ図。The image figure which shows the detection result of the 1st sensor. 第1尤度算出部が第1尤度を算出する過程のイメージ図。An image diagram of the process in which the first likelihood calculation unit calculates the first likelihood. 第2尤度算出部が第2尤度を算出する過程のイメージ図。An image diagram of the process in which the second likelihood calculation unit calculates the second likelihood. 第3尤度算出部が第3尤度を算出する過程のイメージ図。An image diagram of the process in which the third likelihood calculation unit calculates the third likelihood. センサ部の検出範囲を示すイメージ図。The image figure which shows the detection range of a sensor part. 尤度合成結果を示すイメージ図。Image diagram showing the likelihood synthesis result. 修正部の修正結果を示す図。The figure which shows the correction result of the correction part. 学習処理について示す図。The figure which shows the learning process. 学習による効果を示すイメージ図。Image diagram showing the effect of learning. 学習による効果を示すイメージ図。Image diagram showing the effect of learning.

・実施形態
<障害物認識システムの構成>
図1に基づき、障害物認識システム10の構成を説明する。障害物認識システム10は、障害物認識装置60と、サーバ250と、を備える。障害物認識装置60は、移動機能を有する移動装置に搭載される。本実施形態では、移動装置は車両100である。本実施形態では、サーバ250は、複数の車両100を管理する運転支援センター200に設けられており、複数の車両100と通信可能に構成されている。
-Embodiment <Structure of obstacle recognition system>
The configuration of the obstacle recognition system 10 will be described with reference to FIG. The obstacle recognition system 10 includes an obstacle recognition device 60 and a server 250. The obstacle recognition device 60 is mounted on a mobile device having a mobile function. In this embodiment, the mobile device is a vehicle 100. In the present embodiment, the server 250 is provided in the driving support center 200 that manages a plurality of vehicles 100, and is configured to be able to communicate with the plurality of vehicles 100.

車両100は、障害物認識装置60に加え、センサ部30と、運転支援制御部20と、を備える。 The vehicle 100 includes a sensor unit 30 and a driving support control unit 20 in addition to the obstacle recognition device 60.

センサ部30は、車両100の進行方向における物標を検出する。進行方向とは、車両100の移動する方向及びその周囲を含む。進行方向は、車両100が前方に移動する場合には、前方方向及びその周囲を含み、車両100が後方に移動する場合には、後方方向及びその周囲を含む。例えば、センサ部30は、車両100の走行レーンに隣接するレーンに存在する車両を検出可能である。本実施形態において、センサ部30は、第1センサ31と、第2センサ32と、第3センサ33と、を備える。第1センサ31は、車両100の周囲を撮像する撮像装置であり、本実施形態では、単眼カメラである。他の実施形態では、撮像装置はステレオカメラであってもよい。第2センサ32はLIDAR(Light Detection And Ranging又はLaser Imaging Detection And Ranging)であり、レーザを用いて車両100の進行方向における物標の存否等を検出する。第3センサ33はミリ波センサであり、ミリ波帯の電波を用いて、車両100の進行方向における物標の存否、かかる物標と車両100との距離、物標の位置、物標の大きさ、物標の形状及び物標の車両100に対する相対速度を検出する。他の実施形態において、センサ部30は、第1センサ31のみから構成されていてもよいし、第1センサ31、第2センサ32、第3センサ33以外のセンサを備えていてもよい。 The sensor unit 30 detects a target in the traveling direction of the vehicle 100. The traveling direction includes the moving direction of the vehicle 100 and its surroundings. The traveling direction includes the front direction and its surroundings when the vehicle 100 moves forward, and includes the rear direction and its surroundings when the vehicle 100 moves backward. For example, the sensor unit 30 can detect a vehicle existing in a lane adjacent to the traveling lane of the vehicle 100. In the present embodiment, the sensor unit 30 includes a first sensor 31, a second sensor 32, and a third sensor 33. The first sensor 31 is an image pickup device that captures an image of the surroundings of the vehicle 100, and is a monocular camera in the present embodiment. In other embodiments, the image pickup device may be a stereo camera. The second sensor 32 is LIDAR (Light Detection And Ranging or Laser Imaging Detection And Ranging), and detects the presence or absence of a target in the traveling direction of the vehicle 100 by using a laser. The third sensor 33 is a millimeter wave sensor, and uses radio waves in the millimeter wave band to determine the presence or absence of a target in the traveling direction of the vehicle 100, the distance between the target and the vehicle 100, the position of the target, and the size of the target. Now, the shape of the target and the relative speed of the target with respect to the vehicle 100 are detected. In another embodiment, the sensor unit 30 may be composed of only the first sensor 31, or may include a sensor other than the first sensor 31, the second sensor 32, and the third sensor 33.

障害物認識装置60は、CPUとメモリと信号の送受信を行う入出力インターフェースとを備えるECU(Electronic Control Unit)により構成されている。CPUは、メモリに記憶された尤度算出プログラムを展開して実行することにより、尤度算出部40として機能する。また、CPUは、メモリに記憶された判断プログラムを展開して実行することにより、判断部50として機能する。 The obstacle recognition device 60 is composed of an ECU (Electronic Control Unit) including a CPU, a memory, and an input / output interface for transmitting and receiving signals. The CPU functions as the likelihood calculation unit 40 by expanding and executing the likelihood calculation program stored in the memory. Further, the CPU functions as the determination unit 50 by expanding and executing the determination program stored in the memory.

尤度算出部40は、センサ部30の検出結果を取得し、尤度算出ロジックにより、車両100の進行方向に障害物が存在する尤度を算出する。「障害物」とは、車両100との衝突回避が必要な物標をいう。本実施形態において、尤度算出部40は、第1尤度算出部41と、第2尤度算出部42と、第3尤度算出部43とを備える。第1尤度算出部41は、第1センサ31の検出結果と尤度との関係が規定された尤度算出ロジックを用いて、第1尤度を算出する。同様に第2尤度算出部42は、第2センサ32の検出結果と尤度との関係が規定された尤度算出ロジックを用いて、第2尤度を算出する。第3尤度算出部43は、第3センサ33の検出結果と尤度との関係が規定された尤度算出ロジックを用いて、第3尤度を算出する。尤度算出部40は、第1尤度と第2尤度と第3尤度を、予め定められた合成尤度算出ロジックを用いて尤度を算出する。尤度算出部40が合成した尤度を、「合成尤度」とも呼ぶ。 The likelihood calculation unit 40 acquires the detection result of the sensor unit 30, and calculates the likelihood that an obstacle exists in the traveling direction of the vehicle 100 by the likelihood calculation logic. The "obstacle" refers to a target that needs to avoid a collision with the vehicle 100. In the present embodiment, the likelihood calculation unit 40 includes a first likelihood calculation unit 41, a second likelihood calculation unit 42, and a third likelihood calculation unit 43. The first likelihood calculation unit 41 calculates the first likelihood by using the likelihood calculation logic in which the relationship between the detection result of the first sensor 31 and the likelihood is defined. Similarly, the second likelihood calculation unit 42 calculates the second likelihood using the likelihood calculation logic in which the relationship between the detection result of the second sensor 32 and the likelihood is defined. The third likelihood calculation unit 43 calculates the third likelihood by using the likelihood calculation logic in which the relationship between the detection result of the third sensor 33 and the likelihood is defined. The likelihood calculation unit 40 calculates the likelihood of the first likelihood, the second likelihood, and the third likelihood by using a predetermined combined likelihood calculation logic. The likelihood synthesized by the likelihood calculation unit 40 is also referred to as "synthetic likelihood".

判断部50は、尤度算出部40により算出された尤度を取得する。判断部50は、尤度が予め定められた第1閾値X以下である場合に「障害物なし」と判断し、尤度が第1閾値Xよりも大きい第2閾値Y以上である場合に「障害物あり」と判断し、尤度が第1閾値Xよりも大きく第2閾値Yよりも小さい場合に、暫定的に障害物ありと判断することである「暫定的障害物あり」と判断する。第1閾値Xよりも大きく第2閾値Yよりも小さい値を、「中間値」ともいう。本実施形態において、判断部50が判断の対象とする尤度は、合成尤度である。 The determination unit 50 acquires the likelihood calculated by the likelihood calculation unit 40. The determination unit 50 determines that there is no obstacle when the likelihood is equal to or less than the predetermined first threshold value X, and when the likelihood is greater than or equal to the first threshold value X, the determination unit 50 determines that the likelihood is greater than or equal to the second threshold value Y. When it is judged that there is an obstacle and the likelihood is larger than the first threshold value X and smaller than the second threshold value Y, it is judged that there is a temporary obstacle. .. A value larger than the first threshold value X and smaller than the second threshold value Y is also referred to as an "intermediate value". In the present embodiment, the likelihood that the determination unit 50 determines is the synthetic likelihood.

障害物認識装置60は、障害物認識装置60による認識結果を運転支援制御部20に送信する。障害物認識装置60は、障害物の位置を、センサ部30の検出結果から取得可能に構成されており、「障害物あり」と判断した場合には、「障害物あり」を示す信号と当該障害物の位置とを、運転支援制御部20へ送信する。本実施形態では、障害物認識装置60は、「暫定的障害物あり」と判断した場合には、「障害物あり」を示す信号と、当該障害物の位置とを、運転支援制御部20へ送信する。障害物認識装置60は、「障害物なし」と判断した場合には、運転支援制御部20に対し、信号を送信しなくともよいし、「障害物なし」を示す信号と障害物がない範囲とを送信してもよい。 The obstacle recognition device 60 transmits the recognition result by the obstacle recognition device 60 to the driving support control unit 20. The obstacle recognition device 60 is configured to be able to acquire the position of the obstacle from the detection result of the sensor unit 30, and when it is determined that there is an "obstacle", the signal indicating "there is an obstacle" and the corresponding object. The position of the obstacle is transmitted to the driving support control unit 20. In the present embodiment, when the obstacle recognition device 60 determines that "there is a temporary obstacle", the signal indicating "there is an obstacle" and the position of the obstacle are transmitted to the driving support control unit 20. Send. When the obstacle recognition device 60 determines that there is no obstacle, it does not have to transmit a signal to the driving support control unit 20, and there is no obstacle and a signal indicating "no obstacle". And may be sent.

運転支援センター200は、サーバ250と、サーバ250に接続された表示部210とを備える。サーバ250は、CPUとメモリと信号の送受信を行う入出力インターフェースと、格納部240と、を備える。CPUは、メモリに記憶されたプログラムを展開して実行することにより、修正部220、学習部230、更新部245として機能する。 The driving support center 200 includes a server 250 and a display unit 210 connected to the server 250. The server 250 includes a CPU, a memory, an input / output interface for transmitting and receiving signals, and a storage unit 240. The CPU functions as a correction unit 220, a learning unit 230, and an update unit 245 by expanding and executing a program stored in the memory.

表示部210は、サーバ250から出力される種々の画像やテキスト等を表示する。また、表示部210は、指やペンによる運転支援センター200の管理者等からのタッチ操作を受け付ける受付部としても機能する。表示部210の受け付け結果は、サーバ250に送信される。 The display unit 210 displays various images, texts, and the like output from the server 250. The display unit 210 also functions as a reception unit that receives a touch operation from the administrator of the driving support center 200 with a finger or a pen. The acceptance result of the display unit 210 is transmitted to the server 250.

修正部220は、「暫定的障害物あり」に対応する、撮像装置の撮像結果と尤度算出部40の算出結果とを取得する。修正部220は、「暫定的障害物あり」を、「障害物なし」又は「障害物あり」に修正する。修正は、メモリに記憶された物標と障害物との対応関係と、撮像結果に現れる物標と、の類似度を用いて行われる。修正部220は、撮像結果に現れる物標と、上記対応関係における障害物を示す物標と、の類似度を判断可能に構成されており、類似度が予め定められた閾値以上である場合に、撮像結果に現れる物標を障害物であると判断する。修正部220は、判断部50による「暫定的障害物あり」の判断を修正すると、修正結果を障害物認識装置60に送信する。 The correction unit 220 acquires the image pickup result of the image pickup apparatus and the calculation result of the likelihood calculation unit 40 corresponding to "there is a provisional obstacle". The correction unit 220 corrects "with provisional obstacles" to "without obstacles" or "with obstacles". The correction is performed using the degree of similarity between the correspondence between the target stored in the memory and the obstacle and the target appearing in the imaging result. The correction unit 220 is configured to be able to determine the degree of similarity between the target appearing in the image pickup result and the target indicating an obstacle in the above-mentioned correspondence relationship, and when the degree of similarity is equal to or higher than a predetermined threshold value. , The target appearing in the imaging result is judged to be an obstacle. When the correction unit 220 corrects the judgment of "there is a provisional obstacle" by the judgment unit 50, the correction unit 220 transmits the correction result to the obstacle recognition device 60.

格納部240は、「暫定的障害物あり」に対応する、センサ部30の検出結果と尤度算出部40の算出結果と、修正部220による「暫定的障害物あり」を修正した修正結果と、を教師あり学習のためのデータとして格納する。格納部240は、教師あり学習のためのデータを蓄積するデータベースでもある。 The storage unit 240 includes the detection result of the sensor unit 30 and the calculation result of the likelihood calculation unit 40 corresponding to the "provisional obstacle", and the correction result of the correction unit 220 correcting the "provisional obstacle". , Is stored as data for supervised learning. The storage unit 240 is also a database for accumulating data for supervised learning.

学習部230は、格納部240のデータを用いて教師あり学習を実行することで、合成尤度算出ロジックを再構築する。更新部245は、学習の結果を用いて、尤度算出部40の合成尤度算出ロジックを更新する。 The learning unit 230 reconstructs the synthetic likelihood calculation logic by executing supervised learning using the data of the storage unit 240. The update unit 245 updates the composite likelihood calculation logic of the likelihood calculation unit 40 using the learning result.

<障害物認識処理>
図2及び図3に示す障害物認識処理は、障害物認識システム10がオンである間、繰り返し実行される。
<Obstacle recognition processing>
The obstacle recognition process shown in FIGS. 2 and 3 is repeatedly executed while the obstacle recognition system 10 is on.

まず、車両100側の処理について説明する。図2に示すように、尤度算出部40は、センサ部30の検出結果を用いて、車両100の進行方向に障害物が存在する尤度を算出する(ステップS10)。 First, the processing on the vehicle 100 side will be described. As shown in FIG. 2, the likelihood calculation unit 40 calculates the likelihood that an obstacle exists in the traveling direction of the vehicle 100 by using the detection result of the sensor unit 30 (step S10).

図4に示すように、第1センサ31は、物標S1、S2、S3、S4と、白線、白破線、黄線などのレーンマーカの位置m1と、を検出する。図5に示すように、第1尤度算出部41は、第1センサ31の検出結果を複数の領域にわけて、領域ごとに第1尤度を算出する。具体的には、第1尤度算出部41は、検出結果における各画素を分割格子に割り当てて格子ごとに第1尤度を算出する、セマンティックセグメンテーションを実行する。格子の数は、センサ部30の検出感度に応じて定められてもよい。ここで、物標S1は紙であり、物標S2、S4は車両であり、物標S3は人物であるが、第1尤度算出部41の尤度算出ロジックでは、物標S2、S4についてその形状から車両と認識し、第1尤度を第1閾値X以上と算出し、物標S1、S3の存在する格子については第1尤度を中間値とするものとする。 As shown in FIG. 4, the first sensor 31 detects the targets S1, S2, S3, S4 and the position m1 of the lane marker such as the white line, the white broken line, and the yellow line. As shown in FIG. 5, the first likelihood calculation unit 41 divides the detection result of the first sensor 31 into a plurality of regions and calculates the first likelihood for each region. Specifically, the first likelihood calculation unit 41 executes semantic segmentation in which each pixel in the detection result is assigned to the divided grid and the first likelihood is calculated for each grid. The number of grids may be determined according to the detection sensitivity of the sensor unit 30. Here, the target S1 is paper, the target S2 and S4 are vehicles, and the target S3 is a person. However, in the likelihood calculation logic of the first likelihood calculation unit 41, the target S2 and S4 are described. It is recognized as a vehicle from the shape, the first likelihood is calculated as the first threshold value X or more, and the first likelihood is set as an intermediate value for the grid in which the targets S1 and S3 are present.

同様に、第2尤度算出部42は、第2センサ32の検出結果を図6に示すように格子分割して、格子ごとに第2尤度を算出する。第3尤度算出部43は、第3センサ33の検出結果を図7に示すように格子分割して、格子ごとに第3尤度を算出する。 Similarly, the second likelihood calculation unit 42 divides the detection result of the second sensor 32 into grids as shown in FIG. 6, and calculates the second likelihood for each grid. The third likelihood calculation unit 43 divides the detection result of the third sensor 33 into grids as shown in FIG. 7, and calculates the third likelihood for each grid.

センサ部30は、図8に示すように、車両100の進行方向の所定範囲における物標S1、S2、S3、S4を検出可能であり、第1尤度算出部41、第2尤度算出部42、第3尤度算出部43により算出される第1尤度、第2尤度、第3尤度は、車両100の進行方向の所定範囲における尤度である。本実施形態では、尤度算出部40は、図8に矢印で示す進行方向における垂直断面のうち、物標が検出された1つの垂直断面において、合成尤度を算出する。本実施形態では、尤度算出部40は、物標S1、S2、S3が存在する距離Dst_1における垂直断面において合成尤度を算出する。距離Dst_1における垂直断面は、物標が検出された垂直断面のうち、車両100に最も近い垂直断面である。尤度算出部40は、距離Dst_1における垂直断面の合成尤度を算出した後、物標S4が存在する距離Dst_2における垂直断面の合成尤度を算出してもよい。 As shown in FIG. 8, the sensor unit 30 can detect the targets S1, S2, S3, and S4 in a predetermined range in the traveling direction of the vehicle 100, and the first likelihood calculation unit 41 and the second likelihood calculation unit. 42, the first likelihood, the second likelihood, and the third likelihood calculated by the third likelihood calculation unit 43 are the likelihoods in a predetermined range in the traveling direction of the vehicle 100. In the present embodiment, the likelihood calculation unit 40 calculates the composite likelihood in one of the vertical cross sections in the traveling direction indicated by the arrow in FIG. 8 in which the target is detected. In the present embodiment, the likelihood calculation unit 40 calculates the combined likelihood in the vertical cross section at the distance Dst_1 where the targets S1, S2, and S3 exist. The vertical cross section at the distance Dst_1 is the vertical cross section closest to the vehicle 100 among the vertical cross sections in which the target is detected. The likelihood calculation unit 40 may calculate the composite likelihood of the vertical cross section at the distance Dst_1 and then calculate the composite likelihood of the vertical cross section at the distance Dst_1 where the target S4 exists.

判断部50は、尤度算出部40により算出された合成尤度を取得し、合成尤度が第1閾値X以下である場合に「障害物なし」と判断し、合成尤度が第2閾値Y以上である場合に「障害物あり」と判断し、合成尤度が中間値である場合に「暫定的障害物あり」と判断する(図2、ステップS15)。 The determination unit 50 acquires the composite likelihood calculated by the likelihood calculation unit 40, determines that there is no obstacle when the composite likelihood is equal to or less than the first threshold value X, and determines that the composite likelihood is the second threshold value. If it is Y or more, it is determined that there is an obstacle, and if the composite likelihood is an intermediate value, it is determined that there is a provisional obstacle (FIG. 2, step S15).

図9に示すように、尤度算出部40は、第1尤度算出部41、第2尤度算出部42、第3尤度算出部43により算出された各尤度を、距離Dst_1における垂直断面で合成する。尤度算出部40は、各センサの検出時における車両100の状況と、各尤度算出部の各尤度に乗算される係数と、の関係を規定する、予め定められた合成尤度算出ロジックを用いて合成尤度を算出する。各センサの検出時における車両100の状況とは、例えば、時間、天候である。合成尤度算出ロジックは、例えば、ある時間帯や天候において検出感度が低下するセンサについて、当該センサの検出結果に対応する尤度が、他のセンサの検出結果に対応する尤度よりも重み付けが小さくなるように規定されていてもよい。 As shown in FIG. 9, the likelihood calculation unit 40 sets each likelihood calculated by the first likelihood calculation unit 41, the second likelihood calculation unit 42, and the third likelihood calculation unit 43 vertically at the distance Dst_1. Synthesize in cross section. The likelihood calculation unit 40 defines a predetermined synthetic likelihood calculation logic that defines the relationship between the situation of the vehicle 100 at the time of detection of each sensor and the coefficient multiplied by each likelihood of each likelihood calculation unit. Is used to calculate the composite likelihood. The situation of the vehicle 100 at the time of detection by each sensor is, for example, time and weather. In the combined likelihood calculation logic, for example, for a sensor whose detection sensitivity decreases in a certain time zone or weather, the likelihood corresponding to the detection result of the sensor is weighted more than the likelihood corresponding to the detection result of another sensor. It may be specified to be smaller.

図9に示す格子S2bは、距離Dst_1における物標S2に対応しており、「障害物あり」と判断されている。格子S1b、S3bは、物標S1、S3にそれぞれ対応しており、「暫定的障害物あり」と判断されている。それ以外の格子については、「障害物なし」と判断されている。なお、図4~8に示す物標S4は、距離Dst_2における垂直断面に位置するので、図9には現れていない。 The grid S2b shown in FIG. 9 corresponds to the target S2 at the distance Dst_1, and is determined to have “obstacles”. The grids S1b and S3b correspond to the targets S1 and S3, respectively, and are determined to have "provisional obstacles". The other grids are judged to be "no obstacles". Since the target S4 shown in FIGS. 4 to 8 is located in the vertical cross section at the distance Dst_2, it does not appear in FIG.

尤度中間値の格子がある場合、すなわち、判断部50により「暫定的障害物あり」と判断された格子がある場合には(図2、ステップS20)、障害物認識装置60は、サーバ250へ接続要求を示す信号を送信する(ステップS40)。 If there is a grid of intermediate likelihood values, that is, if there is a grid that is determined by the determination unit 50 to have "provisional obstacles" (FIG. 2, step S20), the obstacle recognition device 60 is the server 250. A signal indicating a connection request is transmitted to (step S40).

運転支援制御部20は、障害物認識装置60により「暫定的障害物あり」と判断がされて、「障害物あり」を示す信号と当該障害物の位置とを受信した場合に、運転支援が継続可能か否かを判断する(ステップS50)。運転支援が継続可能な場合とは、例えば、障害物として判断された物標の予め定められた期間経過後までの挙動が、当該物標の向きや車両100に対する相対速度から予測できる場合である。運転支援継続が不可能である場合とは、例えば、障害物として判断された物標の予め定められた期間経過後までの挙動が予測できない場合である。障害物認識装置60により「暫定的障害物あり」と判断がされて、「障害物あり」を示す信号と当該障害物の位置とを運転支援制御部20が受信した場合には、ステップS50が否定判定される可能性がある。ステップS50がNOである場合、運転支援制御部20は、運転支援継続が不可能であることを示す信号を障害物認識装置60に送信する。 When the obstacle recognition device 60 determines that there is a "temporary obstacle" and receives a signal indicating "there is an obstacle" and the position of the obstacle, the driving support control unit 20 provides driving support. It is determined whether or not it can be continued (step S50). The case where driving support can be continued is, for example, a case where the behavior of a target determined as an obstacle until after a predetermined period has elapsed can be predicted from the direction of the target and the relative speed with respect to the vehicle 100. .. The case where it is impossible to continue driving support is, for example, a case where the behavior of a target determined as an obstacle cannot be predicted until after a predetermined period of time has elapsed. When the obstacle recognition device 60 determines that "there is a temporary obstacle" and the driving support control unit 20 receives the signal indicating "there is an obstacle" and the position of the obstacle, step S50 is performed. There is a possibility that it will be judged negative. When the step S50 is NO, the driving support control unit 20 transmits a signal indicating that the driving support cannot be continued to the obstacle recognition device 60.

運転支援継続が不可能である信号を受信すると、障害物認識装置60は、サーバ250の修正部220による修正結果を受信するまで待機する(ステップS60、NO)。運転支援制御部20は、待機中は、車両100を停車させてもよい。あるいは、運転支援制御部20は、自動運転機能を一時的にオフして、自動運転機能のオフを車両100の乗員に報知してもよい。 Upon receiving the signal that the driving support cannot be continued, the obstacle recognition device 60 waits until the correction result by the correction unit 220 of the server 250 is received (step S60, NO). The driving support control unit 20 may stop the vehicle 100 while waiting. Alternatively, the driving support control unit 20 may temporarily turn off the automatic driving function and notify the occupants of the vehicle 100 that the automatic driving function is turned off.

障害物認識装置60は、サーバ250から修正結果を受信した場合には、その修正結果に従い、「障害物あり」又は「障害物なし」を示す信号と当該障害物の位置とを、運転支援制御部20に送信する。尤度中間値の格子がない場合や(ステップS20、NO)、尤度中間値の格子があっても運転支援が継続可能な場合(ステップS50、YES)、あるいは、修正結果を受信した場合には(ステップS60、YES)、運転支援制御部20は、障害物認識装置60から送信された、例えば、「障害物あり」を示す情報と、当該障害物の位置情報と、を用いて運転支援制御を実行する(ステップS80)。 When the obstacle recognition device 60 receives the correction result from the server 250, the obstacle recognition device 60 controls the operation support control of the signal indicating "with obstacle" or "without obstacle" and the position of the obstacle according to the correction result. It is transmitted to the unit 20. When there is no grid of intermediate likelihood values (step S20, NO), when driving support can be continued even if there is a grid of intermediate likelihood values (step S50, YES), or when the correction result is received. (Step S60, YES), the driving support control unit 20 uses, for example, the information indicating “there is an obstacle” and the position information of the obstacle transmitted from the obstacle recognition device 60 to support driving. Control is executed (step S80).

次に、サーバ250側の処理について説明する。図3に示すように、サーバ250は、障害物認識装置60から接続要求があった場合には(ステップS100、YES)、修正準備を実行する(ステップS110)。修正準備とは、例えば、障害物認識装置60から、「暫定的障害物あり」に対応する、撮像装置の撮像結果と尤度算出部40の算出結果とを取得することである。ステップS110において、サーバ250は、さらに、運転支援センター200の監視員を呼び出してもよい。 Next, the processing on the server 250 side will be described. As shown in FIG. 3, when there is a connection request from the obstacle recognition device 60 (step S100, YES), the server 250 executes correction preparation (step S110). The correction preparation is, for example, to acquire the image pickup result of the image pickup device and the calculation result of the likelihood calculation unit 40 corresponding to "there is a provisional obstacle" from the obstacle recognition device 60. In step S110, the server 250 may further call the observer of the driving support center 200.

修正部220は、物標と障害物との対応関係を用いて、判断部50による「暫定的障害物あり」を修正する(ステップS120)。修正部220は、撮像結果と図9に示す位置m1が一致するように、撮像結果と合成尤度とを重ね合わせる。修正部220は、「暫定的障害物あり」と判断された格子の物標と上記の対応関係における物標との類似度が予め定められた閾値以上である場合に、「暫定的障害物あり」と判断された格子を「障害物あり」に修正する。修正部220は、当該類似度が閾値未満である場合に、「暫定的障害物あり」と判断された格子を「障害物なし」に修正する。 The correction unit 220 corrects "there is a provisional obstacle" by the judgment unit 50 by using the correspondence relationship between the target and the obstacle (step S120). The correction unit 220 superimposes the image pickup result and the composite likelihood so that the image pickup result and the position m1 shown in FIG. 9 match. The correction unit 220 has a "provisional obstacle" when the similarity between the grid target determined to be "provisional obstacle" and the target in the above correspondence is equal to or higher than a predetermined threshold value. Correct the grid determined to be "with obstacles". When the similarity is less than the threshold value, the correction unit 220 corrects the grid determined to have "provisional obstacles" to "no obstacles".

なお、修正部220は、撮像結果と、図9に示す合成尤度とを重ね合わせた画像を、表示部210に表示してもよい。監視員は、予め定められた物標と障害物との対応関係と、撮像結果に現れる物標と、の類似度を判断し、「暫定的障害物あり」と判断された格子について、表示部210を用いて修正してもよい。修正部220は監視員による修正結果を取得して、監視員による修正結果を修正部220による修正結果と位置づけてもよい。 The correction unit 220 may display an image in which the imaging result and the composite likelihood shown in FIG. 9 are superimposed on the display unit 210. The observer judges the similarity between the predetermined correspondence between the target and the obstacle and the target appearing in the imaging result, and displays the grid that is judged to have "provisional obstacle". It may be modified using 210. The correction unit 220 may acquire the correction result by the observer and position the correction result by the observer as the correction result by the correction unit 220.

図9に示された尤度合成結果と、図10に示された修正部220による修正結果とを比較すると、「暫定的障害物あり」と判断された格子S1bは、修正部220により「障害物なし」に修正され、「暫定的障害物あり」と判断された格子S3bは、「障害物あり」に修正されている。格子S3bについては、修正部220により、さらに、「第1挙動」を示す属性が付与されている。第1挙動とは、予め定められた期間経過後の障害物の挙動予測が、他の障害物に比べて困難な挙動である。例えば、障害物が車両である場合には、当該車両の向き、車両の速度等から、予め定められた期間経過後の位置予測が可能である。しかし、障害物が人や動物、走行中の自転車である場合には、向きや速度から、予め定められた期間経過後の位置予測が車両よりも困難である。修正部220は、メモリに記憶された障害物と属性との対応関係を参照し、このような障害物に対しては、解釈が特に必要な障害物として属性を付与する。 Comparing the likelihood synthesis result shown in FIG. 9 with the correction result by the correction unit 220 shown in FIG. 10, the lattice S1b determined to have "provisional obstacles" is "disordered" by the correction unit 220. The grid S3b, which has been corrected to "no object" and determined to have "provisional obstacles", has been corrected to "with obstacles". The lattice S3b is further provided with an attribute indicating "first behavior" by the correction unit 220. The first behavior is a behavior in which it is more difficult to predict the behavior of an obstacle after a predetermined period of time has elapsed, as compared with other obstacles. For example, when the obstacle is a vehicle, it is possible to predict the position after a predetermined period has elapsed from the direction of the vehicle, the speed of the vehicle, and the like. However, when the obstacle is a person, an animal, or a running bicycle, it is more difficult to predict the position after a predetermined period from the direction and speed than the vehicle. The correction unit 220 refers to the correspondence between the obstacle and the attribute stored in the memory, and assigns the attribute to such an obstacle as an obstacle that needs special interpretation.

修正が完了すると、修正部220は、修正の結果を障害物認識装置60に送信する(ステップS130)。障害物認識装置60では、修正の結果を受信すると、上述したステップS60~ステップS80(図2)の処理が実行される。 When the correction is completed, the correction unit 220 transmits the correction result to the obstacle recognition device 60 (step S130). When the obstacle recognition device 60 receives the correction result, the above-mentioned processes of steps S60 to S80 (FIG. 2) are executed.

また、修正が完了すると、格納部240は、センサ部30の検出結果と尤度算出部40の算出結果と、修正部220による「暫定的障害物あり」の修正結果と、を教師あり学習のためのデータとして格納する(ステップS140)。 Further, when the correction is completed, the storage unit 240 supervisedly learns the detection result of the sensor unit 30, the calculation result of the likelihood calculation unit 40, and the correction result of "provisional obstacle" by the correction unit 220. It is stored as data for (step S140).

<学習処理>
次に、障害物認識システム10において実行される学習処理について説明する。学習処理は、上記の障害物認識処理と平行して繰り返し実行される。図11に示すように、学習部230は、学習のタイミングであるか否かを判断する(ステップS200)。学習のタイミングとは、例えば、格納部240に新たに格納されたデータが所定数以上となったタイミングや、前回の学習から所定時間経過したタイミングである。学習のタイミングは、属性が付与されたデータが格納されたタイミングであってもよい。
<Learning process>
Next, the learning process executed in the obstacle recognition system 10 will be described. The learning process is repeatedly executed in parallel with the above-mentioned obstacle recognition process. As shown in FIG. 11, the learning unit 230 determines whether or not it is the learning timing (step S200). The learning timing is, for example, a timing when the number of data newly stored in the storage unit 240 becomes a predetermined number or more, or a timing when a predetermined time has elapsed from the previous learning. The learning timing may be the timing at which the data to which the attribute is attached is stored.

学習のタイミングである場合には(ステップS200、YES)、学習部230は、格納部240のデータを用いて教師あり学習を実行する(ステップS210)。具体的には、学習部230は、「暫定的障害物あり」が「障害物なし」に修正された場合に、「暫定的障害物あり」に対応する尤度算出部40の算出結果が第1閾値X以下となるように、また、「暫定的障害物あり」が「障害物あり」に修正された場合に、「暫定的障害物あり」に対応する尤度算出部40の算出結果が第2閾値Y以上となるように、合成尤度算出ロジックを再構築する。 When it is the learning timing (step S200, YES), the learning unit 230 executes supervised learning using the data of the storage unit 240 (step S210). Specifically, in the learning unit 230, when "with provisional obstacle" is corrected to "without obstacle", the calculation result of the likelihood calculation unit 40 corresponding to "with provisional obstacle" is the first. The calculation result of the likelihood calculation unit 40 corresponding to "provisional obstacle" is obtained so that the threshold value is X or less, and when "provisional obstacle" is corrected to "provisional obstacle". The composite likelihood calculation logic is reconstructed so as to be equal to or higher than the second threshold value Y.

学習部230により学習が行われると、更新部245は、更新のタイミングであるか否かを判断する(ステップS220)。更新のタイミングは、例えば、サーバ250が障害物認識装置60と通信可能なタイミングである。更新のタイミングは、運転支援制御部20による運転支援機能がオフであるタイミングであってもよい。あるいは、運転支援制御部20による運転支援機能がオンであり、車両100が停車しているタイミングであってもよい。 When learning is performed by the learning unit 230, the update unit 245 determines whether or not it is the update timing (step S220). The update timing is, for example, the timing at which the server 250 can communicate with the obstacle recognition device 60. The update timing may be the timing when the driving support function by the driving support control unit 20 is turned off. Alternatively, the driving support function by the driving support control unit 20 may be turned on and the vehicle 100 may be stopped at the timing.

更新のタイミングである場合には(ステップS220、YES)、更新部245は、学習部230により再構築された合成尤度算出ロジックを障害物認識装置60に配信して、尤度算出部40の合成尤度算出ロジックを更新する(ステップS230)。サーバ250と通信可能な車両100が複数存在する場合には、更新部245は、複数の車両100に対し更新結果を配信してもよい。 When it is the update timing (step S220, YES), the update unit 245 distributes the synthetic likelihood calculation logic reconstructed by the learning unit 230 to the obstacle recognition device 60, and the likelihood calculation unit 40 The composite likelihood calculation logic is updated (step S230). When there are a plurality of vehicles 100 capable of communicating with the server 250, the update unit 245 may deliver the update result to the plurality of vehicles 100.

学習タイミングでない場合や(ステップS200、NO)、更新タイミングでない場合には(ステップS220、NO)、サーバ250は、学習(ステップS210)、あるいは、更新(ステップS230)を行わず、処理をステップS200に戻す。 If it is not the learning timing (step S200, NO), or if it is not the update timing (step S220, NO), the server 250 does not perform learning (step S210) or update (step S230), and processes in step S200. Return to.

学習による効果について説明する。図12の縦軸は合成尤度であり、横軸は格子位置である。図12に示すように、ある位置において検出された物標について、学習前は、第1閾値Xより大きく第2閾値Yより小さい合成尤度が算出されていても、学習が進むにつれ、第1閾値X以下の合成尤度、あるいは、第2閾値Y以上の合成尤度が算出されるようになる。 The effect of learning will be explained. The vertical axis of FIG. 12 is the composite likelihood, and the horizontal axis is the grid position. As shown in FIG. 12, for the target detected at a certain position, even if the synthetic likelihood that is larger than the first threshold value X and smaller than the second threshold value Y is calculated before learning, the first is as the learning progresses. The synthetic likelihood of the threshold value X or less or the synthetic likelihood of the second threshold value Y or more is calculated.

図13の縦軸は合成尤度であり、横軸は合成尤度出現率である。図13に示すように、学習が進むにつれ、第1閾値Xより大きく第2閾値Yより小さい合成尤度の出現率は減少し、第1閾値X以上、あるいは、第2閾値Y以上の合成尤度の出現率が増加する。 The vertical axis of FIG. 13 is the composite likelihood, and the horizontal axis is the composite likelihood appearance rate. As shown in FIG. 13, as the learning progresses, the appearance rate of the synthetic likelihood larger than the first threshold value X and smaller than the second threshold value Y decreases, and the synthetic likelihood of the first threshold value X or more or the second threshold value Y or more decreases. The appearance rate of degrees increases.

この形態によれば、尤度が第1閾値Xよりも大きく第2閾値Yよりも小さい場合に暫定的障害物ありと判断するので、障害物の認識における安全性を高めることができる。また、暫定的障害物ありと判断された場合の撮像結果及び尤度算出結果を取得して修正するので、撮像結果及び尤度算出結果の全てを取得する場合と比べて、障害物認識装置60とサーバ250との通信負荷を軽減することができる。また、格納部240には、暫定的障害物ありと判断された場合の検出結果と尤度算出結果と、暫定的障害物ありの修正結果と、が格納されるので、障害物の認識精度を向上させるための学習データを効率的に収集することができる。さらに、暫定的障害物ありと判断された場合のデータを用いて教師あり学習を行うので、疑わしいデータ、例えば発生頻度が低いために、尤度算出部40における初期の尤度算出ロジックに考慮されていなかったシーンのデータを効率的に学習することができる。また、再構築された尤度算出ロジックによって、障害物認識装置60の尤度算出ロジックが更新されるので、障害物認識装置60において暫定的障害物ありと判断される頻度を減少させて、障害物の認識精度を向上させることができる。 According to this embodiment, when the likelihood is larger than the first threshold value X and smaller than the second threshold value Y, it is determined that there is a provisional obstacle, so that the safety in recognizing the obstacle can be enhanced. Further, since the imaging result and the likelihood calculation result when it is determined that there is a temporary obstacle are acquired and corrected, the obstacle recognition device 60 is compared with the case where all the imaging results and the likelihood calculation results are acquired. And the communication load between the server 250 and the server 250 can be reduced. Further, since the storage unit 240 stores the detection result and the likelihood calculation result when it is determined that there is a provisional obstacle, and the correction result with the provisional obstacle, the recognition accuracy of the obstacle can be determined. It is possible to efficiently collect learning data for improvement. Furthermore, since supervised learning is performed using the data when it is determined that there is a provisional obstacle, suspicious data, for example, because the frequency of occurrence is low, is considered in the initial likelihood calculation logic in the likelihood calculation unit 40. It is possible to efficiently learn the data of the scenes that did not exist. Further, since the likelihood calculation logic of the obstacle recognition device 60 is updated by the reconstructed likelihood calculation logic, the frequency of determining that there is a provisional obstacle in the obstacle recognition device 60 is reduced, and the failure is reduced. It is possible to improve the recognition accuracy of an object.

また、上記形態によれば、各センサの尤度から合成尤度を算出し、合成尤度を用いて判断を行うので、障害物認識装置60における障害物の認識精度を向上させることができる。 Further, according to the above embodiment, since the composite likelihood is calculated from the likelihood of each sensor and the judgment is made using the composite likelihood, the obstacle recognition accuracy in the obstacle recognition device 60 can be improved.

また、上記形態によれば、修正部220は、分割された領域のうち、「暫定的障害物あり」と判断された領域について修正を行うので、修正にかかる負荷を軽減することができる。 Further, according to the above embodiment, the correction unit 220 corrects the divided area in the area determined to have "provisional obstacle", so that the load on the correction can be reduced.

また、上記形態によれば、尤度算出ロジックを構築するための教師ありデータを格納するデータベースを、効率的に構築することができる。 Further, according to the above embodiment, it is possible to efficiently construct a database for storing supervised data for constructing the likelihood calculation logic.

・他の実施形態1
上記形態において、学習部230は、格納部240に格納されたデータのうち、属性が付与されたデータに重み付けを行って教師あり学習を行ってもよい。
-Other embodiment 1
In the above embodiment, the learning unit 230 may perform supervised learning by weighting the data to which the attribute is given among the data stored in the storage unit 240.

この形態によれば、例えば、第1挙動である障害物については重み付けがされて教師あり学習がされるので、挙動予測がしづらい障害物についての学習効率を向上させることができ、障害物認識装置60における障害物の認識精度を向上させることができる。 According to this form, for example, since the obstacle which is the first behavior is weighted and supervised learning is performed, it is possible to improve the learning efficiency for the obstacle whose behavior is difficult to predict, and it is possible to recognize the obstacle. It is possible to improve the recognition accuracy of obstacles in the device 60.

・他の実施形態2
上記形態において、センサ部30は複数のセンサから構成され、尤度算出部40は各センサの尤度を合成し、判断部50は合成尤度を用いて上記判断を行っている。これに対し、センサ部30が1つのセンサから構成される場合には、判断部50は1つの尤度を用いて上記判断を行ってもよい。学習部230は、合成尤度算出ロジックに代え、尤度算出ロジックを再構築してもよい。
-Other embodiment 2
In the above embodiment, the sensor unit 30 is composed of a plurality of sensors, the likelihood calculation unit 40 synthesizes the likelihood of each sensor, and the determination unit 50 makes the above determination using the combined likelihood. On the other hand, when the sensor unit 30 is composed of one sensor, the determination unit 50 may make the above determination using one likelihood. The learning unit 230 may reconstruct the likelihood calculation logic instead of the synthetic likelihood calculation logic.

・他の実施形態3
上記形態において、学習部230は、合成尤度算出ロジックと各センサの尤度算出ロジックとを再構築してもよい。
-Other embodiment 3
In the above embodiment, the learning unit 230 may reconstruct the combined likelihood calculation logic and the likelihood calculation logic of each sensor.

・他の実施形態4
上記形態において、運転支援センター200では、学習部230により再構築された尤度算出ロジックを障害物認識装置60に送信する前に、再構築された尤度算出ロジックで障害物認識を行う場合の安全性を確認するための試験が実行されてもよい。試験は、シミュレーション装置や、尤度算出ロジックが更新された障害物認識装置60を備える試験用車両を用いて行ってもよい。
-Other embodiment 4
In the above embodiment, in the driving support center 200, the obstacle recognition is performed by the reconstructed likelihood calculation logic before the likelihood calculation logic reconstructed by the learning unit 230 is transmitted to the obstacle recognition device 60. Tests may be performed to confirm safety. The test may be performed using a simulation device or a test vehicle equipped with an obstacle recognition device 60 having an updated likelihood calculation logic.

・他の実施形態5
上記形態では、移動装置として車両100を挙げたが、移動機能を有すれば、他の車両(例えば、二輪車)でもよいし、ドローンやロボットでもよい。ロボットの場合、例えば、自動車のように車輪で路面に接地してもよいし、2足歩行するタイプでもよい。
-Other embodiment 5
In the above embodiment, the vehicle 100 is mentioned as the moving device, but other vehicles (for example, two-wheeled vehicles), drones, and robots may be used as long as they have a moving function. In the case of a robot, for example, it may be grounded on the road surface with wheels such as an automobile, or it may be a type that walks on two legs.

・他の実施形態6
上記形態では、尤度算出部40は、車両100の進行方向に対する垂直断面のうち、物標が検出された1つの垂直断面において尤度を算出している。これに対し、尤度算出部40は、進行方向の所定の距離範囲における尤度を算出し、修正部220は、撮像装置の撮像結果を用いて垂直断面を選択し、尤度算出部40の算出結果のうち、垂直断面に対応する尤度を取得して、「暫定的障害物あり」を修正してもよい。
-Other embodiment 6
In the above embodiment, the likelihood calculation unit 40 calculates the likelihood in one vertical cross section in which a target is detected among the vertical cross sections of the vehicle 100 with respect to the traveling direction. On the other hand, the likelihood calculation unit 40 calculates the likelihood in a predetermined distance range in the traveling direction, and the correction unit 220 selects a vertical cross section using the image pickup result of the imaging device, and the likelihood calculation unit 40 Of the calculation results, the likelihood corresponding to the vertical cross section may be acquired and "there is a provisional obstacle" may be corrected.

本開示は、障害物認識システム10以外の種々の形態で実現することも可能である。例えば、障害物認識装置60、障害物認識方法、教師あり学習を行うためのデータを格納するデータベース構築方法、かかる方法を実現するためのコンピュータプログラム、かかるコンピュータプログラムを記憶した記憶媒体、障害物認識装置60を搭載した移動装置等の形態で実現することができる。また、上記実施形態において、ソフトウエアによって実現された機能及び処理の一部又は全部は、ハードウエアによって実現されてもよい。また、ハードウエアによって実現された機能及び処理の一部又は全部は、ソフトウエアによって実現されてもよい。ハードウエアとしては、例えば、集積回路、ディスクリート回路、又は、それらの回路を組み合わせた回路モジュールなど、各種回路を用いてもよい。 The present disclosure can also be realized in various forms other than the obstacle recognition system 10. For example, an obstacle recognition device 60, an obstacle recognition method, a database construction method for storing data for supervised learning, a computer program for realizing such a method, a storage medium for storing the computer program, and obstacle recognition. It can be realized in the form of a mobile device or the like equipped with the device 60. Further, in the above embodiment, some or all of the functions and processes realized by the software may be realized by the hardware. In addition, some or all of the functions and processes realized by the hardware may be realized by the software. As the hardware, various circuits such as an integrated circuit, a discrete circuit, or a circuit module combining these circuits may be used.

10 障害物認識システム、30 センサ部、40 尤度算出部、50 判断部、60 障害物認識装置、100 車両、220 修正部、230 学習部、240 格納部、245 更新部、250 サーバ 10 Obstacle recognition system, 30 Sensor unit, 40 Likelihood calculation unit, 50 Judgment unit, 60 Obstacle recognition device, 100 Vehicle, 220 Correction unit, 230 Learning unit, 240 Storage unit, 245 Update unit, 250 Server

Claims (8)

移動可能な移動装置(100)に搭載される障害物認識装置(60)と通信可能なサーバ(250)であって、
前記移動装置の進行方向における物標の検出結果に基づいて算出された、前記進行方向に障害物が存在する尤度が、前記障害物なしを示す第1閾値以下でも、前記障害物ありを示す前記第1閾値より大きな第2閾値以上でもなく、前記障害物ありと暫定的に判断することである暫定的障害物ありを示す、前記第1閾値より大きく前記第2閾値より小さな値になった場合に、前記検出結果と前記尤度の算出結果とを前記障害物認識装置から受信し、物標と前記障害物との対応関係と、前記検出結果における物標と、の類似度を用いて、前記暫定的障害物ありを、前記障害物なし又は前記障害物ありに修正する修正部(220)と、
前記障害物認識装置から受信した、前記暫定的障害物ありに対応する、前記検出結果および前記算出結果と、前記修正部による前記暫定的障害物ありの修正結果と、を教師あり学習のためのデータとして格納する格納部(240)と、
前記格納部に格納された前記教師あり学習のためのデータを用いて教師あり学習を行い、尤度算出ロジックを再構築する学習部(230)と、
前記尤度算出ロジックを、前記障害物認識装置に更新させる更新部(245)と、を備え、
前記修正部による修正結果と前記尤度算出ロジックとのうち少なくともいずれかを前記障害物認識装置に送信する、サーバ。
A server (250) capable of communicating with an obstacle recognition device (60) mounted on a mobile mobile device (100).
Even if the likelihood of the presence of an obstacle in the traveling direction calculated based on the detection result of the target in the traveling direction of the moving device is equal to or less than the first threshold value indicating that there is no obstacle, the presence of the obstacle is detected. It is not greater than or equal to the second threshold value larger than the first threshold value, and is larger than the first threshold value and smaller than the second threshold value, indicating that there is a provisional obstacle, which is to provisionally determine that there is an obstacle. In that case, the detection result and the calculation result of the likelihood are received from the obstacle recognition device, and the degree of similarity between the correspondence between the target and the obstacle and the target in the detection result is used. The correction unit (220) that corrects the provisional obstacle to the absence of the obstacle or the presence of the obstacle,
The detection result and the calculation result corresponding to the provisional obstacle presence received from the obstacle recognition device, and the correction result with the provisional obstacle by the correction unit, are supervised learning. A storage unit (240) for storing data and
A learning unit (230) that performs supervised learning using the data for supervised learning stored in the storage unit and reconstructs the likelihood calculation logic.
An update unit (245) for updating the likelihood calculation logic to the obstacle recognition device is provided.
A server that transmits at least one of the correction result by the correction unit and the likelihood calculation logic to the obstacle recognition device.
請求項に記載のサーバであって、
前記学習部は、前記暫定的障害物ありが前記障害物なしに修正された場合に、前記暫定的障害物ありに対応する算出結果が前記第1閾値以下となり、前記暫定的障害物ありが前記障害物ありに修正された場合に、前記暫定的障害物ありに対応する算出結果が前記第2閾値以上となるように、前記尤度算出ロジックを再構築する、サーバ。
The server according to claim 1 .
In the learning unit, when the provisional obstacle is corrected without the obstacle, the calculation result corresponding to the provisional obstacle is equal to or less than the first threshold value, and the provisional obstacle is present. A server that reconstructs the likelihood calculation logic so that the calculation result corresponding to the provisional obstacle is equal to or higher than the second threshold value when is corrected to have the obstacle.
請求項または請求項に記載のサーバであって、
前記対応関係は、さらに、予め定められた期間経過後の前記障害物の挙動が予め定められた第1挙動であるか否かを含み、
前記修正部は、さらに、前記暫定的障害物ありを前記障害物ありに修正した場合であって、かつ、前記暫定的障害物ありに対応する前記障害物の挙動が前記第1挙動である場合に、前記第1挙動を前記障害物の属性として付与し、
前記格納部は、さらに、前記属性が付与された前記教師あり学習のためのデータを格納し、
前記学習部は、前記属性が付与された前記教師あり学習のためのデータに重み付けをして前記教師あり学習を行う、サーバ。
The server according to claim 1 or 2 .
The correspondence further includes whether or not the behavior of the obstacle after the lapse of a predetermined period is the predetermined first behavior.
The correction unit further corrects the provisional obstacle to the obstacle, and the behavior of the obstacle corresponding to the provisional obstacle is the first behavior. The first behavior is given as an attribute of the obstacle.
The storage unit further stores the data for the supervised learning to which the attribute is given.
The learning unit is a server that weights the data for the supervised learning to which the attribute is given and performs the supervised learning.
移動可能な移動装置(100)に搭載されサーバ(250)と通信可能な障害物認識装置(60)であって、
前記移動装置の進行方向における物標の検出結果を取得して、前記進行方向に障害物が存在する尤度を、予め定められた尤度算出ロジックを用いて算出する尤度算出部(40)と、
前記尤度が第1閾値(X)以下である場合に前記障害物なしと判断し、前記尤度が前記第1閾値よりも大きい第2閾値(Y)以上である場合に前記障害物ありと判断し、前記尤度が前記第1閾値よりも大きく前記第2閾値よりも小さい場合に、前記障害物ありと暫定的に判断することである暫定的障害物ありと判断する、判断部(50)と、を備え、
前記判断部が前記暫定的障害物ありと判断した場合に、前記サーバに、前記検出結果と前記尤度算出部の算出結果とを送信し、
前記暫定的障害物ありという判断が前記障害物なし又は前記障害物ありに修正された修正結果を前記サーバから受信し、
前記検出結果と前記算出結果とを用いて再構築された尤度算出ロジックを前記サーバから受信し、前記尤度算出部が用いる尤度算出ロジックを前記サーバから受信した尤度算出ロジックに更新する、障害物認識装置。
An obstacle recognition device (60) mounted on a mobile mobile device (100) and capable of communicating with a server (250).
The likelihood calculation unit (40) that acquires the detection result of the target in the traveling direction of the moving device and calculates the likelihood that an obstacle exists in the traveling direction by using a predetermined likelihood calculation logic. )When,
When the likelihood is equal to or less than the first threshold value (X), it is determined that there is no obstacle, and when the likelihood is greater than or equal to the second threshold value (Y), the obstacle is present. Judgment unit (50) for determining that there is a provisional obstacle, which is to provisionally determine that there is an obstacle when the likelihood is larger than the first threshold value and smaller than the second threshold value. ) And,
When the determination unit determines that there is a provisional obstacle, the detection result and the calculation result of the likelihood calculation unit are transmitted to the server.
The server receives the correction result in which the determination that the provisional obstacle exists is corrected to the absence of the obstacle or the presence of the obstacle.
The likelihood calculation logic reconstructed using the detection result and the calculation result is received from the server, and the likelihood calculation logic used by the likelihood calculation unit is updated to the likelihood calculation logic received from the server. , Obstacle recognition device.
請求項に記載の障害物認識装置であって、
前記更新後の尤度算出ロジックは、前記更新前の尤度算出ロジックよりも、前記尤度が、前記第1閾値よりも大きく前記第2閾値よりも小さい値になりにくい、障害物認識装置。
The obstacle recognition device according to claim 4 .
The likelihood calculation logic after the update is an obstacle recognition device in which the likelihood is less likely to be a value larger than the first threshold value and smaller than the second threshold value than the likelihood calculation logic before the update.
請求項4または請求項5に記載の障害物認識装置であって、
前記判断部による判断結果に基づいて運転継続の可否を判断する制御部(20)を備え、
前記判断部が前記暫定的障害物ありと判断し、かつ、前記制御部が運転継続を不可能であると判断した場合に、前記修正結果を受信するまで、前記移動装置を停止させるか前記移動装置の自動運転機能をオフにする、障害物認識装置。
The obstacle recognition device according to claim 4 or 5 .
A control unit (20) for determining whether or not to continue operation is provided based on the determination result by the determination unit.
When the determination unit determines that there is a provisional obstacle and the control unit determines that the operation cannot be continued, the mobile device is stopped or the movement is stopped until the correction result is received. An obstacle recognition device that turns off the automatic operation function of the device.
請求項から請求項までのいずれか一項に記載の障害物認識装置であって、
前記検出結果は、前記進行方向における物標を検出する複数のセンサ(31、32、33)の検出結果であり、
前記尤度算出部は、前記複数のセンサごとに算出した前記尤度を合成し、
前記判断部は、合成された前記尤度を用いて前記判断を行う、障害物認識装置。
The obstacle recognition device according to any one of claims 4 to 6 .
The detection result is a detection result of a plurality of sensors (31, 32, 33) that detect a target in the traveling direction.
The likelihood calculation unit synthesizes the likelihood calculated for each of the plurality of sensors.
The determination unit is an obstacle recognition device that makes the determination using the synthesized likelihood.
請求項から請求項までのいずれか一項に記載の障害物認識装置であって、
前記尤度算出部は、前記進行方向に対する垂直断面のうち、物標が検出された垂直断面において、前記検出結果を複数の領域に分割して、分割された領域ごとに前記尤度を算出し、
前記判断部は、前記領域ごとに前記判断を行い、
前記複数の領域のうち、前記暫定的障害物ありと判断された領域の前記尤度を前記算出結果として前記サーバに送信する、障害物認識装置。
The obstacle recognition device according to any one of claims 4 to 7 .
The likelihood calculation unit divides the detection result into a plurality of regions in the vertical cross section in which the target is detected among the vertical cross sections with respect to the traveling direction, and calculates the likelihood for each of the divided regions. ,
The judgment unit makes the judgment for each area and makes the judgment.
An obstacle recognition device that transmits the likelihood of a region determined to have a provisional obstacle among the plurality of regions to the server as a calculation result.
JP2018047742A 2018-03-15 2018-03-15 Server, obstacle recognition device Active JP6996368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018047742A JP6996368B2 (en) 2018-03-15 2018-03-15 Server, obstacle recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047742A JP6996368B2 (en) 2018-03-15 2018-03-15 Server, obstacle recognition device

Publications (3)

Publication Number Publication Date
JP2019160003A JP2019160003A (en) 2019-09-19
JP2019160003A5 JP2019160003A5 (en) 2020-07-27
JP6996368B2 true JP6996368B2 (en) 2022-01-17

Family

ID=67994950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047742A Active JP6996368B2 (en) 2018-03-15 2018-03-15 Server, obstacle recognition device

Country Status (1)

Country Link
JP (1) JP6996368B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11327483B2 (en) * 2019-09-30 2022-05-10 Irobot Corporation Image capture devices for autonomous mobile robots and related systems and methods

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244194A (en) 2009-04-02 2010-10-28 Toyota Motor Corp Object identification device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244194A (en) 2009-04-02 2010-10-28 Toyota Motor Corp Object identification device

Also Published As

Publication number Publication date
JP2019160003A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
US10832063B2 (en) Systems and methods for detecting an object
US20220283591A1 (en) Systems and methods for navigating lane merges and lane splits
TWI814804B (en) Distance measurement processing apparatus, distance measurement module, distance measurement processing method, and program
US10332400B2 (en) Intra-lane travel control apparatus and intra-lane travel control method
US10562532B2 (en) Autonomous driving system
US20200003573A1 (en) Top-down refinement in lane marking navigation
US11016484B2 (en) Vehicle control apparatus and method for performing automatic driving control
JP6682833B2 (en) Database construction system for machine learning of object recognition algorithm
JP2022172153A (en) Vehicle navigation system, vehicle and program
US11631326B2 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
US11042999B2 (en) Advanced driver assist systems and methods of detecting objects in the same
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US10268204B2 (en) Cross traffic detection using cameras
JP2017138660A (en) Object detection method, object detection device and program
JP2020204804A (en) Image recognition device
US20200047751A1 (en) Cooperative vehicle safety system and method
JP2019067116A (en) Solid object ground discrimination device
US20220317269A1 (en) Signal processing device, signal processing method, and ranging module
KR20220117218A (en) Information processing apparatus, information processing system, information processing program and information processing method
JP6996368B2 (en) Server, obstacle recognition device
TW201945758A (en) Ranging processing device, ranging module, ranging processing method, and program
US11941889B2 (en) Advanced driver assist system and method of detecting object in the same
WO2020250526A1 (en) Outside environment recognition device
CN116892949A (en) Ground object detection device, ground object detection method, and computer program for ground object detection
JP4644590B2 (en) Peripheral vehicle position detection device and peripheral vehicle position detection method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R151 Written notification of patent or utility model registration

Ref document number: 6996368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151