JP7236835B2 - Output device and output method - Google Patents

Output device and output method Download PDF

Info

Publication number
JP7236835B2
JP7236835B2 JP2018183950A JP2018183950A JP7236835B2 JP 7236835 B2 JP7236835 B2 JP 7236835B2 JP 2018183950 A JP2018183950 A JP 2018183950A JP 2018183950 A JP2018183950 A JP 2018183950A JP 7236835 B2 JP7236835 B2 JP 7236835B2
Authority
JP
Japan
Prior art keywords
raw data
sensor detection
detection result
output
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018183950A
Other languages
Japanese (ja)
Other versions
JP2020051986A (en
Inventor
裕一 杉山
幸太郎 石本
利裕 松元
正幸 岸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Japan Automobile Research Institute Inc
Original Assignee
Denso Corp
Japan Automobile Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Japan Automobile Research Institute Inc filed Critical Denso Corp
Priority to JP2018183950A priority Critical patent/JP7236835B2/en
Publication of JP2020051986A publication Critical patent/JP2020051986A/en
Application granted granted Critical
Publication of JP7236835B2 publication Critical patent/JP7236835B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、出力装置および出力方法に関する。 The present invention relates to an output device and an output method.

従来、例えば、物標等といった周囲の状況をセンサで検出し、検出結果に基づいた車両制御を実行したり、検出した物標を運転者へ通知する等の技術がある。例えば、センサの検出結果は、人が理解できるようにするため、あるいは、後段の処理負荷を軽くするために、センサで検出される生データの情報量をある程度を削減する等の加工が施されて生成される場合がある。例えば、サンプリングレートやフレームレートを下げる、解像度を下げる、色数を減らす、フィルタをかける(周波数帯域の狭帯域化)、ダイナミックレンジの低減、軽い処理による判定処理結果化、等と言った処理が施される。 2. Description of the Related Art Conventionally, for example, there are technologies such as detecting a surrounding situation such as a target with a sensor, executing vehicle control based on the detection result, or notifying a driver of the detected target. For example, sensor detection results are processed, such as by reducing the amount of raw data detected by the sensor to some extent, in order to make it easier for humans to understand, or to lighten the processing load in the later stage. may be generated by For example, processing such as lowering the sampling rate or frame rate, lowering the resolution, reducing the number of colors, applying a filter (narrowing the frequency band), reducing the dynamic range, making judgment processing results by light processing, etc. applied.

特開2017-74887号公報JP 2017-74887 A

しかしながら、生データをある程度削減する等の加工により検出結果が生成された場合、人が理解できないような詳細な情報が削減されることで、センサの出力である検出結果に誤りが生じるおそれがあった。 However, if the detection results are generated by processing such as reducing the raw data to some extent, there is a risk that errors will occur in the detection results, which are the output of the sensor, due to the reduction of detailed information that cannot be understood by humans. rice field.

本発明は、上記に鑑みてなされたものであって、センサの出力の信頼性を高めることができる出力装置および出力方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an output device and an output method capable of improving the reliability of sensor output.

上述した課題を解決し、目的を達成するために、本発明に係る出力装置は、取得部と、判定部と、出力部とを備える。前記取得部は、センサ検出結果の加工前のデータである生データを取得する。前記判定部は、前記センサ検出結果の信頼性を判定する。前記出力部は、前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する。 In order to solve the above problems and achieve the object, an output device according to the present invention includes an acquisition section, a determination section, and an output section. The acquisition unit acquires raw data, which is data before processing of the sensor detection result. The determination unit determines reliability of the sensor detection result. The output unit outputs the raw data instead of the sensor detection result to a subsequent processing device when the determination unit determines that the reliability of the sensor detection result is low.

本発明によれば、センサの出力の信頼性を高めることができる。 According to the present invention, the reliability of sensor output can be enhanced.

図1は、実施形態に係る出力方法の概要を示す図である。FIG. 1 is a diagram showing an outline of an output method according to an embodiment. 図2は、実施形態に係る出力装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the output device according to the embodiment. 図3は、相関情報の一例を示す図である。FIG. 3 is a diagram showing an example of correlation information. 図4は、複数のセンサ間で比較する場合の処理内容を示す図である。FIG. 4 is a diagram showing the processing contents when comparing between a plurality of sensors. 図5は、実施形態に係る出力装置が実行する処理の処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure of processing executed by the output device according to the embodiment;

以下、添付図面を参照して、本願の開示する出力装置および出力方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of an output device and an output method disclosed in the present application will be described in detail with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment.

まず、図1を用いて、実施形態に係る出力方法の概要について説明する。図1は、実施形態に係る出力方法の概要を示す図である。図1では、車両Cの前方に障害物である物標Tが存在していることとする。また、図1では、車両Cは、物標検出システム100を備えており、かかる物標検出システム100により物標Tを検出する。 First, the outline of the output method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of an output method according to an embodiment. In FIG. 1, it is assumed that a target T, which is an obstacle, exists in front of the vehicle C. As shown in FIG. In FIG. 1, the vehicle C is equipped with a target detection system 100, and the target T is detected by the target detection system 100. As shown in FIG.

なお、物標検出システム100の搭載対象は、車両Cに限定されるものではなく、バイクや、自転車、船舶、航空機等といった他の移動体であってもよい。あるいは、物標検出システム100は、移動体に限らず、例えば、街灯や道路側方物(ガードレールや、信号機等)といった静止物に搭載されてもよい。 It should be noted that the target object detection system 100 is not limited to the vehicle C, and may be other moving bodies such as motorcycles, bicycles, ships, and aircraft. Alternatively, the target detection system 100 may be mounted on a stationary object such as a streetlight or a roadside object (guardrail, traffic light, etc.), not limited to a mobile object.

図1に示すように、物標システム100は、出力装置1と、センサ10と、物標検出装置50(後段の処理装置の一例)とを備える。センサ10は、車両Cの周囲の状況を検出するセンサであり、例えば、カメラや、レーダ装置、LiDAR(Laser Imaging Detection and Ranging)等がある。 As shown in FIG. 1, the target system 100 includes an output device 1, a sensor 10, and a target detection device 50 (an example of a subsequent processing device). The sensor 10 is a sensor that detects the circumstances around the vehicle C, and includes, for example, a camera, a radar device, and a LiDAR (Laser Imaging Detection and Ranging).

物標検出装置50は、出力装置1を介してセンサ10の出力を取得し、かかるセンサ10の出力に基づいて物標Tを検出する。例えば、物標検出装置50は、センサ10が複数設けられる場合、複数のセンサ10それぞれの出力を総合して物標Tを検出する。 The target detection device 50 acquires the output of the sensor 10 via the output device 1 and detects the target T based on the output of the sensor 10 . For example, when a plurality of sensors 10 are provided, the target detection device 50 detects the target T by combining the outputs of the plurality of sensors 10 .

出力装置1は、センサ10の出力となるセンサ検出結果(以下、検出結果と記載する)の信頼性を判定し、検出結果の信頼性が低い場合には、検出結果の加工前のデータである生データをセンサ10の出力とする出力方法を実行する。 The output device 1 determines the reliability of the sensor detection result (hereinafter referred to as the detection result) that is the output of the sensor 10, and if the reliability of the detection result is low, the data of the detection result before processing. An output method for outputting raw data from the sensor 10 is executed.

具体的には、実施形態に係る出力装置1は、まず、センサ10の出力となる検出結果の加工前のデータである生データを取得する(ステップS1)。つづいて、実施形態に係る出力装置1は、取得された生データから生成される検出結果の信頼性を判定する(ステップS2)。なお、検出結果の信頼性の判定方法については後述する。 Specifically, the output device 1 according to the embodiment first acquires raw data, which is data before processing of the detection result output from the sensor 10 (step S1). Subsequently, the output device 1 according to the embodiment determines the reliability of the detection result generated from the acquired raw data (step S2). A method for determining the reliability of detection results will be described later.

また、信頼性の判定に用いる検出結果は、出力装置1が生データに基づいて生成してもよく、あるいは、センサ10から取得してもよい。また、ここでいう生データとは、センサ10が検出した検出信号そのもの(すなわち、未加工のデータ)であってもよく、あるいは、検出結果が生成される過程で生じる中間データ(加工途中のデータ)であってもよいが、生データの詳細については後述する。 Further, the detection result used for reliability determination may be generated by the output device 1 based on raw data, or may be obtained from the sensor 10 . In addition, the raw data referred to here may be the detection signal itself detected by the sensor 10 (that is, unprocessed data), or intermediate data generated in the process of generating the detection result (data in process of processing). ), the details of the raw data will be described later.

つづいて、実施形態に係る出力装置1は、判定の結果、検出結果の信頼性が低いと判定した場合、かかる検出結果に代えて、生データをセンサ10の出力とし、物標検出装置50へ出力する(ステップS3)。これにより、物標検出装置100は、物標検出処理において、生データを使用した詳細な解析を行うことができるため、高精度に物標Tを検出することができる。 Subsequently, when the output device 1 according to the embodiment determines that the reliability of the detection result is low as a result of the determination, instead of the detection result, raw data is output from the sensor 10, and sent to the target detection device 50 Output (step S3). As a result, the target detection apparatus 100 can perform detailed analysis using the raw data in the target detection process, so that the target T can be detected with high accuracy.

このように、実施形態に係る出力方法によれば、センサ10の検出結果の信頼性が低い場合に、生データをセンサ10の出力とすることで、センサ10の出力の信頼性を高めることができる。 As described above, according to the output method according to the embodiment, when the reliability of the detection result of the sensor 10 is low, by using the raw data as the output of the sensor 10, the reliability of the output of the sensor 10 can be improved. can.

なお、生データはデータ容量が大ききなり通信等に負担がかかる問題や、生データの詳細解析には処理負担が増加する問題があるが、センサ出力の信頼性が低い場合に限って生データを伝送し、また詳細解析等の処理を行うことになるため、通信や処理に対する負担を抑える事ができる。 Raw data has a problem that communication is burdened due to its large data volume, and detailed analysis of raw data has a problem that processing burden increases. Since the information is transmitted, and processing such as detailed analysis is performed, it is possible to reduce the burden on communication and processing.

また、図1では、出力装置1の後段の処理装置が物標検出装置50である場合について示したが、処理装置は、物標検出装置100に限らず、センサ検出結果に基づいて各種処理を行う処理装置であれば、任意の装置を採用可能である。 Further, FIG. 1 shows a case where the processing device in the latter stage of the output device 1 is the target detection device 50, but the processing device is not limited to the target detection device 100, and various processing is performed based on the sensor detection result. Any processing device can be employed as long as it is a processing device.

次に、図2を参照して、実施形態に係る出力装置1の構成について詳細に説明する。図2は、実施形態に係る出力装置1の構成を示すブロック図である。図2に示すように、実施形態に係る出力装置1は、カメラ10aと、レーダ装置10bと、LiDAR10cと、物標検出装置50とに接続される。カメラ10a、レーダ装置10bおよびLiDAR10cは、上記したセンサ10の具体例である。 Next, the configuration of the output device 1 according to the embodiment will be described in detail with reference to FIG. FIG. 2 is a block diagram showing the configuration of the output device 1 according to the embodiment. As shown in FIG. 2, the output device 1 according to the embodiment is connected to a camera 10a, a radar device 10b, a LiDAR 10c, and a target detection device 50. The camera 10a, the radar device 10b and the LiDAR 10c are specific examples of the sensor 10 described above.

カメラ10aは、車両Cの外部状況を撮像する撮像装置である。カメラ10aは、例えば、車両Cのフロントガラスに設けられ、車両Cの前方を撮像する。なお、カメラ10aは、車両Cの左右側面を撮像する位置および車両Cの後方を撮像する位置に設けられていてもよい。 The camera 10a is an imaging device that captures an image of the external situation of the vehicle C. As shown in FIG. The camera 10a is provided in the windshield of the vehicle C, for example, and images the front of the vehicle C. As shown in FIG. In addition, the camera 10a may be provided at a position for imaging the left and right sides of the vehicle C and a position for imaging the rear of the vehicle.

レーダ装置10bは、ミリ波等の電波を利用して車両Cの周辺の物標を検出する。具体的には、レーダ装置10bは、電波を車両Cの周辺に送信し、物標で反射した反射波を受信することで物標を検出する。 The radar device 10b detects targets around the vehicle C using radio waves such as millimeter waves. Specifically, the radar device 10b detects a target by transmitting radio waves around the vehicle C and receiving reflected waves reflected by the target.

LiDAR10cは、レーザー光を利用して車両Cの周囲の物標を検出する。具体的には、LiDAR10cは、レーザー光を車両Cの周辺に送信し、物標で反射された反射光を受信することで物標を検出する。 The LiDAR 10c detects targets around the vehicle C using laser light. Specifically, the LiDAR 10c detects a target by transmitting laser light to the vicinity of the vehicle C and receiving reflected light reflected by the target.

物標検出装置50は、カメラ10a、レーダ装置10bおよびLiDAR10cそれぞれの検出結果または生データを総合して最終的な物標を検出する。具体的には、物標検出装置100は、各センサの検出結果に所定の重みを付与した結果に基づいて最終的な物標を検出する。 The target detection device 50 integrates detection results or raw data of the camera 10a, the radar device 10b, and the LiDAR 10c to detect the final target. Specifically, the target detection device 100 detects the final target based on the result of assigning a predetermined weight to the detection result of each sensor.

あるいは、物標検出装置100は、センサ10の生データを取得した場合、生データの解析結果および他のセンサ10の検出結果に基づいて最終的な物標を検出する。 Alternatively, when the target detection device 100 acquires the raw data of the sensor 10 , the final target is detected based on the analysis result of the raw data and the detection result of the other sensors 10 .

実施形態に係る出力装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部21、判定部22および出力部23を備える。記憶部3は、相関情報31を記憶する。 An output device 1 according to the embodiment includes a control section 2 and a storage section 3 . The control unit 2 includes an acquisition unit 21 , a determination unit 22 and an output unit 23 . The storage unit 3 stores correlation information 31 .

ここで、出力装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。 Here, the output device 1 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a data flash, an input/output port, and various circuits.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部21、判定部22および出力部23として機能する。 The CPU of the computer functions as an acquisition unit 21, a determination unit 22, and an output unit 23 of the control unit 2 by reading and executing programs stored in the ROM, for example.

また、制御部2の取得部21、判定部22および出力部23の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。 In addition, at least one or all of the acquisition unit 21, the determination unit 22, and the output unit 23 of the control unit 2 may be configured by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). can.

また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、相関情報31や、各種プログラムの情報等を記憶することができる。なお、出力装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Also, the storage unit 3 corresponds to, for example, a RAM or a data flash. The RAM and data flash can store the correlation information 31, various program information, and the like. Note that the output device 1 may acquire the above-described programs and various information via other computers or portable recording media connected via a wired or wireless network.

相関情報31は、センサ10の生データと、生データから生成される検出結果との相関関係を学習した結果を示す情報である。具体的には、相関情報31は、センサ10の検出限界を超えた検出結果と、その検出結果の生データとを対応付けた情報である。 The correlation information 31 is information indicating the result of learning the correlation between the raw data of the sensor 10 and the detection results generated from the raw data. Specifically, the correlation information 31 is information that associates a detection result exceeding the detection limit of the sensor 10 with raw data of the detection result.

なお、相関情報31は、外部装置によって予め学習されて生成されたものを、記憶部3に記憶してもよく、あるいは、制御部2が生データおよび検出結果をサンプリングして学習して生成してもよい。図3は、相関情報31の一例を示す図である。 The correlation information 31 may be generated by learning in advance by an external device and stored in the storage unit 3, or may be generated by the control unit 2 sampling raw data and detection results and learning. may FIG. 3 is a diagram showing an example of the correlation information 31. As shown in FIG.

図3に示すように、相関情報31は、「センサID」、「センサ名」、「検出結果」および「生データ」といった項目が対応付けられる。「センサID」は、各センサを識別する識別情報である。「センサ名」は、センサの名称である。「検出結果」は、センサ10の検出限界を超える検出結果の内容を示す。「生データ」は、センサ10の検出限界を超える検出結果の加工前の生データである。つまり、相関情報31には、センサ10の検出限界を超える場合の検出結果と、かかる検出結果の生データとの組がセンサ10毎に含まれる。 As shown in FIG. 3, the correlation information 31 is associated with items such as "sensor ID", "sensor name", "detection result", and "raw data". “Sensor ID” is identification information for identifying each sensor. "Sensor name" is the name of the sensor. “Detection result” indicates the content of the detection result exceeding the detection limit of the sensor 10 . “Raw data” is unprocessed raw data of detection results exceeding the detection limit of the sensor 10 . That is, the correlation information 31 includes, for each sensor 10, a set of the detection result when the detection limit of the sensor 10 is exceeded and the raw data of the detection result.

後述の判定部22は、相関情報31の「生データ」と、取得部21が取得した生データとの比較結果に基づき、取得した生データから生成される検出結果がセンサ10の検出限界を超えている否かを判定することで、信頼性を判定する。このように、相関情報31を学習することで、後述の判定部22による判定精度を高めることができる。なお、判定部22の処理内容については後述する。 Based on the result of comparison between the “raw data” of the correlation information 31 and the raw data acquired by the acquisition unit 21, the determination unit 22, which will be described later, determines whether the detection result generated from the acquired raw data exceeds the detection limit of the sensor 10. Reliability is determined by determining whether or not By learning the correlation information 31 in this way, it is possible to improve the accuracy of determination by the determination unit 22, which will be described later. In addition, the processing content of the determination part 22 is mentioned later.

制御部2は、センサ10の出力となる検出結果の信頼性を判定し、検出結果の信頼性が低い場合には、検出結果の加工前のデータである生データをセンサ10の出力とする。 The control unit 2 determines the reliability of the detection result that is the output of the sensor 10 , and outputs raw data of the detection result before processing when the reliability of the detection result is low.

取得部21は、カメラ10a、レーダ装置10bおよびLiDAR10c等のセンサ10から生データを取得する。 The acquisition unit 21 acquires raw data from the sensors 10 such as the camera 10a, the radar device 10b, and the LiDAR 10c.

カメラ10aの場合、生データは、撮像画像そのままの画像情報であり、例えば、撮像画像そのままのピクセル数で、各ピクセルには、RGB値等の色情報が含まれるカラー画像である。なお、カメラ10aの場合の生データとして、例えば、上記したカラー画像を2値化した白黒画像や、エッジ検出処理が施された画像情報等といった加工途中のデータであってもよい。 In the case of the camera 10a, the raw data is the image information of the captured image as it is. For example, it is a color image with the number of pixels of the captured image as it is, and each pixel includes color information such as RGB values. The raw data for the camera 10a may be, for example, half-processed data such as a black-and-white image obtained by binarizing the above-described color image, or image information subjected to edge detection processing.

また、レーダ装置10bの場合、生データは、例えば、受信信号および送信信号の情報である。なお、レーダ装置10bの場合の生データとして、受信信号および送信信号を混合して得られるビート信号や、ビート信号を2次元高速フーリエ変換した周波数スペクトルの情報、周波数スペクトルから得られる1物標由来の複数のピークの情報等といった加工途中のデータであってもよい。 Further, in the case of the radar device 10b, the raw data is, for example, information on received signals and transmitted signals. In addition, as raw data in the case of the radar device 10b, the beat signal obtained by mixing the received signal and the transmitted signal, the information of the frequency spectrum obtained by two-dimensional fast Fourier transform of the beat signal, the information derived from one target obtained from the frequency spectrum Data in the process of processing, such as information on a plurality of peaks of .

また、LiDAR10cの場合、生データは、例えば、受信および送信した際のレーザー光の情報である。なお、LiDAR10cの場合の生データとして、レーザー光の受信時刻および送信時刻の差分等といった加工途中のデータであってもよい。 Further, in the case of the LiDAR 10c, the raw data is, for example, laser light information when received and transmitted. Raw data in the case of the LiDAR 10c may be data in the process of being processed, such as the difference between the reception time and the transmission time of the laser light.

判定部22は、取得部21が取得した生データから生成される検出結果の信頼性を判定する。具体的には、判定部22は、相関情報31の「生データ」と、取得部21が取得した生データとの比較結果に基づき、取得した生データから生成される検出結果がセンサ10の検出限界を超えている否かを判定することで、信頼性を判定する。 The determination unit 22 determines the reliability of the detection result generated from the raw data acquired by the acquisition unit 21 . Specifically, the determination unit 22 compares the “raw data” of the correlation information 31 with the raw data acquired by the acquisition unit 21 so that the detection result generated from the acquired raw data is detected by the sensor 10 . Reliability is determined by determining whether or not the limit is exceeded.

例えば、判定部22は、取得部21が取得したカメラ10aの生データが、相関情報31の「検出結果」である「逆光」の「生データ」である「#1」と類似する場合、カメラ10aの生データ(画像)が逆光時に撮像されたものである、すなわち、検出結果がセンサ10の検出限界を超えるとし、信頼度が低いと判定する。 For example, if the raw data of the camera 10a acquired by the acquiring unit 21 is similar to “#1”, which is the “raw data” of “backlight”, which is the “detection result” of the correlation information 31, the determination unit 22 determines that the camera It is determined that the raw data (image) 10a was taken under backlight, that is, the detection result exceeds the detection limit of the sensor 10, and the reliability is low.

すなわち、判定部22は、逆光時の画像は、明暗差が激しいため、検出結果において物標が埋もれてしまう可能性があることから、検出結果の信頼性が低いと判定する。このように、判定部22は、相関情報31と生データとを比較することで、信頼性の判定を精度よく行うことができる。 In other words, the determining unit 22 determines that the reliability of the detection result is low because the target object may be hidden in the detection result because the image in backlight has a large difference in brightness. Thus, the determination unit 22 can accurately determine reliability by comparing the correlation information 31 and the raw data.

また、判定部22は、例えば、複数のセンサ10間で検出結果に差異が生じた場合に、信頼性が低いと判定してもよいが、かかる点については、図4で後述する。 Further, the determination unit 22 may determine that the reliability is low when, for example, there is a difference in detection results among the plurality of sensors 10. This point will be described later with reference to FIG.

また、判定部22は、周囲の状況を検出する他のセンサの出力により、信頼性を判定しても良い。例えば、判定部22は、周囲の明るさを明度センサで検出し、周囲が暗い場合にはカメラの信頼性が低いと言った判定を行う。他にも、天候、速度、振動による信頼性判定や、センサの汚れ、取付位置のズレ等を検出して信頼性を判定することも考えられる。 Also, the determination unit 22 may determine the reliability based on the output of another sensor that detects the surrounding conditions. For example, the determination unit 22 detects the brightness of the surroundings with a brightness sensor, and determines that the reliability of the camera is low when the surroundings are dark. In addition, it is conceivable to determine reliability based on weather, speed, and vibration, and to determine reliability by detecting contamination of the sensor, displacement of the mounting position, and the like.

出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合、検出結果に代えて、生データをセンサ10の出力とする。例えば、出力部23は、判定部22によって複数のセンサ10間での検出結果の差異により、信頼性が低いと判定された場合、かかる複数のセンサ10のうち少なくとも1つのセンサ10について、検出結果に代えて、生データを出力とする。かかる点について、図4を用いて説明する。 When the determination unit 22 determines that the reliability of the detection result is low, the output unit 23 outputs raw data from the sensor 10 instead of the detection result. For example, when the determination unit 22 determines that the reliability is low due to the difference in the detection results among the plurality of sensors 10, the output unit 23 outputs the detection result for at least one sensor 10 out of the plurality of sensors 10. , the output is the raw data. This point will be described with reference to FIG.

図4は、複数のセンサ10間で比較する場合の処理内容を示す図である。図4では、カメラ10a、レーダ装置10bおよびLiDAR10cの検出結果である障害物の有無を比較する場合を示している。なお、図4では、カメラ10aの検出結果が障害物なし、レーダ装置10bの検出結果が障害物あり、LiDAR10cの検出結果が障害物ありである場合を一例に挙げて説明する。 FIG. 4 is a diagram showing the contents of processing when comparing between a plurality of sensors 10. As shown in FIG. FIG. 4 shows a case of comparing the presence/absence of an obstacle, which is the detection result of the camera 10a, the radar device 10b, and the LiDAR 10c. In FIG. 4, an example will be described in which the camera 10a detects no obstacle, the radar device 10b detects an obstacle, and the LiDAR 10c detects an obstacle.

図4に示すように、判定部22は、カメラ10a、レーダ装置10bおよびLiDAR10cの間で検出結果が異なる場合、これら3つの検出結果の信頼性が低いと判定する。 As shown in FIG. 4, when the detection results differ among the camera 10a, the radar device 10b, and the LiDAR 10c, the determination unit 22 determines that the reliability of these three detection results is low.

そして、出力部23は、カメラ10a、レーダ装置10bおよびLiDAR10cのうちカメラ10aについて、カメラ10aの検出結果に代えて、カメラ10aの生データをカメラ10aの出力とする。なお、出力部23は、レーダ装置10bおよびLiDAR10cについては、検出結果をそれぞれのセンサ10の出力とする。 Then, the output unit 23 outputs the raw data of the camera 10a instead of the detection result of the camera 10a for the camera 10a out of the camera 10a, the radar device 10b and the LiDAR 10c. Note that the output unit 23 outputs the detection results of the respective sensors 10 for the radar device 10b and the LiDAR 10c.

つまり、図4では、複数のセンサ10のうち、検出結果の多数決制により生データを出力とするセンサ10を決定する。なお、図4では、多数決制により生データを出力とするセンサ10を決定したが、複数のセンサ10すべてについて、検出結果に代えて、生データをセンサ10の出力としてもよい。 That is, in FIG. 4, among the plurality of sensors 10, the sensor 10 that outputs raw data is determined by a majority vote of the detection results. In FIG. 4, the sensors 10 that output raw data are determined by majority vote.

あるいは、出力部23は、レーダ装置10bの検出結果が比較的信頼性が高いと仮定して、レーダ装置10b以外のセンサ10、すなわち、カメラ10aおよびLiDAR10cについて、生データをセンサ10の出力としてもよい。 Alternatively, assuming that the detection result of the radar device 10b is relatively reliable, the output unit 23 may output the raw data of the sensor 10 other than the radar device 10b, that is, the camera 10a and the LiDAR 10c. good.

このように、複数のセンサ10間で検出結果に差異が生じた場合に、センサ10の出力を生データとすることで、物標検出装置50による物標の誤検出を抑えることができる。 In this way, when there is a difference in detection results among the plurality of sensors 10, by using the outputs of the sensors 10 as raw data, erroneous target detection by the target detection device 50 can be suppressed.

次に、図5を用いて、実施形態に係る出力装置1が実行する処理の処理手順について説明する。図5は、実施形態に係る出力装置1が実行する処理の処理手順を示すフローチャートである。 Next, a processing procedure of processing executed by the output device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing a processing procedure of processing executed by the output device 1 according to the embodiment.

図5に示すように、まず、取得部21は、周囲の状況を検出するセンサの出力となる検出結果の加工前のデータである生データを取得する(ステップS101)。 As shown in FIG. 5, first, the acquisition unit 21 acquires raw data, which is data before processing of the detection result that is the output of the sensor that detects the surrounding situation (step S101).

つづいて、判定部22は、取得部21が取得した生データから生成される検出結果の信頼性を判定する(ステップS102)。 Subsequently, the determination unit 22 determines the reliability of the detection result generated from the raw data acquired by the acquisition unit 21 (step S102).

つづいて、判定部22は、判定処理により、検出結果の信頼性が低いか否かを判定する(ステップS103)。 Subsequently, the determination unit 22 determines whether or not the reliability of the detection result is low through determination processing (step S103).

出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合(ステップS103,Yes)、検出結果に代えて、生データをセンサ10の出力とし(ステップS104)、処理を終了する。 When the determination unit 22 determines that the reliability of the detection result is low (step S103, Yes), the output unit 23 outputs raw data from the sensor 10 instead of the detection result (step S104), and ends the process. do.

一方、ステップS103において、出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合(ステップS103,No)、検出結果をセンサ10の出力とし(ステップS105)、処理を終了する。 On the other hand, in step S103, when the determination unit 22 determines that the reliability of the detection result is low (step S103, No), the output unit 23 outputs the detection result from the sensor 10 (step S105), and ends the process. do.

上述してきたように、実施形態に係る出力装置1は、取得部21と、判定部22と、出力部23とを備える。取得部21は、センサ10の出力となる検出結果の加工前のデータである生データを取得する。判定部22は、センサ10の検出結果の信頼性を判定する。出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合、検出結果に代えて、生データを後段の処理装置へ出力する。これにより、センサ10の出力の信頼性を高めることができる。 As described above, the output device 1 according to the embodiment includes the acquisition unit 21, the determination unit 22, and the output unit 23. The acquisition unit 21 acquires raw data, which is data before processing of the detection result that is the output of the sensor 10 . The determination unit 22 determines reliability of the detection result of the sensor 10 . When the determination unit 22 determines that the reliability of the detection result is low, the output unit 23 outputs raw data to the subsequent processing device instead of the detection result. Thereby, the reliability of the output of the sensor 10 can be improved.

なお、上述した実施形態では、出力装置1は、センサ10および物標検出装置50とは別体で構成される場合を示したが、出力装置1、センサ10および物標検出装置50が一体的に構成された1つの装置であってもよい。 In the above-described embodiment, the output device 1 is configured separately from the sensor 10 and the target detection device 50, but the output device 1, the sensor 10 and the target detection device 50 are integrated. It may be a single device configured to

また、出力装置1は、複数のセンサ10それぞれに組み込まれてもよく、あるいは、物標検出装置50に組み込まれてもよい。 Moreover, the output device 1 may be incorporated in each of the plurality of sensors 10 or may be incorporated in the target detection device 50 .

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 出力装置
2 制御部
3 記憶部
10 センサ
10a カメラ
10b レーダ装置
10c LiDAR
21 取得部
22 判定部
23 出力部
31 相関情報
50 物標検出装置
100 物標検出システム
C 車両
1 output device 2 control unit 3 storage unit 10 sensor 10a camera 10b radar device 10c LiDAR
21 acquisition unit 22 determination unit 23 output unit 31 correlation information 50 target detection device 100 target detection system C vehicle

Claims (8)

センサ検出結果の加工前のデータである生データを取得する取得部と、
前記センサ検出結果の信頼性を判定する判定部と、
前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力部と
を備え
前記判定部は、
センサ検出結果がセンサの検出限界を超える場合、信頼性が低いと判定すること
を特徴とする出力装置。
an acquisition unit that acquires raw data that is data before processing of sensor detection results;
a determination unit that determines the reliability of the sensor detection result;
an output unit that outputs the raw data to a subsequent processing device instead of the sensor detection result when the determination unit determines that the reliability of the sensor detection result is low ,
The determination unit
When the sensor detection result exceeds the detection limit of the sensor, it is determined that the reliability is low.
An output device characterized by:
前記取得部は、
複数のセンサそれぞれの生データを取得し、
前記判定部は、
前記複数のセンサ間でセンサ検出結果が異なる場合、信頼性が低いと判定し、
前記出力部は、
前記複数のセンサのうち少なくとも1つのセンサについて、センサ検出結果に代えて、生データを前記出力とすること
を特徴とする請求項1に記載の出力装置。
The acquisition unit
Acquire raw data from each of multiple sensors,
The determination unit
If the sensor detection results are different between the plurality of sensors, it is determined that the reliability is low,
The output unit
2. The output device according to claim 1, wherein, for at least one of said plurality of sensors, raw data is used as said output instead of a sensor detection result.
センサ検出結果の加工前のデータである生データを取得する取得部と、 an acquisition unit that acquires raw data that is data before processing of sensor detection results;
前記センサ検出結果の信頼性を判定する判定部と、 a determination unit that determines the reliability of the sensor detection result;
前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力部と an output unit configured to output the raw data instead of the sensor detection result to a subsequent processing device when the determination unit determines that the reliability of the sensor detection result is low;
を備え、 with
前記取得部は、 The acquisition unit
複数のセンサそれぞれの生データを取得し、 Acquire raw data from each of multiple sensors,
前記判定部は、 The determination unit is
前記複数のセンサ間でセンサ検出結果が異なる場合、信頼性が低いと判定し、 If the sensor detection results are different between the plurality of sensors, it is determined that the reliability is low,
前記出力部は、 The output unit
前記複数のセンサのうち少なくとも1つのセンサについて、センサ検出結果に代えて、生データを前記出力とすること For at least one sensor among the plurality of sensors, raw data is used as the output instead of the sensor detection result.
を特徴とする出力装置。 An output device characterized by:
生データおよび当該生データから生成されるセンサ検出結果の相関情報を記憶する記憶部をさらに備え、
前記判定部は、
前記取得部が取得した前記生データと前記記憶部に記憶された相関情報とに基づいて信頼性を判定すること
を特徴とする請求項1~3のいずれか1つに記載の出力装置。
Further comprising a storage unit for storing raw data and correlation information of sensor detection results generated from the raw data,
The determination unit
The output device according to any one of claims 1 to 3, wherein reliability is determined based on the raw data acquired by the acquisition unit and the correlation information stored in the storage unit.
センサ検出結果の加工前のデータである生データを取得する取得部と、 an acquisition unit that acquires raw data that is data before processing of sensor detection results;
前記センサ検出結果の信頼性を判定する判定部と、 a determination unit that determines the reliability of the sensor detection result;
前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力部と an output unit configured to output the raw data instead of the sensor detection result to a subsequent processing device when the determination unit determines that the reliability of the sensor detection result is low;
生データおよび当該生データから生成されるセンサ検出結果の相関情報を記憶する記憶部と、 a storage unit that stores raw data and correlation information of sensor detection results generated from the raw data;
を備え、 with
前記判定部は、 The determination unit is
前記取得部が取得した前記生データと前記記憶部に記憶された相関情報とに基づいて信頼性を判定すること Determining reliability based on the raw data acquired by the acquisition unit and the correlation information stored in the storage unit
を特徴とする出力装置。 An output device characterized by:
センサ検出結果の加工前のデータである生データを取得する取得工程と、
前記センサ検出結果の信頼性を判定する判定工程と、
前記判定工程によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力工程と
を含み、
前記判定工程は、
センサ検出結果がセンサの検出限界を超える場合、信頼性が低いと判定すること
を特徴とする出力方法。
an acquisition step of acquiring raw data, which is data before processing of sensor detection results;
a determination step of determining the reliability of the sensor detection result;
an output step of outputting the raw data to a subsequent processing device instead of the sensor detection result when the reliability of the sensor detection result is determined to be low by the determination step ,
The determination step includes
When the sensor detection result exceeds the detection limit of the sensor, it is determined that the reliability is low.
An output method characterized by
センサ検出結果の加工前のデータである生データを取得する取得工程と、 an acquisition step of acquiring raw data, which is data before processing of sensor detection results;
前記センサ検出結果の信頼性を判定する判定工程と、 a determination step of determining the reliability of the sensor detection result;
前記判定工程によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力工程と an output step of outputting the raw data to a subsequent processing device instead of the sensor detection result when the reliability of the sensor detection result is determined to be low by the determination step;
を備え、 with
前記取得工程は、 The obtaining step includes
複数のセンサそれぞれの生データを取得し、 Acquire raw data from each of multiple sensors,
前記判定工程は、 The determination step includes
前記複数のセンサ間でセンサ検出結果が異なる場合、信頼性が低いと判定し、 If the sensor detection results are different between the plurality of sensors, it is determined that the reliability is low,
前記出力工程は、 The output step includes
前記複数のセンサのうち少なくとも1つのセンサについて、センサ検出結果に代えて、生データを前記出力とすること For at least one sensor among the plurality of sensors, raw data is used as the output instead of the sensor detection result.
を特徴とする出力方法。 An output method characterized by
センサ検出結果の加工前のデータである生データを取得する取得工程と、 an acquisition step of acquiring raw data, which is data before processing of sensor detection results;
前記センサ検出結果の信頼性を判定する判定工程と、 a determination step of determining the reliability of the sensor detection result;
前記判定工程によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力工程と an output step of outputting the raw data to a subsequent processing device instead of the sensor detection result when the reliability of the sensor detection result is determined to be low by the determination step;
生データおよび当該生データから生成されるセンサ検出結果の相関情報を記憶する記憶工程と、 a storage step of storing raw data and correlation information of sensor detection results generated from the raw data;
を備え、 with
前記判定工程は、 The determination step includes
前記取得工程で取得した前記生データと前記記憶工程で記憶された相関情報とに基づいて信頼性を判定すること Determining reliability based on the raw data acquired in the acquiring step and the correlation information stored in the storing step
を特徴とする出力方法。 An output method characterized by
JP2018183950A 2018-09-28 2018-09-28 Output device and output method Active JP7236835B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018183950A JP7236835B2 (en) 2018-09-28 2018-09-28 Output device and output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018183950A JP7236835B2 (en) 2018-09-28 2018-09-28 Output device and output method

Publications (2)

Publication Number Publication Date
JP2020051986A JP2020051986A (en) 2020-04-02
JP7236835B2 true JP7236835B2 (en) 2023-03-10

Family

ID=69996837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018183950A Active JP7236835B2 (en) 2018-09-28 2018-09-28 Output device and output method

Country Status (1)

Country Link
JP (1) JP7236835B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270268A (en) 1999-03-12 2000-09-29 Fuji Photo Film Co Ltd Method and device for acquiring picture data
JP2003058998A (en) 2001-08-14 2003-02-28 Nissan Motor Co Ltd Vehicle parking system
JP2017188035A (en) 2016-04-08 2017-10-12 株式会社デンソー Driving assist system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0688732A (en) * 1992-09-07 1994-03-29 Nissan Motor Co Ltd Navigation apparatus for vehicle
JP3748306B2 (en) * 1997-01-23 2006-02-22 富士通テン株式会社 Radar equipment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000270268A (en) 1999-03-12 2000-09-29 Fuji Photo Film Co Ltd Method and device for acquiring picture data
JP2003058998A (en) 2001-08-14 2003-02-28 Nissan Motor Co Ltd Vehicle parking system
JP2017188035A (en) 2016-04-08 2017-10-12 株式会社デンソー Driving assist system

Also Published As

Publication number Publication date
JP2020051986A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP5503730B2 (en) Vehicle periphery monitoring device
WO2009098743A1 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
EP3477548B1 (en) Method and image capturing device for detecting fog in a scene
CN108802746B (en) Anti-interference ranging method and device
CN109828250B (en) Radar calibration method, calibration device and terminal equipment
US20140240169A1 (en) Radar apparatus using image change detector and method of operating the same
CN116027318A (en) Method, device, electronic equipment and storage medium for multi-sensor signal fusion
CN114467260A (en) Lossy compressed advanced driver assistance system sensor data processing for driver assistance systems
US20220065976A1 (en) Mobile body detection device, mobile body detection method, and mobile body detection program
EP3207523B1 (en) Obstacle detection apparatus and method
JP7236835B2 (en) Output device and output method
CN112989872B (en) Target detection method and related device
CN115439509B (en) Multi-target tracking method and device, computer equipment and storage medium
WO2020003764A1 (en) Image processing device, moving apparatus, method, and program
JP2020052897A (en) Target detection device and target detection method
KR101911860B1 (en) Method and Apparatus for Detecting Road Using Camera Model and Filter in Depth Image
US20100303378A1 (en) Edge parameter computing method for image and image noise omitting method utilizing the edge parameter computing method
CN113108919B (en) Human body temperature detection method, device and storage medium
CN115330657A (en) Ocean exploration image processing method and device and server
CN114513608A (en) Movement detection method and device and electronic equipment
KR20180125278A (en) Apparatus and method for detecting pedestrian
CN114365189A (en) Image registration device, image generation system, image registration method, and image registration program
JP2008040724A (en) Image processing device and image processing method
JP7464801B2 (en) IMAGE PROCESSING APPARATUS AND IMAGE DATA TRANSMISSION METHOD
WO2022249562A1 (en) Signal processing device, method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211018

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230228

R150 Certificate of patent or registration of utility model

Ref document number: 7236835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150