JP7236835B2 - Output device and output method - Google Patents
Output device and output method Download PDFInfo
- Publication number
- JP7236835B2 JP7236835B2 JP2018183950A JP2018183950A JP7236835B2 JP 7236835 B2 JP7236835 B2 JP 7236835B2 JP 2018183950 A JP2018183950 A JP 2018183950A JP 2018183950 A JP2018183950 A JP 2018183950A JP 7236835 B2 JP7236835 B2 JP 7236835B2
- Authority
- JP
- Japan
- Prior art keywords
- raw data
- sensor detection
- detection result
- output
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、出力装置および出力方法に関する。 The present invention relates to an output device and an output method.
従来、例えば、物標等といった周囲の状況をセンサで検出し、検出結果に基づいた車両制御を実行したり、検出した物標を運転者へ通知する等の技術がある。例えば、センサの検出結果は、人が理解できるようにするため、あるいは、後段の処理負荷を軽くするために、センサで検出される生データの情報量をある程度を削減する等の加工が施されて生成される場合がある。例えば、サンプリングレートやフレームレートを下げる、解像度を下げる、色数を減らす、フィルタをかける(周波数帯域の狭帯域化)、ダイナミックレンジの低減、軽い処理による判定処理結果化、等と言った処理が施される。 2. Description of the Related Art Conventionally, for example, there are technologies such as detecting a surrounding situation such as a target with a sensor, executing vehicle control based on the detection result, or notifying a driver of the detected target. For example, sensor detection results are processed, such as by reducing the amount of raw data detected by the sensor to some extent, in order to make it easier for humans to understand, or to lighten the processing load in the later stage. may be generated by For example, processing such as lowering the sampling rate or frame rate, lowering the resolution, reducing the number of colors, applying a filter (narrowing the frequency band), reducing the dynamic range, making judgment processing results by light processing, etc. applied.
しかしながら、生データをある程度削減する等の加工により検出結果が生成された場合、人が理解できないような詳細な情報が削減されることで、センサの出力である検出結果に誤りが生じるおそれがあった。 However, if the detection results are generated by processing such as reducing the raw data to some extent, there is a risk that errors will occur in the detection results, which are the output of the sensor, due to the reduction of detailed information that cannot be understood by humans. rice field.
本発明は、上記に鑑みてなされたものであって、センサの出力の信頼性を高めることができる出力装置および出力方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an output device and an output method capable of improving the reliability of sensor output.
上述した課題を解決し、目的を達成するために、本発明に係る出力装置は、取得部と、判定部と、出力部とを備える。前記取得部は、センサ検出結果の加工前のデータである生データを取得する。前記判定部は、前記センサ検出結果の信頼性を判定する。前記出力部は、前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する。 In order to solve the above problems and achieve the object, an output device according to the present invention includes an acquisition section, a determination section, and an output section. The acquisition unit acquires raw data, which is data before processing of the sensor detection result. The determination unit determines reliability of the sensor detection result. The output unit outputs the raw data instead of the sensor detection result to a subsequent processing device when the determination unit determines that the reliability of the sensor detection result is low.
本発明によれば、センサの出力の信頼性を高めることができる。 According to the present invention, the reliability of sensor output can be enhanced.
以下、添付図面を参照して、本願の開示する出力装置および出力方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of an output device and an output method disclosed in the present application will be described in detail with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment.
まず、図1を用いて、実施形態に係る出力方法の概要について説明する。図1は、実施形態に係る出力方法の概要を示す図である。図1では、車両Cの前方に障害物である物標Tが存在していることとする。また、図1では、車両Cは、物標検出システム100を備えており、かかる物標検出システム100により物標Tを検出する。
First, the outline of the output method according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an outline of an output method according to an embodiment. In FIG. 1, it is assumed that a target T, which is an obstacle, exists in front of the vehicle C. As shown in FIG. In FIG. 1, the vehicle C is equipped with a
なお、物標検出システム100の搭載対象は、車両Cに限定されるものではなく、バイクや、自転車、船舶、航空機等といった他の移動体であってもよい。あるいは、物標検出システム100は、移動体に限らず、例えば、街灯や道路側方物(ガードレールや、信号機等)といった静止物に搭載されてもよい。
It should be noted that the target
図1に示すように、物標システム100は、出力装置1と、センサ10と、物標検出装置50(後段の処理装置の一例)とを備える。センサ10は、車両Cの周囲の状況を検出するセンサであり、例えば、カメラや、レーダ装置、LiDAR(Laser Imaging Detection and Ranging)等がある。
As shown in FIG. 1, the
物標検出装置50は、出力装置1を介してセンサ10の出力を取得し、かかるセンサ10の出力に基づいて物標Tを検出する。例えば、物標検出装置50は、センサ10が複数設けられる場合、複数のセンサ10それぞれの出力を総合して物標Tを検出する。
The
出力装置1は、センサ10の出力となるセンサ検出結果(以下、検出結果と記載する)の信頼性を判定し、検出結果の信頼性が低い場合には、検出結果の加工前のデータである生データをセンサ10の出力とする出力方法を実行する。
The
具体的には、実施形態に係る出力装置1は、まず、センサ10の出力となる検出結果の加工前のデータである生データを取得する(ステップS1)。つづいて、実施形態に係る出力装置1は、取得された生データから生成される検出結果の信頼性を判定する(ステップS2)。なお、検出結果の信頼性の判定方法については後述する。
Specifically, the
また、信頼性の判定に用いる検出結果は、出力装置1が生データに基づいて生成してもよく、あるいは、センサ10から取得してもよい。また、ここでいう生データとは、センサ10が検出した検出信号そのもの(すなわち、未加工のデータ)であってもよく、あるいは、検出結果が生成される過程で生じる中間データ(加工途中のデータ)であってもよいが、生データの詳細については後述する。
Further, the detection result used for reliability determination may be generated by the
つづいて、実施形態に係る出力装置1は、判定の結果、検出結果の信頼性が低いと判定した場合、かかる検出結果に代えて、生データをセンサ10の出力とし、物標検出装置50へ出力する(ステップS3)。これにより、物標検出装置100は、物標検出処理において、生データを使用した詳細な解析を行うことができるため、高精度に物標Tを検出することができる。
Subsequently, when the
このように、実施形態に係る出力方法によれば、センサ10の検出結果の信頼性が低い場合に、生データをセンサ10の出力とすることで、センサ10の出力の信頼性を高めることができる。
As described above, according to the output method according to the embodiment, when the reliability of the detection result of the
なお、生データはデータ容量が大ききなり通信等に負担がかかる問題や、生データの詳細解析には処理負担が増加する問題があるが、センサ出力の信頼性が低い場合に限って生データを伝送し、また詳細解析等の処理を行うことになるため、通信や処理に対する負担を抑える事ができる。 Raw data has a problem that communication is burdened due to its large data volume, and detailed analysis of raw data has a problem that processing burden increases. Since the information is transmitted, and processing such as detailed analysis is performed, it is possible to reduce the burden on communication and processing.
また、図1では、出力装置1の後段の処理装置が物標検出装置50である場合について示したが、処理装置は、物標検出装置100に限らず、センサ検出結果に基づいて各種処理を行う処理装置であれば、任意の装置を採用可能である。
Further, FIG. 1 shows a case where the processing device in the latter stage of the
次に、図2を参照して、実施形態に係る出力装置1の構成について詳細に説明する。図2は、実施形態に係る出力装置1の構成を示すブロック図である。図2に示すように、実施形態に係る出力装置1は、カメラ10aと、レーダ装置10bと、LiDAR10cと、物標検出装置50とに接続される。カメラ10a、レーダ装置10bおよびLiDAR10cは、上記したセンサ10の具体例である。
Next, the configuration of the
カメラ10aは、車両Cの外部状況を撮像する撮像装置である。カメラ10aは、例えば、車両Cのフロントガラスに設けられ、車両Cの前方を撮像する。なお、カメラ10aは、車両Cの左右側面を撮像する位置および車両Cの後方を撮像する位置に設けられていてもよい。
The
レーダ装置10bは、ミリ波等の電波を利用して車両Cの周辺の物標を検出する。具体的には、レーダ装置10bは、電波を車両Cの周辺に送信し、物標で反射した反射波を受信することで物標を検出する。
The
LiDAR10cは、レーザー光を利用して車両Cの周囲の物標を検出する。具体的には、LiDAR10cは、レーザー光を車両Cの周辺に送信し、物標で反射された反射光を受信することで物標を検出する。 The LiDAR 10c detects targets around the vehicle C using laser light. Specifically, the LiDAR 10c detects a target by transmitting laser light to the vicinity of the vehicle C and receiving reflected light reflected by the target.
物標検出装置50は、カメラ10a、レーダ装置10bおよびLiDAR10cそれぞれの検出結果または生データを総合して最終的な物標を検出する。具体的には、物標検出装置100は、各センサの検出結果に所定の重みを付与した結果に基づいて最終的な物標を検出する。
The
あるいは、物標検出装置100は、センサ10の生データを取得した場合、生データの解析結果および他のセンサ10の検出結果に基づいて最終的な物標を検出する。
Alternatively, when the
実施形態に係る出力装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部21、判定部22および出力部23を備える。記憶部3は、相関情報31を記憶する。
An
ここで、出力装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、データフラッシュ、入出力ポートなどを有するコンピュータや各種の回路を含む。
Here, the
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の取得部21、判定部22および出力部23として機能する。
The CPU of the computer functions as an
また、制御部2の取得部21、判定部22および出力部23の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
In addition, at least one or all of the
また、記憶部3は、たとえば、RAMやデータフラッシュに対応する。RAMやデータフラッシュは、相関情報31や、各種プログラムの情報等を記憶することができる。なお、出力装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
Also, the
相関情報31は、センサ10の生データと、生データから生成される検出結果との相関関係を学習した結果を示す情報である。具体的には、相関情報31は、センサ10の検出限界を超えた検出結果と、その検出結果の生データとを対応付けた情報である。
The
なお、相関情報31は、外部装置によって予め学習されて生成されたものを、記憶部3に記憶してもよく、あるいは、制御部2が生データおよび検出結果をサンプリングして学習して生成してもよい。図3は、相関情報31の一例を示す図である。
The
図3に示すように、相関情報31は、「センサID」、「センサ名」、「検出結果」および「生データ」といった項目が対応付けられる。「センサID」は、各センサを識別する識別情報である。「センサ名」は、センサの名称である。「検出結果」は、センサ10の検出限界を超える検出結果の内容を示す。「生データ」は、センサ10の検出限界を超える検出結果の加工前の生データである。つまり、相関情報31には、センサ10の検出限界を超える場合の検出結果と、かかる検出結果の生データとの組がセンサ10毎に含まれる。
As shown in FIG. 3, the
後述の判定部22は、相関情報31の「生データ」と、取得部21が取得した生データとの比較結果に基づき、取得した生データから生成される検出結果がセンサ10の検出限界を超えている否かを判定することで、信頼性を判定する。このように、相関情報31を学習することで、後述の判定部22による判定精度を高めることができる。なお、判定部22の処理内容については後述する。
Based on the result of comparison between the “raw data” of the
制御部2は、センサ10の出力となる検出結果の信頼性を判定し、検出結果の信頼性が低い場合には、検出結果の加工前のデータである生データをセンサ10の出力とする。
The
取得部21は、カメラ10a、レーダ装置10bおよびLiDAR10c等のセンサ10から生データを取得する。
The
カメラ10aの場合、生データは、撮像画像そのままの画像情報であり、例えば、撮像画像そのままのピクセル数で、各ピクセルには、RGB値等の色情報が含まれるカラー画像である。なお、カメラ10aの場合の生データとして、例えば、上記したカラー画像を2値化した白黒画像や、エッジ検出処理が施された画像情報等といった加工途中のデータであってもよい。
In the case of the
また、レーダ装置10bの場合、生データは、例えば、受信信号および送信信号の情報である。なお、レーダ装置10bの場合の生データとして、受信信号および送信信号を混合して得られるビート信号や、ビート信号を2次元高速フーリエ変換した周波数スペクトルの情報、周波数スペクトルから得られる1物標由来の複数のピークの情報等といった加工途中のデータであってもよい。
Further, in the case of the
また、LiDAR10cの場合、生データは、例えば、受信および送信した際のレーザー光の情報である。なお、LiDAR10cの場合の生データとして、レーザー光の受信時刻および送信時刻の差分等といった加工途中のデータであってもよい。 Further, in the case of the LiDAR 10c, the raw data is, for example, laser light information when received and transmitted. Raw data in the case of the LiDAR 10c may be data in the process of being processed, such as the difference between the reception time and the transmission time of the laser light.
判定部22は、取得部21が取得した生データから生成される検出結果の信頼性を判定する。具体的には、判定部22は、相関情報31の「生データ」と、取得部21が取得した生データとの比較結果に基づき、取得した生データから生成される検出結果がセンサ10の検出限界を超えている否かを判定することで、信頼性を判定する。
The
例えば、判定部22は、取得部21が取得したカメラ10aの生データが、相関情報31の「検出結果」である「逆光」の「生データ」である「#1」と類似する場合、カメラ10aの生データ(画像)が逆光時に撮像されたものである、すなわち、検出結果がセンサ10の検出限界を超えるとし、信頼度が低いと判定する。
For example, if the raw data of the
すなわち、判定部22は、逆光時の画像は、明暗差が激しいため、検出結果において物標が埋もれてしまう可能性があることから、検出結果の信頼性が低いと判定する。このように、判定部22は、相関情報31と生データとを比較することで、信頼性の判定を精度よく行うことができる。
In other words, the determining
また、判定部22は、例えば、複数のセンサ10間で検出結果に差異が生じた場合に、信頼性が低いと判定してもよいが、かかる点については、図4で後述する。
Further, the
また、判定部22は、周囲の状況を検出する他のセンサの出力により、信頼性を判定しても良い。例えば、判定部22は、周囲の明るさを明度センサで検出し、周囲が暗い場合にはカメラの信頼性が低いと言った判定を行う。他にも、天候、速度、振動による信頼性判定や、センサの汚れ、取付位置のズレ等を検出して信頼性を判定することも考えられる。
Also, the
出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合、検出結果に代えて、生データをセンサ10の出力とする。例えば、出力部23は、判定部22によって複数のセンサ10間での検出結果の差異により、信頼性が低いと判定された場合、かかる複数のセンサ10のうち少なくとも1つのセンサ10について、検出結果に代えて、生データを出力とする。かかる点について、図4を用いて説明する。
When the
図4は、複数のセンサ10間で比較する場合の処理内容を示す図である。図4では、カメラ10a、レーダ装置10bおよびLiDAR10cの検出結果である障害物の有無を比較する場合を示している。なお、図4では、カメラ10aの検出結果が障害物なし、レーダ装置10bの検出結果が障害物あり、LiDAR10cの検出結果が障害物ありである場合を一例に挙げて説明する。
FIG. 4 is a diagram showing the contents of processing when comparing between a plurality of
図4に示すように、判定部22は、カメラ10a、レーダ装置10bおよびLiDAR10cの間で検出結果が異なる場合、これら3つの検出結果の信頼性が低いと判定する。
As shown in FIG. 4, when the detection results differ among the
そして、出力部23は、カメラ10a、レーダ装置10bおよびLiDAR10cのうちカメラ10aについて、カメラ10aの検出結果に代えて、カメラ10aの生データをカメラ10aの出力とする。なお、出力部23は、レーダ装置10bおよびLiDAR10cについては、検出結果をそれぞれのセンサ10の出力とする。
Then, the
つまり、図4では、複数のセンサ10のうち、検出結果の多数決制により生データを出力とするセンサ10を決定する。なお、図4では、多数決制により生データを出力とするセンサ10を決定したが、複数のセンサ10すべてについて、検出結果に代えて、生データをセンサ10の出力としてもよい。
That is, in FIG. 4, among the plurality of
あるいは、出力部23は、レーダ装置10bの検出結果が比較的信頼性が高いと仮定して、レーダ装置10b以外のセンサ10、すなわち、カメラ10aおよびLiDAR10cについて、生データをセンサ10の出力としてもよい。
Alternatively, assuming that the detection result of the
このように、複数のセンサ10間で検出結果に差異が生じた場合に、センサ10の出力を生データとすることで、物標検出装置50による物標の誤検出を抑えることができる。
In this way, when there is a difference in detection results among the plurality of
次に、図5を用いて、実施形態に係る出力装置1が実行する処理の処理手順について説明する。図5は、実施形態に係る出力装置1が実行する処理の処理手順を示すフローチャートである。
Next, a processing procedure of processing executed by the
図5に示すように、まず、取得部21は、周囲の状況を検出するセンサの出力となる検出結果の加工前のデータである生データを取得する(ステップS101)。
As shown in FIG. 5, first, the
つづいて、判定部22は、取得部21が取得した生データから生成される検出結果の信頼性を判定する(ステップS102)。
Subsequently, the
つづいて、判定部22は、判定処理により、検出結果の信頼性が低いか否かを判定する(ステップS103)。
Subsequently, the
出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合(ステップS103,Yes)、検出結果に代えて、生データをセンサ10の出力とし(ステップS104)、処理を終了する。
When the
一方、ステップS103において、出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合(ステップS103,No)、検出結果をセンサ10の出力とし(ステップS105)、処理を終了する。
On the other hand, in step S103, when the
上述してきたように、実施形態に係る出力装置1は、取得部21と、判定部22と、出力部23とを備える。取得部21は、センサ10の出力となる検出結果の加工前のデータである生データを取得する。判定部22は、センサ10の検出結果の信頼性を判定する。出力部23は、判定部22によって検出結果の信頼性が低いと判定された場合、検出結果に代えて、生データを後段の処理装置へ出力する。これにより、センサ10の出力の信頼性を高めることができる。
As described above, the
なお、上述した実施形態では、出力装置1は、センサ10および物標検出装置50とは別体で構成される場合を示したが、出力装置1、センサ10および物標検出装置50が一体的に構成された1つの装置であってもよい。
In the above-described embodiment, the
また、出力装置1は、複数のセンサ10それぞれに組み込まれてもよく、あるいは、物標検出装置50に組み込まれてもよい。
Moreover, the
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.
1 出力装置
2 制御部
3 記憶部
10 センサ
10a カメラ
10b レーダ装置
10c LiDAR
21 取得部
22 判定部
23 出力部
31 相関情報
50 物標検出装置
100 物標検出システム
C 車両
1
21
Claims (8)
前記センサ検出結果の信頼性を判定する判定部と、
前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力部と
を備え、
前記判定部は、
センサ検出結果がセンサの検出限界を超える場合、信頼性が低いと判定すること
を特徴とする出力装置。 an acquisition unit that acquires raw data that is data before processing of sensor detection results;
a determination unit that determines the reliability of the sensor detection result;
an output unit that outputs the raw data to a subsequent processing device instead of the sensor detection result when the determination unit determines that the reliability of the sensor detection result is low ,
The determination unit
When the sensor detection result exceeds the detection limit of the sensor, it is determined that the reliability is low.
An output device characterized by:
複数のセンサそれぞれの生データを取得し、
前記判定部は、
前記複数のセンサ間でセンサ検出結果が異なる場合、信頼性が低いと判定し、
前記出力部は、
前記複数のセンサのうち少なくとも1つのセンサについて、センサ検出結果に代えて、生データを前記出力とすること
を特徴とする請求項1に記載の出力装置。 The acquisition unit
Acquire raw data from each of multiple sensors,
The determination unit
If the sensor detection results are different between the plurality of sensors, it is determined that the reliability is low,
The output unit
2. The output device according to claim 1, wherein, for at least one of said plurality of sensors, raw data is used as said output instead of a sensor detection result.
前記センサ検出結果の信頼性を判定する判定部と、 a determination unit that determines the reliability of the sensor detection result;
前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力部と an output unit configured to output the raw data instead of the sensor detection result to a subsequent processing device when the determination unit determines that the reliability of the sensor detection result is low;
を備え、 with
前記取得部は、 The acquisition unit
複数のセンサそれぞれの生データを取得し、 Acquire raw data from each of multiple sensors,
前記判定部は、 The determination unit is
前記複数のセンサ間でセンサ検出結果が異なる場合、信頼性が低いと判定し、 If the sensor detection results are different between the plurality of sensors, it is determined that the reliability is low,
前記出力部は、 The output unit
前記複数のセンサのうち少なくとも1つのセンサについて、センサ検出結果に代えて、生データを前記出力とすること For at least one sensor among the plurality of sensors, raw data is used as the output instead of the sensor detection result.
を特徴とする出力装置。 An output device characterized by:
前記判定部は、
前記取得部が取得した前記生データと前記記憶部に記憶された相関情報とに基づいて信頼性を判定すること
を特徴とする請求項1~3のいずれか1つに記載の出力装置。 Further comprising a storage unit for storing raw data and correlation information of sensor detection results generated from the raw data,
The determination unit
The output device according to any one of claims 1 to 3, wherein reliability is determined based on the raw data acquired by the acquisition unit and the correlation information stored in the storage unit.
前記センサ検出結果の信頼性を判定する判定部と、 a determination unit that determines the reliability of the sensor detection result;
前記判定部によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力部と an output unit configured to output the raw data instead of the sensor detection result to a subsequent processing device when the determination unit determines that the reliability of the sensor detection result is low;
生データおよび当該生データから生成されるセンサ検出結果の相関情報を記憶する記憶部と、 a storage unit that stores raw data and correlation information of sensor detection results generated from the raw data;
を備え、 with
前記判定部は、 The determination unit is
前記取得部が取得した前記生データと前記記憶部に記憶された相関情報とに基づいて信頼性を判定すること Determining reliability based on the raw data acquired by the acquisition unit and the correlation information stored in the storage unit
を特徴とする出力装置。 An output device characterized by:
前記センサ検出結果の信頼性を判定する判定工程と、
前記判定工程によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力工程と
を含み、
前記判定工程は、
センサ検出結果がセンサの検出限界を超える場合、信頼性が低いと判定すること
を特徴とする出力方法。 an acquisition step of acquiring raw data, which is data before processing of sensor detection results;
a determination step of determining the reliability of the sensor detection result;
an output step of outputting the raw data to a subsequent processing device instead of the sensor detection result when the reliability of the sensor detection result is determined to be low by the determination step ,
The determination step includes
When the sensor detection result exceeds the detection limit of the sensor, it is determined that the reliability is low.
An output method characterized by
前記センサ検出結果の信頼性を判定する判定工程と、 a determination step of determining the reliability of the sensor detection result;
前記判定工程によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力工程と an output step of outputting the raw data to a subsequent processing device instead of the sensor detection result when the reliability of the sensor detection result is determined to be low by the determination step;
を備え、 with
前記取得工程は、 The obtaining step includes
複数のセンサそれぞれの生データを取得し、 Acquire raw data from each of multiple sensors,
前記判定工程は、 The determination step includes
前記複数のセンサ間でセンサ検出結果が異なる場合、信頼性が低いと判定し、 If the sensor detection results are different between the plurality of sensors, it is determined that the reliability is low,
前記出力工程は、 The output step includes
前記複数のセンサのうち少なくとも1つのセンサについて、センサ検出結果に代えて、生データを前記出力とすること For at least one sensor among the plurality of sensors, raw data is used as the output instead of the sensor detection result.
を特徴とする出力方法。 An output method characterized by
前記センサ検出結果の信頼性を判定する判定工程と、 a determination step of determining the reliability of the sensor detection result;
前記判定工程によってセンサ検出結果の前記信頼性が低いと判定された場合、当該センサ検出結果に代えて、前記生データを後段の処理装置に出力する出力工程と an output step of outputting the raw data to a subsequent processing device instead of the sensor detection result when the reliability of the sensor detection result is determined to be low by the determination step;
生データおよび当該生データから生成されるセンサ検出結果の相関情報を記憶する記憶工程と、 a storage step of storing raw data and correlation information of sensor detection results generated from the raw data;
を備え、 with
前記判定工程は、 The determination step includes
前記取得工程で取得した前記生データと前記記憶工程で記憶された相関情報とに基づいて信頼性を判定すること Determining reliability based on the raw data acquired in the acquiring step and the correlation information stored in the storing step
を特徴とする出力方法。 An output method characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018183950A JP7236835B2 (en) | 2018-09-28 | 2018-09-28 | Output device and output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018183950A JP7236835B2 (en) | 2018-09-28 | 2018-09-28 | Output device and output method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020051986A JP2020051986A (en) | 2020-04-02 |
JP7236835B2 true JP7236835B2 (en) | 2023-03-10 |
Family
ID=69996837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018183950A Active JP7236835B2 (en) | 2018-09-28 | 2018-09-28 | Output device and output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7236835B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000270268A (en) | 1999-03-12 | 2000-09-29 | Fuji Photo Film Co Ltd | Method and device for acquiring picture data |
JP2003058998A (en) | 2001-08-14 | 2003-02-28 | Nissan Motor Co Ltd | Vehicle parking system |
JP2017188035A (en) | 2016-04-08 | 2017-10-12 | 株式会社デンソー | Driving assist system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0688732A (en) * | 1992-09-07 | 1994-03-29 | Nissan Motor Co Ltd | Navigation apparatus for vehicle |
JP3748306B2 (en) * | 1997-01-23 | 2006-02-22 | 富士通テン株式会社 | Radar equipment |
-
2018
- 2018-09-28 JP JP2018183950A patent/JP7236835B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000270268A (en) | 1999-03-12 | 2000-09-29 | Fuji Photo Film Co Ltd | Method and device for acquiring picture data |
JP2003058998A (en) | 2001-08-14 | 2003-02-28 | Nissan Motor Co Ltd | Vehicle parking system |
JP2017188035A (en) | 2016-04-08 | 2017-10-12 | 株式会社デンソー | Driving assist system |
Also Published As
Publication number | Publication date |
---|---|
JP2020051986A (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5503730B2 (en) | Vehicle periphery monitoring device | |
WO2009098743A1 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
EP3477548B1 (en) | Method and image capturing device for detecting fog in a scene | |
CN108802746B (en) | Anti-interference ranging method and device | |
CN109828250B (en) | Radar calibration method, calibration device and terminal equipment | |
US20140240169A1 (en) | Radar apparatus using image change detector and method of operating the same | |
CN116027318A (en) | Method, device, electronic equipment and storage medium for multi-sensor signal fusion | |
CN114467260A (en) | Lossy compressed advanced driver assistance system sensor data processing for driver assistance systems | |
US20220065976A1 (en) | Mobile body detection device, mobile body detection method, and mobile body detection program | |
EP3207523B1 (en) | Obstacle detection apparatus and method | |
JP7236835B2 (en) | Output device and output method | |
CN112989872B (en) | Target detection method and related device | |
CN115439509B (en) | Multi-target tracking method and device, computer equipment and storage medium | |
WO2020003764A1 (en) | Image processing device, moving apparatus, method, and program | |
JP2020052897A (en) | Target detection device and target detection method | |
KR101911860B1 (en) | Method and Apparatus for Detecting Road Using Camera Model and Filter in Depth Image | |
US20100303378A1 (en) | Edge parameter computing method for image and image noise omitting method utilizing the edge parameter computing method | |
CN113108919B (en) | Human body temperature detection method, device and storage medium | |
CN115330657A (en) | Ocean exploration image processing method and device and server | |
CN114513608A (en) | Movement detection method and device and electronic equipment | |
KR20180125278A (en) | Apparatus and method for detecting pedestrian | |
CN114365189A (en) | Image registration device, image generation system, image registration method, and image registration program | |
JP2008040724A (en) | Image processing device and image processing method | |
JP7464801B2 (en) | IMAGE PROCESSING APPARATUS AND IMAGE DATA TRANSMISSION METHOD | |
WO2022249562A1 (en) | Signal processing device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20181030 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20181030 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210906 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20211018 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211115 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236835 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |