JP2019095385A - Sensor system - Google Patents
Sensor system Download PDFInfo
- Publication number
- JP2019095385A JP2019095385A JP2017227062A JP2017227062A JP2019095385A JP 2019095385 A JP2019095385 A JP 2019095385A JP 2017227062 A JP2017227062 A JP 2017227062A JP 2017227062 A JP2017227062 A JP 2017227062A JP 2019095385 A JP2019095385 A JP 2019095385A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- camera
- ecu
- light emission
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本発明は、カメラを備えるセンサシステムに関するものである。 The present invention relates to a sensor system comprising a camera.
この種のセンサシステムとしては、例えば、車両に搭載されたカメラと超音波センサとを備え、カメラが撮像した画像から得られた情報と、超音波の送受信により得られた物体までの距離に関する情報とに基づいて障害物を検知するセンサシステムが提案されている。 This type of sensor system includes, for example, a camera mounted on a vehicle and an ultrasonic sensor, and information obtained from an image captured by the camera and information on the distance to an object obtained by transmission and reception of ultrasonic waves. A sensor system for detecting an obstacle based on the above has been proposed.
このようなセンサシステムでは、通常、カメラが撮像した画像の収集および処理と、超音波センサが行った超音波の送受信の結果の収集および処理は、別々のECUで行われる。そして、これらの処理により得られた画像情報および距離情報は、1つのECUに集められ、このECUにて障害物の検知が行われる。 In such a sensor system, collection and processing of an image captured by a camera and collection and processing of results of transmission and reception of ultrasonic waves performed by an ultrasonic sensor are usually performed by separate ECUs. Then, image information and distance information obtained by these processes are collected in one ECU, and detection of an obstacle is performed in this ECU.
障害物を正確に検知するためには、画像情報および距離情報の取得時刻が一致していることが望ましい。しかしながら、画像処理およびECU間の通信の周期などによって、障害物検知用のECUに集められる情報の取得時刻が一致しない場合がある。 In order to detect an obstacle accurately, it is desirable that the acquisition times of the image information and the distance information coincide. However, the acquisition time of the information collected in the obstacle detection ECU may not coincide with each other due to the cycle of the image processing and the communication between the ECUs.
複数の制御部の同期について、例えば特許文献1では、2つのコントローラ間でメッセージを送信し、メッセージが往復するのに要した時間を測定して2つのコントローラの同期をとる方法が提案されている。
With regard to synchronization of a plurality of control units, for example,
しかしながら、特許文献1に記載の方法では、割り込み処理が入ると同期の精度が低下するため、この方法を上記のような構成のセンサシステムに適用した場合には、障害物の検知精度が低下する。
However, in the method described in
また、カメラの画像情報と、超音波センサ以外のセンサが取得した情報とに基づいて状況を推定するセンサシステムにおいても、2つの情報が取得された時刻のずれによって、同様に状況の推定精度が低下する。 Also in the sensor system that estimates the situation based on the image information of the camera and the information acquired by a sensor other than the ultrasonic sensor, the estimation accuracy of the situation is also similar due to the time difference between the acquisition of the two pieces of information. descend.
本発明は上記点に鑑みて、状況の推定精度を向上させることが可能なセンサシステムを提供することを目的とする。 An object of the present invention is to provide a sensor system capable of improving the estimation accuracy of a situation.
上記目的を達成するため、請求項1に記載の発明では、カメラ(4)が撮像した画像とセンサ(1)が取得した情報とを用いて状況を推定するセンサシステムであって、発光部(3)と、センサおよび発光部を制御するセンサ制御部(2)と、カメラが撮像した画像とセンサが取得した情報とを用いて状況を推定する推定部(2、5)と、を備え、センサ制御部は、センサに作動指示を出すと同時に発光部に発光指示を出し、推定部は、カメラが撮像した画像から発光部の発光が検出されたとき、該発光が検出された時刻を基準に選択された画像と、センサが取得した情報とを用いて状況を推定する。
In order to achieve the above object, the invention according to
このように、センサへの作動指示と同時に発光部への発光指示を出すことで、センサによる情報の取得と発光部の発光がほぼ同時に行われる。すなわち、カメラが撮像した画像のうち、発光部の発光が検出された画像は、センサが情報を取得するのとほぼ同時に撮像されたものである。 As described above, by issuing a light emission instruction to the light emitting unit simultaneously with the operation instruction to the sensor, acquisition of information by the sensor and light emission of the light emitting unit are performed almost simultaneously. That is, among the images captured by the camera, the image in which the light emission of the light emitting unit is detected is captured almost simultaneously with the acquisition of information by the sensor.
したがって、カメラが撮像した画像から発光部の発光が検出されたときには、ほぼ同時に取得された画像情報とセンサ情報の組み合わせを得ることが可能であり、このときに状況を推定することにより、推定精度が向上する。 Therefore, when the light emission of the light emitting unit is detected from the image captured by the camera, it is possible to obtain a combination of the image information and the sensor information acquired almost simultaneously, and by estimating the situation at this time, estimation accuracy Improve.
なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係の一例を示すものである。 In addition, the code | symbol in the parenthesis of each said means shows an example of the correspondence with the specific means as described in embodiment mentioned later.
以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付して説明を行う。 Hereinafter, an embodiment of the present invention will be described based on the drawings. In the following embodiments, parts that are the same as or equivalent to each other will be described with the same reference numerals.
(第1実施形態)
第1実施形態について説明する。本実施形態のセンサシステムは、カメラが撮像した画像とセンサが取得した情報とを用いて状況を推定するものである。ここでは、車両に搭載され、車外の物体を検知するセンサシステムについて説明する。
First Embodiment
The first embodiment will be described. The sensor system of the present embodiment estimates a situation using an image captured by a camera and information acquired by a sensor. Here, a sensor system mounted on a vehicle and detecting an object outside the vehicle will be described.
図1に示すように、センサシステムは、超音波センサ1と、センサECU2と、発光部3と、カメラ4と、カメラECU5と、時間マスタECU6と、車内LAN7とを備える。
As shown in FIG. 1, the sensor system includes an
超音波センサ1は、超音波の送受信により物体との距離を測定するものであり、車両の外表面に面して配置されている。超音波センサ1は、センサECU2からの測定指示に従って超音波の送受信を行い、送受信の結果をセンサECU2に送信する。なお、図1では超音波センサ1を1つのみ図示しているが、センサシステムが超音波センサ1を1つのみ備えていてもよいし、複数備えていてもよい。
The
発光部3は、可視光または赤外線を発生させる図示しない光源を備えており、センサECU2からの発光指示に従って発光する。
The
センサECU2は、超音波センサ1および発光部3を制御するものであり、センサ制御部に相当する。センサECU2は、超音波センサ1に作動指示を出すと同時に発光部3に発光指示を出す。例えば、図1に示すように超音波センサ1が接続されているバス上に発光部3を接続することで、センサECU2が出力した信号が発光部3および超音波センサ1に同時に入力され、超音波センサ1による超音波の送信と発光部3の発光がほぼ同時に行われる。
The
また、センサECU2は、カメラ4が撮像した画像と超音波センサ1が取得した情報とを用いて状況を推定するものであり、推定部に相当する。本実施形態では、センサECU2は、カメラ4が撮像した画像と超音波センサ1が測定した距離とを用いて車両の外部の物体を検知する。そして、センサECU2は、検知した物体の位置に応じて運転者への報知等を行う。
The
カメラ4は、車両の周囲を撮像するものである。カメラ4は、カメラECU5からの撮像指示に従って撮像を行い、撮像画像をカメラECU5に送信する。なお、図1ではカメラ4を1つのみ図示しているが、センサシステムがカメラ4を1つのみ備えていてもよいし、複数備えていてもよい。カメラ4は、撮像される範囲に発光部3が含まれるように設置されている。
The
カメラECU5は、カメラ4を制御する制御部であり、カメラ4が撮像した画像の収集および処理を行うものである。カメラECU5は、周期的にカメラ4に撮像指示を出し、これにより、カメラ4による撮像および撮像画像のカメラECU5への送信が周期的に行われる。そして、カメラECU5は、撮像画像を解析して発光部3の発光が撮像されているか否かを調べ、発光を検出すると、撮像画像および撮像が行われた時刻をセンサECU2に送信する。
The camera ECU 5 is a control unit that controls the
なお、カメラECU5は、カメラ4の複数の撮像画像の中から、発光部3の発光が検出された時刻を基準に1つの画像を選択し、この画像をセンサECU2に送信する。例えば、発光部3の発光が撮像された画像、あるいは、発光が撮像された画像よりも所定時間前に撮像された画像等がセンサECU2に送信される。発光が検出された時刻を基準とした画像の選択方法を適切に設定することにより、センサECU2において物体の検知に用いられる画像情報と距離情報が、ほぼ同時に取得されたものとなる。
The camera ECU 5 selects one image from among a plurality of captured images of the
また、センサECU2およびカメラECU5には、時間マスタECU6から周期的に時刻情報が送信されており、カメラECU5は、この時刻情報から、センサECU2に送信する画像が撮像された時刻を取得し、画像と共にセンサECU2に送信する。
Further, time information is periodically transmitted from the
センサECU2は、受信した画像情報と、受信した時刻情報に対応する時刻の距離情報とに基づいて、物体を検知する。
The
なお、各ECUは、車内LAN7を介して接続されており、時間マスタECU6からセンサECU2およびカメラECU5への時刻情報の送信と、カメラECU5からセンサECU2への画像情報および時刻情報の送信は、車内LAN7を介して行われる。
Each ECU is connected via the in-
センサシステムの作動について説明する。本実施形態では、カメラECU5およびセンサECU2がそれぞれ図2、図3に示す処理を繰り返し実行する。
The operation of the sensor system will be described. In the present embodiment, the
カメラECU5は、図2に示すステップS11〜S13によって画像の収集等を行う。ステップS11では、カメラECU5は、カメラ4に撮像指示を出す。これにより、カメラ4によって車両の周囲が撮像され、撮像画像がカメラECU5に送信される。また、カメラECU5は、時間マスタECU6からの時刻情報を取得し、カメラ4に撮像指示を出した時刻を記憶する。
The camera ECU 5 performs image collection and the like by steps S11 to S13 shown in FIG. In step S11, the
カメラECU5は、ステップS11からステップS12に進み、カメラ4から送信された画像を解析し、発光部3の発光が撮像されているか否かを判定する。発光部3の発光が撮像されていると判定すると、カメラECU5はステップS13に進み、画像情報をセンサECU2に送信する。
The
前述したように、カメラECU5は、発光部3の発光が検出された時刻を基準に選択された画像をセンサECU2に送信する。また、カメラECU5は、この画像を撮像するときにステップS11にて記憶した時刻をセンサECU2に送信する。
As described above, the
一方、ステップS12にて発光部3の発光が撮像されていないと判定すると、カメラECU5は処理を終了する。
On the other hand, when it is determined in step S12 that the light emission of the
センサECU2は、図3に示すステップS21〜S24によって距離の測定および物体の検知を行う。ステップS21では、センサECU2は、超音波センサ1に作動指示を出すと同時に発光部3に発光指示を出し、超音波センサ1に超音波を送信させるとともに、発光部3を発光させる。また、センサECU2は、時間マスタECU6からの時刻情報を取得し、超音波センサ1および発光部3に指示を出した時刻を記憶する。
The
センサECU2は、ステップS21からステップS22に進み、受波処理を行う。具体的には、超音波センサ1が受信した超音波の振幅等に基づいて、車外の物体との距離を算出する。センサECU2は、算出した距離情報を記憶する。なお、センサECU2は、ステップS21、S22を実行する度に、時刻および距離情報の記憶を蓄積する。
The
センサECU2は、ステップS22からステップS23に進み、カメラECU5からの画像を受信したか否かを判定する。画像を受信したと判定すると、センサECU2は、ステップS24にて、物体の検知を行う。
The
具体的には、センサECU2は、ステップS21、S22にて蓄積された情報の中から、カメラECU5から送信された時刻情報に対応するものを選択する。そして、センサECU2は、画像中の物体の位置と選択された距離情報とに基づいて、車外の空間における物体の位置を算出し、例えば、物体が車両と接触する可能性があれば運転者への報知等を行う。
Specifically, the
一方、ステップS23にて画像を受信していないと判定すると、センサECU2は、処理を終了する。
On the other hand, when it is determined in step S23 that the image is not received, the
このように、本実施形態では、センサECU2が、超音波センサ1への作動指示と同時に発光部3への発光指示を出し、超音波センサ1による超音波の送受信と発光部3の発光がほぼ同時に行われる。すなわち、カメラ4が撮像した画像のうち、発光部3の発光が検出された画像は、超音波センサ1が超音波の送受信を行うのとほぼ同時に撮像されたものである。
As described above, in the present embodiment, the
したがって、カメラ4が撮像した画像から発光部3の発光が検出されたときには、ほぼ同時に取得された画像情報と距離情報の組み合わせを得ることが可能であり、このときに物体を検知することにより、検知精度が向上する。
Therefore, when the light emission of the
特許文献1に記載の方法を用いると、割り込み処理によってECU間の同期精度が低下し、物体の検知精度が低下するが、発光の検出時刻を基準に画像情報を選択する本実施形態では、割り込み処理による検知精度の低下を抑制することができる。
When the method described in
また、各情報の取得時刻のずれを低減する方法として、例えば、カメラ4の画像情報および超音波センサ1の距離情報の収集と、これらを用いた物体の検知とを1つのECUで行う方法が考えられる。しかしながら、このような構成では画像系の内部処理で時間がかかる。
Moreover, as a method of reducing the deviation of the acquisition time of each information, for example, there is a method of collecting image information of the
これに対して、本実施形態では、画像処理を専用のカメラECU5で行っているため、画像処理と距離情報の収集等を1つのECUで行う場合に比べて、内部処理にかかる時間を短縮することができる。
On the other hand, in the present embodiment, since the image processing is performed by the
(第2実施形態)
第2実施形態について説明する。本実施形態は、第1実施形態に対して発光部3の作動を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Second Embodiment
The second embodiment will be described. The present embodiment is the same as the first embodiment except that the operation of the
本実施形態のセンサECU2は、超音波センサ1に複数パターンの作動指示を出す。具体的には、センサシステムは車両の外表面に沿って並んだ複数の超音波センサ1を備えており、例えば、センサECU2は、車両の前側に4つの超音波センサ1が配置された場合に、各超音波センサ1を図4、図5に示す2つのパターンで作動させる。すなわち、第1パターンでは、車両10の前側の外表面に沿って並んだ4つの超音波センサ1のうち両端の2つが超音波を送信し、第2パターンでは、他の2つが超音波を送信する。
The
また、センサECU2は、作動指示ごとに発光部3を異なるパターンで発光させ、カメラECU5は、撮像画像に基づいて発光部3の発光パターンを判定する。例えば、センサECU2は、複数の超音波センサ1を第1パターンで作動させるときには発光部3を1回発光させ、複数の超音波センサ1を第2パターンで作動させるときには発光部3を2回発光させる。そして、カメラECU5は、所定時間内にカメラ4が撮像した複数の画像から発光部3の発光が1回検出されれば、発光部3が第1パターンで発光したと判定し、発光が2回検出されれば、発光部3が第2パターンで発光したと判定する。カメラECU5は、パターンの判定結果を画像および時刻情報と共にセンサECU2に送信する。
The
センサECU2は、センサECU2が出した発光指示のパターンと、カメラECU5から送信されたパターンの判定結果とが一致したとき、カメラ4が撮像した画像および超音波センサ1が取得した情報とを用いて物体を検知する。
The
このように、超音波センサ1が作動する毎に発光部3の発光パターンを変化させ、カメラ4の撮像画像に基づいて発光パターンを判定することにより、超音波の送信パターンに合わせて撮像画像を選択することができる。これにより、物体の検知精度がさらに向上する。
As described above, the light emission pattern of the
(他の実施形態)
なお、本発明は上記した実施形態に限定されるものではなく、特許請求の範囲に記載した範囲内において適宜変更が可能である。
(Other embodiments)
In addition, this invention is not limited to above-described embodiment, In the range described in the claim, it can change suitably.
例えば、上記第1実施形態では、センサECU2がステップS24にて物体を検知したが、センサECU2が距離情報をカメラECU5に送信し、カメラECU5がステップS24と同様の処理を実行して物体を検知してもよい。この場合、カメラECU5が推定部に相当する。このような構成では、データ量の大きい画像情報のECU間での送信が行われないため、ECU間の通信にかかる時間を短縮することができる。
For example, in the first embodiment, the
また、センサシステムが推定部としてセンサECU2、カメラECU5とは別のECUを備え、このECUがセンサECU2およびカメラECU5から距離情報および画像情報を受信して物体を検知してもよい。
The sensor system may include an ECU other than the
また、カメラが撮像した画像と超音波センサ以外のセンサが取得した情報とを用いて状況を推定するセンサシステムに本発明を適用してもよい。 In addition, the present invention may be applied to a sensor system that estimates a situation using an image captured by a camera and information acquired by a sensor other than an ultrasonic sensor.
1 超音波センサ
2 センサECU
3 発光部
4 カメラ
5 カメラECU
1
3
Claims (4)
発光部(3)と、
前記センサおよび前記発光部を制御するセンサ制御部(2)と、
前記カメラが撮像した画像と前記センサが取得した情報とを用いて状況を推定する推定部(2、5)と、を備え、
前記センサ制御部は、前記センサに作動指示を出すと同時に前記発光部に発光指示を出し、
前記推定部は、前記カメラが撮像した画像から前記発光部の発光が検出されたとき、該発光が検出された時刻を基準に選択された画像と、前記センサが取得した情報とを用いて状況を推定するセンサシステム。 A sensor system that estimates a situation using an image captured by a camera (4) and information acquired by a sensor (1),
A light emitting unit (3),
A sensor control unit (2) for controlling the sensor and the light emitting unit;
An estimation unit (2, 5) configured to estimate a situation using an image captured by the camera and information acquired by the sensor;
The sensor control unit issues an operation instruction to the sensor and simultaneously issues a light emission instruction to the light emitting unit.
When the light emission of the light emitting unit is detected from the image captured by the camera, the estimation unit uses the image selected based on the time when the light emission is detected and the information acquired by the sensor. Sensor system to estimate.
前記推定部は、前記センサ制御部が出した発光指示のパターンと、前記カメラが撮像した画像から検出された発光パターンとが一致したとき、前記カメラが撮像した画像および前記センサが取得した情報とを用いて状況を推定する請求項1に記載のセンサシステム。 The sensor control unit issues an operation instruction to the sensor a plurality of times, and causes the light emitting unit to emit light in a different pattern for each operation instruction.
When the pattern of the light emission instruction issued by the sensor control unit matches the light emission pattern detected from the image captured by the camera, the estimation unit matches the image captured by the camera and the information acquired by the sensor The sensor system according to claim 1, wherein the situation is estimated using.
前記カメラが撮像した画像と前記センサが測定した距離とを用いて前記車両の外部の物体を検知する請求項3に記載のセンサシステム。 Mounted on the vehicle,
The sensor system according to claim 3, wherein an object outside the vehicle is detected using an image captured by the camera and a distance measured by the sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227062A JP2019095385A (en) | 2017-11-27 | 2017-11-27 | Sensor system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227062A JP2019095385A (en) | 2017-11-27 | 2017-11-27 | Sensor system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019095385A true JP2019095385A (en) | 2019-06-20 |
Family
ID=66971474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017227062A Pending JP2019095385A (en) | 2017-11-27 | 2017-11-27 | Sensor system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019095385A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116196A1 (en) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging device, solid-state imaging method, and electronic apparatus |
-
2017
- 2017-11-27 JP JP2017227062A patent/JP2019095385A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116196A1 (en) * | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging device, solid-state imaging method, and electronic apparatus |
JPWO2020116196A1 (en) * | 2018-12-07 | 2021-10-14 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state image sensor, solid-state imaging method and electronic equipment |
US11490038B2 (en) | 2018-12-07 | 2022-11-01 | Sony Semiconductor Solutions Corporation | Solid-state imaging device, solid-state imaging method, and electronic equipment |
JP7357640B2 (en) | 2018-12-07 | 2023-10-06 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging device, solid-state imaging method, and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101716590B1 (en) | Method for the improved activation of ultrasonic sensors, driver assistance device and motor vehicle | |
US20170176594A1 (en) | Obstacle detection device | |
US9527509B2 (en) | Driver convenience system and method for determining vertical angle abnormality of radar therein | |
WO2013099391A1 (en) | Driving assistance system | |
KR101491849B1 (en) | fail-safe system and method for inter-vehicle distance | |
JP6490747B2 (en) | Object recognition device, object recognition method, and vehicle control system | |
JP6221464B2 (en) | Stereo camera device, moving body control system, moving body, and program | |
JP2020154758A (en) | Driving support device | |
WO2016031919A1 (en) | Axial displacement diagnosis apparatus | |
JP2012018613A (en) | Vehicle peripheral obstacle monitoring device | |
JP5655497B2 (en) | Obstacle recognition device and obstacle recognition method | |
JP2019095385A (en) | Sensor system | |
CN110261863B (en) | Optical safety sensor | |
JP6169146B2 (en) | Object recognition integration apparatus and object recognition integration method | |
CN111683850A (en) | Parking assistance device and parking assistance method | |
US20210289329A1 (en) | Method and device for receiving, processing and transmitting data | |
JP2006023108A (en) | Peripheral monitor for car | |
JP6439652B2 (en) | In-vehicle device and in-vehicle system | |
JP2019021013A (en) | Vehicle control system | |
JP6476248B2 (en) | Method and system for capturing an object in a vehicle environment | |
JP5783163B2 (en) | Target detection device | |
JP2020504387A (en) | Determination of movement information by ambient sensor | |
JP6690194B2 (en) | Driving support transmitter, driving support receiver, program | |
US11960003B2 (en) | Control device for object detection device, object detection device, and non-transitory computer-readable storage medium | |
JP2021026457A5 (en) |