JP2019095385A - Sensor system - Google Patents

Sensor system Download PDF

Info

Publication number
JP2019095385A
JP2019095385A JP2017227062A JP2017227062A JP2019095385A JP 2019095385 A JP2019095385 A JP 2019095385A JP 2017227062 A JP2017227062 A JP 2017227062A JP 2017227062 A JP2017227062 A JP 2017227062A JP 2019095385 A JP2019095385 A JP 2019095385A
Authority
JP
Japan
Prior art keywords
sensor
camera
ecu
light emission
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017227062A
Other languages
Japanese (ja)
Inventor
弘充 大島
Hiromitsu Oshima
弘充 大島
覚 野呂
Satoru Noro
覚 野呂
伊豆原 英嗣
Hidetsugu Izuhara
英嗣 伊豆原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017227062A priority Critical patent/JP2019095385A/en
Publication of JP2019095385A publication Critical patent/JP2019095385A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

To provide a sensor system that can improve estimation accuracy of a situation.SOLUTION: A sensor system includes: a sensor 1; a light emission unit 3; a sensor controller 2 for controlling the sensor 1 and the light emission unit 3; a camera 4; and estimation units 2 and 5 for estimating a situation, using information acquired by the sensor 1 and an image taken by the camera 4. the sensor controller 2 instructs the light emission unit 3 to emit light and instructs the sensor 1 to operate at the same time. When light emission from the light emission unit 3 is detected from the image taken by the camera 4, the estimation units 2 and 5 estimate the situation, using the image selected with reference to time when the light emission is detected and the information acquired by the sensor 1.SELECTED DRAWING: Figure 1

Description

本発明は、カメラを備えるセンサシステムに関するものである。   The present invention relates to a sensor system comprising a camera.

この種のセンサシステムとしては、例えば、車両に搭載されたカメラと超音波センサとを備え、カメラが撮像した画像から得られた情報と、超音波の送受信により得られた物体までの距離に関する情報とに基づいて障害物を検知するセンサシステムが提案されている。   This type of sensor system includes, for example, a camera mounted on a vehicle and an ultrasonic sensor, and information obtained from an image captured by the camera and information on the distance to an object obtained by transmission and reception of ultrasonic waves. A sensor system for detecting an obstacle based on the above has been proposed.

このようなセンサシステムでは、通常、カメラが撮像した画像の収集および処理と、超音波センサが行った超音波の送受信の結果の収集および処理は、別々のECUで行われる。そして、これらの処理により得られた画像情報および距離情報は、1つのECUに集められ、このECUにて障害物の検知が行われる。   In such a sensor system, collection and processing of an image captured by a camera and collection and processing of results of transmission and reception of ultrasonic waves performed by an ultrasonic sensor are usually performed by separate ECUs. Then, image information and distance information obtained by these processes are collected in one ECU, and detection of an obstacle is performed in this ECU.

障害物を正確に検知するためには、画像情報および距離情報の取得時刻が一致していることが望ましい。しかしながら、画像処理およびECU間の通信の周期などによって、障害物検知用のECUに集められる情報の取得時刻が一致しない場合がある。   In order to detect an obstacle accurately, it is desirable that the acquisition times of the image information and the distance information coincide. However, the acquisition time of the information collected in the obstacle detection ECU may not coincide with each other due to the cycle of the image processing and the communication between the ECUs.

複数の制御部の同期について、例えば特許文献1では、2つのコントローラ間でメッセージを送信し、メッセージが往復するのに要した時間を測定して2つのコントローラの同期をとる方法が提案されている。   With regard to synchronization of a plurality of control units, for example, Patent Document 1 proposes a method of transmitting a message between two controllers, measuring the time taken for the message to reciprocate, and synchronizing the two controllers. .

特表2017−517086号公報JP-A-2017-517086

しかしながら、特許文献1に記載の方法では、割り込み処理が入ると同期の精度が低下するため、この方法を上記のような構成のセンサシステムに適用した場合には、障害物の検知精度が低下する。   However, in the method described in Patent Document 1, the accuracy of synchronization decreases when interrupt processing is performed, so when this method is applied to a sensor system configured as described above, the detection accuracy of an obstacle decreases. .

また、カメラの画像情報と、超音波センサ以外のセンサが取得した情報とに基づいて状況を推定するセンサシステムにおいても、2つの情報が取得された時刻のずれによって、同様に状況の推定精度が低下する。   Also in the sensor system that estimates the situation based on the image information of the camera and the information acquired by a sensor other than the ultrasonic sensor, the estimation accuracy of the situation is also similar due to the time difference between the acquisition of the two pieces of information. descend.

本発明は上記点に鑑みて、状況の推定精度を向上させることが可能なセンサシステムを提供することを目的とする。   An object of the present invention is to provide a sensor system capable of improving the estimation accuracy of a situation.

上記目的を達成するため、請求項1に記載の発明では、カメラ(4)が撮像した画像とセンサ(1)が取得した情報とを用いて状況を推定するセンサシステムであって、発光部(3)と、センサおよび発光部を制御するセンサ制御部(2)と、カメラが撮像した画像とセンサが取得した情報とを用いて状況を推定する推定部(2、5)と、を備え、センサ制御部は、センサに作動指示を出すと同時に発光部に発光指示を出し、推定部は、カメラが撮像した画像から発光部の発光が検出されたとき、該発光が検出された時刻を基準に選択された画像と、センサが取得した情報とを用いて状況を推定する。   In order to achieve the above object, the invention according to claim 1 is a sensor system that estimates a situation using an image captured by a camera (4) and information acquired by a sensor (1), 3), a sensor control unit (2) that controls the sensor and the light emitting unit, and an estimation unit (2, 5) that estimates a situation using an image captured by a camera and information acquired by the sensor The sensor control unit issues an operation instruction to the sensor and simultaneously issues a light emission instruction to the light emission unit, and the estimation unit references the time when the light emission is detected when the light emission of the light emission unit is detected from the image captured by the camera. The situation is estimated using the selected image and the information acquired by the sensor.

このように、センサへの作動指示と同時に発光部への発光指示を出すことで、センサによる情報の取得と発光部の発光がほぼ同時に行われる。すなわち、カメラが撮像した画像のうち、発光部の発光が検出された画像は、センサが情報を取得するのとほぼ同時に撮像されたものである。   As described above, by issuing a light emission instruction to the light emitting unit simultaneously with the operation instruction to the sensor, acquisition of information by the sensor and light emission of the light emitting unit are performed almost simultaneously. That is, among the images captured by the camera, the image in which the light emission of the light emitting unit is detected is captured almost simultaneously with the acquisition of information by the sensor.

したがって、カメラが撮像した画像から発光部の発光が検出されたときには、ほぼ同時に取得された画像情報とセンサ情報の組み合わせを得ることが可能であり、このときに状況を推定することにより、推定精度が向上する。   Therefore, when the light emission of the light emitting unit is detected from the image captured by the camera, it is possible to obtain a combination of the image information and the sensor information acquired almost simultaneously, and by estimating the situation at this time, estimation accuracy Improve.

なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係の一例を示すものである。   In addition, the code | symbol in the parenthesis of each said means shows an example of the correspondence with the specific means as described in embodiment mentioned later.

第1実施形態にかかるセンサシステムの構成を示す図である。It is a figure showing composition of a sensor system concerning a 1st embodiment. カメラECUが実行する処理のフローチャートである。It is a flowchart of the process which camera ECU performs. センサECUが実行する処理のフローチャートである。It is a flowchart of the process which sensor ECU performs. 超音波の送受信の第1パターンを示す図である。It is a figure which shows the 1st pattern of transmission / reception of an ultrasonic wave. 超音波の送受信の第2パターンを示す図である。It is a figure which shows the 2nd pattern of transmission / reception of an ultrasonic wave.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付して説明を行う。   Hereinafter, an embodiment of the present invention will be described based on the drawings. In the following embodiments, parts that are the same as or equivalent to each other will be described with the same reference numerals.

(第1実施形態)
第1実施形態について説明する。本実施形態のセンサシステムは、カメラが撮像した画像とセンサが取得した情報とを用いて状況を推定するものである。ここでは、車両に搭載され、車外の物体を検知するセンサシステムについて説明する。
First Embodiment
The first embodiment will be described. The sensor system of the present embodiment estimates a situation using an image captured by a camera and information acquired by a sensor. Here, a sensor system mounted on a vehicle and detecting an object outside the vehicle will be described.

図1に示すように、センサシステムは、超音波センサ1と、センサECU2と、発光部3と、カメラ4と、カメラECU5と、時間マスタECU6と、車内LAN7とを備える。   As shown in FIG. 1, the sensor system includes an ultrasonic sensor 1, a sensor ECU 2, a light emitting unit 3, a camera 4, a camera ECU 5, a time master ECU 6, and an in-vehicle LAN 7.

超音波センサ1は、超音波の送受信により物体との距離を測定するものであり、車両の外表面に面して配置されている。超音波センサ1は、センサECU2からの測定指示に従って超音波の送受信を行い、送受信の結果をセンサECU2に送信する。なお、図1では超音波センサ1を1つのみ図示しているが、センサシステムが超音波センサ1を1つのみ備えていてもよいし、複数備えていてもよい。   The ultrasonic sensor 1 measures the distance to an object by transmitting and receiving ultrasonic waves, and is disposed facing the outer surface of the vehicle. The ultrasonic sensor 1 transmits and receives ultrasonic waves in accordance with a measurement instruction from the sensor ECU 2, and transmits the result of transmission and reception to the sensor ECU 2. Although only one ultrasonic sensor 1 is illustrated in FIG. 1, the sensor system may include only one ultrasonic sensor 1 or a plurality of ultrasonic sensors 1.

発光部3は、可視光または赤外線を発生させる図示しない光源を備えており、センサECU2からの発光指示に従って発光する。   The light emitting unit 3 includes a light source (not shown) that generates visible light or infrared light, and emits light in accordance with a light emission instruction from the sensor ECU 2.

センサECU2は、超音波センサ1および発光部3を制御するものであり、センサ制御部に相当する。センサECU2は、超音波センサ1に作動指示を出すと同時に発光部3に発光指示を出す。例えば、図1に示すように超音波センサ1が接続されているバス上に発光部3を接続することで、センサECU2が出力した信号が発光部3および超音波センサ1に同時に入力され、超音波センサ1による超音波の送信と発光部3の発光がほぼ同時に行われる。   The sensor ECU 2 controls the ultrasonic sensor 1 and the light emitting unit 3 and corresponds to a sensor control unit. The sensor ECU 2 issues an operation instruction to the ultrasonic sensor 1 and simultaneously issues a light emission instruction to the light emitting unit 3. For example, as shown in FIG. 1, by connecting the light emitting unit 3 on the bus to which the ultrasonic sensor 1 is connected, the signal output from the sensor ECU 2 is simultaneously input to the light emitting unit 3 and the ultrasonic sensor 1 Transmission of the ultrasonic wave by the sound wave sensor 1 and light emission of the light emitting unit 3 are performed almost simultaneously.

また、センサECU2は、カメラ4が撮像した画像と超音波センサ1が取得した情報とを用いて状況を推定するものであり、推定部に相当する。本実施形態では、センサECU2は、カメラ4が撮像した画像と超音波センサ1が測定した距離とを用いて車両の外部の物体を検知する。そして、センサECU2は、検知した物体の位置に応じて運転者への報知等を行う。   The sensor ECU 2 estimates a situation using an image captured by the camera 4 and information acquired by the ultrasonic sensor 1 and corresponds to an estimation unit. In the present embodiment, the sensor ECU 2 detects an object outside the vehicle using the image captured by the camera 4 and the distance measured by the ultrasonic sensor 1. Then, the sensor ECU 2 performs notification etc. to the driver according to the position of the detected object.

カメラ4は、車両の周囲を撮像するものである。カメラ4は、カメラECU5からの撮像指示に従って撮像を行い、撮像画像をカメラECU5に送信する。なお、図1ではカメラ4を1つのみ図示しているが、センサシステムがカメラ4を1つのみ備えていてもよいし、複数備えていてもよい。カメラ4は、撮像される範囲に発光部3が含まれるように設置されている。   The camera 4 is for imaging the surroundings of the vehicle. The camera 4 performs imaging in accordance with an imaging instruction from the camera ECU 5, and transmits a captured image to the camera ECU 5. Although only one camera 4 is illustrated in FIG. 1, the sensor system may include only one camera 4 or a plurality of cameras. The camera 4 is installed such that the light emitting unit 3 is included in the range to be imaged.

カメラECU5は、カメラ4を制御する制御部であり、カメラ4が撮像した画像の収集および処理を行うものである。カメラECU5は、周期的にカメラ4に撮像指示を出し、これにより、カメラ4による撮像および撮像画像のカメラECU5への送信が周期的に行われる。そして、カメラECU5は、撮像画像を解析して発光部3の発光が撮像されているか否かを調べ、発光を検出すると、撮像画像および撮像が行われた時刻をセンサECU2に送信する。   The camera ECU 5 is a control unit that controls the camera 4 and performs collection and processing of an image captured by the camera 4. The camera ECU 5 periodically issues an imaging instruction to the camera 4, whereby the imaging by the camera 4 and the transmission of the imaged image to the camera ECU 5 are periodically performed. Then, the camera ECU 5 analyzes the captured image to check whether the light emission of the light emitting unit 3 is captured, and when the light emission is detected, transmits the captured image and the time at which the image was captured to the sensor ECU 2.

なお、カメラECU5は、カメラ4の複数の撮像画像の中から、発光部3の発光が検出された時刻を基準に1つの画像を選択し、この画像をセンサECU2に送信する。例えば、発光部3の発光が撮像された画像、あるいは、発光が撮像された画像よりも所定時間前に撮像された画像等がセンサECU2に送信される。発光が検出された時刻を基準とした画像の選択方法を適切に設定することにより、センサECU2において物体の検知に用いられる画像情報と距離情報が、ほぼ同時に取得されたものとなる。   The camera ECU 5 selects one image from among a plurality of captured images of the camera 4 based on the time when light emission of the light emitting unit 3 is detected, and transmits this image to the sensor ECU 2. For example, an image in which the light emission of the light emitting unit 3 is captured, or an image captured a predetermined time before the image in which the light emission is captured is transmitted to the sensor ECU 2. By appropriately setting the selection method of the image based on the time when the light emission is detected, the image information and the distance information used for detecting the object in the sensor ECU 2 are obtained almost simultaneously.

また、センサECU2およびカメラECU5には、時間マスタECU6から周期的に時刻情報が送信されており、カメラECU5は、この時刻情報から、センサECU2に送信する画像が撮像された時刻を取得し、画像と共にセンサECU2に送信する。   Further, time information is periodically transmitted from the time master ECU 6 to the sensor ECU 2 and the camera ECU 5, and the camera ECU 5 acquires the time at which the image to be transmitted to the sensor ECU 2 was captured from the time information. Together with the sensor ECU 2.

センサECU2は、受信した画像情報と、受信した時刻情報に対応する時刻の距離情報とに基づいて、物体を検知する。   The sensor ECU 2 detects an object based on the received image information and distance information on time corresponding to the received time information.

なお、各ECUは、車内LAN7を介して接続されており、時間マスタECU6からセンサECU2およびカメラECU5への時刻情報の送信と、カメラECU5からセンサECU2への画像情報および時刻情報の送信は、車内LAN7を介して行われる。   Each ECU is connected via the in-vehicle LAN 7, and transmission of time information from the time master ECU 6 to the sensor ECU 2 and the camera ECU 5 and transmission of image information and time information from the camera ECU 5 to the sensor ECU 2 are performed in the vehicle It takes place via LAN7.

センサシステムの作動について説明する。本実施形態では、カメラECU5およびセンサECU2がそれぞれ図2、図3に示す処理を繰り返し実行する。   The operation of the sensor system will be described. In the present embodiment, the camera ECU 5 and the sensor ECU 2 repeatedly execute the processing shown in FIGS. 2 and 3.

カメラECU5は、図2に示すステップS11〜S13によって画像の収集等を行う。ステップS11では、カメラECU5は、カメラ4に撮像指示を出す。これにより、カメラ4によって車両の周囲が撮像され、撮像画像がカメラECU5に送信される。また、カメラECU5は、時間マスタECU6からの時刻情報を取得し、カメラ4に撮像指示を出した時刻を記憶する。   The camera ECU 5 performs image collection and the like by steps S11 to S13 shown in FIG. In step S11, the camera ECU 5 issues an imaging instruction to the camera 4. Thereby, the surroundings of the vehicle are imaged by the camera 4, and the imaged image is transmitted to the camera ECU 5. Further, the camera ECU 5 acquires time information from the time master ECU 6 and stores the time when the imaging instruction is issued to the camera 4.

カメラECU5は、ステップS11からステップS12に進み、カメラ4から送信された画像を解析し、発光部3の発光が撮像されているか否かを判定する。発光部3の発光が撮像されていると判定すると、カメラECU5はステップS13に進み、画像情報をセンサECU2に送信する。   The camera ECU 5 proceeds from step S11 to step S12, analyzes the image transmitted from the camera 4, and determines whether or not the light emission of the light emitting unit 3 is captured. When it is determined that the light emission of the light emitting unit 3 is captured, the camera ECU 5 proceeds to step S13, and transmits the image information to the sensor ECU 2.

前述したように、カメラECU5は、発光部3の発光が検出された時刻を基準に選択された画像をセンサECU2に送信する。また、カメラECU5は、この画像を撮像するときにステップS11にて記憶した時刻をセンサECU2に送信する。   As described above, the camera ECU 5 transmits the image selected on the basis of the time when the light emission of the light emitting unit 3 is detected to the sensor ECU 2. The camera ECU 5 also transmits the time stored in step S11 to the sensor ECU 2 when capturing this image.

一方、ステップS12にて発光部3の発光が撮像されていないと判定すると、カメラECU5は処理を終了する。   On the other hand, when it is determined in step S12 that the light emission of the light emitting unit 3 is not captured, the camera ECU 5 ends the process.

センサECU2は、図3に示すステップS21〜S24によって距離の測定および物体の検知を行う。ステップS21では、センサECU2は、超音波センサ1に作動指示を出すと同時に発光部3に発光指示を出し、超音波センサ1に超音波を送信させるとともに、発光部3を発光させる。また、センサECU2は、時間マスタECU6からの時刻情報を取得し、超音波センサ1および発光部3に指示を出した時刻を記憶する。   The sensor ECU 2 performs distance measurement and object detection by steps S21 to S24 shown in FIG. In step S21, the sensor ECU 2 issues an operation instruction to the ultrasonic sensor 1 and simultaneously issues a light emission instruction to the light emitting unit 3, causes the ultrasonic sensor 1 to transmit an ultrasonic wave, and causes the light emitting unit 3 to emit light. Further, the sensor ECU 2 acquires time information from the time master ECU 6 and stores the time when an instruction is issued to the ultrasonic sensor 1 and the light emitting unit 3.

センサECU2は、ステップS21からステップS22に進み、受波処理を行う。具体的には、超音波センサ1が受信した超音波の振幅等に基づいて、車外の物体との距離を算出する。センサECU2は、算出した距離情報を記憶する。なお、センサECU2は、ステップS21、S22を実行する度に、時刻および距離情報の記憶を蓄積する。   The sensor ECU 2 proceeds from step S21 to step S22 to perform wave reception processing. Specifically, the distance to an object outside the vehicle is calculated based on the amplitude and the like of the ultrasonic wave received by the ultrasonic sensor 1. The sensor ECU 2 stores the calculated distance information. The sensor ECU 2 accumulates storage of time and distance information each time steps S21 and S22 are executed.

センサECU2は、ステップS22からステップS23に進み、カメラECU5からの画像を受信したか否かを判定する。画像を受信したと判定すると、センサECU2は、ステップS24にて、物体の検知を行う。   The sensor ECU 2 proceeds from step S22 to step S23, and determines whether an image from the camera ECU 5 has been received. If it determines with having received the image, sensor ECU2 will detect an object in step S24.

具体的には、センサECU2は、ステップS21、S22にて蓄積された情報の中から、カメラECU5から送信された時刻情報に対応するものを選択する。そして、センサECU2は、画像中の物体の位置と選択された距離情報とに基づいて、車外の空間における物体の位置を算出し、例えば、物体が車両と接触する可能性があれば運転者への報知等を行う。   Specifically, the sensor ECU 2 selects one corresponding to the time information transmitted from the camera ECU 5 among the information accumulated in steps S21 and S22. Then, the sensor ECU 2 calculates the position of the object in the space outside the vehicle based on the position of the object in the image and the selected distance information, and for example, to the driver if there is a possibility that the object contacts the vehicle. To notify etc.

一方、ステップS23にて画像を受信していないと判定すると、センサECU2は、処理を終了する。   On the other hand, when it is determined in step S23 that the image is not received, the sensor ECU 2 ends the process.

このように、本実施形態では、センサECU2が、超音波センサ1への作動指示と同時に発光部3への発光指示を出し、超音波センサ1による超音波の送受信と発光部3の発光がほぼ同時に行われる。すなわち、カメラ4が撮像した画像のうち、発光部3の発光が検出された画像は、超音波センサ1が超音波の送受信を行うのとほぼ同時に撮像されたものである。   As described above, in the present embodiment, the sensor ECU 2 issues a light emission instruction to the light emitting unit 3 simultaneously with the operation instruction to the ultrasonic wave sensor 1, and transmission and reception of ultrasonic waves by the ultrasonic sensor 1 and light emission from the light emitting unit 3 are substantially It takes place at the same time. That is, among the images captured by the camera 4, the image in which the light emission of the light emitting unit 3 is detected is captured almost at the same time as the ultrasonic sensor 1 transmits and receives the ultrasonic waves.

したがって、カメラ4が撮像した画像から発光部3の発光が検出されたときには、ほぼ同時に取得された画像情報と距離情報の組み合わせを得ることが可能であり、このときに物体を検知することにより、検知精度が向上する。   Therefore, when the light emission of the light emitting unit 3 is detected from the image captured by the camera 4, it is possible to obtain a combination of the image information and the distance information acquired substantially simultaneously, and by detecting the object at this time, Detection accuracy is improved.

特許文献1に記載の方法を用いると、割り込み処理によってECU間の同期精度が低下し、物体の検知精度が低下するが、発光の検出時刻を基準に画像情報を選択する本実施形態では、割り込み処理による検知精度の低下を抑制することができる。   When the method described in Patent Document 1 is used, the accuracy of synchronization between ECUs is lowered by interrupt processing, and the accuracy of detection of an object is lowered. However, in the present embodiment, image information is selected based on the light emission detection time. It is possible to suppress a decrease in detection accuracy due to processing.

また、各情報の取得時刻のずれを低減する方法として、例えば、カメラ4の画像情報および超音波センサ1の距離情報の収集と、これらを用いた物体の検知とを1つのECUで行う方法が考えられる。しかしながら、このような構成では画像系の内部処理で時間がかかる。   Moreover, as a method of reducing the deviation of the acquisition time of each information, for example, there is a method of collecting image information of the camera 4 and distance information of the ultrasonic sensor 1 and detecting an object using these with one ECU. Conceivable. However, in such a configuration, internal processing of the image system takes time.

これに対して、本実施形態では、画像処理を専用のカメラECU5で行っているため、画像処理と距離情報の収集等を1つのECUで行う場合に比べて、内部処理にかかる時間を短縮することができる。   On the other hand, in the present embodiment, since the image processing is performed by the dedicated camera ECU 5, the time required for the internal processing is shortened compared to the case where the image processing and the collection of distance information are performed by one ECU. be able to.

(第2実施形態)
第2実施形態について説明する。本実施形態は、第1実施形態に対して発光部3の作動を変更したものであり、その他については第1実施形態と同様であるため、第1実施形態と異なる部分についてのみ説明する。
Second Embodiment
The second embodiment will be described. The present embodiment is the same as the first embodiment except that the operation of the light emitting unit 3 is modified with respect to the first embodiment, and therefore only the parts different from the first embodiment will be described.

本実施形態のセンサECU2は、超音波センサ1に複数パターンの作動指示を出す。具体的には、センサシステムは車両の外表面に沿って並んだ複数の超音波センサ1を備えており、例えば、センサECU2は、車両の前側に4つの超音波センサ1が配置された場合に、各超音波センサ1を図4、図5に示す2つのパターンで作動させる。すなわち、第1パターンでは、車両10の前側の外表面に沿って並んだ4つの超音波センサ1のうち両端の2つが超音波を送信し、第2パターンでは、他の2つが超音波を送信する。   The sensor ECU 2 of the present embodiment instructs the ultrasonic sensor 1 to operate in a plurality of patterns. Specifically, the sensor system includes a plurality of ultrasonic sensors 1 arranged along the outer surface of the vehicle, for example, when the sensor ECU 2 is arranged with four ultrasonic sensors 1 on the front side of the vehicle. Each ultrasonic sensor 1 is operated in two patterns shown in FIG. 4 and FIG. That is, in the first pattern, two out of the four ultrasonic sensors 1 aligned along the front outer surface of the vehicle 10 transmit ultrasonic waves, and in the second pattern, the other two transmit ultrasonic waves. Do.

また、センサECU2は、作動指示ごとに発光部3を異なるパターンで発光させ、カメラECU5は、撮像画像に基づいて発光部3の発光パターンを判定する。例えば、センサECU2は、複数の超音波センサ1を第1パターンで作動させるときには発光部3を1回発光させ、複数の超音波センサ1を第2パターンで作動させるときには発光部3を2回発光させる。そして、カメラECU5は、所定時間内にカメラ4が撮像した複数の画像から発光部3の発光が1回検出されれば、発光部3が第1パターンで発光したと判定し、発光が2回検出されれば、発光部3が第2パターンで発光したと判定する。カメラECU5は、パターンの判定結果を画像および時刻情報と共にセンサECU2に送信する。   The sensor ECU 2 causes the light emitting unit 3 to emit light in a different pattern for each operation instruction, and the camera ECU 5 determines the light emission pattern of the light emitting unit 3 based on the captured image. For example, the sensor ECU 2 causes the light emitting unit 3 to emit light once when operating the plurality of ultrasonic sensors 1 in the first pattern, and emits light twice when emitting the plurality of ultrasonic sensors 1 in the second pattern. Let Then, if light emission of the light emitting unit 3 is detected once from a plurality of images captured by the camera 4 within a predetermined time, the camera ECU 5 determines that the light emitting unit 3 emits light in the first pattern, and light emission is performed twice. If it is detected, it is determined that the light emitting unit 3 emits light in the second pattern. The camera ECU 5 transmits the determination result of the pattern to the sensor ECU 2 together with the image and time information.

センサECU2は、センサECU2が出した発光指示のパターンと、カメラECU5から送信されたパターンの判定結果とが一致したとき、カメラ4が撮像した画像および超音波センサ1が取得した情報とを用いて物体を検知する。   The sensor ECU 2 uses the image captured by the camera 4 and the information acquired by the ultrasonic sensor 1 when the light emission instruction pattern issued by the sensor ECU 2 matches the pattern determination result transmitted from the camera ECU 5. Detect an object.

このように、超音波センサ1が作動する毎に発光部3の発光パターンを変化させ、カメラ4の撮像画像に基づいて発光パターンを判定することにより、超音波の送信パターンに合わせて撮像画像を選択することができる。これにより、物体の検知精度がさらに向上する。   As described above, the light emission pattern of the light emitting unit 3 is changed each time the ultrasonic sensor 1 operates, and the light emission pattern is determined based on the captured image of the camera 4 to match the transmission pattern of the ultrasonic wave. It can be selected. This further improves the detection accuracy of the object.

(他の実施形態)
なお、本発明は上記した実施形態に限定されるものではなく、特許請求の範囲に記載した範囲内において適宜変更が可能である。
(Other embodiments)
In addition, this invention is not limited to above-described embodiment, In the range described in the claim, it can change suitably.

例えば、上記第1実施形態では、センサECU2がステップS24にて物体を検知したが、センサECU2が距離情報をカメラECU5に送信し、カメラECU5がステップS24と同様の処理を実行して物体を検知してもよい。この場合、カメラECU5が推定部に相当する。このような構成では、データ量の大きい画像情報のECU間での送信が行われないため、ECU間の通信にかかる時間を短縮することができる。   For example, in the first embodiment, the sensor ECU 2 detects an object in step S24, but the sensor ECU 2 transmits distance information to the camera ECU 5, and the camera ECU 5 executes the same processing as step S24 to detect an object. You may In this case, the camera ECU 5 corresponds to the estimation unit. In such a configuration, transmission of image information having a large amount of data between the ECUs is not performed, so the time required for communication between the ECUs can be shortened.

また、センサシステムが推定部としてセンサECU2、カメラECU5とは別のECUを備え、このECUがセンサECU2およびカメラECU5から距離情報および画像情報を受信して物体を検知してもよい。   The sensor system may include an ECU other than the sensor ECU 2 and the camera ECU 5 as an estimation unit, and the ECU may receive distance information and image information from the sensor ECU 2 and the camera ECU 5 to detect an object.

また、カメラが撮像した画像と超音波センサ以外のセンサが取得した情報とを用いて状況を推定するセンサシステムに本発明を適用してもよい。   In addition, the present invention may be applied to a sensor system that estimates a situation using an image captured by a camera and information acquired by a sensor other than an ultrasonic sensor.

1 超音波センサ
2 センサECU
3 発光部
4 カメラ
5 カメラECU
1 Ultrasonic sensor 2 Sensor ECU
3 light emitting unit 4 camera 5 camera ECU

Claims (4)

カメラ(4)が撮像した画像とセンサ(1)が取得した情報とを用いて状況を推定するセンサシステムであって、
発光部(3)と、
前記センサおよび前記発光部を制御するセンサ制御部(2)と、
前記カメラが撮像した画像と前記センサが取得した情報とを用いて状況を推定する推定部(2、5)と、を備え、
前記センサ制御部は、前記センサに作動指示を出すと同時に前記発光部に発光指示を出し、
前記推定部は、前記カメラが撮像した画像から前記発光部の発光が検出されたとき、該発光が検出された時刻を基準に選択された画像と、前記センサが取得した情報とを用いて状況を推定するセンサシステム。
A sensor system that estimates a situation using an image captured by a camera (4) and information acquired by a sensor (1),
A light emitting unit (3),
A sensor control unit (2) for controlling the sensor and the light emitting unit;
An estimation unit (2, 5) configured to estimate a situation using an image captured by the camera and information acquired by the sensor;
The sensor control unit issues an operation instruction to the sensor and simultaneously issues a light emission instruction to the light emitting unit.
When the light emission of the light emitting unit is detected from the image captured by the camera, the estimation unit uses the image selected based on the time when the light emission is detected and the information acquired by the sensor. Sensor system to estimate.
前記センサ制御部は、前記センサに作動指示を複数回出すとともに、作動指示ごとに前記発光部を異なるパターンで発光させ、
前記推定部は、前記センサ制御部が出した発光指示のパターンと、前記カメラが撮像した画像から検出された発光パターンとが一致したとき、前記カメラが撮像した画像および前記センサが取得した情報とを用いて状況を推定する請求項1に記載のセンサシステム。
The sensor control unit issues an operation instruction to the sensor a plurality of times, and causes the light emitting unit to emit light in a different pattern for each operation instruction.
When the pattern of the light emission instruction issued by the sensor control unit matches the light emission pattern detected from the image captured by the camera, the estimation unit matches the image captured by the camera and the information acquired by the sensor The sensor system according to claim 1, wherein the situation is estimated using.
前記センサは、超音波の送受信によって物体との距離を測定する超音波センサである請求項1または2に記載のセンサシステム。   The sensor system according to claim 1, wherein the sensor is an ultrasonic sensor that measures a distance to an object by transmitting and receiving ultrasonic waves. 車両に搭載され、
前記カメラが撮像した画像と前記センサが測定した距離とを用いて前記車両の外部の物体を検知する請求項3に記載のセンサシステム。
Mounted on the vehicle,
The sensor system according to claim 3, wherein an object outside the vehicle is detected using an image captured by the camera and a distance measured by the sensor.
JP2017227062A 2017-11-27 2017-11-27 Sensor system Pending JP2019095385A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017227062A JP2019095385A (en) 2017-11-27 2017-11-27 Sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017227062A JP2019095385A (en) 2017-11-27 2017-11-27 Sensor system

Publications (1)

Publication Number Publication Date
JP2019095385A true JP2019095385A (en) 2019-06-20

Family

ID=66971474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017227062A Pending JP2019095385A (en) 2017-11-27 2017-11-27 Sensor system

Country Status (1)

Country Link
JP (1) JP2019095385A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116196A1 (en) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device, solid-state imaging method, and electronic apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116196A1 (en) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device, solid-state imaging method, and electronic apparatus
JPWO2020116196A1 (en) * 2018-12-07 2021-10-14 ソニーセミコンダクタソリューションズ株式会社 Solid-state image sensor, solid-state imaging method and electronic equipment
US11490038B2 (en) 2018-12-07 2022-11-01 Sony Semiconductor Solutions Corporation Solid-state imaging device, solid-state imaging method, and electronic equipment
JP7357640B2 (en) 2018-12-07 2023-10-06 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging device, solid-state imaging method, and electronic equipment

Similar Documents

Publication Publication Date Title
KR101716590B1 (en) Method for the improved activation of ultrasonic sensors, driver assistance device and motor vehicle
US20170176594A1 (en) Obstacle detection device
US9527509B2 (en) Driver convenience system and method for determining vertical angle abnormality of radar therein
WO2013099391A1 (en) Driving assistance system
KR101491849B1 (en) fail-safe system and method for inter-vehicle distance
JP6490747B2 (en) Object recognition device, object recognition method, and vehicle control system
JP6221464B2 (en) Stereo camera device, moving body control system, moving body, and program
JP2020154758A (en) Driving support device
WO2016031919A1 (en) Axial displacement diagnosis apparatus
JP2012018613A (en) Vehicle peripheral obstacle monitoring device
JP5655497B2 (en) Obstacle recognition device and obstacle recognition method
JP2019095385A (en) Sensor system
CN110261863B (en) Optical safety sensor
JP6169146B2 (en) Object recognition integration apparatus and object recognition integration method
CN111683850A (en) Parking assistance device and parking assistance method
US20210289329A1 (en) Method and device for receiving, processing and transmitting data
JP2006023108A (en) Peripheral monitor for car
JP6439652B2 (en) In-vehicle device and in-vehicle system
JP2019021013A (en) Vehicle control system
JP6476248B2 (en) Method and system for capturing an object in a vehicle environment
JP5783163B2 (en) Target detection device
JP2020504387A (en) Determination of movement information by ambient sensor
JP6690194B2 (en) Driving support transmitter, driving support receiver, program
US11960003B2 (en) Control device for object detection device, object detection device, and non-transitory computer-readable storage medium
JP2021026457A5 (en)