JP2016170163A - Imaging system, image processing system, mobile object control system, mobile object device, projection device, object detection method and object detection program - Google Patents

Imaging system, image processing system, mobile object control system, mobile object device, projection device, object detection method and object detection program Download PDF

Info

Publication number
JP2016170163A
JP2016170163A JP2016009433A JP2016009433A JP2016170163A JP 2016170163 A JP2016170163 A JP 2016170163A JP 2016009433 A JP2016009433 A JP 2016009433A JP 2016009433 A JP2016009433 A JP 2016009433A JP 2016170163 A JP2016170163 A JP 2016170163A
Authority
JP
Japan
Prior art keywords
light
image
imaging
pattern
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016009433A
Other languages
Japanese (ja)
Other versions
JP6687886B2 (en
Inventor
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
栄太 渡邊
Eita Watanabe
栄太 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP16158629.2A priority Critical patent/EP3070641B1/en
Publication of JP2016170163A publication Critical patent/JP2016170163A/en
Application granted granted Critical
Publication of JP6687886B2 publication Critical patent/JP6687886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system capable of obtaining an image effective for detecting object information while suppressing deterioration of visibility.SOLUTION: An imaging system includes: a projection device including a headlight device 10, installed in a vehicle body and configured to project uniform pattern light and random pattern light having different luminance distribution in different time zones; and a stereo camera 20 including two imaging parts on the right and the left, and configured to image a projection range of the projection device. With this, an image effective for detecting object information can be obtained while suppressing deterioration of visibility.SELECTED DRAWING: Figure 5

Description

本発明は、撮像システム、画像処理システム、移動体制御システム、移動体装置、投光装置、物体検出方法及び物体検出プログラムに係り、更に詳しくは、投光装置と撮像装置を備える撮像システム、該撮像システムを備える画像処理システム、該画像処理システムを備える移動体制御システム、該移動体制御システムを備える移動体装置、パターン光を投光する投光装置、投光する工程を含む物体検出方法、投光する手順を含む物体検出プログラムに関する。   The present invention relates to an imaging system, an image processing system, a moving body control system, a moving body device, a light projecting device, an object detection method, and an object detection program, and more specifically, an image capturing system including the light projecting device and the image capturing device, An image processing system including an imaging system, a mobile control system including the image processing system, a mobile device including the mobile control system, a light projecting device that projects pattern light, and an object detection method including a projecting step, The present invention relates to an object detection program including a procedure for projecting light.

近年、物体の有無、該物体までの距離等の物体情報を検出するための技術の開発が盛んに行われている。   In recent years, techniques for detecting object information such as the presence / absence of an object and the distance to the object have been actively developed.

例えば、特許文献1には、パターン照明装置からパターン光を投光し、該パターン光が照射された物体を複眼撮像装置で撮像して、物体情報の検出に有効な画像を得る技術が開示されている。   For example, Patent Document 1 discloses a technique of projecting pattern light from a pattern illumination device, imaging an object irradiated with the pattern light with a compound eye imaging device, and obtaining an image effective for detecting object information. ing.

しかしながら、特許文献1に開示されている技術では、移動体に搭載された場合に、視認性の低下を抑制しつつ物体情報の検出に有効な画像を得ることができなかった。   However, the technique disclosed in Patent Document 1 cannot obtain an image effective for detecting object information while suppressing a decrease in visibility when mounted on a moving body.

本発明は、移動体に搭載される撮像システムであって、輝度分布が異なる第1及び第2のパターン光を異なる時間帯に投光する投光装置と、前記投光装置の投光範囲を撮像する、複数の撮像部を含む撮像装置と、を備える撮像システムである。   The present invention is an imaging system mounted on a moving body, and projects a first and second pattern lights having different luminance distributions in different time zones, and a light projecting range of the light projecting apparatus. An imaging system comprising: an imaging device including a plurality of imaging units that performs imaging.

本発明によれば、視認性の低下を抑制しつつ物体情報の検出に有効な画像を得ることができる。   According to the present invention, it is possible to obtain an image effective for detecting object information while suppressing a decrease in visibility.

本発明の一実施形態の移動体制御システムを備える車両の平面図である。It is a top view of a vehicle provided with the mobile control system of one embodiment of the present invention. 図2(A)は移動体制御システムを備える車両の側面図であり、図2(B)は移動体制御システムを備える車両の正面図である。FIG. 2A is a side view of a vehicle including a moving body control system, and FIG. 2B is a front view of the vehicle including a moving body control system. 移動体制御システムのステレオカメラの斜視図である。It is a perspective view of the stereo camera of a moving body control system. ランダムパターン光の一例を示す図である。It is a figure which shows an example of random pattern light. 移動体制御システムのハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a mobile body control system. 画像処理部の視差画像生成手段について説明するための図である。It is a figure for demonstrating the parallax image generation means of an image process part. 伝播8方向の場合について説明するための図である。It is a figure for demonstrating the case of 8 propagation directions. サブピクセル推定による少数視差について説明するための図である。It is a figure for demonstrating the minority parallax by subpixel estimation. ステレオカメラから物体までの距離を導き出す原理の説明図である。It is explanatory drawing of the principle which derives | leads-out the distance from a stereo camera to an object. 図10(A)は基準画像を示す図であり、図10(B)は図10(A)に対する高密度視差画像を示す図であり、図10(C)は図10(A)に対するエッジ視差画像を示す概念図である。10A is a diagram showing a reference image, FIG. 10B is a diagram showing a high-density parallax image with respect to FIG. 10A, and FIG. 10C is an edge parallax with respect to FIG. 10A. It is a conceptual diagram which shows an image. 図11(A)は基準画像における基準画素を示す概念図であり、図11(B)は図11(A)の基準画素に対して比較画像における対応画素の候補を順次シフトしながらシフト量を算出する際の概念図である。FIG. 11A is a conceptual diagram showing reference pixels in the reference image, and FIG. 11B shows the shift amount while sequentially shifting the corresponding pixel candidates in the comparison image with respect to the reference pixels in FIG. It is a conceptual diagram at the time of calculating. シフト量毎のコスト値を示すグラフである。It is a graph which shows the cost value for every shift amount. 合成コスト値を導き出すための概念図である。It is a conceptual diagram for deriving a synthesis cost value. 視差値毎の合成コスト値を示すグラフである。It is a graph which shows the synthetic | combination cost value for every parallax value. 一実施形態の物体検出装置における投光制御処理1を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 1 in the object detection apparatus of one Embodiment. 視差画像生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating a parallax image generation process. 点灯時視差画像生成処理1を説明するためのフローチャートである。It is a flowchart for demonstrating the parallax image generation process 1 at the time of lighting. 点灯時視差画像生成処理1を説明するためのタイミングチャートである。It is a timing chart for demonstrating the parallax image generation process 1 at the time of lighting. 変形例1の移動体制御システムのハードウェアの構成を示す図である。It is a figure which shows the hardware constitutions of the mobile body control system of the modification 1. 変形例1の物体検出装置における投光制御処理2を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 2 in the object detection apparatus of the modification 1. 点灯時視差画像生成処理2を説明するためのフローチャートである。It is a flowchart for demonstrating the parallax image generation process 2 at the time of lighting. 点灯時視差画像生成処理2を説明するためのタイミングチャートである。It is a timing chart for demonstrating the parallax image generation process 2 at the time of lighting. 図23(A)及び図23(B)は、点灯時視差画像生成処理の他の例を説明するためのタイミングチャートである。FIG. 23A and FIG. 23B are timing charts for explaining another example of the lighting-time parallax image generation processing. 図24(A)及び図24(B)は、点灯時視差画像生成処理の他の例を説明するためのタイミングチャートである。24A and 24B are timing charts for explaining another example of the lighting-time parallax image generation processing.

以下、本発明の一実施形態を、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

[概要]
一実施形態の移動体制御システム100は、図1〜図2(B)に示されるように、移動体装置としての車両1の車両本体(移動体)に搭載され、ヘッドライト装置10、撮像装置としてのステレオカメラ20(図3参照)、処理装置30(図5参照)、電子制御装置としてのECU50(図5参照)などを備えている。ここでは、移動体制御システム100は、車両1の電気系用のバッテリーから電力の供給を受ける。
[Overview]
As shown in FIGS. 1 to 2B, a mobile control system 100 according to an embodiment is mounted on a vehicle body (mobile) of a vehicle 1 as a mobile device, and includes a headlight device 10 and an imaging device. A stereo camera 20 (see FIG. 3), a processing device 30 (see FIG. 5), an ECU 50 (see FIG. 5) as an electronic control device, and the like. Here, the mobile control system 100 is supplied with electric power from an electric battery of the vehicle 1.

なお、移動体である車両本体としては、例えば自動車、電車、バイク、自転車、車椅子、農業用の耕運機等が挙げられる。また、移動体制御システム100と、該移動体制御システム100が搭載される移動体とを備える移動体装置としては、車両に限らず、例えば航空機、船舶等であっても良い。   Examples of the vehicle body that is a moving body include an automobile, a train, a motorcycle, a bicycle, a wheelchair, and an agricultural cultivator. Moreover, as a mobile body apparatus provided with the mobile body control system 100 and the mobile body by which this mobile body control system 100 is mounted, not only a vehicle but an aircraft, a ship, etc. may be sufficient, for example.

ヘッドライト装置10は、車両本体の前部に設けられる左右一組のヘッドライト10a、10bを含む。ヘッドライト10a、10bは、同時に、点灯もしくは消灯される。ここでは、ヘッドライト10a、10bは、車両1に標準装備されるものである。以下では、ヘッドライト10a、10bを区別する必要がない場合、「ヘッドライト」と総称する。   The headlight device 10 includes a pair of left and right headlights 10a and 10b provided at the front portion of the vehicle body. The headlights 10a and 10b are turned on or off at the same time. Here, the headlights 10a and 10b are provided as standard equipment on the vehicle 1. Hereinafter, when it is not necessary to distinguish the headlights 10a and 10b, they are collectively referred to as “headlights”.

各ヘッドライトは、光源としての、複数のLEDがアレイ状に配列されたLEDアレイと該LEDアレイを駆動する駆動回路とを含み、ECU50によって点灯/消灯が制御される。また、ヘッドライトは、車両1のハンドル付近に設けられたヘッドライトスイッチを手動操作することでも点灯/消灯が可能となっている。なお、ヘッドライトは、光源として、LEDに代えて、例えば白色光源などを含んでいても良い。   Each headlight includes an LED array as a light source, in which a plurality of LEDs are arranged in an array, and a drive circuit that drives the LED array. The headlight can also be turned on / off by manually operating a headlight switch provided near the handle of the vehicle 1. The headlight may include, for example, a white light source instead of the LED as a light source.

ヘッドライトから車両前方に投光された光は、ヘッドライト装置10の投光範囲に物体がある場合に、該物体に照射される。ここで、「投光範囲」は、ヘッドライト装置10の各ヘッドライトによる投光可能な範囲を併せた範囲(図1参照)を意味する。   The light projected forward of the vehicle from the headlight is irradiated to the object when the object is within the light projection range of the headlight device 10. Here, the “light projection range” means a range (see FIG. 1) that includes a range in which light can be projected by each headlight of the headlight device 10.

ステレオカメラ20は、一例として、図2(A)及び図2(B)に示されるように、車両内部の運転席上方におけるバックミラー近傍に取り付けられており、両眼(左右の撮像部20a、20b)で車両前方を撮像できるように設置されている。すなわち、ステレオカメラ20は、ヘッドライト装置10の投光範囲を撮像可能となっている。ステレオカメラ20の両眼で撮像された左右の画像(輝度画像)は、フレーム毎に処理装置30に送られる。処理装置30は、ステレオカメラ20からの左右の画像を用いて視差計算を行う。   As an example, as shown in FIGS. 2A and 2B, the stereo camera 20 is attached in the vicinity of the rear-view mirror above the driver's seat inside the vehicle, and both eyes (the left and right imaging units 20a, 20b) so that the front of the vehicle can be imaged. That is, the stereo camera 20 can image the light projection range of the headlight device 10. The left and right images (luminance images) captured by both eyes of the stereo camera 20 are sent to the processing device 30 for each frame. The processing device 30 performs parallax calculation using the left and right images from the stereo camera 20.

ヘッドライト装置10が投光中には、投光範囲にある物体(例えば人、他車両、構造物、道路、樹木等)にパターン光が照射されるため、ステレオカメラ20の両眼で撮像された左右の画像における物体上にパターン光のパターンが重畳される(テクスチャが付く)ことになる。   While the headlight device 10 is projecting light, pattern light is emitted to an object (for example, a person, another vehicle, a structure, a road, a tree, etc.) within the light projecting range, and thus the image is picked up with both eyes of the stereo camera 20. The pattern of the pattern light is superimposed (textured) on the objects in the left and right images.

処理装置30は、図5に示されるように、CPU31、メモリ29、ステレオカメラ制御用CPUI/F32、画像処理部33、画像認識処理部34、明るさ情報CPUI/F35、画像認識結果CPUI/F37、開始終了信号転送用I/F38、画像認識結果転送用I/F40を含む。   As shown in FIG. 5, the processing device 30 includes a CPU 31, a memory 29, a stereo camera control CPU I / F 32, an image processing unit 33, an image recognition processing unit 34, brightness information CPU I / F 35, and an image recognition result CPU I / F 37. , A start / end signal transfer I / F 38 and an image recognition result transfer I / F 40.

ステレオカメラ制御用CPUI/F32は、CPU31とステレオカメラ20との送受信用のインターフェースである。CPU31は、ステレオカメラ制御用CPUI/F32を介してステレオカメラ20の撮像制御を行う。   The stereo camera control CPU I / F 32 is a transmission / reception interface between the CPU 31 and the stereo camera 20. The CPU 31 performs imaging control of the stereo camera 20 via the stereo camera control CPU I / F 32.

CPU31とECU50は、開始終了信号転送用I/F38を介して送受信可能となっている。   The CPU 31 and the ECU 50 can transmit and receive via the start / end signal transfer I / F 38.

画像処理部33は、ステレオカメラ20からの左右の画像(輝度画像)から、明るさ情報を算出し、明るさ情報CPUI/F35を介してCPU31に送信する。CPU31は、受信した明るさ情報を明るさデータ転送用I/F38を介してECU50に送信する。   The image processing unit 33 calculates brightness information from the left and right images (luminance images) from the stereo camera 20 and transmits the brightness information to the CPU 31 via the brightness information CPU I / F 35. The CPU 31 transmits the received brightness information to the ECU 50 via the brightness data transfer I / F 38.

また、画像処理部33は、ステレオカメラ20で撮像された左右の画像に対して、ガンマ補正や歪み補正などを実施した後、該左右の画像(輝度画像)を用いて視差計算を行い、視差画像と輝度画像を画像認識処理部34に送る。   In addition, the image processing unit 33 performs gamma correction, distortion correction, and the like on the left and right images captured by the stereo camera 20, and then performs parallax calculation using the left and right images (luminance images). The image and the luminance image are sent to the image recognition processing unit 34.

画像認識処理部34は、画像処理部33からの視差画像と輝度画像に基づいて、例えば物体の有無、該物体の種別(種類)、該物体までの距離等の物体情報を認識(検出)し、その認識結果である画像認識結果を画像認識結果CPUI/F37を介してCPU31に送信する。CPU31は、受信した画像認識結果を画像認識結果転送用I/F40を介してECU50に送信する。   The image recognition processing unit 34 recognizes (detects) object information such as the presence / absence of an object, the type (type) of the object, and the distance to the object based on the parallax image and the luminance image from the image processing unit 33. Then, the image recognition result as the recognition result is transmitted to the CPU 31 via the image recognition result CPU I / F 37. The CPU 31 transmits the received image recognition result to the ECU 50 via the image recognition result transfer I / F 40.

すなわち、画像処理部33、画像認識処理部34での処理結果は、処理装置30のCPU31に送られ、ECU50が受け取れるデータフォーマットに修正された後、ECU50に転送される。ECU50に転送するデータフォーマットとしては、主に、CAN I/F、LIN I/Fなどが挙げられる。   That is, the processing results in the image processing unit 33 and the image recognition processing unit 34 are sent to the CPU 31 of the processing device 30, corrected to a data format that can be received by the ECU 50, and then transferred to the ECU 50. The data format transferred to the ECU 50 mainly includes CAN I / F, LIN I / F, and the like.

ECU50は、運転者等のヘッドライトスイッチの操作(ON/OFF)に応じてヘッドライトを制御し、処理装置30からの処理情報に基づいて、ヘッドライト装置10に加えて、車両1の制動装置、操舵装置を制御する。   The ECU 50 controls the headlight according to the operation (ON / OFF) of the headlight switch by the driver or the like, and based on the processing information from the processing device 30, the braking device for the vehicle 1 is added to the headlight device 10. Control the steering device.

ECU50は、CPU51、メモリ52、CPUI/F53、CPUI/F55、発光制御用I/F56、制動制御用I/F57、操舵制御用I/F58を含む。   The ECU 50 includes a CPU 51, a memory 52, a CPU I / F 53, a CPU I / F 55, a light emission control I / F 56, a braking control I / F 57, and a steering control I / F 58.

CPU51は、ヘッドライト装置10を制御する投光制御部51a、制動装置を制御する制動制御部51b、操舵装置を制御する操舵制御部51cを含む。   The CPU 51 includes a light projection control unit 51a that controls the headlight device 10, a braking control unit 51b that controls the braking device, and a steering control unit 51c that controls the steering device.

CPU51は、CPU31からの明るさ情報を、開始終了信号転送用I/F38、CPUI/F53を介して取得する。   The CPU 51 acquires the brightness information from the CPU 31 via the start / end signal transfer I / F 38 and the CPU I / F 53.

また、CPU51は、CPU31からの画像認識結果を、画像認識結果転送用I/F40、CPUI/F55を介して取得する。   Further, the CPU 51 acquires the image recognition result from the CPU 31 via the image recognition result transfer I / F 40 and the CPU I / F 55.

制動制御部51b、操舵制御部51cは、CPU31からの画像認識結果を、画像認識結果転送用I/F40、CPUI/F55を介して取得する。   The braking control unit 51b and the steering control unit 51c acquire the image recognition result from the CPU 31 via the image recognition result transfer I / F 40 and the CPU I / F 55.

制動制御部51bは、取得した画像認識結果に基づいて、制動装置の制御(例えば危険回避のためのオートブレーキ)を行う。   The braking control unit 51b controls the braking device (for example, autobrake for avoiding danger) based on the acquired image recognition result.

操舵制御部51cは、取得した画像認識結果に基づいて、操舵装置の制御(例えば危険回避のためのオートステアリング)を行う。   The steering control unit 51c performs control of the steering device (for example, auto steering for avoiding danger) based on the acquired image recognition result.

次に、ステレオカメラ20により撮像された画像を用いる視差計算アルゴリズムについて図6〜図8を参照して説明する。   Next, a parallax calculation algorithm using an image captured by the stereo camera 20 will be described with reference to FIGS.

ステレオカメラ20の左右の撮像部により撮像された画像データは、画像処理部33の前処理部にて、それぞれガンマ補正や歪み補正などの処理が施される。前処理が施された左右の画像データは、画像処理部33の後処理部である視差画像生成手段(図6参照)にて視差算出アルゴリズムが実行され、画素ごとに視差値が算出される。   The image data captured by the left and right imaging units of the stereo camera 20 is subjected to processing such as gamma correction and distortion correction by the preprocessing unit of the image processing unit 33, respectively. For the left and right image data that has been subjected to the preprocessing, a parallax calculation algorithm is executed by a parallax image generating means (see FIG. 6) that is a post-processing unit of the image processing unit 33, and a parallax value is calculated for each pixel.

ところで、視差画像を生成する演算手法は、EBM(エッジベース)のようにテクスチャの強い部分(エッジの強い部分)についてのみ視差を演算する手法でも良い。または、SGM(セミグローバルマッチング)のように各ピクセル周囲からマッチングの非類似度を漸化式により伝播させ、最小の非類似度を与える整数視差とそれに隣接する視差の非類似度とから小数視差を算出するサブピクセル推定手法(等角直線、パラボラ、高次多項式等によるフィッティング)を用いることで画像全体の各ピクセルの視差を演算することも可能である。   By the way, the calculation method for generating the parallax image may be a method for calculating the parallax only for a portion having a strong texture (a portion having a strong edge) such as EBM (edge base). Alternatively, as in SGM (semi-global matching), the dissimilarity of matching is propagated from the periphery of each pixel by a recurrence formula, and the decimal disparity is calculated from the integer disparity that gives the minimum dissimilarity and the dissimilarity of the disparity adjacent thereto. It is also possible to calculate the parallax of each pixel of the whole image by using a subpixel estimation method (fitting by an equiangular straight line, a parabola, a high-order polynomial, etc.).

SGMの方が、EBMに比べると、視差データの画素抜けを抑えることができるため好ましい。   SGM is more preferable than EBM because it can suppress missing pixels in the parallax data.

そこで、本実施形態の視差画像生成手段は、SGM法を採用しており、一例として、図7に示されるように、基準画像に対する高域強調フィルタ部、比較画像に対する高域強調フィルタ部、一致度算出部、伝播類似度算出部、整数視差算出部、少数視差算出部を含む。なお、SGM法に関しては、非特許文献(Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information)に開示されている。   Therefore, the parallax image generation unit of the present embodiment adopts the SGM method, and as an example, as shown in FIG. 7, the high frequency enhancement filter unit for the reference image, the high frequency enhancement filter unit for the comparison image, and the matching A degree calculator, a propagation similarity calculator, an integer parallax calculator, and a minority parallax calculator. The SGM method is disclosed in non-patent literature (Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information).

以下に、本実施形態の視差画像生成手段について説明する。SGM視差計算では、図7に示されるように、視差を算出させたい注目画素の各方向から非類似度を伝播させ((1)式又は(2)式参照)、それらの和であるエネルギーS((3)式参照)を算出し、エネルギーSの最小値を与える整数視差D[ピクセル]を、注目画素の整数視差として導出する。ここで(1)式および(2)式で表現されているCとは、基準画像の注目画素の比較画像の視差探索による一致度を表している。Cの例としては、SADやSSDやNCC等、他のステレオマッチング指標を用いても良い。Cの算出の後に、(1)式または(2)式からLrを算出し、最後に(3)式によりSを算出する。伝播方向数を増やすと視差計算精度が向上するが、計算処理回路規模が大きくなる(視差計算精度と処理回路規模がトレードオフの関係)。   Below, the parallax image generation means of this embodiment is demonstrated. In the SGM parallax calculation, as shown in FIG. 7, the dissimilarity is propagated from each direction of the target pixel for which the parallax is to be calculated (see formula (1) or (2)), and the energy S that is the sum of them is calculated. (Refer to equation (3)) is calculated, and the integer parallax D [pixel] that gives the minimum value of the energy S is derived as the integer parallax of the target pixel. Here, C expressed by the expressions (1) and (2) represents the degree of coincidence by the parallax search of the comparison image of the target pixel of the reference image. As an example of C, other stereo matching indices such as SAD, SSD, and NCC may be used. After calculating C, Lr is calculated from equation (1) or (2), and finally S is calculated from equation (3). Increasing the number of propagation directions improves the parallax calculation accuracy, but increases the size of the calculation processing circuit (the relationship between the parallax calculation accuracy and the processing circuit size is a trade-off).

さらに視差精度を追求する場合には、図8に示されるようにサブピクセル推定手法を使って小数視差を算出する。例えば等角直線法では、視差D−1、D、D+1に対応する3つのSを使って小数視差D’を計算する。またはパラボラフィット手法では、視差D−2、D−1、D、D+1、D+2に対応する5つのSを使って小数視差D’を計算する。   Further, when pursuing parallax accuracy, sub-parallax is calculated using a sub-pixel estimation method as shown in FIG. For example, in the equiangular straight line method, the decimal parallax D ′ is calculated using three S corresponding to the parallaxes D−1, D, and D + 1. Alternatively, in the parabola fit method, the decimal parallax D ′ is calculated using five S corresponding to the parallaxes D−2, D−1, D, D + 1, and D + 2.

なお、算出された視差値は、信頼度判定によって信頼できるか否かの判断が行なわれる。信頼できない視差値であると判断された場合には、その画素の視差は無効視差とされる。   Note that whether or not the calculated parallax value is reliable is determined by reliability determination. If it is determined that the parallax value is not reliable, the parallax of the pixel is invalid parallax.

<測距の原理>
図9を用いて、ステレオ画像法により、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、図9は、ステレオカメラ20から物体までの距離を導き出す原理の説明図である。また、以下では、説明を簡略化するため、複数の画素からなる所定領域ではなく、一画素単位で説明する。
なお、一画素単位ではなく、複数の画素からなる所定領域単位で処理される場合、基準画素を含む所定領域は基準領域として示され、対応画素を含む所定領域は対応領域として示される。また、この基準領域には基準画素のみの場合も含まれ、対応領域には対応画素のみの場合も含まれる。
<Principles of ranging>
With reference to FIG. 9, the principle of deriving a parallax with respect to an object from a stereo camera by the stereo image method and measuring the distance from the stereo camera to the object with a parallax value indicating the parallax will be described. FIG. 9 is an explanatory diagram of the principle of deriving the distance from the stereo camera 20 to the object. Further, in the following, in order to simplify the description, the description will be made on a pixel-by-pixel basis, not on a predetermined region composed of a plurality of pixels.
When processing is performed in units of a predetermined area including a plurality of pixels instead of a single pixel, the predetermined area including the reference pixel is indicated as the reference area, and the predetermined area including the corresponding pixel is indicated as the corresponding area. Further, this reference area includes the case of only the reference pixel, and the corresponding area includes the case of only the corresponding pixel.

(視差値算出)
まず、図9に示される撮像部20aおよび撮像部20bによって撮像された各画像を、それぞれ基準画像Iaおよび比較画像Ibとする。なお、図9では、撮像部20aおよび撮像部20bが平行等位に設置されているものとする。図9において、3次元空間内の物体E上のS点は、撮像部20aおよび撮像部20bの同一水平線上の位置に写像される。すなわち、各画像中のS点は、基準画像Ia中の点Sa(x,y)および比較画像Ib中の点Sb(X,y)において撮像される。このとき、視差値Δは、撮像部20a上の座標におけるSa(x,y)と撮像部20b上の座標におけるSb(X,y)とを用いて、次の(4)式のように表される。
Δ=X−x …(4)
(Parallax value calculation)
First, the images captured by the image capturing unit 20a and the image capturing unit 20b illustrated in FIG. 9 are referred to as a reference image Ia and a comparative image Ib, respectively. In FIG. 9, it is assumed that the imaging unit 20a and the imaging unit 20b are installed in parallel equiposition. In FIG. 9, the point S on the object E in the three-dimensional space is mapped to a position on the same horizontal line of the imaging unit 20a and the imaging unit 20b. That is, the S point in each image is imaged at a point Sa (x, y) in the reference image Ia and a point Sb (X, y) in the comparative image Ib. At this time, the parallax value Δ is expressed by the following equation (4) using Sa (x, y) at the coordinates on the imaging unit 20a and Sb (X, y) at the coordinates on the imaging unit 20b. Is done.
Δ = X−x (4)

ここで、図9のような場合には、基準画像Ia中の点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaにし、比較画像Ib中の点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。   Here, in the case as shown in FIG. 9, the distance between the point Sa (x, y) in the reference image Ia and the intersection of the perpendicular drawn from the imaging lens 11a on the imaging surface is set to Δa, and the comparison image Ib When the distance between the point Sb (X, y) and the intersection of the perpendicular line taken from the imaging lens 11b on the imaging surface is Δb, the parallax value Δ = Δa + Δb.

(距離算出)
また、視差値Δを用いることで、撮像部20a,20bと物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。図9に示されるように、撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、及び視差値Δを用いて、次の(5)式により、距離Zを算出することができる。
Z=(B×f)/Δ …(5)
この(5)式により、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
(Distance calculation)
Moreover, the distance Z between the imaging units 20a and 20b and the object E can be derived by using the parallax value Δ. Specifically, the distance Z is a distance from a plane including the focal position of the imaging lens 11a and the focal position of the imaging lens 11b to the specific point S on the object E. As shown in FIG. 9, using the focal length f of the imaging lens 11a and the imaging lens 11b, the baseline length B that is the length between the imaging lens 11a and the imaging lens 11b, and the parallax value Δ, the following ( The distance Z can be calculated by the equation 5).
Z = (B × f) / Δ (5)
According to the equation (5), the larger the parallax value Δ, the smaller the distance Z, and the smaller the parallax value Δ, the larger the distance Z.

<SGM法>
続いて、図10(A)〜図14を用いて、SGM法を用いた測距方法について説明する。なお、図10(A)は基準画像、図10(B)は図10(A)に対する高密度視差画像、図10(C)は図10(A)に対するエッジ視差画像を示す概念図である。
<SGM method>
Subsequently, a distance measuring method using the SGM method will be described with reference to FIGS. 10A is a reference image, FIG. 10B is a conceptual diagram illustrating a high-density parallax image with respect to FIG. 10A, and FIG. 10C is a conceptual diagram illustrating an edge parallax image with respect to FIG.

ここで、基準画像は、物体が輝度によって示された画像である。高密度視差画像は、SGM法によって、基準画像から導き出された画像であり、基準画像の各座標における視差値を示した画像である。エッジ視差画像は、従来から用いられているブロックマッチング法によって導き出された画像であり、基準画像のエッジ部のような比較的テクスチャの強い部分のみの視差値を示した画像である。   Here, the reference image is an image in which an object is indicated by luminance. The high-density parallax image is an image derived from the reference image by the SGM method, and is an image showing the parallax value at each coordinate of the reference image. The edge parallax image is an image derived by a conventionally used block matching method, and is an image showing only a parallax value of a portion having a relatively strong texture such as an edge portion of a reference image.

SGM法は、テクスチャが弱い物体に対しても適切に上記視差値を導き出す方法であり、図10(A)に示されている基準画像に基づいて、図10(B)に示されている高密度視差画像を導き出す方法である。なお、ブロックマッチング法を用いた場合には、図10(A)に示されている基準画像に基づいて、図10(C)に示されているエッジ視差画像が導き出される。図10(B)及び図10(C)における破線の楕円内を比べると分かるように、高密度視差画像は、エッジ視差画像に比べてテクスチャが弱い道路等の詳細な情報を表すことができるため、より詳細な測距を行うことができる。   The SGM method is a method for appropriately deriving the parallax value even for an object with a weak texture. Based on the reference image shown in FIG. This is a method for deriving a density parallax image. When the block matching method is used, the edge parallax image shown in FIG. 10C is derived based on the reference image shown in FIG. As can be seen by comparing the inside of the dashed ellipse in FIGS. 10B and 10C, the high-density parallax image can represent detailed information such as a road having a weak texture compared to the edge parallax image. More detailed distance measurement can be performed.

このSGM法は、非類似度であるコスト値を算出して直ちに視差値を導出せず、コスト値を算出後、更に、合成非類似度である合成コスト値 (Synthesis Cost)を算出することで視差値を導出し、最終的にほぼ全ての画素における視差値を示す視差画像(ここでは、高密度視差画像)を導き出す方法である。
なお、ブロックマッチング法の場合は、コスト値を算出する点はSGM法と同じであるが、SGM法のように、合成コスト値を算出せずに、エッジ部のような比較的テクスチャの強い部分の視差値のみを導出する。
This SGM method does not calculate the cost value that is dissimilarity and immediately derives the parallax value, but after calculating the cost value, it further calculates the synthesis cost value that is the synthetic dissimilarity. This is a method of deriving a parallax value and finally deriving a parallax image (here, a high-density parallax image) indicating the parallax value in almost all pixels.
In the case of the block matching method, the cost value is calculated in the same way as the SGM method. However, as in the SGM method, a comparatively strong texture such as an edge portion is calculated without calculating a synthesis cost value. Only the parallax value is derived.

(コスト値の算出)
まず、図11(A)〜図12を用いて、コスト値C(p,d)の算出方法について説明する。図11(A)は基準画像における基準画素を示す概念図、図11(B)は図11(A)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)シフト量(ずれ量)を算出する際の概念図である。図12は、シフト量毎のコスト値を示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
(Calculation of cost value)
First, a method for calculating the cost value C (p, d) will be described with reference to FIGS. FIG. 11A is a conceptual diagram showing reference pixels in the reference image, and FIG. 11B is a diagram showing the corresponding pixel candidates in the comparison image while sequentially shifting (shifting) the reference pixels in FIG. 11A. It is a conceptual diagram at the time of calculating quantity (deviation amount). FIG. 12 is a graph showing the cost value for each shift amount. Here, the corresponding pixel is a pixel in the comparison image that is most similar to the reference pixel in the reference image. In the following description, C (p, d) represents C (x, y, d).

図11(A)及び図11(B)に示されているように、基準画像内の所定の基準画素p(x,y)と、この基準画素p(x,y)に対する比較画像内におけるエピポーラ線(Epipolar Line)上の複数の対応画素の候補q(x+d,y)との各輝度値に基づいて、基準画素p(x,y)に対する各対応画素の候補q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pと対応画素の候補qのシフト量(ずれ量)であり、本実施形態では、画素単位のシフト量が表されている。即ち、図11(A)及び図11(B)では、対応画素の候補q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、対応画素の候補q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるコスト値C(p,d)が算出される。コスト値Cの算出方法としては、コスト値Cが非類似度を示す場合、SAD(Sum of Absolute Difference)等の公知の方法が適用される。   As shown in FIGS. 11A and 11B, a predetermined reference pixel p (x, y) in the reference image and an epipolar in the comparison image with respect to the reference pixel p (x, y). The cost of each corresponding pixel candidate q (x + d, y) with respect to the reference pixel p (x, y) based on each luminance value with a plurality of corresponding pixel candidates q (x + d, y) on the line (Epipolar Line) A value C (p, d) is calculated. d is the shift amount (shift amount) between the reference pixel p and the corresponding pixel candidate q, and in this embodiment, the shift amount in pixel units is represented. That is, in FIG. 11A and FIG. 11B, the corresponding pixel candidate q (x + d, y) is sequentially shifted by one pixel within a predetermined range (for example, 0 <d <25). A cost value C (p, d), which is a dissimilarity between the luminance values of the pixel candidate q (x + d, y) and the reference pixel p (x, y), is calculated. As a calculation method of the cost value C, when the cost value C indicates dissimilarity, a known method such as SAD (Sum of Absolute Difference) is applied.

このようにして算出されたコスト値C(p,d)は、図12に示されているように、シフト量d毎のコスト値Cの集まりであるコスト曲線のグラフによって表すことができる。図12では、コスト値Cは、シフト量d=5,12,19の場合が0(ゼロ)となるため、最小値を求めることができない。このように、テクスチャが弱い物体の場合には、コスト値Cの最小値を求めることは困難になる。
(合成コスト値の算出)
次に、図13及び図14を用いて、合成コスト値Ls(p,d)の算出方法について説明する。図13は、合成コスト値を導き出すための概念図である。図14は、視差値毎の合成コスト値を示す合成コスト曲線のグラフである。本実施形態における合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、所定の基準画素p(x,y)の周辺の画素を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出する。
The cost value C (p, d) calculated in this way can be represented by a graph of a cost curve that is a collection of cost values C for each shift amount d, as shown in FIG. In FIG. 12, the cost value C is 0 (zero) in the case of the shift amount d = 5, 12, and 19, and therefore the minimum value cannot be obtained. Thus, in the case of an object having a weak texture, it is difficult to obtain the minimum value of the cost value C.
(Computation cost value calculation)
Next, a method for calculating the combined cost value Ls (p, d) will be described with reference to FIGS. 13 and 14. FIG. 13 is a conceptual diagram for deriving a synthesis cost value. FIG. 14 is a graph of a synthesis cost curve showing a synthesis cost value for each parallax value. The calculation method of the synthesis cost value in the present embodiment is not only the calculation of the cost value C (p, d), but also the cost value when pixels around the predetermined reference pixel p (x, y) are used as the reference pixels. The combined cost value Ls (p, d) is calculated by consolidating the cost value C (p, d) at the reference pixel p (x, y).

次に、合成コスト値の算出方法について、より詳細に説明する。合成コスト値Ls(p,d)を算出するためには、まず、経路コスト値Lr(p,d)を算出する必要がある。次の(6)式は、経路コスト値Lr(p,d)を算出するための式であって上記(1)式と実質的に同じ式であり、(7)式は、合成コスト値Lsを算出するための式であって上記(3)式と実質的に同じ式である。
Lr(p,d)=C(p,d)+min{(Lr(p−r,d),Lr(p−r,d−1)+P1,Lr(p−r,d+1)+P1,Lrmin(p−r)+p2}…(6)
Next, a method for calculating the synthesis cost value will be described in more detail. In order to calculate the combined cost value Ls (p, d), it is first necessary to calculate the route cost value Lr (p, d). The following expression (6) is an expression for calculating the route cost value Lr (p, d) and is substantially the same as the expression (1), and the expression (7) is the combined cost value Ls. This is an expression for calculating the above expression, and is substantially the same as the expression (3).
Lr (p, d) = C (p, d) + min {(Lr (pr, d), Lr (pr, d-1) + P1, Lr (pr, d + 1) + P1, Lrmin (p) -R) + p2} (6)

ここで、(6)式において、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。なお、Lrは、(6)式に示されているように再帰的に適用される。また、P1及びP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。   Here, in Expression (6), r represents a direction vector in the aggregation direction, and has two components in the x direction and the y direction. min {} is a function for obtaining the minimum value. Lrmin (p−r) indicates the minimum value of Lr (p−r, d) when the shift amount d is changed in the coordinates obtained by shifting p by one pixel in the r direction. Note that Lr is applied recursively as shown in equation (6). P1 and P2 are fixed parameters determined in advance by experiments, and are parameters that make it easy for the parallax values Δ of adjacent reference pixels on the path to be continuous. For example, P1 = 48 and P2 = 96.

また、(6)式に示されているように、Lr(p,d)は、基準画素p(x,y)におけるコスト値Cに、図13に示されているr方向の各画素における各画素の経路コスト値Lrの最小値を加算することで求められる。このように、r方向の各画素におけるLrを求めるため、最初は、基準画像p(x,y)のr方向の一番端の画素からLrが求められ、r方向に沿ってLrが求められる。
そして、図13に示されているように、8方向のLr,Lr45,Lr90,Lr135,Lr180,Lr225,Lr270,Lr315求められ、最終的に(7)式に基づいて、合成コスト値Lsが求められる。
Further, as shown in the equation (6), Lr (p, d) is the cost value C in the reference pixel p (x, y), and the respective values in each pixel in the r direction shown in FIG. It is obtained by adding the minimum value of the path cost value Lr of the pixel. Thus, in order to obtain Lr at each pixel in the r direction, first, Lr is obtained from the endmost pixel in the r direction of the reference image p (x, y), and Lr is obtained along the r direction. .
Then, as shown in FIG. 13, Lr 0 , Lr 45 , Lr 90 , Lr 135 , Lr 180 , Lr 225 , Lr 270 , and Lr 315 in eight directions are obtained, and finally based on the equation (7). Thus, the synthesis cost value Ls is obtained.

このようにして算出された合成コスト値Ls(p,d)は、図14に示されているように、シフト量d毎に合成コスト値Ls(p,d)が示される合成コスト曲線のグラフによって表すことができる。図14では、合成コスト値Lsは、シフト量d=3の場合が最小値となるため、視差値Δ=3として算出される。
なお、上記説明ではrの数を8として説明しているが、これに限られることはない。例えば、8方向を更に2つに分割して16方向、3つに分割して24方向等にしてもよい。
また、コスト値Cは「非類似度」として示されているが、非類似度の逆数としての「類似度」として表されてもよい。この場合、コスト値Cの算出方法としては、NCC(Normalized Cross Correlation)等の公知の方法が適用される。また、この場合、合成コスト値Lsが最小ではなく「最大」となる視差値Δが導出される。なお、非類似度と類似度の両者を含めて、「一致度」として表してもよい。
The composite cost value Ls (p, d) calculated in this way is a graph of the composite cost curve in which the composite cost value Ls (p, d) is shown for each shift amount d as shown in FIG. Can be represented by In FIG. 14, the composite cost value Ls is calculated as a parallax value Δ = 3 because the minimum value is obtained when the shift amount d = 3.
In the above description, the number of r is assumed to be 8. However, the present invention is not limited to this. For example, the eight directions may be further divided into two to be divided into sixteen directions and three into 24 directions.
Further, although the cost value C is shown as “dissimilarity”, it may be expressed as “similarity” as a reciprocal of dissimilarity. In this case, as a method for calculating the cost value C, a known method such as NCC (Normalized Cross Correlation) is applied. Further, in this case, the parallax value Δ where the combined cost value Ls is not “minimum” but “maximum” is derived. In addition, you may represent as a "matching degree" including both dissimilarity and similarity.

なお、処理装置の処理の一部をECUが実行しても良いし、ECUの処理の一部を処理装置が実行しても良い。また、処理装置及びECU双方の機能を併有する1つの制御系を構成しても良い。この場合、物体検出プログラム、移動体制御プログラムを1つのメモリに格納しても良い。   Note that a part of the processing of the processing device may be executed by the ECU, or a part of the processing of the ECU may be executed by the processing device. Moreover, you may comprise one control system which has both functions of a processing apparatus and ECU. In this case, the object detection program and the moving body control program may be stored in one memory.

また、メモリに代えて、例えばハードディスク等の他の記憶媒体を用いても良い。   Further, instead of the memory, other storage media such as a hard disk may be used.

また、移動体制御システムの制御対象が車両の制動装置、操舵装置であるが、これに限られない。例えば、制動装置及び操舵装置の一方のみを制御対象としても良いし、車両の駆動源(例えばエンジンやモータ)を制御対象の少なくとも1つとしても良い。   Moreover, although the controlled object of a mobile body control system is a vehicle braking device and a steering device, it is not restricted to this. For example, only one of the braking device and the steering device may be set as the control target, or the drive source (for example, engine or motor) of the vehicle may be set as at least one of the control targets.

また、移動体制御システムは、車両本体を制御する制動制御部、操舵制御部を有しているが、これに代えて又は加えて、後述する物体検出装置の検出情報に基づいて、運転者等に注意を促すための警報音や警報表示を出力する警報装置を有していても良い。   In addition, the moving body control system includes a braking control unit and a steering control unit that control the vehicle body, but instead of or in addition to this, based on detection information of an object detection device described later, a driver or the like You may have the alarm device which outputs the alarm sound and warning display for calling attention.

また、光量分布が不規則な発光パターンによってLEDアレイを点灯させてランダムパターン光を投光しているが、これに代えて、例えば、プロジェクションマッピング映像で代表される「模様」を自車両前方に投影させても良い。すなわち、投光装置は、光により画像を形成し、該画像を形成した光をランダムパターン光として射出する画像形成部を有していても良い。また、不規則なパターン分布を持つマスクパターンに光を照射することにより、ランダムパターン光を生成し、投光しても良い。   In addition, the LED array is turned on by a light emission pattern with an irregular light amount distribution and a random pattern light is projected. Instead, for example, a “pattern” represented by a projection mapping image is displayed in front of the host vehicle. It may be projected. In other words, the light projecting device may include an image forming unit that forms an image with light and emits the light that has formed the image as random pattern light. Further, random pattern light may be generated and projected by irradiating light to a mask pattern having an irregular pattern distribution.

また、投光装置の光源部としてヘッドライト装置が用いられているが、ヘッドライト装置とは、別の専用の光源部を別途設けても良い。また、ヘッドライト装置は、車両本体に標準装備されるものに限らず、特注品やオプション品であっても良い。   Further, although a headlight device is used as a light source unit of the light projecting device, a dedicated light source unit different from the headlight device may be provided separately. In addition, the headlight device is not limited to the standard equipment in the vehicle body, and may be a custom-made product or an optional product.

また、撮像装置として、2つの撮像部(2眼)を有するステレオカメラ20が採用されているが、3つ以上の撮像部を有する撮像装置を採用しても良い。   Moreover, although the stereo camera 20 which has two imaging parts (two eyes) is employ | adopted as an imaging device, you may employ | adopt the imaging device which has three or more imaging parts.

[詳細]
上記投光制御部51aは、ヘッドライトスイッチがOFFからONになったときに、メモリ52に格納された均一発光パターンとランダム発光パターンをヘッドライトに交互に送信し、ヘッドライトから均一パターン光及びランダムパターン光を交互に投光させる。
[Details]
When the headlight switch is turned from OFF to ON, the light projection control unit 51a alternately transmits the uniform light emission pattern and the random light emission pattern stored in the memory 52 to the headlight, and the uniform light and the uniform light from the headlight. Random pattern light is projected alternately.

一方、投光制御部51aは、ヘッドライトスイッチがONからOFFになったときに、消灯トリガ信号をヘッドライトに送信し、ヘッドライトからの投光を終了させる。   On the other hand, when the headlight switch is turned from ON to OFF, the light projection control unit 51a transmits a light extinction trigger signal to the headlight, and terminates the light projection from the headlight.

また、投光制御部51aは、ランダム発光パターンをヘッドライトに送信するとき、ランダム発光開始信号を、CPUI/F53、開始終了信号転送用I/F38を介してCPU31に送信する。   Further, when transmitting a random light emission pattern to the headlight, the light projection control unit 51a transmits a random light emission start signal to the CPU 31 via the CPU I / F 53 and the start / end signal transfer I / F 38.

CPU31は、ランダム発光開始信号を受信すると、該ランダム発光開始信号をステレオカメラ制御用I/F32を介してステレオカメラ20に転送する。   When receiving the random light emission start signal, the CPU 31 transfers the random light emission start signal to the stereo camera 20 via the stereo camera control I / F 32.

ステレオカメラ20は、ランダム発光開始信号を受信すると、両眼で所定フレーム数の撮像を行い、撮像された左右の画像をフレーム毎に画像処理部33に出力する。そして、ステレオカメラ20は、所定フレーム数を撮像したとき、撮像終了信号をステレオカメラ制御用CPUI/F32を介してCPU31に送信する。   When the stereo camera 20 receives the random light emission start signal, the stereo camera 20 captures a predetermined number of frames with both eyes and outputs the captured left and right images to the image processing unit 33 for each frame. When the stereo camera 20 captures a predetermined number of frames, the stereo camera 20 transmits an imaging end signal to the CPU 31 via the stereo camera control CPU I / F 32.

CPU31は、撮像終了信号を受信すると、開始終了信号転送用I/F38、CPUI/F53を介して投光制御部51aに転送する。   When the CPU 31 receives the imaging end signal, it transfers it to the light projection control unit 51a via the start / end signal transfer I / F 38 and the CPU I / F 53.

投光制御部51aは、撮像終了信号を受信すると、点灯トリガ信号と均一発光パターンをヘッドライトに送信する。   When receiving the imaging end signal, the light projection control unit 51a transmits a lighting trigger signal and a uniform light emission pattern to the headlight.

また、投光制御部51aは、均一発光パターンをヘッドライトに送信するとき、均一発光開始信号を、CPUI/F53、開始終了信号転送用I/F38を介してCPU31に送信する。   In addition, when the uniform light emission pattern is transmitted to the headlight, the light projection control unit 51a transmits a uniform light emission start signal to the CPU 31 via the CPU I / F 53 and the start / end signal transfer I / F 38.

そこで、ヘッドライト装置10及び投光制御部51aを含んで、均一パターン光とランダムパターン光を交互に投光する「投光装置」が構成される。さらに、投光装置及びステレオカメラ20を含んで、投光装置の投光範囲の画像を得る「撮像システム」が構成される。また、撮像システム及び画像処理部33を備える画像処理システムを含んで、撮像システムで得られた画像から物体情報を検出する物体検出装置が構成される。   Therefore, a “light projecting device” that includes the headlight device 10 and the light projecting control unit 51a and projects uniform pattern light and random pattern light alternately is configured. Furthermore, an “imaging system” that obtains an image of the light projection range of the light projection device is configured including the light projection device and the stereo camera 20. In addition, an object detection apparatus that detects object information from an image obtained by the imaging system is configured including the image processing system including the imaging system and the image processing unit 33.

ところで、一般に、車両の運転の際には、昼間のトンネル内、夜間などの暗部においては、ヘッドライトから前方に光を投光することにより暗部を明るくするが、もともと暗部にある物体のコントラストは低いため、単にヘッドライトを点灯して均一な光を照射しても、画像コントラストが得られにくい。このため、暗部では、ステレオカメラで車両前方の視差画像を取得する際に、視差計算時に左右画像のマッチング(相関)が取りづらくなる。この結果、車両前方の被写体(人、他車両、障害物、路面、背景など)の無効視差画素数が多くなり、出力視差の精度が低下してしまう。   By the way, in general, when driving a vehicle, in a dark part such as in a daytime tunnel or at night, the dark part is brightened by projecting light forward from the headlight, but the contrast of the object originally in the dark part is Since it is low, it is difficult to obtain image contrast simply by turning on the headlight and irradiating it with uniform light. For this reason, in a dark part, when acquiring a parallax image ahead of a vehicle with a stereo camera, matching (correlation) of a right-and-left image becomes difficult at the time of parallax calculation. As a result, the number of invalid parallax pixels of a subject in front of the vehicle (person, other vehicle, obstacle, road surface, background, etc.) increases, and the accuracy of output parallax decreases.

そこで、本実施形態では、以下に詳細に説明するように「ヘッドライトからの投光」に関して工夫を凝らしている。   In view of this, in the present embodiment, as described in detail below, the “light projection from the headlight” is devised.

ヘッドライトは、例えば、車両1のハンドル付近に設けられたヘッドライトスイッチを手動操作することで点灯/消灯するようにしても良いし(モード1)、ECU50によって点灯/消灯を制御、すなわち自動制御するようにしても良い(モード2)。なお、移動体制御システム100は、一例として、モード1に対応している。   For example, the headlight may be turned on / off by manually operating a headlight switch provided near the steering wheel of the vehicle 1 (mode 1). You may make it do (mode 2). Note that the moving body control system 100 corresponds to mode 1 as an example.

モード1の場合、車両の運転者や同乗者(以下では「運転者等」と呼ぶ)等は、ヘッドライト消灯中に、車両外部が「暗い」と感じたときにヘッドライトスイッチをON操作(OFFからONへの切り換え)してヘッドライトを点灯させる。詳述すると、ECU50は、ヘッドライトスイッチのON操作による点灯要求信号をUSERI/F80(図5参照)を介して受信すると、メモリ52(図5参照)に格納された光量分布(電流値分布)が互いに異なる第1及び第2の発光パターンデータをヘッドライトに交互に送信する。   In mode 1, a vehicle driver or a passenger (hereinafter referred to as “driver etc.”) turns on the headlight switch when the outside of the vehicle feels “dark” while the headlight is turned off ( Switch from OFF to ON) and turn on the headlight. More specifically, when the ECU 50 receives a lighting request signal by turning on the headlight switch via the USER I / F 80 (see FIG. 5), the light quantity distribution (current value distribution) stored in the memory 52 (see FIG. 5). First and second light emission pattern data different from each other are alternately transmitted to the headlight.

モード2の場合、ECU50は、ヘッドライト消灯中に、車両外部が「暗い」と判断したときにヘッドライトを点灯させる。詳述すると、ECU50は、車両外部の明るさ情報を検出する明るさ情報検出手段からの検出結果に基づいて車両外部が「暗い」と判断したときに、上記第1及び第2の発光パターンデータをヘッドライトに交互に送信する。   In mode 2, the ECU 50 turns on the headlight when it is determined that the outside of the vehicle is “dark” while the headlight is turned off. Specifically, when the ECU 50 determines that the outside of the vehicle is “dark” based on the detection result from the brightness information detecting means for detecting the brightness information outside the vehicle, the first and second light emission pattern data Are alternately sent to the headlight.

なお、「明るさ情報検出手段」としては、ステレオカメラ20と該ステレオカメラ20で撮像された画像を処理する後述する画像処理部33とを含んで構成することができるが、例えば単眼カメラと画像処理部の組み合わせや、照度センサなどを用いても良い。すなわち、明るさ情報検出手段がステレオカメラ20と画像処理部33で構成される場合には、画像処理部33が画像中の全画素の輝度の合計値が閾値より小さいときに「暗い」と判断する。また、明るさ情報検出手段が照度センサである場合には、センサの取得値が閾値より小さいときに「暗い」と判断する。もちろん、明るさ情報検出手段による明るさの検出は、車両外部の明るさを取得できれば種々の態様をとり得る。明るさ情報検出手段での検出結果は、ECU50に送信される。   The “brightness information detection means” can be configured to include a stereo camera 20 and an image processing unit 33 (described later) that processes an image captured by the stereo camera 20. A combination of processing units, an illuminance sensor, or the like may be used. That is, when the brightness information detection unit is configured by the stereo camera 20 and the image processing unit 33, the image processing unit 33 determines that the image is “dark” when the total luminance value of all the pixels in the image is smaller than the threshold value. To do. Further, when the brightness information detecting means is an illuminance sensor, it is determined to be “dark” when the acquired value of the sensor is smaller than the threshold value. Of course, the brightness detection by the brightness information detecting means can take various forms as long as the brightness outside the vehicle can be acquired. The detection result of the brightness information detection means is transmitted to the ECU 50.

モード1、2のいずれの場合においても、第1の発光パターンデータがヘッドライトに送信されている間、第1の発光パターンデータに対応する第1のパターン光がヘッドライトから車両前方に投光され、第2の発光パターンデータがヘッドライトに送信されている間、第2の発光パターンデータに対応する第2のパターン光がヘッドライトから車両前方に投光される。すなわち、ヘッドライトが点灯されると、ヘッドライトから輝度分布が互いに異なる第1及び第2のパターン光が車両前方に交互に投光される。なお、ヘッドライトの駆動回路は、各発光パターンデータを受信すると、LEDアレイの各LEDを該発光パターンデータにおいて該LED毎に設定された電流値で駆動する。   In any of the modes 1 and 2, while the first light emission pattern data is transmitted to the headlight, the first pattern light corresponding to the first light emission pattern data is projected forward from the headlight to the vehicle. Then, while the second light emission pattern data is being transmitted to the headlight, the second pattern light corresponding to the second light emission pattern data is projected forward from the headlight to the vehicle. That is, when the headlight is turned on, the first and second pattern lights having different luminance distributions are alternately projected forward from the headlight. When the headlight drive circuit receives each light emission pattern data, the headlight drive circuit drives each LED of the LED array with a current value set for each LED in the light emission pattern data.

また、第1及び第2のパターン光を交互に投光するとき、いずれを最初(先頭)に投光しても良いが、いずれが最初の場合であっても、最初となるパターン光に対応する発光パターンデータがヘッドライトに送信されるときには、点灯トリガ信号が併せて送信される。   In addition, when the first and second pattern lights are alternately projected, any of the first pattern lights may be projected first (the head), but whichever is the first, corresponds to the first pattern light. When the light emission pattern data to be transmitted is transmitted to the headlight, a lighting trigger signal is also transmitted.

また、モード1の場合、運転者等は、ヘッドライト点灯中に、車両外部が「明るい」と感じたときにヘッドライトスイッチをOFF操作(ONからOFFへの切り換え)してヘッドライトを消灯させる。詳述すると、ECU50は、ヘッドライトスイッチのOFF操作による消灯要求信号をUSERI/F80を介して受信すると、ヘッドライトに消灯トリガ信号を送信し、ヘッドライトを消灯させる。   In mode 1, when the driver feels that the outside of the vehicle is “bright” while the headlight is on, the driver turns off the headlight switch (switching from ON to OFF) to turn off the headlight. . More specifically, when the ECU 50 receives a turn-off request signal by turning off the headlight switch via the USER I / F 80, the ECU 50 sends a turn-off trigger signal to the headlight to turn off the headlight.

モード2の場合、ECU50は、ヘッドライトを点灯中に、明るさ情報検出手段からの検出結果に基づいて車両外部が「明るい」と判断したときにヘッドライトに消灯トリガ信号を送信し、ヘッドライトを消灯させる。   In mode 2, when the headlight is turned on, the ECU 50 transmits a turn-off trigger signal to the headlight when the outside of the vehicle is determined to be “bright” based on the detection result from the brightness information detecting means. Turn off the light.

ここで、「第1の発光パターンデータ」は均一な光量分布(電流値分布)を持つデータであり、対応する「第1のパターン光」は均一な輝度分布を持つ。そこで、以下では、「第1の発光パターンデータ」を「均一発光パターン」とも呼び、「第1のパターン光」を「均一パターン光」とも呼ぶ。ここで、「均一な輝度分布」は「コントラストがない」と言い換えることもできる。   Here, the “first light emission pattern data” is data having a uniform light amount distribution (current value distribution), and the corresponding “first pattern light” has a uniform luminance distribution. Therefore, hereinafter, “first light emission pattern data” is also referred to as “uniform light emission pattern”, and “first pattern light” is also referred to as “uniform light pattern”. Here, “uniform luminance distribution” can be rephrased as “no contrast”.

また、「第2の発光パターンデータ」は不規則な光量分布(電流値分布)を持つデータであり、対応する「第2のパターン光」は不規則な輝度分布(不均一な輝度分布)を持つ。そこで、以下では、「第2の発光パターンデータ」を「ランダム発光パターン」とも呼び、「第2のパターン光」を「ランダムパターン光」とも呼ぶ。   The “second light emission pattern data” is data having an irregular light amount distribution (current value distribution), and the corresponding “second pattern light” has an irregular luminance distribution (non-uniform luminance distribution). Have. Therefore, hereinafter, “second light emission pattern data” is also referred to as “random light emission pattern”, and “second pattern light” is also referred to as “random pattern light”.

ランダムパターン光では、2値又は多値(3値以上)の輝度部が不規則に分布している(図4参照)。   In the random pattern light, the binary or multi-value (three or more values) luminance portions are irregularly distributed (see FIG. 4).

例えば、ランダム発光パターンの光量分布が2値の光量部が不規則に分布したものである場合には、これに対応して、ランダムパターン光も2値の輝度部が不規則に分布したものとなる。   For example, when the light quantity distribution of the random light emission pattern is an irregular distribution of the binary light quantity part, the random pattern light also has an irregular distribution of the binary luminance part. Become.

例えば、ランダム発光パターンの光量分布が、多値の光量部が不規則に分布したものである場合には、これに対応して、ランダムパターン光も多値の輝度部が不規則に分布したものとなる。   For example, if the light emission distribution of the random light emission pattern is an irregular distribution of multi-value light quantity portions, the random pattern light also has an irregular distribution of multi-value luminance portions. It becomes.

ここで、ランダム発光パターンがヘッドライトに送信される時間帯、すなわちランダムパターン光の投光時間Trは、均一発光パターンがヘッドライトに送信される時間帯Tc、すなわち均一パターン光の投光時間Tcよりも短く設定されている(図18参照)。これは、運転者の視認性の観点から、ランダムパターン光の投光時間は均一パターン光の投光時間よりも短い方が好ましいと考えられるからである。また、Tr、Tcは、それぞれ一定とされている。Tr:Tcは、1:(2〜10)程度が好適である。なお、Tr:Tcは、整数比であっても良いし、整数比でなくても良い。なお、Tcは、後述する画像処理部33による視差画像の生成に要する時間に応じて設定されることが好ましい。   Here, the time zone in which the random light emission pattern is transmitted to the headlight, that is, the light projection time Tr of the random pattern light is the time zone Tc in which the uniform light emission pattern is transmitted to the headlight, that is, the light projection time Tc of the uniform pattern light. (See FIG. 18). This is because, from the viewpoint of driver visibility, it is considered that the random pattern light projection time is preferably shorter than the uniform pattern light projection time. Tr and Tc are fixed. Tr: Tc is preferably about 1: (2 to 10). Tr: Tc may be an integer ratio or may not be an integer ratio. Note that Tc is preferably set according to the time required for generating a parallax image by the image processing unit 33 described later.

そこで、ヘッドライトが点灯されると、投光時間Tcの均一パターン光と投光時間Trのランダムパターン光が投光範囲に交互に(より詳細には、それぞれ周期的に、かつ互いに異なる時間帯に)投光される(図18参照)。   Therefore, when the headlight is turned on, the uniform pattern light of the light projection time Tc and the random pattern light of the light projection time Tr alternately in the light projection range (more specifically, each time period is different from each other periodically. To) (see FIG. 18).

なお、例えば車両外部の明るさに応じて、ランダムパターン光の輝度分布(例えばコントラストや模様)を、運転者等により手動で調整、もしくは自動制御(例えばECU50が明るさ情報検出手段からの検出結果に基づいて制御)するようにしても良い。具体的には、車両外部が暗いほど物体のコントラストが低くなるので、車両外部が暗いほどランダムパターン光のコントラストを高くするようにしても良い。例えば、メモリ52に光量分布が異なる複数のランダム発光パターンを格納しておけば、必要に応じて、輝度分布が異なる複数のランダムパターン光のうち一のランダムパターン光を選択的に投光することができる。   For example, the brightness distribution (for example, contrast and pattern) of the random pattern light is manually adjusted by a driver or the like according to the brightness outside the vehicle, or automatically controlled (for example, the detection result from the brightness information detection means by the ECU 50). (Control based on the above). Specifically, the darker the vehicle exterior is, the lower the contrast of the object is. Therefore, the darker the vehicle exterior is, the higher the contrast of the random pattern light may be. For example, if a plurality of random light emission patterns having different light intensity distributions are stored in the memory 52, one random pattern light among a plurality of random pattern lights having different luminance distributions may be selectively projected as necessary. Can do.

例えば、輝度分布が異なる複数のランダムパターン光としては、コントラストと模様が異なる複数のランダムパターン光であっても良いし、模様が異なりコントラストが同一の複数のランダムパターン光であっても良いし、模様が同一でコントラストが異なる複数のランダムパターン光であっても良い。   For example, the plurality of random pattern lights having different luminance distributions may be a plurality of random pattern lights having different contrasts and patterns, or may be a plurality of random pattern lights having different patterns and the same contrast, A plurality of random pattern lights having the same pattern and different contrasts may be used.

均一パターン光及びランラムパターン光が投光範囲に交互に投光されているときに、該投光範囲にある物体(例えば人、他車両、構造物、道路、樹木等)をステレオカメラ20で撮像することができる。この場合、均一パターン光の投光時間Tcにステレオカメラ20の両眼で撮像された左右の画像の物体上には均一パターン光のパターンが重畳し、ランダムパターン光の投光時間Trにステレオカメラ20の両眼で撮像された左右の画像の物体上にはランダムパターン光のパターンが重畳する。   When the uniform pattern light and the ranram pattern light are alternately projected on the projection range, an object (for example, a person, another vehicle, a structure, a road, a tree, etc.) within the projection range is displayed with the stereo camera 20. An image can be taken. In this case, the pattern of the uniform pattern light is superimposed on the object of the left and right images captured by the both eyes of the stereo camera 20 during the projection time Tc of the uniform pattern light, and the stereo camera is added to the projection time Tr of the random pattern light. A pattern of random pattern light is superimposed on the left and right image objects picked up by 20 eyes.

ここで、物体にランダムパターン光が照射されると、テクスチャ量が多くなり、コントラストが高くなる。一方、物体に均一パターン光が照射されても、テクスチャ量がほとんど変わらず、コントラストもほとんど変わらない。   Here, when an object is irradiated with random pattern light, the amount of texture increases and the contrast increases. On the other hand, even when the object is irradiated with uniform pattern light, the amount of texture hardly changes and the contrast hardly changes.

そこで、ランダムパターン光の投光時間Trにステレオカメラ20の両眼で撮像された左右の画像を用いて視差計算を行えば、左右の画像のマッチングが取り易くなり、視差計算精度を向上させることができる。   Therefore, if the parallax calculation is performed using the left and right images captured by both eyes of the stereo camera 20 during the projection time Tr of the random pattern light, the left and right images can be easily matched and the parallax calculation accuracy can be improved. Can do.

以下に、本実施形態の物体検出装置における投光制御処理1を、図15のフローチャートを参照して説明する。物体検出装置の制御に用いられる物体検出プログラムのうちヘッドライト装置10を含む投光装置を動作させるためのサブプログラムがECU50のメモリ52に格納されている。投光制御処理1は、投光制御部51aによってこのサブプログラムに従って実行される。   Hereinafter, the light projection control process 1 in the object detection apparatus of the present embodiment will be described with reference to the flowchart of FIG. Of the object detection program used for controlling the object detection device, a subprogram for operating the light projecting device including the headlight device 10 is stored in the memory 52 of the ECU 50. The light projection control process 1 is executed by the light projection control unit 51a according to this subprogram.

ここでの制御は、運転者等により車両1の操作部においてセーフティモード(危険回避モード)が選択されている(ON)ときに行われる。   The control here is performed when the safety mode (danger avoidance mode) is selected (ON) in the operation unit of the vehicle 1 by the driver or the like.

なお、セーフティモードがOFFのときは、投光制御部51aは、運転者等によるヘッドライトスイッチのON操作に応じてヘッドライトを均一発光パターンで点灯し、ヘッドライトスイッチのOFF操作に応じてヘッドライトを消灯させる。   When the safety mode is OFF, the light projection control unit 51a lights the headlight with a uniform light emission pattern according to the ON operation of the headlight switch by the driver or the like, and the headlight according to the OFF operation of the headlight switch. Turn off the light.

最初のステップS1では、ヘッドライトスイッチがONか否かを判断する。ここでの判断は、投光制御部51aがヘッドライトスイッチのON操作による点灯要求信号を受信した場合に肯定され、該点灯要求信号を受信しない場合に否定される。ステップS1での判断が肯定されるとステップS2に移行し、ステップS1での判断が否定されるとステップS5に移行する。   In the first step S1, it is determined whether or not the headlight switch is ON. This determination is affirmed when the lighting control unit 51a receives a lighting request signal due to an ON operation of the headlight switch, and is negative when the lighting request signal is not received. If the determination in step S1 is affirmed, the process proceeds to step S2. If the determination in step S1 is negative, the process proceeds to step S5.

ステップS2では、点灯トリガ信号と均一発光パターンをヘッドライト装置10へ送信するとともに、均一発光開始信号を処理装置30へ送信する。この結果、ヘッドライトから均一パターン光が車両前方に投光されるとともに、CPU31が均一発光開始信号を受信する。   In step S <b> 2, the lighting trigger signal and the uniform light emission pattern are transmitted to the headlight device 10, and the uniform light emission start signal is transmitted to the processing device 30. As a result, the uniform pattern light is projected from the headlight forward of the vehicle, and the CPU 31 receives the uniform light emission start signal.

次のステップS3では、ランダム発光パターンをヘッドライト装置10へ送信するとともに、ランダム発光開始信号を処理装置30へ送信する。この結果、ヘッドライトからランダムパターン光が車両前方に投光されるとともに、CPU31がランダム発光開始信号を受信する。   In the next step S <b> 3, a random light emission pattern is transmitted to the headlight device 10 and a random light emission start signal is transmitted to the processing device 30. As a result, random pattern light is projected from the headlight forward of the vehicle, and the CPU 31 receives a random light emission start signal.

次のステップS4では、撮像終了信号を受信したか否かを判断する。すなわち、ステレオカメラ20からの撮像終了信号を、処理装置30を介して受信したか否かを判断する。ステップS4での判断が否定されると、同じ判断を再び行う。すなわち、「撮像終了待ち」の状態となる。一方、ここでの判断が肯定されると、ステップS5に移行する。   In the next step S4, it is determined whether an imaging end signal has been received. That is, it is determined whether an imaging end signal from the stereo camera 20 is received via the processing device 30. If the determination in step S4 is negative, the same determination is made again. That is, the state is “waiting for imaging end”. On the other hand, if the determination here is affirmed, the process proceeds to step S5.

ステップS5では、セーフティモードがONか否かを判断する。ステップS5での判断が肯定されると、ステップS1に戻る。一方、ステップS5での判断が否定されると、フローは、終了する。   In step S5, it is determined whether the safety mode is ON. If the determination in step S5 is affirmative, the process returns to step S1. On the other hand, if the determination in step S5 is negative, the flow ends.

以下に、本実施形態の物体検出装置における視差画像生成処理を、図16のフローチャートを参照して説明する。物体検出装置の制御に用いられる物体検出プログラムのうちステレオカメラ20及び処理装置30を動作させるためのサブプログラムが処理装置30のメモリ29に格納されている。視差画像生成処理は、処理装置30によってこのサブプログラムに従って実行される。なお、図16における各判断は、CPU31が行う。   Hereinafter, the parallax image generation processing in the object detection apparatus of the present embodiment will be described with reference to the flowchart of FIG. Of the object detection program used for controlling the object detection device, a subprogram for operating the stereo camera 20 and the processing device 30 is stored in the memory 29 of the processing device 30. The parallax image generation processing is executed by the processing device 30 according to this subprogram. Each determination in FIG. 16 is performed by the CPU 31.

ここでの制御は、運転者等により車両1の操作部においてセーフティモード(危険回避モード)が選択されている(ON)のときに行われる。   The control here is performed when the safety mode (danger avoidance mode) is selected (ON) in the operation unit of the vehicle 1 by the driver or the like.

最初のステップS11では、均一発光開始信号を受信したか否かを判断する。ステップS11での判断が否定されると、ステップS12に移行する。一方、ステップS11での判断が肯定されると、ステップS14に移行する。   In the first step S11, it is determined whether or not a uniform light emission start signal has been received. If the determination in step S11 is negative, the process proceeds to step S12. On the other hand, if the determination in step S11 is affirmed, the process proceeds to step S14.

ステップS12では、ステレオカメラ20で所定フレーム数撮像し、撮像された左右の画像をフレーム毎に取得する。すなわち、ここでは、ヘッドライト消灯時にステレオカメラ20で撮像された左右の画像をフレーム毎に取得する。   In step S12, the stereo camera 20 captures a predetermined number of frames, and the captured left and right images are acquired for each frame. That is, here, the left and right images captured by the stereo camera 20 when the headlight is turned off are acquired for each frame.

次のステップS13では、取得した左右のフレーム毎の画像から視差画像を生成する。具体的には、画像処理部33がガンマ補正や歪み補正などの前処理を実施した後、視差計算を行い、前処理された輝度画像、視差計算によって得られた視差画像を画像認識処理部34に送る。ステップS13が実行されると、ステップS15に移行する。   In the next step S13, a parallax image is generated from the acquired images for each of the left and right frames. Specifically, after the image processing unit 33 performs pre-processing such as gamma correction and distortion correction, parallax calculation is performed, and the pre-processed luminance image and the parallax image obtained by the parallax calculation are converted into the image recognition processing unit 34. Send to. When step S13 is executed, the process proceeds to step S15.

ステップS14では、後述する「点灯時視差画像生成処理1」が行われる。ステップS14が実行されると、ステップS15に移行する。   In step S14, “lighting-time parallax image generation processing 1” described later is performed. When step S14 is executed, the process proceeds to step S15.

次のステップS15では、セーフティモードがONか否かを判断する。ステップS15での判断が否定されるとフローは終了し、ステップS15での判断が肯定されるとステップS11に戻る。   In the next step S15, it is determined whether or not the safety mode is ON. If the determination in step S15 is negative, the flow ends. If the determination in step S15 is positive, the flow returns to step S11.

画像認識処理部34は、視差画像生成処理で生成された視差画像を用いて画像認識を実施する。具体的には、均一発光開始信号を受信しなかった場合には通常の視差画像生成処理の視差計算結果に基づいた物体検出を行い、均一発光開始信号を受信した場合には後述のランダムパターン光が投光された時間帯での視差計算の結果を用いて物体検出を行う。そして、画像認識処理部34が投光範囲の物体に関する情報を認識(検出)し、その結果(画像認識結果)をECU50に送信する。なお、「物体に関する情報」は、例えば物体の有無、物体までの距離、物体の種類(例えば人、構造物、道路等)などである。なお、物体の種類の検出は、複数種類の物体の大きさ、形状等のパラメータを予めメモリ29に格納し、該パラメータに基づいて検出することが可能である。   The image recognition processing unit 34 performs image recognition using the parallax image generated by the parallax image generation processing. Specifically, when the uniform light emission start signal is not received, object detection is performed based on the parallax calculation result of the normal parallax image generation process, and when the uniform light emission start signal is received, the random pattern light described later is used. The object detection is performed using the result of the parallax calculation in the time zone when the light is projected. Then, the image recognition processing unit 34 recognizes (detects) information related to the object in the projection range, and transmits the result (image recognition result) to the ECU 50. The “information about the object” includes, for example, the presence / absence of the object, the distance to the object, the type of the object (for example, a person, a structure, a road, etc.). Note that the types of objects can be detected by storing parameters such as the sizes and shapes of a plurality of types of objects in the memory 29 in advance and detecting them based on the parameters.

続いて、ECU50が、受信した画像認識結果に基づいて、各種制御(危険回避のための制御)を実行する。具体的には、画像認識結果に基づいて、制動制御部51bが制動装置を制御し、操舵制御部51cが操舵装置を制御する。   Subsequently, the ECU 50 executes various controls (controls for avoiding danger) based on the received image recognition result. Specifically, based on the image recognition result, the braking control unit 51b controls the braking device, and the steering control unit 51c controls the steering device.

以下に、「視差画像生成処理」におけるステップS14の「点灯時視差画像生成処理1」について、図17のフローチャート、図18のタイミングチャートを参照して説明する。   Hereinafter, “lighting-time parallax image generation processing 1” in step S14 in the “parallax image generation processing” will be described with reference to the flowchart of FIG. 17 and the timing chart of FIG.

最初のステップS21では、ランダム発光開始信号を受信したか否かを判断する。ここでの判断が肯定されると、ステップS22に移行する。一方、ここでの判断が否定されると、同じ判断を再び行う。すなわち、「受信待ち」の状態となる。   In the first step S21, it is determined whether or not a random light emission start signal has been received. If the determination here is affirmed, the process proceeds to step S22. On the other hand, if the determination here is denied, the same determination is made again. That is, the state is “waiting for reception”.

ステップS22では、ステレオカメラ20で所定フレーム数撮像し、撮像された左右の画像をフレーム毎に取得する。すなわち、ここでは、ヘッドライトからランダムパターン光が投光されているときにステレオカメラ20で所定フレーム数撮像し、撮像された左右の画像をフレーム毎に取得する(図18参照)。   In step S22, the stereo camera 20 captures a predetermined number of frames, and the captured left and right images are acquired for each frame. That is, here, when the random pattern light is projected from the headlight, the stereo camera 20 captures a predetermined number of frames, and the captured left and right images are acquired for each frame (see FIG. 18).

次のステップS23では、取得した左右のフレーム毎の画像から視差画像を生成する。具体的には、画像処理部33がガンマ補正や歪み補正などの前処理を実施した後、視差計算を行い、前処理された輝度画像、視差計算によって得られた視差画像を画像認識処理部34に出力する(図18参照)。ステップS23が実行されると、ステップS24に移行する。   In the next step S23, a parallax image is generated from the acquired images of the left and right frames. Specifically, after the image processing unit 33 performs pre-processing such as gamma correction and distortion correction, parallax calculation is performed, and the pre-processed luminance image and the parallax image obtained by the parallax calculation are converted into the image recognition processing unit 34. (See FIG. 18). When step S23 is executed, the process proceeds to step S24.

ステップS24では、撮像終了信号をECU50に転送する。具体的には、ステレオカメラ20からの撮像終了信号を投光制御部51aに転送する(図18参照)。ステップS24が実行されると、フローは、終了する。   In step S24, an imaging end signal is transferred to the ECU 50. Specifically, the imaging end signal from the stereo camera 20 is transferred to the light projection control unit 51a (see FIG. 18). When step S24 is executed, the flow ends.

ところで、暗部に対してランダムパターン光を車両前方に投光し、投光された範囲をステレオカメラで撮像することで視差計算に有利なコントラストが付与された画像が得られる。しかしながら、ランダムパターン光のみを投光し続けると、ランダムパターン光における明るい部分と暗い部分が常に混在するため、視認性が低下し、運転者等のストレスや事故を誘発することが懸念される。   By the way, a random pattern light is projected to the front of the vehicle with respect to the dark part, and an image with a contrast that is advantageous for parallax calculation is obtained by imaging the projected range with a stereo camera. However, if only the random pattern light is continuously projected, the bright part and the dark part in the random pattern light are always mixed, so that the visibility is lowered, and there is a concern that the driver's stress and accidents are induced.

以上説明した本実施形態の撮像システムは、車両本体に搭載される撮像システムであって、輝度分布が異なる第1及び第2のパターン光を異なる時間帯に投光する、ヘッドライト装置10及び投光制御部51aを含む投光装置と、該投光装置の投光範囲を撮像する、2つの撮像部を含むステレオカメラ20と、を備えている。   The imaging system of the present embodiment described above is an imaging system mounted on a vehicle body, and projects the headlight device 10 and the projector that project first and second pattern lights having different luminance distributions in different time zones. A light projecting device including the light control unit 51a and a stereo camera 20 including two image capturing units that capture an image of the light projecting range of the light projecting device are provided.

この場合、投光装置の全投光時間に占めるランダムパターン光の投光時間の割合を100%未満にしつつ、左右の画像のマッチング精度を向上可能な視差計算に有利な画像を取得することができる。   In this case, it is possible to obtain an image advantageous for parallax calculation capable of improving the matching accuracy of the left and right images while setting the ratio of the light projection time of the random pattern light in the total light projection time of the light projection device to less than 100% it can.

結果として、本実施形態の撮像システムでは、視認性の低下を抑制しつつ物体情報の検出に有効な画像を得ることができる。   As a result, in the imaging system of this embodiment, an image effective for detecting object information can be obtained while suppressing a decrease in visibility.

また、投光装置は、車両本体に搭載されるヘッドライトを光源部として含むため、均一パターン光とランダムパターン光が暗部を照らす照明光になるとともに、ランダムパターン光が視差計算に有効な光になる。すなわち、ヘッドライトに加えて専用の光源部を設ける必要がない。   In addition, since the light projector includes a headlight mounted on the vehicle body as a light source unit, the uniform pattern light and the random pattern light become illumination light that illuminates the dark part, and the random pattern light becomes effective light for parallax calculation. Become. That is, it is not necessary to provide a dedicated light source unit in addition to the headlight.

また、ランダムパターン光の投光時間Trは、均一パターン光の投光時間Tcよりも短いため、視認性の低下を更に抑制することができる。   Moreover, since the light projection time Tr of the random pattern light is shorter than the light projection time Tc of the uniform pattern light, it is possible to further suppress the decrease in visibility.

また、投光装置は、均一パターン光及びランダムパターン光を交互に投光するため、均一パターン光の投光の合間に視差計算に有利な画像を得ることができる。   Further, since the light projecting device alternately projects the uniform pattern light and the random pattern light, an image advantageous for parallax calculation can be obtained between the projections of the uniform pattern light.

また、投光装置は、均一パターン光及びランダムパターン光それぞれを周期的に投光するため、視差計算に有利な画像を定期的に安定して得ることができる。   In addition, since the light projecting device periodically projects each of the uniform pattern light and the random pattern light, an image advantageous for parallax calculation can be obtained regularly and stably.

また、本実施形態の撮像システムは、投光装置による投光のON/OFFを切り替えるための操作部を更に含むため、運転者等が「暗い」と感じたときに、均一パターン光とランダムパターン光を交互に投光することができる。   In addition, since the imaging system of the present embodiment further includes an operation unit for switching on / off of light projection by the light projecting device, when the driver feels “dark”, the uniform pattern light and the random pattern Light can be projected alternately.

また、本実施形態の物体検出装置は、車両本体に搭載される物体検出装置であって、撮像システムと、該撮像システムで撮像された画像を処理する処理装置30と、を備えている。   In addition, the object detection device of the present embodiment is an object detection device mounted on a vehicle main body, and includes an imaging system and a processing device 30 that processes an image captured by the imaging system.

この場合、視認性の低下を抑制しつつ、撮像システムで得られた物体情報の検出に有効な画像から該物体情報を高精度に検出することができる。   In this case, it is possible to detect the object information with high accuracy from an image effective for detecting the object information obtained by the imaging system while suppressing a decrease in visibility.

また、本実施形態の移動体制御システム100は、物体検出装置と、車両本体(移動体)に搭載され、物体検出装置の処理装置30の処理結果に基づいて車両本体を制御するECU50(制御装置)と、を備えるため、走行中の車両本体が物体に衝突するのを未然に防止することができる。   In addition, the moving body control system 100 of this embodiment is mounted on an object detection device and a vehicle main body (moving body), and an ECU 50 (control device) that controls the vehicle main body based on the processing result of the processing device 30 of the object detection device. ), It is possible to prevent the traveling vehicle body from colliding with an object.

また、車両1(移動体装置)は、移動体制御システム100と、該移動体制御システム100が搭載される車両本体(移動体)とを備えるため、安全性に優れる。   Moreover, since the vehicle 1 (moving body apparatus) is provided with the moving body control system 100 and the vehicle main body (moving body) in which the moving body control system 100 is mounted, it is excellent in safety.

また、本実施形態の投光装置は、車両本体に搭載される投光装置であって、車両本体に搭載される、2つの撮像部を含むステレオカメラ20の撮像範囲(左眼撮像範囲と右眼撮像範囲を併せた範囲、図1参照)に均一パターン光とランダムパターン光を異なる時間帯に投光する。   In addition, the light projecting device of the present embodiment is a light projecting device mounted on the vehicle main body, and is an imaging range (left eye imaging range and right eye) of the stereo camera 20 including two imaging units mounted on the vehicle main body. The uniform pattern light and the random pattern light are projected in different time zones within the range including the eye imaging range (see FIG. 1).

この場合、全投光時間に占めるランダムパターン光の投光時間の割合を100%未満にしつつ、左右の画像のマッチング精度を向上可能な視差計算に有利な画像を取得可能とすることができる。   In this case, it is possible to obtain an image advantageous for parallax calculation capable of improving the matching accuracy of the left and right images while setting the ratio of the projection time of the random pattern light in the total projection time to less than 100%.

結果として、本実施形態の投光装置では、視認性の低下を抑制しつつ物体情報の検出精度を向上させることができる。   As a result, in the light projecting device of the present embodiment, it is possible to improve the detection accuracy of the object information while suppressing a decrease in visibility.

なお、以上の説明からも分かるように、本発明の投光装置、撮像システム、物体検出装置は、暗い環境において使用される場合に特に効果的であり、必ずしも車両本体等の移動体に搭載されなくても良く、様々な分野で使用されることが期待される。この場合には、ヘッドライト装置10の代わりの光源部を用いることになる。   As can be seen from the above description, the light projecting device, the imaging system, and the object detection device of the present invention are particularly effective when used in a dark environment, and are not necessarily mounted on a moving body such as a vehicle body. It is not necessary, and it is expected to be used in various fields. In this case, a light source unit instead of the headlight device 10 is used.

また、本実施形態の物体検出装置を用いる物体検出方法は、車両本体の前方に均一パターン光を投光する工程と、車両本体の前方にランダムパターン光を投光する工程と、車両本体上の複数位置からランダムパターン光が投光された範囲を撮像する工程と、該撮像する工程で複数位置から個別に撮像された複数の画像を用いて視差計算を行う工程と、を含む。   Further, an object detection method using the object detection device of the present embodiment includes a step of projecting uniform pattern light in front of the vehicle body, a step of projecting random pattern light in front of the vehicle body, A step of imaging a range in which the random pattern light is projected from a plurality of positions, and a step of performing parallax calculation using a plurality of images individually captured from the plurality of positions in the imaging step.

この場合、全投光時間に占めるランダムパターン光の投光時間の割合を100%未満にしつつ、左右の画像のマッチング精度を向上できる視差計算に有利な画像を用いて視差画像を生成することができる。   In this case, it is possible to generate a parallax image using an image advantageous for parallax calculation that can improve the matching accuracy of the left and right images while setting the ratio of the projection time of the random pattern light in the total projection time to less than 100%. it can.

結果として、視認性の低下を抑制しつつ物体情報の検出精度を向上させることができる。   As a result, it is possible to improve the detection accuracy of object information while suppressing a decrease in visibility.

また、本実施形態の物体検出装置の制御に用いられる物体制御プログラムは、上記物体検出方法をコンピュータに実行させる物体検出プログラムであって、車両本体の前方に均一パターン光を投光する手順と、車両本体の前方にランダムパターン光を投光する手順と、車両本体上の複数位置からランダムパターン光が投光された範囲を撮像する手順と、を含む。   Further, an object control program used for controlling the object detection apparatus of the present embodiment is an object detection program for causing a computer to execute the object detection method, and a procedure for projecting uniform pattern light in front of the vehicle body, It includes a procedure for projecting random pattern light in front of the vehicle body and a procedure for imaging a range in which the random pattern light is projected from a plurality of positions on the vehicle body.

この場合、全投光時間に占めるランダムパターン光の投光時間の割合を100%未満にしつつ、左右の画像のマッチング精度を向上できる視差計算に有利な画像を用いて視差画像を生成することができる。   In this case, it is possible to generate a parallax image using an image advantageous for parallax calculation that can improve the matching accuracy of the left and right images while setting the ratio of the projection time of the random pattern light in the total projection time to less than 100%. it can.

結果として、視認性の低下を抑制しつつ物体情報の検出精度を向上させることができる。   As a result, it is possible to improve the detection accuracy of object information while suppressing a decrease in visibility.

また、本実施形態の物体検出プログラムが2つのメモリ29、31に分割して格納されているため、物体検出装置を、適宜、物体検出プログラムに従って動作させることができる。   Moreover, since the object detection program of this embodiment is divided and stored in the two memories 29 and 31, the object detection apparatus can be operated according to the object detection program as appropriate.

以下に、上記実施形態の変形例について説明する。   Below, the modification of the said embodiment is demonstrated.

図19に示される変形例の移動体制御システム200は、処理装置、ECUの構成が上記実施形態の移動体制御システム200と若干異なる。移動体制御システム200は、モード2に対応している。   The mobile control system 200 of the modification shown by FIG. 19 is a little different from the mobile control system 200 of the said embodiment in the structure of a processing apparatus and ECU. The moving body control system 200 corresponds to mode 2.

具体的には、移動体制御システム200の処理装置60では、上記実施形態の処理装置30に対して、明るさ情報CPUI/F35、明るさ情報転送用I/F38が追加されている。また、移動体制御システム200のECU70では、上記実施形態のECU50に対して、CPUI/F53が追加されている。   Specifically, in the processing device 60 of the moving body control system 200, brightness information CPU I / F 35 and brightness information transfer I / F 38 are added to the processing device 30 of the above embodiment. Further, in the ECU 70 of the moving body control system 200, a CPU I / F 53 is added to the ECU 50 of the above embodiment.

処理装置60の画像処理部33は、ステレオカメラ20で撮像された画像(輝度画像)から、明るさ情報を算出し、明るさ情報CPUI/F35を介してCPU31に送信する。CPU31は、受信した明るさ情報を、明るさ情報転送用I/F38を介してECU70に送信する。   The image processing unit 33 of the processing device 60 calculates brightness information from an image (luminance image) captured by the stereo camera 20 and transmits the brightness information to the CPU 31 via the brightness information CPU I / F 35. The CPU 31 transmits the received brightness information to the ECU 70 via the brightness information transfer I / F 38.

ECU70のCPU51は、CPU31からの明るさ情報を、明るさ情報転送用I/F38、CPUI/F53を介して取得する。   The CPU 51 of the ECU 70 acquires the brightness information from the CPU 31 via the brightness information transfer I / F 38 and the CPU I / F 53.

変形例の移動体制御システム200では、「投光制御処理」、「視差画像生成処理」における「点灯時視差画像生成処理」が上記実施形態と異なり、その他の処理、制御は、上記実施形態と同様に行われる。   In the mobile control system 200 according to the modified example, “lighting parallax image generation processing” in “light projection control processing” and “parallax image generation processing” is different from the above embodiment, and other processes and controls are the same as those in the above embodiment. The same is done.

以下に、変形例の物体検出装置における投光制御処理2を、図20のフローチャートを参照して説明する。物体検出装置の制御に用いられる物体検出プログラムのうちヘッドライト装置10を含む投光装置を動作させるためのサブプログラムがECU70のメモリ52に格納されている。投光制御処理2は、投光制御部51aによってこのサブプログラムに従って実行される。   Below, the light projection control process 2 in the object detection apparatus of a modification is demonstrated with reference to the flowchart of FIG. Of the object detection program used for controlling the object detection device, a subprogram for operating the light projecting device including the headlight device 10 is stored in the memory 52 of the ECU 70. The light projection control process 2 is executed by the light projection control unit 51a according to this subprogram.

ここでの制御は、運転者等により車両1の操作部においてセーフティモード(危険回避モード)が選択されている(ON)のときに行われる。セーフティモードがONのときには、CPU31がステレオカメラ20でリアルタイムに撮像を行う(図22参照)。そして、ステレオカメラ20で撮像された車両前方の画像(輝度画像)から画像処理部33で明るさ情報が算出され、該明るさ情報がCPU31を介して投光制御部51aにリアルタイムで送られる。   The control here is performed when the safety mode (danger avoidance mode) is selected (ON) in the operation unit of the vehicle 1 by the driver or the like. When the safety mode is ON, the CPU 31 performs imaging in real time with the stereo camera 20 (see FIG. 22). Then, brightness information is calculated by the image processing unit 33 from an image (luminance image) ahead of the vehicle imaged by the stereo camera 20, and the brightness information is sent to the light projection control unit 51a via the CPU 31 in real time.

なお、セーフティモードがOFFのときは、投光制御部51aは、運転者等によるヘッドライトスイッチのON操作に応じてヘッドライトを均一発光パターンで点灯し、ヘッドライトスイッチのOFF操作に応じてヘッドライトを消灯させる。   When the safety mode is OFF, the light projection control unit 51a lights the headlight with a uniform light emission pattern according to the ON operation of the headlight switch by the driver or the like, and the headlight according to the OFF operation of the headlight switch. Turn off the light.

最初のステップS31では、明るさ情報が、予め設定された基準値未満か否かが判断される。ここでは、基準値は、明るさ情報が基準値未満であれば、一般に「薄暗い」もしくは「暗い」と感じるレベルであり、明るさ情報が基準値以上であれば、一般に「明るい」と感じるレベルである。ステップS31での判断が否定されると、ステップS35に移行する。一方、ステップS31での判断が肯定されると、ステップS32に移行する。   In first step S31, it is determined whether the brightness information is less than a preset reference value. Here, the reference value is a level that generally feels “dim” or “dark” if the brightness information is less than the reference value, and generally feels “bright” if the brightness information is greater than or equal to the reference value. It is. If the determination in step S31 is negative, the process proceeds to step S35. On the other hand, if the determination in step S31 is affirmed, the process proceeds to step S32.

ステップS32では、点灯トリガ信号と均一発光パターンをヘッドライト装置10へ送信するとともに、均一発光開始信号を処理装置60へ送信する。この結果、ヘッドライトから均一パターン光が車両前方に投光されるとともに、CPU31が均一発光開始信号を受信する。   In step S <b> 32, the lighting trigger signal and the uniform light emission pattern are transmitted to the headlight device 10, and the uniform light emission start signal is transmitted to the processing device 60. As a result, the uniform pattern light is projected from the headlight forward of the vehicle, and the CPU 31 receives the uniform light emission start signal.

次のステップS33では、ランダム発光パターンをヘッドライト装置10へ送信するとともに、ランダム発光開始信号を処理装置60へ送信する。この結果、ヘッドライトからランダムパターン光が車両前方に投光されるとともに、CPU31がランダム発光開始信号を受信する。   In the next step S33, a random light emission pattern is transmitted to the headlight device 10 and a random light emission start signal is transmitted to the processing device 60. As a result, random pattern light is projected from the headlight forward of the vehicle, and the CPU 31 receives a random light emission start signal.

次のステップS34では、画像出力終了信号を受信したか否かを判断する。すなわち、ステレオカメラ20からの画像出力終了信号を、処理装置60を介して受信したか否かを判断する。ステップS34での判断が否定されると、同じ判断を再び行う。すなわち、「画像出力終了待ち」の状態となる。一方、ここでの判断が肯定されると、ステップS35に移行する。   In the next step S34, it is determined whether or not an image output end signal has been received. That is, it is determined whether an image output end signal from the stereo camera 20 is received via the processing device 60. If the determination in step S34 is negative, the same determination is made again. That is, the state is “waiting for image output completion”. On the other hand, if the determination here is affirmed, the process proceeds to step S35.

ステップS35では、セーフティモードがONか否かを判断する。ステップS35での判断が肯定されると、ステップS31に戻る。一方、ステップS35での判断が否定されると、フローは、終了する。   In step S35, it is determined whether the safety mode is ON. If the determination in step S35 is affirmed, the process returns to step S31. On the other hand, if the determination in step S35 is negative, the flow ends.

以下に、変形例1の「点灯時視差画像生成処理2」について、図21のフローチャート、図22のタイミングチャートを参照して説明する。点灯時視差画像生成処理2も、処理装置60によりメモリ29に格納されたサブプログラムの手順に従って実行される。なお、図21における各判断は、CPU31が行う。   Hereinafter, “lighting-time parallax image generation processing 2” of Modification 1 will be described with reference to the flowchart of FIG. 21 and the timing chart of FIG. The lighting parallax image generation process 2 is also executed by the processing device 60 according to the procedure of the subprogram stored in the memory 29. Each determination in FIG. 21 is performed by the CPU 31.

最初のステップS41では、ランダム発光開始信号を受信したか否かを判断する。ここでの判断が肯定されると、ステップS42に移行する。一方、ここでの判断が否定されると、同じ判断を再び行う。すなわち、「受信待ち」の状態となる。   In the first step S41, it is determined whether or not a random light emission start signal has been received. If the determination here is affirmed, the process proceeds to step S42. On the other hand, if the determination here is denied, the same determination is made again. That is, the state is “waiting for reception”.

ステップS42では、ステレオカメラ20で撮像された左右の画像をフレーム毎に取得する。すなわち、ここでは、ヘッドライトからランダムパターン光が投光されているときにステレオカメラ20で撮像された所定フレーム数の左右の画像をフレーム毎に取得する(図22参照)。   In step S42, the left and right images captured by the stereo camera 20 are acquired for each frame. That is, here, the left and right images of a predetermined number of frames captured by the stereo camera 20 when random pattern light is projected from the headlight are acquired for each frame (see FIG. 22).

次のステップS43では、取得した左右のフレーム毎の画像から視差画像を生成する。具体的には、画像処理部33がガンマ補正や歪み補正などの前処理を実施した後、視差計算を行い、前処理された輝度画像、視差計算によって得られた視差画像を画像認識処理部34に出力する(図22参照)。ステップS43が実行されると、ステップS44に移行する。   In the next step S43, a parallax image is generated from the acquired image for each of the left and right frames. Specifically, after the image processing unit 33 performs pre-processing such as gamma correction and distortion correction, parallax calculation is performed, and the pre-processed luminance image and the parallax image obtained by the parallax calculation are converted into the image recognition processing unit 34. (See FIG. 22). When step S43 is executed, the process proceeds to step S44.

ステップS44では、画像出力終了信号をECU50に転送する。具体的には、ステレオカメラ20からの画像出力終了信号を投光制御部51aに転送する。ステップS44が実行されると、フローは、終了する。なお、ステレオカメラ20は、ランダム発光開始信号を受信すると、両眼で撮像した左右の画像をフレーム毎に画像処理部33に出力する。ステレオカメラ20は、所定フレーム数の左右の画像を画像処理部33に出力したとき、画像出力終了信号をステレオカメラ制御用CPUI/F32を介してCPU31に送信する。   In step S44, an image output end signal is transferred to the ECU 50. Specifically, the image output end signal from the stereo camera 20 is transferred to the light projection control unit 51a. When step S44 is executed, the flow ends. When the stereo camera 20 receives the random light emission start signal, the stereo camera 20 outputs left and right images captured by both eyes to the image processing unit 33 for each frame. When the stereo camera 20 outputs a predetermined number of left and right images to the image processing unit 33, the stereo camera 20 transmits an image output end signal to the CPU 31 via the stereo camera control CPU I / F 32.

以上説明した変形例の物体検出装置は、車両本体の外部の明るさ情報が予め設定された基準値(所定値)未満のときに均一パターン光とランダムパターン光を交互に投光し、ランダムパターン光が投光されたときに撮像した画像を用いて視差計算を行うため、視認性の低下を抑制しつつ視差画像を安定して精度よく生成することができる。なお、元々明部にある物体のコントラストはすでに高いため、車両外部が基準値以上の場合(明るい場合)には、ランダムパターン光を投光する必要性は低い。   The object detection device according to the modified example described above projects a uniform pattern light and a random pattern light alternately when the brightness information outside the vehicle body is less than a preset reference value (predetermined value). Since the parallax calculation is performed using the image captured when the light is projected, the parallax image can be generated stably and accurately while suppressing a decrease in visibility. In addition, since the contrast of the object originally in the bright part is already high, the necessity of projecting the random pattern light is low when the outside of the vehicle is equal to or higher than the reference value (when bright).

また、投光装置は、ステレオカメラ20で撮像された画像の輝度情報から明るさ情報を取得するため、明るさ情報を検出するための専用の検出手段を別途設ける場合に比べて、部品点数の増加及びコストアップを抑制できる。   Moreover, since the light projector acquires brightness information from the luminance information of the image captured by the stereo camera 20, the number of parts can be increased compared to the case where a dedicated detection unit for detecting brightness information is separately provided. Increase and cost increase can be suppressed.

以下に、本発明の実施例1、2(用いた視差計算方法:SGMアルゴリズム)を示す(表1参照)。   Examples 1 and 2 (used parallax calculation method: SGM algorithm) of the present invention are shown below (see Table 1).

〈実施例1〉(上記実施形態に対応)
走行中、運転者等が暗いことを判断して手動でヘッドライトを点灯させ、ヘッドライトから均一なパターン光と不均一なコントラストを付けたパターン光を車両前方に時分割照射(交互に照射)した。運転手は煩わしさやストレスを感じずにいた。また、車両前方の無効視差画素数が減少した。
<Example 1> (corresponding to the above embodiment)
While driving, turn on the headlights manually, judging that the driver is dark, etc., and pattern light with uniform pattern and non-uniform contrast from the headlights in time-division irradiation (alternate irradiation) did. The driver was not bothered and stressed. In addition, the number of invalid parallax pixels in front of the vehicle decreased.

〈実施例2〉(上記変形例に対応)
明るさ情報検出手段を用いた。自動的に暗いことを判断して自動でヘッドライトを点灯させ、ヘッドライトから均一なパターン光と不均一なコントラストを付けたパターンを車両前方に時分割照射した。運転手は煩わしさやストレスを感じずにいた。また、車両前方の無効視差画素数が減少した。
<Example 2> (corresponding to the above modification)
Brightness information detection means was used. The headlight was turned on automatically after judging that it was dark automatically, and a pattern with a uniform pattern light and a non-uniform contrast was irradiated from the headlight to the front of the vehicle in a time-sharing manner. The driver was not bothered and stressed. In addition, the number of invalid parallax pixels in front of the vehicle decreased.

なお、実施例2ではステレオカメラを明るさ情報検出手段として使用したが、これに限定されない。例えば、単眼カメラや偏光カメラやレーザレーダ等を使用することもできる。   In the second embodiment, a stereo camera is used as brightness information detection means, but the present invention is not limited to this. For example, a monocular camera, a polarization camera, a laser radar, or the like can be used.

本発明は、上記実施形態、変形例に限定されず、適宜変更可能である。例えば、上記実施形態及び変形例では、ECUから処理装置にランダム発光開始信号を送信しているが、これに代えて、図23(A)及び図23(B)に示されるように、ECUから処理装置にランダムパターン光の投光時間Trをパルス幅とするランダム発光信号を送信し、このランダム発光信号がハイレベルの間だけ、ステレオカメラ20が撮像もしくは画像出力するようにしても良い。そして、ランダム発光信号の立下りに同期して、ECUから均一発光開始信号を処理装置に送信するとともに点灯トリガ信号と均一発光パターンをヘッドライト装置に送信するようにしても良い。この場合、ステレオカメラ20から撮像終了信号もしくは画像出力終了信号を出力する必要がない。   The present invention is not limited to the above-described embodiments and modifications, and can be changed as appropriate. For example, in the above-described embodiment and modification, a random light emission start signal is transmitted from the ECU to the processing device. Instead, as shown in FIGS. 23 (A) and 23 (B), the ECU It is also possible to transmit a random light emission signal having a pulse width as the light emission time Tr of the random pattern light to the processing device, and the stereo camera 20 may capture or output an image only while the random light emission signal is at a high level. Then, in synchronization with the falling edge of the random light emission signal, the uniform light emission start signal may be transmitted from the ECU to the processing device, and the lighting trigger signal and the uniform light emission pattern may be transmitted to the headlight device. In this case, there is no need to output an imaging end signal or an image output end signal from the stereo camera 20.

また、上記変形例では、ランダムパターン光が投光されているときにステレオカメラ20で撮像された画像(以下、前者の画像と呼ぶ)から視差画像を生成しているが、これに加えて、図24(A)及び図24(B)に示されるように、均一パターン光が投光されているときにステレオカメラで撮像された画像(以下、後者の画像と呼ぶ)からも視差画像を生成しても良い。この場合、前者の画像から生成した視差画像を用いて画像認識処理部34で画像認識を行えば良い。この場合、ステレオカメラ20から撮像終了信号もしくは画像出力終了信号を出力する必要がない。なお、前者の画像から生成した視差画像は、ランダム発光開始信号もしくはランダム発光信号の立ち上がりと、次の均一発光開始信号との間に時間帯に生成された視差画像である。   In the above modification, a parallax image is generated from an image captured by the stereo camera 20 (hereinafter referred to as the former image) when random pattern light is projected. As shown in FIGS. 24A and 24B, a parallax image is also generated from an image captured by a stereo camera (hereinafter referred to as the latter image) when uniform pattern light is projected. You may do it. In this case, the image recognition processing unit 34 may perform image recognition using the parallax image generated from the former image. In this case, there is no need to output an imaging end signal or an image output end signal from the stereo camera 20. Note that the parallax image generated from the former image is a parallax image generated in the time period between the random light emission start signal or the rise of the random light emission signal and the next uniform light emission start signal.

また、上記実施形態、変形例では、第1のパターン光が均一パターン光とされ、第2のパターン光がランダムパターン光とされているが、これに限られず、要は、第1及び第2のパターン光の輝度分布が異なれば良い。   Moreover, in the said embodiment and modification, 1st pattern light is made into uniform pattern light, and 2nd pattern light is made into random pattern light, but it is not restricted to this, In short, the 1st and 2nd It is sufficient that the brightness distribution of the pattern light is different.

また、上記実施形態、変形例では、第2のパターン光として、輝度分布が不規則なランダムパターン光を用いているが、これに限らず、要は、輝度分布が不均一なパターン光であることが好ましい。   Moreover, in the said embodiment and modification, although random pattern light with irregular luminance distribution is used as 2nd pattern light, it is not restricted to this, The point is pattern light with nonuniform luminance distribution. It is preferable.

また、上記実施形態、変形例では、第1のパターン光として、輝度分布が均一な均一パターン光を用いているが、多少不均一なパターン光を用いても良い。この場合であっても、第1のパターン光の輝度分布は、第2のパターン光よりも均一性が高いことが好ましい。   Moreover, in the said embodiment and the modification, although uniform pattern light with uniform luminance distribution is used as 1st pattern light, you may use somewhat nonuniform pattern light. Even in this case, it is preferable that the luminance distribution of the first pattern light has higher uniformity than the second pattern light.

また、上記実施形態、変形例では、Tr<Tcとされているが、Tr≧Tcであっても良い。また、Tr、Tcそれぞれは、可変であっても良い。   In the embodiment and the modification, Tr <Tc, but Tr ≧ Tc may be used. Further, each of Tr and Tc may be variable.

10…ヘッドライト装置(投光装置の一部)、20…ステレオカメラ(撮像装置)、30…処理装置、50…ECU(制御装置)、51a…投光制御部(投光装置の一部)、80…USERI/F80(操作部の一部)、100、200…移動体制御システム。   DESCRIPTION OF SYMBOLS 10 ... Headlight apparatus (a part of light projection apparatus), 20 ... Stereo camera (imaging apparatus), 30 ... Processing apparatus, 50 ... ECU (control apparatus), 51a ... Light projection control part (a part of light projection apparatus) , 80 ... USERI / F80 (part of the operation unit), 100, 200 ... mobile control system.

特開2013‐190394号公報JP 2013-190394 A

Claims (18)

移動体に搭載される撮像システムであって、
輝度分布が異なる第1及び第2のパターン光を異なる時間帯に投光する投光装置と、
前記投光装置の投光範囲を撮像する、複数の撮像部を含む撮像装置と、を備える撮像システム。
An imaging system mounted on a moving body,
A light projecting device that projects the first and second pattern lights having different luminance distributions in different time zones;
An imaging system comprising: an imaging device including a plurality of imaging units that images a light projection range of the light projecting device.
前記投光装置は、前記移動体に搭載されるヘッドライトを光源部として含むことを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the light projecting device includes a headlight mounted on the moving body as a light source unit. 前記第1のパターン光は均一な輝度分布を持ち、前記第2のパターン光は不均一な輝度分布を持つことを特徴とする請求項1又は2に記載の撮像システム。   The imaging system according to claim 1 or 2, wherein the first pattern light has a uniform luminance distribution, and the second pattern light has a non-uniform luminance distribution. 前記第2のパターン光は、不規則な輝度分布を持つことを特徴とする請求項1〜3のいずれか一項に記載の撮像システム。   The imaging system according to claim 1, wherein the second pattern light has an irregular luminance distribution. 前記第2のパターン光の投光時間は、前記第1のパターン光の投光時間よりも短いことを特徴とする請求項1〜4のいずれか一項に記載の撮像システム。   The imaging system according to claim 1, wherein a projection time of the second pattern light is shorter than a projection time of the first pattern light. 前記投光装置は、前記第1及び第2のパターン光を交互に投光することを特徴とする請求項1〜5のいずれか一項に記載の撮像システム。   The imaging system according to any one of claims 1 to 5, wherein the light projecting device projects the first and second pattern lights alternately. 前記投光装置は、前記第1及び第2のパターン光それぞれを周期的に投光することを特徴とする請求項6に記載の撮像システム。   The imaging system according to claim 6, wherein the light projecting device periodically projects each of the first and second pattern lights. 前記投光装置による投光のON/OFFを切り替えるための操作部を更に含むことを特徴とする請求項1〜7のいずれか一項に記載の撮像システム。   The imaging system according to claim 1, further comprising an operation unit for switching ON / OFF of light projection by the light projecting device. 前記投光装置は、前記移動体の外部の明るさ情報を検出する明るさ情報検出手段での検出結果が所定値未満のときに投光することを特徴とする請求項1〜8のいずれか一項に記載の撮像システム。   9. The light projecting device according to claim 1, wherein the light projecting device projects light when a detection result of brightness information detecting means for detecting brightness information outside the moving body is less than a predetermined value. The imaging system according to one item. 請求項1〜9のいずれか一項に記載の撮像システムと、
前記撮像システムの撮像装置で撮像された画像を処理する処理装置と、を備える画像処理システム。
The imaging system according to any one of claims 1 to 9,
An image processing system comprising: a processing device that processes an image captured by the imaging device of the imaging system.
前記処理装置は、前記第2のパターン光が投光された時間帯において前記複数の撮像部それぞれで撮像された複数の画像に基づいて視差計算を行うことを特徴とする請求項10に記載の画像処理システム。   11. The parallax calculation according to claim 10, wherein the processing device performs a parallax calculation based on a plurality of images captured by each of the plurality of imaging units in a time zone in which the second pattern light is projected. Image processing system. 前記処理装置は、前記視差計算の結果を用いて物体検出を行うことを特徴とする請求項11に記載の画像処理システム。   The image processing system according to claim 11, wherein the processing device performs object detection using a result of the parallax calculation. 請求項10〜12のいずれか一項に記載の画像処理システムと、
前記移動体に搭載され、前記物体検出装置の処理装置の処理結果に基づいて前記移動体を制御する制御装置と、を備える移動体制御システム。
An image processing system according to any one of claims 10 to 12,
And a control device that is mounted on the mobile body and controls the mobile body based on a processing result of the processing device of the object detection device.
請求項13に記載の移動体制御システムと、
前記移動体制御システムが搭載される前記移動体と、を備える移動体装置。
The moving body control system according to claim 13,
A moving body apparatus comprising: the moving body on which the moving body control system is mounted.
移動体に搭載される投光装置において、
前記移動体に搭載される、複数の撮像部を含む撮像装置の撮像範囲に輝度分布が異なる第1及び第2のパターン光を異なる時間帯に投光することを特徴とする投光装置。
In the light projection device mounted on the moving body,
A light projecting device that projects first and second pattern lights having different luminance distributions in different time zones in an image capturing range of an image capturing device including a plurality of image capturing units mounted on the moving body.
前記第1のパターン光は均一な輝度分布を持ち、前記第2のパターン光は不均一な輝度分布を持つことを特徴とする請求項15に記載の投光装置。   16. The light projecting device according to claim 15, wherein the first pattern light has a uniform luminance distribution, and the second pattern light has a non-uniform luminance distribution. 移動体の前方に輝度分布が均一な第1のパターン光を投光する工程と、
前記移動体の前方に輝度分布が不均一な第2のパターン光を投光する工程と、
前記移動体上の複数位置から前記第2のパターン光が投光された範囲を撮像する工程と、
前記撮像する工程で前記複数位置から個別に撮像された複数の画像を用いて視差計算を行う工程と、含む物体検出方法。
Projecting a first pattern light having a uniform luminance distribution in front of the moving body;
Projecting a second pattern light having a non-uniform luminance distribution in front of the moving body;
Imaging a range in which the second pattern light is projected from a plurality of positions on the moving body;
An object detection method comprising: performing parallax calculation using a plurality of images individually captured from the plurality of positions in the imaging step.
請求項17に記載の物体検出方法をコンピュータに実行させる物体検出プログラムであって、
移動体の前方に輝度分布が均一な第1のパターン光を投光する手順と、
前記移動体の前方に輝度分布が不均一な第2のパターン光を投光する手順と、
前記移動体上の複数位置から前記第2のパターン光が投光された範囲を撮像する手順と、
前記撮像する手順で前記複数位置から個別に撮像された複数の画像を用いて視差計算を行う手順と、含む物体検出プログラム。
An object detection program for causing a computer to execute the object detection method according to claim 17,
A procedure of projecting a first pattern light having a uniform luminance distribution in front of the moving body;
A procedure of projecting a second pattern light having a non-uniform luminance distribution in front of the moving body;
A procedure for imaging a range in which the second pattern light is projected from a plurality of positions on the moving body;
An object detection program including a procedure for performing parallax calculation using a plurality of images individually captured from the plurality of positions in the imaging procedure.
JP2016009433A 2015-03-11 2016-01-21 Image processing system, moving body control system, moving body device, object detecting method, object detecting program Active JP6687886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16158629.2A EP3070641B1 (en) 2015-03-11 2016-03-04 Vehicle body with imaging system and object detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015047963 2015-03-11
JP2015047963 2015-03-11

Publications (2)

Publication Number Publication Date
JP2016170163A true JP2016170163A (en) 2016-09-23
JP6687886B2 JP6687886B2 (en) 2020-04-28

Family

ID=56983648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016009433A Active JP6687886B2 (en) 2015-03-11 2016-01-21 Image processing system, moving body control system, moving body device, object detecting method, object detecting program

Country Status (1)

Country Link
JP (1) JP6687886B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096294A (en) * 2017-11-23 2019-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. Parallax estimation device and method
JP2020501248A (en) * 2016-11-29 2020-01-16 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Lighting system and driving assistance system and method for determining geometric characteristics
JP2021507205A (en) * 2017-12-14 2021-02-22 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 3D-peripheral grasp using projector and camera module
CN113748313A (en) * 2019-05-22 2021-12-03 欧姆龙株式会社 Three-dimensional measurement system and three-dimensional measurement method
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002228915A (en) * 2001-01-30 2002-08-14 Olympus Optical Co Ltd Range finder
JP2002244027A (en) * 2000-12-15 2002-08-28 Olympus Optical Co Ltd Range-finding device
JP2005077130A (en) * 2003-08-28 2005-03-24 Olympus Corp Object recognition device
JP2007101275A (en) * 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
JP2011209019A (en) * 2010-03-29 2011-10-20 Sony Corp Robot device and method of controlling the same
US20120176380A1 (en) * 2011-01-11 2012-07-12 Sen Wang Forming 3d models using periodic illumination patterns
JP2012185588A (en) * 2011-03-04 2012-09-27 Hitachi Automotive Systems Ltd In-vehicle camera and in-vehicle camera system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244027A (en) * 2000-12-15 2002-08-28 Olympus Optical Co Ltd Range-finding device
JP2002228915A (en) * 2001-01-30 2002-08-14 Olympus Optical Co Ltd Range finder
JP2005077130A (en) * 2003-08-28 2005-03-24 Olympus Corp Object recognition device
JP2007101275A (en) * 2005-09-30 2007-04-19 Topcon Corp Three-dimensional measuring projector and system
JP2011209019A (en) * 2010-03-29 2011-10-20 Sony Corp Robot device and method of controlling the same
US20120176380A1 (en) * 2011-01-11 2012-07-12 Sen Wang Forming 3d models using periodic illumination patterns
JP2012185588A (en) * 2011-03-04 2012-09-27 Hitachi Automotive Systems Ltd In-vehicle camera and in-vehicle camera system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020501248A (en) * 2016-11-29 2020-01-16 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Lighting system and driving assistance system and method for determining geometric characteristics
JP7050779B2 (en) 2016-11-29 2022-04-08 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Lighting systems and driving assistance systems that determine geometric properties and their methods
JP2019096294A (en) * 2017-11-23 2019-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. Parallax estimation device and method
JP7134012B2 (en) 2017-11-23 2022-09-09 三星電子株式会社 Parallax estimation device and method
JP2021507205A (en) * 2017-12-14 2021-02-22 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 3D-peripheral grasp using projector and camera module
CN113748313A (en) * 2019-05-22 2021-12-03 欧姆龙株式会社 Three-dimensional measurement system and three-dimensional measurement method
CN113748313B (en) * 2019-05-22 2023-11-21 欧姆龙株式会社 Three-dimensional measurement system and three-dimensional measurement method
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Also Published As

Publication number Publication date
JP6687886B2 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
EP3070641B1 (en) Vehicle body with imaging system and object detection method
JP6704607B2 (en) Imaging system, image processing system, moving body control system, moving body device, light projecting device, object detection method, object detection program
JP6687886B2 (en) Image processing system, moving body control system, moving body device, object detecting method, object detecting program
EP2061687B1 (en) Sight-line end estimation device and driving assist device
US9224055B2 (en) Exterior environment recognition device
JP6013884B2 (en) Object detection apparatus and object detection method
CN104883554B (en) The method and system of live video is shown by virtually having an X-rayed instrument cluster
US10156437B2 (en) Control method of a depth camera
CN105551020B (en) A kind of method and device detecting object size
JP6782433B2 (en) Image recognition device
WO2015125297A1 (en) Local location computation device and local location computation method
JP2015069379A (en) Vehicle exterior environment recognition device
EP3067826B1 (en) Image processing system and parallax image generation method
JP6031468B2 (en) Irradiation device
JP6228492B2 (en) Outside environment recognition device
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
CN107025636B (en) Image defogging method and device combined with depth information and electronic device
JP2013101432A (en) Obstacle detector and program
WO2021193645A1 (en) Gating camera, sensing system, and vehicle lamp
CN111971527B (en) Image pickup apparatus
US20240212186A1 (en) Method and system for estimating depth information
KR102083682B1 (en) Vehicle Controlling Method Using IR Camera and Apparatus therefor
JP2012198656A (en) Bicycle detection device and irradiation device
JP7020359B2 (en) Warning device
CN113721252A (en) Light supplement method, device and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R151 Written notification of patent or utility model registration

Ref document number: 6687886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151