JP2016169001A - Imaging system, image processing system, movable body control system, movable body device, projection device, object detection method, and object detection program - Google Patents

Imaging system, image processing system, movable body control system, movable body device, projection device, object detection method, and object detection program Download PDF

Info

Publication number
JP2016169001A
JP2016169001A JP2016009428A JP2016009428A JP2016169001A JP 2016169001 A JP2016169001 A JP 2016169001A JP 2016009428 A JP2016009428 A JP 2016009428A JP 2016009428 A JP2016009428 A JP 2016009428A JP 2016169001 A JP2016169001 A JP 2016169001A
Authority
JP
Japan
Prior art keywords
light
image
imaging
parallax
headlight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016009428A
Other languages
Japanese (ja)
Other versions
JP6704607B2 (en
Inventor
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
栄太 渡邊
Eita Watanabe
栄太 渡邊
玲子 黒水
Reiko Kuromizu
玲子 黒水
渡邊 義一
Giichi Watanabe
義一 渡邊
高橋 祐二
Yuji Takahashi
祐二 高橋
井上 貴之
Takayuki Inoue
貴之 井上
藤本 英臣
Hideomi Fujimoto
英臣 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP16158634.2A priority Critical patent/EP3067826B1/en
Publication of JP2016169001A publication Critical patent/JP2016169001A/en
Application granted granted Critical
Publication of JP6704607B2 publication Critical patent/JP6704607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system capable of acquiring an image effective to detect object information to a dark part.SOLUTION: The imaging system is an imaging system to be mounted on a vehicle body (movable body). The imaging system includes a projection device including a headlight device 10 for projecting random pattern light (pattern light having an irregular brightness distribution), and a stereo camera 20 (an imaging device) including two imaging parts 20a, 20b for imaging a light projection range of the projection device. In this case, the imaging device can acquire an image effective to detect object information to a dark part.SELECTED DRAWING: Figure 5

Description

本発明は、撮像システム、画像処理システム、移動体制御システム、移動体装置、投光装置、物体検出方法、物体検出プログラムに係り、更に詳しくは、投光装置と撮像装置を備える撮像システム、該撮像システムを備える画像処理システム、該画像処理システムを備える移動体制御システム、該移動体制御システムを備える移動体装置、パターン光を投光する投光装置、投光する工程を含む物体検出方法、投光する手順を含む物体検出プログラムに関する。   The present invention relates to an imaging system, an image processing system, a mobile body control system, a mobile body device, a light projection device, an object detection method, and an object detection program, and more specifically, an imaging system including the light projection device and the imaging device, An image processing system including an imaging system, a mobile control system including the image processing system, a mobile device including the mobile control system, a light projecting device that projects pattern light, and an object detection method including a projecting step, The present invention relates to an object detection program including a procedure for projecting light.

従来、複数の撮像部を含む撮像装置を用いて、物体の有無、該物体までの距離等の物体情報を検出する技術が知られている。   2. Description of the Related Art Conventionally, a technique for detecting object information such as the presence / absence of an object and a distance to the object using an imaging apparatus including a plurality of imaging units is known.

また、近年、移動体に搭載される投光装置の開発が盛んに行われている(例えば特許文献1参照)。   Further, in recent years, a light projecting device mounted on a moving body has been actively developed (see, for example, Patent Document 1).

しかしながら、従来の撮像装置と投光装置を移動体に搭載しても、暗部に対しての物体情報の検出に有効な画像を得ることができなかった。   However, even if the conventional imaging device and the light projecting device are mounted on a moving body, an image effective for detecting object information for a dark part cannot be obtained.

本発明は、移動体に搭載される撮像システムであって、不規則な輝度分布を持つパターン光を投光する投光装置と、前記投光装置の投光範囲を撮像する、複数の撮像部を含む撮像装置と、を備える撮像システムである。   The present invention is an imaging system mounted on a moving body, and a light projecting device that projects pattern light having an irregular luminance distribution, and a plurality of image capturing units that image a light projecting range of the light projecting device An imaging apparatus including the imaging device.

本発明によれば、暗部に対しての物体情報の検出に有効な画像を得ることができる。   According to the present invention, it is possible to obtain an image effective for detecting object information for a dark part.

本発明の一実施形態の移動体制御システムを備える車両の平面図である。It is a top view of a vehicle provided with the mobile control system of one embodiment of the present invention. 図2(A)は移動体制御システムを備える車両の側面図であり、図2(B)は移動体制御システムを備える車両の正面図である。FIG. 2A is a side view of a vehicle including a moving body control system, and FIG. 2B is a front view of the vehicle including a moving body control system. 移動体制御システムのステレオカメラの斜視図である。It is a perspective view of the stereo camera of a moving body control system. ランダムパターン光の一例を示す図である。It is a figure which shows an example of random pattern light. 移動体制御システムのハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a mobile body control system. 画像処理部の視差画像生成手段について説明するための図である。It is a figure for demonstrating the parallax image generation means of an image process part. 伝播8方向の場合について説明するための図である。It is a figure for demonstrating the case of 8 propagation directions. サブピクセル推定による少数視差について説明するための図である。It is a figure for demonstrating the minority parallax by subpixel estimation. ステレオカメラから物体までの距離を導き出す原理の説明図である。It is explanatory drawing of the principle which derives | leads-out the distance from a stereo camera to an object. 図10(A)は基準画像を示す図であり、図10(B)は図10(A)に対する高密度視差画像を示す図であり、図10(C)は図10(A)に対するエッジ視差画像を示す概念図である。10A is a diagram showing a reference image, FIG. 10B is a diagram showing a high-density parallax image with respect to FIG. 10A, and FIG. 10C is an edge parallax with respect to FIG. 10A. It is a conceptual diagram which shows an image. 図11(A)は基準画像における基準画素を示す概念図であり、図11(B)は図11(A)の基準画素に対して比較画像における対応画素の候補を順次シフトしながらシフト量を算出する際の概念図である。FIG. 11A is a conceptual diagram showing reference pixels in the reference image, and FIG. 11B shows the shift amount while sequentially shifting the corresponding pixel candidates in the comparison image with respect to the reference pixels in FIG. It is a conceptual diagram at the time of calculating. シフト量毎のコスト値を示すグラフである。It is a graph which shows the cost value for every shift amount. 合成コスト値を導き出すための概念図である。It is a conceptual diagram for deriving a synthesis cost value. 視差値毎の合成コスト値を示すグラフである。It is a graph which shows the synthetic | combination cost value for every parallax value. 一実施形態の移動体制御システムによる車両制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the vehicle control process by the mobile body control system of one Embodiment. 一実施形態の物体検出装置による投光制御処理1を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 1 by the object detection apparatus of one Embodiment. 変形例1の物体検出装置による投光制御処理2を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 2 by the object detection apparatus of the modification 1. 変形例2の移動体制御システムのハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the mobile body control system of the modification 2. 変形例2の物体検出装置による投光制御処理3を説明するためのフローチャートである。10 is a flowchart for explaining a light projection control process 3 by an object detection device according to a second modification. 変形例3の物体検出装置による投光制御処理4を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 4 by the object detection apparatus of the modification 3. 図21(A)及び図21(B)は、テクスチャ量の算出方法について説明するための図である。FIGS. 21A and 21B are diagrams for explaining a texture amount calculation method. 変形例4の物体検出装置による投光制御処理5を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 5 by the object detection apparatus of the modification 4. 変形例5の物体検出装置による投光制御処理6を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 6 by the object detection apparatus of the modification 5. 変形例6の物体検出装置による投光制御処理7を説明するためのフローチャートである。It is a flowchart for demonstrating the light projection control process 7 by the object detection apparatus of the modification 6.

以下、本発明の一実施形態を、図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

[概要]
一実施形態の移動体制御システム100は、図1〜図2(B)に示されるように、移動体装置としての車両1の車両本体(移動体)に搭載され、ヘッドライト装置10、撮像装置としてのステレオカメラ20(図3参照)、処理装置30(図5参照)、電子制御装置としてのECU50(図5参照)などを備えている。ここでは、移動体制御システム100は、車両1の電気系用のバッテリーから電力の供給を受ける。
[Overview]
As shown in FIGS. 1 to 2B, a mobile control system 100 according to an embodiment is mounted on a vehicle body (mobile) of a vehicle 1 as a mobile device, and includes a headlight device 10 and an imaging device. A stereo camera 20 (see FIG. 3), a processing device 30 (see FIG. 5), an ECU 50 (see FIG. 5) as an electronic control device, and the like. Here, the mobile control system 100 is supplied with electric power from an electric battery of the vehicle 1.

なお、移動体である車両本体としては、例えば自動車、電車、バイク、自転車、車椅子、農業用の耕運機等が挙げられる。また、移動体制御システム100と、該移動体制御システム100が搭載される移動体とを備える移動体装置としては、車両に限らず、例えば航空機、船舶等であっても良い。   Examples of the vehicle body that is a moving body include an automobile, a train, a motorcycle, a bicycle, a wheelchair, and an agricultural cultivator. Moreover, as a mobile body apparatus provided with the mobile body control system 100 and the mobile body by which this mobile body control system 100 is mounted, not only a vehicle but an aircraft, a ship, etc. may be sufficient, for example.

ヘッドライト装置10は、車両本体の前部に設けられる左右一組のヘッドライト10a、10bを含む。ヘッドライト10a、10bは、同時に、点灯もしくは消灯される。ここでは、ヘッドライト10a、10bは、車両1に標準装備されるものである。以下では、ヘッドライト10a、10bを区別する必要がない場合、「ヘッドライト」と総称する。   The headlight device 10 includes a pair of left and right headlights 10a and 10b provided at the front portion of the vehicle body. The headlights 10a and 10b are turned on or off at the same time. Here, the headlights 10a and 10b are provided as standard equipment on the vehicle 1. Hereinafter, when it is not necessary to distinguish the headlights 10a and 10b, they are collectively referred to as “headlights”.

各ヘッドライトは、光源としての、複数のLEDがアレイ状に配列されたLEDアレイと該LEDアレイを駆動する駆動回路とを含み、ECU50によって点灯/消灯が制御される。また、ヘッドライトは、車両1のハンドル付近に設けられたヘッドライトスイッチを手動操作することでも点灯/消灯が可能となっている。なお、ヘッドライトは、光源として、LEDに代えて、例えば白色光源などを含んでいても良い。   Each headlight includes an LED array as a light source, in which a plurality of LEDs are arranged in an array, and a drive circuit that drives the LED array. The headlight can also be turned on / off by manually operating a headlight switch provided near the handle of the vehicle 1. The headlight may include, for example, a white light source instead of the LED as a light source.

ヘッドライトから車両前方に投光された光は、ヘッドライト装置10の投光範囲に物体がある場合に、該物体に照射される。ここで、「投光範囲」は、ヘッドライト装置10の各ヘッドライトによる投光可能な範囲を併せた範囲(図1参照)を意味する。   The light projected forward of the vehicle from the headlight is irradiated to the object when the object is within the light projection range of the headlight device 10. Here, the “light projection range” means a range (see FIG. 1) that includes a range in which light can be projected by each headlight of the headlight device 10.

ステレオカメラ20は、一例として、図2(A)及び図2(B)に示されるように、車両内部の運転席上方におけるバックミラー近傍に取り付けられており、両眼(左右の撮像部20a、20b)で車両前方を撮像できるように設置されている。すなわち、ステレオカメラ20は、ヘッドライト装置10の投光範囲を撮像可能となっている。ステレオカメラ20の両眼で撮像された左右の画像(輝度画像)は、フレーム毎に処理装置30に送られる。処理装置30は、ステレオカメラ20からの左右の画像を用いて視差計算を行う。   As an example, as shown in FIGS. 2A and 2B, the stereo camera 20 is attached in the vicinity of the rear-view mirror above the driver's seat inside the vehicle, and both eyes (the left and right imaging units 20a, 20b) so that the front of the vehicle can be imaged. That is, the stereo camera 20 can image the light projection range of the headlight device 10. The left and right images (luminance images) captured by both eyes of the stereo camera 20 are sent to the processing device 30 for each frame. The processing device 30 performs parallax calculation using the left and right images from the stereo camera 20.

ヘッドライト装置10が投光中には、投光範囲にある物体(例えば人、他車両、構造物、道路、樹木等)にパターン光が照射されるため、ステレオカメラ20の両眼で撮像された左右の画像における物体上にパターン光のパターンが重畳される(テクスチャが付く)ことになる。   While the headlight device 10 is projecting light, pattern light is emitted to an object (for example, a person, another vehicle, a structure, a road, a tree, etc.) within the light projecting range, and thus the image is picked up with both eyes of the stereo camera 20. The pattern of the pattern light is superimposed (textured) on the objects in the left and right images.

処理装置30は、図5に示されるように、CPU31、メモリ29、ステレオカメラ制御用CPUI/F32、画像処理部33、画像認識処理部34、明るさ情報CPUI/F35、画像認識結果CPUI/F37、開始終了信号転送用I/F38、画像認識結果転送用I/F40を含む。   As shown in FIG. 5, the processing device 30 includes a CPU 31, a memory 29, a stereo camera control CPU I / F 32, an image processing unit 33, an image recognition processing unit 34, brightness information CPU I / F 35, and an image recognition result CPU I / F 37. , A start / end signal transfer I / F 38 and an image recognition result transfer I / F 40.

ステレオカメラ制御用CPUI/F32は、CPU31とステレオカメラ20との送受信用のインターフェースである。CPU31は、ステレオカメラ制御用CPUI/F32を介してステレオカメラ20の撮像制御を行う。   The stereo camera control CPU I / F 32 is a transmission / reception interface between the CPU 31 and the stereo camera 20. The CPU 31 performs imaging control of the stereo camera 20 via the stereo camera control CPU I / F 32.

CPU31とECU50は、開始終了信号転送用I/F38を介して送受信可能となっている。   The CPU 31 and the ECU 50 can transmit and receive via the start / end signal transfer I / F 38.

画像処理部33は、ステレオカメラ20からの左右の画像(輝度画像)から、明るさ情報を算出し、明るさ情報CPUI/F35を介してCPU31に送信する。CPU31は、受信した明るさ情報を明るさデータ転送用I/F38を介してECU50に送信する。   The image processing unit 33 calculates brightness information from the left and right images (luminance images) from the stereo camera 20 and transmits the brightness information to the CPU 31 via the brightness information CPU I / F 35. The CPU 31 transmits the received brightness information to the ECU 50 via the brightness data transfer I / F 38.

また、画像処理部33は、ステレオカメラ20で撮像された左右の画像に対して、ガンマ補正や歪み補正などを実施した後、該左右の画像(輝度画像)を用いて視差計算を行い、視差画像と輝度画像を画像認識処理部34に送る。   In addition, the image processing unit 33 performs gamma correction, distortion correction, and the like on the left and right images captured by the stereo camera 20, and then performs parallax calculation using the left and right images (luminance images). The image and the luminance image are sent to the image recognition processing unit 34.

画像認識処理部34は、画像処理部33からの視差画像と輝度画像に基づいて、例えば物体の有無、該物体の種別(種類)、該物体までの距離等の物体情報を認識(検出)し、その認識結果である画像認識結果を画像認識結果CPUI/F37を介してCPU31に送信する。CPU31は、受信した画像認識結果を画像認識結果転送用I/F40を介してECU50に送信する。   The image recognition processing unit 34 recognizes (detects) object information such as the presence / absence of an object, the type (type) of the object, and the distance to the object based on the parallax image and the luminance image from the image processing unit 33. Then, the image recognition result as the recognition result is transmitted to the CPU 31 via the image recognition result CPU I / F 37. The CPU 31 transmits the received image recognition result to the ECU 50 via the image recognition result transfer I / F 40.

すなわち、画像処理部33、画像認識処理部34での処理結果は、処理装置30のCPU31に送られ、ECU50が受け取れるデータフォーマットに修正された後、ECU50に転送される。ECU50に転送するデータフォーマットとしては、主に、CAN I/F、LIN I/Fなどが挙げられる。   That is, the processing results in the image processing unit 33 and the image recognition processing unit 34 are sent to the CPU 31 of the processing device 30, corrected to a data format that can be received by the ECU 50, and then transferred to the ECU 50. The data format transferred to the ECU 50 mainly includes CAN I / F, LIN I / F, and the like.

ECU50は、運転者等のヘッドライトスイッチの操作(ON/OFF)に応じてヘッドライトを制御し、処理装置30からの処理情報に基づいて、ヘッドライト装置10に加えて、車両1の制動装置、操舵装置を制御する。   The ECU 50 controls the headlight according to the operation (ON / OFF) of the headlight switch by the driver or the like, and based on the processing information from the processing device 30, the braking device for the vehicle 1 is added to the headlight device 10. Control the steering device.

ECU50は、CPU51、メモリ52、CPUI/F53、CPUI/F55、発光制御用I/F56、制動制御用I/F57、操舵制御用I/F58を含む。   The ECU 50 includes a CPU 51, a memory 52, a CPU I / F 53, a CPU I / F 55, a light emission control I / F 56, a braking control I / F 57, and a steering control I / F 58.

CPU51は、ヘッドライト装置10を制御する投光制御部51a、制動装置を制御する制動制御部51b、操舵装置を制御する操舵制御部51cを含む。   The CPU 51 includes a light projection control unit 51a that controls the headlight device 10, a braking control unit 51b that controls the braking device, and a steering control unit 51c that controls the steering device.

CPU51は、CPU31からの明るさ情報を、開始終了信号転送用I/F38、CPUI/F53を介して取得する。   The CPU 51 acquires the brightness information from the CPU 31 via the start / end signal transfer I / F 38 and the CPU I / F 53.

また、CPU51は、CPU31からの画像認識結果を、画像認識結果転送用I/F40、CPUI/F55を介して取得する。   Further, the CPU 51 acquires the image recognition result from the CPU 31 via the image recognition result transfer I / F 40 and the CPU I / F 55.

制動制御部51b、操舵制御部51cは、CPU31からの画像認識結果を、画像認識結果転送用I/F40、CPUI/F55を介して取得する。   The braking control unit 51b and the steering control unit 51c acquire the image recognition result from the CPU 31 via the image recognition result transfer I / F 40 and the CPU I / F 55.

制動制御部51bは、取得した画像認識結果に基づいて、制動装置の制御(例えば危険回避のためのオートブレーキ)を行う。   The braking control unit 51b controls the braking device (for example, autobrake for avoiding danger) based on the acquired image recognition result.

操舵制御部51cは、取得した画像認識結果に基づいて、操舵装置の制御(例えば危険回避のためのオートステアリング)を行う。   The steering control unit 51c performs control of the steering device (for example, auto steering for avoiding danger) based on the acquired image recognition result.

次に、ステレオカメラ20により撮像された画像を用いる視差計算アルゴリズムについて図6〜図8を参照して説明する。   Next, a parallax calculation algorithm using an image captured by the stereo camera 20 will be described with reference to FIGS.

ステレオカメラ20の左右の撮像部により撮像された画像データは、画像処理部33の前処理部にて、それぞれガンマ補正や歪み補正などの処理が施される。前処理が施された左右の画像データは、画像処理部33の後処理部である視差画像生成手段(図6参照)にて視差算出アルゴリズムが実行され、画素ごとに視差値が算出される。   The image data captured by the left and right imaging units of the stereo camera 20 is subjected to processing such as gamma correction and distortion correction by the preprocessing unit of the image processing unit 33, respectively. For the left and right image data that has been subjected to the preprocessing, a parallax calculation algorithm is executed by a parallax image generating means (see FIG. 6) that is a post-processing unit of the image processing unit 33, and a parallax value is calculated for each pixel.

ところで、視差画像を生成する演算手法は、EBM(エッジベース)のようにテクスチャの強い部分(エッジの強い部分)についてのみ視差を演算する手法でも良い。または、SGM(セミグローバルマッチング)のように各ピクセル周囲からマッチングの非類似度を漸化式により伝播させ、最小の非類似度を与える整数視差とそれに隣接する視差の非類似度とから小数視差を算出するサブピクセル推定手法(等角直線、パラボラ、高次多項式等によるフィッティング)を用いることで画像全体の各ピクセルの視差を演算することも可能である。   By the way, the calculation method for generating the parallax image may be a method for calculating the parallax only for a portion having a strong texture (a portion having a strong edge) such as EBM (edge base). Alternatively, as in SGM (semi-global matching), the dissimilarity of matching is propagated from the periphery of each pixel by a recurrence formula, and the decimal disparity is calculated from the integer disparity that gives the minimum dissimilarity and the dissimilarity of the disparity adjacent thereto. It is also possible to calculate the parallax of each pixel of the whole image by using a subpixel estimation method (fitting by an equiangular straight line, a parabola, a high-order polynomial, etc.).

SGMの方が、EBMに比べると、視差データの画素抜けを抑えることができるため好ましい。   SGM is more preferable than EBM because it can suppress missing pixels in the parallax data.

そこで、本実施形態の視差画像生成手段は、SGM法を採用しており、一例として、図7に示されるように、基準画像に対する高域強調フィルタ部、比較画像に対する高域強調フィルタ部、一致度算出部、伝播類似度算出部、整数視差算出部、少数視差算出部を含む。なお、SGM法に関しては、非特許文献(Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information)に開示されている。   Therefore, the parallax image generation unit of the present embodiment adopts the SGM method, and as an example, as shown in FIG. 7, the high frequency enhancement filter unit for the reference image, the high frequency enhancement filter unit for the comparison image, and the matching A degree calculator, a propagation similarity calculator, an integer parallax calculator, and a minority parallax calculator. The SGM method is disclosed in non-patent literature (Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information).

以下に、本実施形態の視差画像生成手段について説明する。SGM視差計算では、図7に示されるように、視差を算出させたい注目画素の各方向から非類似度を伝播させ((1)式又は(2)式参照)、それらの和であるエネルギーS((3)式参照)を算出し、エネルギーSの最小値を与える整数視差D[ピクセル]を、注目画素の整数視差として導出する。ここで(1)式および(2)式で表現されているCとは、基準画像の注目画素の比較画像の視差探索による一致度を表している。Cの例としては、SADやSSDやNCC等、他のステレオマッチング指標を用いても良い。Cの算出の後に、(1)式または(2)式からLrを算出し、最後に(3)式によりSを算出する。伝播方向数を増やすと視差計算精度が向上するが、計算処理回路規模が大きくなる(視差計算精度と処理回路規模がトレードオフの関係)。   Below, the parallax image generation means of this embodiment is demonstrated. In the SGM parallax calculation, as shown in FIG. 7, the dissimilarity is propagated from each direction of the target pixel for which the parallax is to be calculated (see formula (1) or (2)), and the energy S that is the sum of them is calculated. (Refer to equation (3)) is calculated, and the integer parallax D [pixel] that gives the minimum value of the energy S is derived as the integer parallax of the target pixel. Here, C expressed by the expressions (1) and (2) represents the degree of coincidence by the parallax search of the comparison image of the target pixel of the reference image. As an example of C, other stereo matching indices such as SAD, SSD, and NCC may be used. After calculating C, Lr is calculated from equation (1) or (2), and finally S is calculated from equation (3). Increasing the number of propagation directions improves the parallax calculation accuracy, but increases the size of the calculation processing circuit (the relationship between the parallax calculation accuracy and the processing circuit size is a trade-off).

さらに視差精度を追求する場合には、図8に示されるようにサブピクセル推定手法を使って小数視差を算出する。例えば等角直線法では、視差D−1、D、D+1に対応する3つのSを使って小数視差D’を計算する。またはパラボラフィット手法では、視差D−2、D−1、D、D+1、D+2に対応する5つのSを使って小数視差D’を計算する。   Further, when pursuing parallax accuracy, sub-parallax is calculated using a sub-pixel estimation method as shown in FIG. For example, in the equiangular straight line method, the decimal parallax D ′ is calculated using three S corresponding to the parallaxes D−1, D, and D + 1. Alternatively, in the parabola fit method, the decimal parallax D ′ is calculated using five S corresponding to the parallaxes D−2, D−1, D, D + 1, and D + 2.

なお、算出された視差値は、信頼度判定によって信頼できるか否かの判断が行なわれる。信頼できない視差値であると判断された場合には、その画素の視差は無効視差とされる。   Note that whether or not the calculated parallax value is reliable is determined by reliability determination. If it is determined that the parallax value is not reliable, the parallax of the pixel is invalid parallax.

<測距の原理>
図9を用いて、ステレオ画像法により、ステレオカメラから物体に対する視差を導き出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、図9は、ステレオカメラ20から物体までの距離を導き出す原理の説明図である。また、以下では、説明を簡略化するため、複数の画素からなる所定領域ではなく、一画素単位で説明する。
なお、一画素単位ではなく、複数の画素からなる所定領域単位で処理される場合、基準画素を含む所定領域は基準領域として示され、対応画素を含む所定領域は対応領域として示される。また、この基準領域には基準画素のみの場合も含まれ、対応領域には対応画素のみの場合も含まれる。
<Principles of ranging>
With reference to FIG. 9, the principle of deriving a parallax with respect to an object from a stereo camera by the stereo image method and measuring the distance from the stereo camera to the object with a parallax value indicating the parallax will be described. FIG. 9 is an explanatory diagram of the principle of deriving the distance from the stereo camera 20 to the object. Further, in the following, in order to simplify the description, the description will be made on a pixel-by-pixel basis, not on a predetermined region composed of a plurality of pixels.
When processing is performed in units of a predetermined area including a plurality of pixels instead of a single pixel, the predetermined area including the reference pixel is indicated as the reference area, and the predetermined area including the corresponding pixel is indicated as the corresponding area. Further, this reference area includes the case of only the reference pixel, and the corresponding area includes the case of only the corresponding pixel.

(視差値算出)
まず、図9に示される撮像部20aおよび撮像部20bによって撮像された各画像を、それぞれ基準画像Iaおよび比較画像Ibとする。なお、図9では、撮像部20aおよび撮像部20bが平行等位に設置されているものとする。図9において、3次元空間内の物体E上のS点は、撮像部20aおよび撮像部20bの同一水平線上の位置に写像される。すなわち、各画像中のS点は、基準画像Ia中の点Sa(x,y)および比較画像Ib中の点Sb(X,y)において撮像される。このとき、視差値Δは、撮像部20a上の座標におけるSa(x,y)と撮像部20b上の座標におけるSb(X,y)とを用いて、次の(4)式のように表される。
Δ=X−x …(4)
(Parallax value calculation)
First, the images captured by the image capturing unit 20a and the image capturing unit 20b illustrated in FIG. 9 are referred to as a reference image Ia and a comparative image Ib, respectively. In FIG. 9, it is assumed that the imaging unit 20a and the imaging unit 20b are installed in parallel equiposition. In FIG. 9, the point S on the object E in the three-dimensional space is mapped to a position on the same horizontal line of the imaging unit 20a and the imaging unit 20b. That is, the S point in each image is imaged at a point Sa (x, y) in the reference image Ia and a point Sb (X, y) in the comparative image Ib. At this time, the parallax value Δ is expressed by the following equation (4) using Sa (x, y) at the coordinates on the imaging unit 20a and Sb (X, y) at the coordinates on the imaging unit 20b. Is done.
Δ = X−x (4)

ここで、図9のような場合には、基準画像Ia中の点Sa(x,y)と撮像レンズ11aから撮像面上におろした垂線の交点との距離をΔaにし、比較画像Ib中の点Sb(X,y)と撮像レンズ11bから撮像面上におろした垂線の交点との距離をΔbにすると、視差値Δ=Δa+Δbとなる。   Here, in the case as shown in FIG. 9, the distance between the point Sa (x, y) in the reference image Ia and the intersection of the perpendicular drawn from the imaging lens 11a on the imaging surface is set to Δa, and the comparison image Ib When the distance between the point Sb (X, y) and the intersection of the perpendicular line taken from the imaging lens 11b on the imaging surface is Δb, the parallax value Δ = Δa + Δb.

(距離算出)
また、視差値Δを用いることで、撮像部20a,20bと物体Eとの間の距離Zを導き出すことができる。具体的には、距離Zは、撮像レンズ11aの焦点位置と撮像レンズ11bの焦点位置とを含む面から物体E上の特定点Sまでの距離である。図9に示されるように、撮像レンズ11a及び撮像レンズ11bの焦点距離f、撮像レンズ11aと撮像レンズ11bとの間の長さである基線長B、及び視差値Δを用いて、次の(5)式により、距離Zを算出することができる。
Z=(B×f)/Δ …(5)
この(5)式により、視差値Δが大きいほど距離Zは小さく、視差値Δが小さいほど距離Zは大きくなる。
(Distance calculation)
Moreover, the distance Z between the imaging units 20a and 20b and the object E can be derived by using the parallax value Δ. Specifically, the distance Z is a distance from a plane including the focal position of the imaging lens 11a and the focal position of the imaging lens 11b to the specific point S on the object E. As shown in FIG. 9, using the focal length f of the imaging lens 11a and the imaging lens 11b, the baseline length B that is the length between the imaging lens 11a and the imaging lens 11b, and the parallax value Δ, the following ( The distance Z can be calculated by the equation 5).
Z = (B × f) / Δ (5)
According to the equation (5), the larger the parallax value Δ, the smaller the distance Z, and the smaller the parallax value Δ, the larger the distance Z.

<SGM法>
続いて、図10(A)〜図14を用いて、SGM法を用いた測距方法について説明する。なお、図10(A)は基準画像、図10(B)は図10(A)に対する高密度視差画像、図10(C)は図10(A)に対するエッジ視差画像を示す概念図である。
<SGM method>
Subsequently, a distance measuring method using the SGM method will be described with reference to FIGS. 10A is a reference image, FIG. 10B is a conceptual diagram illustrating a high-density parallax image with respect to FIG. 10A, and FIG. 10C is a conceptual diagram illustrating an edge parallax image with respect to FIG.

ここで、基準画像は、物体が輝度によって示された画像である。高密度視差画像は、SGM法によって、基準画像から導き出された画像であり、基準画像の各座標における視差値を示した画像である。エッジ視差画像は、従来から用いられているブロックマッチング法によって導き出された画像であり、基準画像のエッジ部のような比較的テクスチャの強い部分のみの視差値を示した画像である。   Here, the reference image is an image in which an object is indicated by luminance. The high-density parallax image is an image derived from the reference image by the SGM method, and is an image showing the parallax value at each coordinate of the reference image. The edge parallax image is an image derived by a conventionally used block matching method, and is an image showing only a parallax value of a portion having a relatively strong texture such as an edge portion of a reference image.

SGM法は、テクスチャが弱い物体に対しても適切に上記視差値を導き出す方法であり、図10(A)に示されている基準画像に基づいて、図10(B)に示されている高密度視差画像を導き出す方法である。なお、ブロックマッチング法を用いた場合には、図10(A)に示されている基準画像に基づいて、図10(C)に示されているエッジ視差画像が導き出される。図10(B)及び図10(C)における破線の楕円内を比べると分かるように、高密度視差画像は、エッジ視差画像に比べてテクスチャが弱い道路等の詳細な情報を表すことができるため、より詳細な測距を行うことができる。   The SGM method is a method for appropriately deriving the parallax value even for an object with a weak texture. Based on the reference image shown in FIG. This is a method for deriving a density parallax image. When the block matching method is used, the edge parallax image shown in FIG. 10C is derived based on the reference image shown in FIG. As can be seen by comparing the inside of the dashed ellipse in FIGS. 10B and 10C, the high-density parallax image can represent detailed information such as a road having a weak texture compared to the edge parallax image. More detailed distance measurement can be performed.

このSGM法は、非類似度であるコスト値を算出して直ちに視差値を導出せず、コスト値を算出後、更に、合成非類似度である合成コスト値 (Synthesis Cost)を算出することで視差値を導出し、最終的にほぼ全ての画素における視差値を示す視差画像(ここでは、高密度視差画像)を導き出す方法である。
なお、ブロックマッチング法の場合は、コスト値を算出する点はSGM法と同じであるが、SGM法のように、合成コスト値を算出せずに、エッジ部のような比較的テクスチャの強い部分の視差値のみを導出する。
This SGM method does not calculate the cost value that is dissimilarity and immediately derives the parallax value, but after calculating the cost value, it further calculates the synthesis cost value that is the synthetic dissimilarity. This is a method of deriving a parallax value and finally deriving a parallax image (here, a high-density parallax image) indicating the parallax value in almost all pixels.
In the case of the block matching method, the cost value is calculated in the same way as the SGM method. However, as in the SGM method, a comparatively strong texture such as an edge portion is calculated without calculating a synthesis cost value. Only the parallax value is derived.

(コスト値の算出)
まず、図11(A)〜図12を用いて、コスト値C(p,d)の算出方法について説明する。図11(A)は基準画像における基準画素を示す概念図、図11(B)は図11(A)の基準画素に対して比較画像における対応画素の候補を順次シフトしながら(ずらしながら)シフト量(ずれ量)を算出する際の概念図である。図12は、シフト量毎のコスト値を示すグラフである。ここで、対応画素は、基準画像内の基準画素に最も類似する比較画像内の画素である。なお、以降、C(p,d)は、C(x,y,d)を表すものとして説明する。
(Calculation of cost value)
First, a method for calculating the cost value C (p, d) will be described with reference to FIGS. FIG. 11A is a conceptual diagram showing reference pixels in the reference image, and FIG. 11B is a diagram showing the corresponding pixel candidates in the comparison image while sequentially shifting (shifting) the reference pixels in FIG. 11A. It is a conceptual diagram at the time of calculating quantity (deviation amount). FIG. 12 is a graph showing the cost value for each shift amount. Here, the corresponding pixel is a pixel in the comparison image that is most similar to the reference pixel in the reference image. In the following description, C (p, d) represents C (x, y, d).

図11(A)及び図11(B)に示されているように、基準画像内の所定の基準画素p(x,y)と、この基準画素p(x,y)に対する比較画像内におけるエピポーラ線(Epipolar Line)上の複数の対応画素の候補q(x+d,y)との各輝度値に基づいて、基準画素p(x,y)に対する各対応画素の候補q(x+d,y)のコスト値C(p,d)が算出される。dは、基準画素pと対応画素の候補qのシフト量(ずれ量)であり、本実施形態では、画素単位のシフト量が表されている。即ち、図11(A)及び図11(B)では、対応画素の候補q(x+d,y)を予め指定された範囲(例えば、0<d<25)において順次一画素分シフトしながら、対応画素の候補q(x+d,y)と基準画素p(x,y)との輝度値の非類似度であるコスト値C(p,d)が算出される。コスト値Cの算出方法としては、コスト値Cが非類似度を示す場合、SAD(Sum of Absolute Difference)等の公知の方法が適用される。   As shown in FIGS. 11A and 11B, a predetermined reference pixel p (x, y) in the reference image and an epipolar in the comparison image with respect to the reference pixel p (x, y). The cost of each corresponding pixel candidate q (x + d, y) with respect to the reference pixel p (x, y) based on each luminance value with a plurality of corresponding pixel candidates q (x + d, y) on the line (Epipolar Line) A value C (p, d) is calculated. d is the shift amount (shift amount) between the reference pixel p and the corresponding pixel candidate q, and in this embodiment, the shift amount in pixel units is represented. That is, in FIG. 11A and FIG. 11B, the corresponding pixel candidate q (x + d, y) is sequentially shifted by one pixel within a predetermined range (for example, 0 <d <25). A cost value C (p, d), which is a dissimilarity between the luminance values of the pixel candidate q (x + d, y) and the reference pixel p (x, y), is calculated. As a calculation method of the cost value C, when the cost value C indicates dissimilarity, a known method such as SAD (Sum of Absolute Difference) is applied.

このようにして算出されたコスト値C(p,d)は、図12に示されているように、シフト量d毎のコスト値Cの集まりであるコスト曲線のグラフによって表すことができる。図12では、コスト値Cは、シフト量d=5,12,19の場合が0(ゼロ)となるため、最小値を求めることができない。このように、テクスチャが弱い物体の場合には、コスト値Cの最小値を求めることは困難になる。
(合成コスト値の算出)
次に、図13及び図14を用いて、合成コスト値Ls(p,d)の算出方法について説明する。図13は、合成コスト値を導き出すための概念図である。図14は、視差値毎の合成コスト値を示す合成コスト曲線のグラフである。本実施形態における合成コスト値の算出方法は、コスト値C(p,d)の算出だけでなく、所定の基準画素p(x,y)の周辺の画素を基準画素とした場合のコスト値を、基準画素p(x,y)におけるコスト値C(p,d)に集約させて、合成コスト値Ls(p,d)を算出する。
The cost value C (p, d) calculated in this way can be represented by a graph of a cost curve that is a collection of cost values C for each shift amount d, as shown in FIG. In FIG. 12, the cost value C is 0 (zero) in the case of the shift amount d = 5, 12, and 19, and therefore the minimum value cannot be obtained. Thus, in the case of an object having a weak texture, it is difficult to obtain the minimum value of the cost value C.
(Computation cost value calculation)
Next, a method for calculating the combined cost value Ls (p, d) will be described with reference to FIGS. 13 and 14. FIG. 13 is a conceptual diagram for deriving a synthesis cost value. FIG. 14 is a graph of a synthesis cost curve showing a synthesis cost value for each parallax value. The calculation method of the synthesis cost value in the present embodiment is not only the calculation of the cost value C (p, d), but also the cost value when pixels around the predetermined reference pixel p (x, y) are used as the reference pixels. The combined cost value Ls (p, d) is calculated by consolidating the cost value C (p, d) at the reference pixel p (x, y).

次に、合成コスト値の算出方法について、より詳細に説明する。合成コスト値Ls(p,d)を算出するためには、まず、経路コスト値Lr(p,d)を算出する必要がある。次の(6)式は、経路コスト値Lr(p,d)を算出するための式であって上記(1)式と実質的に同じ式であり、(7)式は、合成コスト値Lsを算出するための式であって上記(3)式と実質的に同じ式である。
Lr(p,d)=C(p,d)+min{(Lr(p−r,d),Lr(p−r,d−1)+P1,Lr(p−r,d+1)+P1,Lrmin(p−r)+p2}…(6)
Next, a method for calculating the synthesis cost value will be described in more detail. In order to calculate the combined cost value Ls (p, d), it is first necessary to calculate the route cost value Lr (p, d). The following expression (6) is an expression for calculating the route cost value Lr (p, d) and is substantially the same as the expression (1), and the expression (7) is the combined cost value Ls. This is an expression for calculating the above expression, and is substantially the same as the expression (3).
Lr (p, d) = C (p, d) + min {(Lr (pr, d), Lr (pr, d-1) + P1, Lr (pr, d + 1) + P1, Lrmin (p) -R) + p2} (6)

ここで、(6)式において、rは、集約方向の方向ベクトルを示し、x方向およびy方向の2成分を有する。min{}は、最小値を求める関数である。Lrmin(p−r)は、pをr方向に1画素シフトした座標において、シフト量dを変化させた際のLr(p−r,d)の最小値を示す。なお、Lrは、(6)式に示されているように再帰的に適用される。また、P1及びP2は、予め実験により定められた固定パラメータであり、経路上で隣接する基準画素の視差値Δが連続になりやすいようなパラメータになっている。例えば、P1=48、P2=96である。   Here, in Expression (6), r represents a direction vector in the aggregation direction, and has two components in the x direction and the y direction. min {} is a function for obtaining the minimum value. Lrmin (p−r) indicates the minimum value of Lr (p−r, d) when the shift amount d is changed in the coordinates obtained by shifting p by one pixel in the r direction. Note that Lr is applied recursively as shown in equation (6). P1 and P2 are fixed parameters determined in advance by experiments, and are parameters that make it easy for the parallax values Δ of adjacent reference pixels on the path to be continuous. For example, P1 = 48 and P2 = 96.

また、(6)式に示されているように、Lr(p,d)は、基準画素p(x,y)におけるコスト値Cに、図13に示されているr方向の各画素における各画素の経路コスト値Lrの最小値を加算することで求められる。このように、r方向の各画素におけるLrを求めるため、最初は、基準画像p(x,y)のr方向の一番端の画素からLrが求められ、r方向に沿ってLrが求められる。
そして、図13に示されているように、8方向のLr,Lr45,Lr90,Lr135,Lr180,Lr225,Lr270,Lr315求められ、最終的に(7)式に基づいて、合成コスト値Lsが求められる。
Further, as shown in the equation (6), Lr (p, d) is the cost value C in the reference pixel p (x, y), and the respective values in each pixel in the r direction shown in FIG. It is obtained by adding the minimum value of the path cost value Lr of the pixel. Thus, in order to obtain Lr at each pixel in the r direction, first, Lr is obtained from the endmost pixel in the r direction of the reference image p (x, y), and Lr is obtained along the r direction. .
Then, as shown in FIG. 13, Lr 0 , Lr 45 , Lr 90 , Lr 135 , Lr 180 , Lr 225 , Lr 270 , and Lr 315 in eight directions are obtained, and finally based on the equation (7). Thus, the synthesis cost value Ls is obtained.

このようにして算出された合成コスト値Ls(p,d)は、図14に示されているように、シフト量d毎に合成コスト値Ls(p,d)が示される合成コスト曲線のグラフによって表すことができる。図14では、合成コスト値Lsは、シフト量d=3の場合が最小値となるため、視差値Δ=3として算出される。
なお、上記説明ではrの数を8として説明しているが、これに限られることはない。例えば、8方向を更に2つに分割して16方向、3つに分割して24方向等にしてもよい。
また、コスト値Cは「非類似度」として示されているが、非類似度の逆数としての「類似度」として表されてもよい。この場合、コスト値Cの算出方法としては、NCC(Normalized Cross Correlation)等の公知の方法が適用される。また、この場合、合成コスト値Lsが最小ではなく「最大」となる視差値Δが導出される。なお、非類似度と類似度の両者を含めて、「一致度」として表してもよい。
The composite cost value Ls (p, d) calculated in this way is a graph of the composite cost curve in which the composite cost value Ls (p, d) is shown for each shift amount d as shown in FIG. Can be represented by In FIG. 14, the composite cost value Ls is calculated as a parallax value Δ = 3 because the minimum value is obtained when the shift amount d = 3.
In the above description, the number of r is assumed to be 8. However, the present invention is not limited to this. For example, the eight directions may be further divided into two to be divided into sixteen directions and three into 24 directions.
Further, although the cost value C is shown as “dissimilarity”, it may be expressed as “similarity” as a reciprocal of dissimilarity. In this case, as a method for calculating the cost value C, a known method such as NCC (Normalized Cross Correlation) is applied. Further, in this case, the parallax value Δ where the combined cost value Ls is not “minimum” but “maximum” is derived. In addition, you may represent as a "matching degree" including both dissimilarity and similarity.

なお、処理装置の処理の一部をECUが実行しても良いし、ECUの処理の一部を処理装置が実行しても良い。また、処理装置及びECU双方の機能を併有する1つの制御系を構成しても良い。この場合、物体検出プログラム、移動体制御プログラムを1つのメモリに格納しても良い。   Note that a part of the processing of the processing device may be executed by the ECU, or a part of the processing of the ECU may be executed by the processing device. Moreover, you may comprise one control system which has both functions of a processing apparatus and ECU. In this case, the object detection program and the moving body control program may be stored in one memory.

また、メモリに代えて、例えばハードディスク等の他の記憶媒体を用いても良い。   Further, instead of the memory, other storage media such as a hard disk may be used.

また、移動体制御システムの制御対象が車両の制動装置、操舵装置であるが、これに限られない。例えば、制動装置及び操舵装置の一方のみを制御対象としても良いし、車両の駆動源(例えばエンジンやモータ)を制御対象の少なくとも1つとしても良い。   Moreover, although the controlled object of a mobile body control system is a vehicle braking device and a steering device, it is not restricted to this. For example, only one of the braking device and the steering device may be set as the control target, or the drive source (for example, engine or motor) of the vehicle may be set as at least one of the control targets.

また、移動体制御システムは、車両本体を制御する制動制御部、操舵制御部を有しているが、これに代えて又は加えて、後述する物体検出装置の検出情報に基づいて、運転者等に注意を促すための警報音や警報表示を出力する警報装置を有していても良い。   In addition, the moving body control system includes a braking control unit and a steering control unit that control the vehicle body, but instead of or in addition to this, based on detection information of an object detection device described later, a driver or the like You may have the alarm device which outputs the alarm sound and warning display for calling attention.

また、光量分布が不規則な発光パターンによってLEDアレイを点灯させてランダムパターン光を投光しているが、これに代えて、例えば、プロジェクションマッピング映像で代表される「模様」を自車両前方に投影させても良い。すなわち、投光装置は、光により画像を形成し、該画像を形成した光をランダムパターン光として射出する画像形成部を有していても良い。また、不規則なパターン分布を持つマスクパターンに光を照射することにより、ランダムパターン光を生成し、投光しても良い。   In addition, the LED array is turned on by a light emission pattern with an irregular light amount distribution and a random pattern light is projected. Instead, for example, a “pattern” represented by a projection mapping image is displayed in front of the host vehicle. It may be projected. In other words, the light projecting device may include an image forming unit that forms an image with light and emits the light that has formed the image as random pattern light. Further, random pattern light may be generated and projected by irradiating light to a mask pattern having an irregular pattern distribution.

また、投光装置の光源部としてヘッドライト装置が用いられているが、ヘッドライト装置とは、別の専用の光源部を別途設けても良い。また、ヘッドライト装置は、車両本体に標準装備されるものに限らず、特注品やオプション品であっても良い。   Further, although a headlight device is used as a light source unit of the light projecting device, a dedicated light source unit different from the headlight device may be provided separately. In addition, the headlight device is not limited to the standard equipment in the vehicle body, and may be a custom-made product or an optional product.

また、撮像装置として、2つの撮像部(2眼)を有するステレオカメラ20が採用されているが、3つ以上の撮像部を有する撮像装置を採用しても良い。   Moreover, although the stereo camera 20 which has two imaging parts (two eyes) is employ | adopted as an imaging device, you may employ | adopt the imaging device which has three or more imaging parts.

[詳細]
上記投光制御部51aは、取得した明るさ情報に応じて、メモリ52に格納された発光パターンデータを用いてヘッドライト装置10のヘッドライトを点灯させ、ランダムパターン光を投光させる。
[Details]
The light projection control unit 51a turns on the headlight of the headlight device 10 using the light emission pattern data stored in the memory 52 according to the acquired brightness information, and projects random pattern light.

そこで、ヘッドライト装置10及び投光制御部51aを含んで、ランダムパターン光を投光する「投光装置」が構成される。また、投光装置及びステレオカメラ20を含んで、投光装置の投光範囲を撮像する「撮像システム」が構成される。さらに、撮像システム及び画像処理部33を備える画像処理システムを含んで、投光装置の投光範囲の物体情報を検出する物体検出装置が構成される。   Therefore, a “light projecting device” that projects the random pattern light includes the headlight device 10 and the light projecting control unit 51a. In addition, an “imaging system” that captures the light projection range of the light projecting device is configured including the light projecting device and the stereo camera 20. Further, an object detection device that detects object information in the light projection range of the light projection device is configured including the image processing system including the imaging system and the image processing unit 33.

ECU50は、ヘッドライトの消灯中に車両外部が「暗い」と判断したときにヘッドライトを点灯し、該ヘッドライトの点灯中に車両外部が「明るい」と判断したときにヘッドライトを消灯する。   The ECU 50 turns on the headlight when the outside of the vehicle is determined to be “dark” while the headlight is turned off, and turns off the headlight when the outside of the vehicle is determined to be “bright” while the headlight is turned on.

詳述すると、ECU50は、ヘッドライトの消灯中に、車両外部の明るさ情報を検出する明るさ情報検出手段からの検出結果に基づいて車両外部が「暗い」と判断したときに、発光パターンデータを用いてヘッドライトを点灯し、該ヘッドライトからパターン光を投光させる。なお、ヘッドライトの駆動回路は、発光パターンデータを受信すると、LEDアレイの各LEDを該発光パターンデータにおいて該LED毎に設定された電流値で駆動する。   More specifically, when the ECU 50 determines that the outside of the vehicle is “dark” based on the detection result from the brightness information detecting means for detecting the brightness information outside the vehicle while the headlight is turned off, the light emission pattern data The headlight is turned on using and the pattern light is projected from the headlight. When receiving the light emission pattern data, the headlight drive circuit drives each LED of the LED array with a current value set for each LED in the light emission pattern data.

詳述すると、発光パターンデータは、ECU50のメモリ52(図5参照)に格納されている。ECU50のCPU51(図5参照)は、投光時にメモリ52から発光パターンデータを読み出し、該発光パターンデータに従って各ヘッドライトのLEDアレイを駆動する。   More specifically, the light emission pattern data is stored in the memory 52 (see FIG. 5) of the ECU 50. The CPU 51 (see FIG. 5) of the ECU 50 reads the light emission pattern data from the memory 52 at the time of light projection, and drives the LED array of each headlight according to the light emission pattern data.

また、ECU50は、ヘッドライトを点灯しているときに、明るさ情報検出手段からの検出結果に基づいて車両外部が明るくなったと判断したときに、該ヘッドライトを消灯する。   Further, when the ECU 50 determines that the exterior of the vehicle has become bright based on the detection result from the brightness information detection means while the headlight is turned on, the ECU 50 turns off the headlight.

ヘッドライトから車両前方に投光されたパターン光は、投光範囲に物体がある場合に、該物体に照射される。ここで、「投光範囲」は、各ヘッドライトによる投光可能な範囲を併せた範囲を意味する(図1参照)。   The pattern light projected from the headlight to the front of the vehicle is applied to the object when there is an object in the projection range. Here, the “light projection range” means a range including a range in which light can be projected by each headlight (see FIG. 1).

明るさ情報検出手段としては、ステレオカメラ20と該ステレオカメラ20で撮像された画像を処理する後述する画像処理部33とを含んで構成することができるが、例えば単眼カメラと画像処理部の組み合わせや、照度センサなどを用いても良い。すなわち、明るさ情報検出手段がステレオカメラ20と画像処理部33で構成される場合には、画像処理部33が画像中の全画素の輝度の合計値が閾値より小さいときに「暗い」と判断する。また、明るさ情報検出手段が照度センサである場合には、センサの取得値が閾値より小さいときに「暗い」と判断する。もちろん、明るさ情報検出手段による明るさの検出は、車両外部の明るさを取得できれば種々の態様をとり得る。明るさ情報検出手段での検出結果は、ECU50に送信される。   The brightness information detection means can be configured to include a stereo camera 20 and an image processing unit 33 (to be described later) that processes an image captured by the stereo camera 20. For example, a combination of a monocular camera and an image processing unit Alternatively, an illuminance sensor or the like may be used. That is, when the brightness information detection unit is configured by the stereo camera 20 and the image processing unit 33, the image processing unit 33 determines that the image is “dark” when the total luminance value of all the pixels in the image is smaller than the threshold value. To do. Further, when the brightness information detecting means is an illuminance sensor, it is determined to be “dark” when the acquired value of the sensor is smaller than the threshold value. Of course, the brightness detection by the brightness information detecting means can take various forms as long as the brightness outside the vehicle can be acquired. The detection result of the brightness information detection means is transmitted to the ECU 50.

ここで、「発光パターンデータ」は不規則な光量分布(電流値分布)を持つデータであり、対応する「パターン光」は不規則な輝度分布を持つ(図4参照)。そこで、以下では、「パターン光」を「ランダムパターン光」とも呼ぶ。   Here, the “light emission pattern data” is data having an irregular light amount distribution (current value distribution), and the corresponding “pattern light” has an irregular luminance distribution (see FIG. 4). Therefore, hereinafter, “pattern light” is also referred to as “random pattern light”.

ランダムパターン光では、2値又は多値(3値以上)の輝度部が不規則に分布している(図4参照)。   In the random pattern light, the binary or multi-value (three or more values) luminance portions are irregularly distributed (see FIG. 4).

例えば、発光パターンデータの光量分布が2値の光量部が不規則に分布したものである場合には、これに対応して、ランダムパターン光も2値の輝度部が不規則に分布したものとなる。   For example, in the case where the light amount distribution of the light emission pattern data is such that the binary light amount portion is irregularly distributed, the random pattern light is also irregularly distributed in the binary luminance portion. Become.

例えば、発光パターンデータの光量分布が、多値の光量部が不規則に分布したものである場合には、これに対応して、ランダムパターン光も多値の輝度部が不規則に分布したものとなる。   For example, if the light quantity distribution of the light emission pattern data is an irregular distribution of multi-value light quantity parts, the random pattern light also has an irregular distribution of multi-value luminance parts. It becomes.

ここで、ECU50のメモリ52に、例えば模様が同一であってコントラストが異なる複数の発光パターンデータ(以下では「コントラストが異なる複数の発光パターンデータ」と略称する)を格納しても良い。コントラストが異なる複数の発光パターンデータは、基準となる発光パターンデータに対して全光量部の光量値を一律に増減させることで得られる。   Here, the memory 52 of the ECU 50 may store, for example, a plurality of light emission pattern data having the same pattern and different contrasts (hereinafter abbreviated as “a plurality of light emission pattern data having different contrasts”). A plurality of light emission pattern data having different contrasts can be obtained by uniformly increasing / decreasing the light amount values of all the light amount portions with respect to the reference light emission pattern data.

この場合に、ECU50が、車両外部の明るさや、車両前方の他車両、障害物などの物体の有無や、車両前方の環境のテクスチャ量や、視差画像の視差信頼度情報に基づいて、コントラストが異なる複数の発光パターンデータから適切な発光パターンデータを選択し、該発光パターンデータを用いて各ヘッドライトのLEDアレイを点灯することが望ましい。   In this case, the ECU 50 determines the contrast based on the brightness outside the vehicle, the presence or absence of an object such as another vehicle in front of the vehicle, an obstacle, the texture amount of the environment in front of the vehicle, and the parallax reliability information of the parallax image. It is desirable to select appropriate light emission pattern data from a plurality of different light emission pattern data, and to turn on the LED array of each headlight using the light emission pattern data.

車両前方の物体の有無を検出する物体有無検出手段としては、ステレオカメラ20と画像処理部33を含んで構成することができるが、例えば単眼カメラや偏光カメラと画像処理部の組み合わせや、レーザレーダなどを用いても良い。なお、明るさ検出手段として単眼カメラと画像処理部の組み合わせを用いる場合には、この組み合わせを物体有無検出手段としても用いることができる。   The object presence / absence detecting means for detecting the presence / absence of an object in front of the vehicle can be configured to include the stereo camera 20 and the image processing unit 33. For example, a combination of a monocular camera, a polarization camera and an image processing unit, a laser radar Etc. may be used. When a combination of a monocular camera and an image processing unit is used as the brightness detection unit, this combination can also be used as the object presence / absence detection unit.

車両前方の環境のテクスチャ量を検出するテクスチャ検出手段、視差画像の視差信頼度情報を取得する手段としては、ステレオカメラ20と画像処理部33とを含んで構成することができる。   The texture detection unit that detects the texture amount of the environment in front of the vehicle and the unit that acquires the parallax reliability information of the parallax image can include the stereo camera 20 and the image processing unit 33.

そこで、コントラストが異なる複数の発光パターンデータがメモリ52に格納されている場合には、ECU50は、車両外部の明暗や車両前方の環境に応じて、コントラストが異なる複数のパターン光のうち一のパターン光を各ヘッドライトから選択的に投光させることができる。   Therefore, when a plurality of light emission pattern data having different contrasts are stored in the memory 52, the ECU 50 selects one pattern among a plurality of pattern lights having different contrasts according to the light / darkness outside the vehicle or the environment in front of the vehicle. Light can be selectively projected from each headlight.

ところで、車両において、昼間のトンネル内、夜間などの暗部においては、ヘッドライトから前方に光を投光することにより暗部を明るくするが、元々暗部にある物体のコントラストはすでに低いため、単にヘッドライトを点灯して均一な光を照射しても、画像コントラストが得られにくい。そのため、暗部では、ステレオカメラで車両前方の視差画像を取得する際に、視差計算時に左右画像のマッチング(相関)が取りづらくなる。その結果、車両前方の被写体(人、他車両、障害物、路面、背景など)の無効視差画素数が多くなり、出力視差の精度が低下していた。   By the way, in a dark part such as in a daytime tunnel or at night in a vehicle, the dark part is brightened by projecting light forward from the headlight, but since the contrast of the object originally in the dark part is already low, it is simply a headlight. Even if the light is turned on and uniform light is irradiated, it is difficult to obtain image contrast. Therefore, in a dark part, when acquiring a parallax image ahead of a vehicle with a stereo camera, it becomes difficult to obtain matching (correlation) between left and right images during parallax calculation. As a result, the number of invalid parallax pixels of a subject (a person, another vehicle, an obstacle, a road surface, a background, etc.) in front of the vehicle is increased, and the accuracy of output parallax is reduced.

以下に、本実施形態の移動体制御システム100による車両本体の制御(車両制御処理)を、図15のフローチャートを参照して説明する。ここでの制御は、ECU50と処理装置30によって実行される。すなわち、移動体制御システム100の制御に用いられる移動体制御プログラムのうちECU50を動作させるためのサブプログラムがECU50のメモリ52に格納され、処理装置30を動作させるためのサブプログラムが処理装置30のメモリ29に格納されている。   Hereinafter, control of the vehicle main body (vehicle control process) by the moving body control system 100 of the present embodiment will be described with reference to the flowchart of FIG. The control here is executed by the ECU 50 and the processing device 30. That is, a subprogram for operating the ECU 50 among the mobile body control programs used for control of the mobile body control system 100 is stored in the memory 52 of the ECU 50, and a subprogram for operating the processing device 30 is stored in the processing device 30. Stored in the memory 29.

なお、移動体制御プログラムは、物体検出装置の制御に用いられる物体検出プログラムの全手順を含む。物体検出プログラムのうち投光装置を制御するためのサブプログラムがECU50のメモリ52に格納され、ステレオカメラ20、処理装置30を制御するためのサブプログラムが処理装置30のメモリ29に格納されている。   The moving body control program includes all procedures of the object detection program used for controlling the object detection apparatus. Of the object detection program, a subprogram for controlling the light projecting device is stored in the memory 52 of the ECU 50, and a subprogram for controlling the stereo camera 20 and the processing device 30 is stored in the memory 29 of the processing device 30. .

ここでの制御は、運転者や同乗者(以下では「運転者等」と呼ぶ)により車両1の操作部においてセーフティモード(危険回避モード)が選択(ON)されているときに行われる。セーフティモードが選択(ON)されているときには、ステレオカメラ20は両眼でリアルタイムに撮像を行い、左右の画像をフレーム毎に画像処理部33に送る。   The control here is performed when a safety mode (danger avoidance mode) is selected (ON) in the operation unit of the vehicle 1 by a driver or a passenger (hereinafter referred to as “driver etc.”). When the safety mode is selected (ON), the stereo camera 20 captures images in real time with both eyes and sends the left and right images to the image processing unit 33 for each frame.

最初のステップS1では、ECU50が「投光制御処理1」を実行する。「投光制御処理1」については、後述する。   In the first step S1, the ECU 50 executes “light projection control process 1”. The “light projection control process 1” will be described later.

次のステップS2では、「視差画像生成処理」を実行する。「視差画像生成処理」は、メモリ29に格納されたサブプログラムに従って処理装置30により実行される。具体的には、処理装置30がステレオカメラ20で撮像された左右のフレーム毎の画像(輝度画像)から視差画像を生成する。詳述すると、画像処理部33がガンマ補正や歪み補正などの前処理を実施した後、視差計算を行い、前処理された輝度画像、視差計算によって得られた視差画像を画像認識処理部34に送る。   In the next step S2, “parallax image generation processing” is executed. The “parallax image generation process” is executed by the processing device 30 according to the subprogram stored in the memory 29. Specifically, the processing device 30 generates a parallax image from the images (luminance images) for the left and right frames captured by the stereo camera 20. More specifically, after the image processing unit 33 performs preprocessing such as gamma correction and distortion correction, parallax calculation is performed, and the preprocessed luminance image and the parallax image obtained by the parallax calculation are input to the image recognition processing unit 34. send.

次のステップS3では、「画像認識処理」を実行する。「画像認識処理」は、メモリ29に格納されたサブプログラムに従って処理装置30により実行される。具体的には、処理装置30が視差画像を用いて画像認識(物体認識)を実施する。詳述すると、画像認識処理部34が投光範囲の物体に関する情報(物体情報)を認識(検出)し、その結果(画像認識結果)をECU50に送る。なお、「物体に関する情報」は、例えば物体の有無、物体までの距離、物体の種類(例えば人、構造物、道路等)などである。なお、物体の種類の検出は、複数種類の物体の大きさ、形状等のパラメータを予めメモリ29に格納し、該パラメータに基づいて検出することが可能である。   In the next step S3, “image recognition processing” is executed. The “image recognition process” is executed by the processing device 30 according to the subprogram stored in the memory 29. Specifically, the processing device 30 performs image recognition (object recognition) using a parallax image. More specifically, the image recognition processing unit 34 recognizes (detects) information (object information) related to an object in the light projection range, and sends the result (image recognition result) to the ECU 50. The “information about the object” includes, for example, the presence / absence of the object, the distance to the object, the type of the object (for example, a person, a structure, a road, etc.). Note that the types of objects can be detected by storing parameters such as the sizes and shapes of a plurality of types of objects in the memory 29 in advance and detecting them based on the parameters.

次のステップS4では、「制動・操舵制御処理」を実行する。「制動・操舵制御処理」は、メモリ52に格納されたサブプログラムに従ってECU50により実行される。具体的には、ECU50が、受信した画像認識結果に基づいて、オートブレーキやオートステアリング(危険回避のための制御)を行う。より詳細には、画像認識結果に基づいて、制動・操舵制御部51bが制動装置、操舵装置を適宜制御する。   In the next step S4, "braking / steering control processing" is executed. The “braking / steering control process” is executed by the ECU 50 in accordance with the subprogram stored in the memory 52. Specifically, the ECU 50 performs autobrake and autosteering (control for avoiding danger) based on the received image recognition result. More specifically, the braking / steering control unit 51b appropriately controls the braking device and the steering device based on the image recognition result.

次のステップS5では、ECU50が、セーフティモードがONか否かを判断する。ここでの判断が肯定されるとステップS1に戻り、否定されるとフローは終了する。   In the next step S5, the ECU 50 determines whether or not the safety mode is ON. If the determination here is affirmed, the process returns to step S1, and if the determination is negative, the flow ends.

次に、「車両制御処理」のステップS1の「投光制御処理1」について、図16のフローチャートを参照して説明する。投光制御処理1は、投光制御部51aにより、メモリ52に格納されたサブプログラムに従って実行される。ここでは、ステレオカメラ20でリアルタイムに撮像された車両前方の画像(輝度画像)から処理装置30で明るさ情報がリアルタイムに算出され、該明るさ情報が投光制御部51aにリアルタイムで送信されている。   Next, “light projection control process 1” in step S1 of the “vehicle control process” will be described with reference to the flowchart of FIG. The light projection control process 1 is executed according to the subprogram stored in the memory 52 by the light projection control unit 51a. Here, brightness information is calculated in real time by the processing device 30 from an image (luminance image) ahead of the vehicle imaged in real time by the stereo camera 20, and the brightness information is transmitted to the light projection control unit 51a in real time. Yes.

最初のステップS11では、車両外部が暗いか否かを判断する。具体的には、処理装置30からの明るさ情報を予め設定された基準値と比較し、その明るさ情報が該基準値未満であれば「暗い」と判断し、該基準値以上であれば「暗くない」と判断する。ステップS11での判断が否定されると(暗くないと判断されると)ステップS12に移行し、ステップS11での判断が肯定されると(暗いと判断されると)、ステップS13に移行する。   In the first step S11, it is determined whether or not the outside of the vehicle is dark. Specifically, the brightness information from the processing device 30 is compared with a preset reference value, and if the brightness information is less than the reference value, it is determined to be “dark”, and if it is equal to or greater than the reference value. Judge that it is not dark. If the determination in step S11 is negative (determined that it is not dark), the process proceeds to step S12. If the determination in step S11 is affirmative (determined to be dark), the process proceeds to step S13.

ステップS12では、消灯トリガ信号をヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには消灯され、ヘッドライトが消灯中のときには消灯状態が維持される。ステップS12が実行されると、フローは終了する。   In step S <b> 12, a turn-off trigger signal is transmitted to the headlight device 10. As a result, the headlight is turned off when the headlight is on, and the off state is maintained when the headlight is off. When step S12 is executed, the flow ends.

ステップS13では、点灯トリガ信号と発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには点灯され、ランダムパターン光が車両前方に投光される。このとき、ランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS13が実行されると、フローは終了する。   In step S <b> 13, the lighting trigger signal and the light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the light is turned on, and the random pattern light is projected forward of the vehicle. At this time, the range in which the random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S13 is executed, the flow ends.

なお、投光制御処理1を含む車両制御処理において、セーフティモードがONのときには、運転者等によるヘッドライトスイッチの手動操作に優先して、車外の明るさが基準値未満のときに自動的にヘッドライトが点灯し、該基準値以上のときにはヘッドライトは点灯しない。一方、セーフティモードがOFFのときには、ヘッドライトは、運転者等によるヘッドライトスイッチの手動操作のみによって点灯/消灯される。   In the vehicle control processing including the light projection control processing 1, when the safety mode is ON, it is automatically prior to manual operation of the headlight switch by the driver or the like when the brightness outside the vehicle is less than the reference value. The headlight is turned on and the headlight is not turned on when the reference value is exceeded. On the other hand, when the safety mode is OFF, the headlight is turned on / off only by manual operation of the headlight switch by the driver or the like.

以上説明した本実施形態の撮像システムは、車両本体(移動体)に搭載される撮像システムであって、ランダムパターン光(不規則な輝度分布を持つパターン光)を投光する、ヘッドライト装置10及び投光制御部51aを含む投光装置と、該投光装置の投光範囲を撮像する2つの撮像部20a、20bを含むステレオカメラ20(撮像装置)と、を備えている。   The imaging system of the present embodiment described above is an imaging system mounted on a vehicle main body (moving body), and projects a random pattern light (pattern light having an irregular luminance distribution). And a light projecting device including a light projecting control unit 51a, and a stereo camera 20 (image capturing device) including two image capturing units 20a and 20b that capture the light projecting range of the light projecting device.

この場合、投光範囲(ランダムパターン光が投光される範囲)をステレオカメラ20で撮像できるため、暗部に対しての物体情報の検出に有効な画像を得ることができる。   In this case, since the light projection range (range where the random pattern light is projected) can be captured by the stereo camera 20, an image effective for detecting object information for a dark part can be obtained.

また、投光装置はランダムパターン光を投射する、車両本体に標準装備されるヘッドライト装置10を光源部として含む。この場合、ランダムパターン光が暗部を照らす照明光になるとともに視差計算に有効な光にもなる。すなわち、ヘッドライト装置10に加えて光源部を別途設ける必要がない。   In addition, the light projecting device includes a headlight device 10 that is provided as a standard in the vehicle main body and projects a random pattern light as a light source unit. In this case, the random pattern light becomes illumination light that illuminates the dark part and is also effective light for parallax calculation. That is, it is not necessary to separately provide a light source unit in addition to the headlight device 10.

また、本実施形態の物体検出装置は、撮像システムと、車両本体に搭載され、撮像システムのステレオカメラ20で撮像された画像を処理する処理装置30と、を備えている。   In addition, the object detection device of the present embodiment includes an imaging system and a processing device 30 that is mounted on the vehicle body and processes an image captured by the stereo camera 20 of the imaging system.

この場合、撮像システムで得られた暗部に対しての物体情報の検出に有効な画像(左右の画像)から、該物体情報を高精度に検出することができる。   In this case, the object information can be detected with high accuracy from the images (left and right images) effective for detecting the object information for the dark part obtained by the imaging system.

この結果、例えば、投光範囲における左右の画像のマッチング精度を向上でき、投光範囲にある物体の視差を精度良く算出できる。   As a result, for example, the matching accuracy of the left and right images in the light projection range can be improved, and the parallax of the object in the light projection range can be calculated with high accuracy.

すなわち、もともとコントラストの低い暗部にある物体にもテクスチャが付くため、ステレオカメラ20の左右の撮像部で取得した画像にはコントラストが現れ、左右のマッチング精度が確保でき、暗部にある物体の視差算出精度を向上できる。   That is, since the texture is also attached to the object in the dark part where the contrast is originally low, the contrast appears in the image acquired by the left and right imaging parts of the stereo camera 20, the right and left matching accuracy can be ensured, and the parallax calculation of the object in the dark part Accuracy can be improved.

結果として、本実施形態の物体検出装置によれば、暗部に対しての物体情報の検出精度を向上させることができる。   As a result, according to the object detection device of the present embodiment, it is possible to improve the detection accuracy of the object information for the dark part.

また、投光装置は、車両本体の外部の明るさが予め設定された基準値(所定値)未満のときにランダムパターン光を投光するため、視差計算の精度が落ちる暗部に対してのみランダムパターン光を投光することができ、不要な投光を抑制でき省エネ化を図ることができる。なお、もともと明部にある物体のコントラストはすでに高いため、車両外部が明るい場合には、ランダムパターン光を投光する必要性は低い。   Further, since the light projecting device projects a random pattern light when the brightness outside the vehicle body is less than a preset reference value (predetermined value), the light projecting device is random only for the dark part where the accuracy of the parallax calculation is reduced. Pattern light can be projected, unnecessary light projection can be suppressed, and energy saving can be achieved. Since the contrast of the object originally in the bright part is already high, the necessity of projecting the random pattern light is low when the outside of the vehicle is bright.

また、投光装置は、ステレオカメラ20で撮像された画像の輝度情報から明るさ情報を取得するため、明るさ情報を検出するための専用の検出手段を別途設ける場合に比べて、部品点数の増加及びコストアップを抑制できる。   Moreover, since the light projector acquires brightness information from the luminance information of the image captured by the stereo camera 20, the number of parts can be increased compared to the case where a dedicated detection unit for detecting brightness information is separately provided. Increase and cost increase can be suppressed.

また、処理装置30は、2つの撮像部20a、20bで個別に撮像された複数の画像から視差画像を生成する画像処理部33を更に含むため、高精度の視差画像を生成することができる。   Further, since the processing device 30 further includes the image processing unit 33 that generates a parallax image from a plurality of images individually captured by the two imaging units 20a and 20b, it is possible to generate a highly accurate parallax image.

また、処理装置30は、画像処理部33で生成された視差画像を用いて画像認識を行う画像認識処理部34を更に含むため、高精度の画像認識結果を得ることができる。   Further, since the processing device 30 further includes an image recognition processing unit 34 that performs image recognition using the parallax image generated by the image processing unit 33, a highly accurate image recognition result can be obtained.

また、移動体制御システム100は、物体検出装置と、車両本体に搭載され、物体検出装置の処理装置30での画像認識結果に基づいて車両本体を制御するECU50とを備えるため、走行中の車両本体が物体に衝突するのを未然に防止することができる。   In addition, the moving body control system 100 includes an object detection device and an ECU 50 that is mounted on the vehicle main body and controls the vehicle main body based on an image recognition result in the processing device 30 of the object detection device. It is possible to prevent the main body from colliding with the object.

また、車両1(移動体装置)は、移動体制御システム100と、該移動体制御システム100が搭載される車両本体(移動体)とを備えるため、安全性に優れる。   Moreover, since the vehicle 1 (moving body apparatus) is provided with the moving body control system 100 and the vehicle main body (moving body) in which the moving body control system 100 is mounted, it is excellent in safety.

また、本実施形態の投光装置は、車両本体に搭載される、2つの撮像部20a、20bを含むステレオカメラ20の撮像範囲にランダムパターン光を投光するため、暗部であっても投光範囲にある物体の視差を精度良く算出可能な画像をステレオカメラ20に取得させることができる。   Moreover, since the light projection apparatus of this embodiment projects random pattern light on the imaging range of the stereo camera 20 including the two imaging units 20a and 20b mounted on the vehicle body, the light projection is performed even in a dark part. It is possible to cause the stereo camera 20 to acquire an image that can accurately calculate the parallax of an object in the range.

なお、以上の説明からも分かるように、本発明の投光装置、撮像システム、物体検出装置は、暗い環境において使用される場合に特に有効な装置であり、必ずしも車両本体等の移動体に搭載されなくても良く、様々な分野で使用されることが期待される。なお、投光装置、撮像システム、物体検出装置が移動体に搭載されない場合には、ヘッドライト装置の代わりの光源部を用いることになる。   As can be seen from the above description, the light projection device, the imaging system, and the object detection device of the present invention are particularly effective devices when used in a dark environment, and are not necessarily mounted on a moving body such as a vehicle body. This is not necessary, and is expected to be used in various fields. When the light projecting device, the imaging system, and the object detection device are not mounted on the moving body, a light source unit instead of the headlight device is used.

また、本実施形態の物体検出装置を用いた物体検出方法は、車両本体上からランダムパターン光を投光する工程と、ランダムパターン光が投光された範囲を移動体上の2つの位置から撮像する工程と、該撮像する工程で撮像された画像を処理する工程とを含む。   In addition, the object detection method using the object detection apparatus according to the present embodiment includes a step of projecting random pattern light from the vehicle body and an image of the range where the random pattern light is projected from two positions on the moving body. And a step of processing the image captured in the imaging step.

この場合、ランダムパターン光が投光された範囲を2つの位置から撮像できるため、暗部に対しての物体情報の検出に有効な画像を得ることができ、該画像から該物体情報を高精度に検出することができる。   In this case, since the range in which the random pattern light is projected can be imaged from two positions, an image effective for detecting object information for a dark part can be obtained, and the object information can be obtained from the image with high accuracy. Can be detected.

結果として、本実施形態の物体検出方法によれば、暗部に対しての物体情報の検出精度を向上させることができる。   As a result, according to the object detection method of the present embodiment, it is possible to improve the detection accuracy of the object information for the dark part.

また、物体検出方法は、撮像する工程で複数位置から個別に撮像された複数の画像から視差画像を生成する工程を更に含むため、高精度の視差画像を生成することができる。   Moreover, since the object detection method further includes a step of generating a parallax image from a plurality of images individually captured from a plurality of positions in the imaging step, a highly accurate parallax image can be generated.

また、本実施形態の移動体制御システムを用いた移動体制御方法は、車両本体上からランダムパターン光を投光する工程と、ランダムパターン光が投光された範囲を移動体上の複数位置から撮像する工程と、撮像する工程で複数位置から個別に撮像された複数の画像から視差画像を生成する工程と、視差画像を生成する工程で生成された視差画像を用いて画像認識する工程と、画像認識する工程での認識結果に基づいて、車両本体を制御する工程と、を含む。   Further, the mobile body control method using the mobile body control system of the present embodiment includes a step of projecting random pattern light from the vehicle body, and a range in which the random pattern light is projected from a plurality of positions on the mobile body. A step of capturing, a step of generating a parallax image from a plurality of images individually captured from a plurality of positions in the step of capturing, a step of recognizing an image using the parallax image generated in the step of generating a parallax image, And a step of controlling the vehicle body based on the recognition result in the image recognition step.

この場合、走行中の車両本体が物体に衝突するのを防止することができる。   In this case, it is possible to prevent the traveling vehicle body from colliding with the object.

また、本実施形態の物体検出装置の制御に用いられる物体検出プログラムは、上記物体検出方法をコンピュータに実行させる物体検出プログラムであって、車両本体上からランダムパターン光を投光する手順と、ランダムパターン光が投光された範囲を車両本体上の複数位置から撮像する手順と、該撮像する手順で撮像された画像を処理する手順と、を含む。   Further, an object detection program used for controlling the object detection apparatus of the present embodiment is an object detection program for causing a computer to execute the object detection method, a procedure for projecting random pattern light from the vehicle body, and a random It includes a procedure for imaging a range in which pattern light is projected from a plurality of positions on the vehicle body, and a procedure for processing an image captured in the imaging procedure.

この場合、ランダムパターン光が投光された範囲を2つの位置から撮像できるため、暗部に対しての物体情報の検出に有効な画像を得ることができ、該画像から該物体情報を高精度に検出することができる。   In this case, since the range in which the random pattern light is projected can be imaged from two positions, an image effective for detecting object information for a dark part can be obtained, and the object information can be obtained from the image with high accuracy. Can be detected.

結果として、本実施形態の物体検出プログラムによれば、暗部に対しての物体情報の検出精度を向上させることができる。   As a result, according to the object detection program of this embodiment, it is possible to improve the detection accuracy of the object information for the dark part.

また、物体検出プログラムは、撮像する工程で複数位置から個別に撮像された複数の画像から視差画像を生成する手順を更に含むため、高精度の視差画像を生成することができる。   Moreover, since the object detection program further includes a procedure for generating a parallax image from a plurality of images individually captured from a plurality of positions in the imaging step, it is possible to generate a highly accurate parallax image.

また、本実施形態の移動体制御システムの制御に用いられる移動体制御プログラムは、車両本体上からランダムパターン光を投光する手順と、ランダムパターン光が投光された範囲を移動体上の複数位置から撮像する手順と、撮像する手順で複数位置から個別に撮像された複数の画像から視差画像を生成する手順と、視差画像を生成する手順で生成された視差画像を用いて画像認識する手順と、画像認識する手順での認識結果に基づいて、車両本体を制御する手順と、を含む。   In addition, the moving body control program used for the control of the moving body control system of the present embodiment includes a procedure for projecting random pattern light from the vehicle body, and a plurality of ranges on which the random pattern light is projected on the moving body. A procedure for imaging from a position, a procedure for generating a parallax image from a plurality of images individually captured from a plurality of positions in the imaging procedure, and a procedure for image recognition using a parallax image generated by a procedure for generating a parallax image And a procedure for controlling the vehicle main body based on the recognition result in the image recognition procedure.

この場合、走行中の車両本体が物体に衝突するのを防止することができる。   In this case, it is possible to prevent the traveling vehicle body from colliding with the object.

また、物体検出プログラムは、一部がメモリ29に、残部がメモリ52に格納されているため、物体検出装置を、適宜、物体検出プログラムに従って動作させることができる。   Further, since part of the object detection program is stored in the memory 29 and the remaining part is stored in the memory 52, the object detection apparatus can be operated according to the object detection program as appropriate.

また、移動体制御プログラムは、一部がメモリ29に、残部がメモリ52に格納されているため、移動体制御システム100を、適宜、移動体制御プログラムに従って動作させることができる。   In addition, since a part of the moving object control program is stored in the memory 29 and the remaining part is stored in the memory 52, the moving object control system 100 can be appropriately operated according to the moving object control program.

以下に、上記実施形態の幾つかの変形例について説明する。   Hereinafter, some modified examples of the above embodiment will be described.

《変形例1》
変形例1の移動体制御システムは、上記実施形態の移動体制御システム100と同様の構成を有している。変形例1では、投光制御処理が上記実施形態と異なる。
<< Modification 1 >>
The mobile body control system of the modification 1 has the same configuration as the mobile body control system 100 of the above embodiment. In the first modification, the light projection control process is different from the above embodiment.

変形例1では、ECU50のメモリ52に、コントラストが異なる2つの発光パターンデータ(高コントラスト発光パターンデータ、低コントラスト発光パターンデータ)が格納されており、投光制御部51aは、ヘッドライトを点灯させるとき、車両外部の明るさに応じて、これら2つの発光パターンデータから一の発光パターンデータを選択し、該一の発光パターンデータを用いて該ヘッドライトのLEDアレイを点灯させる。   In the first modification, two light emission pattern data (high contrast light emission pattern data and low contrast light emission pattern data) having different contrasts are stored in the memory 52 of the ECU 50, and the light projection control unit 51a turns on the headlight. At this time, one light emission pattern data is selected from these two light emission pattern data according to the brightness outside the vehicle, and the LED array of the headlight is turned on using the one light emission pattern data.

以下に、変形例1の投光制御処理2を、図17のフローチャートを参照して説明する。ここでの制御は、投光制御部51aにより、メモリ52に格納されたサブプログラムに従って実行される。ここでは、ステレオカメラ20でリアルタイムに撮像された車両前方の画像(輝度画像)から処理装置30で明るさ情報がリアルタイムに算出され、該明るさ情報が投光制御部51aにリアルタイムで送信される。   Below, the light projection control process 2 of the modification 1 is demonstrated with reference to the flowchart of FIG. The control here is executed according to the subprogram stored in the memory 52 by the light projection control unit 51a. Here, brightness information is calculated in real time by the processing device 30 from an image (brightness image) ahead of the vehicle imaged in real time by the stereo camera 20, and the brightness information is transmitted to the light projection control unit 51a in real time. .

最初のステップS21では、受信した明るさ情報が第1基準値未満であるか否かを判断する。ステップS21での判断が否定されるとステップS22に移行し、ステップS21での判断が肯定されると、ステップS23に移行する。ここで、明るさ情報が第1基準値以上である場合(ステップS22に移行する場合)は、一般に「明るい」と感じるレベルである。   In first step S21, it is determined whether or not the received brightness information is less than the first reference value. If the determination in step S21 is negative, the process proceeds to step S22. If the determination in step S21 is affirmed, the process proceeds to step S23. Here, when the brightness information is greater than or equal to the first reference value (when the process proceeds to step S22), it is a level generally felt “bright”.

ステップS22では、消灯トリガ信号をヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには消灯され、ヘッドライトが消灯中のときには消灯状態が維持される。ステップS22が実行されると、フローは終了する。   In step S22, an extinction trigger signal is transmitted to the headlight device 10. As a result, the headlight is turned off when the headlight is on, and the off state is maintained when the headlight is off. When step S22 is executed, the flow ends.

ステップS23では、受信した明るさ情報が、第1基準値よりも小さい第2基準値未満であるか否かを判断する。ステップS23での判断が肯定されるとステップS24に移行し、ステップS23での判断が否定されると、ステップS25に移行する。ここで、明るさ情報が第1基準値未満かつ第2基準値以上の場合(ステップS25に移行する場合)は、一般に「薄暗い」と感じるレベルである。明るさ情報が第2基準値未満の場合(ステップS24に移行する場合)は、一般に「暗い」と感じるレベルである。   In step S23, it is determined whether or not the received brightness information is less than a second reference value that is smaller than the first reference value. If the determination in step S23 is affirmed, the process proceeds to step S24, and if the determination in step S23 is negative, the process proceeds to step S25. Here, when the brightness information is less than the first reference value and greater than or equal to the second reference value (when the process proceeds to step S25), it is a level generally felt “dim”. When the brightness information is less than the second reference value (when the process proceeds to step S24), it is a level generally felt “dark”.

ステップS24では、点灯トリガ信号と高コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには点灯され、高コントラストなランダムパターン光が車両前方に投光される。このとき、高コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS24が実行されると、フローは終了する。   In step S <b> 24, the lighting trigger signal and the high contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and a high-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the high-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S24 is executed, the flow ends.

ステップS25では、点灯トリガ信号と低コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、各ヘッドライトが消灯中のときには該ヘッドライトが点灯され、低コントラストなランダムパターン光が車両前方に投光される。このとき、低コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS25が実行されると、フローは終了する。   In step S <b> 25, the lighting trigger signal and the low contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when each headlight is turned off, the headlight is turned on, and low contrast random pattern light is projected forward of the vehicle. At this time, the range in which the low-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S25 is executed, the flow ends.

なお、投光制御処理2を含む車両制御処理において、セーフティモードがONのときには、運転者等によるヘッドライトスイッチの手動操作に優先して、車外の明るさ情報が第1基準値未満のときに自動的にヘッドライトが点灯し、第1基準値以上のときにはヘッドライトは点灯されない。一方、セーフティモードがOFFのときには、ヘッドライト装置10は、運転等によるヘッドライトスイッチの手動操作によってのみ点灯/消灯される。   In the vehicle control process including the light projection control process 2, when the safety mode is ON, the brightness information outside the vehicle is less than the first reference value in preference to the manual operation of the headlight switch by the driver or the like. The headlight is automatically turned on, and the headlight is not turned on when the value is equal to or greater than the first reference value. On the other hand, when the safety mode is OFF, the headlight device 10 is turned on / off only by manual operation of the headlight switch during operation or the like.

以上説明した変形例1では、投光制御部51a及びヘッドライト装置10を含む投光装置は、ランダムパターン光を投光するとき、車両外部の明るさに応じてランダムパターン光のコントラストを調整する(輝度分布を調整する)。   In the modification 1 demonstrated above, the light projection apparatus containing the light projection control part 51a and the headlight apparatus 10 adjusts the contrast of random pattern light according to the brightness outside a vehicle, when projecting random pattern light. (Adjust the luminance distribution).

この場合、車両外部の明るさに応じて視差計算に適したコントラストのランダムパターン光を投光することができる。   In this case, it is possible to project random pattern light having a contrast suitable for parallax calculation according to the brightness outside the vehicle.

例えば、運転者の注意力が散漫となる「薄暗い」ときには低めのコントラストのランダムパターン光を投光することで、視差を高精度に算出でき、かつ運転者に対するランラムパターン光による視認性の違和感を低減することができる。結果として、システムによる安全性の向上と視認性を両立することができる。   For example, when the driver's attention is distracted, it is possible to calculate parallax with high accuracy by projecting a random pattern light with a low contrast, and the driver feels uncomfortable with the ranram pattern light. Can be reduced. As a result, it is possible to achieve both improved safety and visibility by the system.

例えば、視差の算出に不利な「暗い」ときには高めのコントラストのランダムパターン光を投光することで、視差を高精度に算出できる。結果として、システムによる安全性を確保できる。   For example, parallax can be calculated with high accuracy by projecting random pattern light with high contrast when it is “dark”, which is disadvantageous in calculating parallax. As a result, safety by the system can be ensured.

なお、上記変形例1では、基準値を2つ設定し、明るさ情報が2つの基準値の少なくとも一方を下回ったときにコントラストが異なる2つのランダムパターン光を選択的に投光することとしているが、基準値を3つ以上設定し、各基準値を境にコントラストが異なる3つ以上のランダムパターン光を選択的に投光することとしても良い。この場合も、明るさ情報が小さいほど(暗いほど)コントラストが高いランダムパターン光を投光することが望ましい。   In the first modification, two reference values are set, and two random pattern lights having different contrasts are selectively projected when the brightness information falls below at least one of the two reference values. However, three or more reference values may be set, and three or more random pattern lights having different contrasts may be selectively projected with each reference value as a boundary. In this case as well, it is desirable to project random pattern light with higher contrast as the brightness information is smaller (darker).

《変形例2》
変形例2では、移動体制御システムの構成、投光制御処理が上記実施形態と異なる。図18に示される変形例2の移動体制御システム200の処理装置60では、上記実施形態の処理装置30に対して、車両前方テクスチャ情報CPUI/F36、テクスチャ情報転送用I/F39が追加されている。また、移動体制御システム200のECU70では、上記実施形態のECU50に対して、CPUI/F54が追加されている。
<< Modification 2 >>
In the second modification, the configuration of the moving body control system and the light projection control process are different from those in the above embodiment. In the processing device 60 of the mobile control system 200 of Modification 2 shown in FIG. 18, vehicle front texture information CPU I / F 36 and texture information transfer I / F 39 are added to the processing device 30 of the above embodiment. Yes. Further, in the ECU 70 of the moving body control system 200, a CPU I / F 54 is added to the ECU 50 of the above embodiment.

処理装置60の画像処理部33は、ステレオカメラ20で撮像された左右の画像(輝度画像)から、車両前方テクスチャ情報を算出し、車両前方テクスチャ情報CPUI/F36を介してCPU31に送信する。CPU31は、受信した車両前方テクスチャ情報を、テクスチャ情報転送用I/F39を介してECU50に送信する。   The image processing unit 33 of the processing device 60 calculates vehicle front texture information from the left and right images (luminance images) captured by the stereo camera 20, and transmits the vehicle front texture information to the CPU 31 via the vehicle front texture information CPU I / F 36. The CPU 31 transmits the received vehicle front texture information to the ECU 50 via the texture information transfer I / F 39.

ECU70のCPU51は、CPU31からのテクスチャ情報を、テクスチャ情報転送用I/F39、CPUI/F54を介して取得する。   The CPU 51 of the ECU 70 acquires the texture information from the CPU 31 via the texture information transfer I / F 39 and the CPU I / F 54.

変形例2では、ECU70のメモリ52に、コントラストが異なる2つの発光パターンデータ(高コントラスト発光パターンデータ、低コントラスト発光パターンデータ)が格納されており、投光制御部51aは、ヘッドライト装置10を点灯させるとき、車両前方の物体の有無に応じて、これら2つの発光パターンデータから一の発光パターンデータを選択し、該一の発光パターンデータを用いて各ヘッドライトのLEDアレイを点灯させる。   In the second modification, two light emission pattern data (high contrast light emission pattern data and low contrast light emission pattern data) having different contrasts are stored in the memory 52 of the ECU 70, and the light projection control unit 51 a uses the headlight device 10. When lighting, one light emission pattern data is selected from these two light emission pattern data according to the presence or absence of an object in front of the vehicle, and the LED array of each headlight is lighted using the one light emission pattern data.

以下に、変形例2の投光制御処理3を、図19のフローチャートを参照して説明する。投光制御処理3は、投光制御部51aにより、メモリ52に格納されたサブプログラムに従って実行される。ここでは、ステレオカメラ20でリアルタイムに撮像された車両前方の画像(輝度画像)から処理装置60で明るさ情報がリアルタイムに算出され、該明るさ情報が投光制御部51aにリアルタイムで送信される。   Below, the light projection control process 3 of the modification 2 is demonstrated with reference to the flowchart of FIG. The light projection control process 3 is executed by the light projection control unit 51a according to the subprogram stored in the memory 52. Here, brightness information is calculated in real time by the processing device 60 from an image (luminance image) ahead of the vehicle imaged in real time by the stereo camera 20, and the brightness information is transmitted to the light projection control unit 51a in real time. .

最初のステップS31では、車両外部が暗いか否かを判断する。具体的には、処理装置60からの明るさ情報を予め設定された基準値と比較し、その明るさ情報が該基準値未満であれば「暗い」と判断し、基準値以上であれば「暗くない」と判断する。ステップS31での判断が否定されると(暗くないと判断されると)ステップS32に移行し、ステップS31での判断が肯定されると(暗いと判断されると)、ステップS33に移行する。   In the first step S31, it is determined whether or not the vehicle exterior is dark. Specifically, the brightness information from the processing device 60 is compared with a preset reference value. If the brightness information is less than the reference value, it is determined to be “dark”, and if the brightness information is greater than the reference value, “ Judge that it is not dark. If the determination in step S31 is negative (determined as not dark), the process proceeds to step S32. If the determination in step S31 is affirmed (determined as dark), the process proceeds to step S33.

ステップS32では、消灯トリガ信号をヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには消灯され、ヘッドライトが消灯中のときには消灯状態が維持される。ステップS32が実行されると、フローは終了する。   In step S <b> 32, a turn-off trigger signal is transmitted to the headlight device 10. As a result, the headlight is turned off when the headlight is on, and the off state is maintained when the headlight is off. When step S32 is executed, the flow ends.

ステップS33では、車両前方に物体があるか否かを判断する。ここでは、処理装置60が物体の有無を判定し、その判定結果をECU70に出力する。具体的には、画像処理部33がステレオカメラ20からの画像(輝度画像)における車両前方領域のテクスチャ量を判定することにより物体の有無を判定し、その判定結果を投光制御部51aに出力する。詳述すると、画像処理部33は、このテクスチャ量が閾値以上のときに「物体あり」と判定し、閾値未満のときに「物体なし」と判定する。テクスチャ量の判定方法については、後述する。ステップS33での判断が肯定されるとステップS34に移行し、ステップS33での判断が否定されるとステップS35に移行する。なお、車両前方に物体があるか否かの判断は、テクスチャ量による判断のみに限られず、種々の方法を取り得る。例えば、公知のパターンマッチングを用いて車両前方の物体を認識しても良い。ただし、車両前方に物体があるか否かの判断は計算速度も要求されるため、テクスチャ量による物体有無の判断が有効である。   In step S33, it is determined whether there is an object in front of the vehicle. Here, the processing device 60 determines the presence or absence of an object, and outputs the determination result to the ECU 70. Specifically, the image processing unit 33 determines the presence or absence of an object by determining the texture amount of the vehicle front area in the image (luminance image) from the stereo camera 20, and outputs the determination result to the light projection control unit 51a. To do. More specifically, the image processing unit 33 determines that “there is an object” when the texture amount is equal to or greater than a threshold value, and determines that “there is no object” when the texture amount is less than the threshold value. A method for determining the texture amount will be described later. If the determination in step S33 is affirmed, the process proceeds to step S34, and if the determination in step S33 is negative, the process proceeds to step S35. The determination of whether there is an object in front of the vehicle is not limited to the determination based on the texture amount, and various methods can be taken. For example, an object ahead of the vehicle may be recognized using known pattern matching. However, since the calculation speed is also required for determining whether there is an object in front of the vehicle, it is effective to determine the presence / absence of the object based on the texture amount.

ステップS34では、点灯トリガ信号と高コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには点灯され、高コントラストなランダムパターン光が車両前方に投光される。このとき、高コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS34が実行されると、フローは終了する。   In step S <b> 34, the lighting trigger signal and the high contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and a high-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the high-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S34 is executed, the flow ends.

ステップS35では、点灯トリガ信号と低コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには該ヘッドライトが点灯され、低コントラストなランダムパターン光が車両前方に投光される。このとき、低コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS35が実行されると、フローは終了する。   In step S <b> 35, the lighting trigger signal and the low contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and low-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the low-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S35 is executed, the flow ends.

以上説明した変形例2では、投光制御部51a及びヘッドライト装置10を含む投光装置は、ランダムパターン光を投光するとき、車両前方(投光装置の投光範囲)における物体の有無に応じてランダムパターン光のコントラストを調整する(輝度分布を調整する)。   In the second modification described above, the light projecting device including the light projecting control unit 51a and the headlight device 10 determines whether there is an object in front of the vehicle (light projecting range of the light projecting device) when projecting the random pattern light. Accordingly, the contrast of the random pattern light is adjusted (luminance distribution is adjusted).

この場合、車両前方の物体の有無、すなわち衝突危険性に応じて必要十分なコントラストのランダムパターン光を投光することができる。   In this case, it is possible to project random pattern light having a necessary and sufficient contrast according to the presence or absence of an object in front of the vehicle, that is, the risk of collision.

例えば、衝突危険性が低い「物体なし」のときには低めのコントラストのランダムパターン光を投光することで、視差を高精度に算出でき、かつ運転者に対するランラムパターン光による視認性の違和感を低減することができる。結果として、システムによる安全性と視認性を両立することができる。   For example, when there is no object at low collision risk, low-contrast random pattern light can be projected, so that the parallax can be calculated with high accuracy and the driver's sense of discomfort due to the ranram pattern light is reduced. can do. As a result, both safety and visibility by the system can be achieved.

例えば、衝突危険性が高い「物体あり」のときには高めのコントラストのランダムパターン光を投光することで、視差をより高精度に算出できる。結果として、システムによる安全性を確保できる。   For example, parallax can be calculated with higher accuracy by projecting high-contrast random pattern light when there is an “object present” with a high risk of collision. As a result, safety by the system can be ensured.

また、処理装置60がステレオカメラ20で撮像された画像から物体の有無を検出するため、物体の有無を検出するための専用の検出手段を別途設ける場合に比べて、部品点数の増加及びコストアップを抑制できる。   Further, since the processing device 60 detects the presence / absence of an object from the image captured by the stereo camera 20, the number of parts and the cost are increased compared to a case where a dedicated detection unit for detecting the presence / absence of an object is separately provided. Can be suppressed.

《変形例3》
変形例3の移動体制御システムは、変形例2の移動体制御システム200と同様の構成を有している。変形例3では、投光制御処理が上記実施形態と異なる。
<< Modification 3 >>
The mobile body control system of Modification 3 has the same configuration as that of the mobile body control system 200 of Modification 2. In the third modification, the light projection control process is different from the above embodiment.

変形例3では、ECU70のメモリ52に、コントラストが異なる2つの発光パターンデータ(高コントラスト発光パターンデータ、低コントラスト発光パターンデータ)が格納されており、投光制御部51aは、ヘッドライト装置10を点灯させるとき、車両前方及び斜め前方のテクスチャ量の和に応じて、これら2つの発光パターンデータから一の発光パターンデータを選択し、該一の発光パターンデータを用いて各ヘッドライトのLEDアレイを点灯させる。   In the third modification, two light emission pattern data (high contrast light emission pattern data and low contrast light emission pattern data) having different contrasts are stored in the memory 52 of the ECU 70, and the light projection control unit 51 a uses the headlight device 10. When turning on the light, one light emission pattern data is selected from these two light emission pattern data according to the sum of the texture amount in front of the vehicle and diagonally forward, and the LED array of each headlight is selected using the one light emission pattern data. Light up.

以下に、変形例2の投光制御処理4を、図20のフローチャートを参照して説明する。投光制御処理4は、投光制御部51aにより、メモリ29に格納されたサブプログラムに従って実行される。ここでは、ステレオカメラ20でリアルタイムに撮像された車両前方の画像(輝度画像)から処理装置60で明るさ情報がリアルタイムに算出され、該明るさ情報が投光制御部51aにリアルタイムで送信される。   Below, the light projection control process 4 of the modification 2 is demonstrated with reference to the flowchart of FIG. The light projection control process 4 is executed by the light projection control unit 51 a according to the subprogram stored in the memory 29. Here, brightness information is calculated in real time by the processing device 60 from an image (luminance image) ahead of the vehicle imaged in real time by the stereo camera 20, and the brightness information is transmitted to the light projection control unit 51a in real time. .

最初のステップS41では、車両外部が暗いか否かを判断する。具体的には、処理装置60からの明るさ情報を予め設定された基準値と比較し、その明るさ情報が該基準値未満であれば「暗い」と判断し、基準値以上であれば「暗くない」と判断する。ステップS41での判断が否定されると(暗くないと判断されると)ステップS42に移行し、ステップS41での判断が肯定されると(暗いと判断されると)、ステップS43に移行する。   In first step S41, it is determined whether or not the vehicle exterior is dark. Specifically, the brightness information from the processing device 60 is compared with a preset reference value. If the brightness information is less than the reference value, it is determined to be “dark”, and if the brightness information is greater than the reference value, “ Judge that it is not dark. If the determination in step S41 is negative (determined that it is not dark), the process proceeds to step S42. If the determination in step S41 is affirmative (determined to be dark), the process proceeds to step S43.

ステップS42では、消灯トリガ信号をヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには消灯され、ヘッドライトが消灯中のときには消灯状態が維持される。ステップS42が実行されると、フローは終了する。   In step S42, a turn-off trigger signal is transmitted to the headlight device 10. As a result, the headlight is turned off when the headlight is on, and the off state is maintained when the headlight is off. When step S42 is executed, the flow ends.

ステップS43では、ステレオカメラ20で撮像された画像全体のテクスチャ量が多いか否かを判断する。ここでは、処理装置60がテクスチャ量を判定し、その判定結果をECU70に出力する。具体的には、画像処理部33がステレオカメラ20からの画像(輝度画像)における車両前方領域及び斜め前方領域のテクスチャ量の和(以下ではテクスチャ総量とも呼ぶ)が閾値以上であるか否かを判定し、その判定結果を投光制御部51aに出力する。詳述すると、画像処理部33は、このテクスチャ総量が閾値以上のときに「テクスチャ総量が多い」と判定し、閾値未満のときに「テクスチャ総量が多くない」と判定する。このテクスチャ総量の判定方法については、後述する。ステップS43での判断が肯定されるとステップS44に移行し、ステップS43での判断が否定されるとステップS45に移行する。   In step S43, it is determined whether the texture amount of the entire image captured by the stereo camera 20 is large. Here, the processing device 60 determines the texture amount, and outputs the determination result to the ECU 70. Specifically, the image processing unit 33 determines whether or not the sum of the texture amounts (hereinafter also referred to as the total texture amount) of the vehicle front area and the oblique front area in the image (luminance image) from the stereo camera 20 is equal to or greater than a threshold value. Judgment is made, and the judgment result is output to the light projection control unit 51a. More specifically, the image processing unit 33 determines that “the total texture amount is large” when the total texture amount is equal to or greater than the threshold value, and determines that “the total texture amount is not large” when the total texture amount is less than the threshold value. A method for determining the total texture will be described later. If the determination in step S43 is affirmed, the process proceeds to step S44, and if the determination in step S43 is negative, the process proceeds to step S45.

ステップS44では、点灯トリガ信号と低コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには該ヘッドライトが点灯され、低コントラストなランダムパターン光が車両前方に投光される。このとき、低コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS44が実行されると、フローは終了する。   In step S44, a lighting trigger signal and low contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and low-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the low-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S44 is executed, the flow ends.

ステップS45では、点灯トリガ信号と高コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには点灯され、高コントラストなランダムパターン光が車両前方に投光される。このとき、高コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS45が実行されると、フローは終了する。   In step S <b> 45, the lighting trigger signal and the high contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and a high-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the high-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S45 is executed, the flow ends.

以上説明した変形例3では、投光制御部51a及びヘッドライト装置10を含む投光装置は、ランダムパターン光を投光するとき、車両前方及び斜め前方のテクスチャ量の和(ヘッドライト装置10の投光範囲におけるテクスチャ総量)に基づいてランダムパターン光のコントラストを調整(輝度分布を調整)する。   In the modified example 3 described above, the light projecting device including the light projecting control unit 51a and the headlight device 10 emits a random pattern light, and the sum of texture amounts in front of the vehicle and obliquely forward (of the headlight device 10). The contrast of the random pattern light is adjusted (luminance distribution is adjusted) based on the total amount of texture in the light projection range.

この場合、車両前方及び斜め前方のテクスチャ量の和(テクスチャ総量)に応じて必要十分なコントラストのランダムパターン光を投光することができる。   In this case, it is possible to project random pattern light having a necessary and sufficient contrast according to the sum of texture amounts in front of the vehicle and diagonally ahead (total amount of texture).

例えば、テクスチャ総量が多い場合(繁華街、山林等を走行中の場合)には低めのコントラストのランダムパターン光を投光することで、視差を高精度に算出でき、かつ運転者に対するランラムパターン光による視認性の違和感を低減することができる。結果として、システムによる安全性と視認性を両立することができる。   For example, when the total amount of texture is large (when traveling in a busy street, mountain forest, etc.), a random pattern light with a low contrast can be projected, so that the parallax can be calculated with high accuracy and the ranram pattern for the driver The uncomfortable feeling of visibility due to light can be reduced. As a result, both safety and visibility by the system can be achieved.

例えば、テクスチャ総量が少ない場合(海岸、田園、荒野等を走行中の場合)には高めのコントラストのランダムパターン光を投光することで、視差をより高精度に算出できる。結果として、システムによる安全性を確保できる。   For example, when the total amount of texture is small (when traveling on the coast, countryside, wilderness, etc.), the parallax can be calculated with higher accuracy by projecting a random pattern light with a high contrast. As a result, safety by the system can be ensured.

また、処理装置60はステレオカメラ20で撮像された画像から投光範囲のテクスチャ量を取得するため、テクスチャ量を検出するための専用の検出手段を別途設ける場合に比べて、部品点数の増加及びコストアップを抑制できる。   Further, since the processing device 60 acquires the texture amount of the light projection range from the image captured by the stereo camera 20, the number of parts increases and the case where a dedicated detection means for detecting the texture amount is separately provided. Cost increase can be suppressed.

なお、上記変形例3では、テクスチャ総量の閾値を1つ設定し、該閾値を境にコントラストが異なる2つのランダムパターン光を選択的に投光することとしているが、テクスチャ総量の閾値を2つ以上設定し、各閾値を境にコントラストが異なる3つ以上のランダムパターン光を選択的に投光することとしても良い。この場合も、テクスチャ総量が少ないほどコントラストが高いランダムパターン光を投光することが望ましい。   In the third modification, one texture total amount threshold value is set, and two random pattern lights having different contrasts are selectively projected with the threshold value as a boundary. However, two texture total amount threshold values are set. It is good also as setting up above and selectively projecting three or more random pattern light from which contrast differs on each threshold. Also in this case, it is desirable to project random pattern light having a higher contrast as the total texture amount is smaller.

ここで、上記変形例2におけるテクスチャ量の判定方法、上記変形例3におけるテクスチャ総量の判定方法について図21(A)及び図21(B)を参照して説明する。   Here, the texture amount determination method in Modification 2 and the texture total determination method in Modification 3 will be described with reference to FIGS. 21A and 21B.

先ず、図21(A)において、ある画素のテクスチャ定義式を、Txt=|(A+B)−(C+D)|とする。||は絶対値を意味する。
Aは、ある画素から2画素左隣の画素の画素値とする。
Bは、ある画素から1画素左隣の画素の画素値とする。
Cは、ある画素から1画素右隣の画素の画素値とする。
Dは、ある画素から2画素右隣の画素の画素値とする。
また、Thをテクスチャ閾値とする。
Txt>Thを満たす場合、その画素にはテクスチャがあると判断し、テクスチャフラグflag=1を立てる。
Txt>Thを満たさない場合、その画素にはテクスチャがないと判断し、テクスチャフラグflag=0を立てる。
この処理を、画像全体もしくは画像におけるテクスチャ量の判定対象領域の各画素に対して行い、flag=1となっている画素の個数をカウントすることにより、画像全体もしくは判定対象領域全体のテクスチャ量を判定することができる(図21(B)参照)。
例えば、車両前方領域のみのテクスチャ量を判定したいときは、車両前方領域の範囲(例えば4座標)を予め指定しておき、その範囲内のflag=1の個数をカウントすれば良い。例えば、車両斜め前方領域のテクスチャ量を判定したいときは、画像の両サイドの領域に対して領域指定(座標指定)しておき、その範囲内のflag=1の個数をカウントすれば良い。なお、「テクスチャ量」の定義式に関しては、上記は一例に過ぎず、例えば、Txt=|A−C|や、Txt=|B−D|等の種々の対応を取り得る。
First, in FIG. 21A, a texture definition formula for a certain pixel is Txt = | (A + B) − (C + D) |. || means an absolute value.
A is a pixel value of a pixel adjacent to the left by two pixels from a certain pixel.
Let B be the pixel value of the pixel one pixel to the left of a certain pixel.
Let C be the pixel value of the pixel right one pixel away from a certain pixel.
D is a pixel value of a pixel that is two pixels to the right of a certain pixel.
Also, Th is a texture threshold value.
When Txt> Th is satisfied, it is determined that the pixel has a texture, and the texture flag flag = 1 is set.
If Txt> Th is not satisfied, it is determined that the pixel has no texture, and the texture flag flag = 0 is set.
This process is performed for each pixel of the entire image or the determination target area of the texture amount in the image, and by counting the number of pixels where flag = 1, the texture amount of the entire image or the entire determination target area is calculated. It can be determined (see FIG. 21B).
For example, when it is desired to determine the texture amount of only the front area of the vehicle, a range (for example, four coordinates) of the front area of the vehicle is designated in advance, and the number of flags = 1 in the range may be counted. For example, when it is desired to determine the texture amount of the diagonally forward area of the vehicle, area designation (coordinate designation) is performed for the areas on both sides of the image, and the number of flags = 1 in the range may be counted. Regarding the definition expression of “texture amount”, the above is merely an example, and various correspondences such as Txt = | A−C | and Txt = | B−D | can be taken.

《変形例4》
変形例4の移動体制御システムは、上記実施形態の移動体制御システム100と同様の構成を有している。変形例4では、投光制御処理が上記実施形態と異なる。
<< Modification 4 >>
The mobile control system of the modification 4 has the same configuration as the mobile control system 100 of the above embodiment. In the fourth modification, the light projection control process is different from the above embodiment.

変形例4では、ECU50のメモリ52に、コントラストが異なる2つの発光パターンデータ(高コントラスト発光パターンデータ、低コントラスト発光パターンデータ)が格納されており、投光制御部51aは、ヘッドライト装置10を点灯させるとき、視差画像における無効視差画素数(視差の信頼度情報)に応じて、これら2つの発光パターンデータのいずれかを用いて各ヘッドライトのLEDアレイを点灯させる。   In the modified example 4, two light emission pattern data (high contrast light emission pattern data and low contrast light emission pattern data) having different contrasts are stored in the memory 52 of the ECU 50, and the light projection control unit 51 a uses the headlight device 10. When lighting, the LED array of each headlight is turned on using either of these two light emission pattern data in accordance with the number of invalid parallax pixels (parallax reliability information) in the parallax image.

以下に、変形例4の投光制御処理5を、図22のフローチャートを参照して説明する。投光制御処理5は、投光制御部51aにより、メモリ52に格納されたサブプログラムに従って実行される。ここでは、ステレオカメラ20でリアルタイムに撮像された車両前方の画像(輝度画像)から処理装置30で明るさ情報がリアルタイムに算出され、該明るさ情報が投光制御部51aにリアルタイムで送信される。   Below, the light projection control process 5 of the modification 4 is demonstrated with reference to the flowchart of FIG. The light projection control process 5 is executed by the light projection control unit 51a according to the subprogram stored in the memory 52. Here, brightness information is calculated in real time by the processing device 30 from an image (brightness image) ahead of the vehicle imaged in real time by the stereo camera 20, and the brightness information is transmitted to the light projection control unit 51a in real time. .

最初のステップS51では、車両外部が暗いか否かを判断する。具体的には、処理装置30からの明るさ情報を予め設定された基準値と比較し、その明るさ情報が該基準値未満であれば「暗い」と判断し、該基準値以上であれば「暗くない」と判断する。ステップS51での判断が否定されると(暗くないと判断されると)ステップS52に移行し、ステップS51での判断が肯定されると(暗いと判断されると)、ステップS53に移行する。   In first step S51, it is determined whether or not the outside of the vehicle is dark. Specifically, the brightness information from the processing device 30 is compared with a preset reference value, and if the brightness information is less than the reference value, it is determined to be “dark”, and if it is equal to or greater than the reference value. Judge that it is not dark. If the determination in step S51 is negative (determined that it is not dark), the process proceeds to step S52. If the determination in step S51 is affirmed (determined to be dark), the process proceeds to step S53.

ステップS52では、消灯トリガ信号をヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには消灯され、ヘッドライトが消灯中のときには消灯状態が維持される。ステップS52が実行されると、フローは終了する。   In step S52, a turn-off trigger signal is transmitted to the headlight device 10. As a result, the headlight is turned off when the headlight is on, and the off state is maintained when the headlight is off. When step S52 is executed, the flow ends.

ステップS53では、点灯トリガ信号と低コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには該ヘッドライトが点灯され、低コントラストなランダムパターン光が車両前方に投光される。このとき、低コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS53が実行されると、ステップS54に移行する。   In step S <b> 53, the lighting trigger signal and the low contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and low-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the low-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S53 is executed, the process proceeds to step S54.

ステップS54では、視差画像に無効視差画素数が多く存在するか否かを判断する。ここでは、処理装置30が視差画像における無効視差画素数の多少を判定し、その判定結果をECU50に出力する。具体的には、画像処理部33がステレオカメラ20で撮像された画像(輝度画像)に対して、ガンマ補正や歪み補正などの前処理を実施した後、視差計算を行い、視差計算によって得られた視差画像を画像認識処理部34に送る。そして、画像認識処理部34は、受信した視差画像における無効視差画素数が閾値以上であるか否かを判定し、その判定結果を投光制御部51aに出力する。ステップS54での判断が肯定されるとステップS55に移行し、ステップS54での判断が否定されると、フローは終了する。   In step S54, it is determined whether or not there are many invalid parallax pixels in the parallax image. Here, the processing device 30 determines the number of invalid parallax pixels in the parallax image, and outputs the determination result to the ECU 50. Specifically, the image processing unit 33 performs preprocessing such as gamma correction and distortion correction on the image (luminance image) captured by the stereo camera 20, and then performs parallax calculation, and is obtained by parallax calculation. The obtained parallax image is sent to the image recognition processing unit 34. Then, the image recognition processing unit 34 determines whether or not the number of invalid parallax pixels in the received parallax image is equal to or greater than a threshold value, and outputs the determination result to the light projection control unit 51a. If the determination in step S54 is affirmed, the process proceeds to step S55, and if the determination in step S54 is negative, the flow ends.

ステップS55では、点灯トリガ信号と高コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには点灯され、高コントラストなランダムパターン光が車両前方に投光される。このとき、高コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS55が実行されると、フローは終了する。   In step S55, a lighting trigger signal and high contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and a high-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the high-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S55 is executed, the flow ends.

以上説明した変形例4では、投光制御部51a及びヘッドライト装置10を含む投光装置は、ランダムパターン光を投光するとき、視差画像における無効視差画素数、すなわち視差の信頼度情報に基づいてランダムパターン光のコントラストを調整(輝度分布を調整)する。   In the modified example 4 described above, the light projecting device including the light projecting control unit 51a and the headlight device 10 projects the random pattern light based on the number of invalid parallax pixels in the parallax image, that is, the parallax reliability information. To adjust the contrast of the random pattern light (adjust the luminance distribution).

この場合、視差の信頼度情報に応じて適切なコントラストのランダムパターン光を投光することができる。   In this case, random pattern light with an appropriate contrast can be projected according to the parallax reliability information.

例えば、無効視差画素数が少ない場合(視差の信頼度が高い場合)には低めのコントラストのランダムパターン光を投光することで、視差を高精度に算出でき、かつ運転者に対するランラムパターン光による視認性の違和感を低減することができる。結果として、システムによる安全性と視認性を両立することができる。   For example, when the number of invalid parallax pixels is small (when the parallax reliability is high), by projecting a random pattern light with a low contrast, the parallax can be calculated with high accuracy and the ranram pattern light for the driver It is possible to reduce the uncomfortable feeling of visibility. As a result, both safety and visibility by the system can be achieved.

例えば、無効視差画素数が多い場合(視差の信頼度が低い場合)には高めのコントラストのランダムパターン光を投光することで、視差を高精度に算出できる。結果として、システムによる安全性を確保できる。   For example, when the number of invalid parallax pixels is large (when the parallax reliability is low), parallax can be calculated with high accuracy by projecting random pattern light with high contrast. As a result, safety by the system can be ensured.

また、処理装置30は、ステレオカメラ20で撮像された画像から無効視差画素数(視差の信頼度情報)を取得するため、他の手段により無効視差画素数を取得する場合に比べて、構成を簡素化でき、コストアップを抑制できる。   Further, since the processing device 30 acquires the number of invalid parallax pixels (parallax reliability information) from the image captured by the stereo camera 20, the configuration of the processing device 30 is larger than that in the case where the number of invalid parallax pixels is acquired by other means. It can be simplified and cost increase can be suppressed.

なお、上記変形例4では、無効視差画素数の閾値を1つ設定し、該閾値を境にコントラストが異なる2つのランダムパターン光を選択的に投光することとしているが、無効視差画素数の閾値を2つ以上設定し、各閾値を境にコントラストが異なる3つ以上のランダムパターン光を選択的に投光することとしても良い。この場合も、無効視差画素数が多いほどコントラストが高いランダムパターン光を投光することが望ましい。   In the fourth modification, one threshold value for the number of invalid parallax pixels is set, and two random pattern lights having different contrasts are selectively projected with the threshold value as a boundary. Two or more threshold values may be set, and three or more random pattern lights having different contrasts may be selectively projected with each threshold as a boundary. Also in this case, it is desirable to project random pattern light having higher contrast as the number of invalid parallax pixels is larger.

《変形例5》
変形例5の移動体制御システムは、上記実施形態の移動体制御システム100と同様の構成を有している。変形例5では、投光制御処理が上記実施形態と異なる。
<< Modification 5 >>
The mobile control system of the modification 5 has the same configuration as the mobile control system 100 of the above embodiment. In the modified example 5, the light projection control process is different from the above embodiment.

変形例5では、ECU50のメモリ52に、コントラストが異なる2つの発光パターンデータ(高コントラスト発光パターンデータ、低コントラスト発光パターンデータ)が格納されており、投光制御部51aは、ヘッドライト装置10を点灯させるとき、車両前方の物体の有無に応じて、これら2つの発光パターンデータのいずれかを用いて各ヘッドライトのLEDアレイを点灯させる。   In the modified example 5, two light emission pattern data (high contrast light emission pattern data and low contrast light emission pattern data) having different contrasts are stored in the memory 52 of the ECU 50, and the light projection control unit 51 a uses the headlight device 10. When lighting, the LED array of each headlight is turned on using either of these two light emission pattern data according to the presence or absence of an object in front of the vehicle.

以下に、変形例5の投光制御処理6を、図23のフローチャートを参照して説明する。投光制御処理6は、投光制御部51aにより、メモリ52に格納されたサブプログラムに従って実行される。ここでは、ステレオカメラ20でリアルタイムに撮像された車両前方の画像(輝度画像)から処理装置30で明るさ情報がリアルタイムに算出され、該明るさ情報が投光制御部51aにリアルタイムで送信される。   Below, the light projection control process 6 of the modification 5 is demonstrated with reference to the flowchart of FIG. The light projection control process 6 is executed by the light projection control unit 51a according to the subprogram stored in the memory 52. Here, brightness information is calculated in real time by the processing device 30 from an image (brightness image) ahead of the vehicle imaged in real time by the stereo camera 20, and the brightness information is transmitted to the light projection control unit 51a in real time. .

最初のステップS61では、車両外部が暗いか否かを判断する。具体的には、処理装置60からの明るさ情報を予め設定された基準値と比較し、その明るさ情報が該基準値未満であれば「暗い」と判断し、該基準値以上であれば「暗くない」と判断する。ステップS61での判断が否定されると(暗くないと判断されると)ステップS62に移行し、ステップS61での判断が肯定されると(暗いと判断されると)、ステップS63に移行する。   In first step S61, it is determined whether or not the vehicle exterior is dark. Specifically, the brightness information from the processing device 60 is compared with a reference value set in advance, and if the brightness information is less than the reference value, it is determined to be “dark”, and if it is equal to or greater than the reference value. Judge that it is not dark. If the determination in step S61 is negative (determined that it is not dark), the process proceeds to step S62. If the determination in step S61 is affirmative (determined to be dark), the process proceeds to step S63.

ステップS62では、消灯トリガ信号をヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには消灯され、ヘッドライトが消灯中のときには消灯状態が維持される。ステップS62が実行されると、フローは終了する。   In step S62, a turn-off trigger signal is transmitted to the headlight device 10. As a result, the headlight is turned off when the headlight is on, and the off state is maintained when the headlight is off. When step S62 is executed, the flow ends.

ステップS63では、点灯トリガ信号と低コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには該ヘッドライトが点灯され、低コントラストなランダムパターン光が車両前方に投光される。このとき、低コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS63が実行されると、ステップS64に移行する。   In step S63, a lighting trigger signal and low contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and low-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the low-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S63 is executed, the process proceeds to step S64.

ステップS64では、車両前方に物体があるか否かを判断する。具体的には、処理装置30が視差画像を生成し、該視差画像を用いて画像認識を行って物体の有無を判定し、その判定結果をECU50に出力する。詳述すると、画像処理部33がステレオカメラ20で撮像された画像(輝度画像)に対してガンマ補正や歪み補正などの前処理を実施した後、視差計算を行い、前処理された輝度画像、視差計算によって得られた視差画像を画像認識処理部34に送る。画像認識処理部34は、輝度画像、視差画像を用いて画像認識を行って物体の有無を判定し、その判定結果を投光制御部51aに出力する。ステップS64での判断が肯定されるとステップS65に移行し、ステップS64での判断が否定されるとフローは終了する。   In step S64, it is determined whether there is an object in front of the vehicle. Specifically, the processing device 30 generates a parallax image, performs image recognition using the parallax image, determines the presence or absence of an object, and outputs the determination result to the ECU 50. More specifically, after the image processing unit 33 performs preprocessing such as gamma correction and distortion correction on an image (luminance image) captured by the stereo camera 20, parallax calculation is performed, and the preprocessed luminance image, The parallax image obtained by the parallax calculation is sent to the image recognition processing unit 34. The image recognition processing unit 34 performs image recognition using the luminance image and the parallax image, determines the presence / absence of an object, and outputs the determination result to the light projection control unit 51a. If the determination in step S64 is affirmed, the process proceeds to step S65, and if the determination in step S64 is negative, the flow ends.

ステップS65では、点灯トリガ信号と高コントラスト発光パターンデータをヘッドライト装置10へ送信する。この結果、ヘッドライトが点灯中のときには点灯状態が維持され、ヘッドライトが消灯中のときには点灯され、高コントラストなランダムパターン光が車両前方に投光される。このとき、高コントラストなランダムパターン光が投光された範囲がステレオカメラ20の両眼で撮像され、撮像された左右の画像が画像処理部33にフレーム毎に送られる。ステップS65が実行されると、フローは終了する。   In step S <b> 65, the lighting trigger signal and the high contrast light emission pattern data are transmitted to the headlight device 10. As a result, when the headlight is turned on, the lighting state is maintained, and when the headlight is turned off, the headlight is turned on, and a high-contrast random pattern light is projected forward of the vehicle. At this time, the range in which the high-contrast random pattern light is projected is picked up by both eyes of the stereo camera 20, and the picked up left and right images are sent to the image processing unit 33 for each frame. When step S65 is executed, the flow ends.

以上説明した変形例5では、車両外部が暗い場合に低コントラストなランダムパターン光を投光し、撮像された画像から視差画像を生成し、該視差画像を用いた画像認識を行うため、車両前方の物体の有無を精度良く検出することができる。そして、車両前方の有無に基づいてランダムパターン光のコントラストを調整(輝度分布を調整)する。すなわち、車両前方に「物体なし」と検出された場合には低コントラストなランダムパターン光の投光が続行され、車両前方に「物体あり」と検出された場合には高コントラストなランダムパターン光の投光に切り替えられる。   In the modified example 5 described above, a low-contrast random pattern light is projected when the outside of the vehicle is dark, a parallax image is generated from the captured image, and image recognition using the parallax image is performed. It is possible to accurately detect the presence or absence of an object. Then, the contrast of the random pattern light is adjusted (the luminance distribution is adjusted) based on the presence / absence of the front of the vehicle. That is, when “no object” is detected in front of the vehicle, the low-contrast random pattern light is continuously projected. When “object” is detected in front of the vehicle, high-contrast random pattern light is emitted. Switch to floodlight.

この場合、車両前方の物体の有無に応じて適切なコントラストのランダムパターン光を投光することができる。   In this case, random pattern light with an appropriate contrast can be projected according to the presence or absence of an object in front of the vehicle.

この結果、車両前方の物体の有無、すなわち衝突危険性に応じて適切なコントラストのランダムパターン光を投光することができる。   As a result, it is possible to project random pattern light having an appropriate contrast according to the presence or absence of an object in front of the vehicle, that is, the risk of collision.

例えば、衝突危険性が低い「物体なし」のときには低めのコントラストのランダムパターン光を投光することで、視差を高精度に算出でき、かつ運転者に対するランラムパターン光による視認性の違和感を低減することができる。結果として、システムによる安全性と視認性を両立することができる。   For example, when there is no object at low collision risk, low-contrast random pattern light can be projected, so that the parallax can be calculated with high accuracy and the driver's sense of discomfort due to the ranram pattern light is reduced. can do. As a result, both safety and visibility by the system can be achieved.

例えば、衝突危険性が高い「物体あり」のときには高めのコントラストのランダムパターン光を投光することで、視差をより高精度に算出できる。結果として、システムによる安全性を確保できる。   For example, parallax can be calculated with higher accuracy by projecting high-contrast random pattern light when there is an “object present” with a high risk of collision. As a result, safety by the system can be ensured.

また、処理装置30がステレオカメラ20で撮像された画像から物体の有無を検出するため、物体の有無を検出するための専用の検出手段を別途設ける場合に比べて、部品点数の増加及びコストアップを抑制できる。   Further, since the processing device 30 detects the presence / absence of an object from the image captured by the stereo camera 20, the number of parts is increased and the cost is increased compared to a case where a dedicated detection unit for detecting the presence / absence of an object is separately provided. Can be suppressed.

なお、図24に示される変形例6の投光制御処理7(ステップS71〜ステップS75)のように、図23のフローチャートにおけるステップS63とステップ65を実質的に入れ替えたような制御を行っても良い。変形例6でも、変形例5と同様な効果得ることができる。   Note that, as in the light projecting control process 7 (steps S71 to S75) of the modified example 6 shown in FIG. 24, a control that substantially replaces step S63 and step 65 in the flowchart of FIG. good. In the sixth modification, the same effect as in the fifth modification can be obtained.

以下に、本発明の実施例1〜5(用いた視差計算方法:SGMアルゴリズム)を示す(表1参照)。   Examples 1 to 5 (the parallax calculation method used: SGM algorithm) of the present invention are shown below (see Table 1).

〈実施例1〉(上記実施形態に対応)
走行中、運転手が暗いことを判断して手動でヘッドライトを点灯させた。ヘッドライトの照射光には、不均一なコントラストを付けた。その結果、車両前方の無効視差画素数が減少した。
<Example 1> (corresponding to the above embodiment)
While driving, he judged that the driver was dark and turned on the headlight manually. The headlight irradiation light was given a non-uniform contrast. As a result, the number of invalid parallax pixels in front of the vehicle decreased.

〈実施例2〉(上記実施形態に対応)
明るさ情報検出手段を用いた。走行中、自動的に暗いことを判断して自動でヘッドライトを点灯させた。ヘッドライトの照射光には、不均一なコントラストを付けた。その結果、車両前方の無効視差画素数が減少した。
<Example 2> (corresponding to the above embodiment)
Brightness information detection means was used. During driving, the headlight was automatically turned on automatically judging that it was dark. The headlight irradiation light was given a non-uniform contrast. As a result, the number of invalid parallax pixels in front of the vehicle decreased.

〈実施例3〉(上記変形例2、5に対応)
明るさ情報検出手段と物体有無検出手段を用いた。走行中、自動的に暗いことを判断して自動でヘッドライトを点灯させた。また、走行中、車両前方の40m先に他車両の存在を検知したため、ヘッドライトの照射光には、不均一なコントラストを付けた。その結果、車両前方の無効視差画素数が減少した。特に、車両前方の他車両の無効視差画素数が減少していた。
<Example 3> (corresponding to Modifications 2 and 5 above)
Brightness information detection means and object presence / absence detection means were used. During driving, the headlight was automatically turned on automatically judging that it was dark. In addition, while traveling, the presence of another vehicle was detected 40 meters ahead of the vehicle, and thus the headlight irradiation light was given a non-uniform contrast. As a result, the number of invalid parallax pixels in front of the vehicle decreased. In particular, the number of invalid parallax pixels of other vehicles in front of the vehicle has decreased.

〈実施例4〉(上記変形例3に対応)
明るさ情報検出手段とテクスチャ検出手段を用いた。走行中、自動的に暗いことを判断して自動でヘッドライトを点灯させた。また、走行中、輝度画像から判断したテクスチャはあまり残っていなかったため、ヘッドライトの照射光には、不均一なコントラストを付けた。その結果、車両前方の無効視差画素数が減少した。
<Example 4> (corresponding to Modification 3 above)
Brightness information detection means and texture detection means were used. During driving, the headlight was automatically turned on automatically judging that it was dark. In addition, during the running, the texture judged from the luminance image did not remain so much, so the irradiation light of the headlight was given a non-uniform contrast. As a result, the number of invalid parallax pixels in front of the vehicle decreased.

〈実施例5〉(上記変形例4に対応)
明るさ検出手段と視差画像信頼度情報(無効視差画素数)取得手段を用いた。走行中、自動的に暗いことを判断して自動でヘッドライトを点灯させた。また、走行中、視差画像から判断した無効視差画素数は全画素数に対して65%も存在していたため、ヘッドライトの照射光には、不均一なコントラストを付けた。その結果、車両前方の無効視差画素数が減少した。
<Example 5> (corresponding to Modification 4 above)
Brightness detection means and parallax image reliability information (invalid parallax pixel number) acquisition means were used. During driving, the headlight was automatically turned on automatically judging that it was dark. Further, since the number of invalid parallax pixels determined from the parallax image was 65% with respect to the total number of pixels during traveling, non-uniform contrast was given to the irradiation light of the headlight. As a result, the number of invalid parallax pixels in front of the vehicle decreased.

なお、実施例1〜5ではステレオカメラを検出系の手段として使用したが、これに限定されない。視差情報を取得する手段以外の手段は、単眼カメラや偏光カメラやレーザレーダ等を使用することもできる。   In the first to fifth embodiments, the stereo camera is used as a detection system, but the present invention is not limited to this. As a means other than the means for acquiring the parallax information, a monocular camera, a polarization camera, a laser radar, or the like can be used.

本発明は、上記実施形態、各変形例、各実施例に限定されず、適宜変更可能である。例えば、複数のランダムパターン光としては、コントラストと模様が異なる複数のランダムパターン光であっても良いし、模様が異なりコントラストが同じ複数のランダムパターン光であっても良い。複数のランダムパターン光間の切り替えは、運転者が手動で切り替える構成としても良い。   The present invention is not limited to the above-described embodiment, each modification, and each example, and can be changed as appropriate. For example, the plurality of random pattern lights may be a plurality of random pattern lights having different contrasts and patterns, or may be a plurality of random pattern lights having different patterns and the same contrast. The switching between the plurality of random pattern lights may be configured to be manually switched by the driver.

また、上記各変形例、各実施例では、低コントラストなランダムパターン光を投光する代わりに、例えばコントラストがない(輝度分布が均一な)模様の光、コントラストに規則性がある光などの規則的な輝度分布を持つパターン光を投光するようにしても良い。   Further, in each of the above modified examples and embodiments, instead of projecting a low-contrast random pattern light, for example, rules such as light with a pattern with no contrast (uniform luminance distribution), light with regularity in contrast, etc. Pattern light having a typical luminance distribution may be projected.

10…ヘッドライト装置(投光装置の一部)、20…ステレオカメラ(撮像装置)、30…処理装置、50…ECU(制御装置)、51a…(投光制御部)、100、200…移動体制御システム。   DESCRIPTION OF SYMBOLS 10 ... Headlight apparatus (a part of light projection apparatus), 20 ... Stereo camera (imaging apparatus), 30 ... Processing apparatus, 50 ... ECU (control apparatus), 51a ... (Light projection control part), 100, 200 ... Movement Body control system.

特許5138517号公報Japanese Patent No. 5138517

Claims (20)

移動体に搭載される撮像システムであって、
不規則な輝度分布を持つパターン光を投光する投光装置と、
前記投光装置の投光範囲を撮像する、複数の撮像部を含む撮像装置と、を備える撮像システム。
An imaging system mounted on a moving body,
A light projecting device that projects pattern light having an irregular luminance distribution;
An imaging system comprising: an imaging device including a plurality of imaging units that images a light projection range of the light projecting device.
前記投光装置は、前記移動体に搭載されるヘッドライトを光源部として含むことを特徴とする請求項1に記載の撮像システム。   The imaging system according to claim 1, wherein the light projecting device includes a headlight mounted on the moving body as a light source unit. 請求項1又は2に記載の撮像システムと、
前記移動体に搭載され、前記撮像システムの撮像装置で撮像された画像を処理する処理装置と、を備える画像処理システム。
The imaging system according to claim 1 or 2,
An image processing system comprising: a processing device that is mounted on the moving body and that processes an image captured by an imaging device of the imaging system.
前記投光装置は、前記移動体の外部の明るさ情報が所定値未満のときに前記パターン光を投光することを特徴とする請求項3に記載の画像処理システム。   The image processing system according to claim 3, wherein the light projecting device projects the pattern light when brightness information outside the moving body is less than a predetermined value. 前記処理装置は、前記撮像装置で撮像された画像の輝度に基づいて前記明るさ情報を算出することを特徴とする請求項4に記載の画像処理システム。   The image processing system according to claim 4, wherein the processing device calculates the brightness information based on luminance of an image captured by the imaging device. 前記投光装置は、前記パターン光を投光するとき、前記明るさ情報に応じて前記パターン光の輝度分布を調整することを特徴とする請求項4又は5に記載の画像処理システム。   The image processing system according to claim 4, wherein the light projecting device adjusts a luminance distribution of the pattern light according to the brightness information when projecting the pattern light. 前記投光装置は、前記パターン光を投光するとき、前記投光範囲における物体の有無に応じて前記パターン光の輝度分布を調整することを特徴とする請求項4又は5に記載の画像処理システム。   6. The image processing according to claim 4, wherein when projecting the pattern light, the light projecting device adjusts the luminance distribution of the pattern light according to the presence or absence of an object in the light projection range. system. 前記処理装置は、前記撮像装置で撮像された画像に基づいて前記物体の有無を検出することを特徴とする請求項7に記載の画像処理システム。   The image processing system according to claim 7, wherein the processing device detects the presence or absence of the object based on an image captured by the imaging device. 前記投光装置は、前記パターン光を投光するとき、前記投光範囲におけるテクスチャ量に基づいて前記パターン光の輝度分布を調整することを特徴とする請求項4又は5に記載の画像処理システム。   The image processing system according to claim 4, wherein when projecting the pattern light, the light projecting device adjusts a luminance distribution of the pattern light based on a texture amount in the light projection range. . 前記処理装置は、前記撮像装置で撮像された画像から前記テクスチャ量を算出することを特徴とする請求項9に記載の画像処理システム。   The image processing system according to claim 9, wherein the processing device calculates the texture amount from an image captured by the imaging device. 前記処理装置は、前記投光装置から前記パターン光が投光されたときに前記複数の撮像部で個別に撮像された複数の画像から視差画像を生成し、該視差画像の信頼度情報を検出し、
前記投光装置は、前記信頼度情報に基づいて前記パターン光の輝度分布を調整することを特徴とする請求項4又は5に記載の画像処理システム。
The processing device generates a parallax image from a plurality of images individually captured by the plurality of imaging units when the pattern light is projected from the light projecting device, and detects reliability information of the parallax image And
The image processing system according to claim 4, wherein the light projecting device adjusts a luminance distribution of the pattern light based on the reliability information.
前記パターン光の輝度分布を調整することは、前記パターン光の模様を調整することを含む請求項6〜11のいずれか一項に記載の画像処理システム。   The image processing system according to claim 6, wherein adjusting the luminance distribution of the pattern light includes adjusting a pattern of the pattern light. 前記パターン光の輝度分布を調整することは、前記パターン光のコントラストを調整することを含む請求項6〜11のいずれか一項に記載の画像処理システム。   The image processing system according to any one of claims 6 to 11, wherein adjusting the luminance distribution of the pattern light includes adjusting a contrast of the pattern light. 前記処理装置は、前記投光装置から前記パターン光が投光されたときに前記複数の撮像部で個別に撮像された複数の画像から視差画像を生成することを特徴とする請求項4〜13のいずれか一項に記載の画像処理システム。   The processing device generates a parallax image from a plurality of images individually captured by the plurality of imaging units when the pattern light is projected from the light projecting device. The image processing system according to any one of the above. 前記処理装置は、前記視差画像を用いて画像認識を行うことを特徴とする請求項14に記載の画像処理システム。   The image processing system according to claim 14, wherein the processing device performs image recognition using the parallax image. 請求項15に記載の画像処理システムと、
前記移動体に搭載され、前記画像処理システムの処理装置での画像認識結果に基づいて前記移動体を制御する制御装置と、を備える移動体制御システム。
An image processing system according to claim 15;
A moving body control system comprising: a control device mounted on the moving body and controlling the moving body based on an image recognition result in a processing device of the image processing system.
請求項16に記載の移動体制御システムと、
前記移動体制御システムが搭載される前記移動体と、を備える移動体装置。
The mobile control system according to claim 16,
A moving body apparatus comprising: the moving body on which the moving body control system is mounted.
移動体に搭載される投光装置において、
前記移動体に搭載される、複数の撮像部を含む撮像装置の撮像範囲に不規則な輝度分布を持つパターン光を投光することを特徴とする投光装置。
In the light projection device mounted on the moving body,
A light projecting device that projects pattern light having an irregular luminance distribution in an imaging range of an imaging device including a plurality of imaging units mounted on the moving body.
移動体上から不規則な輝度分布を持つパターン光を投光する工程と、
前記パターン光が投光された範囲を前記移動体上の複数位置から撮像する工程と、
前記撮像する工程で撮像された画像を処理する工程と、を含む物体検出方法。
Projecting pattern light having an irregular luminance distribution from the moving body;
Imaging a range in which the pattern light is projected from a plurality of positions on the moving body;
An object detection method comprising: processing the image captured in the imaging step.
請求項19に記載の物体検出方法をコンピュータに実行させる物体検出プログラムであって、
移動体上から不規則な輝度分布を持つパターン光を投光する手順と、
前記パターン光が投光された範囲を前記移動体上の複数位置から撮像する手順と、
前記撮像する手順で撮像された画像を処理する手順と、を含む物体検出プログラム。
An object detection program for causing a computer to execute the object detection method according to claim 19,
A procedure for projecting pattern light having an irregular luminance distribution from the moving body,
A procedure for imaging the range in which the pattern light is projected from a plurality of positions on the moving body;
An object detection program comprising: a procedure for processing an image captured in the imaging procedure;
JP2016009428A 2015-03-11 2016-01-21 Imaging system, image processing system, moving body control system, moving body device, light projecting device, object detection method, object detection program Active JP6704607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16158634.2A EP3067826B1 (en) 2015-03-11 2016-03-04 Image processing system and parallax image generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015047923 2015-03-11
JP2015047923 2015-03-11

Publications (2)

Publication Number Publication Date
JP2016169001A true JP2016169001A (en) 2016-09-23
JP6704607B2 JP6704607B2 (en) 2020-06-03

Family

ID=56982066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016009428A Active JP6704607B2 (en) 2015-03-11 2016-01-21 Imaging system, image processing system, moving body control system, moving body device, light projecting device, object detection method, object detection program

Country Status (1)

Country Link
JP (1) JP6704607B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019225349A1 (en) * 2018-05-24 2019-11-28 ソニー株式会社 Information processing device, information processing method, imaging device, lighting device, and mobile object
JP2020534518A (en) * 2017-09-15 2020-11-26 エイアイ インコーポレイテッドAEYE, Inc. Intelligent LADAR system with low latency motion planning updates
US11693099B2 (en) 2016-02-18 2023-07-04 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
US11726315B2 (en) 2016-02-18 2023-08-15 Aeye, Inc. Ladar transmitter with ellipsoidal reimager
US11835658B2 (en) 2017-02-17 2023-12-05 Aeye, Inc. Method and system for ladar pulse deconfliction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077130A (en) * 2003-08-28 2005-03-24 Olympus Corp Object recognition device
JP2006054504A (en) * 2004-08-09 2006-02-23 Olympus Corp Image generating method and apparatus
JP2008181711A (en) * 2007-01-23 2008-08-07 Matsushita Electric Ind Co Ltd Night-vision imaging apparatus, headlight module, vehicle, and method of controlling night-vision imaging apparatus
JP2013224895A (en) * 2012-04-23 2013-10-31 Sharp Corp Three dimensional measuring device
JP2015011619A (en) * 2013-07-01 2015-01-19 株式会社リコー Information detection device, mobile equipment control system, mobile body and program for information detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005077130A (en) * 2003-08-28 2005-03-24 Olympus Corp Object recognition device
JP2006054504A (en) * 2004-08-09 2006-02-23 Olympus Corp Image generating method and apparatus
JP2008181711A (en) * 2007-01-23 2008-08-07 Matsushita Electric Ind Co Ltd Night-vision imaging apparatus, headlight module, vehicle, and method of controlling night-vision imaging apparatus
JP2013224895A (en) * 2012-04-23 2013-10-31 Sharp Corp Three dimensional measuring device
JP2015011619A (en) * 2013-07-01 2015-01-19 株式会社リコー Information detection device, mobile equipment control system, mobile body and program for information detection

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11693099B2 (en) 2016-02-18 2023-07-04 Aeye, Inc. Method and apparatus for an adaptive ladar receiver
US11726315B2 (en) 2016-02-18 2023-08-15 Aeye, Inc. Ladar transmitter with ellipsoidal reimager
US11835658B2 (en) 2017-02-17 2023-12-05 Aeye, Inc. Method and system for ladar pulse deconfliction
JP2020534518A (en) * 2017-09-15 2020-11-26 エイアイ インコーポレイテッドAEYE, Inc. Intelligent LADAR system with low latency motion planning updates
JP7197571B2 (en) 2017-09-15 2022-12-27 エイアイ インコーポレイテッド Intelligent LADAR system with low-latency motion plan updates
US11821988B2 (en) 2017-09-15 2023-11-21 Aeye, Inc. Ladar system with intelligent selection of shot patterns based on field of view data
WO2019225349A1 (en) * 2018-05-24 2019-11-28 ソニー株式会社 Information processing device, information processing method, imaging device, lighting device, and mobile object
CN112135753A (en) * 2018-05-24 2020-12-25 索尼公司 Information processing device, information processing method, imaging device, illumination device, and moving object
JPWO2019225349A1 (en) * 2018-05-24 2021-06-10 ソニーグループ株式会社 Information processing equipment, information processing methods, imaging equipment, lighting equipment, and mobile objects
JP7226440B2 (en) 2018-05-24 2023-02-21 ソニーグループ株式会社 Information processing device, information processing method, photographing device, lighting device, and moving body
US11850990B2 (en) 2018-05-24 2023-12-26 Sony Corporation Information processing apparatus, information processing method, photographing apparatus, lighting apparatus, and mobile body

Also Published As

Publication number Publication date
JP6704607B2 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
EP3070641B1 (en) Vehicle body with imaging system and object detection method
JP6704607B2 (en) Imaging system, image processing system, moving body control system, moving body device, light projecting device, object detection method, object detection program
JP6013884B2 (en) Object detection apparatus and object detection method
EP2061687B1 (en) Sight-line end estimation device and driving assist device
JP5809785B2 (en) Vehicle external recognition device and light distribution control system using the same
JP6687886B2 (en) Image processing system, moving body control system, moving body device, object detecting method, object detecting program
JP5592441B2 (en) Light distribution control device
US20140132769A1 (en) Exterior environment recognition device
JP5804180B2 (en) Three-dimensional object detection device
US20130177205A1 (en) Exterior environment recognition device and exterior environment recognition method
JP5743020B2 (en) Three-dimensional object detection device
WO2015125297A1 (en) Local location computation device and local location computation method
JP2015069381A (en) Vehicle exterior environment recognition device
EP3067826B1 (en) Image processing system and parallax image generation method
WO2014017521A1 (en) Three-dimensional object detection device
JP6031468B2 (en) Irradiation device
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
JP2015069566A (en) Filtering device and environment recognition system
JP2013101432A (en) Obstacle detector and program
JP5170058B2 (en) Object detection device
JP5310235B2 (en) On-vehicle lighting control device and program
CN111971527B (en) Image pickup apparatus
JP5835459B2 (en) Three-dimensional object detection device
CN115280215A (en) Head-up display device, display control device, and display control method
JP2016024677A (en) Imaging apparatus and determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200426

R151 Written notification of patent or utility model registration

Ref document number: 6704607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151