JP2015228707A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2015228707A
JP2015228707A JP2015186060A JP2015186060A JP2015228707A JP 2015228707 A JP2015228707 A JP 2015228707A JP 2015186060 A JP2015186060 A JP 2015186060A JP 2015186060 A JP2015186060 A JP 2015186060A JP 2015228707 A JP2015228707 A JP 2015228707A
Authority
JP
Japan
Prior art keywords
imaging
vehicle
control device
attention area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015186060A
Other languages
Japanese (ja)
Other versions
JP2015228707A5 (en
Inventor
朗子 志賀
Akiko Shiga
朗子 志賀
徹 宮越
Toru Miyakoshi
徹 宮越
悟史 山口
Satoshi Yamaguchi
悟史 山口
朗 木下
Akira Kinoshita
朗 木下
吉野 薫
Kaoru Yoshino
薫 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015186060A priority Critical patent/JP2015228707A/en
Publication of JP2015228707A publication Critical patent/JP2015228707A/en
Publication of JP2015228707A5 publication Critical patent/JP2015228707A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly set imaging conditions of an imaging apparatus.SOLUTION: The imaging apparatus includes: an input part, mounted to a vehicle, for inputting information concerning pedestrians around the vehicle; an imaging part for imaging an outside part of the vehicle; and an imaging control part for changing imaging conditions on the basis of the information concerning the pedestrians around the vehicle and a direction of traveling of the vehicle.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

車両に搭載したカメラで取得した画像に基づいて車両の走行環境を検出し、検出した走行環境データに基づいて、先行車への追従走行などの自動走行制御や、警報、制動、操舵支援等の運転支援を行う技術が開発されている(特許文献1参照)。
従来技術では、車載カメラにCCD等の固体撮像素子が用いられている。道路などの画像を取得し続ける車載カメラは自動走行制御や運転支援などにおいて重要な役割を果たすところ、車両への搭載を前提にするカメラの提案は多くなく、カメラの使い勝手が十分とはいえなかった。
Based on the image acquired by the camera mounted on the vehicle, the driving environment of the vehicle is detected, and based on the detected driving environment data, automatic driving control such as driving following the preceding vehicle, warning, braking, steering assistance, etc. A technology for supporting driving has been developed (see Patent Document 1).
In the prior art, a solid-state imaging device such as a CCD is used for an in-vehicle camera. In-vehicle cameras that continue to acquire images of roads play an important role in automatic driving control and driving support. However, there are not many proposals for cameras that are premised to be installed in vehicles, and the usability of cameras is not sufficient. It was.

特開2010−79424号公報JP 2010-79424 A

本発明による撮像装置は、車に搭載され、前記車の周囲の歩行者に関する情報を入力する入力部と、前記車の外部を撮像する撮像部と、前記車の周囲の歩行者に関する情報と前記車の進行方向とに基づいて前記撮像部の撮像条件を変更する撮像制御部とを有する。   An image pickup apparatus according to the present invention is mounted on a vehicle and inputs an information on a pedestrian around the vehicle, an image pickup unit that images the outside of the vehicle, information on a pedestrian around the vehicle, and the An imaging control unit that changes imaging conditions of the imaging unit based on a traveling direction of the vehicle.

車両の運転支援装置の概略構成図である。It is a schematic block diagram of the driving assistance device of a vehicle. 制御装置の構成を例示するブロック図である。It is a block diagram which illustrates the composition of a control device. 積層型撮像素子の断面図である。It is sectional drawing of a multilayer type image pick-up element. 撮像チップの画素配列と単位領域を説明する図である。It is a figure explaining the pixel arrangement | sequence and unit area | region of an imaging chip. 単位領域の回路を説明する図である。It is a figure explaining the circuit of a unit area. 撮像素子の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an image pick-up element. カメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of a camera. 焦点検出画素ラインの一部を含む領域を拡大した図である。It is the figure which expanded the area | region containing a part of focus detection pixel line. 撮像素子を有するカメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of the camera which has an image sensor. 撮像チップの撮像面と、撮像領域および注目領域と、休止領域とを例示する図である。It is a figure which illustrates the image pick-up surface of an image pick-up chip, an image pick-up field, an attention field, and a rest field. 制御部が実行するカメラの制御処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the control process of the camera which a control part performs. 初期設定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an initial setting process. 初期設定値のテーブルを例示する図である。It is a figure which illustrates the table of an initial setting value. 撮像チップの撮像面と、撮像領域および注目領域と、休止領域とを例示する図である。It is a figure which illustrates the image pick-up surface of an image pick-up chip, an image pick-up field, an attention field, and a rest field. 撮像チップの撮像面と、撮像領域および注目領域と、休止領域とを例示する図である。It is a figure which illustrates the image pick-up surface of an image pick-up chip, an image pick-up field, an attention field, and a rest field. 撮像チップの撮像面と、撮像領域および注目領域と、休止領域とを例示する図である。It is a figure which illustrates the image pick-up surface of an image pick-up chip, an image pick-up field, an attention field, and a rest field. 走行アシスト設定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a driving assistance setting process. フラグEmを説明する図である。It is a figure explaining flag Em. 距離Zを説明する図である。It is a figure explaining distance Z. 図20(a)は一般道路の交差点を右折する場合の注目領域の位置の移動およびサイズの変化を例示する図である。図20(b)は高速道路において加速しながら車線変更する場合の注目領域の位置の移動およびサイズの変化を例示する図である。FIG. 20A is a diagram illustrating the movement of the position of the region of interest and the change in size when turning right at an intersection of a general road. FIG. 20B is a diagram illustrating the movement and size change of the region of interest when changing lanes while accelerating on an expressway. ターンシグナル方向と注目領域のサイズ変更を説明する図である。It is a figure explaining the size change of a turn signal direction and an attention area. 変形例1によるターンシグナルスイッチの操作時の処理を説明するフローチャートである。It is a flowchart explaining the process at the time of operation of the turn signal switch by the modification 1.

以下、図面を参照して本発明を実施するための形態について説明する。
<カメラの使用場面>
図1は、本発明の一実施の形態によるカメラ3を搭載した車両1の運転支援装置2の概略構成図である。図1において、自動車等の車両1に運転支援装置2が搭載されている。運転支援装置2は、カメラ3と、制御装置4と、第1の走行制御ユニット5と、第2の走行制御ユニット6等により構成される。なお、本説明では内燃機関を駆動源とする例を説明するが、モータを駆動源とするものでもよい。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
<When to use the camera>
FIG. 1 is a schematic configuration diagram of a driving support device 2 for a vehicle 1 equipped with a camera 3 according to an embodiment of the present invention. In FIG. 1, a driving support device 2 is mounted on a vehicle 1 such as an automobile. The driving support device 2 includes a camera 3, a control device 4, a first travel control unit 5, a second travel control unit 6, and the like. In this description, an example in which an internal combustion engine is used as a drive source will be described, but a motor may be used as a drive source.

カメラ3は、複数のレンズを有する撮像光学系、撮像素子(本実施形態では積層型撮像素子(図3参照))を備え、例えば車室内の天井前方に取り付けられている。カメラ3は車両1の前方に向けられ、その取り付け高さ(地面からカメラ3までの距離)は、例えば1.4(m)に調整されている。カメラ3は、車両1の進行方向の画像を取得し、取得した画像に基づいて撮影画面内の複数の位置における各被写体(対象物)までの距離測定(測距)を行う。距離測定は、積層型撮像素子に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する。焦点検出用画素および測距については後述する。カメラ3により取得された画像のデータおよび測距データは、制御装置4へ送出される。なお、カメラ3を車外に設けてもよく、車内・車外のカメラ3を協働してもよく、カメラ3の数も適宜設定すればよい。一例を挙げると、後述する白線検出は車外のカメラ3を用い、対象物や障害物の認識は、車内・車外のカメラ3を協働させるようにしてもよい。   The camera 3 includes an imaging optical system having a plurality of lenses and an imaging element (in this embodiment, a laminated imaging element (see FIG. 3)), and is attached, for example, in front of the ceiling in the vehicle interior. The camera 3 is directed to the front of the vehicle 1, and its mounting height (distance from the ground to the camera 3) is adjusted to, for example, 1.4 (m). The camera 3 acquires an image in the traveling direction of the vehicle 1 and performs distance measurement (ranging) to each subject (target object) at a plurality of positions in the shooting screen based on the acquired image. The distance measurement is calculated by a distance measurement calculation using an image signal from a focus detection pixel provided in the multilayer image sensor. The focus detection pixels and distance measurement will be described later. Image data and distance measurement data acquired by the camera 3 are sent to the control device 4. The cameras 3 may be provided outside the vehicle, the cameras 3 inside and outside the vehicle may cooperate, and the number of cameras 3 may be set as appropriate. For example, the camera 3 outside the vehicle may be used for white line detection, which will be described later, and the camera 3 inside and outside the vehicle may cooperate with each other to recognize an object or an obstacle.

制御装置4は、図2に例示するように、CPU4aおよび記憶部4bを含む。CPU4aは、記憶部4bに記憶されている各種プログラムに基づいて、記憶部4bに記憶されている制御パラメータや後述する各センサによる検出信号などを用いて各種演算を行う。   As illustrated in FIG. 2, the control device 4 includes a CPU 4a and a storage unit 4b. Based on various programs stored in the storage unit 4b, the CPU 4a performs various calculations using control parameters stored in the storage unit 4b, detection signals from sensors described later, and the like.

第1の走行制御ユニット5は、制御装置4からの指示に基づいて、定速走行制御および追従走行制御を行う。定速走行制御は、所定の制御プログラムに基づいて、車両1を一定速度で走行させる制御である。追従走行制御は、定速走行制御を行っている際に、制御装置4にて認識された先行車の速度が車両1に設定されている目標速度以下の場合には、先行車に対して一定の車間距離を保持した状態で走行させる制御である。   The first travel control unit 5 performs constant speed travel control and follow-up travel control based on an instruction from the control device 4. The constant speed traveling control is control for causing the vehicle 1 to travel at a constant speed based on a predetermined control program. The follow-up running control is constant with respect to the preceding vehicle when the speed of the preceding vehicle recognized by the control device 4 is equal to or lower than the target speed set in the vehicle 1 during the constant speed running control. It is the control which makes it drive | work in the state holding the distance between two cars.

第2の走行制御ユニット6は、制御装置4からの指示に基づいて、運転支援制御を行う。運転支援制御は、所定の制御プログラムに基づいて、車両1が道路に沿って走行するように操舵制御装置9にステアリング制御信号を出力したり、車両1が対象物と衝突するのを回避するようにブレーキ制御装置8にブレーキ制御信号を出力したりする制御である。   The second traveling control unit 6 performs driving support control based on an instruction from the control device 4. Based on a predetermined control program, the driving support control outputs a steering control signal to the steering control device 9 so that the vehicle 1 travels along the road, or avoids the vehicle 1 from colliding with an object. In this control, a brake control signal is output to the brake control device 8.

図1にはさらに、スロットル制御装置7と、ブレーキ制御装置8と、操舵制御装置9と、ステアリングホイール10と、ターンシグナルスイッチ11と、車速センサ12と、ヨーレートセンサ13と、表示装置14と、GPS装置15と、シフトレバー位置検出装置16と、マイク17とが図示されている。   1 further includes a throttle control device 7, a brake control device 8, a steering control device 9, a steering wheel 10, a turn signal switch 11, a vehicle speed sensor 12, a yaw rate sensor 13, a display device 14, A GPS device 15, a shift lever position detection device 16, and a microphone 17 are shown.

スロットル制御装置7は、アクセルペダル7aの踏み込み量に応じて不図示のスロットルバルブの開度を制御する。また、スロットル制御装置7は、第1の走行制御ユニット5から送出されるスロットル制御信号に応じて上記スロットルバルブに対する開度の制御も行う。スロットル制御装置7はさらに、アクセルペダル7aの踏み込み量を示す信号を制御装置4へ送出する。   The throttle control device 7 controls the opening degree of a throttle valve (not shown) according to the depression amount of the accelerator pedal 7a. The throttle control device 7 also controls the opening degree of the throttle valve in accordance with a throttle control signal sent from the first travel control unit 5. The throttle control device 7 further sends a signal indicating the depression amount of the accelerator pedal 7 a to the control device 4.

ブレーキ制御装置8は、ブレーキペダル8aの踏み込み量に応じて不図示のブレーキバルブの開度を制御する。また、ブレーキ制御装置8は、第2の走行制御ユニット6からのブレーキ制御信号に応じて上記ブレーキバルブに対する開度の制御も行う。ブレーキ制御装置8はさらに、ブレーキペダル8aの踏み込み量を示す信号を制御装置4へ送出する。   The brake control device 8 controls the opening degree of a brake valve (not shown) according to the depression amount of the brake pedal 8a. The brake control device 8 also controls the opening degree of the brake valve in accordance with a brake control signal from the second travel control unit 6. The brake control device 8 further sends a signal indicating the depression amount of the brake pedal 8 a to the control device 4.

操舵制御装置9は、ステアリングホイール10の回転角に応じて不図示のステアリング装置の舵角を制御する。また、操舵制御装置9は、第2の走行制御ユニット6からのステアリング制御信号に応じて上記ステアリング装置の舵角の制御も行う。操舵制御装置9はさらに、ステアリングホイール10の回転角を示す信号を第1の走行制御ユニット5と、制御装置4と、にそれぞれ送出する。   The steering control device 9 controls the steering angle of a steering device (not shown) according to the rotation angle of the steering wheel 10. The steering control device 9 also controls the steering angle of the steering device according to a steering control signal from the second travel control unit 6. The steering control device 9 further sends a signal indicating the rotation angle of the steering wheel 10 to the first traveling control unit 5 and the control device 4, respectively.

ターンシグナルスイッチ11は、不図示のターンシグナル(ウィンカー)装置を作動させるためのスイッチである。ターンシグナル装置は、車両1の進路変更を示す点滅発光装置である。車両1の乗員によってターンシグナルスイッチ11が操作されると、ターンシグナルスイッチ11からの操作信号がターンシグナル装置、第2の走行制御ユニット6および制御装置4にそれぞれ送出される。車速センサ12は車両1の車速Vを検出し、検出信号を第1の走行制御ユニット5と、第2の走行制御ユニット6と、制御装置4とにそれぞれ送出する。   The turn signal switch 11 is a switch for operating a turn signal (winker) device (not shown). The turn signal device is a blinking light emitting device that indicates a change in the course of the vehicle 1. When the turn signal switch 11 is operated by an occupant of the vehicle 1, an operation signal from the turn signal switch 11 is sent to the turn signal device, the second traveling control unit 6, and the control device 4. The vehicle speed sensor 12 detects the vehicle speed V of the vehicle 1 and sends detection signals to the first travel control unit 5, the second travel control unit 6, and the control device 4.

ヨーレートセンサ13は車両1のヨーレートを検出し、検出信号を第2の走行制御ユニット6と、制御装置4とにそれぞれ送出する。ヨーレートは、車両1の旋回方向への回転角の変化速度である。表示装置14は、第1の走行制御ユニット5、および第2の走行制御ユニット6による制御状態を示す情報などを表示する。表示装置14は、例えばフロントガラスに情報を投映するHUD(Head Up Display)によって構成される。なお、表示装置14として、不図示のナビゲーション装置の表示部を利用するようにしてもよい。   The yaw rate sensor 13 detects the yaw rate of the vehicle 1 and sends detection signals to the second traveling control unit 6 and the control device 4, respectively. The yaw rate is the rate of change of the rotation angle of the vehicle 1 in the turning direction. The display device 14 displays information indicating a control state by the first traveling control unit 5 and the second traveling control unit 6. The display device 14 is configured by, for example, a HUD (Head Up Display) that projects information on a windshield. Note that a display unit of a navigation device (not shown) may be used as the display device 14.

GPS装置15は、GPS衛星からの電波を受信し、電波にのせられている情報を用いて所定の演算を行うことにより、車両1の位置(緯度、経度など)を算出する。GPS装置15で算出した位置情報は、不図示のナビゲーション装置や制御装置4へ送出される。シフトレバー位置検出装置16は、車両1の乗員によって操作された不図示のシフトレバーの位置(例えば、パーキング(P)、リバース(R)、ドライブ(D)など)を検出する。シフトレバー位置検出装置16で検出したシフトレバーの位置情報は、制御装置4へ送出される。   The GPS device 15 receives a radio wave from a GPS satellite and calculates a position (latitude, longitude, etc.) of the vehicle 1 by performing a predetermined calculation using information carried on the radio wave. The position information calculated by the GPS device 15 is sent to a navigation device (not shown) and the control device 4. The shift lever position detection device 16 detects the position (for example, parking (P), reverse (R), drive (D), etc.) of a shift lever (not shown) operated by an occupant of the vehicle 1. The shift lever position information detected by the shift lever position detection device 16 is sent to the control device 4.

マイク17は、例えば前方マイクと、右側方マイクと、左側方マイクとによって構成される。前方マイクは、専ら車両1の前方の音を集音する指向性を有する。右側方マイクは、専ら車両1の右側方の音を集音する指向性を有する。左側方マイクは、専ら車両1の左側方の音を集音する指向性を有する。マイク17で集音された各音情報(前方、右側方、左側方)は、それぞれ制御装置4へ送出される。   The microphone 17 is composed of, for example, a front microphone, a right side microphone, and a left side microphone. The front microphone has directivity for collecting sound in front of the vehicle 1 exclusively. The right side microphone has directivity for collecting sound on the right side of the vehicle 1 exclusively. The left side microphone has directivity for collecting sound on the left side of the vehicle 1 exclusively. Each piece of sound information (front, right side, left side) collected by the microphone 17 is sent to the control device 4.

<対象物の検出>
制御装置4は、車両1の走行路および対象物を検出するために、カメラ3からの画像に対し、以下のように画像処理を行う。先ず、制御装置4は、撮影画面内の複数の位置における測距データに基づいて距離画像(奥行き分布画像)を生成する。制御装置4は、距離画像のデータに基づいて、周知のグルーピング処理を行い、あらかじめ記憶部4bに記憶しておいた3次元的な道路形状データ、側壁データ、対象物データ等の枠(ウインドウ)と比較し、白線データ(道路に沿った白線データおよび道路を横断する白線(停止線:交差点情報)データを含む)、道路に沿って存在するガードレール、縁石等の側壁データを抽出するとともに、対象物・障害物を、2輪車、普通車両、大型車両、歩行者、電柱等その他の対象物に分類して抽出する。
本説明では、走行路に引かれた白色または黄色のラインを白線と呼ぶ。また、実線および破線を含めて白線と呼ぶ。
<Detection of object>
The control device 4 performs image processing on the image from the camera 3 as follows in order to detect the travel path and the object of the vehicle 1. First, the control device 4 generates a distance image (depth distribution image) based on distance measurement data at a plurality of positions in the shooting screen. The control device 4 performs a well-known grouping process based on the distance image data, and frames (windows) such as three-dimensional road shape data, side wall data, and object data stored in the storage unit 4b in advance. Compared to, white line data (including white line data along the road and white line crossing the road (stop line: intersection information) data), side walls data such as guardrails, curbs, etc. existing along the road are extracted. Objects and obstacles are extracted by classifying them into other objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles.
In the present description, the white or yellow line drawn on the travel path is called a white line. In addition, a white line including a solid line and a broken line is called.

<運転支援>
制御装置4は、上記のように抽出した各情報、すなわち、白線データ、ガードレール側壁データ、および対象物データの各データに基づいて走行路や障害となる対象物・障害物を認識し、認識結果をもとに第2の走行制御ユニット6に上記運転支援制御を行わせる。すなわち、車両1を道路に沿って走行させ、車両1が対象物と衝突するのを回避させる。
<Driving support>
The control device 4 recognizes the travel path and the obstacle / obstruction that becomes an obstacle based on the information extracted as described above, that is, the data of the white line data, the guardrail side wall data, and the object data. Then, the second driving control unit 6 performs the driving support control. That is, the vehicle 1 is caused to travel along the road, and the vehicle 1 is prevented from colliding with an object.

<走行制御>
制御装置4は、例えば、以下の4 通りにより自車進行路の推定を行う。
(1)白線に基づく自車進行路推定
カメラ3で取得された画像から走行路の左右両方、若しくは、左右どちらか片側の白線データが得られており、これら白線データから車両1が走行している車線の形状が推定できる場合、制御装置4は、車両1の幅や、車両1の現在の車線内の位置を考慮して、自車進行路が白線と並行であると推定する。
<Running control>
For example, the control device 4 estimates the own vehicle traveling path in the following four ways.
(1) Self-vehicle travel path estimation based on white line White line data on both the left and right sides of the road or one of the left and right sides is obtained from the image acquired by the camera 3, and the vehicle 1 travels from these white line data. When the shape of the existing lane can be estimated, the control device 4 estimates that the own vehicle traveling path is parallel to the white line in consideration of the width of the vehicle 1 and the position of the vehicle 1 in the current lane.

(2)ガードレール、縁石等の側壁データに基づく自車進行路推定
カメラ3で取得された画像から走行路の左右両方、若しくは、左右どちらか片側の側壁データが得られており、これら側壁データから車両1が走行している車線の形状が推定できる場合、制御装置4は、車両1の幅や、車両1の現在の車線内の位置を考慮して、自車進行路が側壁と並行であると推定する。
(2) Self-vehicle traveling path estimation based on side wall data of guardrail, curbstone, etc. From the image acquired by the camera 3, side wall data on either the left or right side of the road or on either side is obtained. When the shape of the lane in which the vehicle 1 is traveling can be estimated, the control device 4 considers the width of the vehicle 1 and the position in the current lane of the vehicle 1 and the own vehicle traveling path is parallel to the side wall. Estimated.

(3)先行車軌跡に基づく自車進行路推定
制御装置4は、記憶部4bに記憶しておいた先行車の過去の走行軌跡に基づいて、自車進行路を推定する。先行車は、車両1と同じ方向に走行する対象物のうち、車両1に最も近い車両をいう。
(3) Self-vehicle traveling path estimation based on the preceding vehicle trajectory The control device 4 estimates the own vehicle traveling path based on the past traveling trajectory of the preceding vehicle stored in the storage unit 4b. The preceding vehicle refers to a vehicle closest to the vehicle 1 among the objects traveling in the same direction as the vehicle 1.

(4)車両1の走行軌跡に基づく自車走行路推定
制御装置4は、車両1の運転状態に基づいて、自車進行路を推定する。例えば、ヨーレートセンサ13による検出信号と、車速センサ12による検出信号と、に基づく旋回曲率を用いて自車進行路を推定する。旋回曲率Cuaは、Cua =dψ/dt/V により算出する。dψ/dtは上記ヨーレート(旋回方向への回転角の変化速度)であり、Vは車両1の車速である。
(4) Own vehicle travel path estimation based on travel trajectory of vehicle 1 The control device 4 estimates the own vehicle travel path based on the driving state of the vehicle 1. For example, the own vehicle traveling path is estimated using the turning curvature based on the detection signal from the yaw rate sensor 13 and the detection signal from the vehicle speed sensor 12. The turning curvature Cua is calculated by Cua = dψ / dt / V. dψ / dt is the yaw rate (speed of change of the rotation angle in the turning direction), and V is the vehicle speed of the vehicle 1.

制御装置4は、記憶部4bに記憶されている所定の走行制御プログラムにしたがって、上記対象物ごとに、対象物が存在する位置における車両1の走行領域を自車進行路に基づき推定し、この走行領域と対象物位置とを比較して、それぞれの対象物が走行領域内にあるか否か判定する。制御装置4はさらに、カメラ3の撮像結果に基づき上記先行車を認識する。すなわち、制御装置4は、走行領域内に存在して順方向(車両1と同じ方向)に走行する対象物の中から、車両1に最も近い車両を先行車とする。   The control device 4 estimates the traveling region of the vehicle 1 at the position where the object exists for each object according to a predetermined traveling control program stored in the storage unit 4b based on the own vehicle traveling path. The traveling area and the object position are compared to determine whether or not each object is in the traveling area. The control device 4 further recognizes the preceding vehicle based on the imaging result of the camera 3. That is, the control device 4 sets the vehicle closest to the vehicle 1 as the preceding vehicle among the objects that exist in the travel region and travel in the forward direction (the same direction as the vehicle 1).

制御装置4は、先行車と車両1との車間距離情報、および先行車の車速情報を、車外情報として第1の走行制御ユニット5へ出力する。ここで、先行車の車速情報は、所定時間ごとに取得した車両1の車速Vと、車速Vの取得タイミングに同期して上記所定時間ごとにカメラ3で取得された画像に基づいて測距した撮影画面内の先行車までの距離(車間距離)の変化と、に基づいて算出する。   The control device 4 outputs the inter-vehicle distance information between the preceding vehicle and the vehicle 1 and the vehicle speed information of the preceding vehicle to the first traveling control unit 5 as out-of-vehicle information. Here, the vehicle speed information of the preceding vehicle is measured based on the vehicle speed V of the vehicle 1 acquired every predetermined time and the image acquired by the camera 3 every predetermined time in synchronization with the acquisition timing of the vehicle speed V. It is calculated based on the change in the distance to the preceding vehicle (inter-vehicle distance) in the shooting screen.

第1の走行制御ユニット5は、車速センサ12で検出される車速Vが、あらかじめセットされている所定の車速(目標速度)に収束するようにスロットル制御装置7へスロットル制御信号を送出する。これにより、スロットル制御装置7が不図示のスロットルバルブの開度をフィードバック制御し、車両1を自動で定速走行させる。   The first travel control unit 5 sends a throttle control signal to the throttle control device 7 so that the vehicle speed V detected by the vehicle speed sensor 12 converges to a predetermined vehicle speed (target speed) set in advance. Thereby, the throttle control device 7 feedback-controls the opening of a throttle valve (not shown), and the vehicle 1 is automatically driven at a constant speed.

また、第1の走行制御ユニット5は、定速状態の走行制御を行っている際に制御装置4から入力された先行車の車速情報が車両1に設定されている目標速度以下の場合には、制御装置4から入力された車間距離情報に基づいてスロットル制御装置7へスロットル制御信号を送出する。具体的には、車両1から先行車までの車間距離および先行車の車速と、車両1の車速Vと、に基づいて適切な車間距離の目標値を設定し、カメラ3で取得された画像に基づいて測距される車間距離が、上記車間距離の目標値に収束するようにスロットル制御装置7へスロットル制御信号を送出する。これにより、スロットル制御装置7が不図示のスロットルバルブの開度をフィードバック制御し、車両1を先行車に追従走行させる。   In addition, the first traveling control unit 5 performs the traveling control in the constant speed state when the vehicle speed information of the preceding vehicle input from the control device 4 is equal to or lower than the target speed set in the vehicle 1. Then, a throttle control signal is sent to the throttle control device 7 based on the inter-vehicle distance information input from the control device 4. Specifically, a target value of an appropriate inter-vehicle distance is set based on the inter-vehicle distance from the vehicle 1 to the preceding vehicle, the vehicle speed of the preceding vehicle, and the vehicle speed V of the vehicle 1, and an image acquired by the camera 3 is displayed. A throttle control signal is sent to the throttle control device 7 so that the inter-vehicle distance measured based on the distance converges to the target value of the inter-vehicle distance. As a result, the throttle control device 7 feedback-controls the opening of a throttle valve (not shown), and causes the vehicle 1 to travel following the preceding vehicle.

<積層型撮像素子の説明>
上述したカメラ3に備わる積層型撮像素子100について説明する。なお、この積層型撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。図3は、積層型撮像素子100の断面図である。撮像素子100は、入射光に対応した画素信号を出力する裏面照射型撮像チップ113と、画素信号を処理する信号処理チップ111と、画素信号を記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111およびメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
<Description of Laminated Image Sensor>
The laminated image sensor 100 provided in the camera 3 described above will be described. The multilayer image sensor 100 is described in Japanese Patent Application No. 2012-139026 filed earlier by the applicant of the present application. FIG. 3 is a cross-sectional view of the multilayer image sensor 100. The imaging device 100 includes a backside illumination type imaging chip 113 that outputs a pixel signal corresponding to incident light, a signal processing chip 111 that processes the pixel signal, and a memory chip 112 that stores the pixel signal. The imaging chip 113, the signal processing chip 111, and the memory chip 112 are stacked, and are electrically connected to each other by a conductive bump 109 such as Cu.

なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面(撮像面)と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図3の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As shown in the figure, incident light is incident mainly in the positive direction of the Z-axis indicated by a white arrow. In the present embodiment, in the imaging chip 113, the surface on the side where incident light enters is referred to as a back surface (imaging surface). Further, as shown in the coordinate axes, the left direction of the paper orthogonal to the Z axis is the X axis plus direction, and the front side of the paper orthogonal to the Z axis and the X axis is the Y axis plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes in FIG.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のPD(フォトダイオード)104、および、PD104に対応して設けられたトランジスタ105を有する。   An example of the imaging chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is disposed on the back side of the wiring layer 108. The PD layer 106 includes a plurality of PDs (photodiodes) 104 that are two-dimensionally arranged and store charges corresponding to incident light, and transistors 105 that are provided corresponding to the PDs 104.

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104およびトランジスタ105の組が、一つの画素を形成する。   A color filter 102 is provided on the incident side of incident light in the PD layer 106 via a passivation film 103. The color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PDs 104. The arrangement of the color filter 102 will be described later. A set of the color filter 102, the PD 104, and the transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。   On the incident light incident side of the color filter 102, a microlens 101 is provided corresponding to each pixel. The microlens 101 condenses incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子および能動素子が設けられてもよい。   The wiring layer 108 includes a wiring 107 that transmits the pixel signal from the PD layer 106 to the signal processing chip 111. The wiring 107 may be multilayer, and a passive element and an active element may be provided.

配線層108の表面には複数のバンプ109が配される。当該複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされて、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   A plurality of bumps 109 are disposed on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the opposing surfaces of the signal processing chip 111, and the imaging chip 113 and the signal processing chip 111 are pressed and aligned. The bumps 109 are joined and electrically connected.

同様に、信号処理チップ111およびメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされて、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   Similarly, a plurality of bumps 109 are disposed on the mutually facing surfaces of the signal processing chip 111 and the memory chip 112. The bumps 109 are aligned with each other, and the signal processing chip 111 and the memory chip 112 are pressurized, so that the aligned bumps 109 are joined and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つのブロックに対して一つ程度設ければよい。したがって、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。   The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be employed. Further, for example, about one bump 109 may be provided for one block described later. Therefore, the size of the bump 109 may be larger than the pitch of the PD 104. Further, a bump larger than the bump 109 corresponding to the pixel region may be provided in a peripheral region other than the pixel region where the pixels are arranged.

信号処理チップ111は、表裏面にそれぞれ設けられた回路を互いに接続するTSV(シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられることが好ましい。また、TSV110は、撮像チップ113の周辺領域、メモリチップ112にも設けられてよい。   The signal processing chip 111 has a TSV (silicon through electrode) 110 that connects circuits provided on the front and back surfaces to each other. The TSV 110 is preferably provided in the peripheral area. The TSV 110 may also be provided in the peripheral area of the imaging chip 113 and the memory chip 112.

図4は、撮像チップ113の画素配列と単位領域131を説明する図である。特に、撮像チップ113を裏面(撮像面)側から観察した様子を示す。画素領域には例えば2000万個以上もの画素がマトリックス状に配列されている。図4の例では、隣接する4画素×4画素の16画素が一つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数は、これに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。   FIG. 4 is a diagram for explaining the pixel array and the unit region 131 of the imaging chip 113. In particular, a state where the imaging chip 113 is observed from the back surface (imaging surface) side is shown. For example, 20 million or more pixels are arranged in a matrix in the pixel region. In the example of FIG. 4, adjacent 16 pixels of 4 × 4 pixels form one unit region 131. The grid lines in the figure indicate the concept that adjacent pixels are grouped to form a unit region 131. The number of pixels forming the unit region 131 is not limited to this, and may be about 1000, for example, 32 pixels × 64 pixels, or more or less.

画素領域の部分拡大図に示すように、図4の単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素Gb、Grは、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素Bは、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素Rは、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。   As shown in the partially enlarged view of the pixel region, the unit region 131 in FIG. 4 includes four so-called Bayer arrays, which are composed of four pixels of green pixels Gb, Gr, blue pixels B, and red pixels R, in the vertical and horizontal directions. The green pixels Gb and Gr are pixels having a green filter as the color filter 102, and receive light in the green wavelength band of incident light. Similarly, the blue pixel B is a pixel having a blue filter as the color filter 102 and receives light in the blue wavelength band, and the red pixel R is a pixel having a red filter as the color filter 102 and having a red wavelength band. Receives light.

本実施形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義され、各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる撮像信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数(語長)等である。撮像素子100は、行方向(撮像チップ113のX軸方向)の間引きのみでなく、列方向(撮像チップ113のY軸方向)の間引きも自在に行える。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。   In the present embodiment, a plurality of blocks are defined so as to include at least one unit region 131 per block, and each block can control pixels included in each block with different control parameters. That is, it is possible to acquire imaging signals having different imaging conditions between a pixel group included in a certain block and a pixel group included in another block. Examples of the control parameters include a frame rate, a gain, a thinning rate, the number of addition rows or addition columns to which pixel signals are added, a charge accumulation time or accumulation count, a digitization bit number (word length), and the like. The imaging element 100 can freely perform not only thinning in the row direction (X-axis direction of the imaging chip 113) but also thinning in the column direction (Y-axis direction of the imaging chip 113). Furthermore, the control parameter may be a parameter in image processing after obtaining an image signal from a pixel.

図5は、単位領域131における回路を説明する図である。図5の例では、隣接する3画素×3画素の9画素により一つの単位領域131を形成する。なお、上述したように単位領域131に含まれる画素の数はこれに限られず、これ以下でもこれ以上でもよい。単位領域131の二次元的な位置を符号A〜Iにより示す。   FIG. 5 is a diagram for explaining a circuit in the unit region 131. In the example of FIG. 5, one unit region 131 is formed by 9 pixels of 3 pixels × 3 pixels adjacent to each other. As described above, the number of pixels included in the unit region 131 is not limited to this, and may be less than this or more. The two-dimensional position of the unit region 131 is indicated by symbols A to I.

単位領域131に含まれる画素のリセットトランジスタは、画素ごとに個別にオンオフ可能に構成される。図5において、画素Aのリセットトランジスタをオンオフするリセット配線300が設けられており、画素Bのリセットトランジスタをオンオフするリセット配線310が、上記リセット配線300とは別個に設けられている。同様に、画素Cのリセットトランジスタをオンオフするリセット配線320が、上記リセット配線300、310とは別個に設けられている。他の画素Dから画素Iに対しても、それぞれのリセットトランジスタをオンオフするための専用のリセット配線が設けられている。   The reset transistors of the pixels included in the unit region 131 are configured to be turned on and off individually for each pixel. In FIG. 5, a reset wiring 300 for turning on / off the reset transistor of the pixel A is provided, and a reset wiring 310 for turning on / off the reset transistor of the pixel B is provided separately from the reset wiring 300. Similarly, a reset line 320 for turning on and off the reset transistor of the pixel C is provided separately from the reset lines 300 and 310. Also for the other pixels D to I, dedicated reset wirings for turning on and off the respective reset transistors are provided.

単位領域131に含まれる画素の転送トランジスタについても、画素ごとに個別にオンオフ可能に構成される。図5において、画素Aの転送トランジスタをオンオフする転送配線302、画素Bの転送トランジスタをオンオフする転送配線312、画素Cの転送トランジスタをオンオフする転送配線322が、別個に設けられている。他の画素Dから画素Iに対しても、それぞれの転送トランジスタをオンオフするための専用の転送配線が設けられている。   The transfer transistors of the pixels included in the unit region 131 are also configured to be turned on and off individually for each pixel. In FIG. 5, a transfer wiring 302 for turning on / off the transfer transistor of the pixel A, a transfer wiring 312 for turning on / off the transfer transistor of the pixel B, and a transfer wiring 322 for turning on / off the transfer transistor of the pixel C are separately provided. Also for the other pixels D to I, dedicated transfer wirings for turning on / off the respective transfer transistors are provided.

さらに、単位領域131に含まれる画素の選択トランジスタについても、画素ごとに個別にオンオフ可能に構成される。図5において、画素Aの選択トランジスタをオンオフする選択配線306、画素Bの選択トランジスタをオンオフする選択配線316、画素Cの選択トランジスタをオンオフする選択配線326が、別個に設けられている。他の画素Dから画素Iに対しても、それぞれの選択トランジスタをオンオフするための専用の選択配線が設けられている。   Furthermore, the selection transistors of the pixels included in the unit region 131 are also configured to be turned on and off individually for each pixel. In FIG. 5, a selection wiring 306 for turning on / off the selection transistor of the pixel A, a selection wiring 316 for turning on / off the selection transistor of the pixel B, and a selection wiring 326 for turning on / off the selection transistor of the pixel C are separately provided. Also for the other pixels D to I, a dedicated selection wiring for turning on and off each selection transistor is provided.

なお、電源配線304は、単位領域131に含まれる画素Aから画素Iで共通に接続されている。同様に、出力配線308は、単位領域131に含まれる画素Aから画素Iで共通に接続されている。また、電源配線304は複数の単位領域間で共通に接続されるが、出力配線308は単位領域131ごとに個別に設けられる。負荷電流源309は、出力配線308へ電流を供給する。負荷電流源309は、撮像チップ113側に設けられてもよいし、信号処理チップ111側に設けられてもよい。   Note that the power supply wiring 304 is connected in common from the pixel A to the pixel I included in the unit region 131. Similarly, the output wiring 308 is commonly connected from the pixel A to the pixel I included in the unit region 131. Further, the power supply wiring 304 is commonly connected between a plurality of unit regions, but the output wiring 308 is provided for each unit region 131 individually. The load current source 309 supplies current to the output wiring 308. The load current source 309 may be provided on the imaging chip 113 side or may be provided on the signal processing chip 111 side.

単位領域131のリセットトランジスタおよび転送トランジスタを個別にオンオフすることにより、単位領域131に含まれる画素Aから画素Iに対して独立して、電荷の蓄積開始時間、蓄積終了時間、転送タイミングを含む電荷蓄積を制御することができる。また、単位領域131の選択トランジスタを個別にオンオフすることにより、各画素Aから画素Iの画素信号を共通の出力配線308を介して出力することができる。   By individually turning on and off the reset transistor and the transfer transistor in the unit region 131, the charge including the charge accumulation start time, the accumulation end time, and the transfer timing independently from the pixel A to the pixel I included in the unit region 131 Accumulation can be controlled. In addition, by individually turning on and off the selection transistors in the unit region 131, the pixel signals of the pixels I from each pixel A can be output via the common output wiring 308.

ここで、単位領域131に含まれる画素Aから画素Iについて、行および列に対して規則的な順序で電荷蓄積を制御する、いわゆるローリングシャッタ方式が公知である。ローリングシャッタ方式により行ごとに画素を選択してから列を指定すると、図5の例では「ABCDEFGHI」の順序で画素信号が出力される。   Here, a so-called rolling shutter system is known in which charge accumulation is controlled in a regular order with respect to rows and columns for pixels A to I included in the unit region 131. When a column is designated after selecting a pixel for each row by the rolling shutter method, pixel signals are output in the order of “ABCDEFGHI” in the example of FIG.

このように単位領域131を基準として回路を構成することにより、単位領域131ごとに電荷蓄積時間を制御することができる。換言すると、単位領域131間で異なったフレームレートによる画素信号をそれぞれ出力させることができる。また、撮像チップ113において一部のエリアに含まれる単位領域131に電荷蓄積(撮像)を行わせる間に他のエリアに含まれる単位領域131を休ませることにより、撮像チップ113の所定のエリアでのみ撮像を行わせて、その画素信号を出力させることができる。さらに、フレーム間で電荷蓄積(撮像)を行わせるエリア(蓄積制御の対象エリア)を切り替えて、撮像チップ113の異なるエリアで逐次撮像を行わせて、画素信号を出力させることもできる。   Thus, by configuring the circuit with the unit region 131 as a reference, the charge accumulation time can be controlled for each unit region 131. In other words, it is possible to output pixel signals with different frame rates between the unit areas 131. Further, in the imaging chip 113, the unit area 131 included in another area is rested while the unit area 131 included in a part of the area is subjected to charge accumulation (imaging). Only the image can be taken and the pixel signal can be output. Furthermore, it is also possible to switch an area (accumulation control target area) where charge accumulation (imaging) is performed between frames and sequentially perform imaging in different areas of the imaging chip 113 to output pixel signals.

図6は、図5に例示した回路に対応する撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位領域131を形成する9個のPD104を順番に選択して、それぞれの画素信号を当該単位領域131に対応して設けられた出力配線308へ出力させる。マルチプレクサ411は、PD104と共に、撮像チップ113に形成される。   FIG. 6 is a block diagram illustrating a functional configuration of the image sensor 100 corresponding to the circuit illustrated in FIG. 5. The analog multiplexer 411 sequentially selects the nine PDs 104 forming the unit region 131 and outputs each pixel signal to the output wiring 308 provided corresponding to the unit region 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS)・アナログ/デジタル(A/D)変換を行う信号処理回路412により、CDSおよびA/D変換が行われる。A/D変換された画素信号は、デマルチプレクサ413に引き渡され、それぞれの画素に対応する画素メモリ414に格納される。デマルチプレクサ413および画素メモリ414は、メモリチップ112に形成される。   The pixel signal output via the multiplexer 411 is supplied to the signal processing chip 111 by a signal processing circuit 412 that performs correlated double sampling (CDS) / analog / digital (A / D) conversion. D conversion is performed. The A / D converted pixel signal is transferred to the demultiplexer 413 and stored in the pixel memory 414 corresponding to each pixel. The demultiplexer 413 and the pixel memory 414 are formed in the memory chip 112.

演算回路415は、画素メモリ414に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路415は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図6では1つの単位領域131の分の接続を示すが、実際にはこれらが単位領域131ごとに存在して、並列で動作する。ただし、演算回路415は単位領域131ごとに存在しなくてもよく、例えば、一つの演算回路415がそれぞれの単位領域131に対応する画素メモリ414の値を順に参照しながらシーケンシャルに処理してもよい。   The arithmetic circuit 415 processes the pixel signal stored in the pixel memory 414 and passes it to the subsequent image processing unit. The arithmetic circuit 415 may be provided in the signal processing chip 111 or may be provided in the memory chip 112. In FIG. 6, connection for one unit region 131 is shown, but actually these exist for each unit region 131 and operate in parallel. However, the arithmetic circuit 415 does not have to exist for each unit region 131. For example, one arithmetic circuit 415 may perform sequential processing while sequentially referring to the values of the pixel memory 414 corresponding to each unit region 131. Good.

上記の通り、単位領域131のそれぞれに対応して出力配線308が設けられている。撮像素子100は撮像チップ113、信号処理チップ111およびメモリチップ112を積層しているので、これら出力配線308にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。   As described above, the output wiring 308 is provided corresponding to each of the unit regions 131. Since the image pickup device 100 includes the image pickup chip 113, the signal processing chip 111, and the memory chip 112, each chip is arranged in the plane direction by using an electrical connection between the chips using the bump 109 for the output wiring 308. Wiring can be routed without increasing the size.

<測距の説明>
図7は、撮像素子100の撮像面における焦点検出用画素の位置を例示する図である。本実施形態では、撮像チップ113のX軸方向(水平方向)に沿って離散的に焦点検出用画素が並べて設けられている。図7の例では、15本の焦点検出画素ライン60が所定の間隔で設けられる。焦点検出画素ライン60を構成する焦点検出用画素は、測距用の画像信号を出力する。撮像チップ113において焦点検出画素ライン60以外の画素位置には通常の撮像用画素が設けられている。撮像用画素は、車外監視用の画像信号を出力する。
<Explanation of distance measurement>
FIG. 7 is a diagram illustrating the position of the focus detection pixel on the imaging surface of the imaging device 100. In the present embodiment, focus detection pixels are discretely arranged along the X-axis direction (horizontal direction) of the imaging chip 113. In the example of FIG. 7, 15 focus detection pixel lines 60 are provided at a predetermined interval. The focus detection pixels constituting the focus detection pixel line 60 output an image signal for distance measurement. In the imaging chip 113, normal imaging pixels are provided at pixel positions other than the focus detection pixel line 60. The imaging pixel outputs an image signal for monitoring outside the vehicle.

図8は、上記焦点検出画素ライン60のうち一つのラインの一部を含む領域を拡大した図である。図8において、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bと、焦点検出用画素S1、および焦点検出用画素S2とが例示される。赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bは、上述したベイヤー配列の規則にしたがって配される。   FIG. 8 is an enlarged view of a region including a part of one of the focus detection pixel lines 60. In FIG. 8, a red pixel R, a green pixel G (Gb, Gr), and a blue pixel B, a focus detection pixel S1, and a focus detection pixel S2 are illustrated. The red pixel R, the green pixel G (Gb, Gr), and the blue pixel B are arranged according to the rules of the Bayer arrangement described above.

赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bについて例示した正方形状の領域は、撮像用画素の受光領域を示す。各撮像用画素は、撮像光学系31(図9)の射出瞳を通る光束を受光する。すなわち、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bはそれぞれ正方形状のマスク開口部を有し、これらのマスク開口部を通った光が撮像用画素の受光部に到達する。   The square area illustrated for the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B indicates a light receiving area of the imaging pixel. Each imaging pixel receives a light beam passing through the exit pupil of the imaging optical system 31 (FIG. 9). That is, the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B each have a square-shaped mask opening, and light passing through these mask openings reaches the light-receiving portion of the imaging pixel. .

なお、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bの受光領域(マスク開口部)の形状は四角形に限定されず、例えば円形であってもよい。   In addition, the shape of the light receiving region (mask opening) of the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B is not limited to a quadrangle, and may be, for example, a circle.

焦点検出用画素S1、および焦点検出用画素S2について例示した半円形状の領域は、焦点検出用画素の受光領域を示す。すなわち、焦点検出用画素S1は、図8において画素位置の左側に半円形状のマスク開口部を有し、このマスク開口部を通った光が焦点検出用画素S1の受光部に到達する。一方、焦点検出用画素S2は、図8において画素位置の右側に半円形状のマスク開口部を有し、このマスク開口部を通った光が焦点検出用画素S2の受光部に到達する。このように、焦点検出用画素S1および焦点検出用画素S2は、撮像光学系31(図9)の射出瞳の異なる領域を通る一対の光束をそれぞれ受光する。   The semicircular region exemplified for the focus detection pixel S1 and the focus detection pixel S2 indicates a light receiving region of the focus detection pixel. That is, the focus detection pixel S1 has a semicircular mask opening on the left side of the pixel position in FIG. 8, and the light passing through the mask opening reaches the light receiving portion of the focus detection pixel S1. On the other hand, the focus detection pixel S2 has a semicircular mask opening on the right side of the pixel position in FIG. 8, and light passing through the mask opening reaches the light receiving portion of the focus detection pixel S2. In this way, the focus detection pixel S1 and the focus detection pixel S2 respectively receive a pair of light beams that pass through different areas of the exit pupil of the imaging optical system 31 (FIG. 9).

なお、撮像チップ113における焦点検出画素ラインの位置は、図7に例示した位置に限定されない。また、焦点検出画素ラインの数についても、図7の例に限定されるものではない。さらに、焦点検出用画素S1および焦点検出用画素S2におけるマスク開口部の形状は半円形に限定されず、例えば撮像用画素R、撮像用画素G、撮像用画素Bにおける四角形状受光領域(マスク開口部)を横方向に分割した長方形状としてもよい。   Note that the position of the focus detection pixel line in the imaging chip 113 is not limited to the position illustrated in FIG. Further, the number of focus detection pixel lines is not limited to the example of FIG. Further, the shape of the mask opening in the focus detection pixel S1 and the focus detection pixel S2 is not limited to a semicircular shape. For example, a rectangular light receiving region (mask opening) in the imaging pixel R, the imaging pixel G, and the imaging pixel B is used. Part) may be a rectangular shape divided in the horizontal direction.

また、撮像チップ113における焦点検出画素ラインは、撮像チップ113のY軸方向(鉛直方向)に沿って焦点検出用画素を並べて設けたものでもよい。図8のように撮像用画素と焦点検出用画素とを二次元状に配列した撮像素子は公知であり、これらの画素の詳細な図示および説明は省略する。
なお、図8の例では、焦点検出用画素S1、S2がそれぞれ焦点検出用の一対の光束のうちの一方を受光する構成、いわゆる1PD構造を説明した。この代わりに、例えば特開2007−282107号公報に開示されるように、焦点検出用画素がそれぞれ焦点検出用の一対の光束の双方を受光する構成、いわゆる2PD構造にしてもよい。このように2PD構造にすることにより、焦点検出用画素からも画像データを読み出すことが可能となり、焦点検出画素が欠陥画素になることがない。
The focus detection pixel line in the imaging chip 113 may be a line in which focus detection pixels are arranged along the Y-axis direction (vertical direction) of the imaging chip 113. An imaging device in which imaging pixels and focus detection pixels are two-dimensionally arranged as shown in FIG. 8 is known, and detailed illustration and description of these pixels are omitted.
In the example of FIG. 8, the configuration in which the focus detection pixels S <b> 1 and S <b> 2 each receive one of a pair of focus detection light beams, the so-called 1PD structure, has been described. Instead, as disclosed in, for example, Japanese Patent Application Laid-Open No. 2007-282107, a configuration in which the focus detection pixels receive both of a pair of light beams for focus detection, a so-called 2PD structure, may be used. By adopting the 2PD structure in this manner, it is possible to read image data from the focus detection pixels, and the focus detection pixels do not become defective pixels.

本実施形態では、焦点検出用画素S1および焦点検出用画素S2から出力される測距用の画像信号に基づいて、撮像光学系31(図9)の異なる領域を通る一対の光束による一対の像の像ズレ量(位相差)を検出することにより、撮像光学系31の焦点調節状態(デフォーカス量)を演算する。   In the present embodiment, a pair of images by a pair of light fluxes that pass through different regions of the imaging optical system 31 (FIG. 9) based on distance measurement image signals output from the focus detection pixel S1 and the focus detection pixel S2. By detecting the image shift amount (phase difference), the focus adjustment state (defocus amount) of the imaging optical system 31 is calculated.

一般に、上記一対の像は、撮像光学系31が予定焦点面よりも前に対象物(例えば先行車)の鮮鋭像を結ぶいわゆる前ピン状態では互いに近づき、逆に予定焦点面より後ろに対象物の鮮鋭像を結ぶいわゆる後ピン状態では互いに遠ざかる。予定焦点面において対象物の鮮鋭像を結ぶ合焦状態には、上記一対の像が相対的に一致する。したがって、一対の像の相対位置ズレ量は、対象物までの距離(奥行き情報)に対応する。   In general, the pair of images are close to each other in a so-called front pin state in which the imaging optical system 31 forms a sharp image of an object (for example, a preceding vehicle) before the planned focal plane, and conversely, the target object is behind the planned focal plane. In a so-called rear pin state that connects the sharp images of the two, they move away from each other. The pair of images relatively coincide with each other in a focused state that connects a sharp image of the object on the planned focal plane. Therefore, the relative positional deviation amount of the pair of images corresponds to the distance (depth information) to the object.

上記位相差に基づくデフォーカス量演算は、カメラの分野において公知であるので詳細な説明は省略する。ここで、デフォーカス量と対象物までの距離とは一対一で対応するため、対象物ごとにデフォーカス量を求めることにより、カメラ3から各対象物までの距離を求めることができる。すなわち、撮影画面の複数の位置で、それぞれ上記対象物までの距離測定(測距)が行える。デフォーカス量と対象物までの距離との関係は、あらかじめ数式またはルックアップテーブルとして用意し、不揮発性メモリ35b(図9)に格納しておく。   Since the defocus amount calculation based on the phase difference is known in the field of cameras, detailed description thereof is omitted. Here, since the defocus amount and the distance to the object correspond one-to-one, the distance from the camera 3 to each object can be obtained by obtaining the defocus amount for each object. That is, distance measurement (ranging) to the object can be performed at a plurality of positions on the shooting screen. The relationship between the defocus amount and the distance to the object is prepared in advance as a mathematical expression or a lookup table and stored in the nonvolatile memory 35b (FIG. 9).

<カメラの説明>
図9は、上述した撮像素子100を有するカメラ3の構成を例示するブロック図である。図9において、カメラ3は、撮像光学系31と、撮像部32と、画像処理部33と、ワークメモリ34と、制御部35と、記録部36とを有する。
<Explanation of camera>
FIG. 9 is a block diagram illustrating the configuration of the camera 3 having the image sensor 100 described above. In FIG. 9, the camera 3 includes an imaging optical system 31, an imaging unit 32, an image processing unit 33, a work memory 34, a control unit 35, and a recording unit 36.

撮像光学系31は、被写界からの光束を撮像部32へ導く。撮像部32は、上記撮像素子100および駆動部32aを含み、撮像光学系31によって撮像チップ113上に結像された対象物の像を光電変換する。駆動部32aは、撮像素子100(撮像チップ113)に上述したブロック単位で独立した蓄積制御を行わせるために必要な駆動信号を生成する。上記ブロックの位置や形状、その範囲、蓄積時間などの指示は、制御部35から駆動部32aへ送信される。   The imaging optical system 31 guides the light beam from the object scene to the imaging unit 32. The imaging unit 32 includes the imaging device 100 and the driving unit 32a, and photoelectrically converts an image of an object formed on the imaging chip 113 by the imaging optical system 31. The drive unit 32a generates a drive signal necessary for causing the image sensor 100 (the image pickup chip 113) to perform independent accumulation control in units of blocks as described above. Instructions such as the position and shape of the block, its range, and accumulation time are transmitted from the control unit 35 to the drive unit 32a.

画像処理部33は、ワークメモリ34と協働して撮像部32で撮像された画像データに対する画像処理を行う。画像処理部33は、例えば輪郭強調処理やガンマ補正などの画像処理に加えて、画像に含まれる対象物の色検出も行う。   The image processing unit 33 performs image processing on the image data captured by the imaging unit 32 in cooperation with the work memory 34. The image processing unit 33 performs color detection of an object included in the image in addition to image processing such as contour enhancement processing and gamma correction.

ワークメモリ34は、画像処理前後の画像データなどを一時的に記憶する。記録部36は、不揮発性メモリなどで構成される記憶媒体に画像データなどを記録する。制御部35は、例えばCPUによって構成され、制御装置4からの制御信号に応じて、カメラ3による全体の動作を制御する。例えば、撮像部32で撮像された画像信号に基づいて所定の露出演算を行い、適正露出に必要な撮像チップ113の蓄積時間を駆動部32aへ指示する。   The work memory 34 temporarily stores image data before and after image processing. The recording unit 36 records image data and the like on a storage medium constituted by a nonvolatile memory or the like. The control unit 35 is configured by a CPU, for example, and controls the overall operation of the camera 3 in accordance with a control signal from the control device 4. For example, a predetermined exposure calculation is performed based on the image signal imaged by the imaging unit 32, and the accumulation time of the imaging chip 113 necessary for proper exposure is instructed to the drive unit 32a.

制御部35には、測距演算部35aと、不揮発性メモリ35bとが含まれる。測距演算部35aは、上述したように撮影画面の複数の位置で、それぞれ上記対象物までの距離測定(測距)を行う。カメラ3で取得した画像データおよびカメラ3で算出した測距データは、制御装置4へ送出される(図1)。不揮発性メモリ35bは、制御部35aが実行するプログラム、および測距に必要な情報を記憶する。   The control unit 35 includes a ranging calculation unit 35a and a nonvolatile memory 35b. The distance measurement calculation unit 35a performs distance measurement (distance measurement) to each of the objects at a plurality of positions on the shooting screen as described above. The image data acquired by the camera 3 and the distance measurement data calculated by the camera 3 are sent to the control device 4 (FIG. 1). The nonvolatile memory 35b stores a program executed by the control unit 35a and information necessary for distance measurement.

<撮像素子のブロック制御>
制御装置4は、カメラ3の撮像素子100(撮像チップ113)に対し、上述したブロック単位で独立した蓄積制御を行わせる。このため、制御装置4には、車両1の各部から次の信号が入力される(図2)。
(1)アクセルペダル7aの踏み込み量
スロットル制御装置7から制御装置4に、アクセルペダル7aの踏み込み量を示す信号が入力される。
(2)ブレーキペダル8aの踏み込み量
ブレーキ制御装置8から制御装置4に、ブレーキペダル8aの踏み込み量を示す信号が入力される。
<Block control of image sensor>
The control device 4 causes the image pickup device 100 (image pickup chip 113) of the camera 3 to perform independent accumulation control in units of blocks as described above. Therefore, the following signals are input to the control device 4 from each part of the vehicle 1 (FIG. 2).
(1) Depression amount of the accelerator pedal 7a A signal indicating the depression amount of the accelerator pedal 7a is input from the throttle control device 7 to the control device 4.
(2) Depression amount of the brake pedal 8a A signal indicating the depression amount of the brake pedal 8a is input from the brake control device 8 to the control device 4.

(3)ステアリングホイール10の回転角
操舵制御装置9から制御装置4に、ステアリングホイール10の回転角を示す信号が入力される。ステアリングホイール10の回転角とステアリング装置の舵角との比は、ステアリングのギヤレシオによる。
(4)車両1の車速V
車速センサ12による検出信号が、制御装置4に入力される。
(3) Rotation angle of steering wheel 10 A signal indicating the rotation angle of the steering wheel 10 is input from the steering control device 9 to the control device 4. The ratio between the rotation angle of the steering wheel 10 and the steering angle of the steering device depends on the gear ratio of the steering.
(4) Vehicle speed V of vehicle 1
A detection signal from the vehicle speed sensor 12 is input to the control device 4.

(5)ターンシグナルスイッチ11の操作信号
ターンシグナルスイッチ11の操作信号が、制御装置4に入力される。
(6)シフトレバーの操作位置
シフトレバー位置検出装置16が検出したシフトレバーの操作位置を示す信号が、制御装置4に入力される。
(5) Operation signal of the turn signal switch 11 An operation signal of the turn signal switch 11 is input to the control device 4.
(6) Shift lever operation position A signal indicating the shift lever operation position detected by the shift lever position detection device 16 is input to the control device 4.

(7)車両1の位置情報
GPS装置15で測位された位置情報が、GPS装置15から制御装置4に入力される。
(8)車両1の周囲の音情報
マイク17で集音された車両1の前方、右側方、および左側方からの音情報が、それぞれ制御装置4に入力される。
(7) Position Information of Vehicle 1 Position information measured by the GPS device 15 is input from the GPS device 15 to the control device 4.
(8) Sound information around the vehicle 1 Sound information from the front, right side, and left side of the vehicle 1 collected by the microphone 17 is input to the control device 4, respectively.

図10は、撮像チップ113の撮像面と、撮像チップ113において電荷蓄積(撮像)を行わせる領域(撮像領域81および注目領域82)と、行方向および列方向の電荷蓄積(撮像)を行わせない領域(休止領域83)とを例示する図である。注目領域82は、撮像領域81と異なる条件で電荷蓄積(撮像)を行う領域である。撮像チップ113における撮像領域81、注目領域82のサイズや位置も、撮像条件の一つである。   FIG. 10 shows the imaging surface of the imaging chip 113, the area where the charge accumulation (imaging) is performed in the imaging chip 113 (imaging area 81 and the attention area 82), and the charge accumulation (imaging) in the row direction and the column direction. It is a figure which illustrates the area | region (rest area | region 83) which does not exist. The attention area 82 is an area where charge accumulation (imaging) is performed under conditions different from those of the imaging area 81. The size and position of the imaging area 81 and the attention area 82 in the imaging chip 113 are also imaging conditions.

制御装置4は、撮像領域81に含まれる単位領域131に対し、それぞれ第1の条件を設定して撮像するように制御するとともに、注目領域82に含まれる単位領域131に対し、それぞれ第2の条件を設定して撮像するように制御する。また、制御装置4は、休止領域83に含まれる単位領域131については撮像しないように休止させる。なお、注目領域82を複数設けてもよいし、複数の注目領域間で撮像の条件を異ならせてもよい。また、休止領域83を設けなくてもよい。   The control device 4 controls the unit region 131 included in the imaging region 81 to perform imaging by setting the first condition, respectively, and controls the unit region 131 included in the attention region 82 to the second region. Control is performed so that imaging is performed with conditions set. The control device 4 pauses the unit area 131 included in the pause area 83 so as not to capture an image. Note that a plurality of attention regions 82 may be provided, or imaging conditions may be different among a plurality of attention regions. Further, the rest area 83 may not be provided.

<フローチャートの説明>
以下、フローチャート(図11,図12、図17)を参照して撮像領域81および注目領域82の決め方について説明する。図11は、制御装置4が実行するカメラ3の制御処理の流れを説明するフローチャートである。図11のフローチャートによる処理を実行するためのプログラムは、制御装置4の記憶部4bに格納されている。制御装置4は、例えば車両1から電源供給が開始されたり、エンジンが始動すると、図11による処理を行うプログラムを起動する。
<Description of flowchart>
Hereinafter, how to determine the imaging region 81 and the attention region 82 will be described with reference to flowcharts (FIGS. 11, 12, and 17). FIG. 11 is a flowchart illustrating the flow of control processing of the camera 3 executed by the control device 4. A program for executing the processing according to the flowchart of FIG. 11 is stored in the storage unit 4 b of the control device 4. For example, when the power supply is started from the vehicle 1 or the engine is started, the control device 4 starts a program for performing the processing shown in FIG.

図11のステップS10において、制御装置4は、フラグa=0か否かを判定する。フラグaは、初期設定が終了している場合に1、初期設定が終了していない場合に0がセットされるフラグである。制御装置4は、フラグa=0の場合にステップS10を肯定判定してステップS20へ進み、フラグa≠0の場合にステップS10を否定判定してステップS30へ進む。   In step S10 of FIG. 11, the control device 4 determines whether or not the flag a = 0. The flag a is a flag that is set to 1 when the initial setting is completed and set to 0 when the initial setting is not completed. When the flag a = 0, the control device 4 makes a positive determination in step S10 and proceeds to step S20. When the flag a ≠ 0, the control device 4 makes a negative determination and proceeds to step S30.

ステップS20において、制御装置4は、初期設定処理を行ってステップS30へ進む。初期設定処理の詳細については後述する。ステップS30において、制御装置4は、走行アシスト設定処理を行ってステップS40へ進む。走行アシスト設定処理では、撮像素子100に対して撮像領域81および注目領域82を決定する。走行アシスト設定処理の詳細については後述する。   In step S20, the control device 4 performs an initial setting process and proceeds to step S30. Details of the initial setting process will be described later. In step S30, the control device 4 performs a travel assist setting process and proceeds to step S40. In the travel assist setting process, the imaging area 81 and the attention area 82 are determined for the imaging element 100. Details of the travel assist setting process will be described later.

ステップS40において、制御装置4はカメラ3へ指示を送り、撮像素子100における撮像領域81および注目領域82をそれぞれ所定の条件で駆動させて、画像の取得を行わせる。本実施形態では、例えば、制御装置4は、車速Vが0から増加すると撮像領域81に比べて注目領域82のフレームレートを高くし、ゲインを高くし、間引き率を低くし、蓄積時間を短く設定する。これにより、カメラ3による撮像が行われるとともに、上述したように撮影画面の複数の位置で距離測定(測距)が行われる。
なお、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの全てを異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。なお、制御装置4は、注目領域82については間引きを行わない設定としてもよい。
In step S <b> 40, the control device 4 sends an instruction to the camera 3 to drive the imaging area 81 and the attention area 82 in the imaging element 100 under predetermined conditions to acquire an image. In the present embodiment, for example, when the vehicle speed V increases from 0, the control device 4 increases the frame rate of the attention area 82 compared to the imaging area 81, increases the gain, decreases the thinning rate, and shortens the accumulation time. Set. Thereby, imaging by the camera 3 is performed, and distance measurement (ranging) is performed at a plurality of positions on the shooting screen as described above.
Note that it is not necessary to change all of the frame rate, gain, thinning rate, accumulation time, and the like between the imaging region 81 and the attention region 82, and at least one of them may be different. Note that the control device 4 may set the attention area 82 not to be thinned out.

ステップS45において、制御装置4は、画像のデータおよび測距データをカメラ3から取得してステップS50へ進む。ステップS50において、制御装置4は、情報を表示する設定が行われているか否かを判定する。制御装置4は、表示設定が行われている場合にステップ50を肯定判定してステップS60へ進む。制御装置4は、表示設定が行われていない場合には、ステップ50を否定判定してステップS70へ進む。   In step S45, the control device 4 acquires image data and distance measurement data from the camera 3, and proceeds to step S50. In step S50, the control device 4 determines whether or not the setting for displaying information is performed. When the display setting is performed, the control device 4 makes a positive determination in step 50 and proceeds to step S60. When the display setting is not performed, the control device 4 makes a negative determination in step 50 and proceeds to step S70.

ステップS60において、制御装置4は、表示装置14(図1)に対する表示情報を送出してステップS70へ進む。表示情報は、走行アシスト設定処理(S30)の中で判断された車両1の状態に応じた情報で、例えば「停止中です」、「緊急停車します」、「右折します」、「左折します」というメッセージを表示装置14に表示させる。
なお、表示情報を送出する代わりに、または表示情報の送出とともに、不図示の音声再生装置へ上記メッセージを再生させるための音声信号を送出してもよい。この場合も不図示の音声再生装置として、不図示のナビゲーション装置の音声装置を用いてもよい。
In step S60, the control device 4 sends display information for the display device 14 (FIG. 1), and proceeds to step S70. The display information is information according to the state of the vehicle 1 determined in the driving assist setting process (S30). For example, “stopped”, “emergency stop”, “turn right”, “turn left” The message “Masu” is displayed on the display device 14.
Instead of sending display information, or together with sending display information, an audio signal for reproducing the message may be sent to an audio playback device (not shown). Also in this case, a sound device of a navigation device (not shown) may be used as a sound reproducing device (not shown).

ステップS70において、制御装置4は、オフ操作されたか否かを判定する。制御装置4は、例えば車両1からオフ信号(例えば、エンジンのオフ信号)を受けると、ステップS70を肯定判定し、所定のオフ処理を行って図11による処理を終了する。制御装置4は、例えば車両1からオフ信号を受けない場合は、ステップS70を否定判定してステップS80へ進む。ステップS80において、制御装置4は、所定時間(例えば0.1秒)待ってステップS30へ戻る。ステップS30へ戻る場合は、上述した処理を繰り返す。   In step S70, the control device 4 determines whether or not an off operation has been performed. For example, when the control device 4 receives an off signal (for example, an engine off signal) from the vehicle 1, the control device 4 makes a positive determination in step S <b> 70, performs a predetermined off process, and ends the process of FIG. 11. For example, if the control device 4 does not receive an off signal from the vehicle 1, the control device 4 makes a negative determination in step S70 and proceeds to step S80. In step S80, the control device 4 waits for a predetermined time (for example, 0.1 second) and returns to step S30. When returning to step S30, the above-described processing is repeated.

<初期設定処理>
図12は、図11のフローチャートのステップS20初期設定処理の詳細を説明するフローチャートである。図12のステップS21において、制御装置4は、GPS装置15(図1)から車両1の位置情報を入力してステップS22へ進む。ステップS22において、制御装置4は、位置情報に含まれる緯度、経度に基づいて、車両1が走行する通行帯が道路の左か右か、すなわち左側通行か右側通行かを示すフラグをセットする。具体的には、緯度、経度に基づいて車両1が使用される国名を判別する。そして、不図示のデータベースを参照して当該国における道路が左側通行か右側通行かを示すフラグをセットする。国名と通行帯の左右との関係を示すデータベースは、あらかじめ記憶部4bに格納されている。
<Initial setting process>
FIG. 12 is a flowchart for explaining the details of the step S20 initial setting process of the flowchart of FIG. In step S21 of FIG. 12, the control device 4 inputs the position information of the vehicle 1 from the GPS device 15 (FIG. 1), and proceeds to step S22. In step S22, the control device 4 sets a flag indicating whether the traffic zone in which the vehicle 1 travels is left or right of the road, that is, left-side traffic or right-side traffic, based on the latitude and longitude included in the position information. Specifically, the country name where the vehicle 1 is used is determined based on the latitude and longitude. Then, a flag indicating whether the road in the country is left-hand traffic or right-hand traffic is set with reference to a database (not shown). A database indicating the relationship between the country name and the right and left of the traffic zone is stored in the storage unit 4b in advance.

ステップS23において、制御装置4は車両1におけるハンドル(ステアリングホイール10)の取り付け位置(右または左)を示すフラグをセットしてステップS24へ進む。右ハンドルか左ハンドルかを示す情報は、車両1の諸元情報としてあらかじめ記憶部4bに格納されている。ステップS24において、制御装置4は、図13に例示するテーブルに基づいて初期設定値を決定してステップS25へ進む。なお、ステップS21とステS23との順番は入れ替えてもよい。   In step S23, the control device 4 sets a flag indicating the attachment position (right or left) of the steering wheel (steering wheel 10) in the vehicle 1 and proceeds to step S24. Information indicating whether the vehicle is a right steering wheel or a left steering wheel is stored in advance in the storage unit 4b as specification information of the vehicle 1. In step S24, the control device 4 determines an initial setting value based on the table illustrated in FIG. 13, and proceeds to step S25. Note that the order of step S21 and step S23 may be interchanged.

図13によれば、車両1におけるステアリングホイール10の取り付け位置(右または左)と、道路における通行帯の位置(右または左)との組み合わせに応じて「1」から「4」の4通りの初期設定値が用意される。右ハンドルで左側通行の場合、初期設定値は「4」である。   According to FIG. 13, there are four ways of “1” to “4” depending on the combination of the mounting position (right or left) of the steering wheel 10 in the vehicle 1 and the position (right or left) of the traffic zone on the road. Initial setting values are prepared. In the case of left-hand traffic with the right handle, the initial setting value is “4”.

ステップS25において、制御装置4は、注目領域82の初期位置をセットする。注目領域82の初期位置は、初期設定値に応じた位置とする。具体的には、初期設定値「1」の場合に注目領域82の初期位置を(Xq1,Yq)とし、初期設定値「2」の場合に注目領域82の初期位置を(Xq2,Yq)とし、初期設定値「3」の場合に注目領域82の初期位置を(Xq3,Yq)とし、初期設定値「4」の場合に注目領域82の初期位置を(Xq4,Yq)とする。   In step S25, the control device 4 sets the initial position of the attention area 82. The initial position of the attention area 82 is a position corresponding to the initial setting value. Specifically, when the initial setting value is “1”, the initial position of the attention area 82 is (Xq1, Yq), and when the initial setting value is “2”, the initial position of the attention area 82 is (Xq2, Yq). When the initial setting value is “3”, the initial position of the attention area 82 is (Xq3, Yq), and when the initial setting value is “4”, the initial position of the attention area 82 is (Xq4, Yq).

本説明では、撮像領域81を表す座標系において、注目領域82の中央の座標(Xq,Yq)で注目領域82の位置を表す。図10は、初期設定値が「4」の場合の注目領域82を例示しており、右ハンドルで左側通行であることから、左側通行帯の中で運転者席側(右寄り)に注目領域82を設定するように初期位置(Xq4,Yq)を定めている。   In this description, in the coordinate system representing the imaging area 81, the position of the attention area 82 is represented by the coordinates (Xq, Yq) at the center of the attention area 82. FIG. 10 exemplifies the attention area 82 when the initial setting value is “4”. Since the left steering is performed by the right handle, the attention area 82 is located on the driver's seat side (to the right) in the left lane. Is set so that the initial position (Xq4, Yq) is set.

図14は、初期設定値が「1」の場合の注目領域82を例示しており、左ハンドルで右側通行であることから、右側通行帯の中で運転者席側(左寄り)に注目領域82を設定するように初期位置(Xq1,Yq)を定めている。   FIG. 14 exemplifies the attention area 82 when the initial set value is “1”. Since the left steering wheel is right-hand traffic, the attention area 82 is on the driver's seat side (left side) in the right-hand traffic band. The initial position (Xq1, Yq) is determined to set.

図15は、初期設定値が「3」の場合の注目領域82を例示しており、左ハンドルで左側通行であることから、左側通行帯の中で運転者席側(左寄り)に注目領域82を設定するように初期位置(Xq3,Yq)を定めている。   FIG. 15 illustrates the attention area 82 in the case where the initial setting value is “3”. Since the left steering wheel is left-hand traffic, the attention area 82 is on the driver's seat side (to the left) in the left-hand traffic band. Is set so that the initial position (Xq3, Yq) is set.

図16は、初期設定値が「2」の場合の注目領域82を例示しており、右ハンドルで右側通行であることから、右側通行帯の中で運転者席側(右寄り)に注目領域82を設定するように初期位置(Xq2,Yq)を定めている。   FIG. 16 illustrates the attention area 82 in the case where the initial setting value is “2”. Since the right steering is performed on the right handle, the attention area 82 is located on the driver's seat side (rightward) in the right traffic band. Is set to the initial position (Xq2, Yq).

図12のステップS26において、制御装置4は、注目領域82の初期サイズをセットする。本実施形態では、注目領域82の初期サイズ(Px(X軸方向)×Py(Y軸方向))を対象物(例えば先行車)の大きさ(寸法)に基づいて決める。制御装置4は、カメラ3で取得した画像に先行車が含まれる場合に、撮像チップ113で撮像された先行車の像高と、既知である撮像光学系31の焦点距離と、測距によって得た車両1から先行車までの距離Lと、に基づいて先行車の大きさ(寸法)を推定する。そして、推定した大きさ(例えば幅3(m)×高さ1.4(m))の先行車を1(m)後方から撮像した場合に撮像チップ113上で得られる像を構成するピクセル数(Px(X軸方向)×Py(Y軸方向))を、初期サイズとする。   In step S <b> 26 of FIG. 12, the control device 4 sets the initial size of the attention area 82. In the present embodiment, the initial size (Px (X-axis direction) × Py (Y-axis direction)) of the attention area 82 is determined based on the size (dimensions) of the object (for example, the preceding vehicle). When the preceding vehicle is included in the image acquired by the camera 3, the control device 4 obtains the image height of the preceding vehicle captured by the imaging chip 113, the known focal length of the imaging optical system 31, and the distance measurement. The size (dimension) of the preceding vehicle is estimated based on the distance L from the vehicle 1 to the preceding vehicle. The number of pixels constituting an image obtained on the imaging chip 113 when a preceding vehicle having an estimated size (for example, width 3 (m) × height 1.4 (m)) is imaged from the rear of 1 (m). Let (Px (X-axis direction) × Py (Y-axis direction)) be the initial size.

PxおよびPyは次式(1)、(2)により算出する。
Px = ox×L …(1)
Py = oy×L …(2)
ただし、oxはL(m)離れて撮像チップ113で撮像された先行車の像を構成するX軸方向のピクセル数である。oyはL(m)離れて撮像チップ113で撮像された先行車の像を構成するY軸方向のピクセル数である。L は車両1から先行車までの車間距離である。
なお、撮像領域81を表す座標系において、初期位置を表す上記Yqは、上記1(m)離れた先行車を撮像した場合に撮像チップ113上で得られる像の高さ中心(本例では先行車の高さ0.7(m)の部位)に相当する。
Px and Py are calculated by the following expressions (1) and (2).
Px = ox × L (1)
Py = oy × L (2)
Here, ox is the number of pixels in the X-axis direction constituting the image of the preceding vehicle imaged by the imaging chip 113 at a distance of L (m). oy is the number of pixels in the Y-axis direction constituting the image of the preceding vehicle imaged by the imaging chip 113 at a distance of L (m). L is the inter-vehicle distance from the vehicle 1 to the preceding vehicle.
In the coordinate system representing the imaging region 81, the Yq representing the initial position is the center of the height of the image obtained on the imaging chip 113 when the preceding vehicle separated by 1 (m) is imaged (in this example, the preceding position). This corresponds to a vehicle height of 0.7 (m).

ステップS27において、制御装置4は、表示装置14(図1)に対する表示情報を送出し、フラグaに1をセットして図12による処理を終了する。表示情報は、初期設定処理を終了したことを示す情報で、例えば「初期設定を終了します」というメッセージを表示装置14に表示させる。   In step S27, the control device 4 sends display information to the display device 14 (FIG. 1), sets 1 to the flag a, and ends the processing in FIG. The display information is information indicating that the initial setting process has been completed. For example, the display device 14 displays a message “initial setting is completed”.

<走行アシスト設定処理>
図17は、走行アシスト設定処理の詳細を説明するフローチャートである。図17のステップS310において、制御装置4は、シフトレバー位置検出装置16(図1)から入力されたシフトレバーの位置情報が「P」(パーキング)である場合にステップS310を肯定判定してステップS320へ進む。制御装置4は、シフトレバー位置検出装置16(図1)から入力したシフトレバーの位置情報が「P」でない場合にはステップS310を否定判定してステップS420へ進む。なお、シフトレバーが「N」(ニュートラル)である場合にもステップS310の判断を適用してもよい。
<Driving assist setting process>
FIG. 17 is a flowchart illustrating details of the travel assist setting process. In step S310 of FIG. 17, the control device 4 makes a positive determination in step S310 when the position information of the shift lever input from the shift lever position detection device 16 (FIG. 1) is “P” (parking). Proceed to S320. If the shift lever position information input from the shift lever position detection device 16 (FIG. 1) is not “P”, the control device 4 makes a negative determination in step S310 and proceeds to step S420. The determination in step S310 may also be applied when the shift lever is “N” (neutral).

ステップS320において、制御装置4は、車速センサ12から車速Vを入力してステップS330へ進む。制御装置4は、例えば車速Vに応じて注目領域82のフレームレートを変化させる。上述したように、注目領域82のフレームレートを撮像領域81のフレームレートに比べて高く設定する場合、制御装置4は、車速Vが増加するほど注目領域82のフレームレートを高く設定し、車速Vが減少するほど注目領域82のフレームレートを低く設定する。この場合、制御装置4は、注目領域82以外の撮像領域81のフレームレートも車速Vに比例するような制御を適用してもよい。ステップS330において、制御装置4は、ブレーキ制御装置8(図1)からブレーキペダル8aの踏み込み量を入力してステップS340へ進む。   In step S320, the control device 4 inputs the vehicle speed V from the vehicle speed sensor 12, and proceeds to step S330. The control device 4 changes the frame rate of the attention area 82 according to the vehicle speed V, for example. As described above, when the frame rate of the attention area 82 is set higher than the frame rate of the imaging area 81, the control device 4 sets the frame rate of the attention area 82 higher as the vehicle speed V increases, and the vehicle speed V The frame rate of the region of interest 82 is set lower as the value decreases. In this case, the control device 4 may apply such control that the frame rate of the imaging area 81 other than the attention area 82 is also proportional to the vehicle speed V. In step S330, the control device 4 inputs the depression amount of the brake pedal 8a from the brake control device 8 (FIG. 1), and proceeds to step S340.

ステップS340において、制御装置4は、車速Vとブレーキペダル8aの踏み込み量(踏み込み角度)とに基づいてフラグEm=0か否かを判定する。フラグEmは、車速Vとブレーキペダル8aの踏み込み量(踏み込み角度)の変化量とに基づき、図18に例示するようにセットされるフラグである。本実施形態では、Em=1の場合を緊急ブレーキ(急ブレーキ)と判断し、Em=0の場合を通常ブレーキと判断する。制御装置4は、Em=0の場合にステップS340を肯定判定してステップS350へ進む。制御装置4は、Em=1の場合にステップS340を否定判定してステップS430へ進む。
なお、ブレーキペダル8aの踏み込み量(踏み込み角度)の変化量の代わりに、不図示のブレーキバルブの開度の変化量に基づいてEm=1を判定してもよい。また、車速Vの変化量に基づいてEm=1を判定してもよいし、不図示の変速機の減速比の変化量に基づいてEm=1を判定してもよい。
In step S340, the control device 4 determines whether or not the flag Em = 0 based on the vehicle speed V and the depression amount (depression angle) of the brake pedal 8a. The flag Em is a flag that is set as illustrated in FIG. 18 based on the vehicle speed V and the amount of change in the depression amount (depression angle) of the brake pedal 8a. In the present embodiment, the case where Em = 1 is determined as emergency braking (rapid braking), and the case where Em = 0 is determined as normal braking. When Em = 0, the control device 4 makes a positive determination in step S340 and proceeds to step S350. When Em = 1, the control device 4 makes a negative determination in step S340 and proceeds to step S430.
Note that Em = 1 may be determined based on the amount of change in the opening of a brake valve (not shown) instead of the amount of change in the amount of depression (depression angle) of the brake pedal 8a. Further, Em = 1 may be determined based on the amount of change in the vehicle speed V, or Em = 1 may be determined based on the amount of change in the reduction ratio of a transmission (not shown).

ステップS350において、制御装置4は、スロットル制御装置7(図1)からアクセルペダル7aの踏み込み量を入力してステップS360へ進む。ステップS360において、制御装置4は、操舵制御装置9からステアリングホイール10の回転角θを入力してステップS370へ進む。ステップS370において、制御装置4は、ステアリング操作がなされたか否かを判定する。制御装置4は、回転角θが所定値より大きい場合にステップS370を肯定判定してステップS380へ進み、回転角θが所定値以下の場合にステップS370を否定判定してステップS440へ進む。   In step S350, the control device 4 inputs the depression amount of the accelerator pedal 7a from the throttle control device 7 (FIG. 1), and proceeds to step S360. In step S360, the control device 4 inputs the rotation angle θ of the steering wheel 10 from the steering control device 9, and proceeds to step S370. In step S370, the control device 4 determines whether or not a steering operation has been performed. If the rotation angle θ is larger than the predetermined value, the control device 4 makes a positive determination in step S370 and proceeds to step S380. If the rotation angle θ is equal to or smaller than the predetermined value, the control device 4 makes a negative determination in step S370 and proceeds to step S440.

ステップS380において、制御装置4は、X軸方向における注目領域82の移動量Xdistを、ステアリングホイール10の回転角θと車速Vとに基づいて、次式(3)により算出する。
Xdist = θ×(V×0.2) …(3)
上式(3)によれば、ステアリング装置の舵角(すなわちステアリングホイール10の回転角θ)が大きいほど、また、車速Vが大きいほど移動量Xdistが大きくなる。
In step S380, the control device 4 calculates the movement amount Xdist of the region of interest 82 in the X-axis direction based on the rotation angle θ of the steering wheel 10 and the vehicle speed V according to the following equation (3).
Xdist = θ × (V × 0.2) (3)
According to the above equation (3), the movement amount Xdist increases as the steering angle of the steering device (that is, the rotation angle θ of the steering wheel 10) increases and as the vehicle speed V increases.

ステップS390において、制御装置4は、初期設定処理においてセットした注目領域82の初期位置(XqN,Yq)をベースに、走行中の注目領域82の位置(X座標)を次式(4)により算出する。
Xq =XqN +Xdist …(4)
ただし、Nは初期設定処理において決定した初期設定値1〜4のいずれかの値である。XdistはステップS380で算出したX軸方向における注目領域82の移動量であり、X軸方向のピクセル数に対応する。ステップS390の処理により、ステアリング操作に応じて注目領域82の位置が変化する。また、車速Vの大きさによっても注目領域82の位置が変化する。
In step S390, the control device 4 calculates, based on the initial position (XqN, Yq) of the region of interest 82 set in the initial setting process, the position (X coordinate) of the region of interest 82 during traveling by the following equation (4). To do.
Xq = XqN + Xdist (4)
However, N is one of the initial setting values 1 to 4 determined in the initial setting process. Xdist is the amount of movement of the region of interest 82 in the X-axis direction calculated in step S380, and corresponds to the number of pixels in the X-axis direction. By the processing in step S390, the position of the attention area 82 changes according to the steering operation. Further, the position of the attention area 82 also changes depending on the magnitude of the vehicle speed V.

ステップS400において、制御装置4は、初期設定処理においてセットした注目領域82の初期位置(XqN,Yq)をベースに、走行中の注目領域82の位置(Y座標)を次式(5)により算出する。
Yq =Yq +P(Z) …(5)
ただし、P(Z)はY軸方向における注目領域82の移動量であり、奥行きZ(m)に対応するY軸方向のピクセル数である。例えば、奥行き20(m)の道路の像がY軸方向に何ピクセルに相当するかを表す。奥行きZとピクセル数との関係P(Z)は、あらかじめ記憶部4b(図2)に格納しておく。
In step S400, the control device 4 calculates the position (Y coordinate) of the attention area 82 during the traveling by the following equation (5) based on the initial position (XqN, Yq) of the attention area 82 set in the initial setting process. To do.
Yq = Yq + P (Z) (5)
However, P (Z) is the amount of movement of the region of interest 82 in the Y-axis direction, and is the number of pixels in the Y-axis direction corresponding to the depth Z (m). For example, it represents how many pixels the image of a road having a depth of 20 (m) corresponds to in the Y-axis direction. The relationship P (Z) between the depth Z and the number of pixels is stored in advance in the storage unit 4b (FIG. 2).

一般に、平坦な直線道路で進行方向を撮像する場合、撮像チップ113上の道路の像に対応するY軸方向のピクセル数は、車両1からの奥行きZ(m)が深くなるにつれて増加する。そこで、上記1(m)離れた先行車を撮像した場合の像の高さ中心に相当するYqの値を、注目すべき先行車が遠くなる(すなわち奥行きZが深くなる)につれて増加させる。   In general, when the traveling direction is imaged on a flat straight road, the number of pixels in the Y-axis direction corresponding to the road image on the imaging chip 113 increases as the depth Z (m) from the vehicle 1 increases. Therefore, the value of Yq corresponding to the height center of the image when the preceding vehicle separated by 1 (m) is imaged is increased as the preceding vehicle to be noted becomes farther (that is, the depth Z becomes deeper).

制御装置4は、注目すべき先行車の奥行きZを次式(6)により決定する。
Z =Za+Zb …(6)
ただし、Zaは乾燥路における制動距離(m)であり、Zbは濡れた路面における制動距離(m)である。ZaおよびZbは、図19に例示した値に基づく。本実施形態では、車両1の前方の奥行きZ(すなわち車両1からZ(m)離れた位置)の先行車を注目領域82に含めるように、注目領域82の位置を決定する。これは、緊急ブレーキをかけた場合の停車に必要な距離より遠方を注目するという考え方に基づく。車速Vに応じた奥行きZの値(Za+Zb)は、あらかじめ記憶部4b(図2)に格納しておく。ステップS400の処理によれば、車速Vの変化に応じて注目領域82の位置が変化する。
このように位置を変更した注目領域82について、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせる。
The control device 4 determines the depth Z of the preceding vehicle to be noted by the following equation (6).
Z = Za + Zb (6)
However, Za is a braking distance (m) on a dry road, and Zb is a braking distance (m) on a wet road surface. Za and Zb are based on the values illustrated in FIG. In the present embodiment, the position of the attention area 82 is determined so that a preceding vehicle having a depth Z in front of the vehicle 1 (that is, a position away from the vehicle 1 by Z (m)) is included in the attention area 82. This is based on the idea of paying more attention to the distance than is necessary for stopping when the emergency brake is applied. The value (Za + Zb) of the depth Z corresponding to the vehicle speed V is stored in advance in the storage unit 4b (FIG. 2). According to the process of step S400, the position of the attention area 82 changes according to the change in the vehicle speed V.
With regard to the attention area 82 whose position has been changed in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like is made different between the imaging area 81 and the attention area 82.

ステップS410において、制御装置4は、初期設定処理においてセットした注目領域82の初期サイズ(Px×Py)をベースに、走行中の注目領域82のサイズ(X_wid, Y_wid)を次式(7)および(8)により算出し、図17による処理を終了する。
X_wid =Px/Z …(7)
Y_wid =Py/Z …(8)
ただし、PxはステップS26でセットしたX軸方向のピクセル数であり、PyはステップS26でセットしたY軸方向のピクセル数である。上式(7)、(8)によれば、走行中の注目領域82のサイズ(X_wid, Y_wid)は、注目すべき先行車が遠く離れる(奥行きZが深くなる)ほど、注目領域82の初期サイズ(Px×Py)より小さくなる。ステップS410の処理によれば、車速Vの変化に応じて注目領域82のサイズが変化する。
このようにサイズを変更した注目領域82について、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせる。
In step S410, the control device 4 uses the initial size (Px × Py) of the attention area 82 set in the initial setting process as a base, and calculates the size (X_wid, Y_wid) of the attention area 82 during traveling by the following formula (7) and Calculation is performed according to (8), and the process of FIG. 17 is terminated.
X_wid = Px / Z (7)
Y_wid = Py / Z (8)
However, Px is the number of pixels in the X-axis direction set in step S26, and Py is the number of pixels in the Y-axis direction set in step S26. According to the above formulas (7) and (8), the size (X_wid, Y_wid) of the attention area 82 during traveling is the initial value of the attention area 82 as the preceding vehicle to be noticed becomes farther away (depth Z becomes deeper). It becomes smaller than the size (Px × Py). According to the process of step S410, the size of the attention area 82 changes according to the change in the vehicle speed V.
As for the attention area 82 whose size has been changed in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like is made different between the imaging area 81 and the attention area 82.

上述したステップS310を否定判定して進むステップS420において、制御装置4は、停止中の設定処理を行って図17による処理を終了する。停止中の設定処理は、例えば、1(m)離れた先行車を注目領域82に含めるように、注目領域82の位置を決定する。また、注目領域82のX軸方向のサイズを最大にして、車両1の側部に近い位置の対象物もなるべく注目領域82に含まれるようにする。   In step S420, which proceeds after making a negative determination in step S310 described above, the control device 4 performs a setting process that is stopped and ends the process of FIG. In the stop setting process, for example, the position of the attention area 82 is determined so that the preceding vehicle 1 (m) away is included in the attention area 82. In addition, the size of the attention area 82 in the X-axis direction is maximized so that the object located near the side of the vehicle 1 is included in the attention area 82 as much as possible.

上述したステップS340を否定判定して進むステップS430において、制御装置4は、急ブレーキ判定時の設定処理を行って図17による処理を終了する。急ブレーキ判定時の設定処理は、例えば、注目領域82における間引きを止め、フレームレートを最大に上げ、蓄積時間を短くし、ゲインを高く設定する。なお、制御装置4は、注目領域82以外の撮像領域81のフレームレートも増加するようにしてもよい。また、制御装置4は、ステップS340を否定判定した以降の所定時間(例えば5秒〜15秒)の間、カメラ3で取得される画像を記録部36に保存するようにカメラ3に対して記録の指示を行う。   In step S430, which proceeds after making a negative determination in step S340 described above, the control device 4 performs a setting process at the time of sudden brake determination, and ends the process of FIG. For example, the setting process at the time of sudden brake determination is to stop the thinning out in the attention area 82, increase the frame rate to the maximum, shorten the accumulation time, and set the gain high. Note that the control device 4 may increase the frame rate of the imaging area 81 other than the attention area 82. Moreover, the control apparatus 4 records with respect to the camera 3 so that the image acquired with the camera 3 may be preserve | saved in the recording part 36 for the predetermined time (for example, 5 seconds-15 seconds) after negative determination of step S340. The instructions are given.

急停車後の制御装置4はさらに、初期設定処理においてセット(図12のステップS25)した注目領域82の初期位置へ注目領域82を移動させるとともに、初期設定処理においてセット(図12のステップS26)した注目領域82の初期サイズ(Px×Py)へ注目領域82のサイズを変更する。これにより、走行中の車速Vによって変化した注目領域82の位置、サイズが、停車時に適した位置、サイズへ戻る。   The control device 4 after the sudden stop further moves the attention area 82 to the initial position of the attention area 82 set in the initial setting process (step S25 in FIG. 12) and is set in the initial setting process (step S26 in FIG. 12). The size of the attention area 82 is changed to the initial size (Px × Py) of the attention area 82. As a result, the position and size of the attention area 82 changed according to the traveling vehicle speed V returns to the position and size suitable for stopping.

上述したステップS370を否定判定して進むステップS440において、制御装置4は、走行中の注目領域82の位置(X座標)を移動させない設定を行う。すなわち、ステアリングホイール10の回転角θが所定値以下の場合にθ←0とし、Xdistの値も0とする。つまり、ステアリングホイール10の操作角が所定値に満たない場合は、注目領域82の位置(X座標)が維持される。このため、旋回操作でない微小操作時における処理負担の軽減に役立つ。   In step S440, which proceeds after making a negative determination in step S370 described above, the control device 4 performs setting so as not to move the position (X coordinate) of the region of interest 82 during traveling. That is, when the rotation angle θ of the steering wheel 10 is equal to or smaller than a predetermined value, θ ← 0 is set, and the value of Xdist is also set to 0. That is, when the operation angle of the steering wheel 10 is less than the predetermined value, the position (X coordinate) of the attention area 82 is maintained. For this reason, it is useful for reducing the processing load at the time of a minute operation that is not a turning operation.

図20(a)は、一般道路の交差点において右折する場合の注目領域82の位置の移動、および注目領域82のサイズの変化を例示する図である。上記走行アシスト設定処理によれば、車両1が先行車の後ろで右折待ちをしている場合は、注目領域82Aの位置は初期位置にあり、注目領域82Aのサイズは初期サイズ(Px×Py)と略同じである。車両1が前進する状態で運転者が右方向へステアリング操作を始めると、注目領域82Bの位置は右斜め上へ移動する。車速Vが低速であるので、注目領域82Bのサイズも初期サイズ(Px×Py)と略同じである。   FIG. 20A is a diagram illustrating the movement of the position of the attention area 82 and the change in the size of the attention area 82 when making a right turn at an intersection of general roads. According to the travel assist setting process, when the vehicle 1 is waiting for a right turn behind the preceding vehicle, the position of the attention area 82A is at the initial position, and the size of the attention area 82A is the initial size (Px × Py). Is almost the same. When the driver starts the steering operation in the right direction while the vehicle 1 moves forward, the position of the attention area 82B moves diagonally upward to the right. Since the vehicle speed V is low, the size of the attention area 82B is substantially the same as the initial size (Px × Py).

図20(b)は、高速道路において右側の追い越し車線へ加速しながら車線変更する場合の注目領域82の位置の移動、および注目領域82のサイズの変化を例示する図である。上記走行アシスト設定処理によれば、車両1が高速で走行する場合は、注目領域82Aの位置は初期位置より上方にあり、注目領域82Aのサイズは初期サイズ(Px×Py)に比べて小さい。車両1が加速する状態で運転者が右方向へステアリング操作すると、注目領域82Bの位置は右斜め上へ移動する。車速Vが速いので、注目領域82Bのサイズはさらに小さくなる。なお、図20は左側通行の場合の例であり、右側通行の左折や、右側通行の車線変更にも適宜用いることができる。また、不図示の視線検出装置(例えば、ステアリングホイールに視線検出装置を設ける)により運転者の視線を検出して、運転者が注視していない領域や、死角となる領域を注目領域82と設定するようにしてもよい。なお、視線検出には、赤外線を運転者の角膜で反射させてユーザの視線方向を検出する角膜反射法や、角膜と強膜との光に対する反射率の差を利用するリンバストラッキング法、眼球の映像をカメラで撮像して画像処理により視線を検出する画像解析法などがあり、いずれの視線検出方法を用いてもよい。   FIG. 20B is a diagram illustrating the movement of the position of the attention area 82 and the change in the size of the attention area 82 when the lane is changed while accelerating to the right overtaking lane on the highway. According to the travel assist setting process, when the vehicle 1 travels at a high speed, the position of the attention area 82A is above the initial position, and the size of the attention area 82A is smaller than the initial size (Px × Py). When the driver performs a steering operation in the right direction while the vehicle 1 is accelerating, the position of the attention area 82B moves obliquely upward to the right. Since the vehicle speed V is high, the size of the attention area 82B is further reduced. FIG. 20 shows an example in the case of left-hand traffic, and it can be used as appropriate for left-hand traffic on right-hand traffic and lane changes for right-hand traffic. In addition, a driver's line of sight is detected by a line-of-sight detection device (not shown) (for example, a line-of-sight detection device is provided on the steering wheel), and an area where the driver is not gazing or a blind spot is set as the attention area 82. You may make it do. For eye gaze detection, the cornea reflection method that detects the direction of the user's gaze by reflecting infrared light on the driver's cornea, the Limbus tracking method that uses the difference in reflectance with respect to light between the cornea and the sclera, There is an image analysis method in which a video is captured by a camera and a line of sight is detected by image processing, and any line of sight detection method may be used.

上述した実施の形態によれば、次の作用効果が得られる。
(1)搭載されている車両1の諸元と、車両1の操作部に対する操作と、の少なくとも一方を認識する制御装置4と、少なくとも注目領域82と、撮像領域81とを有し、車両1の外部を撮像する撮像部32と、制御装置4による認識結果に基づいて、注目領域82の撮像条件と、撮像領域81の撮像条件と、を異ならせて設定する制御装置4を備えたので、カメラ3の撮像条件を適切に設定することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The vehicle 1 includes a control device 4 that recognizes at least one of specifications of the mounted vehicle 1 and an operation on an operation unit of the vehicle 1, at least a region of interest 82, and an imaging region 81. Since the image pickup unit 32 that picks up the outside of the image pickup device 32 and the control device 4 that sets the image pickup condition of the region of interest 82 and the image pickup condition of the image pickup region 81 differently based on the recognition result by the control device 4 are provided. The imaging conditions of the camera 3 can be set appropriately.

(2)制御装置4は、車両1におけるハンドル(ステアリングホイール10)の取り付け位置(右または左)を認識するので、運転者の乗車位置に応じてカメラ3の撮像条件を適切に設定することができる。 (2) Since the control device 4 recognizes the mounting position (right or left) of the steering wheel (steering wheel 10) in the vehicle 1, it is possible to appropriately set the imaging condition of the camera 3 according to the driver's boarding position. it can.

(3)設定部は、ステアリングホイール10の位置に応じて注目領域82のフレームレートと、撮像領域81のフレームレートとを異ならせて設定するので、例えば運転者席側(右)の注目領域82でフレームレートを高めるなど、カメラ3の撮像条件を適切に設定することができる。 (3) Since the setting unit sets the frame rate of the attention area 82 differently from the frame rate of the imaging area 81 according to the position of the steering wheel 10, for example, the attention area 82 on the driver's seat side (right). Thus, it is possible to appropriately set the imaging conditions of the camera 3 such as increasing the frame rate.

(4)車両1の車速Vに関する情報を検出する制御装置4を備え、制御装置4は、車速Vに関する情報の検出結果に応じて、注目領域82の撮像条件と、撮像領域81の撮像条件とを異ならせて設定するので、車速Vに応じてカメラ3の撮像条件を適切に設定することができる。 (4) The control device 4 that detects information related to the vehicle speed V of the vehicle 1 is provided. The control device 4 determines the imaging condition of the attention area 82 and the imaging condition of the imaging area 81 according to the detection result of the information related to the vehicle speed V. Therefore, the imaging conditions of the camera 3 can be appropriately set according to the vehicle speed V.

(5)制御装置4は、車速Vに関する情報が増加するときと、減少するときで、注目領域82の撮像条件と、撮像領域81の撮像条件との少なくとも一つの撮像条件を変更するので、例えば車速Vが速いほどフレームレートを高めるなど、カメラ3の撮像条件を適切に設定することができる。 (5) The control device 4 changes at least one of the imaging condition of the attention area 82 and the imaging condition of the imaging area 81 when the information about the vehicle speed V increases and decreases. The imaging conditions of the camera 3 can be set appropriately, such as increasing the frame rate as the vehicle speed V increases.

(6)制御装置4は、ハンドル(ステアリングホイール10)の回転角θが所定値を超えたときに、注目領域82の撮像のフレームレートと、撮像領域81の撮像のフレームレートとの少なくとも一つのフレームレートを高く変更するので、旋回操作の場合において、カメラ3の撮像条件を変更することができる。 (6) When the rotation angle θ of the steering wheel (steering wheel 10) exceeds a predetermined value, the control device 4 has at least one of the imaging frame rate of the attention area 82 and the imaging frame rate of the imaging area 81. Since the frame rate is changed high, the imaging condition of the camera 3 can be changed in the case of a turning operation.

(7)撮像部32による撮像結果に基づいて、車両1の表示装置14に対する表示情報を送信する制御装置4を備えたので、車両1の乗員に対して必要な情報を提供できる。 (7) Since the control device 4 that transmits the display information for the display device 14 of the vehicle 1 based on the imaging result of the imaging unit 32 is provided, necessary information can be provided to the passenger of the vehicle 1.

(8)ハンドル(ステアリングホイール10)の回転角θが所定値に達しないときには、制御装置4は、注目領域82の撮像のフレームレートと、撮像領域81の撮像のフレームレートとの少なくとも一つのフレームレートの設定を維持するので、旋回操作でない微小操作時における撮像条件の変更を避けることができる。これにより、例えば注目領域82のフレームレートを必要以上に細かく変更することが防止され、処理負担の軽減に役立つ。 (8) When the rotation angle θ of the steering wheel (steering wheel 10) does not reach a predetermined value, the control device 4 at least one frame of the imaging frame rate of the attention area 82 and the imaging frame rate of the imaging area 81 Since the setting of the rate is maintained, it is possible to avoid changing the imaging conditions during a minute operation that is not a turning operation. Thereby, for example, it is possible to prevent the frame rate of the attention area 82 from being changed more finely than necessary, which helps to reduce the processing load.

(9)制御装置4は、注目領域82の撮像条件と、撮像領域81の撮像条件と、の間で異ならせる撮像条件に、撮像のフレームレート、ゲイン、間引き、画素信号加算、蓄積、ビット長、撮像領域のサイズ、および撮像領域の位置の少なくとも1つを含めるので、カメラ3の撮像条件を適切に設定することができる。 (9) The control device 4 sets the imaging frame rate, gain, thinning, pixel signal addition, accumulation, bit length to the imaging conditions that are different between the imaging conditions of the attention area 82 and the imaging conditions of the imaging area 81. Since at least one of the size of the imaging region and the position of the imaging region is included, the imaging condition of the camera 3 can be set appropriately.

(10)制御装置4は、車速Vに関する情報の検出結果に基づいて、注目領域82の中心位置と、撮像領域81の中心位置との少なくとも一つの中心位置を変更するので、車速Vの変化に伴って注目領域82の位置を変更するなど、カメラ3の撮像条件を適切に設定することができる。 (10) The control device 4 changes at least one center position between the center position of the attention area 82 and the center position of the imaging area 81 based on the detection result of the information related to the vehicle speed V. Accordingly, the imaging condition of the camera 3 can be appropriately set, such as changing the position of the attention area 82.

(11)制御装置4は、車速Vに関する情報の検出結果に基づいて、注目領域82のサイズと、撮像領域81のサイズとの少なくとも一つのサイズを変更するので、車速Vの変化に伴って注目領域82のサイズを変更するなど、カメラ3の撮像条件を適切に設定することができる。 (11) Since the control device 4 changes at least one of the size of the attention area 82 and the size of the imaging area 81 based on the detection result of the information related to the vehicle speed V, attention is paid as the vehicle speed V changes. The imaging conditions of the camera 3 can be set appropriately, such as changing the size of the area 82.

(12)制御装置4は、注目領域82を囲む撮像領域81を設定するので、カメラ3の撮像条件を適切に設定することができる。 (12) Since the control device 4 sets the imaging area 81 surrounding the attention area 82, the imaging condition of the camera 3 can be set appropriately.

(13)車両1の操作部としてハンドル(ステアリングホイール10)を備えており、制御装置4は、ハンドルの操作に基づいて、注目領域82の中心位置と、撮像領域81の中心位置との少なくとも一つの中心位置を変更するので、車両1の進路の変化に伴って注目領域82の位置を変更するなど、カメラ3の撮像条件を適切に設定することができる。なお、上述の実施の形態では、制御装置4の制御によりカメラ3を制御したが、カメラ3の制御の一部をカメラ3の制御部35により行うようにしてもよい。 (13) A steering wheel (steering wheel 10) is provided as an operation unit of the vehicle 1, and the control device 4 at least one of the center position of the attention area 82 and the center position of the imaging area 81 based on the operation of the steering wheel. Since the two center positions are changed, the imaging condition of the camera 3 can be appropriately set such that the position of the attention area 82 is changed in accordance with the change in the course of the vehicle 1. In the above-described embodiment, the camera 3 is controlled by the control device 4, but part of the control of the camera 3 may be performed by the control unit 35 of the camera 3.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
走行アシスト設定処理において、制御装置4は、ターンシグナルスイッチ11からの操作信号に応じて注目領域82の位置および注目領域82のサイズを変更するように構成してもよい。制御装置4は、図21に例示するように、ステップS24において決定された初期設定値と、ターンシグナルスイッチ11の操作によるターンシグナルの方向とに基づいて注目領域82のサイズを変更したり、注目領域82の撮像条件を設定したりする。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
In the travel assist setting process, the control device 4 may be configured to change the position of the attention area 82 and the size of the attention area 82 in accordance with an operation signal from the turn signal switch 11. As illustrated in FIG. 21, the control device 4 changes the size of the attention area 82 based on the initial setting value determined in step S <b> 24 and the direction of the turn signal by the operation of the turn signal switch 11. The imaging condition of the area 82 is set.

例えば、図10を参照して説明すると、右ハンドルおよび左側通行であって初期設定値が「4」の場合、制御装置4は、ターンシグナルが左方向であれば注目領域82に道路左端を含めるような制御を行う。具体的には、図10の注目領域82を左側へ拡げる。注目領域82を左側へ拡げるのは、左折時の巻き込み事故防止のためである。反対に、制御装置4は、ターンシグナルが右方向であれば注目領域82に対向車線を含めるような制御を行う。具体的には、図10の注目領域82を右側へ拡げる。   For example, referring to FIG. 10, when the right steering wheel and left-hand traffic and the initial setting value is “4”, the control device 4 includes the left end of the road in the attention area 82 if the turn signal is in the left direction. Perform such control. Specifically, the attention area 82 in FIG. 10 is expanded to the left. The reason why the attention area 82 is expanded to the left side is to prevent an accident involving a left turn. On the contrary, if the turn signal is in the right direction, the control device 4 performs control to include the oncoming lane in the attention area 82. Specifically, the attention area 82 in FIG. 10 is expanded to the right.

図14を参照して説明すると、左ハンドルおよび右側通行であって初期設定値が「1」の場合、制御装置4は、ターンシグナルが左方向であれば注目領域82に対向車線を含めるような制御を行う。具体的には、図14の注目領域82を左側へ拡げる。反対に、制御装置4は、ターンシグナルが右方向であれば注目領域82に道路右端を含めるような制御を行う。具体的には、図14の注目領域82を右側へ拡げる。右側へ拡げるのは、右折時の巻き込み事故防止のためである。   Referring to FIG. 14, when the left steering wheel and the right-hand traffic and the initial setting value is “1”, the control device 4 includes the oncoming lane in the attention area 82 if the turn signal is in the left direction. Take control. Specifically, the attention area 82 in FIG. 14 is expanded to the left. On the contrary, the control device 4 performs control to include the right end of the road in the attention area 82 if the turn signal is in the right direction. Specifically, the attention area 82 in FIG. 14 is expanded to the right. The reason for expanding to the right is to prevent accidents involving right turns.

図16を参照して説明すると、右ハンドルおよび右側通行であって初期設定値が「2」の場合、制御装置4は、ターンシグナルが左方向であれば注目領域82に対向車線を含めるような制御を行う。具体的には、図16の注目領域82を左側へ大きく拡げる。反対に、制御装置4は、ターンシグナルが右方向であれば注目領域82に道路右端を含めるような制御を行う。具体的には、図16の注目領域82を右側へやや拡げる。右側へ拡げるのは、右折時の巻き込み事故防止のためである。   Referring to FIG. 16, when the right steering wheel and right-hand traffic and the initial setting value is “2”, the control device 4 includes the oncoming lane in the attention area 82 if the turn signal is in the left direction. Take control. Specifically, the attention area 82 in FIG. 16 is greatly expanded to the left. On the contrary, the control device 4 performs control to include the right end of the road in the attention area 82 if the turn signal is in the right direction. Specifically, the attention area 82 in FIG. 16 is slightly expanded to the right. The reason for expanding to the right is to prevent accidents involving right turns.

図15を参照して説明すると、左ハンドルおよび左側通行であって初期設定値が「3」の場合、制御装置4は、ターンシグナルが左方向であれば注目領域82に道路左端を含めるような制御を行う。具体的には、図15の注目領域82を左側へやや拡げる。左側へ拡げるのは、左折時の巻き込み事故防止のためである。反対に、制御装置4は、ターンシグナルが右方向であれば注目領域82に対向車線を含めるような制御を行う。具体的には、図15の注目領域82を右側へ大きく拡げる。   Referring to FIG. 15, when the left steering wheel and left-hand traffic and the initial setting value is “3”, the control device 4 includes the left end of the road in the attention area 82 if the turn signal is in the left direction. Take control. Specifically, the attention area 82 in FIG. 15 is slightly expanded to the left. The reason for expanding to the left is to prevent accidents involving left turns. On the contrary, if the turn signal is in the right direction, the control device 4 performs control to include the oncoming lane in the attention area 82. Specifically, the attention area 82 in FIG. 15 is greatly expanded to the right.

図22は、変形例1によるターンシグナルスイッチ11の操作時の処理を説明するフローチャートである。制御装置4は、走行アシスト設定処理中にターンシグナルスイッチ11から操作信号が入力されると、サブルーチンとして図22による処理を起動させる。図22のステップS510において、制御装置4は、ターンシグナル方向が左向きか否かを判定する。制御装置4は、ターンシグナル方向が左向きの場合にステップS510を肯定判定してステップS520へ進み、ターンシグナル方向が右向きの場合にステップS510を否定判定してステップS530へ進む。   FIG. 22 is a flowchart illustrating a process when the turn signal switch 11 is operated according to the first modification. When an operation signal is input from the turn signal switch 11 during the travel assist setting process, the control device 4 starts the process of FIG. 22 as a subroutine. In step S510 of FIG. 22, the control device 4 determines whether or not the turn signal direction is leftward. If the turn signal direction is leftward, the control device 4 makes a positive determination in step S510 and proceeds to step S520. If the turn signal direction is rightward, the control device 4 makes a negative determination in step S510 and proceeds to step S530.

ステップS520において、制御装置4は、通行帯の位置が左か否かを判定する。制御装置4は、左側通行の場合にステップS520を肯定判定してステップS550へ進み、右側通行の場合にステップS520を否定判定してステップS540へ進む。   In step S520, the control device 4 determines whether or not the position of the traffic band is on the left. The control device 4 makes an affirmative determination in step S520 if the vehicle is on the left side and proceeds to step S550, and determines negative on step S520 if the vehicle is on the right side and proceeds to step S540.

ステップS540において、制御装置4は、注目領域82に対向車線を含めるように撮像部32を制御して図22による処理を終了する。ステップS550において、制御装置4は、注目領域82に道路左端を含めるように撮像部32を制御して図22による処理を終了する。   In step S540, the control device 4 controls the imaging unit 32 to include the oncoming lane in the attention area 82, and ends the process of FIG. In step S550, the control device 4 controls the imaging unit 32 so that the attention area 82 includes the left end of the road, and ends the process of FIG.

ステップS530において、制御装置4は、通行帯の位置が左か否かを判定する。制御装置4は、左側通行の場合にステップS530を肯定判定してステップS560へ進み、右側通行の場合にステップS530を否定判定してステップS570へ進む。   In step S530, the control device 4 determines whether or not the position of the traffic zone is on the left. The control device 4 makes an affirmative decision in step S530 if the vehicle is on the left side and proceeds to step S560, and makes a negative decision on step S530 if the vehicle is on the right side and proceeds to step S570.

ステップS560において、制御装置4は、注目領域82に対向車線を含めるように撮像部32を制御して図22による処理を終了する。ステップS570において、制御装置4は、注目領域82に道路右端を含めるように撮像部32を制御して図22による処理を終了する。   In step S560, the control device 4 controls the imaging unit 32 to include the oncoming lane in the attention area 82, and ends the process of FIG. In step S570, the control device 4 controls the imaging unit 32 to include the right end of the road in the attention area 82, and ends the process of FIG.

なお、制御装置4は、図22による処理を実行した後にターンシグナルスイッチ11がオフされた場合、図22による注目領域82のサイズ変更を解除する。また、ターンシグナルスイッチ11がオンされた場合は、車速Vが0であっても撮像領域81に比べて注目領域82のフレームレートを高くし、ゲインを高くし、間引き率を低くし、蓄積時間を短く設定してよい。ただし、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせる場合は、異ならせる撮像条件のみを変更する。   Note that, when the turn signal switch 11 is turned off after executing the processing of FIG. 22, the control device 4 cancels the size change of the attention area 82 of FIG. Further, when the turn signal switch 11 is turned on, even if the vehicle speed V is 0, the frame rate of the attention area 82 is made higher than the imaging area 81, the gain is increased, the thinning rate is lowered, and the accumulation time is increased. May be set short. However, when at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like are different between the imaging region 81 and the attention region 82, only the imaging conditions to be changed are changed.

以上説明した変形例1によれば、ターンシグナルスイッチ11の操作に応じて注目領域82の撮像条件と、撮像領域81の撮像条件と、を異ならせて設定するので、例えば交差点で右左折する場合において、対向車を確実に検出し得るように対向車線を注目領域82に含めたり、巻き込み事故を防止し得るように道路端を注目領域82に含めたりして、適切に注目領域82を設定することができる。さらに、撮像領域81に比べて注目領域82のフレームレートを高く設定するなど、撮像領域81および注目領域82において撮像条件を適切に設定し得る。   According to the modified example 1 described above, the imaging condition of the attention area 82 and the imaging condition of the imaging area 81 are set differently according to the operation of the turn signal switch 11. For example, when turning right or left at an intersection , The oncoming lane is included in the attention area 82 so that the oncoming vehicle can be reliably detected, or the road edge is included in the attention area 82 so as to prevent an entrainment accident, thereby appropriately setting the attention area 82. be able to. Furthermore, the imaging conditions can be appropriately set in the imaging area 81 and the attention area 82, such as setting the frame rate of the attention area 82 higher than that of the imaging area 81.

(変形例2)
走行アシスト設定処理において、制御装置4は、2輪車、普通車両、大型車両、歩行者などの対象物と車両1との間の距離の変化に応じて注目領域82の位置および注目領域82のサイズを変更するように構成してもよい。
(Modification 2)
In the travel assist setting process, the control device 4 determines the position of the attention area 82 and the attention area 82 in accordance with a change in the distance between an object such as a two-wheeled vehicle, a normal vehicle, a large vehicle, and a pedestrian. You may comprise so that a size may be changed.

変形例2において、制御装置4は、例えば車両1が先行車に近づいて先行車までの距離L(車間距離)が短くなると、先行車を注目領域82に含めるように注目領域82の位置を決定する。ここで、車両1から先行車までの車間距離Lの変化は、車速Vの取得タイミングに同期して所定時間ごとにカメラ3で取得する画像に基づいて、カメラ3の測距演算部35aが撮影画面内の先行車までの距離L(車間距離)を逐次測距することによって得る。   In the second modification, for example, when the vehicle 1 approaches the preceding vehicle and the distance L (inter-vehicle distance) to the preceding vehicle becomes short, the control device 4 determines the position of the attention region 82 so that the preceding vehicle is included in the attention region 82. To do. Here, the change in the inter-vehicle distance L from the vehicle 1 to the preceding vehicle is captured by the distance measurement calculation unit 35a of the camera 3 based on images acquired by the camera 3 at predetermined intervals in synchronization with the acquisition timing of the vehicle speed V. It is obtained by sequentially measuring the distance L (inter-vehicle distance) to the preceding vehicle in the screen.

制御装置4は、上式(5)において奥行きZの代わりに車間距離Lを用いて走行中の注目領域82の位置(Y座標)を算出する。これにより、平坦な直線道路で先行車を撮像する場合、撮像チップ113上でY軸方向における注目領域82の位置を示すYqの値は、車間距離Lが長くなるにつれて増加し、車間距離Lが短くなると減少する。   The control device 4 calculates the position (Y coordinate) of the region of interest 82 during traveling using the inter-vehicle distance L instead of the depth Z in the above equation (5). Thereby, when imaging a preceding vehicle on a flat straight road, the value of Yq indicating the position of the region of interest 82 in the Y-axis direction on the imaging chip 113 increases as the inter-vehicle distance L becomes longer. Decreases with shortening.

また、制御装置4は、車間距離Lが変化して短くなるとカメラ3に先行車が大きく写るので、注目領域82のサイズを大きく設定する。反対に、制御装置4は、車間距離Lが変化して長くなるとカメラ3に先行車が小さく写るので、注目領域82のサイズを小さく設定する。制御装置4は、上式(7)および(8)において奥行きZの代わりに車間距離Lを代入して走行中の注目領域82のサイズを算出する。   In addition, the control device 4 sets the size of the attention area 82 to be large because the preceding vehicle appears larger in the camera 3 when the inter-vehicle distance L changes and becomes shorter. On the contrary, the control device 4 sets the size of the attention area 82 to be small because the preceding vehicle appears small in the camera 3 when the inter-vehicle distance L changes and becomes long. The control device 4 calculates the size of the attention area 82 during traveling by substituting the inter-vehicle distance L in place of the depth Z in the above equations (7) and (8).

上述した図17による処理によれば、車速Vが速くなると注目領域82のサイズを小さく設定するところ、変形例2においては、車速Vが速くても先行車までの車間距離Lが短い場合には注目領域82のサイズを大きく設定するので、先行車を注目領域82に適切に含めることができる。このため、注目領域82のサイズを小さく設定し続ける場合に比べて、カメラ3で取得した画像に基づく先行車の走行状態の変化の検出が容易になる。
このようにサイズや位置を変更した注目領域82についても、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせてよい。
According to the processing in FIG. 17 described above, when the vehicle speed V increases, the size of the attention area 82 is set to be small. In the second modification, even when the vehicle speed L is high, the inter-vehicle distance L to the preceding vehicle is short. Since the size of the attention area 82 is set large, the preceding vehicle can be appropriately included in the attention area 82. For this reason, it is easier to detect the change in the traveling state of the preceding vehicle based on the image acquired by the camera 3 as compared to the case where the size of the attention area 82 is continuously set to be small.
As for the attention area 82 whose size and position are changed in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like may be different between the imaging area 81 and the attention area 82.

(変形例3)
制御装置4は、既設の注目領域82以外にも、2輪車、普通車両、大型車両、歩行者などの車両1の周辺の対象物を検出した場合に、この対象物を含む注目領域82を新たに設定してもよい。変形例3において、制御装置4は、検出した対象物が移動した場合に、この対象物を含む注目領域82を新たに設定する。例えば、制御装置4は、検出した対象物と車両1との距離が所定距離以内に近づいた場合に、この対象物を含む注目領域82を新たに設定する。そして、制御装置4は、検出した対象物と車両1との距離が所定距離以上に離れた場合に、この対象物を含む注目領域82の設定を解除する。
このように設定した注目領域82についても、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせてよい。
(Modification 3)
When the control device 4 detects an object around the vehicle 1 such as a two-wheeled vehicle, a normal vehicle, a large vehicle, or a pedestrian, in addition to the existing attention area 82, the control device 4 displays the attention area 82 including the object. It may be set anew. In the third modification, when the detected object moves, the control device 4 newly sets an attention area 82 including the object. For example, when the distance between the detected object and the vehicle 1 approaches within a predetermined distance, the control device 4 newly sets the attention area 82 including the object. And the control apparatus 4 cancels | releases the setting of the attention area 82 containing this target object, when the distance of the detected target object and the vehicle 1 leaves | separated more than predetermined distance.
Regarding the attention area 82 set in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like may be different between the imaging area 81 and the attention area 82.

変形例3によれば、カメラ3からの情報に基づいて車両1の周辺の移動物を検出する制御装置4を備え、制御装置4は、移動物の検出結果に基づいて、注目領域82の撮像条件と、撮像領域81の撮像条件との少なくとも一つの撮像条件を変更するので、移動物の有無に応じてカメラ3の撮像条件を適切に設定することができる。   According to the third modification, the control device 4 that detects a moving object around the vehicle 1 based on information from the camera 3 is provided, and the control device 4 images the attention area 82 based on the detection result of the moving object. Since at least one imaging condition of the condition and the imaging condition of the imaging area 81 is changed, the imaging condition of the camera 3 can be appropriately set according to the presence or absence of a moving object.

また、カメラ3からの情報に基づいて車両1と移動物との距離が所定距離以内に近づいていると検出した際に、制御装置4は、注目領域82の撮像のフレームレートと、撮像領域81の撮像のフレームレートとの少なくとも一つのフレームレートを高く変更するので、カメラ3で取得した画像に基づく移動物の移動状態の変化の検出が容易になる。   Further, when it is detected that the distance between the vehicle 1 and the moving object is approaching within a predetermined distance based on the information from the camera 3, the control device 4 captures the frame rate of the region of interest 82 and the imaging region 81. Since at least one frame rate of the imaging frame rate is changed to be high, detection of a change in the moving state of the moving object based on the image acquired by the camera 3 is facilitated.

(変形例4)
カメラ3によって取得された画像の色に基づいて注目領域82を新たに設定してもよい。制御装置4は、画像のうち赤色の対象物を含む領域を注目領域82として設定する。赤色の対象物を含む領域を注目領域82に加えることで、例えば赤信号、鉄道の踏切の警報機、緊急車両の赤色灯などを注目領域82に含めることができる。
このように設定した注目領域82についても、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせてよい。
(Modification 4)
The attention area 82 may be newly set based on the color of the image acquired by the camera 3. The control device 4 sets a region including a red object in the image as the attention region 82. By adding an area including a red object to the attention area 82, for example, a red signal, a railroad crossing alarm, a red light of an emergency vehicle, and the like can be included in the attention area 82.
Regarding the attention area 82 set in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like may be different between the imaging area 81 and the attention area 82.

(変形例5)
車両1のマイク17で集音された音情報に基づいて注目領域82を新たに設定してもよい。制御装置4は、例えば車両1の右側方の音情報のレベルが所定値を超えて入力された場合、撮像領域81のうち右側へ注目領域82を拡げる、または撮像領域81のうち右側へ新たに注目領域82を設定する。右側へ注目領域82を設けるのは、車両1の右側の車外情報を集めるためである。
(Modification 5)
The attention area 82 may be newly set based on sound information collected by the microphone 17 of the vehicle 1. For example, when the level of sound information on the right side of the vehicle 1 is input exceeding a predetermined value, the control device 4 expands the attention area 82 to the right side of the imaging area 81 or newly to the right side of the imaging area 81. An attention area 82 is set. The reason why the attention area 82 is provided on the right side is to collect information outside the vehicle on the right side of the vehicle 1.

また、制御装置4は、例えば車両1の左側方の音情報のレベルが所定値を超えて入力された場合、撮像領域81のうち左側へ注目領域82を拡げる、または撮像領域81のうち左側へ新たに注目領域82を設定する。左側へ注目領域82を設けるのは、車両1の左側の車外情報を集めるためである。
このように設定した注目領域82についても、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせてよい。
Further, for example, when the level of sound information on the left side of the vehicle 1 exceeds a predetermined value, the control device 4 expands the attention area 82 to the left side of the imaging area 81 or to the left side of the imaging area 81. A new attention area 82 is set. The reason why the attention area 82 is provided on the left side is to collect information outside the vehicle on the left side of the vehicle 1.
Regarding the attention area 82 set in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like may be different between the imaging area 81 and the attention area 82.

(変形例6)
上記実施形態では、先行車を含む注目領域82を設定する場合を説明したが、車両1の対向車を含む注目領域82を設定してもよい。変形例6において、制御装置4は、上述した走行領域内に存在して逆方向(車両1と対向)に走行する対象物の中から、車両1に最も近い車両を対向車として認識する。
(Modification 6)
Although the case where the attention area 82 including the preceding vehicle is set has been described in the above embodiment, the attention area 82 including the oncoming vehicle of the vehicle 1 may be set. In the modified example 6, the control device 4 recognizes the vehicle closest to the vehicle 1 as an oncoming vehicle from among the objects that exist in the above-described travel region and travel in the reverse direction (opposite the vehicle 1).

制御装置4は、カメラ3で取得された画像のうち、上記対向車の位置に相当する領域を注目領域82として設定する。制御装置4は、とくに対向車のナンバープレートや、対向車の運転席で運転する運転者の顔を含めて注目領域82を設定する。   The control device 4 sets an area corresponding to the position of the oncoming vehicle as the attention area 82 in the image acquired by the camera 3. The control device 4 sets the attention area 82 including the number plate of the oncoming vehicle and the face of the driver driving in the driver seat of the oncoming vehicle.

対向車のナンバープレートや対向車の運転者の顔を含む領域を注目領域82とすることで、車両1に近づいてくる対向車を適切に注目領域82に含めることができる。
このように設定した注目領域82についても、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせてよい。
By setting the region including the number plate of the oncoming vehicle and the face of the driver of the oncoming vehicle as the attention region 82, the oncoming vehicle approaching the vehicle 1 can be appropriately included in the attention region 82.
Regarding the attention area 82 set in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like may be different between the imaging area 81 and the attention area 82.

(変形例7)
上述した説明では、撮像領域81が注目領域82を含む(注目領域82を囲む)例を説明したが、撮像領域81と注目領域82とを左右に並べて設定してもよい。撮像領域81と注目領域82の境界線を左右に動かすことで、撮像領域81と注目領域82のサイズや位置の変更を行える。このように設定した注目領域82についても、撮像領域81と注目領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの少なくとも一つを異ならせてよい。
(Modification 7)
In the above description, the example in which the imaging region 81 includes the attention region 82 (surrounding the attention region 82) has been described. However, the imaging region 81 and the attention region 82 may be set side by side. The size and position of the imaging area 81 and the attention area 82 can be changed by moving the boundary line between the imaging area 81 and the attention area 82 to the left and right. Regarding the attention area 82 set in this way, at least one of the frame rate, the gain, the thinning rate, the accumulation time, and the like may be different between the imaging area 81 and the attention area 82.

以上の説明では、カメラ3で行う距離測定として、撮像素子100に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する手法を用いたが、ステレオカメラによる2枚の画像を用いて距離測定を行う手法を用いてもよい。また、カメラ3と別にミリ波レーダを用いて距離測定を行う手法を用いてもよい。   In the above description, as a distance measurement performed by the camera 3, a method of calculating by distance measurement using an image signal from a focus detection pixel provided in the image sensor 100 is used. You may use the method of measuring distance using an image. Alternatively, a method of measuring distance using a millimeter wave radar separately from the camera 3 may be used.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1…車両
2…運転支援装置
3…カメラ
4…制御装置
4b…記憶部
5…第1の走行制御ユニット
6…第2の走行制御ユニット
7…スロットル制御装置
7a…アクセルペダル
8…ブレーキ制御装置
8a…ブレーキペダル
9…操舵制御装置
10…ステアリングホイール
11…ターンシグナルスイッチ
12…車速センサ
14…表示装置
15…GPS装置
16…シフトレバー位置検出装置
17…マイク
31…撮像光学系
32…撮像部
32a…駆動部
33…画像処理部
34…ワークメモリ
35…制御部
35a…測距演算部
36…記録部
60…焦点検出画素ライン
81…撮像領域
82、82A、82B…注目領域
83…休止領域
100…撮像素子
113…撮像チップ
DESCRIPTION OF SYMBOLS 1 ... Vehicle 2 ... Driving assistance apparatus 3 ... Camera 4 ... Control apparatus 4b ... Memory | storage part 5 ... 1st traveling control unit 6 ... 2nd traveling control unit 7 ... Throttle control apparatus 7a ... Accelerator pedal 8 ... Brake control apparatus 8a Brake pedal 9 Steering control device 10 Steering wheel 11 Turn signal switch 12 Vehicle speed sensor 14 Display device 15 GPS device 16 Shift lever position detection device 17 Microphone 31 Imaging optical system 32 Imaging unit 32a Drive unit 33 ... image processing unit 34 ... work memory 35 ... control unit 35a ... distance measurement calculation unit 36 ... recording unit 60 ... focus detection pixel line 81 ... imaging areas 82, 82A, 82B ... attention area 83 ... rest area 100 ... imaging Element 113 ... Imaging chip

Claims (13)

車に搭載される撮像装置において、
前記車の周囲の歩行者に関する情報を入力する入力部と、
前記車の外部を撮像する撮像部と、
前記車の周囲の歩行者に関する情報と前記車の進行方向とに基づいて前記撮像部の撮像条件を変更する撮像制御部と
を有する撮像装置。
In an imaging device mounted on a car,
An input unit for inputting information about pedestrians around the vehicle;
An imaging unit for imaging the outside of the vehicle;
An imaging apparatus comprising: an imaging control unit that changes imaging conditions of the imaging unit based on information about pedestrians around the vehicle and a traveling direction of the vehicle.
請求項1に記載の撮像装置において、
前記撮像制御部は、前記車の周囲の歩行者に関する情報が変化すると前記撮像部の撮像条件を変更する撮像装置。
The imaging device according to claim 1,
The imaging control unit is an imaging device that changes imaging conditions of the imaging unit when information about pedestrians around the vehicle changes.
請求項1または2に記載の撮像装置において、
前記車の周囲の歩行者に関する情報は、前記車と前記車の周囲の歩行者との間隔に関する情報である撮像装置。
The imaging device according to claim 1 or 2,
The information relating to the pedestrians around the vehicle is an imaging device that is information relating to an interval between the vehicle and the pedestrians around the vehicle.
請求項1から3のいずれか一項に記載の撮像装置において、
前記撮像制御部は、前記撮像部の撮像条件として撮像速度を変更する撮像装置。
In the imaging device according to any one of claims 1 to 3,
The imaging control unit is an imaging device that changes an imaging speed as an imaging condition of the imaging unit.
請求項1から4のいずれか一項に記載の撮像装置において、
前記撮像制御部は、前記撮像部の撮像条件として前記撮像部の画素の間引き率を変更する撮像装置。
In the imaging device according to any one of claims 1 to 4,
The imaging control unit is an imaging device that changes a pixel thinning rate of the imaging unit as an imaging condition of the imaging unit.
車に搭載される撮像装置において、
前記車の周囲の歩行者に関する情報を入力する入力部と、
撮像条件の異なる複数の撮像領域を有する撮像部と、
前記車の周囲の歩行者に関する情報と前記車の進行方向とに基づいて前記撮像部の撮像条件を変更する撮像制御部と
を有する撮像装置。
In an imaging device mounted on a car,
An input unit for inputting information about pedestrians around the vehicle;
An imaging unit having a plurality of imaging regions with different imaging conditions;
An imaging apparatus comprising: an imaging control unit that changes imaging conditions of the imaging unit based on information about pedestrians around the vehicle and a traveling direction of the vehicle.
請求項6に記載の撮像装置において、
前記車の周囲の歩行者に関する情報は、前記車と前記車の周囲の歩行者との間隔に関する情報である撮像装置。
The imaging device according to claim 6,
The information relating to the pedestrians around the vehicle is an imaging device that is information relating to an interval between the vehicle and the pedestrians around the vehicle.
請求項6または7に記載の撮像装置において、
前記撮像制御部は、前記車の周囲の歩行者に関する情報が変化すると前記撮像部の撮像条件を変更する撮像装置。
In the imaging device according to claim 6 or 7,
The imaging control unit is an imaging device that changes imaging conditions of the imaging unit when information about pedestrians around the vehicle changes.
請求項6から8のいずれか一項に記載の撮像装置において、
前記撮像制御部は、前記撮像部の撮像条件として前記撮像部の第一の撮像領域の撮像条件を変更する撮像装置。
In the imaging device according to any one of claims 6 to 8,
The imaging control unit is an imaging device that changes an imaging condition of a first imaging region of the imaging unit as an imaging condition of the imaging unit.
請求項9に記載の撮像装置において、
前記撮像制御部は、前記撮像部の第一の撮像領域の撮像条件として前記撮像部の第一の撮像領域の撮像速度を変更する撮像装置。
The imaging device according to claim 9,
The imaging control unit is an imaging device that changes an imaging speed of the first imaging region of the imaging unit as an imaging condition of the first imaging region of the imaging unit.
請求項9または10のいずれか一項に記載の撮像装置において、
前記撮像制御部は、前記撮像部の第一の撮像領域の撮像条件として前記撮像部の第一の撮像領域の画素の間引き率を変更する撮像装置。
In the imaging device according to any one of claims 9 or 10,
The imaging control unit is an imaging device that changes a pixel thinning rate of the first imaging region of the imaging unit as an imaging condition of the first imaging region of the imaging unit.
請求項9から11のいずれか一項に記載の撮像装置において、
前記撮像制御部は、前記第一の撮像領域と異なる第二の撮像領域の撮像条件を前記第一の撮像領域と異ならせる撮像装置。
In the imaging device according to any one of claims 9 to 11,
The imaging control unit is configured to make an imaging condition of a second imaging area different from the first imaging area different from that of the first imaging area.
請求項1から12のいずれか一項に記載の撮像装置において、
前記車の進行方向は、前記車の右折による進行方向または前記車の左折による進行方向である撮像装置。
The imaging apparatus according to any one of claims 1 to 12,
The traveling direction of the vehicle is an imaging device that is a traveling direction by a right turn of the vehicle or a traveling direction by a left turn of the vehicle.
JP2015186060A 2015-09-18 2015-09-18 Imaging apparatus Pending JP2015228707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015186060A JP2015228707A (en) 2015-09-18 2015-09-18 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015186060A JP2015228707A (en) 2015-09-18 2015-09-18 Imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014111375A Division JP2015226255A (en) 2014-05-29 2014-05-29 Imaging apparatus and automobile

Publications (2)

Publication Number Publication Date
JP2015228707A true JP2015228707A (en) 2015-12-17
JP2015228707A5 JP2015228707A5 (en) 2017-05-18

Family

ID=54885890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015186060A Pending JP2015228707A (en) 2015-09-18 2015-09-18 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2015228707A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017147482A (en) * 2016-02-15 2017-08-24 株式会社 日立産業制御ソリューションズ Imaging device and railway monitoring system
JP2021052257A (en) * 2019-09-24 2021-04-01 トヨタ自動車株式会社 Image processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004146904A (en) * 2002-10-22 2004-05-20 Omron Corp On-vehicle imaging apparatus, and vehicle driving support apparatus using the same
JP2007096510A (en) * 2005-09-27 2007-04-12 Omron Corp Front photographing apparatus
JP2007172035A (en) * 2005-12-19 2007-07-05 Fujitsu Ten Ltd Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
JP2008053901A (en) * 2006-08-23 2008-03-06 Konica Minolta Holdings Inc Imaging apparatus and imaging method
JP2010074362A (en) * 2008-09-17 2010-04-02 Stanley Electric Co Ltd Distance image generating device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004146904A (en) * 2002-10-22 2004-05-20 Omron Corp On-vehicle imaging apparatus, and vehicle driving support apparatus using the same
JP2007096510A (en) * 2005-09-27 2007-04-12 Omron Corp Front photographing apparatus
JP2007172035A (en) * 2005-12-19 2007-07-05 Fujitsu Ten Ltd Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
JP2008053901A (en) * 2006-08-23 2008-03-06 Konica Minolta Holdings Inc Imaging apparatus and imaging method
JP2010074362A (en) * 2008-09-17 2010-04-02 Stanley Electric Co Ltd Distance image generating device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017147482A (en) * 2016-02-15 2017-08-24 株式会社 日立産業制御ソリューションズ Imaging device and railway monitoring system
JP2021052257A (en) * 2019-09-24 2021-04-01 トヨタ自動車株式会社 Image processing device
JP7167891B2 (en) 2019-09-24 2022-11-09 トヨタ自動車株式会社 Image processing device

Similar Documents

Publication Publication Date Title
US11220215B2 (en) Image capture device and vehicle
JP2015226255A (en) Imaging apparatus and automobile
JP6620395B2 (en) Imaging device
JP6451575B2 (en) Imaging device
JP7380666B2 (en) Vehicles and driving support devices
JP6451332B2 (en) Imaging device and automobile
JP6358214B2 (en) Imaging device
JP2018186525A (en) Imaging apparatus
JP6358213B2 (en) Imaging device
JP6451576B2 (en) Imaging device
JP6642641B2 (en) Imaging device
JP2015228707A (en) Imaging apparatus
JP6365480B2 (en) Imaging device
JP2019134459A (en) Imaging apparatus
JP6369433B2 (en) Imaging device
JP2016027740A (en) Imaging apparatus
JP6699687B2 (en) Imaging device
JP2020188476A (en) Imaging apparatus
JP2016130099A (en) Imaging device
JP6369432B2 (en) Imaging device
JP2016027739A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180524

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190903