JP2018007038A - Electronic device, automobile, imaging device, and image recording device - Google Patents

Electronic device, automobile, imaging device, and image recording device Download PDF

Info

Publication number
JP2018007038A
JP2018007038A JP2016131881A JP2016131881A JP2018007038A JP 2018007038 A JP2018007038 A JP 2018007038A JP 2016131881 A JP2016131881 A JP 2016131881A JP 2016131881 A JP2016131881 A JP 2016131881A JP 2018007038 A JP2018007038 A JP 2018007038A
Authority
JP
Japan
Prior art keywords
imaging
area
image
unit
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016131881A
Other languages
Japanese (ja)
Other versions
JP2018007038A5 (en
JP6668975B2 (en
Inventor
ひとみ 長沼
Hitomi Naganuma
ひとみ 長沼
栗山 孝司
Koji Kuriyama
孝司 栗山
幸一 福田
Koichi Fukuda
幸一 福田
祐起 喜多
Yuki Kita
祐起 喜多
長岡 弘仁
Hirohito Nagaoka
弘仁 長岡
知哉 中川
Tomoya Nakagawa
知哉 中川
政一 関口
Masaichi Sekiguchi
政一 関口
孝 塩野谷
Takashi Shionoya
孝 塩野谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016131881A priority Critical patent/JP6668975B2/en
Publication of JP2018007038A publication Critical patent/JP2018007038A/en
Publication of JP2018007038A5 publication Critical patent/JP2018007038A5/en
Application granted granted Critical
Publication of JP6668975B2 publication Critical patent/JP6668975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, it is impossible to set imaging conditions for detecting an object and imaging conditions for generating a display image with a camera mounted on the conventional vehicle.SOLUTION: An electronic device mounted in a car includes: an imaging unit having a first area and a second area in which imaging conditions can be changed and generating a first image signal in the first area and a second image signal in the second area; object detection unit that detects an object from the first image signal; and a display control unit that displays an image on the basis of the second image signal on a display unit.SELECTED DRAWING: Figure 1

Description

本発明は、電子機器、自動車、撮像装置および画像記録装置に関する。   The present invention relates to an electronic apparatus, an automobile, an imaging apparatus, and an image recording apparatus.

車両に搭載したカメラが知られている(特許文献1参照)。従来の車両に搭載したカメラでは、対象物を検出する撮像条件と表示用画像を生成する撮像条件とを設定することができないという問題がある。   A camera mounted on a vehicle is known (see Patent Document 1). In a camera mounted on a conventional vehicle, there is a problem that an imaging condition for detecting an object and an imaging condition for generating a display image cannot be set.

特開2010−79424号公報JP 2010-79424 A

第1の態様による車に搭載される電子機器は、撮像条件を変更できる第1領域と第2領域とを有し、前記第1領域で第1画像信号を生成し、前記第2領域で第2画像信号を生成する撮像部と、前記第1画像信号から対象物の検出を行う対象物検出部と、前記第2画像信号に基づいた画像を表示部に表示する表示制御部とを備えた。
第2の態様による車に搭載される電子機器は、撮像条件を変更できる第1領域と第2領域とを有し、前記第1領域で第1画像信号を生成し、前記第2領域で第2画像信号を生成する撮像部と、前記第1画像信号において反射部材が含まれているか否かを検出する検出部と、前記検出部による検出結果に基づき、前記第2画像信号のうちの前記反射部材の部分の画像を異なる態様で表示する表示部と、を備えた。
第3の態様による自動車は、上記電子機器を搭載する。
第4の態様による自動車は、複数の領域の撮像条件を設定可能な撮像素子を備えた撮像部と、前記撮像素子の画素からの出力に基づいて、距離情報を演算する測距部と、前記距離情報に基づいて、前記複数の領域の撮像条件を設定する設定部と、を備える。
第5の態様による自動車は、移動可能な本体に設けられた操作部と、撮像を行う撮像部と、前記本体の移動速度と、前記操作部の操作量とに基づいて、前記撮像部を移動させる制御部とを備える。
第6の態様による自動車は、複数の領域の撮像条件を独立して設定可能な撮像素子を備えた撮像部と、交差点への接近を検出する検出部と、前記検出部による検出結果に基づいて、前記撮像素子の複数の領域の撮像条件を設定する設定部と、を備える。
第7の態様による撮像装置は、複数の領域の撮像条件を設定可能な撮像素子を備えた撮像部と、所定のパターン光が照射されている対象物の前記パターン光が照射される部分を撮像する前記撮像素子の領域の撮像条件と、前記パターン光が照射されない部分を撮像する前記撮像素子の領域の撮像条件と、を異ならせるように制御する制御部と、を備えた。
第8の態様による電子機器は、複数の領域の撮像条件を設定可能な撮像素子を備えた撮像部と、移動体の運転者の前面に設けられた透過型表示部と、前記撮像部で撮像した画像から求めた移動体の前方の明るさの情報により、前記複数の領域の撮像条件の設定と、前記透過型表示部の表示の制御とを行う制御部と、を備えた。
第9の態様による画像記録装置は、移動体の周囲を撮像する第1の撮像部と、前記移動体の乗員に装着された装着機器に設けられた第2の撮像部で撮像された第2画像信号を入力する入力部と、前記第1の撮像部で撮像された第1画像信号の撮影範囲と前記第2画像信号の撮影範囲とを比較する比較部と、前記比較部の比較結果により、前記第1画像信号および前記第2画像信号の少なくとも一方の画像信号を記録媒体に記録する記録部と、を備える。
The electronic device mounted on the vehicle according to the first aspect has a first area and a second area where the imaging condition can be changed, generates a first image signal in the first area, and generates a first image in the second area. An imaging unit that generates two image signals; an object detection unit that detects an object from the first image signal; and a display control unit that displays an image based on the second image signal on a display unit. .
The electronic device mounted on the vehicle according to the second aspect has a first area and a second area where the imaging condition can be changed, generates a first image signal in the first area, and generates a first image in the second area. An imaging unit that generates two image signals; a detection unit that detects whether or not a reflective member is included in the first image signal; and the detection unit that determines whether the second image signal is based on a detection result of the detection unit. And a display unit that displays the image of the part of the reflecting member in a different manner.
The automobile according to the third aspect is equipped with the electronic device.
An automobile according to a fourth aspect includes an imaging unit including an imaging element capable of setting imaging conditions for a plurality of areas, a distance measuring unit that calculates distance information based on an output from a pixel of the imaging element, A setting unit that sets imaging conditions for the plurality of regions based on distance information.
The automobile according to the fifth aspect moves the imaging unit based on an operation unit provided on a movable main body, an imaging unit that performs imaging, a moving speed of the main unit, and an operation amount of the operation unit. And a control unit.
The automobile according to the sixth aspect is based on an image pickup unit including an image pickup device capable of independently setting image pickup conditions of a plurality of areas, a detection unit that detects approach to an intersection, and a detection result by the detection unit. And a setting unit that sets imaging conditions for a plurality of regions of the imaging device.
An image pickup apparatus according to a seventh aspect picks up an image pickup unit including an image pickup element capable of setting image pickup conditions for a plurality of areas, and a portion irradiated with the pattern light of an object irradiated with a predetermined pattern light. And a control unit that controls the imaging condition of the imaging element area to be different from the imaging condition of the imaging element area that captures a portion that is not irradiated with the pattern light.
An electronic device according to an eighth aspect includes an imaging unit including an imaging element capable of setting imaging conditions for a plurality of regions, a transmissive display unit provided in front of a driver of a moving body, and imaging using the imaging unit. And a control unit configured to set imaging conditions for the plurality of regions and to control display of the transmissive display unit based on information about the brightness in front of the moving object obtained from the obtained image.
An image recording apparatus according to a ninth aspect is a second image picked up by a first image pickup unit that picks up an image of the periphery of a moving body and a second image pickup unit provided in a wearing device attached to a passenger of the moving body. An input unit that inputs an image signal, a comparison unit that compares a shooting range of the first image signal captured by the first imaging unit and a shooting range of the second image signal, and a comparison result of the comparison unit A recording unit that records at least one of the first image signal and the second image signal on a recording medium.

車両の運転支援装置の概略構成図である。It is a schematic block diagram of the driving assistance device of a vehicle. 撮像チップの画素配列と単位領域を説明する図である。It is a figure explaining the pixel arrangement | sequence and unit area | region of an imaging chip. カメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of a camera. 図4(a) から図4(c) は、分割された第1領域および第2領域を例示する図である。FIG. 4A to FIG. 4C are diagrams illustrating the divided first region and second region. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図であり、図7(a) は直進時を示す図、図7(b) は高速時を示す図である。FIG. 7A is a diagram schematically showing an image on the imaging surface of the imaging chip, FIG. 7A is a diagram showing a straight traveling time, and FIG. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 制御部が実行するカメラの制御処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the control process of the camera which a control part performs. 撮像条件設定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an imaging condition setting process. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 撮像チップの撮像面上の画像を模式的に示す図である。It is a figure which shows typically the image on the imaging surface of an imaging chip. 表示画像を例示する図である。It is a figure which illustrates a display image. 撮像条件設定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an imaging condition setting process. 撮像素子に結像される像を模式的に示す図である。It is a figure which shows typically the image imaged by an image pick-up element. 撮像素子に結像される像を模式的に示す図である。It is a figure which shows typically the image imaged by an image pick-up element. 撮像素子に結像される像を模式的に示す図である。It is a figure which shows typically the image imaged by an image pick-up element. 撮像素子に結像される像を模式的に示す図である。It is a figure which shows typically the image imaged by an image pick-up element. カメラの制御処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a control process of a camera. 撮像条件設定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an imaging condition setting process. 撮像条件設定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an imaging condition setting process. 図24(A)、図24(B)は像面移動量に応じたフレームレートを例示する図である。24A and 24B are diagrams illustrating a frame rate according to the image plane movement amount. カメラのヨー角を説明する図である。It is a figure explaining the yaw angle of a camera. 撮像条件設定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an imaging condition setting process. 図27(a)は、第三の実施の形態を説明する図である。補助光源による投影パターンを説明する図である。赤外光が照射された対象物を例示する図である。FIG. 27A is a diagram for explaining the third embodiment. It is a figure explaining the projection pattern by an auxiliary light source. It is a figure which illustrates the target object irradiated with infrared light. 図28(a)および図28(b)は、第四の実施の形態を説明する図である。FIG. 28 (a) and FIG. 28 (b) are diagrams for explaining the fourth embodiment. 図29(a)は、第五の実施の形態を説明する図である。図29(b)は、撮像面の第1領域と第2領域を説明する図である。FIG. 29A is a diagram for explaining the fifth embodiment. FIG. 29B is a diagram illustrating the first area and the second area of the imaging surface.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施の形態)
<カメラの使用場面>
図1は、第一の実施の形態によるカメラ3A、3Bを搭載した車両1の運転支援装置2の概略構成図である。図1において、自動車等の車両1に運転支援装置2が搭載されている。運転支援装置2は、カメラ3Aと、カメラ3Bと、制御装置4と、第1の走行制御ユニット5と、第2の走行制御ユニット6等により構成される。なお、本実施の形態では内燃機関を駆動源とする例を説明するが、モータを駆動源とするものでもよい。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
<When to use the camera>
FIG. 1 is a schematic configuration diagram of a driving support device 2 for a vehicle 1 equipped with cameras 3A and 3B according to the first embodiment. In FIG. 1, a driving support device 2 is mounted on a vehicle 1 such as an automobile. The driving support device 2 includes a camera 3A, a camera 3B, a control device 4, a first travel control unit 5, a second travel control unit 6, and the like. In the present embodiment, an example in which an internal combustion engine is used as a drive source will be described, but a motor may be used as a drive source.

本実施の形態では、カメラ3Aとカメラ3Bとを同じカメラによって構成する。カメラ3A(3B)は、複数のレンズを有する撮像光学系と、後述する積層型撮像素子とを備える。カメラ3Aは、例えば車室内の天井前方に取り付けられ、車両1の前方の画像を取得する。カメラ3Bは、例えば車室内の天井後方に取り付けられ、車両1の後方の画像を取得する。   In the present embodiment, the camera 3A and the camera 3B are configured by the same camera. The camera 3A (3B) includes an imaging optical system having a plurality of lenses and a laminated imaging element described later. The camera 3 </ b> A is attached, for example, in front of the ceiling in the passenger compartment, and acquires an image in front of the vehicle 1. The camera 3B is attached, for example, to the rear of the ceiling in the passenger compartment, and acquires an image of the rear of the vehicle 1.

カメラ3Aおよび3Bは、それぞれ、取得した画像(後述する撮像素子100における第1領域に基づいて取得した画像)に基づいて撮影画面内の複数の位置における各被写体(対象物)までの距離測定(測距)を行う。距離測定は、撮像素子に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する。カメラ3A(3B)により取得された画像のデータおよび測距データは、制御装置4へ送出される。なお、カメラ3A(3B)を車外に設けてもよい。   Each of the cameras 3A and 3B measures the distance to each subject (target object) at a plurality of positions in the shooting screen based on the acquired image (image acquired based on a first area in the image sensor 100 described later) ( Measure distance). The distance measurement is calculated by distance measurement using an image signal from a focus detection pixel provided in the image sensor. Image data and distance measurement data acquired by the camera 3 </ b> A (3 </ b> B) are sent to the control device 4. The camera 3A (3B) may be provided outside the vehicle.

制御装置4は、CPU4aおよび記憶部4bを含む。CPU4aは、記憶部4bに記憶されている各種プログラムに基づいて、記憶部4bに記憶されている制御パラメータや後述する各センサによる検出信号などを用いて各種演算を行う。   The control device 4 includes a CPU 4a and a storage unit 4b. Based on various programs stored in the storage unit 4b, the CPU 4a performs various calculations using control parameters stored in the storage unit 4b, detection signals from sensors described later, and the like.

第1の走行制御ユニット5は、制御装置4からの指示に基づいて、定速走行制御および追従走行制御を行う。定速走行制御は、所定の制御プログラムに基づいて、車両1を一定速度で走行させる制御である。追従走行制御は、定速走行制御を行っている際に、制御装置4にて認識された先行車の速度が車両1に設定されている目標速度以下の場合には、先行車に対して一定の車間距離を保持した状態で走行させる制御である。   The first travel control unit 5 performs constant speed travel control and follow-up travel control based on an instruction from the control device 4. The constant speed traveling control is control for causing the vehicle 1 to travel at a constant speed based on a predetermined control program. The follow-up running control is constant with respect to the preceding vehicle when the speed of the preceding vehicle recognized by the control device 4 is equal to or lower than the target speed set in the vehicle 1 during the constant speed running control. It is the control which makes it drive | work in the state holding the distance between two cars.

第2の走行制御ユニット6は、制御装置4からの指示に基づいて、運転支援制御を行う。運転支援制御は、所定の制御プログラムに基づいて、車両1が道路に沿って走行するように操舵制御装置9にステアリング制御信号を出力したり、車両1が対象物と衝突するのを回避するようにブレーキ制御装置8にブレーキ制御信号を出力したりする制御である。   The second traveling control unit 6 performs driving support control based on an instruction from the control device 4. Based on a predetermined control program, the driving support control outputs a steering control signal to the steering control device 9 so that the vehicle 1 travels along the road, or avoids the vehicle 1 from colliding with an object. In this control, a brake control signal is output to the brake control device 8.

図1にはさらに、スロットル制御装置7と、ブレーキ制御装置8と、操舵制御装置9と、ステアリングホイール10と、ターンシグナルスイッチ11と、車速センサ12と、ヨーレートセンサ13と、表示・再生装置14と、GPS装置15と、視線検出装置16と、が図示されている。
なお、通信部17は、後述する変形例4において用いるものであり、レーダー18は、第二の実施の形態において用いるものである。これらは、第一の実施の形態では必須の構成ではない。
1 further shows a throttle control device 7, a brake control device 8, a steering control device 9, a steering wheel 10, a turn signal switch 11, a vehicle speed sensor 12, a yaw rate sensor 13, and a display / reproduction device 14. A GPS device 15 and a line-of-sight detection device 16 are shown.
In addition, the communication part 17 is used in the modification 4 mentioned later, and the radar 18 is used in 2nd embodiment. These are not essential components in the first embodiment.

スロットル制御装置7は、アクセルペダル7aの踏み込み量に応じて不図示のスロットルバルブの開度を制御する。また、スロットル制御装置7は、第1の走行制御ユニット5から送出されるスロットル制御信号に応じて上記スロットルバルブに対する開度の制御も行う。スロットル制御装置7はさらに、アクセルペダル7aの踏み込み量を示す信号を制御装置4へ送出する。   The throttle control device 7 controls the opening degree of a throttle valve (not shown) according to the depression amount of the accelerator pedal 7a. The throttle control device 7 also controls the opening degree of the throttle valve in accordance with a throttle control signal sent from the first travel control unit 5. The throttle control device 7 further sends a signal indicating the depression amount of the accelerator pedal 7 a to the control device 4.

ブレーキ制御装置8は、ブレーキペダル8aの踏み込み量に応じて不図示のブレーキバルブの開度を制御する。また、ブレーキ制御装置8は、第2の走行制御ユニット6からのブレーキ制御信号に応じて上記ブレーキバルブに対する開度の制御も行う。ブレーキ制御装置8はさらに、ブレーキペダル8aの踏み込み量を示す信号を制御装置4へ送出する。   The brake control device 8 controls the opening degree of a brake valve (not shown) according to the depression amount of the brake pedal 8a. The brake control device 8 also controls the opening degree of the brake valve in accordance with a brake control signal from the second travel control unit 6. The brake control device 8 further sends a signal indicating the depression amount of the brake pedal 8 a to the control device 4.

操舵制御装置9は、ステアリングホイール10の回転角に応じて不図示のステアリング装置の舵角を制御する。また、操舵制御装置9は、第2の走行制御ユニット6からのステアリング制御信号に応じて上記ステアリング装置の舵角の制御も行う。操舵制御装置9はさらに、ステアリングホイール10の回転角を示す信号を第1の走行制御ユニット5と、制御装置4とにそれぞれ送出する。   The steering control device 9 controls the steering angle of a steering device (not shown) according to the rotation angle of the steering wheel 10. The steering control device 9 also controls the steering angle of the steering device according to a steering control signal from the second travel control unit 6. The steering control device 9 further sends a signal indicating the rotation angle of the steering wheel 10 to the first traveling control unit 5 and the control device 4, respectively.

ターンシグナルスイッチ11は、不図示のターンシグナル(ウィンカー)装置を作動させるためのスイッチである。ターンシグナル装置は、車両1の進路変更を示す点滅発光装置である。車両1の乗員によってターンシグナルスイッチ11が操作されると、ターンシグナルスイッチ11からの操作信号がターンシグナル装置、第2の走行制御ユニット6および制御装置4にそれぞれ送出される。車速センサ12は車両1の車速Vを検出し、検出信号を第1の走行制御ユニット5と、第2の走行制御ユニット6と、制御装置4とにそれぞれ送出する。   The turn signal switch 11 is a switch for operating a turn signal (winker) device (not shown). The turn signal device is a blinking light emitting device that indicates a change in the course of the vehicle 1. When the turn signal switch 11 is operated by an occupant of the vehicle 1, an operation signal from the turn signal switch 11 is sent to the turn signal device, the second traveling control unit 6, and the control device 4. The vehicle speed sensor 12 detects the vehicle speed V of the vehicle 1 and sends detection signals to the first travel control unit 5, the second travel control unit 6, and the control device 4.

ヨーレートセンサ13は車両1のヨーレートを検出し、検出信号を第2の走行制御ユニット6と、制御装置4とにそれぞれ送出する。ヨーレートは、車両1の旋回方向への回転角の変化速度である。表示・再生装置14は、第1の走行制御ユニット5、および第2の走行制御ユニット6による制御状態を示す情報などを表示する。表示・再生装置14は、例えばフロントガラスに情報を投映するHUD(Head Up Display)によって構成される。なお、表示・再生装置14として、不図示のルームミラーに情報を表示したり、不図示のナビゲーション装置の表示部、再生部を利用するようにしてもよい。   The yaw rate sensor 13 detects the yaw rate of the vehicle 1 and sends detection signals to the second traveling control unit 6 and the control device 4, respectively. The yaw rate is the rate of change of the rotation angle of the vehicle 1 in the turning direction. The display / reproduction device 14 displays information indicating a control state by the first traveling control unit 5 and the second traveling control unit 6. The display / reproduction device 14 is configured by, for example, a HUD (Head Up Display) that projects information on a windshield. As the display / reproduction device 14, information may be displayed on a room mirror (not shown), or a display unit and a reproduction unit of a navigation device (not shown) may be used.

GPS装置15は、GPS衛星からの電波を受信し、電波にのせられている情報を用いて所定の演算を行うことにより、車両1の位置(緯度、経度など)を算出する。GPS装置15で算出した位置情報は、不図示のナビゲーション装置や制御装置4へ送出される。   The GPS device 15 receives a radio wave from a GPS satellite and calculates a position (latitude, longitude, etc.) of the vehicle 1 by performing a predetermined calculation using information carried on the radio wave. The position information calculated by the GPS device 15 is sent to a navigation device (not shown) and the control device 4.

視線検出装置16は、例えばステアリングホイール10に内蔵される。視線検出装置16は乗員(例えば運転者)の視線位置を検出し、運転者が注視している領域を示す視線情報を制御装置4へ送出する。視線検出には、赤外光を運転者の角膜で反射させて視線方向を検出する角膜反射法や、角膜と強膜との光に対する反射率の差を利用するリンバストラッキング法、運転者の眼球の映像をカメラで撮像して画像処理により視線を検出する画像解析法などがあり、いずれの視線検出方法を用いてもよい。なお、自動運転車の場合は、乗員が運転をしない場合もあり、視線を検出する対象は、運転者以外の乗員でもよい。
また、視線検出装置16を眼鏡型のウェアラブルデバイスに内蔵させて、視線情報をウェアラブルデバイスから制御装置4へ無線通信により送信する構成にしてもよい。
The line-of-sight detection device 16 is built in, for example, the steering wheel 10. The line-of-sight detection device 16 detects the line-of-sight position of an occupant (for example, a driver) and sends the line-of-sight information indicating the region in which the driver is gazing to the control device 4. For gaze detection, corneal reflection method that detects the direction of gaze by reflecting infrared light on the driver's cornea, limbus tracking method that uses the difference in reflectance to light between the cornea and sclera, and the driver's eyeball There is an image analysis method in which an image is captured by a camera and a line of sight is detected by image processing, and any line of sight detection method may be used. In the case of an autonomous driving vehicle, an occupant may not drive, and an occupant other than the driver may be a target for detecting the line of sight.
Alternatively, the line-of-sight detection device 16 may be incorporated in a spectacle-type wearable device, and the line-of-sight information may be transmitted from the wearable device to the control device 4 by wireless communication.

<対象物の検出>
対象物の検出には、後述する第1領域に基づいて取得した画像を用いる。制御装置4は、車両1の走行路および対象物を検出するために、カメラ3A(3B)からの画像に対し、以下のように画像処理を行う。先ず、制御装置4は、撮影画面内の複数の位置における測距データに基づいて距離画像(奥行き分布画像)を生成する。制御装置4は、距離画像のデータに基づいて、周知のグルーピング処理を行い、あらかじめ記憶部4bに記憶しておいた3次元的な道路形状データ、側壁データ、対象物データ等の枠(ウインドウ)と比較し、白線(道路に沿った白線データおよび道路を横断する白線(停止線:交差点情報)データを含む)、道路に沿って存在するガードレール、縁石等の側壁を検出するとともに、対象物・障害物を、2輪車、普通車両、大型車両、歩行者、電柱等その他の対象物に分類して検出する。
本説明では、走行路に引かれた白色または黄色のラインを白線と呼ぶ。また、実線および破線を含めて白線と呼ぶ。
<Detection of object>
For the detection of the object, an image acquired based on a first area described later is used. The control device 4 performs image processing on the image from the camera 3 </ b> A (3 </ b> B) as follows in order to detect the travel path and the object of the vehicle 1. First, the control device 4 generates a distance image (depth distribution image) based on distance measurement data at a plurality of positions in the shooting screen. The control device 4 performs a well-known grouping process based on the distance image data, and frames (windows) such as three-dimensional road shape data, side wall data, and object data stored in the storage unit 4b in advance. Compared with, white lines (including white line data along the road and white lines crossing the road (stop line: intersection information) data), side walls such as guardrails and curbs that exist along the road, Obstacles are detected by classifying them into other objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles.
In the present description, the white or yellow line drawn on the travel path is called a white line. In addition, a white line including a solid line and a broken line is called.

<運転支援>
制御装置4は、上記のように検出した各情報、すなわち、白線データ、ガードレール側壁データ、および対象物データの各データに基づいて走行路や障害となる対象物・障害物を認識し、認識結果をもとに第2の走行制御ユニット6に上記運転支援制御を行わせる。すなわち、車両1を道路に沿って走行させ、車両1が対象物と衝突するのを回避させる。
<Driving support>
The control device 4 recognizes the travel path and the obstacle / obstruction to be obstructed based on the information detected as described above, that is, the white line data, the guardrail side wall data, and the object data, and the recognition result. Then, the second driving control unit 6 performs the driving support control. That is, the vehicle 1 is caused to travel along the road, and the vehicle 1 is prevented from colliding with an object.

<走行制御>
制御装置4は、例えば、以下の4 通りにより自車進行路の推定を行う。
(1)白線に基づく自車進行路推定
カメラ3A(3B)で取得された画像から走行路の左右両方、若しくは、左右どちらか片側の白線データが得られており、これら白線データから車両1が走行している車線の形状が推定できる場合、制御装置4は、車両1の幅や、車両1の現在の車線内の位置を考慮して、自車進行路が白線と並行であると推定する。
<Running control>
For example, the control device 4 estimates the own vehicle traveling path in the following four ways.
(1) Self-vehicle traveling path estimation based on white line White line data on both the left and right sides of the traveling road or one of the left and right sides is obtained from the image acquired by the camera 3A (3B). When the shape of the traveling lane can be estimated, the control device 4 estimates that the own vehicle traveling path is parallel to the white line in consideration of the width of the vehicle 1 and the position of the vehicle 1 in the current lane. .

(2)ガードレール、縁石等の側壁データに基づく自車進行路推定
カメラ3A(3B)で取得された画像から走行路の左右両方、若しくは、左右どちらか片側の側壁データが得られており、これら側壁データから車両1が走行している車線の形状が推定できる場合、制御装置4は、車両1の幅や、車両1の現在の車線内の位置を考慮して、自車進行路が側壁と並行であると推定する。
(2) Self-vehicle travel path estimation based on side data of guardrail, curb, etc. From the images acquired by the camera 3A (3B), the side wall data on either the left or right side of the road or one of the left and right sides is obtained. When the shape of the lane in which the vehicle 1 is traveling can be estimated from the side wall data, the control device 4 considers the width of the vehicle 1 and the position of the vehicle 1 in the current lane, and determines that the own vehicle traveling path is the side wall. Presumed to be parallel.

(3)先行車軌跡に基づく自車進行路推定
制御装置4は、記憶部4bに記憶しておいた先行車の過去の走行軌跡に基づいて、自車進行路を推定する。先行車は、車両1と同じ方向に走行する対象物のうち、車両1に最も近い前方の車両をいう。
(3) Self-vehicle traveling path estimation based on the preceding vehicle trajectory The control device 4 estimates the own vehicle traveling path based on the past traveling trajectory of the preceding vehicle stored in the storage unit 4b. The preceding vehicle refers to a vehicle that is closest to the vehicle 1 among objects that travel in the same direction as the vehicle 1.

(4)車両1の走行状態に基づく自車走行路推定
制御装置4は、車両1の運転状態に基づいて、自車進行路を推定する。例えば、ヨーレートセンサ13による検出信号と、車速センサ12による検出信号と、に基づく旋回曲率を用いて自車進行路を推定する。旋回曲率Cuaは、Cua =dψ/dt/V により算出する。dψ/dtは上記ヨーレート(旋回方向への回転角の変化速度)であり、Vは車両1の車速である。
(4) Self-vehicle traveling path estimation based on traveling state of vehicle 1 The control device 4 estimates the traveling path of the own vehicle based on the driving state of the vehicle 1. For example, the own vehicle traveling path is estimated using the turning curvature based on the detection signal from the yaw rate sensor 13 and the detection signal from the vehicle speed sensor 12. The turning curvature Cua is calculated by Cua = dψ / dt / V. dψ / dt is the yaw rate (speed of change of the rotation angle in the turning direction), and V is the vehicle speed of the vehicle 1.

制御装置4は、記憶部4bに記憶されている所定の走行制御プログラムにしたがって、上記対象物ごとに、対象物が存在する位置における車両1の走行領域を自車進行路に基づき推定し、この走行領域と対象物位置とを比較して、それぞれの対象物が走行領域内にあるか否か判定する。制御装置4はさらに、カメラ3A(3B)の撮像結果に基づき上記先行車を認識する。すなわち、制御装置4は、走行領域内に存在して順方向(車両1と同じ方向)に走行する対象物の中から、車両1に最も近い車両を先行車とする。   The control device 4 estimates the traveling region of the vehicle 1 at the position where the object exists for each object according to a predetermined traveling control program stored in the storage unit 4b based on the own vehicle traveling path. The traveling area and the object position are compared to determine whether or not each object is in the traveling area. The control device 4 further recognizes the preceding vehicle based on the imaging result of the camera 3A (3B). That is, the control device 4 sets the vehicle closest to the vehicle 1 as the preceding vehicle among the objects that exist in the travel region and travel in the forward direction (the same direction as the vehicle 1).

制御装置4は、先行車と車両1との車間距離情報、および先行車の車速情報を、車外情報として第1の走行制御ユニット5へ出力する。ここで、先行車の車速情報は、所定時間ごとに取得した車両1の車速Vと、車速Vの取得タイミングに同期して上記所定時間ごとにカメラ3A(3B)で取得された画像に基づいて測距した撮影画面内の先行車までの距離(車間距離)の変化と、に基づいて算出する。   The control device 4 outputs the inter-vehicle distance information between the preceding vehicle and the vehicle 1 and the vehicle speed information of the preceding vehicle to the first traveling control unit 5 as out-of-vehicle information. Here, the vehicle speed information of the preceding vehicle is based on the vehicle speed V of the vehicle 1 acquired every predetermined time and the image acquired by the camera 3A (3B) every predetermined time in synchronization with the acquisition timing of the vehicle speed V. The distance is calculated based on the change in the distance (inter-vehicle distance) to the preceding vehicle in the measured shooting screen.

第1の走行制御ユニット5は、車速センサ12で検出される車速Vが、あらかじめセットされている所定の車速(目標速度)に収束するようにスロットル制御装置7へスロットル制御信号を送出する。これにより、スロットル制御装置7が不図示のスロットルバルブの開度をフィードバック制御し、車両1を自動で定速走行させる。   The first travel control unit 5 sends a throttle control signal to the throttle control device 7 so that the vehicle speed V detected by the vehicle speed sensor 12 converges to a predetermined vehicle speed (target speed) set in advance. Thereby, the throttle control device 7 feedback-controls the opening of a throttle valve (not shown), and the vehicle 1 is automatically driven at a constant speed.

また、第1の走行制御ユニット5は、定速状態の走行制御を行っている際に制御装置4から入力された先行車の車速情報が車両1に設定されている目標速度以下の場合には、制御装置4から入力された車間距離情報に基づいてスロットル制御装置7へスロットル制御信号を送出する。具体的には、車両1から先行車までの車間距離および先行車の車速と、車両1の車速Vと、に基づいて適切な車間距離の目標値を設定し、カメラ3A(3B)で取得された画像に基づいて測距される車間距離が、上記車間距離の目標値に収束するようにスロットル制御装置7へスロットル制御信号を送出する。これにより、スロットル制御装置7が不図示のスロットルバルブの開度をフィードバック制御し、車両1を先行車に追従走行させる。   In addition, the first traveling control unit 5 performs the traveling control in the constant speed state when the vehicle speed information of the preceding vehicle input from the control device 4 is equal to or lower than the target speed set in the vehicle 1. Then, a throttle control signal is sent to the throttle control device 7 based on the inter-vehicle distance information input from the control device 4. Specifically, a target value for an appropriate inter-vehicle distance is set based on the inter-vehicle distance from the vehicle 1 to the preceding vehicle, the vehicle speed of the preceding vehicle, and the vehicle speed V of the vehicle 1, and is acquired by the camera 3A (3B). A throttle control signal is sent to the throttle control device 7 so that the inter-vehicle distance measured based on the image converges to the target value of the inter-vehicle distance. As a result, the throttle control device 7 feedback-controls the opening of a throttle valve (not shown), and causes the vehicle 1 to travel following the preceding vehicle.

<積層型撮像素子の説明>
上述したカメラ3A(3B)に備わる積層型撮像素子100は、本願出願人が先に出願し公開された国際公開WO13/164915号に記載されているものである。撮像素子100には、入射光に対応した画素信号を出力する裏面照射型の撮像チップと、画素信号を処理する信号処理チップと、画素信号を記憶するメモリチップとが積層されている。撮像素子100は、単位領域ごとに撮像条件を設定可能に構成される。
<Description of Laminated Image Sensor>
The above-described multilayer image sensor 100 provided in the camera 3A (3B) is described in International Publication No. WO13 / 164915 previously filed and published by the applicant of the present application. The imaging element 100 is laminated with a back-illuminated imaging chip that outputs pixel signals corresponding to incident light, a signal processing chip that processes pixel signals, and a memory chip that stores pixel signals. The imaging element 100 is configured to be able to set imaging conditions for each unit area.

図2は、撮像チップ111の画素配列と単位領域131を説明する図である。撮像素子100への入射光は、Z軸プラス方向へ向かって入射する。座標軸に示すように、Z軸に直交する紙面右方向をX軸プラス方向、Z軸およびX軸に直交する紙面上方向をY軸プラス方向とする。以降のいくつかの図においては、図2の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   FIG. 2 is a diagram for explaining the pixel array and the unit area 131 of the imaging chip 111. Incident light on the image sensor 100 enters in the positive direction of the Z axis. As shown in the coordinate axes, the right direction on the paper orthogonal to the Z axis is the X axis plus direction, and the upward direction on the paper orthogonal to the Z axis and the X axis is the Y axis plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes in FIG.

撮像チップ111の画素領域には、例えば2000万個以上の画素がマトリックス状に配列されている。図2の例では、隣接する2画素×2画素の4画素が一つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数はいくらでもよく、例えば1000画素でも1画素でもよい。また、単位領域間で画素の数が異なっていても構わない。   In the pixel area of the imaging chip 111, for example, 20 million or more pixels are arranged in a matrix. In the example of FIG. 2, four adjacent pixels of 2 pixels × 2 pixels form one unit region 131. The grid lines in the figure indicate the concept that adjacent pixels are grouped to form a unit region 131. The number of pixels forming the unit region 131 may be any number, for example, 1000 pixels or 1 pixel. Further, the number of pixels may be different between unit areas.

画素領域の部分拡大図に示すように、単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を内包する。緑色画素Gb、Grは、カラーフィルタとして緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素Bは、カラーフィルタとして青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素Rは、カラーフィルタとして赤色フィルタを有する画素であって赤色波長帯の光を受光する。   As shown in the partially enlarged view of the pixel region, the unit region 131 includes a so-called Bayer array composed of four pixels of green pixels Gb and Gr, a blue pixel B, and a red pixel R. The green pixels Gb and Gr are pixels having a green filter as a color filter, and receive light in the green wavelength band of incident light. Similarly, the blue pixel B is a pixel having a blue filter as a color filter and receives light in the blue wavelength band, and the red pixel R is a pixel having a red filter as a color filter and receiving light in the red wavelength band. Receive light.

本実施の形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義される。すなわち、1ブロックの最小単位は1つの単位領域131となる。上述したように、1つの単位領域131を形成する画素の数として取り得る値のうち、最も小さい画素の数は1画素である。したがって、1ブロックを画素単位で定義する場合、1ブロックを定義し得る画素の数のうち最小の画素の数は1画素となる。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。各ブロックは、そのブロック内の全ての単位領域131、すなわち、そのブロック内の全ての画素が同一の撮像条件で制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる光電変換信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、光電変換信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数(語長)等である。撮像素子100は、行方向(撮像チップ111のX軸方向)の間引きのみでなく、列方向(撮像チップ111のY軸方向)の間引きも自在に行える。さらに、制御パラメータは、画像処理におけるパラメータであってもよい。   In the present embodiment, a plurality of blocks are defined so as to include at least one unit region 131 per block. That is, the minimum unit of one block is one unit area 131. As described above, of the possible values for the number of pixels forming one unit region 131, the smallest number of pixels is one pixel. Therefore, when one block is defined in units of pixels, the minimum number of pixels among the number of pixels that can define one block is one pixel. Each block can control pixels included in each block with different control parameters. In each block, all the unit areas 131 in the block, that is, all the pixels in the block are controlled under the same imaging condition. That is, photoelectric conversion signals having different imaging conditions can be acquired between a pixel group included in a certain block and a pixel group included in another block. Examples of the control parameters include a frame rate, a gain, a thinning rate, the number of addition rows or addition columns to which photoelectric conversion signals are added, a charge accumulation time or accumulation count, a digitization bit number (word length), and the like. The imaging device 100 can freely perform not only thinning in the row direction (X-axis direction of the imaging chip 111) but also thinning in the column direction (Y-axis direction of the imaging chip 111). Furthermore, the control parameter may be a parameter in image processing.

<測距の説明>
本実施の形態では、撮像チップ111に離散的に設けられた焦点検出用画素からの測距用の画像信号に基づいて、撮像光学系31(図3)の異なる瞳位置を通過する複数の光束による複数の像のずれ量(位相差)を検出することにより、撮像光学系31のデフォーカス量を求める。デフォーカス量と対象物までの距離とが一対一で対応するため、カメラ3Aから対象物までの距離を求めることができる。
なお、撮像チップ111において焦点検出画素以外の画素位置には通常の撮像用画素が設けられる。撮像用画素は、車外監視用の画像信号を出力する。
<Explanation of distance measurement>
In the present embodiment, a plurality of light beams passing through different pupil positions of the imaging optical system 31 (FIG. 3) based on distance measurement image signals from focus detection pixels discretely provided on the imaging chip 111. The defocus amount of the imaging optical system 31 is obtained by detecting the shift amounts (phase differences) of a plurality of images due to. Since the defocus amount and the distance to the object correspond one-to-one, the distance from the camera 3A to the object can be obtained.
In the imaging chip 111, normal imaging pixels are provided at pixel positions other than the focus detection pixels. The imaging pixel outputs an image signal for monitoring outside the vehicle.

<カメラの説明>
図3は、上述した撮像素子100を有するカメラ3A(3B)の構成を例示するブロック図である。上述したように、カメラ3Aおよび3Bの構成は同一である。図3において、カメラ3A(3B)は、撮像光学系31と、撮像部32と、画像処理部33と、ワークメモリ34と、制御部35と、記録部36とを有する。駆動部37は、第二の実施の形態において用いるので、第一の実施の形態では必須の構成ではない。
<Explanation of camera>
FIG. 3 is a block diagram illustrating the configuration of the camera 3A (3B) having the above-described image sensor 100. As shown in FIG. As described above, the configurations of the cameras 3A and 3B are the same. In FIG. 3, the camera 3 </ b> A (3 </ b> B) includes an imaging optical system 31, an imaging unit 32, an image processing unit 33, a work memory 34, a control unit 35, and a recording unit 36. Since the drive part 37 is used in 2nd embodiment, it is not an essential structure in 1st embodiment.

撮像光学系31は、被写界からの光束を撮像部32へ導く。撮像部32は、上記撮像素子100および駆動部32aを含み、撮像光学系31によって撮像チップ111上に結像された対象物の像を光電変換する。駆動部32aは、撮像素子100(撮像チップ111)に上述したブロック単位で独立した蓄積制御を行わせるために必要な駆動信号を生成する。上記ブロックの位置や形状、その範囲、蓄積時間などの指示は、制御部35から駆動部32aへ送信される。   The imaging optical system 31 guides the light beam from the object scene to the imaging unit 32. The imaging unit 32 includes the imaging device 100 and the driving unit 32a, and photoelectrically converts an image of an object formed on the imaging chip 111 by the imaging optical system 31. The drive unit 32a generates a drive signal necessary for causing the image sensor 100 (image pickup chip 111) to perform independent accumulation control in units of blocks described above. Instructions such as the position and shape of the block, its range, and accumulation time are transmitted from the control unit 35 to the drive unit 32a.

画像処理部33は、第1画像処理部30aと第2画像処理部30bとを含む。本実施の形態では、後述するように、制御部35が撮像素子100の撮像チップ111の撮像面を第1領域と第2領域とに分割し、第1領域と第2領域とで異なる撮像条件で撮像を行わせる。この場合において、例えば、第1画像処理部30aが撮像素子100の第1領域から出力された画像信号に対する画像処理を実行する。また、第2画像処理部30bは、撮像素子100の第2領域から出力された画像信号に対する画像処理を実行する。   The image processing unit 33 includes a first image processing unit 30a and a second image processing unit 30b. In the present embodiment, as will be described later, the control unit 35 divides the imaging surface of the imaging chip 111 of the imaging element 100 into a first area and a second area, and imaging conditions that are different in the first area and the second area. To capture the image. In this case, for example, the first image processing unit 30 a executes image processing on the image signal output from the first region of the image sensor 100. The second image processing unit 30b executes image processing on the image signal output from the second area of the image sensor 100.

図4(a)〜図4(c)は、制御部35によって分割された第1領域および第2領域を例示する図である。図4(a)によれば、第1領域は、奇数の列の上記ブロックによって構成され、第2領域は、偶数の列の上記ブロックによって構成されている。すなわち、撮像チップ111におけるブロックが、奇数列と偶数列とに分割される。   FIG. 4A to FIG. 4C are diagrams illustrating the first area and the second area divided by the control unit 35. According to FIG. 4 (a), the first area is constituted by the above-mentioned blocks in odd-numbered columns, and the second area is constituted by the above-mentioned blocks in even-numbered columns. That is, the block in the imaging chip 111 is divided into odd columns and even columns.

図4(b)によれば、第1領域は、奇数の行の上記ブロックによって構成され、第2領域は、偶数の行の上記ブロックによって構成されている。すなわち、撮像チップ111におけるブロックが、奇数行と偶数行とに分割される。   According to FIG. 4 (b), the first region is constituted by the blocks in the odd rows, and the second region is constituted by the blocks in the even rows. That is, the block in the imaging chip 111 is divided into odd rows and even rows.

図4(c)によれば、第1領域は、奇数の列における奇数の行の上記ブロックと、偶数の列における偶数の行の上記ブロックとによって構成されている。また、第2領域は、偶数の列における奇数の行の上記ブロックと、奇数の列における偶数の行の上記ブロックとによって構成されている。すなわち、撮像チップ111において、ブロックが市松模様となるように分割されている。   According to FIG. 4 (c), the first region is constituted by the above-mentioned block of the odd-numbered row in the odd-numbered column and the above-mentioned block of the even-numbered row in the even-numbered column. In addition, the second region is configured by the above-described block of an odd-numbered row in an even-numbered column and the above-described block of an even-numbered row in an odd-numbered column. That is, in the imaging chip 111, the blocks are divided so as to have a checkered pattern.

図3に戻り、第1画像処理部30aおよび第2画像処理部30bはそれぞれ、ワークメモリ34をワークスペースとして、第1領域から出力された画像信号、および第2領域から出力された画像信号に対する画像処理を行う。画像処理には、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像信号を生成する処理、RGB画像信号に対するホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などを行う処理を含む。また、必要に応じて所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理も、画像処理に含まれる。第1画像処理部30aおよび第2画像処理部30bはさらに、画像に含まれる対象物の色検出も行う。   Returning to FIG. 3, the first image processing unit 30 a and the second image processing unit 30 b respectively use the work memory 34 as a work space for the image signal output from the first area and the image signal output from the second area. Perform image processing. For image processing, processing for generating RGB image signals by performing color signal processing (tone correction) on signals obtained by the Bayer array, white balance adjustment, sharpness adjustment, gamma correction, gradation for RGB image signals Includes processing to make adjustments. Also, the image processing includes a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary. The first image processing unit 30a and the second image processing unit 30b further perform color detection of an object included in the image.

ワークメモリ34は、画像処理前後の画像データなどを一時的に記憶するメモリである。記録部36は、不揮発性メモリなどで構成される記憶媒体に画像データなどを記録する。制御部35は、例えばCPU35aと記憶部35bとによって構成される。CPU35aは、制御装置4からの制御信号に応じて、カメラ3A(3B)による全体の動作を制御する。例えば、撮像部32で撮像された画像信号に基づいて所定の露出演算を行い、適正露出に必要な撮像チップ111の蓄積時間を駆動部32aへ指示する。カメラ3A(3B)で取得した画像データおよび算出した測距データは、制御装置4へ送出される(図1)。記憶部35bは、CPU35aが実行するプログラム、および必要な情報を記憶する。   The work memory 34 is a memory that temporarily stores image data before and after image processing. The recording unit 36 records image data and the like on a storage medium constituted by a nonvolatile memory or the like. The control unit 35 includes, for example, a CPU 35a and a storage unit 35b. The CPU 35a controls the overall operation of the camera 3A (3B) in accordance with a control signal from the control device 4. For example, a predetermined exposure calculation is performed based on the image signal imaged by the imaging unit 32, and an instruction is given to the drive unit 32a regarding the accumulation time of the imaging chip 111 necessary for proper exposure. The image data acquired by the camera 3A (3B) and the calculated distance measurement data are sent to the control device 4 (FIG. 1). The storage unit 35b stores a program executed by the CPU 35a and necessary information.

<撮像素子のブロック制御>
制御装置4は、カメラ3A(3B)の撮像素子100(撮像チップ111)に対し、上述したブロック単位で独立した蓄積制御を行わせる。例えば、制御装置4が制御部35へ指示を送り、撮像チップ111の撮像面を上述したように分割させて第1領域と第2領域とを設定し、第1領域と第2領域との間において異なる撮像条件で電荷蓄積(撮像)を行わせる。第1領域と第2領域との間で撮像条件は異なるが、第1領域に基づいて取得した画像と第2領域に基づいて取得した画像とは、それぞれ同じ被写体(対象物)を含む。
<Block control of image sensor>
The control device 4 causes the image pickup device 100 (image pickup chip 111) of the camera 3A (3B) to perform independent accumulation control in units of the blocks described above. For example, the control device 4 sends an instruction to the control unit 35, divides the image pickup surface of the image pickup chip 111 as described above, sets the first area and the second area, and sets between the first area and the second area. Charge accumulation (imaging) is performed under different imaging conditions. Although the imaging conditions differ between the first area and the second area, the image acquired based on the first area and the image acquired based on the second area each include the same subject (object).

また、制御装置4は、第1領域(第2領域でもよい)において、第4領域と第4領域より注目度を高めたい第3領域とを設定し、第3領域と第4領域との間において異なる条件で電荷蓄積(撮像)を行わせる。この場合は、第3領域と第4領域とにおいて取得される被写体(対象物)が異なる。
ここで、第3領域、第4領域においては、上述した制御パラメータに加えて、第3領域、第4領域のサイズや位置も、撮像条件の一つである。
In addition, in the first area (or the second area), the control device 4 sets the fourth area and the third area where the degree of attention is desired to be higher than that of the fourth area, and sets the area between the third area and the fourth area. The charge accumulation (imaging) is performed under different conditions. In this case, the subjects (objects) acquired in the third area and the fourth area are different.
Here, in the third area and the fourth area, in addition to the control parameters described above, the size and position of the third area and the fourth area are also one of the imaging conditions.

<前方カメラ>
本実施の形態では、制御装置4が、車両1の前方を撮像するカメラ3Aの撮像素子100に対して、例えば図4(a)のように第1領域および第2領域を設定する。制御装置4は、第1領域に基づいて取得した画像を、上述した車両1の走行路および対象物を検出するために用いる。また、制御装置4は、第2領域に基づいて取得した画像を、表示・再生装置14(図1)に対する表示用に用いる。
制御装置4はさらに、上記第1領域のうち、運転者が注視していない領域、あるいは運転者による注視の度合いが低い領域を第3領域として設定する。
<Front camera>
In the present embodiment, the control device 4 sets the first region and the second region as shown in FIG. 4A for the image sensor 100 of the camera 3A that images the front of the vehicle 1, for example. The control device 4 uses the image acquired based on the first region to detect the travel path and the object of the vehicle 1 described above. Further, the control device 4 uses the image acquired based on the second region for display on the display / playback device 14 (FIG. 1).
The control device 4 further sets, as the third region, a region in which the driver is not gazing in the first region or a region where the degree of gazing by the driver is low.

<右折時>
図5は、交差点を右折しようとする車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。実際には倒立逆像が結像されるが、わかりやすくするために正立正像として図示している。図5において、撮像チップ111の撮像面(撮影領域)70には、交差点の道路の像と、対向車91の像と、歩行者92の像が含まれる。
なお、図4(a)のように分割されている場合、図5の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する。
<When turning right>
FIG. 5 is a diagram schematically showing an image of a subject (target object) formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 that is going to turn right at the intersection. Although an inverted inverted image is actually formed, it is shown as an erect image for the sake of clarity. In FIG. 5, an imaging surface (imaging area) 70 of the imaging chip 111 includes an image of an intersection road, an image of an oncoming vehicle 91, and an image of a pedestrian 92.
In the case of division as shown in FIG. 4A, the odd-numbered columns in the image of FIG. 5 correspond to the first region and the even-numbered columns correspond to the second region.

制御装置4は、撮像面70のうちの第1領域と第2領域との間で異なる条件を設定して電荷蓄積(撮像)を行わせる。例えば、第1領域に対応する単位領域131(図2)に対し、フレームレートを120fpsに設定して撮像するようにカメラ3Aを制御するとともに、第2領域に対応する単位領域131に対し、フレームレートを30fpsに設定して撮像するようにカメラ3Aを制御する。   The control device 4 sets different conditions between the first area and the second area on the imaging surface 70 to perform charge accumulation (imaging). For example, for the unit area 131 corresponding to the first area (FIG. 2), the camera 3A is controlled so as to capture an image with the frame rate set to 120 fps, and the unit area 131 corresponding to the second area is framed. The camera 3A is controlled so as to capture an image with the rate set to 30 fps.

一般に、フレームレートを高く設定する第1領域は、フレームレートを低く設定する第2領域に比べて電荷蓄積時間が短く制限される。このため、暗い環境においてはゲインを高くして画像が暗くなるのを防止する。ゲインを高くすることによって画像が明るくなり、対象物を適切に検出することができる。このとき、ゲインを高めたことによってノイズが増加した場合でも対象物を適切に検出できる。一方、フレームレートを低く設定する第2領域は、第1領域に比べて電荷蓄積時間を長くとれるので、ゲインを高くしなくても明るくノイズが少ない、表示に適した画像が得られる。
なお、上記では第1領域と第2領域とでフレームレートを異なるように設定したが、フレームレートは変更せずに、第1領域と第2領域とのゲインを異ならせるようにしても良い。例えば、第1領域のゲインを第2領域のゲインよりも高く設定すると、夕方や夜間等の暗い条件でも、第1領域で対象物を適切に検出できる。
In general, the first region where the frame rate is set high is limited to a shorter charge accumulation time than the second region where the frame rate is set low. For this reason, in a dark environment, the gain is increased to prevent the image from becoming dark. By increasing the gain, the image becomes bright and the object can be detected appropriately. At this time, it is possible to appropriately detect the object even when the noise is increased by increasing the gain. On the other hand, in the second area where the frame rate is set low, the charge accumulation time can be made longer than in the first area, so that an image suitable for display that is bright and has little noise can be obtained without increasing the gain.
In the above description, the frame rate is set to be different between the first region and the second region. However, the gains of the first region and the second region may be made different without changing the frame rate. For example, if the gain of the first region is set higher than the gain of the second region, an object can be appropriately detected in the first region even in dark conditions such as evening or night.

一般に、右折車両の運転者は、対象物のうち対向車91と右折先の道路の横断歩道を歩行する歩行者92を含む領域90へ視線を向けるので、領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない左側の第3領域81と、第3領域81を除く右側の第4領域82(網掛け)との間で異なる条件を設定して電荷蓄積(撮像)を行わせる。例えば、撮像チップ111の第3領域81に対応する単位領域131(図2)に対し、それぞれ第3の条件を設定して撮像するようにカメラ3Aを制御するとともに、第4領域82に対応する単位領域131に対し、それぞれ第4の条件を設定して撮像するようにカメラ3Aを制御する。   Generally, a driver of a right turn vehicle turns his / her line of sight to an area 90 including a pedestrian 92 walking on a crosswalk of an oncoming vehicle 91 and a right turn destination road among the objects, and thus the degree of attention to the area 90 increases. Therefore, the control device 4, between the first region on the imaging surface 70, between the left third region 81 not including the region 90 and the right fourth region 82 (shaded) excluding the third region 81. Charge accumulation (imaging) is performed by setting different conditions. For example, the camera 3 </ b> A is controlled to set the third condition for each of the unit areas 131 (FIG. 2) corresponding to the third area 81 of the imaging chip 111 and the fourth area 82. The camera 3 </ b> A is controlled so that the fourth condition is set for each of the unit areas 131 and images are taken.

なお、第3領域81、第4領域82をそれぞれ複数設けてもよいし、第3領域81内あるいは第4領域82内に電荷蓄積制御(撮像条件)が異なる複数の領域を設けてもよい。さらに、第3領域81、第4領域82において電荷蓄積(撮像)を行わせない休止領域を設けてもよい。   A plurality of third regions 81 and a fourth region 82 may be provided, or a plurality of regions having different charge accumulation controls (imaging conditions) may be provided in the third region 81 or the fourth region 82. Furthermore, a rest area where charge accumulation (imaging) is not performed in the third area 81 and the fourth area 82 may be provided.

<左折時>
図6は、交差点を左折しようとする車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図6において、撮像チップ111の撮像面(撮影領域)70には、交差点の道路の像と、対向車91の像と、歩行者92の像が含まれる。
なお、図4(a)のように分割されている場合、図6の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する。制御装置4は、右折時と同様に、第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する。
<When turning left>
FIG. 6 is a diagram schematically showing an image of a subject (object) that is imaged on the imaging chip 111 of the front camera 3A provided in the vehicle 1 about to turn left at the intersection. In FIG. 6, an imaging surface (imaging area) 70 of the imaging chip 111 includes an image of an intersection road, an image of an oncoming vehicle 91, and an image of a pedestrian 92.
In the case of division as shown in FIG. 4 (a), the odd-numbered columns in the image of FIG. 6 correspond to the first region and the even-numbered columns correspond to the second region. The control device 4 controls the camera 3A so as to capture images by setting different frame rates between the first area and the second area, as in the case of a right turn.

一般に、左折車両の運転者は、対象物のうち左折先の道路の横断歩道を歩行する歩行者92を含む領域90へ視線を向けるので、領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない右側の第3領域81と、第3領域81を除く左側の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, a driver of a left turn vehicle turns his / her line of sight to an area 90 including a pedestrian 92 walking on a pedestrian crossing of a left turn destination road among objects, and thus the degree of attention to the area 90 increases. Therefore, the control device 4, between the first region on the imaging surface 70, between the right third region 81 not including the region 90 and the left fourth region 82 (shaded) excluding the third region 81. Charge accumulation (imaging) is performed by setting different conditions.

<直進時>
図7は、道路を直進する車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図7(a)において、撮像チップ111の撮像面(撮影領域)70には、直線状の道路の像と、先行車93の像と、隣車線を走行する他車94の像が含まれる。
なお、図4(a)のように分割されている場合、図7(a)の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する。制御装置4は、右折時や左折時と同様に、第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する。
<When going straight>
FIG. 7 is a diagram schematically showing an image of a subject (target object) formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 traveling straight on the road. In FIG. 7A, the imaging surface (imaging area) 70 of the imaging chip 111 includes a straight road image, an image of the preceding vehicle 93, and an image of the other vehicle 94 traveling in the adjacent lane.
In the case of division as shown in FIG. 4A, the odd-numbered columns in the image of FIG. 7A correspond to the first region and the even-numbered columns correspond to the second region. The control device 4 controls the camera 3A to set a different frame rate between the first area and the second area and to take an image in the same way as when turning right or turning left.

一般に、直進車両の運転者は、専ら前方中央を含む領域90へ視線を向けるので、領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない左右両端の第3領域81と、第3領域81を除く中央の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, a driver of a straight-ahead vehicle focuses his / her line of sight exclusively on the area 90 including the front center, and thus the degree of attention to the area 90 is high. Therefore, the control device 4 includes, between the first regions on the imaging surface 70, the third regions 81 at the left and right ends that do not include the region 90, and the fourth region 82 (shaded) in the center excluding the third region 81. The charge accumulation (imaging) is performed by setting different conditions for.

<高速時>
図7(b)は、図7(a)に比べて車速Vが速い車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図7(b)において、撮像チップ111の撮像面(撮影領域)70には、直線状の道路の像と、先行車93の像と、隣車線を走行する他車95の像が含まれる。
図7(b)の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、図7(a)の像の場合と同様である。
<At high speed>
FIG. 7B schematically shows an image of a subject (object) formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 having a vehicle speed V higher than that in FIG. 7A. FIG. In FIG. 7B, the imaging surface (imaging area) 70 of the imaging chip 111 includes a straight road image, an image of the preceding vehicle 93, and an image of the other vehicle 95 traveling in the adjacent lane.
In the image of FIG. 7B, odd-numbered columns correspond to the first region, even-numbered columns correspond to the second region, and the control device 4 has different frame rates between the first region and the second region. The point that the camera 3A is controlled so as to capture the image is the same as in the case of the image of FIG.

一般に、運転者は、自車の速度が高くなるほど遠方へ視線を移動させるので、注目度が高い領域90の範囲が低速時に比べて狭くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない画面の周辺部(領域90の周囲)である第3領域81と、第3領域81を除く中央の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, the driver moves his / her line of sight farther as the speed of the host vehicle becomes higher, so the range of the region 90 having a high degree of attention is narrower than that at low speed. Therefore, the control device 4 includes, in the first area on the imaging surface 70, a third area 81 that is a peripheral portion of the screen that does not include the area 90 (around the area 90), and a central fourth area that excludes the third area 81. Charge accumulation (imaging) is performed by setting different conditions between the region 82 (shaded).

<画像に太陽が含まれる時>
図8は、朝日または夕日に向かって走行する車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される像を模式的に示す図である。図8において、撮像チップ111の撮像面(撮影領域)70には、太陽96の像が含まれる。
図8の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、上述した各例の場合と同様である。
<When the sun is included in the image>
FIG. 8 is a diagram schematically showing an image formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 traveling toward the morning sun or sunset. In FIG. 8, an image of the sun 96 is included in the imaging surface (imaging area) 70 of the imaging chip 111.
In the image of FIG. 8, the odd number columns correspond to the first region, the even number columns correspond to the second region, and the controller 4 sets different frame rates between the first region and the second region. The point that the camera 3A is controlled so as to capture the image is the same as in the above-described examples.

一般に、運転者は、太陽96を直視できない場合に太陽96から視線をそらすだけでなく、太陽96の周囲の高輝度領域90よりもさらに外側へ視線をそらす。この結果、高輝度領域90に対する注目度が低くなる。そこで、制御装置4は、撮像面70における第1領域のうち、高輝度領域90(太陽96の周囲)である第3領域81と、第3領域81を除く第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, when the driver cannot directly view the sun 96, the driver not only deflects his / her line of sight from the sun 96, but also deflects his / her line of sight to the outside of the high brightness region 90 around the sun 96. As a result, the degree of attention to the high luminance region 90 is lowered. Therefore, the control device 4 includes, in the first area on the imaging surface 70, a third area 81 that is the high brightness area 90 (around the sun 96), and a fourth area 82 (shaded) that excludes the third area 81. Charge accumulation (imaging) is performed by setting different conditions during the period.

<画面内を移動する対象物が含まれる時>
図9は、信号機がない交差点にさしかかった車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される像を模式的に示す図である。図9において、撮像チップ111の撮像面(撮影領域)70には、交差点の右方向から左方向へ直進した車両97と、交差点を直進してくる対向車91とが含まれる。
図9の像のうち奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、上述した各例の場合と同様である。
<When objects that move within the screen are included>
FIG. 9 is a diagram schematically showing an image formed on the imaging chip 111 of the front camera 3A provided in the vehicle 1 approaching the intersection where there is no traffic signal. In FIG. 9, the imaging surface (imaging area) 70 of the imaging chip 111 includes a vehicle 97 that travels straight from the right direction to the left direction of the intersection and an oncoming vehicle 91 that travels straight through the intersection.
In the image of FIG. 9, the odd number columns correspond to the first region, the even number columns correspond to the second region, and the control device 4 sets different frame rates between the first region and the second region. The point that the camera 3A is controlled so as to capture the image is the same as in the above-described examples.

一般に、運転者は、移動物体の移動方向へ視線を移動させるので、左方向へ進んだ車両97を含む領域90に対する注目度が高くなる。そこで、制御装置4は、撮像面70における第1領域のうち、領域90を含まない右側(前方右)の第3領域81と、第3領域81を除く左側の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。   In general, since the driver moves his / her line of sight in the moving direction of the moving object, the degree of attention to the region 90 including the vehicle 97 traveling leftward is increased. Therefore, the control device 4 includes a third region 81 on the right side (front right) that does not include the region 90 and a fourth region 82 on the left side excluding the third region 81 (shaded) among the first regions on the imaging surface 70. Charge accumulation (imaging) is performed by setting different conditions between and.

<フローチャートの説明>
以下、フローチャート(図10、図11)を参照して第3領域81および第4領域82の決め方について説明する。図10は、制御装置4が実行するカメラ3Aの制御処理の全体の流れを説明するフローチャートである。図10のフローチャートによる処理を実行するためのプログラムは、制御装置4の記憶部4bに格納されている。制御装置4は、例えば車両1から電源供給が開始(システムオン)されたり、エンジンが始動されたりすると、図10による処理を行うプログラムを起動する。
<Description of flowchart>
Hereinafter, how to determine the third area 81 and the fourth area 82 will be described with reference to flowcharts (FIGS. 10 and 11). FIG. 10 is a flowchart for explaining the overall flow of the control process of the camera 3 </ b> A executed by the control device 4. A program for executing the processing according to the flowchart of FIG. 10 is stored in the storage unit 4 b of the control device 4. For example, when the power supply is started (system is turned on) from the vehicle 1 or the engine is started, the control device 4 starts a program for performing the processing shown in FIG.

図10のステップS10において、制御装置4は、フラグa=0か否かを判定する。フラグaは、初期設定が終了している場合に1、初期設定が終了していない場合に0がセットされるフラグである。制御装置4は、フラグa=0の場合にステップS10を肯定判定してステップS20へ進み、フラグa≠0の場合にステップS10を否定判定してステップS30へ進む。   In step S10 of FIG. 10, the control device 4 determines whether or not the flag a = 0. The flag a is a flag that is set to 1 when the initial setting is completed and set to 0 when the initial setting is not completed. When the flag a = 0, the control device 4 makes a positive determination in step S10 and proceeds to step S20. When the flag a ≠ 0, the control device 4 makes a negative determination and proceeds to step S30.

ステップS20において、制御装置4は、カメラ3Aへ初期設定を行ってステップS30へ進む。初期設定では、カメラ3Aに所定の動作をさせるための予め定められた設定を行うとともに、フラグaに1をセットする。これにより、カメラ3Aが撮像素子100の撮像面の全域に同じ撮像条件を設定し、例えば毎秒60フレーム(60fps)のフレームレートで撮像を開始する。   In step S20, the control device 4 performs initial setting on the camera 3A, and proceeds to step S30. In the initial setting, a predetermined setting for causing the camera 3A to perform a predetermined operation is performed, and 1 is set in the flag a. Thereby, the camera 3A sets the same imaging condition over the entire imaging surface of the imaging device 100, and starts imaging at a frame rate of 60 frames per second (60 fps), for example.

ステップS30において、制御装置4は、撮像条件設定処理を行ってステップS40へ進む。撮像条件設定処理は、カメラ3Aの撮像素子100に対し、奇数の列のブロックによって構成される第1領域と、偶数の列のブロックによって構成される第2領域とを設定するとともに、第1領域において第3領域81および第4領域82を設定した上で、各領域に対してそれぞれの撮像条件を決定する処理をいう。撮像条件設定処理の詳細については後述する。本実施の形態では、第1領域について、第2領域に比べてフレームレートを高くし、ゲインを高くし、間引き率を低くし、蓄積時間を短く設定する。また、第3領域81について、第4領域82に比べてフレームレートを高くし、ゲインを高くし、間引き率を低くし、蓄積時間を短く設定する。カメラ3Aは、この設定に基づいて撮像を行い、上述した距離測定(測距)を行う。
なお、第1領域と第2領域との間でフレームレート、ゲイン、間引き率、蓄積時間などの全てを異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。また、第3領域81と第4領域82との間でフレームレート、ゲイン、間引き率、蓄積時間などの全てを異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。
In step S30, the control device 4 performs an imaging condition setting process and proceeds to step S40. The imaging condition setting process sets, for the imaging device 100 of the camera 3A, a first area composed of odd-numbered blocks and a second area composed of even-numbered blocks, and the first area The third region 81 and the fourth region 82 are set, and the respective imaging conditions are determined for each region. Details of the imaging condition setting process will be described later. In the present embodiment, the first area is set to have a higher frame rate, higher gain, lower thinning rate, and shorter accumulation time than the second area. In the third area 81, the frame rate is increased, the gain is increased, the thinning rate is decreased, and the accumulation time is set shorter than that in the fourth area 82. The camera 3A performs imaging based on this setting and performs the distance measurement (ranging) described above.
Note that it is not necessary to change all of the frame rate, the gain, the thinning rate, the accumulation time, and the like between the first area and the second area, and at least one of them may be changed. Further, it is not necessary to make all the frame rate, gain, thinning rate, accumulation time, and the like different between the third region 81 and the fourth region 82, and at least one of them may be made different.

図10のステップS40において、制御装置4は、撮像条件設定処理後にカメラ3Aで取得された画像データ、測距データ、および車両1内の各部からの情報を取得してステップS50へ進む。ステップS50において、制御装置4は、情報を表示する設定が行われているか否かを判定する。制御装置4は、表示設定が行われている場合にステップ50を肯定判定してステップS60へ進む。制御装置4は、表示設定が行われていない場合には、ステップ50を否定判定してステップS70へ進む。   In step S40 of FIG. 10, the control device 4 acquires the image data, distance measurement data, and information from each part in the vehicle 1 acquired by the camera 3A after the imaging condition setting process, and proceeds to step S50. In step S50, the control device 4 determines whether or not the setting for displaying information is performed. When the display setting is performed, the control device 4 makes a positive determination in step 50 and proceeds to step S60. When the display setting is not performed, the control device 4 makes a negative determination in step 50 and proceeds to step S70.

ステップS60において、制御装置4は、表示・再生装置14(図1)に対する表示情報を送出してステップS70へ進む。制御装置4は、例えば、撮像素子100の第2領域に基づいて取得した画像を表示情報として、表示・再生装置14(図1)に表示させる。また、制御装置4は、第1領域に基づいて取得した画像から対象物(例えば、図6における対向車91)を検出した場合に、表示・再生装置14(図1)に表示する画像(第2領域で取得した画像)の中で、対応する対象物(上記例においては対向車)を目立たせる。目立たせる態様は、例えば、対象物を囲う枠を表示したり、対象物の表示輝度を高めて明るく表示したり、明滅させたり、着色して表示させる。   In step S60, the control device 4 sends display information to the display / reproduction device 14 (FIG. 1), and proceeds to step S70. For example, the control device 4 causes the display / reproduction device 14 (FIG. 1) to display an image acquired based on the second region of the image sensor 100 as display information. Further, when the control device 4 detects an object (for example, the oncoming vehicle 91 in FIG. 6) from the image acquired based on the first region, the image (first display) displayed on the display / playback device 14 (FIG. 1). The corresponding object (the oncoming vehicle in the above example) is conspicuous among the images acquired in the two regions. As a conspicuous mode, for example, a frame surrounding the object is displayed, the display brightness of the object is increased to display it brightly, blinking, or colored.

制御装置4は、表示・再生装置14(図1)に表示させた画像(第2領域で取得した画像)に加えて、次のようなメッセージを表示・再生装置14に表示させてもよい。メッセージの例としては、例えば、第1領域に基づいて取得した画像から対象物(上記例における対向車)を検出した場合に、「前方に対向車がいます」というメッセージである。
なお、メッセージを表示・再生装置14に表示させる代わりに、またはメッセージの表示とともに、上記メッセージを音声再生させるための音声信号を送出してもよい。音声再生装置として、不図示のナビゲーション装置の音声装置を用いてもよい。
The control device 4 may display the following message on the display / playback device 14 in addition to the image displayed on the display / playback device 14 (FIG. 1) (image acquired in the second region). As an example of the message, for example, when an object (an oncoming vehicle in the above example) is detected from an image acquired based on the first region, the message is “There is an oncoming vehicle ahead”.
Instead of displaying the message on the display / playback device 14, or together with the display of the message, an audio signal for reproducing the message may be transmitted. An audio device of a navigation device (not shown) may be used as the audio reproducing device.

ステップS70において、制御装置4は、オフ操作されたか否かを判定する。制御装置4は、例えば車両1からオフ信号(例えば、システムオフ信号またはエンジンのオフ信号)を受けると、ステップS70を肯定判定し、所定のオフ処理を行って図10による処理を終了する。制御装置4は、例えば車両1からオフ信号を受けない場合は、ステップS70を否定判定してステップS30へ戻る。ステップS30へ戻る場合は、上述した処理を繰り返す。   In step S70, the control device 4 determines whether or not an off operation has been performed. For example, when the control device 4 receives an off signal (for example, a system off signal or an engine off signal) from the vehicle 1, the controller 4 makes an affirmative decision in step S70, performs a predetermined off process, and ends the process of FIG. For example, if the control device 4 does not receive an off signal from the vehicle 1, the control device 4 makes a negative determination in step S70 and returns to step S30. When returning to step S30, the above-described processing is repeated.

<撮像条件設定処理>
図11のフローチャートを参照して、上記撮像条件設定処理(S30)の詳細について説明する。図11のステップS31において、制御装置4は、視線検出装置16(図1)から視線情報を入力してステップS32Aへ進む。
<Imaging condition setting process>
Details of the imaging condition setting process (S30) will be described with reference to the flowchart of FIG. In step S31 of FIG. 11, the control device 4 inputs line-of-sight information from the line-of-sight detection device 16 (FIG. 1), and proceeds to step S32A.

ステップS32Aにおいて、制御装置4は、撮像チップ111の撮像面70に対し、奇数列のブロックによって構成される第1領域と、偶数列のブロックによって構成される第2領域とを設定してステップS32Bへ進む。ステップS32Bにおいて、制御装置4は、上記第1領域のうち、運転者の視線対象を含まない領域を第3領域81とし、第3領域81以外の領域を第4領域82としてステップS33へ進む。例えば、車両1の運転者が専ら前方正面を注視している場合、図7(a) や図7(b) に例示した場合と同様に、撮像面70における第1領域のうち、中央部が第4領域82とされ、中央部を除く領域が第3領域81とされる。   In step S32A, the control device 4 sets a first area composed of odd-numbered blocks and a second area composed of even-numbered blocks on the imaging surface 70 of the imaging chip 111, and sets step S32B. Proceed to In step S32B, the control device 4 sets the area not including the driver's line-of-sight target as the third area 81 in the first area, and sets the area other than the third area 81 as the fourth area 82, and proceeds to step S33. For example, when the driver of the vehicle 1 is gazing exclusively at the front front, the central portion of the first region on the imaging surface 70 is the same as in the case illustrated in FIG. 7A or 7B. The fourth region 82 is used, and the region excluding the central portion is the third region 81.

ステップS33において、制御装置4は視線検出装置16(図1)から視線情報を入力し、視線移動の有無を判定する。制御装置4は、例えば、視線移動量が所定値より大きい場合にステップS33を肯定判定してステップS34へ進む。制御装置4は、視線移動量が上記所定値より大きくない場合にはステップS33を否定判定してステップS36へ進む。   In step S <b> 33, the control device 4 inputs line-of-sight information from the line-of-sight detection device 16 (FIG. 1) and determines whether or not there is a line-of-sight movement. For example, when the line-of-sight movement amount is larger than a predetermined value, the control device 4 makes a positive determination in step S33 and proceeds to step S34. If the line-of-sight movement amount is not greater than the predetermined value, the control device 4 makes a negative determination in step S33 and proceeds to step S36.

ステップS34において、制御装置4は、視線の移動方向が、車両1の曲がる方向と一致するか否かを判定する。車両1の曲がる方向は、例えば、ターンシグナルスイッチ11の操作方向、ステアリングホイール10の回転操作方向、カメラ3Aで取得された前フレームの画像との比較、のいずれかに基づいて検出する。制御装置4は、視線の移動方向が車両1の曲がる方向と一致する場合にステップS34を肯定判定してステップS35へ進む。制御装置4は、視線の移動方向が車両1の曲がる方向と一致しない場合には、ステップS34を否定判定してステップS39へ進む。   In step S <b> 34, the control device 4 determines whether or not the moving direction of the line of sight matches the turning direction of the vehicle 1. The turning direction of the vehicle 1 is detected based on, for example, any one of the operation direction of the turn signal switch 11, the rotation operation direction of the steering wheel 10, and the comparison with the image of the previous frame acquired by the camera 3A. The control device 4 makes a positive determination in step S34 when the moving direction of the line of sight coincides with the turning direction of the vehicle 1, and proceeds to step S35. When the moving direction of the line of sight does not coincide with the turning direction of the vehicle 1, the control device 4 makes a negative determination in step S34 and proceeds to step S39.

ステップS35において、制御装置4は、図5、図6を例示して説明したように、撮像面70における第1領域のうち、右折時や左折時において運転者の視線が向かう方向と逆方向に位置する領域を第3領域81とし、第3領域81以外の領域(すなわち視線が向かう方向の領域)を第4領域82として設定し、ステップS3Eへ進む。   In step S35, as described with reference to FIGS. 5 and 6, the control device 4 in the first region on the imaging surface 70 is in a direction opposite to the direction in which the driver's line of sight is directed when turning right or turning left. The area to be positioned is set as the third area 81, and the area other than the third area 81 (that is, the area in the direction of the line of sight) is set as the fourth area 82, and the process proceeds to step S3E.

ステップS34を否定判定して進むステップS39において、制御装置4は、視線の移動方向が、撮像面70上を移動する対象物の像の移動方向と一致するか否かを判定する。対象物の像の移動方向は、例えば、カメラ3Aで取得された前フレームの画像との比較に基づいて検出する。制御装置4は、視線の移動方向が対象物の像の移動方向と一致する場合にステップS39を肯定判定してステップS35へ進む。制御装置4は、視線の移動方向が対象物の像の移動方向と一致しない場合には、ステップS39を否定判定してステップS3Aへ進む。ステップS39を肯定判定して進むステップS35では、制御装置4は、図9を例示して上述したように、撮像面70における第1領域のうち、車両97を追って視線が向かう左方向と逆方向に位置する領域を第3領域81とし、第3領域81以外の領域(すなわち視線が向かう方向の領域)を第4領域82として設定し、ステップS3Eへ進む。   In step S39, which proceeds after making a negative determination in step S34, the control device 4 determines whether or not the movement direction of the line of sight matches the movement direction of the image of the object moving on the imaging surface 70. The moving direction of the image of the object is detected based on, for example, comparison with the image of the previous frame acquired by the camera 3A. When the movement direction of the line of sight matches the movement direction of the image of the object, the control device 4 makes a positive determination in step S39 and proceeds to step S35. When the moving direction of the line of sight does not match the moving direction of the image of the object, the control device 4 makes a negative determination in step S39 and proceeds to step S3A. In step S35 that proceeds with an affirmative determination in step S39, the control device 4 reverses the left direction in which the line of sight follows the vehicle 97 in the first area on the imaging surface 70 as described above with reference to FIG. The region located at is set as the third region 81, and the region other than the third region 81 (that is, the region in the direction of the line of sight) is set as the fourth region 82, and the process proceeds to step S3E.

ステップS3Aにおいて、制御装置4は、撮像面70に結像される被写体像に太陽の像が含まれるか否かを判定する。制御装置4は、例えば、画像データの値が所定値を超えている領域が存在する場合にステップS3Aを肯定判定してステップS3Bへ進み、画像データの値が上記所定値を超えている領域が存在しない場合には、ステップS3Aを否定判定してステップS3Eへ進む。ステップS3Aを否定判定する場合、制御装置4は、ステップS32Bにおいて設定した第3領域81および第4領域82を維持する。   In step S <b> 3 </ b> A, the control device 4 determines whether or not a sun image is included in the subject image formed on the imaging surface 70. For example, when there is a region where the value of the image data exceeds a predetermined value, the control device 4 makes an affirmative determination in step S3A and proceeds to step S3B, where there is a region where the value of the image data exceeds the predetermined value. If not, step S3A is negatively determined and the process proceeds to step S3E. When negative determination is made in step S3A, the control device 4 maintains the third area 81 and the fourth area 82 set in step S32B.

ステップS3Bにおいて、制御装置4は、移動した視線位置が太陽96(図8)の像の位置から離れているか否かを判定する。制御装置4は、視線位置が太陽96に相当する位置から離れている(運転者が、太陽から視線をそらしている)場合にステップS3Bを肯定判定してステップS3Cへ進む。制御装置4は、視線位置が太陽96に相当する位置にある(運転者が、太陽へ視線を向けている)場合にステップS3Bを否定判定してステップS3Eへ進む。ステップS3Bを否定判定する場合、制御装置4は、ステップS32Bにおいて設定した第3領域81および第4領域82を維持する。   In step S3B, the control device 4 determines whether or not the moved line-of-sight position is away from the position of the image of the sun 96 (FIG. 8). When the line-of-sight position is away from the position corresponding to the sun 96 (the driver is turning the line of sight from the sun), the control device 4 makes a positive determination in step S3B and proceeds to step S3C. The control device 4 makes a negative determination in step S3B when the line-of-sight position is at a position corresponding to the sun 96 (the driver directs the line of sight toward the sun), and proceeds to step S3E. When negative determination is made in step S3B, the control device 4 maintains the third area 81 and the fourth area 82 set in step S32B.

ステップS3Cにおいて、制御装置4は、図8を参照して説明したように、撮像面70における第1領域のうち、太陽96の像の周囲の高輝度領域90(運転者の視線位置よりも太陽96の像の位置に近い領域)を第3領域81とし、第3領域81以外の領域を第4領域82として設定し、ステップS3Dへ進む。   In step S <b> 3 </ b> C, as described with reference to FIG. 8, the control device 4, among the first regions on the imaging surface 70, the high-intensity region 90 around the image of the sun 96 ( The region near the position of the 96 images) is set as the third region 81, and the region other than the third region 81 is set as the fourth region 82, and the process proceeds to step S3D.

ステップS3Dにおいて、制御装置4はカメラ3Aへ指示を送り、太陽96の像の領域について、第3領域81のゲインより低く設定させてステップS3Eへ進む。具体的には、太陽96の像に対応する単位領域131(図2)に対し、第3領域81に対応する単位領域131に設定するゲインより低いゲインを設定する。   In step S3D, the control device 4 sends an instruction to the camera 3A, sets the area of the image of the sun 96 to be lower than the gain of the third area 81, and proceeds to step S3E. Specifically, a gain lower than the gain set in the unit region 131 corresponding to the third region 81 is set for the unit region 131 (FIG. 2) corresponding to the image of the sun 96.

上述したステップS33を否定判定して進むステップS36において、制御装置4は、車両1が直進中で、かつ運転者の視線位置が前方被写界の略中央にあるか否かを判定する。制御装置4は、車両1が直進中、かつ運転者の視線位置が前方被写界の略中央に相当する位置にある場合、ステップS36を肯定判定してステップS37へ進む。制御装置4は、車両1が直進中でない、または運転者の視線位置が略中央に相当する位置にない場合、ステップS36を否定判定してステップS38へ進む。   In step S36, which proceeds after making a negative determination in step S33 described above, the control device 4 determines whether or not the vehicle 1 is traveling straight ahead and the driver's line-of-sight position is in the approximate center of the front field. When the vehicle 1 is traveling straight ahead and the driver's line-of-sight position is at a position corresponding to the approximate center of the front field, the control device 4 makes a positive determination in step S36 and proceeds to step S37. If the vehicle 1 is not traveling straight or the driver's line-of-sight position is not at a position substantially corresponding to the center, the control device 4 makes a negative determination in step S36 and proceeds to step S38.

ステップS37において、制御装置4は、図7(a) 、図7(b) を例示して説明したように、撮像面70における第1領域のうち、視線が向かう中央方向と逆方向に位置する周辺部の領域を第3領域81とし、第3領域81以外の領域(すなわち画面の略中央の領域)を第4領域82として設定し、ステップS3Eへ進む。   In step S <b> 37, the control device 4 is located in a direction opposite to the central direction in which the line of sight is directed in the first region on the imaging surface 70, as described with reference to FIGS. 7A and 7B. The peripheral region is set as the third region 81, and the region other than the third region 81 (that is, the region at the approximate center of the screen) is set as the fourth region 82, and the process proceeds to step S3E.

上述したステップS36を否定判定して進むステップS38において、制御装置4は、車両1が減速中で、かつ運転者の視線位置が前方被写界の略中央にあるか否かを判定する。車両1の減速は、例えば、ブレーキペダル8aの踏み込み信号、車速Vの減少、カメラ3Aで取得された前フレームの画像との比較、のいずれかに基づいて検出する。制御装置4は、車両1が減速中、かつ運転者の視線位置が前方被写界の略中央に相当する位置にある場合、ステップS38を肯定判定してステップS3Eへ進む。制御装置4は、車両1が減速中でない、または運転者の視線位置が略中央に相当する位置にない場合、ステップS38を否定判定してステップS3Eへ進む。   In step S38, which proceeds after making a negative determination in step S36 described above, the control device 4 determines whether or not the vehicle 1 is decelerating and the driver's line-of-sight position is approximately in the center of the front field. The deceleration of the vehicle 1 is detected based on, for example, any one of the depression signal of the brake pedal 8a, the decrease in the vehicle speed V, and the comparison with the image of the previous frame acquired by the camera 3A. When the vehicle 1 is decelerating and the driver's line-of-sight position is at a position corresponding to the approximate center of the front field, the control device 4 makes a positive determination in step S38 and proceeds to step S3E. When the vehicle 1 is not decelerating or the driver's line-of-sight position is not at a position substantially corresponding to the center, the control device 4 makes a negative determination in step S38 and proceeds to step S3E.

ステップS3Eにおいて、制御装置4はカメラ3Aへ指示を送り、第3領域81のフレームレートを第4領域82のフレームレートよりも高く設定させて、図10のステップS40へ進む。例えば、第3領域81のフレームレートを毎秒120フレーム(120fps)とし、第4領域82のフレームレートを30fpsとする。これは、運転者による注目度が低い領域についての画像情報を取得する頻度を高めるためである。   In step S3E, the control device 4 sends an instruction to the camera 3A, sets the frame rate of the third area 81 higher than the frame rate of the fourth area 82, and proceeds to step S40 in FIG. For example, the frame rate of the third area 81 is 120 frames per second (120 fps), and the frame rate of the fourth area 82 is 30 fps. This is to increase the frequency of acquiring image information about a region where the driver's attention level is low.

<後方カメラ>
制御装置4は、車両1の前方を撮像するカメラ3Aに対する第3領域81および第4領域82の設定情報に基づいて、車両1の後方を撮像するカメラ3Bに対する第3領域および第4領域の設定を以下のように行う。
なお、制御装置4は、後方を撮像するカメラ3Bにおいても図4(a)のように第1領域および第2領域を設定し、第1領域に基づいて取得した画像を上述した車両1の走行路および対象物を検出するために用いる。また、制御装置4は、第2領域に基づいて取得した画像を、表示・再生装置14(図1)に対する表示に用いる。制御装置4はさらに、第1領域において、第4領域と第4領域より注目度を高めたい第3領域とを設定し、第3領域と第4領域との間において異なる条件で電荷蓄積(撮像)を行わせる。例えば、後方カメラ3Bの第3領域のフレームレートを120fpsとし、後方カメラ3Bの第4領域のフレームレートを30fpsとする。
<Rear camera>
The control device 4 sets the third region and the fourth region for the camera 3B that captures the rear of the vehicle 1 based on the setting information of the third region 81 and the fourth region 82 for the camera 3A that captures the front of the vehicle 1. Is performed as follows.
Note that the control device 4 also sets the first region and the second region as shown in FIG. 4A even in the camera 3B that captures the rear, and the image of the vehicle 1 described above based on the image acquired based on the first region is set. Used to detect roads and objects. Further, the control device 4 uses the image acquired based on the second region for display on the display / playback device 14 (FIG. 1). The control device 4 further sets a fourth region and a third region in which the degree of attention is to be higher than that in the fourth region in the first region, and accumulates charges (imaging images) under different conditions between the third region and the fourth region. ). For example, the frame rate of the third area of the rear camera 3B is 120 fps, and the frame rate of the fourth area of the rear camera 3B is 30 fps.

<左折時>
図12は、交差点を左折しようとする車両1に備えられた後方のカメラ3Bの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。車両1の左サイドを左側に図示するように、図5〜図9の場合と比べて左右を反転させて図示している。図12において、撮像チップ111の撮像面(撮影領域)70には、車両1の後方の道路の像と、車両1に後続する二輪車98の像と、さらに後続する車両99の像が含まれる。
<When turning left>
FIG. 12 is a diagram schematically showing an image of a subject (object) that is imaged on the imaging chip 111 of the rear camera 3B provided in the vehicle 1 that is about to turn left at the intersection. As shown in the left side of the vehicle 1 on the left side, the left and right sides are reversed as compared with the case of FIGS. In FIG. 12, the imaging surface (imaging area) 70 of the imaging chip 111 includes an image of the road behind the vehicle 1, an image of the two-wheeled vehicle 98 that follows the vehicle 1, and an image of the vehicle 99 that further follows.

図6を参照して上述したように、左折車両の運転者は、前方左側の領域90に対する注目度が高くなる。そこで、制御装置4は、運転者の注目度が低い後方について、とくに車両1の左側をすり抜けるおそれのある二輪車98の画像情報の取得頻度を高めるように、図12に例示する撮像面70における第1領域のうち、後方左側の第3領域81と、第3領域81を除く右側の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。図6および図12によれば、左折時の前方のカメラ3Aは、前方に向かって右側を第3領域とし、左折時の後方のカメラ3Bは、後方に向かって右側を第3領域とする。   As described above with reference to FIG. 6, the driver of the left turn vehicle has a high degree of attention to the area 90 on the left front side. Therefore, the control device 4 is arranged on the imaging surface 70 illustrated in FIG. 12 so as to increase the acquisition frequency of the image information of the two-wheeled vehicle 98 that may pass through the left side of the vehicle 1 in the rear where the driver's attention is low. In one region, charge accumulation (imaging) is performed by setting different conditions between the third region 81 on the left rear side and the fourth region 82 (shaded) on the right side excluding the third region 81. According to FIGS. 6 and 12, the front camera 3 </ b> A at the left turn has the third area on the right side as it is forward, and the rear camera 3 </ b> B at the left turn has the third area on the right side as it is rearward.

<右折時>
右折時の場合は、左折時の場合と左右の設定を入れ替えればよい。すなわち、図5を参照して上述したように、右折車両の運転者は、前方右側の領域90に対する注目度が高くなる。そこで、制御装置4は、運転者の注目度が低い後方について、とくに車両1の右側をすり抜ける車両の画像情報の取得頻度を高めるように、撮像面70における第1領域のうち、後方右側の第3領域81と、第3領域81を除く左側の第4領域82との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。すなわち、右折時の前方のカメラ3Aは、前方に向かって左側を第3領域とし(図5)、右折時の後方のカメラ3Bは、後方に向かって左側を第3領域とする。
<When turning right>
In the case of a right turn, the left and right settings may be interchanged with those in a left turn. That is, as described above with reference to FIG. 5, the driver of the right turn vehicle has a high degree of attention to the area 90 on the right front side. Therefore, the control device 4 is configured to increase the frequency of acquiring the image information of the vehicle passing through the right side of the vehicle 1 in the rear where the degree of attention of the driver is low. Charge accumulation (imaging) is performed by setting different conditions between the third region 81 and the left fourth region 82 excluding the third region 81. That is, the camera 3A in front of the right turn has the third area on the left side as viewed forward (FIG. 5), and the camera 3B in the rear of the right turn has the third area on the left side as viewed in the rear.

左折時および右折時における後方のカメラ3Bに対する第3領域81および第4領域82の設定は、前方のカメラ3Aに対するステップS35(図11)の処理と前後して行うものとする(同時でもよい)。   The setting of the third area 81 and the fourth area 82 for the rear camera 3B at the time of left turn and right turn is performed before and after the process of step S35 (FIG. 11) for the front camera 3A (may be simultaneous). .

<減速時>
図21は、例えば高速道路において減速する車両1に備えられた後方のカメラ3Bの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図21において、撮像チップ111の撮像面(撮影領域)70には、車両1の後方の道路の像と、後続する車両99の像が含まれる。一般に、ブレーキをかけた車両の運転者は、専ら前方中央を含む領域90(例えば図7(b))に対する注目度が高くなる。そこで、制御装置4は、運転者の注目度が低い後方について、とくに車両1が減速すると車両1に接近するおそれのある車両99の画像情報の取得頻度を高めるように、図21に例示する撮像面70における第1領域のうち、略中央の第3領域81と、第3領域81を除く周辺部の第4領域82(網掛け)との間に異なる条件を設定して電荷蓄積(撮像)を行わせる。
<Deceleration>
FIG. 21 is a diagram schematically illustrating an image of a subject (target object) formed on the imaging chip 111 of the rear camera 3B provided in the vehicle 1 that decelerates on an expressway, for example. In FIG. 21, the imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a road behind the vehicle 1 and an image of the following vehicle 99. In general, a driver of a vehicle who has applied a brake has a high degree of attention to a region 90 (for example, FIG. 7B) including the front center. Therefore, the control device 4 exemplifies the imaging illustrated in FIG. 21 so as to increase the acquisition frequency of the image information of the vehicle 99 that may approach the vehicle 1 when the vehicle 1 decelerates, especially in the rear where the driver's attention is low. Charge accumulation (imaging) by setting different conditions between the third region 81 in the substantially central portion of the first region on the surface 70 and the fourth region 82 (shaded) in the peripheral portion excluding the third region 81. To do.

減速時における後方のカメラ3Bに対する第3領域81および第4領域82の設定は、ステップS38(図11)を肯定判定して進む、前方のカメラ3Aに対するステップS37の処理と前後して行うものとする(同時でもよい)。
なお、上述の実施の形態では、視線検出装置16により乗員の視線を検出していたが、乗員の視線を検出せずに第1領域全体のフレームレートを高く設定して、対象物の検出を行うようにしてもよい。
The setting of the third area 81 and the fourth area 82 for the rear camera 3B at the time of deceleration is performed before or after the process of step S37 for the front camera 3A, which proceeds with an affirmative determination in step S38 (FIG. 11). Yes (or at the same time).
In the above-described embodiment, the sight line of the occupant is detected by the sight line detection device 16, but the frame rate of the entire first region is set high without detecting the sight line of the occupant to detect the object. You may make it perform.

上述した第一の実施の形態によれば、次の作用効果が得られる。
(1)電子機器の一例である撮像装置は、撮像面における第1領域と、第1領域とは異なる第2領域とで、それぞれ異なる撮像条件により車外の第1動画と第2動画との撮像を行うカメラ3Aと、第1動画において対象物の検出を行う制御装置4と、制御装置4で検出した対象物の情報を第2動画により表示する表示・再生装置14と、を備えた。これにより、第1領域に対して対象物の検出に適した撮像条件を設定できる。また、検出した対象物を、乗員に視覚的に知らせることができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) An imaging device that is an example of an electronic device captures a first moving image and a second moving image outside a vehicle under different imaging conditions in a first region on the imaging surface and a second region different from the first region. 3A, a control device 4 that detects an object in the first moving image, and a display / playback device 14 that displays information about the object detected by the control device 4 in a second moving image. Thereby, the imaging condition suitable for the detection of the object can be set for the first region. In addition, the detected object can be visually notified to the occupant.

(2)電子機器の一例である撮像装置は、撮像面における第1領域と、第1領域とは異なる第2領域とで、それぞれ異なる撮像条件により車外の第1動画と第2動画との撮像を行うカメラ3Aと、運転者の視線位置を検出する視線検出装置16と、視線検出装置16による検出結果に基づいて、第1動画において第1領域のうちの視線位置を含まない第3領域81で対象物の検出を行う制御装置4と、制御装置4で検出した対象物の情報を第2動画により表示する表示・再生装置14と、を備えた。これにより、運転者による注目度が低い第3領域81に対して対象物の検出に適した撮像条件を設定できる。また、検出した対象物を、乗員に視覚的に知らせることができる。 (2) An imaging device which is an example of an electronic apparatus captures a first moving image and a second moving image outside a vehicle under different imaging conditions in a first region on the imaging surface and a second region different from the first region. 3A that does not include the line-of-sight position of the first area in the first moving image based on the detection result by the line-of-sight detection device 16 and the camera 3A that detects the driver's line-of-sight position. The control device 4 for detecting the object in the above and the display / reproduction device 14 for displaying the information of the object detected by the control device 4 by the second moving image are provided. Thereby, the imaging condition suitable for the detection of the object can be set for the third region 81 having a low degree of attention by the driver. In addition, the detected object can be visually notified to the occupant.

(3)カメラ3Aは、第1領域のフレームレートを第2領域のフレームレートよりも高くするので、表示に用いる第2動画に比べて、対象物の検出に用いる第1動画について画像情報を取得する頻度を高くすることができる。 (3) Since the camera 3A makes the frame rate of the first region higher than the frame rate of the second region, the camera 3A acquires image information about the first moving image used for detection of the object as compared with the second moving image used for display. The frequency of doing can be increased.

(4)撮像装置は、第1領域のうちの視線位置を含まない第3領域81と、第1領域のうちの視線位置を含む第4領域82とで、第1動画の撮像条件を異ならせて設定する制御装置4を備える。これにより、運転者の視線が向く第4領域と、運転者の視線が向かない第3領域とで、それぞれに適した撮像条件を設定し得る。 (4) The imaging device varies imaging conditions of the first moving image in the third area 81 that does not include the line-of-sight position in the first area and the fourth area 82 that includes the line-of-sight position in the first area. The control device 4 is set. Thereby, imaging conditions suitable for the fourth region where the driver's line of sight is directed and the third region where the driver's line of sight is not directed can be set.

(5)制御装置4は、第1領域のうちの視線位置を含まない第3領域81のフレームレートを、第1領域のうちの視線位置を含む第4領域82のフレームレートよりも高く設定する。これにより、運転者の視線が向く第4領域に比べて、運転者の視線が向かない第3領域について画像情報を取得する頻度を高めることができる。 (5) The control device 4 sets the frame rate of the third area 81 not including the line-of-sight position in the first area higher than the frame rate of the fourth area 82 including the line-of-sight position in the first area. . Thereby, the frequency which acquires image information about the 3rd field where a driver's line of sight does not turn can be raised compared with the 4th field where a driver's line of sight faces.

なお、上述の実施の形態では、制御装置4の制御によりカメラ3A(3B)を制御したが、カメラ3A(3B)の制御の一部を、カメラ3A(3B)の制御部35により行うようにしてもよい。   In the above-described embodiment, the camera 3A (3B) is controlled by the control device 4, but a part of the control of the camera 3A (3B) is performed by the control unit 35 of the camera 3A (3B). May be.

(変形例1)
制御装置4は、車両1の前方を撮像するカメラ3Aにより取得された画像情報に基づいて、車両1の後方を撮像するカメラ3Bの第1領域に対して第3領域81および第4領域82の設定を行うようにしてもよい。
(Modification 1)
Based on the image information acquired by the camera 3 </ b> A that captures the front of the vehicle 1, the control device 4 sets the third region 81 and the fourth region 82 with respect to the first region of the camera 3 </ b> B that captures the rear of the vehicle 1. You may make it perform a setting.

例えば、カメラ3Aで取得された車両1の前方の画像の右側に図8に例示したような太陽96の像が検出されている場合を説明する。変形例1において、制御装置4は、車両1の前方を撮像するカメラ3Aに対し、撮像面70における第1領域のうち右側領域(前方右)に対するゲインを、撮像面70における第1領域の左側領域(前方左)に対するゲインより低く設定する。一方、制御装置4は、車両1の後方を撮像するカメラ3Bに対しては、撮像面70における第1領域の左右両側領域(後方左および後方右)に対するゲインを等しく設定する。   For example, the case where the image of the sun 96 as illustrated in FIG. 8 is detected on the right side of the front image of the vehicle 1 acquired by the camera 3A will be described. In the first modification, the control device 4 gives the gain for the right region (front right) of the first region on the imaging surface 70 to the camera 3A that captures the front of the vehicle 1, and the left side of the first region on the imaging surface 70. Set lower than the gain for the area (front left). On the other hand, for the camera 3 </ b> B that captures the rear side of the vehicle 1, the control device 4 sets the gains for the left and right side regions (rear left and rear right) of the first region on the imaging surface 70 to be equal.

上述した状態で車両1が左折する場合、車両1が左折した後において車両1の後方を撮像するカメラ3Bに太陽96の像が写り込む可能性がある。具体的には、左折後の車両1の後方に向かって左側領域(すなわち車両1の後方右)に、太陽96の像が写り込む。そこで、制御装置4は、カメラ3Bの撮像面70における第1領域のうち左側領域(後方右)に対するゲインを、撮像面70における第1領域の右側領域(後方左)に対するゲインより低く設定する。制御装置4はさらに、車両1の前方を撮像するカメラ3Aの撮像面70に対しては、撮像面70における第1領域の左右両側領域(前方左および前方右)に対するゲインを等しくするように設定を戻す。   When the vehicle 1 makes a left turn in the state described above, there is a possibility that an image of the sun 96 appears in the camera 3B that captures the rear of the vehicle 1 after the vehicle 1 makes a left turn. Specifically, an image of the sun 96 appears in the left region (that is, the rear right of the vehicle 1) toward the rear of the vehicle 1 after the left turn. Therefore, the control device 4 sets the gain for the left region (rear right) in the first region on the imaging surface 70 of the camera 3B to be lower than the gain for the right region (rear left) of the first region on the imaging surface 70. Further, the control device 4 is set so that the gains for the left and right side regions (front left and front right) of the first region on the imaging surface 70 are equal for the imaging surface 70 of the camera 3A that images the front of the vehicle 1. To return.

変形例1によれば、車両1の前方を撮像するカメラ3Aにより取得された画像情報に基づいて、車両1の後方を撮像するカメラ3Bの第1領域に左右両側領域の設定を行うことにより、例えば、後方のカメラ3Bに太陽96の像が写り込むおそれを事前(本例では左折前)に予測して左折時にすみやかにゲインを低く設定するなど、撮像信号の飽和の防止に向けて適切な対処が可能になる。   According to the first modification, by setting the left and right regions in the first region of the camera 3B that captures the rear of the vehicle 1 based on image information acquired by the camera 3A that captures the front of the vehicle 1, For example, it is appropriate to prevent the saturation of the imaging signal, such as predicting in advance (before the left turn in this example) that the image of the sun 96 will appear in the rear camera 3B and setting the gain immediately when turning left. It becomes possible to deal with it.

(変形例2)
一般に、運転者の緊張度が高まると、運転者の視線の移動範囲が小さくなる。そこで、制御装置4は、運転者の緊張度が高まる場面で、前方のカメラ3Aの撮像面70における第1領域において、通常時より第3領域81の範囲を拡げるようにしてもよい。運転者の緊張度が高まる場面の例として、夜間の走行や降雨時の走行が挙げられる。制御装置4は、ヘッドライトが点灯操作された場合や、ワイパーがオン操作された場合において、運転者の緊張度が高まると判断して前方のカメラ3Aの第1領域において通常時より第3領域81を拡げるように制御する。
(Modification 2)
Generally, when the driver's tension increases, the movement range of the driver's line of sight decreases. Therefore, the control device 4 may expand the range of the third region 81 from the normal time in the first region on the imaging surface 70 of the front camera 3A in a scene where the tension of the driver increases. An example of a scene in which the driver's tension increases is traveling at night or traveling during rain. When the headlight is turned on or the wiper is turned on, the control device 4 determines that the driver's tension is increased, and the first region of the front camera 3A is the third region from the normal time. 81 is controlled to expand.

また、運転者の緊張度を運転者の体温や心拍数に基づいて判定してもよい。例えば、運転席のシートに温度センサや心拍センサを備え、所定温度以上の温度検知や、所定数以上の心拍数が検知された場合において、制御装置4が、運転者の緊張度が高まったと判断して前方のカメラ3Aの第1領域において通常時より第3領域81を拡げるように制御する。   Alternatively, the driver's tension may be determined based on the driver's body temperature or heart rate. For example, if the seat of the driver's seat is provided with a temperature sensor or a heart rate sensor, and the temperature detection above a predetermined temperature or the heart rate above a predetermined number is detected, the control device 4 determines that the driver's tension has increased. Then, control is performed so that the third area 81 is expanded from the normal time in the first area of the front camera 3A.

変形例2によれば、運転者の緊張により運転者の注目度が低くなる領域が拡がる(換言すれば、運転者の注目度が高い領域が狭くなる)場合において、第1領域における第3領域81を拡げることができる。第3領域81を拡げておくと、第3領域81における撮像頻度を第4領域82における撮像頻度より高くする場合には、運転者による注目度の低下分を、第3領域81に基づく画像を用いて補うことが可能になる。   According to the second modification, in the case where the region where the driver's attention level is reduced due to the driver's tension is expanded (in other words, the region where the driver's attention level is high is narrowed), the third region in the first region. 81 can be expanded. If the third area 81 is expanded, when the imaging frequency in the third area 81 is made higher than the imaging frequency in the fourth area 82, an image based on the third area 81 is used to reduce the driver's attention reduction. It can be used to make up.

(変形例3)
上記実施の形態では、カメラ3A(カメラ3B)における第1領域のうち、第3領域81のフレームレートを120fpsとし、第4領域82のフレームレートを30fpsとすることによって、フレームレートを2段階に異ならせる例を説明した。この代わりに、第3領域81と第4領域82との間に緩衝領域を設け、フレームレートを多段階に異ならせるようにしてもよい。例えば、緩衝領域のフレームレートを第3領域81のフレームレートと第4領域82のフレームレートとの中間値(例えば75fps)にすることにより、フレームレートを多段階に変化させる。
(Modification 3)
In the above embodiment, the frame rate of the third region 81 of the first region in the camera 3A (camera 3B) is 120 fps, and the frame rate of the fourth region 82 is 30 fps. The example of making it different was explained. Instead, a buffer area may be provided between the third area 81 and the fourth area 82, and the frame rate may be varied in multiple stages. For example, the frame rate is changed in multiple stages by setting the frame rate of the buffer area to an intermediate value (for example, 75 fps) between the frame rate of the third area 81 and the frame rate of the fourth area 82.

また、緩衝領域におけるフレームレートを徐々に変化させるようにしてもよい。例えば、緩衝領域のうち第3領域81との境界に近い部分のフレームレートを90fpsとし、緩衝領域のうち第4領域82との境界に近い部分のフレームレートを60fpsとする。このような緩衝領域を設けることで、フレームレートの値が境界部分で大きく変化する状態を避けることができる。   Further, the frame rate in the buffer area may be gradually changed. For example, the frame rate of the buffer region near the boundary with the third region 81 is 90 fps, and the buffer rate of the buffer region near the boundary with the fourth region 82 is 60 fps. By providing such a buffer area, it is possible to avoid a state in which the value of the frame rate changes greatly at the boundary portion.

(変形例4)
変形例4では、図1において通信部17が追加される。通信部17は、例えばDSRC(Dedicated Short Range Communication)と呼ばれる狭域通信を行う無線通信装置である。変形例4において、通信部17は、例えば道路に設置された情報提供システムからの情報を取得する。
(Modification 4)
In Modification 4, a communication unit 17 is added in FIG. The communication unit 17 is a wireless communication device that performs narrow area communication called DSRC (Dedicated Short Range Communication), for example. In the modification 4, the communication part 17 acquires the information from the information provision system installed, for example on the road.

情報提供システムは、車両1に搭載されるカメラ3A(3B)と同様のカメラを備えており、例えば、見通しが悪い交差点や道路の曲がり角等にあらかじめ設置される。情報提供システムは、車両1が見通しの悪い地点へ進入した場合に、車両1のカメラ3A(3B)からは撮影できない範囲(例えば、車両1から見て塀や建物等の陰に隠れる死角)を所定のフレームレートで撮影する。情報提供システムは、撮影した画像情報をのせた無線信号を車両1へ送信する。車両1の通信部17は、情報提供システムから送信された無線信号を受信し、この無線信号にのせられている画像情報を制御装置4へ送出する。   The information providing system includes a camera similar to the camera 3A (3B) mounted on the vehicle 1, and is installed in advance at, for example, an intersection with poor visibility or a corner of a road. When the vehicle 1 enters a point with poor visibility, the information providing system provides a range that cannot be captured from the camera 3A (3B) of the vehicle 1 (for example, a blind spot hidden behind a fence or a building as viewed from the vehicle 1). Shoot at a predetermined frame rate. The information providing system transmits a radio signal carrying the photographed image information to the vehicle 1. The communication unit 17 of the vehicle 1 receives the wireless signal transmitted from the information providing system, and sends the image information carried on the wireless signal to the control device 4.

制御装置4は、例えばカメラ3Aの撮像面70において設定した第3領域81が、上述した撮影できない範囲に該当する場合、カメラ3Aの上記第3領域に基づいて取得された画像からではなく、情報提供システムから送信された画像に基づいて対象物(歩行者、二輪車、他の車両など)を検出する。   For example, when the third area 81 set on the imaging surface 70 of the camera 3A corresponds to the above-described non-photographable range, the control device 4 does not use the information acquired based on the third area of the camera 3A, but the information An object (pedestrian, two-wheeled vehicle, other vehicle, etc.) is detected based on the image transmitted from the providing system.

変形例4によれば、車両1のカメラ3A(3B)において死角が生じている場合でも、車両1のカメラ3A(3B)と異なる外部のカメラによって取得された画像に基づいて対象物の検出が可能になる。   According to the modification 4, even when a blind spot is generated in the camera 3A (3B) of the vehicle 1, the detection of the object is performed based on an image acquired by an external camera different from the camera 3A (3B) of the vehicle 1. It becomes possible.

(変形例5)
図14は、車両1に備えられた前方のカメラ3Aの撮像チップ111上に結像される被写体(対象物)の像を模式的に示す図である。図14において、撮像チップ111の撮像面(撮影領域)70には、車両1の進行方向に位置するT字路の像が含まれる。撮像面70にはさらに、T字路に設けられたカーブミラー88Aおよびカーブミラー88Bが写っている。
図14の像のうち、奇数列が第1領域に相当し、偶数列が第2領域に相当する点、および、制御装置4が第1領域と第2領域との間で異なるフレームレートを設定して撮像するようにカメラ3Aを制御する点は、上述した実施の形態と同様である。
(Modification 5)
FIG. 14 is a diagram schematically illustrating an image of a subject (target object) formed on the imaging chip 111 of the front camera 3 </ b> A provided in the vehicle 1. In FIG. 14, the imaging surface (imaging area) 70 of the imaging chip 111 includes an image of a T-junction positioned in the traveling direction of the vehicle 1. The imaging surface 70 further includes a curve mirror 88A and a curve mirror 88B provided on the T-junction.
In the image of FIG. 14, the odd number columns correspond to the first region, the even number columns correspond to the second region, and the control device 4 sets different frame rates between the first region and the second region. The point of controlling the camera 3A so as to capture an image is the same as in the above-described embodiment.

変形例5において、制御装置4は、カメラ3Aで取得された上記第1領域に基づく画像からカーブミラーを検出した場合に、カメラ3Aで取得された上記第2領域に基づくカーブミラーの画像を表示・再生装置14(図1)に表示させる。この際に、カーブミラー88A、88Bの鏡面の部分を大きく引き伸ばして表示する。なお、カーブミラー88A、88Bの鏡面の部分を大きく引き伸ばす際に、鏡面の湾曲した像の湾曲が直線的になるように補正してもよい。   In Modification 5, when the control device 4 detects a curve mirror from an image based on the first region acquired by the camera 3A, the control device 4 displays an image of the curve mirror based on the second region acquired by the camera 3A. Display on the playback device 14 (FIG. 1). At this time, the mirror surface portions of the curve mirrors 88A and 88B are greatly enlarged and displayed. When the mirror surface portions of the curve mirrors 88A and 88B are greatly extended, the curvature of the curved image of the mirror surface may be corrected so as to be linear.

カーブミラー88A、88Bの鏡面の部分の拡大表示は、いわゆる電子ズーム処理によって、表示に用いる画素データの間引き率を低くする手法を用いてもよい。間引き率を低く変更することで、変更前に比べて解像度を高めることができる。   For the enlarged display of the mirror surface portions of the curve mirrors 88A and 88B, a method of reducing the thinning rate of pixel data used for display by so-called electronic zoom processing may be used. By changing the thinning rate low, the resolution can be increased compared to before the change.

しかしながら、変形例5においては、上記第2領域のうちカーブミラー88A、88Bの鏡面が写る領域(第5領域とする)に対して、鏡面以外の領域(第6領域とする)に比べて高精細表示に適した撮像条件を設定する。例えば、第5領域に含まれる画素の間引き率を、第6領域に含まれる画素の間引き率より低く設定するとともに、第5領域におけるフレームレートを、第6領域におけるフレームレートより高く設定する。間引き率を低くするほど解像度は高まる。解像度とフレームレートの少なくとも1つを高くすることにより、高精細表示に適した撮像条件となる。
なお、第5領域と第6領域との間でフレームレートや間引き率などの全ての撮像条件を異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。
However, in the modified example 5, the area where the mirror surfaces of the curved mirrors 88A and 88B are reflected in the second area (referred to as the fifth area) is higher than the area other than the mirror surface (referred to as the sixth area). Set imaging conditions suitable for fine display. For example, the thinning rate of pixels included in the fifth region is set lower than the thinning rate of pixels included in the sixth region, and the frame rate in the fifth region is set higher than the frame rate in the sixth region. The resolution increases as the decimation rate decreases. By increasing at least one of the resolution and the frame rate, imaging conditions suitable for high-definition display are obtained.
Note that it is not necessary to make all the imaging conditions such as the frame rate and the thinning rate different between the fifth area and the sixth area, and at least one of them may be made different.

図15は、第5領域、第6領域に基づく画像を表示する表示・再生装置14(図1)の表示画面を例示する図である。図15において、例えば、表示画面の左側にカーブミラー88Aが大きく引き伸ばして表示されるとともに、表示画面の右側にカーブミラー88Bが大きく引き伸ばして表示される。斜線領域は、カーブミラー88A、88Bの鏡面に相当する領域よりも粗い画質で表わされていることを示す。画質の相違は、上記第5領域と第6領域との間で異なる撮像条件を設定したことによる。   FIG. 15 is a diagram illustrating a display screen of the display / playback apparatus 14 (FIG. 1) that displays an image based on the fifth area and the sixth area. In FIG. 15, for example, the curve mirror 88A is greatly enlarged and displayed on the left side of the display screen, and the curve mirror 88B is greatly enlarged and displayed on the right side of the display screen. The shaded area indicates that the image quality is expressed with a coarser image quality than the area corresponding to the mirror surface of the curve mirrors 88A and 88B. The difference in image quality is due to setting different imaging conditions between the fifth area and the sixth area.

制御装置4はさらに、第5領域に基づいて取得した画像の中で上記カーブミラー88A、88Bが写る領域から対象物(例えば、図15における二輪車98、車両99)を検出した場合に、表示・再生装置14(図1)に表示する画像(図15)の中で、対応する対象物(上記例においては二輪車98、車両99)を目立たせる。目立たせる態様は、例えば、対象物を囲う枠を表示したり、対象物の表示輝度を高めて明るく表示したり、明滅させたり、着色して表示させる。   When the control device 4 further detects an object (for example, the two-wheeled vehicle 98 or the vehicle 99 in FIG. 15) from the area where the curved mirrors 88A and 88B are captured in the image acquired based on the fifth area, In the image (FIG. 15) displayed on the playback device 14 (FIG. 1), the corresponding object (two-wheeled vehicle 98, vehicle 99 in the above example) is made conspicuous. As a conspicuous mode, for example, a frame surrounding the object is displayed, the display brightness of the object is increased to display it brightly, blinking, or colored.

制御装置4は、表示・再生装置14(図1)に表示する画像(図15)に重ねて、次のようなメッセージを表示・再生装置14に表示させてもよい。メッセージの例としては、例えば、「二輪車が映っています」、「車両が映っています」というメッセージである。
なお、メッセージを表示・再生装置14に表示させる代わりに、またはメッセージの表示とともに、上記メッセージを音声再生させるための音声信号を送出してもよい。音声再生装置として、不図示のナビゲーション装置の音声装置を用いてもよい。
The control device 4 may cause the display / reproduction device 14 to display the following message over the image (FIG. 15) displayed on the display / reproduction device 14 (FIG. 1). Examples of the messages are, for example, “a motorcycle is reflected” and “a vehicle is reflected”.
Instead of displaying the message on the display / playback device 14, or together with the display of the message, an audio signal for reproducing the message may be transmitted. An audio device of a navigation device (not shown) may be used as the audio reproducing device.

<フローチャートの説明>
以下、フローチャート(図16)を参照して変形例5における第3領域81および第4領域82の決め方について説明する。図16は、撮像条件設定処理(S30B)の詳細について説明するフローチャートである。制御装置4は、図11の撮像条件設定(S30)に続いて、または図11の撮像条件設定(S30)に代えて、撮像条件設定処理(S30B)を実行する。
<Description of flowchart>
Hereinafter, a method for determining the third region 81 and the fourth region 82 in Modification 5 will be described with reference to a flowchart (FIG. 16). FIG. 16 is a flowchart illustrating the details of the imaging condition setting process (S30B). The control device 4 executes an imaging condition setting process (S30B) subsequent to the imaging condition setting (S30) in FIG. 11 or instead of the imaging condition setting (S30) in FIG.

図16のステップS301において、制御装置4は、撮像チップ111の撮像面70に対し、奇数列のブロックによって構成される第1領域と、偶数列のブロックによって構成される第2領域とを設定してステップS302へ進む。
なお、図11の撮像条件設定(S30)に続いて図16の撮像条件設定を実行する場合には、ステップS301を省略する。
In step S301 in FIG. 16, the control device 4 sets a first area configured by odd-numbered blocks and a second area configured by even-numbered blocks on the imaging surface 70 of the imaging chip 111. Then, the process proceeds to step S302.
Note that step S301 is omitted when the imaging condition setting of FIG. 16 is executed following the imaging condition setting (S30) of FIG.

ステップS302において、制御装置4は、撮像素子100の第1領域に基づく画像からカーブミラーを検出したか否かを判定する。カーブミラーの検出は、テンプレートマッチング手法を用いたり、カーブミラーの鏡面が道路面から所定範囲の高さに位置することを判定したりして行う。制御装置4は、上記第1領域に基づく画像からカーブミラーを検出した場合に、ステップS302を肯定判定してステップS303へ進む。制御装置4は、上記第1領域に基づく画像からカーブミラーを検出しない場合には、ステップS302を否定判定してステップS306へ進む。   In step S <b> 302, the control device 4 determines whether a curve mirror is detected from an image based on the first region of the image sensor 100. The detection of the curve mirror is performed by using a template matching method or by determining that the mirror surface of the curve mirror is located at a predetermined range from the road surface. When the control device 4 detects the curve mirror from the image based on the first region, the control device 4 makes a positive determination in step S302 and proceeds to step S303. If the control device 4 does not detect the curve mirror from the image based on the first region, the control device 4 makes a negative determination in step S302 and proceeds to step S306.

ステップS303において、制御装置4は、上記第2領域のうち、カーブミラーの鏡面に対応する領域を第5領域とし、第5領域以外の領域を第6領域としてステップS304へ進む。   In step S303, the control device 4 sets the area corresponding to the mirror surface of the curved mirror in the second area as the fifth area, and sets the area other than the fifth area as the sixth area, and proceeds to step S304.

ステップS304において、制御装置4はカメラ3Aへ指示を送り、第5領域のフレームレートを第6領域のフレームレートよりも高く設定させて、ステップS305へ進む。例えば、第5領域のフレームレートを毎秒120フレーム(120fps)とし、第6領域のフレームレートを30fpsとする。これは、運転者にとってわかりづらいカーブミラーの鏡面に映る画像情報を取得する頻度を高めるためである。   In step S304, the control device 4 sends an instruction to the camera 3A, sets the frame rate of the fifth area higher than the frame rate of the sixth area, and proceeds to step S305. For example, the frame rate of the fifth area is 120 frames per second (120 fps), and the frame rate of the sixth area is 30 fps. This is to increase the frequency of acquiring image information reflected on the mirror surface of the curved mirror that is difficult for the driver to understand.

ステップS305において、制御装置4はカメラ3Aへ指示を送り、第5領域に含まれる画素の間引き率を、第6領域のフレームレートに含まれる画素の間引き率よりも低く設定させて、図10のステップS40へ進む。これは、運転者にとってわかりづらいカーブミラーの鏡面に映る画像情報を高精細に取得するためである。   In step S305, the control device 4 sends an instruction to the camera 3A to set the pixel thinning rate included in the fifth region to be lower than the pixel thinning rate included in the frame rate of the sixth region. Proceed to step S40. This is because the image information reflected on the mirror surface of the curved mirror, which is difficult for the driver to understand, is acquired with high definition.

ステップS302を否定判定して進むステップS306において、制御装置4はカメラ3Aへ指示を送り、第2領域の全体に一様な撮像条件を設定させて、図10のステップS40へ進む。例えば、フレームレートを30fpsとし、通常の間引き率を設定する。   In step S306, which proceeds after making a negative determination in step S302, the control device 4 sends an instruction to the camera 3A to set uniform imaging conditions for the entire second region, and proceeds to step S40 in FIG. For example, the frame rate is set to 30 fps, and a normal thinning rate is set.

変形例5において、制御装置4は、図10のステップS60の代わりに以下のステップ60Bの処理を行う。すなわち、ステップS60Bにおいて、制御装置4は、表示・再生装置14(図1)に対する表示情報を送出する。制御装置4は、例えば、撮像素子100の第5領域、第6領域に基づいて取得した画像を表示情報として、表示・再生装置14(図1)に表示させる。具体的には、図15に例示したように、第5領域で取得した画像のうちカーブミラー88A、88Bを、表示・再生装置14(図1)の表示画面上に大きく引き伸ばして表示させる。   In the fifth modification, the control device 4 performs the following step 60B instead of step S60 in FIG. That is, in step S60B, the control device 4 sends display information to the display / playback device 14 (FIG. 1). For example, the control device 4 displays an image acquired based on the fifth region and the sixth region of the image sensor 100 on the display / reproduction device 14 (FIG. 1) as display information. Specifically, as illustrated in FIG. 15, the curve mirrors 88 </ b> A and 88 </ b> B among the images acquired in the fifth region are greatly enlarged and displayed on the display screen of the display / playback device 14 (FIG. 1).

制御装置4はさらに、第5領域に基づいて取得した画像において上記カーブミラー88A、88Bが写る領域から対象物(例えば、図15における二輪車98、車両99)を検出した場合に、表示・再生装置14(図1)に表示する画像の中で、対応する対象物(上記例においては二輪車98、車両99)を目立たせる。
なお、カーブミラーの鏡面に映る画像は鏡像なので、制御装置4は、表示・再生装置14(図1)に表示する画像について、左右を反転した画像を表示させてもよい。
The control device 4 further displays and reproduces when an object (for example, the two-wheeled vehicle 98 and the vehicle 99 in FIG. 15) is detected from the region where the curve mirrors 88A and 88B are captured in the image acquired based on the fifth region. 14 (FIG. 1), the corresponding objects (the two-wheeled vehicle 98 and the vehicle 99 in the above example) are conspicuous.
Since the image reflected on the mirror mirror is a mirror image, the control device 4 may display an image obtained by inverting the left and right of the image displayed on the display / playback device 14 (FIG. 1).

変形例5によれば、運転者にとってわかりづらいカーブミラー88A、88Bの鏡面に映る画像情報を取得する頻度を高めることができる。また、運転者にとってわかりづらいカーブミラー88A、88Bの鏡面に映る画像情報を高精細に取得することができる。そして、取得したカーブミラー88A、88Bの鏡面に映る画像情報を、表示・再生装置14(図1)にわかりやすく表示できる。   According to the modification 5, the frequency which acquires the image information reflected on the mirror surface of the curve mirrors 88A and 88B that is difficult for the driver to understand can be increased. Further, it is possible to acquire the image information reflected on the mirror surfaces of the curved mirrors 88A and 88B, which is difficult for the driver to understand, with high definition. The acquired image information reflected on the mirror surfaces of the curve mirrors 88A and 88B can be displayed on the display / reproduction device 14 (FIG. 1) in an easily understandable manner.

(変形例6)
以上の説明では、カメラ3A、3Bで行う距離測定として、撮像素子100に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する手法を用いたが、ステレオカメラによる2枚の画像を用いて距離測定を行う手法を用いてもよい。また、カメラ3A、3Bと別にミリ波レーダーを用いて距離測定を行う手法を用いてもよい。
(Modification 6)
In the above description, as a distance measurement performed by the cameras 3A and 3B, a method of calculating by distance measurement using an image signal from a focus detection pixel provided in the image sensor 100 is used. You may use the method of measuring distance using the image of 1 sheet. Further, a method of measuring distance using a millimeter wave radar separately from the cameras 3A and 3B may be used.

(第二の実施の形態)
第二の実施の形態では、図1の運転支援装置2においてレーダー18が追加される。レーダー18は、例えばミリ波レーダー装置によって構成される。レーダー18は、カメラ3Aの撮影画面における複数の領域(エリアと呼ぶ)に対応させて、各エリア内の対象物や障害物を検知する。エリアごとに検知する方式として、不図示のレーダーアンテナの向きをアクチュエータで変えながら検知対象のエリアをスキャンする方式や、各エリアに対応させた複数の受信アンテナをスイッチなどで切り換えながら検知対象のエリアをスキャンする方式などがあるが、いずれの方式を用いてもよい。
(Second embodiment)
In the second embodiment, a radar 18 is added in the driving support device 2 of FIG. The radar 18 is configured by a millimeter wave radar device, for example. The radar 18 detects an object or an obstacle in each area in association with a plurality of areas (called areas) on the shooting screen of the camera 3A. As a detection method for each area, a method of scanning the detection target area while changing the direction of the radar antenna (not shown) with an actuator, or a detection target area while switching multiple reception antennas corresponding to each area with a switch etc. However, any method may be used.

第二の実施の形態の通信部17は、例えば、道路に設置された情報提供システムやVICS(登録商標:Vehicle Information and Communication System)などの外部機器との間で、無線通信(光ビーコン、電波ビーコン、可視光通信を含む)を行う。通信方式は、どのようなものを用いても構わない。
なお、第二の実施の形態においては、後方を撮影するカメラ3Bは必須の構成ではない。
The communication unit 17 of the second embodiment performs wireless communication (optical beacon, radio wave) with an external device such as an information providing system installed on a road or a VICS (registered trademark: Vehicle Information and Communication System), for example. (Including beacon and visible light communication). Any communication method may be used.
In the second embodiment, the camera 3B that captures the rear is not an essential configuration.

<カメラの説明>
第二の実施の形態では、図3のブロック図において駆動部37が追加される。駆動部37は、例えばモータによって構成される。駆動部37は、制御部35からの指示に応じて、カメラ3Aの水平方向の向き(ヨー角)を変更する。カメラ3Aは、車両1の正面遠方の対象物を画面の略中央に捕らえるように、すなわち消失点を画面の略中央に合わせて、カメラ3Aの向きが調節されている。制御部35は、この向きを基準にしてヨー角を制御する。
<Explanation of camera>
In the second embodiment, a drive unit 37 is added in the block diagram of FIG. The drive unit 37 is configured by a motor, for example. The drive unit 37 changes the horizontal direction (yaw angle) of the camera 3 </ b> A in accordance with an instruction from the control unit 35. The orientation of the camera 3A is adjusted so that the object far from the front of the vehicle 1 is captured at the approximate center of the screen, that is, the vanishing point is aligned with the approximate center of the screen. The control unit 35 controls the yaw angle based on this direction.

<撮像素子のブロック制御>
制御装置4は、カメラ3Aの撮像素子100(撮像チップ111)に対し、上述した単位領域131ごとに独立した蓄積制御を行わせる。具体的には、制御装置4が、撮像チップ111の撮像面において、非優先領域、優先領域および最優先領域を設定し、これらの間において異なる条件で電荷蓄積(撮像)を行わせる。ここで、上述した撮像時の制御パラメータに加えて、非優先領域、優先領域、最優先領域のサイズや位置、測距を行うか否かおよび撮像部32のヨー角も、撮像条件の一つである。
<Block control of image sensor>
The control device 4 causes the imaging device 100 (imaging chip 111) of the camera 3A to perform independent accumulation control for each unit region 131 described above. Specifically, the control device 4 sets a non-priority area, a priority area, and a top-priority area on the imaging surface of the imaging chip 111, and performs charge accumulation (imaging) under different conditions between them. Here, in addition to the control parameters at the time of imaging described above, the size and position of the non-priority area, priority area, top priority area, whether or not to perform distance measurement, and the yaw angle of the imaging unit 32 are also one of the imaging conditions. It is.

図17は、車両1の前方を撮像するカメラ3Aの撮像素子100に結像される被写体(対象物)の像を模式的に示す図である。実際には倒立逆像が結像されるが、分かりやすくするために正立正像として図示している。
なお、第二の実施の形態の説明で参照するいくつかの図において、既述の図面で用いた符号と共通する符号があるが、本実施の形態の説明を適用する。
FIG. 17 is a diagram schematically illustrating an image of a subject (target object) formed on the image sensor 100 of the camera 3 </ b> A that images the front of the vehicle 1. Although an inverted inverted image is actually formed, it is shown as an erect image for the sake of clarity.
Note that in some drawings referred to in the description of the second embodiment, there are reference numerals common to those used in the above-described drawings, but the description of this embodiment is applied.

図17において、撮像チップ111の撮像面と、撮像チップ111において非優先領域81と、優先領域82と、最優先領域83とを例示する。非優先領域81、優先領域82、および最優先領域83は、それぞれ異なる条件で電荷蓄積(撮像)を行う。
なお、撮像チップ111において電荷蓄積(撮像)を行わない休止領域を設けてもよい。
In FIG. 17, the imaging surface of the imaging chip 111, the non-priority area 81, the priority area 82, and the highest priority area 83 in the imaging chip 111 are illustrated. The non-priority area 81, the priority area 82, and the highest priority area 83 perform charge accumulation (imaging) under different conditions.
Note that a pause region where charge accumulation (imaging) is not performed in the imaging chip 111 may be provided.

制御装置4は、上述した奥行き分布や、対象物、障害物の分類結果等に基づいて、非優先領域81、優先領域82、最優先領域83を設定する。例えば、遠方の対象物に対する注目度を低くするように非優先領域81を設定するとともに、先行車70に対する注目度を高くするように、先行車70を含む領域を最優先領域83に設定する。非優先領域81および最優先領域83以外の他の領域は、中程度の注目度とするように優先領域82を設定する。   The control device 4 sets the non-priority area 81, the priority area 82, and the highest priority area 83 based on the above-described depth distribution, the classification result of the object and the obstacle, and the like. For example, the non-priority area 81 is set so as to reduce the degree of attention with respect to a distant object, and the area including the preceding vehicle 70 is set as the highest priority area 83 so that the degree of attention with respect to the preceding vehicle 70 is increased. The priority area 82 is set so that the area other than the non-priority area 81 and the highest priority area 83 has a medium degree of attention.

図18は、撮像素子100の撮像面の全域を優先領域82に設定する場合の被写体(対象物)の像を模式的に示す図である。図18において、制御装置4は、撮像チップ111の撮像面の全域を優先領域82に設定する(全エリア共通制御)。制御装置4は、撮影画面内の複数の位置における測距データに基づいて生成した上記距離画像(奥行き分布画像)に基づき、車両1から被写体までの距離が所定の閾値(例えば300m)以上に該当する領域を抽出する。   FIG. 18 is a diagram schematically illustrating an image of a subject (target object) when the entire imaging surface of the image sensor 100 is set as the priority area 82. In FIG. 18, the control device 4 sets the entire imaging surface of the imaging chip 111 as the priority area 82 (all area common control). Based on the distance image (depth distribution image) generated based on distance measurement data at a plurality of positions in the shooting screen, the control device 4 corresponds to a distance from the vehicle 1 to the subject equal to or greater than a predetermined threshold (for example, 300 m). Extract the area to be used.

図19は、図18の状態から、撮像面の一部を非優先領域81へ変更する場合を説明する図である。制御装置4は、上記抽出領域(すなわち、車両1から被写体までの距離が300m以上に該当)を、非優先領域81へ変更する。制御装置4は、非優先領域81と優先領域82との間で異なる上記制御パラメータを設定する他、非優先領域81では測距用の画像信号の読み出しを行わない設定をする。測距用の画像信号の読み出しを行わない場合、消費電力が低減される。   FIG. 19 is a diagram illustrating a case where a part of the imaging surface is changed to the non-priority area 81 from the state of FIG. The control device 4 changes the extraction area (that is, the distance from the vehicle 1 to the subject corresponds to 300 m or more) to the non-priority area 81. The control device 4 sets the above-described control parameters different between the non-priority area 81 and the priority area 82, and sets the non-priority area 81 not to read the distance measurement image signal. When the image signal for distance measurement is not read, power consumption is reduced.

制御装置4は、例えば、非優先領域81に含まれる撮像素子100の単位領域131(図2)に対し、優先領域82の場合に比べてフレームレートを低く設定する。遠方について注目度を下げるという考え方に基づく。
また、制御装置4は、非優先領域81において取得される画像について、画像処理部33による追尾処理等の画像処理を行わないように設定してもよい。
For example, the control device 4 sets the frame rate lower for the unit area 131 (FIG. 2) of the image sensor 100 included in the non-priority area 81 than in the priority area 82. Based on the idea of lowering the degree of attention in the distance.
Further, the control device 4 may set the image acquired in the non-priority area 81 so as not to perform image processing such as tracking processing by the image processing unit 33.

図20は、図18の状態から、撮像面の一部を最優先領域83へ変更する場合を説明する図である。制御装置4は、車両1が交差点を走行する(交差点へ接近し、交差点へ進入し、交差点から抜ける)場合において、撮像面の全域を優先領域82から最優先領域83へ変更する。交差点を走行する場合は注目度を上げるという考え方に基づく。ただし、交差点を左折の際(または右折の際)に通過する横断歩道92を含む領域については、優先領域82として残す。横断歩道92を最優先領域83に含めない理由は以下の通りである。すなわち、一般に、車両1を運転する乗員は通過する横断歩道92に注意をはらうため、カメラ3Aによる横断歩道92に対する注目度を高める必要性が低いという考え方に基づく。本実施の形態はむしろ、運転する乗員による注目度が低い領域を最優先領域83に設定することによってカメラ3Aによる注目度を高める。これにより、例えば図20において対向車線から右折してくる車両91などの他の車両に対する注目度を高められる。
なお、制御装置4は、上記距離画像(奥行き分布画像)に基づき、車両1から被写体までの距離が所定の閾値(例えば300m)以上に該当する領域を、非優先領域81へ変更してもよい。
FIG. 20 is a diagram illustrating a case where a part of the imaging surface is changed to the highest priority area 83 from the state of FIG. The control device 4 changes the entire imaging surface from the priority area 82 to the highest priority area 83 when the vehicle 1 travels through the intersection (approaching the intersection, entering the intersection, and exiting the intersection). Based on the idea of raising the degree of attention when driving at intersections. However, the area including the pedestrian crossing 92 that passes through the intersection when turning left (or when turning right) is left as the priority area 82. The reason for not including the pedestrian crossing 92 in the highest priority area 83 is as follows. That is, in general, since the occupant driving the vehicle 1 pays attention to the pedestrian crossing 92 that passes therethrough, it is based on the idea that there is little need to increase the degree of attention to the pedestrian crossing 92 by the camera 3A. In the present embodiment, the attention level by the camera 3 </ b> A is increased by setting, as the highest priority area 83, a region where the attention level by the occupant driving is low. This increases the degree of attention to other vehicles such as the vehicle 91 that makes a right turn from the oncoming lane in FIG.
Note that the control device 4 may change a region where the distance from the vehicle 1 to the subject is equal to or more than a predetermined threshold (for example, 300 m) to the non-priority region 81 based on the distance image (depth distribution image). .

制御装置4は、例えば、最優先領域83に含まれる撮像素子100の単位領域131(図2)に対し、優先領域82の場合に比べてフレームレートを高く設定する。また、非優先領域81を設定している場合には、非優先領域81に含まれる撮像素子100の単位領域131(図2)に対し、優先領域82の場合に比べてフレームレートを低く設定する。   For example, the control device 4 sets the frame rate higher for the unit region 131 (FIG. 2) of the image sensor 100 included in the highest priority region 83 than in the priority region 82. When the non-priority area 81 is set, the frame rate is set lower for the unit area 131 (FIG. 2) of the image sensor 100 included in the non-priority area 81 than in the priority area 82. .

なお、制御装置4は、カメラ3Aで取得した画像に基づいて認識した横断歩道92を含む領域を優先領域82とする他に、視線検出装置16から送出された視線情報に基づき、乗員が注目する領域を優先領域82とすることもできる。   Note that the control device 4 uses the sight line information sent from the sight line detection device 16 as the priority area 82 in addition to the area including the pedestrian crossing 92 recognized based on the image acquired by the camera 3A. The area may be the priority area 82.

制御装置4が非優先領域81、優先領域82、および最優先領域83を設定する際に用いる奥行き分布画像は、測距用の画像信号による測距データに基づいて生成する第1奥行き分布画像を用いてもよいし、レーダー18によるエリアごとの検知情報に基づいて生成する第2奥行き分布画像を用いてもよい。本実施の形態では、撮像素子100の撮像面における像の移動(像面移動量と呼ぶ)が所定値以下の場合に第1奥行き分布画像を用い、像面移動量が所定値を超える場合に第2奥行き分布画像を用いる。像面移動量の詳細については後述する。   The depth distribution image used when the control device 4 sets the non-priority area 81, the priority area 82, and the highest priority area 83 is a first depth distribution image that is generated based on distance measurement data based on an image signal for distance measurement. Alternatively, a second depth distribution image generated based on detection information for each area by the radar 18 may be used. In the present embodiment, the first depth distribution image is used when the image movement (referred to as the image plane movement amount) on the imaging surface of the image sensor 100 is equal to or less than a predetermined value, and the image plane movement amount exceeds the predetermined value. A second depth distribution image is used. Details of the image plane movement amount will be described later.

<フローチャートの説明>
以下、フローチャート(図21,図22、図23、図26)を参照して制御装置4が実行するカメラ3Aの制御処理の流れを説明する。制御装置4が実行するプログラムは、制御装置4の記憶部4bに格納されている。制御装置4は、例えば車両1から電源供給が開始されたり、エンジンが始動されたりすると、図21による処理を行うプログラムを起動する。
<Description of flowchart>
Hereinafter, a flow of control processing of the camera 3A executed by the control device 4 will be described with reference to flowcharts (FIGS. 21, 22, 23, and 26). The program executed by the control device 4 is stored in the storage unit 4b of the control device 4. For example, when the power supply is started from the vehicle 1 or the engine is started, the control device 4 starts a program for performing the processing shown in FIG.

図21のステップS10において、制御装置4は、フラグa=0か否かを判定する。フラグaは、初期設定が終了している場合に1、初期設定が終了していない場合に0がセットされるフラグである。制御装置4は、フラグa=0の場合にステップS10を肯定判定してステップS20へ進み、フラグa≠0の場合にステップS10を否定判定してステップS30へ進む。   In step S10 of FIG. 21, the control device 4 determines whether or not the flag a = 0. The flag a is a flag that is set to 1 when the initial setting is completed and set to 0 when the initial setting is not completed. When the flag a = 0, the control device 4 makes a positive determination in step S10 and proceeds to step S20. When the flag a ≠ 0, the control device 4 makes a negative determination and proceeds to step S30.

ステップS20において、制御装置4は、カメラ3Aへ初期設定を行ってステップS30へ進む。初期設定とは、カメラ3Aに所定の動作をさせるためのあらかじめ定められた設定を行うものである。本例では、カメラ3Aが撮像素子100の撮像面の全域に同じ撮像条件を設定し、例えば毎秒60フレーム(60fps)のフレームレートで撮像を開始させる。   In step S20, the control device 4 performs initial setting on the camera 3A, and proceeds to step S30. The initial setting is a predetermined setting for causing the camera 3A to perform a predetermined operation. In this example, the camera 3A sets the same imaging condition over the entire imaging surface of the imaging device 100, and starts imaging at a frame rate of 60 frames per second (60 fps), for example.

ステップS30において、制御装置4は、撮像条件設定処理を行ってステップS40へ進む。撮像条件設定処理では、優先領域82の他に非優先領域81、最優先領域83を設定し、各領域に対応する単位領域131に対して撮像条件を設定する。撮像条件設定処理の詳細については後述する。
なお、非優先領域81、優先領域82および最優先領域83に対してそれぞれの撮像条件を設定する場合、各領域間でフレームレート、ゲイン、間引き率、蓄積時間などの全てを異ならせる必要はなく、少なくとも一つを異ならせるだけでもよい。
In step S30, the control device 4 performs an imaging condition setting process and proceeds to step S40. In the imaging condition setting process, the non-priority area 81 and the highest priority area 83 are set in addition to the priority area 82, and the imaging conditions are set for the unit area 131 corresponding to each area. Details of the imaging condition setting process will be described later.
In addition, when setting each imaging condition for the non-priority area 81, the priority area 82, and the highest priority area 83, it is not necessary to make all of the frame rate, gain, thinning rate, accumulation time, and the like different between the areas. , You can just make at least one different.

ステップS40において、制御装置4はカメラ3Aへ指示を送り、非優先領域81、優先領域82および最優先領域83に対応する撮像素子100の単位領域131をそれぞれ所定の条件で駆動させて、画像の取得および測距演算を行わせる。これにより、画像データや測距用の画像信号に基づく測距情報が取得される。また、制御装置4は、カメラ3Aの画像処理部33または制御部35等に所定の画像処理および画像解析を行わせる。   In step S40, the control device 4 sends an instruction to the camera 3A to drive the unit areas 131 of the image sensor 100 corresponding to the non-priority area 81, the priority area 82, and the highest priority area 83 under predetermined conditions, respectively. Get acquisition and ranging calculations. Thereby, distance measurement information based on the image data and the image signal for distance measurement is acquired. Further, the control device 4 causes the image processing unit 33 or the control unit 35 of the camera 3A to perform predetermined image processing and image analysis.

ステップS50において、制御装置4は、情報を表示する設定が行われているか否かを判定する。制御装置4は、表示設定が行われている場合にステップS50を肯定判定してステップS60へ進む。制御装置4は、表示設定が行われていない場合には、ステップS50を否定判定してステップS70へ進む。   In step S50, the control device 4 determines whether or not the setting for displaying information is performed. When the display setting is performed, the control device 4 makes a positive determination in step S50 and proceeds to step S60. When the display setting is not performed, the control device 4 makes a negative determination in step S50 and proceeds to step S70.

ステップS60において、制御装置4は、表示・再生装置14(図1)に対する表示情報を送出してステップS70へ進む。表示情報は、撮像条件設定処理(S30)の中で解析された車両1の状態に応じた情報で、例えば「対向車が右折待機中です」、「緊急停車します」、「右折します」、「左折します」というメッセージを表示・再生装置14、または不図示のナビゲーション装置等に表示させる。
なお、表示情報を送出する代わりに、または表示情報の送出とともに、不図示の音声再生装置へ上記メッセージを再生させるための音声信号を送出してもよい。この場合も、音声再生装置として不図示のナビゲーション装置の音声再生部を用いてもよい。
In step S60, the control device 4 sends display information to the display / reproduction device 14 (FIG. 1), and proceeds to step S70. The display information is information according to the state of the vehicle 1 analyzed in the imaging condition setting process (S30). For example, “the oncoming vehicle is waiting to turn right”, “emergency stop”, “turn right” The message “turn left” is displayed on the display / playback device 14 or a navigation device (not shown).
Instead of sending display information, or together with sending display information, an audio signal for reproducing the message may be sent to an audio playback device (not shown). In this case as well, an audio playback unit of a navigation device (not shown) may be used as the audio playback device.

ステップS70において、制御装置4は、オフ操作されたか否かを判定する。制御装置4は、例えば車両1からオフ信号(例えば、エンジンのオフ信号)を受けると、ステップS70を肯定判定し、所定のオフ処理を行って図21による処理を終了する。制御装置4は、例えば車両1からオフ信号を受けない場合は、ステップS70を否定判定してステップS30へ戻る。ステップS30へ戻る場合は、上述した処理を繰り返す。   In step S70, the control device 4 determines whether or not an off operation has been performed. For example, when the control device 4 receives an off signal (for example, an engine off signal) from the vehicle 1, the control device 4 makes a positive determination in step S <b> 70, performs a predetermined off process, and ends the process of FIG. 21. For example, if the control device 4 does not receive an off signal from the vehicle 1, the control device 4 makes a negative determination in step S70 and returns to step S30. When returning to step S30, the above-described processing is repeated.

<撮像条件設定処理>
図22のフローチャートを参照して、上記撮像条件設定処理(S30)の詳細について説明する。本実施の形態では、撮像素子100に写る対象物の像面移動量、奥行き分布、車両1の運転状態(車速Vの変化、ハンドル等の操作状態など)、走行環境(道路状況、走行中のレーンなど)に対応させて、非優先領域81、優先領域82、および最優先領域83にそれぞれ対応する撮像素子100の単位領域131に対して撮像条件を設定する。
<Imaging condition setting process>
Details of the imaging condition setting process (S30) will be described with reference to the flowchart of FIG. In the present embodiment, the moving amount of the image plane of the object shown on the image sensor 100, the depth distribution, the driving state of the vehicle 1 (changes in the vehicle speed V, the operating state of the steering wheel, etc.), the driving environment (the road condition, the driving state) The imaging conditions are set for the unit areas 131 of the imaging device 100 corresponding to the non-priority area 81, the priority area 82, and the highest priority area 83, respectively.

図22のステップS31において、制御装置4は、撮像素子100の撮像面の全域に同じ撮像条件を設定した状態で取得した画像信号に基づく距離情報を取得するとともに、フラグbに0を設定してステップS32へ進む。距離情報は、上記第1奥行き分布画像である。また、フラグbは、後述する補正値αに所定値(例えば1.0)を代入する場合を1に、補正値αに0を代入する場合を0にセットするフラグである。ここでは初期条件としてフラグb=0を設定する。
なお、距離情報として、レーダー18によるエリアごとの検知情報に基づく上記第2奥行き分布画像を用いてもよい。
In step S31 of FIG. 22, the control device 4 acquires distance information based on the image signal acquired in the state where the same imaging condition is set over the entire imaging surface of the imaging element 100, and sets 0 to the flag b. Proceed to step S32. The distance information is the first depth distribution image. The flag b is a flag that sets 1 when a predetermined value (for example, 1.0) is substituted for a correction value α, which will be described later, and sets 0 when a value 0 is substituted for the correction value α. Here, flag b = 0 is set as an initial condition.
Note that the second depth distribution image based on detection information for each area by the radar 18 may be used as the distance information.

ステップS32において、制御装置4は、車両1から対象物までの距離dが所定距離D(例えば300m)より長いか否かを判定する。制御装置4は、例えば、上記距離情報に基づいて、撮影画面を複数のエリア(例えば、縦8×横8=64エリア)に分割し、エリアごとにd>Dが成立するか否かを判定する。エリアに複数の対象物が存在する場合、最至近の被写体までの距離をそのエリアにおける距離dとする。   In step S32, the control device 4 determines whether or not the distance d from the vehicle 1 to the object is longer than a predetermined distance D (for example, 300 m). For example, the control device 4 divides the shooting screen into a plurality of areas (for example, vertical 8 × horizontal 8 = 64 areas) based on the distance information, and determines whether d> D is satisfied for each area. To do. When there are a plurality of objects in the area, the distance to the closest subject is set as the distance d in the area.

制御装置4は、d>Dが成立するエリアが1つでも存在する場合に、ステップS32を肯定判定してステップS33へ進む。制御装置4は、d>Dが成立するエリアが1つも存在しない場合には、ステップS32を否定判定してステップS34へ進む。ステップS32を否定判定する場合は、撮像素子100の撮像面の全域について優先領域82の設定を維持する(全エリア共通制御)。   If there is even one area where d> D is established, the control device 4 makes a positive determination in step S32 and proceeds to step S33. If there is no area where d> D is established, the control device 4 makes a negative determination in step S32 and proceeds to step S34. When a negative determination is made in step S32, the setting of the priority area 82 is maintained for the entire imaging surface of the imaging element 100 (common control for all areas).

ステップS33において、制御装置4は、撮像素子100の撮像面に優先領域82と非優先領域81とを設定するエリア別制御を行う。制御装置4は、d>Dが成立するエリアを非優先領域81に設定し、d>Dが成立しないエリアについては優先領域82の設定を維持してステップS34へ進む。   In step S <b> 33, the control device 4 performs area-specific control for setting the priority area 82 and the non-priority area 81 on the imaging surface of the image sensor 100. The control device 4 sets the area where d> D is established as the non-priority area 81, and maintains the setting of the priority area 82 for areas where d> D is not established, and proceeds to step S34.

ステップS34において、制御装置4は、車両1が交差点の領域外か否かを判定する。制御装置4は、GPS装置15からの位置情報や不図示のナビゲーション装置からの地図情報、およびカメラ3Aにより取得された画像から認識した白線、横断歩道、信号機等の外部情報を参照して、車両1が交差点の外と判断した場合、ステップS34を肯定判定して図23のステップS35へ進む。制御装置4は、車両1が交差点の内と判断した場合、ステップS34を否定判定して図26のステップS301へ進む。   In step S34, the control device 4 determines whether or not the vehicle 1 is outside the intersection area. The control device 4 refers to position information from the GPS device 15, map information from a navigation device (not shown), and external information such as white lines, pedestrian crossings, and traffic lights recognized from an image acquired by the camera 3A. If 1 is determined to be outside the intersection, an affirmative determination is made in step S34 and the process proceeds to step S35 in FIG. If the control device 4 determines that the vehicle 1 is within an intersection, the control device 4 makes a negative determination in step S34 and proceeds to step S301 in FIG.

図23は、車両1が交差点の外を走行する場合の処理を説明するフローチャートである。図23のステップS35において、制御装置4は、像面移動量Δdiffを算出する。像面移動量Δdiffは、上述したように撮像素子100の撮像面における像の移動量である。制御装置4は、例えば、車速V、ステアリングホイールの回転角θ、および所定係数μを用いて次式(1)のように像面移動量Δdiffを算出し、ステップS36へ進む。
Δdiff=(μ×V)×θ (1)
FIG. 23 is a flowchart for explaining processing when the vehicle 1 travels outside an intersection. In step S35 of FIG. 23, the control device 4 calculates the image plane movement amount Δdiff. The image plane movement amount Δdiff is the image movement amount on the imaging surface of the image sensor 100 as described above. For example, the control device 4 calculates the image plane movement amount Δdiff using the vehicle speed V, the rotation angle θ of the steering wheel, and the predetermined coefficient μ as in the following equation (1), and the process proceeds to step S36.
Δdiff = (μ × V) × θ (1)

ステップS36において、制御装置4は、ターンシグナル装置がオフか否かを判定する。制御装置4は、例えば、ターンシグナルスイッチ11(図1)の操作信号によりターンシグナル装置がオフであると判断した場合、ステップS36を肯定判定してステップS37へ進む。制御装置4は、ターンシグナル装置がオンであると判断した場合には、ステップS36を否定判定してステップS38へ進む。   In step S36, the control device 4 determines whether or not the turn signal device is off. For example, if the control device 4 determines that the turn signal device is off based on the operation signal of the turn signal switch 11 (FIG. 1), the control device 4 makes a positive determination in step S36 and proceeds to step S37. When determining that the turn signal device is on, the control device 4 makes a negative determination in step S36 and proceeds to step S38.

ステップS37へ進む場合は、車両1が交差点外の道路に沿って走行する場合が想定される。ステップS37において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、非優先領域81、優先領域82、および最優先領域83のそれぞれに対し、ステップS35で算出した像面移動量Δdiffに基づいて、図24(A)を参照してフレームレートを設定する。
なお、撮像面の全域を優先領域82に設定する場合等、非優先領域81、優先領域82、および最優先領域83の3通りの領域が設定されていない場合は、制御装置4は、図24(A)のうち該当する領域について設定を行う。
When proceeding to step S37, it is assumed that the vehicle 1 travels along a road outside the intersection. In step S <b> 37, the control device 4 sets the imaging condition of the imaging device 100 as follows. That is, the frame rate is set for each of the non-priority area 81, the priority area 82, and the highest priority area 83 with reference to FIG. 24A based on the image plane movement amount Δdiff calculated in step S35.
In the case where the three areas of the non-priority area 81, the priority area 82, and the highest priority area 83 are not set, such as when the entire area of the imaging surface is set as the priority area 82, the control device 4 performs FIG. Settings are made for the corresponding area in (A).

図24(A)によれば、像面移動量Δdiffの絶対値の大きさの違いによって対象物に異なる注目度を設定できるように、4通りのフレームレートが設定可能に構成される。さらに、4通りのフレームレートは、非優先領域81、優先領域82、および最優先領域83に対してそれぞれ設定可能に構成される。一般に、車両1の車速Vが速いほど、かつ車両1が走行する曲率半径が小さい(ステアリングホイールの回転角θが大きい)ほど、撮像素子100に写る像の流れ(オプティカルフロー)が速くなる。像面移動量Δdiffの絶対値の大きさに合わせてフレームレートを設定することで、撮像素子100に写る像の変化に適したフレームレートの設定が可能になる。   According to FIG. 24A, four frame rates can be set so that different degrees of attention can be set for the object depending on the difference in the absolute value of the image plane movement amount Δdiff. Further, the four frame rates can be set for the non-priority area 81, the priority area 82, and the highest priority area 83, respectively. In general, the faster the vehicle speed V of the vehicle 1 and the smaller the radius of curvature that the vehicle 1 travels (the larger the rotation angle θ of the steering wheel), the faster the image flow (optical flow) that appears on the image sensor 100. By setting the frame rate according to the magnitude of the absolute value of the image plane movement amount Δdiff, it is possible to set the frame rate suitable for the change in the image captured on the image sensor 100.

また、フレームレートを非優先領域81、優先領域82、および最優先領域83に対してそれぞれ個別に設定可能にすることで、非優先領域81、優先領域82、および最優先領域83のそれぞれの注目度に適したフレームレートの設定が可能になる。   In addition, the frame rate can be set individually for the non-priority area 81, the priority area 82, and the highest priority area 83, so that each of the non-priority area 81, the priority area 82, and the highest priority area 83 is noticed. The frame rate can be set appropriately.

図24(A)のヨー角Yの可動域は、上述した駆動部37が制御部35からの指示に応じてカメラ3Aのヨー角Yを変更する場合の可動範囲である。一般に、車両1が左へ曲がる場合、撮像素子100に写る像の流れ(オプティカルフロー)が画面の左から右へ強くなる。反対に、車両1が右へ曲がる場合、撮像素子100に写る像の流れが画面の右から左へ強くなる。このため、制御装置4は、オプティカルフローの上流側の像が撮像素子100に早く写るように、カメラ3Aの撮影方向をステアリングホイールの回転角θの大きさと向きに応じて移動させるヨー角制御を行う。ステアリングホイールの回転角θ、および所定係数λを用いると、ヨー角Yは次式(2)で表される。
Y=λ×θ (2)
ただし、過大なヨー角Yの移動は適切でないので、本実施の形態ではヨー角Yの可動域を定めることにより、ヨー角Yの可動範囲を制限している。
The movable range of the yaw angle Y in FIG. 24A is a movable range when the drive unit 37 described above changes the yaw angle Y of the camera 3A in accordance with an instruction from the control unit 35. In general, when the vehicle 1 turns to the left, the flow of an image (optical flow) reflected on the image sensor 100 increases from the left to the right of the screen. On the other hand, when the vehicle 1 turns to the right, the flow of the image shown on the image sensor 100 increases from the right to the left of the screen. For this reason, the control device 4 performs yaw angle control that moves the shooting direction of the camera 3A according to the magnitude and direction of the rotation angle θ of the steering wheel so that an image on the upstream side of the optical flow is quickly captured on the image sensor 100. Do. If the rotation angle θ of the steering wheel and the predetermined coefficient λ are used, the yaw angle Y is expressed by the following equation (2).
Y = λ × θ (2)
However, since the excessive movement of the yaw angle Y is not appropriate, the movable range of the yaw angle Y is limited by determining the movable range of the yaw angle Y in the present embodiment.

図24(A)によれば、ステップS35で算出した像面移動量Δdiffの絶対値が大きくなるにつれてヨー角Yの可動範囲の制限値を段階的に大きくするように、ヨー角可動域が4段階に定められる。   According to FIG. 24A, the yaw angle movable range is 4 so that the limit value of the movable range of the yaw angle Y increases stepwise as the absolute value of the image plane movement amount Δdiff calculated in step S35 increases. Determined in stages.

なお、ステップS37において上述したフラグb=0なので、図24(A)における補正値α=0である。すなわち、ヨー角Yの可動範囲を狭めるための補正を行わない。   Since the flag b = 0 described above in step S37, the correction value α = 0 in FIG. That is, correction for narrowing the movable range of the yaw angle Y is not performed.

図25は、カメラ3Aのヨー角30を説明する模式図である。一般に、車両1の旋回速度が大きい場合は、像面移動量Δdiff(絶対値)が大きくなるので、撮像部ヨー角30(絶対値)も大きく変化させる。図25は、車両1が左へ旋回する場合を例示しており、像面移動量Δdiffは右向きが正になる。制御装置4は、車両1の旋回方向(本例の場合は左)にカメラ3Aを向けるようにヨー角30を制御する。   FIG. 25 is a schematic diagram illustrating the yaw angle 30 of the camera 3A. Generally, when the turning speed of the vehicle 1 is high, the image plane movement amount Δdiff (absolute value) increases, so that the imaging unit yaw angle 30 (absolute value) is also greatly changed. FIG. 25 illustrates a case where the vehicle 1 turns to the left, and the image plane movement amount Δdiff is positive in the right direction. The control device 4 controls the yaw angle 30 so that the camera 3A is directed in the turning direction of the vehicle 1 (left in this example).

さらに、制御装置4は、図24(A)に例示されるように、像面移動量Δdiffの絶対値が所定値(例えば20)以上の場合に、レーダー18を用いて距離情報を得る。すなわち、レーダー18によるエリアごとの検知情報に基づく上記第2奥行き分布画像を、上記ステップS32の判定処理に用いる。このように、像面移動量Δdiffの絶対値が大きい場合は、より応答性がよいレーダー18を用いて距離情報を得る。   Furthermore, as illustrated in FIG. 24A, the control device 4 obtains distance information using the radar 18 when the absolute value of the image plane movement amount Δdiff is a predetermined value (for example, 20) or more. That is, the second depth distribution image based on the detection information for each area by the radar 18 is used for the determination process in step S32. As described above, when the absolute value of the image plane movement amount Δdiff is large, the distance information is obtained by using the radar 18 having better response.

制御装置4は、以上説明したように撮像素子100の撮像条件を設定する撮像条件を変更すると、図23による処理を終了して図21のステップS40へ進む。   As described above, when the imaging condition for setting the imaging condition of the imaging device 100 is changed, the control device 4 ends the process of FIG. 23 and proceeds to step S40 of FIG.

上述したステップS36を否定判定してステップS38へ進む場合は、車両1が交差点の外で、例えば路地においてターンシグナル装置を作動させて進路変更する場合が想定される。ステップS38において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、非優先領域81、優先領域82、および最優先領域83のそれぞれに対し、ステップS35で算出した像面移動量Δdiffに基づいて、図24(B)を参照してフレームレートを設定する。
なお、撮像面の全域を優先領域82に設定する場合等、非優先領域81、優先領域82、および最優先領域83の3通りの領域が設定されていない場合は、制御装置4は、図24(B)のうち該当する領域について設定を行う。
When a negative determination is made in step S36 described above and the process proceeds to step S38, it is assumed that the vehicle 1 changes the course by operating a turn signal device in an alley outside the intersection, for example. In step S38, the control device 4 sets the imaging condition of the imaging device 100 as follows. That is, the frame rate is set for each of the non-priority area 81, the priority area 82, and the highest priority area 83 with reference to FIG. 24B based on the image plane movement amount Δdiff calculated in step S35.
In the case where the three areas of the non-priority area 81, the priority area 82, and the highest priority area 83 are not set, such as when the entire area of the imaging surface is set as the priority area 82, the control device 4 performs FIG. Settings are made for the corresponding area in (B).

図24(B)によれば、図24(A)の場合に比べて、例えば優先領域82および最優先領域83に対するフレームレートの設定を高くすることによって、優先領域82および最優先領域83に対する注目度を図24(A)の場合よりも高めるように構成されている。   According to FIG. 24B, attention is paid to the priority area 82 and the highest priority area 83 by increasing the frame rate setting for the priority area 82 and the highest priority area 83, for example, compared to the case of FIG. The degree is configured to be higher than in the case of FIG.

図24(B)のヨー角Yの可動域は、上述した駆動部37が制御部35からの指示に応じてカメラ3Aのヨー角Yを変更する場合の可動範囲である。図24(B)によれば、図24(A)の場合よりもオプティカルフローの上流側の像が撮像素子100に早く写るようにするため、ヨー角Yの可動範囲の制限値を図24(A)の場合よりも大きくするように構成される。   The movable range of the yaw angle Y in FIG. 24B is a movable range when the drive unit 37 described above changes the yaw angle Y of the camera 3A in accordance with an instruction from the control unit 35. According to FIG. 24B, the limit value of the movable range of the yaw angle Y is set in FIG. 24B so that the image on the upstream side of the optical flow appears on the image sensor 100 faster than in the case of FIG. It is configured to be larger than in the case of A).

なお、ステップS38において上述したフラグb=0なので、図24(B)における補正値α=0である。すなわち、ヨー角Yの可動範囲を狭めるための補正を行わない。   Since the flag b = 0 described above in step S38, the correction value α = 0 in FIG. That is, correction for narrowing the movable range of the yaw angle Y is not performed.

図26は、車両1が交差点内を走行する場合の処理を説明するフローチャートである。図26のステップS301において、制御装置4は、ステップS35の場合と同様に、像面移動量Δdiffを算出してステップS302へ進む。   FIG. 26 is a flowchart for explaining processing when the vehicle 1 travels in an intersection. In step S301 in FIG. 26, the control device 4 calculates the image plane movement amount Δdiff in the same manner as in step S35, and proceeds to step S302.

ステップS302において、制御装置4は、通信部18を介して道路上に設置された不図示の情報提供システム等から送信されている交通情報を取得してステップS303へ進む。これにより、車両1は、交差点における対向車線の車の有無、当該車の右左折についての情報、および交差点の信号機に表示されている信号の情報等を取得する。   In step S302, the control device 4 acquires traffic information transmitted from an information providing system (not shown) installed on the road via the communication unit 18, and proceeds to step S303. Thereby, the vehicle 1 acquires information on the presence or absence of a vehicle on the opposite lane at the intersection, information on the right or left turn of the vehicle, information on a signal displayed on the traffic signal at the intersection, and the like.

ステップS303において、制御装置4は、GPS装置15からの位置情報や不図示のナビゲーション装置からの地図情報、およびカメラ3Aにより取得された画像から認識した白線、横断歩道、信号機等の外部情報を参照して、車両1が交差点の直進レーンにいるか、左折レーンにいるか、または右折レーンにいるかを判定し、それぞれステップS304、S307、またはS313へ進む。   In step S303, the control device 4 refers to position information from the GPS device 15, map information from a navigation device (not shown), and external information such as white lines, pedestrian crossings, and traffic lights recognized from the images acquired by the camera 3A. Then, it is determined whether the vehicle 1 is in a straight lane at the intersection, a left turn lane, or a right turn lane, and the process proceeds to steps S304, S307, or S313, respectively.

<直進レーンの場合>
ステップS304において、制御装置4は、交差点に対向右折車が存在するかどうかを判定する。制御装置4は、ステップS302において取得した交通情報によって対向車線の右折車の有無を判断する他、カメラ3Aによって取得した画像に基づいて対向車線の右折車の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで対向車線に右折車が存在すると判断した場合、ステップS304を肯定判定してステップS305へ進む。制御装置4は、対向車線に右折車が存在すると判断しない場合には、ステップS304を否定判定してステップS306へ進む。
<For straight lane>
In step S304, the control device 4 determines whether or not an oncoming right turn vehicle exists at the intersection. The control device 4 determines the presence or absence of a right turn vehicle in the opposite lane based on the traffic information acquired in step S302, and also determines the presence or absence of a right turn vehicle in the opposite lane based on the image acquired by the camera 3A. If the control device 4 determines that there is a right turn vehicle in the oncoming lane in at least one of the above determinations, it makes a positive determination in step S304 and proceeds to step S305. If the controller 4 does not determine that there is a right turn vehicle in the oncoming lane, the controller 4 makes a negative determination in step S304 and proceeds to step S306.

ステップS305において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して、最優先領域83に対するフレームレートを設定する。   In step S305, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the entire imaging surface is set as the highest priority area 83 (all area common control), and based on the image plane movement amount Δdiff calculated in step S301, the highest priority area 83 is referred to with reference to FIG. Set the frame rate for.

ヨー角Yの可動域、およびヨー角Yの変更については、ステップS38の場合と同様である。ステップS305においてフラグb=0なので、ヨー角Yの可動範囲を狭めるための補正を行わない点も、ステップS38の場合と同様である。   The movable range of the yaw angle Y and the change of the yaw angle Y are the same as in step S38. Since the flag b = 0 in step S305, correction for narrowing the movable range of the yaw angle Y is not performed, as in step S38.

また、制御装置4は、図24(B)に例示されるように、像面移動量Δdiffの絶対値が図24(A)に比べて小さな判定閾値(例えば10)以上の場合に、レーダー18を用いて距離情報を得る。つまり、図24(A)に比べて像面移動量Δdiffが小さい段階で、レーダー18を用いて距離情報を得るように切り替える。   Further, as illustrated in FIG. 24B, the control device 4 detects the radar 18 when the absolute value of the image plane movement amount Δdiff is equal to or larger than a determination threshold (for example, 10) that is smaller than that in FIG. Get distance information using. That is, switching is performed so as to obtain distance information using the radar 18 when the image plane movement amount Δdiff is smaller than that in FIG.

制御装置4は、以上説明したように撮像素子100の撮像条件を設定する撮像条件を変更すると、図26による処理を終了して図21のステップS40へ進む。   As described above, when the imaging condition for setting the imaging condition of the imaging device 100 is changed, the control device 4 ends the process of FIG. 26 and proceeds to step S40 of FIG.

ステップS306において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(A)を参照して、最優先領域83に対するフレームレートを設定する。   In step S306, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the entire imaging surface is set as the highest priority area 83 (all area common control), and based on the image plane movement amount Δdiff calculated in step S301, with reference to FIG. Set the frame rate for.

ヨー角Yの可動域、およびヨー角Yの変更については、ステップS37の場合と同様である。ステップS306においてフラグb=0なので、ヨー角Yの可動範囲を狭めるための補正を行わない点も、ステップS37の場合と同様である。また、制御装置4は、図24(A)に例示されるように、像面移動量Δdiffの絶対値が図24(B)に比べて大きな判定閾値(例えば20)以上の場合に、レーダー18を用いて距離情報を得る。つまり、図24(B)に比べて像面移動量Δdiffが大きい段階で、レーダー18を用いて距離情報を得るように切り替える。
制御装置4は、以上説明したように撮像素子100の撮像条件を設定する撮像条件を変更すると、図26による処理を終了して図21のステップS40へ進む。
The movable range of the yaw angle Y and the change of the yaw angle Y are the same as in step S37. Since the flag b = 0 in step S306, the correction for narrowing the movable range of the yaw angle Y is not performed as in the case of step S37. Further, as illustrated in FIG. 24A, the control device 4 detects the radar 18 when the absolute value of the image plane movement amount Δdiff is greater than or equal to a determination threshold (for example, 20) that is larger than that in FIG. Get distance information using. That is, switching is performed so as to obtain distance information using the radar 18 when the image plane movement amount Δdiff is larger than that in FIG.
As described above, when the imaging condition for setting the imaging condition of the imaging device 100 is changed, the control device 4 ends the process of FIG. 26 and proceeds to step S40 of FIG.

<左折レーンの場合>
ステップS307において、制御装置4は、交差点に対向右折車が存在するかどうかを判定する。制御装置4は、ステップS302において取得した交通情報によって対向車線の右折車の有無を判断する他、カメラ3Aによって取得した画像に基づいて対向車線の右折車の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで対向車線に右折車が存在すると判断した場合、ステップS307を肯定判定してステップS308へ進む。制御装置4は、対向車線に右折車が存在すると判断しない場合には、ステップS307を否定判定してステップS309へ進む。
<For left turn lanes>
In step S307, the control device 4 determines whether or not an oncoming right turn vehicle exists at the intersection. The control device 4 determines the presence or absence of a right turn vehicle in the opposite lane based on the traffic information acquired in step S302, and also determines the presence or absence of a right turn vehicle in the opposite lane based on the image acquired by the camera 3A. If the control device 4 determines that there is a right turn vehicle on the oncoming lane in at least one of the above determinations, the control device 4 makes a positive determination in step S307 and proceeds to step S308. If the controller 4 does not determine that there is a right turn vehicle in the oncoming lane, the controller 4 makes a negative determination in step S307 and proceeds to step S309.

ステップS308において、制御装置4はヨー角補正設定を行う。制御装置4は、フラグbに1を設定してステップS309へ進む。これにより、ヨー角Yの値を補正値αで補正する処理が有効になる。像面移動量Δdiffの絶対値が大きくなるにつれてヨー角Yの可動範囲を大きくする場合、カメラ3Aの向きが車両1の旋回方向へ向かう一方で、対向車線の他の車両がカメラ3Aの撮影画面から外れるおそれも高くなる。そこで、制御装置4は、対向車線に他の車両が存在する場合には、他の車両が存在しない場合よりもヨー角Yの可動範囲を狭めるように、補正値αを設けてヨー角Yの可動範囲を補正する。カメラ3Aの向きを車両1の旋回方向へ向けつつ、対向車線の車両の情報を確実にカメラ3Aで取得するためである。   In step S308, the control device 4 performs yaw angle correction setting. The control device 4 sets 1 to the flag b and proceeds to step S309. Thereby, the process of correcting the value of the yaw angle Y with the correction value α is effective. When the movable range of the yaw angle Y is increased as the absolute value of the image plane movement amount Δdiff is increased, the direction of the camera 3A is directed in the turning direction of the vehicle 1, while the other vehicles in the opposite lane are captured by the camera 3A. There is also a high risk of disengagement. Therefore, the control device 4 provides the correction value α so as to narrow the movable range of the yaw angle Y when there is another vehicle in the oncoming lane, compared with the case where there is no other vehicle. Correct the movable range. This is because the camera 3A reliably acquires the information of the vehicle in the opposite lane while turning the direction of the camera 3A in the turning direction of the vehicle 1.

ステップS309において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して、最優先領域83に対するフレームレートを設定する。   In step S309, the control device 4 sets the imaging conditions of the imaging device 100 as follows. That is, the entire imaging surface is set as the highest priority area 83 (all area common control), and based on the image plane movement amount Δdiff calculated in step S301, the highest priority area 83 is referred to with reference to FIG. Set the frame rate for.

フラグb=1なので、制御装置4は、上述したように、ヨー角の可動範囲の制限値を補正値αで補正して狭くする。   Since the flag b = 1, the control device 4 corrects and narrows the limit value of the movable range of the yaw angle with the correction value α as described above.

ステップS310において、制御装置4は、左折の際にこれから通過する横断歩道の歩行者用信号が、横断許可信号(例えば、青信号)であるかを判定する。制御装置4は、ステップS302において取得した交通情報によって横断許可信号の有無を判断する他、カメラ3Aによって取得した画像に基づいて青信号の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで横断許可信号であると判断した場合、ステップS310を肯定判定してステップS311へ進む。制御装置4は、横断許可信号であると判断しない場合には、ステップS311を否定判定し、図26による処理を終了して図21のステップS40へ進む。   In step S310, the control device 4 determines whether or not the pedestrian crossing pedestrian signal to be passed in the case of a left turn is a crossing permission signal (for example, a green light). The control device 4 determines the presence / absence of a crossing permission signal based on the traffic information acquired in step S302, and also determines the presence / absence of a green signal based on the image acquired by the camera 3A. If the control device 4 determines that it is a crossing permission signal in at least one of the above determinations, it makes a positive determination in step S310 and proceeds to step S311. If the control device 4 does not determine that the signal is a crossing permission signal, the control device 4 makes a negative determination in step S311, ends the processing of FIG. 26, and proceeds to step S40 of FIG.

ステップS311において、制御装置4は、視線検出装置16から送出された視線情報に基づき、撮像素子100の撮像面に優先領域82と最優先領域83とを設定するエリア別制御を行う。制御装置4は、乗員の視線に対応する領域について優先領域82に設定し、乗員の視線に対応しない領域は最優先領域83を維持してステップS312へ進む。
なお、上述したように、制御装置4は、カメラ3Aで取得した画像に基づいて認識した横断歩道92を含む領域を、優先領域82としてもよい(図20)。
In step S <b> 311, the control device 4 performs area-specific control for setting the priority area 82 and the highest priority area 83 on the imaging surface of the image sensor 100 based on the line-of-sight information sent from the line-of-sight detection device 16. The control device 4 sets the area corresponding to the sight line of the occupant as the priority area 82, maintains the highest priority area 83 for the area not corresponding to the sight line of the occupant, and proceeds to step S312.
As described above, the control device 4 may set the area including the pedestrian crossing 92 recognized based on the image acquired by the camera 3A as the priority area 82 (FIG. 20).

ステップS312において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して優先領域82、および最優先領域83に対するフレームレートをそれぞれ設定する。   In step S312, the control device 4 sets the imaging condition of the imaging device 100 as follows. That is, based on the image plane movement amount Δdiff calculated in step S301, the frame rates for the priority area 82 and the highest priority area 83 are set with reference to FIG.

フラグb=1なので、制御装置4は、上述したように、ヨー角Yの可動範囲の制限値を補正値αで補正して狭くする。制御装置4は、図26による処理を終了して図21のステップS40へ進む。   Since the flag b = 1, the control device 4 corrects and narrows the limit value of the movable range of the yaw angle Y with the correction value α as described above. The control device 4 ends the process of FIG. 26 and proceeds to step S40 of FIG.

<右折レーンの場合>
ステップS313において、制御装置4は、交差点に対向直進車が存在するかどうかを判定する。制御装置4は、ステップS302において取得した交通情報によって対向車線の直進車の有無を判断する他、カメラ3Aによって取得した画像に基づいて対向車線の直進車の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで対向車線に直進車が存在すると判断した場合、ステップS313を肯定判定してステップS314へ進む。制御装置4は、対向車線に直進車が存在すると判断しない場合には、ステップS313を否定判定してステップS315へ進む。
<Right turn lane>
In step S313, the control device 4 determines whether there is an oncoming straight vehicle at the intersection. The control device 4 determines whether or not there is a vehicle traveling straight in the opposite lane based on the traffic information acquired in step S302, and also determines whether or not there is a vehicle traveling straight in the opposite lane based on the image acquired by the camera 3A. If the control device 4 determines that there is a straight vehicle in the oncoming lane in at least one of the above determinations, it makes a positive determination in step S313 and proceeds to step S314. If the controller 4 does not determine that there is a straight vehicle on the oncoming lane, the controller 4 makes a negative determination in step S313 and proceeds to step S315.

ステップS314において、制御装置4はヨー角補正設定を行う。制御装置4は、フラグbに1を設定してステップS315へ進む。これにより、ヨー角Yの値を補正値αで補正する処理が有効になる。カメラ3Aの向きを車両1の旋回方向へ向けつつ、対向車線の車両の情報を確実にカメラ3Aで取得するためである。   In step S314, the control device 4 performs yaw angle correction setting. The control device 4 sets 1 to the flag b and proceeds to step S315. Thereby, the process of correcting the value of the yaw angle Y with the correction value α is effective. This is because the camera 3A reliably acquires the information of the vehicle in the opposite lane while turning the direction of the camera 3A in the turning direction of the vehicle 1.

ステップS315において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、撮像面の全域を最優先領域83に設定する(全エリア共通制御)とともに、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して、最優先領域83に対するフレームレートを設定する。   In step S315, the control device 4 sets the imaging condition of the imaging device 100 as follows. That is, the entire imaging surface is set as the highest priority area 83 (all area common control), and based on the image plane movement amount Δdiff calculated in step S301, the highest priority area 83 is referred to with reference to FIG. Set the frame rate for.

フラグb=1なので、制御装置4は、上述したように、ヨー角の可動範囲の制限値を補正値αで補正して狭くする。   Since the flag b = 1, the control device 4 corrects and narrows the limit value of the movable range of the yaw angle with the correction value α as described above.

ステップS316において、制御装置4は、右折の際にこれから通過する横断歩道の歩行者用信号が、横断許可信号(例えば、青信号)であるかを判定する。制御装置4は、ステップS302において取得した交通情報によって横断許可信号の有無を判断する他、カメラ3Aによって取得した画像に基づいて青信号の有無を判断する。制御装置4は、上記判断のうち少なくとも1つで横断許可信号であると判断した場合、ステップS316を肯定判定してステップS317へ進む。制御装置4は、横断許可信号であると判断しない場合には、ステップS316を否定判定し、図26による処理を終了して図21のステップS40へ進む。   In step S316, the control device 4 determines whether or not the pedestrian crossing pedestrian signal that will be passed in the case of a right turn is a crossing permission signal (for example, a green light). The control device 4 determines the presence / absence of a crossing permission signal based on the traffic information acquired in step S302, and also determines the presence / absence of a green signal based on the image acquired by the camera 3A. If the control device 4 determines that it is a crossing permission signal in at least one of the above determinations, it makes a positive determination in step S316 and proceeds to step S317. If the control device 4 does not determine that the signal is a crossing permission signal, the control device 4 makes a negative determination in step S316, ends the processing in FIG. 26, and proceeds to step S40 in FIG.

ステップS317において、制御装置4は、視線検出装置16から送出された視線情報に基づき、撮像素子100の撮像面に優先領域82と最優先領域83とを設定するエリア別制御を行う。制御装置4は、乗員の視線に対応する領域について優先領域82に設定し、乗員の視線に対応しない領域は最優先領域83を維持してステップS318へ進む。
なお、上述したように、制御装置4は、カメラ3Aで取得した画像に基づいて認識した横断歩道を含む領域を、優先領域82としてもよい。
In step S <b> 317, the control device 4 performs area-specific control for setting the priority area 82 and the highest priority area 83 on the imaging surface of the image sensor 100 based on the line-of-sight information sent from the line-of-sight detection device 16. The control device 4 sets the area corresponding to the sight line of the occupant as the priority area 82, maintains the highest priority area 83 for the area not corresponding to the sight line of the occupant, and proceeds to step S318.
Note that, as described above, the control device 4 may set the area including the pedestrian crossing recognized based on the image acquired by the camera 3 </ b> A as the priority area 82.

ステップS318において、制御装置4は、以下のように撮像素子100の撮像条件を設定する。すなわち、ステップS301で算出した像面移動量Δdiffに基づいて、図24(B)を参照して優先領域82、および最優先領域83に対するフレームレートをそれぞれ設定する。   In step S318, the control device 4 sets the imaging condition of the imaging device 100 as follows. That is, based on the image plane movement amount Δdiff calculated in step S301, the frame rates for the priority area 82 and the highest priority area 83 are set with reference to FIG.

フラグb=1なので、制御装置4は、上述したように、ヨー角Yの可動範囲の制限値を補正値αで補正して狭くする。制御装置4は、図26による処理を終了して図21のステップS40へ進む。   Since the flag b = 1, the control device 4 corrects and narrows the limit value of the movable range of the yaw angle Y with the correction value α as described above. The control device 4 ends the process of FIG. 26 and proceeds to step S40 of FIG.

上述した第二の実施の形態によれば、次の作用効果が得られる。
(1)車両1は、複数の単位領域131の撮像条件を独立して設定可能な撮像素子100を備えた撮像部32と、撮像素子100の画素からの出力に基づいて、第1奥行き分布画像を演算する制御部35と、第1奥行き分布画像に基づいて、複数の単位領域131の撮像条件を設定する制御装置4と、を備える。これにより、例えば車両1から被写体までの距離が所定の閾値(例えば300m)以上に該当する領域を非優先領域81とし、それ以外を優先領域82にする等、撮像部32に対して適切な撮像条件を設定することができる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The vehicle 1 has a first depth distribution image based on the imaging unit 32 including the imaging element 100 that can independently set the imaging conditions of the plurality of unit regions 131 and the output from the pixels of the imaging element 100. And a control device 4 that sets the imaging conditions of the plurality of unit regions 131 based on the first depth distribution image. Thereby, for example, an area where the distance from the vehicle 1 to the subject is equal to or greater than a predetermined threshold (for example, 300 m) is set as the non-priority area 81, and the other is set as the priority area 82. Conditions can be set.

(2)移動可能な車両1にステアリングホイール10を備え、制御装置4は、車両1の車速Vと、ステアリングホイールの回転角θと、第1奥行き分布画像とに基づいて、複数の単位領域131の撮像条件を設定する。これにより、像面移動量Δdiffや第1奥行き分布画像に基づいて、撮像部32に対して適切な撮像条件を設定することができる。 (2) The movable vehicle 1 includes the steering wheel 10, and the control device 4 includes a plurality of unit regions 131 based on the vehicle speed V of the vehicle 1, the rotation angle θ of the steering wheel, and the first depth distribution image. Set the imaging conditions. Accordingly, it is possible to set appropriate imaging conditions for the imaging unit 32 based on the image plane movement amount Δdiff and the first depth distribution image.

(3)車両1は、移動可能な車両1に設けられたステアリングホイール10と、撮像を行う撮像部32と、車両1の車速V、ステアリングホイール10の操作量に基づいて、撮像部32を移動させる制御装置4とを備える。これにより、撮像素子100に写る像の流れ(オプティカルフロー)の上流側の像が早く写るように、撮像部32のヨー角制御を適切に行うことができる。 (3) The vehicle 1 moves the imaging unit 32 based on the steering wheel 10 provided in the movable vehicle 1, the imaging unit 32 that performs imaging, the vehicle speed V of the vehicle 1, and the operation amount of the steering wheel 10. And a control device 4 to be operated. Thereby, the yaw angle control of the imaging unit 32 can be appropriately performed so that the upstream image of the image flow (optical flow) captured on the image sensor 100 is captured quickly.

(4)撮像部32は、複数の単位領域131の撮像条件を独立して設定可能な撮像素子100を備えたので、単位領域131ごとに異なる撮像条件を設定することができる。 (4) Since the imaging unit 32 includes the imaging device 100 that can independently set the imaging conditions of the plurality of unit regions 131, different imaging conditions can be set for each unit region 131.

(5)制御装置4は、ステアリングホイール10の操作に応じて撮像部32を移動させるので、ステアリングホイール10の回転操作に対してリアルタイムで撮像部32のヨー角制御を行うことができる。 (5) Since the control device 4 moves the imaging unit 32 according to the operation of the steering wheel 10, the yaw angle control of the imaging unit 32 can be performed in real time with respect to the rotation operation of the steering wheel 10.

(6)制御装置4は、車速Vとステアリングホイール10の回転角θとに基づいて撮像部32の移動量を決めるので、撮像部32のヨー角制御を適切に行うことができる。 (6) Since the control device 4 determines the movement amount of the imaging unit 32 based on the vehicle speed V and the rotation angle θ of the steering wheel 10, the yaw angle control of the imaging unit 32 can be appropriately performed.

(7)車両1は、複数の単位領域131の撮像条件を独立して設定可能な撮像素子100を備えた撮像部32と、交差点への接近を検出する制御装置4と、制御装置4による検出結果に基づいて、撮像素子100の複数の単位領域131の撮像条件を設定する制御装置4を備える。これにより、車両1が交差点に近づいた場合と、車両1が交差点から離れている場合とで、異なる撮像条件を設定できる。さらに、交差点の左折レーン、直進レーン、右折レーンを走行する車両1に対し、それぞれ適切な撮像条件を設定することができる。 (7) The vehicle 1 includes an imaging unit 32 including the imaging element 100 that can independently set imaging conditions of the plurality of unit regions 131, a control device 4 that detects approach to an intersection, and detection by the control device 4. Based on the result, the control device 4 that sets the imaging conditions of the plurality of unit regions 131 of the imaging device 100 is provided. Thereby, different imaging conditions can be set when the vehicle 1 approaches the intersection and when the vehicle 1 is away from the intersection. Furthermore, it is possible to set appropriate imaging conditions for the vehicle 1 traveling on the left turn lane, the straight lane, and the right turn lane at the intersection.

(8)車両1の周辺の対象物を検出するレーダー18を備えるため、制御部35により演算された第1奥行き分布画像と別に、第2奥行き画像を得ることができる。 (8) Since the radar 18 that detects an object around the vehicle 1 is provided, a second depth image can be obtained separately from the first depth distribution image calculated by the control unit 35.

(9)車両1は、乗員の視線を検出する視線検出装置16を備える。これにより、例えば、乗員が注意していない領域に対してフレームレートを高めるなど、乗員の視線を考慮して撮像部32の撮像条件を設定することができる。 (9) The vehicle 1 includes a line-of-sight detection device 16 that detects the line of sight of an occupant. Accordingly, for example, the imaging condition of the imaging unit 32 can be set in consideration of the sight line of the occupant, such as increasing the frame rate for an area that the occupant is not careful about.

(10)車両1の制御装置4は、交差点における車両1の左折(または右折)の際に通過する横断歩道92を含む注目領域82以外の領域に対し、最優先領域83を設定してフレームレートを高くしたり、間引き率を低くしたりして撮像する。これにより、運転する乗員による注目度が低い領域が、最優先領域83として撮像部32によって注目度が高められる。具体的には、図20のように左折時において対向車線から右折してくる車両91などの他の車両が、撮像部32によって監視される。 (10) The control device 4 of the vehicle 1 sets the highest priority area 83 for the area other than the attention area 82 including the pedestrian crossing 92 that passes when the vehicle 1 turns left (or right) at the intersection, and sets the frame rate. The image is picked up with a high or low thinning rate. As a result, an area where the degree of attention by the driving occupant is low is increased as the highest priority area 83 by the imaging unit 32. Specifically, as shown in FIG. 20, another vehicle such as a vehicle 91 turning right from the oncoming lane at the time of a left turn is monitored by the imaging unit 32.

(11)車両1の制御装置4は、撮像部32の撮像素子100に写る像の流れの大きさを表す像面移動量Δdiffに基づき、撮像部32の撮像条件を設定する。これにより、例えば像面移動量Δdiffの大小によってフレームレートの高低を変化させるなど、撮像部32に対する撮像条件を適切に設定することができる。 (11) The control device 4 of the vehicle 1 sets the imaging condition of the imaging unit 32 based on the image plane movement amount Δdiff indicating the magnitude of the flow of the image captured on the imaging device 100 of the imaging unit 32. Thereby, for example, the imaging condition for the imaging unit 32 can be appropriately set such that the frame rate is changed depending on the magnitude of the image plane movement amount Δdiff.

(12)制御装置4は、車速Vとステアリングホイールの回転角θの積に基づいて像面移動量Δdiffを算出したので、撮像素子100に写る像の流れの大きさを適切に算出できる。 (12) Since the control device 4 calculates the image plane movement amount Δdiff based on the product of the vehicle speed V and the rotation angle θ of the steering wheel, it can appropriately calculate the size of the flow of the image shown on the image sensor 100.

(13)制御装置4は、像面移動量Δdiffの向き、大きさに基づいて撮像部32のヨー角Yを制御するようにした。これにより、オプティカルフローの上流側の像が撮像部32の撮像面に早く写るように、撮像部32のヨー角制御を適切に行うことができる。 (13) The control device 4 controls the yaw angle Y of the imaging unit 32 based on the direction and magnitude of the image plane movement amount Δdiff. As a result, the yaw angle control of the imaging unit 32 can be appropriately performed so that the image on the upstream side of the optical flow is quickly captured on the imaging surface of the imaging unit 32.

(14)制御装置4は、像面移動量Δdiffの大きさに基づいて、撮像部3のフレームレートを変化させる。これにより、像面移動量Δdiffの大きさが大きいほどフレームレートを高めるなど、撮像部32に対する撮像条件を適切に設定することができる。 (14) The control device 4 changes the frame rate of the imaging unit 3 based on the magnitude of the image plane movement amount Δdiff. Thereby, the imaging conditions for the imaging unit 32 can be appropriately set such that the frame rate is increased as the image plane movement amount Δdiff is larger.

(15)制御装置4は、対向車線の右折車または対向車線の直進車の存在により、撮像部32のヨー角の移動範囲を狭く補正する。これにより、撮像部32の向きを車両1の旋回方向へ向けつつ、対向車線の車両の情報を確実に撮像部32で取得させることができる。
なお、上述した実施の形態では、制御装置4の制御によりカメラ3Aを制御したが、カメラ3Aの制御の一部をカメラ3Aの制御部35により行うようにしてもよい。
(15) The control device 4 corrects the moving range of the yaw angle of the imaging unit 32 to be narrow due to the presence of a right turn vehicle in the opposite lane or a straight vehicle in the opposite lane. Thereby, the information of the vehicle in the opposite lane can be reliably acquired by the imaging unit 32 while the direction of the imaging unit 32 is directed in the turning direction of the vehicle 1.
In the above-described embodiment, the camera 3A is controlled by the control device 4, but a part of the control of the camera 3A may be performed by the control unit 35 of the camera 3A.

(第二の実施の形態の変形例1)
上記実施の形態では、優先領域82と最優先領域83とでフレームレートを異ならせる例を説明した。この代わりに、優先領域82と最優先領域83との間に緩衝領域を設け、フレームレートを多段階に異ならせるようにしてもよい。例えば、緩衝領域のフレームレートを優先領域82のフレームレートと最優先領域83のフレームレートとの中間値にすることにより、フレームレートを多段階に変化させる。このような緩衝領域を設けることで、フレームレートの値が境界部分で大きく変化する状態を避けることができる。
(Modification 1 of the second embodiment)
In the above-described embodiment, the example in which the frame rate is different between the priority area 82 and the highest priority area 83 has been described. Instead, a buffer area may be provided between the priority area 82 and the highest priority area 83, and the frame rate may be varied in multiple stages. For example, the frame rate is changed in multiple stages by setting the frame rate of the buffer area to an intermediate value between the frame rate of the priority area 82 and the frame rate of the highest priority area 83. By providing such a buffer area, it is possible to avoid a state in which the value of the frame rate changes greatly at the boundary portion.

(第二の実施の形態の変形例2)
以上の説明では、カメラ3Aで行う距離測定として、撮像素子100に備えられている焦点検出用画素からの画像信号を用いた測距演算により算出する手法を用いたが、ステレオカメラによる2枚の画像を用いて距離測定を行う手法を用いてもよい。
(Modification 2 of the second embodiment)
In the above description, as a distance measurement performed by the camera 3A, a method of calculating by distance measurement using an image signal from a focus detection pixel provided in the image sensor 100 is used. You may use the method of measuring distance using an image.

(第三の実施の形態)
第三の実施の形態は、ステレオカメラによる2枚の画像を用いて距離測定を行う例であり、とくに補助光源22を用いる場合について説明する。図27(a)は、第三の実施の形態を説明する図である。図27(a)において、補助光源22は、車両1の前部に設けられ、所定の地上高(例えば50cm)の高さで道路面に平行に、車両1が走行する前方を照射する。補助光源22は、ステレオカメラ3Sによる撮影画角内へ所定の投影パターンの赤外光22Bを発する。車両1は、図1に例示した車両と同様であり、カメラ3Aの代わりにステレオカメラ3Sが設けられている。
(Third embodiment)
The third embodiment is an example in which distance measurement is performed using two images by a stereo camera. In particular, a case where the auxiliary light source 22 is used will be described. FIG. 27A is a diagram for explaining the third embodiment. In FIG. 27 (a), the auxiliary light source 22 is provided at the front portion of the vehicle 1, and irradiates the front of the vehicle 1 traveling parallel to the road surface at a predetermined ground height (for example, 50 cm). The auxiliary light source 22 emits infrared light 22B having a predetermined projection pattern within the field angle of view taken by the stereo camera 3S. The vehicle 1 is the same as the vehicle illustrated in FIG. 1, and a stereo camera 3S is provided instead of the camera 3A.

図27(b)は、補助光源22による投影パターンを説明する図である。図27(b)において、車両1の前方正面に設けられた低コントラストの壁40に、赤外光22Bが照射されている。投影パターンは、壁40の中央部に対して左右対称であり、パターンの縞の間隔が不均一に構成されている。図27(b)の例では、壁40の中央部から左右の端に向かって縞の間隔が徐々に広げられている。   FIG. 27B is a diagram for explaining a projection pattern by the auxiliary light source 22. In FIG. 27 (b), the infrared light 22 </ b> B is irradiated on the low-contrast wall 40 provided in front of the vehicle 1. The projection pattern is bilaterally symmetric with respect to the central portion of the wall 40, and the pattern stripes are configured to be uneven. In the example of FIG. 27 (b), the interval between the stripes is gradually increased from the central portion of the wall 40 toward the left and right ends.

例えば、補助光源22として赤外LEDを用いる場合、LEDチップの発光部のパターンを縞状に構成し、そのパターンを投影させることができる。また、レンズとプリズムを用いることにより、補助光源22からの赤外光22Bを縞状に投射させてもよい。   For example, when an infrared LED is used as the auxiliary light source 22, the pattern of the light emitting part of the LED chip can be configured in a striped pattern, and the pattern can be projected. Further, the infrared light 22B from the auxiliary light source 22 may be projected in a stripe pattern by using a lens and a prism.

一方、ステレオカメラ3Sを構成する左右のカメラには、それぞれ上述した撮像素子100と同様の撮像素子が搭載されている。そして、各撮像素子には、Bayer配列などの所定の配列を有するRGB画素のうち、例えばG画素の位置に赤外光を受光するフィルタを配したIR画素が所定の割合で配置されている。これにより、ステレオカメラ3Sは、IR画素からの画像信号に基づいて左右2つの赤外画像を取得することができる。IR画素に配するフィルタは、補助光源22から発する赤外光22Bの波長を透過し、他の波長域を遮断する特性を有する。
なお、IR画素を配する位置は、Bayer配列におけるG画素の位置に限らず、R画素の位置でもよいし、B画素の位置でもよい。
On the other hand, the left and right cameras constituting the stereo camera 3S are equipped with image sensors similar to the image sensor 100 described above. In each imaging device, among RGB pixels having a predetermined array such as a Bayer array, for example, IR pixels in which a filter that receives infrared light is disposed at the position of the G pixel are disposed at a predetermined ratio. Thereby, the stereo camera 3S can acquire two left and right infrared images based on the image signal from the IR pixel. The filter disposed in the IR pixel has a characteristic of transmitting the wavelength of the infrared light 22B emitted from the auxiliary light source 22 and blocking other wavelength regions.
The position where the IR pixel is arranged is not limited to the position of the G pixel in the Bayer array, but may be the position of the R pixel or the position of the B pixel.

制御装置4は、上記ステレオカメラ3Sで取得された赤外光22Bによるステレオ画像を用いて距離測定を行う。図27(c)は、赤外光22Bが照射された対象物(人物2人)を例示する図である。制御装置4は、車両1の車外が所定の明るさである場合、左右のカメラの各撮像素子のRGB画素を全て駆動して所定のフレームレートでRGBのステレオ画像を取得する。制御装置4は、RGBのステレオ画像に基づき、車両1が走行する前方の対象物を検知する。   The control device 4 performs distance measurement using a stereo image obtained by the infrared light 22B acquired by the stereo camera 3S. FIG. 27 (c) is a diagram illustrating an object (two persons) irradiated with infrared light 22B. When the outside of the vehicle 1 has a predetermined brightness, the control device 4 drives all the RGB pixels of the imaging elements of the left and right cameras to acquire an RGB stereo image at a predetermined frame rate. The control device 4 detects a front object on which the vehicle 1 travels based on the RGB stereo image.

制御装置4は、検知した対象物であって、赤外光22Bが照射されている対象物に対応するIR画素を駆動し、赤外光22Bが照射されている対象物に対応しないIR画素を駆動しない。制御装置4は、RGBのステレオ画像に基づいて距離測定を行い、RGBのステレオ画像に基づく距離測定が困難な場合に赤外光22Bによるステレオ画像に基づいて対象物までの距離測定を行う。   The control device 4 drives an IR pixel corresponding to the detected object that is irradiated with the infrared light 22B and does not correspond to the object irradiated with the infrared light 22B. Do not drive. The control device 4 performs distance measurement based on the RGB stereo image, and when the distance measurement based on the RGB stereo image is difficult, performs the distance measurement to the target object based on the stereo image by the infrared light 22B.

制御装置4は、車両1の車外が所定の明るさに満たない場合、左右のカメラの各撮像素子のIR画素を全て駆動して、所定のフレームレートで赤外光22Bによるステレオ画像を取得する。制御装置4は、赤外光22Bによる最初のフレームのステレオ画像に基づき、車両1が走行する前方の対象物を検知する。そして、制御装置4は、次フレーム以降については検知した対象物およびこの対象物を含む所定範囲に対応するIR画素を駆動し、他のIR画素を駆動しない。制御装置4は、赤外光22Bによるステレオ画像に基づいて対象物までの距離測定を行う。   When the outside of the vehicle 1 is less than the predetermined brightness, the control device 4 drives all the IR pixels of the imaging elements of the left and right cameras, and acquires a stereo image by the infrared light 22B at a predetermined frame rate. . The control device 4 detects an object in front of which the vehicle 1 travels based on the stereo image of the first frame by the infrared light 22B. Then, the control device 4 drives the detected object and the IR pixel corresponding to the predetermined range including the object for the subsequent frames and does not drive the other IR pixels. The control device 4 performs distance measurement to the object based on the stereo image by the infrared light 22B.

制御装置4はさらに、検知した対象物までの距離が短いほど、対応するIR画素のフレームレートを高くし、検知した対象物までの距離が長いほど、対応するIR画素のフレームレートを低くする。以上説明したように、IR画素を選択的に駆動し、対象物までの距離に応じてIR画素のフレームレートを異ならせるようにしたので、左右のカメラの各撮像素子のIR画素の全てを高フレームレートで駆動する場合に比べて、消費電力の低減を図ることができる。   The control device 4 further increases the frame rate of the corresponding IR pixel as the distance to the detected object is shorter, and decreases the frame rate of the corresponding IR pixel as the distance to the detected object is longer. As described above, since the IR pixels are selectively driven and the frame rates of the IR pixels are varied according to the distance to the object, all of the IR pixels of the imaging elements of the left and right cameras are increased. The power consumption can be reduced as compared with the case of driving at the frame rate.

赤外光22Bを発する補助光源22の発光タイミングは、常に発光させてもよいし、左右のカメラの各撮像素子のIR画素を駆動するタイミングで発光させる間欠発光でもよい。
また、RGBのステレオ画像に基づいて所定の条件を判定した場合に赤外光22Bを発するように構成してもよい。例えば、車両1の前方に壁があるとき(T字路、行き止まり等)、対象物(人)が無地の服を着ているとき、対象物がクルマのとき、対象物が規則的な模様を有するとき(シャッター等)に、補助光源22から赤外光22Bを発光させる。
The light emission timing of the auxiliary light source 22 that emits the infrared light 22B may be always emitted, or may be intermittent light emission that emits light at the timing of driving the IR pixels of the imaging elements of the left and right cameras.
Alternatively, the infrared light 22B may be emitted when a predetermined condition is determined based on an RGB stereo image. For example, when there is a wall in front of the vehicle 1 (T-junction, dead end, etc.), when the object (person) is wearing plain clothes, when the object is a car, the object has a regular pattern. When it is held (such as a shutter), infrared light 22B is emitted from the auxiliary light source 22.

上述した第三の実施の形態によれば、次の作用効果が得られる。すなわち、撮像装置は、複数の領域の撮像条件を独立して設定可能な撮像素子を備えたステレオカメラ3Sと、所定のパターンの赤外光22Bが照射されている対象物の赤外光22Bが照射される部分を撮像する撮像素子の領域の撮像条件と、赤外光22Bが照射されない部分を撮像する撮像素子の領域の撮像条件とを異ならせるように制御する制御装置4と、を備える。これにより、ステレオカメラ3Sによるステレオ画像に基づき、夜間や逆光時にも適切に距離測定を行うことができる。また、赤外光22Bによる投影パターンの縞の間隔を不均一にしたので、真正面の平面に投影した場合でも視差を検出しやすい。
また、夜間だけでなく霧の場合にも有効である。
According to the third embodiment described above, the following operational effects can be obtained. That is, the imaging apparatus includes a stereo camera 3S including an imaging element that can independently set imaging conditions for a plurality of areas, and infrared light 22B of an object irradiated with infrared light 22B having a predetermined pattern. And a control device 4 that controls the imaging condition of the region of the imaging element that captures the irradiated portion and the imaging condition of the region of the imaging element that captures the portion not irradiated with the infrared light 22B to be different. Thereby, based on the stereo image by the stereo camera 3S, distance measurement can be appropriately performed even at night or in backlight. Further, since the intervals between the stripes of the projection pattern by the infrared light 22B are made non-uniform, it is easy to detect the parallax even when projected onto the plane in front of it.
Moreover, it is effective not only at night but also in the case of fog.

(第四の実施の形態)
図28(a)および図28(b)は、第四の実施の形態を説明する図である。図28(a)において、車両1は、図1に例示した車両と同様であるが、ウィンドシールドガラス20(カメラ3への光束が通過する領域を除く)に透過型液晶フィルタ21が積層されている。第四の実施の形態では、運転者にとって視認しづらい情報(必要光)をカメラ3Aにより取得する。
(Fourth embodiment)
FIG. 28 (a) and FIG. 28 (b) are diagrams for explaining the fourth embodiment. In FIG. 28A, the vehicle 1 is the same as the vehicle illustrated in FIG. 1, except that a transmissive liquid crystal filter 21 is laminated on the windshield glass 20 (excluding the region through which the light flux to the camera 3 passes). Yes. In the fourth embodiment, information that is difficult for the driver to visually recognize (necessary light) is acquired by the camera 3A.

図28(b)において、ダッシュボード内に表示・再生装置14としてのヘッドアップディスプレイが備えられている。ヘッドアップディスプレイ14は、運転者30に注意を促す。さらに、透過型液晶フィルタ21(図28(a))は、運転者30にとって眩しい光(不要光)を抑える。   In FIG. 28 (b), a head-up display as a display / playback device 14 is provided in the dashboard. The head-up display 14 alerts the driver 30. Further, the transmissive liquid crystal filter 21 (FIG. 28A) suppresses light that is dazzling for the driver 30 (unnecessary light).

透過型液晶フィルタ21は、領域毎の可視光透過率を制御可能なフィルタである。本実施の形態では、制御装置4によって所定の明るさ以上の対象物(朝日、夕日などの太陽35)が存在することが検出された場合に、透過型液晶フィルタ21を構成する液晶素子のうち、運転者30が観察する景色における上記太陽35およびその周囲の領域に対応する透過型液晶フィルタ21の液晶素子の透過率を下げる。これにより、運転者30の眼に対する過剰な不要光を抑制する。   The transmissive liquid crystal filter 21 is a filter capable of controlling the visible light transmittance for each region. In the present embodiment, when the control device 4 detects the presence of an object (sun 35 such as morning sun or sunset) having a predetermined brightness or higher, among the liquid crystal elements constituting the transmissive liquid crystal filter 21 The transmittance of the liquid crystal element of the transmissive liquid crystal filter 21 corresponding to the sun 35 and the surrounding area in the scenery observed by the driver 30 is lowered. Thereby, the excessive unnecessary light with respect to the driver | operator 30 eyes is suppressed.

なお、太陽35の他にも、建造物で反射された反射光や、夜間走行時の対向車のヘッドライトを過剰な不要光として抑制する対象にしてもよい。ここで、運転者30の体格や着座位置に基づく運転者30の眼の位置と、透過型液晶フィルタ21を介して運転者30が観察する景色との関係が予め記憶されているものとする。   In addition to the sun 35, the reflected light reflected by the building and the headlight of the oncoming vehicle during night driving may be targeted for suppression as excessive unnecessary light. Here, it is assumed that the relationship between the position of the eyes of the driver 30 based on the physique and the sitting position of the driver 30 and the scenery that the driver 30 observes through the transmissive liquid crystal filter 21 is stored in advance.

ヘッドアップディスプレイ14は、液晶パネルなどに表示した情報を虚像としてウィンドシールドガラス20に映し出す表示装置である。運転者30は、車両1の外部の風景に重ねるように投映されたヘッドアップディスプレイ14による情報を観察する。本実施の形態では、制御装置4によって対象物(歩行者、車両(クルマ、二輪車を含む)等)の存在が検出された場合に、運転者30が観察する景色における上記対象物を含む枠(縁取りでもよい)P2をヘッドアップディスプレイ14によって表示させる。   The head-up display 14 is a display device that displays information displayed on a liquid crystal panel or the like on the windshield glass 20 as a virtual image. The driver 30 observes information by the head-up display 14 projected so as to be superimposed on the scenery outside the vehicle 1. In the present embodiment, when the control device 4 detects the presence of an object (a pedestrian, a vehicle (including a car, a two-wheeled vehicle), etc.), a frame including the object in the scenery observed by the driver 30 ( P2 may be displayed by the head-up display 14.

また、制御装置4によって対象物(道路標識、信号、横断歩道、側溝等)の存在が検出された場合にも、運転者30が観察する景色における上記対象物を含む枠(縁取りでもよい)P1をヘッドアップディスプレイ14によって表示させてもよい。
なお、運転者30の体格や着座位置に基づく運転者30の眼の位置と、ウィンドシールドガラス20を介して運転者30が観察する景色と、ヘッドアップディスプレイ14による投映位置との関係が予め記憶されているものとする。
In addition, even when the presence of an object (a road sign, a signal, a pedestrian crossing, a gutter, etc.) is detected by the control device 4, a frame (which may be bordered) P1 including the object in the scenery observed by the driver 30 May be displayed by the head-up display 14.
The relationship between the position of the eyes of the driver 30 based on the physique of the driver 30 and the sitting position, the scenery observed by the driver 30 through the windshield glass 20, and the projection position by the head-up display 14 is stored in advance. It is assumed that

(区分け)
制御装置4は、カメラ3Aで取得された画像に基づき区分けを行うことにより、透過型液晶フィルタ21に対する透過率の制御、ヘッドアップディスプレイ14に対する表示制御、およびカメラ3Aに対するゲイン等の制御を行う。
(Division)
The control device 4 performs classification based on the image acquired by the camera 3A, thereby performing control of the transmittance with respect to the transmissive liquid crystal filter 21, display control with respect to the head-up display 14, and control with respect to the gain with respect to the camera 3A.

(過剰光領域)
制御装置4は、所定の明るさ以上の対象物を以下のように検出する。例えば、GPS装置15により算出された車両1の位置情報および時刻情報、ナビゲーション装置18によって検出された車両1の方位情報、予め用意されている太陽35の位置情報(観測地点と高度(仰角)および方位を示す情報)、およびカメラ3Aの画角情報に基づき、カメラ3Aで取得される画像における、太陽35等による不要な過剰光に対応する領域(過剰光領域と呼ぶ)を検出する。制御装置4は、上述したように、透過型液晶フィルタ21のうち過剰光領域に対応する液晶素子の透過率を下げる。また、制御装置4は、カメラ3Aの撮像素子100に対しては、撮像面の過剰光領域に対応するゲインを低く設定する。
(Excessive light area)
The control device 4 detects an object having a predetermined brightness or more as follows. For example, the position information and time information of the vehicle 1 calculated by the GPS device 15, the direction information of the vehicle 1 detected by the navigation device 18, the position information of the sun 35 prepared in advance (observation point and altitude (elevation angle) and Based on the information indicating the azimuth) and the angle of view information of the camera 3A, an area (referred to as an excessive light area) corresponding to unnecessary excessive light from the sun 35 or the like in the image acquired by the camera 3A is detected. As described above, the control device 4 reduces the transmittance of the liquid crystal element corresponding to the excess light region in the transmissive liquid crystal filter 21. Further, the control device 4 sets the gain corresponding to the excessive light region on the imaging surface to be low for the imaging device 100 of the camera 3A.

(不足光領域)
制御装置4は、カメラ3Aで取得された画像の対象物が所定の明るさよりも暗い場合に、上記対象物からの光を不足光と判断する。制御装置4は、カメラ3Aの撮像素子100における不足光に対応する領域(不足光領域と呼ぶ)のゲインを高く設定する。これにより、カメラ3Aによって取得される画像の対象物が明るくなり、対象物(歩行者、車両(クルマ、二輪車を含む)、標識等)を認識しやすくなる。
なお、撮像素子100のゲインを部分的に高くするだけでなく、フレームレートを部分的に高く変更してもよい。また、対象物が無いと判定した場合には、ゲインやフレームレートを変更前の値に戻してもよい。
(Insufficient light area)
When the object of the image acquired by the camera 3A is darker than the predetermined brightness, the control device 4 determines that the light from the object is insufficient light. The control device 4 sets a high gain in an area corresponding to insufficient light (referred to as an insufficient light area) in the image sensor 100 of the camera 3A. As a result, the object of the image acquired by the camera 3A becomes brighter and it becomes easier to recognize the object (pedestrian, vehicle (including cars, two-wheeled vehicles), signs, etc.).
In addition to partially increasing the gain of the image sensor 100, the frame rate may be partially increased. If it is determined that there is no object, the gain and the frame rate may be returned to the values before the change.

(必要光領域)
制御装置4は、カメラ3Aで取得された画像に対象物(道路標識、信号、横断歩道、側溝等)が含まれる場合に、上記対象物からの光を必要光と判断する。制御装置4は、カメラ3Aの撮像素子100における必要光に対応する領域(必要光領域と呼ぶ)のゲインを部分的に高く設定する。これにより、カメラ3Aによって取得される画像の対象物が明るくなり、対象物(道路標識、信号、横断歩道、側溝等)の情報がわかりやすくなる。
なお、制御装置4は、カメラ3Aで取得された画像が所定の明るさよりも明るい場合には、ゲインやフレームレートを変更前の値に戻してもよい。
(Required light area)
The control device 4 determines that the light from the object is necessary light when an object (a road sign, a signal, a pedestrian crossing, a gutter, etc.) is included in the image acquired by the camera 3A. The control device 4 sets the gain of a region (referred to as a necessary light region) corresponding to the necessary light in the imaging device 100 of the camera 3A to be partially high. Thereby, the object of the image acquired by the camera 3A becomes brighter, and information on the object (road sign, signal, pedestrian crossing, side gutter, etc.) becomes easy to understand.
Note that when the image acquired by the camera 3A is brighter than a predetermined brightness, the control device 4 may return the gain and the frame rate to values before the change.

制御装置4はさらに、上述したように、上記不足光領域や上記必要光領域に対し、それぞれの対象物を含む枠(縁取りでもよい)P1、P2をヘッドアップディスプレイ14によって表示させる。これにより、運転者30に対象物の存在を知らせたり、注意を促したりすることができる。
なお、枠や縁取りの表示に代えて、あるいは枠や縁取りの表示に加えて、予め記憶しているマーク(例えば、道路標識と同じマーク、人をかたどったマーク、車両をかたどったマーク等)を表示させてもよい。
Further, as described above, the control device 4 causes the head-up display 14 to display frames (which may be bordered) P1 and P2 including the respective objects with respect to the insufficient light region and the necessary light region. Thereby, it is possible to inform the driver 30 of the presence of the object or to call attention.
In addition to the display of the frame and border, or in addition to the display of the frame and border, a previously stored mark (for example, the same mark as a road sign, a mark that looks like a person, a mark that looks like a vehicle, etc.) It may be displayed.

制御装置4は、撮像素子100の撮像面のうちの不足光領域や必要光領域のゲインを上げる代わりに、あるいはゲインを上げるとともに、同領域について画素加算を行ってもよい。画素加算は、複数の画素信号を足し合わせて1つの画素信号として扱うことをいう。制御装置4は、例えば、取得タイミングが連続する複数フレーム(例えば4枚)の画像を画素加算して1枚の画像を得る。画素加算は、複数フレーム間の対応する画素信号同士を加算する。   The control device 4 may perform pixel addition for the same area instead of increasing the gain of the insufficient light area or the necessary light area on the imaging surface of the image sensor 100 or increasing the gain. Pixel addition means that a plurality of pixel signals are added and handled as one pixel signal. For example, the control device 4 pixel-adds images of a plurality of frames (for example, four images) with successive acquisition timings to obtain one image. In pixel addition, corresponding pixel signals between a plurality of frames are added together.

制御装置4は、上述したように不足光領域や必要光領域のゲインを一時的に高めたり、複数フレーム間で画素加算を行ったりすることによって対象物を検知した後は、対象物の動きを追尾し得る程度にゲインを下げる、または画素加算を行うフレーム数を減少するなどしてよい。   After detecting the object by temporarily increasing the gain of the insufficient light area and the necessary light area as described above or performing pixel addition between a plurality of frames as described above, the control device 4 moves the object. The gain may be lowered to the extent that tracking can be performed, or the number of frames for pixel addition may be reduced.

上述した第四の実施の形態によれば、次の作用効果が得られる。すなわち、電子機器は、複数の領域の撮像条件を独立して設定可能な撮像素子100を備えた撮像部32と、車両1の運転者30の前面に設けられたヘッドアップディスプレイ14と、撮像部32で撮像した画像から求めた車両1の前方の明るさの情報により、複数の領域の撮像条件の設定と、ヘッドアップディスプレイ14の表示の制御とを行う制御装置4とを備える。例えば、撮像素子100における不足光に対応する領域のゲインを高く設定することにより、カメラ3Aによって取得される画像の対象物が明るくなり、対象物(歩行者、車両(クルマ、二輪車を含む)、標識等)を認識しやすくなる。また、運転者30に対象物の存在を知らせたり、注意を促したりすることができる。   According to the fourth embodiment described above, the following operational effects can be obtained. That is, the electronic apparatus includes an imaging unit 32 including an imaging element 100 that can independently set imaging conditions for a plurality of areas, a head-up display 14 provided on the front surface of the driver 30 of the vehicle 1, and an imaging unit. And a control device 4 that performs setting of imaging conditions for a plurality of regions and control of display on the head-up display 14 based on information about the brightness in front of the vehicle 1 obtained from the image captured at 32. For example, by setting the gain of the region corresponding to the insufficient light in the image sensor 100 to be high, the object of the image acquired by the camera 3A becomes bright, and the object (pedestrian, vehicle (including a car and a motorcycle), It becomes easier to recognize signs, etc.). In addition, the driver 30 can be notified of the presence of the object and can be alerted.

(第五の実施の形態)
第五の実施の形態では、運転者30が装着したウェアラブルカメラ19と、車両1に搭載されたカメラ3Aとが協働する。図29(a)は、第五の実施の形態を説明する図である。図29(a)において、カメラ3Aはドライブレコーダとしての機能を備えており、例えば車両1から電源供給が開始(システムオン)されたり、エンジンが始動されたりすると、所定のフレームレートで撮像を開始する。ウェアラブルカメラ19は、例えば運転者30に装着されたときから所定のフレームレートで撮像を開始する。ウェアラブルカメラ19は、内蔵する無線通信ユニットを介して制御装置4へ撮像した画像を逐次送信する。制御装置4は、カメラ3Aおよびウェアラブルカメラ19によって取得された画像を制御装置4の記憶部4bに記録することができる。
(Fifth embodiment)
In the fifth embodiment, the wearable camera 19 worn by the driver 30 and the camera 3A mounted on the vehicle 1 cooperate. FIG. 29A is a diagram for explaining the fifth embodiment. In FIG. 29A, the camera 3A has a function as a drive recorder. For example, when power supply from the vehicle 1 is started (system on) or the engine is started, imaging starts at a predetermined frame rate. To do. The wearable camera 19 starts imaging at a predetermined frame rate from when the wearable camera 19 is attached to the driver 30, for example. The wearable camera 19 sequentially transmits captured images to the control device 4 via a built-in wireless communication unit. The control device 4 can record images acquired by the camera 3 </ b> A and the wearable camera 19 in the storage unit 4 b of the control device 4.

カメラ3Aは、撮像素子100の撮像チップ111の撮像面を第1領域(通常撮像領域)と第2領域(特殊撮像領域)とに分割し、第1領域と第2領域との間で異なる撮像条件を設定して撮像を行うことができる。図29(b)によれば、第1領域は、奇数の列の上記ブロックによって構成され、第2領域は、偶数の列の上記ブロックによって構成されている。すなわち、撮像チップ111におけるブロックが、奇数列と偶数列とに分割される。
なお、第1領域と第2領域との分割態様は図29(b)の例に限らず、図4(b)のように奇数行と偶数行とに分割したり、図4(c)のように市松模様状に分割したりすることもできる。
The camera 3A divides the imaging surface of the imaging chip 111 of the imaging device 100 into a first area (normal imaging area) and a second area (special imaging area), and different imaging is performed between the first area and the second area. Imaging can be performed by setting conditions. According to FIG. 29 (b), the first area is constituted by the blocks in the odd numbered columns, and the second area is constituted by the blocks in the even numbered columns. That is, the block in the imaging chip 111 is divided into odd columns and even columns.
The division mode of the first area and the second area is not limited to the example of FIG. 29 (b), but may be divided into odd and even lines as shown in FIG. 4 (b). It can also be divided into a checkered pattern.

制御装置4は、例えば夜間の走行時には、カメラ3Aにおける上記第1領域において通常の撮像を行わせるとともに、カメラ3Aにおける上記第2領域においてゲインを第1領域のゲインより高く設定して撮像を行わせる。   For example, when the vehicle travels at night, the control device 4 performs normal imaging in the first region of the camera 3A, and performs imaging by setting the gain in the second region of the camera 3A higher than the gain of the first region. Make it.

制御装置4は、例えば昼間の走行時において逆光状態では、カメラ3Aにおける上記第1領域において通常の撮像を行わせるとともに、カメラ3Aにおける上記第2領域においてゲインを第1領域のゲインより低く設定して撮像を行わせる。ゲインを低く設定する他に、蓄積時間を短く設定してもよい。   For example, in the backlit state during daytime running, the control device 4 causes normal imaging in the first region of the camera 3A and sets the gain in the second region of the camera 3A to be lower than the gain of the first region. To take an image. In addition to setting the gain low, the accumulation time may be set short.

制御装置4は、夜間走行や昼間の逆光状態に該当しない場合には、カメラ3Aにおける上記第2領域の画素を駆動しない。制御装置4は、カメラ3Aにおける第1領域を用いて通常の撮像のみを行わせる。   The control device 4 does not drive the pixels in the second region in the camera 3A when the vehicle does not correspond to a night driving or a daylight backlight state. The control device 4 performs only normal imaging using the first region in the camera 3A.

ウェアラブルカメラ19は、視線検出ユニットを搭載しており、運転者30の視線検出を行うことができる。視線検出ユニットで検出した視線情報は、上記無線通信ユニットを介して撮像画像とともにウェアラブルカメラ19から制御装置4へ無線通信により送信される。   The wearable camera 19 is equipped with a line-of-sight detection unit and can detect the line of sight of the driver 30. The line-of-sight information detected by the line-of-sight detection unit is transmitted from the wearable camera 19 to the control device 4 by wireless communication together with the captured image via the wireless communication unit.

制御装置4は、運転者30の視線に基づき、ウェアラブルカメラ19による撮像範囲がカメラ3Aによる撮像範囲に含まれるか否かを判断する。そして、制御装置4は、ウェアラブルカメラ19による撮像範囲がカメラ3Aによる撮像範囲に含まれる場合、カメラ3Aによって取得された画像のみを制御装置4の記憶部4bに記録する。   Based on the line of sight of the driver 30, the control device 4 determines whether or not the imaging range by the wearable camera 19 is included in the imaging range by the camera 3A. And the control apparatus 4 records only the image acquired by the camera 3A in the memory | storage part 4b of the control apparatus 4, when the imaging range by the wearable camera 19 is contained in the imaging range by the camera 3A.

また、制御装置4は、ウェアラブルカメラ19による撮像範囲の一部がカメラ3Aによる撮像範囲に含まれる場合、カメラ3Aによって取得された画像とウェアラブルカメラ19によって取得された画像との双方を制御装置4の記憶部4bに記録する。   In addition, when a part of the imaging range by the wearable camera 19 is included in the imaging range by the camera 3A, the control device 4 controls both the image acquired by the camera 3A and the image acquired by the wearable camera 19. Is stored in the storage unit 4b.

さらにまた、制御装置4は、ウェアラブルカメラ19による撮像範囲がカメラ3Aによる撮像範囲に含まれない場合、カメラ3Aによって取得された画像とウェアラブルカメラ19によって取得された画像との双方を制御装置4の記憶部4bに記録する。   Furthermore, when the imaging range of the wearable camera 19 is not included in the imaging range of the camera 3A, the control device 4 displays both the image acquired by the camera 3A and the image acquired by the wearable camera 19 of the control device 4. Record in the storage unit 4b.

上述した第五の実施の形態によれば、次の作用効果が得られる。
(1)画像記録装置は、車両1の周囲を撮像するカメラ3Aと、車両1の運転者30に装着されたウェアラブルカメラ19で撮像された第2画像を入力する制御装置4と、カメラ3Aで撮像された第1画像の撮影範囲と第2画像の撮影範囲とを比較する制御装置4と、制御装置4の比較結果により、第1画像および第2画像の少なくとも一方の画像を記憶部4bに記録する制御装置4とを備える。例えば、ウェアラブルカメラ19による撮像範囲の少なくとも一部がカメラ3Aによる撮像範囲に含まれない場合には、カメラ3Aによって取得された第1画像とウェアラブルカメラ19によって取得された第2画像との双方を制御装置4の記憶部4bに記録することにより、カメラ3Aのみでは得られない情報を残しておくことができる。
一方、ウェアラブルカメラ19による撮像範囲の全てがカメラ3Aによる撮像範囲に含まれている場合には、第1画像のみを制御装置4の記憶部4bに記録することにより、記憶部4bの使用量を少なく抑えることができる。
According to the fifth embodiment described above, the following operational effects can be obtained.
(1) The image recording device includes a camera 3A that captures the surroundings of the vehicle 1, a control device 4 that inputs a second image captured by the wearable camera 19 attached to the driver 30 of the vehicle 1, and a camera 3A. The control device 4 that compares the imaging range of the captured first image and the imaging range of the second image, and at least one of the first image and the second image is stored in the storage unit 4b based on the comparison result of the control device 4. And a control device 4 for recording. For example, when at least a part of the imaging range by the wearable camera 19 is not included in the imaging range by the camera 3A, both the first image acquired by the camera 3A and the second image acquired by the wearable camera 19 are displayed. By recording in the storage unit 4b of the control device 4, information that cannot be obtained only by the camera 3A can be left.
On the other hand, when the entire imaging range of the wearable camera 19 is included in the imaging range of the camera 3A, only the first image is recorded in the storage unit 4b of the control device 4, thereby reducing the usage amount of the storage unit 4b. It can be kept low.

(2)また、カメラ3Aにおいて第2領域で撮像を行った場合において、第1領域での通常の撮像によって得られた画像と、第2領域での条件が異なる撮像によって得られた画像との双方を記録するので、通常の撮像ではわかりづらい情報を残しておくことができる。さらにまた、カメラ3Aにおける第2領域で撮像を行わない場合は、第1領域での通常の撮像によって得られた画像のみを記録するので、記憶部4bの使用量を少なく抑えることができる。 (2) In addition, when imaging is performed in the second area in the camera 3A, an image obtained by normal imaging in the first area and an image obtained by imaging under different conditions in the second area Since both are recorded, it is possible to leave information that is difficult to understand in normal imaging. Furthermore, when imaging is not performed in the second area of the camera 3A, only the image obtained by normal imaging in the first area is recorded, so that the usage amount of the storage unit 4b can be reduced.

(変形例)
上述した各実施の形態において、車両1に搭載したカメラ3Aによって取得した画像を、車両1以外の他の車両との間で共有したり、交通管制センターとの間で共有してもよい。例えば、カメラ3Aで取得した画像を無線通信装置によって他の車両または交通管制センターへ送信する。車両1から他の車両への送信は、車車間通信で行ってもよいし、車両1から交通管制センターを介して送るようにしてもよい。
(Modification)
In each embodiment described above, an image acquired by the camera 3A mounted on the vehicle 1 may be shared with other vehicles other than the vehicle 1 or shared with a traffic control center. For example, an image acquired by the camera 3A is transmitted to another vehicle or a traffic control center by a wireless communication device. Transmission from the vehicle 1 to another vehicle may be performed by inter-vehicle communication, or may be transmitted from the vehicle 1 via a traffic control center.

なお、車両1から交通管制センターへ画像を送信した場合は、交通管制センターが車両1から受信した画像に基づいて生成した情報を他の車両へ配信する構成にしてもよい。例えば、車両1から受信した画像に障害物が写っている場合、交通管制センターの制御装置が、画像を解析して「県道○○線△△4丁目付近に落下物があります。」というメッセージを生成し、他の車両へ配信する。   When an image is transmitted from the vehicle 1 to the traffic control center, information generated based on the image received by the traffic control center from the vehicle 1 may be distributed to other vehicles. For example, when an obstacle is reflected in the image received from the vehicle 1, the control device of the traffic control center analyzes the image and displays a message “There is a fallen object near the prefectural road XX line △△ 4 chome.” Generate and distribute to other vehicles.

車両1のカメラ3Aで上述した道路上の障害物を含む画像が取得される場合、制御装置4は、障害物に対して撮像チップ111における注目領域を設定し、他の領域(順注目領域)と異なる撮像条件を設定(例えば解像度やフレームレート等を高くする)する。これにより、注目領域の障害物の詳細な情報を得ることができる。また、注目領域のみ(すなわち画像の一部)を高精細に撮像することで、撮像チップ111における全ての領域(画像の全部)を高精細に撮像する場合に比べて、取得される画像のデータ量を少なく抑えることができる。   When the image including the obstacle on the road described above is acquired by the camera 3A of the vehicle 1, the control device 4 sets a region of interest in the imaging chip 111 for the obstacle, and other regions (forward attention regions). (For example, increase the resolution, frame rate, etc.). Thereby, detailed information of the obstacle in the attention area can be obtained. In addition, by capturing only the region of interest (that is, a part of the image) with high definition, the image data to be acquired is compared with the case of capturing all the regions (entire image) on the imaging chip 111 with high definition. The amount can be kept small.

データ量を少なくすることで、車両1から他の車両または交通管制センターへ画像を送信する場合の通信量を少なく抑えることができる。また、カメラ3Aで取得した画像をドラーブレコーダとして保存する場合には、データ量を少なくすることで、記録する記憶媒体の容量を抑えることができる。   By reducing the amount of data, it is possible to reduce the amount of communication when an image is transmitted from the vehicle 1 to another vehicle or a traffic control center. Further, when an image acquired by the camera 3A is stored as a Drave recorder, the capacity of the recording medium to be recorded can be reduced by reducing the data amount.

なお、車両1から他の車両または交通管制センターへ画像を送信する場合の通信量を少なく抑える場合において、撮像チップ111における全ての領域を高精細に撮像した上で、障害物に対する領域のみを切り出した一部の画像を車両1から他の車両または交通管制センターへ送信するようにしてもよい。   In the case where the amount of communication when the image is transmitted from the vehicle 1 to another vehicle or the traffic control center is reduced, the entire area of the imaging chip 111 is imaged with high definition and only the area for the obstacle is cut out. Alternatively, a part of the image may be transmitted from the vehicle 1 to another vehicle or a traffic control center.

車両1に搭載したカメラ3Aによって取得した画像を、車両1以外の他の車両や交通管制センターとの間で共有する例としては、上記障害物の有無の他にも、事故の有無、災害発生の有無、工事の有無、渋滞の有無、検問の有無、チェーン装着規制の有無等にも適用することができる。   Examples of sharing an image acquired by the camera 3A mounted on the vehicle 1 with other vehicles other than the vehicle 1 and the traffic control center include the presence or absence of an accident, the occurrence of a disaster, in addition to the presence or absence of the obstacle. It can also be applied to the presence / absence of construction, the presence / absence of construction, the presence / absence of traffic jams, the presence / absence of inspections, the presence / absence of chain attachment restrictions, etc.

1…車両、2…運転支援装置、3A、3B…カメラ、4…制御装置、4a、35a…CPU、4b、35b…記憶部、10…ステアリングホイール、12…車速センサ、14…表示・再生装置、16…視線検出装置、17…通信部、18…レーダー、31…撮像光学系、32…撮像部、35…制御部、70…撮像面、81…第1領域、非優先領域、82…第2領域、優先領域、83…最優先領域、100…撮像素子、111…撮像チップ   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Driving assistance apparatus, 3A, 3B ... Camera, 4 ... Control apparatus, 4a, 35a ... CPU, 4b, 35b ... Memory | storage part, 10 ... Steering wheel, 12 ... Vehicle speed sensor, 14 ... Display and reproduction | regeneration apparatus , 16 ... gaze detection device, 17 ... communication unit, 18 ... radar, 31 ... imaging optical system, 32 ... imaging unit, 35 ... control unit, 70 ... imaging surface, 81 ... first region, non-priority region, 82 ... first 2 areas, priority areas, 83 ... top priority area, 100 ... imaging element, 111 ... imaging chip

Claims (19)

車に搭載される電子機器において、
撮像条件を変更できる第1領域と第2領域とを有し、前記第1領域で第1画像信号を生成し、前記第2領域で第2画像信号を生成する撮像部と、
前記第1画像信号から対象物の検出を行う対象物検出部と、
前記第2画像信号に基づいた画像を表示部に表示する表示制御部と
を備えた電子機器。
In electronic devices mounted on cars,
An imaging unit that has a first area and a second area that can change imaging conditions, generates a first image signal in the first area, and generates a second image signal in the second area;
An object detection unit for detecting an object from the first image signal;
An electronic apparatus comprising: a display control unit that displays an image based on the second image signal on a display unit.
請求項1に記載の電子機器において、
前記表示制御部は、前記対象物検出部で検出された前記対象物の情報を前記表示部に表示する電子機器。
The electronic device according to claim 1,
The display control unit is an electronic device that displays information on the object detected by the object detection unit on the display unit.
請求項1または2に記載の電子機器において、
前記撮像部は、前記第1領域のフレームレートが前記第2領域のフレームレートよりも高い、
電子機器。
The electronic device according to claim 1 or 2,
The imaging unit has a frame rate of the first region higher than a frame rate of the second region;
Electronics.
請求項1から3のいずれか一項に記載の電子機器において、
前記撮像部は、前記第1領域のゲインが前記第2領域のゲインよりも高い、
電子機器。
The electronic device according to any one of claims 1 to 3,
In the imaging unit, the gain of the first region is higher than the gain of the second region.
Electronics.
請求項1から4のいずれか一項に記載の電子機器において、
前記車の乗員の視線位置を検出する視線検出部を備え、
前記対象物検出部は、前記視線検出部による検出結果に基づいて、前記第1画像信号において前記第1領域のうちの前記視線位置を含まない領域で前記対象物の検出を行う電子機器。
The electronic device according to any one of claims 1 to 4,
A line-of-sight detection unit for detecting the line-of-sight position of the vehicle occupant;
The target object detection unit is an electronic device that detects the target object in a region that does not include the line-of-sight position in the first region in the first image signal based on a detection result by the line-of-sight detection unit.
請求項5に記載の電子機器において、
前記第1領域のうちの前記視線位置を含まない領域と、前記第1領域のうちの前記視線位置を含む領域とで、前記第1画像信号の撮像条件を異ならせて設定する設定部と、
を備える電子機器。
The electronic device according to claim 5,
A setting unit that sets the imaging condition of the first image signal differently in an area that does not include the line-of-sight position in the first area and an area that includes the line-of-sight position in the first area;
Electronic equipment comprising.
請求項6に記載の電子機器において、
前記設定部は、前記第1領域のうちの前記視線位置を含まない領域のフレームレートを、前記第1領域のうちの前記視線位置を含む領域のフレームレートよりも高く設定する、
電子機器。
The electronic device according to claim 6,
The setting unit sets a frame rate of an area not including the line-of-sight position in the first area higher than a frame rate of an area including the line-of-sight position in the first area;
Electronics.
車に搭載される電子機器において、
撮像条件を変更できる第1領域と第2領域とを有し、前記第1領域で第1画像信号を生成し、前記第2領域で第2画像信号を生成する撮像部と、
前記第1画像信号において反射部材が含まれているか否かを検出する検出部と、
前記検出部による検出結果に基づき、前記第2画像信号のうちの前記反射部材の部分の画像を異なる態様で表示する表示部と、
を備えた電子機器。
In electronic devices mounted on cars,
An imaging unit that has a first area and a second area that can change imaging conditions, generates a first image signal in the first area, and generates a second image signal in the second area;
A detection unit for detecting whether or not a reflective member is included in the first image signal;
Based on the detection result by the detection unit, a display unit that displays an image of the part of the reflection member in the second image signal in a different manner;
With electronic equipment.
請求項8に記載の電子機器において、
前記表示部は、前記検出部によって前記反射部材が含まれていることが検出された場合に、前記第2画像信号のうちの前記反射部材が含まれている領域の解像度を、前記反射部材が含まれていることが検出されていない場合の解像度よりも高くして、前記反射部材の部分の画像を表示する、
電子機器。
The electronic device according to claim 8,
When the detection unit detects that the reflection member is included, the display unit displays a resolution of an area in which the reflection member is included in the second image signal. Displaying the image of the part of the reflecting member at a higher resolution than the case where the inclusion is not detected,
Electronics.
請求項1から9のいずれか一項に記載の電子機器において、
前記撮像部は、第1画像信号と第2画像信号とで共通の対象物を撮像する、
電子機器。
The electronic device according to any one of claims 1 to 9,
The imaging unit images a common object in the first image signal and the second image signal.
Electronics.
請求項1から請求項10のいずれか一項に記載の電子機器を搭載する自動車。   The motor vehicle carrying the electronic device as described in any one of Claims 1-10. 複数の領域の撮像条件を設定可能な撮像素子を備えた撮像部と、
前記撮像素子の画素からの出力に基づいて、距離情報を演算する測距部と、
前記距離情報に基づいて、前記複数の領域の撮像条件を設定する設定部と、
を備える自動車。
An imaging unit including an imaging element capable of setting imaging conditions of a plurality of regions;
A distance measuring unit that calculates distance information based on an output from a pixel of the image sensor;
A setting unit for setting imaging conditions of the plurality of regions based on the distance information;
Automobile equipped with.
請求項12に記載の自動車において、
移動可能な本体に設けられた操作部を備え、
前記設定部は、前記本体の移動速度と、前記操作部の操作量と、前記距離情報とに基づいて、前記複数の領域の撮像条件を設定する、
自動車。
The automobile according to claim 12,
It has an operation part provided on the movable main body,
The setting unit sets imaging conditions for the plurality of regions based on a moving speed of the main body, an operation amount of the operation unit, and the distance information;
Automobile.
移動可能な本体に設けられた操作部と、
撮像を行う撮像部と、
前記本体の移動速度と、前記操作部の操作量とに基づいて、前記撮像部を移動させる制御部と、
を備えた自動車。
An operation unit provided on the movable main body;
An imaging unit for imaging;
A control unit that moves the imaging unit based on a moving speed of the main body and an operation amount of the operation unit;
A car equipped with.
請求項14に記載の自動車において、
前記制御部は、前記操作部の操作に応じて前記撮像部を移動させる、
自動車。
15. The automobile according to claim 14,
The control unit moves the imaging unit according to an operation of the operation unit.
Automobile.
複数の領域の撮像条件を設定可能な撮像素子を備えた撮像部と、
交差点への接近を検出する検出部と、
前記検出部による検出結果に基づいて、前記撮像素子の複数の領域の撮像条件を設定する設定部と、
を備えた自動車。
An imaging unit including an imaging element capable of setting imaging conditions of a plurality of regions;
A detection unit for detecting approach to the intersection;
A setting unit that sets imaging conditions of a plurality of regions of the imaging device based on a detection result by the detection unit;
A car equipped with.
複数の領域の撮像条件を設定可能な撮像素子を備えた撮像部と、
所定のパターン光が照射されている対象物の前記パターン光が照射される部分を撮像する前記撮像素子の領域の撮像条件と、前記パターン光が照射されない部分を撮像する前記撮像素子の領域の撮像条件と、を異ならせるように制御する制御部と、
を備えた撮像装置。
An imaging unit including an imaging element capable of setting imaging conditions of a plurality of regions;
Imaging conditions of the area of the imaging element that images the portion irradiated with the pattern light of the object irradiated with the predetermined pattern light, and imaging of the area of the imaging element that images the part not irradiated with the pattern light A control unit that controls the conditions to be different from each other;
An imaging apparatus comprising:
複数の領域の撮像条件を設定可能な撮像素子を備えた撮像部と、
移動体の運転者の前面に設けられた透過型表示部と、
前記撮像部で撮像した画像から求めた移動体の前方の明るさの情報により、前記複数の領域の撮像条件の設定と、前記透過型表示部の表示の制御とを行う制御部と、
を備えた電子機器。
An imaging unit including an imaging element capable of setting imaging conditions of a plurality of regions;
A transmissive display unit provided in front of the driver of the moving body;
A control unit that performs setting of imaging conditions of the plurality of regions and control of display of the transmissive display unit, based on information on the brightness of the front of the moving object obtained from the image captured by the imaging unit;
With electronic equipment.
移動体の周囲を撮像する第1の撮像部と、
前記移動体の乗員に装着された装着機器に設けられた第2の撮像部で撮像された第2画像信号を入力する入力部と、
前記第1の撮像部で撮像された第1画像信号の撮影範囲と前記第2画像信号の撮影範囲とを比較する比較部と、
前記比較部の比較結果により、前記第1画像信号および前記第2画像信号の少なくとも一方の画像信号を記録媒体に記録する記録部と、
を備える画像記録装置。
A first imaging unit that images the periphery of the moving body;
An input unit for inputting a second image signal captured by a second imaging unit provided in a mounting device mounted on an occupant of the mobile body;
A comparison unit that compares the imaging range of the first image signal captured by the first imaging unit with the imaging range of the second image signal;
A recording unit that records at least one of the first image signal and the second image signal on a recording medium according to a comparison result of the comparison unit;
An image recording apparatus comprising:
JP2016131881A 2016-07-01 2016-07-01 Electronics and vehicles Active JP6668975B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016131881A JP6668975B2 (en) 2016-07-01 2016-07-01 Electronics and vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016131881A JP6668975B2 (en) 2016-07-01 2016-07-01 Electronics and vehicles

Publications (3)

Publication Number Publication Date
JP2018007038A true JP2018007038A (en) 2018-01-11
JP2018007038A5 JP2018007038A5 (en) 2019-07-04
JP6668975B2 JP6668975B2 (en) 2020-03-18

Family

ID=60948153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016131881A Active JP6668975B2 (en) 2016-07-01 2016-07-01 Electronics and vehicles

Country Status (1)

Country Link
JP (1) JP6668975B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139333A (en) * 2018-02-06 2019-08-22 セルスター工業株式会社 Drive recorder and potential accident recording device
JP2022106760A (en) * 2018-02-06 2022-07-20 セルスター工業株式会社 Potential accident recording device
WO2022153795A1 (en) * 2021-01-12 2022-07-21 ソニーセミコンダクタソリューションズ株式会社 Signal processing device, signal processing method, and signal processing system
WO2023084842A1 (en) * 2021-11-11 2023-05-19 パナソニックIpマネジメント株式会社 Onboard device, information processing device, sensor data transmission method, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009004947A (en) * 2007-06-20 2009-01-08 Panasonic Corp Imaging device and image processing and displaying apparatus
JP2014099923A (en) * 2014-02-18 2014-05-29 Seiko Epson Corp Imaging apparatus
WO2015182753A1 (en) * 2014-05-29 2015-12-03 株式会社ニコン Image pickup device and vehicle
JPWO2013164915A1 (en) * 2012-05-02 2015-12-24 株式会社ニコン Imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009004947A (en) * 2007-06-20 2009-01-08 Panasonic Corp Imaging device and image processing and displaying apparatus
JPWO2013164915A1 (en) * 2012-05-02 2015-12-24 株式会社ニコン Imaging device
JP2014099923A (en) * 2014-02-18 2014-05-29 Seiko Epson Corp Imaging apparatus
WO2015182753A1 (en) * 2014-05-29 2015-12-03 株式会社ニコン Image pickup device and vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139333A (en) * 2018-02-06 2019-08-22 セルスター工業株式会社 Drive recorder and potential accident recording device
JP7061786B2 (en) 2018-02-06 2022-05-02 セルスター工業株式会社 Drive recorder, potential accident recording device
JP2022106760A (en) * 2018-02-06 2022-07-20 セルスター工業株式会社 Potential accident recording device
JP7272715B2 (en) 2018-02-06 2023-05-12 セルスター工業株式会社 Latent accident recorder
WO2022153795A1 (en) * 2021-01-12 2022-07-21 ソニーセミコンダクタソリューションズ株式会社 Signal processing device, signal processing method, and signal processing system
WO2023084842A1 (en) * 2021-11-11 2023-05-19 パナソニックIpマネジメント株式会社 Onboard device, information processing device, sensor data transmission method, and information processing method

Also Published As

Publication number Publication date
JP6668975B2 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
US11539894B2 (en) In-vehicle camera system and image processing apparatus
CN109076163B (en) Imaging control apparatus, imaging control method, and imaging apparatus
JP6703747B2 (en) Information display device, information providing system, mobile device, information display method and program
EP3093194B1 (en) Information provision device
CN106537892B (en) Image pickup device and vehicle
EP2950521B1 (en) Camera capable of reducing motion blur in a low luminance environment and vehicle including the same
US8477191B2 (en) On-vehicle image pickup apparatus
JP6287406B2 (en) Head-up display device
JP6512475B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD, AND INFORMATION PROVIDING CONTROL PROGRAM
JP2009227018A (en) Anti-dazzle device for vehicle
JP6740756B2 (en) Imaging device and automobile
US20220107497A1 (en) Head-up display, vehicle display system, and vehicle display method
JP6668975B2 (en) Electronics and vehicles
JP6876277B2 (en) Control device, display device, display method and program
US11772545B2 (en) Apparatus, system and method for controlling lighting using gated imaging
JP2016203850A (en) Information providing device, information providing method and control program for providing information
JP2016109645A (en) Information providing device, information providing method, and control program for providing information
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
CN112052716A (en) Identification device, identification method, and storage medium
JP2018007037A (en) Imaging apparatus and automobile
JP7037764B2 (en) Travel route guidance device, mobile body, travel route guidance method and program
JP2009220673A (en) Vehicular anti-glare device
JP2022044623A (en) Image display method and image display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200210

R150 Certificate of patent or registration of utility model

Ref document number: 6668975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250