JP7380666B2 - Vehicles and driving support devices - Google Patents

Vehicles and driving support devices Download PDF

Info

Publication number
JP7380666B2
JP7380666B2 JP2021188569A JP2021188569A JP7380666B2 JP 7380666 B2 JP7380666 B2 JP 7380666B2 JP 2021188569 A JP2021188569 A JP 2021188569A JP 2021188569 A JP2021188569 A JP 2021188569A JP 7380666 B2 JP7380666 B2 JP 7380666B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
imaging
control unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021188569A
Other languages
Japanese (ja)
Other versions
JP2022031755A (en
JP2022031755A5 (en
Inventor
ひとみ 長沼
孝司 栗山
幸一 福田
祐起 喜多
弘仁 長岡
知哉 中川
政一 関口
孝 塩野谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021188569A priority Critical patent/JP7380666B2/en
Publication of JP2022031755A publication Critical patent/JP2022031755A/en
Publication of JP2022031755A5 publication Critical patent/JP2022031755A5/en
Priority to JP2023188393A priority patent/JP2024009006A/en
Application granted granted Critical
Publication of JP7380666B2 publication Critical patent/JP7380666B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両、及び運転支援装置に関する。 The present invention relates to a vehicle and a driving support device .

車両に搭載したカメラで取得した画像に基づいて車両の走行環境を検出し、検出した走行環境データに基づいて、先行車への追従走行などの自動走行制御や、警報、制動、操舵支援等の運転支援を行う技術が開発されている(特許文献1参照)。 The driving environment of the vehicle is detected based on images captured by a camera installed in the vehicle, and based on the detected driving environment data, automatic driving control such as following the vehicle in front, warning, braking, steering support, etc. Technology for providing driving support has been developed (see Patent Document 1).

特開2010-79424号公報Japanese Patent Application Publication No. 2010-79424

しかしながら、今後、自動走行制御をしている自動車と、ドライバーによる手動運転で走行をしている自動車とが混在することが予想されるが、この点に関する提案は多くなかった。 However, in the future, it is expected that there will be a mix of cars with automatic driving control and cars that are driven manually by drivers, but there have not been many proposals regarding this point.

本発明の第1の態様によれば、車両は、運転支援装置を搭載した車両であって、前記運転支援装置は、前記車両の外部を撮像する撮像部と、前記車両の外部に存在する物体までの距離を測定する測距部と、前記車両の現在位置を測定する測位部と、前記撮像部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、前記撮像部により撮像される他の車両から送信された情報を受信する受信部と、を有し、前記制御部は、前記受信部からの情報に基づいて前記他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する。
本発明の第2の態様によれば、車両は、運転支援装置を搭載した車両であって、前記運転支援装置は、前記車両の外部を撮像する撮像部と、前記車両の外部に存在する物体までの距離を測定する測距部と、前記車両の現在位置を測定する測位部と、前記撮像部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、を有し、前記制御部は、前記撮像部からの情報に基づいて、他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する。
本発明の第3の態様によれば、運転支援装置は、車両の外部を撮像した情報が入力される入力部と、前記車両の外部に存在する物体までの距離を測定する測距部と、前記車両の現在位置を測定する測位部と、前記入力部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、像部により撮像される他の車両から送信された情報を受信する受信部と、を有し、前記制御部は、前記受信部からの情報に基づいて前記他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する。
本発明の第4の態様によれば、運転支援装置は、車両の外部を撮像した情報が入力される入力部と、前記車両の外部に存在する物体までの距離を測定する測距部と、前記車両の現在位置を測定する測位部と、前記入力部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、を有し、前記制御部は、撮像部からの情報に基づいて他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する。
According to a first aspect of the present invention, the vehicle is a vehicle equipped with a driving support device, and the driving support device includes an imaging unit that images the outside of the vehicle, and an object existing outside the vehicle. a distance measurement unit that measures the distance to the vehicle; a positioning unit that measures the current position of the vehicle; and a positioning unit that provides driving support for the vehicle based on information from the imaging unit, the distance measurement unit, and the positioning unit. It has a control unit that generates data, and a reception unit that receives information transmitted from another vehicle imaged by the imaging unit, and the control unit is configured to transmit data to other vehicles based on information from the reception unit. It is determined whether or not the vehicle is running automatically, and the frame rate and thinning rate, which are the imaging conditions of the imaging unit, are changed according to the determined result.
According to a second aspect of the present invention, the vehicle is a vehicle equipped with a driving support device, and the driving support device includes an imaging unit that images the outside of the vehicle, and an object existing outside the vehicle. a distance measurement unit that measures the distance to the vehicle; a positioning unit that measures the current position of the vehicle; and a positioning unit that provides driving support for the vehicle based on information from the imaging unit, the distance measurement unit, and the positioning unit. a control unit that generates data, and the control unit determines whether or not the other vehicle is a vehicle that is running in automatic operation based on the information from the imaging unit. Depending on the result , the frame rate and thinning rate, which are the imaging conditions of the imaging unit, are changed.
According to a third aspect of the present invention, the driving support device includes: an input section into which information obtained by capturing an image of the outside of a vehicle is input; a distance measuring section that measures a distance to an object existing outside the vehicle; a positioning unit that measures the current position of the vehicle; a control unit that generates data for providing driving support for the vehicle based on information from the input unit, the ranging unit, and the positioning unit; and an imaging unit a receiving unit that receives information transmitted from another vehicle imaged by the other vehicle, and the control unit is configured to control the vehicle in which the other vehicle is running automatically based on the information from the receiving unit. The frame rate and thinning rate, which are the imaging conditions of the imaging unit, are changed according to the determined result.
According to the fourth aspect of the present invention, the driving support device includes: an input section into which information obtained by capturing an image of the outside of the vehicle is input; a distance measuring section that measures the distance to an object existing outside the vehicle; a positioning unit that measures the current position of the vehicle; and a control unit that generates data for providing driving support for the vehicle based on information from the input unit, the ranging unit, and the positioning unit. , the control unit determines whether the other vehicle is a vehicle running in automatic operation based on information from the imaging unit, and sets imaging conditions for the imaging unit according to the determined result. Change frame rate and thinning rate .

一実施の形態に係る撮像システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an imaging system according to an embodiment. 交差点における信号機の配置を例示する図である。FIG. 2 is a diagram illustrating the arrangement of traffic lights at an intersection. 自動車用の信号機を例示する図である。FIG. 2 is a diagram illustrating an example of a traffic light for an automobile. 積層型撮像素子の断面図である。FIG. 2 is a cross-sectional view of a stacked image sensor. 撮像チップの画素配列と単位領域を説明する図である。FIG. 3 is a diagram illustrating a pixel array and a unit area of an imaging chip. 単位領域の回路を説明する図である。FIG. 3 is a diagram illustrating a circuit of a unit area. 撮像素子の機能的構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of an image sensor. 撮像面における焦点検出用画素の位置を例示する図である。FIG. 3 is a diagram illustrating the position of focus detection pixels on an imaging plane. 焦点検出画素ラインの一部を含む領域を拡大した図である。FIG. 3 is an enlarged view of a region including part of a focus detection pixel line. 自動車の制御部による制御を説明するフローチャートである。It is a flow chart explaining control by a control part of a car. 図11(a)は、自動車の位置関係を説明する図、図11(b)は、前方カメラの被写体像を模式的に示す図、図11(c)は、後方カメラの被写体像を模式的に示す図である。FIG. 11(a) is a diagram explaining the positional relationship of cars, FIG. 11(b) is a diagram schematically showing the subject image of the front camera, and FIG. 11(c) is a diagram schematically showing the subject image of the rear camera. FIG. 信号機の制御部による制御を説明するフローチャートである。It is a flow chart explaining control by a control part of a traffic light. 自動車用の信号機の撮像部の制御を説明する図である。FIG. 2 is a diagram illustrating control of an imaging unit of a traffic light for an automobile. 自動車用の信号機の撮像部の制御を説明する図である。FIG. 2 is a diagram illustrating control of an imaging unit of a traffic light for an automobile. 歩行者用の信号機の撮像部の制御を説明する図である。It is a figure explaining the control of the imaging part of the traffic light for pedestrians. 図16(a)は、歩行者用の信号機の撮像部による撮像場面を例示する図、図16(b)は、撮像条件の設定を説明する図である。FIG. 16(a) is a diagram illustrating an imaging scene by the imaging unit of a pedestrian traffic light, and FIG. 16(b) is a diagram illustrating setting of imaging conditions. 自動車用の信号機の撮像部による撮像場面を例示する図である。It is a figure which illustrates the imaging scene by the imaging part of the traffic light for cars.

図1は、一実施の形態に係る撮像装置を含む撮像システム1の構成を例示するブロック図である。撮像システム1は、自動車10と、他の車20と、交通信号生成装置30および信号機40とを利用する。
なお、信号機40に代え、または信号機40と併用して、道路に設置された情報提供システムやVICS(登録商標:Vehicle Information and Communication System)を用いても構わない。
FIG. 1 is a block diagram illustrating the configuration of an imaging system 1 including an imaging device according to an embodiment. The imaging system 1 uses a car 10, another car 20, a traffic signal generation device 30, and a traffic light 40.
Note that in place of the traffic light 40 or in combination with the traffic light 40, an information providing system installed on the road or VICS (registered trademark: Vehicle Information and Communication System) may be used.

(自動車10)
自動車10は、車操作部11と、GPS機器12と、ナビシステム(ナビゲーションシステム)13と、光学系14と、光電変換部15と、通信部16と、記憶部17と、センサ18および制御部19とを備えている。なお、自動車10は、説明は省略するものの自動車としての基本構成を有する。
(Car 10)
The automobile 10 includes a vehicle operation section 11, a GPS device 12, a navigation system 13, an optical system 14, a photoelectric conversion section 15, a communication section 16, a storage section 17, a sensor 18, and a control section. It is equipped with 19. Note that the automobile 10 has a basic configuration as an automobile, although the explanation will be omitted.

車操作部11は、ハンドル(ステアリングホイール)、ターンシグナルスイッチ、シフトレバー、アクセル、ブレーキ、自動運転モードと手動運転モードとを切替え設定するスイッチなど、自動車の操作に係る各種操作部材を含む。 The vehicle operation unit 11 includes various operation members related to the operation of the vehicle, such as a steering wheel, a turn signal switch, a shift lever, an accelerator, a brake, and a switch for switching between an automatic driving mode and a manual driving mode.

GPS機器12は、GPS衛星からの電波を受信して得た信号に基づき、自動車10の位置(経度、緯度など)を算出する。GPS機器12で算出された位置情報は、ナビシステム13や制御部19に出力される。 The GPS device 12 calculates the position (longitude, latitude, etc.) of the vehicle 10 based on signals obtained by receiving radio waves from GPS satellites. The position information calculated by the GPS device 12 is output to the navigation system 13 and the control unit 19.

ナビシステム13は、GPS機器12等から自動車10の現在位置を検出して、現在位置に対応する地図データを記憶媒体やネットワークから取得して液晶モニターに表示し、入力された目的地まで走行経路を案内するシステムである。このナビシステム13は、ユーザからの操作を受け付ける操作部と、前述の液晶モニターと、音声ガイダンスを行うスピーカと、地図データを読み取る読み取り部などを有している。 The navigation system 13 detects the current location of the vehicle 10 from a GPS device 12 or the like, obtains map data corresponding to the current location from a storage medium or network, displays it on the LCD monitor, and displays the driving route to the input destination. This is a system that guides you through the process. This navigation system 13 includes an operation section that accepts operations from the user, the aforementioned liquid crystal monitor, a speaker that provides voice guidance, a reading section that reads map data, and the like.

光学系14は、複数のレンズから構成され、光電変換部15に被写体像を結像させる。光学系14を自動車10の前方に向けた場合、光電変換部15により自動車10の進行方向の画像が取得される。光学系14を自動車10の後方に向けた場合、光電変換部15により自動車10の進行方向と逆方向の画像が取得される。光学系14は、複数の走行レーン(2車線または3車線等)に対応した画角となっている。
なお、光学系14を複数設けてステレオカメラとしてもよい。
The optical system 14 includes a plurality of lenses, and forms a subject image on the photoelectric conversion unit 15. When the optical system 14 is directed toward the front of the vehicle 10, the photoelectric conversion unit 15 acquires an image in the traveling direction of the vehicle 10. When the optical system 14 is directed toward the rear of the vehicle 10, the photoelectric conversion unit 15 acquires an image in the direction opposite to the traveling direction of the vehicle 10. The optical system 14 has an angle of view corresponding to a plurality of driving lanes (two lanes, three lanes, etc.).
Note that a stereo camera may be constructed by providing a plurality of optical systems 14.

光電変換部15は、光学系14から入射した光に対応して画素信号を出力する撮像チップと、画素信号を処理する信号処理チップと、画素信号を記憶するメモリチップとが積層して構成されている撮像素子100を備える。撮像素子100は後に詳述するように、各画素又は複数画素(例えば16画素×16画素)からなる単位領域ごとに個別に撮像条件(撮像をしない場合も含む)を設定することができる。 The photoelectric conversion unit 15 is configured by stacking an imaging chip that outputs a pixel signal in response to light incident from the optical system 14, a signal processing chip that processes the pixel signal, and a memory chip that stores the pixel signal. An image sensor 100 is provided. As will be described in detail later, in the image sensor 100, imaging conditions (including cases in which no imaging is performed) can be set individually for each pixel or for each unit area made up of a plurality of pixels (for example, 16 pixels x 16 pixels).

本実施形態において、光学系14と光電変換部15とによってカメラの撮像部5を構成し、自動車10の周囲の対象物(移動体や障害物等)を撮像したり、路上の白線(黄色等の他の色のラインも含む)を撮像したりする。自動車10には、自動車10の前方の画像を取得する前方用の撮像部5と、自動車10の後方の画像を取得する後方用の撮像部5とが備えられている。
本説明では、走行路に引かれた白色等のラインを白線と呼ぶ。また、実線および破線を含めて白線と呼ぶ。
なお、不図示ではあるもののレーダを設けて、このレーダと撮像部5(光学系14、光電変換部15)とにより周囲の対象物を検出するようにしてもよい。
In this embodiment, the optical system 14 and the photoelectric conversion section 15 constitute the imaging section 5 of the camera, and the imaging section 5 of the camera is configured to take images of objects (moving bodies, obstacles, etc.) around the car 10, and to take images of objects (moving bodies, obstacles, etc.) on the road. (including lines of other colors). The automobile 10 is equipped with a front imaging section 5 that obtains an image of the front of the automobile 10, and a rear imaging section 5 that obtains an image of the rear of the automobile 10.
In this description, a line drawn on the driving path, such as a white line, is referred to as a white line. In addition, both solid lines and broken lines are referred to as white lines.
Although not shown, a radar may be provided, and surrounding objects may be detected using the radar and the imaging section 5 (optical system 14, photoelectric conversion section 15).

通信部16は、他の車20や信号機40などの外部機器との間で、無線通信(光ビーコン、電波ビーコン、可視光通信を含む)を行う。通信方式は、どのようなものを用いても構わない。 The communication unit 16 performs wireless communication (including optical beacons, radio beacons, and visible light communication) with external devices such as other cars 20 and traffic lights 40. Any communication method may be used.

記憶部17は、例えば、フラッシュメモリ等の不揮発性の半導体メモリによって構成され、自動車10を走行させる(自動走行を含む)ための各種ブログラムや、制御パラメータを記憶する。 The storage unit 17 is configured with a nonvolatile semiconductor memory such as a flash memory, and stores various programs and control parameters for driving the automobile 10 (including automatic driving).

センサ18は、一または複数の車速センサ、ヨーレートセンサなどの各種センサを含む。車速センサは自動車10の車速Vを検出し、検出信号を制御部19などにそれぞれ送出する。ヨーレートセンサは自動車10のヨーレートを検出し、検出信号を制御部19などにそれぞれ送出する。ヨーレートは、車両等の旋回方向への回転角の変化速度である。 The sensor 18 includes various sensors such as one or more vehicle speed sensors and yaw rate sensors. The vehicle speed sensor detects the vehicle speed V of the automobile 10 and sends a detection signal to the control unit 19 and the like. The yaw rate sensor detects the yaw rate of the vehicle 10 and sends a detection signal to the control unit 19 and the like. The yaw rate is the rate at which the rotation angle of a vehicle or the like changes in the turning direction.

制御部19は、自動車10全体を制御するものであり、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部19は、光電変換部15の撮像素子100の各単位領域の撮像条件を設定・制御する。また、制御部19は、車操作部11により自動運転モードが設定された場合には、撮像部5(光学系14、光電変換部15)により路上の白線を検出するとともに、撮像部5を用いて自動車10の周囲の移動体や障害物等を検出して、ナビシステム13と連携してナビシステム13に入力された目的地まで自動運転を行う。 The control unit 19 controls the entire automobile 10, and includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In this embodiment, the control unit 19 sets and controls imaging conditions for each unit area of the image sensor 100 of the photoelectric conversion unit 15. Further, when the automatic driving mode is set by the vehicle operation unit 11, the control unit 19 detects white lines on the road using the imaging unit 5 (optical system 14, photoelectric conversion unit 15), and uses the imaging unit 5 to detect white lines on the road. The vehicle 10 detects moving objects, obstacles, etc. around the vehicle 10, and performs automatic driving to the destination input to the navigation system 13 in cooperation with the navigation system 13.

なお、本実施形態において、自動運転モードとは、ハンドル、アクセル、ブレーキ、ターンシグナルスイッチ、シフトレバーの操作などを制御部19の制御により全て自動的に行うことをいう。また、手動運転とは、ハンドル、アクセル、ブレーキ、ターンシグナルスイッチ、シフトレバーの操作などをドライバーが行うことをいい、変速機がオートマチックトランスミッションの場合とマニュアルトランスミッションの場合とがある。また、自動運転モードは、全て制御部19の制御により運転を行う完全自動運転に加え、ユーザが車操作部11の操作を行っている場合でも制御部19が撮像部5、GPS12、通信部16、センサ18などの出力に基づき、衝突などを回避するように自動車10を停止したり、減速したりする準自動運転も含む。これにより、ユーザの自動車10の運転を楽しみながら安全を確保することができる。また、準自動運転は、ハンドル、アクセル、ブレーキ、ターンシグナルスイッチ、シフトレバーの操作などの一部をドライバーに代わって制御部19が制御する場合も含んでいる。 In this embodiment, the automatic driving mode refers to operating the steering wheel, accelerator, brake, turn signal switch, shift lever, etc., all automatically under the control of the control unit 19. Furthermore, manual driving refers to the driver operating the steering wheel, accelerator, brakes, turn signal switch, shift lever, etc., and the transmission may be an automatic transmission or a manual transmission. Furthermore, in the automatic driving mode, in addition to fully automatic driving in which all driving is controlled by the control unit 19, even when the user is operating the vehicle operation unit 11, the control unit 19 controls the imaging unit 5, the GPS 12, and the communication unit 16. It also includes semi-automatic driving in which the vehicle 10 is stopped or decelerated based on the output of the sensor 18 or the like to avoid a collision or the like. Thereby, the user can enjoy driving the automobile 10 while ensuring safety. Semi-automatic driving also includes a case where the control unit 19 controls some operations of the steering wheel, accelerator, brake, turn signal switch, shift lever, etc. in place of the driver.

(他の車20)
他の車20は、通信部21と、車操作部22と、記憶部23と、撮像部24および制御部25等を備えており、各部の機能は自動車10の機能と同様である。他の車20も図1では省略しているものの、自動車としての基本構成を有している。ただし、他の車20には、通信部21を備えていない車両もありうる。また、他の車20には、自動運転車と手動運転車とが混在している。このうち、少なくとも自動運転モードを備えた車両は、通信部21により車両同士が通信可能であり、自動運転中か手動運転中かに関する情報や、撮像部24によって取得された画像データを送受信可能に構成されている。
(20 other cars)
The other vehicle 20 includes a communication section 21, a vehicle operation section 22, a storage section 23, an imaging section 24, a control section 25, and the like, and the functions of each section are similar to those of the automobile 10. Although other vehicles 20 are also omitted in FIG. 1, they have the basic structure of an automobile. However, there may be other vehicles 20 that are not equipped with the communication section 21. Further, the other cars 20 include a mixture of automatically driven cars and manually driven cars. Among these, vehicles equipped with at least an automatic driving mode can communicate with each other through the communication unit 21, and can send and receive information regarding whether they are driving automatically or manually, and image data acquired by the imaging unit 24. It is configured.

(交通信号生成装置30)
交通信号生成装置30は、信号機40の表示部42に表示される信号灯の制御を行う装置であり、信号情報生成部31と、記憶部32と、通信部33および制御部34とを有している。交通信号生成装置30は、交差点等に設けられた複数の信号機40にそれぞれ設置されうるが、複数の信号機40の制御を一つの交通信号生成装置30が行うようにしてもよい。
(Traffic signal generation device 30)
The traffic signal generation device 30 is a device that controls the signal lights displayed on the display section 42 of the traffic light 40, and includes a signal information generation section 31, a storage section 32, a communication section 33, and a control section 34. There is. The traffic signal generation device 30 may be installed at each of a plurality of traffic lights 40 provided at an intersection or the like, but a single traffic signal generation device 30 may control the plurality of traffic lights 40.

信号情報生成部31は、交差点等に設置された複数の信号機40の種類や設置位置、交通に関する不図示の交通管制センターからの指示等に基づいて交通信号を生成する。 The signal information generation unit 31 generates traffic signals based on the types and installation positions of a plurality of traffic lights 40 installed at intersections, etc., and instructions from a traffic control center (not shown) regarding traffic.

記憶部32は、例えば、フラッシュメモリ等の不揮発性の半導体メモリによって構成され、交通信号生成装置30の各種プログラムや、制御パラメータ等を記憶する。 The storage unit 32 is configured by, for example, a nonvolatile semiconductor memory such as a flash memory, and stores various programs for the traffic signal generation device 30, control parameters, and the like.

通信部33は、有線または無線により、一または複数の信号機40のそれぞれに信号情報生成部31にて生成された交通信号を送信する。また、通信部33は、交通管制センターとの間で情報の送受信を行う。 The communication unit 33 transmits the traffic signal generated by the signal information generation unit 31 to each of one or more traffic lights 40 by wire or wirelessly. Furthermore, the communication unit 33 transmits and receives information to and from the traffic control center.

制御部34は、交通信号生成装置30全体を制御するものであり、CPU、RAM、ROM等を備える。また、制御部34は、交通量等に基づいて、交通の状況に関する解析を行い、それを基に信号情報生成部31を制御することができる。 The control unit 34 controls the entire traffic signal generation device 30, and includes a CPU, RAM, ROM, and the like. Further, the control unit 34 can perform an analysis of traffic conditions based on traffic volume and the like, and can control the signal information generation unit 31 based on the analysis.

(信号機40)
信号機40は、通信部41と、表示部42と、光学系43と、光電変換部44と、記憶部45および制御部46とを有している。信号機40は、図1では1基図示したのみであるが、通常は複数の信号機40が設けられる。例えば交差点の場合、図2に例示するように、自動車用の信号機40aが4基、歩行者用の信号機40bが8基設けられる。信号機40は、それぞれ設置された位置に応じた交通信号を交通信号生成装置30より受信して表示部42の表示灯を点灯、点滅させる。
(Traffic light 40)
The traffic light 40 includes a communication section 41, a display section 42, an optical system 43, a photoelectric conversion section 44, a storage section 45, and a control section 46. Although only one traffic light 40 is shown in FIG. 1, a plurality of traffic lights 40 are normally provided. For example, in the case of an intersection, as illustrated in FIG. 2, there are four traffic lights 40a for cars and eight traffic lights 40b for pedestrians. The traffic lights 40 each receive a traffic signal from the traffic signal generation device 30 according to the installed position, and turn on or blink the indicator light of the display unit 42.

通信部41は、有線または無線により、信号情報生成部31にて生成された交通信号を受信する。また、通信部41は、自動車10、他の車20および他の信号機40との間で、車両の運転情報および交通に関する情報など、種々の情報を送受信する。 The communication unit 41 receives the traffic signal generated by the signal information generation unit 31 by wire or wirelessly. Further, the communication unit 41 transmits and receives various information such as vehicle driving information and traffic information to and from the automobile 10, other cars 20, and other traffic lights 40.

表示部42は、信号灯を有し、通信部41が受信した交通信号に応じて信号灯の表示を行う。具体的には、路上を走行する車両、道路を横断する歩行者に対して、進行、停止等の移動を許可または制限するために、信号灯を点灯、点滅、消灯する。なお、表示部42は、赤色灯、黄色灯、青色灯だけでなく、交差点において直進可、左折可、右折可を示す矢印灯を点灯させてもよい。 The display section 42 has a signal light, and displays the signal light according to the traffic signal received by the communication section 41. Specifically, the signal lights are turned on, flashed, or turned off in order to permit or restrict the movement of vehicles traveling on the road and pedestrians crossing the road, such as proceeding or stopping. Note that the display unit 42 may turn on not only red lights, yellow lights, and blue lights, but also arrow lights indicating whether it is possible to go straight, turn left, or turn right at an intersection.

本実施形態において、光学系43と光電変換部44とによってカメラの撮像部50が構成される。光学系43は、複数のレンズから構成され、光電変換部44に被写体像を結像させる。撮像部50が自動車用の信号機40aに設けられている場合、光学系43は、主に車両の画像取得に用いられる。撮像部50が歩行者用の信号機40bに設けられている場合、光学系43は、主に歩行者(自転車を含む)の画像取得に用いられる。撮像部50は、表示部42(信号灯)の近傍に設けられる。 In this embodiment, the optical system 43 and the photoelectric conversion section 44 constitute an imaging section 50 of the camera. The optical system 43 includes a plurality of lenses, and forms a subject image on the photoelectric conversion unit 44 . When the imaging unit 50 is provided in a traffic light 40a for an automobile, the optical system 43 is mainly used to obtain images of the vehicle. When the imaging unit 50 is provided in the traffic light 40b for pedestrians, the optical system 43 is mainly used to obtain images of pedestrians (including bicycles). The imaging unit 50 is provided near the display unit 42 (signal light).

光電変換部44は、光学系43から入射した光に対応して画素信号を出力する撮像チップと、画素信号を処理する信号処理チップと、画素信号を記憶するメモリチップとが積層して構成されている撮像素子100を備える。上述した自動車10における光電変換部15と同様の構成である。撮像素子100は、各画素又は複数画素(例えば16画素×16画素)からなる単位領域ごとに、交通信号に応じて撮像条件を設定することができる。 The photoelectric conversion unit 44 is configured by stacking an imaging chip that outputs a pixel signal in response to light incident from the optical system 43, a signal processing chip that processes the pixel signal, and a memory chip that stores the pixel signal. An image sensor 100 is provided. It has the same configuration as the photoelectric conversion unit 15 in the vehicle 10 described above. The imaging device 100 can set imaging conditions according to traffic signals for each pixel or for each unit area made up of a plurality of pixels (for example, 16 pixels x 16 pixels).

図3は、交差点に配置された自動車用の信号機40aを例示する図である。図3において、信号機40aの表示部42aの下方近傍に撮像部50が設置されている。撮像部50は、例えば、光学系43として広角レンズを有し、図2に例示する交差点の複数の走行レーン(片側2車線等)の両側4車線を含む画角を有している。 FIG. 3 is a diagram illustrating a traffic light 40a for automobiles placed at an intersection. In FIG. 3, an imaging section 50 is installed near the bottom of a display section 42a of a traffic light 40a. The imaging unit 50 has, for example, a wide-angle lens as the optical system 43, and has an angle of view that includes four lanes on both sides of a plurality of travel lanes (two lanes on each side, etc.) at the intersection illustrated in FIG.

記憶部45は、例えば、フラッシュメモリ等の不揮発性の半導体メモリによって構成され、光電変換部44で取得された画像データ等を記憶する。 The storage unit 45 is configured by, for example, a nonvolatile semiconductor memory such as a flash memory, and stores image data etc. acquired by the photoelectric conversion unit 44.

制御部46は、信号機40全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態において、制御部46は、交通信号に応じて表示部42の信号灯の表示制御を行うとともに、光電変換部44の撮像素子100を用いた撮像を制御する。 The control unit 46 controls the entire traffic light 40, and includes a CPU, RAM, ROM, and the like. In the present embodiment, the control unit 46 controls the display of the signal light on the display unit 42 in accordance with traffic signals, and also controls imaging using the image sensor 100 of the photoelectric conversion unit 44.

なお、自動車用の信号機40aの撮像部50による撮影範囲に、歩行者用の信号機40bの撮像部50による撮影範囲が含まれている場合は、歩行者用の信号機40bの撮像部50(光学系43、光電変換部44)を省略してもよい。 Note that if the imaging range by the imaging unit 50 of the automobile traffic light 40a includes the imaging range by the imaging unit 50 of the pedestrian traffic light 40b, the imaging unit 50 (optical system 43 and photoelectric conversion section 44) may be omitted.

<積層型撮像素子の説明>
上述した自動車10、他の車20、および信号機40において撮像部に備わる積層型撮像素子100について説明する。なお、この積層型撮像素子100は、本願出願人が先に出願して公開されたWO13/164915号に記載されているものである。図4は、積層型撮像素子100の断面図である。撮像素子100は、入射光に対応した画素信号を出力する裏面照射型撮像チップ113と、画素信号を処理する信号処理チップ111と、画素信号を記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111およびメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
<Description of stacked image sensor>
The stacked image sensor 100 provided in the imaging section of the above-described automobile 10, other vehicle 20, and traffic light 40 will be described. Note that this stacked image sensor 100 is described in WO 13/164915, which was previously filed and published by the applicant of the present application. FIG. 4 is a cross-sectional view of the stacked image sensor 100. The image sensor 100 includes a back-illuminated image sensor chip 113 that outputs a pixel signal corresponding to incident light, a signal processing chip 111 that processes the pixel signal, and a memory chip 112 that stores the pixel signal. These imaging chip 113, signal processing chip 111, and memory chip 112 are stacked and electrically connected to each other by conductive bumps 109 made of Cu or the like.

なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面(撮像面)と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図4の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。 Note that, as shown in the figure, the incident light mainly enters in the positive Z-axis direction indicated by the white arrow. In this embodiment, the surface of the imaging chip 113 on which the incident light enters is referred to as the back surface (imaging surface). Further, as shown in the coordinate axes, the left direction of the paper plane perpendicular to the Z axis is the X-axis plus direction, and the front direction of the paper plane orthogonal to the Z axis and the X axis is the Y-axis plus direction. In the following several figures, the coordinate axes are displayed based on the coordinate axes in FIG. 4 so that the orientation of each figure can be understood.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のPD(フォトダイオード)104、および、PD104に対応して設けられたトランジスタ105を有する。 An example of the imaging chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is arranged on the back side of the wiring layer 108. The PD layer 106 is two-dimensionally arranged and includes a plurality of PDs (photodiodes) 104 that accumulate charges according to incident light, and transistors 105 provided corresponding to the PDs 104.

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104およびトランジスタ105の組が、一つの画素を形成する。 A color filter 102 is provided on the incident light side of the PD layer 106 with a passivation film 103 interposed therebetween. The color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each PD 104. The arrangement of the color filters 102 will be described later. A set of color filter 102, PD 104, and transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。 On the incident light side of the color filter 102, a microlens 101 is provided corresponding to each pixel. The microlens 101 condenses incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子および能動素子が設けられてもよい。 The wiring layer 108 has wiring 107 that transmits pixel signals from the PD layer 106 to the signal processing chip 111. The wiring 107 may be multilayered and may include passive elements and active elements.

配線層108の表面には複数のバンプ109が配される。当該複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされて、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 A plurality of bumps 109 are arranged on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on opposing surfaces of the signal processing chip 111, and the imaging chip 113 and the signal processing chip 111 are aligned by applying pressure or the like. The bumps 109 are joined together and electrically connected.

同様に、信号処理チップ111およびメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされて、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 Similarly, a plurality of bumps 109 are arranged on mutually opposing surfaces of the signal processing chip 111 and the memory chip 112. These bumps 109 are aligned with each other, and the signal processing chip 111 and the memory chip 112 are pressurized or the like, so that the aligned bumps 109 are joined and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つのブロックに対して一つ程度設ければよい。したがって、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。 Note that the bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, but may also employ microbump bonding by solder melting. Further, for example, about one bump 109 may be provided for one block, which will be described later. Therefore, the size of the bumps 109 may be larger than the pitch of the PDs 104. Further, a bump larger than the bump 109 corresponding to the pixel region may also be provided in a peripheral region other than the pixel region where pixels are arranged.

信号処理チップ111は、表裏面にそれぞれ設けられた回路を互いに接続するTSV(シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられることが好ましい。また、TSV110は、撮像チップ113の周辺領域、メモリチップ112にも設けられてよい。 The signal processing chip 111 has TSVs (through-silicon vias) 110 that connect circuits provided on the front and back surfaces to each other. Preferably, the TSV 110 is provided in the peripheral area. Further, the TSV 110 may also be provided in the peripheral area of the imaging chip 113 and the memory chip 112.

図5は、撮像チップ113の画素配列と単位領域131を説明する図である。特に、撮像チップ113を裏面(撮像面)側から観察した様子を示す。画素領域には例えば2000万個以上もの画素がマトリックス状に配列されている。図5の例では、隣接する4画素×4画素の16画素が一つの単位領域131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域131を形成する概念を示す。単位領域131を形成する画素の数は、これに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。 FIG. 5 is a diagram illustrating the pixel array and unit area 131 of the imaging chip 113. In particular, the state in which the imaging chip 113 is observed from the back surface (imaging surface) side is shown. For example, more than 20 million pixels are arranged in a matrix in the pixel area. In the example of FIG. 5, 16 adjacent pixels (4 pixels×4 pixels) form one unit area 131. The grid lines in the figure represent the concept that adjacent pixels are grouped to form a unit area 131. The number of pixels forming the unit area 131 is not limited to this, and may be about 1000, for example, 32 pixels x 64 pixels, or may be larger or smaller.

画素領域の部分拡大図に示すように、図5の単位領域131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素Gb、Grは、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素Bは、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素Rは、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。 As shown in the partial enlarged view of the pixel region, the unit region 131 in FIG. 5 includes four so-called Bayer arrays each consisting of four pixels: green pixels Gb, Gr, blue pixel B, and red pixel R, in the upper, lower, left, and right directions. The green pixels Gb and Gr are pixels having a green filter as the color filter 102, and receive light in the green wavelength band of the incident light. Similarly, the blue pixel B is a pixel that has a blue filter as the color filter 102 and receives light in the blue wavelength band, and the red pixel R is a pixel that has a red filter as the color filter 102 and receives light in the red wavelength band. Receive light.

本実施形態において、1ブロックにつき単位領域131を少なくとも1つ含むように複数のブロックが定義され、各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる撮像信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数(語長)等である。撮像素子100は、行方向(撮像チップ113のX軸方向)の間引きのみでなく、列方向(撮像チップ113のY軸方向)の間引きも自在に行える。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。 In this embodiment, a plurality of blocks are defined so that each block includes at least one unit area 131, and pixels included in each block can be controlled using different control parameters. In other words, it is possible to obtain imaging signals with different imaging conditions between a pixel group included in one block and a pixel group included in another block. Examples of control parameters include frame rate, gain, thinning rate, number of addition rows or columns for adding pixel signals, charge accumulation time or number of accumulations, number of digitization bits (word length), and the like. The imaging device 100 can freely perform thinning not only in the row direction (X-axis direction of the imaging chip 113) but also in the column direction (Y-axis direction of the imaging chip 113). Furthermore, the control parameter may be a parameter in image processing after acquiring an image signal from a pixel.

図6は、単位領域131における回路を説明する図である。図6の例では、隣接する3画素×3画素の9画素により一つの単位領域131を形成する。なお、上述したように単位領域131に含まれる画素の数はこれに限られず、これ以下でもこれ以上でもよい。単位領域131の二次元的な位置を符号A~Iにより示す。 FIG. 6 is a diagram illustrating a circuit in the unit area 131. In the example of FIG. 6, one unit area 131 is formed by nine adjacent pixels (3 pixels x 3 pixels). Note that, as described above, the number of pixels included in the unit area 131 is not limited to this, and may be less than or greater than this. Two-dimensional positions of the unit area 131 are indicated by symbols A to I.

単位領域131に含まれる画素のリセットトランジスタは、画素ごとに個別にオンオフ可能に構成される。図6において、画素Aのリセットトランジスタをオンオフするリセット配線300が設けられており、画素Bのリセットトランジスタをオンオフするリセット配線310が、上記リセット配線300とは別個に設けられている。同様に、画素Cのリセットトランジスタをオンオフするリセット配線320が、上記リセット配線300、310とは別個に設けられている。他の画素Dから画素Iに対しても、それぞれのリセットトランジスタをオンオフするための専用のリセット配線が設けられている。 The reset transistors of the pixels included in the unit area 131 are configured to be turned on and off individually for each pixel. In FIG. 6, a reset wiring 300 that turns on and off the reset transistor of pixel A is provided, and a reset wiring 310 that turns on and off the reset transistor of pixel B is provided separately from the reset wiring 300. Similarly, a reset wiring 320 that turns on and off the reset transistor of pixel C is provided separately from the reset wirings 300 and 310 described above. Dedicated reset wiring is also provided for the other pixels D to Pixel I to turn on and off the respective reset transistors.

単位領域131に含まれる画素の転送トランジスタについても、画素ごとに個別にオンオフ可能に構成される。図6において、画素Aの転送トランジスタをオンオフする転送配線302、画素Bの転送トランジスタをオンオフする転送配線312、画素Cの転送トランジスタをオンオフする転送配線322が、別個に設けられている。他の画素Dから画素Iに対しても、それぞれの転送トランジスタをオンオフするための専用の転送配線が設けられている。 The transfer transistors of the pixels included in the unit area 131 are also configured to be turned on and off individually for each pixel. In FIG. 6, a transfer wiring 302 that turns on and off the transfer transistor of pixel A, a transfer wiring 312 that turns on and off the transfer transistor of pixel B, and a transfer wiring 322 that turns on and off the transfer transistor of pixel C are provided separately. Dedicated transfer wiring for turning on and off the respective transfer transistors is also provided from the other pixels D to Pixel I.

さらに、単位領域131に含まれる画素の選択トランジスタについても、画素ごとに個別にオンオフ可能に構成される。図6において、画素Aの選択トランジスタをオンオフする選択配線306、画素Bの選択トランジスタをオンオフする選択配線316、画素Cの選択トランジスタをオンオフする選択配線326が、別個に設けられている。他の画素Dから画素Iに対しても、それぞれの選択トランジスタをオンオフするための専用の選択配線が設けられている。 Further, the selection transistors of the pixels included in the unit area 131 are also configured to be turned on and off individually for each pixel. In FIG. 6, a selection wiring 306 that turns on and off the selection transistor of pixel A, a selection wiring 316 that turns on and off the selection transistor of pixel B, and a selection wiring 326 that turns on and off the selection transistor of pixel C are provided separately. Dedicated selection wiring for turning on and off the respective selection transistors is also provided for the other pixels D to Pixel I.

なお、電源配線304は、単位領域131に含まれる画素Aから画素Iで共通に接続されている。同様に、出力配線308は、単位領域131に含まれる画素Aから画素Iで共通に接続されている。また、電源配線304は複数の単位領域間で共通に接続されるが、出力配線308は単位領域131ごとに個別に設けられる。負荷電流源309は、出力配線308へ電流を供給する。負荷電流源309は、撮像チップ113側に設けられてもよいし、信号処理チップ111側に設けられてもよい。 Note that the power supply wiring 304 is commonly connected to pixels A to I included in the unit area 131. Similarly, the output wiring 308 is commonly connected to pixels A to I included in the unit area 131. Further, the power supply wiring 304 is commonly connected between a plurality of unit areas, but the output wiring 308 is provided individually for each unit area 131. Load current source 309 supplies current to output wiring 308 . The load current source 309 may be provided on the imaging chip 113 side or may be provided on the signal processing chip 111 side.

単位領域131のリセットトランジスタおよび転送トランジスタを個別にオンオフすることにより、単位領域131に含まれる画素Aから画素Iに対して独立して、電荷の蓄積開始時間、蓄積終了時間、転送タイミングを含む電荷蓄積を制御することができる。また、単位領域131の選択トランジスタを個別にオンオフすることにより、各画素Aから画素Iの画素信号を共通の出力配線308を介して出力することができる。 By individually turning on and off the reset transistor and transfer transistor of the unit area 131, charge including charge accumulation start time, accumulation end time, and transfer timing is independently generated from pixel A to pixel I included in the unit area 131. Accumulation can be controlled. Furthermore, by individually turning on and off the selection transistors in the unit area 131, the pixel signals from each pixel A to the pixel I can be outputted via the common output wiring 308.

ここで、単位領域131に含まれる画素Aから画素Iについて、行および列に対して規則的な順序で電荷蓄積を制御する、いわゆるローリングシャッタ方式が公知である。ローリングシャッタ方式により行ごとに画素を選択してから列を指定すると、図6の例では「ABCDEFGHI」の順序で画素信号が出力される。 Here, a so-called rolling shutter method is known in which charge accumulation is controlled in a regular order for rows and columns for pixels A to I included in the unit area 131. When pixels are selected for each row using the rolling shutter method and then a column is specified, pixel signals are output in the order of "ABCDEFGHI" in the example of FIG. 6.

このように単位領域131を基準として回路を構成することにより、単位領域131ごとに電荷蓄積時間を制御することができる。換言すると、単位領域131間で異なったフレームレートによる画素信号をそれぞれ出力させることができる。また、撮像チップ113において一部のエリアに含まれる単位領域131に電荷蓄積(撮像)を行わせる間に他のエリアに含まれる単位領域131を休ませることにより、撮像チップ113の所定のエリアでのみ撮像を行わせて、その画素信号を出力させることができる。さらに、フレーム間で電荷蓄積(撮像)を行わせるエリア(蓄積制御の対象エリア)を切り替えて、撮像チップ113の異なるエリアで逐次撮像を行わせて、画素信号を出力させることもできる。 By configuring the circuit with the unit area 131 as a reference in this way, the charge accumulation time can be controlled for each unit area 131. In other words, pixel signals with different frame rates can be output between the unit areas 131, respectively. In addition, by resting the unit area 131 included in another area while charge accumulation (imaging) is performed in the unit area 131 included in some areas in the imaging chip 113, it is possible to It is possible to perform imaging only and output the pixel signal. Furthermore, it is also possible to switch the area (target area for accumulation control) in which charge accumulation (imaging) is performed between frames, to sequentially perform imaging in different areas of the imaging chip 113, and to output pixel signals.

図7は、図6に例示した回路に対応する撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位領域131を形成する9個のPD104を順番に選択して、それぞれの画素信号を当該単位領域131に対応して設けられた出力配線308へ出力させる。マルチプレクサ411は、PD104と共に、撮像チップ113に形成される。 FIG. 7 is a block diagram showing the functional configuration of the image sensor 100 corresponding to the circuit illustrated in FIG. 6. The analog multiplexer 411 sequentially selects the nine PDs 104 forming the unit area 131 and outputs each pixel signal to the output wiring 308 provided corresponding to the unit area 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS)・アナログ/デジタル(A/D)変換を行う信号処理回路412により、CDSおよびA/D変換が行われる。A/D変換された画素信号は、デマルチプレクサ413に引き渡され、それぞれの画素に対応する画素メモリ414に格納される。デマルチプレクサ413および画素メモリ414は、メモリチップ112に形成される。 The pixel signal output through the multiplexer 411 is processed by a signal processing circuit 412 formed in the signal processing chip 111 and performing correlated double sampling (CDS) and analog/digital (A/D) conversion. A D conversion is performed. The A/D converted pixel signals are delivered to the demultiplexer 413 and stored in the pixel memory 414 corresponding to each pixel. Demultiplexer 413 and pixel memory 414 are formed on memory chip 112.

演算回路415は、画素メモリ414に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路415は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図7では1つの単位領域131の分の接続を示すが、実際にはこれらが単位領域131ごとに存在して、並列で動作する。ただし、演算回路415は単位領域131ごとに存在しなくてもよく、例えば、一つの演算回路415がそれぞれの単位領域131に対応する画素メモリ414の値を順に参照しながらシーケンシャルに処理してもよい。 The arithmetic circuit 415 processes the pixel signals stored in the pixel memory 414 and delivers them to the subsequent image processing section. The arithmetic circuit 415 may be provided in the signal processing chip 111 or in the memory chip 112. Although FIG. 7 shows connections for one unit area 131, these connections actually exist for each unit area 131 and operate in parallel. However, the arithmetic circuit 415 does not need to exist for each unit area 131; for example, one arithmetic circuit 415 may process the values sequentially while sequentially referring to the values in the pixel memory 414 corresponding to each unit area 131. good.

上記の通り、単位領域131のそれぞれに対応して出力配線308が設けられている。撮像素子100は撮像チップ113、信号処理チップ111およびメモリチップ112を積層しているので、これら出力配線308にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。 As described above, the output wiring 308 is provided corresponding to each unit area 131. Since the image sensor 100 has an image sensor chip 113, a signal processing chip 111, and a memory chip 112 stacked, each chip can be connected in the plane direction by using electrical connections between the chips using bumps 109 for these output wirings 308. Wiring can be routed without increasing the size.

<測距の説明>
図8は、撮像素子100の撮像面における焦点検出用画素の位置を例示する図である。本実施形態では、撮像チップ113のX軸方向(水平方向)に沿って離散的に焦点検出用画素が並べて設けられている。図8の例では、15本の焦点検出画素ライン60が所定の間隔で設けられる。焦点検出画素ライン60を構成する焦点検出用画素は、測距用の画像信号を出力する。撮像チップ113において焦点検出画素ライン60以外の画素位置には通常の撮像用画素が設けられている。撮像用画素は、移動体や障害物等を監視する画像信号を出力する。
<Explanation of distance measurement>
FIG. 8 is a diagram illustrating the positions of focus detection pixels on the imaging surface of the image sensor 100. In this embodiment, focus detection pixels are arranged discretely along the X-axis direction (horizontal direction) of the imaging chip 113. In the example of FIG. 8, 15 focus detection pixel lines 60 are provided at predetermined intervals. The focus detection pixels forming the focus detection pixel line 60 output an image signal for distance measurement. In the imaging chip 113, normal imaging pixels are provided at pixel positions other than the focus detection pixel line 60. The imaging pixels output image signals for monitoring moving objects, obstacles, and the like.

図9は、上記焦点検出画素ライン60のうち一つのラインの一部を含む領域を拡大した図である。図9において、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bと、焦点検出用画素P1、および焦点検出用画素P2とが例示される。赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bは、上述したベイヤー配列の規則にしたがって配される。 FIG. 9 is an enlarged view of a region including a part of one of the focus detection pixel lines 60. In FIG. 9, a red pixel R, a green pixel G (Gb, Gr), a blue pixel B, a focus detection pixel P1, and a focus detection pixel P2 are illustrated. The red pixel R, the green pixel G (Gb, Gr), and the blue pixel B are arranged according to the Bayer arrangement rules described above.

赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bについて例示した正方形状の領域は、撮像用画素の受光領域を示す。各撮像用画素は、撮像光学系の射出瞳を通る光束を受光する。すなわち、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bはそれぞれ正方形状のマスク開口部を有し、これらのマスク開口部を通った光が撮像用画素の受光部に到達する。 The square-shaped areas illustrated for the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B indicate the light-receiving area of the imaging pixel. Each imaging pixel receives a light beam passing through the exit pupil of the imaging optical system. That is, the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B each have a square mask opening, and the light that passes through these mask openings reaches the light receiving part of the imaging pixel. .

なお、赤色画素R、緑色画素G(Gb、Gr)、および青色画素Bの受光領域(マスク開口部)の形状は四角形に限定されず、例えば円形であってもよい。 Note that the shapes of the light-receiving regions (mask openings) of the red pixel R, the green pixel G (Gb, Gr), and the blue pixel B are not limited to squares, and may be circular, for example.

焦点検出用画素P1、および焦点検出用画素P2について例示した半円形状の領域は、焦点検出用画素の受光領域を示す。すなわち、焦点検出用画素P1は、図9において画素位置の左側に半円形状のマスク開口部を有し、このマスク開口部を通った光が焦点検出用画素P1の受光部に到達する。一方、焦点検出用画素P2は、図9において画素位置の右側に半円形状のマスク開口部を有し、このマスク開口部を通った光が焦点検出用画素P2の受光部に到達する。このように、焦点検出用画素P1および焦点検出用画素P2は、撮像光学系の射出瞳の異なる領域を通る一対の光束をそれぞれ受光する。 The semicircular area illustrated for the focus detection pixel P1 and the focus detection pixel P2 indicates the light receiving area of the focus detection pixel. That is, the focus detection pixel P1 has a semicircular mask opening on the left side of the pixel position in FIG. 9, and light passing through this mask opening reaches the light receiving section of the focus detection pixel P1. On the other hand, the focus detection pixel P2 has a semicircular mask opening on the right side of the pixel position in FIG. 9, and light passing through this mask opening reaches the light receiving section of the focus detection pixel P2. In this way, the focus detection pixel P1 and the focus detection pixel P2 each receive a pair of light beams passing through different regions of the exit pupil of the imaging optical system.

なお、撮像チップ113における焦点検出画素ラインの位置は、図8に例示した位置に限定されない。また、焦点検出画素ラインの数についても、図8の例に限定されるものではない。さらに、焦点検出用画素P1および焦点検出用画素P2におけるマスク開口部の形状は半円形に限定されず、例えば撮像用画素R、撮像用画素G、撮像用画素Bにおける四角形状受光領域(マスク開口部)を横方向に分割した長方形状としてもよい。 Note that the position of the focus detection pixel line in the imaging chip 113 is not limited to the position illustrated in FIG. 8 . Furthermore, the number of focus detection pixel lines is not limited to the example shown in FIG. 8. Further, the shape of the mask opening in the focus detection pixel P1 and the focus detection pixel P2 is not limited to a semicircular shape. For example, the shape of the rectangular light receiving area (mask opening It is also possible to have a rectangular shape in which the part) is divided in the horizontal direction.

また、撮像チップ113における焦点検出画素ラインは、撮像チップ113のY軸方向(鉛直方向)に沿って焦点検出用画素を並べて設けたものでもよい。図9のように撮像用画素と焦点検出用画素とを二次元状に配列した撮像素子は公知であり、これらの画素の詳細な図示および説明は省略する。 Further, the focus detection pixel line in the imaging chip 113 may be one in which focus detection pixels are arranged side by side along the Y-axis direction (vertical direction) of the imaging chip 113. An image sensor in which imaging pixels and focus detection pixels are arranged two-dimensionally as shown in FIG. 9 is well known, and detailed illustrations and explanations of these pixels will be omitted.

なお、図9の例では、焦点検出用画素P1、P2がそれぞれ焦点検出用の一対の光束のうちの一方を受光する構成、いわゆる1PD構造を説明した。この代わりに、例えば特開2007-282107号公報に開示されるように、焦点検出用画素がそれぞれ焦点検出用の一対の光束の双方を受光する構成、いわゆる2PD構造にしてもよい。このように2PD構造にすることにより、焦点検出用画素からも画像データを読み出すことが可能となり、焦点検出画素が欠陥画素になることがない。 In the example of FIG. 9, a so-called 1PD structure, in which the focus detection pixels P1 and P2 each receive one of a pair of focus detection light beams, has been described. Instead of this, for example, as disclosed in Japanese Patent Laid-Open No. 2007-282107, a so-called 2PD structure may be used in which each focus detection pixel receives both of a pair of focus detection light beams. By adopting the 2PD structure in this way, it becomes possible to read image data also from the focus detection pixels, and the focus detection pixels do not become defective pixels.

本実施形態では、焦点検出用画素P1および焦点検出用画素P2から出力される測距用の画像信号に基づいて、撮像光学系の異なる領域を通る一対の光束による一対の像の像ズレ量(位相差)を検出することにより、撮像光学系の焦点調節状態(デフォーカス量)を演算する。 In this embodiment, the amount of image shift ( By detecting the phase difference), the focus adjustment state (defocus amount) of the imaging optical system is calculated.

一般に、上記一対の像は、撮像光学系が予定焦点面よりも前に対象物(例えば先行車)の鮮鋭像を結ぶいわゆる前ピン状態では互いに近づき、逆に予定焦点面より後ろに対象物の鮮鋭像を結ぶいわゆる後ピン状態では互いに遠ざかる。予定焦点面において対象物の鮮鋭像を結ぶ合焦状態には、上記一対の像が相対的に一致する。したがって、一対の像の相対位置ズレ量は、対象物までの距離(奥行き情報)に対応する。 Generally, the above pair of images approaches each other in a so-called front-focus state in which the imaging optical system forms a sharp image of an object (for example, a leading vehicle) in front of the intended focal plane; In the so-called back-focus state where a sharp image is formed, they move away from each other. In a focused state in which a sharp image of the object is formed at the predetermined focal plane, the pair of images are relatively coincident. Therefore, the amount of relative positional deviation between the pair of images corresponds to the distance to the object (depth information).

上記位相差に基づくデフォーカス量演算は、カメラの分野において公知であるので詳細な説明は省略する。ここで、デフォーカス量と対象物までの距離とは一対一で対応するため、対象物ごとにデフォーカス量を求めることにより、カメラから各対象物までの距離を求めることができる。すなわち、撮影画面の複数の位置で、それぞれ上記対象物までの距離測定(測距)が行える。デフォーカス量と対象物までの距離との関係は、あらかじめ数式またはルックアップテーブルとして用意し、不揮発性メモリ等に格納しておく。 The defocus amount calculation based on the phase difference is well known in the field of cameras, so a detailed explanation will be omitted. Here, since there is a one-to-one correspondence between the defocus amount and the distance to the target object, the distance from the camera to each target object can be determined by determining the defocus amount for each target object. That is, distance measurement (distance measurement) to the target object can be performed at a plurality of positions on the photographic screen. The relationship between the defocus amount and the distance to the object is prepared in advance as a mathematical formula or a lookup table, and stored in a nonvolatile memory or the like.

<自動車の制御>
以下、自動車10の制御部19が実行する制御について、図10のフローチャートを参照して説明する。なお、このフローチャートは自動車10の起動、例えばエンジンの始動または運転システム等の始動により開始されるものとする。図10のフローチャートによる処理を実行するためのプログラムは、制御部19にあるROM等の記憶媒体、または自動車10の記憶部17に格納されている。
<Automobile control>
The control executed by the control unit 19 of the automobile 10 will be described below with reference to the flowchart of FIG. 10. It is assumed that this flowchart is started when the automobile 10 is started, for example, when the engine is started or the driving system is started. A program for executing the process according to the flowchart of FIG. 10 is stored in a storage medium such as a ROM in the control unit 19 or in the storage unit 17 of the automobile 10.

制御部19は、ステップS1において、光電変換部15の撮像素子100による撮像を開始させる。上述したように、自動車10の撮像部5(光学系14、光電変換部15)は、自動車10の前後の画像をそれぞれ取得する。 In step S1, the control unit 19 causes the image sensor 100 of the photoelectric conversion unit 15 to start capturing an image. As described above, the imaging section 5 (optical system 14, photoelectric conversion section 15) of the automobile 10 acquires images of the front and rear of the automobile 10, respectively.

制御部19は、ステップS2において、通信部16を介して、他の車20(自動車10と同じレーンを走行する車両に加え、自動車10と同じ進行方向で異なる走行レーンを走行する車両)と通信を行う。本実施形態においては、図11(a)に示したように、自動車10と同じレーンを走行する前の車両73Aが自動運転車であり、隣の走行レーン(進行方向同じ)を走行する前の車両72Aが手動運転車であるとする。また、自動車10と同じレーンを走行する後ろの車両73Bが自動運転車であり、隣の走行レーン(進行方向同じ)を走行する後ろの車両72Bが手動運転車であるとする。 In step S2, the control unit 19 communicates with other vehicles 20 (vehicles traveling in the same lane as the automobile 10, as well as vehicles traveling in the same traveling direction as the automobile 10 but in a different lane) via the communication unit 16. I do. In this embodiment, as shown in FIG. 11(a), the vehicle 73A before traveling in the same lane as the automobile 10 is a self-driving vehicle, and the vehicle 73A before traveling in the adjacent traveling lane (same traveling direction) is a self-driving vehicle. It is assumed that the vehicle 72A is a manually operated vehicle. Further, it is assumed that a vehicle 73B behind the vehicle 73B traveling in the same lane as the automobile 10 is a self-driving vehicle, and a vehicle 72B behind the vehicle 72B traveling in the adjacent lane (same traveling direction) is a manually driven vehicle.

自動車10の周囲の車両が自動運転車か手動運転車かは、通信部16による公知の車車間通信などの通信結果に基づき判別する。また、他の車20に識別マークなどが表示される場合には、撮像部5(光学系14、光電変換部15)による撮像結果に基づき判別してもよい。識別マークは、所定のマークやコードを車両のボディに表示するものでもよく、車両のルーフ等に設けた不図示の表示部に識別情報を表示させるものでもよい。 なお、通信結果(通信不能)や撮像結果に基づき自動運転車か手動運転車かを判別できない他の車20については、制御部19は、手動運転車であると推定するものとする。 Whether the vehicles surrounding the automobile 10 are automatically driven vehicles or manually driven vehicles is determined based on the result of communication by the communication unit 16, such as known vehicle-to-vehicle communication. Further, when an identification mark or the like is displayed on another vehicle 20, the discrimination may be made based on the imaging result by the imaging section 5 (optical system 14, photoelectric conversion section 15). The identification mark may be a predetermined mark or code displayed on the body of the vehicle, or may be one that displays identification information on a display section (not shown) provided on the roof of the vehicle or the like. Note that the control unit 19 assumes that other cars 20 that cannot be determined to be self-driving cars or manually-driving cars based on communication results (unable to communicate) or imaging results are manually-driving cars.

制御部19は、ステップS3において、光電変換部15の撮像素子100の上記単位領域131(図5)ごとに個別に撮像条件を設定する。図11(b)および図11(c)は、それぞれ自動車10の前方および後方を撮像する撮像素子100に結像される被写体(対象物)の像を模式的に示す図である。実際には倒立逆像が結像されるが、分かりやすくするために正立正像として図示している。白線80aは、進行方向に向かって道路左側の区画線、白線80bは走行レーン(車線)の境界線、白線80cは道路右側の区画線を表す。 In step S3, the control unit 19 individually sets imaging conditions for each unit area 131 (FIG. 5) of the image sensor 100 of the photoelectric conversion unit 15. FIGS. 11(b) and 11(c) are diagrams schematically showing images of a subject (object) formed on the image sensor 100 that images the front and rear of the automobile 10, respectively. In reality, an inverted inverted image is formed, but for the sake of clarity, it is shown as an erect normal image. The white line 80a represents a dividing line on the left side of the road in the direction of travel, the white line 80b represents a boundary line between driving lanes, and the white line 80c represents a dividing line on the right side of the road.

上述したように、自動車10の隣のレーンを走行する前後の車両72A、72Bは手動運転車であるため、制御部19は、図11(b)において車両72Aを含む領域を注目領域71Aとする。そして、注目領域71Aに該当する撮像素子100の単位領域のフレームレートを通常領域のフレームレートより高く設定し(例えば60fps)、間引き率を通常領域より低い0~20%とする。 As described above, since the vehicles 72A and 72B before and after the vehicle 10 traveling in the lane next to the vehicle 10 are manually driven vehicles, the control unit 19 sets the region including the vehicle 72A in FIG. 11(b) as the region of interest 71A. . Then, the frame rate of the unit area of the image sensor 100 corresponding to the attention area 71A is set higher than the frame rate of the normal area (for example, 60 fps), and the thinning rate is set to 0 to 20%, which is lower than that of the normal area.

同様に、制御部19は、図11(c)において車両72Bを含む領域を注目領域71Bとする。そして、注目領域71Bに該当する撮像素子100の単位領域のフレームレートを通常領域のフレームレートより高く設定し(例えば60fps)、間引き率を通常領域より低い0~20%とする。
制御部19はさらに、この間引き率を自動車10の移動速度または自動車10と他の車20との相対的な移動速度に応じて設定変更する。例えば、相対的な移動速度が速くなるに連れて間引き率を低く変更する。
Similarly, the control unit 19 sets the area including the vehicle 72B in FIG. 11(c) as the attention area 71B. Then, the frame rate of the unit area of the image sensor 100 corresponding to the attention area 71B is set higher than the frame rate of the normal area (for example, 60 fps), and the thinning rate is set to 0 to 20%, which is lower than that of the normal area.
The control unit 19 further changes the setting of this thinning rate depending on the moving speed of the automobile 10 or the relative moving speed between the automobile 10 and another vehicle 20. For example, the thinning rate is changed to lower as the relative moving speed becomes faster.

なお、図11(b)は注目領域71Aを除く領域を全て通常領域とする例であるが、自動運転車である車両73Aを囲む領域を準注目領域74Aとし、注目領域71Aおよび準注目領域74Aを除く領域を通常領域としてもよい。また、図11(c)は注目領域71Bを除く領域を全て通常領域とする例であるが、自動運転車である車両73Bを囲む領域を準注目領域74Bとし、注目領域71Bおよび準注目領域74Bを除く領域を通常領域としてもよい。なお、制御部19は、準注目領域74A,Bの撮像条件を完全自動運転と準自動運転とで異なる設定としてもよい。この場合、制御部19は、準自動運転の場合の撮像素子100のフレームレートを完全自動運転の場合の撮像素子100のフレームレートよりも高く設定すればいい。また、制御部19は、完全自動運転の場合にその撮像領域を通常領域と設定してもよい。 Note that FIG. 11(b) is an example in which all areas except the attention area 71A are normal areas, but the area surrounding the self-driving vehicle 73A is the quasi-attention area 74A, and the attention area 71A and the quasi-attention area 74A are The area excluding the above may be set as a normal area. Further, although FIG. 11(c) is an example in which all regions except the attention region 71B are normal regions, the region surrounding the vehicle 73B, which is an automatic driving vehicle, is the quasi-attention region 74B, and the attention region 71B and the quasi-attention region 74B The area excluding the above may be set as a normal area. Note that the control unit 19 may set the imaging conditions for the semi-attention regions 74A and 74B to be different between fully automatic operation and semi-automatic operation. In this case, the control unit 19 may set the frame rate of the image sensor 100 in the case of semi-automatic operation to be higher than the frame rate of the image sensor 100 in the case of fully automatic operation. Further, the control unit 19 may set the imaging area as a normal area in the case of fully automatic driving.

制御部19は、それぞれ自動車10の前方および後方を撮像する撮像素子100に対し、準注目領域74A、74Bに該当する撮像素子100の単位領域のフレームレートを、通常領域のフレームレートより低く設定し(例えば30fps)、間引き率を30~60%程度に設定する。 The control unit 19 sets the frame rate of the unit area of the image sensor 100 that corresponds to the semi-attention areas 74A and 74B to be lower than the frame rate of the normal area for the image sensor 100 that images the front and rear of the vehicle 10, respectively. (for example, 30 fps), and the thinning rate is set to about 30 to 60%.

また、制御部19は、上記注目領域71A、71Bに加えて、路上の白線が含まれる領域を注目領域としてよい。そして、それぞれ自動車10の前方および後方を撮像する撮像素子100に対し、注目領域に該当する撮像素子100の単位領域のフレームレートを、通常領域のフレームレートより高く設定し(例えば60fps)、間引き率を0~20%とする。
このように、手動運転車と自動運転車とを撮像する際に撮像素子100の単位領域ごとに撮像条件を異ならせることにより、撮像素子100を効率的に使用することができ、消費電力や発熱を抑えることができる。
Further, in addition to the above-mentioned regions of interest 71A and 71B, the control unit 19 may set an area of interest that includes a white line on the road. Then, the frame rate of the unit area of the image sensor 100 corresponding to the region of interest is set higher than the frame rate of the normal area (for example, 60 fps) for the image sensor 100 that images the front and rear of the vehicle 10, respectively, and the thinning rate 0 to 20%.
In this way, by differentiating the imaging conditions for each unit area of the image sensor 100 when capturing images of a manually driven vehicle and an autonomous vehicle, the image sensor 100 can be used efficiently, reducing power consumption and heat generation. can be suppressed.

制御部19は、図10のステップS4において、通信部16を介して信号機40と通信可能かどうか、すなわち信号機40(交差点)に近づいてきたかどうか等を判断する。制御部19は、信号機40との通信ができない(通信可能エリア外)場合には、ステップS4を否定判定してステップS7に進む。一方、制御部19は、信号機40との通信が可能な(通信可能エリア内)場合は、ステップS4を肯定判定してステップS5に進む。 In step S4 of FIG. 10, the control unit 19 determines whether communication with the traffic light 40 is possible via the communication unit 16, that is, whether or not the vehicle is approaching the traffic light 40 (intersection). If communication with the traffic light 40 is not possible (outside the communicable area), the control unit 19 makes a negative determination in step S4 and proceeds to step S7. On the other hand, if communication with the traffic light 40 is possible (within the communicable area), the control unit 19 makes an affirmative determination in step S4 and proceeds to step S5.

制御部19は、ステップS5において、信号機40(自動車用の信号機40aまたは歩行者用の信号機40b)の光電変換部44によって取得された画像に基づく情報を受信する。例えば、制御部19は、自動車10が左折する場合(米国などの車両が右側通行の地域では右折する場合)に、歩行者用の信号機40bから人物に関する情報を受信する。この場合、信号機40の制御部46が光電変換部44によって取得された画像に基づいて歩行者の有無を判断し、制御部19が、制御部46によって判断された歩行者に関する情報を受信する。
なお、自動車10の制御部19が、信号機40の光電変換部44によって取得された画像データを受信し、受信した画像データに基づいて歩行者の有無を判断するようにしてもよい。
In step S5, the control unit 19 receives information based on the image acquired by the photoelectric conversion unit 44 of the traffic light 40 (vehicle traffic light 40a or pedestrian traffic light 40b). For example, the control unit 19 receives information regarding a person from the pedestrian traffic light 40b when the automobile 10 turns left (when vehicles turn right in areas where vehicles drive on the right, such as in the United States). In this case, the control unit 46 of the traffic light 40 determines the presence or absence of a pedestrian based on the image acquired by the photoelectric conversion unit 44, and the control unit 19 receives information regarding the pedestrian determined by the control unit 46.
Note that the control unit 19 of the automobile 10 may receive the image data acquired by the photoelectric conversion unit 44 of the traffic light 40, and determine the presence or absence of a pedestrian based on the received image data.

制御部19は、自動車10が右折をする場合(車両が右側通行の地域では左折する場合)に、対向車線の直進車が自動運転車か手動運転車かといった情報を自動車用の信号機40aから受信する。さらに、制御部19は、自動車用の信号機40aから交通信号の切り替わりに関する情報(例えば数秒後に青信号から赤信号に変わる等の信号切り替え情報)を受信する。 When the automobile 10 makes a right turn (when the vehicle turns left in an area where vehicles drive on the right side), the control unit 19 receives information from the automobile traffic light 40a, such as whether a straight vehicle in the oncoming lane is a self-driving vehicle or a manual vehicle. do. Further, the control unit 19 receives information regarding traffic signal switching (for example, signal switching information such as a change from a green light to a red light after several seconds) from the automobile traffic light 40a.

制御部19は、ステップS6において、ステップS5にて入手した情報に基づいて光電変換部15の撮像素子100の撮像条件を設定する。制御部19は、例えば自動車10が交差点で左折する場合に、撮影画面の左側に対応する撮像素子100の単位領域のフレームレートを、撮影画面の右側に対応する単位領域のフレームレートより高くしたり、自動車10の速度や歩行者の移動速度(例えば時速4km/h)に対応して上記フレームレートを変化させたりする。 In step S6, the control unit 19 sets imaging conditions for the image sensor 100 of the photoelectric conversion unit 15 based on the information obtained in step S5. For example, when the car 10 turns left at an intersection, the control unit 19 may set the frame rate of the unit area of the image sensor 100 corresponding to the left side of the shooting screen to be higher than the frame rate of the unit area corresponding to the right side of the shooting screen. , the frame rate is changed in accordance with the speed of the automobile 10 and the moving speed of the pedestrian (for example, 4 km/h).

例えば、時速50km/hで移動していた自動車10が、左折のために10km/h程度まで減速した場合には、撮影画面の左側に対応する単位領域のフレームレートを減速前に比べて下げる。また、制御部19は、自動車10が左折する場合に、歩道を渡る歩行者が自動車10に近付いてくるのか、または歩行者が自動車10から遠ざかるのかに応じて、撮像素子100の撮像条件を設定する。すなわち、制御部19は、自動車10に近づいてくる人に対応する撮像素子100の単位領域のフレームレートを高くするとともに間引き率を低くして、自動車10から遠ざかる歩行者(特に自動車10が通過予定の横断歩道をすでに渡り終えた人)に対応する撮像素子100の単位領域のフレームレートを低くするとともに間引き率を高くする。 For example, when the car 10, which was traveling at 50 km/h, decelerates to about 10 km/h to make a left turn, the frame rate of the unit area corresponding to the left side of the photographic screen is lowered compared to before the deceleration. Further, when the car 10 turns left, the control unit 19 sets the imaging conditions of the image sensor 100 depending on whether a pedestrian crossing the sidewalk approaches the car 10 or moves away from the car 10. do. That is, the control unit 19 increases the frame rate of the unit area of the image sensor 100 that corresponds to a person approaching the car 10 and lowers the thinning rate to detect a pedestrian moving away from the car 10 (particularly when the car 10 is scheduled to pass). The frame rate of the unit area of the image sensor 100 corresponding to the person who has already crossed the crosswalk is lowered, and the thinning rate is increased.

また、自動車10が交差点で右折する場合に、制御部19は、対向車線から直進して来る他の車20が手動運転車である場合には、撮影画面の右側に対応する単位領域のフレームレートを撮影画面の左側に対応する単位領域のフレームレートより相対的に高くして、間引き率を低くする。また、右折先の横断歩道を渡る歩行者が自動車10に近づいてきている場合には、近づいてくる歩行者に対応する撮像素子100の単位領域のフレームレートをさらに高くして、間引き率をさらに低くする。 Further, when the car 10 turns right at an intersection, the control unit 19 controls the frame rate of the unit area corresponding to the right side of the shooting screen if the other car 20 coming straight from the oncoming lane is a manually driven car. is set relatively higher than the frame rate of the unit area corresponding to the left side of the shooting screen, and the thinning rate is lowered. Furthermore, if a pedestrian crossing the crosswalk at the right turn destination is approaching the car 10, the frame rate of the unit area of the image sensor 100 corresponding to the approaching pedestrian is further increased to further increase the thinning rate. make low.

制御部19は、自動車10が右折・左折をする場合に、ターンシグナルスイッチの操作状態や、ハンドルの操作量に応じて、注目すべき撮像領域を予測(歩行者等が写りこむ可能性がある撮像領域を予測)して、撮像条件を設定変更するようにしてもよい。 When the automobile 10 makes a right turn or a left turn, the control unit 19 predicts the imaging area to be focused on (in which pedestrians, etc. may be captured) according to the operation state of the turn signal switch and the amount of operation of the steering wheel. It is also possible to change the settings of the imaging conditions by predicting the imaging area.

また、制御部19は、自動車用の信号機40aから交通信号の切り替わりに関する情報を受信して、その情報に基づいて撮像素子100の撮像条件を変更する。例えば、制御部19は、数秒後に青信号から赤信号に変わるという交通信号の切り替わりに関する情報を自動車用の信号機40aから受信し、自動車10が減速する場合には、前方を撮像する撮像素子100のフレームレートを減速前より低くしたり、間引き率を高くしたりするように制御する。一方、制御部19は、後方を撮像する撮像素子100の撮像条件はそのまま維持するように制御する。
なお、自動車10が減速すると、後続車が自動車10に接近することが予想されるので、後方を撮像する撮像素子100のフレームレートを、減速前より高くしたり、間引き率を低くしたりする制御を行ってもよい。
制御部19は、自動車10が速度を変更する場合に、ブレーキやアクセルの操作量(ペダルの踏み込み量)に応じて速度変化を予測して、撮像条件を設定変更するようにしてもよい。
Further, the control unit 19 receives information regarding the switching of traffic signals from the automobile traffic light 40a, and changes the imaging conditions of the image sensor 100 based on the information. For example, the control unit 19 receives information regarding the switching of a traffic signal from a green light to a red light after a few seconds from the automobile traffic light 40a, and when the automobile 10 decelerates, the control unit 19 receives a frame of the image sensor 100 that images the front. The rate is controlled to be lower than before deceleration or the thinning rate is increased. On the other hand, the control unit 19 controls the imaging condition of the imaging device 100 for imaging the rear to be maintained as it is.
Note that when the car 10 decelerates, it is expected that a following car will approach the car 10, so control is performed to increase the frame rate of the image sensor 100 that images the rear than before the deceleration or to lower the thinning rate. You may do so.
When the vehicle 10 changes its speed, the control unit 19 may predict the speed change according to the amount of operation of the brake or accelerator (the amount of pedal depression) and change the settings of the imaging conditions.

制御部19は、ステップS7において、エンジン(または運転システム)がオンかどうかを判定する。制御部19は、エンジン(または運転システム)がオンであればステップS7を肯定判定してステップS2以降の処理を繰り返す。制御部19は、エンジン(または運転システム)がオフであればステップS7を否定判定し、本フローチャートによる処理を終了する。 In step S7, the control unit 19 determines whether the engine (or the driving system) is on. If the engine (or the driving system) is on, the control unit 19 makes an affirmative determination in step S7 and repeats the processing from step S2 onwards. If the engine (or the driving system) is off, the control unit 19 makes a negative determination in step S7 and ends the process according to this flowchart.

<信号機の制御>
次に、信号機40の制御部46が実行する制御について、図12のフローチャートを参照して説明する。図12のフローチャートによる処理を実行するためのプログラムは、制御部46にあるROM等の記憶媒体、または記憶部45に格納されている。
<Traffic light control>
Next, the control executed by the control unit 46 of the traffic light 40 will be described with reference to the flowchart of FIG. 12. A program for executing the process according to the flowchart in FIG. 12 is stored in a storage medium such as a ROM in the control unit 46 or in the storage unit 45.

制御部46は、ステップS10において、交通信号生成装置30から交通信号を受信したかを判定する。制御部46は、交通信号生成装置30からの交通信号を受信すると、ステップS10を肯定判定してステップS11に進む。制御部46は、交通信号生成装置30からの交通信号を受信していない場合は、ステップS10を否定判定して受信を待つ。 The control unit 46 determines whether a traffic signal has been received from the traffic signal generation device 30 in step S10. When the control unit 46 receives the traffic signal from the traffic signal generation device 30, it makes an affirmative determination in step S10 and proceeds to step S11. If the control unit 46 has not received the traffic signal from the traffic signal generation device 30, it makes a negative determination in step S10 and waits for reception.

制御部46は、ステップS11において、表示部42の表示制御を行う。例えば、制御部46は交通信号生成装置30から受信した交通信号に応じて表示部42の信号灯表示を赤から青に切り替える制御を行う。 The control unit 46 controls the display of the display unit 42 in step S11. For example, the control unit 46 performs control to switch the signal light display on the display unit 42 from red to blue in accordance with the traffic signal received from the traffic signal generation device 30.

制御部46は、ステップS12において、一若しくは複数の車両または他の信号機40と通信を行う。制御部46が通信対象とする車両には、自動車10、および通信部21を備える他の車20を含むことができる。
なお、通信対象車両は、交差点または信号機40から所定の範囲内にある車両としてもよいし、道路に設置された不図示の情報提供システム等を介して通信可能な車両としてもよい。
The control unit 46 communicates with one or more vehicles or other traffic lights 40 in step S12. Vehicles with which the control unit 46 communicates can include the automobile 10 and another vehicle 20 that includes the communication unit 21 .
Note that the communication target vehicle may be a vehicle within a predetermined range from the intersection or the traffic light 40, or may be a vehicle that can communicate via an information providing system (not shown) installed on the road.

制御部46は、通信対象車両から、該車両または該車両の周辺の車両が自動運転車であるか手動運転車であるか等の移動方式についての情報を取得する。さらに、制御部46は、通信対象車両から、該車両または該車両の周辺の車両の運転状況に関する情報を取得する。例えば、通信対象車両の制御部19または制御部25が、ウィンカー(方向指示器)を作動させるためのターンシグナルスイッチの状態から交差点での進路変更(右折または左折)を予測する。制御部46は、通信対象車両によって予測された右折予測情報または左折予測情報を、上記運転状況に関する情報として通信対象車両から取得する。 The control unit 46 acquires information from the vehicle to be communicated about the mode of movement, such as whether the vehicle or vehicles around the vehicle are self-driving cars or manually driving cars. Furthermore, the control unit 46 acquires information regarding the driving status of the vehicle or vehicles around the vehicle from the vehicle to be communicated with. For example, the control unit 19 or 25 of the communication target vehicle predicts a course change (right turn or left turn) at an intersection based on the state of a turn signal switch for operating a turn signal. The control unit 46 acquires right turn prediction information or left turn prediction information predicted by the communication target vehicle from the communication target vehicle as information regarding the driving situation.

なお、車両が自動運転車であるか手動運転車であるかは、制御部46が通信対象車両との通信結果に基づき判別してもよい。また、車両に識別マークなどが表示される場合には、制御部46が、撮像部(光学系43、光電変換部44)による撮像結果に基づき判別してもよい。さらに、車両の進路変更(右折または左折)については、制御部46が、撮像部(光学系43、光電変換部44)による撮像結果に基づき、該車両のウィンカーの作動状態から判別してもよく、該車両が左折レーン上にあるか、右折レーン上にあるかによって判別してもよい。 Note that the control unit 46 may determine whether the vehicle is an automatically driven vehicle or a manually driven vehicle based on the result of communication with the communication target vehicle. Further, in the case where an identification mark or the like is displayed on the vehicle, the control unit 46 may make the determination based on the imaging result by the imaging unit (optical system 43, photoelectric conversion unit 44). Furthermore, the control unit 46 may determine whether the vehicle changes course (right turn or left turn) based on the operating state of the turn signal of the vehicle based on the imaging result by the imaging unit (optical system 43, photoelectric conversion unit 44). The determination may be made based on whether the vehicle is on a left-turn lane or a right-turn lane.

また、制御部46は、自動車用の信号機40aまたは歩行者用の信号機40bを含む他の信号機40とも通信を行い、交差点等における交通状況の情報を取得することができる。制御部46はさらに、必要に応じて、各信号機の交通信号生成に係る交通信号生成装置30と通信を行い、交通信号の表示状況についての情報を取得する。 The control unit 46 also communicates with other traffic lights 40, including the traffic lights 40a for cars and the traffic lights 40b for pedestrians, and can acquire information on traffic conditions at intersections and the like. The control unit 46 further communicates with the traffic signal generation device 30 related to traffic signal generation of each traffic signal, as necessary, and acquires information about the display status of the traffic signal.

制御部46は、ステップS13において、表示部42の信号灯の表示状況、およびステップS12で取得した情報に基づいて、光電変換部44の撮像素子100の撮像条件を設定する。光電変換部44の撮像素子100における撮像条件の設定の詳細については後述する。 In step S13, the control unit 46 sets imaging conditions for the image sensor 100 of the photoelectric conversion unit 44 based on the display status of the signal light on the display unit 42 and the information acquired in step S12. Details of setting the imaging conditions in the image sensor 100 of the photoelectric conversion unit 44 will be described later.

制御部46は、ステップS14において、ステップS13で設定された撮像条件の下に撮像部(光学系43、光電変換部44)による撮像を行わせる。 In step S14, the control unit 46 causes the imaging unit (optical system 43, photoelectric conversion unit 44) to perform imaging under the imaging conditions set in step S13.

制御部46は、ステップS15において、ステップS14で取得した画像データを、通信部41を介して、自動車10、他の車20または他の信号機40等に送信する。また、制御部46は、上記画像データに基づいて画像処理または画像解析を行い抽出した各情報、例えば、車両の方向、速さ等の各データと、ウィンカー等の作動状態の識別とにより推定した当該車両の走行レーンの情報も、同様に送信する。 In step S15, the control unit 46 transmits the image data acquired in step S14 to the automobile 10, another car 20, another traffic light 40, etc. via the communication unit 41. In addition, the control unit 46 performs image processing or image analysis based on the image data and extracts information, such as the direction and speed of the vehicle, and identifies the operating state of the turn signal. Information on the driving lane of the vehicle is also transmitted in the same way.

さらに、制御部46は、解析した情報に基づいて通信対象車両(自動車10や他の車20)の推定される走行レーンや障害となる対象物(車両や歩行者を含む)を認識し、認識結果を基にメッセージを生成し、メッセージを通信部41から通信対象車両へ送信させてもよい。メッセージは、例えば「後方から二輪車が来ます。」、「歩行者が横断します。」、「対向車両が直進します。」などである。制御部46は、ステップS10からステップS15までの処理を、繰り返し実行する。 Furthermore, the control unit 46 recognizes and recognizes the estimated driving lane of the communication target vehicle (car 10 and other cars 20) and objects (including vehicles and pedestrians) that may become obstacles based on the analyzed information. A message may be generated based on the result, and the message may be transmitted from the communication unit 41 to the communication target vehicle. The messages include, for example, "A motorcycle is coming from behind." "A pedestrian is crossing the street." "An oncoming vehicle is going straight." The control unit 46 repeatedly executes the processes from step S10 to step S15.

<信号機における撮像条件の設定>
図13は、自動車用の信号機40aが青信号を表示しているときの、自動車用の信号機40aと一体として設置、あるいはその近傍に設置された撮像部50-1の撮像素子100における撮像条件の制御の例を示す図である。
<Setting imaging conditions at traffic lights>
FIG. 13 shows control of imaging conditions in the image sensor 100 of the imaging unit 50-1 installed integrally with or near the automotive traffic light 40a when the automotive traffic light 40a is displaying a green light. FIG.

図13において、走行レーン(車線)Aに対する自動車用の信号機40aと、撮像部50-1と、交通信号生成装置30-1とが示されている。当該交差点にあるその他の信号機等は、図示が省略されている。自動車用の信号機40aの制御部46は、撮像部50-1の撮像領域70の範囲内で、青信号により車両が移動している走行レーンの範囲を、注目領域71として設定する(網掛けの範囲)。 In FIG. 13, an automobile traffic light 40a, an imaging unit 50-1, and a traffic signal generation device 30-1 for a driving lane A are shown. Other traffic lights and the like at the intersection are not shown. The control unit 46 of the automobile traffic light 40a sets the range of the driving lane in which the vehicle is moving due to the green light, within the range of the imaging area 70 of the imaging unit 50-1, as the region of interest 71 (the shaded area ).

制御部46は、注目領域71に対応する撮像素子100の単位領域について、注目領域71以外の単位領域よりフレームレートを高くしたり、間引き率を低くしたりして制御する。また、図13の注目領域71において自動運転でない手動運転車である車両72が存在するときは、制御部46は、車両72を囲む領域を特注目領域75として設定する。そして、特注目領域75に対応する撮像素子100の単位領域のフレームレートを、注目領域71に対応する単位領域よりもさらに高くする。制御部46は、特注目領域75に対応する撮像素子100の単位領域の間引き率についても、注目領域71に対応する単位領域の間引き率よりもさらに低く制御する。 The control unit 46 controls the unit area of the image sensor 100 corresponding to the area of interest 71 by increasing the frame rate or reducing the thinning rate compared to unit areas other than the area of interest 71. Further, when a vehicle 72 that is a manually operated vehicle that is not automatically driven is present in the region of interest 71 in FIG. 13, the control unit 46 sets an area surrounding the vehicle 72 as a region of special interest 75. Then, the frame rate of the unit area of the image sensor 100 corresponding to the special attention area 75 is made higher than that of the unit area corresponding to the attention area 71. The control unit 46 also controls the thinning rate of the unit area of the image sensor 100 corresponding to the special attention area 75 to be lower than the thinning rate of the unit area corresponding to the attention area 71.

また、制御部46は、注目領域71の中で、右左折のために一時停止している車両76、車両77を含む領域についても、それぞれ、注目領域71に対応する単位領域より間引き率を低くすることによって高解像度で撮像することができる。 In addition, the control unit 46 also sets the thinning rate lower than the unit area corresponding to the attention area 71 for the area including the vehicle 76 and the vehicle 77 that are temporarily stopped for turning right or left in the attention area 71. By doing so, it is possible to capture images with high resolution.

図14は、自動車用の信号機40aが赤信号を表示しているときの、自動車用の信号機40aと一体として設置、あるいはその近傍に設置された撮像部50-1の撮像素子100における撮像条件の制御の例を示す図である。 FIG. 14 shows the imaging conditions for the image sensor 100 of the imaging unit 50-1 installed integrally with or near the automotive traffic light 40a when the automotive traffic light 40a is displaying a red light. FIG. 3 is a diagram showing an example of control.

図14において、走行レーン(車線)Aに対する自動車用の信号機40aと、撮像部50-1と、交通信号生成装置30-1とが示されている。当該交差点にあるその他の信号機等は、図示が省略されている。制御部46は、撮像部50-1の撮像領域70の範囲内で、歩行者90が進入しうる横断歩道およびその付近を注目領域71として設定する(網掛けの範囲)。 In FIG. 14, an automobile traffic light 40a, an imaging unit 50-1, and a traffic signal generation device 30-1 for a driving lane A are shown. Other traffic lights and the like at the intersection are not shown. The control unit 46 sets, within the range of the imaging area 70 of the imaging unit 50-1, a crosswalk into which a pedestrian 90 can enter and its vicinity as an attention area 71 (shaded area).

制御部46は、注目領域71に対応する撮像素子100の単位領域について、注目領域71以外の単位領域よりフレームレートを高くしたり、間引き率を低くしたりして制御する。また、制御部46は、歩行者90を認識したときは、歩行者90を含む所定の範囲の領域を特注目領域75として設定する。そして、特注目領域75に対応する撮像素子100の単位領域のフレームレートを、注目領域71に対応する単位領域よりもさらに高くする。制御部46は、特注目領域75に対応する撮像素子100の単位領域の間引き率についても、注目領域71に対応する単位領域の間引き率よりもさらに低く制御する。 The control unit 46 controls the unit area of the image sensor 100 corresponding to the area of interest 71 by increasing the frame rate or reducing the thinning rate compared to unit areas other than the area of interest 71. Furthermore, when the control unit 46 recognizes the pedestrian 90, it sets a predetermined area including the pedestrian 90 as the special attention area 75. Then, the frame rate of the unit area of the image sensor 100 corresponding to the special attention area 75 is made higher than that of the unit area corresponding to the attention area 71. The control unit 46 also controls the thinning rate of the unit area of the image sensor 100 corresponding to the special attention area 75 to be lower than the thinning rate of the unit area corresponding to the attention area 71.

図15は、歩行者用の信号機40bと一体として設置、あるいはその近傍に設置された撮像部50-2の撮像条件の制御の例を示す図である。図15において、歩行者用の信号機40bと、撮像部50-2と、交通信号生成装置30-2とが示されている。当該交差点にあるその他の信号機等は、図示が省略されている。歩行者用の信号機40bの制御部46は、撮像部50-2の撮像領域70の範囲内で、歩行者90が進入しうる横断歩道およびその付近を注目領域71として設定する(網掛けの範囲)。 FIG. 15 is a diagram showing an example of controlling the imaging conditions of the imaging unit 50-2 installed integrally with or near the pedestrian traffic light 40b. In FIG. 15, a pedestrian traffic light 40b, an imaging section 50-2, and a traffic signal generation device 30-2 are shown. Other traffic lights and the like at the intersection are not shown. The control unit 46 of the pedestrian traffic light 40b sets a crosswalk into which the pedestrian 90 can enter and its vicinity as an attention area 71 within the range of the imaging area 70 of the imaging unit 50-2 (the shaded area ).

制御部46は、注目領域71に対応する撮像素子100の単位領域について、注目領域71以外の単位領域よりフレームレートを高くしたり、間引き率を低くしたりして制御する。また、制御部46は、歩行者90を認識したときは、歩行者90を含む所定の範囲の領域を特注目領域75として設定する。そして、特注目領域75に対応する撮像素子100の単位領域のフレームレートを、注目領域71に対応する単位領域よりもさらに高くする。制御部46は、特注目領域75に対応する撮像素子100の単位領域の間引き率についても、注目領域71に対応する単位領域の間引き率よりもさらに低く制御する。 The control unit 46 controls the unit area of the image sensor 100 corresponding to the area of interest 71 by increasing the frame rate or reducing the thinning rate compared to unit areas other than the area of interest 71. Furthermore, when the control unit 46 recognizes the pedestrian 90, it sets a predetermined area including the pedestrian 90 as the special attention area 75. Then, the frame rate of the unit area of the image sensor 100 corresponding to the special attention area 75 is made higher than that of the unit area corresponding to the attention area 71. The control unit 46 also controls the thinning rate of the unit area of the image sensor 100 corresponding to the special attention area 75 to be lower than the thinning rate of the unit area corresponding to the attention area 71.

図16(a)は、歩行者用の信号機40bに設置された撮像部50-2により撮像される場面を例示する図である。図16(b)は、撮像部50-2により取得された画像データを用いた被写体認識結果に基づく撮像条件の設定を説明する図である。図16(a)において、歩行者用の信号機40bに、上述の撮像素子100を有する撮像部50-2が設置されている。本実施形態に係る撮像素子100によれば、上下・左右方向だけでなく奥行き方向の移動も計測することができるため、被写体である歩行者90が移動する速度Voを測定することが可能である。 FIG. 16(a) is a diagram illustrating a scene imaged by the imaging unit 50-2 installed at the pedestrian traffic light 40b. FIG. 16(b) is a diagram illustrating setting of imaging conditions based on a subject recognition result using image data acquired by the imaging unit 50-2. In FIG. 16(a), an imaging unit 50-2 having the above-described imaging device 100 is installed at a traffic light 40b for pedestrians. According to the image sensor 100 according to the present embodiment, it is possible to measure movement not only in the vertical and horizontal directions but also in the depth direction, so it is possible to measure the speed Vo at which the pedestrian 90, who is the subject, moves. .

図16(b)において、制御部46は、撮像部50-2の撮像領域70の範囲内で、横断歩道を渡る歩行者90を含む範囲を注目領域71として設定する。そして、制御部46は、注目領域71に対応する撮像素子100の単位領域について、注目領域71以外の単位領域との間で撮像条件を異ならせる。このとき、制御部46は、歩行者90の速度Voに依存して撮像条件を異ならせる。 In FIG. 16(b), the control unit 46 sets an area including the pedestrian 90 crossing the crosswalk as the attention area 71 within the imaging area 70 of the imaging unit 50-2. Then, the control unit 46 makes the imaging conditions different for the unit area of the image sensor 100 corresponding to the area of interest 71 and for the unit areas other than the area of interest 71. At this time, the control unit 46 changes the imaging conditions depending on the speed Vo of the pedestrian 90.

制御部46は、例えば、歩行者90の速度Voの絶対値が大きいときは、歩行者90を含む注目領域71に対応する撮像素子100の単位領域について、注目領域71以外の単位領域よりフレームレートを高くしたり、間引き率を低くしたりして制御する。 For example, when the absolute value of the speed Vo of the pedestrian 90 is large, the control unit 46 controls the unit area of the image sensor 100 corresponding to the area of interest 71 including the pedestrian 90 to have a frame rate higher than that of the unit area other than the area of interest 71. control by increasing the rate or decreasing the thinning rate.

また、制御部46は、付近の車両や建築物と歩行者90との位置関係に基づいて、注目領域71に対する撮像条件を変えてもよい。例えば、交差点を右折または左折のためにウィンカーを作動させている車両が撮像領域70に存在する場合、その車両が横断歩道に進入する可能性があるので、制御部46は、注目領域71のうち、上記車両に近い側の領域を特注目領域として設定する。そして、特注目領域に対応する撮像素子100の単位領域のフレームレートを、注目領域71に対応する単位領域よりもさらに高くする。制御部46は、特注目領域に対応する撮像素子100の単位領域の間引き率についても、注目領域71に対応する単位領域の間引き率よりもさらに低く制御する。 Further, the control unit 46 may change the imaging conditions for the region of interest 71 based on the positional relationship between the pedestrian 90 and nearby vehicles or buildings. For example, if a vehicle operating its blinker to turn right or left at an intersection exists in the imaging area 70, there is a possibility that the vehicle will enter a crosswalk. , the area closer to the vehicle is set as the special attention area. Then, the frame rate of the unit area of the image sensor 100 corresponding to the special attention area is made higher than that of the unit area corresponding to the attention area 71. The control unit 46 also controls the thinning rate of the unit area of the image sensor 100 corresponding to the special attention area to be lower than the thinning rate of the unit area corresponding to the attention area 71.

さらに、制御部46は、注目領域71においても、斜線で示した複数の画素または領域78Pと、斜線で示されていない複数の画素または領域78Sとで、撮像条件を異ならせてもよい。図16(b)の例では、市松模様状に上下左右に隣接する画素または領域同士で撮像条件を異ならせたが、この態様に限らずともよい。 Further, in the region of interest 71, the control unit 46 may also vary the imaging conditions between the plurality of pixels or regions 78P indicated by diagonal lines and the plurality of pixels or regions 78S not indicated by diagonal lines. In the example of FIG. 16(b), the imaging conditions are different between pixels or regions that are vertically and horizontally adjacent in a checkered pattern, but the imaging conditions are not limited to this.

また、制御部46は、撮像領域70の範囲内に他の歩行者や自転車などの対象物を認識した場合には、これら複数の対象物をそれぞれ含む領域を、注目領域71に加えてもよい。そして、複数の注目領域71において、それぞれ斜線で示した複数の画素または領域78Pと、斜線で示されていない複数の画素または領域78Sとで、撮像条件を異ならせてもよい。 Further, when the control unit 46 recognizes objects such as other pedestrians and bicycles within the range of the imaging region 70, the control section 46 may add regions each including these plural objects to the region of interest 71. . In the plurality of regions of interest 71, the imaging conditions may be made different between the plurality of pixels or regions 78P indicated by diagonal lines and the plurality of pixels or regions 78S not indicated by diagonal lines.

図17は、交差点において自動車用の信号機40aに設置された撮像部50-1により撮像される場面を例示する図である。図17において、自動車用の信号機40aは、直進可、左折可、右折可を示す表示灯を有する表示部42aを備える。撮像部50-1により撮像された画像データを用いた被写体認識結果に基づく撮像条件の設定の例を説明する。 FIG. 17 is a diagram illustrating an example of a scene imaged by the imaging unit 50-1 installed in the automobile traffic light 40a at an intersection. In FIG. 17, a traffic light 40a for an automobile includes a display section 42a having an indicator light indicating whether the vehicle can go straight, turn left, or turn right. An example of setting imaging conditions based on a subject recognition result using image data captured by the imaging unit 50-1 will be described.

図17は、信号機40aの表示部42aが、直進可と左折可を示す表示灯を点灯し、右折を待機させている状態を示す。自動車用の信号機40aの制御部46は、直進または左折する車両が通過する走行レーンA,直進する車両が通過する走行レーンBに対応する撮像素子100の単位領域のフレームレートを、他の走行レーンCに対応する単位領域のフレームレートよりも高くしたり、間引き率を低くしたりして制御する。言い換えれば、制御部46は、走行レーンCに対応する単位領域のフレームレートを低くしたり、間引き率を高く設定したりして制御する。
なお、フレームレートを低くすることは、その単位領域において撮像を行わない設定を行うことも含む。
FIG. 17 shows a state in which the display section 42a of the traffic light 40a lights up indicator lights indicating that it is possible to go straight and that it is possible to turn left, and the vehicle is waiting for a right turn. The control unit 46 of the automobile traffic light 40a changes the frame rate of the unit area of the image sensor 100 corresponding to the driving lane A through which vehicles going straight or turning left pass, and the driving lane B through which vehicles going straight ahead to the other driving lanes. The frame rate is controlled to be higher than the frame rate of the unit area corresponding to C, or the thinning rate is lowered. In other words, the control unit 46 controls by lowering the frame rate of the unit area corresponding to the driving lane C or setting a higher thinning rate.
Note that lowering the frame rate also includes setting not to perform imaging in that unit area.

以上説明した実施形態に係る自動車10または信号機40(自動車用の信号機40a、歩行者用の信号機40b)における撮像素子100の撮像条件の制御においては、表示部42の表示の切り替わりタイミングとほぼ同時に撮像条件を変更してもよいし、表示の切り替わりタイミングから一定の時間間隔を設けて撮像条件を変更してもよい。あるいは、表示の切り替わり直後の一定時間は、表示の切り替わり前において設定した注目領域と、表示の切り替わり後に設定すべき注目領域との両方を注目領域として、撮像条件を変更してもよい。 In controlling the imaging conditions of the image sensor 100 in the automobile 10 or the traffic light 40 (traffic light 40a for automobiles, traffic light 40b for pedestrians) according to the embodiment described above, the imaging is performed almost simultaneously with the switching timing of the display on the display unit 42. The conditions may be changed, or the imaging conditions may be changed at fixed time intervals from the display switching timing. Alternatively, for a certain period of time immediately after the display is switched, the imaging conditions may be changed so that both the region of interest set before the display is switched and the region of interest that should be set after the display is switched are set as the region of interest.

上述した実施形態によれば、次の作用効果が得られる。
(1)自動車10(または信号機40)の撮像装置は、複数の領域の撮像条件を設定可能な撮像素子100を備えた撮像部5(または撮像部50)と、周囲の他の車20の運転方式に基づいて、複数の単位領域の撮像条件を設定する制御部19(または制御部41)とを備える。これにより、撮像素子100に対し、周囲の車20の運転方式に適した撮像条件を設定し得る。
According to the embodiment described above, the following effects can be obtained.
(1) The imaging device of the automobile 10 (or traffic light 40) includes an imaging unit 5 (or imaging unit 50) equipped with an imaging device 100 that can set imaging conditions for a plurality of areas, and the driving of other surrounding cars 20. The control unit 19 (or control unit 41) is configured to set imaging conditions for a plurality of unit areas based on a method. Thereby, imaging conditions suitable for the driving methods of surrounding cars 20 can be set for the imaging device 100.

(2)制御部19(または制御部41)は、運転方式が異なる他の車20を撮像する領域毎に異なる撮像条件を設定するので、撮像素子100に対して、運転方式が異なる車20を撮像する領域間に異なる撮像条件を設定し得る。 (2) Since the control unit 19 (or the control unit 41) sets different imaging conditions for each area for imaging other cars 20 with different driving methods, Different imaging conditions can be set between regions to be imaged.

(3)他の車20の運転方式は、自動運転方式と手動運転方式とであり、制御部19(または制御部41)は、自動運転方式の車20を撮像する領域と、手動運転方式の車20を撮像する領域とで異なる撮像条件を設定するので、撮像素子100に対して、自動運転方式の車20を撮像する領域と、手動運転方式の車20を撮像する領域との間に異なる撮像条件を設定し得る。 (3) The driving methods of the other cars 20 are an automatic driving method and a manual driving method, and the control unit 19 (or control unit 41) has an area for imaging the car 20 in the automatic driving method and an area for imaging the car 20 in the manual driving method. Since different imaging conditions are set for the area for imaging the car 20, the area for imaging the automatically driven car 20 and the area for imaging the manually operated car 20 are different for the image sensor 100. Imaging conditions can be set.

(4)制御部19(または制御部41)は、手動運転方式の車20を撮像する領域のフレームレートを、自動運転方式の車20を撮像する領域のフレームレートよりも高く設定する。これにより、手動運転方式の車20を撮像する頻度が自動運転方式の車20を撮像する頻度より高まるので、手動運転方式の車20に対する注目度を高めることができる。すなわち、手動運転方式の車20の予測のできない挙動について、迅速かつ正確な情報を取得することが可能になる。 (4) The control unit 19 (or the control unit 41) sets the frame rate of the area in which the manually driven car 20 is imaged to be higher than the frame rate in the area in which the automatically driven car 20 is imaged. As a result, the frequency of capturing images of the manually operated car 20 is higher than the frequency of capturing images of the automatically operated vehicle 20, so that the degree of attention to the manually operated car 20 can be increased. That is, it becomes possible to quickly and accurately obtain information regarding the unpredictable behavior of the manually driven vehicle 20.

(5)制御部19(または制御部41)は、手動運転方式の車20を撮像する領域の画素の間引き率を、自動運転方式の車20を撮像する領域の画素の間引き率よりも低く設定する。これにより、手動運転方式の車20についての情報量を自動運転方式の車20についての情報量より多くすることができる。すなわち、手動運転方式の車20の予測のできない挙動についてより正確な情報を取得することが可能になる。 (5) The control unit 19 (or the control unit 41) sets the pixel thinning rate in the area where the manual driving car 20 is imaged to be lower than the pixel thinning rate in the area where the automatic driving car 20 is imaged. do. As a result, the amount of information about the manually driven car 20 can be made larger than the amount of information about the automatically driven car 20. That is, it becomes possible to obtain more accurate information regarding the unpredictable behavior of the manually operated vehicle 20.

(6)周囲の他の車20の移動方式に関する情報を取得する制御部19(または制御部41)を備えるようにしたので、例えば、周囲の他の車20が入れ替わる場合でも、取得した最新の情報に基づいて、撮像素子100に対して撮像条件を設定することができる。 (6) Since the control unit 19 (or control unit 41) is provided to acquire information regarding the movement methods of other surrounding cars 20, for example, even when other surrounding cars 20 are replaced, the latest information obtained Based on the information, imaging conditions can be set for the imaging device 100.

(7)制御部19(または制御部41)は、他の車20との通信によって情報を取得するようにしたので、通信によって得た新たな情報に基づいて、撮像素子100の撮像条件を適切に設定することができる。 (7) Since the control unit 19 (or the control unit 41) acquires information through communication with other vehicles 20, the imaging conditions of the image sensor 100 are appropriately adjusted based on new information obtained through communication. Can be set to .

(8)制御部19(または制御部41)は、撮像部5(または撮像部50)による他の車20の撮像によって情報を取得するので、通信ができない状況においても、新たな情報に基づいて撮像素子100の撮像条件を適切に設定することができる。 (8) Since the control unit 19 (or the control unit 41) acquires information by imaging the other vehicle 20 by the imaging unit 5 (or the imaging unit 50), even in a situation where communication is not possible, the control unit 19 (or the control unit 41) acquires information based on new information. Imaging conditions for the image sensor 100 can be appropriately set.

(9)制御部19は、他の車20とは異なる信号機40から情報を取得する。これにより、他の車20との通信ができない状況においても、新たな情報に基づいて撮像素子100の撮像条件を適切に設定することができる。 (9) The control unit 19 acquires information from a traffic light 40 different from that of other cars 20. Thereby, even in a situation where communication with another vehicle 20 is not possible, the imaging conditions of the imaging device 100 can be appropriately set based on new information.

(10)制御部19(または制御部41)は、他の車20が自動運転車か手動運転車かを示す情報を取得し、自動運転車を撮像する領域と、手動運転車を撮像する領域とで異なる撮像条件を設定する。これにより、例えば自動運転車に比べて手動運転車についての注目度を高めるように、撮像素子100の撮像面における単位領域ごとに撮像条件を適切に設定することができる。特に、手動運転車に対してフレームレートを高くし、画素の間引き率を低くすることにより、手動運転車の予測のできない挙動について迅速かつ正確に情報を取得することができる。 (10) The control unit 19 (or the control unit 41) acquires information indicating whether the other vehicle 20 is a self-driving vehicle or a manually driven vehicle, and determines an area for imaging the self-driving vehicle and an area for imaging the manually driven vehicle. Set different imaging conditions. Thereby, imaging conditions can be appropriately set for each unit region on the imaging surface of the image sensor 100 so that, for example, manually driven cars attract more attention than self-driving cars. In particular, by increasing the frame rate and lowering the pixel thinning rate for manually driven vehicles, it is possible to quickly and accurately obtain information about the unpredictable behavior of manually driven vehicles.

(11)自動車10は、上記(1)から(10)の撮像装置を備えるので、自動車10の周囲の他の車20の移動方式に合わせ、撮像装置に対する撮像条件を適切に設定できる。 (11) Since the automobile 10 is equipped with the imaging devices described in (1) to (10) above, the imaging conditions for the imaging device can be appropriately set in accordance with the movement methods of other cars 20 around the automobile 10.

(12)自動車10の制御部19(または制御部41)は、自動車10におけるハンドル、ターンシグナルスイッチ、アクセル、またはブレーキ等の操作に応じて撮像素子100の撮像条件を変更する。これにより、自動車10の進路変更、速度変更等に応じて、撮像素子100の撮像面における単位領域ごとに撮像条件を適切に設定することができる。 (12) The control unit 19 (or the control unit 41) of the automobile 10 changes the imaging conditions of the image sensor 100 according to the operation of the steering wheel, turn signal switch, accelerator, brake, etc. in the automobile 10. Thereby, imaging conditions can be appropriately set for each unit region on the imaging surface of the imaging device 100 in response to changes in course, speed, etc. of the automobile 10.

(13)信号機40は、複数の領域の撮像条件を独立して設定可能な撮像素子100を備えた撮像部50と、自動車10、他の車20の移動に関する情報に基づいて、複数の領域の撮像条件を設定する制御部46とを備える。これにより、交差点等を移動する自動車10、他の車20の交通状況に応じて、撮像素子100に撮像条件を設定することができる。 (13) The traffic light 40 uses an imaging unit 50 equipped with an image sensor 100 that can independently set imaging conditions for a plurality of regions, and information regarding the movement of the automobile 10 and other vehicles 20 to capture a plurality of regions. It also includes a control section 46 that sets imaging conditions. Thereby, imaging conditions can be set for the imaging device 100 according to the traffic conditions of the automobile 10 and other vehicles 20 moving through an intersection or the like.

(14)自動車10、他の車20の移動に関する情報は、自動車10、他の車20の移動を許可する信号と、自動車10、他の車20の移動を許可しない信号とを有し、制御部46は、それぞれの信号に基づいて撮像条件を設定するようにした。これにより、自動車10、他の車20が移動する場合と、自動車10、他の車20が移動しない場合とで、それぞれ撮像素子100の撮像条件を適切に設定することができる。 (14) Information regarding movement of the car 10 and other cars 20 includes a signal that allows movement of the car 10 and other cars 20, and a signal that does not allow movement of the car 10 and other cars 20, and controls The unit 46 sets imaging conditions based on each signal. Thereby, the imaging conditions of the image sensor 100 can be set appropriately for each case where the car 10 and other cars 20 are moving and when the car 10 and other cars 20 are not moving.

(15)自動車10、他の車20の移動を許可する信号は、直進を許可する信号と、左折を許可する信号と、右折を許可する信号とを有し、制御部46は、それぞれの信号に基づいて撮像条件を設定するようにした。これにより、自動車10、他の車20が直進する場合、左折する場合、右折する場合において、それぞれ撮像素子100の撮像条件を適切に設定することができる。 (15) The signals that permit movement of the automobile 10 and other vehicles 20 include a signal that permits going straight, a signal that permits a left turn, and a signal that permits a right turn, and the control unit 46 controls each of the signals. Imaging conditions are now set based on. Thereby, when the car 10 and the other car 20 are going straight, turning left, and turning right, the imaging conditions of the image sensor 100 can be set appropriately.

(16)制御部46は、自動車10、他の車20の移動に関する情報の切り替わりに応じて撮像条件を変更するので、上記信号の切り替わるタイミングで、適切に撮像素子100の撮像条件を変更することができる。 (16) Since the control unit 46 changes the imaging conditions in accordance with the switching of information regarding the movement of the automobile 10 and other vehicles 20, the imaging conditions of the imaging device 100 can be appropriately changed at the timing of switching of the above-mentioned signals. I can do it.

(17)信号機40は、周囲の自動車10、他の車20の移動に関する情報を取得する制御部46を備えるので、例えば、周囲の他の車20が入れ替わる場合でも、取得した最新の情報に基づいて、撮像素子100に対して撮像条件を設定することができる。 (17) Since the traffic light 40 includes a control unit 46 that acquires information regarding the movement of surrounding cars 10 and other cars 20, for example, even when other surrounding cars 20 are replaced, the traffic light 40 is based on the latest information obtained. Accordingly, imaging conditions can be set for the imaging device 100.

(18)制御部46は、自動車10、他の車20との通信によって情報を取得するので、通信によって得た新たな情報に基づいて、撮像素子100の撮像条件を適切に設定することができる。 (18) Since the control unit 46 acquires information through communication with the automobile 10 and other vehicles 20, it is possible to appropriately set the imaging conditions of the image sensor 100 based on new information obtained through communication. .

(19)制御部46は、撮像部50による自動車10、他の車20の撮像によって情報を取得するので、通信ができない状況においても、新たな情報に基づいて撮像素子100の撮像条件を適切に設定することができる。 (19) Since the control unit 46 acquires information by imaging the car 10 and other cars 20 by the imaging unit 50, even in a situation where communication is not possible, the control unit 46 appropriately adjusts the imaging conditions of the imaging device 100 based on new information. Can be set.

(20)制御部46は、自動車10、他の車20が自動運転方式の自動車か手動運転方式の自動車かを示す情報を移動に関する情報として取得し、自動運転方式の自動車を撮像する領域と、手動運転方式の自動車を撮像する領域とで異なる撮像条件を設定する。これにより、例えば自動運転方式の自動車に比べて手動運転方式の自動車についての注目度を高めるように、撮像素子100の撮像面における単位領域ごとに撮像条件を適切に設定することができる。特に、手動運転方式の自動車に対してフレームレートを高くし、画素の間引き率を低くすることにより、手動運転方式の自動車の予測のできない挙動について迅速かつ正確に情報を取得することができる。 (20) The control unit 46 acquires information indicating whether the vehicle 10 and other vehicles 20 are automatic driving vehicles or manual driving vehicles as movement-related information, and provides an area for imaging automatic driving vehicles; Different imaging conditions are set for the region in which images are taken of manually operated vehicles. Thereby, imaging conditions can be appropriately set for each unit area on the imaging surface of the image sensor 100 so that, for example, a manually driven vehicle attracts more attention than an automatically driven vehicle. In particular, by increasing the frame rate and lowering the pixel thinning rate for manually driven vehicles, it is possible to quickly and accurately obtain information about the unpredictable behavior of manually driven vehicles.

(21)制御部46は、自動車10、他の車20の進路変更を示す情報を取得し、自動車10、他の車20の進路変更に基づいて撮像条件を設定する領域を変更する。これにより、進路変更のタイミングで、適切に撮像素子100の撮像条件を変更することができる。 (21) The control unit 46 acquires information indicating the course changes of the automobile 10 and other cars 20, and changes the area in which the imaging conditions are set based on the course changes of the automobile 10 and other cars 20. Thereby, the imaging conditions of the image sensor 100 can be appropriately changed at the timing of changing course.

(22)自動車10、他の車20とは異なる他の自動車10、他の車20と通信を行う通信部41を備えるので、例えば、信号機40の周囲の他の車20の情報を、自動車10へ送信することができる。 (22) Since the car 10 is provided with a communication unit 41 that communicates with other cars 10 and other cars 20 different from the other cars 20, for example, information on other cars 20 around the traffic light 40 is transmitted to the car 10. can be sent to.

(23)自動車10および信号機40は、撮像する対象物が移動する速度を測定し、速度の大きさ、方向・向きに応じて撮像素子100の撮像条件を変更する。従って、対象物の移動状況に応じ、撮像素子100の撮像面における領域ごとに撮像条件を適切に設定することができる。 (23) The automobile 10 and the traffic light 40 measure the speed at which the object to be imaged moves, and change the imaging conditions of the image sensor 100 according to the magnitude and direction of the speed. Therefore, imaging conditions can be appropriately set for each area on the imaging surface of the imaging device 100, depending on the movement status of the object.

(24)自動車10は、何秒後に信号が切り変わるかなどの情報を取得し、自動車10の運転状況に反映させる。従って、信号の切り替わりをあらかじめ考慮に入れた円滑な運転が実現できる。 (24) The automobile 10 acquires information such as how many seconds later the traffic light will change, and reflects the information on the driving situation of the automobile 10. Therefore, it is possible to realize smooth operation that takes signal switching into consideration in advance.

(25)自動車10または信号機40は、信号の切り替わりの直後の一定時間は、直前の信号において設定した注目領域と、切り替わり後の信号で設定すべき注目領域との両方を注目領域として含むように、撮像素子100の撮像条件を設定する。これにより、信号の切り替わりにおける過渡的な状態に対し、撮像素子100の撮像条件を適切に設定することができる。 (25) For a certain period of time immediately after the signal changes, the automobile 10 or the traffic light 40 includes both the area of interest set in the previous signal and the area of interest to be set in the signal after the change as an area of interest. , sets the imaging conditions of the imaging device 100. Thereby, the imaging conditions of the image sensor 100 can be appropriately set for the transient state during signal switching.

(26)自動車10および信号機40を含む撮像システム1により、正確かつ効率的な撮像による情報取得と、通信とに基づいた、より整理された交通システムを実現することができる。 (26) With the imaging system 1 including the automobile 10 and the traffic light 40, it is possible to realize a more organized transportation system based on information acquisition through accurate and efficient imaging and communication.

なお、上述の実施形態では、自動車10の制御部19または信号機40の制御部46が行う制御によってそれぞれ撮像部5、撮像部50を制御したが、撮像部5、撮像部50の制御の一部を撮像部内部の制御回路(CPU等)により行うようにしてもよい。 In the above-described embodiment, the imaging unit 5 and the imaging unit 50 are controlled by the control performed by the control unit 19 of the automobile 10 or the control unit 46 of the traffic light 40, respectively. However, part of the control of the imaging unit 5 and the imaging unit 50 may be performed by a control circuit (such as a CPU) inside the imaging unit.

また、信号機40の制御部46が行う処理の一部を信号情報生成装置30の制御部34により行うようにしてもよい。カメラ等の撮像部50は、必ずしも信号機40に付随するものでなくともよく、交差点等の交通信号または交通状況に応じて設置してよい。 Furthermore, part of the processing performed by the control unit 46 of the traffic light 40 may be performed by the control unit 34 of the signal information generation device 30. The imaging unit 50 such as a camera does not necessarily have to be attached to the traffic light 40, and may be installed depending on the traffic signal or traffic situation at an intersection or the like.

さらに、上述の実施形態では、メッセージの表示にナビシステム13の表示部・音声再生部を利用したが、別個の表示・再生装置を利用してもよい。さらに、自動車10のフロントガラスに情報を投映するHUD(Head Up Display)と、音声情報を再生するスピーカとによって構成される表示・再生装置を利用するようにしてもよい。 Further, in the above-described embodiment, the display section and audio playback section of the navigation system 13 are used to display messages, but a separate display and playback device may be used. Furthermore, a display/playback device including a HUD (Head Up Display) that projects information onto the windshield of the automobile 10 and a speaker that plays audio information may be used.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。 The following modifications are also within the scope of the invention, and it is also possible to combine one or more of the modifications with the embodiments described above.

(変形例1)
信号機40の制御部46は、撮像部50による撮像、または通信部41による通信により、道路上または交差点における車両の自動運転車の割合に関する情報を取得し、その割合に応じて撮像条件を変えてもよい。例えば、制御部46は、自動運転車の割合が多い時間帯には、自動運転車の割合が少ないときに比べて間引き率を上げるように制御する。これにより、消費電力の節約等が実現でき、より効率的な撮像を行うことができる。
(Modification 1)
The control unit 46 of the traffic light 40 acquires information regarding the ratio of self-driving vehicles on the road or at the intersection through imaging by the imaging unit 50 or communication by the communication unit 41, and changes the imaging conditions according to the ratio. Good too. For example, the control unit 46 controls the thinning rate to be higher during a time period when the proportion of self-driving cars is high compared to when the proportion of self-driving cars is low. As a result, power consumption can be saved, and more efficient imaging can be performed.

(変形例2)
自動車10の制御部19または信号機40の制御部46は、自動運転車か手動運転車かを撮像により識別するのに加え、初心運転者標識や高齢運転者標識などの標識を識別してもよい。そして、初心運転車や高齢運転車に対応する撮像素子100の単位領域において異なる撮像条件を設定する。例えば初心運転者標識の表示された車両は、手動運転車に対応する撮像素子100の単位領域よりもフレームレートをさらに高くしたフレームレートで撮像してもよい。これにより、対象物に応じて、撮像素子100の撮像面における単位領域ごとに撮像条件を適切に設定することができる。
(Modification 2)
The control unit 19 of the automobile 10 or the control unit 46 of the traffic light 40 may identify signs such as a novice driver sign or an elderly driver sign in addition to identifying whether the vehicle is an automatically driven vehicle or a manually driven vehicle by imaging. . Then, different imaging conditions are set for the unit area of the image sensor 100 corresponding to a novice driver's car and an elderly driver's car. For example, a vehicle on which a novice driver sign is displayed may be imaged at a frame rate higher than that of the unit area of the image sensor 100 corresponding to a manually driven vehicle. Thereby, imaging conditions can be appropriately set for each unit region on the imaging surface of the image sensor 100, depending on the object.

(変形例3)
以上の説明では、撮像素子100を用いた撮像により距離測定および周囲の移動体や障害物の検出を行ったが、不図示のレーダを併用してもよい。これにより、撮像素子100とレーダの特性を生かし、より信頼性の高い交通情報の取得を行うことができる。
(Modification 3)
In the above description, distance measurement and detection of surrounding moving bodies and obstacles were performed by imaging using the image sensor 100, but a radar (not shown) may also be used. This makes it possible to obtain more reliable traffic information by taking advantage of the characteristics of the image sensor 100 and the radar.

上記では、種々の実施形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。実施形態および変形例で示された各構成を組み合わせて用いる態様も本発明の範囲内に含まれる。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Although various embodiments and modifications have been described above, the present invention is not limited to these embodiments. A mode in which the configurations shown in the embodiments and modified examples are used in combination is also included within the scope of the present invention. Other embodiments considered within the technical spirit of the present invention are also included within the scope of the present invention.

1…撮像システム
5、50(50-1、50-2)…撮像部
10…自動車
19、46…制御部
20…他の車
30…交通信号生成装置
40…信号機
40a…自動車用の信号機
40b…歩行者用の信号機
42…表示部
70…撮像領域
71、71A、71B…注目領域
72、72A、72B、73A、73B、76、77…車両
74A、74B…準注目領域
75…特注目領域
90…歩行者
100…撮像素子
113…撮像チップ
1...Imaging system 5, 50 (50-1, 50-2)...Imaging unit 10...Cars 19, 46...Control unit 20...Other cars 30...Traffic signal generation device 40...Traffic light 40a...Car signal 40b... Pedestrian traffic lights 42...display section 70...imaging areas 71, 71A, 71B...attention areas 72, 72A, 72B, 73A, 73B, 76, 77...vehicles 74A, 74B...quasi-attention area 75...special attention area 90... Pedestrian 100...imaging device 113...imaging chip

Claims (21)

運転支援装置を搭載した車両であって、
前記運転支援装置は、
前記車両の外部を撮像する撮像部と、
前記車両の外部に存在する物体までの距離を測定する測距部と、
前記車両の現在位置を測定する測位部と、
前記撮像部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、
前記撮像部により撮像される他の車両から送信された情報を受信する受信部と、
を有し、
前記制御部は、前記受信部からの情報に基づいて前記他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する、
車両。
A vehicle equipped with a driving assistance device,
The driving support device includes:
an imaging unit that captures an image of the exterior of the vehicle;
a distance measuring unit that measures a distance to an object existing outside the vehicle;
a positioning unit that measures the current position of the vehicle;
a control unit that generates data for providing driving support for the vehicle based on information from the imaging unit, the ranging unit, and the positioning unit;
a receiving unit that receives information transmitted from another vehicle imaged by the imaging unit;
has
The control unit determines whether the other vehicle is a vehicle running in automatic operation based on information from the reception unit, and sets imaging conditions for the imaging unit according to the determined result. Change frame rate and thinning rate ,
vehicle.
前記制御部は、前記撮像部からの情報のうち、自動運転で走行していない車両であると判定された前記他の車両を起源とする情報を、自動運転で走行している車両であると判定された前記他の車両を起源とする情報より重用して前記データを生成する、
請求項1に記載の車両。
Among the information from the imaging unit, the control unit converts information originating from the other vehicle that is determined to be a vehicle that is not running in automatic operation into a vehicle that is running in automatic operation. generating the data by using more heavily than information originating from the determined other vehicle;
The vehicle according to claim 1.
前記制御部は、前記受信部が情報を受信できない前記他の車両を、自動運転で走行していない車両であると判定する、
請求項1又は2に記載の車両。
The control unit determines that the other vehicle, from which the receiving unit cannot receive information, is a vehicle that is not running automatically.
The vehicle according to claim 1 or 2.
前記制御部は、前記他の車両が自動運転で走行していると判定した領域を注目領域に設定し、前記注目領域ではない領域を起源とする情報を、前記注目領域を起源とする情報より重用して前記データを生成する、
請求項2に記載の車両。
The control unit sets an area in which it is determined that the other vehicle is traveling in automatic operation as an area of interest, and selects information originating from an area other than the area of interest from information originating from the area of interest. Generate the data by using
The vehicle according to claim 2.
前記制御部は、前記注目領域として、第1注目領域と、前記第1注目領域と異なる第2注目領域とを設定し、前記第2注目領域を起源とする情報を、前記第1注目領域を起源とする情報より重用して前記データを生成する、
請求項4に記載の車両。
The control unit sets a first attention area and a second attention area different from the first attention area as the attention area, and transmits information originating from the second attention area to the first attention area. generating the data by using more heavily than the original information ;
The vehicle according to claim 4.
前記制御部は、制御により第1自動運転を行っている前記他の車両の領域に前記第1注目領域を設定し、前記第1自動運転の制御のうちの少なくとも一部の操作をユーザが行う第2自動運転を行う前記他の車両の領域に前記第2注目領域を設定する、
請求項5に記載の車両。
The control unit sets the first region of interest in a region of the other vehicle that is performing the first automatic driving by control, and the user performs at least part of the control of the first automatic driving. setting the second region of interest in the region of the other vehicle that performs second automatic driving;
The vehicle according to claim 5.
前記制御部は、制御により前記他の車両の運転を行う第1自動運転と、前記第1自動運転の制御のうちの少なくとも一部の操作をユーザが行う第2自動運転と、で異なる情報量の情報で前記データを生成する、
請求項2に記載の車両。
The control unit may have a different amount of information between a first automatic operation in which the other vehicle is operated by control and a second automatic operation in which a user performs at least a part of the control of the first automatic operation. generating the data with the information of;
The vehicle according to claim 2.
前記制御部は、前記第1自動運転で走行している車両であると判定された前記他の車両を起源とする情報を、前記第2自動運転で走行している車両であると判定された前記他の車両を起源とする情報よりも重用して前記データを生成する、
請求項7に記載の車両。
The control unit transmits information originating from the other vehicle determined to be the vehicle running in the first automatic operation to the vehicle determined to be the vehicle running in the second automatic operation. generating the data by using information more heavily than information originating from the other vehicle;
The vehicle according to claim 7.
運転支援装置を搭載した車両であって、
前記運転支援装置は、
前記車両の外部を撮像する撮像部と、
前記車両の外部に存在する物体までの距離を測定する測距部と、
前記車両の現在位置を測定する測位部と、
前記撮像部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、
を有し、
前記制御部は、前記撮像部からの情報に基づいて、他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する、
車両。
A vehicle equipped with a driving assistance device,
The driving support device includes:
an imaging unit that captures an image of the exterior of the vehicle;
a distance measuring unit that measures a distance to an object existing outside the vehicle;
a positioning unit that measures the current position of the vehicle;
a control unit that generates data for providing driving support for the vehicle based on information from the imaging unit, the ranging unit, and the positioning unit;
has
The control unit determines whether the other vehicle is a vehicle running in automatic operation based on information from the imaging unit, and sets imaging conditions for the imaging unit according to the determined result. Change frame rate and thinning rate ,
vehicle.
前記制御部は、前記撮像部からの情報のうち、自動運転で走行している車両ではないと判定された前記他の車両を起源とする情報を、自動運転で走行している車両であると判定された前記他の車両を起源とする情報より重用して前記データを生成する、
請求項9に記載の車両。
Among the information from the imaging unit, the control unit converts information originating from the other vehicle that is determined not to be a vehicle running in automatic operation to indicate that the vehicle is a vehicle running in automatic operation. generating the data by using more heavily than information originating from the determined other vehicle;
The vehicle according to claim 9.
前記制御部は、所定の識別情報を撮像した撮像結果に基づいて、前記他の車両が自動運転で走行している車両であるか否かを判定する、
請求項9又は10に記載の車両。
The control unit determines whether or not the other vehicle is a vehicle that is running automatically, based on a result of imaging predetermined identification information.
The vehicle according to claim 9 or 10.
前記制御部は、前記車両のボディの前記識別情報を撮像した前記撮像結果に基づいて、前記他の車両が自動運転で走行している車両であるか否かを判定する、
請求項11に記載の車両。
The control unit determines whether or not the other vehicle is a vehicle that is running automatically, based on the imaging result of the identification information of the body of the vehicle.
The vehicle according to claim 11.
前記制御部は、前記車両のボディに表示された前記識別情報を撮像した前記撮像結果に基づいて、前記他の車両が自動運転で走行している車両であるか否かを判定する、
請求項12に記載の車両。
The control unit determines whether the other vehicle is a vehicle that is running automatically, based on the imaging result of the identification information displayed on the body of the vehicle.
Vehicle according to claim 12.
前記制御部は、前記撮像部の撮像結果に基づいて、前記他の車両が自動運転で走行している車両であると判定できない場合、手動運転で走行している車両であると判定する、
請求項9記載の車両。
If the control unit cannot determine that the other vehicle is a vehicle running in automatic mode based on the imaging result of the imaging unit, the control unit determines that the other vehicle is a vehicle running in manual mode.
The vehicle according to claim 9.
前記制御部は、前記他の車両が自動運転で走行していると判定した領域を注目領域と判定し、前記注目領域ではない領域を起源とする情報を、前記注目領域を起源とする情報より重用して前記データを生成する、
請求項9に記載の車両。
The control unit determines a region in which it is determined that the other vehicle is traveling in automatic operation as a region of interest, and selects information originating from a region other than the region of interest from information originating from the region of interest. Generate the data by using
The vehicle according to claim 9.
前記制御部は、前記注目領域として、第1注目領域と、前記第1注目領域と異なる第2注目領域とを設定し、前記第2注目領域を起源とする情報を、前記第1注目領域を起源とする情報より重用して前記データを生成する、
請求項15に記載の車両。
The control unit sets a first attention area and a second attention area different from the first attention area as the attention area, and transmits information originating from the second attention area to the first attention area. generating the data by using more heavily than the original information ;
The vehicle according to claim 15.
前記制御部は、制御により第1自動運転を行っている前記他の車両の領域に前記第1注目領域を設定し、前記第1自動運転の制御のうちの少なくとも一部の操作をユーザが行う第2自動運転を行う前記他の車両の領域に前記第2注目領域を設定する、
請求項16に記載の車両。
The control unit sets the first region of interest in a region of the other vehicle that is performing the first automatic driving by control, and the user performs at least part of the control of the first automatic driving. setting the second region of interest in the region of the other vehicle that performs second automatic driving;
Vehicle according to claim 16.
前記制御部は、制御により前記他の車両の運転を行う第1自動運転と、前記第1自動運転の制御のうちの少なくとも一部の操作をユーザが行う第2自動運転と、で異なる情報量の情報で前記データを生成する、
請求項9に記載の車両。
The control unit may have a different amount of information between a first automatic operation in which the other vehicle is operated by control and a second automatic operation in which a user performs at least a part of the control of the first automatic operation. generating the data with the information of ;
The vehicle according to claim 9.
前記制御部は、前記第1自動運転で走行している車両であると判定された前記他の車両を起源とする情報を、前記第2自動運転で走行している車両であると判定された前記他の車両を起源とする情報よりも重用して前記データを生成する、
請求項18に記載の車両。
The control unit transmits information originating from the other vehicle determined to be the vehicle running in the first automatic operation to the vehicle determined to be the vehicle running in the second automatic operation. generating the data by using information more heavily than information originating from the other vehicle;
Vehicle according to claim 18.
車両の外部を撮像した情報が入力される入力部と、
前記車両の外部に存在する物体までの距離を測定する測距部と、
前記車両の現在位置を測定する測位部と、
前記入力部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、
像部により撮像される他の車両から送信された情報を受信する受信部と、
を有し、
前記制御部は、前記受信部からの情報に基づいて前記他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する、
運転支援装置。
an input section into which information obtained by capturing an image of the outside of the vehicle is input;
a distance measuring unit that measures a distance to an object existing outside the vehicle;
a positioning unit that measures the current position of the vehicle;
a control unit that generates data for providing driving support for the vehicle based on information from the input unit, the ranging unit, and the positioning unit;
a receiving unit that receives information transmitted from another vehicle imaged by the imaging unit;
has
The control unit determines whether the other vehicle is a vehicle running in automatic operation based on information from the reception unit, and sets imaging conditions for the imaging unit according to the determined result. Change frame rate and thinning rate ,
Driving support equipment.
車両の外部を撮像した情報が入力される入力部と、
前記車両の外部に存在する物体までの距離を測定する測距部と、
前記車両の現在位置を測定する測位部と、
前記入力部と前記測距部と前記測位部からの情報に基づいて前記車両の運転支援を行うためのデータを生成する制御部と、
を有し、
前記制御部は、撮像部からの情報に基づいて他の車両が自動運転で走行している車両であるか否かを判定し、判定した結果に応じて前記撮像部の撮像条件であるフレームレートと間引き率を変更する、
運転支援装置。
an input section into which information obtained by capturing an image of the outside of the vehicle is input;
a distance measuring unit that measures a distance to an object existing outside the vehicle;
a positioning unit that measures the current position of the vehicle;
a control unit that generates data for providing driving support for the vehicle based on information from the input unit, the ranging unit, and the positioning unit;
has
The control unit determines whether the other vehicle is a vehicle that is running automatically based on information from the imaging unit, and determines a frame that is an imaging condition of the imaging unit according to the determined result. change the rate and thinning rate ,
Driving support equipment.
JP2021188569A 2019-08-13 2021-11-19 Vehicles and driving support devices Active JP7380666B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021188569A JP7380666B2 (en) 2019-08-13 2021-11-19 Vehicles and driving support devices
JP2023188393A JP2024009006A (en) 2019-08-13 2023-11-02 vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019148603A JP2020013586A (en) 2019-08-13 2019-08-13 Imaging apparatus
JP2021188569A JP7380666B2 (en) 2019-08-13 2021-11-19 Vehicles and driving support devices

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019148603A Division JP2020013586A (en) 2019-08-13 2019-08-13 Imaging apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023188393A Division JP2024009006A (en) 2019-08-13 2023-11-02 vehicle

Publications (3)

Publication Number Publication Date
JP2022031755A JP2022031755A (en) 2022-02-22
JP2022031755A5 JP2022031755A5 (en) 2022-06-28
JP7380666B2 true JP7380666B2 (en) 2023-11-15

Family

ID=69170038

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019148603A Ceased JP2020013586A (en) 2019-08-13 2019-08-13 Imaging apparatus
JP2021188569A Active JP7380666B2 (en) 2019-08-13 2021-11-19 Vehicles and driving support devices
JP2023188393A Pending JP2024009006A (en) 2019-08-13 2023-11-02 vehicle

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019148603A Ceased JP2020013586A (en) 2019-08-13 2019-08-13 Imaging apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023188393A Pending JP2024009006A (en) 2019-08-13 2023-11-02 vehicle

Country Status (1)

Country Link
JP (3) JP2020013586A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11895412B2 (en) 2020-03-10 2024-02-06 Sony Semiconductor Solutions Corporation Imaging device and imaging method
JP7347464B2 (en) * 2021-03-16 2023-09-20 トヨタ自動車株式会社 Image processing device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320616A (en) 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2004146904A (en) 2002-10-22 2004-05-20 Omron Corp On-vehicle imaging apparatus, and vehicle driving support apparatus using the same
JP2007088541A (en) 2005-09-20 2007-04-05 Suzuki Akira Automobile drive recorder
JP2013254296A (en) 2012-06-06 2013-12-19 Suzuki Motor Corp Driving support device
JP2014157433A (en) 2013-02-15 2014-08-28 Ricoh Co Ltd Parallax detection device and parallax detection method
JP2014178603A (en) 2013-03-15 2014-09-25 Nikon Corp Imaging device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072658A (en) * 2005-09-06 2007-03-22 Toyota Motor Corp Pedestrian detection system and pedestrian sensing device
JP4984915B2 (en) * 2006-03-27 2012-07-25 セイコーエプソン株式会社 Imaging apparatus, imaging system, and imaging method
JP2010068069A (en) * 2008-09-09 2010-03-25 Denso Corp Vehicle periphery photographing system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320616A (en) 2000-02-29 2001-11-16 Matsushita Electric Ind Co Ltd Image pickup system
JP2004146904A (en) 2002-10-22 2004-05-20 Omron Corp On-vehicle imaging apparatus, and vehicle driving support apparatus using the same
JP2007088541A (en) 2005-09-20 2007-04-05 Suzuki Akira Automobile drive recorder
JP2013254296A (en) 2012-06-06 2013-12-19 Suzuki Motor Corp Driving support device
JP2014157433A (en) 2013-02-15 2014-08-28 Ricoh Co Ltd Parallax detection device and parallax detection method
JP2014178603A (en) 2013-03-15 2014-09-25 Nikon Corp Imaging device

Also Published As

Publication number Publication date
JP2024009006A (en) 2024-01-19
JP2020013586A (en) 2020-01-23
JP2022031755A (en) 2022-02-22

Similar Documents

Publication Publication Date Title
US11572016B2 (en) Image capture device and vehicle
JP6451332B2 (en) Imaging device and automobile
JP2024009006A (en) vehicle
JP2015226255A (en) Imaging apparatus and automobile
JP6358214B2 (en) Imaging device
JP6451575B2 (en) Imaging device
JP2016048885A (en) Imaging apparatus and vehicle
JP6358213B2 (en) Imaging device
JP6451576B2 (en) Imaging device
JP6699687B2 (en) Imaging device
JP2018186525A (en) Imaging apparatus
JP2016130099A (en) Imaging device
JP2019009783A (en) Imaging apparatus
JP6369433B2 (en) Imaging device
JP2015228707A (en) Imaging apparatus
JP2019134459A (en) Imaging apparatus
JP6365480B2 (en) Imaging device
JP6369432B2 (en) Imaging device
JP2016027740A (en) Imaging apparatus
JP2022140444A (en) Operation assistance device and vehicle equipped with operation assistance device
JP2016027739A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7380666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150