JP2023171067A - Distance measuring system, distance measuring device, and distance measuring method - Google Patents

Distance measuring system, distance measuring device, and distance measuring method Download PDF

Info

Publication number
JP2023171067A
JP2023171067A JP2022083285A JP2022083285A JP2023171067A JP 2023171067 A JP2023171067 A JP 2023171067A JP 2022083285 A JP2022083285 A JP 2022083285A JP 2022083285 A JP2022083285 A JP 2022083285A JP 2023171067 A JP2023171067 A JP 2023171067A
Authority
JP
Japan
Prior art keywords
shutter operation
distance
unit
distortion
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022083285A
Other languages
Japanese (ja)
Inventor
裕人 向井
Hiroto Mukai
信 荘保
Makoto Shoho
秀治 赤松
Shuji Akamatsu
大陽 長谷川
Taiyo Hasegawa
竣祐 辻岡
Shunsuke Tsujioka
雄一 石川
Yuichi Ishikawa
修 柴田
Osamu Shibata
嘉晃 佐藤
Yoshiaki Sato
康夫 三宅
Yasuo Miyake
誠司 高木
Seiji Takagi
佳壽子 西村
Kazuko Nishimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022083285A priority Critical patent/JP2023171067A/en
Publication of JP2023171067A publication Critical patent/JP2023171067A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a distance measuring system capable of easily simplifying a configuration.SOLUTION: A distance measuring system 500 comprises: a camera portion 480 that outputs GS image data corresponding to global shutter operation and RS image data corresponding to rolling shutter operation by performing the global shutter operation and the rolling shutter operation on a distance metering object; and a distance measuring device 1. The distance measuring device 1 includes: a distortion detection portion 510 that detects the magnitude of distortion of a shape of the distance metering object indicated by the RS image data with respect to a shape of the distance metering object indicated by the GS image data; and a distance derivation portion 503 that acquires the moving speed of the camera portion 480 and derives a distance from the camera portion 480 to the distance metering object on the basis of the moving speed and the magnitude of distortion.SELECTED DRAWING: Figure 2

Description

本開示は、距離を測定する装置などに関する。 The present disclosure relates to a distance measuring device and the like.

従来、測距対象物までの距離を測定する測距システムとして、ステレオ画像を用いた距離検出装置が提案されている(例えば、特許文献1参照。)。この距離検出装置は、2つのカメラを備える。そして、距離検出装置は、それらのカメラの撮像によって得られる2つの画像(すなわちステレオ画像)に映し出されている測距対象物の像の位置のずれを求めることによって、距離検出装置からその測距対象物までの距離を検出する。なお、測距対象物は、カメラによって撮像される被写体である。 Conventionally, a distance detection device using stereo images has been proposed as a distance measurement system that measures the distance to a distance measurement target (see, for example, Patent Document 1). This distance detection device includes two cameras. Then, the distance detection device determines the distance measurement by determining the positional shift of the image of the distance measurement target displayed in the two images (i.e., stereo images) obtained by imaging with those cameras. Detect the distance to the object. Note that the object to be measured is a subject imaged by a camera.

特許第3452075号公報Patent No. 3452075

しかしながら、上記特許文献1の距離検出装置では、構成が複雑になる可能性があるという課題がある。 However, the distance detection device disclosed in Patent Document 1 has a problem in that the configuration may become complicated.

そこで、本開示は、構成の簡略化を容易に図ることができる測距システムなどを提供する。 Therefore, the present disclosure provides a distance measuring system and the like whose configuration can be easily simplified.

本開示の一態様に係る測距システムは、測距対象物に対してグローバルシャッタ動作とローリングシャッタ動作とを行うことによって、前記グローバルシャッタ動作に応じた第1データと、前記ローリングシャッタ動作に応じた第2データとを出力するカメラ部と、測距装置とを備え、前記測距装置は、前記第1データによって示される前記測距対象物の形状に対する、前記第2データによって示される前記測距対象物の形状の歪みの大きさを検出する歪み検出部と、前記カメラ部の移動速度を取得し、前記移動速度と、前記歪み検出部によって検出された前記歪みの大きさとに基づいて、前記カメラ部から前記測距対象物までの距離を導出する距離導出部とを備える。 A distance measurement system according to an aspect of the present disclosure performs a global shutter operation and a rolling shutter operation on an object to be measured, thereby obtaining first data corresponding to the global shutter operation and first data corresponding to the rolling shutter operation. and a distance measuring device, the distance measuring device outputs the second data indicated by the second data with respect to the shape of the object to be measured indicated by the first data. a distortion detection section that detects the magnitude of distortion in the shape of the distance object; and a moving speed of the camera section; based on the moving speed and the magnitude of the distortion detected by the distortion detection section, and a distance derivation section that derives a distance from the camera section to the object to be measured.

なお、これらの包括的または具体的な態様は、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。また、記録媒体は、非一時的な記録媒体であってもよい。 Note that these comprehensive or specific aspects may be realized by an apparatus, a method, an integrated circuit, a computer program, or a computer-readable recording medium such as a CD-ROM. and a recording medium may be used in any combination. Further, the recording medium may be a non-temporary recording medium.

本開示の測距システムは、構成の簡略化を容易に図ることができる。 The ranging system of the present disclosure can easily simplify the configuration.

本開示の一態様における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施の形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。 Further advantages and advantages of one aspect of the disclosure will become apparent from the specification and drawings. Such advantages and/or effects may be provided by each of the embodiments and features described in the specification and drawings, but not necessarily all to obtain one or more of the same features. There's no need.

図1は、実施の形態1における測距システムを備える車両の一例を示す図である。FIG. 1 is a diagram illustrating an example of a vehicle equipped with a ranging system according to the first embodiment. 図2は、実施の形態1における測距システムの構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of the configuration of the ranging system according to the first embodiment. 図3は、実施の形態1におけるカメラ部の構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the camera section in the first embodiment. 図4は、実施の形態1における撮像装置に含まれる画素アレイの概略構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a schematic configuration of a pixel array included in the imaging device according to the first embodiment. 図5は、実施の形態1における撮像装置の動作の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of the operation of the imaging device in the first embodiment. 図6は、実施の形態1における車両に取り付けられているカメラ部の位置および撮像範囲の一例を示す図である。FIG. 6 is a diagram illustrating an example of the position and imaging range of a camera unit attached to a vehicle in the first embodiment. 図7は、実施の形態1における測距システムによって距離が測定される状況の一例を示す図である。FIG. 7 is a diagram illustrating an example of a situation in which distance is measured by the distance measuring system according to the first embodiment. 図8は、実施の形態1における測距システムによって距離が測定される状況の他の例を示す図である。FIG. 8 is a diagram showing another example of a situation in which distance is measured by the distance measuring system according to the first embodiment. 図9は、実施の形態1におけるローリングシャッタ歪みの一例を示す図である。FIG. 9 is a diagram illustrating an example of rolling shutter distortion in the first embodiment. 図10は、実施の形態1における角度検出部によるエッジのペアリングの一例を詳細に説明するための図である。FIG. 10 is a diagram for explaining in detail an example of edge pairing by the angle detection unit in the first embodiment. 図11は、実施の形態1における角度検出部によるエッジ間の角度の検出を説明するための図である。FIG. 11 is a diagram for explaining detection of an angle between edges by the angle detection unit in the first embodiment. 図12は、実施の形態1における距離導出部に用いられるテーブルの一例を示す図である。FIG. 12 is a diagram illustrating an example of a table used in the distance derivation unit in the first embodiment. 図13は、実施の形態1における測距システムの処理動作の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the processing operation of the ranging system in the first embodiment. 図14は、実施の形態1の変形例1における角度検出部の構成と、距離導出部、シャッタ制御部、および車速検出部との関係の一例を示す図である。FIG. 14 is a diagram illustrating an example of the relationship between the configuration of the angle detection section, the distance derivation section, the shutter control section, and the vehicle speed detection section in Modification 1 of Embodiment 1. 図15は、実施の形態1の変形例1における距離導出部に用いられるテーブルの一例を示す図である。FIG. 15 is a diagram illustrating an example of a table used in the distance derivation unit in Modification 1 of Embodiment 1. 図16は、実施の形態1の変形例2における測距システムの構成の一例を示すブロック図である。FIG. 16 is a block diagram illustrating an example of the configuration of a distance measuring system in Modification 2 of Embodiment 1. 図17は、実施の形態1の変形例2における、エッジ間の角度とシャッタパラメータとの関係を説明するための図である。FIG. 17 is a diagram for explaining the relationship between the angle between edges and the shutter parameter in the second modification of the first embodiment. 図18は、実施の形態1の変形例3における、GS画像データおよびRS画像データのそれぞれが取得されるタイミングの一例を模式的に示す図である。FIG. 18 is a diagram schematically showing an example of the timing at which each of the GS image data and the RS image data is acquired in the third modification of the first embodiment. 図19は、実施の形態2に係る撮像装置の例示的な回路構成を示す模式的な図である。FIG. 19 is a schematic diagram showing an exemplary circuit configuration of the imaging device according to the second embodiment. 図20は、実施の形態2に係る撮像装置の単位画素セルの例示的なデバイス構造を示す模式的な断面図である。FIG. 20 is a schematic cross-sectional view showing an exemplary device structure of a unit pixel cell of the imaging device according to the second embodiment. 図21は、実施の形態2に係る撮像装置の単位画素セルと対向電極との関係を示す模式的な平面図である。FIG. 21 is a schematic plan view showing the relationship between a unit pixel cell and a counter electrode of the imaging device according to the second embodiment. 図22は、実施の形態2に係る撮像装置の光電変換層の光電流特性の一例を示すグラフである。FIG. 22 is a graph showing an example of the photocurrent characteristics of the photoelectric conversion layer of the imaging device according to the second embodiment. 図23は、実施の形態2に係る撮像装置の単位画素セルと対向電極との関係と、電圧供給回路の構成の一例とを示す模式的な平面図である。FIG. 23 is a schematic plan view showing the relationship between a unit pixel cell and a counter electrode of the imaging device according to Embodiment 2, and an example of the configuration of a voltage supply circuit. 図24は、実施の形態2に係る撮像装置における動作の一例を説明するための図である。FIG. 24 is a diagram for explaining an example of the operation of the imaging device according to the second embodiment.

(本開示の基礎となった知見)
本発明者は、「背景技術」の欄において記載した特許文献1の距離検出装置に関し、以下の問題が生じることを見い出した。
(Findings that formed the basis of this disclosure)
The present inventor has found that the following problem occurs with the distance detection device of Patent Document 1 described in the "Background Art" section.

上記特許文献1の距離検出装置は、ステレオ法によって距離を検出するために、測距対象物を撮像するためのカメラを複数台備えている。したがって、そのカメラの台数分だけ距離検出装置の構成が複雑になる。また、仮に、距離検出装置がカメラを1台しか備えれていなければ、そのカメラに複数回撮像させる必要がある。つまり、距離検出装置は、第1位置にあるカメラに対して測距対象物の撮像を実行させ、その後、カメラを第2位置に移動させる。そして、距離検出装置は、第2位置にあるカメラに対して測距対象物の撮像を実行させる。これにより、距離検出装置が2台のカメラを備えている場合と同様、2つの画像をステレオ画像として取得することができる。しかしながら、この場合には、2つの画像は、互いに異なるタイミングの撮像によって得られているため、測距対象物までの距離を正しく検出することが難しい可能性があり、さらに、その距離の検出に遅延が生じる可能性がある。 The distance detecting device disclosed in Patent Document 1 includes a plurality of cameras for capturing an image of an object to be measured in order to detect a distance using a stereo method. Therefore, the configuration of the distance detection device becomes complicated by the number of cameras. Further, if the distance detection device is equipped with only one camera, it is necessary to cause that camera to take images multiple times. That is, the distance detection device causes the camera located at the first position to take an image of the object to be measured, and then moves the camera to the second position. Then, the distance detection device causes the camera located at the second position to take an image of the object to be measured. Thereby, two images can be acquired as stereo images, similar to the case where the distance detection device is equipped with two cameras. However, in this case, since the two images are captured at different timings, it may be difficult to accurately detect the distance to the object, and furthermore, it may be difficult to accurately detect the distance to the object. Delays may occur.

そこで、本開示の一態様に係る測距システムは、測距対象物に対してグローバルシャッタ動作とローリングシャッタ動作とを行うことによって、前記グローバルシャッタ動作に応じた第1データと、前記ローリングシャッタ動作に応じた第2データとを出力するカメラ部と、測距装置とを備え、前記測距装置は、前記第1データによって示される前記測距対象物の形状に対する、前記第2データによって示される前記測距対象物の形状の歪みの大きさを検出する歪み検出部と、前記カメラ部の移動速度を取得し、前記移動速度と、前記歪み検出部によって検出された前記歪みの大きさとに基づいて、前記カメラ部から前記測距対象物までの距離を導出する距離導出部とを備える。例えば、歪みが大きいほど、短い距離が導出され、逆に、歪みが小さいほど、長い距離が導出される。 Therefore, a distance measurement system according to an aspect of the present disclosure performs a global shutter operation and a rolling shutter operation on an object to be measured, thereby obtaining first data corresponding to the global shutter operation and the rolling shutter operation. a camera unit that outputs second data corresponding to a distortion detection unit that detects the magnitude of distortion in the shape of the distance measurement target; and a movement speed of the camera unit, and based on the movement speed and the magnitude of the distortion detected by the distortion detection unit. and a distance derivation section that derives a distance from the camera section to the object to be measured. For example, the larger the distortion, the shorter the distance will be derived, and conversely, the smaller the distortion, the longer the distance will be derived.

これにより、1つのカメラ部によって測距対象物までの距離が導出されるため、例えばステレオ画像を得るために複数のカメラを備える装置と場合と比べて、測距システムの構成の簡略化を容易に図ることができる。 As a result, the distance to the object to be measured is derived using one camera unit, making it easier to simplify the configuration of the ranging system compared to devices equipped with multiple cameras to obtain stereo images, for example. can be achieved.

また、前記カメラ部は、前記グローバルシャッタ動作と前記ローリングシャッタ動作とを同時に行ってもよい。 Further, the camera section may perform the global shutter operation and the rolling shutter operation simultaneously.

これにより、2種類のシャッタ動作が同時に行われるため、ステレオ画像を得るために互いに異なるタイミングで複数回撮像が行われる場合と比べて、距離の導出にかかる時間を短縮することができ、測距の遅延を抑制することができる。さらに、測距の精度を高めることができる。 As a result, two types of shutter operations are performed at the same time, which reduces the time required to derive the distance compared to the case where imaging is performed multiple times at different timings to obtain a stereo image. delay can be suppressed. Furthermore, the accuracy of distance measurement can be improved.

また、前記歪み検出部は、前記第1データによって示される前記測距対象物の形状から、1以上の直線状の第1エッジを検出し、前記第2データによって示される前記測距対象物の形状から、1以上の直線状の第2エッジを検出する直線検出部と、前記1以上の直線状の第1エッジのうちの何れか1つの第1エッジと、前記1以上の直線状の第2エッジのうちの何れか1つの第2エッジとを対応付け、対応付けられた前記第1エッジと前記第2エッジとの間の角度を、前記歪みの大きさとして検出する角度検出部とを備えてもよい。 Further, the distortion detection unit detects one or more linear first edges from the shape of the distance measurement target indicated by the first data, and detects one or more linear first edges of the distance measurement target indicated by the second data. a straight line detection unit that detects one or more linear second edges based on the shape; one first edge of the one or more linear first edges; and one or more linear first edges; an angle detection unit that associates any one of the two edges with a second edge and detects an angle between the associated first edge and the second edge as the magnitude of the distortion; You may prepare.

これにより、その歪みの大きさを適切に検出することができ、測距の精度を高めることができる。 Thereby, the magnitude of the distortion can be appropriately detected, and the accuracy of distance measurement can be improved.

また、前記測距装置は、さらに、前記移動速度に基づいて、前記カメラ部の前記グローバルシャッタ動作および前記ローリングシャッタ動作の少なくとも一方を制御するシャッタ制御部を備えてもよい。 Further, the distance measuring device may further include a shutter control section that controls at least one of the global shutter operation and the rolling shutter operation of the camera section based on the moving speed.

これにより、第1データおよび第2データの少なくとも一方に対する、カメラ部の移動速度による影響を抑えることができる。その結果、例えば、カメラ部の移動速度が速すぎても遅すぎても、検出される歪みの大きさを適正範囲に収めることができる。したがって、シャッタ制御部による制御内容を示すシャッタパラメータと、適正範囲内の歪みの大きさとを用いることによって、測距の精度を高めることができる。 Thereby, the influence of the moving speed of the camera unit on at least one of the first data and the second data can be suppressed. As a result, for example, even if the moving speed of the camera unit is too fast or too slow, the magnitude of the detected distortion can be kept within an appropriate range. Therefore, by using the shutter parameter indicating the content of control by the shutter control unit and the magnitude of distortion within an appropriate range, it is possible to improve the accuracy of distance measurement.

また、前記測距装置は、さらに、前記歪み検出部によって検出された前記歪みの大きさに基づいて、前記カメラ部の前記グローバルシャッタ動作および前記ローリングシャッタ動作の少なくとも一方を制御するシャッタ制御部を備えてもよい。 The distance measuring device further includes a shutter control unit that controls at least one of the global shutter operation and the rolling shutter operation of the camera unit based on the magnitude of the distortion detected by the distortion detection unit. You may prepare.

これにより、2種類のシャッタ動作に応じて検出される歪みの大きさに基づいて、次に行われる2種類のシャッタ動作のうちの少なくとも一方が制御されるため、シャッタ制御部に対して適切なフィードバック制御を実行させることができる。その結果、例えば、検出される歪みの大きさを適正範囲に収めることができる。したがって、シャッタ制御部による制御内容を示すシャッタパラメータと、適正範囲内の歪みの大きさとを用いることによって、測距の精度を高めることができる。 As a result, at least one of the two types of shutter operations to be performed next is controlled based on the magnitude of distortion detected in response to the two types of shutter operations. Feedback control can be executed. As a result, for example, the magnitude of detected distortion can be kept within an appropriate range. Therefore, by using the shutter parameter indicating the content of control by the shutter control unit and the magnitude of distortion within an appropriate range, it is possible to improve the accuracy of distance measurement.

また、前記シャッタ制御部は、前記グローバルシャッタ動作を制御する場合には、フレーム期間を変更し、前記ローリングシャッタ動作を制御する場合には、フレーム期間および水平期間のうちの少なくとも1つを変更し、前記水平期間は、前記カメラ部が備える画素アレイのうちの1行の露光期間が開始されてから次の行の露光が開始されるまでの期間であってもよい。例えば、前記シャッタ制御部は、前記グローバルシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記フレーム期間を長い期間に変更し、前記ローリングシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記フレーム期間および前記水平期間の少なくとも一方を長い期間に変更しでもよい。 Further, the shutter control unit changes a frame period when controlling the global shutter operation, and changes at least one of a frame period and a horizontal period when controlling the rolling shutter operation. The horizontal period may be a period from the start of an exposure period of one row of the pixel array included in the camera unit until the start of exposure of the next row. For example, when controlling the global shutter operation, the slower the moving speed, the longer the frame period, and when controlling the rolling shutter operation, changing the frame period to a longer period when the moving speed is lower. The slower the frame period, the longer at least one of the frame period and the horizontal period may be changed.

例えば、カメラ部の移動速度が速い場合には、歪みは大きくなり易く、逆に、カメラ部の移動速度が遅い場合には、歪みは小さくなり易い。これに対して、本開示の一態様に係る測距システムでは、カメラ部の移動速度が遅いほど、例えば水平期間が長い期間に変更される。したがって、カメラ部の移動速度が遅い場合には、歪みが小さくなり過ぎることを抑えることができる。その結果、水平期間などのシャッタパラメータを用いれば、検出される歪みの大きさに含まれる誤差を抑えて、測距の精度を高めることができる。あるいは、本開示の一態様に係る測距システムでは、カメラ部の移動速度が遅いほど、フレーム期間が長い期間に変更される。したがって、カメラ部の移動速度が遅く、2種類のシャッタ動作が繰り返し実行される場合に、互いに類似する複数の第1データ、および互いに類似する複数の第2データが短い期間に出力されることを抑えることができる。これにより、データ量の削減、メモリの保存容量の削減、および、処理負担の軽減を図ることができる。 For example, when the moving speed of the camera section is fast, the distortion tends to become large, and conversely, when the moving speed of the camera section is slow, the distortion tends to become small. In contrast, in the ranging system according to one aspect of the present disclosure, the slower the moving speed of the camera unit, the longer the horizontal period is changed, for example. Therefore, when the moving speed of the camera unit is slow, distortion can be prevented from becoming too small. As a result, by using shutter parameters such as the horizontal period, it is possible to suppress errors included in the magnitude of detected distortion and improve the accuracy of distance measurement. Alternatively, in the ranging system according to one aspect of the present disclosure, the slower the moving speed of the camera unit, the longer the frame period is changed. Therefore, when the moving speed of the camera unit is slow and two types of shutter operations are repeatedly executed, it is possible that a plurality of first data that are similar to each other and a plurality of second data that are similar to each other are output in a short period of time. It can be suppressed. This makes it possible to reduce the amount of data, reduce the memory storage capacity, and reduce the processing load.

また、前記シャッタ制御部は、前記グローバルシャッタ動作を制御する場合には、前記第1データが順次出力される時間間隔を制御してもよい。例えば、前記シャッタ制御部は、前記グローバルシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記時間間隔を長くしてもよい。 Further, when controlling the global shutter operation, the shutter control unit may control a time interval at which the first data is sequentially output. For example, when controlling the global shutter operation, the shutter control unit may lengthen the time interval as the movement speed is slower.

例えば、カメラ部の移動速度が遅い場合に、第1データが短い周期で繰り返し出力されると、それらの第1データによって示される内容に差異が生じ難く、測距への貢献度が低い多くのデータがカメラ部から出力される可能性がある。しかし、本開示の一態様に係る測距システムでは、カメラ部の移動速度が遅いほど、第1データが順次出力される時間間隔である周期が長く設定されるため、上述のような測距への貢献度の低いデータの出力を抑えることができる。その結果、データ量の削減、メモリの保存容量の削減、および、処理負担の軽減を図ることができる。なお、上述の時間間隔はフレーム期間に相当する。 For example, if the moving speed of the camera unit is slow and the first data is repeatedly output in a short period, it is difficult to make a difference in the content indicated by the first data, and many Data may be output from the camera unit. However, in the distance measurement system according to one aspect of the present disclosure, the slower the moving speed of the camera unit, the longer the period, which is the time interval at which the first data is sequentially output, is set. The output of data with low contribution can be suppressed. As a result, it is possible to reduce the amount of data, the memory storage capacity, and the processing load. Note that the above-mentioned time interval corresponds to a frame period.

なお、測距システムに備えられている測距装置は、上述のカメラ部以外の各構成要素を備え、そのカメラ部から第1データおよび第2データを取得することによって、上述の測距システムと同様の作用効果を奏することができる。 Note that the distance measuring device included in the distance measuring system includes each component other than the above-mentioned camera section, and acquires the first data and second data from the camera section. Similar effects can be achieved.

以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Note that the embodiments described below are all inclusive or specific examples. The numerical values, shapes, materials, components, arrangement positions and connection forms of the components, steps, order of steps, etc. shown in the following embodiments are examples, and do not limit the present disclosure. Further, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the most significant concept will be described as arbitrary constituent elements.

また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。 Furthermore, each figure is a schematic diagram and is not necessarily strictly illustrated. Moreover, in each figure, the same reference numerals are attached to the same constituent members.

(実施の形態1)
[測距システムの構成]
図1は、本実施の形態における測距システムを備える車両の一例を示す図である。
(Embodiment 1)
[Distance measurement system configuration]
FIG. 1 is a diagram showing an example of a vehicle equipped with a ranging system according to the present embodiment.

車両1000は、測距システム500と、車速検出部600とを備える。車速検出部600は、車両1000の速度を車速として検出し、その検出された車速を示す車速情報を測距システム500に出力する。例えば、車速検出部600は、車両1000の車輪の回転に応じて出力されるパルス信号に基づいて車速を検出する。なお、車速検出部600は、パルス信号に基づく手法に限らず、他の任意の手法によって車速を検出してもよい。また、車速検出部600は、車両1000に備えられている、車速を扱うECU(Electronic Control Unit)から、車速情報を取得することによって、車速を検出してもよい。測距システム500は、測距対象物を撮像するカメラ部480を備える。そして、測距システム500は、カメラ部480によって得られる画像データと、車速検出部600から出力される車速情報とを用いて、カメラ部480から測距対象物までの距離を測定し、その距離を示す測距情報を出力する。 Vehicle 1000 includes a distance measurement system 500 and a vehicle speed detection section 600. Vehicle speed detection section 600 detects the speed of vehicle 1000 as a vehicle speed, and outputs vehicle speed information indicating the detected vehicle speed to distance measuring system 500. For example, vehicle speed detection section 600 detects the vehicle speed based on a pulse signal output according to the rotation of the wheels of vehicle 1000. Note that the vehicle speed detection unit 600 may detect the vehicle speed not only by the method based on the pulse signal but also by any other method. Further, vehicle speed detection section 600 may detect vehicle speed by acquiring vehicle speed information from an ECU (Electronic Control Unit) that is included in vehicle 1000 and handles vehicle speed. The distance measurement system 500 includes a camera unit 480 that captures an image of a distance measurement target. Then, the distance measurement system 500 measures the distance from the camera unit 480 to the object to be measured using the image data obtained by the camera unit 480 and the vehicle speed information output from the vehicle speed detection unit 600. Outputs distance measurement information indicating.

図2は、測距システム500の構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the configuration of the ranging system 500.

測距システム500は、カメラ部480と、測距装置1とを備える。測距装置1は、歪み検出部510、距離導出部503、およびシャッタ制御部504を備える。 The distance measurement system 500 includes a camera section 480 and a distance measurement device 1. The distance measuring device 1 includes a distortion detection section 510, a distance derivation section 503, and a shutter control section 504.

シャッタ制御部504は、車速検出部600から出力される車速情報を取得し、その車速情報によって示される車速に応じてカメラ部480のシャッタパラメータを設定する。さらに、シャッタ制御部504は、その設定されたシャッタパラメータを示すシャッタ情報を、距離導出部503に出力する。シャッタパラメータは、シャッタスピードを定義するためのパラメータであるとも言え、例えば、フレーム期間、水平期間などである。フレーム期間は、1フレームを生成するための期間であって、露光期間と非露光期間とを含む期間である。水平期間は、カメラ部480が備える画素アレイのうちの1行の露光期間が開始されてから次の行の露光が開始されるまでの期間である。なお、フレーム期間および水平期間は、1フレーム期間および1水平期間、または、1Vおよび1Hともそれぞれ表記される。例えば、シャッタ制御部504は、車速が遅いほど、シャッタスピードが遅くなるように、フレーム期間および水平期間の少なくとも一方を長く設定する。逆に、シャッタ制御部504は、車速が速いほど、シャッタスピードが速くなるように、フレーム期間および水平期間の少なくとも一方を短く設定する。なお、水平期間は、ライン走査時間とも呼ばれる。 The shutter control unit 504 acquires vehicle speed information output from the vehicle speed detection unit 600, and sets shutter parameters of the camera unit 480 according to the vehicle speed indicated by the vehicle speed information. Furthermore, the shutter control section 504 outputs shutter information indicating the set shutter parameters to the distance derivation section 503. The shutter parameter can be said to be a parameter for defining the shutter speed, and is, for example, a frame period, a horizontal period, etc. The frame period is a period for generating one frame, and is a period including an exposure period and a non-exposure period. The horizontal period is a period from the start of the exposure period of one row of the pixel array included in the camera section 480 until the start of exposure of the next row. Note that the frame period and the horizontal period are also expressed as one frame period and one horizontal period, or 1V and 1H, respectively. For example, the shutter control unit 504 sets at least one of the frame period and the horizontal period to be long so that the slower the vehicle speed, the slower the shutter speed. Conversely, the shutter control unit 504 sets at least one of the frame period and the horizontal period to be short so that the faster the vehicle speed is, the faster the shutter speed is. Note that the horizontal period is also called line scanning time.

カメラ部480は、行列状に配置された複数の画素からなる画素アレイを備え、フレーム期間毎に、GS画像データとRS画像データとを歪み検出部510に出力する。GS画像データは、グローバルシャッタ動作によって得られるデータであって、第1データとも呼ばれる。RS画像データは、ローリングシャッタ動作によって得られるデータであって、第2データとも呼ばれる。また、カメラ部480は、それらの画像データを得る場合には、シャッタ制御部504によって設定されたシャッタパラメータにしたがってグローバルシャッタ動作およびローリングシャッタ動作を行う。 Camera section 480 includes a pixel array including a plurality of pixels arranged in a matrix, and outputs GS image data and RS image data to distortion detection section 510 for each frame period. GS image data is data obtained by global shutter operation, and is also called first data. RS image data is data obtained by rolling shutter operation, and is also called second data. Further, when obtaining the image data, the camera section 480 performs a global shutter operation and a rolling shutter operation according to the shutter parameters set by the shutter control section 504.

このように、本実施の形態におけるカメラ部480は、測距対象物に対してグローバルシャッタ動作とローリングシャッタ動作とを行うことによって、そのグローバルシャッタ動作に応じた第1データと、そのローリングシャッタ動作に応じた第2データとを出力する。また、本実施の形態におけるカメラ部480は、グローバルシャッタ動作とローリングシャッタ動作とを同時に行う。つまり、1フレーム期間において、2種類のシャッタ動作が行われる。 In this way, the camera unit 480 in the present embodiment performs the global shutter operation and the rolling shutter operation on the object to be measured, thereby obtaining the first data corresponding to the global shutter operation and the rolling shutter operation. and second data corresponding to the second data. Furthermore, camera unit 480 in this embodiment simultaneously performs a global shutter operation and a rolling shutter operation. In other words, two types of shutter operations are performed in one frame period.

歪み検出部510は、カメラ部480からGS画像データおよびRS画像データを取得する。そして、歪み検出部510は、それらの画像データから測距対象物の形状の歪みの大きさを検出する。その歪みは、具体的には、GS画像データに映し出されている測距対象物の形状に対する、RS画像データに映し出されているその測距対象物の形状の歪みである。言い換えれば、歪み検出部510は、第1データによって示される測距対象物の形状に対する、第2データによって示される測距対象物の形状の歪みの大きさを検出する。なお、このような歪みは、ローリングシャッタ歪みとも呼ばれる。また、歪み検出部510は、直線検出部501と、角度検出部502とを備える。 Distortion detection section 510 acquires GS image data and RS image data from camera section 480. Then, the distortion detection unit 510 detects the magnitude of distortion in the shape of the object to be measured from the image data. Specifically, the distortion is a distortion of the shape of the distance measurement object shown in the RS image data with respect to the shape of the distance measurement object shown in the GS image data. In other words, the distortion detection unit 510 detects the magnitude of distortion in the shape of the distance measurement target indicated by the second data with respect to the shape of the distance measurement target indicated by the first data. Note that such distortion is also called rolling shutter distortion. Further, the distortion detection section 510 includes a straight line detection section 501 and an angle detection section 502.

直線検出部501は、カメラ部480からGS画像データおよびRS画像データを取得し、そのGS画像データおよびRS画像データのそれぞれについて、その画像データに映し出されている像に含まれる1以上のエッジを検出する。これらの検出されるエッジは、直線状のエッジである。そして、直線検出部501は、その直線状の複数のエッジを示すエッジ情報を角度検出部502に出力する。そのエッジ情報は、例えば、GS画像データおよびRS画像データのそれぞれにおいて、検出されたエッジが示されている情報である。 The straight line detection unit 501 acquires GS image data and RS image data from the camera unit 480, and detects one or more edges included in the image shown in the image data for each of the GS image data and RS image data. To detect. These detected edges are straight edges. Then, the straight line detection unit 501 outputs edge information indicating the plurality of straight edges to the angle detection unit 502. The edge information is, for example, information indicating detected edges in each of the GS image data and the RS image data.

角度検出部502は、直線検出部501からエッジ情報を取得し、そのエッジ情報によって示されている複数のエッジから、GS画像データとRS画像データとで互いに対応する2つのエッジを特定する。この2つのエッジは、GS画像データとRS画像データとのそれぞれに映し出されている同一の測距対象物の同一の部位のエッジである。そして、角度検出部502は、特定された2つの直線状のエッジ間の角度を検出する。この角度がローリングシャッタ歪みの一例である。そして、角度検出部502は、そのエッジ間の角度を示す角度情報を距離導出部503に出力する。 The angle detection unit 502 acquires edge information from the straight line detection unit 501, and identifies two edges that correspond to each other in the GS image data and the RS image data from a plurality of edges indicated by the edge information. These two edges are edges of the same part of the same distance measurement target that is shown in each of the GS image data and the RS image data. The angle detection unit 502 then detects the angle between the two identified straight edges. This angle is an example of rolling shutter distortion. The angle detection unit 502 then outputs angle information indicating the angle between the edges to the distance derivation unit 503.

距離導出部503は、角度情報、シャッタ情報および車速情報を、角度検出部502、シャッタ制御部504および車速検出部600から取得する。そして、距離導出部503は、角度情報、シャッタ情報および車速情報に基づいて、測距対象物までの距離を導出する。つまり、距離導出部503は、角度検出部502によって検出された角度と、シャッタ制御部504によって設定されたシャッタパラメータと、車速検出部600から出力される車速情報と基づいて、測距対象物までの距離を導出する。これにより、カメラ部480からその測距対象物までの距離が測定される。 Distance derivation section 503 acquires angle information, shutter information, and vehicle speed information from angle detection section 502, shutter control section 504, and vehicle speed detection section 600. The distance deriving unit 503 then derives the distance to the object to be measured based on the angle information, shutter information, and vehicle speed information. In other words, the distance deriving unit 503 calculates the distance to the object to be measured based on the angle detected by the angle detecting unit 502, the shutter parameter set by the shutter control unit 504, and the vehicle speed information output from the vehicle speed detecting unit 600. Derive the distance. As a result, the distance from the camera section 480 to the object to be measured is measured.

なお、本実施の形態では、測距装置1は、シャッタ制御部504を備えるが、シャッタ制御部504を備えていなくてもよい。つまり、シャッタパラメータが制御されることなく固定されていてもよい。このような場合には、距離導出部503は、少なくとも角度情報および車速情報に基づいて、距離を導出してもよい。また、カメラ部480は車両1000に固定されているため、車速は、カメラ部480の移動速度であると言える。したがって、本実施の形態における距離導出部503は、カメラ部480の移動速度を取得し、その移動速度と、歪み検出部510によって検出された歪みの大きさとに基づいて、カメラ部480から測距対象物までの距離を導出する。 Note that although the distance measuring device 1 includes the shutter control section 504 in this embodiment, it does not need to include the shutter control section 504. That is, the shutter parameters may be fixed without being controlled. In such a case, the distance derivation unit 503 may derive the distance based on at least the angle information and the vehicle speed information. Furthermore, since the camera section 480 is fixed to the vehicle 1000, it can be said that the vehicle speed is the moving speed of the camera section 480. Therefore, the distance deriving unit 503 in this embodiment acquires the moving speed of the camera unit 480, and uses the distance measuring unit 503 from the camera unit 480 based on the moving speed and the magnitude of the distortion detected by the distortion detecting unit 510. Derive the distance to the object.

なお、本実施の形態における測距システム500が備えるカメラ部480の数は、1つに限らず、2つ以上であってもよい。 Note that the number of camera units 480 included in the distance measuring system 500 in this embodiment is not limited to one, and may be two or more.

図3は、本実施の形態におけるカメラ部480の構成の一例を示すブロック図である。図3に示すように、カメラ部480は、光学系410と、撮像装置100と、画像形成回路430とを備える。 FIG. 3 is a block diagram showing an example of the configuration of camera section 480 in this embodiment. As shown in FIG. 3, the camera section 480 includes an optical system 410, an imaging device 100, and an image forming circuit 430.

光学系410は、絞り、手振れ補正レンズ、ズームレンズおよびフォーカスレンズなどを含む。光学系410が有するレンズの数は、要求される機能に応じて適宜決定される。なお、光学系410は、手振れ補正レンズを備えていなくてもよく、手振れ補正レンズ以外の他の通常のレンズを備えていてもよい。 The optical system 410 includes an aperture, an image stabilization lens, a zoom lens, a focus lens, and the like. The number of lenses included in the optical system 410 is determined as appropriate depending on the required functions. Note that the optical system 410 does not need to include an image stabilization lens, and may include a normal lens other than the image stabilization lens.

撮像装置100は、上述の画素アレイを有する。この画素アレイには、光学系410を介して測距対象物の像が投影される。撮像装置100は、シャッタ制御部504による制御にしたがって、その像に応じた信号を画像形成回路430に出力する。 The imaging device 100 has the above-described pixel array. An image of the object to be measured is projected onto this pixel array via an optical system 410. The imaging device 100 outputs a signal corresponding to the image to the image forming circuit 430 under the control of the shutter control unit 504.

画像形成回路430は、撮像装置100の出力に基づいて画像を形成する。画像形成回路430は、例えばDSP(Digital Signal Processor)、FPGA(Field-Programmable Gate Array)などであり得る。画像形成回路430は、メモリを含んでいてもよい。 The image forming circuit 430 forms an image based on the output of the imaging device 100. The image forming circuit 430 may be, for example, a DSP (Digital Signal Processor), an FPGA (Field-Programmable Gate Array), or the like. Image forming circuit 430 may include memory.

図3に示す例では、画像形成回路430は、出力バッファ440を有している。画像形成回路430は、出力バッファ440を介して、形成された画像を示す画像データをカメラ部480の外部に出力する。画像形成回路430から出力される画像データは、GS画像データおよびRS画像データである。なお、これらの画像データの形式は、例えばRAWデータであってもよく、12ビット幅の信号であってもよい。また、画像形成回路430から出力される画像データは、例えばH.264規格に準拠して圧縮されたデータであってもよい。 In the example shown in FIG. 3, the image forming circuit 430 includes an output buffer 440. The image forming circuit 430 outputs image data representing the formed image to the outside of the camera section 480 via the output buffer 440. The image data output from the image forming circuit 430 is GS image data and RS image data. Note that the format of these image data may be, for example, RAW data or a 12-bit width signal. Further, the image data output from the image forming circuit 430 may be, for example, an H. The data may be compressed in accordance with the H.264 standard.

図4は、撮像装置100に含まれる画素アレイの概略構成の一例を示す図である。 FIG. 4 is a diagram illustrating an example of a schematic configuration of a pixel array included in the imaging device 100.

画素アレイPAは、行列状に配置された複数の画素10を備える。これらの複数の画素10のそれぞれは、単位画素セルとも呼ばれ、露光期間において光学系410を介してカメラ部480の外部から受けた光を電荷に変換して蓄積し、その蓄積された電荷に応じた信号を出力する。例えば、画素アレイPAに含まれる奇数番目の行は、ローリングシャッタ動作を行い、画素アレイPAに含まれる偶数番目の行は、グローバルシャッタ動作を行う。また、ローリングシャッタ動作とグローバルシャッタ動作とは、同時に実行される。 The pixel array PA includes a plurality of pixels 10 arranged in a matrix. Each of these plurality of pixels 10, also called a unit pixel cell, converts light received from outside the camera unit 480 via the optical system 410 into electric charges during the exposure period, and accumulates the accumulated electric charges. Outputs the corresponding signal. For example, the odd numbered rows included in the pixel array PA perform a rolling shutter operation, and the even numbered rows included in the pixel array PA perform a global shutter operation. Further, the rolling shutter operation and the global shutter operation are executed simultaneously.

図5は、撮像装置100における動作の一例を説明するための図である。なお、図5におけるGS_0、GS_1、GS_2、およびGS_3は、画素アレイPAにおける第GS_0行、第GS_1行、第GS_2行、および第GS_3行の動作をそれぞれ示す。また、図5におけるRS_0、RS_1、RS_2、およびRS_3は、画素アレイPAにおける第RS_0行、第RS_1行、第RS_2行、および第RS_3行の動作をそれぞれ示す。 FIG. 5 is a diagram for explaining an example of the operation of the imaging device 100. Note that GS_0, GS_1, GS_2, and GS_3 in FIG. 5 indicate the operations of the GS_0th row, GS_1st row, GS_2nd row, and GS_3rd row in the pixel array PA, respectively. Further, RS_0, RS_1, RS_2, and RS_3 in FIG. 5 indicate the operations of the RS_0th row, RS_1th row, RS_2nd row, and RS_3rd row in the pixel array PA, respectively.

例えば、それぞれ偶数番目の行である第GS_0行、第GS_1行、第GS_2行、および第GS_3行は、グローバルシャッタ動作を行う。具体的には、第GS_0行から第GS_3行には、フレーム期間ごとに、露光期間と非露光期間とが形成される。また、第GS_0行から第GS_3行では、露光期間が互いに同じタイミングで形成され、非露光期間が互いに同じタイミングで形成される。例えば、時刻t0から時刻t8までのフレーム期間では、非露光期間は、時刻t0から時刻t4までの期間であり、露光期間は、時刻t4から時刻t8までの期間である。第GS_0行から第GS_3行が、このようなグローバルシャッタ動作を実行することによって、カメラ部480は、GS画像データを出力する。 For example, the even-numbered rows GS_0, GS_1, GS_2, and GS_3 perform a global shutter operation. Specifically, from the GS_0th row to the GS_3th row, an exposure period and a non-exposure period are formed for each frame period. Furthermore, in the GS_0th row to the GS_3th row, the exposure periods are formed at the same timing, and the non-exposure periods are formed at the same timing. For example, in the frame period from time t0 to time t8, the non-exposure period is the period from time t0 to time t4, and the exposure period is the period from time t4 to time t8. The camera unit 480 outputs GS image data by executing such a global shutter operation from the GS_0 line to the GS_3 line.

一方、それぞれ奇数番目の行である第RS_0行、第RS_1行、第RS_2行、および第RS_3行は、ローリングシャッタ動作を行う。具体的には、第RS_0行から第RS_3行には、グローバルシャッタ動作の場合と同じフレーム期間ごとに、露光期間と非露光期間とが形成される。ここで、第RS_0行から第RS_3行では、露光期間が互いに異なるタイミングで形成され、非露光期間が互いに異なるタイミングで形成される。例えば、第RS_0行における露光期間は、時刻t1から開始され、第RS_1行における露光期間は、その第RS_0行と比べて1H期間遅れ、時刻t2から開始される。同様に、第RS_2行における露光期間は、その第RS_1行と比べて1H期間遅れ、時刻t3から開始され、第RS_3行における露光期間は、その第RS_2行と比べて1H期間遅れ、時刻t4から開始される。第RS_0行から第RS_3行が、このようなローリングシャッタ動作を実行することによって、カメラ部480は、RS画像データを出力する。 On the other hand, the RS_0th row, RS_1st row, RS_2nd row, and RS_3rd row, which are odd-numbered rows, perform a rolling shutter operation. Specifically, in the RS_0th row to the RS_3th row, an exposure period and a non-exposure period are formed for each frame period, which is the same as in the case of the global shutter operation. Here, in the RS_0th row to the RS_3th row, the exposure periods are formed at mutually different timings, and the non-exposure periods are formed at mutually different timings. For example, the exposure period in the RS_0th row starts from time t1, and the exposure period in the RS_1th row starts from time t2, delayed by 1H period compared to the RS_0th row. Similarly, the exposure period in the RS_2 row is delayed by 1H period compared to its RS_1 row and starts at time t3, and the exposure period in the RS_3 row is delayed by 1H period compared to its RS_2 row and starts at time t4. will be started. The camera unit 480 outputs RS image data by executing such a rolling shutter operation from the RS_0th line to the RS_3rd line.

なお、図5に示す例では、第GS_0行から第GS_3行の4行がグローバルシャッタ動作を行い、第RS_0行から第RS_3行の4行がローリングシャッタ動作を行うが、それらのシャッタ動作を行う行数は、4行に限らず、5行以上であってもよい。 In the example shown in FIG. 5, four lines from GS_0 to GS_3 perform a global shutter operation, and four lines from RS_0 to RS_3 perform a rolling shutter operation. The number of lines is not limited to four, but may be five or more.

図6は、車両1000に取り付けられているカメラ部480の位置および撮像範囲の一例を示す図である。なお、図6の(a)は、車両1000を鉛直上方から見た状態を示し、図6の(b)は、車両1000を前方から見た状態を示す。 FIG. 6 is a diagram illustrating an example of the position and imaging range of camera unit 480 attached to vehicle 1000. Note that (a) of FIG. 6 shows a state in which the vehicle 1000 is viewed from vertically above, and (b) in FIG. 6 shows a state in which the vehicle 1000 is seen from the front.

車両1000は、例えば図6の(a)に示すように、4つのカメラ部480を備える。言い換えれば、図6の例では、測距システム500は、4つのカメラ部480を備えている。この場合、シャッタ制御部504は、4つのカメラ部480のそれぞれに対してシャッタパラメータを設定する。さらに、歪み検出部510は、4つのカメラ部480のそれぞれについて、そのカメラ部480から出力されるGS画像データおよびRS画像データに基づいて、ローリングシャッタ歪みを検出する。なお、車両1000には、それぞれ1つのカメラ部480が備えられた4つの測距システム500が搭載されていてもよい。これにより、4つのカメラ部480のそれぞれについて、そのカメラ部480から、そのカメラ部480で撮像された測距対象物までの距離が導出される。 Vehicle 1000 includes four camera units 480, for example, as shown in FIG. 6(a). In other words, in the example of FIG. 6, the ranging system 500 includes four camera units 480. In this case, the shutter control unit 504 sets shutter parameters for each of the four camera units 480. Further, the distortion detection unit 510 detects rolling shutter distortion for each of the four camera units 480 based on the GS image data and RS image data output from the camera unit 480. Note that the vehicle 1000 may be equipped with four ranging systems 500, each of which is equipped with one camera unit 480. As a result, for each of the four camera units 480, the distance from that camera unit 480 to the distance measurement target imaged by that camera unit 480 is derived.

4つのカメラ部480は、例えば図6の(a)に示すように、車両1000の前方、後方、左側、および右側を撮像し得るようにその車両1000に配置される。このとき、車両1000の走行に応じて、4つのカメラ部480のそれぞれから出力されるRS画像データにおいて歪みが生じ易いように、これらの4つのカメラ部480が車両1000に取り付けられる。例えば、4つのカメラ部480のそれぞれが備える画素アレイPAの各行が、その画素アレイPAに投影される被写体の像の動きの方向に沿うように、4つのカメラ部480が車両1000に取り付けられる。その被写体の像の動きの方向は、その被写体が静止している場合には、カメラ部480の動きの方向である。また、カメラ部480が車両1000に固定されるため、その被写体の像の動きの方向は、車両1000の走行方向または旋回方向であるとも言える。したがって、4つのカメラ部480のそれぞれが備える画素アレイPAの各行が、それらのカメラ部480の動きの方向、すなわち車両1000の走行方向または旋回方向に沿うように、4つのカメラ部480が車両1000に取り付けられる。具体的な一例では、画素アレイPAの各行が水平方向に沿うように、4つのカメラ部480が取り付けられる。 The four camera units 480 are arranged in the vehicle 1000 so as to be able to take images of the front, rear, left side, and right side of the vehicle 1000, for example, as shown in FIG. 6(a). At this time, these four camera sections 480 are attached to the vehicle 1000 so that distortion is likely to occur in the RS image data output from each of the four camera sections 480 as the vehicle 1000 travels. For example, the four camera sections 480 are attached to the vehicle 1000 so that each row of the pixel array PA included in each of the four camera sections 480 is along the direction of movement of the image of the subject projected onto the pixel array PA. The direction of movement of the image of the subject is the direction of movement of camera unit 480 when the subject is stationary. Furthermore, since the camera unit 480 is fixed to the vehicle 1000, it can be said that the direction of movement of the image of the subject is the traveling direction or the turning direction of the vehicle 1000. Therefore, the four camera sections 480 are arranged on the vehicle 1000 such that each row of the pixel array PA included in each of the four camera sections 480 is along the direction of movement of the camera sections 480, that is, the traveling direction or the turning direction of the vehicle 1000. can be attached to. In a specific example, four camera units 480 are attached so that each row of the pixel array PA is aligned in the horizontal direction.

より具体的には、図6の(b)に示すように、4つのカメラ部480のうち、車両1000の右側および左側に取り付けられる2つのカメラ部480は、車両1000が前方または後方に移動すると、その車両1000と共に前後方向に移動する。この場合、その2つのカメラ部480のそれぞれの画素アレイPAに投影される被写体の像は、水平方向または前後方向に移動する。したがって、その2つのカメラ部480は、画素アレイPAの各行がその水平方向または前後方向に沿うように車両1000に取り付けられる。 More specifically, as shown in FIG. 6(b), among the four camera units 480, two camera units 480 attached to the right and left sides of the vehicle 1000 are configured to move forward or backward when the vehicle 1000 moves forward or backward. , moves in the front and rear direction together with the vehicle 1000. In this case, the images of the subject projected onto the respective pixel arrays PA of the two camera sections 480 move in the horizontal direction or in the front-back direction. Therefore, the two camera units 480 are attached to the vehicle 1000 so that each row of the pixel array PA is along the horizontal direction or the front-rear direction.

また、4つのカメラ部480のそれぞれは、カメラの光軸が水平方向または路面方向に向くように車両1000に取り付けられる。 Furthermore, each of the four camera units 480 is attached to the vehicle 1000 so that the optical axis of the camera faces in the horizontal direction or in the direction of the road surface.

なお、カメラ部480の画素アレイPAに含まれる各行において、その行の一端から他端に向けて各画素の露光が開始されるようなライン走査が行われる場合、そのライン走査の方向は統一されていてもよい。例えば、車両1000の右側および左側に取り付けられている2つのカメラ部480では、そのライン走査の方向は、車両1000の前方に統一されてもよい。つまり、画素アレイPAの各行では、前方の画素から後方の画素に向かって各画素の露光が開始される。あるいは、ライン走査の方向は、車両1000の後方に統一されてもよい。つまり、画素アレイPAの各行では、後方の画素から前方の画素に向かって各画素の露光が開始される。これにより、ローリングシャッタ歪みの誤差の傾向を各行で一致させることができ、導出される距離の誤差の低減を図ることができる。 Note that in each row included in the pixel array PA of the camera unit 480, when line scanning is performed such that exposure of each pixel is started from one end of the row toward the other end, the direction of the line scanning is unified. You can leave it there. For example, in the two camera units 480 attached to the right and left sides of the vehicle 1000, the direction of line scanning may be unified to the front of the vehicle 1000. That is, in each row of the pixel array PA, exposure of each pixel is started from the front pixel to the rear pixel. Alternatively, the direction of line scanning may be unified to the rear of vehicle 1000. That is, in each row of the pixel array PA, exposure of each pixel is started from the rear pixel to the front pixel. Thereby, it is possible to match the tendency of the error of rolling shutter distortion in each row, and it is possible to reduce the error in the derived distance.

[測距システムの動作]
図7は、測距システム500によって距離が測定される状況の一例を示す図である。
[Operation of ranging system]
FIG. 7 is a diagram illustrating an example of a situation in which distance is measured by distance measuring system 500.

測距システム500を備えた車両1000は、例えば駐車場を走行する。このとき、測距システム500は、その駐車場に既に駐車されている他の車両1001がカメラ部480によって撮像されたときには、その車両1001までの距離を測定する。あるいは、測距システム500は、その駐車場に既に駐車されている他の車両1002がカメラ部480によって撮像されたときには、その車両1002までの距離を測定する。具体的には、測距システム500は、車両1001における各特徴部分Eまでの距離、または、車両1002における各特徴部分Eまでの距離を測定する。この場合、車両1001の各特徴部分E、車両1002の各特徴部分Eなどが、測距対象物として扱われる。 A vehicle 1000 equipped with a ranging system 500 travels in a parking lot, for example. At this time, when another vehicle 1001 already parked in the parking lot is imaged by the camera unit 480, the distance measuring system 500 measures the distance to the vehicle 1001. Alternatively, when another vehicle 1002 already parked in the parking lot is imaged by the camera unit 480, the distance measuring system 500 measures the distance to the vehicle 1002. Specifically, distance measuring system 500 measures the distance to each characteristic portion E in vehicle 1001 or the distance to each characteristic portion E in vehicle 1002. In this case, each characteristic portion E of the vehicle 1001, each characteristic portion E of the vehicle 1002, etc. are treated as objects to be measured.

上述の特徴部分Eは、一方向に沿う例えば直線状のエッジとしてカメラ部480によって撮像される部分である。画素アレイPAに投影されるそのエッジは、車両1000の走行または旋回によって、画素アレイPAの各行の方向に沿って移動し、かつ、画素アレイPAの複数の行にまたがる。そのため、その特徴部分Eに対してローリングシャッタ歪みが生じ得る。 The characteristic portion E described above is a portion that is imaged by the camera unit 480 as, for example, a linear edge along one direction. The edge projected onto pixel array PA moves along the direction of each row of pixel array PA as vehicle 1000 runs or turns, and spans multiple rows of pixel array PA. Therefore, rolling shutter distortion may occur in the characteristic portion E.

図8は、測距システム500によって距離が測定される状況の他の例を示す図である。なお、図8は、車両1000およびトラック1003を鉛直上方から見た状態を示す。 FIG. 8 is a diagram illustrating another example of a situation in which distance is measured by distance measuring system 500. Note that FIG. 8 shows a state in which the vehicle 1000 and the truck 1003 are viewed from vertically above.

例えば、車両1000は、図8に示すように、停車中のトラック1003の右側を通過する。このとき、車両1000に搭載されている測距システム500のカメラ部480は、そのトラック1003の右側面を撮像する。そして、カメラ部480は、トラック1003を撮像することによって、トラック1003の各特徴部分Eが映し出されたGS画像データとRS画像データとを出力する。 For example, as shown in FIG. 8, vehicle 1000 passes on the right side of stopped truck 1003. At this time, the camera unit 480 of the ranging system 500 mounted on the vehicle 1000 images the right side of the truck 1003. Then, the camera unit 480 captures an image of the track 1003 and outputs GS image data and RS image data in which each characteristic portion E of the track 1003 is displayed.

図9は、ローリングシャッタ歪みの一例を示す図である。 FIG. 9 is a diagram showing an example of rolling shutter distortion.

測距システム500のカメラ部480は、例えば図8に示す状況での撮像によって、図9の(a)に示すGS画像データと、図9の(b)に示すRS画像データとを出力する。 The camera unit 480 of the ranging system 500 outputs the GS image data shown in FIG. 9(a) and the RS image data shown in FIG. 9(b) by capturing images in the situation shown in FIG. 8, for example.

歪み検出部510の直線検出部501は、そのGS画像データおよびRS画像のそれぞれからエッジ検出を行う。具体的には、直線検出部501は、画素アレイPAの複数の行を横切る直線状のエッジを検出する。つまり、画素アレイPAの各行に対して平行でないエッジが検出される。例えば、図9の例のように、直線検出部501は、GS画像データから、トラック1003の特徴部分Eの像である直線状のエッジEg1を検出し、他の特徴部分Eの像である直線状のエッジEg2を検出する。さらに、直線検出部501は、RS画像データから、トラック1003の特徴部分Eの像である直線状のエッジEr1を検出し、他の特徴部分Eの像である直線状のエッジEr2を検出する。GS画像データおよびRS画像データのそれぞれによって示される画像の水平方向は、画素アレイPAの各行に対して平行である。したがって、検出される上述のエッジEg1、Eg2、Er1、およびEr2のそれぞれは、画素アレイPAの各行に対して平行でない。このようなエッジの検出は、ディープラーニングなどの機械学習によって行われてもよく、他の周知の技術を用いて行われてもよい。 The straight line detection unit 501 of the distortion detection unit 510 performs edge detection from each of the GS image data and RS image. Specifically, the straight line detection unit 501 detects a straight edge that crosses a plurality of rows of the pixel array PA. That is, edges that are not parallel to each row of the pixel array PA are detected. For example, as in the example of FIG. 9, the straight line detection unit 501 detects a straight edge Eg1, which is an image of the characteristic portion E of the track 1003, from the GS image data, and detects a straight edge Eg1, which is an image of another characteristic portion E, from the GS image data. An edge Eg2 of the shape is detected. Further, the straight line detection unit 501 detects a straight edge Er1, which is an image of the characteristic portion E of the track 1003, and a straight edge Er2, which is an image of another characteristic portion E, from the RS image data. The horizontal direction of the image indicated by each of the GS image data and the RS image data is parallel to each row of the pixel array PA. Therefore, each of the above-mentioned detected edges Eg1, Eg2, Er1, and Er2 is not parallel to each row of the pixel array PA. Such edge detection may be performed by machine learning such as deep learning, or may be performed using other known techniques.

このように、本実施の形態における直線検出部501は、GS画像データによって示される測距対象物の形状から、直線状のエッジEg1およびEg2を検出し、RS画像データによって示される測距対象物の形状から、直線状のエッジEr1およびEr2を検出する。 In this way, the straight line detection unit 501 in this embodiment detects the linear edges Eg1 and Eg2 from the shape of the distance measurement target indicated by the GS image data, and detects the straight edges Eg1 and Eg2 from the shape of the distance measurement target indicated by the RS image data. Linear edges Er1 and Er2 are detected from the shape.

角度検出部502は、GS画像データに含まれるエッジと、RS画像データに含まれるエッジとの対応付けを行う。例えば、GS画像データに映し出されているエッジEg1と、RS画像データに映し出されているエッジEr1とは、同じトラック1003の後端にある特徴部分Eの像である。したがって、角度検出部502は、エッジEg1とエッジEr1とを対応付ける。同様に、GS画像データに映し出されているエッジEg2と、RS画像データに映し出されているエッジEr2とは、同じトラック1003の前方にある特徴部分Eの像である。したがって、角度検出部502は、エッジEg2とエッジEr2とを対応付ける。このようなエッジの対応付けは、エッジのペアリングとも呼ばれる。また、対応付けられた2つのエッジの組は、ペアとも呼ばれる。 The angle detection unit 502 associates edges included in the GS image data with edges included in the RS image data. For example, the edge Eg1 shown in the GS image data and the edge Er1 shown in the RS image data are images of the characteristic portion E at the rear end of the same track 1003. Therefore, the angle detection unit 502 associates the edge Eg1 and the edge Er1. Similarly, the edge Eg2 shown in the GS image data and the edge Er2 shown in the RS image data are images of the characteristic portion E located in front of the same track 1003. Therefore, the angle detection unit 502 associates the edge Eg2 and the edge Er2. This kind of edge correspondence is also called edge pairing. Further, a set of two edges that are associated with each other is also called a pair.

次に、角度検出部502は、図9の(c)に示すように、対応付けられたエッジ間の角度を検出する。図9の(c)は、GS画像データとRS画像データとのそれぞれの画像を重ね合わせて、エッジ間の角度を分かり易く示した図である。具体的には、角度検出部502は、エッジEg1とエッジEr1との間の角度θ1を検出し、エッジEg2とエッジEr2との間の角度θ2を検出する。 Next, the angle detection unit 502 detects the angle between the associated edges, as shown in FIG. 9(c). FIG. 9(c) is a diagram in which the GS image data and the RS image data are superimposed to clearly show the angle between the edges. Specifically, the angle detection unit 502 detects the angle θ1 between the edge Eg1 and the edge Er1, and detects the angle θ2 between the edge Eg2 and the edge Er2.

このように、本実施の形態における角度検出部502は、直線状のエッジEg1およびEg2のうちの何れか1つのエッジ(例えばエッジEg1)と、直線状のエッジEr1およびEr2のうちの何れか1つのエッジ(例えばエッジEr1)とを対応付け、対応付けられたエッジEg1とエッジEr1との間の角度を、歪みの大きさとして検出する。これにより、歪みの大きさを適切に検出することができる。 In this way, the angle detection unit 502 in this embodiment detects one of the straight edges Eg1 and Eg2 (for example, the edge Eg1) and one of the straight edges Er1 and Er2. 2 edges (for example, edge Er1), and the angle between the associated edge Eg1 and edge Er1 is detected as the magnitude of distortion. Thereby, the magnitude of distortion can be appropriately detected.

距離導出部503は、GS画像データおよびRS画像データが出力されたときの車両1000の車速と、検出された角度θ1と、そのときのシャッタパラメータとに基づいて、エッジEg1およびエッジEr1に対応する特徴部分Eの距離を導出する。その距離は、具体的には、カメラ部480から、トラック1003の後端にある特徴部分Eまでの距離である。同様に、距離導出部503は、GS画像データおよびRS画像データが出力されたときの車両1000の車速と、検出された角度θ2と、そのときのシャッタパラメータとに基づいて、エッジEg2およびエッジEr2に対応する特徴部分Eの距離を導出する。その距離は、具体的には、カメラ部480から、トラック1003の前方にある特徴部分Eまでの距離である。 The distance deriving unit 503 corresponds to the edge Eg1 and the edge Er1 based on the vehicle speed of the vehicle 1000 when the GS image data and the RS image data are output, the detected angle θ1, and the shutter parameters at that time. The distance of the feature part E is derived. Specifically, the distance is the distance from the camera section 480 to the characteristic portion E at the rear end of the track 1003. Similarly, the distance deriving unit 503 calculates the edge Eg2 and the edge Er2 based on the vehicle speed of the vehicle 1000 when the GS image data and the RS image data are output, the detected angle θ2, and the shutter parameters at that time. The distance of the feature portion E corresponding to is derived. Specifically, the distance is the distance from the camera unit 480 to the characteristic portion E located in front of the truck 1003.

その距離の導出では、距離導出部503は、車両1000の車速として、車速検出部600から出力される車速情報に示される車速を用いる。また、距離導出部503は、テーブルを用いて距離を導出する。そのテーブルは、角度と、車速と、シャッタパラメータと、距離とを関連付けて示す。このようなテーブルは、距離導出部503に保持されていてもよく、測距システム500または測距装置1に備えられているメモリに格納されていてもよい。具体的には、距離導出部503は、テーブルを参照し、上述の2種類の画像データが出力されたときの車両1000の車速と、検出された角度θ1と、そのときのシャッタパラメータとに関連付けられている距離を、そのテーブルから特定する。そして、距離導出部503は、その特定された距離を、トラック1003の後端にある特徴部分Eの距離として導出する。距離導出部503は、検出された角度θ2に対しても同様の処理を行うことによって、トラック1003の前方にある特徴部分Eの距離を導出する。 In deriving the distance, distance deriving section 503 uses the vehicle speed indicated in the vehicle speed information output from vehicle speed detecting section 600 as the vehicle speed of vehicle 1000. Further, the distance derivation unit 503 derives the distance using a table. The table shows angles, vehicle speeds, shutter parameters, and distances in association with each other. Such a table may be held in the distance deriving unit 503 or may be stored in a memory included in the distance measuring system 500 or the distance measuring device 1. Specifically, the distance derivation unit 503 refers to the table and correlates the vehicle speed of the vehicle 1000 when the two types of image data described above were output, the detected angle θ1, and the shutter parameters at that time. Determine from the table the distance that is The distance deriving unit 503 then derives the specified distance as the distance of the characteristic portion E at the rear end of the track 1003. The distance derivation unit 503 derives the distance of the characteristic portion E in front of the track 1003 by performing similar processing on the detected angle θ2.

なお、本実施の形態における距離導出部503は、距離の導出にテーブルを用いるが、そのテーブルの代わりに関数が用いられてもよい。その関数は、角度と車速とシャッタパラメータとから、距離を算出するための関数である。あるいは、機械学習モデルが用いられてもよい。この機械学習モデルは、角度と車速とシャッタパラメータとの入力に対して、距離が出力されるように学習が行われたモデルである。距離導出部503は、例えば、上述の2種類の画像データが出力されたときの車両1000の車速と、検出された角度と、そのときのシャッタパラメータとを、その機械学習モデルに入力することによって、特徴部分Eの距離を導出する。 Note that although the distance derivation unit 503 in this embodiment uses a table to derive the distance, a function may be used instead of the table. The function is a function for calculating the distance from the angle, vehicle speed, and shutter parameter. Alternatively, machine learning models may be used. This machine learning model is a model that has been trained to output distance in response to inputs of angle, vehicle speed, and shutter parameter. For example, the distance deriving unit 503 inputs the vehicle speed of the vehicle 1000 when the two types of image data described above, the detected angle, and the shutter parameters at that time into the machine learning model. , derive the distance of the feature E.

以下、角度検出部502、距離導出部503、シャッタ制御部504の処理について詳細に説明する。 The processing of the angle detection section 502, distance derivation section 503, and shutter control section 504 will be described in detail below.

[角度検出部の処理]
図10は、角度検出部502によるエッジのペアリングの一例を詳細に説明するための図である。なお、図10は、GS画像データとRS画像データとのそれぞれの画像を重ね合わせて、エッジ間の角度を分かり易く示した図である。
[Processing of angle detection unit]
FIG. 10 is a diagram for explaining in detail an example of edge pairing by the angle detection unit 502. Note that FIG. 10 is a diagram in which the respective images of GS image data and RS image data are superimposed to clearly show the angle between the edges.

例えば、図10に示すように、直線検出部501によって、GS画像データからエッジEg3とエッジEg4とが検出され、RS画像データからエッジEr3とエッジEr4とが検出される。この場合、角度検出部502は、画像データのラインn方向において、GS画像データのエッジEg3に最も近いエッジをRS画像データから検索する。なお、画像データのラインn方向は、画素アレイPAの行に沿う方向である。また、ラインnは、画素アレイPAにおける(2N-1)番目の行と、2N番目の行とによって得られる像のラインであるとも言える。なお、Nは1以上の整数であって、(2N-1)番目の行は、ローリングシャッタ動作を行う行であり、2N番目の行は、グローバルシャッタ動作を行う行である。 For example, as shown in FIG. 10, the straight line detection unit 501 detects edges Eg3 and Eg4 from the GS image data, and detects edges Er3 and Er4 from the RS image data. In this case, the angle detection unit 502 searches the RS image data for the edge closest to the edge Eg3 of the GS image data in the line n direction of the image data. Note that the line n direction of image data is a direction along the rows of the pixel array PA. It can also be said that line n is a line of an image obtained by the (2N-1)th row and the 2Nth row in the pixel array PA. Note that N is an integer greater than or equal to 1, the (2N-1)th row is a row in which a rolling shutter operation is performed, and the 2Nth row is a row in which a global shutter operation is performed.

具体的には、角度検出部502は、GS画像データに含まれるエッジごとに、そのエッジに最も近いエッジをRS画像データから検索する。例えば、角度検出部502は、GS画像データに含まれるエッジEg3に最も近いエッジを検索する場合、まず、ラインnとエッジEg3とが交わる点Dg3を特定する。さらに、角度検出部502は、そのラインnと、RS画像データに含まれるエッジEr3とが交わる点Dr3を特定する。さらに、角度検出部502は、そのラインnと、RS画像データに含まれるエッジEr4とが交わる点Dr4を特定する。次に、角度検出部502は、点Dg3から点Dr3までの距離L3と、点Dg3から点Dr4までの距離L4とを計測する。そして、角度検出部502は、距離L3と距離L4とを比較し、距離L3の方が距離L4よりも短い場合には、距離L3に対応するエッジEr3の評価値に1を加算する。逆に、角度検出部502は、距離L4の方が距離L3よりも短い場合には、距離L4に対応するエッジEr4の評価値に1を加算する。なお、RS画像データに含まれる各エッジには評価値が設定され、その評価値の初期値は、例えば0である。 Specifically, the angle detection unit 502 searches the RS image data for the edge closest to each edge included in the GS image data. For example, when searching for the edge closest to edge Eg3 included in the GS image data, the angle detection unit 502 first identifies a point Dg3 where line n and edge Eg3 intersect. Further, the angle detection unit 502 identifies a point Dr3 where the line n intersects with an edge Er3 included in the RS image data. Further, the angle detection unit 502 specifies a point Dr4 where the line n intersects with an edge Er4 included in the RS image data. Next, the angle detection unit 502 measures a distance L3 from point Dg3 to point Dr3 and a distance L4 from point Dg3 to point Dr4. The angle detection unit 502 then compares the distance L3 and the distance L4, and if the distance L3 is shorter than the distance L4, adds 1 to the evaluation value of the edge Er3 corresponding to the distance L3. Conversely, if the distance L4 is shorter than the distance L3, the angle detection unit 502 adds 1 to the evaluation value of the edge Er4 corresponding to the distance L4. Note that an evaluation value is set for each edge included in the RS image data, and the initial value of the evaluation value is 0, for example.

角度検出部502は、そのラインnを、ラインnに垂直な方向に1画素ずつだけ移動さる。例えば、角度検出部502は、図10に示す矢印の向きにラインnを移動させる。そして、角度検出部502は、ラインnが1画素移動するごとに、上述の処理を繰り返すことによって、RS画像データに含まれる各エッジの評価値を更新する。そして、角度検出部502は、ラインnの移動に伴い、GS画像データのエッジEg3に含まれる全ての点に対して上述の処理が行われたときの、RS画像データに含まれる各エッジの評価値を比較する。つまり、角度検出部502は、RS画像データに含まれるエッジEr3の評価値と、エッジEr4の評価値とを比較する。その結果、角度検出部502は、評価値が最も高いエッジを選択し、その選択されたエッジと、GS画像データのエッジEg3とをペアリングする。図10に示す例の場合、角度検出部502は、RS画像データのエッジEr3を選択し、そのエッジEr3とエッジEg3とをペアリングする。 The angle detection unit 502 moves the line n by one pixel in a direction perpendicular to the line n. For example, the angle detection unit 502 moves the line n in the direction of the arrow shown in FIG. Then, the angle detection unit 502 updates the evaluation value of each edge included in the RS image data by repeating the above-described process every time the line n moves by one pixel. Then, the angle detection unit 502 evaluates each edge included in the RS image data when the above processing is performed on all points included in the edge Eg3 of the GS image data as the line n moves. Compare values. That is, the angle detection unit 502 compares the evaluation value of the edge Er3 and the evaluation value of the edge Er4 included in the RS image data. As a result, the angle detection unit 502 selects the edge with the highest evaluation value, and pairs the selected edge with edge Eg3 of the GS image data. In the example shown in FIG. 10, the angle detection unit 502 selects the edge Er3 of the RS image data and pairs the edge Er3 with the edge Eg3.

なお、図10に示す例では、RS画像データに含まれるエッジの数は2つであるが、3つ以上であっても、1つであってもよい。 Note that in the example shown in FIG. 10, the number of edges included in the RS image data is two, but it may be three or more or one.

また、GS画像データに映し出されている特徴部分Eの像であるエッジと、RS画像データに映し出されているその特徴部分Eの像であるエッジとが対応付けられれば、エッジのペアリングの手法は、図10に示す例に限られない。例えば、GS画像データのエッジと、RS画像データの各エッジとの相関値を算出し、最も高い相関値を有するエッジを、GS画像データのエッジとペアリングしてもよい。この場合、例えば、角度検出部502は、GS画像データおよびRS画像データのそれぞれの画像を複数のユニットに分割し、GS画像データの各ユニットと、GS画像データの各ユニットとの相関値を算出する。そして、角度検出部502は、GS画像データのエッジの一部を示すユニットごとに、RS画像データからそのユニットと最も相関値が高いユニットを特定する。これにより、GS画像データに含まれるそのエッジと、特定された幾つかのユニットによって示されるエッジとがペアリングされる。また、エッジのペアリングは、上述のように、ディープラーニングなどの機械学習によって行われてもよく、他の周知の技術を用いて行われてもよい。 Furthermore, if the edge that is the image of the characteristic portion E shown in the GS image data is associated with the edge that is the image of the characteristic portion E shown in the RS image data, the edge pairing method can be used. is not limited to the example shown in FIG. For example, a correlation value between an edge of GS image data and each edge of RS image data may be calculated, and an edge having the highest correlation value may be paired with an edge of GS image data. In this case, for example, the angle detection unit 502 divides each image of GS image data and RS image data into a plurality of units, and calculates a correlation value between each unit of GS image data and each unit of GS image data. do. Then, for each unit indicating a part of the edge of the GS image data, the angle detection unit 502 identifies a unit having the highest correlation value with that unit from the RS image data. As a result, the edge included in the GS image data is paired with the edges indicated by the identified several units. Furthermore, as described above, edge pairing may be performed by machine learning such as deep learning, or may be performed using other known techniques.

図11は、角度検出部502によるエッジ間の角度の検出を説明するための図である。なお、図11は、GS画像データとRS画像データとのそれぞれの画像を重ね合わせて、エッジ間の角度を分かり易く示した図である。 FIG. 11 is a diagram for explaining detection of an angle between edges by the angle detection unit 502. Note that FIG. 11 is a diagram in which the respective images of GS image data and RS image data are superimposed to clearly show the angle between the edges.

例えば、角度検出部502は、ペアリングされたエッジEg3とエッジEr3との間の角度θを検出する。図11に示す例では、エッジEg3は、ラインnに対して垂直な方向に沿って配置されている。この場合、角度検出部502は、エッジEg3とエッジEr3とが交わる点D3と、点Dg3と、点Dr3とをそれぞれ頂点として有する直角三角形を構成し、その直角三角形の角度θを算出する。つまり、角度検出部502は、直角三角形の直角をなす2つの辺の長さaおよび長さbを用い、θ=atan(a/b)によって、角度θを算出する。なお、長さaは、点Dg3から点Dr3までの距離であって、直角三角形の幅であり、長さbは、点Dg3から点D3までの距離であって、直角三角形の高さである。 For example, the angle detection unit 502 detects the angle θ between the paired edge Eg3 and edge Er3. In the example shown in FIG. 11, the edge Eg3 is arranged along the direction perpendicular to the line n. In this case, the angle detection unit 502 forms a right triangle having the points D3, Dg3, and Dr3 as vertices, where the edges Eg3 and Er3 intersect, respectively, and calculates the angle θ of the right triangle. That is, the angle detection unit 502 calculates the angle θ using the length a and the length b of the two right-angled sides of the right triangle, and θ=atan (a/b). Note that the length a is the distance from point Dg3 to point Dr3, which is the width of the right triangle, and the length b is the distance from point Dg3 to point D3, which is the height of the right triangle. .

なお、図10および図11に示す例では、ペアリングされた2つのエッジのそれぞれの一端は同じ位置にある。つまり、図11に示す例では、エッジEg3の一端とエッジEr3の一端とは共に点D3にある。しかし、これらの一端は離れた位置にあってもよい。この場合には、角度検出部502は、何れかのエッジを移動させて、2つのエッジのそれぞれの一端を同じ位置に配置し直し、図11に示す例と同様に、エッジ間の角度を検出してもよい。 Note that in the examples shown in FIGS. 10 and 11, one end of each of the two paired edges is at the same position. That is, in the example shown in FIG. 11, one end of edge Eg3 and one end of edge Er3 are both located at point D3. However, these ends may be located at separate locations. In this case, the angle detection unit 502 moves one of the edges, rearranges one end of each of the two edges at the same position, and detects the angle between the edges in the same manner as the example shown in FIG. You may.

ここで、エッジ間の角度θは、測距対象物までの距離だけでなく、車両1000の車速、すなわちカメラ部480の移動速度と、シャッタ制御部504によって設定されるシャッタパラメータとに応じて、異なる。また、角度θが例えば小さすぎる場合または大きすぎる場合には、その角度θに誤差が多く含まれる可能性がある。その結果、角度θに基づいて導出される測距対象物の距離にも誤差が多く含まれる可能性がある。そこで、シャッタ制御部504は、車速検出部600から出力される車速情報によって示される車速に基づいて、距離の導出に適した適正範囲に角度θが収まるように、シャッタパラメータを調整する。例えば、シャッタ制御部504は、その車速に基づいて、ローリングシャッタ動作に用いられるライン走査時間(すなわち、1Hまたは水平期間)を調整する。つまり、シャッタ制御部504は、車速が速いほど、ライン走査時間を短く調整し、車速が遅いほど、ライン走査時間を長く調整する。これにより、角度θを適正範囲に収めることができる。また、同時に行われる2種類のシャッタ動作が周期的に行われる場合に、車速が遅く、かつ、フレーム期間が短ければ、互いに類似する複数のGS画像データが取得され、同様に、互いに類似する複数のRS画像データが取得される可能性が高い。つまり、短い期間に多くの画像データが取得される一方で、それらから繰り返し導出される距離に有益な変化が生じ難い傾向がある。そのため、シャッタ制御部504は、車速が遅いほど、グローバルシャッタ動作およびローリングシャッタ動作のそれぞれのフレーム期間を長くしてもよい。 Here, the angle θ between the edges depends not only on the distance to the object to be measured, but also on the speed of the vehicle 1000, that is, the moving speed of the camera section 480, and the shutter parameter set by the shutter control section 504. different. Furthermore, if the angle θ is too small or too large, the angle θ may include many errors. As a result, the distance to the object to be measured based on the angle θ may also include many errors. Therefore, the shutter control unit 504 adjusts the shutter parameters based on the vehicle speed indicated by the vehicle speed information output from the vehicle speed detection unit 600 so that the angle θ falls within an appropriate range suitable for deriving the distance. For example, the shutter control unit 504 adjusts the line scanning time (ie, 1H or horizontal period) used for rolling shutter operation based on the vehicle speed. That is, the faster the vehicle speed is, the shutter control unit 504 adjusts the line scanning time to be shorter, and the slower the vehicle speed is, the shutter control unit 504 adjusts the line scanning time to be longer. Thereby, the angle θ can be kept within an appropriate range. Furthermore, when two types of shutter operations that are performed simultaneously are periodically performed, if the vehicle speed is slow and the frame period is short, multiple pieces of GS image data that are similar to each other will be acquired; RS image data is likely to be acquired. That is, while a large amount of image data is acquired in a short period of time, it is difficult for useful changes to occur in the distances repeatedly derived from the image data. Therefore, the shutter control unit 504 may lengthen each frame period of the global shutter operation and the rolling shutter operation as the vehicle speed is lower.

つまり、本実施の形態におけるシャッタ制御部504は、カメラ部480の移動速度に基づいて、カメラ部480のグローバルシャッタ動作およびローリングシャッタ動作の少なくとも一方を制御する。これにより、GS画像データおよびRS画像データの少なくとも一方に対する、カメラ部480の移動速度による影響を抑えることができる。その結果、例えば、カメラ部480の移動速度が速すぎても遅すぎても、検出される歪みの大きさを適正範囲に収めることができる。したがって、シャッタ制御部504による制御内容を示すシャッタパラメータと、適正範囲内の歪みの大きさとを用いることによって、測距の精度を高めることができる。 That is, shutter control section 504 in this embodiment controls at least one of the global shutter operation and rolling shutter operation of camera section 480 based on the moving speed of camera section 480. This makes it possible to suppress the influence of the moving speed of the camera unit 480 on at least one of the GS image data and the RS image data. As a result, for example, even if the moving speed of the camera section 480 is too fast or too slow, the magnitude of the detected distortion can be kept within an appropriate range. Therefore, by using the shutter parameter indicating the content of control by the shutter control unit 504 and the magnitude of distortion within an appropriate range, it is possible to improve the accuracy of distance measurement.

具体的には、シャッタ制御部504は、グローバルシャッタ動作を制御する場合には、フレーム期間を変更し、ローリングシャッタ動作を制御する場合には、フレーム期間および水平期間のうちの少なくとも1つを変更する。より具体的には、シャッタ制御部504は、グローバルシャッタ動作を制御する場合には、移動速度が遅いほど、フレーム期間を長い期間に変更し、ローリングシャッタ動作を制御する場合には、移動速度が遅いほど、フレーム期間および水平期間の少なくとも一方を長い期間に変更する。例えば、移動速度が第1閾値よりも速い場合には、フレーム期間および水平期間が短い期間に変更され、移動速度が第2閾値(<第1閾値)よりも遅い場合には、フレーム期間および水平期間が長い期間に変更される。 Specifically, the shutter control unit 504 changes the frame period when controlling the global shutter operation, and changes at least one of the frame period and the horizontal period when controlling the rolling shutter operation. do. More specifically, when controlling the global shutter operation, the shutter control unit 504 changes the frame period to a longer period as the movement speed is slower, and when controlling the rolling shutter operation, changes the frame period to a longer period as the movement speed becomes slower. The slower the time, the longer at least one of the frame period and the horizontal period is changed. For example, if the moving speed is faster than the first threshold, the frame period and horizontal period are changed to shorter periods, and if the moving speed is slower than the second threshold (<first threshold), the frame period and horizontal period are changed to shorter periods. The period is changed to a longer period.

上述のように、車速、すなわちカメラ部480の移動速度が速い場合には、歪みは大きくなり易く、逆に、カメラ部480の移動速度が遅い場合には、歪みは小さくなり易い。これに対して、本実施の形態における測距システム500および測距装置1では、カメラ部480の移動速度が遅いほど、例えば水平期間が長い期間に変更される。したがって、カメラ部の移動速度が遅い場合には、歪みが小さくなり過ぎることを抑えることができる。その結果、水平期間などのシャッタパラメータを用いれば、検出される歪みの大きさに含まれる誤差を抑えて、測距の精度を高めることができる。あるいは、本開示の一態様に係る測距システム500および測距装置1では、カメラ部480の移動速度が遅いほど、フレーム期間が長い期間に変更される。したがって、カメラ部480の移動速度が遅く、2種類のシャッタ動作が繰り返し実行される場合に、互いに類似する複数の第1データ、および互いに類似する複数の第2データが短い期間に出力されることを抑えることができる。これにより、データ量の削減、メモリの保存容量の削減、および、処理負担の軽減を図ることができる。 As described above, when the vehicle speed, that is, the moving speed of the camera section 480 is fast, the distortion tends to increase, and conversely, when the moving speed of the camera section 480 is slow, the distortion tends to become small. In contrast, in the ranging system 500 and the ranging device 1 according to the present embodiment, the slower the moving speed of the camera section 480, the longer the horizontal period is changed, for example. Therefore, when the moving speed of the camera unit is slow, distortion can be prevented from becoming too small. As a result, by using shutter parameters such as the horizontal period, it is possible to suppress errors included in the magnitude of detected distortion and improve the accuracy of distance measurement. Alternatively, in the ranging system 500 and the ranging device 1 according to one aspect of the present disclosure, the slower the moving speed of the camera unit 480, the longer the frame period is changed. Therefore, when the moving speed of the camera unit 480 is slow and two types of shutter operations are repeatedly performed, a plurality of first data that are similar to each other and a plurality of second data that are similar to each other are output in a short period of time. can be suppressed. This makes it possible to reduce the amount of data, reduce the memory storage capacity, and reduce the processing load.

[距離導出部の処理]
距離導出部503は、上述のように、テーブルを用いて測距対象物までの距離を導出する。
[Processing of distance derivation part]
As described above, the distance deriving unit 503 derives the distance to the object to be measured using the table.

図12は、距離導出部503に用いられるテーブルの一例を示す図である。 FIG. 12 is a diagram showing an example of a table used in the distance deriving unit 503.

テーブルT1は、例えば図12に示すように、角度、車速、およびシャッタパラメータの組み合わせごとに、その組み合わせに対応する距離を示す。角度は、エッジ間の角度であり、車速は、車両1000の速度である。シャッタパラメータは、カメラ部480の撮像に用いられるパラメータである。例えば、テーブルT1は、角度「θ01」、車速「v01」およびシャッタパラメータ「p01」の組み合わせに対して、距離「L01」を示す。また、テーブルT1は、角度「θ02」、車速「v02」およびシャッタパラメータ「p02」の組み合わせに対して、距離「L02」を示す。 For example, as shown in FIG. 12, table T1 shows, for each combination of angle, vehicle speed, and shutter parameter, the distance corresponding to that combination. The angle is the angle between the edges, and the vehicle speed is the speed of the vehicle 1000. The shutter parameters are parameters used for imaging by the camera unit 480. For example, table T1 indicates distance "L01" for a combination of angle "θ01", vehicle speed "v01", and shutter parameter "p01". Table T1 also shows distance "L02" for the combination of angle "θ02", vehicle speed "v02", and shutter parameter "p02".

距離導出部503は、このようなテーブルT1を参照することによって、測距対象物までの距離を導出する。具体的には、距離導出部503は、まず、角度検出部502によって検出された角度θと、車速検出部600から出力された車速情報によって示される車速vと、シャッタ制御部504によって設定されたシャッタパラメータpとを取得する。そして、距離導出部503は、テーブルT1を参照し、その角度θ、車速vおよびシャッタパラメータpの組み合わせに最も近い組み合わせを、テーブルT1から見つけ出す。例えば、距離導出部503は、その角度θ、車速vおよびシャッタパラメータpの組み合わせを、(θ,v,p)のベクトルとして扱い、テーブルT1に含まれる組み合わせも同様にベクトルとして扱う。そして、距離導出部503は、ベクトル(θ,v,p)とのベクトル間距離が最も近い組み合わせを、そのテーブルT1から見つけ出す。距離導出部503は、テーブルT1において、その見つけ出された組み合わせに関連付けられている距離を、カメラ部480から測距対象物までの距離として導出する。 The distance derivation unit 503 derives the distance to the object to be measured by referring to such table T1. Specifically, the distance derivation unit 503 first calculates the angle θ detected by the angle detection unit 502, the vehicle speed v indicated by the vehicle speed information output from the vehicle speed detection unit 600, and the angle θ set by the shutter control unit 504. The shutter parameter p is obtained. The distance deriving unit 503 then refers to the table T1 and finds from the table T1 the closest combination of angle θ, vehicle speed v, and shutter parameter p. For example, the distance deriving unit 503 treats the combination of the angle θ, the vehicle speed v, and the shutter parameter p as a vector of (θ, v, p), and similarly treats the combination included in the table T1 as a vector. Then, the distance deriving unit 503 finds a combination having the closest inter-vector distance to the vector (θ, v, p) from the table T1. The distance deriving unit 503 derives the distance associated with the found combination in the table T1 as the distance from the camera unit 480 to the object to be measured.

なお、シャッタ制御部504の制御によって、車速に対してシャッタパラメータが一意に決定される場合には、テーブルT1に示される組み合わせには、シャッタパラメータが含まれていなくてもよい。 Note that if the shutter parameter is uniquely determined for the vehicle speed under the control of the shutter control unit 504, the shutter parameter may not be included in the combinations shown in the table T1.

[処理動作の流れ]
図13は、測距システム500の処理動作の一例を示すフローチャートである。
[Processing flow]
FIG. 13 is a flowchart illustrating an example of the processing operation of the ranging system 500.

測距システム500のシャッタ制御部504は、車速検出部600から車速情報を取得する(ステップS1)。そして、シャッタ制御部504は、その車速情報によって示される車速に基づいて、カメラ部480に対してシャッタパラメータを設定する(ステップS2)。例えば、シャッタ制御部504は、車速が遅いほど、シャッタパラメータである1Hおよび1Vを長くし、逆に、車速が速いほど、シャッタパラメータである1Hおよび1Vを短くする。 The shutter control unit 504 of the ranging system 500 acquires vehicle speed information from the vehicle speed detection unit 600 (step S1). Then, the shutter control unit 504 sets shutter parameters for the camera unit 480 based on the vehicle speed indicated by the vehicle speed information (step S2). For example, the shutter control unit 504 lengthens the shutter parameters 1H and 1V as the vehicle speed is lower, and conversely shortens the shutter parameters 1H and 1V as the vehicle speed increases.

カメラ部480は、ステップS2で設定されたシャッタパラメータに基づいて撮像を行う。つまり、カメラ部480は、そのシャッタパラメータにしたがって、グローバルシャッタ動作(すなわちGS)と、ローリングシャッタ動作(すなわちRS)とを実行する。その結果、カメラ部480は、GS画像データとRS画像データとを取得し、それらの画像データを出力する(ステップS3)。 The camera unit 480 captures an image based on the shutter parameters set in step S2. That is, the camera unit 480 performs a global shutter operation (ie, GS) and a rolling shutter operation (ie, RS) according to the shutter parameters. As a result, the camera unit 480 acquires GS image data and RS image data and outputs these image data (step S3).

次に、直線検出部501は、ステップS3で出力されたGS画像データおよびRS画像データのそれぞれから、1以上のエッジを検出する(ステップS4)。つまり、直線検出部501は、1以上の直線状のエッジをGS画像データから検出し、1以上の直線状のエッジをRS画像データから検出する。そして、角度検出部502は、GS画像データに含まれる1つの特徴部分Eに対応するエッジと、RS画像データに含まれるその1つの特徴部分Eに対応するエッジとを対応付けることによって、エッジのペアを決定する(ステップS5)。GS画像データおよびRS画像データのそれぞれに、複数の特徴部分Eがエッジとして映し出されていれば、角度検出部502は、その複数の特徴部分Eのそれぞれについて、ペアを決定する。 Next, the straight line detection unit 501 detects one or more edges from each of the GS image data and RS image data output in step S3 (step S4). That is, the straight line detection unit 501 detects one or more straight edges from the GS image data, and one or more straight edges from the RS image data. The angle detection unit 502 then creates a pair of edges by associating an edge corresponding to one characteristic portion E included in the GS image data with an edge corresponding to that one characteristic portion E included in the RS image data. is determined (step S5). If a plurality of characteristic portions E are displayed as edges in each of the GS image data and the RS image data, the angle detection unit 502 determines a pair for each of the plurality of characteristic portions E.

次に、角度検出部502は、そのペアごとに、そのペアに含まれる2つのエッジの間の角度を検出する(ステップS6)。そして、距離導出部503は、ステップS6で検出された角度と、ステップS2で設定されたシャッタパラメータと、ステップS1で取得された車速情報によって示される車速とに基づいて、特徴部分Eの距離を導出する(ステップS7)。なお、シャッタパラメータが車速に関わらず固定にされている場合、あるいは、シャッタパラメータが車速から一意に決定される場合には、距離導出部503は、角度と車速とに基づいて、距離を導出する。 Next, for each pair, the angle detection unit 502 detects the angle between the two edges included in the pair (step S6). Then, the distance deriving unit 503 calculates the distance of the characteristic portion E based on the angle detected in step S6, the shutter parameter set in step S2, and the vehicle speed indicated by the vehicle speed information acquired in step S1. (Step S7). Note that when the shutter parameter is fixed regardless of the vehicle speed, or when the shutter parameter is uniquely determined from the vehicle speed, the distance derivation unit 503 derives the distance based on the angle and the vehicle speed. .

このように、本実施の形態では、グローバルシャッタ動作とローリングシャッタ動作とを行う1つのカメラ部480によって測距対象物までの距離が導出される。したがって、例えばステレオ画像を得るために複数のカメラを備える装置と場合と比べて、測距システム500の構成の簡略化を容易に図ることができる。また、2種類のシャッタ動作が同時に行われるため、ステレオ画像を得るために互いに異なるタイミングで複数回撮像が行われる場合と比べて、距離の導出にかかる時間を短縮することができ、測距の遅延を抑制することができる。さらに、測距の精度を高めることができる。 In this manner, in this embodiment, the distance to the object to be measured is derived by one camera unit 480 that performs a global shutter operation and a rolling shutter operation. Therefore, the configuration of the ranging system 500 can be easily simplified compared to, for example, a device equipped with a plurality of cameras to obtain stereo images. In addition, since two types of shutter operations are performed simultaneously, the time required to derive the distance can be shortened compared to the case where imaging is performed multiple times at different timings to obtain a stereo image. Delays can be suppressed. Furthermore, the accuracy of distance measurement can be improved.

(変形例1)
実施の形態1では、角度、車速、およびシャッタパラメータの組み合わせに応じて、測距対象物までの距離が導出される。本変形例では、角度、車速、およびシャッタパラメータだけでなく、画素位置も含めた組み合わせに応じて、測距対象物までの距離が導出される。この場合、画素位置も考慮して距離が導出されるため、カメラ部480のレンズの歪みの影響を抑えることができ、より正確な距離を導出することができる。なお、画素位置は、画素アレイPAに含まれる画素10の位置である。
(Modification 1)
In the first embodiment, the distance to the object to be ranged is derived according to the combination of angle, vehicle speed, and shutter parameter. In this modification, the distance to the object to be ranged is derived according to a combination including not only the angle, vehicle speed, and shutter parameter but also the pixel position. In this case, since the distance is derived in consideration of the pixel position, the influence of distortion of the lens of the camera unit 480 can be suppressed, and a more accurate distance can be derived. Note that the pixel position is the position of the pixel 10 included in the pixel array PA.

図14は、本変形例における角度検出部の構成と、距離導出部503、シャッタ制御部504、および車速検出部600との関係の一例を示す図である。 FIG. 14 is a diagram showing an example of the relationship between the configuration of the angle detection section, the distance derivation section 503, the shutter control section 504, and the vehicle speed detection section 600 in this modification.

本変形例に係る角度検出部502aは、ペアリング処理部521と、角度処理部522と、画素位置検出部523とを備える。 The angle detection section 502a according to this modification includes a pairing processing section 521, an angle processing section 522, and a pixel position detection section 523.

ペアリング処理部521は、上記実施の形態に係る角度検出部502の一部の処理を実行する。その一部の処理は、エッジのペアリングである。ペアリング処理部521は、2つのエッジをペアリングすると、ペアリングされたそれらのエッジからなるペアを示すペア情報を角度処理部522と画素位置検出部523に出力する。なお、ペア情報には、複数のペアが示されていてもよい。 The pairing processing section 521 executes some of the processing of the angle detection section 502 according to the above embodiment. Part of that process is edge pairing. When pairing two edges, the pairing processing unit 521 outputs pair information indicating a pair of the paired edges to the angle processing unit 522 and the pixel position detection unit 523. Note that the pair information may indicate a plurality of pairs.

角度処理部522は、上記実施の形態に係る角度検出部502の一部の処理を実行する。その一部の処理は、エッジ間の角度の検出である。つまり、角度処理部522は、ペアリング処理部521からペア情報を取得すると、そのペア情報によって示されるペアに含まれる2つのエッジ間の角度を検出する。そして、角度処理部522は、その角度を示す角度情報を距離導出部503に出力する。 The angle processing section 522 executes some of the processing of the angle detection section 502 according to the above embodiment. Part of the process is detecting angles between edges. That is, upon acquiring the pair information from the pairing processing unit 521, the angle processing unit 522 detects the angle between two edges included in the pair indicated by the pair information. Then, the angle processing unit 522 outputs angle information indicating the angle to the distance deriving unit 503.

画素位置検出部523は、ペアリング処理部521からペア情報を取得すると、そのペア情報によって示されるペアに含まれる2つのエッジのうち、例えば、RS画像データに含まれているエッジの中点にある画素位置を検出する。そして、画素位置検出部523は、その画素位置を示す情報を距離導出部503に出力する。なお、画素位置検出部523は、2つのエッジのうち、例えば、GS画像データに含まれているエッジの中点の画素位置を検出してもよい。あるいは、画素位置検出部523は、2つのエッジのそれぞれの中点を特定し、それらの中点を結ぶ線分の中点を、画素位置として検出してもよい。なお、画素位置は、GS画像データまたはRS画像データによって示される画像における画素、すなわち画素アレイPAの画素10の位置を示す。例えば、その画素位置は、座標空間における座標位置として表現され、その座標空間は、画像の左上端にある原点(すなわちX=0,Y=0)と、画像の水平方向に沿う軸であるX軸と、画像の垂直方向に沿う軸であるY軸とによって表現される。 When the pixel position detection unit 523 acquires the pair information from the pairing processing unit 521, the pixel position detection unit 523 detects, for example, the midpoint of the edge included in the RS image data among the two edges included in the pair indicated by the pair information. Detect a certain pixel position. Then, the pixel position detection unit 523 outputs information indicating the pixel position to the distance derivation unit 503. Note that the pixel position detection unit 523 may detect, for example, the pixel position of the midpoint of the edge included in the GS image data among the two edges. Alternatively, the pixel position detection unit 523 may specify the midpoint of each of the two edges, and detect the midpoint of a line segment connecting the midpoints as the pixel position. Note that the pixel position indicates the pixel in the image indicated by the GS image data or the RS image data, that is, the position of the pixel 10 of the pixel array PA. For example, the pixel position is expressed as a coordinate position in a coordinate space, which has an origin at the upper left corner of the image (i.e., X=0, Y=0), and an axis along the horizontal direction of the image, X and the Y-axis, which is an axis along the vertical direction of the image.

距離導出部503は、測距対象物までの距離を導出するために、テーブルを用いる。 The distance derivation unit 503 uses a table to derive the distance to the object to be measured.

図15は、本変形例における距離導出部503に用いられるテーブルの一例を示す図である。 FIG. 15 is a diagram showing an example of a table used in the distance deriving unit 503 in this modification.

本変形例に係るテーブルT2は、例えば図15に示すように、角度、車速、シャッタパラメータ、画素位置の組み合わせごとに、その組み合わせに対応する距離を示す。角度、車速およびシャッタパラメータは、実施の形態1の図12の例と同様である。 For example, as shown in FIG. 15, the table T2 according to this modification shows, for each combination of angle, vehicle speed, shutter parameter, and pixel position, the distance corresponding to that combination. The angle, vehicle speed, and shutter parameters are the same as in the example of FIG. 12 of the first embodiment.

例えば、テーブルT2は、角度「θ01」、車速「v01」、シャッタパラメータ「p01」および画素位置「x01,y01」の組み合わせに対して、距離「L01」を示す。また、テーブルT2は、角度「θ02」、車速「v02」、シャッタパラメータ「p02」および画素位置「x02,y02」の組み合わせに対して、距離「L02」を示す。 For example, table T2 indicates distance "L01" for a combination of angle "θ01", vehicle speed "v01", shutter parameter "p01", and pixel position "x01, y01". Table T2 also shows distance "L02" for the combination of angle "θ02", vehicle speed "v02", shutter parameter "p02", and pixel position "x02, y02".

距離導出部503は、このようなテーブルT2を参照することによって、測距対象物までの距離を導出する。具体的には、距離導出部503は、まず、角度検出部502によって検出された角度θと、車速検出部600から出力された車速情報によって示される車速vと、シャッタ制御部504によって設定されたシャッタパラメータpと、画素位置検出部523によって検出された画素位置dとを取得する。そして、距離導出部503は、テーブルT2を参照し、その角度θ、車速v、シャッタパラメータpおよび画素位置dの組み合わせに最も近い組み合わせを、テーブルT2から見つけ出す。例えば、距離導出部503は、その角度θ、車速v、シャッタパラメータpおよび画素位置dの組み合わせを、(θ,v,p,d)のベクトルとして扱い、テーブルT2に含まれる組み合わせも同様にベクトルとして扱う。そして、距離導出部503は、ベクトル(θ,v,p,d)とのベクトル間距離が最も近い組み合わせを、そのテーブルT2から見つけ出す。距離導出部503は、テーブルT2において、その見つけ出された組み合わせに関連付けられている距離を、カメラ部480から測距対象物までの距離として導出する。 The distance derivation unit 503 derives the distance to the object to be measured by referring to such table T2. Specifically, the distance derivation unit 503 first calculates the angle θ detected by the angle detection unit 502, the vehicle speed v indicated by the vehicle speed information output from the vehicle speed detection unit 600, and the angle θ set by the shutter control unit 504. The shutter parameter p and the pixel position d detected by the pixel position detection unit 523 are acquired. The distance deriving unit 503 then refers to the table T2 and finds from the table T2 the closest combination of angle θ, vehicle speed v, shutter parameter p, and pixel position d. For example, the distance deriving unit 503 treats the combination of angle θ, vehicle speed v, shutter parameter p, and pixel position d as a vector of (θ, v, p, d), and similarly the combinations included in table T2 are vectors. treated as Then, the distance deriving unit 503 finds a combination having the closest inter-vector distance to the vector (θ, v, p, d) from the table T2. The distance deriving unit 503 derives the distance associated with the found combination in the table T2 as the distance from the camera unit 480 to the object to be measured.

なお、上述の例では、画素位置を距離の導出に用いることによって、レンズの歪みの影響を抑えて適切な距離を導出することができる。これに対して、レンズの歪みの影響を事前に抑えていてもよい。つまり、レンズの歪みを考慮してエッジ間の角度を検出してもよい。この場合には、画素位置を距離の導出に直接用いることなく、レンズの歪みの影響を抑えて適切な距離を導出することができる。 Note that in the above example, by using the pixel position to derive the distance, it is possible to suppress the influence of lens distortion and derive an appropriate distance. On the other hand, the influence of lens distortion may be suppressed in advance. In other words, the angle between the edges may be detected by taking lens distortion into consideration. In this case, it is possible to suppress the influence of lens distortion and derive an appropriate distance without directly using the pixel position to derive the distance.

また、図12に示す例と同様、シャッタ制御部504の制御によって、車速に対してシャッタパラメータが一意に決定されている場合には、テーブルT2に示される組み合わせには、シャッタパラメータが含まれていなくてもよい。 Further, as in the example shown in FIG. 12, if the shutter parameters are uniquely determined for the vehicle speed by the control of the shutter control unit 504, the combinations shown in the table T2 do not include the shutter parameters. You don't have to.

(変形例2)
実施の形態1では、シャッタ制御部504は、車両1000の車速に基づいてシャッタパラメータを設定する。一方、本変形例に係るシャッタ制御部は、車速の代わりに、角度検出部502によって検出されたエッジ間の角度に基づいてシャッタパラメータを設定する。
(Modification 2)
In the first embodiment, shutter control unit 504 sets shutter parameters based on the vehicle speed of vehicle 1000. On the other hand, the shutter control unit according to this modification sets the shutter parameter based on the angle between the edges detected by the angle detection unit 502 instead of the vehicle speed.

図16は、本変形例に係る測距システムの構成の一例を示すブロック図である。 FIG. 16 is a block diagram showing an example of the configuration of a ranging system according to this modification.

本変形例に係る測距システム500aは、カメラ部480と、測距装置1aとを備える。測距装置1aは、歪み検出部510、距離導出部503、およびシャッタ制御部504aを備える。つまり、本変形例に係る測距システム500aは、実施の形態1に係る測距システム500のシャッタ制御部504の代わりに、シャッタ制御部504aを備える。 A distance measuring system 500a according to this modification includes a camera section 480 and a distance measuring device 1a. The distance measuring device 1a includes a distortion detection section 510, a distance derivation section 503, and a shutter control section 504a. That is, the distance measuring system 500a according to this modification includes a shutter control section 504a instead of the shutter control section 504 of the distance measuring system 500 according to the first embodiment.

シャッタ制御部504aは、車速検出部600から車速情報を取得することなく、歪み検出部510の角度検出部502から角度情報を取得する。そして、シャッタ制御部504aは、その角度情報によって示されるエッジ間の角度に基づいて、カメラ部480のシャッタパラメータを設定する。また、シャッタ制御部504aは、その設定されたシャッタパラメータを示すシャッタ情報を距離導出部503に出力する。 The shutter control unit 504a acquires angle information from the angle detection unit 502 of the distortion detection unit 510 without acquiring vehicle speed information from the vehicle speed detection unit 600. The shutter control unit 504a then sets the shutter parameters of the camera unit 480 based on the angle between the edges indicated by the angle information. Further, the shutter control unit 504a outputs shutter information indicating the set shutter parameters to the distance derivation unit 503.

図17は、エッジ間の角度とシャッタパラメータとの関係を説明するための図である。なお、図17の(a)および(b)は、GS画像データとRS画像データとのそれぞれの画像を重ね合わせて、エッジ間の角度を分かり易く示した図である。 FIG. 17 is a diagram for explaining the relationship between the angle between edges and the shutter parameter. Note that (a) and (b) of FIG. 17 are diagrams in which the respective images of GS image data and RS image data are superimposed to clearly show the angle between the edges.

例えば、車両1000の車速が速い場合、角度検出部502によって出力される角度情報は、図17の(a)に示すように大きな角度を示す傾向がある。つまり、GS画像データに含まれるエッジEgと、RS画像データに含まれるエッジErとの間の角度が、大きく表れる。このような場合、シャッタ制御部504aは、その角度情報に基づいて、シャッタパラメータによって示されるライン走査時間を短く設定する。 For example, when the vehicle speed of the vehicle 1000 is high, the angle information output by the angle detection unit 502 tends to indicate a large angle as shown in FIG. 17(a). In other words, the angle between the edge Eg included in the GS image data and the edge Er included in the RS image data appears large. In such a case, the shutter control unit 504a sets the line scanning time indicated by the shutter parameter to be shorter based on the angle information.

一方、車両1000の車速が遅い場合、角度検出部502によって出力される角度情報は、図17の(b)に示すように、小さい角度を示す傾向がある。つまり、GS画像データに含まれるエッジEgと、RS画像データに含まれるエッジErとの間の角度が、小さく表れる。このような場合、シャッタ制御部504aは、その角度情報に基づいて、シャッタパラメータによって示されるライン走査時間を長く設定する。 On the other hand, when the vehicle speed of vehicle 1000 is slow, the angle information output by angle detection section 502 tends to indicate a small angle, as shown in FIG. 17(b). In other words, the angle between the edge Eg included in the GS image data and the edge Er included in the RS image data appears small. In such a case, the shutter control unit 504a sets the line scanning time indicated by the shutter parameter to be longer based on the angle information.

具体的には、シャッタ制御部504aは、角度情報によって示される複数のエッジ間の角度のうちの最大の角度を特定する。そして、シャッタ制御部504aは、その最大の角度が第1閾値よりも大きい場合に、現状のライン走査時間をΔt時間だけ短く変更する。一方、シャッタ制御部504aは、その最大の角度が第2閾値よりも小さい場合に、現状のライン走査時間をΔt時間だけ長く変更する。なお、第2閾値は、第1閾値よりも小さい角度である。 Specifically, the shutter control unit 504a identifies the maximum angle among the angles between the plurality of edges indicated by the angle information. Then, when the maximum angle is larger than the first threshold value, the shutter control unit 504a shortens the current line scanning time by Δt time. On the other hand, if the maximum angle is smaller than the second threshold, the shutter control unit 504a changes the current line scanning time to be longer by Δt time. Note that the second threshold is a smaller angle than the first threshold.

例えば、小さいエッジ間の角度が検出される場合には、その検出される角度には比較的大きな誤差が含まれる場合がある。その結果、このような角度から導出される距離にも大きな誤差が含まれ得る。しかし、本変形例では、上述のようにシャッタパラメータが調整されることによって、距離の導出に用いられる角度を適正な範囲に保つことができるため、その角度から導出される距離の誤差の発生を抑制することができる。 For example, when a small angle between edges is detected, the detected angle may include a relatively large error. As a result, the distance derived from such an angle may also include a large error. However, in this modification, by adjusting the shutter parameters as described above, the angle used to derive the distance can be kept within an appropriate range, so errors in the distance derived from that angle can be avoided. Can be suppressed.

このように、本変形例におけるシャッタ制御部504aは、車速の代わりに、歪み検出部510によって検出された歪みの大きさに基づいて、カメラ部480のグローバルシャッタ動作およびローリングシャッタ動作の少なくとも一方を制御する。これにより、2種類のシャッタ動作に応じて検出される歪みの大きさに基づいて、次に行われる2種類のシャッタ動作のうちの少なくとも一方が制御されるため、シャッタ制御部504aに対して適切なフィードバック制御を実行させることができる。その結果、例えば、検出される歪みの大きさを適正範囲に収めることができる。したがって、シャッタ制御部504aによる制御内容を示すシャッタパラメータと、適正範囲内の歪みの大きさとを用いることによって、測距の精度を高めることができる。言い換えれば、本変形例では、車速に応じてシャッタパラメータを設定する実施の形態1と同等の効果を奏することができる。 In this way, the shutter control unit 504a in this modification controls at least one of the global shutter operation and the rolling shutter operation of the camera unit 480 based on the magnitude of distortion detected by the distortion detection unit 510 instead of the vehicle speed. Control. As a result, at least one of the two types of shutter operations to be performed next is controlled based on the magnitude of distortion detected according to the two types of shutter operations, so that the shutter control unit 504a can It is possible to execute feedback control. As a result, for example, the magnitude of detected distortion can be kept within an appropriate range. Therefore, by using the shutter parameter indicating the content of control by the shutter control unit 504a and the magnitude of distortion within an appropriate range, it is possible to improve the accuracy of distance measurement. In other words, in this modification, it is possible to achieve the same effect as in the first embodiment, in which the shutter parameters are set according to the vehicle speed.

なお、本変形例では、歪み検出部510は、実施の形態1における角度検出部502を備えているが、変形例1の角度検出部502aを備えていてもよい。この場合には、距離導出部503は、図15に示すテーブルT2を用いて距離を導出する。 Note that in this modification, the distortion detection section 510 includes the angle detection section 502 in the first embodiment, but may also include the angle detection section 502a of the first modification. In this case, the distance derivation unit 503 derives the distance using table T2 shown in FIG. 15.

(変形例3)
実施の形態1では、カメラ部480は、1フレーム期間ごとに、GS画像データとRS画像データとを同時に取得する。一方、本変形例に係るカメラ部480は、取得されるGS画像データを間引く処理を実行する。
(Modification 3)
In the first embodiment, camera unit 480 simultaneously acquires GS image data and RS image data for each frame period. On the other hand, the camera unit 480 according to this modification executes a process of thinning out the acquired GS image data.

図18は、GS画像データおよびRS画像データのそれぞれが取得されるタイミングの一例を模式的に示す図である。 FIG. 18 is a diagram schematically showing an example of the timing at which each of GS image data and RS image data is acquired.

例えば、実施の形態1に係るカメラ部480は、図18の(a)に示すように、時刻t01、t02、およびt03のそれぞれでGS画像データおよびRS画像データを取得する。ここで、車両1000の車速が遅い場合には、連続して取得される複数のGS画像データに映し出されている像には、殆ど変化が見られない。そこで、本変形例に係るカメラ部480は、図18の(b)に示すように、時刻t01およびt03のそれぞれでGS画像データおよびRS画像データを取得し、時刻t02およびt04のそれぞれではRS画像データのみを取得する。このように、カメラ部480は、取得されるGS画像データを間引く。その結果、GS画像データのフレームレートは、RS画像データのフレームレートよりも低く設定される。例えば、シャッタ制御部504は、車両1000の車速が遅いほど、その間引かれるGS画像データの数、すなわち取得されないGS画像データの数を多くしてもよい。言い換えれば、シャッタ制御部504は、GS画像データのフレームレートを低くしてもよい。これにより、カメラ部480からのデータの出力に用いられる伝送帯域を低く抑えることができる。その結果、測距システムのコストの低減を図ることができる。なお、フレームレートが低いほど、フレーム期間は長く、GS画像データが順次出力される時間間隔は長い。 For example, the camera unit 480 according to the first embodiment acquires GS image data and RS image data at times t01, t02, and t03, respectively, as shown in FIG. 18(a). Here, when the vehicle speed of vehicle 1000 is slow, almost no change is seen in the images displayed in the plurality of continuously acquired GS image data. Therefore, as shown in FIG. 18(b), the camera unit 480 according to this modification acquires GS image data and RS image data at times t01 and t03, and acquires RS image data at times t02 and t04, respectively. Get only the data. In this way, the camera unit 480 thins out the acquired GS image data. As a result, the frame rate of GS image data is set lower than the frame rate of RS image data. For example, the shutter control unit 504 may increase the number of GS image data to be thinned out, that is, the number of GS image data that is not acquired, as the speed of the vehicle 1000 is lower. In other words, the shutter control unit 504 may lower the frame rate of the GS image data. Thereby, the transmission band used for outputting data from the camera section 480 can be kept low. As a result, it is possible to reduce the cost of the ranging system. Note that the lower the frame rate is, the longer the frame period is, and the longer the time interval at which GS image data is sequentially output.

このように、本変形例におけるシャッタ制御部504は、グローバルシャッタ動作を制御する場合には、第1データが順次出力される時間間隔を制御する。具体的には、シャッタ制御部504は、グローバルシャッタ動作を制御する場合には、移動速度が遅いほど、その時間間隔を長くする。例えば、カメラ部480の移動速度が遅い場合に、GS画像データが短い周期で繰り返し出力されると、それらのGS画像データによって示される内容に差異が生じ難く、測距への貢献度が低い多くのデータがカメラ部480から出力される可能性がある。しかし、本変形例における測距システム500では、カメラ部480の移動速度が遅いほど、GS画像データが順次出力される時間間隔である周期が長く設定されるため、上述のような測距への貢献度の低いデータの出力を抑えることができる。その結果、データ量の削減、メモリの保存容量の削減、および、処理負担の軽減を図ることができる。なお、上述の時間間隔はフレーム期間に相当する。 In this manner, when controlling the global shutter operation, the shutter control unit 504 in this modification controls the time interval at which the first data is sequentially output. Specifically, when controlling the global shutter operation, the shutter control unit 504 makes the time interval longer as the movement speed is slower. For example, if the moving speed of the camera unit 480 is slow and GS image data is repeatedly output in a short cycle, it is difficult for differences to occur in the content shown by the GS image data, and the contribution to distance measurement is low. data may be output from the camera unit 480. However, in the ranging system 500 in this modified example, the slower the moving speed of the camera unit 480, the longer the period, which is the time interval at which GS image data is sequentially output, is set, so the above-mentioned distance measurement It is possible to suppress the output of data with low contribution. As a result, it is possible to reduce the amount of data, the memory storage capacity, and the processing load. Note that the above-mentioned time interval corresponds to a frame period.

(その他の変形例)
実施の形態1およびその変形例1~3では、グローバルシャッタ動作およびローリングシャッタ動作は同時に実行される。しかし、測距の精度が保たれ、かつ、遅延時間が所定範囲に収まるのであれば、それらのシャッタ動作が行われるタイミングは、ずれていてもよい。
(Other variations)
In Embodiment 1 and Modifications 1 to 3 thereof, the global shutter operation and the rolling shutter operation are executed simultaneously. However, as long as the accuracy of distance measurement is maintained and the delay time falls within a predetermined range, the timings at which these shutter operations are performed may be shifted.

また、実施の形態1およびその変形例1~3では、直線状のエッジが検出されるが、歪みの大きさが検出できれば、エッジの形状は直線状に限定されることなく、他の形状であってもよい。また、実施の形態1およびその変形例1~3では、エッジ間の角度が歪みの大きさとして検出されるが、その角度以外のパラメータが歪みの大きさの検出に用いられてもよい。 Furthermore, in Embodiment 1 and Modifications 1 to 3 thereof, straight edges are detected, but if the magnitude of distortion can be detected, the shape of the edge is not limited to a straight line, and other shapes can be used. There may be. Furthermore, in the first embodiment and its first to third variations, the angle between edges is detected as the magnitude of distortion, but a parameter other than the angle may be used to detect the magnitude of distortion.

また、実施の形態1およびその変形例1~3では、グローバルシャッタ動作およびローリングシャッタ動作のそれぞれの露光期間の長さが異なるが、それらの露光期間の長さは等しくてもよい。 Further, in Embodiment 1 and its modifications 1 to 3, the lengths of the exposure periods of the global shutter operation and the rolling shutter operation are different, but the lengths of these exposure periods may be equal.

また、実施の形態1およびその変形例1~3では、測距システム500,500aは車両1000に取り付けられているが、本開示の測距システムは、車両に限定されず、他の移動体または機器などに取り付けられてもよい。例えば、産業機器、ロボット、ドローンなどに搭載されてもよい。 Further, in Embodiment 1 and Modifications 1 to 3 thereof, the distance measurement systems 500 and 500a are attached to the vehicle 1000, but the distance measurement system of the present disclosure is not limited to a vehicle, and can be applied to other moving bodies or It may be attached to a device or the like. For example, it may be installed in industrial equipment, robots, drones, etc.

また、測距システム500,500aのカメラ部480は、距離の測定を行っていないときには、グローバルシャッタ動作およびローリングシャッタ動作の何れか一方のみを行うことによって撮像してもよい。例えば、カメラ部480は、車両1000が自動駐車を行う場合には、距離の測定のためにグローバルシャッタ動作およびローリングシャッタ動作を行い、通常走行を行う場合には、それらの動作のうちの何れか一方のみを行う。また、シャッタ制御部504は、車両1000のモードを判定し、その判定結果に基づいて、グローバルシャッタ動作およびローリングシャッタ動作を行うか、それらの動作のうちの何れか一方のみを行うかを切り替えてもよい。車両1000のモードは、自動駐車を行うモード(すなわち自動駐車モード)か、通常走行を行うモード(すなわち通常走行モード)である。この場合、シャッタ制御部504は、車両1000の運転手によってそのモードが自動駐車モードに切り換えられると、カメラ部480に対して、グローバルシャッタ動作およびローリングシャッタ動作を実行させる。あるいは、シャッタ制御部504は、車両1000のシフトレバーあるいはセレクトレバーによってリバースレンジが選択されると、カメラ部480に対して、グローバルシャッタ動作およびローリングシャッタ動作を実行させる。 Furthermore, when the camera unit 480 of the distance measuring system 500, 500a is not measuring distance, it may take an image by performing only one of the global shutter operation and the rolling shutter operation. For example, when the vehicle 1000 performs automatic parking, the camera unit 480 performs a global shutter operation and a rolling shutter operation to measure distance, and when the vehicle 1000 performs normal driving, it performs one of these operations. Do only one. Further, the shutter control unit 504 determines the mode of the vehicle 1000, and based on the determination result, switches whether to perform a global shutter operation, a rolling shutter operation, or only one of these operations. Good too. The mode of vehicle 1000 is a mode in which automatic parking is performed (that is, automatic parking mode) or a mode in which normal driving is performed (that is, normal driving mode). In this case, when the mode is switched to automatic parking mode by the driver of vehicle 1000, shutter control section 504 causes camera section 480 to perform a global shutter operation and a rolling shutter operation. Alternatively, when the reverse range is selected by the shift lever or select lever of vehicle 1000, shutter control section 504 causes camera section 480 to perform a global shutter operation and a rolling shutter operation.

また、カメラ部480がグローバルシャッタ動作およびローリングシャッタ動作のうちの一方のみを実行する場合には、カメラ部480は、状況に応じて、グローバルシャッタ動作およびローリングシャッタ動作のうちの一方を選択的に切り替えてもよい。例えば、車両1000の車速が速い場合いは、映し出される映像の歪みを抑えるために、カメラ部480は、グローバルシャッタ動作を行ってもよい。また、車両1000の周囲が所定の明るさよりも暗い場合、例えば、夜間などの場合には、カメラ部480は、ローリングシャッタ動作を行ってもよい、これにより、映し出される映像に生じるノイズを抑えることができる。 Further, when the camera unit 480 executes only one of the global shutter operation and the rolling shutter operation, the camera unit 480 selectively performs one of the global shutter operation and the rolling shutter operation depending on the situation. You may switch. For example, if the speed of vehicle 1000 is high, camera unit 480 may perform a global shutter operation to suppress distortion of the displayed image. Furthermore, when the surroundings of the vehicle 1000 are darker than a predetermined brightness, for example at night, the camera section 480 may perform a rolling shutter operation, thereby suppressing noise occurring in the displayed image. Can be done.

また、実施の形態1およびその変形例1~3におけるカメラ部480は、画像データを出力するイメージセンサであるが、イベントカメラであってもよい。イベントカメラは、イベントベースカメラ、またはイベントベース方式のセンサとも呼ばれ、画像データの代わりに、画素の位置および時間の情報の組み合わせをデータとして出力する。グローバルシャッタ動作およびローリングシャッタ動作の少なくとも一方の動作が、そのイベントカメラによって行われてもよい。 Furthermore, although the camera unit 480 in the first embodiment and its first to third variations is an image sensor that outputs image data, it may be an event camera. An event camera is also called an event-based camera or an event-based sensor, and outputs a combination of pixel position and time information as data instead of image data. At least one of a global shutter operation and a rolling shutter operation may be performed by the event camera.

(実施の形態2)
本実施の形態では、実施の形態1およびその変形例に係るカメラ部480に備えられている撮像装置100の具体的な態様の一例を、詳細に説明する。
(Embodiment 2)
In this embodiment, an example of a specific aspect of the imaging device 100 included in the camera section 480 according to the first embodiment and its modification will be described in detail.

[撮像装置の回路構成]
まず、実施の形態2に係る撮像装置の回路構成について、図19を用いて説明する。図19は、本実施の形態に係る撮像装置の例示的な回路構成を示す模式的な図である。
[Circuit configuration of imaging device]
First, the circuit configuration of the imaging device according to Embodiment 2 will be described using FIG. 19. FIG. 19 is a schematic diagram showing an exemplary circuit configuration of the imaging device according to this embodiment.

図19に示す撮像装置100は、行列状に配置された複数の単位画素セル10を含む画素アレイPAを有する。図19は、4つの単位画素セル10が2行2列のマトリクス状に配置された例を模式的に示している。言うまでもないが、撮像装置100における単位画素セル10の数および配置は、図19に示す例に限定されない。 The imaging device 100 shown in FIG. 19 has a pixel array PA including a plurality of unit pixel cells 10 arranged in a matrix. FIG. 19 schematically shows an example in which four unit pixel cells 10 are arranged in a matrix of 2 rows and 2 columns. Needless to say, the number and arrangement of unit pixel cells 10 in the imaging device 100 are not limited to the example shown in FIG. 19.

各単位画素セル10は、撮像装置100が備える画素の一例であり、光電変換部13および信号検出回路14を有する。後に図面を参照して説明するように、光電変換部13は、互いに対向する2つの電極の間に挟まれた光電変換層を有し、入射した光を受けて信号を生成する。光電変換部13は、その全体が、単位画素セル10毎に独立した素子である必要はなく、光電変換部13の例えば一部分が複数の単位画素セル10にまたがっていてもよい。光電変換部13の具体的な構造の詳細は、後述する。 Each unit pixel cell 10 is an example of a pixel included in the imaging device 100, and includes a photoelectric conversion section 13 and a signal detection circuit 14. As will be described later with reference to the drawings, the photoelectric conversion unit 13 has a photoelectric conversion layer sandwiched between two electrodes facing each other, and generates a signal by receiving incident light. The entire photoelectric conversion section 13 does not need to be an independent element for each unit pixel cell 10, and for example, a portion of the photoelectric conversion section 13 may span a plurality of unit pixel cells 10. Details of the specific structure of the photoelectric conversion section 13 will be described later.

信号検出回路14は、光電変換部13によって生成された信号を検出する回路である。この例では、信号検出回路14は、信号検出トランジスタ24およびアドレストランジスタ26を含んでいる。信号検出トランジスタ24およびアドレストランジスタ26は、典型的には、電界効果トランジスタ(FET)である。ここでは、信号検出トランジスタ24およびアドレストランジスタ26として、NチャネルMOSFET(Metal Oxide Semiconductor Field Effect Transistor)を例示する。 The signal detection circuit 14 is a circuit that detects the signal generated by the photoelectric conversion section 13. In this example, signal detection circuit 14 includes a signal detection transistor 24 and an address transistor 26. Signal detection transistor 24 and address transistor 26 are typically field effect transistors (FETs). Here, an N-channel MOSFET (Metal Oxide Semiconductor Field Effect Transistor) is illustrated as the signal detection transistor 24 and the address transistor 26.

図19において模式的に示すように、信号検出トランジスタ24の制御端子(ここではゲート)は、光電変換部13との電気的な接続を有する。光電変換部13によって生成される信号電荷(具体的には、正孔または電子)は、信号検出トランジスタ24のゲートと光電変換部13との間の電荷蓄積ノード41に蓄積される。電荷蓄積ノード41は、フローティングディフュージョンノードとも呼ばれる。 As schematically shown in FIG. 19, the control terminal (gate here) of the signal detection transistor 24 has an electrical connection with the photoelectric conversion section 13. Signal charges (specifically, holes or electrons) generated by the photoelectric conversion section 13 are accumulated in the charge storage node 41 between the gate of the signal detection transistor 24 and the photoelectric conversion section 13 . Charge storage node 41 is also called a floating diffusion node.

各単位画素セル10の光電変換部13は、さらに、感度制御線42との接続を有している。図19に例示する構成において、感度制御線42は、撮像装置100が備える電圧供給回路32に接続されている。 The photoelectric conversion section 13 of each unit pixel cell 10 further has a connection with a sensitivity control line 42. In the configuration illustrated in FIG. 19, the sensitivity control line 42 is connected to the voltage supply circuit 32 included in the imaging device 100.

電圧供給回路32は、撮像装置100の動作時、感度制御線42を介して光電変換部13に少なくとも2種類の電圧を行毎に個別に供給し得る。電圧供給回路32は、特定の電源回路に限定されず、所定の電圧を生成する回路であってもよく、あるいは、他の電源から供給された電圧を所定の電圧に変換する回路であってもよい。後に詳しく説明するように、予め定められた1以上の行において、電圧供給回路32から光電変換部13に供給される電圧が、互いに異なる複数の電圧の間で切り替えられることにより、光電変換部13からの電荷蓄積ノード41への信号電荷の蓄積の開始および終了が制御される。換言すれば、予め定められた1以上の行において、電圧供給回路32から光電変換部13に供給される電圧を切り替えることによって、露光期間と非露光期間との切り替えが実行される。なお、予め定められた1以上の行は、後述のグローバルシャッタ動作に用いられる行であり、他の1以上の行は、後述のローリングシャッタ動作に用いられる行である。電圧供給回路32は、上述の他の1以上の行のそれぞれに対しては、撮像装置100の動作時、2種類の電圧のうちの一方の電圧を継続的に供給する。撮像装置100の動作の例は、後述する。 The voltage supply circuit 32 can individually supply at least two types of voltages to the photoelectric conversion unit 13 for each row via the sensitivity control line 42 during operation of the imaging device 100. The voltage supply circuit 32 is not limited to a specific power supply circuit, and may be a circuit that generates a predetermined voltage, or a circuit that converts a voltage supplied from another power source into a predetermined voltage. good. As will be described in detail later, in one or more predetermined rows, the voltage supplied from the voltage supply circuit 32 to the photoelectric conversion unit 13 is switched between a plurality of different voltages, so that the photoelectric conversion unit 13 The start and end of accumulation of signal charges from the charge accumulation node 41 to the charge accumulation node 41 is controlled. In other words, switching between the exposure period and the non-exposure period is performed by switching the voltage supplied from the voltage supply circuit 32 to the photoelectric conversion unit 13 in one or more predetermined rows. Note that one or more predetermined rows are rows used for a global shutter operation described later, and one or more other rows are rows used for a rolling shutter operation described later. The voltage supply circuit 32 continuously supplies one of the two types of voltages to each of the other one or more rows described above during operation of the imaging device 100. An example of the operation of the imaging device 100 will be described later.

各単位画素セル10は、電源電圧VDDを供給する電源線40との接続を有する。図示するように、電源線40には、信号検出トランジスタ24の入力端子(例えばドレイン)が接続されている。電源線40がソースフォロア電源として機能することにより、信号検出トランジスタ24は、光電変換部13によって生成された信号を増幅して出力する。 Each unit pixel cell 10 has a connection with a power supply line 40 that supplies power supply voltage VDD. As shown in the figure, the input terminal (for example, the drain) of the signal detection transistor 24 is connected to the power supply line 40. Since the power supply line 40 functions as a source follower power supply, the signal detection transistor 24 amplifies and outputs the signal generated by the photoelectric conversion section 13.

信号検出トランジスタ24の出力端子(ここではソース)には、アドレストランジスタ26の入力端子(ここではドレイン)が接続されている。アドレストランジスタ26の出力端子(ここではソース)は、画素アレイPAの列毎に配置された複数の垂直信号線47のうちの1つに接続されている。アドレストランジスタ26の制御端子(ここではゲート)は、アドレス制御線46に接続されており、アドレス制御線46の電位を制御することにより、信号検出トランジスタ24の出力を、対応する垂直信号線47に選択的に読み出すことができる。 An input terminal (here, the drain) of the address transistor 26 is connected to an output terminal (here, the source) of the signal detection transistor 24 . The output terminal (source here) of the address transistor 26 is connected to one of a plurality of vertical signal lines 47 arranged for each column of the pixel array PA. The control terminal (gate here) of the address transistor 26 is connected to the address control line 46, and by controlling the potential of the address control line 46, the output of the signal detection transistor 24 is sent to the corresponding vertical signal line 47. It can be read out selectively.

図示する例では、アドレス制御線46は、垂直走査回路36に接続されている。垂直走査回路36は、行走査回路とも呼ばれる。垂直走査回路36は、アドレス制御線46に所定の電圧を印加することにより、各行に配置された複数の単位画素セル10を行単位で選択する。これにより、選択された単位画素セル10の信号の読み出しが実行される。 In the illustrated example, the address control line 46 is connected to the vertical scanning circuit 36. The vertical scanning circuit 36 is also called a row scanning circuit. The vertical scanning circuit 36 selects a plurality of unit pixel cells 10 arranged in each row on a row-by-row basis by applying a predetermined voltage to the address control line 46. As a result, the signal of the selected unit pixel cell 10 is read out.

垂直信号線47は、複数の単位画素セル10からの信号が入力される出力信号線の一例であり、画素アレイPAからの画素信号を周辺回路へ伝達する主信号線である。垂直信号線47には、カラム信号処理回路37が接続される。カラム信号処理回路37は、行信号蓄積回路とも呼ばれる。カラム信号処理回路37は、相関二重サンプリング(CDS)に代表される雑音抑圧信号処理およびアナログ-デジタル変換(AD変換)などを行う。図示するように、カラム信号処理回路37は、画素アレイPAにおける単位画素セル10の各列に対応して設けられる。 The vertical signal line 47 is an example of an output signal line into which signals from a plurality of unit pixel cells 10 are input, and is a main signal line that transmits pixel signals from the pixel array PA to peripheral circuits. A column signal processing circuit 37 is connected to the vertical signal line 47 . The column signal processing circuit 37 is also called a row signal accumulation circuit. The column signal processing circuit 37 performs noise suppression signal processing typified by correlated double sampling (CDS), analog-to-digital conversion (AD conversion), and the like. As illustrated, the column signal processing circuit 37 is provided corresponding to each column of unit pixel cells 10 in the pixel array PA.

これらのカラム信号処理回路37には、水平信号読み出し回路38が接続される。水平信号読み出し回路38は、列走査回路とも呼ばれる。水平信号読み出し回路38は、複数のカラム信号処理回路37から水平共通信号線49に信号を順次読み出す。 A horizontal signal readout circuit 38 is connected to these column signal processing circuits 37 . The horizontal signal readout circuit 38 is also called a column scanning circuit. The horizontal signal reading circuit 38 sequentially reads signals from the plurality of column signal processing circuits 37 to the horizontal common signal line 49.

図19に例示する構成において、単位画素セル10は、リセットトランジスタ28を有する。リセットトランジスタ28は、例えば、信号検出トランジスタ24およびアドレストランジスタ26と同様に、電界効果トランジスタであり得る。以下では、特に断りの無い限り、リセットトランジスタ28としてNチャネルMOSFETを適用した例を説明する。図示するように、リセットトランジスタ28は、リセット電圧Vrを供給するリセット電圧線44と、電荷蓄積ノード41との間に接続される。リセットトランジスタ28の制御端子(ここではゲート)は、リセット制御線48に接続されている。リセット制御線48の電位を制御することによって、電荷蓄積ノード41の電位をリセット電圧Vrにリセットすることができる。この例では、リセット制御線48が、垂直走査回路36に接続されている。したがって、垂直走査回路36がリセット制御線48に所定の電圧を印加することにより、各行に配置された複数の単位画素セル10を行単位でリセットすることが可能である。 In the configuration illustrated in FIG. 19, the unit pixel cell 10 has a reset transistor 28. Reset transistor 28, like signal detection transistor 24 and address transistor 26, can be a field effect transistor, for example. In the following, unless otherwise specified, an example in which an N-channel MOSFET is used as the reset transistor 28 will be described. As illustrated, reset transistor 28 is connected between charge storage node 41 and reset voltage line 44 that supplies reset voltage Vr. A control terminal (gate in this case) of the reset transistor 28 is connected to a reset control line 48 . By controlling the potential of the reset control line 48, the potential of the charge storage node 41 can be reset to the reset voltage Vr. In this example, reset control line 48 is connected to vertical scanning circuit 36. Therefore, by applying a predetermined voltage to the reset control line 48 by the vertical scanning circuit 36, it is possible to reset the plurality of unit pixel cells 10 arranged in each row row by row.

この例では、リセットトランジスタ28にリセット電圧Vrを供給するリセット電圧線44が、リセット電圧源34に接続されている。リセット電圧源34は、リセット電圧供給回路とも呼ばれる。リセット電圧源34は、撮像装置100の動作時にリセット電圧線44に所定のリセット電圧Vrを供給可能な構成を有していればよく、上述の電圧供給回路32と同様に、特定の電源回路に限定されない。電圧供給回路32およびリセット電圧源34の各々は、単一の電圧供給回路の一部分であってもよいし、独立した別個の電圧供給回路であってもよい。なお、電圧供給回路32およびリセット電圧源34の一方または両方が、垂直走査回路36の一部分であってもよい。あるいは、電圧供給回路32からの感度制御電圧および/またはリセット電圧源34からのリセット電圧Vrが、垂直走査回路36を介して各単位画素セル10に供給されてもよい。 In this example, a reset voltage line 44 that supplies reset voltage Vr to reset transistor 28 is connected to reset voltage source 34 . The reset voltage source 34 is also called a reset voltage supply circuit. The reset voltage source 34 only needs to have a configuration that can supply a predetermined reset voltage Vr to the reset voltage line 44 during operation of the imaging device 100, and similarly to the voltage supply circuit 32 described above, it can be used for a specific power supply circuit. Not limited. Each of voltage supply circuit 32 and reset voltage source 34 may be part of a single voltage supply circuit or may be independent and separate voltage supply circuits. Note that one or both of the voltage supply circuit 32 and the reset voltage source 34 may be part of the vertical scanning circuit 36. Alternatively, the sensitivity control voltage from the voltage supply circuit 32 and/or the reset voltage Vr from the reset voltage source 34 may be supplied to each unit pixel cell 10 via the vertical scanning circuit 36.

信号電荷として正孔を用いる場合には、リセット電圧Vrとして、信号検出回路14のグランドを用いることも可能である。この場合、各単位画素セル10にグランドを供給する電圧供給回路(図19において不図示)と、リセット電圧源34とを共通化し得る。また、電源線40とリセット電圧線44とを共通化できるので、画素アレイPAにおける配線を単純化し得る。ただし、リセット電圧Vrと信号検出回路14のグランドとに互いに異なる電圧を用いることは、撮像装置100のより柔軟な制御を可能にする。 When holes are used as signal charges, it is also possible to use the ground of the signal detection circuit 14 as the reset voltage Vr. In this case, the voltage supply circuit (not shown in FIG. 19) that supplies the ground to each unit pixel cell 10 and the reset voltage source 34 can be shared. Furthermore, since the power supply line 40 and the reset voltage line 44 can be shared, the wiring in the pixel array PA can be simplified. However, using different voltages for the reset voltage Vr and the ground of the signal detection circuit 14 enables more flexible control of the imaging device 100.

撮像装置100は、電圧供給回路32および垂直走査回路36を制御する制御回路39を備える。制御回路39は、電圧供給回路32および垂直走査回路36を制御することによって、1回の撮像で、画素アレイPAに対してグローバルシャッタ動作とローリングシャッタ動作とを同時に実行させる。つまり、制御回路39は、1回の撮像で、予め定められた1以上の行のそれぞれに含まれる単位画素セル10に対してグローバルシャッタ動作を実行させる。そのグローバルシャッタ動作が行われているときに、制御回路39は、他の1以上の行のそれぞれに含まれる単位画素セル10に対してローリングシャッタ動作を実行させる。 The imaging device 100 includes a control circuit 39 that controls the voltage supply circuit 32 and the vertical scanning circuit 36. The control circuit 39 controls the voltage supply circuit 32 and the vertical scanning circuit 36 to cause the pixel array PA to simultaneously perform a global shutter operation and a rolling shutter operation in one imaging operation. In other words, the control circuit 39 causes the unit pixel cells 10 included in each of one or more predetermined rows to perform a global shutter operation in one imaging operation. While the global shutter operation is being performed, the control circuit 39 causes the unit pixel cells 10 included in each of the other one or more rows to perform a rolling shutter operation.

[単位画素セルのデバイス構造]
次に、単位画素セル10のデバイス構造について、図20および図21を用いて説明する。
[Device structure of unit pixel cell]
Next, the device structure of the unit pixel cell 10 will be explained using FIGS. 20 and 21.

図20は、本実施の形態に係る撮像装置100の単位画素セル10の例示的なデバイス構造を示す模式的な断面図である。図21は、本実施の形態に係る撮像装置100の単位画素セル10と対向電極12との関係を示す模式的な平面図である。 FIG. 20 is a schematic cross-sectional view showing an exemplary device structure of the unit pixel cell 10 of the imaging device 100 according to the present embodiment. FIG. 21 is a schematic plan view showing the relationship between the unit pixel cell 10 and the counter electrode 12 of the imaging device 100 according to the present embodiment.

図20に例示する構成では、上述の信号検出トランジスタ24、アドレストランジスタ26およびリセットトランジスタ28が、半導体基板20に形成されている。半導体基板20は、その全体が半導体である基板に限定されない。半導体基板20は、感光領域が形成される側の表面に半導体層が設けられた絶縁性基板などであってもよい。ここでは、半導体基板20としてP型シリコン(Si)基板を用いる例を説明する。 In the configuration illustrated in FIG. 20, the above-described signal detection transistor 24, address transistor 26, and reset transistor 28 are formed on the semiconductor substrate 20. The semiconductor substrate 20 is not limited to a substrate whose entirety is a semiconductor. The semiconductor substrate 20 may be an insulating substrate provided with a semiconductor layer on the surface on which the photosensitive region is formed. Here, an example in which a P-type silicon (Si) substrate is used as the semiconductor substrate 20 will be described.

半導体基板20は、不純物領域(ここではN型領域)26s、24s、24d、28dおよび28sと、単位画素セル10間の電気的な分離のための素子分離領域20tとを有する。ここでは、素子分離領域20tは、不純物領域24dと不純物領域28dとの間にも設けられている。素子分離領域20tは、例えば所定の注入条件のもとでアクセプターのイオン注入を行うことによって形成される。 The semiconductor substrate 20 has impurity regions (here, N-type regions) 26s, 24s, 24d, 28d, and 28s, and an element isolation region 20t for electrical isolation between the unit pixel cells 10. Here, the element isolation region 20t is also provided between the impurity region 24d and the impurity region 28d. The element isolation region 20t is formed, for example, by implanting acceptor ions under predetermined implantation conditions.

不純物領域26s、24s、24d、28dおよび28sは、典型的には、半導体基板20内に形成された拡散層である。図20に模式的に示すように、信号検出トランジスタ24は、不純物領域24sおよび24dと、ゲート電極24gとを含む。ゲート電極24gは、例えばポリシリコン電極である。不純物領域24sは、信号検出トランジスタ24の例えばソース領域として機能する。不純物領域24dは、信号検出トランジスタ24の例えばドレイン領域として機能する。不純物領域24sと不純物領域24dとの間に、信号検出トランジスタ24のチャネル領域が形成される。 Impurity regions 26s, 24s, 24d, 28d, and 28s are typically diffusion layers formed within semiconductor substrate 20. As schematically shown in FIG. 20, signal detection transistor 24 includes impurity regions 24s and 24d and a gate electrode 24g. The gate electrode 24g is, for example, a polysilicon electrode. The impurity region 24s functions as, for example, a source region of the signal detection transistor 24. The impurity region 24d functions as, for example, a drain region of the signal detection transistor 24. A channel region of the signal detection transistor 24 is formed between the impurity region 24s and the impurity region 24d.

同様に、アドレストランジスタ26は、不純物領域26sおよび24sと、図19に示されるアドレス制御線46に接続されたゲート電極26gとを含む。ゲート電極26gは、例えばポリシリコン電極である。この例では、信号検出トランジスタ24およびアドレストランジスタ26は、不純物領域24sを共有することによって互いに電気的に接続されている。不純物領域26sは、アドレストランジスタ26の例えばソース領域として機能する。不純物領域26sは、図19に示される垂直信号線47との接続を有する。 Similarly, address transistor 26 includes impurity regions 26s and 24s and a gate electrode 26g connected to address control line 46 shown in FIG. 19. The gate electrode 26g is, for example, a polysilicon electrode. In this example, the signal detection transistor 24 and the address transistor 26 are electrically connected to each other by sharing an impurity region 24s. The impurity region 26s functions as, for example, a source region of the address transistor 26. Impurity region 26s has a connection with vertical signal line 47 shown in FIG.

リセットトランジスタ28は、不純物領域28dおよび28sと、図19に示されるリセット制御線48に接続されたゲート電極28gとを含む。ゲート電極28gは、例えばポリシリコン電極である。不純物領域28sは、リセットトランジスタ28の例えばソース領域として機能する。不純物領域28sは、図19に示されるリセット電圧線44との接続を有する。 Reset transistor 28 includes impurity regions 28d and 28s, and a gate electrode 28g connected to reset control line 48 shown in FIG. 19. The gate electrode 28g is, for example, a polysilicon electrode. The impurity region 28s functions as, for example, a source region of the reset transistor 28. Impurity region 28s has a connection with reset voltage line 44 shown in FIG. 19.

半導体基板20上には、信号検出トランジスタ24、アドレストランジスタ26およびリセットトランジスタ28を覆うように層間絶縁層50が配置されている。層間絶縁層50は、例えばシリコン酸化物、シリコン窒化物、オルトケイ酸テトラエチル(TEOS)などの絶縁材料を用いて形成されている。図20に示すように、層間絶縁層50中には、配線層56が配置され得る。配線層56は、典型的には、銅などの金属から形成され、例えば、上述の垂直信号線47などの配線をその一部に含み得る。層間絶縁層50中の絶縁層の層数、および、層間絶縁層50中に配置される配線層56に含まれる層数は、任意に設定可能であり、図20に示す例に限定されない。 An interlayer insulating layer 50 is arranged on the semiconductor substrate 20 so as to cover the signal detection transistor 24, address transistor 26, and reset transistor 28. The interlayer insulating layer 50 is formed using an insulating material such as silicon oxide, silicon nitride, or tetraethyl orthosilicate (TEOS). As shown in FIG. 20, a wiring layer 56 may be placed in the interlayer insulating layer 50. The wiring layer 56 is typically made of metal such as copper, and may include wiring such as the above-mentioned vertical signal line 47 as a part thereof, for example. The number of insulating layers in the interlayer insulating layer 50 and the number of layers included in the wiring layer 56 arranged in the interlayer insulating layer 50 can be set arbitrarily, and are not limited to the example shown in FIG. 20.

層間絶縁層50上には、上述の光電変換部13が配置される。別の言い方をすれば、本実施の形態では、画素アレイPAを構成する複数の単位画素セル10が、半導体基板20上に形成されている。半導体基板20上に2次元に配列された複数の単位画素セル10は、感光領域を形成する。感光領域は、画素領域とも呼ばれる。隣接する2つの単位画素セル10間の距離(すなわち、画素ピッチ)は、例えば2μm程度であり得る。 The above-described photoelectric conversion section 13 is arranged on the interlayer insulating layer 50. In other words, in this embodiment, a plurality of unit pixel cells 10 forming the pixel array PA are formed on the semiconductor substrate 20. A plurality of unit pixel cells 10 arranged two-dimensionally on the semiconductor substrate 20 form a photosensitive region. The photosensitive area is also called a pixel area. The distance between two adjacent unit pixel cells 10 (ie, pixel pitch) may be, for example, about 2 μm.

光電変換部13は、画素電極11と、対向電極12と、これらの間に配置された光電変換層15とを含む。この例では、対向電極12および光電変換層15は、複数の単位画素セル10にまたがって形成されている。 The photoelectric conversion unit 13 includes a pixel electrode 11, a counter electrode 12, and a photoelectric conversion layer 15 disposed between them. In this example, the counter electrode 12 and the photoelectric conversion layer 15 are formed across a plurality of unit pixel cells 10.

画素電極11は、単位画素セル10毎に設けられており、隣接する他の単位画素セル10の画素電極11と空間的に分離されることによって、他の単位画素セル10の画素電極11から電気的に分離されている。 The pixel electrode 11 is provided for each unit pixel cell 10, and is spatially separated from the pixel electrode 11 of the other adjacent unit pixel cell 10, so that it is electrically isolated from the pixel electrode 11 of the other unit pixel cell 10. are separated.

画素電極11の電位に対する対向電極12の電位を制御することにより、光電変換によって光電変換層15内に生じた正孔-電子対のうち、正孔および電子のいずれか一方を、画素電極11によって収集することができる。例えば信号電荷として正孔を利用する場合、画素電極11よりも対向電極12の電位を高くすることにより、画素電極11によって正孔を選択的に収集することが可能である。以下では、信号電荷として正孔を利用する場合を例示する。もちろん、信号電荷として電子を利用することも可能である。 By controlling the potential of the counter electrode 12 with respect to the potential of the pixel electrode 11, one of the holes and electrons among the hole-electron pairs generated in the photoelectric conversion layer 15 by photoelectric conversion is transferred by the pixel electrode 11. can be collected. For example, when holes are used as signal charges, holes can be selectively collected by the pixel electrode 11 by setting the potential of the counter electrode 12 higher than that of the pixel electrode 11. Below, a case where holes are used as signal charges will be exemplified. Of course, it is also possible to use electrons as signal charges.

対向電極12に対向する画素電極11は、対向電極12と画素電極11との間に適切なバイアス電圧が与えられることにより、光電変換層15において光電変換によって発生した正および負の電荷のうちの一方を収集する。画素電極11は、アルミニウム、銅などの金属、金属窒化物、または、不純物がドープされることにより導電性が付与されたポリシリコンなどから形成される。 By applying an appropriate bias voltage between the counter electrode 12 and the pixel electrode 11, the pixel electrode 11 facing the counter electrode 12 absorbs the positive and negative charges generated by photoelectric conversion in the photoelectric conversion layer 15. Collect one. The pixel electrode 11 is formed of a metal such as aluminum or copper, a metal nitride, or polysilicon doped with impurities to provide conductivity.

画素電極11は、遮光性の電極であってもよい。例えば、画素電極11として、厚さが100nmのTaN電極を形成することにより、十分な遮光性を実現し得る。画素電極11を遮光性の電極とすることにより、半導体基板20に形成されたトランジスタのチャネル領域または不純物領域への、光電変換層15を通過した光の入射を抑制し得る。なお、半導体基板20に形成されたトランジスタとは、例えば、信号検出トランジスタ24、アドレストランジスタ26およびリセットトランジスタ28の少なくともいずれかである。 The pixel electrode 11 may be a light-shielding electrode. For example, by forming a TaN electrode with a thickness of 100 nm as the pixel electrode 11, sufficient light shielding properties can be achieved. By making the pixel electrode 11 a light-shielding electrode, it is possible to suppress light that has passed through the photoelectric conversion layer 15 from entering the channel region or impurity region of the transistor formed in the semiconductor substrate 20. Note that the transistor formed on the semiconductor substrate 20 is, for example, at least one of the signal detection transistor 24, the address transistor 26, and the reset transistor 28.

上述の配線層56を利用して層間絶縁層50内に遮光膜を形成してもよい。半導体基板20に形成されたトランジスタのチャネル領域への光の入射を抑制することにより、トランジスタの特性のシフト、例えば閾値電圧の変動などを抑制し得る。また、半導体基板20に形成された不純物領域への光の入射を抑制することにより、不純物領域における意図しない光電変換によるノイズの混入を抑制し得る。このように、半導体基板20への光の入射の抑制は、撮像装置100の信頼性の向上に貢献する。 A light shielding film may be formed within the interlayer insulating layer 50 using the above-mentioned wiring layer 56. By suppressing the incidence of light into the channel region of the transistor formed in the semiconductor substrate 20, it is possible to suppress a shift in characteristics of the transistor, such as a change in threshold voltage. Further, by suppressing the incidence of light into the impurity region formed in the semiconductor substrate 20, it is possible to suppress the incorporation of noise due to unintended photoelectric conversion in the impurity region. In this way, suppressing the incidence of light onto the semiconductor substrate 20 contributes to improving the reliability of the imaging device 100.

図20に模式的に示すように、画素電極11は、プラグ52、配線53およびコンタクトプラグ54を介して、信号検出トランジスタ24のゲート電極24gに接続されている。言い換えれば、信号検出トランジスタ24のゲートは、画素電極11との電気的な接続を有する。プラグ52および配線53は、例えば銅などの金属から形成される。プラグ52、配線53およびコンタクトプラグ54は、信号検出トランジスタ24と光電変換部13との間の電荷蓄積ノード41(図19参照)の少なくとも一部を構成する。配線53は、配線層56の一部であり得る。また、画素電極11は、プラグ52、配線53およびコンタクトプラグ55を介して、不純物領域28dにも接続されている。図20に例示する構成において、信号検出トランジスタ24のゲート電極24g、プラグ52、配線53、コンタクトプラグ54および55、ならびに、リセットトランジスタ28のソース領域およびドレイン領域の一方である不純物領域28dは、画素電極11によって収集された信号電荷を蓄積する電荷蓄積領域として機能する。 As schematically shown in FIG. 20, the pixel electrode 11 is connected to the gate electrode 24g of the signal detection transistor 24 via a plug 52, a wiring 53, and a contact plug 54. In other words, the gate of the signal detection transistor 24 has an electrical connection with the pixel electrode 11. The plug 52 and the wiring 53 are made of metal such as copper. The plug 52, the wiring 53, and the contact plug 54 constitute at least a part of the charge storage node 41 (see FIG. 19) between the signal detection transistor 24 and the photoelectric conversion section 13. The wiring 53 may be part of the wiring layer 56. Furthermore, the pixel electrode 11 is also connected to the impurity region 28d via a plug 52, a wiring 53, and a contact plug 55. In the configuration illustrated in FIG. 20, the gate electrode 24g, the plug 52, the wiring 53, the contact plugs 54 and 55 of the signal detection transistor 24, and the impurity region 28d, which is one of the source region and the drain region of the reset transistor 28, are connected to the pixel. It functions as a charge accumulation region that accumulates signal charges collected by the electrode 11.

画素電極11によって信号電荷が収集されることにより、電荷蓄積領域に蓄積された信号電荷の量に応じた電圧が、信号検出トランジスタ24のゲートに印加される。信号検出トランジスタ24は、この電圧を増幅する。信号検出トランジスタ24によって増幅された電圧が、信号電圧としてアドレストランジスタ26を介して選択的に読み出される。 As signal charges are collected by the pixel electrode 11, a voltage corresponding to the amount of signal charges accumulated in the charge accumulation region is applied to the gate of the signal detection transistor 24. Signal detection transistor 24 amplifies this voltage. The voltage amplified by the signal detection transistor 24 is selectively read out as a signal voltage via the address transistor 26.

対向電極12は、典型的には、透明な導電性材料から形成される透明電極である。対向電極12は、光電変換層15において光が入射される側に配置される。したがって、光電変換層15には、対向電極12を透過した光が入射する。なお、撮像装置100によって検出される光は、可視光の波長範囲(例えば、380nm以上780nm以下)内の光に限定されない。本明細書における「透明」は、検出しようとする波長範囲の光の少なくとも一部を透過することを意味し、可視光の波長範囲全体にわたって光を透過することは必須ではない。本明細書では、赤外線および紫外線を含めた電磁波全般を、便宜上「光」と表現する。対向電極12には、例えば、ITO、IZO、AZO、FTO、SnO、TiO、ZnOなどの透明導電性酸化物(Transparent Conducting Oxide(TCO))を用いることができる。 The counter electrode 12 is typically a transparent electrode formed from a transparent conductive material. The counter electrode 12 is arranged on the side of the photoelectric conversion layer 15 on which light is incident. Therefore, the light that has passed through the counter electrode 12 is incident on the photoelectric conversion layer 15 . Note that the light detected by the imaging device 100 is not limited to light within the wavelength range of visible light (for example, 380 nm or more and 780 nm or less). "Transparent" in this specification means that at least a portion of the light in the wavelength range to be detected is transmitted, and it is not essential that the light be transmitted over the entire wavelength range of visible light. In this specification, all electromagnetic waves including infrared rays and ultraviolet rays are expressed as "light" for convenience. For the counter electrode 12, for example, transparent conductive oxide (TCO) such as ITO, IZO, AZO, FTO, SnO 2 , TiO 2 , ZnO 2 or the like can be used.

本実施の形態では、図21に示すように、対向電極12は、同じ画素ブロック10b内の複数の単位画素セル10間で連続し、異なる画素ブロック10b間で分離している。ここで、画素ブロック10bはそれぞれ、同じ1行に属する複数の単位画素セル10からなる。言い換えると、複数の単位画素セル10は、1行毎に複数の画素ブロック10bを構成している。 In this embodiment, as shown in FIG. 21, the counter electrodes 12 are continuous between a plurality of unit pixel cells 10 within the same pixel block 10b, and separated between different pixel blocks 10b. Here, each pixel block 10b is composed of a plurality of unit pixel cells 10 belonging to the same row. In other words, the plurality of unit pixel cells 10 constitute a plurality of pixel blocks 10b for each row.

対向電極12は、複数の画素ブロック10bと一対一に対応する複数の電極片12bを有する。複数の電極片12bは、行毎に設けられており、互いに分離している。各電極片12bは、行方向に長尺な長方形状を有する。例えば、電極片12bは、同じ1行に属する複数の単位画素セル10の各々の画素電極11を覆っている。隣り合う電極片12b間には、絶縁層が配置されていてもよい。 The counter electrode 12 has a plurality of electrode pieces 12b in one-to-one correspondence with the plurality of pixel blocks 10b. The plurality of electrode pieces 12b are provided for each row and are separated from each other. Each electrode piece 12b has a rectangular shape that is elongated in the row direction. For example, the electrode piece 12b covers each pixel electrode 11 of a plurality of unit pixel cells 10 belonging to the same row. An insulating layer may be arranged between adjacent electrode pieces 12b.

図19を参照して説明したように、対向電極12は、電圧供給回路32に接続された感度制御線42との接続を有する。感度制御線42は、電極片12b毎に設けられている。したがって、電極片12b毎に、対応する感度制御線42を介して、電圧供給回路32から所望の大きさの感度制御電圧を、対応する画素ブロック10bに属する複数の単位画素セル10の間に一括して印加することが可能である。 As described with reference to FIG. 19, the counter electrode 12 has a connection with the sensitivity control line 42 connected to the voltage supply circuit 32. The sensitivity control line 42 is provided for each electrode piece 12b. Therefore, for each electrode piece 12b, a desired magnitude of sensitivity control voltage is applied from the voltage supply circuit 32 via the corresponding sensitivity control line 42 to the plurality of unit pixel cells 10 belonging to the corresponding pixel block 10b. It is possible to apply the

後に詳しく説明するように、電圧供給回路32は、露光期間と非露光期間との間で互いに異なる電圧を対向電極12の各電極片12bに供給する。本明細書において、「露光期間」は、光電変換により生成される正および負の電荷の一方である信号電荷を電荷蓄積領域に蓄積するための期間を意味し、「電荷蓄積期間」と呼んでもよい。また、本明細書では、撮像装置の動作中であって露光期間以外の期間を「非露光期間」と呼ぶ。なお、「非露光期間」は、光電変換部13への光の入射が遮断されている期間に限定されず、光電変換部13に光が照射されている期間を含んでいてもよい。また「非露光期間」は、寄生感度の発生により意図せずに信号電荷が電荷蓄積領域に蓄積される期間を含む。 As will be described in detail later, the voltage supply circuit 32 supplies different voltages to each electrode piece 12b of the counter electrode 12 during the exposure period and the non-exposure period. In this specification, the "exposure period" refers to a period for accumulating signal charges, which are either positive or negative charges generated by photoelectric conversion, in a charge accumulation region, and may also be referred to as a "charge accumulation period." good. Furthermore, in this specification, a period during which the imaging device is in operation and other than the exposure period is referred to as a "non-exposure period." Note that the "non-exposure period" is not limited to a period in which light is blocked from entering the photoelectric conversion unit 13, but may include a period in which the photoelectric conversion unit 13 is irradiated with light. Furthermore, the "non-exposure period" includes a period in which signal charges are unintentionally accumulated in the charge accumulation region due to the occurrence of parasitic sensitivity.

光電変換層15は、画素電極11と対向電極12との間に位置し、光を信号電荷に変換する。具体的には、光電変換層15は、入射する光を受けて正孔-電子対を発生させる。発生した正孔および電子のいずれかが信号電荷である。 The photoelectric conversion layer 15 is located between the pixel electrode 11 and the counter electrode 12, and converts light into signal charges. Specifically, the photoelectric conversion layer 15 receives incident light and generates hole-electron pairs. Either the holes or electrons generated are signal charges.

光電変換層15は、例えば、有機材料から形成される。有機材料は、例えば、有機半導体材料である。有機半導体材料としては、例えば、近赤外領域に吸収波長を有するスズナフタロシアニンを含む材料を利用することができるが、これに限定されない。光電変換層15としては、所望の波長領域に吸収波長を有する1種類以上の光電変換材料を利用することができる。 The photoelectric conversion layer 15 is made of, for example, an organic material. The organic material is, for example, an organic semiconductor material. As the organic semiconductor material, for example, a material containing tinnaphthalocyanine having an absorption wavelength in the near-infrared region can be used, but the material is not limited thereto. As the photoelectric conversion layer 15, one or more types of photoelectric conversion materials having an absorption wavelength in a desired wavelength range can be used.

例えば、光電変換層15は、p型半導体層と、n型半導体層と、p型半導体層およびn型半導体層間に位置する混合層と、を含んでもよい。p型半導体層は、例えば、ドナー性有機半導体材料を用いて形成されている。n型半導体層は、例えば、アクセプター性有機半導体材料を用いて形成されている。混合層は、例えば、p型半導体およびn型半導体のバルクヘテロ接合構造層である。バルクヘテロ接合層は、例えば特許文献4(特許第5553727号公報)において詳細に説明されており、参考のため、特許文献4の開示内容を全て本明細書に援用する。 For example, the photoelectric conversion layer 15 may include a p-type semiconductor layer, an n-type semiconductor layer, and a mixed layer located between the p-type semiconductor layer and the n-type semiconductor layer. The p-type semiconductor layer is formed using, for example, a donor organic semiconductor material. The n-type semiconductor layer is formed using, for example, an acceptor organic semiconductor material. The mixed layer is, for example, a bulk heterojunction structure layer of a p-type semiconductor and an n-type semiconductor. The bulk heterojunction layer is described in detail in, for example, Patent Document 4 (Japanese Patent No. 5,553,727), and the disclosure content of Patent Document 4 is fully incorporated herein for reference.

また、光電変換層15は、光電変換材料を用いて形成された層以外の機能層を1層以上含んでもよい。例えば、光電変換層15は、機能層として、正孔ブロック層、電子ブロック層、正孔輸送層および電子輸送層の少なくとも1つを含んでもよい。 Further, the photoelectric conversion layer 15 may include one or more functional layers other than the layer formed using the photoelectric conversion material. For example, the photoelectric conversion layer 15 may include at least one of a hole blocking layer, an electron blocking layer, a hole transporting layer, and an electron transporting layer as a functional layer.

なお、光電変換層15は、対向電極12と同様に、所定の領域毎に分離して設けられていてもよい。例えば、光電変換層15は、単位画素セル10毎、または、電極片12b毎に分離して設けられていてもよい。 Note that, similarly to the counter electrode 12, the photoelectric conversion layer 15 may be provided separately for each predetermined region. For example, the photoelectric conversion layer 15 may be provided separately for each unit pixel cell 10 or for each electrode piece 12b.

[光電変換層における光電流特性]
続いて、光電変換層における光電流特性について、図22を用いて説明する。
[Photocurrent characteristics in photoelectric conversion layer]
Next, the photocurrent characteristics in the photoelectric conversion layer will be explained using FIG. 22.

図22は、本実施の形態に係る撮像装置100の光電変換層15の光電流特性の一例を示すグラフである。図22中、太い実線のグラフは、光が照射された状態における、光電変換層15の例示的な電流-電圧特性(I-V特性)を示している。なお、図22には、光が照射されていない状態におけるI-V特性の一例も、太い破線によってあわせて示されている。 FIG. 22 is a graph showing an example of the photocurrent characteristics of the photoelectric conversion layer 15 of the imaging device 100 according to the present embodiment. In FIG. 22, the thick solid line graph shows an exemplary current-voltage characteristic (IV characteristic) of the photoelectric conversion layer 15 in a state where it is irradiated with light. Note that in FIG. 22, an example of the IV characteristic in a state where no light is irradiated is also shown by a thick broken line.

図22は、一定の照度のもとで、光電変換層15の2つの主面の間に印加するバイアス電圧を変化させたときの主面間の電流密度の変化を示している。本明細書において、バイアス電圧における順方向および逆方向は、以下のように定義される。光電変換層15が、層状のp型半導体および層状のn型半導体の接合構造を有する場合には、n型半導体の層よりもp型半導体の層の電位が高くなるようなバイアス電圧を順方向のバイアス電圧と定義する。他方、n型半導体の層よりもp型半導体の層の電位が低くなるようなバイアス電圧を逆方向のバイアス電圧と定義する。 FIG. 22 shows changes in current density between the two main surfaces of the photoelectric conversion layer 15 when the bias voltage applied between the two main surfaces is changed under constant illuminance. In this specification, forward direction and reverse direction in bias voltage are defined as follows. When the photoelectric conversion layer 15 has a junction structure of a layered p-type semiconductor and a layered n-type semiconductor, a bias voltage is applied in the forward direction such that the potential of the p-type semiconductor layer is higher than that of the n-type semiconductor layer. is defined as the bias voltage of On the other hand, a bias voltage such that the potential of the p-type semiconductor layer is lower than that of the n-type semiconductor layer is defined as a reverse bias voltage.

有機半導体材料を用いた場合も、無機半導体材料を用いた場合と同様に、順方向および逆方向を定義することができる。光電変換層15がバルクヘテロ接合構造を有する場合、上述の特許文献4で示されるように、電極に対向する、バルクヘテロ接合構造の2つの主面のうちの一方の表面には、n型半導体よりもp型半導体が多く現れ、他方の表面には、p型半導体よりもn型半導体が多く現れる。したがって、n型半導体よりもp型半導体が多く現れた主面側の電位が、p型半導体よりもn型半導体が多く現れた主面側の電位よりも高くなるようなバイアス電圧を順方向のバイアス電圧と定義する。 Even when an organic semiconductor material is used, the forward direction and reverse direction can be defined in the same way as when an inorganic semiconductor material is used. When the photoelectric conversion layer 15 has a bulk heterojunction structure, as shown in the above-mentioned Patent Document 4, one of the two main surfaces of the bulk heterojunction structure facing the electrode has more than an n-type semiconductor. More p-type semiconductors appear on the other surface, and more n-type semiconductors than p-type semiconductors appear on the other surface. Therefore, the bias voltage is set in the forward direction so that the potential on the main surface side where more p-type semiconductor appears than n-type semiconductor is higher than the potential on the main surface side where more n-type semiconductor appears than p-type semiconductor. Defined as bias voltage.

図22に示すように、光電変換層15の光電流特性は、概略的には、3つの電圧範囲によって特徴づけられる。第1電圧範囲は、逆バイアスの電圧範囲であって、逆方向バイアス電圧の増大に従って出力電流密度の絶対値が増大する電圧範囲である。第1電圧範囲は、光電変換層15の主面間に印加されるバイアス電圧の増大に従って光電流が増大する電圧範囲といってもよい。第2電圧範囲は、順バイアスの電圧範囲であって、順方向バイアス電圧の増大に従って出力電流密度が増大する電圧範囲である。つまり、第2電圧範囲は、光電変換層15の主面間に印加されるバイアス電圧の増大に従って順方向電流が増大する電圧範囲である。第3電圧範囲は、第1電圧範囲と第2電圧範囲の間の電圧範囲である。 As shown in FIG. 22, the photocurrent characteristics of the photoelectric conversion layer 15 are roughly characterized by three voltage ranges. The first voltage range is a reverse bias voltage range, and is a voltage range in which the absolute value of the output current density increases as the reverse bias voltage increases. The first voltage range can be said to be a voltage range in which the photocurrent increases as the bias voltage applied between the main surfaces of the photoelectric conversion layer 15 increases. The second voltage range is a forward bias voltage range, and is a voltage range in which the output current density increases as the forward bias voltage increases. That is, the second voltage range is a voltage range in which the forward current increases as the bias voltage applied between the main surfaces of the photoelectric conversion layer 15 increases. The third voltage range is a voltage range between the first voltage range and the second voltage range.

第1電圧範囲、第2電圧範囲および第3電圧範囲は、リニアな縦軸および横軸を用いたときにおける光電流特性のグラフの傾きによって区別され得る。参考のため、図22では、第1電圧範囲および第2電圧範囲のそれぞれにおけるグラフの平均的な傾きを、それぞれ、破線L1および破線L2によって示している。図22に例示されるように、第1電圧範囲、第2電圧範囲および第3電圧範囲における、バイアス電圧の増加に対する出力電流密度の変化率は、互いに異なっている。第3電圧範囲は、バイアス電圧に対する出力電流密度の変化率が、第1電圧範囲における変化率および第2電圧範囲における変化率よりも小さい電圧範囲として定義される。あるいは、I-V特性を示すグラフにおける立ち上がり(立ち下がり)の位置に基づいて、第3電圧範囲が決定されてもよい。第3電圧範囲は、典型的には、-1Vよりも大きく、かつ、+1Vよりも小さい。第3電圧範囲では、バイアス電圧を変化させても、光電変換層15の主面間の電流密度は、ほとんど変化しない。図22に例示されるように、第3電圧範囲では、電流密度の絶対値は、典型的には100μA/cm以下である。 The first voltage range, the second voltage range, and the third voltage range can be distinguished by the slope of the graph of the photocurrent characteristics when linear vertical and horizontal axes are used. For reference, in FIG. 22, the average slope of the graph in each of the first voltage range and the second voltage range is shown by a broken line L1 and a broken line L2, respectively. As illustrated in FIG. 22, the rate of change in output current density with respect to increase in bias voltage in the first voltage range, second voltage range, and third voltage range is different from each other. The third voltage range is defined as a voltage range in which the rate of change of the output current density with respect to the bias voltage is smaller than the rate of change in the first voltage range and the rate of change in the second voltage range. Alternatively, the third voltage range may be determined based on the position of the rise (fall) in the graph showing the IV characteristic. The third voltage range is typically greater than -1V and less than +1V. In the third voltage range, even if the bias voltage is changed, the current density between the main surfaces of the photoelectric conversion layer 15 hardly changes. As illustrated in FIG. 22, in the third voltage range, the absolute value of the current density is typically 100 μA/cm 2 or less.

[電圧供給回路32の構成と撮像装置100の動作の例]
図23は、本実施の形態に係る撮像装置100の単位画素セル10と対向電極12との関係と、電圧供給回路32の構成の一例とを示す模式的な平面図である。
[Example of configuration of voltage supply circuit 32 and operation of imaging device 100]
FIG. 23 is a schematic plan view showing the relationship between the unit pixel cell 10 and the counter electrode 12 of the imaging device 100 according to the present embodiment, and an example of the configuration of the voltage supply circuit 32.

本実施の形態に係る撮像装置100は、図21に示すように、複数の画素ブロック10bを備える。ここで、その複数の画素ブロック10bは、図23に示すように、複数の第1画素ブロック10bgと、複数の第2画素ブロック10brとを含む。複数の第1画素ブロック10bgは、グローバルシャッタ動作に用いられ、上述の予め定められた1以上の行に相当する。複数の第2画素ブロック10brは、ローリングシャッタ動作に用いられ、上述の他の1以上の行に相当する。このような複数の第1画素ブロック10bgのそれぞれと、複数の第2画素ブロック10brのそれぞれとは、図23に示すように、交互に配置されている。つまり、隣り合う2つの第1画素ブロック10bgの間には1つの第2画素ブロック10brが配置され、隣り合う2つの第2画素ブロック10brの間には1つの第1画素ブロック10bgが配置されている。別の言い方をすれば、複数の画素ブロック10bの並び方向に沿って、偶数番目に第1画素ブロック10bgが配置され、奇数番目に第2画素ブロック10brが配置されている。 The imaging device 100 according to this embodiment includes a plurality of pixel blocks 10b, as shown in FIG. 21. Here, the plurality of pixel blocks 10b include, as shown in FIG. 23, a plurality of first pixel blocks 10bg and a plurality of second pixel blocks 10br. The plurality of first pixel blocks 10bg are used for global shutter operation and correspond to one or more predetermined rows described above. The plurality of second pixel blocks 10br are used for rolling shutter operation and correspond to the other one or more rows described above. Each of the plurality of first pixel blocks 10bg and each of the plurality of second pixel blocks 10br are arranged alternately, as shown in FIG. 23. That is, one second pixel block 10br is arranged between two adjacent first pixel blocks 10bg, and one first pixel block 10bg is arranged between two adjacent second pixel blocks 10br. There is. In other words, along the direction in which the plurality of pixel blocks 10b are arranged, the first pixel blocks 10bg are arranged in even numbers, and the second pixel blocks 10br are arranged in odd numbers.

電圧供給回路32は、グローバルシャッタ動作用の第1電圧供給回路32Gと、ローリングシャッタ動作用の第2電圧供給回路32Rとを備える。第1電圧供給回路32Gは、感度制御線42のうちの第1感度制御線42gを介して、複数の第1画素ブロック10bgのそれぞれの電極片12bに接続されている。言い換えれば、電圧供給回路32は、複数の第1画素ブロック10bgのそれぞれに対応する対向電極12に電気的に接続される。 The voltage supply circuit 32 includes a first voltage supply circuit 32G for global shutter operation and a second voltage supply circuit 32R for rolling shutter operation. The first voltage supply circuit 32G is connected to each electrode piece 12b of the plurality of first pixel blocks 10bg via a first sensitivity control line 42g of the sensitivity control lines 42. In other words, the voltage supply circuit 32 is electrically connected to the counter electrode 12 corresponding to each of the plurality of first pixel blocks 10bg.

このような第1電圧供給回路32Gは、制御回路39による制御に応じて、複数の第1画素ブロック10bgがグローバルシャッタ動作を行うように、それらの第1画素ブロック10bgに属する各単位画素セル10に電圧を供給する。言い換えれば、制御回路39は、複数の第1画素ブロック10bgのグローバルシャッタ動作を電圧供給回路32に行わせる。そのグローバルシャッタ動作は、複数の第1画素ブロック10bgのそれぞれに対して、対向電極12と画素電極11との間に第1電圧を同じタイミングで印加することにより露光期間を形成し、対向電極12と画素電極11との間に第2電圧を同じタイミングで印加することにより非露光期間を形成する動作である。第1電圧は、例えば、図22の第1電圧範囲に含まれる電圧である。第2電圧は、例えば、図22の第3電圧範囲に含まれる電圧である。したがって、複数の第1画素ブロック10bgのそれぞれでは、対向電極12と画素電極11との間に第1電圧が印加されているときには、信号電荷は光電変換層から画素電極に移動する。つまり、露光期間が形成される。また、対向電極12と画素電極11との間に第2電圧が印加されているときには、信号電荷の光電変換層15から画素電極11への移動が抑制される。つまり、非露光期間が形成される。 Such a first voltage supply circuit 32G controls each unit pixel cell 10 belonging to the plurality of first pixel blocks 10bg so that the plurality of first pixel blocks 10bg performs a global shutter operation according to the control by the control circuit 39. supply voltage to. In other words, the control circuit 39 causes the voltage supply circuit 32 to perform a global shutter operation for the plurality of first pixel blocks 10bg. In the global shutter operation, an exposure period is formed by applying a first voltage between the counter electrode 12 and the pixel electrode 11 at the same timing to each of the plurality of first pixel blocks 10bg, and This is an operation in which a non-exposure period is formed by applying a second voltage between the pixel electrode 11 and the pixel electrode 11 at the same timing. The first voltage is, for example, a voltage included in the first voltage range in FIG. 22. The second voltage is, for example, a voltage included in the third voltage range in FIG. 22. Therefore, in each of the plurality of first pixel blocks 10bg, when the first voltage is applied between the counter electrode 12 and the pixel electrode 11, signal charges move from the photoelectric conversion layer to the pixel electrode. In other words, an exposure period is formed. Furthermore, when the second voltage is applied between the counter electrode 12 and the pixel electrode 11, movement of signal charges from the photoelectric conversion layer 15 to the pixel electrode 11 is suppressed. In other words, a non-exposure period is formed.

第2電圧供給回路32Rは、感度制御線42のうちの第2感度制御線42rを介して、複数の第2画素ブロック10brのそれぞれの電極片12bに接続されている。言い換えれば、電圧供給回路32は、複数の第2画素ブロック10brのそれぞれに対応する対向電極12に電気的に接続される。このような第2電圧供給回路32Rは、複数の第2画素ブロック10brがローリングシャッタ動作を行うように、それらの第2画素ブロック10brに属する各単位画素セル10に電圧を供給する。例えば、第2電圧供給回路32Rは、複数の第2画素ブロック10brのそれぞれに対して、対向電極12と画素電極11との間に第1電圧を継続的に印加する。このような第1電圧が継続的に印加されている状態において、制御回路39は、例えば垂直走査回路36を制御することによって、複数の第2画素ブロック10brのそれぞれに対してローリングシャッタ動作を行わせる。 The second voltage supply circuit 32R is connected to each electrode piece 12b of the plurality of second pixel blocks 10br via a second sensitivity control line 42r of the sensitivity control lines 42. In other words, the voltage supply circuit 32 is electrically connected to the counter electrode 12 corresponding to each of the plurality of second pixel blocks 10br. Such a second voltage supply circuit 32R supplies a voltage to each unit pixel cell 10 belonging to the plurality of second pixel blocks 10br so that the plurality of second pixel blocks 10br perform a rolling shutter operation. For example, the second voltage supply circuit 32R continuously applies the first voltage between the opposing electrode 12 and the pixel electrode 11 to each of the plurality of second pixel blocks 10br. In a state where such a first voltage is continuously applied, the control circuit 39 performs a rolling shutter operation on each of the plurality of second pixel blocks 10br by controlling the vertical scanning circuit 36, for example. let

続いて、図19から図23を適宜参照しながら、撮像装置100における動作の一例について、図24を用いて説明する。簡単のため、以下の説明では、画素アレイPAに含まれる単位画素セル10の行数が合計8行である場合における動作の例を説明する。その合計8行は、それぞれ第1画素ブロック10bgに対応する第GS_0行から第GS_3行の計4行と、それぞれ第2画素ブロック10brに対応する第RS_0行から第RS_3行の計4行との総和である。なお、第GS_0行、第GS_1行、第GS_2行、および第GS_3行は、それぞれ偶数番目の行である。また、第RS_0行、第RS_1行、第RS_2行、および第RS_3行は、それぞれ奇数番目の行である。つまり、これらの行は、第RS_0行、第GS_0行、第RS_1行、第GS_1行、第RS_2行、第GS_2行、第RS_3行、第GS_3行の順に配列されている。 Next, an example of the operation of the imaging device 100 will be described using FIG. 24 while referring to FIGS. 19 to 23 as appropriate. For the sake of simplicity, in the following description, an example of the operation will be described when the total number of rows of unit pixel cells 10 included in the pixel array PA is 8 rows. The total 8 rows are 4 rows from GS_0 row to GS_3 row, each corresponding to the first pixel block 10bg, and 4 rows from RS_0 row to RS_3 row, each corresponding to the second pixel block 10br. It is the sum total. Note that the GS_0th row, the GS_1st row, the GS_2nd row, and the GS_3rd row are even-numbered rows. Furthermore, the RS_0th row, the RS_1st row, the RS_2nd row, and the RS_3rd row are odd-numbered rows, respectively. That is, these rows are arranged in the order of RS_0th row, GS_0th row, RS_1st row, GS_1st row, RS_2nd row, GS_2nd row, RS_3rd row, and GS_3rd row.

図24は、本実施の形態に係る撮像装置100における動作の一例を説明するための図である。図24は、同期信号の立ち下がりまたは立ち上がりのタイミングと、光電変換層15に印加されるバイアス電圧の大きさの時間的変化と、画素アレイPAの各行におけるリセットおよび露光のタイミングとを合わせて示している。 FIG. 24 is a diagram for explaining an example of the operation of the imaging device 100 according to this embodiment. FIG. 24 shows the falling or rising timing of the synchronization signal, the temporal change in the magnitude of the bias voltage applied to the photoelectric conversion layer 15, and the timing of reset and exposure in each row of the pixel array PA. ing.

より具体的には、図24中の一番上のグラフは、垂直同期信号Vssの立ち下がりまたは立ち上がりのタイミングを示す。上から2番目のグラフは、水平同期信号Hssの立ち下がりまたは立ち上がりのタイミングを示している。水平同期信号Hssのパルス間隔が、1Hで表される1水平期間である。垂直同期信号Vssのパルス間隔が、1Vで表される1垂直期間である。1垂直期間は、1フレーム期間に相当する。 More specifically, the top graph in FIG. 24 shows the timing of the fall or rise of the vertical synchronization signal Vss. The second graph from the top shows the timing of the fall or rise of the horizontal synchronization signal Hss. The pulse interval of the horizontal synchronization signal Hss is one horizontal period represented by 1H. The pulse interval of the vertical synchronization signal Vss is one vertical period expressed by 1V. One vertical period corresponds to one frame period.

これらのグラフの下においてITO_Rで表されるグラフは、第2感度制御線42rを介して第2電圧供給回路32Rから、各第2画素ブロック10brの電極片12bに印加されるバイアス電圧Vbの時間的変化の一例を示している。さらに、ITO_Gで表されるグラフは、第1感度制御線42gを介して第1電圧供給回路32Gから、各第1画素ブロック10bgの電極片12bに印加されるバイアス電圧Vbの時間的変化の一例を示している。ITO_Rは、第2画素ブロック10br毎に設けられた電極片12bとみなすことができる。ITO_Gは、第1画素ブロック10bg毎に設けられた電極片12bとみなすことができる。 The graph indicated by ITO_R below these graphs shows the time of the bias voltage Vb applied from the second voltage supply circuit 32R to the electrode piece 12b of each second pixel block 10br via the second sensitivity control line 42r. This shows an example of a change. Furthermore, the graph represented by ITO_G is an example of a temporal change in the bias voltage Vb applied from the first voltage supply circuit 32G to the electrode piece 12b of each first pixel block 10bg via the first sensitivity control line 42g. It shows. ITO_R can be considered as an electrode piece 12b provided for each second pixel block 10br. ITO_G can be considered as an electrode piece 12b provided for each first pixel block 10bg.

さらにその下のGS_0からGS_3で表されるチャートは、画素アレイPAの各第1画素ブロック10bgにおけるリセットおよび露光のタイミングを模式的に示す。さらにその下のRS_0からRS_3で表されるチャートは、画素アレイPAの各第2画素ブロック10brにおけるリセットおよび露光のタイミングを模式的に示す。具体的には、GS_0からGS_3はそれぞれ、ITO_Gに対応する第1画素ブロック10bgに属する単位画素セル10の動作を表している。RS_0からRS_3はそれぞれ、ITO_Rに対応する第2画素ブロック10brに属する単位画素セル10の動作を表している。例えば、GS_0は、画素アレイPAの偶数番目の行である第GS_0行に属する複数の単位画素セル10の動作を示している。GS_1、GS_2およびGS_3についても、GS_0と同様、画素アレイPAの偶数番目の行である第GS_1行、第GS_2行および第GS_3行に属する複数の単位画素セル10の動作をそれぞれ示している。これらの行に属する複数の単位画素セル10の動作は、ITO_Gが示す電圧の変化によって制御される。RS_0は、画素アレイPAの奇数番目の行である第RS_0行に属する複数の単位画素セル10の動作を示している。RS_1、RS_2およびRS_3についても、RS_0と同様、画素アレイPAの奇数番目の行である第RS_1行、第RS_2行および第RS_3行に属する複数の単位画素セル10の動作をそれぞれ示している。これらの行に属する複数の単位画素セル10の動作は、ITO_Rが示す電圧によって制御される。 Further below, a chart represented by GS_0 to GS_3 schematically shows the timing of reset and exposure in each first pixel block 10bg of the pixel array PA. Further below, a chart represented by RS_0 to RS_3 schematically shows the timing of reset and exposure in each second pixel block 10br of the pixel array PA. Specifically, GS_0 to GS_3 each represent the operation of the unit pixel cell 10 belonging to the first pixel block 10bg corresponding to ITO_G. RS_0 to RS_3 each represent the operation of the unit pixel cell 10 belonging to the second pixel block 10br corresponding to ITO_R. For example, GS_0 indicates the operation of a plurality of unit pixel cells 10 belonging to the GS_0th row, which is an even numbered row of the pixel array PA. Similarly to GS_0, GS_1, GS_2, and GS_3 also show the operations of a plurality of unit pixel cells 10 belonging to the even-numbered rows of the pixel array PA, ie, the GS_1-th row, the GS_2-th row, and the GS_3-th row. The operations of the plurality of unit pixel cells 10 belonging to these rows are controlled by changes in the voltage indicated by ITO_G. RS_0 indicates the operation of a plurality of unit pixel cells 10 belonging to the RS_0th row, which is an odd-numbered row of the pixel array PA. Similarly to RS_0, RS_1, RS_2, and RS_3 also show the operations of the plurality of unit pixel cells 10 belonging to the odd-numbered rows of the pixel array PA, ie, the RS_1, RS_2, and RS_3 rows. The operations of the plurality of unit pixel cells 10 belonging to these rows are controlled by the voltage indicated by ITO_R.

GS_0からGS_3とRS_0からRS_3とで表される各チャートは、矩形の枠内の網掛けの有無および種類によって、動作の内容を表している。具体的には、網掛けの無い白塗りの矩形は、露光状態であることを表している。すなわち、白塗りの矩形が占める期間(以下、単に「白塗りの期間」と記載する)は、対応する行に属する単位画素セル10の露光期間である。斜線の網掛けが付された矩形、および、ドットの網掛けが付された矩形はいずれも、露光状態ではないことを表している。すなわち、斜線の網掛けが付された矩形、または、ドットの網掛けが付された矩形が占める期間は、対応する行に属する単位画素セル10の非露光期間である。このうち、ドットの網掛けが付された矩形が占める期間(以下、単に「ドットの期間」と記載する)は、対応する行に属する単位画素セル10の信号読み出し、リセットおよびリセット読み出しを行う期間である。すなわち、ドットの期間は、信号読み出しを行う読み出し期間と、電荷蓄積領域のリセットおよびリセット後の読み出しを行うリセット期間、との合計期間である。 Each chart represented by GS_0 to GS_3 and RS_0 to RS_3 represents the content of the operation depending on the presence or absence and type of shading within the rectangular frame. Specifically, a white rectangle with no shading indicates an exposed state. That is, the period occupied by the white-painted rectangle (hereinafter simply referred to as "white-painted period") is the exposure period of the unit pixel cell 10 belonging to the corresponding row. A rectangle with diagonal hatching and a rectangle with dot hatching both indicate that they are not in an exposed state. That is, the period occupied by the rectangle with diagonal hatching or the rectangle with dot hatching is the non-exposure period of the unit pixel cell 10 belonging to the corresponding row. Of these, the period occupied by the rectangle shaded with dots (hereinafter simply referred to as "dot period") is the period during which signal readout, reset, and reset readout of the unit pixel cells 10 belonging to the corresponding row are performed. It is. In other words, the dot period is the total period of a readout period for reading signals and a reset period for resetting the charge storage region and reading after reset.

本実施の形態では、制御回路39は、電圧供給回路32および垂直走査回路36を制御することによって、1フレーム期間毎に、画素アレイPAに対してグローバルシャッタ動作とローリングシャッタ動作とを同時に実行させる。グローバルシャッタ動作では、第GS_0行から第GS_3行の各第1画素ブロック10bgにおいて、露光期間から非露光期間への切り替えのタイミングが同じであり、かつ、非露光期間から露光期間への切り替えのタイミングが同じである。他方、ローリングシャッタ動作では、第RS_0行から第RS_3行の各第2画素ブロック10brにおいて、露光期間から非露光期間への切り替えのタイミング、および、非露光期間から露光期間への切り替えのタイミングが異なる。 In this embodiment, the control circuit 39 controls the voltage supply circuit 32 and the vertical scanning circuit 36 to cause the pixel array PA to simultaneously perform a global shutter operation and a rolling shutter operation for each frame period. . In the global shutter operation, the timing of switching from the exposure period to the non-exposure period is the same in each of the first pixel blocks 10bg from the GS_0 row to the GS_3 row, and the timing of switching from the non-exposure period to the exposure period is the same. are the same. On the other hand, in the rolling shutter operation, the timing of switching from the exposure period to the non-exposure period and the timing of switching from the non-exposure period to the exposure period are different in each second pixel block 10br from the RS_0 row to the RS_3 row. .

具体的には、グローバルシャッタ動作では、第1電圧供給回路32Gは、第1電圧を各第1画素ブロック10bgの対向電極12に同時に印加することにより露光期間を形成する。第1電圧は、例えば、図22の第1電圧範囲に含まれる電圧である。また、第1電圧供給回路32Gは、第2電圧を第1画素ブロック10bgの対向電極12に同時に印加することにより非露光期間を形成する。第2電圧は、例えば、図22の第3電圧範囲に含まれる電圧である。 Specifically, in the global shutter operation, the first voltage supply circuit 32G forms an exposure period by simultaneously applying the first voltage to the counter electrode 12 of each first pixel block 10bg. The first voltage is, for example, a voltage included in the first voltage range in FIG. 22. Further, the first voltage supply circuit 32G forms a non-exposure period by simultaneously applying the second voltage to the opposing electrode 12 of the first pixel block 10bg. The second voltage is, for example, a voltage included in the third voltage range in FIG. 22.

他方、ローリングシャッタ動作では、第2電圧供給回路32Rは、1フレーム期間中、第1電圧を各第2画素ブロック10brの対向電極12に継続的に印加する。そして、垂直走査回路36による信号読み出し、リセット、およびリセット読み出しのための処理が行われることによって、露光期間と非露光期間とが形成される。また、垂直走査回路36は、その処理を第2画素ブロック10br毎に異なるタイミングで行う。その結果、各第2画素ブロック10brにおいて、露光期間から非露光期間への切り替えのタイミング、および、非露光期間から露光期間への切り替えのタイミングが異なる。 On the other hand, in the rolling shutter operation, the second voltage supply circuit 32R continuously applies the first voltage to the opposing electrode 12 of each second pixel block 10br during one frame period. Then, the vertical scanning circuit 36 performs signal readout, reset, and reset readout processing, thereby forming an exposure period and a non-exposure period. Further, the vertical scanning circuit 36 performs the processing at different timings for each second pixel block 10br. As a result, in each second pixel block 10br, the timing of switching from the exposure period to the non-exposure period and the timing of switching from the non-exposure period to the exposure period are different.

以下、第GS_0行から第GS_3行におけるグローバルシャッタ動作について、先に詳細に説明する。 Hereinafter, the global shutter operation in the GS_0th row to the GS_3th row will be described in detail first.

画像の取得においては、まず、画素アレイPA中の各第1画素ブロック10bgに含まれる各々の単位画素セル10の電荷蓄積領域のリセットが実行される。例えば、図24に示すように、垂直同期信号Vssに基づき、時刻t0で、第GS_0行に属する複数の単位画素セル10のリセットを開始する。なお、直前のフレームで露光が行われている場合には、リセットの前に画素信号の読み出しが行われ、リセットの後にもリセット後の信号(すなわち、リセット信号)の読み出しが行われる。 In acquiring an image, first, the charge storage region of each unit pixel cell 10 included in each first pixel block 10bg in the pixel array PA is reset. For example, as shown in FIG. 24, resetting of the plurality of unit pixel cells 10 belonging to the GS_0th row is started at time t0 based on the vertical synchronization signal Vss. Note that if exposure has been performed in the immediately previous frame, the pixel signal is read out before the reset, and the post-reset signal (that is, the reset signal) is read out after the reset as well.

第GS_0行に属する単位画素セル10のリセットにおいては、第GS_0行のアドレス制御線46の電位を制御することにより、そのアドレス制御線46にゲートが接続されているアドレストランジスタ26をオンする。さらに、第GS_0行のリセット制御線48の電位の制御により、そのリセット制御線48にゲートが接続されているリセットトランジスタ28をオンする。これにより、電荷蓄積ノード41とリセット電圧線44とが接続され、電荷蓄積領域にリセット電圧Vrが供給される。すなわち、信号検出トランジスタ24のゲート電極24gおよび光電変換部13の画素電極11の電位が、リセット電圧Vrにリセットされる。その後、垂直信号線47を介して、第GS_0行の単位画素セル10からリセット後の画素信号を読み出す。このときに得られる画素信号は、リセット電圧Vrの大きさに対応した画素信号である。画素信号の読み出し後、リセットトランジスタ28およびアドレストランジスタ26をオフとする。 In resetting the unit pixel cell 10 belonging to the GS_0th row, by controlling the potential of the address control line 46 of the GS_0th row, the address transistor 26 whose gate is connected to the address control line 46 is turned on. Furthermore, by controlling the potential of the reset control line 48 in the GS_0 row, the reset transistor 28 whose gate is connected to the reset control line 48 is turned on. Thereby, charge storage node 41 and reset voltage line 44 are connected, and reset voltage Vr is supplied to the charge storage region. That is, the potentials of the gate electrode 24g of the signal detection transistor 24 and the pixel electrode 11 of the photoelectric conversion section 13 are reset to the reset voltage Vr. Thereafter, the reset pixel signal is read out from the unit pixel cell 10 in the GS_0th row via the vertical signal line 47. The pixel signal obtained at this time is a pixel signal corresponding to the magnitude of the reset voltage Vr. After reading the pixel signal, the reset transistor 28 and address transistor 26 are turned off.

本実施の形態では、図24に模式的に示すように、水平同期信号Hssにあわせて、第GS_0行から第GS_3行の各行に属する画素のリセットを行単位で順次に実行する。以下では、水平同期信号Hssのパルスの間隔、換言すれば、ある行が選択されてから次の行が選択されるまでの期間を「1H期間」と呼ぶことがある。この例では、時刻t0から時刻t1までの期間が1H期間に相当する。 In this embodiment, as schematically shown in FIG. 24, pixels belonging to each row from the GS_0th row to the GS_3th row are sequentially reset row by row in accordance with the horizontal synchronization signal Hss. Hereinafter, the interval between pulses of the horizontal synchronizing signal Hss, in other words, the period from when a certain row is selected until when the next row is selected may be referred to as a "1H period." In this example, the period from time t0 to time t1 corresponds to the 1H period.

ここで、時刻t0から時刻t4の期間においては、画素電極11と対向電極12との間の電位差が上述の第3電圧範囲となるような電圧V3が、各第1画素ブロック10bgの対向電極12に印加されている。つまり、第1電圧供給回路32Gから、第GS_0行から第GS_3行の各行にある対向電極12の電極片12bにその電圧V3が印加されている。言い方を変えれば、時刻t0から露光期間の開始時刻t4までの期間において、光電変換部13の光電変換層15は、第3電圧範囲のバイアス電圧が印加された状態にある。 Here, in the period from time t0 to time t4, the voltage V3 such that the potential difference between the pixel electrode 11 and the counter electrode 12 falls within the above-mentioned third voltage range is applied to the counter electrode 12 of each first pixel block 10bg. is applied to. That is, the voltage V3 is applied from the first voltage supply circuit 32G to the electrode pieces 12b of the counter electrode 12 in each row from GS_0th row to GS_3th row. In other words, during the period from time t0 to start time t4 of the exposure period, the photoelectric conversion layer 15 of the photoelectric conversion unit 13 is in a state where a bias voltage in the third voltage range is applied.

光電変換層15に第3電圧範囲のバイアス電圧が印加された状態では、光電変換層15からの電荷蓄積領域への信号電荷の移動は、ほとんど起こらない。これは、光電変換層15に第3電圧範囲のバイアス電圧が印加された状態では、光の照射によって生じた正および負の電荷のほとんどが、速やかに再結合し、画素電極11によって収集される前に消滅してしまうためであると推測される。したがって、光電変換層15に第3電圧範囲のバイアス電圧が印加された状態では、光電変換層15に光が入射しても、電荷蓄積領域への信号電荷の蓄積は、ほとんど起こらない。そのため、露光期間以外の期間における、意図しない感度の発生が抑制される。なお、意図しない感度は、寄生感度とも呼ばれる。このように、光電変換層15へのバイアス電圧を第3電圧範囲とすることによって感度を速やかに0に落とし得る。バイアス電圧を第3電圧範囲とした状態では、画素電極11による信号電荷の収集が行われないので、露光していない状態と同じになる。バイアス電圧を第3電圧範囲としている期間は、図24に示すように、非露光期間となる。なお、第3電圧範囲のバイアス電圧を印加するための電圧V3は、一例として0Vであるが、0Vに限定されない。電圧V3は、第2電圧の一例であり、非露光期間を形成するための電圧である。 When a bias voltage in the third voltage range is applied to the photoelectric conversion layer 15, almost no signal charge moves from the photoelectric conversion layer 15 to the charge storage region. This is because when a bias voltage in the third voltage range is applied to the photoelectric conversion layer 15, most of the positive and negative charges generated by light irradiation are quickly recombined and collected by the pixel electrode 11. It is presumed that this is because it disappears before it disappears. Therefore, in a state where a bias voltage in the third voltage range is applied to the photoelectric conversion layer 15, even if light is incident on the photoelectric conversion layer 15, almost no signal charge is accumulated in the charge accumulation region. Therefore, occurrence of unintended sensitivity during periods other than the exposure period is suppressed. Note that unintended sensitivity is also called parasitic sensitivity. In this way, by setting the bias voltage to the photoelectric conversion layer 15 in the third voltage range, the sensitivity can be quickly reduced to 0. When the bias voltage is in the third voltage range, signal charges are not collected by the pixel electrode 11, so the state is the same as in no exposure. The period in which the bias voltage is in the third voltage range is a non-exposure period, as shown in FIG. Note that the voltage V3 for applying the bias voltage in the third voltage range is, for example, 0V, but is not limited to 0V. Voltage V3 is an example of a second voltage, and is a voltage for forming a non-exposure period.

第GS_0行から第GS_3行では、時刻t4に、ITO_Gに対応する電極片12bに印加される電圧が電圧V3と異なる電圧Veに切り替わることによって露光期間が開始される。露光期間は、電圧供給回路32が、対向電極12の電極片12bに印加する電圧を電圧V3とは異なる電圧Veに切り替えることによって開始される。電圧Veは、第1電圧の一例であり、露光期間を形成するための電圧である。電圧Veは、例えば、画素電極11と対向電極12との間の電位差が上述の第1電圧範囲となるような電圧である。電圧Veは、例えば10V程度である。対向電極12に電圧Veが印加されることにより、光電変換層15中の信号電荷(この例では正孔)が画素電極11によって収集され、電荷蓄積領域に蓄積される。つまり、信号電荷が電荷蓄積ノード41に蓄積される。 In the GS_0th row to the GS_3th row, an exposure period is started at time t4 when the voltage applied to the electrode piece 12b corresponding to ITO_G is switched to a voltage Ve different from the voltage V3. The exposure period is started by the voltage supply circuit 32 switching the voltage applied to the electrode piece 12b of the counter electrode 12 to a voltage Ve different from the voltage V3. The voltage Ve is an example of a first voltage, and is a voltage for forming an exposure period. The voltage Ve is, for example, a voltage such that the potential difference between the pixel electrode 11 and the counter electrode 12 falls within the above-described first voltage range. The voltage Ve is, for example, about 10V. By applying the voltage Ve to the counter electrode 12, signal charges (holes in this example) in the photoelectric conversion layer 15 are collected by the pixel electrode 11 and accumulated in the charge accumulation region. That is, signal charges are accumulated in the charge accumulation node 41.

第1電圧供給回路32Gが、ITO_Gに対応する電極片12bに印加する電圧を、時刻t8で再び電圧V3に切り替えることにより、露光期間が終了する。このように、本実施の形態における第GS_0行から第GS_3行では、対向電極12の電極片12bに印加する電圧が電圧V3と電圧Veとの間で切り替えられることによって、露光期間と非露光期間とが切り替えられる。また、図24から分かるように、本実施の形態では、第GS_0行から第GS_3行では、それぞれ互いに異なるタイミングでリセットが順次行われ、同じタイミングで露光期間と非露光期間とが切り替えられる。 The exposure period ends when the first voltage supply circuit 32G switches the voltage applied to the electrode piece 12b corresponding to ITO_G to the voltage V3 again at time t8. In this way, in the GS_0th row to GS_3th row in this embodiment, the voltage applied to the electrode piece 12b of the counter electrode 12 is switched between the voltage V3 and the voltage Ve, so that the exposure period and the non-exposure period are changed. can be switched. Furthermore, as can be seen from FIG. 24, in this embodiment, resets are sequentially performed at different timings in the GS_0th row to GS_3th row, and the exposure period and non-exposure period are switched at the same timing.

水平同期信号Hssに基づき、画素アレイPAの各行に属する単位画素セル10からの信号の読み出しを行う。この例では、時刻t8から、第GS_0行から第GS_3行の各行に属する単位画素セル10からの信号の読み出しが行単位で順次に実行されている。以下では、ある行に属する単位画素セル10が選択されてからその行に属する単位画素セル10が再び選択されるまでの期間を「1V期間」と呼ぶことがある。 Based on the horizontal synchronization signal Hss, signals from the unit pixel cells 10 belonging to each row of the pixel array PA are read out. In this example, from time t8, signals from the unit pixel cells 10 belonging to each of the rows GS_0 to GS_3 are sequentially read out row by row. Hereinafter, the period from when a unit pixel cell 10 belonging to a certain row is selected to when a unit pixel cell 10 belonging to that row is selected again may be referred to as a "1V period."

この例では、時刻t0から時刻t8までの期間が1V期間に相当する。露光期間の終了後における、第GS_0行に属する単位画素セル10からの信号の読み出しにおいては、第GS_0行のアドレストランジスタ26をオンする。これにより、露光期間において電荷蓄積領域に蓄積された電荷量に対応した画素信号が垂直信号線47に出力される。画素信号の読み出しに続けて、リセットトランジスタ28をオンして単位画素セル10のリセットを行う。リセット後に、リセットトランジスタ28を再びオフとする。そして、リセットトランジスタ28をオフとした後の信号(すなわち、リセット信号)を読み出す。リセット信号の読み出し後、アドレストランジスタ26をオフとする。画素アレイPAの各行に属する単位画素セル10からの画素信号とリセット信号との差分をとることにより、固定ノイズを除去した信号が得られる。 In this example, the period from time t0 to time t8 corresponds to a 1V period. When reading signals from the unit pixel cells 10 belonging to the GS_0th row after the exposure period ends, the address transistor 26 of the GS_0th row is turned on. As a result, a pixel signal corresponding to the amount of charge accumulated in the charge accumulation region during the exposure period is output to the vertical signal line 47. Following reading of the pixel signal, the reset transistor 28 is turned on to reset the unit pixel cell 10. After the reset, the reset transistor 28 is turned off again. Then, the signal after turning off the reset transistor 28 (ie, the reset signal) is read out. After reading the reset signal, the address transistor 26 is turned off. By taking the difference between the pixel signal from the unit pixel cell 10 belonging to each row of the pixel array PA and the reset signal, a signal from which fixed noise has been removed can be obtained.

このように、本実施の形態では、第GS_0から第GS_3行の対向電極12に印加する電圧が電圧V3と電圧Veとの間で切り替えられることによって、露光期間と非露光期間とが切り替えられる。図24から分かるように、第GS_0から第GS_3行における露光期間の開始および終了は、複数の第1画素ブロック10bgに含まれる全ての画素において同時に行われる。その結果、撮像装置100においてグローバルシャッタ動作が実行される。また、露光期間は、読み出し動作をしている期間を除いて、1H期間からほぼ1V期間(具体的には、1V-1Hの期間)にわたって自由に選択することができる。 In this manner, in this embodiment, the exposure period and the non-exposure period are switched by switching the voltage applied to the counter electrodes 12 in the GS_0 to GS_3 rows between the voltage V3 and the voltage Ve. As can be seen from FIG. 24, the start and end of the exposure period in rows GS_0 to GS_3 are performed simultaneously in all pixels included in the plurality of first pixel blocks 10bg. As a result, a global shutter operation is performed in the imaging device 100. Furthermore, the exposure period can be freely selected from a 1H period to approximately a 1V period (specifically, a period of 1V-1H), excluding the period during which a read operation is performed.

一方、第RS_0行から第RS_3行では、ローリングシャッタ動作が行われる。つまり、ITO_Rのグラフのように、第2電圧供給回路32Rは、第RS_0行から第RS_3行の各行における対向電極12に電圧Veを常時印加する。これにより、光電変換層15中の信号電荷(この例では正孔)が画素電極11によって収集され、電荷蓄積領域に蓄積される。つまり、信号電荷が電荷蓄積ノード41に蓄積される。この信号電荷の蓄積は、信号読み出し、リセットおよびリセット読み出しを除く期間において行われる。ローリングシャッタ動作では、このように信号電荷が蓄積される期間が露光期間であって、それ以外の期間、すなわち、信号読み出し、リセットおよびリセット読み出しが行われる期間が、非露光期間である。本実施の形態における第RS_0行から第RS_3行では、時刻t0から時刻t4にかけて、互いに異なるタイミングで非露光期間が開始されて終了される。具体的には、第RS_0行では、時刻t0から時刻t1にかけて非露光期間が形成され、その時刻t1から露光期間が開始される。第RS_1行では、第RS_0行と比べて1H期間遅れ、時刻t1から時刻t2にかけて非露光期間が形成され、その時刻t2から露光期間が開始される。同様に、第RS_2行では、第RS_1行と比べて1H期間遅れ、時刻t2から時刻t3にかけて非露光期間が形成され、その時刻t3から露光期間が開始される。第RS_3行では、第RS_2行と比べて1H期間遅れ、時刻t3から時刻t4にかけて非露光期間が形成され、その時刻t4から露光期間が開始される。このように、第RS_0行から第RS_3行において、露光期間および非露光期間が互いに異なるタイミングで行われる。すなわちローリングシャッタ動作が行われる。 On the other hand, a rolling shutter operation is performed in the RS_0th row to the RS_3th row. That is, as shown in the graph of ITO_R, the second voltage supply circuit 32R always applies the voltage Ve to the counter electrode 12 in each row from the RS_0th row to the RS_3th row. Thereby, signal charges (holes in this example) in the photoelectric conversion layer 15 are collected by the pixel electrode 11 and accumulated in the charge accumulation region. That is, signal charges are accumulated in the charge accumulation node 41. This signal charge accumulation is performed during periods excluding signal readout, reset, and reset readout. In the rolling shutter operation, the period during which signal charges are accumulated is the exposure period, and the other period, that is, the period during which signal readout, reset, and reset readout are performed, is the non-exposure period. In the RS_0th row to the RS_3th row in this embodiment, non-exposure periods start and end at mutually different timings from time t0 to time t4. Specifically, in the RS_0th row, a non-exposure period is formed from time t0 to time t1, and an exposure period starts from time t1. In the RS_1 row, a non-exposure period is formed from time t1 to time t2, delayed by 1H period compared to the RS_0 row, and the exposure period starts from time t2. Similarly, in the RS_2 row, a non-exposure period is formed from time t2 to time t3, delayed by 1H period compared to the RS_1 row, and the exposure period starts from time t3. In the RS_3 row, a non-exposure period is formed from time t3 to time t4, delayed by 1H period compared to the RS_2 row, and the exposure period starts from time t4. In this way, in the RS_0th row to the RS_3th row, the exposure period and the non-exposure period are performed at different timings. That is, a rolling shutter operation is performed.

このように、本実施の形態では、対向電極12を2つのグループに分割し、それぞれ独立に制御することによりローリングシャッタ動作に基づく画像と、グローバルシャッタ動作に基づく画像とを同時に取得することが可能である。また、複数の単位画素セル10のそれぞれは、画素電極11、対向電極12、光電変換層15、および電荷蓄積領域を備え、グローバルシャッタ動作のための専用の回路、ローリングシャッタ動作のための専用の回路などを備えていない。したがって、それらの単位画素セル10の構成を簡易化することができる。その結果、それぞれ簡易に構成された複数の単位画素セル10によって、シャッタ動作が異なる複数の画像を得ることができる。 In this way, in this embodiment, by dividing the counter electrode 12 into two groups and controlling each group independently, it is possible to simultaneously obtain an image based on the rolling shutter operation and an image based on the global shutter operation. It is. Furthermore, each of the plurality of unit pixel cells 10 includes a pixel electrode 11, a counter electrode 12, a photoelectric conversion layer 15, and a charge storage region, and also has a dedicated circuit for global shutter operation and a dedicated circuit for rolling shutter operation. It does not have any circuits etc. Therefore, the configuration of those unit pixel cells 10 can be simplified. As a result, a plurality of images with different shutter operations can be obtained using a plurality of simply configured unit pixel cells 10, respectively.

また、本実施の形態では、対向電極12は、複数の画素ブロック10bのうち、同じ画素ブロック10b内の複数の単位画素セル10間で連続し、異なる画素ブロック10b間で分離している。電圧供給回路32は、複数の第1画素ブロック10bgのそれぞれに対応する対向電極12に電気的に接続されている。これにより、電圧供給回路32は、複数の第1画素ブロック10bgのそれぞれについて、対向電極12の電位を切り替えることによって、その第1画素ブロック10bgに含まれる各単位画素セル10の対向電極12と画素電極11との間の電圧を第1電圧と第2電圧とに切り替えることができる。その結果、複数の第1画素ブロック10bgのそれぞれで行われる露光期間と非露光期間との切り換えのタイミングを、一致させ易くすることができる。 Further, in this embodiment, the counter electrode 12 is continuous between a plurality of unit pixel cells 10 in the same pixel block 10b among the plurality of pixel blocks 10b, and is separated between different pixel blocks 10b. The voltage supply circuit 32 is electrically connected to the counter electrode 12 corresponding to each of the plurality of first pixel blocks 10bg. Thereby, the voltage supply circuit 32 switches the potential of the counter electrode 12 for each of the plurality of first pixel blocks 10bg, so that the counter electrode 12 of each unit pixel cell 10 included in the first pixel block 10bg and the pixel The voltage between the electrode 11 can be switched between a first voltage and a second voltage. As a result, it is possible to easily match the timing of switching between the exposure period and the non-exposure period performed in each of the plurality of first pixel blocks 10bg.

また、本実施の形態では、複数の第1画素ブロック10bgのそれぞれでは、対向電極12と画素電極11との間に第1電圧が印加されているときには、信号電荷は光電変換層15から画素電極11に移動する。対向電極12と画素電極11との間に第2電圧が印加されているときには、信号電荷の光電変換層15から画素電極11への移動が抑制される。これにより、対向電極12と画素電極11との間に第1電圧が印加されているときには、露光期間が形成され、対向電極12と画素電極11との間に第2電圧が印加されているときには、非露光期間が形成される。したがって、対向電極12と画素電極11との間の電圧の切り替えによって、露光期間と非露光期間との切り替えを適切に行うことができる。 Further, in the present embodiment, in each of the plurality of first pixel blocks 10bg, when the first voltage is applied between the counter electrode 12 and the pixel electrode 11, signal charges are transferred from the photoelectric conversion layer 15 to the pixel electrode. Move to 11. When the second voltage is applied between the counter electrode 12 and the pixel electrode 11, movement of signal charges from the photoelectric conversion layer 15 to the pixel electrode 11 is suppressed. As a result, when the first voltage is applied between the counter electrode 12 and the pixel electrode 11, an exposure period is formed, and when the second voltage is applied between the counter electrode 12 and the pixel electrode 11, an exposure period is formed. , a non-exposure period is formed. Therefore, by switching the voltage between the counter electrode 12 and the pixel electrode 11, it is possible to appropriately switch between the exposure period and the non-exposure period.

また、本実施の形態では、複数の画素ブロック10bのそれぞれは、同じ1行に属する複数の単位画素セル10からなっている。これにより、行毎にシャッタ動作を独立して制御できる。さらに、グローバルシャッタ動作により得られる画像と、ローリングシャッタ動作により得られる画像とを、それぞれ行単位で構成することができ、高画質化を図ることができる。 Furthermore, in this embodiment, each of the plurality of pixel blocks 10b is made up of a plurality of unit pixel cells 10 belonging to the same one row. This allows the shutter operation to be controlled independently for each row. Furthermore, the image obtained by the global shutter operation and the image obtained by the rolling shutter operation can be configured on a line-by-line basis, and high image quality can be achieved.

また、本実施の形態では、複数の第1画素ブロック10bgのそれぞれと、複数の第2画素ブロック10brのそれぞれとは、交互に配置されていている。これにより、グローバルシャッタ動作により得られる画像と、ローリングシャッタ動作により得られる画像との位置ずれを抑えることができる。 Further, in this embodiment, each of the plurality of first pixel blocks 10bg and each of the plurality of second pixel blocks 10br are arranged alternately. Thereby, it is possible to suppress positional deviation between the image obtained by the global shutter operation and the image obtained by the rolling shutter operation.

なお、図24に示す例では、第GS_0行および第RS_0行のそれぞれのドットの期間は、同一であって、共に時刻t0から時刻t1までの期間である。同様に、第GS_1行および第RS_1行のそれぞれのドットの期間も、同一であって、共に時刻t1から時刻t2までの期間である。第GS_2行および第RS_2行のそれぞれのドットの期間も、同一であって、第GS_3行および第RS_3行のそれぞれのドットの期間も、同一である。つまり、1つの第1画素ブロック10bgに対応する行のドットの期間と、1つの第2画素ブロック10brに対応する行のドットの期間とは、同一である。 In the example shown in FIG. 24, the period of each dot in the GS_0th row and the RS_0th row is the same, and both are periods from time t0 to time t1. Similarly, the dot periods in the GS_1-th row and the RS_1-th row are also the same, and both are the period from time t1 to time t2. The period of each dot in the GS_2 row and the RS_2 row is also the same, and the period of each dot in the GS_3 row and the RS_3 row is also the same. In other words, the period of dots in a row corresponding to one first pixel block 10bg is the same as the period of dots in a row corresponding to one second pixel block 10br.

しかし、図19に示す撮像装置100の構成では、第1画素ブロック10bgと第2画素ブロック10brとでは、信号読み出し、リセットおよびリセット読み出しは、そのドットの期間の全てにわたって行われることはない。例えば、1つのドットの期間内で、第1画素ブロック10bgおよび第2画素ブロック10brのそれぞれに対する、信号読み出し、リセットおよびリセット読み出しが、シーケンシャルに行われてもよい。例えば、第1画素ブロック10bgに対する、信号読み出し、リセットおよびリセット読み出しが先に行われ、その後に、第2画素ブロック10brに対する、信号読み出し、リセットおよびリセット読み出しが行われてもよい。 However, in the configuration of the imaging device 100 shown in FIG. 19, signal readout, reset, and reset readout are not performed over the entire dot period in the first pixel block 10bg and the second pixel block 10br. For example, signal readout, reset, and reset readout may be performed sequentially for each of the first pixel block 10bg and the second pixel block 10br within one dot period. For example, signal readout, reset, and reset readout may be performed first on the first pixel block 10bg, and then signal readout, reset, and reset readout may be performed on the second pixel block 10br.

また、図19に示す撮像装置100では、画素アレイPAの列毎に、1つの垂直信号線47と1つのカラム信号処理回路37とが配置されているが、2つの垂直信号線47と2つのカラム信号処理回路37とが配置されていてもよい。この場合、2つの垂直信号線47のうちの一方と、2つのカラム信号処理回路37のうちの一方とは、第1画素ブロック10bgに用いられる。そして、2つの垂直信号線47のうちの他方と、2つのカラム信号処理回路37のうちの他方とは、第2画素ブロック10brに用いられる。したがって、この場合には、第1画素ブロック10bgに対する、信号読み出し、リセットおよびリセット読み出しと、第2画素ブロック10brに対する、信号読み出し、リセットおよびリセット読み出しとが、同時に行われてもよい。 Furthermore, in the imaging device 100 shown in FIG. 19, one vertical signal line 47 and one column signal processing circuit 37 are arranged for each column of the pixel array PA, but two vertical signal lines 47 and two A column signal processing circuit 37 may also be arranged. In this case, one of the two vertical signal lines 47 and one of the two column signal processing circuits 37 are used for the first pixel block 10bg. The other of the two vertical signal lines 47 and the other of the two column signal processing circuits 37 are used for the second pixel block 10br. Therefore, in this case, signal readout, reset, and reset readout for the first pixel block 10bg and signal readout, reset, and reset readout for the second pixel block 10br may be performed simultaneously.

また、本実施の形態におけるローリングシャッタ動作では、ドットの期間の終了時に露光期間が開始される。しかし、電子シャッタを用いることによって、ドットの期間の終了から所定の期間経過後に、露光期間が開始されてもよい。電子シャッタは、露光期間の開始時点を決めるリセット動作であって、上述のドットの期間において行われるリセットと同一の動作である。この電子シャッタを用いることによって、ローリングシャッタ動作が行われる各行の露光期間を調整することができる。その結果、グローバルシャッタ動作の露光期間の長さと、ローリングシャッタ動作の露光期間の長さとを容易に一致させることができる。 Furthermore, in the rolling shutter operation in this embodiment, the exposure period starts at the end of the dot period. However, by using an electronic shutter, the exposure period may be started after a predetermined period has elapsed from the end of the dot period. The electronic shutter is a reset operation that determines the start point of the exposure period, and is the same operation as the reset performed during the above-mentioned dot period. By using this electronic shutter, it is possible to adjust the exposure period of each row in which the rolling shutter operation is performed. As a result, the length of the exposure period for the global shutter operation and the length of the exposure period for the rolling shutter operation can be easily matched.

(その他の態様など)
以上、本開示の1つまたは複数の態様に係る測距システムなどについて、各実施の形態および各変形例に基づいて説明したが、本開示は、それらの実施の形態および変形例に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を上記実施の形態または変形例に施したものも本開示に含まれてもよい。また、複数の互いに異なる実施の形態または変形例における構成要素を組み合わせて構築される形態も本開示に含まれてもよい。
(Other aspects, etc.)
Although the ranging system and the like according to one or more aspects of the present disclosure have been described above based on each embodiment and each modification, the present disclosure is limited to those embodiments and modifications. It's not a thing. Unless departing from the spirit of the present disclosure, the present disclosure may include various modifications that occur to those skilled in the art to the above-described embodiments or modified examples. Further, the present disclosure may also include a configuration constructed by combining components in a plurality of mutually different embodiments or modifications.

なお、以下のような場合も本開示に含まれる。 Note that the following cases are also included in the present disclosure.

(1)上記の少なくとも1つの装置は、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。そのRAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、上記の少なくとも1つの装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。 (1) At least one of the above devices is specifically a computer system consisting of a microprocessor, ROM (Read Only Memory), RAM (Random Access Memory), hard disk unit, display unit, keyboard, mouse, etc. be. A computer program is stored in the RAM or hard disk unit. The at least one device described above achieves its functions by the microprocessor operating according to a computer program. Here, a computer program is configured by combining a plurality of instruction codes indicating instructions to a computer in order to achieve a predetermined function.

(2)上記の少なくとも1つの装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。 (2) A part or all of the components constituting at least one of the devices described above may be composed of one system LSI (Large Scale Integration). A system LSI is a super-multifunctional LSI manufactured by integrating multiple components onto a single chip, and specifically, it is a computer system that includes a microprocessor, ROM, RAM, etc. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to a computer program.

(3)上記の少なくとも1つの装置を構成する構成要素の一部または全部は、その装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。 (3) Some or all of the components constituting at least one of the devices described above may be comprised of an IC card or a single module that is detachable from the device. An IC card or module is a computer system composed of a microprocessor, ROM, RAM, etc. The IC card or module may include the above-mentioned super multifunctional LSI. An IC card or module achieves its functions by a microprocessor operating according to a computer program. This IC card or this module may be tamper resistant.

(4)本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、コンピュータプログラムからなるデジタル信号であるとしてもよい。 (4) The present disclosure may be the method described above. Furthermore, it may be a computer program that implements these methods using a computer, or it may be a digital signal formed from a computer program.

また、本開示は、コンピュータプログラムまたはデジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD(Compact Disc)-ROM、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されているデジタル信号であるとしてもよい。 Further, the present disclosure describes how to store a computer program or a digital signal in a computer-readable recording medium, such as a flexible disk, a hard disk, a CD (Compact Disc)-ROM, a DVD, a DVD-ROM, a DVD-RAM, and a BD (Blu-ray). (registered trademark) Disc), semiconductor memory, etc. Further, it may be a digital signal recorded on these recording media.

また、本開示は、コンピュータプログラムまたはデジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。 Further, the present disclosure may be applied to transmitting a computer program or a digital signal via a telecommunication line, a wireless or wired communication line, a network typified by the Internet, data broadcasting, or the like.

また、プログラムまたはデジタル信号を記録媒体に記録して移送することにより、またはプログラムまたはデジタル信号をネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。 Alternatively, the program or digital signal may be implemented by another independent computer system by recording the program or digital signal on a recording medium and transferring it, or by transferring the program or digital signal via a network or the like.

本開示は、例えば車両に搭載され、その車両の周囲の障害物までの距離を測定する装置またはシステムなどに適用することができる。 The present disclosure can be applied to, for example, a device or system that is mounted on a vehicle and measures the distance to obstacles around the vehicle.

1、1a 測距装置
10 画素(単位画素セル)
10b 画素ブロック
10bg 第1画素ブロック
10br 第2画素ブロック
11 画素電極
12 対向電極
12b 電極片
13 光電変換部
14 信号検出回路
15 光電変換層
20 半導体基板
20t 素子分離領域
24 信号検出トランジスタ
24d、24s、26s、28d、28s 不純物領域
24g、26g、28g ゲート電極
26 アドレストランジスタ
28 リセットトランジスタ
32 電圧供給回路
32G 第1電圧供給回路
32R 第2電圧供給回路
34 リセット電圧源
36 垂直走査回路
37 カラム信号処理回路
38 水平信号読み出し回路
39 制御回路
40 電源線
41 電荷蓄積ノード
42 感度制御線
42g 第1感度制御線
42r 第2感度制御線
44 リセット電圧線
46 アドレス制御線
47 垂直信号線
48 リセット制御線
49 水平共通信号線
50 層間絶縁層
52 プラグ
53 配線
54、55 コンタクトプラグ
56 配線層
100 撮像装置
410 光学系
430 画像形成回路
440 出力バッファ
480 カメラ部
500、500a 測距システム
501 直線検出部
502、502a 角度検出部
503 距離導出部
504、504a シャッタ制御部
510 歪み検出部
521 ペアリング処理部
522 角度処理部
523 画素位置検出部
600 車速検出部
1000、1001、1002 車両
1003 トラック
D3、Dg3、Dg4、Dr3、Dr4 点
E 特徴部分
Eg、Eg1、Eg2、Eg3、Eg4、Er、Er1、Er2、Er3、Er4 エッジ
T1、T2 テーブル
1, 1a Distance measuring device 10 pixel (unit pixel cell)
10b Pixel block 10bg First pixel block 10br Second pixel block 11 Pixel electrode 12 Opposing electrode 12b Electrode piece 13 Photoelectric conversion section 14 Signal detection circuit 15 Photoelectric conversion layer 20 Semiconductor substrate 20t Element isolation region 24 Signal detection transistor 24d, 24s, 26s , 28d, 28s Impurity regions 24g, 26g, 28g Gate electrode 26 Address transistor 28 Reset transistor 32 Voltage supply circuit 32G First voltage supply circuit 32R Second voltage supply circuit 34 Reset voltage source 36 Vertical scanning circuit 37 Column signal processing circuit 38 Horizontal Signal readout circuit 39 Control circuit 40 Power line 41 Charge storage node 42 Sensitivity control line 42g First sensitivity control line 42r Second sensitivity control line 44 Reset voltage line 46 Address control line 47 Vertical signal line 48 Reset control line 49 Horizontal common signal line 50 Interlayer insulating layer 52 Plug 53 Wiring 54, 55 Contact plug 56 Wiring layer 100 Imaging device 410 Optical system 430 Image forming circuit 440 Output buffer 480 Camera section 500, 500a Distance measuring system 501 Straight line detection section 502, 502a Angle detection section 503 Distance Derivation section 504, 504a Shutter control section 510 Distortion detection section 521 Pairing processing section 522 Angle processing section 523 Pixel position detection section 600 Vehicle speed detection section 1000, 1001, 1002 Vehicle 1003 Truck D3, Dg3, Dg4, Dr3, Dr4 Point E Features Part Eg, Eg1, Eg2, Eg3, Eg4, Er, Er1, Er2, Er3, Er4 Edge T1, T2 Table

Claims (18)

測距対象物に対してグローバルシャッタ動作とローリングシャッタ動作とを行うことによって、前記グローバルシャッタ動作に応じた第1データと、前記ローリングシャッタ動作に応じた第2データとを出力するカメラ部と、
測距装置とを備え、
前記測距装置は、
前記第1データによって示される前記測距対象物の形状に対する、前記第2データによって示される前記測距対象物の形状の歪みの大きさを検出する歪み検出部と、
前記カメラ部の移動速度を取得し、前記移動速度と、前記歪み検出部によって検出された前記歪みの大きさとに基づいて、前記カメラ部から前記測距対象物までの距離を導出する距離導出部とを備える、
測距システム。
a camera unit that outputs first data according to the global shutter operation and second data according to the rolling shutter operation by performing a global shutter operation and a rolling shutter operation on a distance measurement target;
Equipped with a distance measuring device,
The distance measuring device is
a distortion detection unit that detects the magnitude of distortion of the shape of the distance measurement target indicated by the second data with respect to the shape of the distance measurement target indicated by the first data;
a distance deriving unit that acquires a moving speed of the camera unit and derives a distance from the camera unit to the object to be measured based on the moving speed and the magnitude of the distortion detected by the distortion detecting unit; and
Ranging system.
前記カメラ部は、前記グローバルシャッタ動作と前記ローリングシャッタ動作とを同時に行う、
請求項1に記載の測距システム。
The camera unit simultaneously performs the global shutter operation and the rolling shutter operation.
The ranging system according to claim 1.
前記歪み検出部は、
前記第1データによって示される前記測距対象物の形状から、1以上の直線状の第1エッジを検出し、前記第2データによって示される前記測距対象物の形状から、1以上の直線状の第2エッジを検出する直線検出部と、
前記1以上の直線状の第1エッジのうちの何れか1つの第1エッジと、前記1以上の直線状の第2エッジのうちの何れか1つの第2エッジとを対応付け、対応付けられた前記第1エッジと前記第2エッジとの間の角度を、前記歪みの大きさとして検出する角度検出部とを備える、
請求項1に記載の測距システム。
The distortion detection section is
One or more linear first edges are detected from the shape of the object to be measured as indicated by the first data, and one or more linear first edges are detected from the shape of the object to be measured as shown in the second data. a straight line detection unit that detects a second edge of
any one first edge of the one or more linear first edges and any one second edge of the one or more linear second edges are associated, and an angle detection unit that detects an angle between the first edge and the second edge as the magnitude of the distortion;
The ranging system according to claim 1.
前記測距装置は、さらに、
前記移動速度に基づいて、前記カメラ部の前記グローバルシャッタ動作および前記ローリングシャッタ動作の少なくとも一方を制御するシャッタ制御部を備える、
請求項1に記載の測距システム。
The distance measuring device further includes:
comprising a shutter control unit that controls at least one of the global shutter operation and the rolling shutter operation of the camera unit based on the movement speed;
The ranging system according to claim 1.
前記測距装置は、さらに、
前記歪み検出部によって検出された前記歪みの大きさに基づいて、前記カメラ部の前記グローバルシャッタ動作および前記ローリングシャッタ動作の少なくとも一方を制御するシャッタ制御部を備える、
請求項1に記載の測距システム。
The distance measuring device further includes:
comprising a shutter control section that controls at least one of the global shutter operation and the rolling shutter operation of the camera section based on the magnitude of the distortion detected by the distortion detection section;
The ranging system according to claim 1.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、フレーム期間を変更し、
前記ローリングシャッタ動作を制御する場合には、フレーム期間および水平期間のうちの少なくとも1つを変更し、
前記水平期間は、前記カメラ部が備える画素アレイのうちの1行の露光期間が開始されてから次の行の露光が開始されるまでの期間である、
請求項4に記載の測距システム。
The shutter control section includes:
When controlling the global shutter operation, change the frame period,
When controlling the rolling shutter operation, changing at least one of a frame period and a horizontal period,
The horizontal period is a period from the start of the exposure period of one row of the pixel array included in the camera unit until the start of exposure of the next row.
The ranging system according to claim 4.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記フレーム期間を長い期間に変更し、
前記ローリングシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記フレーム期間および前記水平期間の少なくとも一方を長い期間に変更する、
請求項6に記載の測距システム。
The shutter control section includes:
When controlling the global shutter operation, the slower the moving speed, the longer the frame period is changed,
When controlling the rolling shutter operation, the slower the moving speed, the longer at least one of the frame period and the horizontal period is changed;
The ranging system according to claim 6.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、前記第1データが順次出力される時間間隔を制御する、
請求項4に記載の測距システム。
The shutter control section includes:
When controlling the global shutter operation, controlling a time interval at which the first data is sequentially output;
The ranging system according to claim 4.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記時間間隔を長くする、
請求項8に記載の測距システム。
The shutter control section includes:
When controlling the global shutter operation, the slower the movement speed, the longer the time interval;
The ranging system according to claim 8.
カメラ部が測距対象物に対してグローバルシャッタ動作とローリングシャッタ動作とを行うことによって前記カメラ部から出力される、前記グローバルシャッタ動作に応じた第1データと、前記ローリングシャッタ動作に応じた第2データとを取得し、前記第1データによって示される前記測距対象物の形状に対する、前記第2データによって示される前記測距対象物の形状の歪みの大きさを検出する歪み検出部と、
前記カメラ部の移動速度を取得し、前記移動速度と、前記歪み検出部によって検出された前記歪みの大きさとに基づいて、前記カメラ部から前記測距対象物までの距離を導出する距離導出部と、
を備える測距装置。
When the camera section performs a global shutter operation and a rolling shutter operation on the object to be measured, first data corresponding to the global shutter operation and first data corresponding to the rolling shutter operation are output from the camera section. a distortion detection unit that detects the magnitude of distortion of the shape of the distance measurement target indicated by the second data with respect to the shape of the distance measurement target indicated by the first data;
a distance deriving unit that acquires a moving speed of the camera unit and derives a distance from the camera unit to the object to be measured based on the moving speed and the magnitude of the distortion detected by the distortion detecting unit; and,
A distance measuring device equipped with.
前記歪み検出部は、
前記第1データによって示される前記測距対象物の形状から、1以上の直線状の第1エッジを検出し、前記第2データによって示される前記測距対象物の形状から、1以上の直線状の第2エッジを検出する直線検出部と、
前記1以上の直線状の第1エッジのうちの何れか1つの第1エッジと、前記1以上の直線状の第2エッジのうちの何れか1つの第2エッジとを対応付け、対応付けられた前記第1エッジと前記第2エッジとの間の角度を、前記歪みの大きさとして検出する角度検出部とを備える、
請求項10に記載の測距装置。
The distortion detection section is
One or more linear first edges are detected from the shape of the object to be measured as indicated by the first data, and one or more linear first edges are detected from the shape of the object to be measured as shown in the second data. a straight line detection unit that detects a second edge of
any one first edge of the one or more linear first edges and any one second edge of the one or more linear second edges are associated, and an angle detection unit that detects an angle between the first edge and the second edge as the magnitude of the distortion;
The distance measuring device according to claim 10.
前記測距装置は、さらに、
前記移動速度に基づいて、前記カメラ部の前記グローバルシャッタ動作および前記ローリングシャッタ動作の少なくとも一方を制御するシャッタ制御部を備える、
請求項10に記載の測距装置。
The distance measuring device further includes:
comprising a shutter control unit that controls at least one of the global shutter operation and the rolling shutter operation of the camera unit based on the movement speed;
The distance measuring device according to claim 10.
前記測距装置は、さらに、
前記歪み検出部によって検出された前記歪みの大きさに基づいて、前記カメラ部の前記グローバルシャッタ動作および前記ローリングシャッタ動作の少なくとも一方を制御するシャッタ制御部を備える、
請求項10に記載の測距装置。
The distance measuring device further includes:
comprising a shutter control section that controls at least one of the global shutter operation and the rolling shutter operation of the camera section based on the magnitude of the distortion detected by the distortion detection section;
The distance measuring device according to claim 10.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、フレーム期間を変更し、
前記ローリングシャッタ動作を制御する場合には、フレーム期間および水平期間のうちの少なくとも1つを変更し、
前記水平期間は、前記カメラ部が備える画素アレイのうちの1行の露光期間が開始されてから次の行の露光が開始されるまでの期間である、
請求項12に記載の測距装置。
The shutter control section includes:
When controlling the global shutter operation, change the frame period,
When controlling the rolling shutter operation, changing at least one of a frame period and a horizontal period,
The horizontal period is a period from the start of the exposure period of one row of the pixel array included in the camera unit until the start of exposure of the next row.
The distance measuring device according to claim 12.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記フレーム期間を長い期間に変更し、
前記ローリングシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記フレーム期間および前記水平期間の少なくとも一方を長い期間に変更する、
請求項14に記載の測距装置。
The shutter control section includes:
When controlling the global shutter operation, the slower the moving speed, the longer the frame period is changed,
When controlling the rolling shutter operation, the slower the moving speed, the longer at least one of the frame period and the horizontal period is changed;
The distance measuring device according to claim 14.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、前記第1データが順次出力される時間間隔を制御する、
請求項12に記載の測距装置。
The shutter control section includes:
When controlling the global shutter operation, controlling a time interval at which the first data is sequentially output;
The distance measuring device according to claim 12.
前記シャッタ制御部は、
前記グローバルシャッタ動作を制御する場合には、前記移動速度が遅いほど、前記時間間隔を長くする、
請求項16に記載の測距装置。
The shutter control section includes:
When controlling the global shutter operation, the slower the movement speed, the longer the time interval;
The distance measuring device according to claim 16.
カメラ部が、測距対象物に対してグローバルシャッタ動作とローリングシャッタ動作とを行うことによって、前記グローバルシャッタ動作に応じた第1データと、前記ローリングシャッタ動作に応じた第2データとを出力し、
前記第1データによって示される前記測距対象物の形状に対する、前記第2データによって示される前記測距対象物の形状の歪みの大きさを検出し、
前記カメラ部の移動速度を取得し、
取得された前記移動速度と、検出された前記歪みの大きさとに基づいて、前記カメラ部から前記測距対象物までの距離を導出する、
測距方法。
The camera unit performs a global shutter operation and a rolling shutter operation on the object to be measured, thereby outputting first data corresponding to the global shutter operation and second data corresponding to the rolling shutter operation. ,
detecting the magnitude of distortion of the shape of the distance measurement object indicated by the second data with respect to the shape of the distance measurement object indicated by the first data;
Obtaining the moving speed of the camera section,
Deriving a distance from the camera unit to the object to be measured based on the acquired moving speed and the detected magnitude of the distortion;
Distance measurement method.
JP2022083285A 2022-05-20 2022-05-20 Distance measuring system, distance measuring device, and distance measuring method Pending JP2023171067A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022083285A JP2023171067A (en) 2022-05-20 2022-05-20 Distance measuring system, distance measuring device, and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022083285A JP2023171067A (en) 2022-05-20 2022-05-20 Distance measuring system, distance measuring device, and distance measuring method

Publications (1)

Publication Number Publication Date
JP2023171067A true JP2023171067A (en) 2023-12-01

Family

ID=88928436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022083285A Pending JP2023171067A (en) 2022-05-20 2022-05-20 Distance measuring system, distance measuring device, and distance measuring method

Country Status (1)

Country Link
JP (1) JP2023171067A (en)

Similar Documents

Publication Publication Date Title
US10690755B2 (en) Solid-state imaging device having increased distance measurement accuracy and increased distance measurement range
US11621285B2 (en) Light detecting device with light shielding films, and electronic apparatus
CN106954008B (en) Image pickup device and image pickup module
US8159580B2 (en) Solid-state imaging device and imaging apparatus using the same
US8319874B2 (en) Connection/separation element in photoelectric converter portion, solid-state imaging device, and imaging apparatus
JP4798254B2 (en) Light receiving device and control method thereof
CN108878462B (en) Image pickup apparatus and camera system
US20180167562A1 (en) Solid-state imaging device
JP5709099B2 (en) Solid-state imaging device
KR101575378B1 (en) Solid-state imager and x-ray ct apparatus including same
US8223240B2 (en) Image pickup device and image pickup apparatus
JP6238558B2 (en) Imaging device and imaging system.
JP2014216536A (en) Imaging apparatus, and imaging system
US11696051B2 (en) Imaging device
JP6779038B2 (en) Image sensor and its control method, image sensor and its control method
JP6391302B2 (en) Imaging apparatus and imaging system
JP5444444B2 (en) Solid-state imaging device
JP7426339B2 (en) Imaging device, solid-state imaging device used therein, and imaging method
JP2023171067A (en) Distance measuring system, distance measuring device, and distance measuring method
JP6307058B2 (en) Ion concentration sensor and ion concentration measuring method
JP2023171065A (en) Imaging device
Li Two-stream vision sensors
JP7486080B2 (en) Imaging device
US11825223B2 (en) Imaging device and driving method thereof
US20230292017A1 (en) Imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20240304