JP2024071260A - Solid-state image pickup device and information process system - Google Patents
Solid-state image pickup device and information process system Download PDFInfo
- Publication number
- JP2024071260A JP2024071260A JP2022182108A JP2022182108A JP2024071260A JP 2024071260 A JP2024071260 A JP 2024071260A JP 2022182108 A JP2022182108 A JP 2022182108A JP 2022182108 A JP2022182108 A JP 2022182108A JP 2024071260 A JP2024071260 A JP 2024071260A
- Authority
- JP
- Japan
- Prior art keywords
- event data
- event
- unit
- octave
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 39
- 230000008569 process Effects 0.000 title abstract description 28
- 230000010365 information processing Effects 0.000 claims abstract description 122
- 238000001514 detection method Methods 0.000 claims abstract description 69
- 238000003384 imaging method Methods 0.000 claims description 125
- 238000000605 extraction Methods 0.000 claims description 22
- 239000000284 extract Substances 0.000 claims description 11
- 238000010304 firing Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 description 72
- 238000012545 processing Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 36
- 230000015572 biosynthetic process Effects 0.000 description 26
- 239000003990 capacitor Substances 0.000 description 20
- 238000003786 synthesis reaction Methods 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000001934 delay Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000010391 action planning Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000007418 data mining Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000035987 intoxication Effects 0.000 description 1
- 231100000566 intoxication Toxicity 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/47—Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
本開示は、固体撮像装置および情報処理システムに関する。 This disclosure relates to a solid-state imaging device and an information processing system.
イメージセンサが、被写体を含む画像を取得するためのセンサであるのに対し、イベントセンサ(EVS:Event-based Vision Sensor)は、被写体の変化を検出するためのセンサである。イベントセンサは、センシング対象を「画像」から「被写体の変化」に限定することで、イメージセンサに比べてフレームレートを高く設定することができる。イベントセンサは例えば、イメージセンサと同様に、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像装置により実現される。 While an image sensor is a sensor for acquiring images that include a subject, an event sensor (EVS: Event-based Vision Sensor) is a sensor for detecting changes in the subject. By limiting the sensing target from "images" to "changes in the subject," an event sensor can set a higher frame rate than an image sensor. Like an image sensor, an event sensor is realized by a solid-state imaging device such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor.
従来のEVSは、一定の空間解像度のイベントデータを出力する。このイベントデータを受信した情報処理システムが物体認識などの情報処理を行う場合には、イベントデータに対してスケーリング、フィルタリング、クロッピングなどの処理を行いつつ、イベントデータから有用な情報を抽出していく。 Conventional EVSs output event data with a fixed spatial resolution. When an information processing system that receives this event data performs information processing such as object recognition, it performs processes such as scaling, filtering, and cropping on the event data to extract useful information from it.
しかしながら、EVSの性能を高めようとしてEVSを高解像度化すると、データマイニングコストが増大し、情報処理システムの情報処理が遅延してしまう。その結果、情報処理システム全体の性能はむしろ低下してしまう。 However, increasing the resolution of an EVS in an attempt to improve its performance increases data mining costs and slows down the information processing system's information processing. As a result, the performance of the entire information processing system actually decreases.
例えば、イベントのアドレス情報の下位ビットをドロップすることで、イベントデータを空間的にダウンサンプリングするという手法が考えられている。これにより、イベントデータの空間解像度が低下するため、データマイニングコストの増大を抑制し、情報処理システムの情報処理の遅延を抑制することができる。しかしながら、空間解像度の低下により、物体認識などの目的タスクの精度が低下してしまうおそれがある。 For example, one method that has been considered is to spatially downsample event data by dropping the least significant bits of the address information of the event. This reduces the spatial resolution of the event data, thereby suppressing increases in data mining costs and reducing delays in information processing in information processing systems. However, the reduction in spatial resolution may result in a decrease in the accuracy of target tasks such as object recognition.
そこで、本開示は、情報処理の遅延を抑制しつつ、高解像度化を実現することが可能な固体撮像装置および情報処理システムを提供する。 Therefore, the present disclosure provides a solid-state imaging device and information processing system that can achieve high resolution while suppressing delays in information processing.
本開示の第1の側面の固体撮像装置は、イベントを検出し、前記イベントの検出結果を示すイベントデータを出力する複数の画素と、前記複数の画素から出力された前記イベントデータを第1オクターブのイベントデータとし、前記第1オクターブのイベントデータから第2~第iオクターブ(iは2以上の整数)のイベントデータを生成するイベント生成部と、前記第1~第iオクターブのイベントデータのうちの少なくとも一部のイベントデータを出力するイベント出力部とを備える。これにより例えば、イベントデータを利用した情報処理用に様々なオクターブのイベントデータを出力することで、情報処理の遅延を抑制しつつ、固体撮像装置の高解像度化を実現することが可能となる。 The solid-state imaging device according to the first aspect of the present disclosure includes a plurality of pixels that detect an event and output event data indicating the detection result of the event, an event generation unit that converts the event data output from the plurality of pixels into event data of a first octave and generates event data of a second to i-th octave (i is an integer equal to or greater than 2) from the event data of the first octave, and an event output unit that outputs at least a portion of the event data of the first to i-th octave. This makes it possible to achieve high resolution of the solid-state imaging device while suppressing delays in information processing, for example, by outputting event data of various octaves for information processing using the event data.
また、この第1の側面の固体撮像装置は、前記第1~第iオクターブのイベントデータにそれぞれ、前記第1~第iオクターブの識別情報であるオクターブ情報を付加するオクターブ情報付加部をさらに備え、前記イベント出力部は、前記オクターブ情報が付加された前記イベントデータを出力してもよい。これにより例えば、あるイベントデータがどのオクターブのイベントデータかを識別することが可能となる。 The solid-state imaging device of the first aspect may further include an octave information adding unit that adds octave information, which is identification information for the first to i-th octaves, to the event data of the first to i-th octaves, respectively, and the event output unit may output the event data to which the octave information has been added. This makes it possible, for example, to identify which octave certain event data belongs to.
また、この第1の側面において、前記イベント出力部は、前記イベントデータをオクターブごとに画像表現で出力してもよい。これにより例えば、様々なオクターブのイベントデータを画像として表示することが可能となる。 In addition, in this first aspect, the event output unit may output the event data in an image representation for each octave. This makes it possible to display event data for various octaves as images, for example.
また、この第1の側面において、前記イベント生成部は、第jオクターブ(jは1≦j≦i-1を満たす整数)のイベントデータから第j+1オクターブのイベントデータを生成してもよい。これにより例えば、第1オクターブのイベントデータから第2オクターブのイベントデータを生成し、第2オクターブのイベントデータから第3オクターブのイベントデータを生成するといったように、様々なオクターブのイベントデータを第1オクターブのイベントデータから順次生成することが可能となる。 In addition, in this first aspect, the event generating unit may generate event data for the j+1th octave from event data for the jth octave (j is an integer satisfying 1≦j≦i−1). This makes it possible to sequentially generate event data for various octaves from event data for the first octave, for example, by generating event data for the second octave from event data for the first octave, and generating event data for the third octave from event data for the second octave.
また、この第1の側面において、前記イベント生成部は、m行分(mは2以上の整数)の前記第jオクターブのイベントデータから、1行分の前記第j+1オクターブのイベントデータを生成してもよい。これにより例えば、第jオクターブのイベントデータから第j+1オクターブのイベントデータを簡単に生成することが可能となる。 In addition, in this first aspect, the event generation unit may generate one line of event data for the j+1 octave from m lines (m is an integer equal to or greater than 2) of event data for the j octave. This makes it possible to easily generate event data for the j+1 octave from event data for the j octave, for example.
また、この第1の側面において、前記イベント生成部は、m行n列分(nは2以上の整数)の前記第jオクターブのイベントデータから、1行1列分の前記第j+1オクターブのイベントデータを生成してもよい。これにより例えば、第jオクターブのイベントデータから第j+1オクターブのイベントデータをさらに簡単に生成することが可能となる。 In addition, in this first aspect, the event generation unit may generate one row and one column of event data for the j+1 octave from m rows and n columns of event data for the j octave (n is an integer of 2 or more). This makes it possible to more easily generate event data for the j+1 octave from event data for the j octave, for example.
また、この第1の側面において、前記イベント生成部は、前記m行n列分の前記第jオクターブのイベントデータがk個のイベント発火(kは1≦k≦m×nを満たす整数)を含む場合に、前記1行1列分の前記第j+1オクターブのイベントデータにてイベントを発火させてもよい。これにより例えば、第jオクターブのm×n個の領域を第j+1オクターブの1個の領域に簡単に置換することが可能となる。 In addition, in this first aspect, the event generating unit may ignite an event with the event data of the j+1 octave of the 1st row and 1st column when the event data of the j octave of the m rows and n columns includes k event firings (k is an integer satisfying 1≦k≦m×n). This makes it possible to easily replace, for example, m×n regions of the j th octave with one region of the j+1 th octave.
また、この第1の側面において、mは2であり、nは2であり、かつkは1、2、3、および4でもよい。これにより例えば、第jオクターブのm×n個の領域でイベントが1個も発火しなかった場合と、第jオクターブのm×n個の領域でイベントが少なくとも1個発火した場合とを区別することが可能となる。 Also, in this first aspect, m may be 2, n may be 2, and k may be 1, 2, 3, and 4. This makes it possible to distinguish, for example, between a case where no events are fired in the m×n regions of the jth octave and a case where at least one event is fired in the m×n regions of the jth octave.
また、この第1の側面において、mは2であり、nは2であり、かつkは2、3、および4でもよい。これにより例えば、ノイズイベントの影響を抑制することが可能となる。 Also, in this first aspect, m may be 2, n may be 2, and k may be 2, 3, or 4. This makes it possible to suppress the effects of noise events, for example.
また、この第1の側面において、mは2であり、nは2であり、かつkは3および4でもよい。これにより例えば、ノイズイベントおよびフリッカーイベントの影響を抑制することが可能となる。 Also, in this first aspect, m may be 2, n may be 2, and k may be 3 and 4. This makes it possible to suppress the effects of noise events and flicker events, for example.
また、この第1の側面の固体撮像装置は、前記複数の画素から出力された前記イベントデータを格納するフレームメモリをさらに備え、前記イベント生成部は、前記フレームメモリから出力された前記イベントデータを前記第1オクターブのイベントデータとしてもよい。これにより例えば、固体撮像装置としてアービタ型のイベントセンサを採用することが可能となる。 The solid-state imaging device of the first aspect may further include a frame memory that stores the event data output from the plurality of pixels, and the event generating unit may treat the event data output from the frame memory as event data of the first octave. This makes it possible to employ, for example, an arbiter-type event sensor as the solid-state imaging device.
本開示の第2の側面の情報処理システムは、固体撮像装置と情報処理部とを備える情報処理システムであって、前記固体撮像装置は、イベントを検出し、前記イベントの検出結果を示すイベントデータを出力する複数の画素と、前記複数の画素から出力された前記イベントデータを第1オクターブのイベントデータとし、前記第1オクターブのイベントデータから第2~第iオクターブ(iは2以上の整数)のイベントデータを生成するイベント生成部と、前記第1~第iオクターブのイベントデータのうちの少なくとも一部のイベントデータを出力するイベント出力部とを備え、前記情報処理部は、前記イベント出力部から出力された前記イベントデータを表示画面に表示する。これにより例えば、イベントデータを利用した情報処理(例えば表示)用に様々なオクターブのイベントデータを出力することで、情報処理の遅延を抑制しつつ、固体撮像装置の高解像度化を実現することが可能となる。 The information processing system according to the second aspect of the present disclosure is an information processing system including a solid-state imaging device and an information processing unit, in which the solid-state imaging device includes a plurality of pixels that detect an event and output event data indicating the detection result of the event, an event generating unit that converts the event data output from the plurality of pixels into event data of a first octave and generates event data of a second to i-th octave (i is an integer of 2 or more) from the event data of the first octave, and an event output unit that outputs at least a part of the event data of the first to i-th octave, and the information processing unit displays the event data output from the event output unit on a display screen. As a result, for example, by outputting event data of various octaves for information processing (e.g., display) using the event data, it is possible to realize high resolution of the solid-state imaging device while suppressing delays in information processing.
また、この第2の側面において、前記情報処理部は、前記イベント出力部から出力された前記イベントデータから、所定のオクターブ数の前記イベントデータを抽出する抽出部を含み、前記情報処理部は、前記抽出部により抽出された前記イベントデータを前記表示画面に表示してもよい。これにより例えば、固体撮像装置から出力された様々なオクターブのイベントデータを、オクターブごとに表示用に利用することが可能となる。 In addition, in this second aspect, the information processing unit may include an extraction unit that extracts the event data of a predetermined number of octaves from the event data output from the event output unit, and the information processing unit may display the event data extracted by the extraction unit on the display screen. This makes it possible to use the event data of various octaves output from a solid-state imaging device for display on an octave basis, for example.
また、この第2の側面において、前記情報処理部は、前記イベント出力部から出力された前記イベントデータから、所定のオクターブ数の前記イベントデータを抽出する抽出部を含み、前記情報処理部は、前記抽出部により抽出された前記イベントデータを利用して画像認識を行ってもよい。これにより例えば、固体撮像装置から出力された様々なオクターブのイベントデータを、オクターブごとに画像認識用に利用することが可能となる。 In addition, in this second aspect, the information processing unit may include an extraction unit that extracts the event data of a predetermined number of octaves from the event data output from the event output unit, and the information processing unit may perform image recognition using the event data extracted by the extraction unit. This makes it possible to use, for example, event data of various octaves output from a solid-state imaging device for image recognition for each octave.
また、この第2の側面において、前記画像認識は、ユーザーのジェスチャー認識でもよい。これにより例えば、固体撮像装置から出力された様々なオクターブのイベントデータを、オクターブごとにジェスチャー認識用に利用することが可能となる。 In addition, in this second aspect, the image recognition may be user gesture recognition. This makes it possible, for example, to use event data of various octaves output from a solid-state imaging device for gesture recognition for each octave.
また、この第2の側面において、前記情報処理部は、前記イベント出力部から出力された前記イベントデータから、ユーザーにより指定されたオクターブ数の前記イベントデータを選択する選択部を含み、前記情報処理部は、前記選択部により選択された前記イベントデータを記録媒体に記録してもよい。これにより例えば、固体撮像装置から出力された様々なオクターブのイベントデータを、オクターブごとに記録することが可能となる。 In addition, in this second aspect, the information processing unit may include a selection unit that selects the event data for a number of octaves specified by a user from the event data output from the event output unit, and the information processing unit may record the event data selected by the selection unit on a recording medium. This makes it possible to record, for example, event data for various octaves output from a solid-state imaging device for each octave.
また、この第2の側面において、前記情報処理システムは、前記固体撮像装置と前記情報処理部とを備える電子機器でもよい。これにより例えば、イベントデータの出力から、その後の情報処理までを、同じ電子機器で行うことが可能となる。 In addition, in this second aspect, the information processing system may be an electronic device including the solid-state imaging device and the information processing unit. This makes it possible, for example, to perform the output of event data and the subsequent information processing in the same electronic device.
また、この第2の側面において、前記電子機器はさらに、前記表示画面を有する表示部を備えてもいてよい。これにより例えば、イベントデータの出力から、イベントデータの表示までを、同じ電子機器で行うことが可能となる。 In addition, in this second aspect, the electronic device may further include a display unit having the display screen. This makes it possible, for example, to output the event data and display the event data on the same electronic device.
また、この第2の側面において、前記情報処理システムは、前記情報処理部を含む電子機器と、前記電子機器の外部に設けられ、前記固体撮像装置を含む撮像装置とを備えていてもよい。これにより例えば、イベントデータを利用した情報処理を、撮像装置の外部の電子機器で行うことが可能となる。 In addition, in this second aspect, the information processing system may include an electronic device including the information processing unit, and an imaging device that is provided outside the electronic device and includes the solid-state imaging device. This makes it possible, for example, to perform information processing using event data in an electronic device outside the imaging device.
また、この第2の側面において、前記情報処理システムはさらに、前記電子機器の外部に設けられ、前記表示画面を有する表示装置を備えていてもよい。これにより例えば、イベントデータの表示を、撮像装置の外部の電子機器で行うことが可能となる。 In addition, in this second aspect, the information processing system may further include a display device provided outside the electronic device and having the display screen. This makes it possible, for example, to display event data on an electronic device external to the imaging device.
以下、本開示の実施形態を、図面を参照して説明する。 Embodiments of the present disclosure are described below with reference to the drawings.
(第1実施形態)
(1)第1実施形態の車両1
図1は、第1実施形態の車両1の構成を示すブロック図である。図1は、移動装置制御システムの一例である車両制御システム11の構成例を示している。
First Embodiment
(1)
Fig. 1 is a block diagram showing the configuration of a
車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。
The
車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部31、走行支援・自動運転制御部32、DMS(Driver Monitoring System)33、HMI(Human Machine Interface)34、及び、車両制御部35を備える。
The
車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部31、走行支援・自動運転制御部32、ドライバモニタリングシステム(DMS)33、ヒューマンマシーンインタフェース(HMI)34、及び、車両制御部35は、通信ネットワーク41を介して相互に通信可能に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
The
なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。
Note that, hereinafter, when each part of the
[車両制御ECU21]
車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行う。
[Vehicle control ECU 21]
The
[通信部22]
通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部22は、複数の通信方式を用いて通信を行うことができる。
[Communication unit 22]
The communication unit 22 communicates with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmits and receives various types of data. At this time, the communication unit 22 can communicate using a plurality of communication methods.
通信部22が実行可能な車外との通信について、概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。 The following provides an overview of the communication with the outside of the vehicle that can be performed by the communication unit 22. The communication unit 22 communicates with a server (hereinafter referred to as an external server) on an external network via a base station or an access point using a wireless communication method such as 5G (fifth generation mobile communication system), LTE (Long Term Evolution), or DSRC (Dedicated Short Range Communications). The external network with which the communication unit 22 communicates is, for example, the Internet, a cloud network, or a network specific to an operator. The communication method that the communication unit 22 uses with the external network is not particularly limited as long as it is a wireless communication method that allows digital two-way communication at a communication speed equal to or higher than a predetermined distance.
また例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末である。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。 For example, the communication unit 22 can communicate with a terminal in the vicinity of the vehicle using P2P (Peer To Peer) technology. The terminal in the vicinity of the vehicle can be, for example, a terminal attached to a mobile object moving at a relatively low speed, such as a pedestrian or a bicycle, a terminal installed at a fixed position in a store, or an MTC (Machine Type Communication) terminal. Furthermore, the communication unit 22 can also perform V2X communication. V2X communication refers to communication between the vehicle and others, such as vehicle-to-vehicle (V2X) communication with another vehicle, vehicle-to-infrastructure (V2X) communication with a roadside device, vehicle-to-home (V2X) communication with a home, and vehicle-to-pedestrian (V2X) communication with a terminal carried by a pedestrian, etc.
通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部22は、さらに、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等がある。さらに例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行う。
The communication unit 22 can, for example, receive a program for updating software that controls the operation of the
例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信する。 For example, the communication unit 22 receives electromagnetic waves transmitted by a road traffic information and communication system (VICS (Vehicle Information and Communication System) (registered trademark)) such as a radio beacon, optical beacon, or FM multiplex broadcasting.
通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。 The following provides an overview of the communication with the inside of the vehicle that can be performed by the communication unit 22. The communication unit 22 can communicate with each device in the vehicle, for example, by using wireless communication. The communication unit 22 can wirelessly communicate with each device in the vehicle, for example, by using a communication method that allows digital two-way communication at a communication speed of a predetermined speed or higher by wireless communication, such as wireless LAN, Bluetooth, NFC, or WUSB (Wireless USB). Not limited to this, the communication unit 22 can also communicate with each device in the vehicle using wired communication. For example, the communication unit 22 can communicate with each device in the vehicle by wired communication via a cable connected to a connection terminal (not shown). The communication unit 22 can communicate with each device in the vehicle, for example, by using a communication method that allows digital two-way communication at a communication speed of a predetermined speed or higher by wired communication, such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or MHL (Mobile High-definition Link).
ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
Here, the in-vehicle device refers to, for example, a device that is not connected to the
[地図情報蓄積部23]
地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積する。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
[Map information storage unit 23]
The map
高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、ADAS(Advanced Driver Assistance System)やAD(Autonomous Driving)に適合させた地図である。
High-precision maps include, for example, dynamic maps, point cloud maps, and vector maps. A dynamic map is, for example, a map consisting of four layers of dynamic information, semi-dynamic information, semi-static information, and static information, and is provided to the
ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
The point cloud map and vector map may be provided, for example, from an external server, or may be created by the
[位置情報取得部24]
位置情報取得部24は、GNSS(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得する。取得した位置情報は、走行支援・自動運転制御部32に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
[Location information acquisition unit 24]
The position
[外部認識センサ25]
外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。外部認識センサ25が備えるセンサの種類や数は任意である。
[External Recognition Sensor 25]
The
例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を備える。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを備える構成でもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを備えてもよい。外部認識センサ25が備える各センサのセンシング領域の例は、後述する。
For example, the
なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。
The imaging method of the
また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
For example, the
さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを備える。
Furthermore, for example, the
[車内センサ26]
車内センサ26は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
[In-vehicle sensor 26]
The in-
例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサのうち1種類以上のセンサを備えることができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。
For example, the in-
[車両センサ27]
車両センサ27は、車両1の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム11の各部に供給する。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
[Vehicle sensor 27]
The
例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを備える。
For example, the
[記憶部31]
記憶部31は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記憶部31は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部31は、車両制御システム11の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部31は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶する。
[Memory unit 31]
The
[走行支援・自動運転制御部32]
走行支援・自動運転制御部32は、車両1の走行支援及び自動運転の制御を行う。例えば、走行支援・自動運転制御部32は、分析部61、行動計画部62、及び、動作制御部63を備える。
[Driving assistance/automatic driving control unit 32]
The driving assistance/automatic
分析部61は、車両1及び周囲の状況の分析処理を行う。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を備える。
The
自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定する。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心が基準とされる。
The self-
ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
The local map is, for example, a three-dimensional high-precision map or an occupancy grid map created using a technology such as SLAM (Simultaneous Localization and Mapping). The three-dimensional high-precision map is, for example, the point cloud map described above. The occupancy grid map is a map in which the three-dimensional or two-dimensional space around the
なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
The self-
センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。
The sensor fusion unit 72 performs sensor fusion processing to obtain new information by combining multiple different types of sensor data (e.g., image data supplied from the
認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行する。
The
例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
For example, the
具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
Specifically, for example, the
例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
For example, the
例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
For example, the
例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。
For example, the
例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。
For example, the
例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
For example, the
行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。
The
なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)を行う処理も含まれる。
Global path planning is a process that plans a rough route from the start to the goal. This route planning is called trajectory planning, and also includes a process of local path planning that takes into account the motion characteristics of
経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。
Path following is a process of planning operations for traveling safely and accurately along a route planned by a route plan within a planned time. The
動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御する。
The
例えば、動作制御部63は、後述する車両制御部35に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
For example, the
[DMS33]
DMS33は、車内センサ26からのセンサデータ、及び、後述するHMI34に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行う。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
[DMS33]
The
なお、DMS33が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS33が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
The
[HMI34]
HMI34は、各種のデータや指示等の入力と、各種のデータの運転者等への提示を行う。
[HMI34]
The
HMI34によるデータの入力について、概略的に説明する。HMI34は、人がデータを入力するための入力デバイスを備える。HMI34は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI34は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を備える。これに限らず、HMI34は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI34は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
The input of data by the
HMI34によるデータの提示について、概略的に説明する。HMI34は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI34は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI34は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成及び出力する。また、HMI34は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI34は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成及び出力する。
The presentation of data by the
HMI34が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI34は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
As an output device from which the
HMI34が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
The output device through which the
HMI34が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両1の搭乗者が接触する部分に設けられる。
Haptic elements using haptic technology can be used as an output device for the
[車両制御部35]
車両制御部35は、車両1の各部の制御を行う。車両制御部35は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を備える。
[Vehicle control unit 35]
The
ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を備える。
The
ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を備える。
The
駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を備える。
The
ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を備える。
The body
ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を備える。
The light control unit 85 detects and controls the state of various lights of the
ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行う。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を備える。
The horn control unit 86 detects and controls the state of the car horn of the
図2は、第1実施形態の車両1のセンシング領域を示す平面図である。図2は、図1の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示している。なお、図2において、車両1を上面から見た様子が模式的に示され、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
Figure 2 is a plan view showing the sensing area of the
[センシング領域1-1F,B]
センシング領域1-1F及びセンシング領域1-1Bは、超音波センサ54のセンシング領域の例を示している。センシング領域1-1Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域1-1Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
[Sensing area 1-1F, B]
Sensing area 1-1F and sensing area 1-1B are examples of sensing areas of the ultrasonic sensors 54. The sensing area 1-1F covers the periphery of the front end of the
センシング領域1-1F及びセンシング領域1-1Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
The sensing results in sensing area 1-1F and sensing area 1-1B are used, for example, for parking assistance for
[センシング領域1-2F,B,L,R]
センシング領域1-2F乃至センシング領域1-2Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域1-2Fは、車両1の前方において、センシング領域1-1Fより遠い位置までカバーしている。センシング領域1-2Bは、車両1の後方において、センシング領域1-1Bより遠い位置までカバーしている。センシング領域1-2Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域1-2Rは、車両1の右側面の後方の周辺をカバーしている。
[Sensing areas 1-2F, B, L, R]
Sensing area 1-2F to sensing area 1-2B show examples of sensing areas of a short-range or medium-
センシング領域1-2Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域1-2Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域1-2L及びセンシング領域1-2Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
The sensing results in sensing area 1-2F are used, for example, to detect vehicles, pedestrians, etc. in front of
[センシング領域1-3F,B,L,R]
センシング領域1-3F乃至センシング領域1-3Bは、カメラ51によるセンシング領域の例を示している。センシング領域1-3Fは、車両1の前方において、センシング領域1-2Fより遠い位置までカバーしている。センシング領域1-3Bは、車両1の後方において、センシング領域1-2Bより遠い位置までカバーしている。センシング領域1-3Lは、車両1の左側面の周辺をカバーしている。センシング領域1-3Rは、車両1の右側面の周辺をカバーしている。
[Sensing areas 1-3F, B, L, R]
Sensing area 1-3F to sensing area 1-3B show examples of sensing areas sensed by
センシング領域1-3Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域1-3Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域1-3L及びセンシング領域1-3Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。 The sensing results in sensing area 1-3F can be used, for example, for recognizing traffic lights and traffic signs, lane departure prevention support systems, and automatic headlight control systems. The sensing results in sensing area 1-3B can be used, for example, for parking assistance and surround view systems. The sensing results in sensing area 1-3L and sensing area 1-3R can be used, for example, for surround view systems.
[センシング領域1-4]
センシング領域1-4は、LiDAR53のセンシング領域の例を示している。センシング領域1-4は、車両1の前方において、センシング領域1-3Fより遠い位置までカバーしている。一方、センシング領域1-4は、センシング領域1-3Fより左右方向の範囲が狭くなっている。
[Sensing area 1-4]
A sensing area 1-4 shows an example of a sensing area of the
センシング領域1-4におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。 The sensing results in sensing areas 1-4 are used, for example, to detect objects such as surrounding vehicles.
[センシング領域1-5]
センシング領域1-5は、長距離用のレーダ52のセンシング領域の例を示している。センシング領域1-5は、車両1の前方において、センシング領域1-4より遠い位置までカバーしている。一方、センシング領域1-5は、センシング領域1-4より左右方向の範囲が狭くなっている。
[Sensing Areas 1-5]
A sensing area 1-5 shows an example of a sensing area of a long-
センシング領域1-5におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。 The sensing results in sensing areas 1-5 are used, for example, for ACC (Adaptive Cruise Control), emergency braking, collision avoidance, etc.
なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図2以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
The sensing areas of the
(2)第1実施形態の固体撮像装置100
図3は、第1実施形態の固体撮像装置100の構成を示すブロック図である。
(2) Solid-
FIG. 3 is a block diagram showing the configuration of the solid-
固体撮像装置100は、図1に示す車両1に設けられており、例えば、外部認識センサ25に含まれている。固体撮像装置100は、被写体の変化を検出するためのEVSである。被写体の例は、車両1の前方に存在する人間、車両、障害物などである。なお、固体撮像装置100は、後述する例のように、スマートフォンなどの電子機器200に内蔵されていてもよいし、ゲームコンソールなどの電子機器200に電気的に接続されていてもよい(図10および図11を参照)。
The solid-
固体撮像装置100は、図3に示すように、画素アレイ101と、イベント取得部102と、イベント生成部103と、イベント合成部104と、イベント出力部105とを備えている。画素アレイ101は、複数の画素101aを含んでいる。イベント生成部103は、第1フィルタ部103aと、第2フィルタ部103bと、第3フィルタ部103cとを含んでいる。イベント合成部104は、オクターブ情報付加部104aと、出力タイミング調整部104bとを含んでいる。イベント出力部105は、イベントデータ選択部105aと、イベントデータ形成部105bとを含んでいる。
As shown in FIG. 3, the solid-
[画素アレイ101]
画素アレイ101は、2次元アレイ状(マトリクス状)に配置された複数の画素101aを含んでいる。図3において、紙面上の横方向(水平方向)は、画素アレイ101の行方向に対応しており、紙面上の縦方向(垂直方向)は、画素アレイ101の列方向に対応している。
[Pixel array 101]
The
各画素101aは、オンイベントやオフイベントなどのイベントを検出する機能を有する。オンイベントは、画素101aの輝度が増加した場合において、輝度の変化量(増加量)の絶対値が閾値よりも大きい場合に発火する。オフイベントは、画素101aの輝度が減少した場合において、輝度の変化量(減少量)の絶対値が閾値よりも大きい場合に発火する。例えば、オンイベントは、画素101aに被写体が入ってきた際に発火し、オフイベントは、画素101aから被写体が出ていった際に発火する。そして、各画素101aは、イベントの検出結果を示すイベントデータを出力する。
Each
[イベント取得部102]
イベント取得部102は、画素アレイ101内の各画素101aからイベント(イベントデータ)を取得する。本実施形態では、固体撮像装置100がスキャン型EVSであるため、イベント取得部102は、画素アレイ101の複数の行を順番にスキャンし、画素アレイ101からイベントデータを行ごとに取得する。
[Event Acquisition Unit 102]
The
画素アレイ101の各行のイベントデータは、第1オクターブのイベントデータV1として取り扱われる。イベント取得部102は、第1オクターブのイベントデータV1を、イベント生成部103およびイベント合成部104に出力する。本実施形態では、イベント取得部102が取得した第1オクターブのイベントデータV1が、イベント合成部104に送られ、その複製が、イベント生成部103に送られる。
The event data for each row of the
図3は、第1オクターブのイベントデータV1を、一列に並んだ複数の領域P1で模式的に示している。各領域P1は、第1オクターブのイベントデータV1における、1画素101a分のイベントデータを示している。例えば、4つの領域P1は、4画素101a分のイベントデータに対応している。第1オクターブのイベントデータV1を、第1オクターブのイベント発火有無列とも呼ぶ。第1オクターブのイベントデータV1は、1行分の画素101aのイベントデータを表す文字列のデータとなっている。本実施形態では、ある画素101aでイベントが発火したか否かを、その画素101aのイベントデータを取得することで知ることができる。
Figure 3 shows the first octave event data V1 as a schematic representation of multiple regions P1 arranged in a row. Each region P1 represents the event data for one
[イベント生成部103]
イベント生成部103は、イベント取得部102から出力されたイベントデータを第1オクターブのイベントデータV1とし、第1オクターブのイベントデータV1から第2~第iオクターブ(iは2以上の整数)のイベントデータV2~Viを生成する。図3は、i=4の例、すなわち、第1オクターブのイベントデータV1から第2~第4オクターブのイベントデータV2~V4を生成する例を示している。
[Event generating unit 103]
The
第1フィルタ部103aは、第1オクターブのイベントデータV1を受信すると、m1行分(m1は2以上の整数)の第1オクターブのイベントデータV1が溜まるまで待機する。m1行分の第1オクターブのイベントデータV1は、画素アレイ101におけるm1行分の画素101aのイベントデータに対応している。第1フィルタ部103aは、m1行分の第1オクターブのイベントデータV1が溜まると、m1行n1列分(n1は2以上の整数)の第1オクターブのイベントデータV1から、r1行s1列分(r1はr1<m1を満たす整数、s1はs1<n1を満たす整数)の第2オクターブのイベントデータV2を生成する。第1フィルタ部103aはその後、上記のm1行n1列分の第1オクターブのイベントデータV1を破棄する。第1フィルタ部103aは、このような処理をすべての行の第1オクターブのイベントデータV1について順番に繰り返す。
When the first filter unit 103a receives the first octave event data V1, it waits until m1 rows ( m1 is an integer equal to or greater than 2) of the first octave event data V1 are accumulated. The m1 rows of the first octave event data V1 correspond to the event data of m1 rows of the
第1フィルタ部103aは、r1行s1列分の第2オクターブのイベントデータV2を、第2フィルタ部103bおよびイベント合成部104に出力する。本実施形態では、第1フィルタ部103aが生成した第2オクターブのイベントデータV2が、イベント合成部104に送られ、その複製が、第2フィルタ部103bに送られる。
The first filter unit 103a outputs the second octave event data V2 of r 1 rows and s 1 columns to the second filter unit 103b and the
図3は、第2オクターブのイベントデータV2を、一列に並んだ複数の領域P2で模式的に示している。図3は、m1=2、n1=2、r1=1、s1=1の例を示している。そのため、2行2列分の領域P1が1行1列分の領域P2に置換されている。ここで、本実施形態の画素アレイ101は、M行N列分の画素101aを含んでいるものとする。そのため、第1オクターブのイベントデータV1から第2オクターブのイベントデータV2を生成する処理は、全部でM×N/4回繰り返される。図3では、4つの領域P1が1つの領域P2に集約されており、従って、各領域P2が、4画素101a分のイベントデータを集約したイベントデータに対応している。第2オクターブのイベントデータV2を、第2オクターブのイベント発火有無列とも呼ぶ。
FIG. 3 shows the second octave event data V2 as a schematic representation of a plurality of regions P2 arranged in a row. FIG. 3 shows an example where m 1 =2, n 1 =2, r 1 =1, and s 1 =1. Therefore, the region P1 of 2 rows and 2 columns is replaced with the region P2 of 1 row and 1 column. Here, it is assumed that the
第2フィルタ部103bは、第2オクターブのイベントデータV2を受信すると、m2行分(m2は2以上の整数)の第2オクターブのイベントデータV2が溜まるまで待機する。第2フィルタ部103bは、m2行分の第1オクターブのイベントデータV2が溜まると、m2行n2列分(n2は2以上の整数)の第2オクターブのイベントデータV2から、r2行s2列分(r2はr2<m2を満たす整数、s2はs2<n2を満たす整数)の第3オクターブのイベントデータV3を生成する。第2フィルタ部103bはその後、上記のm2行n2列分の第1オクターブのイベントデータV2を破棄する。第2フィルタ部103bは、このような処理をすべての行の第2オクターブのイベントデータV2について順番に繰り返す。
When the second filter unit 103b receives the second octave event data V2, it waits until m 2 rows (m 2 is an integer equal to or greater than 2) of the second octave event data V2 are accumulated. When m 2 rows of the first octave event data V2 are accumulated, the second filter unit 103b generates r 2 rows and s 2 columns (r 2 is an integer that satisfies r 2 <m 2 , and s 2 is an integer that satisfies s 2 <n 2 ) of the third octave event data V3 from
第2フィルタ部103bは、r2行s2列分の第3オクターブのイベントデータV3を、第3フィルタ部103cおよびイベント合成部104に出力する。本実施形態では、第2フィルタ部103bが生成した第2オクターブのイベントデータV3が、イベント合成部104に送られ、その複製が、第3フィルタ部103cに送られる。
The second filter unit 103b outputs the third octave event data V3 of r 2 rows and s 2 columns to the third filter unit 103c and the
図3は、第3オクターブのイベントデータV3を、一列に並んだ複数の領域P3で模式的に示している。図3は、m2=2、n2=2、r2=1、s2=1の例を示している。そのため、2行2列分の領域P2が1行1列分の領域P3に置換されている。第2オクターブのイベントデータV2から第3オクターブのイベントデータV3を生成する処理は、全部でM×N/16回繰り返される。図3では、4つの領域P2が1つの領域P3に集約されており、従って、各領域P3が、16画素101a分のイベントデータを集約したイベントデータに対応している。第3オクターブのイベントデータV3を、第3オクターブのイベント発火有無列とも呼ぶ。
FIG. 3 shows the third octave event data V3 as a schematic representation of a plurality of regions P3 arranged in a row. FIG. 3 shows an example where m 2 =2, n 2 =2, r 2 =1, and s 2 =1. Therefore, the region P2 of 2 rows and 2 columns is replaced with the region P3 of 1 row and 1 column. The process of generating the third octave event data V3 from the second octave event data V2 is repeated M×N/16 times in total. In FIG. 3, four regions P2 are aggregated into one region P3, and therefore each region P3 corresponds to event data obtained by aggregating event data for 16
第3フィルタ部103cの動作は、第1フィルタ部103aや第2フィルタ部103bの動作と同様である。第3フィルタ部103cは、m3行n3列分(n3は2以上の整数、n3は2以上の整数)の第3オクターブのイベントデータV3から、r3行s3列分(r3はr3<m3を満たす整数、s3はs3<n3を満たす整数)の第4オクターブのイベントデータV4を生成する。第3フィルタ部103cは、r3行s3列分の第4オクターブのイベントデータV4を、イベント合成部104に出力する。図3は、第4オクターブのイベントデータV4を、一列に並んだ複数の領域P4で模式的に示している。図3は、m3=2、n3=2、r3=1、s3=1の例を示している。そのため、2行2列分の領域P3が1行1列分の領域P4に置換されている。第4オクターブのイベントデータV4を、第4オクターブのイベント発火有無列とも呼ぶ。
The operation of the third filter unit 103c is the same as that of the first filter unit 103a and the second filter unit 103b. The third filter unit 103c generates the fourth octave event data V4 of
このように、イベント生成部103は、第jオクターブ(jは1≦j≦i-1を満たす整数)のイベントデータVjから、第j+1オクターブのイベントデータVj+1を生成する。これにより、第2~第iオクターブのイベントデータV2~Viを、第1オクターブのイベントデータV1から順次生成することが可能となる。なお、本実施形態の「オクターブ」という用語は、第1~第iオクターブのイベントデータV1~Viの違いが周波数の違いと対応しているため、音楽用語「オクターブ」からの類推で使用されている。
In this way, the
[イベント合成部104]
イベント合成部104は、イベント取得部102から第1オクターブのイベントデータV1を取得し、イベント生成部103から第2~第iオクターブのイベントデータV2~Viを取得する。図3は、i=4の例、すなわち、イベント合成部104が第1~第4オクターブのイベントデータV1~V4を取得する例を示している。
[Event synthesis unit 104]
The
オクターブ情報付加部104aは、第1~第iオクターブのイベントデータV1~Viにオクターブ情報を付加して保持する。オクターブ情報は、第1~第iオクターブのイベントデータV1~Viの識別情報である。本実施形態のオクターブ情報は、イベントデータのオクターブ数に基づく情報であり、例えば、イベントデータのオクターブ数から1を引いた値である。よって、第1~第iオクターブのイベントデータV1~Viのオクターブ情報はそれぞれ「0~i-1」となる。具体的には、第1オクターブのイベントデータV1のオクターブ情報は「0」となり、第2オクターブのイベントデータV2のオクターブ情報は「1」となり、第3オクターブのイベントデータV3のオクターブ情報は「2」となる。
The octave
出力タイミング調整部104bは、オクターブ情報付加部104aが保持しているイベントデータを、イベント出力部105に出力するタイミングを調整する。本実施形態の出力タイミング調整部104bは、第1~第iオクターブのイベントデータV1~Viを、オクターブ数の大きいイベントデータからオクターブ数の大きいイベントデータの順で、イベント出力部105に順番に出力する。この際、第1~第iオクターブのイベントデータV1~Viは、オクターブ情報が付加された状態で出力される。
The output
[イベント出力部105]
イベント出力部105は、第1~第iオクターブのイベントデータV1~Viのうちの少なくとも一部のイベントデータを、固体撮像装置100の外部に出力する。イベント出力部105は、イベント合成部104から取得したイベントデータを出力する。本実施形態のイベント出力部105は、図1に示す車両制御システム11にイベントデータを出力するが、代わりに図10または図11に示す電子機器200にイベントデータを出力してもよい。
[Event output unit 105]
The
イベントデータ選択部105aは、第1~第iオクターブのイベントデータV1~Viのうち、イベントデータ形成部105bに出力するイベントデータを選択する。例えば、第1~第iオクターブのイベントデータV1~Viから第1~第3オクターブのイベントデータV1~V3が選択された場合には、第1~第3オクターブのイベントデータV1~V3がイベントデータ形成部105bに出力される。
The event
イベントデータ形成部105bは、イベントデータ選択部105aにより選択されたイベントデータを、イベント出力データ形式に変換する。イベントデータ形成部105bはその後、イベント出力データ形式に変換されたイベントデータを、オクターブ情報が付加された状態で、固体撮像装置100の外部に出力する。
The event
図4は、第1実施形態の画素アレイ101について説明するための図である。
Figure 4 is a diagram for explaining the
図4のA~Cの各々は、イベントデータを出力する画素アレイ101と、このイベントデータを画像表現に変換して得られた画像Eとを示している。画像Eは、文字「A」が新たに出現した状況を撮影した場合の画像に相当する。また、画像Eは、第1オクターブのイベントデータV1から得られた画像に相当する。
Each of A to C in Figure 4 shows a
図4のA~Cに示す(x0、y0、t0、p0)、(x1、y1、t1、p1)、および(x2、y2、t2、p2)は、各画素101aのイベントデータを表す。x0およびy0は、各画素101aの座標を表す。t0は、イベントデータが得られた時刻を表す。p0は、イベントデータのポラリティを表す。例えば、オンイベントが発火した際のポラリティは「+」となり、オフイベントが発火した際のポラリティは「-」となる。以上は、他のx、y、t、およびpについても同様である。
( x0 , y0 , t0 , p0 ), ( x1 , y1 , t1 , p1 ), and ( x2 , y2 , t2 , p2 ) shown in Figures 4A to 4C represent the event data of each pixel 101a. x0 and y0 represent the coordinates of each
図4のAは、画素数が少なく、解像度が低い画素アレイ101を示している。図4のBは、画素数が中程度で、解像度が中程度の画素アレイ101を示している。図4のCは、画素数が多く、解像度が高い画素アレイ101を示している。
A in FIG. 4 shows a
固体撮像装置100の性能を高めようとして固体撮像装置100を高解像度化すると、データマイニングコストが増大し、固体撮像装置100から出力されたイベントデータを利用する情報処理システムの情報処理が遅延してしまう。その結果、情報処理システム全体の性能はむしろ低下してしまう。このような情報処理システムの例は、図1に示す車両制御システム11や、図10に示す電子機器200や、図11に示すシステム(電子機器200を含むシステム)である。
Increasing the resolution of the solid-
そこで、本実施形態の固体撮像装置100は、図3を参照して説明したように、様々なオクターブのイベントデータを出力する。これにより、イベントデータを利用した情報処理の遅延を抑制しつつ、固体撮像装置100の高解像度化を実現することが可能となる。例えば、図4のCに示す画素アレイ101を採用しても、イベントデータを利用した情報処理の遅延を抑制することが可能となる。このような効果のさらなる詳細については、後述する。
The solid-
図5は、第1実施形態の固体撮像装置100の動作について説明するための図である。
Figure 5 is a diagram for explaining the operation of the solid-
図5の矢印A1は、2行2列分の第1オクターブのイベントデータV1から、1行1列分の第2オクターブのイベントデータV2を生成する処理を示している。この処理では、2行2列分の領域P1が、1行1列分の領域P2に置換されている。図5の矢印A2は、2行2列分の第2オクターブのイベントデータV2から、1行1列分の第3オクターブのイベントデータV3を生成する処理を示している。この処理では、2行2列分の領域P2が、1行1列分の領域P3に置換されている。領域P1~P3内のチェックの有無は、イベントの発火の有無を示している。 Arrow A1 in Figure 5 indicates the process of generating second octave event data V2 of one row and one column from first octave event data V1 of two rows and two columns. In this process, area P1 of two rows and two columns is replaced with area P2 of one row and one column. Arrow A2 in Figure 5 indicates the process of generating third octave event data V3 of one row and one column from second octave event data V2 of two rows and two columns. In this process, area P2 of two rows and two columns is replaced with area P3 of one row and one column. The presence or absence of a check in areas P1 to P3 indicates the presence or absence of an event being fired.
図5はさらに、第1オクターブのイベントデータV1を画像表現に変換して得られた画像E1と、第2オクターブのイベントデータV2を画像表現に変換して得られた画像E2と、第3オクターブのイベントデータV3を画像表現に変換して得られた画像E3とを示している。画像E1、E2、E3はそれぞれ、図4のC、B、Aに示す画像Eと同様の画像となっている。このように、本実施形態によれば、第1オクターブのイベントデータV1から第2~第iオクターブのイベントデータV2~Viを生成することで、高解像度の画像から低解像度の画像を生成することが可能となる。後述するように、イベント出力部105は、イベントデータをオクターブごとに画像表現で出力する。これにより、画像表現で出力されたイベントデータを用いることで、イベントデータを画像E1~E3のような態様でオクターブごとに表示することが可能となる。
FIG. 5 further shows an image E1 obtained by converting the event data V1 of the first octave into an image representation, an image E2 obtained by converting the event data V2 of the second octave into an image representation, and an image E3 obtained by converting the event data V3 of the third octave into an image representation. Images E1, E2, and E3 are similar to image E shown in C, B, and A of FIG. 4, respectively. Thus, according to this embodiment, by generating event data V2 to Vi of the second to i-th octaves from the event data V1 of the first octave, it is possible to generate a low-resolution image from a high-resolution image. As will be described later, the
本実施形態のイベントデータは、オクターブ情報が付加されることで、(oc、x、y、t、p)の形で表される。xおよびyは、領域P1~P3に対応する画素101aの座標を表し、例えば、領域P1に対応する1つの画素101aの座標や、領域P2に対応する4個の画素101aの平均座標や、領域P3に対応する16個の画素101aの平均座標を表す。tは、イベントデータが得られた時刻を表す。pは、イベントデータのポラリティを表す。ocは、イベントデータのオクターブ情報を表す。例えば、第1オクターブのイベントデータV1のオクターブ情報ocは「0」となり、第2オクターブのイベントデータV2のオクターブ情報ocは「1」となり、第3オクターブのイベントデータV3のオクターブ情報ocは「2」となる。
The event data in this embodiment is expressed in the form of (oc, x, y, t, p) by adding octave information. x and y represent the coordinates of the
図6は、第1実施形態のイベント生成部103の動作を説明するための図である。
Figure 6 is a diagram for explaining the operation of the
図6のAは、m行n列分の第1オクターブのイベントデータV1から、r行s列分の第2オクターブのイベントデータV2を生成する処理を示している。図6のAは、m=2、n=2、r=1、s=1の例を示している。そのため、2行2列分の第1オクターブのイベントデータV1から、1行1列分の第2オクターブのイベントデータV2が生成され、2×2個の領域P1が、1×1個の領域P2に置換されている。同様に、図6のAに示す例では、2行2列分の第jオクターブのイベントデータVjから、1行1列分の第j+1オクターブのイベントデータVj+1が生成される。 A of FIG. 6 shows the process of generating r rows and s columns of second octave event data V2 from m rows and n columns of first octave event data V1. A of FIG. 6 shows an example where m=2, n=2, r=1, and s=1. Therefore, 1 row and 1 column of second octave event data V2 is generated from 2 rows and 2 columns of first octave event data V1, and 2×2 regions P1 are replaced with 1×1 regions P2. Similarly, in the example shown in A of FIG. 6, 1 row and 1 column of j+1th octave event data Vj+1 is generated from 2 rows and 2 columns of jth octave event data Vj.
図6のAにて、kは、m×n個の領域P1に含まれるイベント発火の個数を表す(kは1≦k≦m×nを満たす整数)。例えば、2×2個の領域P1に含まれるイベント発火の個数が3個の場合、kの値は3となる。この場合、2×2個の領域P1のうちの3つは、図5に示す「チェック有」の領域P1に相当しており、2×2個の領域P1のうちの残り1つは、図5に示す「チェック無」の領域P1に相当している。これは、4つの画素101aのうちの3つでイベントが発火し、4つの画素101aのうちの残り1つでイベントが発火しなかったことを示している。
In A of FIG. 6, k represents the number of event firings contained in the m×n regions P1 (k is an integer satisfying 1≦k≦m×n). For example, if the number of event firings contained in the 2×2 regions P1 is 3, the value of k is 3. In this case, three of the 2×2 regions P1 correspond to the "checked" region P1 shown in FIG. 5, and the remaining one of the 2×2 regions P1 corresponds to the "unchecked" region P1 shown in FIG. 5. This indicates that events were fired in three of the four
図6のAに示す例では、4個の領域P1のkが1、2、3、および4のいずれかの場合には、1個の領域P2が「チェック有」となり(図6のC)、4個の領域P1のkが0の場合には、1個の領域P2が「チェック無」となる(図6のB)。すなわち、4個の領域P1のいずれかでイベントが発火した場合には、1個の領域P2でイベントが発火したとして取り扱う。一方、4個の領域P1のいずれでもイベントが発火しなかった場合には、1個の領域P2でイベントが発火しなかったとして取り扱う。これにより、イベント発火の有無に関する情報を、第1オクターブのイベントデータV1から、第2オクターブのイベントデータV2に反映させることが可能となる。これは、第jオクターブのイベントデータVjから、第j+1オクターブのイベントデータVj+1を生成する際にも同様である。図6のBおよびCでは、チェック有の領域P1、P2が黒色で示され、チェック無の領域P1、P2が白色で示されている。 In the example shown in FIG. 6A, when k of the four regions P1 is 1, 2, 3, or 4, one region P2 is "checked" (FIG. 6C), and when k of the four regions P1 is 0, one region P2 is "unchecked" (FIG. 6B). That is, when an event is fired in any of the four regions P1, it is treated as if an event is fired in one region P2. On the other hand, when an event is not fired in any of the four regions P1, it is treated as if an event is not fired in one region P2. This makes it possible to reflect information regarding the presence or absence of an event firing from the event data V1 of the first octave to the event data V2 of the second octave. This is also true when generating the event data Vj+1 of the j+1th octave from the event data Vj of the jth octave. In FIG. 6B and C, the checked regions P1 and P2 are shown in black, and the unchecked regions P1 and P2 are shown in white.
図7は、第1実施形態のイベント生成部103の動作を説明するための別の図である。
Figure 7 is another diagram for explaining the operation of the
図7のA~Cはそれぞれ、図6のA~Cに対応している。ただし、図7のAに示す例では、4個の領域P1のkが2、3、および4のいずれかの場合に、1個の領域P2が「チェック有」となり(図7のC)、4個の領域P1のkが0および1のいずれかの場合に、1個の領域P2が「チェック無」となる(図7のB)。すなわち、4個の領域P1の2個以上でイベントが発火した場合には、1個の領域P2でイベントが発火したとして取り扱う。一方、その他の場合には、1個の領域P2でイベントが発火しなかったとして取り扱う。これは、第jオクターブのイベントデータVjから、第j+1オクターブのイベントデータVj+1を生成する際にも同様である。 A to C in FIG. 7 correspond to A to C in FIG. 6, respectively. However, in the example shown in A in FIG. 7, when k of the four regions P1 is 2, 3, or 4, one region P2 is "checked" (C in FIG. 7), and when k of the four regions P1 is 0 or 1, one region P2 is "unchecked" (B in FIG. 7). In other words, when an event is fired in two or more of the four regions P1, it is treated as if an event was fired in one region P2. On the other hand, in other cases, it is treated as if an event was not fired in one region P2. This is also the case when generating event data Vj+1 of the j+1th octave from event data Vj of the jth octave.
4個の領域P1の1個でイベントが発火した場合、これはノイズイベントの影響である可能性が高い。よって、4個の領域P1の1個でイベントが発火した場合に、1個の領域P2でイベントが発火しなかったとして取り扱うことで、ノイズイベントの影響を抑制することが可能となる。 If an event fires in one of the four regions P1, this is likely due to the influence of a noise event. Therefore, if an event fires in one of the four regions P1, it can be treated as if no event fires in one region P2, thereby making it possible to suppress the influence of the noise event.
図8は、第1実施形態のイベント生成部103の動作を説明するための別の図である。
Figure 8 is another diagram for explaining the operation of the
図8のA~Cもそれぞれ、図6のA~Cに対応している。ただし、図8のAに示す例では、4個の領域P1のkが2および3のいずれかの場合に、1個の領域P2が「チェック有」となり(図8のC)、4個の領域P1のkが0、1、および4のいずれかの場合に、1個の領域P2が「チェック無」となる(図8のB)。すなわち、4個の領域P1の2個または3個でイベントが発火した場合には、1個の領域P2でイベントが発火したとして取り扱う。一方、その他の場合には、1個の領域P2でイベントが発火しなかったとして取り扱う。これは、第jオクターブのイベントデータVjから、第j+1オクターブのイベントデータVj+1を生成する際にも同様である。 A to C in FIG. 8 correspond to A to C in FIG. 6, respectively. However, in the example shown in A in FIG. 8, when k of the four regions P1 is either 2 or 3, one region P2 is "checked" (C in FIG. 8), and when k of the four regions P1 is either 0, 1, or 4, one region P2 is "unchecked" (B in FIG. 8). In other words, when an event is fired in two or three of the four regions P1, it is treated as if an event was fired in one region P2. On the other hand, in other cases, it is treated as if an event was not fired in one region P2. This is also the case when generating event data Vj+1 of the j+1th octave from event data Vj of the jth octave.
4個の領域P1の1個でイベントが発火した場合、これはノイズイベントの影響である可能性が高い。また、4個の領域P1の4個でイベントが発火した場合、これはフリッカーイベントの影響である可能性が高い。よって、4個の領域P1の1個または4個でイベントが発火した場合に、1個の領域P2でイベントが発火しなかったとして取り扱うことで、ノイズイベントやフリッカーノイズの影響を抑制することが可能となる。 If an event fires in one of the four regions P1, this is likely to be the result of a noise event. Also, if an event fires in four of the four regions P1, this is likely to be the result of a flicker event. Therefore, if an event fires in one or four of the four regions P1, it is treated as if no event fires in the single region P2, making it possible to suppress the effects of noise events and flicker noise.
なお、図8のAに示す例では、4個の領域P1のkが1、2、および3のいずれかの場合に、1個の領域P2を「チェック有」とし、4個の領域P1のkが0および4のいずれかの場合に、1個の領域P2を「チェック無」としてもよい。これにより、フリッカーノイズの影響を抑制することが可能となる。 In the example shown in FIG. 8A, when k of the four regions P1 is 1, 2, or 3, one region P2 may be set to "checked," and when k of the four regions P1 is 0 or 4, one region P2 may be set to "unchecked." This makes it possible to suppress the effects of flicker noise.
図9は、第1実施形態のイベント出力部105の動作を説明するための図である。
Figure 9 is a diagram for explaining the operation of the
図9のAは、イベントデータ選択部105aの動作を説明するための図である。イベントデータ選択部105aは、第1~第iオクターブのイベントデータV1~Viのうち、イベントデータ形成部105bに出力するイベントデータを選択する。この際、イベントデータ選択部105aは、すべてのオクターブのイベントデータV1~Viを選択してもよいし、一部のオクターブのイベントデータV1~Viのみを選択してもよい。例えば、第1~第iオクターブのイベントデータV1~Viから第1~第3オクターブのイベントデータV1~V3が選択された場合には、第1~第3オクターブのイベントデータV1~V3がイベントデータ形成部105bに出力される。第1~第3オクターブのイベントデータV1~V3はそれぞれ、オクターブ情報「0~2」が付加された状態で出力される。
A in FIG. 9 is a diagram for explaining the operation of the event
図9のBは、イベントデータ形成部105bの動作を説明するための図である。イベントデータ形成部105bは、イベントデータ選択部105aにより選択されたイベントデータを、イベント出力データ形式に変換する。例えば、イベント出力部105は、イベントデータ選択部105aにより選択されたイベントデータを、オクターブごとにアドレスイベント表現や画像表現に変換する。イベントデータ形成部105bはその後、イベント出力データ形式に変換されたイベントデータを、オクターブ情報が付加された状態で、固体撮像装置100の外部に出力する。固体撮像装置100の外部でイベントデータを用いた情報処理を行う際には、画像表現で出力されたイベントデータを用いることで、イベントデータを画像E1~E3のような態様でオクターブごとに表示することが可能となる。
B of FIG. 9 is a diagram for explaining the operation of the event
(3)第1実施形態の電子機器200
図10は、第1実施形態の電子機器200の一例を示す図である。
(3)
FIG. 10 is a diagram illustrating an example of the
図10のAは、電子機器200の一例として、カメラ機能を有するスマートフォンを示している。この電子機器200は、図10のBに示すように、撮像部201と、表示部202と、情報処理部203と、記憶部204と、入力部205とを備えている。情報処理部203は、抽出部203aと、選択部203bとを含んでいる。
A in FIG. 10 shows a smartphone with a camera function as an example of
撮像部201は、カメラ機能を実現するための機能ブロックである。撮像部201は、図3に示す固体撮像装置100を含んでいる。この電子機器200は、固体撮像装置100(イベント出力部105)から出力されたイベントデータを利用した情報処理を行う情報処理システムとして機能する。
The
表示部202は、文字や画像を表示するための表示画面を有する。例えば、表示部202は、固体撮像装置100から出力されたイベントデータを表示画面に表示する。本実施形態では、イベント出力部105が、イベントデータを画像表現で出力し、表示部202が、このイベントデータを画像の形で表示画面に表示する(図10のB)。この画像は、静止画でも動画でもよい。図10のAでは、表示画面が、イメージセンサとしての固体撮像装置100により撮像された画像と、イベントセンサ(EVS)としての固体撮像装置100から出力されたイベントデータを画像の形で表示した画像とを表示している。表示画面にイベントデータを表示するモードでは、表示画面はビューワーとも呼ばれる。
The
情報処理部203は、電子機器200の制御などの種々の情報処理を行う。例えば、情報処理部203は、固体撮像装置100からイベントデータを受信し、このイベントデータを表示部202の表示画面に表示する。
The
記憶部204は、半導体メモリなどの記録媒体を含んでいる。情報処理部203は、情報処理に必要な情報を記憶部204から読み出すことや、情報処理により生じた情報を記憶部204内に記録することができる。例えば、情報処理部203は、固体撮像装置100からイベントデータを受信し、このイベントデータを記憶部204内に記録する。
The
入力部205は、ユーザーからの入力操作を受け付ける。情報処理部203は、この入力操作に応じた情報処理を行う。入力部205は例えば、タッチパネルやハードボタンを含んでいる。
The
イベント出力部105では、イベントデータ選択部105aが、第1~第iオクターブのイベントデータV1~Viのうち、イベントデータ形成部105bに出力するイベントデータを選択する。例えば、第1~第iオクターブのイベントデータV1~Viから第1~第3オクターブのイベントデータV1~V3が選択された場合には、第1~第3オクターブのイベントデータV1~V3がイベントデータ形成部105bに出力される。イベントデータ形成部105bは、イベントデータ選択部105aにより選択されたイベントデータをオクターブごとに画像表現で出力する。例えば、第1~第3オクターブのイベントデータV1~V3が、オクターブごとに画像表現で出力される。
In the
抽出部203aは、固体撮像装置100(イベントデータ形成部105b)から出力されたイベントデータから、所定のオクターブ数のイベントデータを抽出する。例えば、抽出部203aは、第1~第3オクターブのイベントデータV1~V3から、第2オクターブのイベントデータV2を抽出する。所定のオクターブ数のイベントデータは、イベントデータのオクターブ情報に基づいて抽出可能である。情報処理部203は、抽出部203aにより抽出されたイベントデータを表示画面に表示する。例えば、第2オクターブのイベントデータV2が抽出された場合には、第2オクターブのイベントデータV2が画像の形で表示画面に表示される。
The
抽出部203aは、ビューワーの解像度に合うオクターブ数のイベントデータを自動的に抽出する。例えば、ビューワーに最初にイベントデータを表示する際には、第2オクターブのイベントデータV2が抽出され表示される。その後、ユーザーがビューワーの解像度を上げる操作を行うと、第1オクターブのイベントデータV1が抽出され表示される。一方、ユーザーがビューワーの解像度を下げる操作を行うと、第3オクターブのイベントデータV3が抽出され表示される。
The
選択部203bは、固体撮像装置100(イベントデータ形成部105b)から出力されたイベントデータから、ユーザーにより指定されたオクターブ数のイベントデータを選択する。例えば、第2オクターブのイベントデータV2がビューワーに表示されている場合に、ユーザーがタッチパネル上の「記録開始ボタン」にタッチすると、選択部203bは、第1~第3オクターブのイベントデータV1~V3から、第2オクターブのイベントデータV2を選択する。そして、選択部203bは、第2オクターブのイベントデータV2を記憶部204内に記録し始める。その後、ユーザーがタッチパネル上の「記録終了ボタン」にタッチすると、第2オクターブのイベントデータV2の記録を終了する。このようにして、ユーザーは、記録するイベントデータのオクターブ数を指定することや、記録を開始および終了するタイミングを指定することができる。その結果、記録開始から記録終了までの動画が、記憶部204(記録媒体)内に記録される。
The selection unit 203b selects the event data for the number of octaves specified by the user from the event data output from the solid-state imaging device 100 (event
なお、記憶部204に記録されるイベントデータのオクターブ数は、ビューワーに表示されているイベントデータのオクターブ数と異なっていてもよい。例えば、第2オクターブのイベントデータV2がビューワーに表示されている場合に、ユーザーがタッチパネル上で「記録対象」として「第1オクターブのイベントデータV1」を指定すると、第1オクターブのイベントデータV1が記憶部204内に記録されてもよい。また、このような指定がなくても、第1オクターブのイベントデータV1が記憶部204内に記録されてもよい。
The number of octaves of the event data recorded in the
また、情報処理部203は、抽出されたイベントデータを、表示以外の情報処理に利用してもよい。例えば、第2オクターブのイベントデータV2が抽出された後に、情報処理部203は、第2オクターブのイベントデータV2を画像認識に利用してもよい。画像認識の例は、ユーザーのジェスチャーの認識である。例えば、情報処理部203は、第2オクターブのイベントデータV2に含まれるユーザーの画像を用いて、ユーザーのジェスチャーを認識するための画像認識を行ってもよい。この際、情報処理部203は、複数のオクターブ数のイベントデータを画像認識に利用してもよい。
In addition, the
本実施形態では、固体撮像装置100が様々なオクターブ数のイベントデータを出力する。よって、情報処理部203は、出力されたイベントデータから所定のオクターブ数のイベントデータを抽出することで、様々なオクターブ数のイベントデータを表示することができる。また、情報処理部203は、出力されたイベントデータから所定のオクターブ数のイベントデータを選択することで、様々なオクターブ数のイベントデータを記録することができる。仮に情報処理部203が、ある解像度のイベントデータから別の解像度のイベントデータを生成することにすると、情報処理部203による情報処理が遅延してしまう。本実施形態によれば、様々な解像度(オクターブ数)のイベントデータを生成する処理を固体撮像装置100に担わせることで、情報処理部203による情報処理の遅延を抑制することが可能となる。本実施形態では、様々な解像度のイベントデータを生成する処理を、情報処理部203によりソフトウェア的に行う代わりに、固体撮像装置100によりハードウェア的に行っている。
In this embodiment, the solid-
図11は、第1実施形態の電子機器200の別の一例を示す図である。
Figure 11 is a diagram showing another example of the
図11のAは、電子機器200の一例として、ゲームコンソールを示している。この電子機器200は、図11のAに示すように、撮像装置201’および表示装置202’と有線または無線で接続されて使用される。この電子機器200は、図11のBに示すように、情報処理部203と、記憶部204と、入力部205とを備えている。情報処理部203は、抽出部203aと、選択部203bとを含んでいる。
A of FIG. 11 shows a game console as an example of
撮像装置201’は例えば、ゲームコンソールの付属品のカメラである。撮像装置201’は、前述の撮像部201と同様に、図3に示す固体撮像装置100を含んでいる。この電子機器200は、撮像装置201’および表示装置202’と共に、固体撮像装置100(イベント出力部105)から出力されたイベントデータを利用した情報処理を行う情報処理システムを構成している。
The imaging device 201' is, for example, a camera that is an accessory to a game console. The imaging device 201' includes the solid-
表示装置202’は例えば、液晶大画面テレビである。表示装置202’は、前述の表示部202と同様に、文字や画像を表示するための表示画面を有する。図11のAでは、撮像装置201’が、ゲームコンソールで遊んでいるユーザーを撮像している。図11のBでは、表示装置202’が、このユーザーを撮像して得られたイベントデータを画像の形で表示画面に表示している。表示画面にイベントデータを表示するモードでは、表示画面はビューワーとも呼ばれる。
The display device 202' is, for example, a large-screen LCD television. The display device 202' has a display screen for displaying characters and images, similar to the
図11のBに示す情報処理部203、記憶部204、および入力部205の機能は、図10のAに示す情報処理部203、記憶部204、および入力部205の機能とおおむね同様である。
The functions of the
図12は、図11に示す電子機器200の詳細を説明するための図である。
Figure 12 is a diagram for explaining the details of the
撮像装置201’は、図11のAに示すように、ユーザーの全身を撮像している。そのため、撮像装置201’(固体撮像装置100)から出力される第1~第3オクターブのイベントデータV1~V3は、ユーザーの全身に関するイベントデータを含んでいる。 As shown in A of FIG. 11, the imaging device 201' captures the entire body of the user. Therefore, the event data V1 to V3 of the first to third octaves output from the imaging device 201' (solid-state imaging device 100) includes event data related to the entire body of the user.
図12のAでは、表示装置202’の表示画面が、第3オクターブのイベントデータV3を用いて、ユーザーの全身を低解像度で表示している。図12のAにて点線で囲む領域内の画像E3は、ユーザーの全身を含んでいる。第3オクターブのイベントデータV3の全部を表示画面上に表示すると、画像E3が得られる。 In FIG. 12A, the display screen of the display device 202' displays the user's entire body at low resolution using the third octave event data V3. Image E3 in the area enclosed by the dotted line in FIG. 12A includes the user's entire body. When all of the third octave event data V3 is displayed on the display screen, image E3 is obtained.
図12のBでは、表示装置202’の表示画面が、第2オクターブのイベントデータV2を用いて、ユーザーの全身を中解像度で表示している。図12のBにて点線で囲む領域内の画像E2は、ユーザの手の部分を含んでいる。この画像E2は、第2オクターブのイベントデータV2の一部に相当する。 In FIG. 12B, the display screen of the display device 202' displays the user's entire body at medium resolution using the second octave event data V2. Image E2 in the area enclosed by the dotted line in FIG. 12B includes the user's hand. This image E2 corresponds to a portion of the second octave event data V2.
図12のCでは、表示装置202’の表示画面が、第1オクターブのイベントデータV1を用いて、ユーザーの手の部分を高解像度で表示している。図12のCにて点線で囲む領域内の画像E1は、ユーザの手の部分を含んでいる。この画像E1は、第1オクターブのイベントデータV1の一部に相当する。 In FIG. 12C, the display screen of the display device 202' displays the user's hand in high resolution using the event data V1 of the first octave. Image E1 in the area surrounded by the dotted line in FIG. 12C includes the user's hand. This image E1 corresponds to a portion of the event data V1 of the first octave.
情報処理部203は、このような画像E1~E3を利用することで、ユーザーの全身を拡大または縮小して表示することができる。例えば、表示画面の表示内容を、図12のAから図12のBへと遷移させることで、画像の解像度を上げつつ、ユーザーの全身を拡大して表示することができる。また、表示画面の表示内容を、図12のBから図12のCへと遷移させることで、画像の解像度を上げつつ、ユーザーの手の部分を拡大して表示することができる。これにより、ユーザーの手のジェスチャーを、表示画面上で確認することが可能となる。図12のAから図12のBへの遷移は、抽出部203aにより抽出されるイベントデータを、第3オクターブのイベントデータV3から第2オクターブのイベントデータV2に切り替えることで実現可能である。図12のBから図12のCへの遷移は、抽出部203aにより抽出されるイベントデータを、第2オクターブのイベントデータV2から第1オクターブのイベントデータV1に切り替えることで実現可能である。
The
情報処理部203は、ジェスチャーの確認を自動化するために、抽出部203aにより抽出されたイベントデータを利用して画像認識を行ってもよい。例えば、情報処理部203は、第3オクターブのイベントデータV3から、画像E3の領域、すなわち、ユーザーの全身を画像認識により抽出する。次に、情報処理部203は、第2オクターブのイベントデータV2から、画像E2の領域、すなわち、ユーザーの手の部分を画像認識により抽出する。次に、情報処理部203は、第1オクターブのイベントデータV1から、ユーザーの手のジェスチャーを画像認識により特定する。これにより、ユーザーの手のジェスチャーを、情報処理部203が自動的に認識することが可能となる。本実施形態によれば、様々な解像度(オクターブ数)のイベントデータを生成する処理を固体撮像装置100に担わせることで、このような画像認識の遅延を抑制することが可能となる。
The
以上のように、本実施形態の固体撮像装置100は、画素アレイ101から出力されたイベントデータを第1オクターブのイベントデータV1とし、第1オクターブのイベントデータV1から第2~第iオクターブのイベントデータV2~Viを生成する。よって、本実施形態によれば、イベントデータを利用した情報処理用に様々なオクターブのイベントデータを出力することで、情報処理の遅延を抑制しつつ、固体撮像装置100の高解像度化を実現することが可能となる。
As described above, the solid-
(第2実施形態)
図13は、第2実施形態の固体撮像装置100の構成を示すブロック図である。
Second Embodiment
FIG. 13 is a block diagram showing the configuration of a solid-
本実施形態の固体撮像装置100は、第1実施形態の固体撮像装置と同様に、画素アレイ101と、イベント取得部102と、イベント生成部103と、イベント合成部104と、イベント出力部105とを備えている。本実施形態の固体撮像装置100はさらに、フレームメモリ111を備えている。また、本実施形態のイベント取得部102は、アービタ部102aと、タイムスタンプ部102bとを含んでいる。
The solid-
本実施形態の固体撮像装置100は、アービタ型EVSである。よって、本実施形態のイベント取得部102は、画素アレイ102内の複数の画素102aからイベントデータをランダムな順番で取得する。イベント取得部102が取得したイベントデータは、一定期間フレームメモリ111内に格納された後、フレームメモリ111からイベント生成部103およびイベント合成部104に出力される。フレームメモリ111は、画素アレイ101と同様に、2次元アレイ状(マトリクス状)に配置された複数のメモリセルを含んでいる。フレームメモリ111の各行のイベントデータは、第1オクターブのイベントデータV1として取り扱われる。
The solid-
本実施形態のイベント取得部102は、アービタ型EVS用の機能ブロックとして、アービタ部102aとタイムスタンプ部102bとを含んでいる。アービタ部102aは、複数の画素101aから出力された複数のイベント(リクエスト信号)を調停する。タイムスタンプ部102bは、各画素101aから発火したイベントにタイムスタンプを付与する。本実施形態では、各画素101aのイベントデータ(x、y、t、p)におけるtの値が、タイムスタンプの値となる。
The
図14は、第2実施形態のイベント生成部103の動作を説明するための図である。
Figure 14 is a diagram for explaining the operation of the
図14は、図6のA、図7のA、および図8のAと同様に、m行n列分の第1オクターブのイベントデータV1から、r行s列分の第2オクターブのイベントデータV2を生成する処理を示している。図14は、m=2、n=2、r=1、s=1の例を示している。そのため、2行2列分の第1オクターブのイベントデータV1から、1行1列分の第2オクターブのイベントデータV2が生成され、2×2個の領域P1が、1×1個の領域P2に置換されている。同様に、図14に示す例では、2行2列分の第jオクターブのイベントデータVjから、1行1列分の第j+1オクターブのイベントデータVj+1が生成される。 Fig. 14, like Fig. 6A, Fig. 7A, and Fig. 8A, shows the process of generating r rows and s columns of second octave event data V2 from m rows and n columns of first octave event data V1. Fig. 14 shows an example where m=2, n=2, r=1, and s=1. Therefore, 1 row and 1 column of second octave event data V2 is generated from 2 rows and 2 columns of first octave event data V1, and 2 x 2 regions P1 are replaced with 1 x 1 region P2. Similarly, in the example shown in Fig. 14, 1 row and 1 column of j+1 octave event data Vj+1 is generated from 2 rows and 2 columns of j octave event data Vj.
図14に示す例における処理は、図6のA、図7のA、または図8のAに示す例における処理と同様に行うことが可能である。ただし、本実施形態では、各画素101aのイベントデータ(x、y、t、p)におけるtの値が、タイムスタンプの値となるため、図14に示す4個の領域P1が、互いに異なるtの値を有している。図14では、4個の領域P1のtの値が、それぞれta、tb、tc、およびtdとなっている。
The processing in the example shown in FIG. 14 can be performed in the same manner as the processing in the example shown in FIG. 6A, FIG. 7A, or FIG. 8A. However, in this embodiment, the value of t in the event data (x, y, t, p) of each
本実施形態のイベントデータは、第1実施形態のイベントデータと同様に、オクターブ情報が付加されることで、(oc、x、y、t、p)の形で表される。xおよびyは、領域P1~P3等に対応する画素101aの座標を表し、例えば、領域P1に対応する1つの画素101aの座標や、領域P2に対応する4個の画素101aの平均座標や、領域P3に対応する16個の画素101aの平均座標を表す。tは、イベントデータが得られた時刻を表す。pは、イベントデータのポラリティを表す。
The event data of this embodiment, like the event data of the first embodiment, is expressed in the form (oc, x, y, t, p) with octave information added. x and y represent the coordinates of the
図14では、1つの領域P2のtを、4個の領域P1のtの統計値とする。すなわち、1つの領域P2のtを、4個の領域P1のtに対し統計的な処理を施して得られる値とする。4個の領域P1のtの統計値は例えば、4個の領域P1のtの平均値、最大値、最小値などである。図14は、1つの領域P2のt’を、4個の領域P1のta~tdの平均値とする例を示している(t’=(ta+tb+tc+td)/4)。同様に、4つの領域Pjを1つの領域Pj+1に置換する際にも、1つの領域Pj+1のtを、4個の領域Pjのtの統計値とする。 In FIG. 14, t of one region P2 is set to the statistical value of t of four regions P1. In other words, t of one region P2 is set to the value obtained by performing statistical processing on t of four regions P1. The statistical value of t of four regions P1 is, for example, the average value, maximum value, minimum value, etc. of t of four regions P1. FIG. 14 shows an example in which t' of one region P2 is set to the average value of ta to td of four regions P1 (t' = (ta + tb + tc + td) / 4). Similarly, when replacing four regions Pj with one region Pj+1, t of one region Pj+1 is set to the statistical value of t of four regions Pj.
本実施形態の固体撮像装置100は、フレームメモリ111から出力されたイベントデータを第1オクターブのイベントデータV1とし、第1オクターブのイベントデータV1から第2~第iオクターブのイベントデータV2~Viを生成する。よって、本実施形態によれば、第1実施形態と同様に、イベントデータを利用した情報処理用に様々なオクターブのイベントデータを出力することで、情報処理の遅延を抑制しつつ、固体撮像装置100の高解像度化を実現することが可能となる。
The solid-
(第3実施形態)
図15は、第3実施形態の固体撮像装置100の構成を模式的に示す斜視図である。
Third Embodiment
FIG. 15 is a perspective view that illustrates a schematic configuration of a solid-
本実施形態の固体撮像装置100は、検出チップ120と、検出チップ120上に積層された受光チップ130とを備えている。検出チップ120と受光チップ130は、ビアプラグ、金属パッド、金属バンプなどの接続部を介して電気的に接続されている。本実施形態の固体撮像装置100は、第1または第2実施形態の固体撮像装置100として機能する。
The solid-
図15は、互いに垂直なX軸、Y軸、およびZ軸を示している。X方向およびY方向は横方向に相当し、Z方向は縦方向に相当する。また、+Z方向は上方向に相当し、-Z方向は下方向に相当する。なお、-Z方向は、厳密に重力方向に一致していてもよいし、厳密には重力方向に一致していなくてもよい。 Figure 15 shows an X-axis, a Y-axis, and a Z-axis that are perpendicular to each other. The X-axis and the Y-axis correspond to the horizontal direction, and the Z-axis corresponds to the vertical direction. The +Z direction corresponds to the upward direction, and the -Z direction corresponds to the downward direction. Note that the -Z direction may or may not strictly coincide with the direction of gravity.
図16は、第3実施形態の受光チップ120の構成を模式的に示す平面図である。
Figure 16 is a plan view that shows a schematic configuration of the
図16のAは、受光チップ120の平面構造の例を示している。受光チップ120は、受光部121と、複数のビア配置部122~124とを含んでいる。図16のBは、受光部121の平面構造の例を示している。受光部121は複数のフォトダイオード121aを含んでいる。
A in FIG. 16 shows an example of the planar structure of the light-receiving
受光部121では、複数のフォトダイオード121aがアレイ状(二次元格子状)に配列されている。各フォトダイオード121aには、行アドレスおよび列アドレスからなる画素アドレスが割り当てられており、各フォトダイオード121aは、画素として扱われる。各フォトダイオード121aは、入射光を光電変換して光電流を生成する。ビア配置部122~124には、検出チップ130と電気的に接続されたビアプラグが配置されている。
In the
図17は、第3実施形態の検出チップ130の構成を模式的に示す平面図である。
Figure 17 is a plan view that shows a schematic configuration of the
図17のAは、検出チップ130の平面構造の例を示している。検出チップ130は、アドレスイベント検出部131と、複数のビア配置部132~134と、行駆動回路135と、列駆動回路136と、信号処理回路137とを含んでいる。図17のBは、アドレスイベント検出部131の平面構造の例を示している。アドレスイベント検出部131は複数のアドレスイベント検出回路131aを含んでいる。
A in FIG. 17 shows an example of the planar structure of the
アドレスイベント検出部131では、複数のアドレスイベント検出回路131aがアレイ状(二次元格子状)に配列されている。各アドレスイベント検出回路131aには、画素アドレスが割り当てられており、各アドレスイベント検出回路131aは、同ーアドレスのフォトダイオード121aと電気的に接続されている。各アドレスイベント検出回路121aは、対応するフォトダイオード121aからの光電流に応じた電圧信号を量子化して検出信号として出力する。この検出信号は、入射光の光量が所定の閾値を超えた旨をアドレスイベントとして検出したか否かを示す1ビットの信号であり、信号処理回路137に出力される。ビア配置部132~134には、受光チップ120と電気的に接続されたビアプラグが配置されている。
In the address
行駆動回路135は、行アドレスを選択し、その行アドレスに対応する検出信号をアドレスイベント検出部131に出力させる。列駆動回路136は、列アドレスを選択し、その列アドレスに対応する検出信号をアドレスイベント検出部131に出力させる。信号処理回路137は、アドレスイベント検出部131からの検出信号に対し、所定の信号処理を実行する。信号処理回路137は、検出信号を画素信号として二次元格子状に配列し、画素ごとに1ビットの情報を有する画像データを取得する。信号処理回路137は、この画像データに対し、画像認識処理などの信号処理を実行する。
The
図18は、第3実施形態の各アドレスイベント検出回路131aの構成を示す回路図である。
Figure 18 is a circuit diagram showing the configuration of each address
各アドレスイベント検出回路131aは、電流電圧変換回路310と、バッファ320と、減算器330と、量子化器340と、転送回路350とを備えている。
Each address
電流電圧変換回路310は、対応するフォトダイオード121aからの光電流を電圧信号に変換する。電流電圧変換回路310は、この電圧信号をバッファ320に供給する。
The current-
バッファ320は、電流電圧変換回路310からの電圧信号を補正する。バッファ320は、補正後の電圧信号を減算器330に出力する。
The
減算器330は、行駆動回路135からの行駆動信号に従って、バッファ320からの電圧信号のレベルを低下させる。減算器330は、低下後の電圧信号を量子化器340に供給する。
The
量子化器340は、減算器330からの電圧信号をデジタル信号に量子化して検出信号として出力する。量子化器340は、この検出信号を転送回路350に出力する。
The
転送回路350は、列駆動回路136からの列駆動信号に従って、量子化器340からの検出信号を信号処理回路137に転送する。
The
図19は、第3実施形態の電流電圧変換回路310の構成を示す回路図である。
Figure 19 is a circuit diagram showing the configuration of the current-
電流電圧変換回路310は、N型トランジスタ311と、P型トランジスタ312と、N型トランジスタ313とを備えている。これらのN型およびP型トランジスタ311~313は例えば、MOS(Metal-Oxide-Semiconductor)トランジスタである。
The current-
N型トランジスタ311のソースは、フォトダイオード121aのカソードに電気的に接続されており、N型トランジスタ311のドレインは、電源端子(VDD)に電気的に接続されている。P型トランジスタ312とN型トランジスタ313は、電源端子と接地端子(GND)との間で直列に接続されている。P型トランジスタ312とN型トランジスタ313との間のノードは、N型トランジスタ311のゲートおよびバッファ320の入力端子に電気的に接続されている。P型トランジスタ312のゲートには、所定のバイアス電圧Vbias1が印加される。N型トランジスタ311とフォトダイオード121aとの間のノードは、N型トランジスタ313のゲートと電気的に接続されている。
The source of the N-
N型トランジスタ311のドレインと、N型トランジスタ313のドレインは、電源側に配置されており、このような回路はソースフォロワと呼ばれる。フォトダイオード121aからの光電流は、ソースフォロワにより電圧信号に変換される。P型トランジスタ312は、一定の電流をN型トランジスタ313に供給する。なお、受光チップ120のグランドと検出チップ130のグランドは、干渉対策のために互いに分離されている。
The drain of N-
図20は、第3実施形態の減算器330と量子化器340の構成を示す回路図である。
Figure 20 is a circuit diagram showing the configuration of the
減算器330は、コンデンサ331と、インバータ332と、コンデンサ333と、スイッチ334とを備えている。量子化器340は、コンパレータ341を備えている。
The
コンデンサ331の一方の電極は、バッファ320の出力端子に電気的に接続されており、コンデンサ331の他方の電極は、インバータ332の入力端子に電気的に接続されている。インバータ332は、コンデンサ331を介して入力された電圧信号を反転し、反転した信号をコンパレータ341の非反転入力端子(+)に出力する。コンデンサ333は、インバータ332に並列に接続されている。スイッチ334は、コンデンサ333の両電極を電気的に接続する経路を、行駆動信号に従って開閉する。
One electrode of the
スイッチ334をオンした際に、コンデンサ331のバッファ320側の電極に電圧信号Vinitが入力され、コンデンサ331のインバータ332側の電極は仮想接地端子となる。この仮想接地端子の電位を、便宜上ゼロとする。このとき、コンデンサ331に蓄積される電荷Qinitは、コンデンサ331の容量をC1とすると、次の式1により表される。
When
Qinit=C1×Vinit ・・・ 式1
一方、コンデンサ333の両電極は短絡されているため、コンデンサ333に蓄積される電荷はゼロとなる。
Qinit = C1 × Vinit ...
On the other hand, since both electrodes of the
次に、スイッチ334がオフされて、コンデンサ331のバッファ320側の電極の電圧が、Vafterに変化した場合を考える。このとき、コンデンサ331に蓄積される電荷Qafterは、次の式2により表される。
Next, consider the case where
Qafter=C1×Vafter ・・・ 式2
一方、コンデンサ333に蓄積される電荷Q2は、出力電圧をVoutとし、コンデンサ333の容量をC2とすると、次の式3により表される。
Qafter = C1 x Vafter ...
On the other hand, the charge Q2 stored in the
Q2=C2×Vout ・・・ 式3
このとき、コンデンサ331およびコンデンサ333の総電荷量は変化しないため、次の式4が成立する。
Q2 = C2 x Vout ...
At this time, the total charge amount of the
Qinit=Qafter+Q2 ・・・ 式4
式4に式1~3を代入して変形すると、次の式5が得られる。
Qinit = Qafter + Q2 ...
By substituting
Vout=(C1/C2)×(Vinit-Vafter) ・・・ 式5
式5は、電圧信号の減算動作を表し、減算結果の利得はC1/C2となる。通常、利得を最大化することが望まれるため、C1を大きく設定し、C2を小さく設計することが好ましい。一方、C2が小さすぎると、kTCノイズが増大し、ノイズ特性が悪化するおそれがあるため、C2の容量削減は、ノイズを許容することができる範囲に制限される。さらには、画素ごとに減算器330を含むアドレスイベント検出回路131aが搭載されるため、C1およびC2には、面積上の制約がある。これらを考慮して、例えば、C1は、20~200フェムトファラッド(fF)の値に設定され、C2は、1~20フェムトファラッド(fF)の値に設定される。
Vout = (C1/C2) x (Vinit-Vafter) ... Equation 5
Equation 5 represents the subtraction operation of the voltage signal, and the gain of the subtraction result is C1/C2. Since it is usually desired to maximize the gain, it is preferable to set C1 large and design C2 small. On the other hand, if C2 is too small, kTC noise increases and noise characteristics may deteriorate, so the reduction in the capacitance of C2 is limited to a range in which noise can be tolerated. Furthermore, since an address
コンパレータ341は、減算器330からの電圧信号と、反転入力端子(-)に印加された所定の閾値電圧Vthとを比較する。コンパレータ341は、比較結果を示す信号を検出信号として転送回路350に出力する。
The
同期型の固体撮像素子では、フォトダイオードと3個~4個のトランジスタとを含む簡易な画素回路が、画素ごとに設けられる。これに対し、非同期型の固体撮像素子100では、図18~図20に例示したように、フォトダイオード121aとアドレスイベント検出回路131aとを含む複雑な画素回路が、画素ごとに設けられる。よって、仮にフォトダイオード121aとアドレスイベント検出回路131aの両方を同じチップに配置すると、実装面積が同期型の場合よりも広くなってしまう。そこで、本実施形態の固体撮像素子100では、フォトダイオード121aおよびアドレスイベント検出回路131aをそれぞれ受光チップ120および検出チップ130に配置している。本実施形態によれば、このようなフォトダイオード121aおよびアドレスイベント検出回路131aの分散配置により、実装面積を削減することが可能となる。
In a synchronous solid-state imaging device, a simple pixel circuit including a photodiode and three to four transistors is provided for each pixel. In contrast, in an asynchronous solid-
図21は、第3実施形態の変形例の受光チップ120と検出チップ130の構成を示す回路図である。
Figure 21 is a circuit diagram showing the configuration of the
図19では、電流電圧変換回路310内のN型トランジスタ311、P型トランジスタ312、およびN型トランジスタ313が、検出チップ130内に配置されている。一方で、図21では、電流電圧変換回路310内のN型トランジスタ311およびN型トランジスタ313が、受光チップ120内に配置され、電流電圧変換回路310内のP型トランジスタ312が、検出チップ130内に配置されている。図21の構成は例えば、画素数の増大に伴って、検出チップ130の回路規模が増大するおそれがある場合に採用される。本変形例によれば、N型トランジスタ311およびN型トランジスタ313を受光チップ120内に配置することにより、検出チップ130の回路規模を削減することが可能となる。
In FIG. 19, the N-
また、仮にN型トランジスタ311、313の一方を受光チップ120内に配置し、N型トランジスタ311、313の他方を検出チップ130内を配置すると、受光チップ120内にN型トランジスタ120を形成する工程と、検出チップ130内にN型トランジスタ130を形成する工程とを行う必要があり、受光チップ120および検出チップ130を製造する工程数が多くなる。本変形例によれば、N型トランジスタ311、313の両方を受光チップ120内に配置することで、受光チップ120および検出チップ130を製造する工程数を少なくすることが可能となる。これにより、固体撮像装置100の製造コストを削減することが可能となる。
If one of the N-
以上のように、本実施形態によれば、第1または第2実施形態の固体撮像装置100の実装面積や製造コストを削減することが可能となる。
As described above, according to this embodiment, it is possible to reduce the mounting area and manufacturing costs of the solid-
以上、本開示の実施形態について説明したが、これらの実施形態は、本開示の要旨を逸脱しない範囲内で、種々の変更を加えて実施してもよい。例えば、2つ以上の実施形態を組み合わせて実施してもよい。 Although the embodiments of the present disclosure have been described above, these embodiments may be implemented with various modifications without departing from the spirit of the present disclosure. For example, two or more embodiments may be implemented in combination.
なお、本開示は、以下のような構成を取ることもできる。 This disclosure can also be configured as follows:
(1)
イベントを検出し、前記イベントの検出結果を示すイベントデータを出力する複数の画素と、
前記複数の画素から出力された前記イベントデータを第1オクターブのイベントデータとし、前記第1オクターブのイベントデータから第2~第iオクターブ(iは2以上の整数)のイベントデータを生成するイベント生成部と、
前記第1~第iオクターブのイベントデータのうちの少なくとも一部のイベントデータを出力するイベント出力部と、
を備える固体撮像装置。
(1)
a plurality of pixels that detect an event and output event data indicative of the detection result of the event;
an event generating unit that sets the event data output from the plurality of pixels as event data of a first octave and generates event data of a second to i-th octave (i is an integer equal to or greater than 2) from the event data of the first octave;
an event output unit that outputs at least a part of the event data of the first to i-th octaves;
A solid-state imaging device comprising:
(2)
前記第1~第iオクターブのイベントデータにそれぞれ、前記第1~第iオクターブの識別情報であるオクターブ情報を付加するオクターブ情報付加部をさらに備え、
前記イベント出力部は、前記オクターブ情報が付加された前記イベントデータを出力する、(1)に記載の固体撮像装置。
(2)
an octave information adding unit that adds octave information, which is identification information of the first to i-th octaves, to the event data of the first to i-th octaves, respectively;
The solid-state imaging device according to (1), wherein the event output unit outputs the event data to which the octave information is added.
(3)
前記イベント出力部は、前記イベントデータをオクターブごとに画像表現で出力する、(1)に記載の固体撮像装置。
(3)
The solid-state imaging device according to (1), wherein the event output unit outputs the event data in an image representation for each octave.
(4)
前記イベント生成部は、第jオクターブ(jは1≦j≦i-1を満たす整数)のイベントデータから第j+1オクターブのイベントデータを生成する、(1)に記載の固体撮像装置。
(4)
The solid-state imaging device according to (1), wherein the event generating unit generates event data of a j+1-th octave from event data of a j-th octave (j is an integer satisfying 1≦j≦i−1).
(5)
前記イベント生成部は、m行分(mは2以上の整数)の前記第jオクターブのイベントデータから、1行分の前記第j+1オクターブのイベントデータを生成する、(4)に記載の固体撮像装置。
(5)
The solid-state imaging device according to (4), wherein the event generation unit generates one row of event data for the j+1 octave from m rows of event data for the j octave (m is an integer equal to or greater than 2).
(6)
前記イベント生成部は、m行n列分(nは2以上の整数)の前記第jオクターブのイベントデータから、1行1列分の前記第j+1オクターブのイベントデータを生成する、(5)に記載の固体撮像装置。
(6)
The solid-state imaging device according to (5), wherein the event generation unit generates event data for the j+1 octave for 1 row and 1 column from event data for the j octave for m rows and n columns (n is an integer equal to or greater than 2).
(7)
前記イベント生成部は、前記m行n列分の前記第jオクターブのイベントデータがk個のイベント発火(kは1≦k≦m×nを満たす整数)を含む場合に、前記1行1列分の前記第j+1オクターブのイベントデータにてイベントを発火させる、(6)に記載の固体撮像装置。
(7)
The solid-state imaging device according to (6), wherein the event generation unit ignites an event with the event data of the j+1 octave of the 1st row and 1st column when the event data of the j octave of the m rows and n columns includes k event firings (k is an integer satisfying 1≦k≦m×n).
(8)
mは2であり、nは2であり、かつkは1、2、3、および4である、(7)に記載の固体撮像装置。
(8)
The solid-state imaging device according to (7), wherein m is 2, n is 2, and k is 1, 2, 3, or 4.
(9)
mは2であり、nは2であり、かつkは2、3、および4である、(7)に記載の固体撮像装置。
(9)
The solid-state imaging device according to (7), wherein m is 2, n is 2, and k is 2, 3, or 4.
(10)
mは2であり、nは2であり、かつkは3および4である、(7)に記載の固体撮像装置。
(10)
The solid-state imaging device according to (7), wherein m is 2, n is 2, and k is 3 or 4.
(11)
前記複数の画素から出力された前記イベントデータを格納するフレームメモリをさらに備え、
前記イベント生成部は、前記フレームメモリから出力された前記イベントデータを前記第1オクターブのイベントデータとする、(1)に記載の固体撮像装置。
(11)
A frame memory for storing the event data output from the plurality of pixels,
The solid-state imaging device according to (1), wherein the event generating unit generates the event data output from the frame memory as event data of the first octave.
(12)
固体撮像装置と情報処理部とを備える情報処理システムであって、
前記固体撮像装置は、
イベントを検出し、前記イベントの検出結果を示すイベントデータを出力する複数の画素と、
前記複数の画素から出力された前記イベントデータを第1オクターブのイベントデータとし、前記第1オクターブのイベントデータから第2~第iオクターブ(iは2以上の整数)のイベントデータを生成するイベント生成部と、
前記第1~第iオクターブのイベントデータのうちの少なくとも一部のイベントデータを出力するイベント出力部とを備え、
前記情報処理部は、前記イベント出力部から出力された前記イベントデータを表示画面に表示する、情報処理システム。
(12)
An information processing system including a solid-state imaging device and an information processing unit,
The solid-state imaging device includes:
a plurality of pixels that detect an event and output event data indicative of the detection result of the event;
an event generating unit that sets the event data output from the plurality of pixels as event data of a first octave and generates event data of a second to i-th octave (i is an integer equal to or greater than 2) from the event data of the first octave;
an event output unit that outputs at least a part of the event data of the first to i-th octaves;
The information processing unit displays the event data output from the event output unit on a display screen.
(13)
前記情報処理部は、前記イベント出力部から出力された前記イベントデータから、所定のオクターブ数の前記イベントデータを抽出する抽出部を含み、
前記情報処理部は、前記抽出部により抽出された前記イベントデータを前記表示画面に表示する、(12)に記載の情報処理システム。
(13)
the information processing unit includes an extraction unit that extracts the event data of a predetermined number of octaves from the event data output from the event output unit,
The information processing system according to (12), wherein the information processing unit displays the event data extracted by the extraction unit on the display screen.
(14)
前記情報処理部は、前記イベント出力部から出力された前記イベントデータから、所定のオクターブ数の前記イベントデータを抽出する抽出部を含み、
前記情報処理部は、前記抽出部により抽出された前記イベントデータを利用して画像認識を行う、(12)に記載の情報処理システム。
(14)
the information processing unit includes an extraction unit that extracts the event data of a predetermined number of octaves from the event data output from the event output unit,
The information processing system according to (12), wherein the information processing unit performs image recognition using the event data extracted by the extraction unit.
(15)
前記画像認識は、ユーザーのジェスチャー認識である、(14)に記載の情報処理システム。
(15)
The information processing system according to (14), wherein the image recognition is user gesture recognition.
(16)
前記情報処理部は、前記イベント出力部から出力された前記イベントデータから、ユーザーにより指定されたオクターブ数の前記イベントデータを選択する選択部を含み、
前記情報処理部は、前記選択部により選択された前記イベントデータを記録媒体に記録する、(12)に記載の情報処理システム。
(16)
the information processing unit includes a selection unit that selects the event data for a number of octaves designated by a user from the event data output from the event output unit,
The information processing system according to (12), wherein the information processing unit records the event data selected by the selection unit on a recording medium.
(17)
前記情報処理システムは、前記固体撮像装置と前記情報処理部とを備える電子機器である、(12)に記載の情報処理システム。
(17)
The information processing system according to (12), wherein the information processing system is an electronic device including the solid-state imaging device and the information processing unit.
(18)
前記電子機器はさらに、前記表示画面を有する表示部を備える、(17)に記載の情報処理システム。
(18)
The information processing system according to (17), wherein the electronic device further includes a display unit having the display screen.
(19)
前記情報処理システムは、前記情報処理部を含む電子機器と、前記電子機器の外部に設けられ、前記固体撮像装置を含む撮像装置とを備える、(12)に記載の情報処理システム。
(19)
The information processing system according to (12), further comprising: an electronic device including the information processing section; and an imaging device provided outside the electronic device and including the solid-state imaging device.
(20)
前記情報処理システムはさらに、前記電子機器の外部に設けられ、前記表示画面を有する表示装置を備える、(19)に記載の情報処理システム。
(20)
The information processing system according to (19), further comprising a display device provided outside the electronic device and having the display screen.
1:車両、11:車両制御システム、21:車両制御ECU、
22:通信部、23:地図情報蓄積部、24:位置情報取得部、
25:外部認識センサ、26:車内センサ、27:車両センサ、
31:記憶部、32:走行支援・自動運転制御部、33:DMS、
34:HMI、35:車両制御部、41:通信ネットワーク、
51:カメラ、52:レーダ、53:LiDAR、54:超音波センサ、
61:分析部、62:行動計画部、63:動作制御部、
71:自己位置推定部、72:センサフュージョン部、73:認識部、
81:ステアリング制御部、82:ブレーキ制御部、83:駆動制御部、
84:ボディ系制御部、85:ライト制御部、86:ホーン制御部、
100:固体撮像装置、101:画素アレイ、101a:画素、
102:イベント取得部、102a:アービタ部、102b:タイムスタンプ部、
103:イベント生成部、103a:第1フィルタ部、103b:第2フィルタ部、
103c:第3フィルタ部、104:イベント合成部、
104a:オクターブ情報付加部、104b:出力タイミング調整部、
105:イベント出力部、105a:イベントデータ選択部、
105b:イベントデータ形成部、111:フレームメモリ、
120:受光チップ、121:受光部、121a:フォトダイオード、
122:ビア配置部、123:ビア配置部、124:ビア配置部、
130:検出チップ、131:アドレスイベント検出部、
131a:アドレスイベント検出回路、132:ビア配置部、
133:ビア配置部、134:ビア配置部、
135:行駆動回路、136:列駆動回路、137:信号処理回路、
200:電子機器、201:撮像部、201’:撮像装置、
202:表示部、202’:表示装置、203:情報処理部、
203a:抽出部、203b:選択部、204:記憶部、205:入力部、
310:電流電圧変換回路、311:N型トランジスタ、
312:P型トランジスタ、313:N型トランジスタ、
320:バッファ、330:減算器、331:コンデンサ、
332:インバータ、333:コンデンサ、334:スイッチ、
340:量子化器、341:コンパレータ、350:転送回路
1: vehicle, 11: vehicle control system, 21: vehicle control ECU,
22: communication unit, 23: map information storage unit, 24: location information acquisition unit,
25: external recognition sensor, 26: in-vehicle sensor, 27: vehicle sensor,
31: memory unit, 32: driving assistance/automatic driving control unit, 33: DMS,
34: HMI, 35: vehicle control unit, 41: communication network,
51: camera, 52: radar, 53: LiDAR, 54: ultrasonic sensor,
61: Analysis unit, 62: Action planning unit, 63: Operation control unit,
71: self-position estimation unit, 72: sensor fusion unit, 73: recognition unit,
81: steering control unit, 82: brake control unit, 83: drive control unit,
84: body control unit, 85: light control unit, 86: horn control unit,
100: solid-state imaging device, 101: pixel array, 101a: pixel,
102: event acquisition unit, 102a: arbiter unit, 102b: time stamp unit,
103: event generating unit, 103a: first filter unit, 103b: second filter unit,
103c: third filter unit, 104: event synthesis unit,
104a: octave information adding unit, 104b: output timing adjusting unit,
105: event output unit, 105a: event data selection unit,
105b: event data forming unit, 111: frame memory,
120: light receiving chip, 121: light receiving unit, 121a: photodiode,
122: via placement unit, 123: via placement unit, 124: via placement unit,
130: detection chip, 131: address event detection unit,
131a: address event detection circuit, 132: via placement unit,
133: via arrangement section, 134: via arrangement section,
135: row driving circuit, 136: column driving circuit, 137: signal processing circuit,
200: electronic device, 201: imaging unit, 201': imaging device,
202: display unit, 202': display device, 203: information processing unit,
203a: extraction unit, 203b: selection unit, 204: storage unit, 205: input unit,
310: current-voltage conversion circuit, 311: N-type transistor,
312: P-type transistor, 313: N-type transistor,
320: buffer, 330: subtractor, 331: capacitor,
332: inverter, 333: capacitor, 334: switch,
340: quantizer, 341: comparator, 350: transfer circuit
Claims (20)
前記複数の画素から出力された前記イベントデータを第1オクターブのイベントデータとし、前記第1オクターブのイベントデータから第2~第iオクターブ(iは2以上の整数)のイベントデータを生成するイベント生成部と、
前記第1~第iオクターブのイベントデータのうちの少なくとも一部のイベントデータを出力するイベント出力部と、
を備える固体撮像装置。 a plurality of pixels that detect an event and output event data indicative of the detection result of the event;
an event generating unit that sets the event data output from the plurality of pixels as event data of a first octave and generates event data of a second to i-th octave (i is an integer equal to or greater than 2) from the event data of the first octave;
an event output unit that outputs at least a part of the event data of the first to i-th octaves;
A solid-state imaging device comprising:
前記イベント出力部は、前記オクターブ情報が付加された前記イベントデータを出力する、請求項1に記載の固体撮像装置。 an octave information adding unit that adds octave information, which is identification information of the first to i-th octaves, to the event data of the first to i-th octaves, respectively;
The solid-state imaging device according to claim 1 , wherein the event output section outputs the event data to which the octave information is added.
前記イベント生成部は、前記フレームメモリから出力された前記イベントデータを前記第1オクターブのイベントデータとする、請求項1に記載の固体撮像装置。 A frame memory for storing the event data output from the plurality of pixels,
2. The solid-state imaging device according to claim 1, wherein the event generating section generates the event data output from the frame memory as the event data of the first octave.
前記固体撮像装置は、
イベントを検出し、前記イベントの検出結果を示すイベントデータを出力する複数の画素と、
前記複数の画素から出力された前記イベントデータを第1オクターブのイベントデータとし、前記第1オクターブのイベントデータから第2~第iオクターブ(iは2以上の整数)のイベントデータを生成するイベント生成部と、
前記第1~第iオクターブのイベントデータのうちの少なくとも一部のイベントデータを出力するイベント出力部とを備え、
前記情報処理部は、前記イベント出力部から出力された前記イベントデータを表示画面に表示する、情報処理システム。 An information processing system including a solid-state imaging device and an information processing unit,
The solid-state imaging device includes:
a plurality of pixels that detect an event and output event data indicative of the detection result of the event;
an event generating unit that sets the event data output from the plurality of pixels as event data of a first octave and generates event data of a second to i-th octave (i is an integer equal to or greater than 2) from the event data of the first octave;
an event output unit that outputs at least a part of the event data of the first to i-th octaves;
The information processing unit displays the event data output from the event output unit on a display screen.
前記情報処理部は、前記抽出部により抽出された前記イベントデータを前記表示画面に表示する、請求項12に記載の情報処理システム。 the information processing unit includes an extraction unit that extracts the event data of a predetermined number of octaves from the event data output from the event output unit,
The information processing system according to claim 12 , wherein the information processing unit displays the event data extracted by the extraction unit on the display screen.
前記情報処理部は、前記抽出部により抽出された前記イベントデータを利用して画像認識を行う、請求項12に記載の情報処理システム。 the information processing unit includes an extraction unit that extracts the event data of a predetermined number of octaves from the event data output from the event output unit,
The information processing system according to claim 12 , wherein the information processing unit performs image recognition using the event data extracted by the extraction unit.
前記情報処理部は、前記選択部により選択された前記イベントデータを記録媒体に記録する、請求項12に記載の情報処理システム。 the information processing unit includes a selection unit that selects the event data for a number of octaves designated by a user from the event data output from the event output unit,
The information processing system according to claim 12 , wherein the information processing unit records the event data selected by the selection unit on a recording medium.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022182108A JP2024071260A (en) | 2022-11-14 | 2022-11-14 | Solid-state image pickup device and information process system |
PCT/JP2023/037961 WO2024106132A1 (en) | 2022-11-14 | 2023-10-20 | Solid-state imaging device and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022182108A JP2024071260A (en) | 2022-11-14 | 2022-11-14 | Solid-state image pickup device and information process system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024071260A true JP2024071260A (en) | 2024-05-24 |
Family
ID=91084220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022182108A Pending JP2024071260A (en) | 2022-11-14 | 2022-11-14 | Solid-state image pickup device and information process system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024071260A (en) |
WO (1) | WO2024106132A1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9883122B2 (en) * | 2014-09-16 | 2018-01-30 | Qualcomm Incorporated | Event-based down sampling |
JP2020136958A (en) * | 2019-02-21 | 2020-08-31 | ソニーセミコンダクタソリューションズ株式会社 | Event signal detection sensor and control method |
JP2020161992A (en) * | 2019-03-27 | 2020-10-01 | ソニーセミコンダクタソリューションズ株式会社 | Imaging system and object recognition system |
-
2022
- 2022-11-14 JP JP2022182108A patent/JP2024071260A/en active Pending
-
2023
- 2023-10-20 WO PCT/JP2023/037961 patent/WO2024106132A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024106132A1 (en) | 2024-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102613792B1 (en) | Imaging device, image processing device, and image processing method | |
US11815799B2 (en) | Information processing apparatus and information processing method, imaging apparatus, mobile device, and computer program | |
WO2020195934A1 (en) | Data processing device, data processing method, and program | |
WO2020195700A1 (en) | Image capturing device, and image capturing system | |
TWI788818B (en) | Camera device and camera method | |
WO2022075133A1 (en) | Imaging device, information processing device, imaging system, and imaging method | |
WO2020116205A1 (en) | Information processing device, information processing method, and program | |
WO2022153896A1 (en) | Imaging device, image processing method, and image processing program | |
WO2024024148A1 (en) | On-vehicle monitoring device, information processing device, and on-vehicle monitoring system | |
WO2024106132A1 (en) | Solid-state imaging device and information processing system | |
WO2024214440A1 (en) | Light detection device and light detection system | |
WO2024062842A1 (en) | Solid-state imaging device | |
WO2024106196A1 (en) | Solid-state imaging device and electronic apparatus | |
WO2024185361A1 (en) | Solid-state imaging device | |
WO2024224856A1 (en) | Weighted summation circuit and solid-state imaging device | |
US20240179429A1 (en) | Solid-state imaging device, imaging device, processing method in solid-state imaging device, processing program in solid-state imaging device, processing method in imaging device, and processing program in imaging device | |
JP2024158002A (en) | Weighting addition circuit and solid-state image pickup device | |
WO2022085479A1 (en) | Information processing device, information processing method, and program | |
WO2022153888A1 (en) | Solid-state imaging device, control method for solid-state imaging device, and control program for solid-state imaging device | |
WO2023054090A1 (en) | Recognition processing device, recognition processing method, and recognition processing system | |
WO2022075039A1 (en) | Information processing device, information processing system, and information processing method | |
JP2024085173A (en) | Solid-state imaging device and electronic device | |
US20240241227A1 (en) | Distance measuring device and distance measuring method | |
WO2024018920A1 (en) | Information processing device and information processing method | |
WO2024024471A1 (en) | Information processing device, information processing method, and information processing system |