JP2023076773A - 物体認識システム及び電子機器 - Google Patents

物体認識システム及び電子機器 Download PDF

Info

Publication number
JP2023076773A
JP2023076773A JP2020072261A JP2020072261A JP2023076773A JP 2023076773 A JP2023076773 A JP 2023076773A JP 2020072261 A JP2020072261 A JP 2020072261A JP 2020072261 A JP2020072261 A JP 2020072261A JP 2023076773 A JP2023076773 A JP 2023076773A
Authority
JP
Japan
Prior art keywords
event
sensor
neural network
pixel
recognition system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020072261A
Other languages
English (en)
Inventor
慶 中川
Kei Nakagawa
克彦 半澤
Katsuhiko Hanzawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Sony Group Corp
Original Assignee
Sony Semiconductor Solutions Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp, Sony Group Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2020072261A priority Critical patent/JP2023076773A/ja
Priority to PCT/JP2021/013696 priority patent/WO2021210389A1/ja
Priority to US17/916,924 priority patent/US20230154135A1/en
Publication of JP2023076773A publication Critical patent/JP2023076773A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/47Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】より高速に認識処理を行うことができる物体認識システム及び電子機器を提供する。【解決手段】本開示の物体認識システムは、画素の輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出センサ、及び、スパイキングニューラルネットワークを備える。そして、スパイキングニューラルネットワークは、イベント検出センサの検出結果に基づいて、認識対象の物体の認識処理を実行する。また、本開示の電子機器は、上記の構成の物体認識システムを有する。【選択図】 図1

Description

本開示は、物体認識システム及び電子機器に関する。
物体認識システムにおいて、物体を画像認識するセンサとして、例えば、DVS(Dynamic Vision Sensor)と呼ばれる非同期型の撮像装置が用いられている(例えば、特許文献1参照)。非同期型の撮像装置は、入射光を光電変換する画素の輝度変化が所定の閾値を超えたことをイベントとして検出することができる。従って、この種の非同期型の撮像装置については、イベント検出センサと言うこともできる。
WO-A1-2019/087471
上記のイベント検出センサでは、非同期型の撮像装置であることで、垂直同期信号等の同期信号に同期して撮像を行う同期型の撮像装置よりも高速にイベントを検出することができる。しかし、インタフェースや処理速度等の関係上、非同期で逐次出力されるイベント情報を、例えば、30フレーム/秒の画像にフレーム化して出力しているのが現状である。そのため、イベント検出センサの場合、高速にイベント検出を行うことができるものの、フレーム化処理を行っていることによって、認識処理に時間がかかることになる。
そこで、本開示は、より高速に認識処理を行うことができる物体認識システム、及び、当該物体認識システムを有する電子機器を提供することを目的とする。
上記の目的を達成するための本開示の物体認識システムは、
画素の輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出センサ、及び、
スパイキングニューラルネットワーク、
を備え、
スパイキングニューラルネットワークは、イベント検出センサの検出結果に基づいて、認識対象の物体の認識処理を実行する。
また、上記の目的を達成するための本開示の電子機器は、上記の構成の物体認識システムを有する。
図1Aは、スパイキングニューラルネットワークを用いたアナログ処理の物体認識システムを示すブロック図であり、図1Bは、スパイキングニューラルネットワークを用いたデジタル処理の物体認識システムを示すブロック図である。 図2は、実施例1に係る物体認識システムのシステム構成の一例を示すブロック図である。 図3は、非同期型の撮像装置から成るイベント検出センサの構成の一例を示すブロック図である。 図4は、回路構成例1に係る画素の回路構成を示す回路図である。 図5は、回路構成例2に係る画素の回路構成を示す回路図である。 図6は、回路構成例3に係る画素の回路構成を示す回路図である。 図7は、回路構成例4に係る画素の回路構成を示す回路図である。 図8は、同期型の撮像装置から成るイベント検出センサの構成の一例を示すブロック図である。 図9は、画像センサの一例であるCMOS型イメージセンサの構成の概略を示すブロック図である。 図10は、画像センサにおける画素の回路構成の一例を示す回路図である。 図11は、ToF方式の測距センサの構成の一例を示すブロック図である。 図12は、測距センサにおける光検出部の構成の一例を示すブロック図である。 図13は、光検出部における画素の回路構成の一例を示す回路図である。 図14は、ToF方式の測距センサにおける距離の算出について説明するためのタイミング波形図である。 図15は、実施例1に係る物体認識システムにおける認識処理の一例の流れを示すフローチャートである。 図16は、実施例2に係る物体認識システムのシステム構成の一例を示すブロック図である。 図17は、実施例2に係る物体認識システムにおける認識処理の一例の流れを示すフローチャートである。 図18は、実施例3に係る物体認識システムのシステム構成の一例を示すブロック図である。 図19は、実施例3に係る物体認識システムにおける認識処理の一例の流れを示すフローチャートである。 図20は、実施例4に係る物体認識システムのシステム構成の一例を示すブロック図である。 図21は、実施例4に係る物体認識システムにおける認識処理の一例の流れを示すフローチャートである。 図22は、実施例5に係るイベント検出センサの閾値制御の一例の流れを示すフローチャートである。 図23は、実施例6に係るイベント検出センサの閾値制御の一例の流れを示すフローチャートである。 図24は、実施例7に係るイベント検出センサの閾値制御の一例の流れを示すフローチャートである。 図25は、実施例8に係る物体認識システムのシステム構成の一例を示すブロック図である。 図26は、実施例8に係る物体認識システムにおける認識処理の一例の流れを示すフローチャートである。 図27A及び図27Bは、実施例9に係るON画素及びOFF画素の画素配置例(その1)を示す図である。 図28A及び図28Bは、実施例9に係るON画素及びOFF画素の画素配置例(その2)を示す図である。 図29Aは、実施例10に係るDVSセンサ及びToFセンサのセンサ配置例を示す図であり、図29Bは、実施例10に係るDVSセンサ及びRGBセンサのセンサ配置例を示す図である。 図30は、本開示の電子機器の一例であるスマートフォンを正面側から見た外観図である。
以下、本開示の技術を実施するための形態(以下、「実施形態」と記述する)について図面を用いて詳細に説明する。本開示の技術は実施形態に限定されるものではない。以下の説明において、同一要素又は同一機能を有する要素には同一符号を用いることとし、重複する説明は省略する。尚、説明は以下の順序で行う。
1.本開示の物体認識システム及び電子機器、全般に関する説明
2.本開示の実施形態
2-1.実施例1(物体を検出する検出装置として複数のセンサを用いる例)
2-1-1.システム構成
2-1-2.非同期型の撮像装置から成るイベント検出センサの構成例
2-1-3.画素の回路構成例
2-1-3-1.回路構成例1
2-1-3-2.回路構成例2
2-1-3-3.回路構成例3
2-1-3-4.回路構成例4
2-1-4.同期型の撮像装置から成るイベント検出センサの構成例
2-1-5.画像センサの構成例
2-1-5-1.CMOS型イメージセンサの構成例
2-1-5-2.画素の回路構成例
2-1-6.測距センサの構成例
2-1-6-1.システム構成
2-1-6-2.光検出部の構成例
2-1-6-3.画素の回路構成例
2-1-7.実施例1に係る物体認識システムの認識処理例
2-2.実施例2(実施例1の変形例:イベント検出センサ、画像センサ、及び、測距センサに対してスパイキングニューラルネットワークを2つ設ける例)
2-2-1.システム構成
2-2-2.実施例2に係る物体認識システムの認識処理例
2-3.実施例3(実施例1の変形例:イベント検出センサ、画像センサ、及び、測距センサのそれぞれにスパイキングニューラルネットワークを設ける例)
2-3-1.システム構成
2-3-2.実施例3に係る物体認識システムの認識処理例
2-4.実施例4(スパイキングニューラルネットワークの他に、畳み込みニューラルネットワークを用いる例)
2-4-1.システム構成
2-4-2.実施例4に係る物体認識システムの認識処理例
2-5.実施例5(実施例4の変形例:イベント検出センサの閾値を制御する例)
2-6.実施例6(実施例4の変形例:イベント検出センサの特定の領域のイベントレートを制御する例)
2-7.実施例7(実施例4の変形例:イベント検出センサの特定の領域のイベントレート、並びに、画像センサ及び/又は測距センサのフレームレートを制御する例)
2-8.実施例8(測距センサ等で用いられる光源を制御する例)
2-8-1.システム構成
2-8-2.実施例8に係る物体認識システムの認識処理例
2-9.実施例9(イベント検出センサにおいて、ON画素とOFF画素とが混在する場合の画素配置例)
2-10.実施例10(DVSセンサ及びRGBセンサ、並びに、DVSセンサ及びToFセンサが混在する場合のセンサ配置例)
3.変形例
4.本開示の電子機器(スマートフォンの例)
5.本開示がとることができる構成
<本開示の物体認識システム及び電子機器、全般に関する説明>
本開示の物体認識システム及び電子機器にあっては、イベント検出センサについて、非同期型の撮像装置から成る構成とすることができる。
上述した好ましい構成を含む本開示の物体認識システム及び電子機器にあっては、認識対象の物体の画像情報を取得する画像センサ、及び、認識対象の物体の三次元画像情報を取得する測距センサの少なくとも一方のセンサを有する構成とすることができる。画像センサについては、所定のフレームレートで撮像を行う同期型の撮像装置から成る構成とすることができる。測距センサについては、認識対象の物体に対して光を照射し、その照射光が認識対象の物体で反射されて戻ってまでの光の飛行時間を検出するToF方式の測距装置から成る構成とすることができる。
また、上述した好ましい構成を含む本開示の物体認識システム及び電子機器にあっては、スパイキングニューラルネットワークについて、イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、並びに、画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、から成る構成とすることができる。
あるいは又、上述した好ましい構成を含む本開示の物体認識システム及び電子機器にあっては、スパイキングニューラルネットワークについて、イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、画像センサから出力される画像情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、及び、測距センサから出力される三次元画像情報に基づいて認識処理を行う第3のスパイキングニューラルネットワーク、から成る構成とすることができる。
また、上述した好ましい構成を含む本開示の物体認識システム及び電子機器にあっては、画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う畳み込みニューラルネットワークを有する構成とすることができる。
また、上述した好ましい構成を含む本開示の物体認識システム及び電子機器にあっては、イベント検出センサにおいて、有意なイベント情報を出力した画素の周囲のイベント数に応じて、イベント検出センサのイベント検出閾値を制御する構成とすることができる。あるいは又、イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げる構成とすることができる。
また、上述した好ましい構成を含む本開示の物体認識システム及び電子機器にあっては、イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、画像センサ及び測距センサの少なくとも一方のフレームレートを上げる構成とすることができる。
また、上述した好ましい構成を含む本開示の物体認識システム及び電子機器にあっては、認識対象の物体に光を照射する光源を有し、イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、関心領域の部分に光を照射するように光源を制御する構成とすることができる。
<本開示の実施形態>
本開示の実施形態に係る物体認識システムは、認識対象の物体について、画像認識でよく使われる深層学習(ディープラーニング)の手法の一つであり、通常のニューラルネットワークよりも、緻密に神経細胞をモデリングしたスパイキングニューラルネットワーク(SNN:Spiking Neural Networks)を用いて認識処理を行うことを特徴としている。スパイキングニューラルネットワークは、発火頻度ではなく、ニューロンの内部電位に注目したモデルであって、アナログ量をパルスタイミングで表現する。また、スパイキングニューラルネットワークは、非同期動作なので、高速処理が可能である。
スパイキングニューラルネットワークを用いた物体認識システムとしては、図1Aに示すアナログ処理、及び、図1Bに示すデジタル処理を例示することができる。スパイキングニューラルネットワーク1には、認識対象の物体を検出する検出装置から、物体に関する情報が入力される。ここでは、認識対象の物体を検出する検出装置として、非同期型の撮像装置の一例であるイベント検出センサ2を用いる場合を例に挙げて説明する。イベント検出センサ2は、画素の輝度変化が所定の閾値(イベント検出閾値)を超えたことをイベントとして検出する。
図1Aに示すアナログ処理の場合には、イベント検出センサ2から、アナログ処理対応のスパイキングニューラルネットワーク1に対して、認識対象の物体の座標点を同定するX-Yアドレス情報が、アナログのイベント情報として入力される。アナログ処理対応のスパイキングニューラルネットワーク1は、イベント情報が入ってきた順番で時間情報を取得し、X-Yアドレス情報及び時間情報に基づいて、物体検知、物体認識等の認識結果を出力する。
図1Bに示すデジタル処理の場合には、イベント検出センサ2から、デジタル処理対応のスパイキングニューラルネットワーク1に対して、X-Yアドレス情報、及び、イベントが発生した相対的な時刻を表すタイムスタンプがデジタルのイベント情報として入力される。デジタル処理対応のスパイキングニューラルネットワーク1は、X-Yアドレス情報及びタイムスタンプに基づいて、物体検知、物体認識等の認識結果を出力する。
本実施形態に係る物体認識システムによれば、スパイキングニューラルネットワーク1を用いて物体検知、物体認識等の認識処理を行うようにしていることから、イベント検出センサ2側でフレーム化処理を行う必要がなく、しかも、スパイキングニューラルネットワーク1が、高速処理が可能であるため、より高速に認識処理を行うことができる。
以下に、本実施形態に係る物体認識システムの具体的な実施例について説明する。
≪実施例1≫
実施例1は、認識対象の物体を検出する検出装置として複数のセンサを用いる物体認識システムの例である。実施例1に係る物体認識システムのシステム構成の一例を図2に示す。
[システム構成]
図2に示すように、実施例1に係る物体認識システムは、認識処理を行うスパイキングニューラルネットワーク1の他に、認識対象の物体を検出する検出装置として、例えば、イベント検出センサ2、画像センサ3、及び、測距センサ4の3つのセンサを備え、更に、システム制御部5及びアプリケーションプロセッサ6を備えている。
イベント検出センサ2は、DVSと呼ばれるセンサであり、入射光を光電変換する画素の輝度変化が所定の閾値(イベント検出閾値)を超えたことをイベントとして検出し、イベント情報をスパイキングニューラルネットワーク1に供給する。イベント検出センサ2としては、例えば、非同期型の撮像装置を用いることができる。但し、非同期型の撮像装置に限られるものではなく、同期型の撮像装置を用いることもできる。
画像センサ3は、垂直同期信号等の同期信号に同期して撮像を行う同期型の撮像装置である。すなわち、画像センサ3は、所定のフレームレート、例えば、固定のフレームレートで撮像を行う撮像装置であり、撮像した画像情報をスパイキングニューラルネットワーク1に供給する。画像センサ3としては、例えば、後述するRGBセンサを用いることができる。
測距センサ4は、認識対象の物体(被写体)までの距離情報(距離画像情報)や、三次元画像情報(物体表面の奥行き情報/深度情報)を取得する測距装置であり、距離情報や三次元画像情報をスパイキングニューラルネットワーク1に供給する。測距センサ4としては、認識対象の物体(被写体)に対して光源から光を照射し、その照射光が認識対象の物体で反射されて光検出部に戻ってまでの光の飛行時間を検出するToF(Time of Flight:光飛行時間)センサを用いることができる。
システム制御部5は、例えば、プロセッサから成り、スパイキングニューラルネットワーク1からの指示の下に、イベント検出センサ2、画像センサ3、及び、測距センサ4の制御を行う。イベント検出センサ2、画像センサ3、及び、測距センサ4で取得された認識対象の物体に関する情報は、スパイキングニューラルネットワーク1に供給される。
スパイキングニューラルネットワーク1は、先ず、システム制御部5を通して、イベント検出センサ2を起動し、動作状態とする。動作状態にあるイベント検出センサ2がイベントを検出し、イベント検出センサ2からイベント情報が出力されると、スパイキングニューラルネットワーク1は、イベント情報を受けて、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動する。
そして、スパイキングニューラルネットワーク1は、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される三次元画像情報に基づいて、認識対象の物体の認識処理を行い、物体検知、物体認識等の認識結果を次段のアプリケーションプロセッサ6に供給する。
アプリケーションプロセッサ6は、スパイキングニューラルネットワーク1から供給される物体検知、物体認識等の認識結果を受けて、所定の処理、例えば、顔検出や顔認証等の処理を実行する。
以下に、イベント検出センサ2、画像センサ3、及び、測距センサ4の具体的な構成の一例について説明する。
[非同期型の撮像装置から成るイベント検出センサの構成例]
非同期型の撮像装置から成るイベント検出センサの構成の一例を図3に示す。イベント検出センサ2は、DVSセンサ部20、DVS制御部30、及び、データ処理部40から成る構成となっている。
DVSセンサ部20は、複数の画素21が行列状(アレイ状)に2次元配列されて成る画素アレイ部22を有する。複数の画素21のそれぞれは、光電変換素子210及びアドレスイベント検出部211を有し、光電変換素子210での光電変換によって生成される電気信号としての光電流に応じた電圧のアナログ信号を画素信号として生成し、出力する。また、複数の画素21のそれぞれは、アドレスイベント検出部211において、入射光の輝度に応じた光電流に、所定の閾値を超える変化が生じたか否かによって、イベントの有無を検出する。換言すれば、複数の画素21のそれぞれは、輝度変化が所定の閾値(イベント検出閾値)を超えたことをイベントとして検出する。
DVSセンサ部20は、複数の画素21が行列状に2次元配列されて成る画素アレイ部22の他に、画素アレイ部22の周辺回路部として、センサ制御部23、Xアービタ部24、Yアービタ部25、及び、信号処理部26を備えている。ここで、Xアービタ部24のXは、行列状配列の画素行を意味し、Yアービタ部25のYは、行列状配列の画素列を意味する。
複数の画素21のそれぞれは、イベントを検出した際に、イベントの発生を表すイベントデータの出力を要求するリクエストをXアービタ部24及びYアービタ部25に出力する。そして、複数の画素21のそれぞれは、イベントデータの出力の許可を表す応答をXアービタ部24及びYアービタ部25から受け取った場合、センサ制御部23及び信号処理部26に対してイベントデータを出力する。
センサ制御部23は、画素アレイ部22の各画素21の駆動を行う。Xアービタ部24及びYアービタ部25は、複数の画素21のそれぞれから供給されるイベントデータの出力を要求するリクエストを調停し、その調停結果(即ち、イベントデータの出力の許可/不許可)に基づく応答、及び、イベント検出をリセットするリセット信号を画素21に対して送信する。信号処理部26は、画素アレイ部22から出力されるイベントデータに対して所定の信号処理を実行し、信号処理後のイベントデータを出力する。
上記の構成のDVSセンサ部20は、DVS制御部30による制御の下に、入射光を光電変換する画素21の輝度変化が所定の閾値を超えたことをイベントとして検出する。そして、DVSセンサ部20によるイベント検出結果は、データ処理部40に供給される。データ処理部40は、DVSセンサ部20から供給されるイベント検出結果を記憶する記憶部401、及び、記憶部401の記憶内容に基づくデータ生成を行うデータ生成部402から成り、データ処理結果を出力する。
上述したように、画素21で生成される光電流の変化は、画素21(即ち、光電変換素子210)に入射する光の光量変化(輝度変化)とも捉えることができる。従って、イベントは、所定の閾値を超える画素21の光量変化(輝度変化)であるとも言うことができる。イベントの発生を表すイベントデータには、少なくとも、イベントとしての光量変化が発生した画素21の位置を表す座標等の位置情報、即ち、X-Yアドレス情報が含まれる。イベントデータには、位置情報の他、光量変化の極性を含ませることができる。
画素21からイベントが発生したタイミングで出力されるイベントデータの系列については、イベントデータどうしの間隔がイベントの発生時のまま維持されている限り、イベントデータは、イベントが発生した相対的な時刻を表す時刻情報を暗示的に含んでいるということができる。
但し、イベントデータがメモリに記憶されること等により、イベントデータどうしの間隔がイベントの発生時のまま維持されなくなると、イベントデータに暗示的に含まれる時刻情報が失われる。そのため、信号処理部26は、イベントデータどうしの間隔がイベントの発生時のまま維持されなくなる前に、イベントデータに、タイムスタンプ等の、イベントが発生した相対的な時刻を表す時刻情報を含める。
[画素の回路構成例]
続いて、画素21の具体的な回路構成例について説明する。画素21は、輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出部211を有する。
画素21は、光電流の変化量が所定の閾値を超えたか否かにより、イベントの発生の有無を検出する。イベントは、例えば、光電流の変化量が上限の閾値を超えた旨を示すオンイベント、及び、その変化量が下限の閾値を下回った旨を示すオフイベントから成る。また、イベントの発生を表すイベントデータ(イベント情報)は、例えば、オンイベントの検出結果を示す1ビット、及び、オフイベントの検出結果を示す1ビットから成る。尚、画素21については、オンイベントのみについて検出する機能を有する構成とすることもできるし、オフイベントのみについて検出する機能を有する構成とすることもできる。
(回路構成例1)
回路構成例1は、コンパレータを1つ用いて、オンイベントの検出、及び、オフイベントの検出を時分割で行う例である。回路構成例1に係る画素21の回路図を図4に示す。回路構成例1に係る画素21は、光電変換素子210の他に、アドレスイベント検出部211として、受光回路212、メモリ容量213、コンパレータ214、リセット回路215、インバータ216、及び、出力回路217を有する回路構成となっている。
上記の回路構成の画素21は、センサ制御部23による制御の下に、オンイベント及びオフイベントの検出を行う。ここで、オンイベントとは、光電流の変化量が上限の閾値を超えた旨を示すイベントであり、オフイベントとは、光電流の変化量が下限の閾値を下回った旨を示すイベントである。
光電変換素子210は、第1電極(アノード電極)が受光回路212の入力端に接続され、第2電極(カソード電極)が基準電位ノードであるグランドノードに接続されており、入射光を光電変換して光の強度(光量)に応じた電荷量の電荷を生成する。また、光電変換素子210は、生成した電荷を光電流Iphotoに変換する。
受光回路212は、光電変換素子210が検出した、光の強度(光量)に応じた光電流Iphotoを電圧Vprに変換する。ここで、光の強度に対する電圧Vprの関係は、通常、対数の関係である。すなわち、受光回路212は、光電変換素子210の受光面に照射される光の強度に対応する光電流Iphotoを、対数関数である電圧Vprに変換する。但し、光電流Iphotoと電圧Vprとの関係は、対数の関係に限られるものではない。
受光回路212から出力される、光電流Iphotoに応じた電圧Vprは、メモリ容量213を経た後、電圧Vdiffとしてコンパレータ214の第1入力である反転(-)入力となる。コンパレータ214は、通常、差動対トランジスタによって構成される。コンパレータ214は、センサ制御部23から与えられる閾値電圧Vbを第2入力である非反転(+)入力とし、オンイベントの検出、及び、オフイベントの検出を時分割で行う。また、オンイベント/オフイベントの検出後は、リセット回路215によって、画素21のリセットが行われる。
センサ制御部23は、閾値電圧Vbとして、時分割で、オンイベントを検出する段階では電圧Vonを出力し、オフイベントを検出する段階では電圧Voffを出力し、リセットを行う段階では電圧Vresetを出力する。電圧Vresetは、電圧Vonと電圧Voffとの間の値、好ましくは、電圧Vonと電圧Voffとの中間の値に設定される。ここで、「中間の値」とは、厳密に中間の値である場合の他、実質的に中間の値である場合も含む意味であり、設計上あるいは製造上生ずる種々のばらつきの存在は許容される。
また、センサ制御部23は、画素21に対して、オンイベントを検出する段階ではOn選択信号を出力し、オフイベントを検出する段階ではOff選択信号を出力し、リセットを行う段階ではグローバルリセット信号を出力する。On選択信号は、インバータ216と出力回路217との間に設けられた選択スイッチSWonに対してその制御信号として与えられる。Off選択信号は、コンパレータ214と出力回路217との間に設けられた選択スイッチSWoffに対してその制御信号として与えられる。
コンパレータ214は、オンイベントを検出する段階では、電圧Vonと電圧Vdiffとを比較し、電圧Vdiffが電圧Vonを超えたとき、光電流Iphotoの変化量が上限の閾値を超えた旨を示すオンイベント情報Onを比較結果として出力する。オンイベント情報Onは、インバータ216で反転された後、選択スイッチSWonを通して出力回路217に供給される。
コンパレータ214は、オフイベントを検出する段階では、電圧Voffと電圧Vdiffとを比較し、電圧Vdiffが電圧Voffを下回ったとき、光電流Iphotoの変化量が下限の閾値を下回った旨を示すオフイベント情報Offを比較結果として出力する。オフイベント情報Offは、選択スイッチSWoffを通して出力回路217に供給される。
リセット回路215は、リセットスイッチSWRS、2入力OR回路2151、及び、2入力AND回路2152を有する構成となっている。リセットスイッチSWRSは、コンパレータ214の反転(-)入力端子と出力端子との間に接続されており、オン(閉)状態となることで、反転入力端子と出力端子との間を選択的に短絡する。
OR回路2151は、選択スイッチSWonを経たオンイベント情報On、及び、選択スイッチSWoffを経たオフイベント情報Offを2入力とする。AND回路2152は、OR回路2151の出力信号を一方の入力とし、センサ制御部23から与えられるグローバルリセット信号を他方の入力とし、オンイベント情報On又はオフイベント情報Offのいずれかが検出され、グローバルリセット信号がアクティブ状態のときに、リセットスイッチSWRSをオン(閉)状態とする。
このように、AND回路2152の出力信号がアクティブ状態となることで、リセットスイッチSWRSは、コンパレータ214の反転入力端子と出力端子との間を短絡し、画素21に対して、グローバルリセットを行う。これにより、イベントが検出された画素21だけについてリセット動作が行われる。
出力回路217は、オフイベント出力トランジスタNM1、オンイベント出力トランジスタNM2、及び、電流源トランジスタNM3を有する構成となっている。オフイベント出力トランジスタNM1は、そのゲート部に、オフイベント情報Offを保持するためのメモリ(図示せず)を有している。このメモリは、オフイベント出力トランジスタNM1のゲート寄生容量から成る。
オフイベント出力トランジスタNM1と同様に、オンイベント出力トランジスタNM2は、そのゲート部に、オンイベント情報Onを保持するためのメモリ(図示せず)を有している。このメモリは、オンイベント出力トランジスタNM2のゲート寄生容量から成る。
読出し段階において、オフイベント出力トランジスタNM1のメモリに保持されたオフイベント情報Off、及び、オンイベント出力トランジスタNM2のメモリに保持されたオンイベント情報Onは、センサ制御部23から電流源トランジスタNM3のゲート電極に行選択信号が与えられることで、画素アレイ部22の画素行毎に、出力ラインnRxOff及び出力ラインnRxOnを通して信号処理部26に転送される。
上述したように、回路構成例1に係る画素21は、1つのコンパレータ214を用いて、センサ制御部23による制御の下に、オンイベントの検出、及び、オフイベントの検出を時分割で行うイベント検出機能を有する構成となっている。
(回路構成例2)
回路構成例2は、コンパレータを2つ用いて、オンイベントの検出、及び、オフイベントの検出を並行して(同時に)行う例である。回路構成例2に係る画素21の回路図を図5に示す。
図5に示すように、回路構成例2に係る画素21は、オンイベントを検出するためのコンパレータ214A、及び、オフイベントを検出するためのコンパレータ214Bを有する構成となっている。このように、2つのコンパレータ214A及びコンパレータ214Bを用いてイベント検出を行うことで、オンイベントの検出動作とオフイベントの検出動作とを並行して実行することができる。その結果、オンイベント及びオフイベントの検出動作について、より速い動作を実現できる。
オンイベント検出用のコンパレータ214Aは、通常、差動対トランジスタによって構成される。コンパレータ214Aは、光電流Iphotoに応じた電圧Vdiffを第1入力である非反転(+)入力とし、閾値電圧Vbとしての電圧Vonを第2入力である反転(-)入力とし、両者の比較結果としてオンイベント情報Onを出力する。オフイベント検出用のコンパレータ214Bも、通常、差動対トランジスタによって構成される。コンパレータ214Bは、光電流Iphotoに応じた電圧Vdiffを第1入力である反転入力とし、閾値電圧Vbとしての電圧Voffを第2入力である非反転入力とし、両者の比較結果としてオフイベント情報Offを出力する。
コンパレータ214Aの出力端子と出力回路217のオンイベント出力トランジスタNM2のゲート電極との間には、選択スイッチSWonが接続されている。コンパレータ214Bの出力端子と出力回路217のオフイベント出力トランジスタNM1のゲート電極との間には、選択スイッチSWoffが接続されている。選択スイッチSWon及び選択スイッチSWoffは、センサ制御部23から出力されるサンプル信号によりオン(閉)/オフ(開)制御が行われる。
コンパレータ214Aの比較結果であるオンイベント情報Onは、選択スイッチSWonを介して、オンイベント出力トランジスタNM2のゲート部のメモリに保持される。オンイベント情報Onを保持するためのメモリは、オンイベント出力トランジスタNM2のゲート寄生容量から成る。コンパレータ214Bの比較結果であるオンイベントOffは、選択スイッチSWoffを介して、オフイベント出力トランジスタNM1のゲート部のメモリに保持される。オンイベントOffを保持するためのメモリは、オフイベント出力トランジスタNM1のゲート寄生容量から成る。
オンイベント出力トランジスタNM2のメモリに保持されたオンイベント情報On、及び、オフイベント出力トランジスタNM1のメモリに保持されたオフイベント情報Offは、センサ制御部23から電流源トランジスタNM3のゲート電極に行選択信号が与えられることで、画素アレイ部22の画素行毎に、出力ラインnRxOn及び出力ラインnRxOffを通して信号処理部26に転送される。
上述したように、回路構成例2に係る画素21は、2つのコンパレータ214A及びコンパレータ214Bを用いて、センサ制御部23による制御の下に、オンイベントの検出と、オフイベントの検出とを並行して(同時に)行うイベント検出機能を有する構成となっている。
(回路構成例3)
回路構成例3は、オンイベントのみについて検出を行う例である。回路構成例3に係る画素21の回路図を図6に示す。
回路構成例3に係る画素21は、1つのコンパレータ214を有している。コンパレータ214は、光電流Iphotoに応じた電圧Vdiffを第1入力である反転(-)入力とし、センサ制御部50から閾値電圧Vbとして与えられる電圧Vonを第2入力である非反転(+)入力とし、両者を比較することによってオンイベント情報Onを比較結果として出力する。ここで、コンパレータ214を構成する差動対トランジスタとしてN型トランジスタを用いることで、回路構成例1(図4参照)で用いていたインバータ216を不要とすることができる。
コンパレータ214の比較結果であるオンイベント情報Onは、オンイベント出力トランジスタNM2のゲート部のメモリに保持される。オンイベント情報Onを保持するためのメモリは、オンイベント出力トランジスタNM2のゲート寄生容量から成る。オンイベント出力トランジスタNM2のメモリに保持されたオンイベント情報Onは、センサ制御部23から電流源トランジスタNM3のゲート電極に行選択信号が与えられることで、画素アレイ部22の画素行毎に、出力ラインnRxOnを通して信号処理部26に転送される。
上述したように、回路構成例3に係る画素21は、1つのコンパレータ214を用いて、センサ制御部23による制御の下に、オンイベント情報Onのみについて検出を行うイベント検出機能を有する構成となっている。
(回路構成例4)
回路構成例4は、オフイベントのみの検出を行う例である。回路構成例4に係る画素21の回路図を図7に示す。
回路構成例4に係る画素21は、1つのコンパレータ214を有している。コンパレータ214は、光電流Iphotoに応じた電圧Vdiffを第1入力である反転(-)入力とし、センサ制御部23から閾値電圧Vbとして与えられる電圧Voffを第2入力である非反転(+)入力とし、両者を比較することによってオフイベント情報Offを比較結果として出力する。コンパレータ214を構成する差動対トランジスタとしては、P型トランジスタを用いることができる。
コンパレータ214の比較結果であるオフイベント情報Offは、オフイベント出力トランジスタNM1のゲート部のメモリに保持される。オフイベント情報Offを保持するメモリは、オフイベント出力トランジスタNM1のゲート寄生容量から成る。オフイベント出力トランジスタNM1のメモリに保持されたオフイベント情報Offは、センサ制御部23から電流源トランジスタNM3のゲート電極に行選択信号が与えられることで、画素アレイ部22の画素行毎に、出力ラインnRxOffを通して信号処理部26に転送される。
上述したように、回路構成例4に係る画素21は、1つのコンパレータ214を用いて、センサ制御部23による制御の下に、オフイベント情報Offのみについて検出を行うイベント検出機能を有する構成となっている。尚、図10の回路構成では、AND回路2152の出力信号でリセットスイッチSWRSを制御するしているが、グローバルリセット信号で直接リセットスイッチSWRSを制御する構成とすることもできる。
[同期型の撮像装置から成るイベント検出センサの構成例]
以上では、イベント検出センサ2として非同期型の撮像装置を用いる場合を例に挙げて説明したが、イベント検出センサ2としては、非同期型の撮像装置に限らず、同期型(スキャン型)の撮像装置を用いることもできる。
図8は、同期型の撮像装置から成るイベント検出センサの構成の一例を示すブロック図である。図3に示す非同期型の撮像装置から成るイベント検出センサ2との対比すると、同期型の撮像装置から成るイベント検出センサ2におけるDVSセンサ部20は、Xアービタ部24及びYアービタ部25に代えて、カラム処理部27及び行選択部28を備える構成となっている。
また、センサ制御部23及び行選択部28は、外部から供給される垂直同期信号VDや水平同期信号HDなどの同期信号に同期して、画素アレイ部22の各画素21を走査する制御を行う。センサ制御部23及び行選択部28による走査の下に、イベントを検出した画素21は、イベントデータを信号処理部26に対して出力する。また、イベントを検出した画素21は、光電変換によって生成されるアナログの画素信号をカラム処理部27に対して出力する。
カラム処理部27は、例えば、画素アレイ部22の画素列毎に設けられたアナログ-デジタル変換器の集合から成るアナログ-デジタル変換部を有する。アナログ-デジタル変換器としては、例えば、シングルスロープ型アナログ-デジタル変換器、逐次比較型アナログ-デジタル変換器、デルタ-シグマ変調型(ΔΣ変調型)アナログ-デジタル変換器などを例示することができる。
カラム処理部27では、画素アレイ部22の画素列毎に、その列の画素21から出力されるアナログの画素信号をデジタル信号に変換する処理が行われる。カラム処理部27では、デジタル化した画素信号に対して、CDS(Correlated Double Sampling)処理を行うこともできる。
上述したように、同期型(スキャン型)の撮像装置から成るイベント検出センサ2においては、垂直同期信号VDや水平同期信号HDなどの同期信号に同期して画素アレイ部22の各画素21を走査することで、イベント検出及び撮像が行われる。
[画像センサの構成例]
次に、本実施形態に係る物体認識システムにおける画像センサ3の基本的な構成について説明する。ここでは、画像センサ3として、X-Yアドレス方式の画像センサの一種であるCMOS型イメージセンサを例に挙げて説明する。CMOS型イメージセンサは、CMOSプロセスを応用して、又は、部分的に使用して作製されたイメージセンサである。但し、画像センサ3としては、CMOS型イメージセンサに限られるものではない。
(CMOS型イメージセンサの構成例)
図9は、本実施形態に係る物体認識システムにおける画像センサ3の一例であるCMOS型イメージセンサの構成の概略を示すブロック図である。
本例に係る画像センサ3は、受光部(光電変換部)を含む画素21が行方向及び列方向に、即ち、行列状に2次元配置されて成る画素アレイ部22、及び、当該画素アレイ部22の周辺回路部を有する構成となっている。ここで、行方向とは、画素行の画素21の配列方向を言い、列方向とは、画素列の画素21の配列方向を言う。画素21は、光電変換を行うことにより、受光した光量に応じた光電荷を生成し、蓄積する。
本例に係る画像センサ3は、画素アレイ部32の各画素31に、例えば、R(赤色)、G(緑色)、B(青色)の各色フィルタが組み込まれたRGBセンサである。但し、画像センサ3は、RGBセンサに限られるものではない。
画素アレイ部32の周辺回路部は、例えば、行選択部33、定電流源部34、アナログ-デジタル変換部35、水平転送走査部36、信号処理部37、及び、タイミング制御部38等によって構成されている。
画素アレイ部32において、行列状の画素配列に対し、画素行毎に画素駆動線DL(DL1~DLm)が行方向に沿って配線されている。また、画素列毎に垂直信号線VL(VL1~VLn)が列方向に沿って配線されている。画素駆動線DLは、画素31から信号を読み出す際の駆動を行うための駆動信号を伝送する。図9では、画素駆動線DLについて1本の配線として図示しているが、1本に限られるものではない。画素駆動線DLの一端は、行選択部33の各行に対応した出力端に接続されている。
以下に、画素アレイ部32の周辺回路部の各回路部、即ち、行選択部33、定電流源部34、アナログ-デジタル変換部35、水平転送走査部36、信号処理部37、及び、タイミング制御部38について説明する。
行選択部33は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部32の各画素31の選択に際して、画素行の走査や画素行のアドレスを制御する。この行選択部33は、その具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系の2つの走査系を有する構成となっている。
読出し走査系は、画素31から画素信号を読み出すために、画素アレイ部32の各画素31を行単位で順に選択走査する。画素31から読み出される画素信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりもシャッタスピードの時間分だけ先行して掃出し走査を行う。
この掃出し走査系による掃出し走査により、読出し行の画素31の受光部(光電変換部)から不要な電荷が掃き出されることによって当該受光部がリセットされる。そして、この掃出し走査系による不要電荷の掃き出す(リセットする)ことにより、所謂、電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、受光部の光電荷を捨てて、新たに露光を開始する(光電荷の蓄積を開始する)動作のことを言う。
定電流源部34は、画素列毎に垂直信号線VL1~VLnの各々に接続された、例えばMOSトランジスタから成る複数の電流源I(図10参照)を備えており、行選択部33によって選択走査された画素行の各画素31に対し、垂直信号線VL1~VLnの各々を通してバイアス電流を供給する。
アナログ-デジタル変換部35は、画素アレイ部32の画素列に対応して設けられた(例えば、画素列毎に設けられた)複数のアナログ-デジタル変換器の集合から成る。アナログ-デジタル変換部35は、画素列毎に垂直信号線VL1~VLnの各々を通して出力されるアナログの画素信号を、デジタル信号に変換する列並列型のアナログ-デジタル変換部である。
列並列アナログ-デジタル変換部35におけるアナログ-デジタル変換器としては、例えば、参照信号比較型のアナログ-デジタル変換器の一例であるシングルスロープ型のアナログ-デジタル変換器を用いることができる。但し、アナログ-デジタル変換器としては、シングルスロープ型のアナログ-デジタル変換器に限られるものではなく、逐次比較型のアナログ-デジタル変換器やデルタ-シグマ変調型(ΔΣ変調型)のアナログ-デジタル変換器などを用いることができる。
この列並列アナログ-デジタル変換部35におけるアナログ-デジタル変換器の例については、先述したイベント検出センサ2のカラム処理部27(図8参照)を構成するアナログ-デジタル変換部におけるアナログ-デジタル変換器においても同様である。
水平転送走査部36は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部32の各画素31の信号の読出しに際して、画素列の走査や画素列のアドレスを制御する。この水平転送走査部36による制御の下に、アナログ-デジタル変換部35でデジタル信号に変換された画素信号が画素列単位で水平転送線(水平出力線)39に読み出される。
信号処理部37は、水平転送線39を通して供給されるデジタルの画素信号に対して、所定の信号処理を行い、2次元の画像データを生成する。例えば、信号処理部37は、縦線欠陥、点欠陥の補正、又は、信号のクランプを行ったり、パラレル-シリアル変換、圧縮、符号化、加算、平均、及び、間欠動作などデジタル信号処理を行ったりする。信号処理部37は、生成した画像データを、本画像センサ3の出力信号として後段の装置に出力する。
タイミング制御部38は、外部から供給される垂直同期信号VDや水平同期信号HD、更には、マスタークロックMCK(図示せず)等に基づいて、各種のタイミング信号、クロック信号、及び、制御信号等を生成する。そして、タイミング制御部38は、これら生成した信号を基に、行選択部33、定電流源部34、アナログ-デジタル変換部35、水平転送走査部36、及び、信号処理部37等の駆動制御を行う。
このタイミング制御部38による制御の下に、本画像センサ3では、垂直同期信号VD等の同期信号に同期して撮像が行われる。すなわち、本画像センサ3は、所定のフレームレート、例えば、固定のフレームレートで撮像を行う同期型の撮像装置である。
(画素の回路構成例)
図10は、画像センサ3における画素アレイ部32の画素31の回路構成の一例を示す回路図である。
画素31は、光電変換素子として、例えば、フォトダイオード311を有している。画素31は、フォトダイオード311の他に、転送トランジスタ312、リセットトランジスタ313、増幅トランジスタ314、及び、選択トランジスタ315を有する画素構成となっている。
尚、ここでは、転送トランジスタ312、リセットトランジスタ313、増幅トランジスタ314、及び、選択トランジスタ315の4つのトランジスタとして、例えばN型のMOSトランジスタを用いているが、ここで例示した4つのトランジスタ312~315の導電型の組み合わせは一例に過ぎず、これらの組み合わせに限られるものではない。
この画素31に対して、先述した画素駆動線DLとして、複数の画素駆動線が同一画素行の各画素31に対して共通に配線されている。これら複数の画素駆動線は、行選択部33の各画素行に対応した出力端に画素行単位で接続されている。行選択部33は、複数の画素駆動線に対して転送信号TRG、リセット信号RST、及び、選択信号SELを適宜出力する。
フォトダイオード311は、アノード電極が低電位側電源(例えば、グランド)に接続されており、受光した光をその光量に応じた電荷量の光電荷(ここでは、光電子)に光電変換してその光電荷を蓄積する。フォトダイオード311のカソード電極は、転送トランジスタ312を介して増幅トランジスタ314のゲート電極と電気的に接続されている。ここで、増幅トランジスタ314のゲート電極が電気的に繋がった領域は、フローティングディフュージョン(浮遊拡散領域/不純物拡散領域)FDである。フローティングディフュージョンFDは、電荷を電圧に変換する電荷電圧変換部である。
転送トランジスタ312のゲート電極には、高レベル(例えば、VDDレベル)がアクティブとなる転送信号TRGが行選択部33から与えられる。転送トランジスタ312は、転送信号TRGに応答してオン状態となることにより、フォトダイオード311で光電変換され、当該フォトダイオード311に蓄積された光電荷をフローティングディフュージョンFDに転送する。
リセットトランジスタ313は、電源電圧VDDの電源ラインとフローティングディフュージョンFDとの間に接続されている。リセットトランジスタ313のゲート電極には、高レベルがアクティブとなるリセット信号RSTが行選択部33から与えられる。リセットトランジスタ313は、リセット信号RSTに応答してオン状態となり、フローティングディフュージョンFDの電荷を電源電圧VDDのノードに捨てることによってフローティングディフュージョンFDをリセットする。
増幅トランジスタ314は、ゲート電極がフローティングディフュージョンFDに接続され、ドレイン電極が電源電圧VDDの電源ラインに接続されている。増幅トランジスタ314は、フォトダイオード311での光電変換によって得られる信号を読み出すソースフォロワの入力部となる。増幅トランジスタ314は、ソース電極が選択トランジスタ315を介して垂直信号線VLに接続される。そして、増幅トランジスタ314と、垂直信号線VLの一端に接続される電流源Iとは、フローティングディフュージョンFDの電圧を垂直信号線VLの電位に変換するソースフォロワを構成している。
選択トランジスタ315は、ドレイン電極が増幅トランジスタ314のソース電極に接続され、ソース電極が垂直信号線VLに接続されている。選択トランジスタ315のゲート電極には、高レベルがアクティブとなる選択信号SELが行選択部33から与えられる。選択トランジスタ315は、選択信号SELに応答してオン状態となることにより、画素31を選択状態として増幅トランジスタ314から出力される信号を垂直信号線VLに伝達する。
尚、ここでは、画素31の画素回路として、転送トランジスタ312、リセットトランジスタ313、増幅トランジスタ314、及び、選択トランジスタ315から成る、即ち4つのトランジスタ(Tr)から成る4Tr構成を例に挙げたが、これに限られるものではない。例えば、選択トランジスタ315を省略し、増幅トランジスタ314に選択トランジスタ315の機能を持たせる3Tr構成とすることもできるし、必要に応じて、トランジスタの数を増やした5Tr以上の構成とすることもできる。
[測距センサの構成例]
次に、本実施形態に係る物体認識システムにおける測距センサ4の基本的な構成について説明する。測距センサ4は、例えば、認識対象の物体(被写体)に対して光を照射し、その照射光が被写体で反射されて戻ってまでの光の飛行時間を検出することにより、被写体までの距離を測定するToF方式の測距装置(ToFセンサ)から成る。
(システム構成)
図11は、本実施形態に係る物体認識システムにおけるToF方式の測距センサの構成の一例を示すブロック図である。
本例に係る測距センサ4は、光源41及び光検出部42の他に、光検出部42が出力する信号値に基づいて露光制御を行うAE(Automatic Exposure:自動露光)制御部43、及び、測距部44を備えている。そして、本例に係る測距センサ4は、光検出部42の画素毎に距離情報を検出し、高精度な距離画像(Depth Map:深度マップ)を撮像フレームの単位で取得することができる。
本例に係る測距センサ4は、間接(Indirect)ToF方式の測距センサである。間接ToF方式の測距センサ4は、光源41から発した所定の周期のパルス光が測定対象物(被写体)で反射し、その反射光を光検出部42が受光した際の周期を検出する。そして、発光の周期と受光の周期との位相差から光飛行時間を計測することで、測定対象物までの距離を測定する。
光源41は、AE制御部43による制御の下に、オン/オフ動作を所定の周期で繰り返すことによって測定対象物に向けて光を照射する。光源41の照射光としては、例えば、850nm付近の近赤外光が利用されることが多い。光検出部42は、光源41からの照射光が測定対象物で反射されて戻ってくる光を受光し、画素毎に距離情報を検出する。光検出部42からは、画素毎に検出した距離情報を含む現フレームのRAW画像データ、及び、発光・露光設定情報が出力され、AE制御部43及び測距部44に供給される。
AE制御部43は、次フレーム発光・露光条件計算部431及び次フレーム発光・露光制御部432を有する構成となっている。次フレーム発光・露光条件計算部431は、光検出部42から供給される現フレームのRAW画像データ、及び、発光・露光設定情報に基づいて、次フレームの発光・露光条件を計算する。次フレームの発光・露光条件は、次フレームの距離画像を取得する際の光源41の発光時間や発光強度、及び、光検出部42の露光時間である。次フレーム発光・露光制御部432は、次フレーム発光・露光条件計算部431で算出された次フレームの発光・露光条件に基づいて、次フレームの光源41の発光時間や発光強度、及び、光検出部42の露光時間を制御する。
測距部44は、距離画像を計算する距離画像計算部441を有する構成となっている。距離画像計算部441は、光検出部42の画素毎に検出した距離情報を含む現フレームのRAW画像データを用いて計算を行うことによって距離画像を算出し、被写体の奥行き情報である深度、及び、光検出部42の受光情報である信頼値の各情報を含む距離画像情報として測距センサ4外へ出力する。ここで、距離画像とは、例えば、画素毎に検出した距離情報に基づく距離値(深度/奥行きの値)がそれぞれ画素に反映された画像である。
(光検出部の構成例)
ここで、光検出部42の具体的な構成例について図12を用いて説明する。図12は、光検出部42の構成の一例を示すブロック図である。
光検出部42は、センサチップ421、及び、当該センサチップ421に対して積層された回路チップ422を含む積層チップ構造を有している。この積層チップ構造において、センサチップ421と回路チップ422とは、ビア(VIA)やCu-Cu接合などの接続部(図示せず)を通して電気的に接続される。尚、図12では、センサチップ421の配線と回路チップ422の配線とが、上記の接続部を介して電気的に接続された状態を図示している。
センサチップ421上には、画素アレイ部423が形成されている。画素アレイ部423は、センサチップ421上に2次元のグリッドパターンで行列状(アレイ状)に配置された複数の画素424を含んでいる。画素アレイ部423において、複数の画素424はそれぞれ、入射光(例えば、近赤外光)を受光し、光電変換を行ってアナログ画素信号を出力する。画素アレイ部423には、画素列毎に、2本の垂直信号線VSL1,VSL2が配線されている。画素アレイ部423の画素列の数をM(Mは、整数)とすると、合計で(2×M)本の垂直信号線VSLが画素アレイ部423に配線されている。
複数の画素424はそれぞれ、第1のタップA及び第2のタップB(その詳細については後述する)を有している。2本の垂直信号線VSL1,VSL2のうち、垂直信号線VSL1には、対応する画素列の画素424の第1のタップAの電荷に基づくアナログの画素信号AINP1が出力される。また、垂直信号線VSL2には、対応する画素列の画素424の第2のタップBの電荷に基づくアナログの画素信号AINP2が出力される。アナログの画素信号AINP1,AINP2については後述する。
回路チップ422上には、行選択部425、カラム処理部426、出力回路部427、及び、タイミング制御部428が配置されている。行選択部425は、画素アレイ部423の各画素424を画素行の単位で駆動し、画素信号AINP1,AINP2を出力させる。行選択部425による駆動の下に、選択行の画素424から出力されたアナログの画素信号AINP1,AINP2は、2本の垂直信号線VSL1,VSL2を通してカラム処理部426に供給される。
カラム処理部426は、画素アレイ部423の画素列に対応して、例えば、画素列毎に設けられた複数のアナログ-デジタル変換器(ADC)429を有する構成となっている。アナログ-デジタル変換器429は、垂直信号線VSL1,VSL2を通して供給されるアナログの画素信号AINP1,AINP2に対して、アナログ-デジタル変換処理を施し、出力回路部427に出力する。出力回路部427は、カラム処理部426から出力されるデジタル化された画素信号AINP1,AINP2に対してCDS(Correlated Double Sampling:相関二重サンプリング)処理などを実行し、回路チップ422外へ出力する。
タイミング制御部428は、各種のタイミング信号、クロック信号、及び、制御信号等を生成し、これらの信号を基に、行選択部425、カラム処理部426、及び、出力回路部427等の駆動制御を行う。
(画素の回路構成例)
図13は、光検出部42における画素424の回路構成の一例を示す回路図である。
本例に係る画素424は、光電変換素子として、例えば、フォトダイオード341を有している。画素424は、フォトダイオード341の他、オーバーフロートランジスタ342、2つの転送トランジスタ343,344、2つのリセットトランジスタ345,346、2つの浮遊拡散層347,348、2つの増幅トランジスタ349、350、及び、2つの選択トランジスタ351,352を有する構成となっている。2つの浮遊拡散層347,348は、先述した図3に示す第1,第2のタップA,B(以下、単に、「タップA,B」と記述する場合がある)に相当する。
フォトダイオード341は、受光した光を光電変換して電荷を生成する。フォトダイオード341については、例えば、基板裏面側から照射される光を取り込む裏面照射型の画素構造とすることができる。但し、画素構造については、裏面照射型の画素構造に限られるものではなく、基板表面側から照射される光を取り込む表面照射型の画素構造とすることもできる。
オーバーフロートランジスタ342は、フォトダイオード341のカソード電極と電源電圧VDDの電源ラインとの間に接続されており、フォトダイオード341をリセットする機能を持つ。具体的には、オーバーフロートランジスタ342は、行選択部35から供給されるオーバーフローゲート信号OFGに応答して導通状態になることで、フォトダイオード341の電荷をシーケンシャルに電源電圧VDDの電源ラインに排出する。
2つの転送トランジスタ343,344は、フォトダイオード341のカソード電極と2つの浮遊拡散層347,348(タップA,B)のそれぞれとの間に接続されている。そして、転送トランジスタ343,344は、行選択部35から供給される転送信号TRGに応答して導通状態になることで、フォトダイオード341で生成された電荷を、浮遊拡散層347,348にそれぞれシーケンシャルに転送する。
第1,第2のタップA,Bに相当する浮遊拡散層347,348は、フォトダイオード341から転送された電荷を蓄積し、その電荷量に応じた電圧値の電圧信号に変換し、アナログの画素信号AINP1,AINP2を生成する。
2つのリセットトランジスタ345,346は、2つの浮遊拡散層347,348のそれぞれと電源電圧VDDの電源ラインとの間に接続されている。そして、リセットトランジスタ345,346は、行選択部35から供給されるリセット信号RSTに応答して導通状態になることで、浮遊拡散層347,348のそれぞれから電荷を引き抜いて、電荷量を初期化する。
2つの増幅トランジスタ349、350は、電源電圧VDDの電源ラインと2つの選択トランジスタ351,352のそれぞれとの間に接続されており、浮遊拡散層347,348のそれぞれで電荷から電圧に変換された電圧信号をそれぞれ増幅する。
2つの選択トランジスタ351,352は、2つの増幅トランジスタ349、350のそれぞれと垂直信号線VSL1,VSL2のそれぞれとの間に接続されている。そして、選択トランジスタ351,352は、行選択部35から供給される選択信号SELに応答して導通状態になることで、増幅トランジスタ349、350のそれぞれで増幅された電圧信号を、アナログの画素信号AINP1,AINP2として2本の垂直信号線VSL1,VSL2に出力する。
2本の垂直信号線VSL1,VSL2は、画素列毎に、カラム処理部426内の1つのアナログ-デジタル変換器429の入力端に接続されており、画素列毎に画素424から出力されるアナログの画素信号AINP1,AINP2をアナログ-デジタル変換器429に伝送する。
尚、画素424の回路構成については、光電変換によってアナログの画素信号AINP1,AINP2を生成することができる回路構成であれば、図13に例示した回路構成に限定されるものではない。
ここで、ToF方式による距離の算出について図14を用いて説明する。図14は、ToF方式の測距センサ4における距離の算出について説明するためのタイミング波形図である。ToF方式の測距センサ4における光源41及び光検出部42は、図14のタイミング波形図に示すタイミングで動作する。
光源41は、AE制御部43による制御の下に、所定の期間、例えば、パルス発光時間Tpの期間だけ、測定対象物に対して光を照射する。光源41から発せられた照射光は、測定対象物で反射されて戻ってくる。この反射光(active光)が、フォトダイオード341によって受光される。測定対象物への照射光の照射が開始されてから、フォトダイオード341が反射光を受光する時間、即ち、光飛行時間は、測距センサ4から測定対象物までの距離に応じた時間となる。
図13において、フォトダイオード341は、照射光の照射が開始された時点から、パルス発光時間Tpの期間だけ、測定対象物からの反射光を受光する。このとき、フォトダイオード341が受光する光には、測定対象物に照射された光が、当該測定対象物で反射されて戻ってくる反射光(active光)の他に、物体や大気などで反射・散乱された環境光(ambient光)も含まれている。
1回の受光の際に、フォトダイオード341で光電変換された電荷が、タップA(浮遊拡散層347)に転送され、蓄積される。そして、タップAから、浮遊拡散層347に蓄積した電荷量に応じた電圧値の信号n0が取得される。タップAの蓄積タイミングが終了した時点で、フォトダイオード341で光電変換された電荷が、タップB(浮遊拡散層348)に転送され、蓄積される。そして、タップBから、浮遊拡散層348に蓄積した電荷量に応じた電圧値の信号n1が取得される。
このように、タップA及びタップBに対して、蓄積タイミングの位相を180度異ならせた駆動(位相を全く逆にした駆動)が行われることで、信号n0及び信号n1がそれぞれ取得される。そして、このような駆動が複数回繰り返され、信号n0及び信号n1の蓄積、積算が行われることで、蓄積信号N0及び蓄積信号N1がそれぞれ取得される。
例えば、1つの画素424について、1つのフェーズに2回受光が行われ、タップA及びタップBに4回ずつ、即ち、0度、90度、180度、270度の信号が蓄積される。このようにして取得した蓄積信号N0及び蓄積信号N1を基に、測距センサ4から測定対象物までの距離Dが算出される。
蓄積信号N0及び蓄積信号N1には、測定対象物で反射されて戻ってくる反射光(active光)の成分の他に、物体や大気などで反射・散乱された環境光(ambient光)の成分も含まれている。従って、上述した動作では、この環境光(ambient光)の成分の影響を除き、反射光(active光)の成分を残すため、環境光に基づく信号n2に関しても蓄積、積算が行われ、環境光成分についての蓄積信号N2が取得される。
このようにして取得された、環境光成分を含む蓄積信号N0及び蓄積信号N1、並びに、環境光成分についての蓄積信号N2を用いて、以下の式(1)及び式(2)に基づく演算処理により、測距センサ4から測定対象物までの距離Dを算出することができる。
Figure 2023076773000002
Figure 2023076773000003
式(1)及び式(2)において、Dは測距センサ4から測定対象物までの距離を表し、cは光速を表し、Tpはパルス発光時間を表している。
図11に示した距離画像計算部441は、環境光成分を含む蓄積信号N0及び蓄積信号N1、並びに、環境光成分についての蓄積信号N2を用いて、光検出部42から出力される、上記した式(1)及び式(2)に基づく演算処理により、測距センサ4から測定対象物までの距離Dを算出し、距離画像情報として出力する。距離画像情報としては、例えば、距離Dに応じた濃度の色で色付けされた画像情報を例示することができる。尚、ここでは、算出した距離Dを距離画像情報として出力するとしたが、算出した距離Dをそのまま距離情報として出力するようにしてもよい。
以上、実施例1に係る物体認識システムにおけるイベント検出センサ2、画像センサ3、及び、測距センサ4の構成について、具体例を挙げて説明したが、この具体例については、後述する各実施例におけるイベント検出センサ、画像センサ、及び、測距センサの構成についても同様である。
また、実施例1に係る物体認識システムでは、イベント検出センサ2の他に、画像センサ3及び測距センサ4を共に備える構成としたが、この構成に限られるものではなく、画像センサ3及び測距センサ4のいずれか一方を備える構成であってもよい。すなわち、イベント検出センサ2の他に、画像センサ3及び測距センサ4の少なくとも一方(画像センサ3及び又は測距センサ4)備える構成であってもよい。この点については、後述する各実施例においても同様である。
[実施例1に係る物体認識システムにおける認識処理例]
続いて、実施例1に係る物体認識システムにおいて、スパイキングニューラルネットワーク1による制御の下に実行される認識処理の一例の流れについて、図15のフローチャートを用いて説明する。
スパイキングニューラルネットワーク1は、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS11)、次いで、取得したイベント情報を処理し(ステップS12)、次いで、イベント情報の処理結果を基に、認識対象の物体の動き検出を行う(ステップS13)。
次に、スパイキングニューラルネットワーク1は、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動し(ステップS14)、次いで、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される深度情報等の三次元画像情報を取得する(ステップS15)。次に、スパイキングニューラルネットワーク1は、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS16)。
≪実施例2≫
実施例2は、実施例1の変形例であり、イベント検出センサ、画像センサ、及び、測距センサに対してスパイキングニューラルネットワークを2つ設ける例である。実施例2に係る物体認識システムのシステム構成の一例を図16に示す。
[システム構成]
図16に示すように、実施例2に係る物体認識システムは、イベント検出センサ2、画像センサ3、及び、測距センサ4の3つのセンサに対して、スパイキングニューラルネットワークが2つ、即ち、第1のスパイキングニューラルネットワーク1A及び第2のスパイキングニューラルネットワーク1Bが設けられた構成となっている。
第1のスパイキングニューラルネットワーク1Aは、イベント検出センサ2から出力されるイベント情報に基づいて認識処理を行う。第2のスパイキングニューラルネットワーク1Bは、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される深度情報等の三次元画像情報に基づいて認識処理を行う。
このように、イベント検出センサ2からのイベント情報を基に認識処理を行う第1のスパイキングニューラルネットワーク1Aと、画像センサ3からの画像情報、及び/又は、測距センサ4からの三次元画像情報を基に認識処理を行う第2のスパイキングニューラルネットワーク1Bとを分けて設けることで、第2のスパイキングニューラルネットワーク1Bがデジタル処理対応であるのに対して、第1のスパイキングニューラルネットワーク1Aをアナログ処理対応とすることができる。
すなわち、実施例1に係る物体認識システムの場合には、イベント検出センサ2から出力されるイベント情報がデジタル情報である制約があるが、実施例2に係る物体認識システムの場合には、その制約が無く、イベント検出センサ2から出力されるイベント情報をデジタル情報とすることもできるし、アナログ情報とすることもできる。
[実施例2に係る物体認識システムにおける認識処理例]
続いて、実施例2に係る物体認識システムにおいて、第1のスパイキングニューラルネットワーク1A及び第2のスパイキングニューラルネットワーク1Bによる制御の下に実行される認識処理の一例の流れについて、図17のフローチャートを用いて説明する。
第1のスパイキングニューラルネットワーク1Aは、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS21)、次いで、取得したイベント情報を処理し(ステップS22)、次いで、イベント情報の処理結果を基に、有意なイベント情報を認識し(ステップS23)、次いで、第1のスパイキングニューラルネットワーク1Aは、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動する(ステップS24)。
次に、第2のスパイキングニューラルネットワーク1Bは、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される深度情報等の三次元画像情報を取得し(ステップS25)、次いで、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS26)。
≪実施例3≫
実施例3は、実施例1の変形例であり、イベント検出センサ、画像センサ、及び、測距センサのそれぞれにスパイキングニューラルネットワークを設ける例である。実施例3に係る物体認識システムのシステム構成の一例を図18に示す。
[システム構成]
図18に示すように、実施例3に係る物体認識システムは、イベント検出センサ2、画像センサ3、及び、測距センサ4のそれぞれに個別に、第1のスパイキングニューラルネットワーク1A、第2のスパイキングニューラルネットワーク1B、及び、第3のスパイキングニューラルネットワーク1Cが設けられた構成となっている。
第1のスパイキングニューラルネットワーク1Aは、イベント検出センサ2から出力されるイベント情報に基づいて認識処理を行う。第2のスパイキングニューラルネットワーク1Bは、画像センサ3から出力される画像情報に基づいて認識処理を行う。第3のスパイキングニューラルネットワーク1Cは、測距センサ4から出力される深度情報等の三次元画像情報に基づいて認識処理を行う。
このように、イベント検出センサ2、画像センサ3、及び、測距センサ4のそれぞれに個別に、第1のスパイキングニューラルネットワーク1A、第2のスパイキングニューラルネットワーク1B、及び、第3のスパイキングニューラルネットワーク1Cを設けることで、各ネットワーク(1A,1B,1C)の構成を、イベント検出センサ2からのイベント情報の処理、画像センサ3からの画像情報の処理、測距センサ4からの三次元画像情報の処理のそれぞれの処理に最適な構成にすることができる。
また、実施例2に係る物体認識システムの場合と同様に、イベント検出センサ2から出力されるイベント情報がデジタル情報である制約がないため、当該イベント情報をデジタル情報とすることもできるし、アナログ情報とすることもできる。
[実施例3に係る物体認識システムにおける認識処理例]
続いて、実施例3に係る物体認識システムにおいて、第1のスパイキングニューラルネットワーク1A、第2のスパイキングニューラルネットワーク1B、及び、第3のスパイキングニューラルネットワーク1Cによる制御の下に実行される認識処理の一例の流れについて、図19のフローチャートを用いて説明する。
第1のスパイキングニューラルネットワーク1Aは、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS31)、次いで、取得したイベント情報を処理し(ステップS32)、次いで、イベント情報の処理結果を基に、有意なイベント情報を認識する(ステップS33)。
次に、第1のスパイキングニューラルネットワーク1Aは、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動する(ステップS34)。次に、第2のスパイキングニューラルネットワーク1B、及び/又は、第3のスパイキングニューラルネットワーク1Cは、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される深度情報等の三次元画像情報を取得し(ステップS35)、次いで、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS36)。
≪実施例4≫
実施例4は、スパイキングニューラルネットワークの他に、畳み込みニューラルネットワークを用いる例である。畳み込みニューラルネットワーク(CNN:Convolutional Neural Networks)は、何段もの深い層を持つニューラルネットワークであり、特に、画像認識の分野で優れた性能を発揮するネットワークである。実施例4に係る物体認識システムのシステム構成の一例を図20に示す。
[システム構成]
図20に示すように、実施例4に係る物体認識システムは、認識処理を行うニューラルネットワークとして、スパイキングニューラルネットワーク1の他に、畳み込みニューラルネットワーク7が設けられた構成となっている。
スパイキングニューラルネットワーク1は、イベント検出センサ2から出力されるイベント情報に基づいて認識処理を行い、畳み込みニューラルネットワーク7は、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される深度情報等の三次元画像情報に基づいて認識処理を行う。
このように、画像センサ3からの画像情報、及び/又は、測距センサ4からの三次元画像情報に基づく認識処理を、畳み込みニューラルネットワーク7を用いて行う実施例4に係る物体認識システムにおいても、スパイキングニューラルネットワーク1Bを用いて行う実施例2に係る物体認識システムと同様の作用、効果を得ることができる。
[実施例4に係る物体認識システムにおける認識処理例]
続いて、実施例4に係る物体認識システムにおいて、スパイキングニューラルネットワーク1及び畳み込みニューラルネットワーク7による制御の下に実行される認識処理の一例の流れについて、図21のフローチャートを用いて説明する。
スパイキングニューラルネットワーク1は、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS41)、次いで、取得したイベント情報を処理し(ステップS42)、次いで、イベント情報の処理結果を基に、有意なイベント情報を認識する(ステップS43)。
次に、スパイキングニューラルネットワーク1は、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動する(ステップS44)。次に、畳み込みニューラルネットワーク7は、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される深度情報等の三次元画像情報を取得し(ステップS45)、次いで、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS46)。
≪実施例5≫
実施例5は、実施例4の変形例であり、イベント検出センサ2の閾値(イベント検出閾値)を制御する例である。図22は、実施例5に係るイベント検出センサ2の閾値制御の一例の流れを示すフローチャートである。
スパイキングニューラルネットワーク1は、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS51)、次いで、取得したイベント情報を処理し(ステップS52)、次いで、イベント情報の処理結果を基に、有意なイベント情報を見つけたか否かを判断する(ステップS53)。
スパイキングニューラルネットワーク1は、有意なイベント情報が見つからない場合は(S53のNO)、ステップS51に戻り、有意なイベント情報を見つけた場合は(S53のYES)、有意なイベント情報を出力した画素の周囲のイベント数が所定の閾値よりも少ないか否かを判断する(ステップS54)。
スパイキングニューラルネットワーク1は、有意なイベント情報を出力した画素の周囲のイベント数が所定の閾値よりも少ないと判断した場合は(S54のYES)、システム制御部5を通して、イベント検出センサ2のイベント検出閾値を下げる制御を行い(ステップS55)、しかる後、ステップS54に戻る。
スパイキングニューラルネットワーク1は、有意なイベント情報を出力した画素の周囲のイベント数が所定の閾値よりも少なくないと判断した場合は(S54のNO)、続いて、有意なイベント情報を出力した画素の周囲のイベント数が所定の閾値よりも多いか否かを判断し(ステップS56)、所定の閾値よりも多いと判断した場合は(S56のYES)、システム制御部5を通して、イベント検出センサ2のイベント検出閾値を上げる制御を行い(ステップS57)、しかる後、ステップS56に戻る。次に、スパイキングニューラルネットワーク1は、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動する(ステップS58)。
次に、畳み込みニューラルネットワーク7は、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される三次元画像情報を取得し(ステップS59)、次いで、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS60)。
尚、上述した実施例5に係るイベント検出閾値の制御例については、畳み込みニューラルネットワーク7を用いる実施例4に係る物体認識システムの制御例として説明したが、畳み込みニューラルネットワーク7に代えて第2のスパイキングニューラルネットワーク1Bを用いる実施例2に係る物体認識システムの制御例とすることもできる。この場合は、ステップS59及びステップS60の各処理は、第2のスパイキングニューラルネットワーク1Bによる処理となる。
≪実施例6≫
実施例6は、実施例4の変形例であり、イベント検出センサ2の特定の領域のイベントレートを制御する例である。図23は、実施例6に係るイベント検出センサ2の閾値制御の一例の流れを示すフローチャートである。
スパイキングニューラルネットワーク1は、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS61)、次いで、取得したイベント情報を処理し(ステップS62)、次いで、イベント情報の処理結果を基に、有意なイベント情報を見つけたか否かを判断する(ステップS63)。
スパイキングニューラルネットワーク1は、有意なイベント情報が見つからない場合は(S63のNO)、ステップS61に戻り、有意なイベント情報を見つけた場合は(S63のYES)、有意なイベント情報を出力した画素群の領域(特定の領域)を、関心領域(ROI:Region Of Interest)として設定する(ステップS64)。
次に、スパイキングニューラルネットワーク1は、システム制御部5を通して、ROIの部分のイベントレート(イベント検出頻度)を上げることで感度を向上させ(ステップS65)、次いで、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動する(ステップS66)。
次に、畳み込みニューラルネットワーク7は、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される三次元画像情報を取得し(ステップS67)、次いで、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS68)。
尚、上述した実施例6に係るイベントレートの制御例については、畳み込みニューラルネットワーク7を用いる実施例4に係る物体認識システムの制御例として説明したが、畳み込みニューラルネットワーク7に代えて第2のスパイキングニューラルネットワーク1Bを用いる実施例2に係る物体認識システムの制御例とすることもできる。この場合は、ステップS67及びステップS68の各処理は、第2のスパイキングニューラルネットワーク1Bによる処理となる。
また、上述した実施例6に係るイベントレートの制御例では、イベント検出センサ2が非同期型の撮像装置から成る場合を想定したが、同期型(スキャン型)の撮像装置から成る場合は、ステップS65の処理において、特定の領域(ROI)のスキャンレートを上げることで、感度を向上させることができる。
≪実施例7≫
実施例7は、実施例4の変形例であり、イベント検出センサ2の特定の領域のイベントレート、並びに、画像センサ3及び/又は測距センサ4のフレームレートを制御する例である。図24は、実施例6に係るイベント検出センサ2の閾値制御の一例の流れを示すフローチャートである。
スパイキングニューラルネットワーク1は、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS71)、次いで、取得したイベント情報を処理し(ステップS72)、次いで、イベント情報の処理結果を基に、有意なイベント情報を見つけたか否かを判断する(ステップS73)。
スパイキングニューラルネットワーク1は、有意なイベント情報が見つからない場合は(S73のNO)、ステップS71に戻り、有意なイベント情報を見つけた場合は(S73のYES)、有意なイベント情報を出力した画素群の領域(特定の領域)を、関心領域(ROI)として設定する(ステップS74)。
次に、スパイキングニューラルネットワーク1は、システム制御部5を通して、ROIの部分のイベントレート(イベント検出頻度)を上げることで感度を向上させ(ステップS75)、次いで、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動し(ステップS76)、次いで、画像センサ3及び/又は測距センサ4のフレームレートを上げる(ステップS77)。
次に、畳み込みニューラルネットワーク7は、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される三次元画像情報を取得し(ステップS78)、次いで、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS79)。
尚、上述した実施例6に係るイベントレートの制御例については、畳み込みニューラルネットワーク7を用いる実施例4に係る物体認識システムの制御例として説明したが、畳み込みニューラルネットワーク7に代えて第2のスパイキングニューラルネットワーク1Bを用いる実施例2に係る物体認識システムの制御例とすることもできる。この場合は、ステップS78及びステップS79の各処理は、第2のスパイキングニューラルネットワーク1Bによる処理となる。
また、上述した実施例6に係るイベントレートの制御例では、イベント検出センサ2が非同期型の撮像装置から成る場合を想定したが、同期型(スキャン型)の撮像装置から成る場合は、ステップS65の処理において、特定の領域(ROI)のスキャンレートを上げることで、感度を向上させることができる。
≪実施例8≫
実施例8は、測距センサ4等で用いられる光源を制御する例である。実施例8に係る物体認識システムのシステム構成の一例を図25に示す。
[システム構成]
図25に示すように、実施例8に係る物体認識システムは、光源8を備え、スパイキングニューラルネットワーク1による制御の下に、システム制御部5を通して光源8を制御する構成となっている。光源8は、例えば、ToF方式の測距センサ4で用いられる光源41(図11参照)に相当する。
スパイキングニューラルネットワーク1は、例えば、イベント検出センサ2からのイベント情報を受け、被写体を検知したとき、画像センサ3及び/又は測距センサ4によって被写体の特定の領域の情報を取得すべく、当該特定の領域を照射するように光源8を制御する。一例として、被写体が人間の顔のとき、例えば顔認証のために、スパイキングニューラルネットワーク1は、顔の部分を照射するように光源8を制御する。
[実施例8に係る物体認識システムにおける認識処理例]
続いて、実施例8に係る物体認識システムにおいて、スパイキングニューラルネットワーク1及び畳み込みニューラルネットワーク7による制御の下に実行される認識処理の一例の流れについて、図26のフローチャートを用いて説明する。
スパイキングニューラルネットワーク1は、動作状態にあるイベント検出センサ2から出力されるイベント情報(例えば、X-Yアドレス情報)を取得し(ステップS81)、次いで、取得したイベント情報を処理し(ステップS82)、次いで、イベント情報の処理結果を基に、有意なイベント情報を見つけたか否かを判断する(ステップS83)。
スパイキングニューラルネットワーク1は、有意なイベント情報が見つからない場合は(S83のNO)、ステップS81に戻り、有意なイベント情報を見つけた場合は(S83のYES)、有意なイベント情報を出力した画素群の領域(特定の領域)を、関心領域(ROI)として設定する(ステップS84)。
次に、スパイキングニューラルネットワーク1は、システム制御部5を通して、ROIの部分のイベントレート(イベント検出頻度)を上げることで感度を向上させる(ステップS85)。次に、スパイキングニューラルネットワーク1は、ROIの部分に光を集中的に照射するように、システム制御部5を通して光源8を制御し(ステップS86)、次いで、システム制御部5を通して、画像センサ3及び/又は測距センサ4を起動する(ステップS87)。
次に、畳み込みニューラルネットワーク7は、画像センサ3から出力される画像情報、及び/又は、測距センサ4から出力される三次元画像情報を取得し(ステップS88)、次いで、画像センサ3から取得した画像情報、及び/又は、測距センサ4から取得した三次元画像情報に基づいて、認識対象の物体の認識処理を行う(ステップS89)。
尚、上記の実施例8に係る物体認識システムでは、実施例4に係る物体認識システムと同様に、畳み込みニューラルネットワーク7を用いる構成となっているが、実施例2に係る物体認識システムと同様に、スパイキングニューラルネットワーク1Bとすることもできる。この場合は、図26に示す制御例において、ステップS88及びステップS89の各処理は、スパイキングニューラルネットワーク1Bによる処理となる。
≪実施例9≫
実施例9は、イベント検出センサ2において、画素アレイ部22内にON画素とOFF画素とが混在する場合の画素配置例である。ここで、「ON画素」は、図6に示す回路構成例3に係る画素21、即ち、オンイベントのみを検出する機能を有する第1の画素である。また、「OFF画素」は、図7に示す回路構成例4に係る画素21、即ち、オフイベントのみを検出する機能を有する第2の画素である。
実施例9に係るON画素及びOFF画素の画素配置例(その1)を図27A及び図27Bに示し、画素配置例(その2)を図28A、図28Bに示す。ここでは、図面の簡略化のために、X方向(行方向/水平方向)4画素×Y方向(列方向/垂直方向)4画素の計16画素分の画素配置(画素配列)を図示している。
図27Aに示す画素配置は、X方向及びY方向共に、ON画素とOFF画素とが交互に配置された構成となっている。図27Bに示す画素配置は、X方向2画素×Y方向2画素の計4画素をブロック(単位)とし、X方向及びY方向共に、ON画素のブロックとOFF画素のブロックとが交互に配置された構成となっている。
図28Aに示す画素配置は、計16画素のうち、真ん中の4画素をOFF画素とし、その周りの12画素をON画素とした配置構成となっている。図28Bに示す画素配置は、計16画素の画素配置において、奇数列及び偶数行の各画素をON画素とし、残りの画素をOFF画素とした配置構成となっている。
尚、ここで例示したON画素及びOFF画素の画素配置は一例であって、これらの画素配置に限られるものではない。
≪実施例10≫
実施例10は、イベント検出センサ2の一例であるDVSセンサ、画像センサ3の一例であるRGBセンサ、及び、測距センサ4の一例であるToFセンサが混在する場合のセンサ配置例である。
DVSセンサ及びToFセンサが混在する場合のセンサ配置例を図29Aに示し、DVSセンサ及びRGBセンサが混在する場合のセンサ配置例を図29Bに示す。ここでは、図面の簡略化のために、X方向4センサ×Y方向4センサの計16センサ分のセンサ配置を図示している。
図29Aに示すセンサ配置は、計16分のセンサ領域を4等分し、4センサ分の領域を単位としてDVSセンサを市松模様に配置し、残りの4センサ分の領域に、1センサ分の領域を単位としてToFセンサを配置した構成となっている。
図29Bに示すセンサ配置は、計16分のセンサ領域を4等分し、4センサ分の領域を単位としてDVSセンサを市松模様に配置し、残りの4センサ分の領域にRGBセンサを配置した構成となっている。RGBセンサについては、1センサ分の領域を単位として、G(緑色)フィルタを市松模様に配置し、残りの2センサ分の領域にR(赤色)フィルタ及びB(青色)フィルタを配置した構成となっている。
<変形例>
以上、本開示の技術について、好ましい実施形態に基づき説明したが、本開示の技術は当該実施形態に限定されるものではない。上記の各実施形態において説明した測距装置の構成、構造は例示であり、適宜、変更することができる。
<本開示の電子機器>
以上説明した本開示の物体認識システムは、例えば、顔認証機能を備える種々の電子機器に搭載される顔認証システム(三次元画像取得システム)として用いることができる。顔認証機能を備える電子機器としては、例えば、スマートフォン、タブレット、パーソナルコンピュータ等のモバイル機器を例示することができる。
但し、本開示の物体認識システムを用いることができる電子機器としては、上記のモバイル機器に限定されるものではなく、物体を認識する機能を備える種々の装置に用いることができる。モバイル機器以外としては、一例として、車両の運転者を見守り、運転者の居眠りや脇見運転等を防止する目的で車内に装備されるドライバーモニタに適用することができる。以下に、本開示の物体認識システムを用いる電子機器としてスマートフォンを例示する。
[スマートフォンの例]
本開示の電子機器の一例に係るスマートフォンについて、正面側から見た外観図を図30に示す。本例に係るスマートフォン100は、筐体110の正面側に表示部120を備えている。このスマートフォン100に対して、先述した本開示の実施形態に係る物体認識システムを搭載して用いることができる。
具体的には、筐体110の内部に、スパイキングニューラルネットワーク1、システム制御部5、及び、アプリケーションプロセッサ6を収納し、例えば、表示部120の上方に、イベント検出センサ2、画像センサ3、及び、測距センサ4を配置するようにする。但し、イベント検出センサ2、画像センサ3、及び、測距センサ4の配置例は、一例であって、この配置例に限られるものではない。
上述したように、本例に係るスマートフォン100は、本開示の実施形態に係る物体認識システムを搭載することによって作製される。そして、本例に係るに係るスマートフォン100は、より高速に認識処理を行うことができる、本開示の実施形態に係る物体認識システムを搭載することにより、高速に認識処理を行うことが可能な顔認証機能を備えることができる。
<本開示がとることができる構成>
尚、本開示は、以下のような構成をとることもできる。
≪A.物体認識システム≫
[A-1]画素の輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出センサ、及び、
スパイキングニューラルネットワーク、
を備え、
スパイキングニューラルネットワークは、イベント検出センサの検出結果に基づいて、認識対象の物体の認識処理を実行する、
物体認識システム。
[A-2]イベント検出センサは、非同期型の撮像装置から成る、
上記[A-1]に記載の物体認識システム。
[A-3]認識対象の物体の画像情報を取得する画像センサ、及び、認識対象の物体の三次元画像情報を取得する測距センサの少なくとも一方のセンサを有する、
上記[A-1]又は上記[A-2]に記載の物体認識システム。
[A-4]画像センサは、所定のフレームレートで撮像を行う同期型の撮像装置から成る、
上記[A-3]に記載の物体認識システム。
[A-5]測距センサは、認識対象の物体に対して光を照射し、その照射光が認識対象の物体で反射されて戻ってまでの光の飛行時間を検出するToF方式の測距装置から成る、
上記[A-3]に記載の物体認識システム。
[A-6]スパイキングニューラルネットワークは、
イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、並びに、
画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、
から成る、
上記[A-3]に記載の物体認識システム。
[A-7]スパイキングニューラルネットワークは、
イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、
画像センサから出力される画像情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、及び、
測距センサから出力される三次元画像情報に基づいて認識処理を行う第3のスパイキングニューラルネットワーク、
から成る、
上記[A-3]に記載の物体認識システム。
[A-8]画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う畳み込みニューラルネットワークを有する、
上記[A-3]に記載の物体認識システム。
[A-9]イベント検出センサにおいて、有意なイベント情報を出力した画素の周囲のイベント数に応じて、イベント検出センサのイベント検出閾値を制御する、
上記[A-1]乃至上記[A-9]のいずれかに記載の物体認識システム。
[A-10]イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げる、
請求項1乃至請求項9のいずれか1項に記載の物体認識システム。
[A-11]イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、
画像センサ及び測距センサの少なくとも一方のフレームレートを上げる、
上記[A-1]乃至上記[A-9]のいずれかに記載の物体認識システム。
[A-12]認識対象の物体に光を照射する光源を有し、
イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、
関心領域の部分に光を照射するように光源を制御する、
上記[A-1]乃至上記[A-9]のいずれかに記載の物体認識システム。
≪B.電子機器≫
[B-1]画素の輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出センサ、及び、
スパイキングニューラルネットワーク、
を備え、
スパイキングニューラルネットワークは、イベント検出センサの検出結果に基づいて、認識対象の物体の認識処理を実行する、
物体認識システムを有する電子機器。
[B-2]イベント検出センサは、非同期型の撮像装置から成る、
上記[B-1]に記載の電子機器。
[B-3]認識対象の物体の画像情報を取得する画像センサ、及び、認識対象の物体の三次元画像情報を取得する測距センサの少なくとも一方のセンサを有する、
上記[B-1]又は上記[B-2]に記載の電子機器。
[B-4]画像センサは、所定のフレームレートで撮像を行う同期型の撮像装置から成る、
上記[B-3]に記載の電子機器。
[B-5]測距センサは、認識対象の物体に対して光を照射し、その照射光が認識対象の物体で反射されて戻ってまでの光の飛行時間を検出するToF方式の測距装置から成る、
上記[B-3]に記載の電子機器。
[B-6]スパイキングニューラルネットワークは、
イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、並びに、
画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、
から成る、
上記[B-3]に記載の電子機器。
[B-7]スパイキングニューラルネットワークは、
イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、
画像センサから出力される画像情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、及び、
測距センサから出力される三次元画像情報に基づいて認識処理を行う第3のスパイキングニューラルネットワーク、
から成る、
上記[B-3]に記載の電子機器。
[B-8]画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う畳み込みニューラルネットワークを有する、
上記[B-3]に記載の電子機器。
[B-9]イベント検出センサにおいて、有意なイベント情報を出力した画素の周囲のイベント数に応じて、イベント検出センサのイベント検出閾値を制御する、
上記[B-1]乃至上記[B-9]のいずれかに記載の電子機器。
[B-10]イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げる、
請求項1乃至請求項9のいずれか1項に記載の電子機器。
[B-11]イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、
画像センサ及び測距センサの少なくとも一方のフレームレートを上げる、
上記[B-1]乃至上記[B-9]のいずれかに記載の電子機器。
[B-12]認識対象の物体に光を照射する光源を有し、
イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、
関心領域の部分に光を照射するように光源を制御する、
上記[B-1]乃至上記[B-9]のいずれかに記載の電子機器。
1(1A,1B,1C)・・・スパイキングニューラルネットワーク(SNN)、2・・・イベント検出センサ(DVS)、3・・・画像センサ(RGBセンサ)、4・・・測距センサ(ToFセンサ)、5・・・システム制御部、6・・・アプリケーションプロセッサ、7・・・畳み込みニューラルネットワーク(CNN)、8・・・光源

Claims (13)

  1. 画素の輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出センサ、及び、
    スパイキングニューラルネットワーク、
    を備え、
    スパイキングニューラルネットワークは、イベント検出センサの検出結果に基づいて、認識対象の物体の認識処理を実行する、
    物体認識システム。
  2. イベント検出センサは、非同期型の撮像装置から成る、
    請求項1に記載の物体認識システム。
  3. 認識対象の物体の画像情報を取得する画像センサ、及び、認識対象の物体の三次元画像情報を取得する測距センサの少なくとも一方のセンサを有する、
    請求項1に記載の物体認識システム。
  4. 画像センサは、所定のフレームレートで撮像を行う同期型の撮像装置から成る、
    請求項3に記載の物体認識システム。
  5. 測距センサは、認識対象の物体に対して光を照射し、その照射光が認識対象の物体で反射されて戻ってまでの光の飛行時間を検出するToF方式の測距装置から成る、
    請求項3に記載の物体認識システム。
  6. スパイキングニューラルネットワークは、
    イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、並びに、
    画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、
    から成る、
    請求項3に記載の物体認識システム。
  7. スパイキングニューラルネットワークは、
    イベント検出センサから出力されるイベント情報に基づいて認識処理を行う第1のスパイキングニューラルネットワーク、
    画像センサから出力される画像情報に基づいて認識処理を行う第2のスパイキングニューラルネットワーク、及び、
    測距センサから出力される三次元画像情報に基づいて認識処理を行う第3のスパイキングニューラルネットワーク、
    から成る、
    請求項3に記載の物体認識システム。
  8. 画像センサから出力される画像情報、及び、測距センサから出力される三次元画像情報の少なくとも一方の情報に基づいて認識処理を行う畳み込みニューラルネットワークを有する、
    請求項3に記載の物体認識システム。
  9. イベント検出センサにおいて、有意なイベント情報を出力した画素の周囲のイベント数に応じて、イベント検出センサのイベント検出閾値を制御する、
    請求項1に記載の物体認識システム。
  10. イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げる、
    請求項1に記載の物体認識システム。
  11. イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、
    画像センサ及び測距センサの少なくとも一方のフレームレートを上げる、
    請求項1に記載の物体認識システム。
  12. 認識対象の物体に光を照射する光源を有し、
    イベント検出センサにおいて、有意なイベント情報を出力した画素群を関心領域として設定し、関心領域の部分のイベントレートを上げるとともに、
    関心領域の部分に光を照射するように光源を制御する、
    請求項1に記載の物体認識システム。
  13. 画素の輝度変化が所定の閾値を超えたことをイベントとして検出するイベント検出センサ、及び、
    スパイキングニューラルネットワーク、
    を備え、
    スパイキングニューラルネットワークは、イベント検出センサの検出結果に基づいて、認識対象の物体の認識処理を実行する、
    物体認識システムを有する電子機器。
JP2020072261A 2020-04-14 2020-04-14 物体認識システム及び電子機器 Pending JP2023076773A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020072261A JP2023076773A (ja) 2020-04-14 2020-04-14 物体認識システム及び電子機器
PCT/JP2021/013696 WO2021210389A1 (ja) 2020-04-14 2021-03-30 物体認識システム及び電子機器
US17/916,924 US20230154135A1 (en) 2020-04-14 2021-03-30 Object recognition system and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020072261A JP2023076773A (ja) 2020-04-14 2020-04-14 物体認識システム及び電子機器

Publications (1)

Publication Number Publication Date
JP2023076773A true JP2023076773A (ja) 2023-06-02

Family

ID=78084927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020072261A Pending JP2023076773A (ja) 2020-04-14 2020-04-14 物体認識システム及び電子機器

Country Status (3)

Country Link
US (1) US20230154135A1 (ja)
JP (1) JP2023076773A (ja)
WO (1) WO2021210389A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023529732A (ja) * 2020-06-15 2023-07-11 ナショナル ユニバーシティー オブ シンガポール ロボットのためのイベント駆動視覚触覚センシング及び学習
WO2023175890A1 (ja) * 2022-03-18 2023-09-21 株式会社ソニー・インタラクティブエンタテインメント センサシステムおよびセンシング方法
WO2023181662A1 (ja) * 2022-03-24 2023-09-28 ソニーセミコンダクタソリューションズ株式会社 測距装置および測距方法
WO2024135094A1 (ja) * 2022-12-23 2024-06-27 ソニーセミコンダクタソリューションズ株式会社 光検出装置、および、光検出装置の制御方法
WO2024135122A1 (ja) * 2022-12-23 2024-06-27 ソニーセミコンダクタソリューションズ株式会社 撮像装置、制御装置およびスパイキングニューラルネットワーク
WO2024135137A1 (ja) * 2022-12-23 2024-06-27 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10356337B2 (en) * 2014-10-07 2019-07-16 Magna Electronics Inc. Vehicle vision system with gray level transition sensitive pixels
KR102457724B1 (ko) * 2015-09-22 2022-10-24 삼성전자주식회사 영상 처리를 수행하기 위한 방법 및 그 전자 장치
WO2018122800A1 (en) * 2016-12-30 2018-07-05 Insightness Ag Data rate control for event-based vision sensor
EP3543898A1 (en) * 2018-03-21 2019-09-25 Robert Bosch Gmbh Fast detection of secondary objects that may intersect the trajectory of a moving primary object

Also Published As

Publication number Publication date
WO2021210389A1 (ja) 2021-10-21
US20230154135A1 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
WO2021210389A1 (ja) 物体認識システム及び電子機器
JP7451110B2 (ja) 測距システム及び電子機器
US10277850B2 (en) Solid-state imaging device for a distance sensor transferring charges from one pixel while resetting another pixel in a same period
US11869273B2 (en) Object recognition with removal of event as noise when the event is detected for a group of pixels exceeding a threshold
TWI446789B (zh) 固態影像感測器件、固態影像感測器件之類比至數位轉換方法、及電子裝置
JP7297850B2 (ja) 動画のためのledフリッカ軽減
JP2011205512A (ja) 固体撮像装置、固体撮像装置の駆動方法、及び、電子機器
US20220253519A1 (en) Face authentication system and electronic apparatus
WO2018012068A1 (ja) 固体撮像装置、固体撮像装置の駆動方法、及び、電子機器
TWI741389B (zh) 攝像裝置及電子機器
WO2021084832A1 (ja) 物体認識システム及び物体認識システムの信号処理方法、並びに、電子機器
JP2003247809A (ja) 距離情報入力装置
JP2021032762A (ja) 測距システム及び電子機器
JP7176917B2 (ja) 固体撮像装置及び撮像装置
CN117135482A (zh) 影像感测装置及其影像感测方法
US20210358992A1 (en) Cmos pixel sensor with extended full well capacity
WO2021157393A1 (ja) 測距装置および測距方法
Sarhangnejad Per-Pixel Coded-Exposure CMOS Image Sensors
JP2015192341A (ja) 撮像システム
JPH07177433A (ja) 固体撮像素子の駆動方法
JP2011229040A (ja) 固体撮像装置および電子カメラ

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201009

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210312