JP2017533497A - イベントベースダウンサンプリング - Google Patents
イベントベースダウンサンプリング Download PDFInfo
- Publication number
- JP2017533497A JP2017533497A JP2017514432A JP2017514432A JP2017533497A JP 2017533497 A JP2017533497 A JP 2017533497A JP 2017514432 A JP2017514432 A JP 2017514432A JP 2017514432 A JP2017514432 A JP 2017514432A JP 2017533497 A JP2017533497 A JP 2017533497A
- Authority
- JP
- Japan
- Prior art keywords
- addresses
- downsampling
- event
- spatially
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 55
- 238000005070 sampling Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims description 27
- 238000013507 mapping Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 39
- 238000001514 detection method Methods 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/47—Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
イベント駆動物体検出システム
[0024]上述したように、イベント駆動物体検出システムは顔または車のような移動物体を検出し、従前のトレーニングに基づいてリアルタイムに検出された物体を分類するためにダイナミックビジュンセンサ(DVS)を使用することができる。システム内の計算はセンサイベントによりトリガされる。イベント駆動物体検出システムは検出システムと呼ばれることができる。
X(t)=[xμ,v](t) (2)
[0035]イベント駆動ショートタイム空間DFT(eSTsDFT)コンポーネントは入力としてイベント列{(tk;pk;μk;vk)}を受信することができ、リアルタイム複素数N×N(N=128)マトリクスを出力することができる。イベント列は1つまたは複数のデータパケットにおいて受信されることができる。ショートタイム空間DFTマトリクス
Power bin)に対応する、サイズ32×(128×128)の2つのコンポーネントを含むことができる。これらの値は一定の値を有し、従前に計算されている。例えば、マトリクスは収集されたトレーニングデータについてマシンラーニングアルゴリズムから生成されることができる。代替的に、マトリクスは、ユーザ指定されることができる。
[0043]従来の画像処理技術は画像をダウンサンプルし、カーネルを用いて、ダウンサンプルされた画像を重畳する。カーネルは重畳マトリクスまたはマスクと呼ばれることができる。さらに、従来システムにおいて、ダウンサンプリング技術はイベントベースセンサに関して指定されない。それゆえ、イベントベースセンサの出力に関してダウンサンプリングおよび/またはカスケード(cascaded)されたダウンサンプリングのようなイベントベースサンプリング技術を指定することが望ましい。さらに、ダウンサンプルされた出力をカーネルと重畳することが望ましい。カーネルは性能を改良するために再使用されることができる。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
イベントベースダウンサンプリングの方法において、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信することと、
前記複数のアドレスと前記複数のタイムスタンプに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプリングすることと、を備えた、方法。
[C2]
前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新することをさらに備える、C1の方法。
[C3]
前記複数のアドレスを空間的にダウンサンプリングすることは、オリジナルの座標系をダウンサンプリングされた座標系にマッピングすることを備える、C1の方法。
[C4]
前記複数のアドレスを空間的にダウンサンプリングすることは、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることを備える、C3の方法。
[C5]
ダウンサンプルされているパケット内のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプリングすることをさらに備える、C1の方法。
[C6]
所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスパンを有するとき、特定のタイムスパンに対応する特定のセンサイベントを選択することにより時間内にダウンサンプリングすることをさらに備える、C1の方法。
[C7]
イベントベースダウンサンプリングのための装置において、複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信する手段と、
前記複数のタイムスタンプおよび前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプリングする手段と、を備えた装置。
[C8]
前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新する手段をさらに備えたC7の装置。
[C9]
前記複数のアドレスを空間的にダウンサンプリングする前記手段は、オリジナルの座標系をダウンサンプルされた座標系にマッピングすることによりダウンサンプルする、C7の装置。
[C10]
前記複数のアドレスを空間的にダウンサンプルする前記手段は、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることによりダウンサンプルする、C9の装置。
[C11]
ダウンサンプルされている複数のパケット内の複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプルする手段をさらに備えた、C7の装置。
[C12]
所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプリングする手段をさらに備えた、C7の装置。
[C13]
イベントベースダウンサンプリングの装置において、
メモリユニットと、
前記メモリユニットに結合された少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサは、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信し、
前記複数のタイムスタンプおよび前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプルする、ように構成される、装置。
[C14]
前記少なくとも1つのプロセッサはさらに、前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新するように構成される、C13の装置。
[C15]
前記少なくとも1つのプロセッサはさらにオリジナル座標系をダウンサンプルされた座標系にマッピングすることにより前記複数のアドレスを空間的にダウンサンプルするように構成される、C13の装置。
[C16]
前記少なくとも1つのプロセッサはさらに、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることにより前記複数のアドレスを空間的にダウンサンプルするように構成される、C15の装置。
[C17]
前記少なくとも1つのプロセッサはさらに、ダウンサンプルされているパケット内のタイムスタンプの関数としてタイムスタンプ値を計算することにより時間内にダウンサンプルするように構成される、C13の装置。
[C18]
前記少なくとも1つのプロセッサはさらに、所定のタイムスタンプ内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプルするように構成される、C13の装置。
[C19]
プログラムコードが記録された非一時的コンピュータ可読媒体において、前記プログラムコードはプロセッサにより実行されるイベントベースダウンサンプリングに関し、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信するためのプログラムコードと、
前記複数のタイムスタンプと前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプルするためのプログラムコードと、を備えた、非一時的コンピュータ可読媒体。
[C20]
前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新するためのプログラムコードをさらに備えた、C19のコンピュータ可読媒体。
[C21]
前記複数のアドレスを空間的にダウンサンプルするための前記プログラムコードは、オリジナル座標系をダウンサンプルされた座標系にマップするためのプログラムコードを備える、C19のコンピュータ可読媒体。
[C22]
前記複数のアドレスを空間的にダウンサンプルするための前記プログラムコードは前記複数のアドレスの少なくとも1つの最下位ビットをドロップするためのプログラムコードを備える、C21のコンピュータ可読媒体。
[C23]
ダウンサンプルされている複数のパケット内の複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプルするためのプログラムコードをさらに備える、C19のコンピュータ可読媒体。
[C24]
所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプルするためのプログラムコードをさらに備えた、C19のコンピュータ可読媒体。
Claims (24)
- イベントベースダウンサンプリングの方法において、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信することと、
前記複数のアドレスと前記複数のタイムスタンプに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプリングすることと、
を備えた、方法。 - 前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新することをさらに備える、請求項1の方法。
- 前記複数のアドレスを空間的にダウンサンプリングすることは、オリジナルの座標系をダウンサンプリングされた座標系にマッピングすることを備える、請求項1の方法。
- 前記複数のアドレスを空間的にダウンサンプリングすることは、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることを備える、請求項3の方法。
- ダウンサンプルされているパケット内のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプリングすることをさらに備える、請求項1の方法。
- 所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスパンを有するとき、特定のタイムスパンに対応する特定のセンサイベントを選択することにより時間内にダウンサンプリングすることをさらに備える、請求項1の方法。
- イベントベースダウンサンプリングのための装置において、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信する手段と、
前記複数のタイムスタンプおよび前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプリングする手段と、
を備えた装置。 - 前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新する手段をさらに備えた請求項7の装置。
- 前記複数のアドレスを空間的にダウンサンプリングする前記手段は、オリジナルの座標系をダウンサンプルされた座標系にマッピングすることによりダウンサンプルする、請求項7の装置。
- 前記複数のアドレスを空間的にダウンサンプルする前記手段は、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることによりダウンサンプルする、請求項9の装置。
- ダウンサンプルされている複数のパケット内の複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプルする手段をさらに備えた、請求項7の装置。
- 所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプリングする手段をさらに備えた、請求項7の装置。
- イベントベースダウンサンプリングの装置において、
メモリユニットと、
前記メモリユニットに結合された少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサは、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信し、
前記複数のタイムスタンプおよび前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプルする、
ように構成される、装置。 - 前記少なくとも1つのプロセッサはさらに、前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新するように構成される、請求項13の装置。
- 前記少なくとも1つのプロセッサはさらにオリジナル座標系をダウンサンプルされた座標系にマッピングすることにより前記複数のアドレスを空間的にダウンサンプルするように構成される、請求項13の装置。
- 前記少なくとも1つのプロセッサはさらに、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることにより前記複数のアドレスを空間的にダウンサンプルするように構成される、請求項15の装置。
- 前記少なくとも1つのプロセッサはさらに、ダウンサンプルされているパケット内のタイムスタンプの関数としてタイムスタンプ値を計算することにより時間内にダウンサンプルするように構成される、請求項13の装置。
- 前記少なくとも1つのプロセッサはさらに、所定のタイムスタンプ内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプルするように構成される、請求項13の装置。
- プログラムコードが記録された非一時的コンピュータ可読媒体において、前記プログラムコードはプロセッサにより実行されるイベントベースダウンサンプリングに関し、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信するためのプログラムコードと、
前記複数のタイムスタンプと前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプルするためのプログラムコードと、
を備えた、非一時的コンピュータ可読媒体。 - 前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新するためのプログラムコードをさらに備えた、請求項19のコンピュータ可読媒体。
- 前記複数のアドレスを空間的にダウンサンプルするための前記プログラムコードは、オリジナル座標系をダウンサンプルされた座標系にマップするためのプログラムコードを備える、請求項19のコンピュータ可読媒体。
- 前記複数のアドレスを空間的にダウンサンプルするための前記プログラムコードは前記複数のアドレスの少なくとも1つの最下位ビットをドロップするためのプログラムコードを備える、請求項21のコンピュータ可読媒体。
- ダウンサンプルされている複数のパケット内の複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプルするためのプログラムコードをさらに備える、請求項19のコンピュータ可読媒体。
- 所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプルするためのプログラムコードをさらに備えた、請求項19のコンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462051131P | 2014-09-16 | 2014-09-16 | |
US62/051,131 | 2014-09-16 | ||
US14/853,991 US9883122B2 (en) | 2014-09-16 | 2015-09-14 | Event-based down sampling |
US14/853,991 | 2015-09-14 | ||
PCT/US2015/050152 WO2016044250A1 (en) | 2014-09-16 | 2015-09-15 | Event-based down sampling |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017533497A true JP2017533497A (ja) | 2017-11-09 |
JP2017533497A5 JP2017533497A5 (ja) | 2018-09-27 |
JP6615872B2 JP6615872B2 (ja) | 2019-12-04 |
Family
ID=55456097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017514432A Active JP6615872B2 (ja) | 2014-09-16 | 2015-09-15 | イベントベースダウンサンプリング |
Country Status (5)
Country | Link |
---|---|
US (1) | US9883122B2 (ja) |
EP (1) | EP3195193A1 (ja) |
JP (1) | JP6615872B2 (ja) |
CN (1) | CN106716439B (ja) |
WO (1) | WO2016044250A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020057989A (ja) * | 2018-10-04 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、ビジョンセンサの校正方法、被写体の検出方法およびプログラム |
KR20200100667A (ko) * | 2017-12-26 | 2020-08-26 | 프로페시 | 이벤트 기반 센서로부터 신호를 출력하는 방법 및 이러한 방법을 사용하는 이벤트 기반 센서 |
JPWO2020255399A1 (ja) * | 2019-06-21 | 2020-12-24 | ||
US11336850B2 (en) | 2018-10-04 | 2022-05-17 | Sony Interactive Entertainment Inc. | Electronic device, actuator control method, and program |
WO2024106132A1 (ja) * | 2022-11-14 | 2024-05-23 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置および情報処理システム |
US12010448B2 (en) | 2018-10-04 | 2024-06-11 | Sony Interactive Entertainment Inc. | Sensor module, electronic device, subject detection method, and program |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10062151B2 (en) * | 2016-01-21 | 2018-08-28 | Samsung Electronics Co., Ltd. | Image deblurring method and apparatus |
KR102512828B1 (ko) * | 2016-01-22 | 2023-03-22 | 삼성전자주식회사 | 이벤트 신호 처리 방법 및 장치 |
CN108073857B (zh) * | 2016-11-14 | 2024-02-27 | 北京三星通信技术研究有限公司 | 动态视觉传感器dvs事件处理的方法及装置 |
CN108574793B (zh) * | 2017-03-08 | 2022-05-10 | 三星电子株式会社 | 被配置为重新生成时间戳的图像处理设备及包括其在内的电子设备 |
CN107238727B (zh) * | 2017-04-28 | 2020-05-01 | 天津师范大学 | 基于动态视觉传感器芯片的光电式转速传感器及探测方法 |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
CN115052141B (zh) * | 2017-09-28 | 2023-10-03 | 苹果公司 | 用于事件相机数据处理的系统和方法 |
JP6916091B2 (ja) * | 2017-11-10 | 2021-08-11 | 株式会社デンソーアイティーラボラトリ | 位置姿勢推定システム及び位置姿勢推定装置 |
CN109039980B (zh) * | 2018-07-12 | 2020-09-25 | 北京大学 | 一种时空脉冲阵列信号进行量化的方法 |
CN109359732B (zh) * | 2018-09-30 | 2020-06-09 | 阿里巴巴集团控股有限公司 | 一种芯片及基于其的数据处理方法 |
CN109919957B (zh) * | 2019-01-08 | 2020-11-27 | 同济大学 | 一种基于动态视觉传感器的角点检测方法 |
EP3694202A1 (en) * | 2019-02-11 | 2020-08-12 | Prophesee | Method of processing a series of events received asynchronously from an array of pixels of an event-based light sensor |
CN113553877B (zh) * | 2020-04-07 | 2023-05-30 | 舜宇光学(浙江)研究院有限公司 | 深度手势识别方法及其系统和电子设备 |
CN112215912B (zh) * | 2020-10-13 | 2021-06-22 | 中国科学院自动化研究所 | 基于动态视觉传感器的显著性图生成系统、方法和装置 |
KR20220164354A (ko) | 2021-06-04 | 2022-12-13 | 삼성전자주식회사 | 비전 센서 및 비전 센서의 동작 방법 |
CN113673681B (zh) * | 2021-08-20 | 2022-08-16 | 成都时识科技有限公司 | 基于事件的最大池化方法、芯片及电子产品 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014516665A (ja) * | 2011-05-12 | 2014-07-17 | ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) | 視覚を補助する装置を制御するための方法および装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4503878B2 (ja) * | 2001-04-27 | 2010-07-14 | オリンパス株式会社 | 撮像装置及び撮像方法 |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
GB2418555A (en) * | 2004-09-23 | 2006-03-29 | Mitsubishi Electric Inf Tech | Representing an image using descriptors based on colour information |
US8396825B2 (en) * | 2009-02-25 | 2013-03-12 | Toyota Motor Engineering & Manufacturing North America | Method and system to recognize temporal events using enhanced temporal decision trees |
US8942466B2 (en) | 2010-08-26 | 2015-01-27 | Brain Corporation | Sensory input processing apparatus and methods |
CN103119627B (zh) * | 2010-09-20 | 2017-03-08 | 高通股份有限公司 | 用于云辅助式扩增现实的可适应性框架 |
US8712940B2 (en) * | 2011-05-31 | 2014-04-29 | International Business Machines Corporation | Structural plasticity in spiking neural networks with symmetric dual of an electronic neuron |
CN103679249B (zh) * | 2012-09-20 | 2016-12-21 | 苏州简约纳电子有限公司 | 一种射频芯片接口电路 |
WO2014133506A1 (en) * | 2013-02-27 | 2014-09-04 | Hrl Laboratories, Llc | A mimo-ofdm system for robust and efficient neuromorphic inter-device communication |
US9400925B2 (en) | 2013-11-15 | 2016-07-26 | Facebook, Inc. | Pose-aligned networks for deep attribute modeling |
-
2015
- 2015-09-14 US US14/853,991 patent/US9883122B2/en active Active
- 2015-09-15 EP EP15778419.0A patent/EP3195193A1/en not_active Withdrawn
- 2015-09-15 JP JP2017514432A patent/JP6615872B2/ja active Active
- 2015-09-15 CN CN201580049456.XA patent/CN106716439B/zh active Active
- 2015-09-15 WO PCT/US2015/050152 patent/WO2016044250A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014516665A (ja) * | 2011-05-12 | 2014-07-17 | ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) | 視覚を補助する装置を制御するための方法および装置 |
Non-Patent Citations (3)
Title |
---|
INDIVERI, G. ET AL.: "Active Vision Using an Analog VLSI Model of Selective Attention", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS II: ANALOG AND DIGITAL SIGNAL PROCESSING [ONLINE], vol. 48, no. 5, JPN6019038546, May 2001 (2001-05-01), pages 492 - 500, XP011013433, ISSN: 0004128300 * |
ORCHARD, G. ET AL.: "Real Time Compressive Sensing Video Reconstruction in Hardware", IEEE JOURNAL ON EMERGING AND SELECTED TOPICS IN CIRCUITS AND SYSTEMS [ONLINE], vol. 2, no. 3, JPN6019038545, September 2012 (2012-09-01), pages 604 - 615, XP011476083, ISSN: 0004128299, DOI: 10.1109/JETCAS.2012.2214614 * |
PEREZ-CARRASCO, J.A. ET AL.: "Mapping from Frame-Driven to Frame-Free Event-Driven Vision Systems by Low-Rate Rate Coding and Coin", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE [ONLINE], vol. 35, no. 11, JPN6019038544, November 2013 (2013-11-01), pages 2706 - 2719, XP011527048, ISSN: 0004128298, DOI: 10.1109/TPAMI.2013.71 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021508975A (ja) * | 2017-12-26 | 2021-03-11 | プロフジー | イベントベースセンサから信号を出力するための方法、およびそのような方法を使用するイベントベースセンサ |
KR102627794B1 (ko) * | 2017-12-26 | 2024-01-23 | 프로페시 | 이벤트 기반 센서로부터 신호를 출력하는 방법 및 이러한 방법을 사용하는 이벤트 기반 센서 |
KR20200100667A (ko) * | 2017-12-26 | 2020-08-26 | 프로페시 | 이벤트 기반 센서로부터 신호를 출력하는 방법 및 이러한 방법을 사용하는 이벤트 기반 센서 |
JP7383616B2 (ja) | 2017-12-26 | 2023-11-20 | プロフジー | イベントベースセンサから信号を出力するための方法、およびそのような方法を使用するイベントベースセンサ |
US11336850B2 (en) | 2018-10-04 | 2022-05-17 | Sony Interactive Entertainment Inc. | Electronic device, actuator control method, and program |
JP2020057989A (ja) * | 2018-10-04 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、ビジョンセンサの校正方法、被写体の検出方法およびプログラム |
US11659286B2 (en) | 2018-10-04 | 2023-05-23 | Sony Interactive Entertainment Inc. | Sensor module, electronic device, vision sensor calibration method, subject detection method, and program |
JP7369517B2 (ja) | 2018-10-04 | 2023-10-26 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、被写体の検出方法およびプログラム |
WO2020071267A1 (ja) * | 2018-10-04 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、ビジョンセンサの校正方法、被写体の検出方法およびプログラム |
US12010448B2 (en) | 2018-10-04 | 2024-06-11 | Sony Interactive Entertainment Inc. | Sensor module, electronic device, subject detection method, and program |
WO2020255399A1 (ja) * | 2019-06-21 | 2020-12-24 | 株式会社ソニー・インタラクティブエンタテインメント | 位置検出システム、画像処理装置、位置検出方法および位置検出プログラム |
JPWO2020255399A1 (ja) * | 2019-06-21 | 2020-12-24 | ||
WO2024106132A1 (ja) * | 2022-11-14 | 2024-05-23 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置および情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
US20160080670A1 (en) | 2016-03-17 |
CN106716439A (zh) | 2017-05-24 |
CN106716439B (zh) | 2020-08-28 |
EP3195193A1 (en) | 2017-07-26 |
US9883122B2 (en) | 2018-01-30 |
JP6615872B2 (ja) | 2019-12-04 |
WO2016044250A1 (en) | 2016-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6615872B2 (ja) | イベントベースダウンサンプリング | |
US11227180B2 (en) | Extracting motion saliency features from video using a neurosynaptic system | |
EP3195142A1 (en) | Event-based spatial transformation | |
JP6859505B2 (ja) | 画像に基づく車両損傷判定方法、装置および電子デバイス | |
JP6602851B2 (ja) | 事象ベースのシステムとフレームベースの処理システムとをインターフェースすること | |
Baldwin et al. | Time-ordered recent event (tore) volumes for event cameras | |
Cameron et al. | Design considerations for the processing system of a CNN-based automated surveillance system | |
JP2022173321A (ja) | オブジェクトの検出方法、装置、デバイス、媒体及びプログラム | |
Iszaidy et al. | Video size comparison for embedded vehicle speed detection & travel time estimation system by using Raspberry Pi | |
CN114758140A (zh) | 目标检测方法、装置、设备及介质 | |
CN114049483A (zh) | 基于事件相机的目标检测网络自监督训练方法及装置 | |
CN108093153B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
Asif et al. | Performance Evaluation of Deep Learning Algorithm Using High‐End Media Processing Board in Real‐Time Environment | |
Pundkar et al. | Search and hunt based-driving scene perception network for distance estimation and object detection | |
Iida et al. | Connected smartphones and high-performance servers for remote object detection | |
CN116311943B (zh) | 交叉路口的平均延误时间的估算方法及装置 | |
Madhavan et al. | Violence Detection from CCTV Footage Using Optical Flow and Deep Learning in Inconsistent Weather and Lighting Conditions | |
US20220207822A1 (en) | Ensemble learning for cross-range 3d object detection in driver assist and autonomous driving systems | |
CN116580367A (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN117556438A (zh) | 图像脱敏方法和装置 | |
CN116051637A (zh) | Vo可靠性评估方法、模型训练方法、装置、设备及产品 | |
CN112686931A (zh) | 图像识别方法、垃圾倾倒行为检测方法、设备和介质 | |
EP4179358A1 (en) | System and method of segmenting free space based on electromagnetic waves | |
CN117692812A (zh) | 一种图像处理方法、电子设备、存储介质和产品 | |
Lagorce et al. | Live demonstration: Neuromorphic event-based multi-kernel algorithm for high speed visual features tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170526 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180817 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6615872 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |