JP6615872B2 - イベントベースダウンサンプリング - Google Patents
イベントベースダウンサンプリング Download PDFInfo
- Publication number
- JP6615872B2 JP6615872B2 JP2017514432A JP2017514432A JP6615872B2 JP 6615872 B2 JP6615872 B2 JP 6615872B2 JP 2017514432 A JP2017514432 A JP 2017514432A JP 2017514432 A JP2017514432 A JP 2017514432A JP 6615872 B2 JP6615872 B2 JP 6615872B2
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- event
- events
- sensor event
- downsampling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 42
- 238000005070 sampling Methods 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 23
- 238000001514 detection method Methods 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/47—Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
イベント駆動物体検出システム
[0024]上述したように、イベント駆動物体検出システムは顔または車のような移動物体を検出し、従前のトレーニングに基づいてリアルタイムに検出された物体を分類するためにダイナミックビジュンセンサ(DVS)を使用することができる。システム内の計算はセンサイベントによりトリガされる。イベント駆動物体検出システムは検出システムと呼ばれることができる。
X(t)=[xμ,v](t) (2)
[0035]イベント駆動ショートタイム空間DFT(eSTsDFT)コンポーネントは入力としてイベント列{(tk;pk;μk;vk)}を受信することができ、リアルタイム複素数N×N(N=128)マトリクスを出力することができる。イベント列は1つまたは複数のデータパケットにおいて受信されることができる。ショートタイム空間DFTマトリクス
Power bin)に対応する、サイズ32×(128×128)の2つのコンポーネントを含むことができる。これらの値は一定の値を有し、従前に計算されている。例えば、マトリクスは収集されたトレーニングデータについてマシンラーニングアルゴリズムから生成されることができる。代替的に、マトリクスは、ユーザ指定されることができる。
[0043]従来の画像処理技術は画像をダウンサンプルし、カーネルを用いて、ダウンサンプルされた画像を重畳する。カーネルは重畳マトリクスまたはマスクと呼ばれることができる。さらに、従来システムにおいて、ダウンサンプリング技術はイベントベースセンサに関して指定されない。それゆえ、イベントベースセンサの出力に関してダウンサンプリングおよび/またはカスケード(cascaded)されたダウンサンプリングのようなイベントベースサンプリング技術を指定することが望ましい。さらに、ダウンサンプルされた出力をカーネルと重畳することが望ましい。カーネルは性能を改良するために再使用されることができる。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
イベントベースダウンサンプリングの方法において、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信することと、
前記複数のアドレスと前記複数のタイムスタンプに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプリングすることと、を備えた、方法。
[C2]
前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新することをさらに備える、C1の方法。
[C3]
前記複数のアドレスを空間的にダウンサンプリングすることは、オリジナルの座標系をダウンサンプリングされた座標系にマッピングすることを備える、C1の方法。
[C4]
前記複数のアドレスを空間的にダウンサンプリングすることは、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることを備える、C3の方法。
[C5]
ダウンサンプルされているパケット内のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプリングすることをさらに備える、C1の方法。
[C6]
所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスパンを有するとき、特定のタイムスパンに対応する特定のセンサイベントを選択することにより時間内にダウンサンプリングすることをさらに備える、C1の方法。
[C7]
イベントベースダウンサンプリングのための装置において、複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信する手段と、
前記複数のタイムスタンプおよび前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプリングする手段と、を備えた装置。
[C8]
前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新する手段をさらに備えたC7の装置。
[C9]
前記複数のアドレスを空間的にダウンサンプリングする前記手段は、オリジナルの座標系をダウンサンプルされた座標系にマッピングすることによりダウンサンプルする、C7の装置。
[C10]
前記複数のアドレスを空間的にダウンサンプルする前記手段は、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることによりダウンサンプルする、C9の装置。
[C11]
ダウンサンプルされている複数のパケット内の複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプルする手段をさらに備えた、C7の装置。
[C12]
所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプリングする手段をさらに備えた、C7の装置。
[C13]
イベントベースダウンサンプリングの装置において、
メモリユニットと、
前記メモリユニットに結合された少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサは、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信し、
前記複数のタイムスタンプおよび前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプルする、ように構成される、装置。
[C14]
前記少なくとも1つのプロセッサはさらに、前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新するように構成される、C13の装置。
[C15]
前記少なくとも1つのプロセッサはさらにオリジナル座標系をダウンサンプルされた座標系にマッピングすることにより前記複数のアドレスを空間的にダウンサンプルするように構成される、C13の装置。
[C16]
前記少なくとも1つのプロセッサはさらに、前記複数のアドレスの少なくとも1つの最下位ビットをドロップすることにより前記複数のアドレスを空間的にダウンサンプルするように構成される、C15の装置。
[C17]
前記少なくとも1つのプロセッサはさらに、ダウンサンプルされているパケット内のタイムスタンプの関数としてタイムスタンプ値を計算することにより時間内にダウンサンプルするように構成される、C13の装置。
[C18]
前記少なくとも1つのプロセッサはさらに、所定のタイムスタンプ内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプルするように構成される、C13の装置。
[C19]
プログラムコードが記録された非一時的コンピュータ可読媒体において、前記プログラムコードはプロセッサにより実行されるイベントベースダウンサンプリングに関し、
複数のアドレスおよび複数のタイムスタンプに対応する複数のセンサイベントを受信するためのプログラムコードと、
前記複数のタイムスタンプと前記複数のアドレスに少なくとも部分的に基づいて前記複数のアドレスを空間的にダウンサンプルするためのプログラムコードと、を備えた、非一時的コンピュータ可読媒体。
[C20]
前記ダウンサンプリングに少なくとも部分的に基づいて前記複数のセンサイベントの各々に関するピクセル値を更新するためのプログラムコードをさらに備えた、C19のコンピュータ可読媒体。
[C21]
前記複数のアドレスを空間的にダウンサンプルするための前記プログラムコードは、オリジナル座標系をダウンサンプルされた座標系にマップするためのプログラムコードを備える、C19のコンピュータ可読媒体。
[C22]
前記複数のアドレスを空間的にダウンサンプルするための前記プログラムコードは前記複数のアドレスの少なくとも1つの最下位ビットをドロップするためのプログラムコードを備える、C21のコンピュータ可読媒体。
[C23]
ダウンサンプルされている複数のパケット内の複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間内にダウンサンプルするためのプログラムコードをさらに備える、C19のコンピュータ可読媒体。
[C24]
所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間内にダウンサンプルするためのプログラムコードをさらに備えた、C19のコンピュータ可読媒体。
Claims (15)
- コンピュータシステムを介したイベントベース画像処理のコンピュータによって実現可能な方法において、
複数のセンサイベントを受信することと、前記複数のセンサイベントの各センサイベントは、1つのアドレスおよび1つのタイムスタンプに対応する、
前記複数のセンサイベントから第1のセンサイベントを選択することと、
前記複数のセンサイベントからの第2のセンサイベントが、前記第1のセンサイベントに対応するタイムスタンプから所定の時間内に受信されることを決定することと、
前記第2のセンサイベントが前記所定の時間内に受信されることに基づいて、前記第1のセンサイベントと、前記第2のセンサイベントとを空間的にダウンサンプリングするが、前記第2のセンサイベントが前記所定の時間内に受信されない場合には、空間的にダウンサンプリングしないことと、
前記ダウンサンプリングされた出力をカーネルと重畳することと
を備えたコンピュータによって実現可能な方法。 - 重畳する前記ステップが、各カーネル値を対応する画像ピクセル値と乗算することにより、画像内のピクセルの値を計算することを備える、請求項1のコンピュータによって実現可能な方法。
- 前記ダウンサンプリングに少なくとも部分的に基づいて前記第1のセンサイベントおよび前記第2のセンサイベントに関するピクセル値を更新することをさらに備えた、請求項1のコンピュータによって実現可能な方法。
- 2以上のイベントが1つのセンサから受信され、前記イベントの1つまたは複数が、時間ダウンサンプリングに基づいてドロップされる、請求項3のコンピュータによって実現可能な方法。
- 空間的にダウンサンプリングすることは、オリジナルの座標系をダウンサンプリングされた座標系にマッピングすることを備える、請求項1のコンピュータによって実現可能な方法。
- 空間的にダウンサンプリングすることは、前記第1のセンサイベントおよび前記第2のセンサイベントに対応する各アドレスの少なくとも1つの最下位ビットをドロップすることを備える、請求項5のコンピュータによって実現可能な方法。
- 前記第1のセンサイベントおよび前記第2のセンサイベントに対応する複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間的にダウンサンプリングすることをさらに備えた、請求項1のコンピュータによって実現可能な方法。
- 所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間的にダウンサンプリングすることをさらに備えた、請求項1の方法。
- イベントベース画像処理のための装置において、
複数のセンサイベントを受信する手段と、前記複数のセンサイベントの各センサイベントは、1つのアドレスおよび1つのタイムスタンプに対応する、
前記複数のセンサイベントから第1のセンサイベントを選択する手段と、
前記複数のセンサイベントからの第2のセンサイベントが、前記第1のセンサイベントに対応するタイムスタンプから所定の時間内に受信されることを決定する手段と、
前記第2のセンサイベントが前記所定の時間内に受信されることに基づいて、前記第1のセンサイベントと、前記第2のセンサイベントとを空間的にダウンサンプリングするが、前記第2のセンサイベントが前記所定の時間内に受信されない場合には、空間的にダウンサンプリングしない手段と、
前記ダウンサンプリングされた出力をカーネルと重畳する手段と
を備えた装置。 - 前記ダウンサンプリングに少なくとも部分的に基づいて前記第1のセンサイベントおよび前記第2のセンサイベントに関するピクセル値を更新する手段をさらに備えた、請求項9の装置。
- 空間的にダウンサンプリングする前記手段は、オリジナルの座標系をダウンサンプリングされた座標系にマッピングする手段を備える、請求項9の装置。
- 空間的にダウンサンプリングする前記手段は、前記第1のセンサイベントおよび前記第2のセンサイベントに対応する各アドレスの少なくとも1つの最下位ビットをドロップする手段を備える、請求項11の装置。
- 前記第1のセンサイベントおよび前記第2のセンサイベントに対応する複数のタイムスタンプの関数として1つのタイムスタンプ値を計算することにより時間的にダウンサンプリングする手段をさらに備えた、請求項9の装置。
- 所定のタイムスパン内に、共通のアドレスを備えた複数のセンサイベントが異なるタイムスタンプを有するとき、特定のタイムスタンプに対応する特定のセンサイベントを選択することにより時間的にダウンサンプリングする手段をさらに備えた、請求項9の装置。
- プログラムコードが記録された非一時的コンピュータ可読媒体において、イベントベース画像処理に関する前記プログラムコードは、プロセッサにより実行され、
複数のセンサイベントを受信するためのプログラムコードと、前記複数のセンサイベントの各センサイベントは、1つのアドレスおよび1つのタイムスタンプに対応する、
前記複数のセンサイベントから第1のセンサイベントを選択するためのプログラムコードと、
前記複数のセンサイベントからの第2のセンサイベントが、前記第1のセンサイベントに対応するタイムスタンプから所定の時間内に受信されることを決定するためのプログラムコードと、
前記第2のセンサイベントが前記所定の時間内に受信されることに基づいて、前記第1のセンサイベントと、前記第2のセンサイベントとを空間的にダウンサンプリングするが、前記第2のセンサイベントが前記所定の時間内に受信されない場合には、空間的にダウンサンプリングしないためのプログラムコードと、
前記ダウンサンプリングされた出力をカーネルと重畳するためのプログラムコードと
を備えた、非一時的コンピュータ可読媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462051131P | 2014-09-16 | 2014-09-16 | |
US62/051,131 | 2014-09-16 | ||
US14/853,991 US9883122B2 (en) | 2014-09-16 | 2015-09-14 | Event-based down sampling |
US14/853,991 | 2015-09-14 | ||
PCT/US2015/050152 WO2016044250A1 (en) | 2014-09-16 | 2015-09-15 | Event-based down sampling |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017533497A JP2017533497A (ja) | 2017-11-09 |
JP2017533497A5 JP2017533497A5 (ja) | 2018-09-27 |
JP6615872B2 true JP6615872B2 (ja) | 2019-12-04 |
Family
ID=55456097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017514432A Active JP6615872B2 (ja) | 2014-09-16 | 2015-09-15 | イベントベースダウンサンプリング |
Country Status (5)
Country | Link |
---|---|
US (1) | US9883122B2 (ja) |
EP (1) | EP3195193A1 (ja) |
JP (1) | JP6615872B2 (ja) |
CN (1) | CN106716439B (ja) |
WO (1) | WO2016044250A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10062151B2 (en) * | 2016-01-21 | 2018-08-28 | Samsung Electronics Co., Ltd. | Image deblurring method and apparatus |
KR102512828B1 (ko) * | 2016-01-22 | 2023-03-22 | 삼성전자주식회사 | 이벤트 신호 처리 방법 및 장치 |
CN108073857B (zh) * | 2016-11-14 | 2024-02-27 | 北京三星通信技术研究有限公司 | 动态视觉传感器dvs事件处理的方法及装置 |
CN108574793B (zh) * | 2017-03-08 | 2022-05-10 | 三星电子株式会社 | 被配置为重新生成时间戳的图像处理设备及包括其在内的电子设备 |
CN107238727B (zh) * | 2017-04-28 | 2020-05-01 | 天津师范大学 | 基于动态视觉传感器芯片的光电式转速传感器及探测方法 |
US11392133B2 (en) | 2017-06-06 | 2022-07-19 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US11042155B2 (en) * | 2017-06-06 | 2021-06-22 | Plusai Limited | Method and system for closed loop perception in autonomous driving vehicles |
CN111247801B (zh) * | 2017-09-28 | 2022-06-14 | 苹果公司 | 用于事件相机数据处理的系统和方法 |
JP6916091B2 (ja) * | 2017-11-10 | 2021-08-11 | 株式会社デンソーアイティーラボラトリ | 位置姿勢推定システム及び位置姿勢推定装置 |
EP3506622A1 (en) * | 2017-12-26 | 2019-07-03 | Prophesee | Method for outputting a signal from an event based sensor, and event-based sensor using such method |
CN109039980B (zh) * | 2018-07-12 | 2020-09-25 | 北京大学 | 一种时空脉冲阵列信号进行量化的方法 |
CN109359732B (zh) * | 2018-09-30 | 2020-06-09 | 阿里巴巴集团控股有限公司 | 一种芯片及基于其的数据处理方法 |
JP7369517B2 (ja) | 2018-10-04 | 2023-10-26 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、被写体の検出方法およびプログラム |
JP7285058B2 (ja) | 2018-10-04 | 2023-06-01 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、被写体の検出方法、プログラムおよび処理回路 |
JP7023209B2 (ja) | 2018-10-04 | 2022-02-21 | 株式会社ソニー・インタラクティブエンタテインメント | 電子機器、アクチュエータの制御方法およびプログラム |
CN109919957B (zh) * | 2019-01-08 | 2020-11-27 | 同济大学 | 一种基于动态视觉传感器的角点检测方法 |
EP3694202A1 (en) | 2019-02-11 | 2020-08-12 | Prophesee | Method of processing a series of events received asynchronously from an array of pixels of an event-based light sensor |
JPWO2020255399A1 (ja) * | 2019-06-21 | 2020-12-24 | ||
CN113553877B (zh) * | 2020-04-07 | 2023-05-30 | 舜宇光学(浙江)研究院有限公司 | 深度手势识别方法及其系统和电子设备 |
CN112215912B (zh) * | 2020-10-13 | 2021-06-22 | 中国科学院自动化研究所 | 基于动态视觉传感器的显著性图生成系统、方法和装置 |
KR20220164354A (ko) | 2021-06-04 | 2022-12-13 | 삼성전자주식회사 | 비전 센서 및 비전 센서의 동작 방법 |
CN113673681B (zh) * | 2021-08-20 | 2022-08-16 | 成都时识科技有限公司 | 基于事件的最大池化方法、芯片及电子产品 |
JP2024071260A (ja) * | 2022-11-14 | 2024-05-24 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置および情報処理システム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4503878B2 (ja) * | 2001-04-27 | 2010-07-14 | オリンパス株式会社 | 撮像装置及び撮像方法 |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
GB2418555A (en) * | 2004-09-23 | 2006-03-29 | Mitsubishi Electric Inf Tech | Representing an image using descriptors based on colour information |
US8396825B2 (en) * | 2009-02-25 | 2013-03-12 | Toyota Motor Engineering & Manufacturing North America | Method and system to recognize temporal events using enhanced temporal decision trees |
US8942466B2 (en) | 2010-08-26 | 2015-01-27 | Brain Corporation | Sensory input processing apparatus and methods |
WO2012040099A1 (en) * | 2010-09-20 | 2012-03-29 | Qualcomm Incorporated | An adaptable framework for cloud assisted augmented reality |
FR2975251B1 (fr) * | 2011-05-12 | 2015-12-04 | Univ Pierre Et Marie Curie Paris 6 | Procede et dispositif de commande d'un dispositif d'aide a la vision |
US8712940B2 (en) * | 2011-05-31 | 2014-04-29 | International Business Machines Corporation | Structural plasticity in spiking neural networks with symmetric dual of an electronic neuron |
CN103679249B (zh) * | 2012-09-20 | 2016-12-21 | 苏州简约纳电子有限公司 | 一种射频芯片接口电路 |
WO2014133506A1 (en) * | 2013-02-27 | 2014-09-04 | Hrl Laboratories, Llc | A mimo-ofdm system for robust and efficient neuromorphic inter-device communication |
US9400925B2 (en) | 2013-11-15 | 2016-07-26 | Facebook, Inc. | Pose-aligned networks for deep attribute modeling |
-
2015
- 2015-09-14 US US14/853,991 patent/US9883122B2/en active Active
- 2015-09-15 CN CN201580049456.XA patent/CN106716439B/zh active Active
- 2015-09-15 WO PCT/US2015/050152 patent/WO2016044250A1/en active Application Filing
- 2015-09-15 EP EP15778419.0A patent/EP3195193A1/en not_active Withdrawn
- 2015-09-15 JP JP2017514432A patent/JP6615872B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3195193A1 (en) | 2017-07-26 |
CN106716439B (zh) | 2020-08-28 |
US20160080670A1 (en) | 2016-03-17 |
US9883122B2 (en) | 2018-01-30 |
CN106716439A (zh) | 2017-05-24 |
WO2016044250A1 (en) | 2016-03-24 |
JP2017533497A (ja) | 2017-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6615872B2 (ja) | イベントベースダウンサンプリング | |
US11227180B2 (en) | Extracting motion saliency features from video using a neurosynaptic system | |
US9846677B2 (en) | Event-based spatial transformation | |
JP6859505B2 (ja) | 画像に基づく車両損傷判定方法、装置および電子デバイス | |
JP6602851B2 (ja) | 事象ベースのシステムとフレームベースの処理システムとをインターフェースすること | |
JP2015187855A (ja) | 多範囲オブジェクト検出装置および方法 | |
Bozcan et al. | Context-dependent anomaly detection for low altitude traffic surveillance | |
Cameron et al. | Design considerations for the processing system of a CNN-based automated surveillance system | |
JP2022173321A (ja) | オブジェクトの検出方法、装置、デバイス、媒体及びプログラム | |
Iszaidy et al. | Video size comparison for embedded vehicle speed detection & travel time estimation system by using Raspberry Pi | |
CN117953581A (zh) | 动作识别的方法、装置、电子设备及可读存储介质 | |
CN114049483A (zh) | 基于事件相机的目标检测网络自监督训练方法及装置 | |
CN108093153B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
US11080540B2 (en) | 3D vision processing using an IP block | |
US20220292368A1 (en) | Classification device, learning device, classification method, learning method, classification program and learning program | |
CN109657523B (zh) | 一种可行驶区域检测方法和装置 | |
Iida et al. | Connected smartphones and high-performance servers for remote object detection | |
CN116311943B (zh) | 交叉路口的平均延误时间的估算方法及装置 | |
Madhavan et al. | Violence Detection from CCTV Footage Using Optical Flow and Deep Learning in Inconsistent Weather and Lighting Conditions | |
US20220207822A1 (en) | Ensemble learning for cross-range 3d object detection in driver assist and autonomous driving systems | |
CN116580367A (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN117556438A (zh) | 图像脱敏方法和装置 | |
CN116051637A (zh) | Vo可靠性评估方法、模型训练方法、装置、设备及产品 | |
CN112686931A (zh) | 图像识别方法、垃圾倾倒行为检测方法、设备和介质 | |
EP4179358A1 (en) | System and method of segmenting free space based on electromagnetic waves |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170526 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180817 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6615872 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |