JP7104611B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7104611B2
JP7104611B2 JP2018219341A JP2018219341A JP7104611B2 JP 7104611 B2 JP7104611 B2 JP 7104611B2 JP 2018219341 A JP2018219341 A JP 2018219341A JP 2018219341 A JP2018219341 A JP 2018219341A JP 7104611 B2 JP7104611 B2 JP 7104611B2
Authority
JP
Japan
Prior art keywords
feature vector
event data
information processing
event
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018219341A
Other languages
English (en)
Other versions
JP2020086836A (ja
Inventor
雄介 関川
孝介 原
康太 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2018219341A priority Critical patent/JP7104611B2/ja
Publication of JP2020086836A publication Critical patent/JP2020086836A/ja
Application granted granted Critical
Publication of JP7104611B2 publication Critical patent/JP7104611B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
歩行者や他の車両の状態、及びその変化を速やかに把握することは、より安全な先進運転システム(Advanced Driver Assistance System)の実現に欠かせない。画像から歩行者や車両などを把握するために、機械学習を用いた推論が知られている(非特許文献1)。
L. Zhang, L. Lin,X. Liang and K. He「Is faster r-cnn doing well for pedestrian detection?」in European Conference on Computer Vision, pages 443-457. Springer, 2016.
既存のカメラで撮影した画像を用いて歩行者や車両等の検出を行う場合、推論のレートが画像のフレームレートに依存するため、高速な応答が困難である。また、カメラ画像の場合にはフレーム間で変化していない画素も多く、変化のない画素についてまで処理を行うことが必要になるため、無駄が多い。
近年、センサーごとに独立に輝度変化を観測するイベントベースドカメラが着目されている。イベントベースドカメラは、画素に変化があったときだけ、その画素の位置、変化、及び時刻を送信するカメラであり、「Dynamic and Active-pixel Vision Sensor」とも呼ばれる。イベントベースドカメラは、データがスパース、高速応答、高ダイナミックレンジという特徴がある。
本発明は、データのスパース性を活かした効率の良い処理を行える情報処理装置を提供することを目的とする。
本発明の情報処理装置は、イベントベースドカメラから出力された、イベントが起きた座標、極性および時刻のデータをイベントデータとして入力する入力部と、前記入力部に入力されたイベントデータの座標および極性を高次元写像し、高次元写像により得られた特徴ベクトルを、当該イベントの時刻のデータに基づく位相変換および減衰によりコーディングし、コーディングにより得られた特徴ベクトルと、前回のイベントデータが入力されたときまでに得られた特徴ベクトルのmax値とを比較することにより、入力されたイベントデータの特徴ベクトルのmax値を再帰的に求めることにより、前記イベントデータの特徴ベクトルを求める特徴ベクトル計算部と、前記特徴ベクトルに基づいて、前記イベントデータに含まれる物体または物体の動きを認識する推論部とを備える。
このように高次元写像により得られた特徴ベクトルを、イベントデータの時刻のデータに基づく位相変換および減衰によりコーディングを行うことにより、前回までに得られたmax値と、新たに得られたmax値とに基づいて、所定時間内におけるイベントデータのmax値を再帰的に計算ができるようにした。これにより、max値の計算処理を大幅に軽減できる。
本発明の情報処理装置は、前記特徴ベクトル計算部にて行うコーディングにおいて、前記時刻による減衰は、所定時間が経過したイベントデータの影響が0になるように設定されてもよい。この構成により、所定時間以前のイベントデータの影響がなくなるので、max値の再帰計算を適切に行える。
本発明の情報処理装置は、イベントデータの座標および極性と、多層パーセプトロンによる高次元写像の結果とを対応付けて記憶したルックアップテーブルを備え、前記特徴ベクトル計算部は、前記ルックアップテーブルを参照して、入力されたイベントデータの座標および極性の高次元写像を行ってもよい。
イベントカメラからの出力は画像次元しかないことから、あらかじめ用意したルックアップテーブルを参照することにより、高次元写像化を行う計算処理を大幅に軽減できる。なお、ルックアップテーブルは、イベントデータを高次元写像するための多層パーセプトロンを学習により求め、求めた多層パーセプトロンにイベントカメラからの画像次元数分のすべての入力を適用して、対応する高次元写像の値を求めておくことにより生成できる。
本発明の情報処理装置において、前記特徴ベクトル計算部は、前記イベントデータで構成される画像を分割した領域ごとに特徴ベクトルを計算し、前記分割した領域ごとに求めた特徴ベクトルを物体の認識を行うためのモデルに適用して物体の認識を行ってもよい。イベントデータが集まって構成される画像を構成する領域ごとに特徴ベクトルを計算することで、イベントデータが発生していない領域については計算を省略できる。
本発明の情報処理装置は、前記推論部を線形演算可能なモデルにより構成してもよい。これにより、max値の変化があった特徴ベクトルのみ計算をすればよいので、計算処理を軽減できる。
本発明の情報処理装置は、前記max値が変化することに対するコストを追加することにより、max値の変化を抑制してもよい。max値の変化を押さえることにより、計算を行うべき特徴ベクトルを減らすことができる。
本発明の情報処理装置において、前記推論部は、前記特徴ベクトルの第1の部分を適用する第1のモデルと、前記特徴ベクトルの第2の部分を適用する第2のモデルとを有し、前記特徴ベクトル計算部は、前記特徴ベクトルのコーディングをする際に、前記第1の部分と前記第2の部分の減衰の率を変えてもよい。この構成により、特徴ベクトルの部分ごとに異なる速度の変化を捉え、変化の緩やかな特徴ベクトルの処理を低減できる。
本発明の情報処理装置において、前記特徴ベクトル計算部は、前記イベントベースドカメラからイベントが入力されるたびに特徴ベクトルのmax値の計算を行い、前記推論部は、推論結果を出力するタイミングで推論を行ってもよい。これにより、出力先で必要とされるレートに合わせて推論結果を出力できる。
本発明の情報処理方法は、イベントベースドカメラから出力されたイベントデータを情報処理装置によって処理する情報処理方法であって、前記情報処理装置は、前記イベントベースドカメラから出力された、イベントが起きた座標、極性および時刻のデータをイベントデータとして入力するステップと、前記情報処理装置は、入力されたイベントデータの座標および極性を高次元写像するステップと、前記情報処理装置は、高次元写像により得られた特徴ベクトルを、当該イベントの時刻のデータに基づく位相変換および減衰によりコーディングするステップと、前記情報処理装置は、コーディングにより得られた特徴ベクトルと、前回のイベントデータが入力されたときまでに得られた特徴ベクトルのmax値とを比較することにより、入力されたイベントデータの特徴ベクトルのmax値を再帰的に求めることにより、前記イベントデータの特徴ベクトルを求めるステップと、前記情報処理装置は、前記特徴ベクトルに基づいて、前記イベントデータに含まれる物体または物体の動きを認識するステップとを備える。
本発明のプログラムは、イベントベースドカメラから出力されたイベントデータを情報処理するためのプログラムであって、コンピュータに、前記イベントベースドカメラから出力された、イベントが起きた座標、極性および時刻のデータをイベントデータとして入力するステップと、入力されたイベントデータの座標および極性を高次元写像するステップと、高次元写像により得られた特徴ベクトルを、当該イベントの時刻のデータに基づく位相変換および減衰によりコーディングするステップと、コーディングにより得られた特徴ベクトルと、前回のイベントデータが入力されたときまでに得られた特徴ベクトルのmax値とを比較することにより、入力されたイベントデータの特徴ベクトルのmax値を再帰的に求めることにより、前記イベントデータの特徴ベクトルを求めるステップと、前記特徴ベクトルに基づいて、前記イベントデータに含まれる物体または物体の動きを認識するステップとを実行させる。
本発明によれば、イベントデータの特徴ベクトルを再帰的に計算可能とし、計算処理を大幅に軽減することができる。
第1の実施の形態の情報処理装置の構成を示すブロック図である。 (a)情報処理装置の特徴ベクトル計算部にて行う計算処理を示す模式図である。(b)情報処理装置で用いる多層パーセプトロンの学習を行うときの処理を示す模式図である。 情報処理装置の学習を行う動作を示すフローチャートである。 max値の計算について説明する図である。 情報処理装置によって推論を行う動作を示すフローチャートである。 第2の実施の形態の情報処理装置の構成を示す図である。
以下、本発明の実施の形態の情報処理装置、情報処理方法およびプログラムについて、図面を参照しながら説明する。
(第1の実施の形態)
図1は、第1の実施の形態の情報処理装置1の構成を示すブロック図である。情報処理装置1は、イベントベースドカメラから出力されたイベントデータを入力する入力部10と、入力されたイベントデータから特徴ベクトルを計算する特徴ベクトル計算部12と、特徴ベクトルに基づいてイベントデータに含まれる物体の動きを推論する推論部14と、推論結果を出力する出力部16とを有している。
特徴ベクトル計算部12は、イベントデータが入力されるたびに特徴ベクトルの計算を行うイベントドリブン型の処理部である。これに対し、推論部14は、推論結果を利用するアプリケーションからの要求を受けて駆動するオンデマンド型の処理部である。つまり、特徴ベクトル計算部12は、イベントカメラからイベントデータが入力されるたびに特徴ベクトルの計算を行って、一定期間、その計算結果を記憶しておき、推論部14は要求があったときに、記憶されている特徴ベクトルを用いて、イベントデータで検出された物体およびその動きの認識を行う。
イベントデータは、イベントが起きた座標(x,y)、極性pおよび時刻tのデータを有している。極性pは、当該画素の値がイベントが起きる前に比べて増えたか減ったかの二値のデータである。イベントデータは、画素値に所定値以上の変化があったときに出力されるデータであり、画素値に所定値以上の変化がなければ出力されないので、フレームデータに比べて極めてスパースなデータである。
図2(a)は、情報処理装置1の特徴ベクトル計算部12にて行う計算処理を示す模式図である。図2(b)は、情報処理装置1で用いる多層パーセプトロンの学習を行うときの処理を示す模式図である。
先に、図2(b)を参照して学習時の処理を説明する。学習の対象は、多層パーセプトロンmlp1,mlp2,mlp3である。教師データとしては、既知の物体の動きをイベントカメラで撮影して得られたイベントデータを用いる。所定時間帯τに得られたイベントデータ(x,y,p,t)を情報処理装置1に入力し、その推論結果が教師データの物体の動きになるように、逆誤差伝播法によって、多層パーセプトロンmlp1,mlp2,mlp3の学習を行う。
ここで、情報処理装置1が入力されたイベントデータ(x,y,p,t)に基づいて推論結果を計算する処理を例として説明する。学習時には、所定時間帯τに得られたn個のイベントデータを一括して処理する。
図3は、情報処理装置1の学習を行う動作を示すフローチャートである。情報処理装置1は、イベントデータ(x,y,p,t)が入力されると(S10)、入力されたイベントデータから時刻tを除いたデータ(x,y,t)を多層パーセプトロンmlp1によって64次元の特徴データに写像する(S11)。
図2(b)において、mlp1の後段に記載された「n×64」は、n個のイベントデータが64次元の特徴データに写像されたことを示す。続いて、情報処理装置1は、多層パーセプトロンmlp2によって、さらに、1024次元の特徴データに高次元写像する(S11)。
次に、情報処理装置1は、得られたn個の1024次元の特徴データを時間コーディング(temporal coding)する(S12)。n個のイベントデータは、それぞれいつ得られたかを示す時間tの情報を有しているので、これを用いる。時間コーディングにおいては、イベントデータが得られた時刻tから現在時刻までの時間差Δtを用い、次式によって行う。
Figure 0007104611000001
本実施の形態において時間コーディングを行うのは、古い時刻に得られたイベントデータの影響を小さくするためである。本実施の形態では、所定時間帯τ以前のイベントデータの影響が0となるように、特徴ベクトルが0となるように線形に減衰させている。
続いて、情報処理装置1は、時間コーディングされた特徴ベクトルの次元ごとのmax値を計算し、所定時間帯τのイベントデータを表す特徴ベクトルを計算する(S13)。
図4は、max値の計算について説明する図である。図4の上段に時間コーディングされたn個の特徴ベクトルを示している。本実施の形態において、特徴ベクトルは1024次元である。max値の計算では、n個の特徴ベクトルの各次元での最大値を求める。図4の下段はmax値の演算結果の例を示す図である。1次元目では、3番目のデータが最大であり、2次元目では、1番目のデータが最大である。このようにして、次元ごとの最大値を求めることで、所定時間帯τにおける特徴ベクトルを計算することができる。
次に、情報処理装置1は、求めた特徴ベクトルを多層パーセプトロンmlp3に適用して推論を行う(S14)。この推論結果がイベントデータに対応する物体の動きとなるように、逆誤差伝播法を使って、多層パーセプトロンmlp1,mlp2,mlp3の学習を行う(S15)。
図2(a)に戻って、情報処理装置1によって推論を行う処理について説明する。先に説明したとおり、特徴ベクトル計算部12は、イベントドリブン型の処理部である。学習時には、所定時間帯τにおけるn個のイベントデータを一括して処理したが、推論時は所定時間帯τにおける全イベントの入力を待つことなく、イベントデータが入力されるたびに処理を行う。
図5は、情報処理装置1によって推論を行う動作を示すフローチャートである。情報処理装置1にイベントデータが入力されると(S20)、ルックアップテーブル18を参照して入力されたイベントデータを高次元写像する(S21)。ルックアップテーブル18は、学習によって得られた多層パーセプトロンmlp1,mlp2によって高次元写像を行った結果を記憶したテーブルである。イベントデータに含まれる座標および極性のデータは、高々、W(幅)×H(高)×2(極性)しかないので、高次元写像の結果をテーブルに記憶しておくことができる。これにより、ルックアップテーブル18から高次元写像の結果を読み出すことにより、多層パーセプトロンを用いた計算をいちいち行わなくてもよいので、計算負荷を軽減できる。
次に、情報処理装置1は、高次元写像により得られた特徴ベクトルを時間コーディングする(S22)。時間コーディングの方法は、学習時と同じである。情報処理装置1は、所定時間帯τにおけるmax値を求めるが、本実施の形態では、所定時間帯τの複数のイベントを一括して処理するのではなく、前イベントまでに求められているmax値と最新のイベントデータから求められた特徴ベクトルとを比較することにより、max値を求める。
具体的には、最新のイベントデータの処理に合わせて、前イベントまでのmax値に対して位相変換と減衰を行う(S23)。図4で説明したように、各次元のmax値はどのイベントデータから得られた値か分かっている。max値が得られたイベントデータの時刻tと現在時刻との差Δtに応じて位相と減衰を与えて、前イベントまでのmax値を再計算する。そして、情報処理装置1は、前イベントまでのmax値と最新イベントの特徴ベクトルとを比較して新たなmax値を求める(S24)。
次に、情報処理装置1は、推論部14から特徴ベクトルの取得要求があったか否かを判定し(S25)、推論部14から特徴ベクトルの取得要求がない場合には(S25でNO)、次のイベントデータの入力を待ち、イベントデータが入力されると(S20)、上記した処理によって特徴ベクトルを計算する。
推論部14から特徴ベクトルの取得要求があった場合には(S25でYES)、推論部14が要求する時間帯における特徴ベクトルを推論部14に入力する(S26)。推論部14は入力された特徴ベクトルを用いて、物体の動きを推論し(S27)、その推論結果を出力する(S28)。なお、図5では、説明の便宜上、推論部14から特徴ベクトルの取得要求があった場合に(S25でYES)、推論部14の処理へ移行しているが、実際には、特徴ベクトル計算部12と推論部14は独立なので、推論部14に対して特徴ベクトルを入力した後も、情報処理装置1にイベントデータが入力されると、特徴ベクトル計算部12は、特徴ベクトルの計算を行う(S20~S24)。
以上、第1の実施の形態の情報処理装置1の構成について説明したが、上記した情報処理装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたコンピュータである。上記した各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した情報処理装置1が実現される。このようなプログラムも本発明の範囲に含まれる。
第1の実施の形態の情報処理装置1は、特徴ベクトルに対して時間コーディングを行うことによって、max値の再帰計算を可能にした。経時的なデータのどれがmax値であるかを求めるには、計算対象となるウィンドウが無限大でなければ計算ができない。本実施の形態で行うイベントデータから物体の動きを認識するというタスクにおいては、過去のデータの重要性は低いことに着目し、時間コーディングを行うことで過去のデータの影響を減衰させることでmax値の再帰計算を可能にし、計算負荷を大幅に軽減した。次式は、左辺がmax値の通常の計算方法を示し、右辺が、それまでに求まっているa,・・・,an-1のmax値と、aのmax値を求める再帰計算を示す。
Figure 0007104611000002
左辺では、特徴次元の数(本実施形態では1024次元)だけ、n次元のmax演算を行う必要があるのに対し、右辺では、2次元のmax演算を行えばよいので、計算負荷を大幅に軽減できる。特徴ベクトル計算部12は、イベントデータをフレームデータに変換することなく、スパースなデータのまま扱うことができ、計算負荷を軽減できる。
(第2の実施の形態)
図6は、第2の実施の形態の情報処理装置の構成を示す図である。第2の実施の形態の情報処理装置は、推論部14が多層パーセプトロンmlp4を備える。多層パーセプトロンmlp4は、物体が何であるかを推論する機能を有している。図6では、多層パーセプトロンmlp1,mlp2を模式的に示しているが、推論時に、多層パーセプトロンmlp1,mlp2による高次元写像の結果を記憶したルックアップテーブルを参照して処理を行うのは、第1の実施の形態と同じである。
第2の実施の形態において、多層パーセプトロンmlp4に対しては、max値を計算することによって求めた特徴ベクトルと多層パーセプトロンmlp1による写像結果とを連結したベクトルが入力される。多層パーセプトロンmlp1からのデータには、物体の位置の情報が残っており、多層パーセプトロンmlp1からの特徴ベクトルを用いることにより、物体を識別することができる。
なお、多層パーセプトロンmlp4は、多層パーセプトロンmlp3と同様に、物体が既知のイベントデータを教師データとして学習を行うことができる。
第2の実施の形態の情報処理装置は、第1の実施の形態の情報処理装置と同様に、max値を再帰的に計算することにより、計算負荷を大幅に軽減できるとともに、イベントデータを用いて、物体を識別することができる。
上記した実施の形態において、イベントデータで構成される画像を分割した領域ごとに特徴ベクトルを計算することとしてもよい。例えば、イベントデータで構成される画像データを上下左右に4分割し、それぞれの領域の単位で特徴ベクトルを求めてもよい。このような処理を行うためには、各イベントデータから特徴データを生成する際に、どの領域から得られたイベントデータかを記録しておく。同じ領域の特徴ベクトルのmax値を求めることで、当該領域の特徴ベクトルを求める。また、推論部14は、各領域で得られた特徴データを処理する複数の多層パーセプトロンmlp4を備える。この構成により、イベントデータが入力されなかった領域について特徴ベクトルを求める計算、及び、物体の認識の推論は不要であり、計算負荷を軽減できる。
以上、本発明の情報処理装置について、実施の形態を用いて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。
上記した実施の形態では、推論部14は多層パーセプトロンを備え、多層パーセプトロンによって特徴ベクトルから物体の動き、または物体の識別を推論する例を挙げたが、推論部14は、線形演算可能なモデルによって構成してもよい。これにより、max値の変化があった特徴ベクトルのみ計算をすればよいので、計算処理を軽減できる。
さらに、このような構成を採用する際に、max値の変化を抑制するように、特徴ベクトルの計算過程において、max値が変化することに対するコストを追加することとしてもよい。多層パーセプトロンmlp2から出力される値のmax値の変化を抑制する構成としては、連続するイベントデータから求められた特徴ベクトルの差分を誤差として、多層パーセプトロンmlp2の学習を行う。これにより、max値の変化を抑制する多層パーセプトロンmlp2を構成できる。
上記した実施の形態において、時間コーディングを行う際に、減衰率を変えた特徴ベクトルを生成し、それらを連結した特徴ベクトルとしてもよい。一例として、1024次元の特徴ベクトルのうち、前半の512次元について減衰率を小さく、後半の512次元について減衰率を大きくしてそれぞれ特徴ベクトルを求め、それらを連結して1024次元の特徴ベクトルとしてもよい。この場合、推論部14は、前半の特徴ベクトルを処理する多層パーセプトロンと後半の特徴ベクトルを処理する多層パーセプトロンをそれぞれ準備し、これらの多層パーセプトロンを学習しておく。
この構成により、減衰率が大きい方の特徴ベクトルは急な変化を捉え、減衰率の小さい方の特徴ベクトルは緩やかな変化を捉える。このように特徴次元ごとに違う速度の変化を捉えるようにすることにより、減衰率の大きい方の特徴ベクトルは、緩やかな変化によっては特徴ベクトルが変化しない場合があり、対応する推論処理を行わなくてもよくなるので、推論の計算負荷を軽減できる。
本発明は、歩行者や車両等を検出する装置として有用である。
1 情報処理装置、10 入力部、12 特徴ベクトル計算部、
14 推論部、16 出力部、18 ルックアップテーブル。

Claims (10)

  1. イベントベースドカメラから出力された、イベントが起きた座標、極性および時刻のデータをイベントデータとして入力する入力部と、
    前記入力部に入力されたイベントデータの座標および極性を高次元写像し、高次元写像により得られた特徴ベクトルを、当該イベントの時刻のデータに基づく位相変換および減衰によりコーディングし、コーディングにより得られた特徴ベクトルと、前回のイベントデータが入力されたときまでに得られた特徴ベクトルのmax値とを比較することにより、入力されたイベントデータの特徴ベクトルのmax値を再帰的に求めることにより、前記イベントデータの特徴ベクトルを求める特徴ベクトル計算部と、
    前記特徴ベクトルに基づいて、前記イベントデータに含まれる物体または物体の動きを認識する推論部と、
    を備える情報処理装置。
  2. 前記特徴ベクトル計算部にて行うコーディングにおいて、前記時刻による減衰は、所定時間が経過したイベントデータの影響が0になるように設定される請求項1に記載の情報処理装置。
  3. イベントデータの座標および極性と、多層パーセプトロンによる高次元写像の結果とを対応付けて記憶したルックアップテーブルを備え、
    前記特徴ベクトル計算部は、前記ルックアップテーブルを参照して、入力されたイベントデータの座標および極性の高次元写像を行う請求項1または2に記載の情報処理装置。
  4. 前記特徴ベクトル計算部は、前記イベントデータで構成される画像を分割した領域ごとに特徴ベクトルを計算し、
    前記分割した領域ごとに求めた特徴ベクトルを物体の認識を行うためのモデルに適用して物体の認識を行う請求項1乃至3のいずれかに記載の情報処理装置。
  5. 前記推論部を線形演算可能なモデルにより構成する請求項1乃至4のいずれかに記載の情報処理装置。
  6. 前記max値が変化することに対するコストを追加することにより、max値の変化を抑制する請求項5に記載の情報処理装置。
  7. 前記推論部は、前記特徴ベクトルの第1の部分を適用する第1のモデルと、前記特徴ベクトルの第2の部分を適用する第2のモデルとを有し、
    前記特徴ベクトル計算部は、前記特徴ベクトルのコーディングをする際に、前記第1の部分と前記第2の部分の減衰の率を変える請求項1乃至6のいずれかに記載の情報処理装置。
  8. 前記特徴ベクトル計算部は、前記イベントベースドカメラからイベントが入力されるたびに特徴ベクトルのmax値の計算を行い、
    前記推論部は、推論結果を出力するタイミングで推論を行う請求項1乃至7のいずれかに記載の情報処理装置。
  9. イベントベースドカメラから出力されたイベントデータを情報処理装置によって処理する情報処理方法であって、
    前記情報処理装置は、前記イベントベースドカメラから出力された、イベントが起きた座標、極性および時刻のデータをイベントデータとして入力するステップと、
    前記情報処理装置は、入力されたイベントデータの座標および極性を高次元写像するステップと、
    前記情報処理装置は、高次元写像により得られた特徴ベクトルを、当該イベントの時刻のデータに基づく位相変換および減衰によりコーディングするステップと、
    前記情報処理装置は、コーディングにより得られた特徴ベクトルと、前回のイベントデータが入力されたときまでに得られた特徴ベクトルのmax値とを比較することにより、入力されたイベントデータの特徴ベクトルのmax値を再帰的に求めることにより、前記イベントデータの特徴ベクトルを求めるステップと、
    前記情報処理装置は、前記特徴ベクトルに基づいて、前記イベントデータに含まれる物体または物体の動きを認識するステップと、
    を備える情報処理方法。
  10. イベントベースドカメラから出力されたイベントデータを情報処理するためのプログラムであって、コンピュータに、
    前記イベントベースドカメラから出力された、イベントが起きた座標、極性および時刻のデータをイベントデータとして入力するステップと、
    入力されたイベントデータの座標および極性を高次元写像するステップと、
    高次元写像により得られた特徴ベクトルを、当該イベントの時刻のデータに基づく位相変換および減衰によりコーディングするステップと、
    コーディングにより得られた特徴ベクトルと、前回のイベントデータが入力されたときまでに得られた特徴ベクトルのmax値とを比較することにより、入力されたイベントデータの特徴ベクトルのmax値を再帰的に求めることにより、前記イベントデータの特徴ベクトルを求めるステップと、
    前記特徴ベクトルに基づいて、前記イベントデータに含まれる物体または物体の動きを認識するステップと、
    を実行させるプログラム。
JP2018219341A 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム Active JP7104611B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219341A JP7104611B2 (ja) 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219341A JP7104611B2 (ja) 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020086836A JP2020086836A (ja) 2020-06-04
JP7104611B2 true JP7104611B2 (ja) 2022-07-21

Family

ID=70908218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219341A Active JP7104611B2 (ja) 2018-11-22 2018-11-22 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7104611B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021180620A (ja) 2020-05-18 2021-11-25 株式会社マイオリッジ 目的細胞の生産方法、目的細胞による生産物の生産方法、および無血清培地
CN112131991B (zh) * 2020-09-15 2024-01-23 厦门大学 一种基于事件相机的数据关联方法
JP7434207B2 (ja) * 2021-04-13 2024-02-20 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017530466A (ja) 2014-09-16 2017-10-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated イベントベースの空間変換

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017530466A (ja) 2014-09-16 2017-10-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated イベントベースの空間変換

Also Published As

Publication number Publication date
JP2020086836A (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7200247B2 (ja) 物体検出器及び物体検出方法
US20190156157A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP7104611B2 (ja) 情報処理装置、情報処理方法およびプログラム
US10867166B2 (en) Image processing apparatus, image processing system, and image processing method
US11580653B2 (en) Method and device for ascertaining a depth information image from an input image
EP2309454B1 (en) Apparatus and method for detecting motion
JP2007323596A (ja) 移動体の衝突回避システム、プログラムおよび方法
CN115298638A (zh) 用于基于手势控制设备的方法和系统
KR102474837B1 (ko) 전경 추출 방법 및 장치
JP6683012B2 (ja) 画像処理システム、画像処理方法および撮像装置
JP2018170003A (ja) ビデオ中のイベントの検出装置、方法及び画像処理装置
CN113396423A (zh) 处理来自基于事件的传感器的信息的方法
CN109543534B (zh) 一种目标跟踪中目标丢失重检的方法及装置
US20220277580A1 (en) Hand posture estimation method and apparatus, and computer storage medium
JP2020038574A (ja) 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、及び画像認識装置
WO2023005760A1 (en) Systems and methods for performing computer vision task using sequence of frames
US20140086449A1 (en) Interaction system and motion detection method
JP5062531B2 (ja) 画像処理装置および画像処理方法
US20190325306A1 (en) Device and a method for processing data sequences using a convolutional neural network
JP7401246B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
CN111435457B (zh) 对传感器获取的采集进行分类的方法
CN117408916A (zh) 基于多尺度残差Swin Transformer的图像去模糊方法及相关产品
CN114430839A (zh) 用于处理神经网络的数据的设备和方法
Nunes et al. Adaptive global decay process for event cameras
JP2020095526A (ja) 画像処理装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220708

R150 Certificate of patent or registration of utility model

Ref document number: 7104611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150