JP7092211B2 - データ処理方法及びコンピューティング機器 - Google Patents

データ処理方法及びコンピューティング機器 Download PDF

Info

Publication number
JP7092211B2
JP7092211B2 JP2020560129A JP2020560129A JP7092211B2 JP 7092211 B2 JP7092211 B2 JP 7092211B2 JP 2020560129 A JP2020560129 A JP 2020560129A JP 2020560129 A JP2020560129 A JP 2020560129A JP 7092211 B2 JP7092211 B2 JP 7092211B2
Authority
JP
Japan
Prior art keywords
data
slice
pixel
image frame
weighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560129A
Other languages
English (en)
Other versions
JP2021520155A (ja
Inventor
チェン、ショウシュン
ワン、シジェン
Original Assignee
オムニビジョン センサー ソリューション (シャンハイ) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムニビジョン センサー ソリューション (シャンハイ) カンパニー リミテッド filed Critical オムニビジョン センサー ソリューション (シャンハイ) カンパニー リミテッド
Publication of JP2021520155A publication Critical patent/JP2021520155A/ja
Application granted granted Critical
Publication of JP7092211B2 publication Critical patent/JP7092211B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Picture Signal Circuits (AREA)

Description

[関連出願の相互引用]
本出願は2018年5月4日に提出された中国特許出願No.201810421130.0に基づく優先権の利益を主張するものであり、その内容は本出願に援用される。
本発明はデータ処理の技術分野に関し、特にデータ処理方法及びコンピューティング機器に関する。
リアルタイムなオプティカルフロー計算は、例えば、オプティカルフローに基づく分割、運動検出、航空機や車両用の目標追跡及び障害物回避等のコンピュータビジョン分野では重要な役割を果たしてきている。リアルタイム応用では、高精度を維持しながらオプティカルフロー計算の速度を高めることは急務の一つである。その中で、オプティカルフローは決定的な役割を果たす基本的な要素として、多くのオプティカルフロー計算方法が拡張されている。従来のオプティカルフロー方法は普通の画像センサーから捕捉される大量のフレームデータを処理し、従って、静的背景から冗長データが繰り返して発生する。大量の冗長データの読み出し及び処理は、膨大な計算コストにつながり、処理速度が制限される。
一方、イベントに基づくモーションセンサーは、オプティカルフロー計算のリアルタイム性の向上の点では極めて大きな潜在力を示している。普通の画像センサーに比べて、モーションセンサーは相対輝度変化を示すイベントに非同期で応答する。且つ、モーションセンサーの出力は非同期デジタルイベントのストリームであり、露光時間やフレームレートに制限されることがなく、通常高価な高速カメラが数千フレームレートで捕捉する高速運動物体を検出できる反面、出力される冗長データが大幅に減少する。従って、モーションセンサーに対して、イベントに基づくオプティカルフロー方法は幅広く適用されている。
一般には、イベントに基づくオプティカルフロー方法は、イベントに基づくLucas-Kanade方法、及び局所平面フィッティング方法に分けられる。イベントに基づくオプティカルフロー方法では、1つの重要なステップとして、局所領域中の画素強度に基づいて勾配(又は傾き)情報を抽出する。しかしながら、従来のダイナミックビジョンセンサー(Dynamic Vision Sensor、DVS)システムでは、イベントは照明なし場合にしか画素位置を報告しない。従って、短時間内に累積されたイベントの数を使用して各画素の強度をシミュレーションする。以上からわかるように、このシミュレーション方法は、リアルタイム強度レベルではなく、相対強度変化を示すため、不正確である。また、イベントに基づくオプティカルフロー計算の正確性を制限する別の課題は、高速運動物体の検出時のイベントのスパース性である。従来のDVSの動作時、各画素は個別に動作し、且つ単一アクティブ画素によって発生するイベントはオプティカルフローの計算に十分な情報を提供できない。
上記理由に鑑みて、オプティカルフロー計算の速度を高めるために、画素強度に基づいて勾配情報を抽出する新たなスキームが望まれている。
本発明は、以上の少なくとも1つの課題を解決又は少なくとも軽減するために、データ処理方法及びコンピューティング機器を提供する。
本発明の一態様によれば、データ処理方法を提供し、ダイナミックビジョンセンサーからのイベントデータストリームを処理して、異なる時間帯におけるシーン変化を表す画像フレームを得ることに用いられ、イベントデータストリームは輝度が変化した画素の座標を含み、該方法は、所定の時間間隔でイベントデータストリームを複数のデータスライスに分割するステップと、第1数のデータスライスを順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップと、を含む。
好ましくは、本発明に係るデータ処理方法では、異なる時間帯におけるシーン変化の画像フレームに応じて、シーン内の運動物体の運動方向及び運動速度を計算するステップをさらに含む。
好ましくは、本発明に係るデータ処理方法では、所定のルールに従って第1数の重み因子を含む重みシーケンスを生成し、前記第1数のデータスライスを加重計算するステップをさらに含む。
好ましくは、本発明に係るデータ処理方法では、所定のルールは、前記重みシーケンス中の重み因子の変化傾向は単調に変化することを含む。
好ましくは、本発明に係るデータ処理方法では、第1数のデータスライスを順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップは、第1数のデータスライスをデータグループとして順番に選択し、隣接するデータグループ同士は第2数のデータスライスが互い重なるステップと、重みシーケンスを利用して各データグループ内のデータスライスを加重計算し、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップと、を含む。
好ましくは、本発明に係るデータ処理方法では、第1数のデータスライスを順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップは、複数のデータスライスをマッピング処理して、対応する複数のスライス画像を生成するステップと、第1数のスライス画像を順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップと、をさらに含む。
好ましくは、本発明に係るデータ処理方法では、複数のデータスライスをマッピング処理して、対応する複数のスライス画像を生成するステップは、各データスライスに対して、該データスライス中の輝度が変化した画素の座標に対応する画素値を第1値にマッピングするステップと、該データスライス中の輝度が変化していない画素の座標に対応する画素値を第2値にマッピングするステップと、第1値及び第2値に応じて該データスライスのスライス画像を構成するステップと、を含む。
好ましくは、本発明に係るデータ処理方法では、複数のデータスライスをマッピング処理して、対応する複数のスライス画像を生成するステップは、各データスライスに対して、該データスライス中の各画素の変化回数を該画素の初期画素値として統計するステップと、各画素の初期画素値を所定の区間内にマッピングし、該データスライスのスライス画像を得るステップと、を含む。
好ましくは、本発明に係るデータ処理方法では、第1数のスライス画像を順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップは、第1数のスライス画像を画像グループとして順番に選択し、隣接する画像グループ同士は第2数のスライス画像が互いに重なるステップと、重みシーケンスを利用して各画像グループ内のスライス画像を加重計算し、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップと、を含む。
好ましくは、本発明に係るデータ処理方法では、第1数は第2数よりも大きい。
好ましくは、本発明に係るデータ処理方法では、重みシーケンスを利用して各画像グループ内のスライス画像を加重計算し、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップは、重みシーケンスを利用して各画像グループ内のスライス画像を加重計算し、各画像グループに対応する加重画像を得るステップと、加重画像の各画素値を所定の区間内にマッピングし、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップと、をさらに含む。
本発明の別の態様によれば、コンピューティング機器を提供し、1つ又は複数のプロセッサと、メモリと、1つ又は複数のプログラムとを備え、前記1つ又は複数のプログラムは前記メモリに記憶され、前記1つ又は複数のプロセッサにより実行されるように構成され、前記1つ又は複数のプログラムは前記方法のいずれかを実行するための命令を含む。
本発明のさらに別の態様によれば、1つ又は複数のプログラムを記憶するコンピュータ可読記憶媒体を提供し、前記1つ又は複数のプログラムは命令を含み、前記命令がコンピューティング機器により実行されると、前記コンピューティング機器に前記方法のいずれかを実行させる。
本発明のデータ処理スキームによれば、時間順にイベントデータストリームをスライス化し、その後、所定の重みで複数のデータスライスを重ね合わせ、ある時間帯におけるシーンの変化を表す加重画像フレームを得る。該加重画像フレームによって、ある時間帯におけるシーン内の物体の運動速度及び運動方向を簡単かつ効果的に分析でき、オプティカルフロー計算の速度の向上に寄与する。
上記及び関連目的を実現するために、本明細書では、以下の説明及び図面を参照しながらいくつかの例示的な態様を説明し、これらの態様は本明細書に開示されている原理を実施できる様々な形態を示し、且つすべての態様及びその同等態様は請求された主題の範囲に属する。図面を参照しながら以下の詳細説明を読むことにより、本開示の上記及びほかの目的、特徴及び利点がさらに明らかになる。本開示を通して、同一符号は通常、同一部材又は要素を示す。
図1は本発明のいくつかの実施例に係るコンピューティング機器100の模式図を示す。 図2は本発明のいくつかの実施例に係るイベントデータストリームの模式図を示す。 図3は本発明のいくつかの実施例に係るデータ処理方法300のフローチャートを示す。 図4は本発明の一実施例に係るデータストリームを分割してデータスライスを生成するプロセスの模式図を示す。 図5は本発明の一実施例に係るシーン変化を表す画像フレームを累積により生成するプロセスの模式図を示す。 図6は本発明の一実施例に係る複数の加重画像フレームの模式図を示す。 図7は3種の典型的な運動方向に対応する加重画像フレームの効果図を示す。
以下、図面を参照しながら本開示の例示的な実施例をさらに詳細に説明する。図面には本開示の例示的な実施例が示されているが、ここで説明される実施例に限定されることなく、様々な形態で本開示を実施できると理解すべきである。その反面、これらの実施例は本開示をよりよく理解でき、且つ本開示の範囲を当業者に完全に伝えることができるために提供されている。
図1は例示的なコンピューティング機器100のブロック図である。基本的な構成102では、コンピューティング機器100は典型的には、システムメモリ106及び1つ又は複数のプロセッサ104を備える。メモリバス108はプロセッサ104とシステムメモリ106との通信に使用できる。
所望の構成に応じて、プロセッサ104は様々なタイプのプロセッサであってもよく、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタル情報プロセッサ(DSP)又はそれらの任意の組み合わせを含むが、これらに限定されない。プロセッサ104は、例えば、一次高速バッファ110及び二次高速バッファ112のような1つ又は複数のレベルの高速バッファ、プロセッサカーネル114及びレジスタ116を備えてもよい。例示的なプロセッサカーネル114は演算論理ユニット(ALU)、浮動小数点ユニット(FPU)、デジタル信号処理カーネル(DSPカーネル)又はそれらの任意の組み合わせを備えてもよい。例示的なメモリコントローラ118はプロセッサ104と組み合わせて使用されてもよく、又は、いくつかの実現では、メモリコントローラ118はプロセッサ104の1つの内部部分であってもよい。
所望の構成によって、システムメモリ106は様々なタイプのメモリであってもよく、揮発性メモリ(例えば、RAM)、不揮発性メモリ(例えば、ROM、フラッシュメモリ等)、又はそれらの任意の組み合わせを含むが、これらに限定されない。システムメモリ106はオペレーティングシステム120、1つ又は複数のアプリケーション122、及びプログラムデータ124を備えてもよい。いくつかの実施形態では、アプリケーション122はオペレーティングシステム上でプログラムデータ124を利用して操作を行うように構成されてもよい。いくつかの実施例では、コンピューティング機器100はデータ処理方法300を実行するように構成され、プログラムデータ124は前記方法300を実行するための命令を含む。
コンピューティング機器100はさらに、バス/インターフェースコントローラ130を経由する様々なインターフェース機器(例えば、出力機器142、ペリフェラルインターフェース144及び通信機器146)から基本的な構成102への通信に寄与するインターフェースバス140を備えてもよい。例示的な出力機器142はグラフィックス処理ユニット148及びオーディオ処理ユニット150を備える。それらは、1つ又は複数のA/Vポート152を経由して例えば、ディスプレイ又はスピーカーのような様々な外部機器と通信することに寄与するように構成されてもよい。例示的なペリフェラルインターフェース144はシリアルインターフェースコントローラ154及びパラレルインターフェースコントローラ156を備えてもよく、1つ又は複数のI/Oポート158を経由して例えば、入力機器(例えば、キーボード、マウス、ペン、音声入力機器、画像入力機器)又はほかのペリフェラル(例えば、プリンタ、スキャナー等)のような外部機器と通信することに寄与するように構成されてもよい。例示的な通信機器146は、1つ又は複数の通信ポート164を経由してネットワーク通信リンクによって1つ又は複数のほかのコンピューティング機器162と通信することに寄与するように構成されてもよいネットワークコントローラ160を備えてもよい。
ネットワーク通信リンクは通信媒体の一例であってもよい。通信媒体は通常、例えば、キャリア又はほかの伝送メカニズムのような変調データ信号中のコンピュータ可読命令、データ構造、プログラムモジュールとして具体化されてもよく、且つ任意の情報伝送媒体を含んでもよい。「変調データ信号」は、そのデータセット中の1つ又は複数又はその変更が信号内で情報を符号化することによって行われるような信号であってもよい。非限定的な例として、通信媒体は、例えば、有線ネットワーク又は専用ネットワークのような有線媒体、及び例えば、音、無線周波数(RF)、マイクロ波、赤外線(IR)又はほかの無線媒体のような様々な無線媒体を含んでもよい。ここで使用される用語のコンピュータ可読媒体は記憶媒体及び通信媒体の両方を含んでもよい。
コンピューティング機器100はデスクトップコンピュータ及びノートコンピュータ構成を含むパーソナルコンピュータとして実現されてもよい。勿論、コンピューティング機器100は、小型ポータブル(又は運動)電子機器の一部として実現されてもよく、これらの電子機器は例えば、携帯電話、デジタルカメラ、パーソナルデジタルアシスタント(PDA)、パーソナルメディアプレーヤー機器、無線ネットワークブラウジング機器、パーソナル頭部装着型機器、特定用途向け機器、又は上記の任意の機能を含むハイブリッド機器であってもよい。本発明の実施例ではそれを限定しない。
オプティカルフロー計算では、従来の画像センサーの代わりに常にモーションセンサーを採用し、それはモーションセンサーが相対輝度変化を示すイベントに応答できるからである。一実施形態では、シーン内にダイナミックビジョンセンサー(Event Camera)を配置し、シーン内に物体の運動がない場合、ダイナミックビジョンセンサーはなんの内容も表示しない。しかしながら、一旦シーン内に物体の運動が発生したと検出される場合(すなわち、光が変化した)、動的画素(すなわち、輝度が変化した画素)のイベントデータストリームを出力する。
図2はダイナミックビジョンセンサーにより出力されるイベントデータストリームを示し、データストリームは輝度が変化した画素の画素情報のみを含み、従って、該イベントデータストリームは動的画素シーケンスともいう。一般には、画素情報は、画素の座標(row,column)、画素の輝度値intensity、及び輝度が変化した時間timeを含んでもよい。図2に示すように、時間の経過とともに、ダイナミックビジョンセンサーは動的画素の画素情報を連続的に出力し、各短い線は1つの動的画素の画素情報を示し、時点Aから時点Bまでの期間内に、5個の動的画素の画素情報が順番に出力される。なお、図2中の動的画素シーケンスの出力数及び出力間隔等は単に例示であり、本発明はそれらを限定しない。
本発明のデータ処理方法200によれば、ダイナミックビジョンセンサーからのイベントデータストリームを処理し、異なる時間帯におけるシーン変化を表す異なる画像フレームを生成し、後続では、これらの画像フレームに基づいてシーン内の運動を分析し、それによってリアルタイムオプティカルフロー計算の速度を高める。
図3は本発明のいくつかの実施例に係るデータ処理方法300のフローチャートを示す。図3に示すように、方法300はステップS310から開始する。
ステップS310では、ダイナミックビジョンセンサーにより出力されるイベントデータストリームを読み取って記憶し、記憶したイベントデータストリームを所定の時間間隔で複数のデータスライスに分割する。本発明の一実施例では、所定の時間間隔は30ミリ秒に設定される。つまり、イベントデータストリームを30ミリ秒ごとに複数のフラグメントに分割し、分割された各30ミリ秒のデータフラグメントは1つのデータスライスである。勿論、本発明の実施例では、所定の時間間隔を限定しないが、実際の応用では、ニーズに応じて異なる時間間隔を設定することができる。
図4は本発明の一実施例に係るデータストリームを分割してデータスライスを生成するプロセス模式図を示す。図4からわかるように、イベントは時間とともに連続的に発生し、所定の時間間隔t0ごとに分割して1つのデータスライス(データスライスはsliceとも呼ばれてもよい)を生成する。
その後、ステップS320では、第1数のデータスライスを順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成する。
本発明の実施形態によれば、加重計算前、方法300は、所定のルールに従って1つの重みシーケンス(w,w,w,...,w)を生成し、該重みシーケンスは第1数の重み因子を含み、選択した第1数のデータスライスを加重計算するステップをさらに含む。本発明の実施例では、重みシーケンスの値を限定しないが、1組の乱数であってもよい。なお、重みシーケンスは任意の乱数生成アルゴリズムによって生成されてもよく、且つ適切な任意の形式としてもよく、所定のルールを満たせばよい。つまり、重みシーケンスのランダム性は厳密な意味で完全にランダムである必要がなく、すなわち、各重み因子の値は一定のランダム性を有するが、その変化傾向が特定の法則を示してもよく、本発明の実施例のように、重み因子の変化傾向は単調に変化し、さらに、重みシーケンスを生成する際に、各重み因子間の比例関係を設定してもよく、例えば、(16,8,4,2)が挙げられる。
本発明に係る方法300では、重みシーケンスは最終的に生成された画像フレームに対して非常に大きな影響を与える。一般には、重み因子が大きいほど、該重み因子に対応するデータスライスの情報が強調される。
いくつかの実施形態では、シーン内の運動物体の現在の運動情報及びその運動軌跡を強調するために、現在のデータスライスの重み因子は最も大きく設定され、その後、ほかの重み因子は順番に所定の比例で小さくなり、表1は10個の重み因子を有する重みシーケンスの例を示すが、実際の使用では、重みシーケンス中の重み因子の大きさは柔軟に設定でき、本発明の実施例ではそれを限定しない。
Figure 0007092211000001
別のいくつかの実施形態では、シーン内の運動物体の開始運動情報(例えば、運動物体はどこからくるか)を強調するために、前の時刻にあるデータスライスの重み因子を比較的大きくする。さらに別のいくつかの実施形態では、シーン内の運動物体の運動軌跡のみに注目する場合、複数のデータスライスの重み因子を同一に設定してもよい。
以上、単にいくつかの重みシーケンスの例である。実際の応用では、シーンに応じて適切な重みシーケンスを選択することができる。
本発明の実施例では、ステップS320は以下の2つのステップに分けられる。
ステップ1では、第1数のデータスライスをデータグループとして順番に選択し、該データグループはこの期間内に輝度が変化した画素の画素情報(例えば、輝度が変化した画素の画素座標)を含み、本発明の実施例では、隣接するデータグループ同士は第2数のデータスライスが互いに重なる。且つ、第1数は第2数よりも大きい。
ステップ2では、生成された重みシーケンスを利用して各データグループ中のデータスライスを加重計算し、以上と同様に、画素情報が画素座標であることを例に、各データグループ中の異なるデータスライスに属する画素座標にそれぞれ異なる重み因子を割り当て、例えば第1個のデータスライス中のすべての画素座標に重み因子1を割り当て、第2個のデータスライス中のすべての画素座標に重み因子3を割り当てるなどが挙げられ、それと同時に、変化した画素の初期値を1とし、対応する重み因子と乗算して対応するデータスライスの結果を得る。さらに、第1数のデータスライスの結果を加算し、該データグループ内のすべての画素座標に最終的に対応する値を得て、1フレームの画像にマッピングし、すなわち、対応する時間帯におけるシーン変化を表す画像フレームである。本発明では、1組のデータを1フレームの画像にマッピングするマッピング方式を限定しないが、好ましくは、以下説明される方式を参照して、データグループ内のすべての画素座標に対応する値を[0,255]にマッピングし、1フレームのグレー画像を得る。
なお、画素情報は輝度が変化した画素の画素座標に加えて、さらに輝度が変化した画素の輝度値及び輝度が変化した時間を含んでもよい。輝度が変化した画素の初期値を1つの定数として加重計算するようにしてもよく、画素自体の輝度値を初期値として加重計算するようにしてもよく、又は、さらに輝度の変化回数を画素の初期値として統計して加重計算するようにしてもよいが、本発明の実施例ではそれらを限定しない。
さらに、どのようにデータスライスを加重計算して、異なる時間帯におけるシーン変化を表す画像フレームを生成するかをより鮮明に説明するために、本発明の別のいくつかの実施例では、スキームを提供し、ステップS320を2つのステップに分ける。ステップ(1)では、複数のデータスライスをマッピング処理して、対応する複数のスライス画像を生成する。ステップ(2)では、第1数のスライス画像を順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成する。以下、該プロセスを詳細に説明する。
(1)複数のデータスライスをマッピング処理して、対応する複数のスライス画像を生成する。
つまり、各データスライスに対して、1フレームの画像を構成し(本発明の一実施例では、構成された画像のサイズは768×640であるが、これに限定されず、構成された画像のサイズはダイナミックビジョンセンサー中の画素回路の数を含むだけでよい)、該データスライス中の輝度が変化した画素を、構成された画像にマッピングし、1フレームのスライス画像を得る。なお、マッピングされたスライス画像は二値画像であってもよく、グレー画像であってもよいが、本発明の実施例ではそれらを限定しない。
本発明の一実施形態では中、各データスライスに対して、以下の方式を採用してマッピングして、対応するスライス画像を得る。まず、該データスライス中の輝度が変化した画素の座標に対応する画素値を第1値にマッピングする。本発明の実施例では、第1値を255とする。その後、該データスライス中の輝度が変化していない画素の座標に対応する画素値を第2値にマッピングする。本発明の実施例では、第2値を0とする。最後に、第1値及び第2値に応じて、該データスライスを除いた二値スライス画像を構成する。
1つのデータスライス中の輝度が変化した画素の座標を{(0,1),(0,6),(1,1),(2,3),(2,6),(4,2)}とし、構成された画像のサイズを5×8とする場合、該データスライスをマッピングして得たスライス画像の画素値は表2に示され、表2中の左上の第1個の「0」は座標が(0,0)(すなわち、第0行第0列)の画素輝度が変化していないことを示し、右側の「255」は座標が(0,1)(すなわち、第0行第1列)の画素輝度が変化したことを示し、以下同様である。
Figure 0007092211000002
本発明の別の実施形態では、各データスライスに対して、以下の方式を採用してマッピングして、対応するスライス画像を得る。まず、該データスライス中の各画素の変化回数を該画素の初期画素値として統計する。その後、各画素の初期画素値を所定の区間内にマッピングし、該データスライスのスライス画像を得る。本発明の実施例では、所定の区間を[0,255]とする。勿論、[0,1023]、又はほかの任意の区間としてもよいが、本発明の実施例ではそれを限定しない。
1つのデータスライス中の輝度が変化した画素の座標を{(0,1),(0,6),(1,1),(0,6),(2,3),(2,6),(0,6),(1,1),(4,2)}とし、構成された画像のサイズを5×8とする。各画素の変化回数を該画素の初期画素値として統計し、1つの初期のスライス画像とする。この場合、該データスライスに対応する初期画素値は表3に示されてもよい。
Figure 0007092211000003
表3中、座標(0,6)(すなわち、第0行第6列)の画素が3回変化したため、その初期画素値を3とする。座標(1,1)(第1行第1列)の画素は2回変化したため、その初期値を2とする。
次に、上記得た初期画素値を所定の区間内にマッピングし、本発明の一実施例では、所定の区間を[0,255]とし、以下の式によって初期画素値を所定の区間にマッピングする。
Figure 0007092211000004
式中、xは初期画素値、x'はマッピング後の画素値、max及びminはそれぞれ該データスライスのすべての初期画素値の最大値及び最小値を表す。
表3中の初期画素値を[0,255]にマッピングした後、得たスライス画像の画素値は表4に示される。
Figure 0007092211000005
なお、以上の例は本発明に係るデータ処理方法300の処理プロセスをより鮮明かつ詳細に説明するためのものであり、実際の操作では、動的画素の場合はさらに複雑であり、マッピング方式も多様であり、本発明の実施例ではそれらを限定しない。本発明のいくつかの実施例に係る実施形態に基づいて、当業者は、ほかの様々なマッピング処理方式によって各データスライスのスライス画像を生成することを想到し得る。紙面の都合上、ここでは一々詳述しない。
(2)第1数のスライス画像を順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成する。
以上説明したように、重みシーケンス(w,w,w,...,w)を生成した後、以下の方式によってスライス画像を累積計算する。図5は本発明の一実施例に係るシーン変化を表す画像フレームを累積により生成するプロセスの模式図を示し、時間軸上で並べられる各格子は1フレームが時間とともに順番に生成されるスライス画像であるスライス画像1、スライス画像2、…を示す。まず、第1数のスライス画像を画像グループとして順番に選択し、且つ隣接する画像グループ同士は第2数のスライス画像が互いに重なる。図5に示される実施例では、第1数は10、第2数は9である。勿論、本発明の実施例では、第1数及び第2数を限定しないが、第1数は第2数よりも大きいことを満たせばよい。その後、重みシーケンスを利用して各画像グループ内の第1数のスライス画像を加重計算し、対応する時間帯におけるシーン変化を表す画像フレーム(該画像フレームは、多時間スライスに基づく加重画像フレームとみなしてもよい)を生成する。つまり、第10個のスライス画像から開始し、前の10個のスライス画像の加重画像フレームを出力する。図5に示すように、第1-10個のスライス画像を累積して加重画像フレーム1を得て、第2-11個のスライス画像を累積して加重画像フレーム2を得て、第3-12個のスライス画像を累積して加重画像フレーム3を得て、以下同様である。
以上のように、加重計算のプロセスは以下の式で示されてもよい。
Figure 0007092211000006
式中、Nは第1数、wは重みシーケンス中の第i個の重み因子、Frame(i)は画像グループ中の第i個のスライス画像を示す。
ここまで、本発明の実施例に係る加重画像フレームが算出される。図6は本発明の一実施例に係る複数の加重画像フレームの模式図を示す。図6に示すように、時間とともに順番に生成される加重画像フレームA、B、C、D、E、Fである。以上からわかるように、本発明に係るデータ処理スキームによって生成される加重画像フレームはXY平面に対して一定の傾斜角度を有し、つまり、加重画像フレームは勾配及び向きを有する。当業者はMeanshiftミーンシフト等のアルゴリズムによって加重画像フレームの勾配及び向きを算出することができ、例えば、勾配の頂(最大値)及び勾配の底(最小値)を決定し、Meanshiftアルゴリズムによって勾配の頂と勾配の底との間の最短登山経路を見つけ、該経路が指す方向は向きであり、該経路とXY平面の投影線との夾角は勾配である。一般には、向きに応じて、シーン内の物体の運動方向を容易に取得でき、さらに勾配に応じて物体の運動速度の相対変化傾向を分析できる。なお、ここでは、加重画像フレームの勾配及び向きを計算することによって物体の運動方向及び運動速度を分析する方法を簡単に説明したが、本発明の実施例ではそれを限定しない。実際には、加重画像フレームをもとに、当業者は任意の方式を参照して勾配及び向きを算出し、さらにシーン中の運動物体の運動方向及び運動速度を分析することができ、どのアルゴリズムを利用して加重画像フレームによって物体の運動速度及び運動方向を分析することも本発明の保護範囲に属する。
図6からわかるように、時間が長いほど、重ね合わせられた加重画像フレームの勾配が大きく、位置が後ろにあるほど(すなわち、時間上で最新な位置)、対応する重み因子が大きく、重ね合わせられた加重画像フレームの勾配も大きい。異なる時間帯におけるシーン変化の画像フレーム(すなわち、加重画像フレーム)によって形成されるランプの傾斜度及び向きに応じて、シーン内の運動物体の運動方向及び運動速度を算出できる。物体運動の方向及び速度が異なるため、ダイナミックビジョンセンサーは異なるイベントデータストリームを生成し、図6に示される加重画像フレームの重ね合わせ方式に応じて、異なる運動方式は異なる向き及び大きさの勾配を得て、図7は3種の典型的な運動方向に対応する加重画像フレームの効果図を示す。図7中の(1)は物体が同一方向に沿って異なる運動速度でシーン内を運動する時に形成される加重画像を示す。運動方向が変化しないため、3つの加重画像フレームの向きが同じであるが、異なる速度によって加重画像フレームの傾斜度が異なる。また、図7中の(2)、(3)はそれぞれ物体がほかの異なる方向に沿って運動する加重画像フレームを示し、矢印は加重画像フレームの向きを指示する。
本発明の別のいくつかの実施例では、該加重画像フレームをより直感的に表示するために、さらに加重された画像をさらにマッピング処理して、加重画像フレーム中の各画素点のグレー値を得て、加重画像フレームを1つのグレー画像として表示する。具体的には、重みシーケンスを利用して各画像グループ内のスライス画像を加重計算し、各画像グループに対応する加重画像フレームを得た後、加重画像フレームの各画素値を所定の区間内にマッピングし、対応する時間帯におけるシーン変化を表す画像フレームを生成する。マッピング方式は上記マッピング処理方法を採用してもよく、ほかのマッピング方法を採用してもよく、本発明の実施例ではそれを限定しない。なお、マッピング処理は本発明の実施形態の加重画像フレームをよりよく表示するために行われ、加重画像フレームに基づく運動方向及び運動速度の分析に影響しない。
本発明のデータ処理スキームによれば、時間順にイベントデータストリームをスライス化し、その後、所定の重みで複数のデータスライスを重ね合わせ、ある時間帯におけるシーンの変化を表す加重画像フレームを得る。特に、分析のニーズに応じて重みシーケンスの変化傾向(例えば、単調に逓増すること、単調に逓減すること等)を設定する。該加重画像フレームによって、ある時間帯におけるシーン内の物体の運動速度及び運動方向を簡単かつ効果的に分析でき、オプティカルフロー計算の速度の向上に寄与する。また、本発明のデータ処理スキームはデータ処理スキームをさらに提供し、まず、データスライスをスライス画像にマッピングし、さらに同じ加重方式を採用してスライス画像を加重計算し、加重画像フレームを得る。
ここで提供される明細書では、大量の詳細が説明されている。それにもかかわらず、本発明の実施例はこれらの詳細なしで実施されてもよいと理解できる。いくつかの例では、本明細書の理解の曖昧さを回避するために、公知の方法、構造及び技術は詳細説明されていない。
同様に、本開示を簡略化し各発明の態様の1つ又は複数を理解するのを助けるために、以上の本発明の例示的な実施例についての説明では、本発明の各特徴は単一の実施例、図、又はその説明にグループされてもよいと理解すべきである。それにもかかわらず、該開示されている方法は、主張する本発明は各請求項に明確に記載される特徴よりも多くの特徴を必要とすることを反映するものではないと理解すべきである。より正確には、以下の特許請求の範囲に反映されるように、発明の態様は前に開示された単一の実施例のすべての特徴よりも少ないことにある。従って、具体的な実施形態に準拠する特許請求の範囲は該具体的な実施形態に明確に組み込まれており、各請求項自体は本発明の単独な実施例である。
当業者であれば、本明細書に開示されている例における機器のモジュール又はユニット又はアセンブリは該実施例に説明されている機器に配置され、又は該例における機器と異なる1つ又は複数の機器に置換可能に位置決めされるようにしてよいと理解すべきである。上記例におけるモジュールを組み合わせて1つのモジュールを形成してもよく、さらに複数のサブモジュールに分けてもよい。
当業者であれば、実施例における機器のモジュールを適応的に変更し、該実施例と異なる1つ又は複数の機器に設置するようにしてもよいと理解できる。実施例におけるモジュール又はユニット又はアセンブリを組み合わせて1つのモジュール又はユニット又はアセンブリを形成してもよく、さらにそれらを複数のサブモジュール又はサブユニット又はサブアセンブリに分けてもよい。このような特徴及び/又はプロセス又はユニットの少なくとも一部が相互に矛盾する以外、本明細書(添付する特許請求の範囲、要約書及び図面を含む)に開示されるすべての特徴及びこのように開示されているいずれかの方法又は機器のすべてのプロセス又はユニットを任意に組み合わせることができる。特に断らない限り、本明細書(添付する特許請求の範囲、要約書及び図面を含む)に開示されている各特徴は同一、同等又は類似目的を提供する代替特徴によって代替されてもよい。
本発明はさらに以下のように開示している。
A9、第1数のスライス画像を順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップは、第1数のスライス画像を画像グループとして順番に選択し、隣接する画像グループ同士は第2数のスライス画像が互いに重なるステップと、重みシーケンスを利用して各画像グループ内のスライス画像を加重計算し、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップと、を含むA6に記載の方法。
A10、第1数は第2数よりも大きいA5又は9に記載の方法。
A11、以下の式によって第T個の時間帯におけるシーン変化を表す画像フレームMulti_Slice(T)を計算するA9に記載の方法。
Figure 0007092211000007
式中、Nは第1数、wは重みシーケンス中の第i個の重み因子、Frame(i)は画像グループ中の第i個のスライス画像を示す。
A12、重みシーケンスを利用して各画像グループ内のスライス画像を加重計算し、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップは、重みシーケンスを利用して各画像グループ内のスライス画像を加重計算し、各画像グループに対応する加重画像を得るステップと、加重画像の各画素値を所定の区間内にマッピングし、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップと、をさらに含むA9-11のいずれか一項に記載の方法。
A13、所定の区間は[0,255]であるA8-12のいずれか一項に記載の方法。
また、当業者であれば、ここに記載されるいくつかの実施例はほかの特徴ではなく、ほかの実施例に含まれるいくつかの特徴を含むにもかかわらず、異なる実施例の特徴の組み合わせは本発明の範囲内に属し且つ異なる実施例を形成すると理解できる。例えば、以下の特許請求の範囲では、主張する実施例のいずれかを任意な組み合わせ方式で使用してもよい。
また、前記実施例のうちのいくつかは、ここでは、コンピュータシステムのプロセッサ又は前記機能を実行するほかの装置に実施可能な方法又は方法の要素の組み合わせとして説明されている。従って、前記方法又は方法の要素を実施するための必要な命令を有するプロセッサは該方法又は方法の要素を実施するための装置を形成する。また、装置の実施例のここで記載される要素は、該発明の目的を実施するための要素によって実行される機能を実施するための装置の例である。
ここで使用されるように、特に断らない限り、「第1」、「第2」、「第3」等の序数詞を使用して普通の対象を説明する場合、単に係る類似対象の異なる例を示し、このように説明される対象が必ず時間、空間、ランキング又はほかの任意の方式での特定の順序を有することを暗示しない。
限られた実施例を参照しながら本発明を説明したが、以上の説明からわかるように、当業者は、ここで説明される本発明の範囲を逸脱せずに、ほかの実施例を想到し得ると理解できる。また、なお、本明細書に使用される言語は主に可読性及び教示の目的のために選択され、本発明の主題を説明又は限定するためのものではない。従って、添付特許請求の範囲の範囲及び精神を逸脱せずに、当業者には種々の修正や変更が明らかになる。本発明の範囲について、本発明は制限的ではなく例示的に開示されており、本発明の範囲は添付特許請求の範囲によって定められる。

Claims (9)

  1. ダイナミックビジョンセンサーからの輝度が変化した画素の座標を含むイベントデータストリームを処理して、異なる時間帯におけるシーン変化を表す画像フレームを得ることに用いられるデータ処理方法であって、
    所定の時間間隔で前記イベントデータストリームを複数のデータスライスに分割するステップと、
    第1数の前記データスライスを順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップと、
    所定のルールに従って第1数の重み因子を含む重みシーケンスを生成し、前記第1数のデータスライスを加重計算するステップと、を含む方法。
  2. 異なる時間帯におけるシーン変化の画像フレームに応じて、シーン内の運動物体の運動方向及び運動速度を計算するステップをさらに含む請求項1に記載のデータ処理方法。
  3. 前記所定のルールは、前記重みシーケンス中の重み因子の変化傾向は単調に変化することを含む請求項に記載のデータ処理方法。
  4. 前記第1数のデータスライスを順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップは、
    第1数のデータスライスをデータグループとして順番に選択し、隣接するデータグループ同士は第2数のデータスライスが互い重なるステップと、
    前記重みシーケンスを利用て各データグループ内のデータスライスを加重計算し、対応する時間帯におけるシーン変化を表す画像フレームを生成するステップと、を含む請求項に記載のデータ処理方法。
  5. 前記第1数のデータスライスを順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップは、
    前記複数のデータスライスをマッピング処理し、対応する複数のスライス画像を生成するステップと、
    第1数の前記スライス画像を順番に選択して加重計算し、異なる時間帯におけるシーン変化を表す画像フレームを生成するステップと、をさらに含む請求項1からのいずれか一項に記載のデータ処理方法。
  6. 前記複数のデータスライスをマッピング処理して、対応する複数のスライス画像を生成するステップは、
    各データスライスに対して、該データスライス中の輝度が変化した画素の座標に対応する画素値を第1値にマッピングするステップと、
    該データスライス中の輝度が変化していない画素の座標に対応する画素値を第2値にマッピングするステップと、
    前記第1値及び第2値により該データスライスのスライス画像を構成するステップと、を含む請求項に記載のデータ処理方法。
  7. 前記複数のデータスライスをマッピング処理して、対応する複数のスライス画像を生成するステップは、
    各データスライスに対して、該データスライス中の各画素の変化回数を該画素の初期画素値として統計するステップと、
    各画素の初期画素値を所定の区間内にマッピングし、該データスライスのスライス画像を得るステップと、を含む請求項に記載のデータ処理方法。
  8. 1つ又は複数のプロセッサと、
    メモリと、
    前記メモリに記憶され、前記1つ又は複数のプロセッサにより実行されるように構成され、請求項1-に記載の方法のいずれかを実行するための命令を含む1つ又は複数のプログラムと、
    を備えるコンピューティング機器。
  9. 命令を含み、前記命令がコンピューティング機器により実行されると、前記コンピューティング機器に請求項1-に記載の方法のいずれかを実行させる1つ又は複数のプログラム。
JP2020560129A 2018-05-04 2018-05-24 データ処理方法及びコンピューティング機器 Active JP7092211B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810421130.0A CN108961318B (zh) 2018-05-04 2018-05-04 一种数据处理方法及计算设备
CN201810421130.0 2018-05-04
PCT/CN2018/088259 WO2019210546A1 (zh) 2018-05-04 2018-05-24 一种数据处理方法及计算设备

Publications (2)

Publication Number Publication Date
JP2021520155A JP2021520155A (ja) 2021-08-12
JP7092211B2 true JP7092211B2 (ja) 2022-06-28

Family

ID=64499700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020560129A Active JP7092211B2 (ja) 2018-05-04 2018-05-24 データ処理方法及びコンピューティング機器

Country Status (6)

Country Link
US (1) US11481908B2 (ja)
EP (1) EP3779864B1 (ja)
JP (1) JP7092211B2 (ja)
CN (1) CN108961318B (ja)
SG (1) SG11202010775YA (ja)
WO (1) WO2019210546A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109492609B (zh) * 2018-11-27 2020-05-15 上海芯仑光电科技有限公司 一种检测车道线的方法和车辆、及计算设备
CN109922372B (zh) * 2019-02-26 2021-10-12 深圳市商汤科技有限公司 视频数据处理方法及装置、电子设备和存储介质
CN109933264B (zh) * 2019-03-19 2022-01-04 深圳市元征科技股份有限公司 图形数据显示方法及装置
KR20210000985A (ko) * 2019-06-26 2021-01-06 삼성전자주식회사 비전 센서, 이를 포함하는 이미지 처리 장치 및 비전 센서의 동작 방법
WO2021253186A1 (zh) * 2020-06-15 2021-12-23 深圳市大疆创新科技有限公司 信息处理方法、装置和成像系统
CN112333390B (zh) * 2020-10-29 2022-02-22 维沃移动通信有限公司 摄像头模组、摄像头模组的控制方法、装置及电子设备
CN112839257B (zh) * 2020-12-31 2023-05-09 四川金熊猫新媒体有限公司 视频内容检测方法、装置、服务器及存储介质
CN112949512B (zh) * 2021-03-08 2022-07-08 豪威芯仑传感器(上海)有限公司 一种动态手势识别方法、手势交互方法及交互系统
EP4315823A1 (en) * 2021-03-29 2024-02-07 Harman International Industries, Incorporated Method and system for generating dvs frames

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507261A (ja) 2011-12-21 2015-03-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) 非同期光センサに基づいてオプティカルフローを推定する方法
US20170032536A1 (en) 2015-07-30 2017-02-02 Samsung Electronics Co., Ltd. Method and device for recognizing motion
JP2017535999A (ja) 2014-09-30 2017-11-30 クアルコム,インコーポレイテッド フレームベースとイベントベースのハイブリッド方式を使用するセンサアーキテクチャ
JP2018509847A (ja) 2015-03-16 2018-04-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) 非同期信号を処理するための方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1924097A1 (en) * 2006-11-14 2008-05-21 Sony Deutschland Gmbh Motion and scene change detection using color components
JP4909165B2 (ja) * 2007-04-24 2012-04-04 ルネサスエレクトロニクス株式会社 シーン変化検出装置、符号化装置及びシーン変化検出方法
EP2373218B1 (en) * 2008-12-03 2016-07-13 Koninklijke Philips N.V. Reparametrized bull's eye plots
KR101337876B1 (ko) * 2009-12-14 2013-12-06 한국전자통신연구원 영상보안시스템용 서버/카메라 및 영상보안시스템용 서버/카메라의 이벤트 처리 방법
US8542875B2 (en) * 2010-09-17 2013-09-24 Honeywell International Inc. Image processing based on visual attention and reduced search based generated regions of interest
CN102611910B (zh) * 2011-01-19 2014-04-16 北京东方文骏软件科技有限责任公司 基于关键帧图像质量加权的无参考视频质量客观评价方法
JPWO2013128765A1 (ja) * 2012-02-27 2015-07-30 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
US9906786B2 (en) * 2012-09-07 2018-02-27 Qualcomm Incorporated Weighted prediction mode for scalable video coding
US9767571B2 (en) * 2013-07-29 2017-09-19 Samsung Electronics Co., Ltd. Apparatus and method for analyzing image including event information
US20160093273A1 (en) * 2014-09-30 2016-03-31 Samsung Electronics Co., Ltd. Dynamic vision sensor with shared pixels and time division multiplexing for higher spatial resolution and better linear separable data
CN105160703B (zh) * 2015-08-25 2018-10-19 天津师范大学 一种使用时域视觉传感器的光流计算方法
US9934557B2 (en) * 2016-03-22 2018-04-03 Samsung Electronics Co., Ltd Method and apparatus of image representation and processing for dynamic vision sensor
US20170337469A1 (en) * 2016-05-17 2017-11-23 Agt International Gmbh Anomaly detection using spiking neural networks
US10510160B2 (en) * 2016-12-20 2019-12-17 Samsung Electronics Co., Ltd. Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking
CN107403154B (zh) * 2017-07-20 2020-10-16 四川大学 一种基于动态视觉传感器的步态识别方法
CN107610069B (zh) * 2017-09-29 2020-10-09 西安电子科技大学 基于共享k-svd字典的dvs可视化视频去噪方法
CN107958464B (zh) * 2017-12-05 2021-04-02 大连大学 噪声环境下光流场快速稳健估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507261A (ja) 2011-12-21 2015-03-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) 非同期光センサに基づいてオプティカルフローを推定する方法
JP2017535999A (ja) 2014-09-30 2017-11-30 クアルコム,インコーポレイテッド フレームベースとイベントベースのハイブリッド方式を使用するセンサアーキテクチャ
JP2018509847A (ja) 2015-03-16 2018-04-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) 非同期信号を処理するための方法
US20170032536A1 (en) 2015-07-30 2017-02-02 Samsung Electronics Co., Ltd. Method and device for recognizing motion

Also Published As

Publication number Publication date
EP3779864B1 (en) 2024-06-26
EP3779864A4 (en) 2021-12-29
CN108961318B (zh) 2020-05-15
WO2019210546A1 (zh) 2019-11-07
CN108961318A (zh) 2018-12-07
SG11202010775YA (en) 2020-11-27
JP2021520155A (ja) 2021-08-12
US20210042938A1 (en) 2021-02-11
EP3779864A1 (en) 2021-02-17
US11481908B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
JP7092211B2 (ja) データ処理方法及びコンピューティング機器
JP7028513B2 (ja) イベントデータストリームの処理方法及びコンピューティング機器
US10832478B2 (en) Method and system for virtual sensor data generation with depth ground truth annotation
JP6065427B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
US7751627B2 (en) Image dominant line determination and use
JP7031947B2 (ja) オプティカルフロー計算方法及びコンピューティング機器
KR102203810B1 (ko) 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
WO2021077982A1 (zh) 标记点的识别方法、装置、设备及存储介质
US11880985B2 (en) Tracking multiple objects in a video stream using occlusion-aware single-object tracking
JP6810048B2 (ja) モバイル機器のバーチャルボールのシミュレーションおよびコントロールの方法
CN110807410A (zh) 关键点定位方法、装置、电子设备和存储介质
JP7056737B2 (ja) 処理装置、処理方法及びプログラム
US10929860B2 (en) Viewed location metric generation and engagement attribution within an AR or VR environment
TWI650711B (zh) 動作辨識方法以及其系統
JP2011154634A (ja) 画像処理装置、画像処理方法及び画像処理用プログラム
TW202109451A (zh) 物件追蹤方法及其電腦系統
CN116883563B (zh) 标注点渲染方法、装置、计算机设备、存储介质
CN113743169A (zh) 手掌平面检测方法、装置、电子设备及存储介质
US20150193071A1 (en) Device and method for recognizing gesture using multi-touch information
JP2017084058A (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7092211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150