JP2012517044A - ビデオストリームの中のオブジェクト認識および追跡システムおよび方法 - Google Patents

ビデオストリームの中のオブジェクト認識および追跡システムおよび方法 Download PDF

Info

Publication number
JP2012517044A
JP2012517044A JP2011547059A JP2011547059A JP2012517044A JP 2012517044 A JP2012517044 A JP 2012517044A JP 2011547059 A JP2011547059 A JP 2011547059A JP 2011547059 A JP2011547059 A JP 2011547059A JP 2012517044 A JP2012517044 A JP 2012517044A
Authority
JP
Japan
Prior art keywords
interest
region
frame
frames
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011547059A
Other languages
English (en)
Other versions
JP5816098B2 (ja
Inventor
イスラエル、ナダフ
カッツ、イタイ
コーヘン、デュディ
シェンフェルド、アムノン
Original Assignee
アイサイト モバイル テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイサイト モバイル テクノロジーズ リミテッド filed Critical アイサイト モバイル テクノロジーズ リミテッド
Publication of JP2012517044A publication Critical patent/JP2012517044A/ja
Application granted granted Critical
Publication of JP5816098B2 publication Critical patent/JP5816098B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本発明はビデオストリームの中のオブジェクト検出および追跡システムと方法を提供する。ビデオストリームのフレームが関心領域に分割され、各関心領域に対して、領域が被追跡オブジェクトの少なくとも一部を含む確率が計算される。各フレーム内の関心領域が、次に、計算された確率に基づいて分類される。次に、ビデオフレーム内の関心領域の分類を報告する関心領域(RI)フレームが各ビデオフレームに対して構成される。2つ以上のRIフレームが、次に、オブジェクトの動きを決定するために比較される。本発明は、システムを含む装置だけでなく、本発明の方法を実行するシステムも提供する。装置は、たとえば、ポータブルコンピュータ、携帯電話、またはエンターテイメント装置とすることができる。

Description

(発明の分野)
本発明はオブジェクト(object:物体)検出および追跡方法およびシステム、およびこのようなシステムを含む装置に関する。
(発明の背景)
下記の先行技術の出版物は本発明を理解するのに関連するものと考えられる。
Digital Image Processing by Rafael C.Gonzalez,Richard E,Woods and Steven L.Eddins,Prentice Hall(2004),10.4.2−Region Growing.
E.Deja,M.M.Deja,Dictionary of Distances,Elsevier(2006).
Mahalanobis,PC(1936).“On the generalized distance in statistics”.Proceedings of the National Institute of Sciences of India 2(1):49−55).
Itakura F.,“Line spectrum representation of linear predictive coefficients of speech signals,”J.Acoust.Soc.Am.,57,537(A),1975.
James M.Abello,Panos M.Pardalos,andMauricio G.C.Resende(editors)(2002).Handbook of Massive Data Sets.Springer.
E.R.Berlekamp,Algebraic Coding Theory,MacGrw−Hill 1968.
Richard W.Hamming.Error Detecting and Error Correcting Codes,Bell System Technical Journal 26(2):147−160,1950.
Dan Gusfield.Algorithms on strings,trees,and sequences:computer sience and computational biology.Cambridge University Press,New York,NY,USA,1997).
米国特許第5,767,842号および第6,650,318号
米国特許第5,767,842号 米国特許第6,650,318号
Digital Image Processing by Rafael C.Gonzalez,Richard E,Woods and Steven L.Eddins,Prentice Hall(2004),10.4.2−Region Growing. E.Deja,M.M.Deja,Dictionary of Distances,Elsevier(2006). Mahalanobis,PC(1936)."On the generalized distance in statistics".Proceedings of the National Institute of Sciences of India 2(1):49−55). Itakura F.,"Line spectrum representation of linear predictive coefficients of speech signals,"J.Acoust.Soc.Am.,57,537(A),1975. James M.Abello,Panos M.Pardalos,and Mauricio G.C.Resende(editors)(2002).Handbook of Massive Data Sets.Springer. E.R.Berlekamp,Algebraic Coding Theory,MacGrw−Hill 1968. Richard W.Hamming.Error Detecting and Error Correcting Codes,Bell System Technical Journal 26(2):147−160,1950. Dan Gusfield.Algorithms on strings,trees,and sequences:computersience and computational biology.Cambridge University Press,New York,NY,USA,1997).
データ処理装置内へのデータの入力はキーボード、マウス、またはジョイスティック等のデータ入力装置を使用して達成される。電子装置は常に小型化されるが、さまざまな関連するデータ入力装置はユーザの手のサイズと一致しなければならないため、そのサイズは実質的に小さくすることはできない。したがって、ユーザの手を装置に触れる必要がないデータ入力方法が考案されてきている。たとえば、コース(Korth)への米国特許第5,767,842号およびアモン(Amon)への第6,650,318号はユーザの手および指の動きを監視するのにカメラが使用される光学系を開示している。ソフトウエア・アプリケーションがこれらの動きを物理的に存在しないコンピュータ・キーボードまたは他の入力装置上の操作として解釈する。これらのシステムにおいて、カメラは固定位置を有し、画像の背景が一定のままとされる。それにより、ソフトウエア・アプリケーションは各画像内のユーザの手を検出するために一定の背景内に存在する情報を使用することができる。したがって、使用中に動かされる装置では、画像の背景が一定ではないため、このシステムは使用できず、そのため画像内に信頼できる背景情報が無い。使用中に動かされる装置はパ―ソナル・デジタル・アシスタント(PDA)、携帯電話、デジタルカメラ、および携帯ゲーム機等のハンドヘルド装置を含んでいる。
(発明の概要)
その第1の側面において、本発明はビデオストリームの中のオブジェクト認識および追跡システムを提供する。本発明のシステムは2つの別々の論理的階層に基づいている。第1の階層はビデオストリームを環境内でスタンドアロン・モーションセンサとして機能する関心領域へと分割し、追跡されたオブジェクトが領域内に存在する可能性を計算する責任を他に依存しないで負う。第2の階層は領域セットの挙動を時間をかけて監視し、可能性のパターンに基づいて、追跡されたオブジェクトの位置およびモーションパラメータを計算する。
本発明のシステムはシステムにより解析されるビデオストリームのフレームを格納するメモリを含んでいる。プロセッサがメモリ内に格納されたビデオストリームのフレームを読み込む。関心領域が予め定められた被追跡オブジェクトの少なくとも一部を含む確率に従って、オブジェクト検出モジュールが各フレーム内の関心領域を分類する。後述するように、オブジェクト検出モジュールによるオブジェクト検出はフレーム内のオブジェクトのエッジ検出を伴わない。オブジェクト追跡モジュールは、その入力として、オブジェクト検出モジュールから出力される分類されたフレームを受信し、連続する分類されたフレームを比較することにより、オブジェクトの動きを決定する。本発明のシステムはキーボード、マウスまたはジョイスティック等の装置に関連する任意の入力装置の代わりに、またはそれに加えて、装置にオペレーティングシステム(OS)コマンドを入力するのに使用することができる。本発明のシステムはパーソナルコンピュータ(PC)、PDA、ラップトップまたはパームプロット等のポータブルコンピュータ、携帯電話、ラジオその他のエンターテインメント装置、車両、デジタルカメラ、携帯ゲーム機、コンピュータ化医療装置およびスマートハウス製品等の任意タイプのデータ処理装置において使用することができる。
応用に応じて、プロセッサはオブジェクトモーションの予め定められたセットの中から追跡されたオブジェクトのモーションパターンを識別するパターン認識モジュールを随意含むことができる。システムは、さらに、予め定められた1つ以上のモーションパターンの各々に対して、関連するOSコマンドを提供するルックアップテーブルを格納するOSコマンド実行モジュールを含むことができる。予め定められたオブジェクトモーションの1つが識別されると、そのモーションに関連するOSコマンドがシステムにより実行される。
その第2の側面において、本発明は本発明のシステムを含むデータ処理装置を提供する。データ処理装置は、たとえば、パーソナルコンピュータ(PC)、PDA、ラップトップ等のポータブルコンピュータ、または携帯電話、ラジオその他のエンターテインメント装置、車両、デジタルカメラまたは携帯ゲーム機とすることができる。前記したように、本発明の装置はオブジェクト検出およびオブジェクト追跡を行うように構成されたビデオカメラおよびプロセッサを有する。被検出および追跡オブジェクトは、たとえば、ユーザの手または指、あるいはハンドヘルド・スタイラスあるいは他の予め定義されたまたは特定の装置とすることができる。
本発明の装置は、認識された各動きに対して、関連するOSコマンドを提供するルックアップテーブルを格納するメモリを含んでいる。パターン識別モジュールによりモーションパターンが検出されると、動きに関連づけられたOSコマンドがルックアップ内で検索され(looked up)、次に、動きに関連づけられたOSコマンドが実行される。OSコマンドは、たとえば、Speaker On/Off、MP3/IPTV内のNext/Previous track、GPS応用におけるマップビュー・コントロール、ボイスメール・サービスをスイッチオンする、等の活性化機能(activate functions)とすることができる。
本発明のこの側面に従って、ビデオストリームのフレームは2つ以上の関心領域に分割される。各関心領域に対して、関心領域内のピクセルの統計的解析が行われる。たとえば、統計的解析は関心領域のピクセル上に定義された1つ以上の関数の各々に対してヒストグラムを発生するステップを含むことができる。関数は、たとえば、ピクセルのレッド、グリーン、またはブルーの色の任意の1つの強度、またはピクセルの色相、彩度または輝度のいずれか1つとすることができる。ヒストグラムは単一変数ヒストグラムまたは多変数ヒストグラムとすることができ、ピクセル・プロパティのnタプルの頻度が集計される。統計的解析は任意の1つ以上のヒストグラムの平均、モード、標準偏差、または分散等の統計的パラメータの値を計算するステップを含むこともできる。関心領域の統計的解析の結果は、検出されるオブジェクトの少なくとも一部を領域が含む確率に従って領域を分類するのに使用される。解析された各フレームに対して、フレームの関心領域の分類を表す「関心領域(RI)フレーム」が発生される。
1つ以上のパターン検出モジュールがRIフレームからオブジェクトの特定のモーションパターンを検出するのに使用される。各パターン検出モジュールはそれにより検出された特定のモーションパターンがタイムウィンドウ中に生じた確率を出力する。1つ以上のパターン認識モジュールの出力は発生した可能性が最も高いモーションパターンを決定するモーション認識モジュールへ入力される。モーション検出モジュールの決定はパターン認識モジュールから入力される確率に基づいており、外部入力、たとえば、オペレーティングシステムまたは実行されるアプリケーションからの入力を考慮することもできる。
このように、第1の側面において、本発明はビデオストリームの中のオブジェクト検出および追跡システムを提供し、それは、
(a)オブジェクト検出モジュールおよびオブジェクト追跡モジュールを含むプロセッサを含み、
オブジェクト検出モジュールは、
(i)ビデオストリームの中の2つ以上の各フレーム内の1つ以上の関心領域の各々に対して、関心領域が被追跡オブジェクトの少なくとも一部を含む確率を計算し、
(ii)計算された確率に従って2つ以上の各フレーム内の関心領域を分類して各ビデオフレームに対する関心領域(RI)フレームを発生し、RIフレームは関心領域の分類を報告する、ように構成され、
オブジェクト追跡モジュールは、
(i)オブジェクト検出モジュールにより発生された2つのRIフレームを比較してオブジェクトの動きを決定する、ように構成される。
オブジェクト追跡モジュールは1つ以上のパターン検出モジュールを含むことができ、各パターン検出モジュールはタイムウィンドウ中の追跡されたオブジェクトの動きの特定のパターンがタイムウィンドウ中に生じた確率を計算するように構成されている。オブジェクト追跡モジュールは、さらに、生じている可能性が最も高いモーションパターンを1つ以上のパターン検出モジュールにより発生された確率に基づいて決定するモーション認識モジュールを含むことができる。モーション認識モジュールの決定は外部信号を考慮することを伴うことがある。
本発明のシステムは、さらに、動きの識別されたパターンに関連するOSコマンドを実行するように構成されたオペレーティングシステム(OS)コマンド実行モジュールを含むことができる。
その第2の側面において、本発明はビデオストリームの中のオブジェクト検出および追跡方法を提供し、それは、
(i)ビデオストリームの中の2つ以上の各フレーム内の1つ以上の関心領域の各々に対して、関心領域が被追跡オブジェクトの少なくとも一部を含む確率を計算し、
(ii)計算された確率に従って2つ以上の各フレーム内の関心領域を分類して各ビデオフレームに対する関心領域(RI)フレームを発生し、RIフレームは関心領域の分類を報告し、かつ、
(i)オブジェクト検出モジュールにより発生された2つ以上のRIフレームを比較してオブジェクトの動きを決定する、ステップを含んでいる。
関心領域が被追跡オブジェクトの少なくとも一部を含む確率は、
(a)ビデオストリームの中の各フレーム内の1つ以上の関心領域の各々に対して、関心領域内のピクセルの統計的解析を計算し、
(b)ビデオストリームの1つ以上の前のフレーム内の関心領域の統計的解析を伴う計算において関心領域の離散的分類を計算する、
ステップを含む方法により得ることができる。
統計的解析は関心領域のピクセル上で定義された1つ以上の関数の各々に対してヒストグラムを発生するステップを含むことができる。1つ以上の関数は、
(a)ピクセルのレッド、グリーン、またはブルーの色の任意の1つの強度、
(b)ピクセルの色相、彩度または輝度のいずれか1つ、
を含むグループの中から選択することができる。
本発明の方法は、さらに、1つ以上の関数の統計的パラメータの値を計算するステップを含むことができる。1つ以上の統計的パラメータは、
(a)平均、
(b)モード、
(c)標準偏差、
(d)分散
を含むグループから選択することができる。
2つ以上のRIフレームを比較するステップは、
(a)各フレーム、およびフレーム内の分類された関心領域の各々に対して、関心領域の分類をフレームを含むタイムウィンドウ内で得られた複数のフレーム内の関心領域の分類と比較し、
(b)比較に基づいて、選択された関心領域が被追跡オブジェクトを含むか否かを決定し、
(c)この決定に基づいて、関心領域が被追跡オブジェクトを含むか否かに従って、関心領域を再分類し、
(d)タイムウィンドウ中の2つ以上の領域の状態の変化に基づいて、オブジェクトの動きの1つ以上の追跡パラメータを計算する、
ステップを含むことができる。
追跡パラメータは、
(a)オブジェクトの動きの方向、
(b)オブジェクトの動きの速度、
(c)オブジェクトの加速度、
(d)ピクセル内のオブジェクトの幅、
(e)ピクセル内のオブジェクトの高さ、
(f)フレーム内のオブジェクトの位置、
を含むグループから選択することができる。
そのもう1つの側面において、本発明は本発明のシステムを含むデータ処理装置を提供する。データ処理装置は、
(a)パーソナルコンピュータ(PC)、
(b)PDAまたはラップトップ等のポータブルコンピュータ、
(c)携帯電話、
(d)ラジオ、
(e)エンターテイメント装置、
(f)スマートホーム、
(g)車両、
(h)デジタルカメラ、
(i)キッチン用品、
(j)メディアプレーヤまたはメディアシステム、
(k)ロケーションベース装置、
(l)携帯ゲーム機、
(m)ピコプロジェクタまたは埋め込みプロジェクタ、
(n)医療ディスプレー装置、
(o)インカー/インエア情報システム、
を含むグループから選択することができる。
本発明の装置は、さらに、ビデオカメラおよびディスプレー画面の一方または両方を含むことができる。
追跡されたオブジェクトの動きの1つ以上のパターンは、
(a)ピクセル内のオブジェクトの幅がタイムウィンドウ中に増加した、
(b)ピクセル内のオブジェクトの幅がタイムウィンドウ中に減少した、
(c)オブジェクトがカメラにより近く動いた、
(d)オブジェクトがカメラから離れるように動いた、
(e)オブジェクトが予め定められたパス内を動いた、
(f)オブジェクトが回転した、
(g)オブジェクトが静止していた、
(h)オブジェクトが任意タイプの動きをした、
(i)オブジェクトがフリッキング動作を行った、
(j)オブジェクトが加速した、
(k)オブジェクトが減速した、および、
オブジェクトが動いた後で停止した、
を含むグループから選択することができる。
プロセッサは、さらに、動きの識別されたパターンに関連する装置のOSコマンドを実行するように構成されたオペレーティングシステム(OS)コマンド実行モジュールを含むことができる。OSコマンドは、
(a)装置のディスプレー画面上にディスプレーされる仮想キーを押下する、
(b)装置のディスプレー画面上に現れるカーソルを画面上の新しい位置へ動かす、
(c)選択カルーセルを回転させる、
(d)デスクトップ間の切り替え、
(e)予め定められたソフトウエア・アプリケーションを中央処理装置上で実行する、
(f)アプリケーションをターンオフする。
(g)スピーカをターンオンまたはオフする、
(h)音量を上げ下げする、
(i)メディアプレーヤ内またはIPTVチャネル間で次または前のトラックへスキップする、
(j)GPSアプリケーションを制御する、
(k)ボイスメールサービスをスイッチオンする、
(l)写真/音楽アルバムギャラリ内でナビゲートする、
(m)ウェブページ、メール、ドキュメントまたはマップをスクロールする、
(n)携帯ゲーム内のアクションを制御する、および、
(o)インタラクティブビデオまたはアニメイテッドコンテンツを制御する、
を含むグループから選択することができる。
本発明に従ったシステムは適切にプログラムされたコンピュータとすることもできる。同様に、本発明は本発明の方法を実行するためにコンピュータが読み取り可能なコンピュータプログラムを意図している。本発明は、さらに、本発明の方法を実行するために機械が実行可能な命令のプログラムを明白に具現化している機械読取可能なメモリを意図している。
本発明を理解してそれを実際にどのように実施できるかを確かめるために、添付図を参照して、非限定的例にすぎない例により実施例の説明を行う。
関心領域に分割された複数のフレームを含むビデオストリームを略示する図である。 本発明の一実施例に従ったオブジェクト検出および追跡システムを示す図である。 本発明の一実施例に従ったオブジェクト検出方法を示す図である。 ビデオストリーム内の3つのフレームを示す図である。 図4(a)のフレームから得られる関心領域(RI)フレームを示す図である。 本発明の一実施例に従ったオブジェクト追跡方法を示す図である。 本発明のオブジェクト検出および追跡システムを内蔵するデータ処理装置を示す図である。 モーションパターンの例およびさまざまなタイプの装置においてOSコマンドを実行する時のそれらの使用を示す図である。
(実施例の詳細な説明)
図1はビデオフレーム4のシーケンスを含むビデオシーケンス2を略示している。4つのフレーム4a、4b、4c、および4dが図1に示されている。これは単なる例にすぎず、ビデオシーケンス2は少なくとも2である任意数のビデオフレームを含むことができる。各フレームは関心領域6に分割される複数のピクセルからなり、その境界は図1に破線8で示されている。フレーム4は図1において36の関心領域6(6つの関心領域の6行)に分割されて示されている。これは例にすぎず、フレーム4は少なくとも2つの任意数の関心領域に分割することができる。関心領域は任意の形状を有することができ、重畳することができる。
図2は本発明の一実施例に従って、ビデオストリーム2等の、ビデオストリーム内のオブジェクト検出および追跡システム40を示す。ビデオストリーム2はメモリ44に入力される。メモリ44はその中に格納されたビデオストリーム2のフレーム6を読み込むプロセッサ46によりアクセスすることができる。後述するように、プロセッサ46はビデオストリーム2を解析するオブジェクト検出モジュール45、およびオブジェクト検出モジュール45の出力を解析するオブジェクト追跡モジュール47を含んでいる。オブジェクト検出モジュール45は関心領域が被追跡オブジェクトの少なくとも一部を含んでいる確率に従って各フレーム内の関心領域を分類する。オブジェクト追跡モジュール47はオブジェクト検出モジュール45により出力された分類されたフレームをその入力として受信し、連続したフレーム内の関心領域の分類を比較してオブジェクトの動きを決定する。
システム40は、さらに、OSコマンド実行モジュール51を含むことができる。この場合、メモリ44は1つ以上の予め定められたモーションパターンの各々に対して、関連するOSコマンドを提供するルックアップテーブルを格納している。予め定められたオブジェクトモーションの1つが識別されると、モーションに関連するOSコマンドが実行される。
後述するように、ユーザ入力装置48を使用して、ビデオストリーム2の識別、またはプロセッサ46により解析されるパラメータ等の任意の関連データをシステム40に入力することができる。処理の結果だけでなく、ビデオストリーム2を、CRT画面、LCD、またはプリンタ等のディスプレー装置50上にディスプレーすることができる。
図3は本発明の一実施例に従ってプロセッサ46のオブジェクト検出モジュール45により実施されるビデオストリーム2のフレーム内のオブジェクト検出プロセス20を示す。プロセスはステップ18で始まり、そこでメモリ44からフレームが検索されて2つ以上の関心領域6に分割される。非特許文献1に開示されているように、関心領域はシード領域成長等の当分野で既知の任意のオブジェクト・セグメンテーション技術を使用してダイナミックに生成することができる。あるいは、関心領域はフレームを36領域に区分する固定6×6マトリクス等により領域のグループとして統計的に定義することができる。次に、ステップ24においてフレーム内の関心領域6が選択され、関心領域内のピクセルの統計的解析がステップ26において行われる。たとえば、統計的解析は領域のピクセルで定義された1つ以上の関数の各々に対してヒストグラム10を発生するステップを含むことができる。関数は、たとえば、ピクセルのレッド、グリーン、またはブルーの色の任意の1つの強度、またはピクセルの色相、彩度または輝度の任意の1つとすることができる。ヒストグラムは単一変数ヒストグラムまたは多変数ヒストグラムとすることができ、ピクセル・プロパティのnタプルの頻度が集計される。統計的解析は任意の1つ以上のヒストグラムの平均、モード、標準偏差、または分散等の統計的パラメータの値を計算することを含むこともできる。統計的解析の結果はメモリ44に格納される。
ステップ30において、解析されたばかりの関心領域が分類される。関心領域の分類は関心領域内に追跡されたオブジェクトが存在する確率を記述する離散関数である。関心領域の分類は現在のフレーム内の関心領域の統計的解析およびビデオストリームの1つ以上の前のフレーム内の関心領域の統計的解析を伴う方法で決定される。一実施例では、選択された領域内のさまざまなパラメータおよび統計的特徴と領域内を通過する追跡されたオブジェクトを示すパラメータおよび統計的特徴との類似性を計算するために距離関数が適用される。領域およびオブジェクトパラメータは、たとえば、異なる形状および輪郭の存在とそれらの頻度を含むことができ、統計的特徴は、たとえば、色相、輝度および彩度のヒストグラムとカラーパターンを含むことができる。複合距離の結果は前のフレーム内の関心領域の結果と比較される。たとえば、色相パラメータにおける距離は追跡されたオブジェクトと同じ色のオブジェクトが領域に入っていることを示すことができる。これにより領域は高い確率で追跡されたオブジェクトを含むものと分類されることがある。距離関数は、たとえば、ユークリッド距離(非特許文献2)、マハラノビス距離(非特許文献3)、板倉斉藤距離(非特許文献4)、チェビシェフ距離(非特許文献5)、リー距離(非特許文献6)、ハミング距離(非特許文献7)、またはレーベンシュタイン距離(非特許文献8)とすることができる。選択された関心領域の分類はメモリ44に格納される(ステップ31)。
ステップ32において、フレームのもう1つの関心領域を決定モジュール45により解析すべきかどうか決定される。イエスであれば、プロセスはステップ24へ戻り現在のフレーム内のもう1つの関心領域が選択される。そうでなければ、プロセスはステップ34へ続きそこでビデオフレームに対して「関心領域(RI)フレーム」が発生され、プロセスは終了する。入力ビデオフレームのRIフレームはフレームの関心領域の分類の表現である。図4(a)は3つの異なる時間(それぞれ、時間t、t、およびt)に得られたビデオストリームの3つのフレーム110a、b、およびcを示す。この例では、フレームは破線112で示される統計的関心領域に任意に分割される。あるいは、フレームを関心領域にダイナミックに分割する方法を使用することができる。たとえば、プリセットシード領域のセットを統計的均一性を維持するより大きな領域に成長させる。たとえば、図4の空領域に位置するシード領域は色相ヒストグラムおよびエッジ頻度が著しく変化する地面と交わるまで成長する。この分割プロセスは追跡される予期された動きの軸の事前知識または元の関心グループから省くべき高分散領域を決定するいくつかのフレームの統計的解析により支援されることがある。被追跡オブジェクト114はtからtの時間間隔中にフレーム内で移動している。図4(b)は、それぞれ、ビデオフレーム110a、110b、および110cに対応する関心領域フレーム116a、116b、および116cを示している。図4の例では、各関心領域はオブジェクト114の少なくとも一部が関心領域(図4(b)に関心領域のクロスハッチングで示されている)内に位置しているか、または関心領域がオブジェクト114の少なくとも一部(図4(b)のハッチングされていない領域)を含んでいないかに応じて2つの分類のいずれかに分類された。このように、時間tに得られたRIフレーム116aにおいて、フレームの右側に位置している領域117aはオブジェクト114を含むものとして分類されている。この分類は領域および追跡されたオブジェクトの類似性評価を計算して、たとえば、追跡されたオブジェクトの色相ヒストグラムと選択された領域のヒストグラム間のユークリッド距離を測定して得ることができる。同じ方法を使用して、中間フレーム116bにおいて、2つの領域117bおよび117cはオブジェクト114を含むものとして分類されており、後のフレーム116cでは2つの領域117dおよび117eがオブジェクト114を含むものとして分類されている。
追跡モジュール47はビデオストリームのタイムウィンドウ中に検出モジュール45により発生されたRIフレームをその入力として受信する。追跡モジュール47は検出モジュール45と同時に作動することができ、分類されたフレームを検出モジュール45により発生される時に受信する。あるいは、追跡モジュール47は検出モジュール45に続いて作動することができ、ビデオストリームの全てのフレームが分類された後でしか分類されたフレームを受信しない。
図5は本発明の一実施例に従ってオブジェクト追跡モジュール47により実施されるオブジェクト追跡プロセスを示す。ステップ52において、タイムウィンドウのRIフレームが追跡モジュール47に入力され、ステップ54において、RIフレームはランダムノイズを除去するためにフィルタリングされる。フィルタリングされたRIフレームは1つ以上の独立パターン検出モジュール56に入力される。各パターン検出モジュール56はフィルタリングされたRIフレームからオブジェクトの特定のモーションパターンを検出するように構成され、パターン検出モジュールの特定のモーションパターンがタイムウィンドウ中に生じた確率を出力する。各パターン検出モジュール56は入力されたRIフレームのいくつかまたは全てにパターン認識テストを行う。たとえば、再び図4bを参照すると、パターン検出モジュール56はフレームの左側からフレームの右側へのオブジェクトの動きを検出する。1つ以上のパターン認識モジュール56の出力がモーション認識モジュール58へ入力される。モーション認識モジュール58はタイムウィンドウ中に生じている可能性が最も高いモーションパターンを決定する。モーション検出モジュール58の決定は1つ以上のパターン認識モジュール56から入力された確率に基づいており、たとえば、オペレーティングシステムや実行中のアプリケーションからの入力等の外部入力も考慮することができる。次に、モーション認識モジュール58のモーション決定が出力されて(ステップ60)プロセスは終了する。
図6は、本発明のこの側面の実施例に従った、システム40を含むデータ処理装置72を示す。データ処理装置72は、たとえば、パーソナルコンピュータ(PC)、PDA、ラップトップまたはパームプロット等のポータブルコンピュータ、携帯電話、ラジオその他のエンターテインメントデバイス、車両、デジタルカメラまたは携帯ゲーム機とすることができる。装置72はビデオカメラ76を有する。装置72にはディスプレー画面74およびデータ入力装置72にデータを入力するための複数のキー80を有するキーパッド78のようなさまざまなデータ入力装置を設けることもできる。
カメラ76は破線で示す空間86の円錐形または角錐形ボリュームをとらえる。カメラ76は装置72上の固定位置を有することができ、その場合ビューイングスペース86は装置72に対して固定され、あるいは装置72上に位置決めすることができ、その場合ビューイングスペース86は装置72に対して選択することができる。カメラ76で撮影された画像はカメラ76によりデジタル化されてプロセッサ46へ入力される(図2も参照されたい)。前記したように、プロセッサ46のオブジェクト検出モジュール45はカメラ76により得られたフレーム内の予め定められたオブジェクト94を検出する。オブジェクト94は開いた手、閉じた手または手の甲等の、さまざまな位置における、ユーザの指または手全体とすることができる。装置2がハンドヘルド装置であれば、ユーザは使用時に他方の手89を使用して装置2を保持することができる。手89は、キーパッド78上の活性化キー80等の、装置72に関連する実際の入力装置を活性化するのに使用することもできる。
メモリ44は各テストに対して関連するOSコマンドを提供するルックアップテーブルを格納することができる。パターン識別モジュール49によりモーションパターンが検出されると、動きに関連するOSコマンドがメモリ44内に格納されたルックアップテーブル内で検索され、次に、動きに関連するOSコマンドがOS実行モジュール51により実行される。OSコマンドは、たとえば、ディスプレー画面上にディスプレーされた仮想キーの押下、ディスプレー画面上に現れるカーソルの画面上の新しい位置への移動、メモリ44内に格納されたソフトウエア・アプリケーションのプロセッサ46上での実行、または装置72のターンオフとすることができる。装置はOSコマンドが実行されたという表示を提供することができる。たとえば、仮想キーボード上のキーの押下に相当するOSコマンドは、仮想キーボード上の押下されたキーを画面4上に簡単に示す、あるいはキーの外観を簡単に変えることで表示することができる。OSコマンドが実行されたことを表示する他の可能性は、画面4上の押下されたキーまたはカーソルの外観を簡単に拡大するさもなくば変える、画面4上にアイコンをディスプレーする、音を発生する、および装置を振動させる、ことを含む。
図7はパターン検出モジュール56により認識することができるモーションパターン、および装置72のタイプに応じてOSコマンドを実行するのにモーションパターンをどのように使用できるかの例を示す。動き100は装置72に向けて手を動かすことからなる。動き102は装置72に向けて手を動かし、次に、装置から手を遠ざけることからなる。動き104は装置の上で手を左から右へ動かすことからなり、動き106は装置の上で手を右から左へ動かすことからなる。

Claims (30)

  1. ビデオストリームの中のオブジェクト検出および追跡システムであって、
    (a)オブジェクト検出モジュールおよびオブジェクト追跡モジュールを含むプロセッサを含み、
    前記オブジェクト検出モジュールは、
    (i)前記ビデオストリームの中の2つ以上の各フレーム内の1つ以上の関心領域の各々に対して、前記関心領域が被追跡オブジェクトの少なくとも一部を含む確率を計算し、
    (ii)前記計算された確率に従って前記2つ以上の各フレーム内の前記関心領域を分類して各ビデオフレームに対する関心領域(RI)フレームを発生し、前記RIフレームは関心領域の前記分類を報告するように構成されており、
    かつ、前記オブジェクト追跡モジュールは、
    (i)前記オブジェクト検出モジュールにより発生された2つのRIフレームを比較して前記オブジェクトの動きを決定する、ように構成されているシステム。
  2. 請求項1記載のシステムであって、前記オブジェクト追跡モジュールは1つ以上のパターン検出モジュールを含み、各パターン検出モジュールはタイムウィンドウ中の前記追跡されたオブジェクトの動きの特定パターンが前記タイムウィンドウ中に発生した確率を計算するように構成されているシステム。
  3. 請求項2記載のシステムであって、前記オブジェクト追跡モジュールは、さらに、前記1つ以上のパターン検出モジュールにより発生された前記確率に基づいて発生した可能性が最も高いモーションパターンを決定するモーション認識モジュールを含んでいるシステム。
  4. 請求項2記載のシステムであって、前記モーション認識モジュールの前記決定は外部信号を考慮するシステム。
  5. 前記請求項のいずれか1項記載のシステムであって、さらに、動きの識別されたパターンに関連するOSコマンドを実行するように構成されたオペレーティングシステム(OS)コマンド実行モジュールを含むシステム。
  6. 前記請求項のいずれか1項記載のシステムであって、関心領域が被追跡オブジェクトの少なくとも一部を含む前記確率は、
    (a)前記ビデオストリームの中の各フレーム内の1つ以上の関心領域の各々に対して、前記関心領域内の前記ピクセルの統計的解析を計算し、
    (b)前記ビデオストリームの1つ以上の前のフレーム内の前記関心領域の前記統計的解析を伴う計算における前記関心領域の離散的分類を計算する、
    ステップを含む方法により得られるシステム。
  7. 請求項6記載のシステムであって、前記統計的解析は前記関心領域のピクセルで定義された1つ以上の関数の各々に対してヒストグラムを発生するステップを含むシステム。
  8. 請求項7記載のシステムであって、前記1つ以上の関数は、
    (a)前記ピクセルのレッド、グリーン、またはブルーの前記色の任意1つの強度、
    (b)前記ピクセルの色相、彩度または輝度のいずれか1つ、
    を含むグループから選択されるシステム。
  9. 請求項7または8記載のシステムであって、さらに、前記1つ以上の関数の統計的パラメータの値を計算するステップを含むシステム。
  10. 請求項9記載のシステムであって、前記統計的パラメータの1つ以上は、
    (a)平均、
    (b)モード、
    (c)標準偏差、および
    (d)分散
    を含むグループから選択されるシステム。
  11. 請求項7から110のいずれか1項記載のシステムであって、前記統計的解析は、さらに、1つ以上の発生されたヒストグラムと前記被追跡オブジェクトの前記存在を示すヒストグラム間の距離を計算するステップを含むシステム。
  12. 請求項5から11のいずれか1項記載のシステムであって、2つ以上のRIフレームを比較するステップは、
    (a)各フレーム、および前記フレーム内の前記分類された関心領域の各々に対して、関心領域の前記分類を前記フレームを含むタイムウィンドウ内で得られた複数のフレーム内の前記関心領域の前記分類と比較し、
    (b)前記比較に基づいて、前記選択された関心領域が前記被追跡オブジェクトを含むか否かを決定し、
    (c)この決定に基づいて、前記関心領域が前記被追跡オブジェクトを含むか否かに従って、前記関心領域を再分類し、
    (d)タイムウィンドウ中の2つ以上の前記領域の前記状態の変化に基づいて、前記オブジェクトの動きの1つ以上の追跡パラメータを計算する、
    ステップを含むシステム。
  13. 請求項12記載のシステムであって、前記追跡パラメータは、
    (a)前記オブジェクトの動きの方向、
    (b)前記オブジェクトの動きの速度、
    (c)前記オブジェクトの加速度、
    (d)ピクセル内の前記オブジェクトの幅、
    (e)ピクセル内の前記オブジェクトの高さ、
    (f)前記フレーム内の前記オブジェクトの位置、
    を含むグループから選択されるシステム。
  14. ビデオストリームの中のオブジェクト検出および追跡方法であって、
    (i)前記ビデオストリームの中の2つ以上の各フレーム内の1つ以上の関心領域の各々に対して、前記関心領域が被追跡オブジェクトの少なくとも一部を含む確率を計算し、
    (ii)前記計算された確率に従って前記2つ以上の各フレーム内の前記関心領域を分類して各ビデオフレームに対する関心領域(RI)フレームを発生し、前記RIフレームは関心領域の前記分類を報告し、
    (i)前記オブジェクト検出モジュールにより発生された2つ以上のRIフレームを比較して前記オブジェクトの動きを決定する、ステップを含む方法。
  15. 請求項14記載の方法であって、関心領域が前記被追跡オブジェクトの少なくとも一部を含む前記確率は、
    (a)前記ビデオストリームの中の各フレーム内の1つ以上の関心領域の各々に対して、前記関心領域内の前記ピクセルの統計的解析を計算し、
    (b)前記ビデオストリームの1つ以上の前のフレーム内の前記関心領域の前記統計的解析を伴う計算における前記関心領域の離散的分類を計算する、
    ステップを含む方法により得られる方法。
  16. 請求項15記載の方法であって、前記統計的解析は前記関心領域のピクセルで定義された1つ以上の関数の各々に対してヒストグラムを発生するステップを含む方法。
  17. 請求項16記載の方法であって、前記1つ以上の関数は、
    (a)前記ピクセルのレッド、グリーン、またはブルーの前記色の任意1つの強度、および、
    (b)前記ピクセルの色相、彩度または輝度のいずれか1つ、
    を含むグループから選択される方法。
  18. 請求項16または17記載の方法であって、さらに、前記1つ以上の関数の統計的パラメータの値を計算するステップを含む方法。
  19. 請求項18記載の方法であって、前記統計的パラメータの1つ以上は、
    (a)平均、
    (b)モード、
    (c)標準偏差、
    (d)分散
    を含むグループから選択される方法。
  20. 請求項16から19のいずれか1項記載の方法であって、前記統計的解析は、さらに、1つ以上の発生されたヒストグラムと前記被追跡オブジェクトの前記存在を示すヒストグラム間の距離を計算するステップを含む方法。
  21. 請求項14から20のいずれか1項記載の方法であって、2つ以上のRIフレームを比較する前記ステップは、
    (a)各フレーム、および前記フレーム内の前記分類された関心領域の各々に対して、前記関心領域の前記分類を前記フレームを含むタイムウィンドウ内で得られた複数のフレーム内の前記関心領域の前記分類と比較し、
    (b)前記比較に基づいて、前記選択された関心領域が前記被追跡オブジェクトを含むか否かを決定し、
    (c)この決定に基づいて、前記関心領域が前記被追跡オブジェクトを含むか否かに従って、前記関心領域を再分類し、
    (d)タイムウィンドウ中の2つ以上の前記領域の前記状態の変化に基づいて、前記オブジェクトの動きの1つ以上の追跡パラメータを計算する、
    ステップを含む方法。
  22. 請求項21記載の方法であって、前記追跡パラメータは、
    (a)前記オブジェクトの動きの方向、
    (b)前記オブジェクトの動きの速度、
    (c)前記オブジェクトの加速度、
    (d)ピクセル内の前記オブジェクトの幅、
    (e)ピクセル内の前記オブジェクトの高さ、
    (f)前記フレーム内の前記オブジェクトの位置、
    を含むグループから選択される方法。
  23. 請求項1から13のいずれか1項記載のシステムを含むデータ処理装置。
  24. 請求項23記載のデータ処理装置であって、
    (p)パーソナルコンピュータ(PC)、
    (q)PDAまたはラップトップ等のポータブルコンピュータ、
    (r)携帯電話、
    (s)ラジオ、
    (t)エンターテインメント装置、
    (u)スマートホーム、
    (v)車両、
    (w)デジタルカメラ、
    (x)キッチン用品、
    (y)メディアプレーヤまたはメディアシステム、
    (z)ロケーションベース装置、
    (aa)携帯ゲーム機、
    (bb)ピコプロジェクタまたは埋め込みプロジェクタ、
    (cc)医療ディスプレー装置、
    (dd)インカー/インエア情報システム、
    を含むグループから選択されるデータ処理装置。
  25. 請求項23または24記載の装置であって、さらに、ビデオカメラおよびディスプレー画面の一方または両方を含む装置。
  26. 請求項2記載の装置であって、前記追跡されたオブジェクトの動きの1つ以上の前記パターンは、
    (a)ピクセル内の前記オブジェクトの幅が前記タイムウィンドウ中に増加した、
    (b)ピクセル内の前記オブジェクトの幅が前記タイムウィンドウ中に減少した、
    (c)前記オブジェクトが前記カメラにより近く動いた、
    (d)前記オブジェクトが前記カメラから離れるように動いた、
    (e)前記オブジェクトが予め定められたパス内を動いた、
    (f)前記オブジェクトが回転した、
    (g)前記オブジェクトが静止していた、
    (h)前記オブジェクトが任意タイプの動きをした、
    (i)前記オブジェクトがフリッキング・モーションを行った、
    (j)前記オブジェクトが加速した、
    (k)前記オブジェクトが減速した、および、
    (l)前記オブジェクトが動いた後で停止した、
    を含むグループから選択される装置。
  27. 請求項22から26のいずれか1項記載の装置であって、前記プロセッサは、さらに、動きの識別されたパターンに関連する前記装置のOSコマンドを実行するように構成されたオペレーティングシステム(OS)コマンド実行モジュールを含む装置。
  28. 請求項27記載の装置であって、前記OSコマンドの1つ以上は、
    (a)前記装置のディスプレー画面上にディスプレーされる仮想キーを押下する、
    (b)前記装置のディスプレー画面上に現れるカーソルを前記画面上の新しい位置へ動かす、
    (c)選択カルーセルを回転させる、
    (d)デスクトップ間を切り替える、
    (e)予め定められたソフトウエア・アプリケーションを前記中央処理装置上で実行する、
    (f)アプリケーションをターンオフする。
    (g)前記スピーカをターンオンまたはオフする、
    (h)音量を上げ下げする、
    (i)メディアプレーヤ内またはIPTVチャネル間で前記次または前のトラックへスキップする、
    (j)GPSアプリケーションを制御する、
    (k)ボイスメールサービスをスイッチオンする、
    (l)写真/音楽アルバムギャラリ内でナビゲートする、
    (m)ウェブページ、メール、ドキュメントまたはマップをスクロールする、
    (n)携帯ゲーム内のアクションを制御する、
    (o)インタラクティブビデオまたはアニメイテッドコンテンツを制御する、
    を含むグループから選択される装置。
  29. コンピュータプログラムがコンピュータ上で実行される時に請求項14から22のいずか1項記載の前記ステップの全てを実施するコンピュータプログラムコード手段を含むコンピュータプログラム。
  30. 請求項29記載のコンピュータプログラムであって、コンピュータ読取可能媒体上に具現化されるコンピュータプログラム。
JP2011547059A 2009-02-02 2010-02-02 ビデオストリームの中のオブジェクト認識および追跡システムおよび方法 Active JP5816098B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US20215709P 2009-02-02 2009-02-02
US61/202,157 2009-02-02
PCT/IL2010/000092 WO2010086866A1 (en) 2009-02-02 2010-02-02 System and method for object recognition and tracking in a video stream

Publications (2)

Publication Number Publication Date
JP2012517044A true JP2012517044A (ja) 2012-07-26
JP5816098B2 JP5816098B2 (ja) 2015-11-18

Family

ID=42104703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011547059A Active JP5816098B2 (ja) 2009-02-02 2010-02-02 ビデオストリームの中のオブジェクト認識および追跡システムおよび方法

Country Status (6)

Country Link
US (2) US9405970B2 (ja)
EP (1) EP2391972B1 (ja)
JP (1) JP5816098B2 (ja)
KR (1) KR101632963B1 (ja)
CN (1) CN102356398B (ja)
WO (1) WO2010086866A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376665B1 (ko) * 2020-09-28 2022-03-22 한국생산기술연구원 불투명 부재를 이용한 비접촉식 인식 장치 및 방법

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2023812T3 (pl) 2006-05-19 2017-07-31 The Queen's Medical Center Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii
WO2010083238A1 (en) 2009-01-13 2010-07-22 Futurewei Technologies, Inc. Method and system for image processing to classify an object in an image
US9405970B2 (en) * 2009-02-02 2016-08-02 Eyesight Mobile Technologies Ltd. System and method for object recognition and tracking in a video stream
US8686951B2 (en) 2009-03-18 2014-04-01 HJ Laboratories, LLC Providing an elevated and texturized display in an electronic device
US20110199342A1 (en) 2010-02-16 2011-08-18 Harry Vartanian Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound
US8890803B2 (en) 2010-09-13 2014-11-18 Samsung Electronics Co., Ltd. Gesture control system
EP2428870A1 (en) * 2010-09-13 2012-03-14 Samsung Electronics Co., Ltd. Device and method for controlling gesture for mobile device
US8872851B2 (en) * 2010-09-24 2014-10-28 Intel Corporation Augmenting image data based on related 3D point cloud data
US8782566B2 (en) 2011-02-22 2014-07-15 Cisco Technology, Inc. Using gestures to schedule and manage meetings
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
CN109271029B (zh) 2011-08-04 2022-08-26 视力移动技术有限公司 无触摸手势识别系统、无触摸手势识别方法和介质
WO2013032933A2 (en) 2011-08-26 2013-03-07 Kinecticor, Inc. Methods, systems, and devices for intra-scan motion correction
US20140361988A1 (en) 2011-09-19 2014-12-11 Eyesight Mobile Technologies Ltd. Touch Free Interface for Augmented Reality Systems
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
CN104245068B (zh) * 2012-03-05 2017-05-24 喀普康有限公司 游戏装置
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US9299159B2 (en) * 2012-11-09 2016-03-29 Cyberlink Corp. Systems and methods for tracking objects
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9626015B2 (en) 2013-01-08 2017-04-18 Leap Motion, Inc. Power consumption in motion-capture systems with audio and optical signals
US10547774B2 (en) * 2013-01-09 2020-01-28 Sony Corporation Image processing device, image processing method, and program
US10042510B2 (en) 2013-01-15 2018-08-07 Leap Motion, Inc. Dynamic user interactions for display control and measuring degree of completeness of user gestures
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
KR102203810B1 (ko) * 2013-10-01 2021-01-15 삼성전자주식회사 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US10002427B2 (en) * 2013-10-11 2018-06-19 Mauna Kea Technologies Method for characterizing images acquired through a video medical device
CN104574433A (zh) * 2013-10-14 2015-04-29 株式会社理光 对象跟踪方法和设备、跟踪特征选择方法
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US10089330B2 (en) 2013-12-20 2018-10-02 Qualcomm Incorporated Systems, methods, and apparatus for image retrieval
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
TWI509454B (zh) * 2014-02-17 2015-11-21 Noodoe Corp 基於動作偵測之作業啟始方法及系統,及相關電腦程式產品
EP3157422A4 (en) 2014-03-24 2018-01-24 The University of Hawaii Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9779307B2 (en) 2014-07-07 2017-10-03 Google Inc. Method and system for non-causal zone search in video monitoring
US10127783B2 (en) * 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9734589B2 (en) 2014-07-23 2017-08-15 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9575566B2 (en) * 2014-12-15 2017-02-21 Intel Corporation Technologies for robust two-dimensional gesture recognition
CN105791906A (zh) * 2014-12-15 2016-07-20 深圳Tcl数字技术有限公司 信息推送的方法和系统
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US9767378B2 (en) * 2015-08-31 2017-09-19 Sony Corporation Method and system to adaptively track objects
CN106621336B (zh) * 2015-10-30 2019-07-26 网易(杭州)网络有限公司 一种fps游戏场景地图设计可视化验证方法及系统
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9659380B1 (en) 2016-01-07 2017-05-23 International Business Machines Corporation Object position tracking using motion estimation
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US20180082428A1 (en) * 2016-09-16 2018-03-22 Qualcomm Incorporated Use of motion information in video data to track fast moving objects
US20180204344A1 (en) * 2017-01-17 2018-07-19 Thika Holdings Llc Method and system for data encoding from media for mechanical output
US10410086B2 (en) 2017-05-30 2019-09-10 Google Llc Systems and methods of person recognition in video streams
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10803598B2 (en) 2017-06-21 2020-10-13 Pankaj Chaurasia Ball detection and tracking device, system and method
US10304207B2 (en) * 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
CN109740557B (zh) * 2019-01-10 2021-05-28 北京市商汤科技开发有限公司 对象检测方法及装置、电子设备和存储介质
CN109816700B (zh) * 2019-01-11 2023-02-24 佰路得信息技术(上海)有限公司 一种基于目标识别的信息统计方法
GB201903509D0 (en) * 2019-03-14 2019-05-01 Smith Andrew James Cyclic movement detection and synchronisation appartus
US11354534B2 (en) 2019-03-15 2022-06-07 International Business Machines Corporation Object detection and identification
CN110189364B (zh) * 2019-06-04 2022-04-01 北京字节跳动网络技术有限公司 用于生成信息的方法和装置,以及目标跟踪方法和装置
US11164047B2 (en) 2019-07-22 2021-11-02 International Business Machines Corporation Object detection optimization
US11555910B2 (en) * 2019-08-02 2023-01-17 Motional Ad Llc Merge-split techniques for sensor data filtering
WO2021060684A1 (ko) * 2019-09-29 2021-04-01 주식회사 작당모의 머신 러닝을 이용한 영상 내 객체 인식 방법 및 장치
US11182906B2 (en) 2019-11-24 2021-11-23 International Business Machines Corporation Stream object tracking with delayed object detection
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
US11533428B2 (en) 2020-01-23 2022-12-20 Samsung Electronics Co., Ltd. Electronic device and method for controlling electronic device
EP3901819B1 (en) 2020-04-20 2024-04-10 Tata Consultancy Services Limited Detecting and validating a user activity captured from multiple sensors
US11669593B2 (en) 2021-03-17 2023-06-06 Geotab Inc. Systems and methods for training image processing models for vehicle data collection
US11682218B2 (en) 2021-03-17 2023-06-20 Geotab Inc. Methods for vehicle data collection by image analysis
US20230057652A1 (en) 2021-08-19 2023-02-23 Geotab Inc. Mobile Image Surveillance Systems
US11693920B2 (en) 2021-11-05 2023-07-04 Geotab Inc. AI-based input output expansion adapter for a telematics device and methods for updating an AI model thereon
US11989949B1 (en) 2023-03-31 2024-05-21 Geotab Inc. Systems for detecting vehicle following distance

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202653A (ja) * 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
JP2007087089A (ja) * 2005-09-21 2007-04-05 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法
JP2007122218A (ja) * 2005-10-26 2007-05-17 Fuji Xerox Co Ltd 画像分析装置
WO2008139399A2 (en) * 2007-05-15 2008-11-20 Philips Intellectual Property & Standards Gmbh Method of determining motion-related features and method of performing motion classification

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69204045T2 (de) 1992-02-07 1996-04-18 Ibm Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten.
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
US7650015B2 (en) * 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
US6236736B1 (en) * 1997-02-07 2001-05-22 Ncr Corporation Method and apparatus for detecting movement patterns at a self-service checkout terminal
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
US6226388B1 (en) * 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6650318B1 (en) 2000-10-13 2003-11-18 Vkb Inc. Data input device
JP4079690B2 (ja) * 2002-05-23 2008-04-23 株式会社東芝 物体追跡装置及び方法
CN1266656C (zh) * 2003-12-30 2006-07-26 上海交通大学 视频监控系统的智能化报警处理方法
JP4168940B2 (ja) 2004-01-26 2008-10-22 三菱電機株式会社 映像表示システム
US7733369B2 (en) * 2004-09-28 2010-06-08 Objectvideo, Inc. View handling in video surveillance systems
US7796780B2 (en) * 2005-06-24 2010-09-14 Objectvideo, Inc. Target detection and tracking from overhead video streams
US8121347B2 (en) * 2006-12-12 2012-02-21 Rutgers, The State University Of New Jersey System and method for detecting and tracking features in images
US8686953B2 (en) * 2008-09-12 2014-04-01 Qualcomm Incorporated Orienting a displayed element relative to a user
US9405970B2 (en) * 2009-02-02 2016-08-02 Eyesight Mobile Technologies Ltd. System and method for object recognition and tracking in a video stream

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202653A (ja) * 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
JP2007087089A (ja) * 2005-09-21 2007-04-05 Fujitsu Ltd ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法
JP2007122218A (ja) * 2005-10-26 2007-05-17 Fuji Xerox Co Ltd 画像分析装置
WO2008139399A2 (en) * 2007-05-15 2008-11-20 Philips Intellectual Property & Standards Gmbh Method of determining motion-related features and method of performing motion classification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHIHARA K: "REAL-TIME GESTURE RECOGNITION BY LEARNING AND SELECTIVE CONTROL OF VISUAL INTEREST POINTS", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. V27 N3, JPN5012007585, 1 March 2005 (2005-03-01), US, pages 351 - 364, ISSN: 0003143230 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376665B1 (ko) * 2020-09-28 2022-03-22 한국생산기술연구원 불투명 부재를 이용한 비접촉식 인식 장치 및 방법

Also Published As

Publication number Publication date
CN102356398A (zh) 2012-02-15
US9405970B2 (en) 2016-08-02
US20110291925A1 (en) 2011-12-01
EP2391972B1 (en) 2015-05-27
US20160343145A1 (en) 2016-11-24
WO2010086866A1 (en) 2010-08-05
EP2391972A1 (en) 2011-12-07
CN102356398B (zh) 2016-11-23
KR101632963B1 (ko) 2016-06-23
KR20110138212A (ko) 2011-12-26
JP5816098B2 (ja) 2015-11-18

Similar Documents

Publication Publication Date Title
JP5816098B2 (ja) ビデオストリームの中のオブジェクト認識および追跡システムおよび方法
US10126826B2 (en) System and method for interaction with digital devices
EP3167352B1 (en) Touch classification
KR101300400B1 (ko) 적응적인 제스처 분석을 위한 방법, 장치 및 컴퓨터-독출가능 저장 매체
US9785865B2 (en) Multi-stage image classification
US20140157209A1 (en) System and method for detecting gestures
US20140132515A1 (en) System and method for inputting user commands to a processor
US20130135192A1 (en) Gesture recognition apparatus, method thereof and program therefor
JP6334767B1 (ja) 情報処理装置、プログラム、及び情報処理方法
WO2023048809A1 (en) Leveraging unsupervised meta-learning to boost few-shot action recognition
JP4641492B2 (ja) 特異映像検出装置、特異映像検出方法およびプログラム
US20180336435A1 (en) Apparatus and method for classifying supervisory data for machine learning
CN113052198A (zh) 一种数据处理方法、装置、设备及存储介质
CN113807407B (zh) 目标检测模型训练方法、模型性能检测方法及装置
US11308150B2 (en) Mobile device event control with topographical analysis of digital images inventors
Kuang et al. Object tracking with collaborative extreme learning machines
Yeh et al. Virtual piano design via single-view video based on multifinger actions recognition
US20220358113A1 (en) Method of displaying data
WO2019150778A1 (ja) 情報処理装置、情報処理方法およびプログラム
Rojas et al. Deep Learning for Fast Segmentation of E-waste Devices’ Inner Parts in a Recycling Scenario
JP2021128759A (ja) オブジェクト検出方法及び装置
Purkayastha Integrating gesture recognition and speech recognition in a touch-less human computer interaction system
JP2010039868A (ja) 位置座標処理装置、及び、位置座標処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140210

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140218

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140310

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140317

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140408

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141023

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150223

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150925

R150 Certificate of patent or registration of utility model

Ref document number: 5816098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250