JP2008529135A - 動作に基づくトラッキング - Google Patents

動作に基づくトラッキング Download PDF

Info

Publication number
JP2008529135A
JP2008529135A JP2007552319A JP2007552319A JP2008529135A JP 2008529135 A JP2008529135 A JP 2008529135A JP 2007552319 A JP2007552319 A JP 2007552319A JP 2007552319 A JP2007552319 A JP 2007552319A JP 2008529135 A JP2008529135 A JP 2008529135A
Authority
JP
Japan
Prior art keywords
image
display
user
captured image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007552319A
Other languages
English (en)
Other versions
JP4689684B2 (ja
JP2008529135A5 (ja
Inventor
ヒルドゥレス,エヴァン
Original Assignee
ジェスチャー テック,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェスチャー テック,インコーポレイテッド filed Critical ジェスチャー テック,インコーポレイテッド
Publication of JP2008529135A publication Critical patent/JP2008529135A/ja
Publication of JP2008529135A5 publication Critical patent/JP2008529135A5/ja
Application granted granted Critical
Publication of JP4689684B2 publication Critical patent/JP4689684B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1018Calibration; Key and button assignment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Abstract

一実施形態では、まず、第1の撮影画像にアクセスする。第1の撮影画像は、(1)第1の時点で生成される第1の表示と、(2)第1の表示の一部ではなく、第1の表示とインタラクションするユーザとを含む。第2の撮影画像にアクセスする。第2の撮影画像は、(1)第2の時点で生成される第2の表示と、(2)前記第2の表示の一部ではなく、前記第2の表示とインタラクションするユーザとを含む。第1の撮影画像と第2の撮影画像とを比較する。第1の撮影画像と第2の撮影画像との比較結果に基づいてユーザの動作を決定する。決定されたユーザの動作を1つ以上の第1および第2の撮影画像の一部分と関連付ける。

Description

本開示は、一部では画像処理に関し、特に、画像の動作の検知に関する。
<関連出願への相互参照>
本願は、2005年1月21日付けで出願した「投影された背景の前にいるユーザの動作に基づくトラッキング(Motion-Based Tracking of a User in Front of a Projected Background)」と題する米国仮特許出願第60/645,074号に対して優先権を主張し、その全ての開示内容をここに参照により援用する。
様々なシステムが、少なくとも間接的に、ユーザがインタラクションしようとする情報を投影または表示する。例えば、多くの場合、コンピュータがモニタに文書を表示すると、ユーザはマウスを用いて、表示された文書内にカーソルを置くことにより、表示された文書に対して間接的にインタラクションすると思われる。このようなコンピュータは、モニタに文書を表示するのではなく、プロジェクタを用いて投影スクリーンに文書を投影することもできる。別の例として、タッチスクリーンコンピュータがあり、ユーザは、例えば、モニタの画像が示す位置に触れることにより、すなわち、表示された画像の特定の要素を選択するためにその要素に触れることにより、より直接的に表示された画像とインタラクションすることができる。
開示された実施形態の1つによると、ユーザの動作を検知し、ユーザの動作に基づいて入力を生成することにより、ユーザは表示または投影された画像と直接的にインタラクションすることが可能となる。例えば、ビデオゲームにより画像が生成され表示されると、ユーザは、画像にあるアイコンをポイントしてそのアイコンを選択することができる。開示されたシステムは、ユーザの動作を検知し、検知した動作をアイコンの選択と関連付け、ユーザが選択したアイコンを示す入力をアプリケーションに与える。このシステムはカメラを用いてユーザの動作を検知する。
包括的態様の1つにあっては、まず、第1の撮影画像にアクセスする。第1の撮影画像は、(1)第1の時点で生成される第1の表示と、(2)前記第1の表示の一部ではなく、前記第1の表示とインタラクションするユーザとを含む。第2の撮影画像にアクセスする。第2の撮影画像は、(1)第2の時点で生成される第2の表示と、(2)第2の表示の一部ではなく、第2の表示とインタラクションするユーザとを含む。第1の撮影画像と第2の撮影画像とを比較する。第1の撮影画像と第2の撮影画像との比較結果に基づいてユーザの動作を決定する。決定されたユーザの動作を1つ以上の第1および第2の撮影画像の一部分と関連付ける。
上記包括的態様の実施形態には、以下の特徴を1つ以上含んでいてもよい。例えば、決定されたユーザの動作に関する指標および前記一部分を演算装置に与えてもよい。これに加えてまたはこれに代えて、決定されたユーザの動作および前記一部分に基づいて、一連の指示に対する入力を決定してもよい。
第1および第2の撮影画像の比較には、第1の撮影画像および第2の撮影画像に対して絶対差分処理またはオプティカルフロー処理を行うことを含み得る。第1および第2の撮影画像の比較は、結果を得ることを含んでいてもよく、その結果は、ユーザの動作と第1および第2の表示に含まれる1つ以上の対象物に関する動作とを示す画像であり得る。その結果に対して幾何学的変換処理を行ってもよい。
第1の撮影画像と第2の撮影画像の比較結果に基づいたユーザの動作の決定には、その結果において、第1および第2の表示に含まれる1つ以上の対象物に関する動作からユーザの動作を分離することを含んでいてもよい。
第1および第2の表示に含まれる1つ以上の対象物に関する動作を示す画像にアクセスしてもよい。結果における第1および第2の表示に含まれる1つ以上の対象物に関する動作からユーザの動作の分離は、結果と、第1および第2の表示に含まれる1つ以上の対象物に関する動作を示す画像との比較を含んでいてもよい。
第1および第2の表示に含まれる1つ以上の対象物に関する動作を示す画像へのアクセスは、第1の表示に対応する第1の表示画像へのアクセスと、第2の表示に対応する第2の表示画像へのアクセスと、第1および第2の表示に含まれる1つ以上の対象物に関する動作を示す画像の生成とを含んでいてもよい。第1および第2の表示に含まれる1つ以上の対象物に関する動作を示す画像は、第1の表示画像および第2の表示画像に対して絶対差分処理を行うことにより生成してもよい。または、第1および第2の表示に含まれる1つ以上の対象物に関する動作を示す画像は、第1の表示画像および第2の表示画像に対してオプティカルフロー処理を行うことにより生成してもよい。
第1および第2の表示に含まれる1つ以上の対象物に関する動作を示す画像に対して、待ち時間補償処理を行ってもうよい。
別の包括的態様によると、システムは、撮影画像動作検知モジュールと、比較モジュールとを含む。撮影画像動作検知モジュールは、(1)演算装置により実行される一連の指示により、第1の時点で生成される第1の表示と(2)第1の表示の一部ではなく、第1の表示とインタラクションするユーザとを含む第1の撮影画像にアクセスするよう構成される。撮影画像動作検知モジュールは、また、(1)演算装置により実行される一連の指示により、第2の時点で生成される第2の表示と(2)第2の表示の一部ではなく、第2の表示とインタラクションするユーザとを含む第2の撮影画像にアクセスするよう構成される。撮影画像動作検知モジュールはさらに、第1の撮影画像と第2の撮影画像とを比較することにより、第1および第2の撮影画像間の動作を表わす画像を生成するよう構成される。比較モジュールは、第1および第2の表示の1つ以上の対象物に関する動作を表わす画像と、第1および第2の撮影画像間の動作を表わす画像との比較結果に基づいて、ユーザの動作を表わす画像を生成するよう構成される。
上記包括的態様の実施形態には、以下の特徴を1つ以上含んでいてもよい。例えば、システムは、第1の表示画像にアクセスし、第2の表示画像にアクセスし、第1の表示画像を第2の表示画像と比較することにより第1および第2の表示に含まれる1つ以上の対象物に関する動作を表わす画像を生成するよう構成された表示画像動作検知モジュールを含んでもよい。
また、システムは、(1)第1の撮影画像を撮影し、第1の撮影画像を撮影画像動作検知モジュールに与え、(2)第2の撮影画像を撮影し、第2の撮影画像を撮影画像動作検知モジュールに与えるよう構成されたカメラを含んでいてもよい。これに加えてまたはこれに代えて、システムは、画像を表示するディスプレイと、一連の指示を実行して第1および第2の表示画像を生成するよう構成された演算装置とを含んでいてもよい。
システムは、第1および第2の表示に含まれる1つ以上の対象物に関する動作を表わす画像に対して、待ち時間補償処理を行うよう構成された待ち時間補償モジュールをさらに含んでいてもよい。また、システムは、第1および第2の撮影画像間の動作を表わす画像に対して、幾何学的変換処理を行うよう構成された幾何学的変換モジュールも含んでいてもよい。
上記において、たとえ1つの方法しか用いられていない場合でも、様々な態様、実施形態および特徴を1つ以上の様々な方法で実施することができる。例えば、方法、装置、方法を行うための装置、道具または処理装置、プログラムやその他一連の指示、プログラムや一連の指示を含む装置およびコンピュータ読取可能な媒体の1つまたはそれ以上を用いて、例えば、様々な態様、実施形態および特徴を実施することができる。コンピュータ読取可能な媒体は、例えば、指示、ソフトウェア、画像およびその他のデータを含み得る。
1つ以上の実施形態の詳細について、添付の図面を参照して以下に説明する。他の特徴も説明、図面および特許請求から明らかとなる。
特定の実施形態の一つにおいて、ビデオゲームアプリケーションは画像を生成し、コンピュータシステムはユーザのためにその画像を投影する。ユーザは、投影された画像の前で動くことによりビデオゲームをプレーし、その投影画像が現実に存在するかのようにユーザは投影画像とインタラクションする。例えば、ユーザが、投影画像に対象物として含まれているターゲットに対してスイングする(ターゲットに対して手を振り付ける)場合がある。この例においては、実施するにあたって、ユーザのスイング(手の振り)を検知し、ユーザがターゲットに対してスイングしていると判断し、ユーザがターゲットに対してスイングしたということを示す入力をビデオゲームアプリケーションに与える。そして、ビデオゲームアプリケーションは、ユーザがターゲットに対してスイングしたという入力を受けると、適切な投影画像を生成する。
本実施形態では、ユーザがスイングすると、カメラが投影画像とユーザとを含む連続する画像を撮影することにより、ユーザの動作を検知することができる。また、本実施形態では、ユーザのいない一連の投影画像にアクセスし、各連続画像の動作を決定し、決定された連続画像の動作を比較して、ユーザの動作を分離(以下、「セグメント化」ともいう)する。本実施形態では、ターゲットの位置情報を用いて、ユーザの動作が実際にターゲットに対するスイングであると判断し、その決定情報をビデオゲームアプリケーションに入力する。
照明条件が変化すると投影画像の表示の質が悪くなる場合がある。というのは、人間またはカメラに認識されるためには、投影画像は、周囲の光のレベルに対して十分に明るくなくてはならないからである。そうでなければ、投影画像の見掛け上のコントラストが低くなりすぎて認識できなくなる場合がある。カメラのダイナミックレンジは、人間の目よりも低いことがある。このため、カメラが投影画像を含む画像を撮影するためには、人間に認識されるための明るさよりも投影画像を明るくする必要がある。例えば、投影画像を含む画像をカメラが撮影するためには、投影画像を、(例えば、1日の間に太陽が傾くにつれ)変化する周囲の光のレベル(例えば、太陽光または天井照明)よりも明るくする必要がある。周囲の光のレベルと同じまたはそれよりも明るく画像を投影することは、非実用的および/または高コストである。
しかし、本実施形態では、局所的に照明条件が変化しても、ユーザの動作を検出する能力に大きな影響を与えたり、その能力を大幅に低下させることはない。これは少なくとも、投影画像の動作からユーザの動作を分離することによりユーザの動作を決定するからである。局所的な照明の条件により、投影画像の表示の質が低下したり、投影画像を撮影するカメラの能力を損なう場合がある。しかし、一般的に、局所的に照明条件が変化しても、ユーザが十分な光量を反射するため、ユーザの動作を撮影するカメラの能力に大きな影響を与えることはない。このため、連続する撮影画像が投影画像の動作を含んでいない場合でも、その連続する撮影画像はユーザの動作を含む。
また、本実施形態では、カメラは、連続するフレーム間の照明条件の変化を無視できるようなサンプリングレートで画像を撮影する。一般的に、照明条件は分または時間単位で変化するが、カメラのサンプリングレートは、例えば、毎秒30画像であり得る。このため、本実施形態では、通常、連続するフレームにおいてほぼ同じ照明条件を撮影するため、これらフレーム間の動作決定が、照明の変化と動作とを混同することがない。本実施形態では、局所的に照明条件が変化しても、ユーザの動作を検出する能力に大きな影響を与えることはないため、局所的に照明条件が変化する間でも、ユーザの動作を検知し続けることができる。
図1A〜1Eは、様々なインタラクティブシステム100、120、130、140、150の例を示す。図1Aは、表示スクリーン104上に画像(以下、「表示画像」という)を表示する表示装置(例えば、プロジェクタ102および表示スクリーン104)を含むシステム100を示す。カメラ110は、例えば、毎秒30画像のサンプリングレートで画像を撮影し得る。表示画像は、演算装置106に搭載されているアプリケーション、または外部アプリケーションにより生成され得る。本明細書における説明では、表示画像は「表示される」と記載するが、画像が投影される場合もあることは明白である。また、別の実施形態では、画像を投影する必要がない場合もあることも明白である。例えば、液晶表示スクリーンを用いることができる。
ユーザ108は、表示スクリーン104上の表示画像とインタラクションする。カメラ110は、ユーザ108と、表示スクリーン104上に表示される表示画像の両方を含む画像を撮影する。演算装置106は、カメラ110が撮影した画像を処理し、表示の動作からユーザ108の動作を分離(すなわち、セグメント化)し、ユーザ108の動作を決定する。決定されたユーザ108の動作は、表示画像を生成するアプリケーションへの入力として用いられる。
インタラクティブシステム100の構成要素は、例えば、図1A〜1Eに示す様々なシステムのように、数多くの様々な構成で配置することができる。図1Aを見ると、表示スクリーン104はユーザ108の前に配置され、プロジェクタ102とカメラ110は、ユーザ108の後ろに配置されている。このため、ユーザ108は、プロジェクタ102と表示スクリーン104との間に位置する。このため、ユーザ108が、表示スクリーン104上のプロジェクタ102により投影された表示画像を完全にまたは部分的に妨げてしまうおそれがある。
図1Bを見ると、システム120にあっては、ユーザ108の上にプロジェクタ102が配置され、表示スクリーン104はユーザ108の前に配置され、カメラ110はユーザ108の後ろに配置されている。この構成によると、ユーザ104が表示画像を部分的に妨げることを低減またはなくすことができる。
図1Cを見ると、システム130にあっては、プロジェクタ102とカメラ110がユーザ108の上に配置され、表示スクリーン104がユーザ108の下に配置されている。図1Cに示すように、表示スクリーンは、例えば、床であってもよい。
図1Dを見ると、システム140にあっては、プロジェクタ102とカメラ110がユーザ108の上に配置され、表示スクリーン104がテーブル上面112に配置されている。この構成でも、ユーザ108は、限られた、大抵の場合最小限ではあるが、表示画像を部分的に妨げるおそれがある。
図1Eを見ると、システム150にあっては、プロジェクタ102がテーブル114の内側に配置されている。プロジェクタ102は、表示画像が反射装置116(例えば、鏡)で反射して表示スクリーン104に表示されるように表示画像を投影する。表示スクリーン104はテーブル114の上に配置され、カメラ110はユーザ108の上に配置される。ユーザ108が表示画像を妨げることはない。任意に、演算装置106をテーブル114の内側に配置してもよい。
上記以外の構成も考えられ、様々なバリエーションが可能である。例えば、カメラが、表示スクリーン104の一部と、表示スクリーン104上に表示された表示画像とインタラクションするユーザ108の一部を少なくとも含む画像を撮影できるようにカメラを配置してもよい。
図1A〜図1Eに示すように、表示装置は、プロジェクタ102と表示スクリーン104とを含む。しかし、表示装置はさらに、例えば、プラズマディスプレイ、液晶ディスプレイ(LCD)、陰極線管(CRT)ディスプレイ、またはメガネなし立体ディスプレイを含むこともできる。
図2を見ると、プロセス200を用いて、ユーザ108の動作を決定し、決定されたユーザ108の動作をアプリケーションへの入力として利用することができる。プロセス200は、システム100を含む様々なシステムで実行され得る。説明を明確にするため、システム100を用いた場合についてプロセス200を説明するが、他のシステムを用いることも可能である。また、プロセス200の実施形態を説明するためにシステム100を用いているが、システム100の使用は、プロセス200を限定するものではない。
プロセス200は、第1の撮影画像(202)と第2の撮影画像(204)にアクセスする工程を含む。表示スクリーン104の少なくとも一部と、表示スクリーン104とインタラクションするユーザ108の少なくとも一部の画像を撮影するのに、カメラ110が用いられる。撮影画像は画像バッファに保存され、画像バッファからアクセスされうる。
次に、第1の撮影画像と第2の撮影画像とが比較される(206)。第1の撮影画像と第2の撮影画像との比較結果に基づいて、ユーザ108の動作が決定される(208)。そして、決定されたユーザの動作は、1つ以上の第1および第2の撮影画像の一部分と関連付けられる(210)。以下に、プロセス200の実施形態の実施方法について、図3を参照してさらに詳しく説明する。
図3には、システムのアーキテクチャ300が示されている。説明を明確にするため、システム100を用いた場合についてアーキテクチャ300を説明するが、他のシステムを用いることも可能である。また、アーキテクチャ300の実施形態を説明するためにシステム100を用いているが、システム100の使用は、アーキテクチャ300を限定するものではない。
アーキテクチャ300は、表示画像304を生成し、表示画像304を、演算装置106の表示画像動作検知モジュール306と表示装置310とに与えるアプリケーション302を含む。表示画像304は、動画として表される一以上の対象物(animated objects)を含んでいてもよい。つまり、表示画像304中の対象物の位置が経時的に変化することにより、動画効果(例えば、動作)が生じてもよい。例えば、連続する表示画像304中の対象物の位置のずれにより、表示画像304における動作を決めることができる。表示画像動作検知モジュール306は各表示画像304を比較し、表示画像304における動作を特定する表示画像動作マップ308を作成する。これについては、図4A〜4Eを参照してより詳しく説明する。
一方、表示装置310は、表示画像304を表示(例えば、投影)する。投影された表示画像311は、表示スクリーン104(図示せず)上に表示され、ユーザ108(図示せず)は表示画像304とインタラクションする。本実施形態では、ユーザ108は、動くことにより表示画像304とインタラクションする。例えば、ユーザ108は、表示画像304にある対象物に手を伸ばしたり触ったりできる。
カメラ110は、投影された表示画像311とユーザ108の両者を含む一以上の画像313を撮影する。カメラ110は、これら撮影画像314を、演算装置106の撮影画像動作検知モジュール316に与える。カメラ110は、撮影画像314を、撮影画像動作検知モジュール316に直接与えてもよいし、あるいは、撮影画像314を画像バッファに保存し、撮影画像動作検知モジュール316が画像バッファの撮影画像314にアクセスしてもよい。撮影画像314におけるユーザ108の位置は経時的に変化する。連続する撮影画像314におけるユーザ108の位置のずれにより、例えば、ユーザ108の動作を決めることができる。撮影画像動作検知モジュール316は撮影画像314を比較し、撮影画像314の動作を特定する撮影画像動作マップ318を作成する。これについては、図5A〜5Eを参照してより詳しく説明する。撮影画像314はユーザ108と表示画像304の両方を含むため、撮影画像動作マップ318で特定された動作には、ユーザ108の動作と表示画像304の動作の両方が含まれる。
実施形態によっては、同期モジュール312を用いて、表示画像304の表示をカメラ110の画像撮影と同期させてもよい。表示装置310(例えば、デジタル光処理(DLP)プロジェクタを含む表示装置)の中には、表示画像304の赤色成分、緑色成分および青色成分を連続的に表示するものがある。人間の目は、表示画像304の赤色成分、緑色成分および青色成分の連続表示を検知できないかもしれないが、カメラ110は、赤色成分、緑色成分および青色成分の可変部分を撮影し得る。その結果、連続する撮影画像314内の撮影された表示画像304の赤色成分、緑色成分および青色成分が異なり、撮影画像動作検知モジュール316が、表示装置310が作成する撮影画像314の動作ではなく、表示画像304の動作によらない撮影画像314の動作を検知してしまう可能性がある。このため、各撮影画像314において、赤色成分、緑色成分および青色成分のむらのない部分をカメラ110が確実に撮影するように同期モジュール312を用いてもよい。
実施形態によっては、表示画像動作検知モジュール306と撮影画像動作検知モジュール316は、2つの画像に対して、比較処理、例えば、絶対差分処理を行って動作マップを生成する。グレースケール画像の場合、2つの画像の各画素の値の差の大きさ(例えば、絶対値)を計算することにより動作マップを得る。または、カラー画像の場合、2つの画像の各画素の各カラーチャンネル(例えば、赤、緑、青)の値の差の大きさを合計することにより、動作マップを得る。2つの画像に対して絶対差分処理を行うことにより生成された動作マップは、画像の領域内での動作の存在を特定する。例えば、連続するグレースケール画像のある領域の動作は、動作マップで明るい点として現れる大きな絶対差分を生む。
別の実施形態では、表示画像動作検知モジュール306と撮影画像動作検知モジュール316は、2つの画像に対して、オプティカルフロー処理を行って動作マップを生成する。一般的に、オプティカルフロー・アルゴリズムは、画像内の動作(例えば、画像内で位置が変わった対象物)を認識し、画像で認識された動作の速度(例えば、方向/向きおよび大きさ)を表わすベクトルを作成する。これにより、オプティカルフロー・アルゴリズムは、画像内の動作の存在だけでなく、画像内の動作の方向および大きさも決定する。従って、2つの画像に対してオプティカルフロー処理を行うことにより生成された動作マップは、画像の動作の存在、向きおよび大きさを特定する。
動作検知モジュール306および316はフィルタリング処理を行うこともできる。例えば、2つの画像に対して絶対差分処理を行って生成した動作マップにフィルタリングを用いることができる。実施形態によっては、動作検知モジュール306および316は、平均カーネルフィルタを用いて動作マップをフィルタリングする。平均カーネルフィルタは、動作マップの個々の画素を囲む画素の値を基に、個々の画素の値を決定する。例えば、3×3の平均カーネルフィルタを用いた場合、個々の画素の値に対して、個々の画素および個々の画素に隣接する8つの画素の合計または平均値が付与される。平均カーネルフィルタを用いて動作マップをフィルタリングすることにより、動作の領域の端縁を平滑化することができ、また、動作マップのノイズ(例えば、動作の不要な領域)を低減させることもできる。
これに加えてまたはこれに代えて、動作検知モジュール306および316は、動作マップに対して、拡張フィルタ処理および浸食フィルタ処理を行うことができる。拡張および浸食フィルタ処理はどちらも、個々の画素を囲む画素の値に基づいて、個々の画素の値を決定する。拡張処理では、フィルタ窓を、個々の画素および個々の画素を囲む一組の画素の上を通過させ、個々の画素の値に、フィルタ窓内で最大値を有する画素と同じ値を付与する。浸食処理では、フィルタ窓を、個々の画素および個々の画素を囲む一組の画素の上を通過させ、個々の画素の値に、フィルタ窓内で最小値を有する画素と同じ値を付与する。
動作検知モジュール306および316はまた、動作マップに対して分類処理を行うこともできる。例えば、動作検知モジュール306および316は、動作マップに対して閾値処理を行うことができる。閾値処理では、画素の値が既定値よりも大きい場合、個々の画素に「真」を表わす値を付与し、画素の値が既定値と同じまたはそれよりも小さい場合、「偽」を表わす値を付与する。真の値が付与された画素を、動作を表わす画素として分類し、偽の値が付与された画素を、動作を表わさない画素として分類することができる。反対に、真の値が付与された画素を、動作を表わさない画素として分類し、偽の値が付与された画素を、動作を表わす画素として分類することもできる。
比較モジュール320は、特定の表示画像動作マップ308を、対応する撮影画像動作マップ318と比較することによりユーザ108の動作を決定する。表示画像動作マップ308と撮影画像動作マップ318の両方に現れる動作は表示の動作により、撮影画像動作マップ318のみに現れる動作はユーザ108の動作による。従って、比較モジュール320は、表示画像動作マップ308を撮影画像動作マップ318と比較し、表示の動作からユーザ108の動作を分離(すなわち、セグメント化)することにより、ユーザ108単独による(または、優勢的)動作を特定するユーザ動作マップ322を作成する。
動作検知モジュール306および316が絶対差分処理を行う実施形態では、表示画像動作マップ308と撮影画像動作マップ318の両方において動作を表わす画素は、表示の動作による。従って、このような画素は、ユーザ動作マップ322において動作を表わす画素として分類されない。反対に、撮影画像動作マップ318だけに動作を表わす画素は、ユーザ108の動作によるため、ユーザ動作マップ322において動作を表わす値が付与される。
動作検知モジュール306および316がオプティカルフロー処理を行う実施形態では、表示画像動作マップ308の動作と大きく異なる撮影画像動作マップ318の動作が、ユーザ108の動作により、ユーザ動作マップ322に残される。撮影画像動作マップ318の動作は、表示画像動作マップ308の動作と大きく異なると考えられるのは、例えば、(1)大きさにおける差が、大きさの閾値を超えた場合、または、(2)向き(例えば、方向)における差が、向きの閾値を超えた場合である。このため、このような実施形態においては、表示の動作をも示す領域内であってもユーザ108の動作を検出することができる。
表示の動作からユーザ108の動作を分離するメカニズムは他にもある。例えば、表示画像304を対応する撮影画像314から減じてユーザ画像を生成し、連続するユーザ画像に基づいて、ユーザ動作マップを生成することができる。
決定されたユーザ108の動作(例えば、ユーザ動作マップ322に示されているような動作)は、アプリケーション302への入力として用いられる。例えば、アプリケーション302は、ユーザ動作マップ322を受け取り、ユーザ動作マップ322から、ユーザ108が表示画像304にあるターゲットに対してスイングしていると判断する。ユーザ108がターゲットに対してスイングしたと判断されると、アプリケーション302は、適切な表示画像304を生成し、表示画像動作検知モジュール306と表示装置310に表示画像を与える。
図4A〜図4E、図5A〜図5Eおよび図6A〜図6Bに示す画像を用いて、ユーザ108の動作を決定するのに用いられる画像処理技術を説明することができる。このような画像処理技術は、例えば、図3に示すアーキテクチャ300によって行われ得る。そこで、説明を明確にするため、図3に示すアーキテクチャ300を用いた場合について、図4A〜図4E、図5A〜図5Eおよび図6A〜6Bの画像を説明するが、他のアーキテクチャおよびシステムを用いて同じ画像処理技術を行ってもよい。図4A〜図4E、図5A〜図5Eおよび図6A〜図6Bの画像について説明する際、図3に示すアーキテクチャ300を参照するが、図4A〜図4E、図5A〜図5Eおよび図6A〜図6Bの画像について説明する画像処理技術を行うために用いるアーキテクチャおよびシステムを限定するものではない。
図4A〜図4Eを簡単に説明すると、図4A〜図4Bは、連続する表示画像を示す。図4Cは、図4A〜図4Bの連続する表示画像の合成画像を示す。図4D〜図4Eは、図4A〜図4Bの連続する表示画像の動作を特定する表示動作マップを示す。
図5A〜図5Eを簡単に説明すると、図5A〜図5Bは、連続する撮影画像を示す。図5Cは、図5A〜図5Bの連続する撮影画像の合成画像を示し、図5D〜図5Eは、図5A〜図5Bの連続する撮影画像の動作を特定する撮影画像動作マップを示す。
図6A〜図6Bを簡単に説明すると、図6A〜図6Bは、図4D〜図4Eの表示画像動作マップおよび図5D〜図5Eの撮影画像動作マップに対応するユーザ動作マップを示す。
図4Aは、第1の表示画像304(a)を示し、図5Aは、第1の表示画像304(a)と、表示とインタラクションするユーザ108とを含む、対応する第1の撮影画像314(a)を示す。アプリケーション302は、時点t−1で第1の表示画像304(a)を生成し、第1の表示画像304(a)を表示画像動作検知モジュール306および表示装置310に与える。図4Aに示すように、第1の表示画像304(a)は、ボール402を含む。表示装置310が、第1の表示画像304(a)を表示スクリーン104に表示すると、ユーザ108は表示とインタラクションする。カメラ110は、第1の表示画像304(a)と、表示とインタラクションするユーザ108とを含む第1の撮影画像314(a)を撮影する。このため、第1の撮影画像314(a)は、ユーザ108と、第1の表示画像304(a)のボール402の両方を含む。
図4Bは、第2の表示画像304(b)を示し、図5bは、第2の表示画像304(b)と、表示とインタラクションするユーザ108とを含む、対応する第2の撮影画像314(b)を示す。アプリケーション302は、時点tで第2の表示画像304(b)を生成し、第2の表示画像304(b)を表示画像動作検知モジュール306および表示装置310に与える。図4Bに示すように、第2の表示画像304(b)は、第1の表示画像304(a)と同じボール402を含む。しかし、第2の表示画像304(b)のボール402の位置は、第1の表示画像304(a)のボール402の位置よりも左側にある。図4Cは、第1の表示画像304(a)と第2の表示画像304(b)とのボール402の位置が異なっていることを示すための、第1の表示画像304(a)と第2の表示画像304(b)の合成画像403である。図4Cの合成画像403は、アーキテクチャ300やアーキテクチャ300の構成要素により生成されるのではなく、第1の表示画像304(a)と第2の表示画像304(b)とのボール402の位置が異なることを示すためのものである。破線の円402(a)は、第1の表示画像304(a)におけるボール402の位置を表わし、破線の円402(b)は、第2の表示画像304(b)におけるボール402の位置を表わす。
表示装置310が、第2の表示画像304(b)を表示スクリーン104に表示すると、ユーザ108は表示とインタラクションする。カメラ110は、第2の表示画像304(b)と、表示とインタラクションするユーザ108とを含む第2の撮影画像314(b)を撮影する。このため、第2の撮影画像314(b)は、ユーザ108と第2の表示画像304(b)のボール402の両方を含む。図5Bに示すように、第2の撮影画像314(b)において、ユーザ108は、第1の撮影画像314(a)のユーザ108の位置よりも右側に位置し、第2の撮影画像314(b)のボール402の位置は、第1の撮影画像314(a)のボール402の位置よりも左側にある。図5Cは、第1の撮影画像314(a)と第2の撮影画像314(b)とのボール402の位置が異なっていることを示すための、第1の撮影画像314(a)と第2の撮影画像314(b)の合成画像501である。図5Cの合成画像501は、アーキテクチャ300やアーキテクチャ300の構成要素により生成されるのではなく、第1の撮影画像314(a)と第2の撮影画像314(b)とのボール402の位置が異なることを示すためのものである。破線で示したユーザ108(a)は、第1の撮影画像314(a)のユーザ108の位置を表わし、破線で示したユーザ108(b)は、第2の撮影画像314(b)のユーザ108の位置を表わす。破線の円402(c)は、第1の撮影画像314(a)のボール402の位置を表わし、破線の円402(d)は、第2の撮影画像314(b)のボール402の位置を表わす。
第2の表示画像304(b)と第1の表示画像304(a)とのずれにより、表示に動き(動作)が現れる。第1の表示画像304(a)のボール402の位置と、第2の表示画像304(b)のボール402の位置とのずれは、時点t−1から時点tまでのボールの動作を表わす。より一般的には、第1の表示画像304(a)と第2の表示画像304(b)とのずれは、時点t−1から時点tまでの表示の動作を表わす。
第1の表示画像304(a)および第2の表示画像304(b)は、表示画像動作検知モジュール306に与えられ、表示画像304(a)と304(b)の動作が決定される。表示画像動作検知モジュール306は、第1の表示画像304(a)を第2の表示画像304(b)と比較し、2つの画像304(a)と304(b)内の動作を特定する表示画像動作マップ308を作成する。図4Dは、第1の表示画像304(a)と第2の表示画像304(b)に対して絶対差分処理を行うことにより生成した表示画像動作マップ308(a)の一例を示す。図4Dに示すように、第1の表示画像304(a)と第2の表示画像304(b)に対して絶対差分処理を行うことにより生成した表示画像動作マップ308(a)は、表示画像304(a)と304(b)の領域内の動作404の存在を特定する。
図4Eは、第1の表示画像304(a)と第2の表示画像304(b)に対してオプティカルフロー処理を行うことにより生成した表示画像動作マップ308(b)の一例を示す。図4Eに示すように、第1の表示画像304(a)と第2の表示画像304(b)に対してオプティカルフロー処理を行うことにより生成した表示画像動作マップ308(b)は、表示画像304(a)と304(b)内の動作の存在、方向および大きさを特定するためにベクトル406を用いる。
上で説明したように、第2の撮影画像314(b)のユーザ108の位置は、第1の撮影画像314(a)のユーザ108の位置よりも右側に位置する。ユーザ108の位置のずれは、表示とインタラクションするユーザの動作により得る。例えば、バレーボールのシミュレーション(例えば、バーチャル)ゲームをしている場合のように、ユーザ108が、ボール402を打とうとボール402に近づく場合、第1の撮影画像314(a)のユーザ108の位置と第2の撮影画像314(b)のユーザの位置とのずれは、時点t−1から時点tまでのユーザ108の動作を表わす。
第1の撮影画像314(a)および第2の撮影画像314(b)は、撮影画像検知モジュール316に与えられる。撮影画像動作検知モジュール316は、第1の撮影画像314(a)を第2の撮影画像314(b)と比較し、2つの画像314(a)および314(b)内の動作を特定する撮影画像動作マップ318を作成する。図5Dは、第1の撮影画像314(a)と第2の撮影画像314(b)に対して絶対差分処理を行うことにより生成した撮影画像動作マップ318(a)の一例を示す。図5Dに示すように、撮影画像動作マップ318(a)は、ユーザ500による動作に加えて、表示502の動作も特定する。図5Eは、第1の撮影画像314(a)と第2の撮影画像314(b)に対してオプティカルフロー処理を行うことにより生成した表示画像動作マップ318(b)の一例を示す。図5Eに示すように、撮影画像動作マップ318(b)は、ユーザ504による動作およびディスプレイ506の動作を特定するためにベクトルを用いる。撮影画像動作マップ318(b)を生成するのに用いるオプティカルフロー・アルゴリズムは、第1の撮影画像314(a)および第2の撮影画像314(b)に共通の対象物(例えば、ユーザ108とボール402)を認識し、第1の撮影画像314(a)と第2の撮影画像314(b)に共通の対象物の位置を比較して、画像314(a)および314(b)の動作を特定するベクトルを生成し得る。
比較モジュール320は、表示画像動作マップ308を撮影画像動作マップ318と比較することにより、ユーザ動作マップ322を生成する。図6Aは、表示画像動作マップ308(a)と撮影画像動作マップ318(a)に対応するユーザ動作マップ322(a)の一例を示す。図6Aに示すように、ユーザ動作マップ322(a)は、ユーザ500単独による(または、優勢的)動作を特定する。図6Bは、表示動作マップ308(b)と撮影画像動作マップ318(b)に対応するユーザ動作マップ322(b)の一例を示す。図6Bに示すように、ユーザ動作マップ322(b)は、ユーザ504単独による(または、優勢的)動作を特定する。
図7において、システムのアーキテクチャ700が示されている。以下に記載する違いを除いて、アーキテクチャ700は、図3を参照して説明したアーキテクチャ300と実質的に同じである。
実施形態によっては、例えば、カメラ110が表示スクリーン104に対向して回転し、プロジェクタ102とカメラ110が互いにオフアクシス(例えば、図1Aに示すように、カメラ110がプロジェクタ102の上に位置するため、プロジェクタ102とカメラ110は同一軸を有しない)となる場合、または、撮影画像動作マップ318を生成するのに用いる撮影画像314の解像度が、表示画像動作マップ308を生成するのに用いる表示画像304の解像度と異なる場合、撮影画像動作マップ318の物体の位置と、表示画像動作マップ308の対応する物体の位置との間に、ずれが発生することがある。従って、実施形態によっては、演算装置106は、変換撮影画像動作マップ704の物体が、表示画像動作マップ308の対応する物体と合致するよう撮影画像動作マップ318のデータを変換撮影画像動作マップ704に変換(例えば、歪曲、回転、倍率変更、移動)するための幾何学的変換モジュール702を含む。このため、幾何学的変換処理により、逆さに設置されたカメラ110や、プロジェクタ102からオフアクシスで設置されたカメラ110や、表示スクリーン104に表示画像を反射する鏡116に投影される表示画像を補償することができる。幾何学的変換処理には、例えば、画素の移動や再配置、撮影画像動作マップ318のサイズ変更、動作値の補間、および/または動作値の補外が含まれ得る。
表示画像と表示画像を含む撮影画像の座標間の幾何学的マッピングを決定するのに較正法を用いることができる。また、幾何学的マッピングを用いて、撮影画像動作マップ318の物体を表示画像動作マップ308の対応する物体と合致させるのに必要な幾何学的変換処理を決定することができる。
較正法は、表示スクリーン104上に、既知のパターン、例えば、ドット格子または碁盤目を表示することを含み得る。カメラ110はパターンを含む画像を撮影し、撮影画像内のパターンの位置を計算する。そして、表示画像内の対応する要素の位置に対する撮影画像内のパターンの要素の位置を用いて、撮影画像の画素ごとに撮影画像と表示画像の座標間の幾何学的マッピングを定義することができる。
これに加えてまたはこれに代えて、較正法には、パターンを表示する前にブランク画像を短時間表示することや、パターンの位置を表示することが含まれていてもよい。撮影画像動作検知モジュール316は、撮影画像の変化(例えば、動作)を検知することによりパターンを検知することができる。
上述したように、幾何学的変換モジュール702は、撮影画像動作マップ318に対して幾何学的変換処理を行う。しかし、別の実施形態では、幾何学的変換モジュール702は、撮影画像314が撮影画像動作検知モジュール316に与えられる前に、撮影画像314に対して幾何学的変換処理を行う。
表示画像304をアプリケーション302から表示装置310に伝送し、表示画像を表示し、カメラ110で画像を撮影し、撮影画像314を処理するプロセスは、通常、待ち時間(すなわち、遅延)をもたらす。その結果、カメラが時点tで撮影する画像には、その少し前に生成された表示画像が含まれる。このため、実施形態によっては、演算装置106は、確実に、比較モジュール320が、同じ時間の対応する待ち時間補償された表示画像動作マップ708と変換撮影画像動作マップ704とを比較するよう、待ち時間補償処理を行う待ち時間補償モジュール706を含む。
実施形態によっては、待ち時間補償モジュール706は、待ち時間補償された表示画像動作マップ708を比較モジュール320に与える前に、表示画像動作マップ308を待ち時間と同じ時間バッファに保存する。その結果、待ち時間補償された表示画像動作マップ708は、対応する変換撮影画像動作マップ704とほぼ同じ時間に比較モジュール320に到達する。別の実施形態では、待ち時間補償モジュール706は、表示画像304を表示画像動作検知モジュール306に与える前に、表示画像304を待ち時間と同じ時間バッファに保存する。
これに加えてまたはこれに代えて、表示装置310のフレームレートとカメラ110のサンプリングレートとのずれを補償するのに待ち時間補償モジュール706を用いることができる。例えば、表示装置310のフレームレートが、カメラ110のサンプリングレート(例えば、露出時間)よりも大きいことがある。従って、1枚の撮影画像314が複数の表示画像304の露光を含むことがある。このような表示装置310のフレームレートとカメラ110のサンプリングレートとのずれを補償するため、待ち時間補償モジュール706は、複数の連続する表示画像動作マップ308を1つの待ち時間補償された表示画像動作マップ708に合成することができる。1つの待ち時間補償された表示画像動作マップ708に合成される表示動作マップ308の数は、カメラ110の1つのサンプリング時間(例えば、露出)の間に表示される表示画像の数と一致するように選択される。
絶対差分処理を用いて生成される表示画像動作マップ308は、論理関数「OR」処理を用いて合成してもよい。すなわち、待ち時間補償された表示画像動作マップ708を生成するのに合成された複数の表示画像動作マップ308のうちいずれかの対応する画素が動作を表わすと定義された場合、待ち時間補償された表示画像動作マップ708の画素は、動作を表わす画素として定義される。
あるいは、オプティカルフロー処理を用いて生成される表示画像動作マップ308は、待ち時間補償された表示画像動作マップ708の各画素に対して、各画素の動作の範囲が、待ち時間補償された表示画像動作マップ708を生成するために合成した複数の表示画像動作マップ308の対応する画素の動作を含むように動作の範囲を付与することにより合成してもよい。
較正法を用いて、表示画像が表示装置310に伝送される時間からカメラ110が対応する画像を撮影する時間までの待ち時間を決定することができる。較正法は、一定時間ブランク表示画像を表示し、その後、パターンを含む表示画像を表示することを含み得る。パターンを含む表示画像が表示装置310に伝送される時間を記録し、対応する撮影画像においてパターンが検出される時間と比較して、待ち時間を決定する。
実施形態によっては、アプリケーション302は、演算装置106に直接、表示画像動作マップ308を与える。このような実施形態では、表示画像動作検知モジュール306は必要ない。さらに、図3および図7において、アプリケーション302は演算装置106の外に格納されているが、実施形態によっては、アプリケーション302は演算装置106に搭載されて動作する。これらの実施形態が明らかにするように、本明細書に記載の機能は様々なモジュールおよび装置で実行することができる。従って、機能が1つの装置から別の装置に移る場合、装置間のインターフェイスは変化し得る。
実施形態によっては、ユーザ動作マップ322が生成されると、入力として、表示画像304を生成するアプリケーション302に与える。アプリケーション302は、ユーザ動作マップ322を用いてユーザ108のインタラクションを検出する。
例えば、アプリケーション322は、1つ以上の連続するフレームにわたって、表示画像304の対象物の既知の位置に対応する領域において、ユーザ108の動作を検出すると、ユーザ108が対象物に「触っている」と判断する。例えば、ユーザ108はボタンを「触る」ことにより、(例えば、ボタンを「オン」または「オフ」にする)ボタンを選択することが出来得る。但し、ユーザ108が表示画像304の対象物を「触っている」とアプリケーション302が決定するために、ユーザ108がディスプレイ表面104に物理的に触る必要はない。ユーザ108が表示スクリーン104に物理的に触る場合もあるが、表示スクリーン104に表示されている対象物の上や近くで、ユーザ108の体の一部を上下または左右に動かすと、ユーザ108が表示画像304の対象物を「触っている」とアプリケーション302が決定することもある。
さらに、アプリケーション302は、ユーザ108の動作を含むと分類される領域部分を決定することにより、表示画像304の対象物に対応する領域のユーザ108の動作の量を決定することができる。これにより、アプリケーション302は、ユーザ108の異なる動作(例えば、微妙な動作と意図的動作)を見分け、ユーザ108の異なる動作を用いて対象物の位置および/または挙動を制御することができる。また、当然のことながら、表示画像の対象領域近くで起こらないユーザの動作は無視される。
あるいは、アプリケーション302がオプティカルフローユーザ動作マップ322を受け取ると、アプリケーション302は、ある領域の動作ベクトルの大きさの平均値または最大値に基づいて、その領域での動作の量を決定することができる。従って、アプリケーション322は、ユーザ108の動作の速さを用いて、対象物の位置および/または挙動を制御することができる。例えば、ユーザ108が触る前に対象物が速度を有する場合、ユーザ108が対象物に触ると、アプリケーション302は、得られる対象物の速度が、対象物の最初の速度とユーザ108が対象物に与えた速度の組み合わせを反映するよう、対象物の速度を変えることができる。
また、アプリケーション302は、ユーザ108が動くことにより、表示画像304の対象物の外観を変えることもできる。例えば、ユーザが表示スクリーン104を「拭く」ことにより、アプリケーションは、元の対象物の代わりに新しい対象物を表示することができる。
実施形態においては、他の様々な方法でユーザの動作を決定することができる。例えば、動作を決定する前に表示画像304を撮影画像314から「減じる」ことができる。同様に、別の実施形態では、上述した機能が行われる順番を変更してもよい。
演算装置106は、コンピュータまたは別のタイプの演算装置であってもよい。例えば、演算装置106は、マイクロソフトウィンドウズオペレーティングシステムを実行するパーソナルコンピュータ(PC)であり得る。これに加えてまたはこれに代えて、演算装置106は、デジタル信号処理(DSP)チップおよび/またはプログラム可能なピクセルシェーダを有するビデオグラフィックカードを含んでいてもよい。さらに、演算装置106は単体であってもよく、表示装置310に内蔵されてもよい。演算装置106を表示装置310に内蔵することにより、表示画像の伝送、表示、キャプチャリングおよび処理をする際に通常生じる遅延を低減することができる。
アプリケーション302が演算装置106に搭載されている場合、アプリケーションは、アクティブX方式のマクロメディア・フラッシュを用いてもよい。演算装置106は、ウィンドウズ・デバイス・コンテキストを表示画像バッファと関連付けることができる。演算装置106が、デバイス・コンテキストをマクロメディア・フラッシュ・アクティブXオブジェクトに与えることにより、マクロメディア・フラッシュは画像を表示画像バッファに格納することができる。
または、アプリケーション302は、演算装置106の外に格納されていてもよい。アプリケーション302が演算装置106の外部にある場合、ビデオ信号(例えば、ビデオ・グラフィックス・アレイ(VGA)信号)を、表示装置310とビデオ・キャプチャ・デバイス(例えば、VGAフレームグラバ)の両方に伝送することができる。ビデオ・キャプチャ・デバイスは、表示画像の表示を生成し、表示画像バッファに表示画像の表示を保存してもよい。
実施形態では、1つ以上のプロセスを行うように構成された装置が1つ以上含まれていてもよい。装置は、例えば、個別のまたは集積されたハードウェア、ファームウェアおよびソフトウェアを含んでいてもよい。装置は、例えば、マイクロプロセッサ、集積回路またはプログラム可能な論理素子を含む、例えば、一般的に処理装置と呼ばれるプロセッサを含んでいてもよい。
また、装置は、1つ以上のプロセスを実行する指示を有するコンピュータ読取可能な媒体を1つ以上含んでいてもよい。コンピュータ読取可能な媒体には、例えば、ハードディスク、コンパクトディスク、ランダム・アクセス・メモリ(RAM)および読み出し専用メモリ(ROM)などの、例えば、記憶装置が含まれ得る。また、コンピュータ読取可能な媒体は、例えば、指示を符号化または伝送するフォーマットされた電磁波を含んでいてもよい。指示は、例えば、ハードウェア、ファームウェアおよび電磁波に含まれていてもよい。指示は、例えば、オペレーティングシステム、別のアプリケーション、またはこれら2つの組み合わせに含まれていてもよい。このため、プロセッサは、例えば、プロセスを実行するよう構成された装置と、プロセスを実行する指示を有するコンピュータ読取可能な媒体を含む装置の両方を含む点に特徴を有し得る。
多数の実施形態について説明したが、様々な変更が可能であることは言うまでもない。例えば、異なる実施形態の要素を組み合わせたり、補充、変更または外すことにより別の実施形態を作製してもよい。従って、別の実施形態も添付の特許請求の範囲に含まれる。
第1のインタラクティブシステムを示す。 第2のインタラクティブシステムを示す。 第3のインタラクティブシステムを示す。 第4のインタラクティブシステムを示す。 第5のインタラクティブシステムを示す。 ユーザの動作を決定し、決定された動作をアプリケーションに入力するプロセスの一例を示すフローチャートである。 インタラクティブシステムのアーキテクチャのブロック図である。 第1の表示画像を示す。 第2の表示画像を示す。 図4A〜図4Bの第1および第2の表示画像の合成画像を示す。 図4A〜図4Bの第1および第2の表示画像に対応する第1の表示画像動作マップを示す。 図4A〜図4Bの第1および第2の表示画像に対応する第2の表示画像動作マップを示す。 第1の撮影画像を示す。 第2の撮影画像を示す。 図5A〜図5Bの第1および第2の撮影画像の合成画像を示す。 図5A〜図5Bの第1および第2の撮影画像に対応する第1の撮影画像動作マップを示す。 図5A〜図5Bの撮影画像に対応する第2の撮影画像動作マップを示す。 第1のユーザ動作マップを示す。 第2のユーザ動作マップを示す。 インタラクティブシステムの別のアーキテクチャのブロック図である。

Claims (18)

  1. (1)演算装置により実行される一連の指示により第1の時点で生成される第1の表示と(2)前記第1の表示の一部ではなく、前記第1の表示とインタラクションするユーザとを含む第1の撮影画像にアクセスする工程と、
    (1)前記演算装置により実行される一連の指示により第2の時点で生成される第2の表示と(2)前記第2の表示の一部ではなく、前記第2の表示とインタラクションする前記ユーザとを含む第2の撮影画像にアクセスする工程と、
    前記第1の撮影画像と前記第2の撮影画像とを比較する工程と、
    前記第1の撮影画像と前記第2の撮影画像との比較結果に基づいて前記ユーザの動作を決定する工程と、
    前記決定されたユーザの動作を1つ以上の前記第1および第2の撮影画像の一部分と関連付ける工程とを含む方法。
  2. 前記決定されたユーザの動作に関する指標(indication)および前記一部分を前記演算装置に与える工程をさらに含むことを特徴とする請求項1に記載の方法。
  3. 前記決定された動作および前記一部分に基づいて、一連の指示に対する入力を決定する工程をさらに含むことを特徴とする請求項1に記載の方法。
  4. 第1の撮影画像と第2の撮影画像との比較工程は、前記第1の撮影画像および前記第2の撮影画像に対して絶対差分処理を行うことを含むことを特徴とする請求項1に記載の方法。
  5. 第1の撮影画像と第2の撮影画像との比較工程は、前記第1の撮影画像および前記第2の撮影画像に対してオプティカルフロー処理を行うことを含むことを特徴とする請求項1に記載の方法。
  6. 第1の撮影画像と第2の撮影画像との比較工程は、結果を得ることを含み、前記結果は、前記ユーザの動作と、前記第1および第2の表示に含まれる1つ以上の対象物に関する動作とを示す画像であることを特徴とする請求項1に記載の方法。
  7. 前記結果に対して幾何学的変換処理を行う工程をさらに含むこと特徴とする請求項6に記載の方法。
  8. 前記第1の撮影画像および前記第2の撮影画像の比較結果に基づいてユーザの動作を決定する工程が、前記結果において、前記第1および第2の表示に含まれる1つ以上の対象物に関する動作から前記ユーザの動作を分離することを含むことを特徴とする請求項6に記載の方法。
  9. 前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を示す画像にアクセスする工程をさらに含み、
    前記結果において、前記第1および第2の表示に含まれる1つ以上の対象物に関する動作から前記ユーザの動作を分離する工程が、前記結果と、前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を示す画像とを比較することを含むことを特徴とする請求項8に記載の方法。
  10. 前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を示す画像にアクセスする工程が、
    前記第1の表示に対応する第1の表示画像にアクセスする工程と、
    前記第2の表示に対応する第2の表示画像にアクセスする工程と、
    前記第1の表示画像および前記第2の表示画像に対して絶対差分処理を行うことにより、前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を示す前記画像を生成する工程とを含むことを特徴とする請求項9に記載の方法。
  11. 前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を示す画像にアクセスする工程が、
    前記第1の表示に対応する第1の表示画像にアクセスする工程と、
    前記第2の表示に対応する第2の表示画像にアクセスする工程と、
    前記第1の表示画像および前記第2の表示画像に対してオプティカルフロー処理を行うことにより、前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を示す前記画像を生成する工程とを含むことを特徴とする請求項9に記載の方法。
  12. 前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を示す画像に対して、待ち時間補償処理を行う工程をさらに含むことを特徴とする請求項9に記載の方法。
  13. (1)演算装置により実行される一連の指示により第1の時点で生成される第1の表示と(2)前記第1の表示の一部ではなく、前記第1の表示とインタラクションするユーザとを含む第1の撮影画像にアクセスし、
    (1)前記演算装置により実行される一連の指示により第2の時点で生成される第2の表示と(2)前記第2の表示の一部ではなく、前記第2の表示とインタラクションする前記ユーザとを含む第2の撮影画像にアクセスし、
    前記第1の撮影画像と前記第2の撮影画像とを比較することにより前記第1および第2の撮影画像間の動作を表わす画像を生成する
    よう構成された撮影画像動作検知モジュールと、
    前記第1および第2の表示に含まれる1つ以上の対象物に関する動作を表わす画像と、前記第1および第2の撮影画像間の動作を表わす前記画像との比較結果に基づいて、前記ユーザの動作を表わす画像を生成するよう構成された比較モジュールとを含むことを特徴とするシステム。
  14. 前記第1の表示画像にアクセスし、
    前記第2の表示画像にアクセスし、
    前記第1の表示画像を前記第2の表示画像と比較することにより、前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を表わす前記画像を生成する
    よう構成された表示画像動作検知モジュールをさらに含むことを特徴とする請求項13に記載のシステム。
  15. (1)前記第1の撮影画像を撮影し、前記第1の撮影画像を前記撮影画像動作検知モジュールに与え、(2)前記第2の撮影画像を撮影し、前記第2の撮影画像を前記撮影画像動作検知モジュールに与えるよう構成されたカメラと、
    画像を表示するためのディスプレイと、
    一連の指示を実行して前記第1および前記第2の表示画像を生成するよう構成された演算装置と
    をさらに含むことを特徴とする請求項14に記載のシステム。
  16. 前記第1および前記第2の表示に含まれる1つ以上の対象物に関する動作を表わす画像に対して、待ち時間補償処理を行うよう構成された待ち時間補償モジュールをさらに含むことを特徴とする請求項14に記載のシステム。
  17. 前記第1および前記第2の撮影画像間の動作を表わす前記画像に対して、幾何学的変換処理を行うよう構成された幾何学的変換モジュールをさらに含むことを特徴とする請求項13に記載のシステム。
  18. 処理装置により実行された場合、少なくとも
    (1)演算装置により実行される一連の指示により第1の時点で生成される第1の表示と(2)前記第1の表示の一部ではなく、前記第1の表示とインタラクションするユーザとを含む第1の撮影画像にアクセスする指示と、
    (1)前記演算装置により実行される一連の指示により第2の時点で生成される第2の表示と(2)前記第2の表示の一部ではなく、前記第2の表示とインタラクションする前記ユーザとを含む第2の撮影画像にアクセスする指示と、
    前記第1の撮影画像と前記第2の撮影画像とを比較する指示と、
    前記第1の撮影画像と前記第2の撮影画像との比較結果に基づいてユーザの動作を決定する指示と、
    前記決定されたユーザの動作を、1つ以上の前記第1および第2の撮影画像の一部分と関連付ける指示と
    を含むコンピュータ読取可能な媒体を具備することを特徴とする装置。
JP2007552319A 2005-01-21 2006-01-23 動作に基づくトラッキング Expired - Fee Related JP4689684B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US64507405P 2005-01-21 2005-01-21
US60/645,074 2005-01-21
PCT/US2006/002200 WO2006078996A2 (en) 2005-01-21 2006-01-23 Motion-based tracking

Publications (3)

Publication Number Publication Date
JP2008529135A true JP2008529135A (ja) 2008-07-31
JP2008529135A5 JP2008529135A5 (ja) 2009-03-05
JP4689684B2 JP4689684B2 (ja) 2011-05-25

Family

ID=36692969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007552319A Expired - Fee Related JP4689684B2 (ja) 2005-01-21 2006-01-23 動作に基づくトラッキング

Country Status (6)

Country Link
US (2) US8144118B2 (ja)
EP (2) EP1851749B1 (ja)
JP (1) JP4689684B2 (ja)
CN (1) CN101147188B (ja)
AT (1) ATE551675T1 (ja)
WO (1) WO2006078996A2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165106A (ja) * 2007-12-17 2009-07-23 Nvidia Corp 画像の歪み補正
JP2012215963A (ja) * 2011-03-31 2012-11-08 Hitachi Consumer Electronics Co Ltd 映像表示装置
WO2013137412A1 (ja) * 2012-03-15 2013-09-19 オムロン株式会社 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体
JP2014059803A (ja) * 2012-09-19 2014-04-03 Alps Electric Co Ltd 入力装置
US8818027B2 (en) 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
JP2015200960A (ja) * 2014-04-04 2015-11-12 株式会社リコー 情報システム、情報処理方法、及びプログラム

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8144118B2 (en) 2005-01-21 2012-03-27 Qualcomm Incorporated Motion-based tracking
ES2569411T3 (es) 2006-05-19 2016-05-10 The Queen's Medical Center Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia
GB2438449C (en) 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
JP2010515170A (ja) 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド 機能強化したインタラクティブシステムを用いた仮想オブジェクトの操作
WO2008137708A1 (en) * 2007-05-04 2008-11-13 Gesturetek, Inc. Camera-based user input for compact devices
US20120044141A1 (en) * 2008-05-23 2012-02-23 Hiromu Ueshima Input system, input method, computer program, and recording medium
CN101650520A (zh) * 2008-08-15 2010-02-17 索尼爱立信移动通讯有限公司 移动电话的可视激光触摸板和方法
GB2466497B (en) 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
US20100182334A1 (en) * 2009-01-22 2010-07-22 Global Graphics Software Limited Method and system for improved display of sampled data differences
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
JP5347673B2 (ja) * 2009-04-14 2013-11-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5318646B2 (ja) * 2009-04-17 2013-10-16 ルネサスエレクトロニクス株式会社 差分画像生成装置、差分画像生成方法、及びプログラム
US8727875B2 (en) * 2009-07-27 2014-05-20 Obscura Digital, Inc. Automated enhancements for billiards and the like
US8992315B2 (en) * 2009-07-27 2015-03-31 Obscura Digital, Inc. Automated enhancements for billiards and the like
GB0920754D0 (en) * 2009-11-27 2010-01-13 Compurants Ltd Inamo big book 1
CN102129151A (zh) * 2010-01-20 2011-07-20 鸿富锦精密工业(深圳)有限公司 前投影控制系统及方法
US20110199302A1 (en) * 2010-02-16 2011-08-18 Microsoft Corporation Capturing screen objects using a collision volume
JP2011203823A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
US9262015B2 (en) 2010-06-28 2016-02-16 Intel Corporation System for portable tangible interaction
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
JP2012064201A (ja) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd 入出力装置及び入出力装置の駆動方法
KR101714050B1 (ko) * 2010-11-01 2017-03-08 삼성전자주식회사 휴대단말기의 데이터 표시장치 및 방법
FR2967804B1 (fr) * 2010-11-19 2013-01-04 Total Immersion Procede et dispositif de detection et de suivi d'objets non rigides en mouvement, en temps reel, dans un flux video, permettant a un utilisateur d'interagir avec un systeme informatique
US20120169586A1 (en) * 2011-01-03 2012-07-05 Carrier Corporation Virtual interface
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
WO2012094349A2 (en) 2011-01-05 2012-07-12 Orbotix, Inc. Self-propelled device with actively engaged drive system
US9429940B2 (en) 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
JP5799627B2 (ja) * 2011-07-15 2015-10-28 セイコーエプソン株式会社 位置検出装置、位置検出システムおよび入力機能付き表示システム
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
GB2496429B (en) * 2011-11-11 2018-02-21 Sony Corp A method and apparatus and program
WO2013090554A1 (en) * 2011-12-15 2013-06-20 Jintronix, Inc. Method and system for evaluating a patient during a rehabilitation exercise
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
CN104428791A (zh) 2012-05-14 2015-03-18 澳宝提克斯公司 通过检测图像中的圆形物体操作计算装置
US9292758B2 (en) 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US20140003674A1 (en) * 2012-06-27 2014-01-02 Christopher D. Coley Skin-Based User Recognition
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US9197870B1 (en) * 2012-09-12 2015-11-24 Amazon Technologies, Inc. Automatic projection focusing
CN104871127B (zh) * 2012-12-21 2018-04-10 巴科股份有限公司 显示器间的差分等待时间的自动化测量
US20150331491A1 (en) * 2012-12-27 2015-11-19 Thomas Licensing System and method for gesture based touchscreen control of displays
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
US8977060B2 (en) * 2013-05-16 2015-03-10 Microsoft Technology Licensing, Llc Motion stabilization and detection of articulated objects
DE102013211904A1 (de) * 2013-06-24 2014-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von Gesten im Strahlbereich eines Projektors
US9011246B1 (en) * 2013-11-18 2015-04-21 Scott Kier Systems and methods for immersive backgrounds
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9616350B2 (en) * 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US9547370B2 (en) * 2014-05-27 2017-01-17 Fuji Xerox Co., Ltd. Systems and methods for enabling fine-grained user interactions for projector-camera or display-camera systems
US9330306B2 (en) * 2014-06-11 2016-05-03 Panasonic Intellectual Property Management Co., Ltd. 3D gesture stabilization for robust input control in mobile environments
JP6335695B2 (ja) * 2014-07-09 2018-05-30 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
PT107791A (pt) * 2014-07-21 2016-01-21 Ricardo José Carrondo Paulino Sistema integrado de divulgação multimeios com capacidade de interação em tempo real por comando natural e capacidade de acionamento e controlo de motores e atuadores elétricos e eletrónicos
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN106034029A (zh) 2015-03-20 2016-10-19 阿里巴巴集团控股有限公司 基于图片验证码的验证方法和装置
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
EP3391638A4 (en) * 2015-12-16 2019-08-14 Martineau, Pierre R. METHOD AND DEVICE FOR REMANENT IMAGE CONTROL
US10181195B2 (en) * 2015-12-28 2019-01-15 Facebook, Inc. Systems and methods for determining optical flow
JP2017169086A (ja) * 2016-03-17 2017-09-21 セイコーエプソン株式会社 表示装置、表示装置の制御方法及びプログラム
US10401145B2 (en) 2016-06-13 2019-09-03 Carl Zeiss Industrielle Messtechnik Gmbh Method for calibrating an optical arrangement
CN111249691B (zh) * 2018-11-30 2021-11-23 百度在线网络技术(北京)有限公司 一种基于形体识别的运动员训练方法和系统
DE102019119138B4 (de) * 2019-07-15 2022-01-20 Deutsche Post Ag Bestimmen einer Verteil- und/oder Sortierinformation zum automatisierten Verteilen und/oder Sortieren einer Sendung
US10976818B2 (en) 2019-08-21 2021-04-13 Universal City Studios Llc Interactive attraction system and method for object and user association
GB2610018B (en) * 2021-06-04 2023-09-13 Canon Kk Information processing apparatus that notifies subject blur, image capturing apparatus, information processing method, and control method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
US6072469A (en) * 1996-06-20 2000-06-06 Chen; Mei-Yun Cursor positioning device for computer system
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2003116126A (ja) * 2001-10-03 2003-04-18 Sony Corp 信号処理方法と信号処理装置及び信号処理プログラム
US20030117611A1 (en) * 2001-12-24 2003-06-26 Jae Choon Chon Apparatus for calculating optical flow and camera motion using correlation matching and system model in moving image
US20040102247A1 (en) * 2002-11-05 2004-05-27 Smoot Lanny Starkes Video actuated interactive environment
US20040193413A1 (en) * 2003-03-25 2004-09-30 Wilson Andrew D. Architecture for controlling a computer using hand gestures
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
JP2006040271A (ja) * 2004-06-28 2006-02-09 Microsoft Corp ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用
US20060044289A1 (en) * 2004-06-21 2006-03-02 Microsoft Corporation System and method for reducing latency in display of computer-generated graphics

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
USRE38420E1 (en) 1992-08-12 2004-02-10 British Broadcasting Corporation Derivation of studio camera position and motion from the camera image
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US6008800A (en) 1992-09-18 1999-12-28 Pryor; Timothy R. Man machine interfaces for entering data into a computer
US5435554A (en) 1993-03-08 1995-07-25 Atari Games Corporation Baseball simulation system
US5436639A (en) * 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
JP3727954B2 (ja) 1993-11-10 2005-12-21 キヤノン株式会社 撮像装置
DE4415167A1 (de) 1994-04-29 1995-11-02 Siemens Ag Telekommunikationsanordnung zum Übertragen von Bildern
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
US5710833A (en) 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
EP0823683B1 (en) * 1995-04-28 2005-07-06 Matsushita Electric Industrial Co., Ltd. Interface device
US5852672A (en) 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US6127990A (en) 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US5986675A (en) 1996-05-24 1999-11-16 Microsoft Corporation System and method for animating an object in three-dimensional space using a two-dimensional input device
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6072496A (en) 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6377700B1 (en) 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
US6628819B1 (en) 1998-10-09 2003-09-30 Ricoh Company, Ltd. Estimation of 3-dimensional shape from image sequence
US6201554B1 (en) 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
US6791531B1 (en) 1999-06-07 2004-09-14 Dot On, Inc. Device and method for cursor motion control calibration and object selection
US6275214B1 (en) 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
EP1239312A4 (en) * 1999-09-27 2005-09-21 Sumitomo Electric Industries OPTICAL FIBER WITH DISTRIBUTION MANAGEMENT, METHOD FOR MANUFACTURING THE SAME, OPTICAL COMMUNICATION SYSTEM USE AND OPTICAL FIBER BASE MATERIAL
US7187412B1 (en) 2000-01-18 2007-03-06 Hewlett-Packard Development Company, L.P. Pointing device for digital camera display
US6663491B2 (en) * 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6535114B1 (en) 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
JP4059620B2 (ja) 2000-09-20 2008-03-12 株式会社リコー 座標検出方法、座標入力/検出装置及び記憶媒体
US20020153188A1 (en) 2000-12-08 2002-10-24 Brandt Kenneth A. Selectable control parameters on a power machine with four-wheel steering
US7176440B2 (en) 2001-01-19 2007-02-13 Honeywell International Inc. Method and apparatus for detecting objects using structured light patterns
EP1428108B1 (en) * 2001-05-14 2013-02-13 Koninklijke Philips Electronics N.V. Device for interacting with real-time streams of content
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7061628B2 (en) 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
WO2003036557A1 (en) * 2001-10-22 2003-05-01 Intel Zao Method and apparatus for background segmentation based on motion localization
US20030098841A1 (en) 2001-11-26 2003-05-29 Jessica Broussard Powered, remotely controllable computer display device
GB0204652D0 (en) * 2002-02-28 2002-04-10 Koninkl Philips Electronics Nv A method of providing a display gor a gui
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
US7127101B2 (en) 2003-03-10 2006-10-24 Cranul Technologies, Inc. Automatic selection of cranial remodeling device trim lines
US7162075B2 (en) 2003-03-10 2007-01-09 Cranial Technologies, Inc. Three-dimensional image capture system
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7333133B2 (en) 2003-03-31 2008-02-19 Spatial Integrated Systems, Inc. Recursive least squares approach to calculate motion parameters for a moving camera
US7463280B2 (en) 2003-06-03 2008-12-09 Steuart Iii Leonard P Digital 3D/360 degree camera system
IL157877A0 (en) 2003-09-11 2004-03-28 Imagine It S Happening Ltd Color edge based 3d scanner
US20050075975A1 (en) 2003-10-02 2005-04-07 Rosner Warren M. Allocating funds for payment of transactional account statements
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7312819B2 (en) 2003-11-24 2007-12-25 Microsoft Corporation Robust camera motion analysis for home video
US7420540B2 (en) * 2003-12-01 2008-09-02 Olbrich Craig A Determining positioning and/or relative movement of graphical-user interface element based on display images
KR100594971B1 (ko) 2004-01-09 2006-06-30 삼성전자주식회사 지자기 센서를 이용한 입력장치 및 이를 이용한 입력신호생성방법
WO2005067389A2 (en) 2004-01-15 2005-07-28 Technion Research & Development Foundation Ltd. Three-dimensional video scanner
US7466308B2 (en) * 2004-06-28 2008-12-16 Microsoft Corporation Disposing identifying codes on a user's hand to provide input to an interactive display application
US7730406B2 (en) * 2004-10-20 2010-06-01 Hewlett-Packard Development Company, L.P. Image processing system and method
CN101137996A (zh) 2005-01-07 2008-03-05 格斯图尔泰克股份有限公司 基于光流的倾斜传感器
US8144118B2 (en) 2005-01-21 2012-03-27 Qualcomm Incorporated Motion-based tracking
WO2006084385A1 (en) 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072469A (en) * 1996-06-20 2000-06-06 Chen; Mei-Yun Cursor positioning device for computer system
JPH1124839A (ja) * 1997-07-07 1999-01-29 Sony Corp 情報入力装置
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2003116126A (ja) * 2001-10-03 2003-04-18 Sony Corp 信号処理方法と信号処理装置及び信号処理プログラム
US20030117611A1 (en) * 2001-12-24 2003-06-26 Jae Choon Chon Apparatus for calculating optical flow and camera motion using correlation matching and system model in moving image
US20040102247A1 (en) * 2002-11-05 2004-05-27 Smoot Lanny Starkes Video actuated interactive environment
US20040193413A1 (en) * 2003-03-25 2004-09-30 Wilson Andrew D. Architecture for controlling a computer using hand gestures
JP2005301693A (ja) * 2004-04-12 2005-10-27 Japan Science & Technology Agency 動画編集システム
US20060044289A1 (en) * 2004-06-21 2006-03-02 Microsoft Corporation System and method for reducing latency in display of computer-generated graphics
JP2006040271A (ja) * 2004-06-28 2006-02-09 Microsoft Corp ソフトウェアアプリケーションと対話するためのジェスチャの認識および使用

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009165106A (ja) * 2007-12-17 2009-07-23 Nvidia Corp 画像の歪み補正
US8818027B2 (en) 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
KR101457777B1 (ko) * 2010-04-01 2014-11-03 퀄컴 인코포레이티드 컴퓨팅 디바이스 인터페이스
JP2012215963A (ja) * 2011-03-31 2012-11-08 Hitachi Consumer Electronics Co Ltd 映像表示装置
WO2013137412A1 (ja) * 2012-03-15 2013-09-19 オムロン株式会社 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体
JPWO2013137412A1 (ja) * 2012-03-15 2015-08-03 オムロン株式会社 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体
JP2014059803A (ja) * 2012-09-19 2014-04-03 Alps Electric Co Ltd 入力装置
JP2015200960A (ja) * 2014-04-04 2015-11-12 株式会社リコー 情報システム、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
EP2458554A1 (en) 2012-05-30
US8717288B2 (en) 2014-05-06
WO2006078996A3 (en) 2007-04-19
CN101147188A (zh) 2008-03-19
JP4689684B2 (ja) 2011-05-25
US20060192782A1 (en) 2006-08-31
EP2458554B1 (en) 2015-04-29
CN101147188B (zh) 2010-09-29
EP1851749B1 (en) 2012-03-28
WO2006078996A2 (en) 2006-07-27
EP1851749A2 (en) 2007-11-07
EP1851749A4 (en) 2011-03-02
US20120154272A1 (en) 2012-06-21
ATE551675T1 (de) 2012-04-15
US8144118B2 (en) 2012-03-27

Similar Documents

Publication Publication Date Title
JP4689684B2 (ja) 動作に基づくトラッキング
US9921663B2 (en) Moving object detecting apparatus, moving object detecting method, pointing device, and storage medium
AU2018245993B2 (en) Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power
US10146298B2 (en) Enhanced handheld screen-sensing pointer
US8559676B2 (en) Manipulation of virtual objects using enhanced interactive system
EP2521097B1 (en) System and Method of Input Processing for Augmented Reality
US20140176591A1 (en) Low-latency fusing of color image data
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
US20130342572A1 (en) Control of displayed content in virtual environments
US9335888B2 (en) Full 3D interaction on mobile devices
TW200941313A (en) Apparatus and methods for a touch user interface using an image sensor
US20230334617A1 (en) Camera-based Transparent Display
WO2016158001A1 (ja) 情報処理装置、情報処理方法、プログラム及び記録媒体
WO2022091577A1 (ja) 情報処理装置および情報処理方法
JPWO2018198499A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20230370578A1 (en) Generating and Displaying Content based on Respective Positions of Individuals
US20230396748A1 (en) Image processing apparatus, image processing method, and storage medium
CN116954352A (zh) 一种投影手势的识别方法、智能交互系统及可读存储介质
JP2009237611A (ja) 対象画像からの顔領域の検出

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110216

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees