JP2006120127A - 仮想物体を操作するための透明コーディングされた透明物体の使用 - Google Patents
仮想物体を操作するための透明コーディングされた透明物体の使用 Download PDFInfo
- Publication number
- JP2006120127A JP2006120127A JP2005270830A JP2005270830A JP2006120127A JP 2006120127 A JP2006120127 A JP 2006120127A JP 2005270830 A JP2005270830 A JP 2005270830A JP 2005270830 A JP2005270830 A JP 2005270830A JP 2006120127 A JP2006120127 A JP 2006120127A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light
- marking
- visible light
- invisible
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5252—Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1043—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being characterized by constructional details
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6661—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
- A63F2300/6669—Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera using a plurality of virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character change rooms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】 物体のエンコーデッドマーキングから反射されたIR光に応答して、対話型ディスプレイの表面に置かれた物体を検出し、その位置および向きを判定する。対話型ディスプレイの表面での物体の検出時に、ソフトウェアプログラムが、事前定義の機能を実行するために物体を通して可視の仮想エンティティまたはイメージを作る。例えば、物体は、物体を通して可視のテキストを拡大したり、単語または句をある言語から別の言語に翻訳し、翻訳された単語または句が、物体を通して可視になるように見せることができる。物体が動かされた時に、その物体を通して可視の仮想エンティティまたはイメージは、その物体と共に動くことができ、あるいは、実行できる機能を制御することができる。
【選択図】 図20
Description
図1を参照すると、本発明のさまざまな部分を実施するのに適する例示的なシステムが示されている。このシステムには、処理装置21、システムメモリ22、およびシステムバス23を備えた普通のPC 20の形の汎用コンピューティングデバイスが含まれる。システムバスは、システムメモリを含むさまざまなシステムコンポーネントを処理装置21に結合し、メモリバスまたはメモリコントローラ、周辺バス、およびさまざまなバスアーキテクチャのいずれかを使用するローカルバスを含む複数のタイプのバス構造のいずれかとすることができる。システムメモリに、読出し専用メモリ(ROM)24およびランダムアクセスメモリ(RAM)25が含まれる。スタートアップ中などにPC 20内の要素の間で情報を転送するのを助ける基本ルーチンを含む基本入出力システム26(BIOS)が、ROM 24に保存されている。PC 20に、さらに、ハードディスク(図示せず)から読み取り、これに書き込むハードディスクドライブ27、リムーバブル磁気ディスク29から読み取り、これに書き込む磁気ディスクドライブ28、コンパクトディスク読出し専用メモリ(CD−ROM)または他の光ディスクなどのリムーバブル光ディスク31から読み取り、これに書き込む光ディスクドライブ30が含まれる。ハードディスクドライブ27、磁気ディスクドライブ28、および光ディスクドライブ30は、それぞれ、ハードディスクドライブインターフェース32、磁気ディスクドライブインターフェース33、および光ディスクドライブインターフェース34によってシステムバス23に接続される。ドライブおよびそれに関連するコンピュータ可読媒体は、コンピュータ可読機械命令、データ構造、プログラムモジュール、および他のデータの不揮発性の記憶をPC 20に提供する。本明細書で説明する例示的な実施形態は、ハードディスク、リムーバブル磁気ディスク29、およびリムーバブル光ディスク31を使用するが、磁気カセット、フラッシュメモリカード、ディジタルビデオディスク(DVD)、ベルヌーイカートリッジ、RAM、ROMなど、コンピュータによってアクセス可能な、データおよび機械命令を保存できる他のタイプのコンピュータ可読媒体も、例示的なオペレーティング環境で使用できることを、当業者は理解されよう。
例示的な対話型の表面
図2では、フレーム62内にPC 20を含み、コンピュータ用の光学入力およびビデオディスプレイデバイスの両方として働く例示的な対話型ディスプレイ60が示されている。対話型ディスプレイテーブルのこの断面図では、テキストおよびグラフィックイメージの表示に使用される光線が、一般に、点線を使用して示され、対話型ディスプレイテーブルのディスプレイの表面64a上またはそのすぐ上の物体を感知するのに使用される赤外線(IR)光線が、破線を使用して示されている。ディスプレイの表面64aは、対話型ディスプレイテーブルの上面64内にセットされている。テーブル表面の周辺は、ユーザの腕または、ディスプレイの表面64aに表示されるグラフィックイメージまたは仮想環境と対話するのに使用できる物体を含む他の物体を支持するのに有用である。
・破線78aによって示されているように、物体を照らさずにテーブル表面から出る場合があり、
・破線78bによって示されているように、テーブル表面の物体を照らす場合があり、または
・破線78cによって示されているように、テーブル表面の上のある距離でテーブル表面に触れていない物体を照らす場合がある。
・破線80aおよび80bによって示されるように、反射され、半透明層64bを通り、IR通過フィルタ86aを通ってディジタルビデオカメラ68のレンズに入る場合があり、あるいは、
・破線80cによって示されるように、ディジタルビデオカメラ68のレンズに入らずに、対話型ディスプレイ内の他の内側表面によって反射されるか吸収される場合がある。
ここで図4を参照すると、第1表面102a(物体の底部)および第2表面102b(物体の頂部)を含む2つの対向する表面を有する例示的な物体100が示されている。物体は、可視光(すなわち、人間に可視の光)に対して光学的に実質的に透明な材料から作られる。物体100の形状は、本発明の範囲に関して限定的であることを意図されたものではないが、この例では、物体100は、比較的薄いすなわち、第1表面102aと第2表面102bの間で測定された寸法が物体の他の寸法と比較して薄い、全般的に四角い形のブロックに見える。
対話型ディスプレイの表面で使用される時にその威力を非常によく示す、多分、本発明の最も興味深く、面白い応用例の1つを、図7および8に示す。図7では、対話型ディスプレイの表面64aに表示されたイメージ130が、(クリップアート形式の)ライオンを示している。このイメージに、複数の部分132a〜132iが含まれ、そのそれぞれが、本発明に従って構成された異なる物体に対応する。この図を単純にするために、同一の符号132a〜132iが、イメージの部分がそれを通して可視である物体を識別するのにも使用されている。これらの物体のそれぞれが、IRエンコーデッドマーキング(この図には図示せず)によって一意に識別され、その結果、対応する部分のイメージが、対話型ディスプレイの表面64aで、イメージのその部分に関連する物体の下に現れるようになっていることを理解されたい。したがって、物体の下に表示されるイメージの部分は、物体を通して可視である。したがって、図8からわかるように、これらの物体が、対話型ディスプレイの表面64a上でランダムに分布する時に、対話型ディスプレイの表面に表れるイメージ130の対応する部分が、ランダムに分布する時の物体のそれぞれに伴って移動する。したがって、イメージの、各物体に関連する部分が、物体の一部であるように見える。
図20の流れ図200に、上で述べた、対話型ディスプレイの表面に置かれた物体に応答して実施される論理ステップを示す。この論理の開始に続いて、ステップ202で、対話型ディスプレイの表面に置かれた、本発明に従って構成された1つまたは複数の物体から受け取られたIR光の検出を提供する。上で述べた本発明の例示的応用例の1つで、複数のそのような物体が、ジグソーパズルのピースのように働き、他の実施形態では、単一のそのような物体だけが、対話型ディスプレイの表面に仮想エンティティまたはイメージを表示するのに使用されるソフトウェアプログラムによって検出された時に特定の機能を実施するのに使用される。しかし、複数のそのような物体を、複数の異なる機能を実行するために対話型ディスプレイの表面に置くことができ、そのような各物体を異なる機能に使用できることを理解されよう。ステップ204で、この論理は、そのような各物体のエンコーデッドマーキングから受け取られたIR光のエンコーデッドパターンをデコードすることによる、対話型ディスプレイの表面に置かれた物体のそれぞれの識別を提供する。対話型ディスプレイの表面は、ステップ206に示されているように、物体から受け取られたIR光に応答して、そのような各物体の位置および向きを判定する。ステップ208に示されているように、インラクティブディスプレイの表面に1つまたは複数のそのような仮想エンティティまたはイメージを表示するために実行されているソフトウェアプログラムに基づいて、適当な変更された仮想エンティティまたはイメージが、対話型ディスプレイの表面に表示され、その結果、これを、各物体を通過した可視光を用いて見ることができるようになる。
22 システムメモリ
23 システムバス
24 ROM
25 RAM
26 BIOS
32 ハードディスクドライブインターフェース
33 磁気ディスクドライブインターフェース
34 光ディスクドライブインターフェース
35 オペレーティングシステム
36 アプリケーションプログラム
37 他のプログラムモジュール
38 プログラムデータ
40 キーボード
46 I/Oデバイスインターフェース(たとえば、シリアル)
47 オプションのモニタ
48 ビデオアダプタ
49 リモートコンピュータ
53 ネットワークインターフェース
54 モデム
59 カメラインターフェース
60 対話型ディスプレイ
Claims (58)
- 事前定義の機能を実行するための入力を提供する物体であって、前記物体を含む、可視光に対して光学的に透明な材料の少なくとも1つの表面に適用されたエンコーデッドマーキングを含み、前記エンコーデッドマーキングは、前記物体、コンピューティングシステムに結合されたディスプレイの表面でのその位置、および前記ディスプレイの表面での前記物体の向きを識別するように働き、前記エンコーデッドマーキングは、可視光に影響せずに前記可視光を実質的に透過させるが、前記物体が非可視光の変更に応答してすぐに識別されるように前記非可視光を変更する材料を含み、前記物体の識別は、前記物体を通過する可視光を用いて形成される仮想エンティティまたはイメージに影響するコンピューティングシステムによって前記物体に関連する機能を実施させる、前記コンピューティングシステムへの入力を提供することを特徴とする物体。
- 異なるエンコーデッドマーキングは、前記物体の異なる表面に適用され、前記異なるエンコーデッドマーキングは、前記コンピューティングシステムに異なる入力を提供するように働き、前記物体に関連する異なる事前定義の機能を前記コンピューティングシステムによって実施させることを特徴とする請求項1に記載の物体。
- 前記物体の操作は、前記物体に関連する前記機能に関係するパラメータを変更し、前記物体を通過する前記可視光を用いて形成される前記仮想エンティティまたはイメージに影響することを特徴とする請求項1に記載の物体。
- 可視光に対して一様に光学的に透明の少なくとも1つの実質的に中央の部分を有する物体を、前記物体を通る可視光透過に実質的に影響せずに前記物体から受け取られる非可視光に応答して光学的に認識できるようにする方法であって、
(a)前記物体の第1表面に第1マーキングを適用するステップであって、前記第1マーキングは、可視光を実質的に透過させるが、
(i)非可視波長帯の光を反射することによって、および
(ii)前記非可視波長帯の前記光を吸収することによって
のうちの1つによって前記非可視波長帯の光に影響する材料を含む、ステップと、
(b)前記第1マーキングが適用された、物体の前記第1表面上に、前記非可視波長帯の光を向けるステップと、
(c)前記物体から受け取られた前記非可視波長帯の光に応答して、前記物体の少なくとも一部のイメージを検出するステップであって、前記イメージは、前記物体の認識を可能にする、ステップと
備えることを特徴とする方法。 - 前記物体の第2表面に第2マーキングを適用するステップをさらに備え、前記第2マーキングは、実質的に前記第1マーキングと同一の材料を含み、前記第1表面は、
(a)前記第1マーキングおよび前記第2マーキングを含む前記材料が前記非可視波長帯の前記光を吸収する場合に、可視光を実質的に透過させるが、前記非可視波長帯の光を反射する反射材料、または
(b)前記第1マーキングおよび前記第2マーキングを含む前記材料が前記非可視波長帯の前記光を反射する場合に、可視光を実質的に透過させるが、前記非可視波長帯の光を吸収する吸収材料
によって前記第2表面から分離されていることを特徴とする請求項4に記載の方法。 - 前記第1マーキングおよび前記第2マーキングの内の1つからの前記非可視波長帯の光を検出することによって前記物体の状態を判定するステップをさらに備え、前記第1マーキングおよび前記第2マーキングのそれぞれは、前記物体の異なる状態を示すことを特徴とする請求項5に記載の方法。
- 前記物体を通過する可視光を作るソフトウェアアプリケーションを制御するために、判定された前記物体の前記状態を使用するステップをさらに備えることを特徴とする請求項6に記載の方法。
- (a)前記第1表面および前記第2表面の内の1つからの前記非可視波長帯の前記光を用いて作られた前記イメージに基づいて、経時的な前記物体の向きの変化を判定するステップと、
(b)経時的な前記物体の前記向きの前記変化の関数として、前記物体を通過する可視光を作るソフトウェアアプリケーションを制御するステップと
をさらに備えることを特徴とする請求項5に記載の方法。 - 前記第1マーキングからの前記非可視光に基づく前記物体の向きの変化は、前記第2マーキングからの前記非可視光に基づく前記物体の向きの変化と異なる制御機能を前記ソフトウェアアプリケーションに適用させることを特徴とする請求項8に記載の方法。
- 前記第1マーキングは、前記非可視波長帯の前記光が前記第1表面から受け取られるときに前記物体の少なくとも一部のイメージで自動的に認識されるエンコーデッドパターンとして適用されることを特徴とする請求項4に記載の方法。
- 前記第2マーキングは、前記非可視波長帯の前記光が前記第2表面から受け取られるときに前記物体の少なくとも一部のイメージで自動的に認識されるエンコーデッドパターンとして適用されることを特徴とする請求項5に記載の方法。
- (a)前記第1表面から受け取られる前記非可視波長帯の前記光に基づいて、前記物体の向きを判定するステップと、
(b)前記物体を通過する可視光を作るソフトウェアアプリケーションを制御するための入力を提供するために、経時的な前記物体の前記向きの変化を検出するステップと
をさらに備えることを特徴とする請求項4に記載の方法。 - 経時的な前記物体の向きの変化は、前記可視光を用いて前記ソフトウェアアプリケーションによって形成されるイメージに影響する拡大率を変更するように見え、その結果、前記イメージは、前記物体の向きが変化するときに、前記物体の向きが変更された方向に応じて、相対サイズを増やされるか減らされることを特徴とする請求項12に記載の方法。
- 経時的な前記物体の向きの変化に対応する形で、前記物体を通過する前記可視光によって前記ソフトウェアアプリケーションによって形成されるイメージの向きを変更し、その結果、前記可視光を用いて形成される前記イメージが、前記物体の向きが変更されるときに前記物体と共に動いて見えるようにするステップをさらに備えることを特徴とする請求項12に記載の方法。
- 前記物体の位置の変化に対応する形で、前記物体を通過する前記可視光によって前記ソフトウェアアプリケーションによって形成されるイメージの位置を変更し、その結果、前記可視光を用いて形成される前記イメージが、前記物体の位置が変更されたときに前記物体と共に移動して見えるようにするステップをさらに備えることを特徴とする請求項14に記載の方法。
- 前記物体に似た複数の他の物体のそれぞれについて請求項4に記載のステップ(a)から(c)を繰り返すステップであって、前記複数の物体のそれぞれを通過した前記可視光を用いて前記ソフトウェアアプリケーションによって形成される前記イメージは、複数の部分に分割されたより大きいイメージの一部を含む、ステップをさらに備え、前記イメージの前記複数の部分が、互いに隣接して正しく組み立てられた場合により大きいイメージを正しく表すジグソーパズルのピースに見えるようにするために、前記より大きいイメージの複数の部分のそれぞれを対応する物体を通して可視にするステップをさらに備えることを特徴とする請求項15に記載の方法。
- ソフトウェアプログラムは、前記物体を通過する可視光に、前記物体がその上に位置決めされた少なくとも1つの単語と異なる言語への前記少なくとも1つの単語の翻訳に対応するテキストを形成させることを特徴とする請求項4に記載の方法。
- (a)可視光を用いてソフトウェアプログラムに従って作られた第1イメージを表示するステップと、
(b)前記物体を前記第1イメージの上に置くことを可能にするステップと、
(c)前記第1イメージに関係するが前記第1イメージと異なる第2イメージを形成するために、前記物体を通して可視光を透過させるステップと
をさらに備えることを特徴とする請求項4に記載の方法。 - 前記物体に似た複数の物体を積み重ねるステップをさらに備え、複数の物体のそれぞれは、前記第1イメージの変更に関する異なる機能を提供することに関連し、その結果、前記複数の物体のそれぞれによって提供される前記機能の複合されたものが前記第2イメージで明白になることを特徴とする請求項18に記載の方法。
- 前記第1イメージは、写真を含み、前記第2イメージは、変更が適用された前記写真を含み、前記第2イメージとして前記物体を通して可視の前記写真に適用される前記変更を調整するために前記ユーザが前記物体の向きを変更することを可能にするステップをさらに備えることを特徴とする請求項18に記載の方法。
- 前記第1イメージは、第1の外見を有するエンティティを表し、前記第2イメージは、前記第1イメージ内の前記エンティティのある特徴が前記第2イメージで変更されているので異なる外見を有する前記エンティティを表すことを特徴とする請求項18に記載の方法。
- 前記第2イメージは、前記エンティティの異なる深さ、異なる層、およびサブシステムのうちの1つを表すことを特徴とする請求項21に記載の方法。
- 前記特徴の前記変更を制御するためにユーザが前記物体を移動することを可能にするステップをさらに備えることを特徴とする請求項21に記載の方法。
- 請求項4に記載のステップを実行する機械実行可能命令を有することを特徴とする記憶媒体。
- 可視光に対して一様に光学的に透明であり、イメージの複数の部分が可視光を使用して透過される、複数の物体を使用し、その結果、前記物体が移動される時に前記イメージの前記部分が前記物体と共に移動するようにする方法であって、
(a)前記物体のそれぞれに別個のマーキングを適用するステップであって、前記マーキングは、可視光を実質的に透過させるが、
(i)非可視波長帯の光を反射すること、および、
(ii)前記非可視波長帯の前記光を吸収すること
のうちの1つによって前記非可視波長帯の光に影響する材料を含む、ステップと、
(b)前記マーキングが適用された前記物体に、前記非可視波長帯の光を向けるステップと、
(c)前記物体から受け取られる前記非可視波長帯の光に応答して、各物体の位置および向きを識別し、検出するステップと、
(d)前記イメージの前記部分を可視光として前記物体を通して透過させ、その結果、前記イメージの各部分が、前記イメージの前記部分がそれを通して可視である前記物体に関連付けられるようにするステップと、
(e)前記物体を正しいレイアウトで組み立てることを可能にし、その結果、このようにして組み立てられた前記物体を通して可視である前記イメージの前記複数の部分を一括して見ることによって前記イメージが明らかに明白になるようにするステップであって、前記物体は、絵を表示するために正しく組み立てられたジグソーパズルのピースに似た形で前記イメージを表す、ステップと
を備えることを特徴とする方法。 - 前記イメージを、ソフトウェアを使用して選択的に変更することを可能にし、その結果、異なるイメージの部分が前記物体を通して明白になるようにするステップをさらに備えることを特徴とする請求項25に記載の方法。
- 最初に前記物体の間で前記イメージの前記複数の部分をランダムに分配し、その結果、前記イメージが、前記イメージの前記複数の部分を見ることからすぐに明白にならないようにするステップをさらに備えることを特徴とする請求項25に記載の方法。
- 前記別個のマーキングが適用された前記表面と対抗する、前記物体のそれぞれの表面に異なる別個のマーキングを適用するステップをさらに含み、各物体に適用される各異なる別個のマーキングは、前記物体に適用された前記別個のマーキングに関連する前記イメージの前記部分に対応する鏡像部分に関連し、その結果、
(a)すべての物体は、前記イメージを明瞭に明白にすることを可能にするために、適用された前記別個のマーキングを有する前記表面が、受け取られる前記非可視光を供給する向きにされなければならず、またはその代わりに、
(b)すべての物体は、前記イメージの鏡像版を明瞭に明白にすることを可能にするために、適用された前記異なる別個のマーキングを有する前記対向する表面が、受け取られる前記非可視光を供給する向きにされなければならない
ことを特徴とする請求項25に記載の方法。 - 前記物体が正しく組み立てられた時に、イメージのシーケンスが前記物体を通過する前記可視光からすぐに明白になるように、イメージの前記シーケンスを前記物体のそれぞれを通して可視の部分に分割させるステップをさらに備えることを特徴とする請求項25に記載の方法。
- イメージの前記シーケンスは、ビデオを含むことを特徴とする請求項29に記載の方法。
- ユーザが、
(a)前記イメージについて前記ユーザによって提供される個人のイメージと、
(b)イメージの前記シーケンスについて前記ユーザによって提供される個人のイメージのシーケンスと
のうちの1つを使用することを可能にするステップをさらに備えることを特徴とする請求項29に記載の方法。 - 請求項25に記載のステップを実行する機械実行可能命令を有することを特徴とする記憶媒体。
- 可視光に対して一様に光学的に透明の物体が、前記物体を通した可視光透過に実質的に影響せずに、前記物体から受け取られる非可視光に応答して光学的に認識される、システムであって、
(a)物体を照らす非可視光のソースと、
(b)可視光を使用してイメージを作るイメージソースと、
(c)前記物体から受け取られた非可視光に応答して信号を作るセンサと、
(d)機械命令が保存されるメモリと、
(e)前記イメージソース、前記センサ、および前記メモリに結合されたプロセッサであって、
(i)前記センサを用いて前記物体から受け取られた光を検出し、前記信号を作る機能であって、前記物体は、前記物体の第1表面に適用された第1マーキングを有し、前記第1マーキングは、可視光を実質的に透過させるが、
(A)非可視波長帯の光を反射すること、および
(B)非可視波長帯の光を吸収すること のうちの1つによって非可視光の前記ソースからの非可視光に影響する材料を含む、機能と、
(ii)前記センサによって作られた前記信号に応答して前記物体を識別する機能と
を含む複数の機能を実行するために前記機械命令を実行する、プロセッサと
を備えることを特徴とするシステム。 - 第2マーキングは、前記物体の第2表面に適用され、前記第2マーキングは、前記第1マーキングと実質的に同一の材料を含み、前記第1表面は、
(a)前記第1マーキングおよび前記第2マーキングを含む前記材料が前記非可視波長帯の光を吸収する場合に、可視光を実質的に透過させるが、前記非可視波長帯の光を反射する反射材料、または
(b)前記第1マーキングおよび前記第2マーキングを含む前記材料が前記非可視波長帯の光を反射する場合に、可視光を実質的に透過させるが、前記非可視波長帯の光を吸収する吸収材料
によって前記第2表面から分離されていることを特徴とする請求項33に記載のシステム。 - 前記機械命令は、さらに、前記プロセッサに、前記第1マーキングおよび前記第2マーキングのうちの1つから前記センサによって受け取られた前記非可視波長帯の光を検出することによって前記物体の状態を判定させ、前記第1マーキングおよび前記第2マーキングのそれぞれは、前記物体の異なる状態を示すことを特徴とする請求項34に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、前記物体を通過する前記可視光を使用し前記イメージソースを用いて前記イメージを作る、実行中のソフトウェアアプリケーションを制御させることを特徴とする請求項35に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、
(a)前記第1表面および前記第2表面のうちの1つから前記センサによって受け取られた前記非可視波長帯の光に応答して前記センサによって作られた前記信号に基づいて、経時的な前記物体の向きの変化を判定させ、
(b)経時的な前記物体の前記向きの変化の関数として、前記物体を通過する前記可視光を使用して、前記イメージソースを用いて前記イメージを作る、前記プロセッサによって実行されるソフトウェアアプリケーションを制御させる
ことを特徴とする請求項34に記載のシステム。 - 前記第1マーキングから前記センサによって受け取られた前記非可視光に基づく前記物体の向きの変化は、前記第2マーキングから前記センサによって受け取られた前記非可視光に基づく前記物体の向きの変化と異なる制御機能を前記プロセッサによって前記ソフトウェアアプリケーションに適用させることを特徴とする請求項37に記載のシステム。
- 前記第1マーキングは、前記第1表面から受け取られる前記非可視波長帯の光に応答して前記センサによって作られる前記信号に基づいて、前記プロセッサによって自動的に認識されるエンコーデッドパターンとして適用されることを特徴とする請求項33に記載のシステム。
- 前記第2マーキングは、前記第2表面から受け取られる前記非可視波長帯の光に応答して前記センサによって作られる前記信号に基づいて、前記プロセッサによって自動的に認識されるエンコーデッドパターンとして適用されることを特徴とする請求項34に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、
(a)前記第1表面から前記センサによって受け取られた前記非可視波長帯の光に応答して前記センサによって作られた前記信号に基づいて前記物体の向きを判定させ、
(b)前記物体を通過する可視光を前記イメージソースに作らせるソフトウェアアプリケーションを制御するための入力を提供するために、経時的な前記物体の向きの変化を検出させる
ことを特徴とする請求項33に記載のシステム。 - 前記機械命令は、さらに、前記物体を通過する前記可視光を用いて前記ソフトウェアアプリケーションによって形成されるイメージに影響する拡大率を前記イメージソースに明白に変更させることによって、前記プロセッサに、経時的な前記物体の向きの変化に応答させ、その結果、前記物体の向きが変更されるときに前記物体の前記向きが変更された方向に依存して前記イメージが相対サイズを増やされるか減らされるようにすることを特徴とする請求項41に記載のシステム。
- 前記機械命令は、さらに、経時的な前記物体の向きの変化に対応する形で、前記ソフトウェアアプリケーションによって決定される前記物体を通過する前記可視光によって形成されるイメージの向きを前記イメージソースに変更させることを前記プロセッサに行わせ、その結果、前記物体の向きが変更された時に前記可視光を用いて形成される前記イメージが前記物体と共に動くように見えるようにすることを特徴とする請求項41に記載のシステム。
- 前記機械命令は、さらに、前記物体の位置の変化に対応する形で、前記ソフトウェアアプリケーションによって決定される前記物体を通過する前記可視光を使用して前記イメージソースによって形成される前記イメージの位置を前記イメージソースに変更させることを前記プロセッサに行わせ、その結果、前記物体の位置が変更されたときに、前記可視光を用いて形成される前記イメージが前記物体と共に移動するように見えるようにすることを特徴とする請求項43に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、複数の他の物体のそれぞれについて請求項33に記載の機能(e)(i)から(e)(ii)を繰り返させ、前記ソフトウェアアプリケーションに従って前記物体を通過する前記可視光を用いて前記イメージソースによって形成される前記イメージは、複数の部分に分割されたより大きいイメージの部分を含み、前記プロセッサは、さらに、対応する他の物体を通過する可視光を用いて前記より大きいイメージの複数の部分のそれぞれを前記イメージソースに作らせ、その結果、前記イメージの前記複数の部分が、互いに隣接して正しく組み立てられた場合に、前記より大きいイメージを正しく提示するジグソーパズルのピースに見えるようにすることを特徴とする請求項44に記載のシステム。
- 前記機械命令は、さらに、前記物体がその上に位置する少なくとも1つの単語と異なる言語への前記少なくとも1つの単語の翻訳に対応するテキストを、前記物体を通過する前記可視光を用いて前記イメージソースに作らせることを前記プロセッサに行わせることを特徴とする請求項33に記載のシステム。
- 前記機械命令は、さらに、
(a)前記プロセッサによって実行されるソフトウェアプログラムによって制御される前記イメージソースからの可視光を用いて第1イメージを表示することと、
(b)前記第1イメージの上に前記物体を置くことを可能にすることと、
(c)前記物体を通過する前記イメージソースからの可視光を用いて第2イメージを表示することであって、前記第2イメージは、前記第1イメージに関係するが前記第1イメージと異なる、表示することと
を前記イメージソースに行わせることを前記プロセッサに行わせることを特徴とする請求項33に記載のシステム。 - 前記第1イメージは、写真を含み、前記第2イメージは、変更が適用されている前記写真を含み、前記機械命令は、さらに、前記プロセッサに、前記第2イメージとして前記物体を通して可視である前記写真に適用される前記変更を調整することによって、前記センサからの前記信号によって示される前記物体の向きの変化に応答させることを特徴とする請求項47に記載のシステム。
- 前記第1イメージは、第1の外見を有するエンティティを表し、前記第2イメージは、前記第1イメージ内の前記エンティティの何らかの特徴が前記第2イメージ内で変更されているので異なる外見を有する前記エンティティを表すことを特徴とする請求項47に記載のシステム。
- 前記第2イメージは、前記エンティティの異なる深さ、異なる層、およびサブシステムのうちの1つを表すことを特徴とする請求項49に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、前記特徴の変更を制御するためにユーザが前記物体を動かすことを可能にさせることを特徴とする請求項48に記載のシステム。
- 物体が動かされるときにイメージの部分が前記物体と共に動くようにするために、それを通して前記イメージの前記部分が可視光を使用して透過される、可視光に対して一様に光学的に透明な前記物体を備えるシステムであって、
(a)前記物体を照らす非可視光のソースと、
(b)可視光を使用してイメージを作るイメージソースと、
(c)前記物体から受け取られた非可視光に応答して信号を作るセンサと、
(d)機械命令が保存されるメモリと、
(e)前記イメージソース、前記センサ、および前記メモリに結合されたプロセッサであって、
(i)前記センサを用いて、前記センサによって作られる前記信号で、前記物体のそれぞれに適用される別個のマーキングに応答する機能であって、前記マーキングは、実質的に可視光を透過させるが、前記非可視光ソースからの非可視波長帯の光に
(A)前記非可視波長帯の光を反射すること、および
(B)前記非可視波長帯の光を吸収すること
のうちの1つによって影響する材料を含む、応答する機能と、
(ii)前記物体からの前記非可視波長帯の光を受け取った前記センサによって作られた前記信号に応答して、各物体の位置および向きを識別し、検出する機能と、
(iii)前記イメージソースに、可視光として前記イメージの前記部分を前記物体を通して透過させ、その結果、前記イメージの各部分が、前記イメージの前記部分がそれを通して可視である前記物体に関連し、その結果、前記物体が正しいレイアウトで組み立てられた時に、前記イメージが、そのように組み立てられた前記物体を通して可視の前記イメージの前記部分を一括して見ることによって明らかに明白になるようにする機能であって、前記物体は、絵を表示するために正しく組み立てられたジグソーパズルのピースに似た形で前記イメージを表す、機能と
を含む複数の機能を実行するために前記機械命令を実行するプロセッサと
を備えることを特徴とするシステム。 - 前記機械命令は、さらに、前記プロセッサに、前記イメージを選択的に変更することを可能にするソフトウェアを実行させ、その結果、前記イメージソースによって作られる異なるイメージの部分が前記物体を通して明白になるようにすることを特徴とする請求項52に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、まず前記物体の間で前記イメージの前記部分をランダムに分配させ、その結果、前記イメージの前記部分を見ることから前記イメージがすぐには明白にならないようにすることを特徴とする請求項52に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、前記イメージの前記部分に関連する第1マーキングおよび前記第1マーキングに関連する前記イメージの前記部分の鏡像版に関連する第2マーキングを含む、前記物体のそれぞれに適用される2つの異なる別個のマーキングの1つを検出させ、その結果、
(a)前記物体のすべては、前記イメージソースによって作られる前記イメージを明瞭に明白にすることを可能にするために、前記第1マーキングが、前記センサによって受け取られる前記非可視光を供給する向きにされなければならず、またはその代わりに、
(b)前記物体のすべては、前記イメージソースによって作られる前記イメージの鏡像版を明瞭に明白にすることを可能にするために、適用された前記第2マーキングが、前記センサによって受け取られる前記非可視光を供給する向きにされなければならない
ことを特徴とする請求項52に記載のシステム。 - 前記機械命令は、さらに、前記物体に関連する部分に分割され、前記物体のそれぞれを通して可視であるイメージのシーケンスをイメージソースに作らせることを前記プロセッサに行わせ、その結果、前記物体が正しく組み立てられた時に、イメージの前記シーケンスが、前記物体を通過する前記イメージソースからの前記可視光からすぐに明白になることを特徴とする請求項52に記載のシステム。
- イメージの前記シーケンスは、ビデオを含むことを特徴とする請求項56に記載のシステム。
- 前記機械命令は、さらに、前記プロセッサに、ユーザが
(a)前記イメージについてユーザによって提供される個人のイメージと、
(b)イメージの前記シーケンスについてユーザによって提供される個人のイメージのシーケンスと
のうちの1つを使用することを可能にさせることを特徴とする請求項56に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/969,746 | 2004-10-19 | ||
US10/969,746 US7576725B2 (en) | 2004-10-19 | 2004-10-19 | Using clear-coded, see-through objects to manipulate virtual objects |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006120127A true JP2006120127A (ja) | 2006-05-11 |
JP4814597B2 JP4814597B2 (ja) | 2011-11-16 |
Family
ID=35482151
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005270830A Expired - Fee Related JP4814597B2 (ja) | 2004-10-19 | 2005-09-16 | 仮想物体を操作するための透明コーディングされた透明物体の使用 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7576725B2 (ja) |
EP (1) | EP1650645A3 (ja) |
JP (1) | JP4814597B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010170474A (ja) * | 2009-01-26 | 2010-08-05 | Canon Inc | 画像表示装置及び画像表示方法 |
JP2012099093A (ja) * | 2010-10-08 | 2012-05-24 | Ag Ltd | タッチパッド用の入力デバイス、プログラム、データ処理方法およびデータ処理装置 |
JP2012120849A (ja) * | 2012-01-06 | 2012-06-28 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成装置 |
JP2012168612A (ja) * | 2011-02-10 | 2012-09-06 | Nippon Telegr & Teleph Corp <Ntt> | 操作情報入力システム |
JP2013178679A (ja) * | 2012-02-28 | 2013-09-09 | Nippon Telegr & Teleph Corp <Ntt> | 操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法 |
JP2013178678A (ja) * | 2012-02-28 | 2013-09-09 | Nippon Telegr & Teleph Corp <Ntt> | 操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法 |
JP2015519625A (ja) * | 2012-03-01 | 2015-07-09 | ブラックベリー リミテッド | 画像エディタにおいて画像フィルタを適用するためのドラッグハンドル |
JP6009584B2 (ja) * | 2012-12-26 | 2016-10-19 | グリー株式会社 | 表示処理方法及び情報装置 |
Families Citing this family (94)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100009745A1 (en) * | 2008-07-10 | 2010-01-14 | Stockdale James W | Method and apparatus for enhancing player interaction in connection with a multi-player gaming table |
US20090124383A1 (en) * | 2007-11-09 | 2009-05-14 | Igt | Apparatus for use with interactive table games and methods of use |
US8905834B2 (en) * | 2007-11-09 | 2014-12-09 | Igt | Transparent card display |
US8777224B2 (en) * | 2007-11-09 | 2014-07-15 | Igt | System and methods for dealing a video card |
US20050227217A1 (en) * | 2004-03-31 | 2005-10-13 | Wilson Andrew D | Template matching on interactive surface |
US7394459B2 (en) * | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
US7787706B2 (en) * | 2004-06-14 | 2010-08-31 | Microsoft Corporation | Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface |
US7358962B2 (en) * | 2004-06-15 | 2008-04-15 | Microsoft Corporation | Manipulating association of data with a physical object |
US7593593B2 (en) | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US20060166726A1 (en) | 2005-01-24 | 2006-07-27 | Jay Chun | Methods and systems for playing baccarat jackpot |
US9940778B2 (en) | 2005-01-24 | 2018-04-10 | Igt | System for monitoring and playing a plurality of live casino table games |
US7922587B2 (en) | 2005-01-24 | 2011-04-12 | Jay Chun | Betting terminal and system |
US8308559B2 (en) | 2007-05-07 | 2012-11-13 | Jay Chun | Paradise box gaming system |
US7914368B2 (en) | 2005-08-05 | 2011-03-29 | Jay Chun | Methods and systems for playing baccarat jackpot with an option for insurance betting |
US8210920B2 (en) | 2005-01-24 | 2012-07-03 | Jay Chun | Methods and systems for playing baccarat jackpot |
US8920238B2 (en) | 2005-01-24 | 2014-12-30 | Jay Chun | Gaming center allowing switching between games based upon historical results |
US20090135162A1 (en) * | 2005-03-10 | 2009-05-28 | Koninklijke Philips Electronics, N.V. | System and Method For Detecting the Location, Size and Shape of Multiple Objects That Interact With a Touch Screen Display |
US7499027B2 (en) * | 2005-04-29 | 2009-03-03 | Microsoft Corporation | Using a light pointer for input on an interactive display surface |
US7172304B2 (en) * | 2005-05-26 | 2007-02-06 | Freedom Scientific, Inc. | Illuminator having forward lighting |
US7172305B2 (en) * | 2005-05-26 | 2007-02-06 | Freedom Scientific, Inc. | Magnifier having slideably mounted camera |
US7970870B2 (en) * | 2005-06-24 | 2011-06-28 | Microsoft Corporation | Extending digital artifacts through an interactive surface |
US7525538B2 (en) | 2005-06-28 | 2009-04-28 | Microsoft Corporation | Using same optics to image, illuminate, and project |
US7911444B2 (en) | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
US8060840B2 (en) | 2005-12-29 | 2011-11-15 | Microsoft Corporation | Orientation free user interface |
US7515143B2 (en) | 2006-02-28 | 2009-04-07 | Microsoft Corporation | Uniform illumination of interactive display panel |
US20070217199A1 (en) * | 2006-03-17 | 2007-09-20 | Light Dimensions, Inc. | Light-based dermal enhancing apparatus and methods of use |
US20070271714A1 (en) * | 2006-03-17 | 2007-11-29 | Light Dimensions, Inc. | Light-based enhancing apparatuses and methods of use |
JP5016049B2 (ja) * | 2006-09-13 | 2012-09-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 対象の方向性の決定 |
US9292996B2 (en) | 2006-12-19 | 2016-03-22 | Igt | Distributed side wagering methods and systems |
US8212857B2 (en) | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
TW200912821A (en) * | 2007-09-04 | 2009-03-16 | G Time Electronic Co Ltd | Learning device and method thereof |
TW200917171A (en) * | 2007-10-08 | 2009-04-16 | G Time Electronic Co Ltd | Sensing type learning card and learning system thereof |
US20090106667A1 (en) * | 2007-10-19 | 2009-04-23 | International Business Machines Corporation | Dividing a surface of a surface-based computing device into private, user-specific areas |
US7930642B1 (en) | 2008-03-20 | 2011-04-19 | Intuit Inc. | System and method for interacting with hard copy documents |
US20090241059A1 (en) * | 2008-03-20 | 2009-09-24 | Scott David Moore | Event driven smooth panning in a computer accessibility application |
US8042949B2 (en) * | 2008-05-02 | 2011-10-25 | Microsoft Corporation | Projection of images onto tangible user interfaces |
US8584029B1 (en) | 2008-05-23 | 2013-11-12 | Intuit Inc. | Surface computer system and method for integrating display of user interface with physical objects |
KR101616591B1 (ko) * | 2008-09-03 | 2016-04-28 | 오블롱 인더스트리즈, 인크 | 데이터의 공간의 주요 치수를 항해하기 위한 제어 시스템 |
US8284170B2 (en) * | 2008-09-30 | 2012-10-09 | Apple Inc. | Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor |
US8264455B2 (en) * | 2009-02-03 | 2012-09-11 | Microsoft Corporation | Mapping of physical controls for surface computing |
US8384740B1 (en) * | 2009-02-24 | 2013-02-26 | A9.Com, Inc. | Method and system for virtually placing a tangible item on an appendage |
JP4706985B2 (ja) * | 2009-03-04 | 2011-06-22 | コニカミノルタビジネステクノロジーズ株式会社 | コンテンツ表示装置 |
US8745494B2 (en) * | 2009-05-27 | 2014-06-03 | Zambala Lllp | System and method for control of a simulated object that is associated with a physical location in the real world environment |
US20100306825A1 (en) * | 2009-05-27 | 2010-12-02 | Lucid Ventures, Inc. | System and method for facilitating user interaction with a simulated object associated with a physical location |
US20110074739A1 (en) * | 2009-09-30 | 2011-03-31 | Microsoft Corporation | Light-transmissive key and optically-recognizable signature |
US20110113361A1 (en) * | 2009-11-06 | 2011-05-12 | Apple Inc. | Adjustment presets for digital images |
JP2011175569A (ja) * | 2010-02-25 | 2011-09-08 | Sharp Corp | 文書画像生成装置、文書画像生成方法及びコンピュータプログラム |
EP2550578B1 (en) * | 2010-03-26 | 2017-08-16 | Hewlett Packard Development Company, L.P. | Method and apparatus for accessing a computer file when a user interacts with a physical object associated with the file |
US20110260976A1 (en) * | 2010-04-21 | 2011-10-27 | Microsoft Corporation | Tactile overlay for virtual keyboard |
US20110316785A1 (en) * | 2010-06-25 | 2011-12-29 | Murray Hidary | Keypad for hand-held devices with touch screens |
CN102467756B (zh) | 2010-10-29 | 2015-11-25 | 国际商业机器公司 | 用于三维场景的透视方法及装置 |
JP5833822B2 (ja) * | 2010-11-25 | 2015-12-16 | パナソニックIpマネジメント株式会社 | 電子機器 |
US8854324B2 (en) | 2011-04-13 | 2014-10-07 | Sony Corporation | Information processing control device |
JP2013041350A (ja) * | 2011-08-12 | 2013-02-28 | Panasonic Corp | タッチテーブルシステム |
JP5766083B2 (ja) * | 2011-09-28 | 2015-08-19 | 京セラ株式会社 | 携帯電子機器 |
US8681179B2 (en) | 2011-12-20 | 2014-03-25 | Xerox Corporation | Method and system for coordinating collisions between augmented reality and real reality |
US10488948B2 (en) * | 2012-03-14 | 2019-11-26 | Texas Instruments Incorporated | Enabling physical controls on an illuminated surface |
KR101956035B1 (ko) * | 2012-04-30 | 2019-03-08 | 엘지전자 주식회사 | 인터랙티브 디스플레이 디바이스 및 그 제어 방법 |
US20130297460A1 (en) | 2012-05-01 | 2013-11-07 | Zambala Lllp | System and method for facilitating transactions of a physical product or real life service via an augmented reality environment |
AU2013327323B2 (en) | 2012-10-02 | 2017-03-30 | Igt | System and method for providing remote wagering games in live table game system |
EP2796977A1 (en) * | 2013-04-24 | 2014-10-29 | Cartamundi Turnhout N.V. | A method for interfacing between a device and information carrier with transparent area(s) |
US8821239B1 (en) | 2013-07-22 | 2014-09-02 | Novel Tech International Limited | Gaming table system allowing player choices and multiple outcomes thereby for a single game |
US8684830B1 (en) | 2013-09-03 | 2014-04-01 | Novel Tech International Limited | Individually paced table game tournaments |
US9208765B1 (en) * | 2013-09-18 | 2015-12-08 | American Megatrends, Inc. | Audio visual presentation with three-dimensional display devices |
US9411511B1 (en) | 2013-09-19 | 2016-08-09 | American Megatrends, Inc. | Three-dimensional display devices with out-of-screen virtual keyboards |
US9595159B2 (en) | 2013-10-01 | 2017-03-14 | Igt | System and method for multi-game, multi-play of live dealer games |
US10613585B2 (en) * | 2014-06-19 | 2020-04-07 | Samsung Electronics Co., Ltd. | Transparent display apparatus, group play system using transparent display apparatus and performance methods thereof |
US9993733B2 (en) * | 2014-07-09 | 2018-06-12 | Lumo Interactive Inc. | Infrared reflective device interactive projection effect system |
CN107077229B (zh) | 2014-09-02 | 2021-01-01 | 斯普林保尔控股有限公司 | 人机接口装置和系统 |
JP6586758B2 (ja) * | 2015-03-31 | 2019-10-09 | ソニー株式会社 | 情報処理システム、情報処理方法及びプログラム |
US9690400B2 (en) | 2015-04-21 | 2017-06-27 | Dell Products L.P. | Information handling system interactive totems |
US10126636B1 (en) * | 2015-06-18 | 2018-11-13 | Steven Glenn Heppler | Image projection system for a drum |
US9916735B2 (en) | 2015-07-22 | 2018-03-13 | Igt | Remote gaming cash voucher printing system |
US9904883B2 (en) * | 2016-04-15 | 2018-02-27 | Cisco Technology, Inc. | Method and apparatus for tracking assets in one or more optical domains |
TWI653563B (zh) * | 2016-05-24 | 2019-03-11 | 仁寶電腦工業股份有限公司 | 投影觸控的圖像選取方法 |
US10720082B1 (en) | 2016-09-08 | 2020-07-21 | Ctskh, Llc | Device and system to teach stem lessons using hands-on learning method |
US10139973B2 (en) | 2016-11-09 | 2018-11-27 | Dell Products L.P. | Information handling system totem tracking management |
US10146366B2 (en) * | 2016-11-09 | 2018-12-04 | Dell Products L.P. | Information handling system capacitive touch totem with optical communication support |
US10496216B2 (en) | 2016-11-09 | 2019-12-03 | Dell Products L.P. | Information handling system capacitive touch totem with optical communication support |
US10139930B2 (en) | 2016-11-09 | 2018-11-27 | Dell Products L.P. | Information handling system capacitive touch totem management |
US10139951B2 (en) | 2016-11-09 | 2018-11-27 | Dell Products L.P. | Information handling system variable capacitance totem input management |
US10394342B2 (en) | 2017-09-27 | 2019-08-27 | Facebook Technologies, Llc | Apparatuses, systems, and methods for representing user interactions with real-world input devices in a virtual space |
US10459528B2 (en) | 2018-02-28 | 2019-10-29 | Dell Products L.P. | Information handling system enhanced gesture management, control and detection |
US11087538B2 (en) * | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
US10664101B2 (en) | 2018-06-28 | 2020-05-26 | Dell Products L.P. | Information handling system touch device false touch detection and mitigation |
US10761618B2 (en) | 2018-06-28 | 2020-09-01 | Dell Products L.P. | Information handling system touch device with automatically orienting visual display |
US10635199B2 (en) | 2018-06-28 | 2020-04-28 | Dell Products L.P. | Information handling system dynamic friction touch device for touchscreen interactions |
US10852853B2 (en) | 2018-06-28 | 2020-12-01 | Dell Products L.P. | Information handling system touch device with visually interactive region |
US10817077B2 (en) | 2018-06-28 | 2020-10-27 | Dell Products, L.P. | Information handling system touch device context aware input tracking |
US10795502B2 (en) | 2018-06-28 | 2020-10-06 | Dell Products L.P. | Information handling system touch device with adaptive haptic response |
US11393170B2 (en) | 2018-08-21 | 2022-07-19 | Lenovo (Singapore) Pte. Ltd. | Presentation of content based on attention center of user |
US10991139B2 (en) | 2018-08-30 | 2021-04-27 | Lenovo (Singapore) Pte. Ltd. | Presentation of graphical object(s) on display to avoid overlay on another item |
CN110543169B (zh) * | 2019-08-16 | 2022-05-24 | 深圳优地科技有限公司 | 机器人避障方法、装置、机器人及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0335311A (ja) * | 1989-06-30 | 1991-02-15 | Sony Corp | 電子ファイル検索方法及び電子ファイル検索装置 |
JPH0452869A (ja) * | 1990-06-15 | 1992-02-20 | Sony Corp | ポータブル検索表示装置 |
JP2001183994A (ja) * | 1999-12-27 | 2001-07-06 | Sony Corp | 画像表示装置 |
WO2002052488A2 (en) * | 2000-12-27 | 2002-07-04 | Hewlett-Packard Company | Method and apparatus for virtual interaction with physical documents |
JP2003263605A (ja) * | 2002-01-17 | 2003-09-19 | Hewlett Packard Co <Hp> | 印刷文書を使用するシステムおよび方法 |
Family Cites Families (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4992650A (en) | 1990-03-29 | 1991-02-12 | International Business Machines Corporation | Method and apparatus for barcode recognition in a digital image |
US5483261A (en) | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5319214A (en) | 1992-04-06 | 1994-06-07 | The United States Of America As Represented By The Secretary Of The Army | Infrared image projector utilizing a deformable mirror device spatial light modulator |
US5821930A (en) | 1992-08-23 | 1998-10-13 | U S West, Inc. | Method and system for generating a working window in a computer system |
US7084859B1 (en) | 1992-09-18 | 2006-08-01 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
US5436639A (en) | 1993-03-16 | 1995-07-25 | Hitachi, Ltd. | Information processing system |
JP3416268B2 (ja) | 1994-06-30 | 2003-06-16 | キヤノン株式会社 | 画像認識装置及びその方法 |
US5835692A (en) | 1994-11-21 | 1998-11-10 | International Business Machines Corporation | System and method for providing mapping notation in interactive video displays |
US5900863A (en) | 1995-03-16 | 1999-05-04 | Kabushiki Kaisha Toshiba | Method and apparatus for controlling computer without touching input device |
US5831601A (en) | 1995-06-07 | 1998-11-03 | Nview Corporation | Stylus position sensing and digital camera with a digital micromirror device |
US5920688A (en) | 1995-11-13 | 1999-07-06 | International Business Machines Corporation | Method and operating system for manipulating the orientation of an output image of a data processing system |
US6750877B2 (en) | 1995-12-13 | 2004-06-15 | Immersion Corporation | Controlling haptic feedback for enhancing navigation in a graphical environment |
IL119498A (en) | 1996-10-27 | 2003-02-12 | Advanced Recognition Tech | Application launching system |
DE69626208T2 (de) | 1996-12-20 | 2003-11-13 | Hitachi Europ Ltd | Verfahren und System zur Erkennung von Handgesten |
US6266061B1 (en) | 1997-01-22 | 2001-07-24 | Kabushiki Kaisha Toshiba | User interface apparatus and operation range presenting method |
FR2765607B1 (fr) | 1997-07-04 | 1999-09-10 | Manuf Stephanoise De Transform | Dispositif connecteur d'arceaux de tente |
JP3968477B2 (ja) | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US5940076A (en) | 1997-12-01 | 1999-08-17 | Motorola, Inc. | Graphical user interface for an electronic device and method therefor |
JP2938420B2 (ja) | 1998-01-30 | 1999-08-23 | インターナショナル・ビジネス・マシーンズ・コーポレイション | ファンクション選択方法及び装置、ファンクションを選択するための制御プログラムを格納した記憶媒体、オブジェクトの操作方法及び装置、オブジェクトを操作するための制御プログラムを格納した記憶媒体、複合アイコンを格納した記憶媒体 |
US5973315A (en) | 1998-02-18 | 1999-10-26 | Litton Systems, Inc. | Multi-functional day/night observation, ranging, and sighting device with active optical target acquisition and method of its operation |
US6154214A (en) | 1998-03-20 | 2000-11-28 | Nuvomedia, Inc. | Display orientation features for hand-held content display device |
US6448987B1 (en) | 1998-04-03 | 2002-09-10 | Intertainer, Inc. | Graphic user interface for a digital content delivery system using circular menus |
US7268774B2 (en) | 1998-08-18 | 2007-09-11 | Candledragon, Inc. | Tracking motion of a writing instrument |
US6088482A (en) | 1998-10-22 | 2000-07-11 | Symbol Technologies, Inc. | Techniques for reading two dimensional code, including maxicode |
DE19917660A1 (de) * | 1999-04-19 | 2000-11-02 | Deutsch Zentr Luft & Raumfahrt | Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts |
US6522395B1 (en) | 1999-04-30 | 2003-02-18 | Canesta, Inc. | Noise reduction techniques suitable for three-dimensional information acquirable with CMOS-compatible image sensor ICS |
US6614422B1 (en) | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6433907B1 (en) | 1999-08-05 | 2002-08-13 | Microvision, Inc. | Scanned display with plurality of scanning assemblies |
US6529183B1 (en) | 1999-09-13 | 2003-03-04 | Interval Research Corp. | Manual interface combining continuous and discrete capabilities |
JP2001282445A (ja) | 2000-03-31 | 2001-10-12 | Ricoh Co Ltd | 座標入力/検出装置および情報表示入力装置 |
JP2001337978A (ja) | 2000-05-26 | 2001-12-07 | Takashi Mine | デジタル情報入力システム |
US6812907B1 (en) | 2000-07-19 | 2004-11-02 | Hewlett-Packard Development Company, L.P. | Segmented electronic display |
US7161578B1 (en) | 2000-08-02 | 2007-01-09 | Logitech Europe S.A. | Universal presentation device |
US6791530B2 (en) | 2000-08-29 | 2004-09-14 | Mitsubishi Electric Research Laboratories, Inc. | Circular graphical user interfaces |
US6788813B2 (en) * | 2000-10-27 | 2004-09-07 | Sony Corporation | System and method for effectively performing a white balance operation |
US6925611B2 (en) | 2001-01-31 | 2005-08-02 | Microsoft Corporation | Navigational interface for mobile and wearable computers |
US6461009B2 (en) | 2001-03-01 | 2002-10-08 | Whelen Engineering Company, Incorporated | Modular rotatable warning light |
US6959102B2 (en) | 2001-05-29 | 2005-10-25 | International Business Machines Corporation | Method for increasing the signal-to-noise in IR-based eye gaze trackers |
US20040005920A1 (en) * | 2002-02-05 | 2004-01-08 | Mindplay Llc | Method, apparatus, and article for reading identifying information from, for example, stacks of chips |
US7305115B2 (en) * | 2002-02-22 | 2007-12-04 | Siemens Energy And Automation, Inc. | Method and system for improving ability of a machine vision system to discriminate features of a target |
JP2003258189A (ja) * | 2002-03-01 | 2003-09-12 | Toshiba Corp | 半導体装置及びその製造方法 |
AU2003262746A1 (en) | 2002-08-20 | 2004-03-11 | Fusionarc, Inc. | Method of multiple algorithm processing of biometric data |
US7120280B2 (en) | 2002-09-27 | 2006-10-10 | Symbol Technologies, Inc. | Fingerprint template generation, verification and identification system |
US20060034492A1 (en) | 2002-10-30 | 2006-02-16 | Roy Siegel | Hand recognition system |
US7390092B2 (en) | 2002-11-08 | 2008-06-24 | Belliveau Richard S | Image projection lighting devices with visible and infrared imaging |
US6840627B2 (en) | 2003-01-21 | 2005-01-11 | Hewlett-Packard Development Company, L.P. | Interactive display device |
WO2004079658A1 (ja) | 2003-03-07 | 2004-09-16 | Nippon Telegraph And Telephone Corporation | 生体画像照合装置およびその照合方法 |
JP2004304718A (ja) | 2003-04-01 | 2004-10-28 | Nara Institute Of Science & Technology | 近接領域画像抽出装置及び近接領域画像抽出方法 |
US7379562B2 (en) | 2004-03-31 | 2008-05-27 | Microsoft Corporation | Determining connectedness and offset of 3D objects relative to an interactive surface |
EP2408193A3 (en) * | 2004-04-16 | 2014-01-15 | James A. Aman | Visible and non-visible light sensing camera for videoing and object tracking |
US7310085B2 (en) | 2004-04-22 | 2007-12-18 | International Business Machines Corporation | User interactive computer controlled display system enabling a user remote from a display screen to make interactive selections on the display screen with a laser beam projected onto the display screen |
US7394459B2 (en) | 2004-04-29 | 2008-07-01 | Microsoft Corporation | Interaction between objects and a virtual environment display |
US7787706B2 (en) | 2004-06-14 | 2010-08-31 | Microsoft Corporation | Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface |
US7593593B2 (en) | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US7519223B2 (en) | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US7826687B2 (en) * | 2005-03-18 | 2010-11-02 | The Invention Science Fund I, Llc | Including contextual information with a formed expression |
US7525538B2 (en) | 2005-06-28 | 2009-04-28 | Microsoft Corporation | Using same optics to image, illuminate, and project |
US8060840B2 (en) | 2005-12-29 | 2011-11-15 | Microsoft Corporation | Orientation free user interface |
-
2004
- 2004-10-19 US US10/969,746 patent/US7576725B2/en active Active
-
2005
- 2005-09-16 JP JP2005270830A patent/JP4814597B2/ja not_active Expired - Fee Related
- 2005-09-27 EP EP05108904A patent/EP1650645A3/en not_active Ceased
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0335311A (ja) * | 1989-06-30 | 1991-02-15 | Sony Corp | 電子ファイル検索方法及び電子ファイル検索装置 |
JPH0452869A (ja) * | 1990-06-15 | 1992-02-20 | Sony Corp | ポータブル検索表示装置 |
JP2001183994A (ja) * | 1999-12-27 | 2001-07-06 | Sony Corp | 画像表示装置 |
WO2002052488A2 (en) * | 2000-12-27 | 2002-07-04 | Hewlett-Packard Company | Method and apparatus for virtual interaction with physical documents |
JP2005501305A (ja) * | 2000-12-27 | 2005-01-13 | ヒューレット・パッカード・カンパニー | 物理的な文書と仮想的に相互作用するための方法および装置 |
JP2003263605A (ja) * | 2002-01-17 | 2003-09-19 | Hewlett Packard Co <Hp> | 印刷文書を使用するシステムおよび方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010170474A (ja) * | 2009-01-26 | 2010-08-05 | Canon Inc | 画像表示装置及び画像表示方法 |
JP2012099093A (ja) * | 2010-10-08 | 2012-05-24 | Ag Ltd | タッチパッド用の入力デバイス、プログラム、データ処理方法およびデータ処理装置 |
WO2013042394A1 (ja) * | 2010-10-08 | 2013-03-28 | 株式会社エージーリミテッド | タッチパッド用の入力デバイス、プログラム、データ処理方法およびデータ処理装置 |
JP2012168612A (ja) * | 2011-02-10 | 2012-09-06 | Nippon Telegr & Teleph Corp <Ntt> | 操作情報入力システム |
JP2012120849A (ja) * | 2012-01-06 | 2012-06-28 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成装置 |
JP2013178679A (ja) * | 2012-02-28 | 2013-09-09 | Nippon Telegr & Teleph Corp <Ntt> | 操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法 |
JP2013178678A (ja) * | 2012-02-28 | 2013-09-09 | Nippon Telegr & Teleph Corp <Ntt> | 操作情報入力システム及び操作情報入力システムによって実行されるコンテンツ検索方法 |
JP2015519625A (ja) * | 2012-03-01 | 2015-07-09 | ブラックベリー リミテッド | 画像エディタにおいて画像フィルタを適用するためのドラッグハンドル |
JP6009584B2 (ja) * | 2012-12-26 | 2016-10-19 | グリー株式会社 | 表示処理方法及び情報装置 |
JPWO2014103634A1 (ja) * | 2012-12-26 | 2017-01-12 | グリー株式会社 | 表示処理方法及び情報装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4814597B2 (ja) | 2011-11-16 |
EP1650645A2 (en) | 2006-04-26 |
US7576725B2 (en) | 2009-08-18 |
US20060092170A1 (en) | 2006-05-04 |
EP1650645A3 (en) | 2007-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4814597B2 (ja) | 仮想物体を操作するための透明コーディングされた透明物体の使用 | |
US8060840B2 (en) | Orientation free user interface | |
US7407106B2 (en) | Method and system for hiding visible infrared markings | |
US7535463B2 (en) | Optical flow-based manipulation of graphical objects | |
JP6078884B2 (ja) | カメラ式マルチタッチ相互作用システム及び方法 | |
US7535481B2 (en) | Orienting information presented to users located at different sides of a display surface | |
US7168813B2 (en) | Mediacube | |
US7379562B2 (en) | Determining connectedness and offset of 3D objects relative to an interactive surface | |
JP5950130B2 (ja) | カメラ式マルチタッチ相互作用装置、システム及び方法 | |
CN114402290A (zh) | 用于与三维环境进行交互的设备、方法和图形用户界面 | |
US11816256B2 (en) | Interpreting commands in extended reality environments based on distances from physical input devices | |
US20050277071A1 (en) | Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface | |
EP1621985A2 (en) | Method and system for the interaction between objects and a virtual environment | |
US20060007124A1 (en) | Disposing identifying codes on a user's hand to provide input to an interactive display application | |
JP2011238292A (ja) | 赤外線画像作成システムにおける不要信号の影響を低減させるための方法およびシステム | |
CN116261704A (zh) | 用于与三维环境进行交互的设备、方法和图形用户界面 | |
KR102473669B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
US20230384860A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
US20240203066A1 (en) | Methods for improving user environmental awareness | |
KR101012081B1 (ko) | 테이블탑 인터페이스를 이용한 콘텐츠 제공 시스템 및 방법 | |
Sato et al. | MlioLight: Projector-camera Based Multi-layered Image Overlay System for Multiple Flashlights Interaction | |
JP3639581B2 (ja) | 自動写真作成装置 | |
JP4388418B2 (ja) | 自動写真作成装置 | |
Chiu et al. | Continuous circular scribble arts. | |
Spassova | Interactive ubiquitous displays based on steerable projection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110425 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110823 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110826 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140902 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |