JP2012512453A - 光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム - Google Patents
光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2012512453A JP2012512453A JP2011540236A JP2011540236A JP2012512453A JP 2012512453 A JP2012512453 A JP 2012512453A JP 2011540236 A JP2011540236 A JP 2011540236A JP 2011540236 A JP2011540236 A JP 2011540236A JP 2012512453 A JP2012512453 A JP 2012512453A
- Authority
- JP
- Japan
- Prior art keywords
- user input
- marker
- display
- optical
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
Abstract
電子デバイスは、入力ディスプレイ上に複数の入力キーを有するユーザ入力ディスプレイを含む。複数の入力キーのそれぞれは、入力ディスプレイのための入力機能に対応する。光学検出器は、ユーザ入力デバイスを含む光学データを検出するように構成される。ユーザ入力デバイスは、その上に光学マーカを有する。ユーザ入力管理システムは、ユーザ入力ディスプレイおよび光学検出器と連結される。ユーザ入力管理システムは、光学検出器から光学データを受信し、光学データに基づいて、ユーザ入力ディスプレイに対してユーザ入力デバイスの光学マーカの位置を特定し、および、光学マーカの位置に応じてディスプレイ上の複数の入力キーの選択された1つを特定するように構成される。
Description
本発明は、電子デバイスに関し、特に電子デバイスに対するユーザインタフェース、および電子デバイスにユーザインタフェースを提供する方法およびコンピュータプログラムに関する。
無線通信端末(例えば、携帯電話)、携帯情報端末(PDA)、パームトップ・コンピュータ等の多くの電子デバイスは、特にウェブページ、画像およびビデオを表示するために使用されてもよいモノクロおよび/またはカラーのディスプレイ・スクリーンを含む。ポータブル電子デバイスは、インターネット・コンテンツにアクセスして表示するように構成されるインターネット・ブラウザ・ソフトウェアを含んでもよい。従って、これらのデバイスは、局所的に格納された情報コンテンツおよび/またはインターネット等のネットワークを通じてアクセス可能な情報コンテンツを含んだ、広範囲な情報コンテンツにアクセスする能力を有し得る。
従来のデスクトップ・コンピュータおよびラップトップ・コンピュータと同様に、ポータブル電子デバイスは、スクリーンアイコン等の、グラフィカル・オブジェクトを使用してユーザがプログラムおよびファイルを操作するのを可能にするグラフィカル・ユーザ・インタフェースを備えている。しかしながら、ポータブル電子デバイスのディスプレイ・スクリーン上でのグラフィカル・オブジェクトの選択は、煩わしく困難であり得る。グラフィカル・ユーザ・インタフェースを有する初期のデバイスは、通常、ユーザが所望のオブジェクトをハイライトおよび選択することを可能にする方向キーおよび選択キーを使用していた。そのようなインタフェースは、所望のオブジェクトをハイライトおよび選択するためにいくつかのボタンの押下を必要とするかもしれないので、使用するのに時間を要し、煩わしい可能性がある。
最近のデバイスは、オブジェクトが表示されているスクリーン上の位置を押下することによって、所望のオブジェクトをユーザが選択するのを可能にするタッチセンサ式スクリーンを採用している。しかしながら、そのようなデバイスは、実際にはある欠点を有する。例えば、タッチスクリーンのデジタイザは時間と共に”ドリフト”し得、その結果スクリーンがタッチされた位置をタッチスクリーンが不適切に解釈し得る。従って、タッチスクリーンは、デジタイザが適切にタッチ位置を解釈していることを保証するために定期的に再調整されなければならないかもしれない。
さらにその上、タッチスクリーンの空間分解能が比較的高い可能性がある間は、ユーザは、通常、指先でタッチスクリーンにタッチすることによって、タッチスクリーンと情報をやり取りすることを望む。従って、ユーザの指先サイズが、実際の利用可能なタッチスクリーンの分解能を制限し、それは特に、大きな手を有するユーザにとって、スクリーン上の小さなオブジェクトまたはアイコンを操作することが困難であり得ることを意味する。システム設計者は、多数の人々によって使用され得るインタフェースを設計するという課題に直面しており、従って大抵の人々にとって必要なアイコンよりも大きいアイコンを有するインタフェースを設計するかもしれない。タッチスクリーンの代わりにスタイラスペンを使用することによって、より良好なタッチ分解能が取得され得る。しかしながら、ユーザはデバイスと情報をやり取りするために、スタイラスペン等の別個の機器を使用しなければならないことは望まないかもしれない。
本発明のいくつかの実施形態に従った電子デバイスは、入力ディスプレイ上に複数の入力キーを有するユーザ入力ディスプレイを含む。複数の入力キーのそれぞれは、入力ディスプレイのための入力機能に対応する。光学検出器は、ユーザ入力デバイスを含む光学データを検出するように構成される。ユーザ入力デバイスは、その上に光学マーカを有する。ユーザ入力管理システムは、ユーザ入力ディスプレイおよび光学検出器と連結される。ユーザ入力管理システムは、光学検出器から光学データを受信し、光学データに基づいて、ユーザ入力ディスプレイに対してユーザ入力デバイスの光学マーカの位置を特定し、および、光学マーカの位置に応じてディスプレイ上の複数の入力キーの選択された1つを特定するように構成される。
いくつかの実施形態において、ユーザ入力ディスプレイは、ユーザ入力デバイスがユーザ入力ディスプレイと接触する際にタッチセンサデータを検出するように構成されたタッチセンサ式ディスプレイをさらに含む。ユーザ入力管理システムは、タッチセンサ式ディスプレイユニットからタッチセンサデータを受信し、光学データおよびタッチセンサデータを関連付け、および、タッチセンサデータおよび光学マーカの位置に応じてディスプレイ上の複数の入力キーの選択された1つを特定するようにさらに構成される。
いくつかの実施形態において、ユーザ入力デバイスは指であり、ユーザ入力マーカはマーカをユーザ入力デバイスと光学的に区別する対照色および/または対照明度を有する。ユーザ入力マーカは、ユーザ入力デバイスの中心領域に位置し得る。いくつかの実施形態において、ユーザ入力マーカは、ユーザ入力マーカをユーザの指へ取り付けるように構成されたスリーブ(sleeve)および/またはグローブ(glove)へ接続される。
いくつかの実施形態において、ユーザ入力管理システムは、ユーザ入力マーカの位置に基づいて複数の入力キーの選択された1つを視覚的に拡大するように構成される。ユーザ入力管理システムは、ユーザ入力マーカとユーザ入力デバイスとの間での対称的な色および/または明度に基づいて、ユーザ入力マーカを特定するように構成され得る。
いくつかの実施形態において、ユーザ入力ディスプレイにおける入力を検出することによってハンドヘルド電子デバイスを動作する方法が提供される。入力ディスプレイ上に複数の入力キーを有するユーザ入力ディスプレイが提供される。複数の入力キーのそれぞれは、入力ディスプレイのための入力機能に対応する。ユーザ入力デバイスは、ユーザ入力デバイスを含む光学データを検出するように構成された光学検出器を使用して光学的に検出される。ユーザ入力デバイスは、その上に光学マーカを有する。ユーザ入力デバイスの光学マーカの位置は、光学データに基づいてユーザ入力ディスプレイに対して特定される。ディスプレイ上の複数の入力キーの選択された1つは、光学マーカの位置に応じて特定される。
いくつかの実施形態において、ユーザ入力デバイスがユーザ入力ディスプレイと接触する際に、タッチセンサデータが検出される。光学データおよびタッチセンサデータは、タッチセンサデータおよび光学マーカの位置に応じて、ディスプレイ上で複数の入力キーの選択された1つを特定するために、関連付けられる。
いくつかの実施形態において、ユーザ入力デバイスは指であり、ユーザ入力マーカは、マーカとユーザ入力デバイスとを光学的に区別する対照色および/または対照明度を有する。ユーザ入力マーカは、ユーザ入力デバイスの中心領域に位置し得る。
いくつかの実施形態において、ユーザ入力マーカは、ユーザ入力マーカをユーザの指へ取り付けるように構成されたスリーブおよび/またはグローブと接続されている。
いくつかの実施形態において、複数の入力キーの選択された1つは、ユーザ入力マーカの位置に基づいて視覚的に拡大される。
いくつかの実施形態において、ユーザ入力マーカは、ユーザ入力マーカとユーザ入力デバイスとの間の対照色および/または対照明度に基づいて特定される。
いくつかの実施形態に従って、ユーザ入力ディスプレイ上でユーザ入力を検出することによってハンドヘルド電子デバイスを動作するコンピュータプログラムが提供される。ユーザ入力ディスプレイは、入力ディスプレイ上に複数の入力キーを有する。複数の入力キーのそれぞれは、入力ディスプレイのための入力機能に対応する。コンピュータプログラム製品は、媒体に具体化されたコンピュータ読み取り可能なプログラムコードを有するコンピュータ読み取り可能な記憶媒体を含む。コンピュータ読み取り可能なプログラムコードは、光学検出器を使用してユーザ入力デバイスを光学的に検出するように構成されたコンピュータ読み取り可能なプログラムコードを含む。ユーザ入力デバイスは、その上に光学マーカを有する。コンピュータ読み取り可能なプログラムコードは、光学データに基づいてユーザ入力ディスプレイに対してユーザ入力デバイスの光学マーカの位置を特定するように構成される。コンピュータ読み取り可能なプログラムコードは、光学マーカの位置に応じてディスプレイ上の複数の入力キーの選択された1つを特定するように構成される。
いくつかの実施形態において、コンピュータ読み取り可能なプログラムコードは、ユーザ入力デバイスがユーザ入力ディスプレイと接触する際にタッチセンサデータを検出するように構成され、コンピュータ読み取り可能なプログラムコードは、タッチセンサデータおよび光学マーカの位置に応じてディスプレイにおける複数の入力キーの選択された1つを特定するために、光学データとタッチセンサデータとを関連付けるように構成される。
いくつかの実施形態において、コンピュータ読み取り可能なプログラムコードは、ユーザ入力マーカがユーザ入力デバイスの中心領域に位置している際にユーザ入力マーカを検出するように構成される。
いくつかの実施形態において、コンピュータ読み取り可能なプログラムコードは、ユーザ入力マーカの位置に基づいて複数の入力キーの選択された1つを視覚的に拡大するように構成される。
いくつかの実施形態において、コンピュータ読み取り可能なプログラムコードは、ユーザ入力マーカとユーザ入力デバイスとの間の対照色および/または対照明度に基づいて、ユーザ入力マーカを特定するように構成される。
本発明の実施形態に従った他のシステム、方法、および/またはコンピュータプログラムは、以下の図面および詳細な説明のレビューにより当業者にとって明らかまたは明らかになるであろう。全てのそのような追加のシステム、方法、および/またはコンピュータプログラムが、この説明に含まれており、本発明の範囲に含まれており、および添付の特許請求の範囲によって保護されることが意図される。
本発明のさらなる理解を提供するために含まれ、および、本願に組み込まれ、本願の一部を構成する添付の図面は、本発明のある(複数の)実施形態を説明する。
図1は、本発明のいくつかの実施形態に従った、携帯電子デバイス等の、電子デバイスの正面図である。
図2は、本発明のいくつかの実施形態に従った、図1の電子デバイスおよびユーザ入力デバイスの側面図である。
図3は、本発明のいくつかの実施形態に従って実行され得るいくつかの動作を説明する図1の電子デバイスのキーパッドディスプレイの正面図である。
図4は、ユーザ入力管理システム、オペレーティングシステム、および本発明のいくつかの実施形態に従って構成された電子デバイスにおけるアプリケーションプログラムの概略図である。
図5は、本発明のいくつかの実施形態に従った動作を説明するフローチャートである。
図6は、本発明のいくつかの実施形態に従ったポータブル電子デバイスである。
本発明のいくつかの実施形態が示される添付の図面を参照して、本発明はより十分に説明されるだろう。しかしながら、本発明は、ここで説明される実施形態を限定するものとして解釈されるべきではない。むしろ、これらの実施形態は、この開示が完璧且つ完全であり、当業者に本発明の範囲を伝達するように提供される。同様の番号は全体を通じて同様の要素を参照する。
ここで使用される、用語“備えている”または“備える”は非限定的であり、1つ以上の述べられた特徴、要素、工程、構成要素または機能を含むが、1つ以上の他の特徴、要素、工程、構成要素、機能またはそれらの集合の存在または追加を除外しない。ここで使用される、用語“および/または”は関連付けられリスト化された項目の1つ以上の何れかおよび全ての組み合わせを含む。ここで使用される専門用語は特定の実施形態のみを説明する目的のためのものであり、本発明を限定することは意図されない。ここで使用される、単数形“1つの”および“その”は、文脈が明確にそうでないことを示さない限り、複数形も含むことが意図される。
別段定義されない限り、ここで使用される(技術用語および科学用語を含む)全ての用語は、本発明が属する当業者によって通常理解される意味と同じ意味を有する。通常使用される辞書で定義される用語等の用語は、この開示および従来の技術の文脈での意味と一致する意味を有するように解釈されるべきであり、ここで明確にそのように定義されない限り、理想的または過度に正式な意味で解釈されないであろうことがさらに理解されるだろう。
1つの要素が別の要素と“連結される”または“接続される”と称される場合、それは他の要素と直接連結または接続され得、または介在要素が存在してもよいことが理解されるだろう。その一方、要素が別の要素と“直接連結される”または“直接接続される”と称される場合、介在要素は存在しない。さらにその上、ここで使用される“連結された”または“接続された”は、無線で連結または接続されることを含んでもよい。
本発明は、方法、電子デバイス、および/またはコンピュータプログラムとして具体化されてもよい。従って、本発明は、ハードウェア(例えば、制御回路または命令実行システム)および/または(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)ソフトウェアで具体化されてもよい。さらにその上、本発明は、命令実行システムによる使用のために、または命令実行システムと接続して、媒体において具体化されるコンピュータ使用可能なまたはコンピュータ読み取り可能なプログラムコードを有するコンピュータ使用可能なまたはコンピュータ読み取り可能な記憶媒体上におけるコンピュータプログラム製品の形式をとってもよい。この文書に照らして、コンピュータ使用可能なまたはコンピュータ読み取り可能な媒体は、命令実行システム、装置、コントローラまたはデバイスによる使用のために、または命令実行システム、装置、コントローラまたはデバイスと関連した使用のために、電子的に/磁気的に/光学的にプログラムを保持し得るあらゆる媒体であってもよい。
本発明に従った実施形態は、ブロック図、および/または、方法および通信端末の動作説明図を参照して説明される。この点で、各ブロックは、特定の論理機能(logical function)を実施する1つ以上の実行可能な命令を備える、モジュール、セグメント、またはコード部を表してもよい。ブロック図および/または動作説明図の各ブロック、および、ブロック図および/または動作説明図におけるブロックの組み合わせ、は無線周波数、アナログおよび/またはデジタルハードウェア、および/またはプログラム命令によって実施され得ることが理解されるべきである。これらのプログラム命令は、コントローラおよび/または他のプログラム可能なデータ処理装置を介して実行される命令が、ブロック図および/または動作ブロックで特定される機能/動作(act)を実施する手段を創出するように、1つ以上の汎用プロセッサ、専用プロセッサ、ASIC、および/または、他のプログラム可能なデータ処理装置を含んでもよいコントローラに提供されてもよい。いくつかの代替実施において、ブロックで述べられる機能/動作(act)は、動作説明図で述べられた順序以外で生じてもよい。例えば、連続して示される1つのブロックは実際には実質的に同時に実行されてもよく、または関連する機能性/動作(act)に依存して、場合によっては逆順に実行されてもよい。
コンピュータ使用可能なまたはコンピュータ読み取り可能なメモリに格納される命令が、フローチャートおよび/またはブロック図のブロックで特定される機能を実施する命令を含む製品を生産するように、コンピュータまたは他のプログラム可能なデータ処理装置を特定の方法で機能させてもよいこれらのコンピュータプログラム命令は、コンピュータ使用可能なまたはコンピュータ読み取り可能なメモリに格納されてもよい。
コンピュータ使用可能なまたはコンピュータ読み取り可能な媒体は、例えば電子的、磁気的、光学的、電磁気的、または半導体の、システム、装置、またはデバイスであってもよいが、これらに限定されない。コンピュータ読み取り可能な媒体のより具体的な例(限定的なリスト)は以下を含む:ハードディスク、光学記憶デバイス、磁気記憶デバイス、ポータブル・フロッピー(登録商標)・ディスク、ランダム・アクセス・メモリ(RAM)、リード・オンリー・メモリ(ROM)、消去可能プログラマブル・リード・オンリー・メモリ(EPROMまたはフラッシュメモリ)、およびコンパクトディスク・リード・オンリー・メモリ(CD−ROM)。
電子デバイスは、公衆交換電話網(PSTN)、デジタル加入者回線(DSL)、デジタルケーブル、または別のデータ接続/データネットワーク等の有線接続を通じて、および/または例えばセルラーネットワーク、衛星ネットワーク、無線ローカル・エリア・ネットワーク(WLAN)、および/または、別の通信端末との無線インタフェースを通じて、通信信号を受信/送信するように構成された通信端末として機能し得る。
無線インタフェースを通じて通信するように構成された電子デバイスは、“無線通信端末”または“無線端末”と称され得る。無線端末の例は、携帯電話、携帯情報端末(PDA)、ポケットベル、および/または、携帯電話インタフェース、Bluetooth(登録商標)インタフェース、無線ローカル・エリア・ネットワーク・インタフェース(例えば、802.11)別のRF無線インタフェース、および/または光学/赤外線通信インタフェースを含み得る無線通信インタフェースを通じてデータを通信するように構成されたコンピュータ、を含むがこれらに限定されない。
ポータブル電子デバイスは、持ち運び可能であってもよく、可搬であってもよく、(航空、海洋、または陸上ベースの)車両にインストールされてもよく、局所的におよび/または地球上または宇宙の任意の他の位置で分散して動作するように配置および/または構成されてもよい。“ハンドヘルド”モバイル端末によって、モバイル端末の外形寸法が片手を使用する一般的な操作者による使用に適合し、適していることが意味される。いくつかの実施形態によれば、ハンドヘルドモバイル端末の全容積は約200ccよりも小さい。いくつかの実施形態によれば、ハンドヘルドモバイル端末の全容積は約100ccよりも小さい。いくつかの実施形態によれば、ハンドヘルドモバイル端末の全容積は50ccと100ccとの間である。いくつかの実施形態によれば、ハンドヘルドモバイル端末の寸法は約200mmを超過しない。
図1−6を参照して以下に本発明のいくつかの実施形態が説明されるだろう。本発明のいくつかの実施形態は、従来のデスクトップ・コンピュータ/ラップトップ・コンピュータよりも制限されたユーザ入力機能有するかもしれないポータブル電子デバイスまたはハンドヘルド電子デバイスとの関連で特に役立つかもしれない。
図1−2は、いくつかの実施形態に従ったポータブルまたはハンドヘルド電子デバイス10を説明する。ポータブル電子デバイス10は、ユーザ入力ディスプレイすなわちスクリーン20、および別のユーザ入力ディスプレイすなわち英数字キーパッド60が設けられる正面部12Aを含む筺体12を含む。正面部は、方向キー(上(↑)、下(↓)、左(←)、および右(→))および選択キー(SEL)を含んだ一組の選択キー58も有する。
図1で説明されるように、アイコン54等の多数のオブジェクト52がディスプレイ・スクリーン20に表示され得る。各アイコンは、アプリケーションプログラム、ユーティリティ・プログラム、コマンド、ファイル、および/またはデバイス10に格納されおよび/またはデバイス10によってアクセス可能な他のタイプのオブジェクト、を表し得る。ユーザは、対応するアイコンを選択することによって、所望のプログラム、コマンド、ファイル等にアクセスし得る。例えば、アイコンは、方向キーを使用してアイコンを強調し、強調されたアイコンを、選択(SEL)キーを使用して選択することによって選択され得る。ディスプレイ・スクリーン20上の、アイコン等の所望のオブジェクトを選択する代替方法が以下に記述される。図1で説明されるように、英数字キーパッド60は、入力キー61を有する標準クワーティ・キーボードを含んでもよい。しかしながら、英数字キー60は、キー2−9がアルファベット入力のためにも使用される標準的な10個の数字の数字キーパッド等の、任意の適切な配列の入力キーを含み得ることが理解されるだろう。
いくつかの実施形態において、アイコン54および入力キー61は、複数の配列で、ディスプレイ20またはキーパッド60上で再構成されて表示され得るソフトキーである。特定の実施形態において、ディスプレイ20および/またはキーパッド60はタッチセンサ式ディスプレイを含む。
図1−2で説明されるように、デバイス10は、キーパッド60に隣接して取り付けられる、カメラ27等の光学検出器のレンズ27Aを含む。カメラ27は、その上に光学マーカ62Aを有するユーザ入力デバイス62を含んだ視野(view)27Bの領域内の光学データを検出するように構成される。いくつかの実施形態において、ユーザ入力デバイス62はユーザの指であり、光学マーカ62Aはユーザ入力デバイス62と比較して対照色または対照明度を有する。例えば、マーカ62Aは、ユーザの指に身に着けられ得る対照的なスリーブまたはグローブ上で着色されたボールまたは他のオブジェクトであり得る。しかしながら、指またはユーザ入力デバイス62に直接塗布された顔料(例えば、インク)等の、任意の適切なマーカ62Aが使用され得る。いくつかの実施形態において、マーカ62Aは、例えば画像認識技術を使用して得られる、ユーザの指における特定の位置すなわち指紋であり得る。
さらにその上、カメラ27は、キーパッド60への光学入力を検出するために視野27Bの領域内のユーザ入力デバイス62を検出するために任意の適切な位置に取り付けられ得、いくつかの実施形態において、ユーザ入力デバイス62および光学マーカ62Aを検出するために複数のカメラが使用され得る。いくつかの実施形態において、光学検出器は、ユーザ入力デバイス62を光学的に検出するためにスクリーン20および/またはキーパッド60に統合され得る。カメラ27は筐体12に統合されるものとして示されているが、カメラ27は筐体12から分離し得、無線で、および/または有線インタフェースを介して、電子デバイス10と通信し得ることがさらに理解されるだろう。
いくつかの実施形態によれば、電子デバイス10はユーザ入力管理システム40をさらに含む(図4)。ユーザ入力管理システム40は、(タッチセンサデータを含む)スクリーン20またはキーパッド60、選択キー58を通じて受け付けられた入力、および/または、カメラ27によって撮像された画像を通じて受け付けられた入力、を受け付けて処理するように構成されてもよい。
図4に示されるように、ユーザ入力管理システム40は、ポータブル電子デバイス10のオペレーティングシステム42で動作するソフトウェアモジュールとして実施されてもよい。オペレーティングシステム42は、(キーパッド60からデータを受信する)キーパッド入力モジュール41、(選択キー58からデータを受信する)選択キー入力モジュール43、(スクリーン20からデータを受信する)アイコン入力モジュール44、および/または(カメラ27からデータを受信する)カメラ入力モジュール45等のアプリケーション・ソフトウェアも動作する。従って、いくつかの実施形態において、ユーザ入力管理システム40は、ポータブル電子デバイス10において動作している複数のアプリケーションプログラムのために、キーパッド60、選択キー58、スクリーン20および/またはカメラ27からのユーザ入力を処理してもよい。オペレーティングシステム42は、インターネットブラウザ、通信プログラム、および他のマルチメディア・レンダリング・アプリケーションプログラム等の、様々な他のアプリケーションプログラムを動作するようにも構成され得る。ユーザ入力管理システム40は、ユーザ入力がモジュール41、41、44および45から受信された際にどのアプリケーションプログラムがアクティブであるかを判定し、およびユーザ入力コマンドを現在アクティブなアプリケーションへ送るように構成されてもよい。
特に、ユーザ入力管理システム40は、マーカ62A等の、ユーザ入力デバイス62の特徴を認識し得る。いくつかの実施形態において、図3に示されるように、図2のマーカ62の画像62A’はキーパッド60またはディスプレイ20の上に重ねあわされ得、マーカ62Aの移動(movement)は、例えばキー61Aの1つを選択するために、ユーザ入力管理システム40によって選択ポインタとして解釈され得る。図3に示されるようないくつかの実施形態において、ユーザ入力管理システム40は、例えば、選択されてもよいキー61Tの視覚表示をユーザに提供するために、マーカ62Aの画像62A’と重複する入力キー61Tを拡大するように構成される。キーパッド60は、ユーザ入力デバイス62がキーパッド60に触れる際等に、タッチセンサデータを検出するように構成されたタッチセンサ式ディスプレイユニットを含み得る。ユーザ入力管理システム40は、例えばアイコンを選択または操作するために、ディスプレイ20上での入力に対してマーカ62Aを同様に認識して解釈し得ることが理解されるべきである。従って、ユーザ入力管理システム40は、キーパッド60またはディスプレイ20からタッチセンサデータを受信し、選択された入力キー61またはアイコン54等の、所望の入力を特定するために、光学データおよびタッチセンサデータを相互に関連付け得る。
この構成において、ユーザの指はポインティング・オブジェクトとして動作(act)し得、マーカ62Aは、一般にタッチセンサ式スクリーンで使用されるよりも小さいキーを使用するための制御および/または精度(precision)を提供し得る。いくつかの実施形態において、キーパッド60について説明されるようなフル・クワーティ・キーボードは、一般的にタッチセンサ式スクリーンを用いて使用され得るよりも十分に小さいスペースに設けられ得る。例えば、一般的な指先は直径約12mm−18mmであり得る。いくつかの実施形態において、光学マーカは、訳0.5mm−3.0mmの直径を有し得る。従って、入力分解能は約5倍−25倍高い可能性がある。
ユーザの指としてのユーザ入力デバイス62に関していくつかの実施形態が説明されているが、人工デバイスまたはスタイラスペン等の他のポインティング・オブジェクトが使用され得ることが理解されるべきである。
ユーザの手の認識を促進するために、制御モードでの動作中に、視野27B(図2)の比較的広い領域、比較的短い焦点距離、および/または比較的浅い(short)被写界深度(depth of field;DOF)でカメラ27が構成されることが望ましいかもしれない。その結果、背景におけるオブジェクトは焦点がずれて見え、一方、レンズ27Aの近くで保持されているユーザの指等のオブジェクトは焦点が合った状態であり得る。さらにその上、デバイス10は、制御モードに入る際に自動的にDOFを所望のレベルに設定するように構成され得る。DOFは、開口サイズ、焦点距離および倍率を含む、カメラの設計および設定の多数の側面によって影響され得ることが理解されるだろう。所望の焦点距離で所望のDOFを有するためのカメラ設定は、カメラ設計者の通常の技術の範囲内である。いくつかの実施形態において、デバイス10は、カメラ視野において指先の存在を認識し得、画像認識を促進するためにカメラ設定を所望の設定に調整し得る。特定の実施形態において、カメラは比較的低解像度であり得、マーカ62Aとユーザ入力デバイス62との間での色および/または明度のコントラストを特定するように構成され得るカメラであり得る。例えば、例えば1メガピクセルまたは0.5メガピクセルより低い解像度を有するカメラが使用され得る。しかしながら、いくつかの実施形態において、ユーザの指紋上の1つの点をマーカとして特定するために例えば、12メガピクセル以上のより高解像度なカメラが使用され得る。いくつかの実施形態において、カメラは、良好なコントラスト検出、暗度管理(darkness management)および/または近接オブジェクト検出を有し得る。
いくつかの実施形態において、カメラ27は、赤外線熱信号を撮影するように構成され得、その結果、ユーザの指からの熱信号は、背景の熱ノイズと容易に区別され得る熱画像(サーマルイメージ)を生成するために使用され得る。
オブジェクト認識技術は当業者によく知られており、カメラ27の視野27Bの領域内のユーザの指の存在を認識し、視野27Bの領域内でのユーザの指62およびマーカ62Aの動きを追跡するために使用され得る。
従って、ユーザ入力管理システム40は、カメラ27の視野27Bの領域の範囲内にあるユーザの指62または入力ユニット62等のポインティング・オブジェクトの存在を認識するように構成され得る。いくつかの実施形態において、ユーザ入力管理システム40は、入力ユニット62を示すオブジェクトをディスプレイ・スクリーンに重ね合わせ得る。例えば、ユーザ入力管理システム40は、撮影されたマーカ62Aを示す矢印形状のオブジェクトを表示し得る。ポインティングマーカ62Aの画像がディスプレイ・スクリーン20またはキーパッド60に重ね合わされる際に、ポインティングマーカ62Aの画像は、ディスプレイ・スクリーン20および/またはキーパッド60を見ているユーザの観点からすると、ディスプレイ・スクリーン20またはキーパッド60上に表示されたアイコンまたはオブジェクトの上または下に表示され得ることが理解されるだろう。
ポータブル電子デバイス10は、図1および図2に1つのピースの、非フリップ型携帯電話(例えば、「キャンディバー(candy bar)」)として説明されるが、そのデバイスは、下部筺体に回転可能に取り付けられた上部筺体を含むクラムシェル型フリップ電話、主筺体が補助筺体にスライド可能に取り付けられるスライド型電話、または任意の他の構造設計であり得ることが理解されるだろう。
さらなる例として、いくつかの実施形態に従って構成されたモバイルデバイスは、遠隔デバイスを制御し得る無線式マウスとして動作(act)し得る。例えば、デバイス10は、カメラ27を用いてマーカ62Aの動きを追跡し、マーカ62Aの移動をマウスの移動および/またはマウスコマンドへ変換し得るが、マーカ62Aをスクリーン20に表示する代わりに、マーカ62Aの位置および/または移動に対応するマウス座標だけでなく実際のコマンドが遠隔デバイスへ送信され得る。
本発明の実施形態の他の可能性のある適用例は、テレビセット上でメニューを制御すること、ディスプレイとしてテレビモニターを使用して写真をサーバにソートすること等を含む。
いくつかの実施形態に従った動作が図5Aに説明される。入力ディスプレイ上に複数の入力キーを有するユーザ入力ディスプレイが設けられる(ブロック70)。複数の入力キーのそれぞれは、入力ディスプレイのための入力機能に対応する。ユーザ入力デバイスは、ユーザ入力デバイスを含む光学データを検出するように構成された光学検出器を使用して検出される(ブロック72)。ユーザ入力デバイスはその上に光学マーカを有する。ユーザ入力デバイスの光学マーカの位置は、光学データ74に基づいて、ユーザ入力ディスプレイに対して特定される(ブロック74)。複数の入力キーの選択された1つは、光学マーカの位置に応じてディスプレイ上で特定される。
図6を参照して、本発明のいくつかの実施形態に従った例示的な電子デバイス10が説明される。本発明の実施形態は無線通信端末に関連して説明されるが、本発明は、有線モバイル通信端末および/または非モバイル通信端末、および他の電子デバイスおよび方法を含んでもよいことが理解されるだろう。ポータブル電子デバイス10は、1以上の他の無線端末との間での直接無線通信インタフェースを通じて、1以上のセルラー基地局を介した別の無線通信インタフェースを通じて、および/または、無線ローカル・エリア・ネットワーク(WLAN)ルータを介した別の無線通信インタフェースを通じて、1以上の他の無線端末とデータを通信するように構成され得る。ポータブル電子デバイス10は、携帯電話である必要はないが、携帯情報端末(PDA)、ハンドヘルドGPSユニット、または他の型の電子デバイス等の、ディスプレイ・スクリーンを含む任意の他の型のポータブル電子デバイスであり得ることが理解されるだろう。
ポータブル電子デバイス10は、図6に説明されるような無線電話通信システム2の一部を形成するモバイル無線電話であってもよい。システム2は、無線通信ネットワーク5の一部である、ポータブル電子デバイス10および基地局3を含む。本発明のいくつかの実施形態において、基地局3は、セルラーネットワークにおいて個々の携帯電話(cell)を定義し、(インタフェース7を介して)ポータブル電子デバイス10と、および無線リンクプロトコルを使用してセルラーネットワークにおける他のモバイル端末と、通信する無線送受信機を含む。本発明のいくつかの実施形態において、多くの基地局は、例えばモバイル・スイッチング・センターを通じて、および、無線通信ネットワークを定義する他のデバイスを通じて、接続されてもよいことが理解されるだろう。基地局送受信機5は、通信リンク9を介して、インターネット等のデータ通信ネットワーク13へ接続されてもよい。通信リンク9は、無線通信ネットワークの要素および/または1つ以上のゲートウェイ、ルータ、または他の通信ノードを含んでもよいことが理解されるだろう。
説明される実施形態におけるポータブル電子デバイス10は、ポータブル筺体アセンブリ12、コントローラ回路30(“コントローラ”)、通信モジュール32、およびメモリ34を含む。ポータブル電子デバイス10は、ディスプレイ・スクリーン20、キーパッド60およびカメラ27を含むユーザインタフェース22をさらに含む。ユーザインタフェース22は、スピーカ24、および、1つ以上の他の入力デバイス26をさらに含み得る。入力デバイス26は、従来の無線電話に見られてもよいような、1つ以上のキャラクタだけでなく数字にも対応するキーを含む数字キーボードであってもよいキーボードを含んでもよい。デバイス10は、例えば、ここで説明されるような、ディスプレイ・スクリーン20、キーパッド60、およびカメラ27からのユーザ入力を管理して解釈するユーザ入力管理システム40を含む。
カメラ27は、CCD(電荷結合素子)、CMOS(相補型MOS)または他の型の画像センサを有するデジタルカメラを含み得、静止画像および/または動画像を記録して、ディスプレイおよび/または操作に適切なフォーマットに画像を変換するように構成され得る。
ディスプレイ・スクリーン20および/またはキーパッド60は、任意の適切なディスプレイ・スクリーン・アセンブリであってもよい。例えば、ディスプレイ・スクリーン20および/またはキーパッド60は、補助照明(例えば、照明パネル)を有するまたは有しない液晶ディスプレイ(LCD)であってもよい。場合によっては、ポータブル電子デバイス10は、特定の質のビデオコンテンツを再生することが可能であってもよい。例えば、ポータブル電子デバイス10は、例えば16:9または4:3等の特定のアスペクト比を有するビデオストリームを表示するように構成されてもよい。クォーターVGA(QVGA、320×240ピクセル)、共通中間フォーマット(CIF、360×288ピクセル)およびクォーター共通中間フォーマット(QICF、180×144ピクセル)を含む、多数の標準ビデオフォーマットがモバイル端末のために提案されている。さらにその上、いくつかのモバイル端末は、種々のディスプレイ機能を有する複数のディスプレイ・スクリーンを有してもよい。従って、ポータブル電子デバイス10は、1つ以上の異なるディスプレイフォーマットでビデオを表示することが可能であってもよい。
ディスプレイ・スクリーン20および/またはキーパッド60は、タッチを検出し、その検出されたタッチを、コントローラ30によって処理され得る位置情報に変換するように構成されるタッチセンサ式ディスプレイ・スクリーンを含み得る。
ユーザインタフェース22は、例えば、タッチ作動デバイスまたはタッチセンサ式デバイス(例えば、タッチスクリーン)、ジョイスティック、キーボード/キーパッド、ダイヤル、1つまたは複数の方向キー、および/または(マウス、トラックボール、タッチパッド等の)ポインティング・デバイスを含む任意の適切な入力デバイスを含んでもよい。スピーカ24は、入力オーディオ信号に応じて音声を生成する。ユーザインタフェース22は、マイクロフォン25への音声入射に応じてオーディオ・データ・ストリームを生成するように構成されたオーディオプロセッサと連結されたマイクロフォン25(図1)もまた含み得る。
コントローラ30は、ポータブル電子デバイス10の様々な機能をサポートしてもよく、商用または特注の任意のマイクロプロセッサであり得る。使用時に、ポータブル電子デバイス10のコントローラ30は、画像を生成して、ディスプレイ・スクリーン20および/またはキーパッド60に表示してもよい。いくつかの実施形態において、しかしながら、別個の信号プロセッサおよび/またはビデオチップ(不図示)がポータブル電子デバイス10に設けられてもよく、表示画像をディスプレイ・スクリーン20上に生成するように構成されてもよい。従って、コントローラ30の機能性は、ポータブル電子デバイス10における複数のチップ/デバイスに渡って分配され得る。
メモリ34は、デジタル・マルチメディア・ファイル(例えば、デジタル・オーディオファイル、画像ファイルおよび/またはビデオファイル)等のデジタル情報信号およびデータを格納するように構成される。
通信モジュール32は、ここで議論されるような別の遠隔無線端末と、1つ以上の無線インタフェースを通じてデータを通信するように構成される。通信モジュール32は、セルラー通信モジュール、ダイレクト・ポイント・ツー・ポイント接続モジュール、および/またはWLANモジュールを含み得る。
ポータブル電子デバイス10は、例えば、先進移動電話サービス(AMPS)、ANSI−136、グローバル・スタンダード・フォー・モバイル(GSM)通信、ジェネラル・パケット・ラジオ・サービス(GPRS)、GSM進化型高速データレート(EDGE)、符号分割多元接続(CDMA)、広帯域CDMA,CDMA2000、および、ユニバーサル移動体通信システム(UMITS)等の、1つ以上のセルラー通信プロトコルを使用して、デバイス10がネットワーク5の基地局3を介して通信することを可能にするセルラー通信モジュールを含み得る。セルラー基地局は、PSTNおよび/または別のネットワークへ順に接続され得るモバイル・テレフォン・スイッチング・オフィス(MTSO)無線ネットワークへ接続されてもよい。
ダイレクト・ポイント・ツー・ポイント接続モジュールは、ダイレクトRF通信モジュールまたはダイレクトIR通信モジュールを含んでもよい。ダイレクトRF通信モジュールは、Bluetoothモジュールを含んでもよい。Bluetoothモジュールを用いて、ポータブル電子デバイス10は、ダイレクト・ポイント・ツー・ポイントインタフェースを通じたアドホック・ネットワークを介して通信し得る。
WLANモジュールを用いて、無線端末10は、802.11a、802.11b、802.11e、802.11g、802.11iを含んでもよいがこれらに限定されない通信プロトコルを使用してWLANを通じて通信し得る。
通信モジュール32は、それぞれ、発信無線周波数信号を(例えば、ネットワークへ、ルータへ、または直接的に別の端末へ)送信し、および、アンテナを介して音声信号およびデータ信号等の着信無線周波数信号を(例えば、ネットワーク5から、ルータから、または直接的に別の端末から)受信する、送信機回路および受信機回路を一般に有する送受信機を含み得る。通信モジュール32は、Bluetooth送受信機等の、短距離送受信機を含んでもよい。アンテナは、内蔵アンテナ、引き込み可能なアンテナ、または本発明の範囲を逸脱しない当業者に既知である任意のアンテナであってもよい。別の相手または宛先(destination)との通信を確立して維持するために使用される、ポータブル電子デバイス10と、ネットワーク5、ルータまたは他の端末と、の間で送信される無線周波数信号は、トラフィック信号および制御信号(例えば、着信に対する呼び出し信号/メッセージ)の両方を含んでもよい。無線周波数信号は、例えば、セルラー・デジタル・パケット・データ(CDPD)情報等のパケットデータ情報を含んでもよい。さらに、送受信機は、IRポートを介して他の電子デバイスへ/から赤外線信号を送信/受信するように構成された赤外線(IR)送受信機を含んでもよい。
ポータブル電子デバイス10はまた、ポータブル電子デバイス10と別の端末の間でのデジタル通信信号の送信のための有線またはケーブルを介して、別の端末と電気的に通信するように構成されてもよい。
図6は、モバイル端末および/または他の電子デバイスで使用されてもよい例示的なハードウェア/ソフトウェア・アーキテクチャを説明するが、本発明はそのような構成に限定されず、ここで議論される動作を実行することが可能な任意の構成を包含することが意図されるということが理解されるだろう。例えば、メモリ34はコントローラ30とは分離するものとして説明されるが、メモリ34またはその部分は、コントローラ30の一部として考えられてもよい。より一般的に、特定の機能が、説明図によって特定のブロックで示されるが、種々のブロックの機能および/またはその一部が組み合わされ、分割され、および/または除外されてもよい。さらに、図6のハードウェア/ソフトウェア・アーキテクチャの機能は、本発明の様々な実施形態に従って単一プロセッサシステムまたはマルチプロセッサシステムとして実施されてもよい。
さらにその上、デバイス10と一体として示されるカメラ27等の要素は、カメラ27等の要素とデバイス10との間に設けられる通信パスを用いてデバイス10から分離し得る。
前述したものは本発明の実例であり、本発明を限定するものとして解釈されるべきではない。本発明のいくつかの例示的な実施形態が説明されているが、本発明の新規な教示および有利な点から実質的に逸脱することなく、例示的な実施形態において多くの変形が可能であることを当業者は容易に理解するだろう。従って、全てのそのような変形は請求の範囲で定義されるような本発明の範囲に含まれることが意図される。それ故、前述したものは本発明の実例であり、開示された特定の実施形態を限定するものとして解釈されるべきではないこと、および、開示された実施形態だけではなく、他の実施形態への変形が、添付の請求の範囲に含まれることが意図されることが理解されるべきである。本発明は、以下の請求の範囲によって定義され、当該請求の範囲の均等物がそこに含まれる。
Claims (19)
- 電子デバイスであって、
入力ディスプレイ上に複数の入力キーを有するユーザ入力ディスプレイと、
ユーザ入力デバイスを含んだ光学データを検出するように構成された光学検出器と、
前記ユーザ入力ディスプレイおよび前記光学検出器と連結されたユーザ入力管理システムと、を備え、
前記複数の入力キーのそれぞれは前記入力ディスプレイのための入力機能に対応し、
前記ユーザ入力デバイスは光学マーカを有し、
前記ユーザ入力管理システムは、前記光学検出器から光学データを受信し、前記光学データに基づいて前記ユーザ入力ディスプレイに対する前記ユーザ入力デバイスの前記光学マーカの位置を特定し、および、前記光学マーカの位置に応じてディスプレイ上の前記複数の入力キーの選択された1つを特定するように構成されることを特徴とする電子デバイス。 - 前記ユーザ入力ディスプレイは、前記ユーザ入力デバイスが前記ユーザ入力ディスプレイと接触する際に、タッチセンサデータを検出するように構成されたタッチセンサディスプレイをさらに備え、
前記ユーザ入力管理システムは、前記タッチセンサディスプレイユニットからタッチセンサデータを受信し、前記光学データおよび前記タッチセンサデータを関連付け、および、前記タッチセンサデータおよび前記光学マーカの位置に応じてディスプレイ上の前記複数の入力キーの前記選択された1つを特定するようにさらに構成されることを特徴とする請求項1に記載の電子デバイス。 - 前記ユーザ入力デバイスは指を含み、前記ユーザ入力マーカは、前記マーカと前記ユーザ入力デバイスとを光学的に区別する対照色と対照明度との少なくとも1つを有することを特徴とする請求項1または2に記載の電子デバイス。
- 前記ユーザ入力マーカは、前記ユーザ入力デバイスの中心領域に位置することを特徴とする請求項1乃至3の何れか1項に記載の電子デバイス。
- 前記ユーザ入力マーカは、前記ユーザ入力マーカをユーザの指へ取り付けるように構成されたスリーブとグローブとの少なくとも1つと接続されていることを特徴とする請求項1乃至4の何れか1項に記載の電子デバイス。
- 前記ユーザ入力管理システムは、前記ユーザ入力マーカの位置に基づいて前記複数の入力キーの選択された1つを視覚的に拡大するように構成されることを特徴とする請求項1乃至5の何れか1項に記載の電子デバイス。
- 前記ユーザ入力管理システムは、前記ユーザ入力マーカと前記ユーザ入力デバイスとの間の対照色と対照明度との少なくとも1つに基づいて前記ユーザ入力マーカを特定するように構成されることを特徴とする請求項1乃至6の何れか1項に記載の電子デバイス。
- ユーザ入力ディスプレイにおける入力を検出することによってハンドヘルド電子デバイスを動作する方法であって、前記方法は、
ユーザ入力ディスプレイ上にそれぞれが前記ユーザ入力ディスプレイのための入力機能に対応する複数の入力キーを有する、前記ユーザ入力ディスプレイを設ける工程と、
光学マーカを有するユーザ入力デバイスを含んだ光学データを検出するように構成された光学検出器を使用して、前記ユーザ入力デバイスを光学的に検出する工程と、
前記光学データに基づいて前記ユーザ入力ディスプレイに対する前記ユーザ入力デバイスの前記光学マーカの位置を特定する工程と、
前記光学マーカの位置に応じてディスプレイ上で前記複数の入力キーの選択された1つを特定する工程と、
を有することを特徴とする方法。 - 前記ユーザ入力デバイスが前記ユーザ入力ディスプレイと接触する際にタッチセンサデータを検出する工程と、
前記タッチセンサデータおよび前記光学マーカの位置に応じてディスプレイ上での前記複数の入力キーの前記選択された1つを特定するために、前記光学データおよび前記タッチセンサデータを関連付ける工程と、
をさらに有することを特徴とする請求項8に記載の方法。 - 前記ユーザ入力デバイスは指を含み、前記ユーザ入力マーカは、前記マーカと前記ユーザ入力デバイスとを光学的に区別する対照色と対照明度との少なくとも1つを有することを特徴とする請求項8または9に記載の方法。
- 前記ユーザ入力マーカを、前記ユーザ入力デバイスの中心領域に配置する工程をさらに有することを特徴とする請求項8乃至10の何れか1項に記載の方法。
- 前記ユーザ入力マーカを、前記ユーザ入力マーカをユーザの指へ取り付けるように構成されたスリーブとグローブとの少なくとも1つと接続する工程をさらに有することを特徴とする請求項8乃至11の何れか1項に記載の方法。
- 前記ユーザ入力マーカの位置に基づいて前記複数の入力キーの選択された1つを視覚的に拡大する工程をさらに有することを特徴とする請求項8乃至12の何れか1項に記載の方法。
- 前記ユーザ入力マーカと前記ユーザ入力デバイスとの間の対照色と対照明度との少なくとも1つに基づいて前記ユーザ入力マーカを特定する工程をさらに有することを特徴とする請求項8乃至13の何れか1項に記載の方法。
- ユーザ入力ディスプレイ上でのユーザ入力を検出することによってハンドヘルド電子デバイスを動作するコンピュータプログラムであって、
前記ユーザ入力ディスプレイは入力ディスプレイ上に複数の入力キーを有し、前記複数の入力キーのそれぞれは、前記入力ディスプレイのための入力機能に対応し、前記コンピュータプログラムは、
記憶媒体で具体化されるコンピュータ読み取り可能なプログラムコードとしてコンピュータ読み取り可能な記憶媒体に記憶され、
前記コンピュータ読み取り可能なプログラムコードは、
光学検出器を使用して、光学マーカを有するユーザ入力デバイスを光学的に検出するように構成されたコンピュータ読み取り可能なプログラムコードと、
前記光学マーカに基づいて前記ユーザ入力ディスプレイに対する前記ユーザ入力デバイスの前記光学マーカの位置を特定するように構成されたコンピュータ読み取り可能なプログラムコードと、
前記光学マーカの位置に応じてディスプレイ上で前記複数の入力キーの選択された1つを特定するように構成されたコンピュータ読み取り可能なプログラムコードと、
を備えることを特徴とするコンピュータプログラム。 - 前記ユーザ入力デバイスが前記ユーザ入力ディスプレイと接触する際にタッチセンサデータを検出するように構成されたコンピュータ読み取り可能なプログラムコードと、
前記タッチセンサデータおよび前記光学マーカの位置に応じてディスプレイ上での前記複数の入力キーの前記選択された1つを特定するために、光学データおよびタッチセンサデータを関連付けるように構成されたコンピュータ読み取り可能なプログラムコードと、
をさらに備えることを特徴とする請求項15に記載のコンピュータプログラム。 - 前記ユーザ入力マーカが前記ユーザ入力デバイスの中心領域に位置する際に、前記ユーザ入力マーカを検出するように構成されたコンピュータ読み取り可能なプログラムコードをさらに備えることを特徴とする請求項15または16に記載のコンピュータプログラム。
- 前記ユーザ入力マーカの位置に基づいて前記複数の入力キーの選択された1つを視覚的に拡大するように構成されたコンピュータ読み取り可能なプログラムコードをさらに備えることを特徴とする請求項15乃至17の何れか1項に記載のコンピュータプログラム。
- 前記ユーザ入力マーカと前記ユーザ入力デバイスとの間の対照色と対照明度との少なくとも1つに基づいて前記ユーザ入力マーカを特定するように構成されたコンピュータ読み取り可能なプログラムコードをさらに備えることを特徴とする請求項15乃至18の何れか1項に記載のコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/334,865 US20100149100A1 (en) | 2008-12-15 | 2008-12-15 | Electronic Devices, Systems, Methods and Computer Program Products for Detecting a User Input Device Having an Optical Marker Thereon |
US12/334,865 | 2008-12-15 | ||
PCT/IB2009/052552 WO2010070460A1 (en) | 2008-12-15 | 2009-06-16 | Electronic devices, systems, methods and computer program products for detecting a user input device having an optical marker thereon |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012512453A true JP2012512453A (ja) | 2012-05-31 |
Family
ID=40943075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011540236A Pending JP2012512453A (ja) | 2008-12-15 | 2009-06-16 | 光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20100149100A1 (ja) |
EP (1) | EP2366136A1 (ja) |
JP (1) | JP2012512453A (ja) |
WO (1) | WO2010070460A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023188737A1 (ja) * | 2022-03-28 | 2023-10-05 | 川崎重工業株式会社 | 携帯端末、プログラムおよび油圧ポンプの特性データ処理方法 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100186234A1 (en) | 2009-01-28 | 2010-07-29 | Yehuda Binder | Electric shaver with imaging capability |
TW201209642A (en) * | 2010-08-19 | 2012-03-01 | Askey Computer Corp | Touch screen Palm type data processing device |
DE112010005927B4 (de) * | 2010-10-06 | 2014-07-17 | Mitsubishi Electric Corporation | AV-System |
US20130106689A1 (en) * | 2011-10-25 | 2013-05-02 | Kenneth Edward Salsman | Methods of operating systems having optical input devices |
US9052414B2 (en) | 2012-02-07 | 2015-06-09 | Microsoft Technology Licensing, Llc | Virtual image device |
US9134807B2 (en) | 2012-03-02 | 2015-09-15 | Microsoft Technology Licensing, Llc | Pressure sensitive key normalization |
US9870066B2 (en) | 2012-03-02 | 2018-01-16 | Microsoft Technology Licensing, Llc | Method of manufacturing an input device |
US9075566B2 (en) | 2012-03-02 | 2015-07-07 | Microsoft Technoogy Licensing, LLC | Flexible hinge spine |
US20130300590A1 (en) | 2012-05-14 | 2013-11-14 | Paul Henry Dietz | Audio Feedback |
US10031556B2 (en) | 2012-06-08 | 2018-07-24 | Microsoft Technology Licensing, Llc | User experience adaptation |
US9019615B2 (en) | 2012-06-12 | 2015-04-28 | Microsoft Technology Licensing, Llc | Wide field-of-view virtual image projector |
GB201212878D0 (en) * | 2012-07-20 | 2012-09-05 | Pike Justin | Authentication method and system |
US9355345B2 (en) | 2012-07-23 | 2016-05-31 | Microsoft Technology Licensing, Llc | Transparent tags with encoded data |
US9152173B2 (en) * | 2012-10-09 | 2015-10-06 | Microsoft Technology Licensing, Llc | Transparent display device |
US10101905B1 (en) * | 2012-12-07 | 2018-10-16 | American Megatrends, Inc. | Proximity-based input device |
US9513748B2 (en) | 2012-12-13 | 2016-12-06 | Microsoft Technology Licensing, Llc | Combined display panel circuit |
US9638835B2 (en) | 2013-03-05 | 2017-05-02 | Microsoft Technology Licensing, Llc | Asymmetric aberration correcting lens |
AU2015317344B2 (en) * | 2014-09-18 | 2021-04-08 | Sciometrics Llc | Mobility empowered biometric appliance a tool for real-time verification of identity through fingerprints |
US20170372124A1 (en) * | 2014-12-24 | 2017-12-28 | Sciometrics Llc | Unobtrusive identity matcher: a tool for real-time verification of identity |
GB201520760D0 (en) | 2015-05-27 | 2016-01-06 | Mypinpad Ltd And Licentia Group Ltd | Encoding methods and systems |
CN111142711B (zh) * | 2019-12-31 | 2021-05-07 | 惠州Tcl移动通信有限公司 | 一种固件配置方法、装置、存储介质及移动终端 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02153415A (ja) * | 1988-12-06 | 1990-06-13 | Hitachi Ltd | キーボード装置 |
JPH10269012A (ja) * | 1997-03-28 | 1998-10-09 | Yazaki Corp | タッチパネルコントローラ及びこれを用いた情報表示装置 |
JPH10269022A (ja) * | 1997-03-25 | 1998-10-09 | Hitachi Ltd | 通信機能付き携帯型情報処理装置 |
JP2002311820A (ja) * | 2001-04-13 | 2002-10-25 | Fujitsu Ten Ltd | 情報処理装置 |
JP2003503773A (ja) * | 1999-06-25 | 2003-01-28 | シーメンス アクチエンゲゼルシヤフト | コンピュータシステムに制御情報を入力するための装置及び方法 |
JP2003044223A (ja) * | 2001-07-30 | 2003-02-14 | Pfu Ltd | タッチ入力機構を備えた表示装置およびその制御方法ならびにその制御プログラム |
JP2004303000A (ja) * | 2003-03-31 | 2004-10-28 | Fuji Xerox Co Ltd | 3次元指示入力装置 |
JP2005352924A (ja) * | 2004-06-11 | 2005-12-22 | Mitsubishi Electric Corp | ユーザインタフェース装置 |
WO2006104132A1 (ja) * | 2005-03-28 | 2006-10-05 | Matsushita Electric Industrial Co., Ltd. | ユーザインタフェイスシステム |
US20060267927A1 (en) * | 2005-05-27 | 2006-11-30 | Crenshaw James E | User interface controller method and apparatus for a handheld electronic device |
JP2007286696A (ja) * | 2006-04-12 | 2007-11-01 | Toyota Motor Corp | 入力装置 |
JP2008009759A (ja) * | 2006-06-29 | 2008-01-17 | Toyota Motor Corp | タッチパネル装置 |
JP2008071102A (ja) * | 2006-09-14 | 2008-03-27 | Hitachi Ltd | 点図ディスプレイ装置 |
JP2008511077A (ja) * | 2004-08-25 | 2008-04-10 | アップル インコーポレイテッド | ポータブルコンピュータの幅広タッチパッド |
JP2008210348A (ja) * | 2007-02-28 | 2008-09-11 | Univ Of Tokyo | 画像表示装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2552427B2 (ja) * | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US7194699B2 (en) * | 2003-01-14 | 2007-03-20 | Microsoft Corporation | Animating images to reflect user selection |
NO20044073D0 (no) * | 2004-09-27 | 2004-09-27 | Isak Engquist | Informasjonsbehandlingssystem og fremgangsmate |
EP2033064A1 (en) * | 2006-06-15 | 2009-03-11 | Nokia Corporation | Mobile device with virtual keypad |
US20090213081A1 (en) * | 2007-01-10 | 2009-08-27 | Case Jr Charlie W | Portable Electronic Device Touchpad Input Controller |
-
2008
- 2008-12-15 US US12/334,865 patent/US20100149100A1/en not_active Abandoned
-
2009
- 2009-06-16 EP EP09786428A patent/EP2366136A1/en not_active Withdrawn
- 2009-06-16 JP JP2011540236A patent/JP2012512453A/ja active Pending
- 2009-06-16 WO PCT/IB2009/052552 patent/WO2010070460A1/en active Application Filing
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02153415A (ja) * | 1988-12-06 | 1990-06-13 | Hitachi Ltd | キーボード装置 |
JPH10269022A (ja) * | 1997-03-25 | 1998-10-09 | Hitachi Ltd | 通信機能付き携帯型情報処理装置 |
JPH10269012A (ja) * | 1997-03-28 | 1998-10-09 | Yazaki Corp | タッチパネルコントローラ及びこれを用いた情報表示装置 |
JP2003503773A (ja) * | 1999-06-25 | 2003-01-28 | シーメンス アクチエンゲゼルシヤフト | コンピュータシステムに制御情報を入力するための装置及び方法 |
JP2002311820A (ja) * | 2001-04-13 | 2002-10-25 | Fujitsu Ten Ltd | 情報処理装置 |
JP2003044223A (ja) * | 2001-07-30 | 2003-02-14 | Pfu Ltd | タッチ入力機構を備えた表示装置およびその制御方法ならびにその制御プログラム |
JP2004303000A (ja) * | 2003-03-31 | 2004-10-28 | Fuji Xerox Co Ltd | 3次元指示入力装置 |
JP2005352924A (ja) * | 2004-06-11 | 2005-12-22 | Mitsubishi Electric Corp | ユーザインタフェース装置 |
JP2008511077A (ja) * | 2004-08-25 | 2008-04-10 | アップル インコーポレイテッド | ポータブルコンピュータの幅広タッチパッド |
WO2006104132A1 (ja) * | 2005-03-28 | 2006-10-05 | Matsushita Electric Industrial Co., Ltd. | ユーザインタフェイスシステム |
US20060267927A1 (en) * | 2005-05-27 | 2006-11-30 | Crenshaw James E | User interface controller method and apparatus for a handheld electronic device |
JP2007286696A (ja) * | 2006-04-12 | 2007-11-01 | Toyota Motor Corp | 入力装置 |
JP2008009759A (ja) * | 2006-06-29 | 2008-01-17 | Toyota Motor Corp | タッチパネル装置 |
JP2008071102A (ja) * | 2006-09-14 | 2008-03-27 | Hitachi Ltd | 点図ディスプレイ装置 |
JP2008210348A (ja) * | 2007-02-28 | 2008-09-11 | Univ Of Tokyo | 画像表示装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023188737A1 (ja) * | 2022-03-28 | 2023-10-05 | 川崎重工業株式会社 | 携帯端末、プログラムおよび油圧ポンプの特性データ処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20100149100A1 (en) | 2010-06-17 |
WO2010070460A1 (en) | 2010-06-24 |
EP2366136A1 (en) | 2011-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012512453A (ja) | 光学マーカを有するユーザ入力デバイスを検出する電子デバイス、システム、方法およびコンピュータプログラム | |
US10521111B2 (en) | Electronic apparatus and method for displaying a plurality of images in a plurality of areas of a display | |
EP2263134B1 (en) | Communication terminals with superimposed user interface | |
JP5358733B2 (ja) | タッチスクリーン機能を変更するためのシステム及び方法 | |
US7552142B2 (en) | On-screen diagonal cursor navigation on a handheld communication device having a reduced alphabetic keyboard | |
US8290707B2 (en) | Mobile device with on-screen optical navigation | |
RU2662690C2 (ru) | Устройство и способ управления объектом пользовательского прибора | |
US20090146968A1 (en) | Input device, display device, input method, display method, and program | |
US20140204511A1 (en) | Cover, an electronic device using the same and operating method thereof | |
EP3046042B1 (en) | Apparatus for implementing home button and fingerprint identification on single sensor | |
JP2015041052A (ja) | リストバンド型情報処理装置および記憶媒体 | |
EP3043246A1 (en) | Apparatus and method for implementing functions of touch button and fingerprint identification, and terminal device | |
WO2016191938A1 (zh) | 通过触控板调节移动终端拍照焦距的方法和移动终端 | |
JP2007123962A (ja) | 携帯端末装置、マウスアプリケーションプログラム、及び携帯端末装置をワイヤレスマウス装置として用いる方法 | |
AU2017440899B2 (en) | Photographing method and terminal | |
KR102056633B1 (ko) | 다자간 영상 통화 단말기 및 그의 ui 운용 방법 | |
JP2014071765A (ja) | 画像表示制御装置、画像表示装置、プログラム及び画像表示方法 | |
JP2014071377A (ja) | 画像表示制御装置、画像表示装置、プログラム及び画像表示方法 | |
JP4685708B2 (ja) | 携帯端末装置 | |
US20080012822A1 (en) | Motion Browser | |
CN103543825A (zh) | 摄像机光标系统 | |
JP2017130736A (ja) | 撮像制御装置、撮像制御方法及びコンピュータプログラム | |
CN110764852B (zh) | 一种截图方法、终端及计算机可读存储介质 | |
WO2017161550A1 (zh) | 字符输入方法、装置及终端 | |
KR100999884B1 (ko) | 휴대용 단말기의 문자 입력 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130128 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130628 |