JP2007531113A - Identification of tilt and translation components of the portable device - Google Patents

Identification of tilt and translation components of the portable device Download PDF

Info

Publication number
JP2007531113A
JP2007531113A JP2007504983A JP2007504983A JP2007531113A JP 2007531113 A JP2007531113 A JP 2007531113A JP 2007504983 A JP2007504983 A JP 2007504983A JP 2007504983 A JP2007504983 A JP 2007504983A JP 2007531113 A JP2007531113 A JP 2007531113A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
device
motion
axis
gesture
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007504983A
Other languages
Japanese (ja)
Inventor
トマス アドラー,ビー
エイ ウィルコクス,ブルース
エル マーヴィット,デイヴィッド
エイチ エム ラインハート,アルバート
均 松本
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 – G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Abstract

モーションコントロール携帯装置は、第1の軸に沿う加速度を検出する第1の加速度計と、第2の軸に沿う加速度を検出する第2の加速度計とを有する。 Motion Control portable device includes a first accelerometer for detecting acceleration along a first axis and a second accelerometer for detecting acceleration along a second axis. 第2の軸は第1の軸に垂直である。 The second axis is perpendicular to the first axis. 当該装置は、前記第1の軸及び前記第2の軸の少なくとも一方の回りの回転成分を検出するチルト検出素子と、現在の画像を表示するディスプレイとを有する。 The device includes a tilt detection device for detecting at least one rotation about the component of the first axis and the second axis, and a display for displaying the current image. 当該装置は、前記第1の加速度計、前記第2の加速度計及び前記チルト検出素子を用いて3次元での当該装置の運動を追跡するモーション追跡モジュールを含む。 The apparatus includes a motion tracking module that tracks the movement of the device in three dimensions using the first accelerometer, the second accelerometer and the tilt detection device. 当該装置は前記現在の画像を生成し、当該装置の運動に応じて前記現在の画像を変更するコントローラとを有する。 The device has a controller for changing the current image in response to said the generating the current image, the motion of the device.

Description

本発明は一般に携帯装置に関連し、特にモーションインターフェース(motion interface)を備えた携帯装置に関連する。 The present invention generally relates to a portable device, in particular related to a mobile device equipped with a motion interface (motion interface).

セルラ電話及びパーソナルディジタルアシスタント(PDA)のようなコンピュータ装置の利用性は急速に成長しつつある。 Use of cellular telephones and computer devices, such as a personal digital assistant (PDA) is growing rapidly. そのような装置は、キーパッド及びディスプレイのような様々なタイプのインターフェースを介して多くの様々な機能をユーザに提供する。 Such devices provide a number of different functions to the user through various types of interfaces such as a keypad and display. あるコンピュータ装置は、ユーザによる装置の傾き(tilt)を検出することで、動き(motion)をインターフェースとして利用する。 One computer device, by detecting the inclination (tilt) of the device by the user, utilizing motion (motion) as an interface. あるモーションインターフェースの例は、釣り糸でコンピュータ装置を拘束すること(tethering)又は大量の電力を要する大型の磁性追跡装置を持ち運ぶことを含む。 Examples of some motion interface includes carry a large magnetic tracking devices that require the (tethering) or large amount of power to restrain the computer device with fishing line.

本発明の課題は、モーションインターフェースを有する携帯装置を提供することである。 An object of the present invention is to provide a portable apparatus having a motion interface.

本発明では、モーションインターフェースを備えた携帯装置が使用される。 In the present invention, a portable apparatus having a motion interface is used.

特定の携帯では、モーションコントロール携帯装置は、第1の軸に沿う加速度を検出する第1の加速度計と、第2の軸に沿う加速度を検出する第2の加速度計とを有する。 In certain portable, motion control portable device includes a first accelerometer for detecting acceleration along a first axis and a second accelerometer for detecting acceleration along a second axis. 第2の軸は第1の軸に垂直である。 The second axis is perpendicular to the first axis. 当該装置は、前記第1の軸及び前記第2の軸の少なくとも一方の回りの回転成分を検出するチルト検出素子と、現在の画像を表示するディスプレイとを有する。 The device includes a tilt detection device for detecting at least one rotation about the component of the first axis and the second axis, and a display for displaying the current image. 当該装置は、前記第1の加速度計、前記第2の加速度計及び前記チルト検出素子を用いて3次元での当該装置の運動を追跡するモーション追跡モジュールを含む。 The apparatus includes a motion tracking module that tracks the movement of the device in three dimensions using the first accelerometer, the second accelerometer and the tilt detection device. 当該装置は前記現在の画像を生成し、当該装置の運動に応じて前記現在の画像を変更するコントローラとを有する。 The device has a controller for changing the current image in response to said the generating the current image, the motion of the device.

前記ディスプレイは表示面を有し、前記第1及び前記第2の軸は前記表示面に実質的に平行である。 The display has a display surface, said first and said second axis is substantially parallel to the display surface. 前記チルト検出素子は、前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を検出する第3の加速度計を有する。 The tilt detection device includes a third accelerometer for detecting acceleration along a third axis perpendicular both the second axis is perpendicular to the first axis. 前記モーション追跡モジュールは、前記第3の加速度計で測定された加速度に基づいて、前記第1の軸及び第2の軸のなす面内の並進と、前記第1の軸及び前記第2の軸の少なくとも一方の回りの成分を有する回転とを区別する。 The motion tracking module, the third on the basis of the measured acceleration with an accelerometer, and translation of the plane formed of the first and second axes, the first axis and the second axis distinguish between rotation having at least one of around components. 前記チルト検出素子は、前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を検出する第3の加速度計を有する。 The tilt detection device includes a third accelerometer for detecting acceleration along a third axis perpendicular both the second axis is perpendicular to the first axis. チルト検出素子は、ビデオストリームを生成するカメラと、前記ビデオストリームに基づいて運動方向を検出するビデオ分析モジュールとを有する。 Tilt detection device includes a camera for generating a video stream, a video analysis module that detects the movement direction based on the video stream.

別の形態によれば、携帯装置を制御する方法は、第1の軸に沿う加速度を第1の加速度を用いて検出するステップと、第2の軸に沿う加速度を第2の加速度を用いて検出するステップとを有する。 According to another aspect, a method of controlling the portable device includes the steps of detecting acceleration along a first axis using a first accelerometer, the acceleration along the second axis using a second acceleration and a step of detecting. 第2の軸は第1の軸に垂直である。 The second axis is perpendicular to the first axis. 当該方法は、前記第1の軸及び前記第2の軸の少なくとも一方の回りの回転成分をチルト検出素子を用いて検出するステップと、前記第1の加速度計、前記第2の加速度計及び前記チルト検出素子を用いて3次元での当該装置の運動を追跡するステップとを含む。 The method includes detecting using a tilt detection element at least one rotation about the component of the first axis and said second axis, said first accelerometer, the second accelerometer and the and a step of tracking the movement of the device in three dimensions using a tilt detection device. 当該方法は、前記装置のディスプレイを用いて前記現在の画像を生成し、当該装置の追跡した運動に応じて前記現在の画像を変更するステップを有する。 The method comprises the generating the current image using a display of the device, the changes the current image according to the tracked motion of the device.

本発明の特定の携帯による技術的利点は、装置の傾斜及び並進並びに並進面を識別可能なモーション検出素子を携帯装置が備えることを含む。 Particular technical advantage of the cellular of the present invention, it includes providing the portable device discernable motion detection element tilt and translation as well as translation surface of the device. 従ってその装置は、入力として機能する多数の運動を認識することができ、装置の機能性を増やす。 Thus the device can recognize a large number of motor serving as an input, increasing the functionality of the device. ある形態では、多数の様々なタイプのモーション検出素子が組み合わせられ、装置に望まれる機能に依存する最も適切な素子を用いて装置を製造者が設計することを可能にする。 In one form, it combined a number of different types of motion detection devices, the manufacturer's device with the most appropriate elements depending on the function desired in the device makes it possible to design.

他の技術的利点は以下の図面、詳細な説明及び特許請求の範囲から当業者には更に明確になるであろう。 Other technical advantages the following drawings, will become more apparent to those skilled in the art from the detailed description and claims. なお、特定の利点が列挙されたが、様々な実施例は列挙された利点の全部又は一部を含んでもよいし、全く含まなくてもよい。 Incidentally, while specific advantages have been enumerated, various embodiments may include all or some of the benefits listed may be completely free.

本発明の特定の実施例及びその利点のより完全な理解を期するため、添付図面に関連して以下の説明がなされる。 For the sake of more complete understanding of particular embodiments and their advantages of the present invention, the following description taken in conjunction with the accompanying drawings.

図1は特定の実施例によるモーションインターフェース機能を備えた携帯装置10を示す。 Figure 1 shows a portable device 10 having a motion interface function according to a particular embodiment. 携帯装置10は、携帯装置の動き(モーション)を認識することができ、そのようなモーションに対応する様々な機能を実行することができる。 Portable device 10 can recognize the movement of the portable device (motion), may perform a variety of functions corresponding to such motion. そして装置のモーションは装置の入力をなすように機能する。 The motion of the apparatus functions so as to form an input of the device. そのようなモーション入力は、装置のディスプレイに表示されるものを直接的に変えてもよいし、或いは他の機能を実行してもよい。 Such motion input may be changed directly what is displayed on the display device, or may perform other functions. 携帯装置10は、移動電話、パーソナルディジタルアシスタント(PDA)、スチールカメラ、ビデオカメラ、携帯用計算機、携帯用のラジオその他の音楽又は映像プレーヤ、ディジタル温度計、ゲーム装置、携帯用電子装置、腕時計等から構成されてもよいし、或いはユーザが携帯する又は身に付けることの可能な他の如何なる装置から構成されてもよい。 Portable device 10 is a mobile telephone, a personal digital assistant (PDA), a still camera, a video camera, a portable computer, portable radios and other music or video player, a digital thermometer, a game device, a portable electronic device, watches, etc. it may be composed of, or the user may be composed of any other device capable of be applied to the portable to or only. 上記に列挙されているように、携帯装置10は腕時計のような身に付けることが可能な携帯装置をも含んでよい。 As listed above, the portable device 10 may also include a portable device that can be worn like a wrist watch. 腕時計はユーザの手首の回りに携えた如何なるコンピュータ装置をも含んでよい。 Watch may comprise any computing device toting around a user's wrist.

携帯装置10はディスプレイ12、入力14、プロセッサ16、メモリ18、コンピュータインターフェース20及びモーション検出器22を含む。 Portable device 10 includes a display 12, an input 14, a processor 16, a memory 18, a computer interface 20 and the motion detector 22. ディスプレイ12は、装置の視覚的な出力を与え、液晶ディスプレイ(LCD)、発光ダイオード(LED)又はユーザに出力を通知する他の如何なるタイプの装置から構成されてもよい。 Display 12 provides a visual output of the device, a liquid crystal display (LCD), light emitting diode (LED) or an output to a user other may be composed of any type of device to be notified. 入力14は装置への入力を通知するためのユーザ用インターフェースを提供する。 Input 14 provides a user interface for notifying the input to the device. 入力14は、キーボード、キーパッド、トラックボール、ノブ、タッチパッド、ステンシルから構成されてもよいし、或いはユーザが装置10に入力を通知する他の如何なる素子から構成されてもよい。 Input 14 may include a keyboard, keypad, track ball, a knob, a touch pad, may be constituted by a stencil, or the user may be composed of any other element that notifies the input to the device 10. 特定の実施例ではディスプレイ12及び入力14はタッチ画面のように同一素子に組み合わせられてもよい。 It may be combined in the same device as a touch screen display 12 and the input 14 in particular embodiments.

プロセッサ16はマイクロプロセッサ、コントローラ又は適切な他の如何なるコンピュータ装置若しくはリソースでもよい。 The processor 16 is a microprocessor may be a controller or any other suitable computing device or resource. プロセッサ16は、携帯装置10のシステム内で利用可能な機能を実行するための様々なコンピュータ言語で様々なタイプのコンピュータ命令を実行するように構成される。 The processor 16 is configured to perform various types of computer instructions in different computer languages ​​for performing functions available in the portable device 10 system. プロセッサ16は携帯装置10の管理及び動作を制御する適切な如何なるコントローラを含んでもよい。 The processor 16 may include any suitable controller for controlling the management and operation of the mobile device 10.

メモリ18は、限定ではないが、磁気媒体、光媒体、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、取り外し可能な媒体その他の適切な如何なるローカルな若しくはリモートのメモリ素子を含む適切な如何なる形式の揮発性又は不揮発性のメモリでもよい。 Memory 18 may include, but are not limited to, magnetic media, optical media, random access memory (RAM), read only memory (ROM), made suitable how including removable media other suitable any local or remote memory device or in the form of volatile or non-volatile memory. メモリ18はプロセッサ16により実行可能なソフトウエア、論理モジュール又は素子を含む。 Memory 18 includes executable software, the logic module or element by the processor 16. メモリ18は、以下で更に説明されるようなマッピング、カレンダ及びファイル管理アプリケーションのような、モーション入力を用いるユーザインターフェースを備えた様々なアプリケーション19を含んでよい。 Memory 18 may include various applications 19 provided with a user interface that further mapping as described, such as calendar and file management application, using the motion input below. また、後述されるように、メモリ18は、ジェスチャーデータベース及び機能又はジェスチャーマッピングデータベースのような様々なデータベースを含む。 Moreover, as will be described later, the memory 18 includes a variety of databases such as gestures databases and functions, or a gesture mapping database. メモリ18の構成要素は本発明の範囲内で特定の必要性及び要請に応じて処理を行うように結合されてもよいし及び/又は分割されてもよい。 Components of the memory 18 may be may be and / or divided is coupled to perform a process depending on the particular needs and requirements within the scope of the present invention. 通信インターフェース20は、他の携帯装置や素子のような他の装置との間でのデータ及び情報の無線又は有線の通信をサポートする。 Communication interface 20 supports a wireless or wired communication of data and information to and from other devices such as other mobile devices or elements.

モーション検出器22は、或る機能を実行するための或る形式の入力として使用される携帯装置10の動きを追跡する。 Motion detector 22 tracks the movement of the portable device 10 used as the input of a certain format for performing a certain function. そのような入力モーションは、以下で更に説明されるように所望のタスクを実行するために、ユーザが所望の形式で装置を動かすことで生じる。 Such input motion, in order to perform the desired task as further described below, caused by the user moves the device in a desired format.

特定の実施例による携帯装置10は、ここで説明されるような機能を実行する適切な如何なる処理モジュール及び/又はメモリモジュール(例えば、制御モジュール、モーション追跡モジュール、映像分析モジュール、モーション応答モジュール、表示制御モジュール及び署名検出モジュール等)を含んでもよいことが理解されるべきである。 Portable device 10 according to certain embodiments, where appropriate any processing module and / or memory modules to perform the functions as described (e.g., control module, a motion tracking module, the video analysis module, the motion response module, display includes a control module and signature detection module, etc.) it should be may be understood.

特定の実施例では、入力の動きは、並進(translation)及び/又はジェスチャーの形式である。 In certain embodiments, the movement of the input is in the form of a translation (translation) and / or gestures. 並進ベースの入力は、動きの始点及び終点並びにそのような始点及び終点間の差分に着目する。 Input translation base is focused on differences between start and end points, as well as such a starting point and an end point of the motion. ジェスチャーベースの入力は、装置の通った実際の経路に着目し、横切った点群の全体像である。 Gesture-based input, focusing on the actual path through the apparatus, an overall picture of the crossing point cloud. 一例として、並進ベースの入力を用いてマップをナビゲーションする場合、“O”の形の動きは動く途中で表示を変えるが、動く前に表示されていた情報と動いた後に表示された情報との間では最終的に何の変化もない(なぜなら、装置は動きが終了した時にスタート地点と同じ地点にいると思われるからである。)。 As an example, when navigating a map using the translation-based input, the motion in the form of "O" changes the display on the way to move, but the displayed information after moving a displayed which was information before moving nothing changes ultimately is between (because device because seems in the same point as the starting point when the motion is complete.). しかしながら、ジェスチャー入力モードの場合、(例えば、たとえ始点及び終点が同じになったとしても)装置は“O”の形に通ったことを認識するであろう。 However, if the gesture input mode (e.g., even if the start and end points becomes the same) devices will recognize that through the form of "O". なぜなら、ジェスチャーベースの入力の場合、装置はその動き又は移動の間にジェスチャーの始点及び終点の間で通った経路に着目するからである。 This is because, if the gesture-based input, the device because attention is focused on the path that passes through between the start and end points of the gesture during its motion or movement. このジェスチャー“O”の動きは、“O”のジェスチャーを構成する経路に沿って移動したことを装置が認識した場合に、以下に詳細に説明されるような或る機能を実行するように、特定の機能に対応付けられてもよい。 Movement of the gesture "O", when "O" device that it has moved along a path constituting a gesture is recognized, to perform certain functions as described in more detail below, it may be associated with a particular function. 特定の実施例では、或る意思表示(ジェスチャー)として意図される装置の動きは、ジェスチャーデータベース中のジェスチャーを規定するものと、一連の、連続的な又はパターン的な加速運動とを照合することで、ジェスチャーと同様に装置によって認識されてもよい。 In certain embodiments, the movement of the intended device as one gesture (gesture) of a defines the gesture in the gesture database, the sequence, by matching the continuous or pattern specific accelerated motion in, it may be recognized by the same way device and gestures.

他の実施例による携帯装置は図1に示される装置の或る要素を含まなくてもよい。 The portable device according to another embodiment may not include certain elements of the apparatus shown in FIG. 例えば或る実施例ではモーション検出器と別個の入力14のない携帯装置10を用意し、装置の動きがその装置に関する単独の又は主要な入力を与えるようにする。 For example, in some embodiments providing a portable apparatus 10 without motion detector and separate input 14, the movement of the device to provide a single or main input for that device. 他の実施例による携帯装置は、装置10に関して具体的には図示されていない付加的な素子を含んでよいことが理解されるべきである。 Portable device according to another embodiment, it should be understood that may include additional elements not illustrated in detail with respect to apparatus 10.

図2は本発明の特定の実施例による図1のモーション検出器22を示す。 Figure 2 shows the motion detector 22 of FIG. 1 according to a particular embodiment of the present invention. この例では、モーション検出器22は加速度計24a,24b,24cと、カメラ26a,26b,26cと、ジャイロ28a,28b,28cと、レンジファインダ30a,30b,30cと、プロセッサ32とを含む。 In this example, includes a motion detector 22 is an accelerometer 24a, 24b, and 24c, the camera 26a, 26b, and 26c, the gyro 28a, 28b, and 28c, the range finder 30a, 30b, and 30c, and a processor 32.

加速度計24a,24b,24cは各自の検出軸に沿う加速度を検出することで装置の運動を検出する。 Accelerometers 24a, 24b, 24c detects the movement of the apparatus by detecting the acceleration along the respective detection axis. 装置の特定の動きは、加速度計により検出される一連の、連続的な又はパターン的な加速度を含んでよい。 Specific movement of the device is a series that is detected by the accelerometer may comprise a continuous or pattern accelerations. 携帯装置が特定の加速度系の検出軸に沿って傾けられると、その検出軸に沿う重力加速度が変化する。 When the portable device is tilted along the detection axis of a specific acceleration system, the gravitational acceleration along its detection axis is changed. 重力加速度のこの変化は、加速度計により検出され、装置の傾きに反映する。 This change in the gravitational acceleration is detected by the accelerometer, to reflect the inclination of the device. 同様に、回転も傾斜も伴わない携帯装置の並進又は装置の運動も、加速度計で検出される検出軸に沿う加速度の変化を生み出す。 Similarly, rotating both movement of translation or device of the portable device without the inclination produces a change in acceleration along the sensing axis that is detected by the accelerometer.

図示の例では、加速度計24aはX軸に沿う装置の運動を検出するX軸加速度計を構成し、加速度計24bはY軸に沿う装置の運動を検出するY軸加速度計を構成し、加速度計24cはZ軸に沿う装置の運動を検出するZ軸加速度計を構成する。 In the illustrated example, the accelerometer 24a constitutes the X-axis accelerometer for detecting movement of the device along the X-axis, the accelerometer 24b constitute a Y-axis accelerometer for detecting movement of the device along the Y-axis, the acceleration meter 24c constitutes a Z-axis accelerometer for detecting movement of the device along the Z-axis. これらを組み合わせると、加速度計24a,24b,24cは装置10の回転及び並進を検出できる。 Combining these, accelerometers 24a, 24b, 24c can detect the rotation and translation of the device 10. 上述のように装置10の回転及び/又は並進は、装置を操作するユーザからの入力として機能してよい。 Rotation and / or translation of the device 10 as described above, may function as an input from a user to operate the equipment.

モーション検出に3つの加速度計を利用すると或る利点がもたらされる。 Some advantages are provided when utilizing three accelerometers for motion detection. 例えば、2つの加速度計しか使用されなかったならば、そのモーション検出器は、並進面での傾斜により、携帯装置の明確な(曖昧さのない)並進を検出できない。 For example, if only two accelerometers was not used, the motion detector, the inclination of the translational plane, (unambiguous) clear of the portable device can not detect the translation. しかしながら、第3のZ軸加速度計(他の2つの加速度計の検出軸に少なくとも近似的に垂直な検出軸を有する加速度計)を利用すると、ほとんどの並進から、ほとんどの傾斜を明確化できるようにする。 However, the use of third Z-axis accelerometer (accelerometer having at least approximately perpendicular detected axis detection axes of the other two accelerometers), from most translation, to be able to clarify the most inclined to.

加速度計24a,24b,24cによって互いに認識できない或る固有の動きが存在するかもしれないことが理解されるべきである。 Accelerometers 24a, 24b, it should be understood that it may exist certain specific motion which can not be recognized from one another by 24c. 例えば、或る回転及び或る並進を伴う運動は、加速度計24a,24b,24cにとって、別の特定の回転及び別の特定の並進を伴う別の運動と同じであるように見えるかもしれない。 For example, exercise with a certain rotation and one translation is an accelerometer 24a, 24b, taking into 24c, it may appear to be the same as another exercise with another specific rotation and another specific translation. モーション検出器22が動きを検出するように(より高い精度を保証する付加的な何らかの素子を設けずに)単に3つの加速度計を含んでいたならば、或る特定の認識できない運動が同一機能に対応付けられるかもしれない、又は混乱を避けるために機能に対応付けられないかもしれない。 If motion detector 22 is contained (additional to any device without providing to ensure greater accuracy) just three accelerometers to detect motion, certain unrecognized motion same function in may be associated, or may not correspond to a function in order to avoid confusion.

上述したように、モーション検出器22はカメラ26a,26b,26cを含み、カメラは電荷結合素子(CCD)カメラその他の光センサで構成されてもよい。 As described above, the motion detector 22 includes a camera 26a, 26b, a 26c, the camera may be constituted by a charge coupled device (CCD) camera or other optical sensor. カメラ26a,26b,26cは(傾斜及び並進ともに)携帯装置の動きを検出する別の手法を提供する。 Camera 26a, 26b, 26c provides another method of detecting the movement of the (tilting and translation both) mobile device. モーション検出にただ1つのカメラが装置に設けられていたならば、(加速度計のような他の動き検出素子を使用しなかったならば)装置の傾斜は並進と区別できないかもしれない。 If the motion detection is only one camera has been provided in the apparatus, (if not using other motion detection device, such as an accelerometer) device inclination of may not be distinguished from the translation. しかしながら少なくとも2つのカメラを使用することで、傾斜及び並進は互いに識別可能になる。 However the use of at least two cameras, inclination and translation becomes distinguishable from each other. 例えば、2つのカメラが携帯装置10に(1つは装置の上面に、及び1つは装置の底面に)設けられていた場合、装置が左に並進すると、各カメラは右に動く世界を見るであろう。 For example, two cameras to the mobile device 10 (the upper surface of the one device, and one on the bottom of the device) when provided, the device is translated to the left, the camera sees the world moves right Will. 装置が水平に横たわっていた場合に、左端を持ち上げつつ右端を下げることによって装置が回されると、底面のカメラは右に動く世界を感知し、上面のカメラは左に動く世界を感知する。 If the device was lying horizontally, the device is turned by lowering the right end while lifting the left edge, the bottom of the camera senses the world moves to the right, the top surface of the camera senses the world moves left. かくて装置が並進する場合には対向面のカメラは同じ方向に動く世界(この例では左に動く世界)を見るであろう。 Thus the camera facing surface when the apparatus is translated (in this example the world moving to the left) world moves in the same direction will see. 装置が回されると、対向面のカメラは反対向きに動く世界を見るであろう。 When the device is rotated, the camera of the opposing surface will see the world moving in the opposite direction. この演繹的なプロセスは逆でも成り立つ。 This deductive process is also true in reverse. 双方のカメラが同じ方向に動く世界を見るならば、モーション検出器はその装置が並進運動させられていることを知る。 If both of the camera to see the world moving in the same direction, the motion detector knows that the device is allowed to translate. 双方のカメラが逆向きに動く世界を見るならば、モーション検出器は装置が回されていることを知る。 If you see the world in which both the camera moves in the opposite direction, motion detector knows that the device is turned.

装置が回された場合、そのカメラに対する世界の動きの大きさは、装置の回転の大きさに直接的に関連する。 If the device is rotated, the size of the global motion for that camera is directly related to the magnitude of the rotation of the device. かくてカメラに対する世界の動きに基づいて回転量が正確に判定可能である。 Thus the rotation amount based on the world movement relative camera is exactly determinable. しかしながら装置が並進させられていた場合、その並進の大きさは、カメラに対する世界の動きの大きさと、カメラの視野中の対象物までの距離との双方に関連する。 However, if the device had been allowed to translate, the magnitude of the translation is the size of the global motion relative to the camera, related to both the distance to the object in the field of view of the camera. 従って、カメラだけを用いて並進量を正確に判定するには、カメラの視野中の対象物までの距離に関する或る形式の情報が取得されなければならない。 Therefore, the exactly determines translation amount using the camera only, some form of information on the distance to the object in the field of view of the camera must be obtained. しかしながら或る実施例では距離測定機能を備えたカメラが使用される。 However, in some embodiments a camera having a distance measurement function is used.

距離情報のない場合でさえ、光学的な情報は、加速度計又は他のセンサからの情報と関連付けられる場合に重要な値になり得ることが理解されるべきである。 Even when no distance information, optical information, it should be understood that to obtain an important value when associated with the information from the accelerometer, or other sensor. 例えば、光学的なカメラの入力は、大きな動きが一切生じていないことを装置に通知するのに使用されてよい。 For example, the input of the optical camera, large movement may be used to notify the device that does not occur at all. これはドリフトに関する問題の解決手段をもたらし、その問題は或る装置機能にとっての絶対的な位置情報を決定するために加速度データを利用する場合に固有の問題である。 This results in solutions issues drift, the problem is inherent problem when using the acceleration data to determine the absolute position information for the certain device capabilities.

上述したように、動きを検出するのにカメラが使用される場合に、距離情報は並進量を決定するのに有用である。 As described above, when the camera is used to detect motion, distance information is useful in determining the translation amount. 図示の例では、そのような距離情報が距離測定器30a,30b,30cにより用意される。 In the illustrated example, such distance information is distance measuring instrument 30a, 30b, is provided by 30c. 距離測定器30a,30b,30cは、超音波距離測定器、レーザ距離測定器その他の適切な如何なる距離測定素子で構成されてもよい。 Distance measuring instrument 30a, 30b, 30c is ultrasonic distance measuring device may be configured in a laser distance measuring instrument other any suitable distance measuring device. 距離情報を決定するために他の素子が使用されてもよい。 Other elements to determine the distance information may be used. 例えば距離測定機能を備えたカメラが使用されてもよいし、双眼立体映像(stereopsis)を用いて距離測定部として機能するように装置の同じ側に複数のカメラが使用されてもよい。 For example the distance measurement function to the camera may be used with a plurality of cameras on the same side of the apparatus to function as a distance measuring unit using a binocular stereoscopic image (stereopsis) may be used. 決定された距離情報は、並進に起因する何らかの明示的な並進成分及び回転に起因する成分の正確且つ明示的な計算を可能にする。 Determined distance information enables accurate and explicit calculation of components due to some explicit translation component and the rotation caused by the translation.

上述したように、モーション検出器22は付加的にジャイロ28a,28b,28cを含む。 As described above, the motion detector 22 comprises additionally gyros 28a, 28b, a 28c. ジャイロ28a,28b,28cはモーション検出器22の他の素子と組み合わせて使用され、装置の動きを検出する精度を高める。 Gyro 28a, 28b, 28c are used in combination with other elements of the motion detector 22 increases the accuracy of detecting the movement of the device.

プロセッサ32は加速度計24、カメラ26、ジャイロ28及び距離測定器30空のデータを処理し、装置10の動きを示す出力を生成する。 Processor 32 accelerometers 24, the camera 26, processes the gyro 28 and the distance measuring instrument 30 empty data, and generates an output indicative of the movement of the device 10. プロセッサ32はマイクロプロセッサ、コントローラその他の適切な如何なるコンピュータ装置又はリソース(例えば、各カメラからビデオストリームを受信する映像分析モジュール等)から構成されてもよい。 The processor 32 is a microprocessor, controller or other suitable any computing device or resource (e.g., video analysis module or the like for receiving the video stream from the camera) may be composed of. 或る実施例では、モーション検出器22のプロセッサ32に関連してここで説明される処理は、携帯装置10のプロセッサ16により又は適切な他の如何なるプロセッサ(その装置から遠隔して位置するプロセッサを含む)により実行されてもよい。 In some embodiments, the process described herein in connection with the processor 32 of the motion detector 22, a processor located remotely by the processor 16 of the mobile device 10 or any other suitable processor (from the device it may be performed by including).

上述したように、モーション検出器22は3つの加速度計、3つのカメラ、3つのジャイロ及び3つの距離測定器を含む。 As described above, the motion detector 22 includes three accelerometers, three cameras, three gyros and three distance measuring instrument. 他の実施例によるモーション検出器は、このモーション検出器22のものより少数の又はそれとは別の素子を含んでもよい。 Motion detector according to other embodiments, fewer or may comprise another element from that from that of the motion detector 22. 例えば或る実施例は、3つの加速度計を備えるがカメラ、ジャイロ又は距離測定器を一切備えないモーション検出器;2つ又は3つの加速度計及び1つ又はそれより多いジャイロを備えたモーション検出器;2つ又は3つの加速度計及び1つ又はそれより多いカメラを備えたモーション検出器;又は2つ又は3つの加速度計及び1つ又はそれより多い距離測定器を備えたモーション検出器を含んでもよい。 Some embodiments for example, but provided with three accelerometers cameras, motion detectors does not include any gyroscopic or distance measuring instrument; motion detector with two or three accelerometers and one or more gyros ; two or three accelerometers and one or motion detector with a more cameras it; or include two or three accelerometers and one or motion detector with more distance measuring instrument which good. 更に、モーション検出素子の装置での配置は様々な実施例で異なってよい。 Furthermore, the arrangement of the apparatus of the motion detection device may be different in various embodiments. 例えば、ある実施例は装置とは別の面にカメラを含むかもしれないが、別の実施例は(例えば、距離測定機能を付加するために)同一面に2つのカメラを含むかもしれない。 For example, some embodiments might include a camera to another aspect is an apparatus, another embodiment (e.g., in order to add the distance measuring function) might coplanar comprises two cameras.

モーション検出器22の要素のタイプ、数及び位置を変えることは、様々なタイプの動きを検出する或いは正確に測定するモーション検出器の能力に影響を及ぼすかもしれない。 Element type of the motion detector 22, is changing the number and position, may affect the ability of the motion detector to detect or accurately measure various types of motion. 上述したように、モーション検出器の要素のタイプ及び数は、特定の要請を満たすように様々な実施例で異なってよい。 As described above, the type and number of components of the motion detector may be different in various embodiments to meet specific requirements. モーション検出機能を備えた携帯装置の製造コストを減らすために精度を犠牲にすることが望まれる特定の実施例では、より少数の又はより低い精度の素子が使用されるかもしれない。 In certain embodiments where it is desirable to sacrifice the precision to reduce the manufacturing cost of the portable device equipped with motion detection, fewer or lower accuracy of the device may be used. 例えば、ある携帯装置は、その装置の所望の機能を実行するには、装置が並進させられていることの検出だけを必要とし、そのような並進の正確な量を検出する必要はないかもしれない。 For example, some mobile devices, to perform the desired function of the device requires only detection of the device is caused to translate, may not be necessary to detect the exact amount of such translation Absent. そのような携帯装置は、距離情報をもたらす何らかの種類の距離測定器や他の素子を備えないがカメラを備えるモーション検出器を含んでよい。 Such portable devices include, but are not provided with some kind of distance measuring instrument or other device that provides the distance information may include a motion detector with a camera. 特定の実施例では、カメラ及び距離測定器のような上述の素子は、動き検出機能に関連する上述のもの以外の他の目的のためにその装置で使用されてもよい。 In certain embodiments, the above-described elements, such as a camera and distance measuring device may be used in the device for other purposes than those described above relating to the motion detection function.

図3は図1の携帯装置10のモーション検出素子の利用例を示す図である。 Figure 3 is a diagram showing an example of usage of a motion detection device of the portable device 10 in Figure 1. モーション検出素子からの未処理データはプロセッサ32で処理される。 Raw data from the motion detection device is processed by the processor 32. そのような未処理データは、加速度計24a,24b,24c各々からのX軸加速度計の未処理データ23a、Y軸加速度計の未処理データ23b及びZ軸加速度計の未処理データ23c;カメラ26a,26b,26c各々からのカメラ未処理データ25a、カメラ未処理データ25b及びカメラ未処理データ25c;ジャイロ28a,28b,28c各々からのジャイロ未処理データ27a、ジャイロ未処理データ27b及びジャイロ未処理データ27c;及び距離測定器30a,30b,30c各々からの距離測定器の未処理データ29a、距離測定器の未処理データ29b及び距離測定器の未処理データ29cを含む。 Such raw data may accelerometers 24a, 24b, the raw data 23a of the X-axis accelerometer from 24c respectively, Y-axis accelerometer raw data 23b and the raw data 23c of the Z-axis accelerometer; camera 26a , 26b, camera raw data 25a from 26c each camera raw data 25b and the camera raw data 25c; gyro 28a, 28b, gyro raw data 27a from 28c each gyro raw data 27b and the gyro raw data including and distance measuring device 30a, 30b, the raw data 29a of the distance measuring instrument from 30c respectively, the distance measuring instrument raw data 29c of the raw data 29b and the distance measuring instrument; 27c. 何らかの実施例における場合のように、携帯装置がより多数の、より少数の又は別のモーション検出要素を含む場合には、未処理データは包含される要素に対応してよい。 As is the case in some embodiments, the portable device many more, in cases involving fewer or another motion detection elements, raw data may correspond to the elements to be included.

未処理データはプロセッサ32で処理され、装置10の動きを識別するモーション検出器出力34を生成する。 Raw data is processed by the processor 32, it generates a motion detector output 34 identifies the movement of the device 10. 図示の例では、モーション検出器出力34はx,y,z軸に沿う並進と、x,y,z軸に関する回転とを含む。 In the illustrated example, the motion detector output 34 includes x, y, and translation along the z-axis, x, y, and rotation about the z-axis. モーション検出器出力は携帯装置のプロセッサ16に通知され、プロセッサは、装置の動きに基づいてその装置が実行すべき動作、機能又はタスク(即ち、装置の挙動36)を判定する。 Motion detector output is notified to the processor 16 of the mobile device, the processor determines the operation to be executed the device based on the movement of the device, functions or tasks (i.e., behavior 36 of the device) a. 特定の動きに基づく或る動作、機能又はタスクの実行は後に更に説明される。 Some operations based on a specific motion, the execution of the functions or tasks are further described later.

図4は特定の実施例によるモーション検出機能を備えた携帯装置31の等距離図を示す図である。 Figure 4 is a diagram showing an equidistant view of a portable device 31 having a motion detection function according to a particular embodiment. 携帯装置31はx軸加速度計33、y軸加速度計35及びz軸に向くカメラ37を含む。 Mobile device 31 includes a camera 37 facing the x-axis accelerometer 33, y-axis accelerometer 35 and the z-axis. X軸38、Y軸39及びZ軸40もリファレンスとして装置31に関して図示されている。 It is illustrated with respect to X-axis 38, Y axis 39 and the Z-axis 40 also apparatus as a reference 31. 携帯装置31は、加速度計33,35及びカメラ37を用いて様々な方向の傾斜及び並進を含む動きを検出する。 Portable device 31 detects a motion including tilt and translation of a variety of directions using accelerometers 33, 35 and the camera 37. 携帯装置31は、ディスプレイ12、入力14、プロセッサ16、メモリ18及び通信インターフェース20のような、携帯装置10に関して図示及び説明された素子のような他の素子を含んでもよい。 Mobile device 31 includes a display 12, an input 14, the processor 16, such as memory 18 and communication interface 20, other elements may include such as a device shown and described with respect to the mobile device 10. 上述したように、特定の実施例は(加速度計、ジャイロ、カメラ、距離測定器又は適切な他の素子を含む)様々なタイプのモーション検出素子を有する携帯装置を、その装置に関して適切な如何なる手法で如何なる組み合わせ及び位置又は向きに含んでもよい。 As described above, particular embodiments (accelerometers, gyros, cameras, distance includes measuring instruments or other suitable device) a portable device having a motion detection device of various types, any suitable method for that device in may be included in any combination and location or orientation.

特定の実施例では、ユーザインターフェース機能は、ある時点の或る動きの軸に沿う入力運動を利用してもよい。 In certain embodiments, the user interface feature may utilize an input motion along the axis of the certain motion of a certain point in time. 例えば、装置のアプリケーションは、特定の軸に沿って(例えば、1つの方向に又は双方向に)装置を動かすことで、携帯装置に表示されたリストをユーザがスクロールすることを可能にしてもよい。 For example, the application of the device, along a specific axis (e.g., one or bidirectionally direction) by moving the device, the list displayed on the mobile device user may allow scrolling . 装置の動きを望まれる特定の軸に制限することが、ユーザにとって困難かもしれない。 Be limited to a specific axis desired movement of the device, it may be difficult for the user. 言い換えれば、ユーザの生み出す別の軸に関する何らかの回転又は運動が回避困難かもしれない。 In other words, it may for some rotation or movement difficulties avoided about another axis to create the user. この問題に対処するため、本装置は好ましい動きを選択する機能(支配的な動きの選択及び増幅、並びに他の方向又は軸に関する動きの最小化を含む機能)を含んでもよい。 To address this problem, the apparatus function of selecting the preferred motion (dominant motion of selection and amplification, as well as functions including minimization of movements for other direction or axis) may contain.

図5は、上述したような支配的な運動の選択及び増幅並びに他の方向に関する動きの最小化を行う様子を示す。 Figure 5 illustrates a state of performing the minimization of the dominant movement of selection and amplification, as well as other motion related to the direction as described above. 図示の例では、「実際の運動41」が携帯装置の動きを表現する。 In the illustrated example, "actual motion 41" to represent the movement of the portable device. 実際の運動41は、或る軸44に沿う運動成分42と軸44に垂直な別の軸48に沿う運動成分46とを有する。 Actual motion 41 includes a motion component 46 along another axis 48 perpendicular to the motion component 42 and the shaft 44 along a certain axis 44. 運動42の量は運動46の量より大きいので、携帯装置は支配的な動きとして運動42を選択する。 Since the amount of movement 42 is greater than the amount of movement 46, the mobile device selects the motion 42 as the dominant motion. そして携帯装置はこの支配的な動きを増幅し、運動46(他の運動成分)を最小化し、実際の運動41が、運動50のように描かれたように装置で処理されるようにする。 The portable device amplifies the dominant motion, to minimize movement 46 (other component of motion), the actual movement 41, to be processed in the apparatus as depicted as motion 50. 支配的な動きの増幅の度合い又はサイズは、その時点で装置で動作している特定のアプリケーションのような特定の要因に応じて様々な実施例で異なってよい。 The degree or the size of the amplification of the dominant motion can be different in various embodiments depending on certain factors such as the particular application running on device at that time. 更に支配的な動きの増幅は、加速度の大きさ、動きの速度、或る方向(例えば、動き46)に対する別の方向の動き(例えば、動き42)の比率、ナビゲートされる基礎とするデスクトップのサイズ、又はユーザの好み等に基づいてもよい。 Desktop further amplified dominant motion, acceleration magnitude, the movement speed, a certain direction (e.g., motion 46) the ratio of the different direction of movement relative to (e.g., motion 42), the basis to be navigated size, or it may be based on preferences of the user. 或る実施例では、携帯装置は、或る運動属性が生じた場合にのみ好ましいモーション選択を実行する。 In some embodiments, the mobile device executes only the preferred motion selected if certain motion attribute occurs. 例えば場合によっては、携帯装置は、或る軸の動きが何らかの他の動きよりも3回以上多かった場合に支配的な動きを選択及び増幅してもよい。 For example in some cases, the portable device, the dominant motion may be selected and amplified when the motion of a certain axis was often more than three times than some other movement. その他の、より小さな動きは最小化されてもよい。 Other, smaller motion may be minimized.

支配的な動きの選択及び増幅並びに他の動きの最小化は、モーションユーザインターフェースを利用するようにユーザの機能を更に拡張し、携帯装置又は装置で走っているアプリケーションが、望まれないノイズであってユーザが誘発したところのノイズをフィルタリングすることを可能にする。 Dominant motion selection and minimization of amplification and other movements, further extends the capabilities of the user to utilize the motion user interface, applications running on a mobile device or apparatus, there in undesired noise It allows the user to filter the noise of the place that triggered Te. この機能により、ユーザは例えば装置を左に動かして調べるリストを取り出し、上下に動かすことでそのリストをスクロールすることができるかもしれない。 This feature allows users to retrieve a list to check by moving to the left, for example, device, may be able to scroll through the list by moving up and down. 不適切な軸に沿う動きは無視される或いはその装置によりかなり減らされてよい。 It may be considerably reduced by the movement along the inappropriate axis Ignored or a device.

特定の実施例では、支配的な動きの選択及び増幅並びに他の動きの最小化は、装置の回転運動にも適用されてよい。 In certain embodiments, minimizing the dominant motion of selection and amplification, as well as other movements, it may also be applied to rotational movement of the device. 並進運動に関して上述したように或る軸に沿う動きの場合と同様な手法で、或る軸の回りの支配的な運動が選択され及び増幅されてよい。 In a manner similar to the case of motion along a certain axis as described above with respect to translational movement technique, around the dominant motion of one shaft may be selected and amplified. 更に、(支配的な回転でない)別の軸の回りの回転が最小化されてもよい。 Furthermore, it may be minimized around the rotating (non dominant rotation) another axis.

図6は本発明の特定の実施例による好ましいモーション選択用のフローチャートを示す。 Figure 6 shows a flow chart for preferred motion selection according to a particular embodiment of the present invention. フローチャートでは、携帯装置の動きに対応する未処理データが受信される。 In the flowchart, raw data corresponding to the motion of the portable device is received. 図示の例では、モーション未処理データは、x−加速データ62a、y−加速データ62b、z−加速データ62cを含み、ステップ64で処理され、装置の動きを示す出力を生成する。 In the illustrated example, the motion raw data, x- acceleration data 62a, y- acceleration data 62b, includes a z- acceleration data 62c, are processed in step 64, it generates an output indicative of movement of the device. 他の実施例は、光学的又はカメラデータ、ジャイロデータ及び/又は距離測定データのような他のタイプのモーション未処理データを含む。 Other examples include optical or camera data, other types of motion raw data, such as the gyro data and / or the distance measurement data. 未処理加速データ62の処理の後に、ステップ66で運動の支配的な軸が選択される。 After processing the raw acceleration data 62, the dominant axis of motion is selected in step 66. 運動に関して選択された支配的な軸がx軸であったならば、ステップ68aでx軸に沿う運動が増やされる。 If predominant axes is selected for motion was x-axis, motion is increased along the x-axis in step 68a. 運動に関して選択された支配的な軸がy軸であったならば、ステップ68bでy軸に沿う運動が増やされる。 If predominant axes is selected for motion was y-axis, motion is increased along the y axis at step 68b. 運動に関して選択された支配的な軸がz軸であったならば、ステップ68cでz軸に沿う運動が増やされる。 If predominant axes is selected for motion was z-axis, motion is increased along the z-axis in step 68c. 運動に関して支配的な軸における運動の増量は、使用されるアプリケーションに又は他の特性に従って様々な実施例で異なってよい。 Increasing exercise in a dominant axis with respect to motion, it may vary in various embodiments in accordance with, or other properties in the application used. 或る実施例では、ユーザの好み69が運動の増量又はタイプを決定するのに使用されてよい。 In some embodiments, preferences 69 users may be used to determine the increase or type of motion. 運動の支配的な軸以外の軸に沿う運動は上述したように最小化され、そのような運動は特定のアプリケーションでは使用に際して無視される。 Motion along the axis other than the dominant axis of motion is minimized as described above, such a movement is ignored in use in certain applications. ステップ70では増やされた運動が処理され、装置の挙動72をもたらす。 In step 70 it increased exercise are processed, resulting in the behavior 72 of the device. この処理ステップは、使用されるアプリケーションにアクセスし、増やされた動きに基づいて実行する特定の装置の挙動を決定することを含んでもよい。 This processing step accesses the application used, may include determining the behavior of a particular device to be executed on the basis of the increased motion. 増幅された運動は、使用するアプリケーション、特定のユーザ又はその他に従う多数のタイプの装置動作のどれをもたらしてもよい。 Amplified movement, applications that use may result in any of a number of types of devices operating according to a particular user or otherwise.

モーション入力を用いる特定のユーザインターフェースに関し、装置の位置に関連する、携帯装置10のディスプレイ12に表示された情報、又は仮想ディスプレイの位置を有する価値があるかもしれない。 Pertain to certain user interface using motion input, associated with the location of the device, the information displayed on the display 12 of the portable device 10, or there may be worth having a position of the virtual display. 例えば、装置に表示された地図上を走行するような並進入力を用いる特定の実施例では、携帯装置の位置はディスプレイ12に表示されるマップの部分を直接的に決定するかもしれない。 For example, in certain embodiments using translational inputs, such as traveling on a map displayed on the device, the position of the portable device may directly determine the portion of the map displayed on the display 12. しかしながら、装置の位置情報が絶対的に維持されるならば(例えば、グローバルポジショニングサテライト(GPS)ベースのシステム)、マップ又はメニューナビゲーションのような多くのタスクの利用性は減退するかもしれない。 However, if the position information of the device is absolutely maintenance (e.g., global positioning satellite (GPS) based system), the availability of many tasks, such as map or menu navigation might decline. かくて、ローカルな状況で「ゼロ点」(基準点)又は原点を決めることが状況によっては便利であり、そのゼロ点等は装置の挙動を決定するのに使用されてよい。 Thus it is convenient by the situation to determine the "zero point" (reference point) or origin local circumstances, the zero point or the like may be used to determine the behavior of the device. 例えば、装置が地点Aにある場合にゼロ点が決定されるならば、地点A及び地点B間の運動が入力として使用される。 For example, if the zero point is determined when the apparatus is in the point A, the motion between points A and point B is used as an input. 特に、ゼロ点を設定する有用なアプリケーションは、仮想ディスプレイを動かすこと、或いはユーザの体の回りの空間にアプリケーションを設置することのような外部挙動を含む。 Particularly useful applications for setting the zero point includes external behavior such as placing the application to move the virtual display, or around the space of the user's body. ゼロ点を設定することは、現在の向きにおける重力加速度を無視するように装置に命令するような内部挙動に取り組み、追加的に及びおそらくはユーザがもたらした加速度に関してのみ装置を動作可能にする。 Setting the zero point, efforts inside behavior as to instruct the device to ignore the gravitational acceleration in the current orientation, allowing operation only device with respect to additionally and possibly acceleration user brought.

特定の実施例による携帯装置は、或る回数でのみモーション入力を利用するアプリケーションユーザインターフェースを含んでもよい。 Mobile apparatus according to a particular embodiment may include an application user interface that utilizes motion input only at a certain number of times. 他の回数では、例えば、装置の運動は入力として使用されず、これは装置のモーション検出機能又はモーション検知機能を「ターンオフ」にする或いは外すのに有用かもしれない。 In other times, for example, movement of the device is not used as an input, which may be useful motion detection or motion detection of a device to remove or to "turn off". モーション感度機能を外すことは、例えば、装置10又は他の素子(例えば、装置のモーション応答モジュール等)のモーション検出器22の非活性化を含んでもよい。 Removing the motion sensitivity function, for example, device 10 or other devices (e.g., motion response module of the apparatus) may include a deactivation of the motion detector 22. 特定の実施例は装置のモーション検知機能の関与及び不関与の選択を可能にする。 Particular embodiments enable selection of involvement and not involved in motion detection apparatus.

一例として、モーション検出器22で検出された動きに基づいてディスプレイ12を修正するモーション応答モジュールは或る動作モードを有し、その動作モードは、モーション検知がイネーブルにされる別の動作モードにスイッチングするトリガを待機する動作モードである。 Switching As an example, the motion response module to fix the display 12 based on the motion detected by the motion detector 22 has a certain operation mode, the operation mode to another operation mode motion detection is enabled is an operation mode to wait for a trigger that. モーション検知がイネーブルにされない場合には、装置の如何なる動きも無視される。 Motion detection is when not enabled, is ignored any movement of the device. そのトリガはその装置に対するゼロ点を設定してもよい。 The trigger may be set to zero for that device. ゼロ点が設定されると、モーション応答モジュールは、モーション検出素子からの測定値に基づいて装置のベースラインの向きを測定してよい。 If the zero point is set, the motion response module, the baseline direction of the measurement device based on from the motion detection device may be measured. ベースラインの向き(基線方向)は、トリガが受信された時の装置の位置を含んでもよい(モーション検出素子からの情報により決定される。)。 Baseline orientation (baseline direction), the position comprise may a device when the trigger is received (as determined by information from the motion detection device.). 装置の更なる動きは、基線方向と比較され、実行する機能又は修正(装置に関するユーザの動きに基づいてディスプレイ12になされるべき修正)を決定する。 Further movement of the device is compared with the base line direction, to determine the (modified to be made on the display 12 based on the user's motion about the device) functional or modified to perform.

特定の実施例は、装置のモーション検知の選択的な関与/不関与及びゼロ点選択に関する単独のトリガとして動作するユーザの起こす動作をいくつでも用意してよい。 Particular embodiments may be provided any number of operations of causing the user to operate as a selective trigger alone on the involvement / non involvement and zero point selection of motion detection devices. そのような動作は例えば入力14におけるキー押下、特定方向での装置10の運動(例えば、特定のジェスチャーに対応する動き)及びディスプレイ12のタッピング(ディスプレイをたたくこと)を含んでもよい。 Such operations depressed key in, for example, the input 14, the movement of the device 10 in a particular direction (e.g., movement corresponding to a particular gesture) may include tapping and display 12 (tapping the display). ユーザの起こしたアクションは、ゼロ点を設定し、同時に装置のモーション検知機能を使用するようにしてよいことが理解されるべきである。 Action that caused the user sets the zero point, it should be understood that there may be to use a motion detection devices at the same time.

或る実施例では、インアクティブな期間又はアクティビティが最少の期間(即ち、比較的静止状態の期間)にゼロ点及びモーション検知機能の関与又は不関与を設定してもよい。 In some embodiments, the inactive period or activity minimum period (i.e., a relatively period of quiescent) may set the involvement or non involvement of zero and motion detection function. 図7は携帯装置のゼロ点を受動的に設定するためのフローチャート80を示す。 Figure 7 shows a flow chart 80 for setting the zero point of the mobile device passively. ステップ82aでx軸に関する加速度変化が検出され、ステップ82bでy軸に関する加速度変化が検出され、ステップ82cでz軸に関する加速度変化が検出される。 Acceleration change in the x-axis in step 82a is detected, the acceleration change is detected in the y-axis in step 82b, the acceleration change relates z-axis is detected in step 82c. ステップ84a,84b,84cでは、検出された何らかの加速度変化が或る特定の各自の閾値より大きいか否かが検査される。 Step 84a, 84b, in 84c, whether any change in acceleration is detected is larger than a certain specific respective threshold is examined. 3つの軸各々に関して検出された加速度変化が、設定された閾値より大きくなかったならば、その装置は静止状態であると考えられてよく、ステップ86aでゼロ点が設定される。 The detected acceleration changes with respect to three axes each, if not greater than the set threshold, the device may be considered to be a stationary state, the zero point is set at step 86a. 静止位置は、例えばモーション検出器22の要素の運動成分又は未処理データの安定化により決定されてよい。 Rest position, for example, may be determined by the stabilization of the motion components or raw data elements of the motion detector 22. しかしながら3つの何れかの軸に沿って検出された加速度変化が、設定された閾値より大きかったならば、本プロセスはステップ82の加速度変化検出に戻る。 However the detected acceleration changes along three or axes, if greater than the set threshold value, the process returns to the acceleration change detecting step 82. かくてゼロ点を受動的に設定する本方法は、携帯装置が静止状態にある時にゼロ点が設定されることを保証する。 The method for passively set the zero point thus ensures that the zero point is set when the portable device is stationary. 更に、装置が一定の運動をしているが或る特定の時間にユーザによって動かされていなかった場合(例えば、一定の速度で運動している列車内で静止しているような場合)には、加速度は何ら検出されないので、ゼロ点が設定されてもよい。 Furthermore, if the device has not been moved by the user to have but a certain time Ru some with constant motion (e.g., if such be stationary in the train in motion at a constant speed) since the acceleration is not detected at all, the zero point may be set. ゼロ点を設定するトリガを与えるほど充分に加速度変化が大きいか否かを判定するための閾値を利用することは、装置を静止状態に保持するユーザが、ゼロ点を受動的に設定することを可能にする。 Utilizing the threshold value for determining whether or not enough sufficiently if the acceleration change is large to trigger for setting the zero point, that the user holding the device in a stationary state, to set the zero point passively to enable. そうでなければこれは(受動的なゼロ点設定は)困難になる。 Otherwise it becomes difficult (passive zero setting). なぜなら、非常に高感度の加速度計を備えた装置は、ユーザの起こした非常に些細な動きの結果生じる加速度変化を検出するかもしれないからである。 This is because, with the accelerometer very sensitive device, since it may detect the acceleration change resulting from the very minor movement that caused the user. 加速度計以外の素子を備えるモーション検出器に関しても同様な方法が使用されてよいことが理解されるべきである。 Similar methods with regard motion detector comprising an element other than an accelerometer that may be used is to be understood. 小さな意図されない動きに対処するためにそのような同様な方法で閾値が使用されてよい(そうでなければ、その動きはゼロ点の設定を妨げるおそれがある。)。 Small threshold in such a similar manner to address the unintended motion may be used (otherwise, the movement is likely to interfere with the setting of the zero point.).

本発明の特定の実施例は、携帯装置のモーション検出機能を反復的に選択的に使用可能に及び不使用にする機能を含み、限られた物理的空間の中でのモーション入力を利用する仮想的デスクトップ(又は情報空間)での大きな動きを可能にする。 Particular embodiments of the present invention include the ability to repeatedly selectively operably and not using motion detection function of the mobile device utilizes the motion input in a limited physical space virtual to allow large movements at specific desktop (or information space). このプロセスは、カーソルを制御するマウスと共に「行き来し(scrubbing)」、或いは表面からマウスを持ち上げてその表面の別の場所にマウスを置き直し、そのカーソルのより大きな動きを可能にすることに類似している。 This process, together with the mouse to control the cursor "back and forth (scrubbing)", or again place the mouse in a different location of the surface from the surface to lift the mouse, similar to allow greater movement of the cursor doing. マウスを持ち上げることは、マウスの動きとカーソルの動きとの間の繋がり(コネクション)を切断する。 Lifting the mouse disconnects the connection (connection) between the movement of the mouse movement and cursor. 同様に、装置10のような携帯装置の動きと、操作、機能又は動作との間のコネクションを、装置の動きに基づいて使用可能にする及び不使用にすることができる。 Similarly, the movement of a portable device as the device 10, the operation, the connection between the functions or operations can be made available to and unused based on the motion of the device.

図8は携帯装置のディスプレイより大きな仮想的なデスクトップ又は情報空間でナビゲーションを行うためのスクラッビング(scrubbing)機能を利用する例を示す。 Figure 8 shows an example of using a scrubbing (scrubbing) functions for navigation in a large virtual desktop or information space than the display of the mobile device. 図示の例では、携帯装置は仮想デスクトップ90を介してナビゲートするように使用される。 In the illustrated example, the portable device is used to navigate through the virtual desktop 90. 仮想デスクトップ90は方眼地図(グリッドマップ)として示され、ユーザがナビゲートを希望する適切な如何なる情報を表現してもよい。 Virtual Desktop 90 is shown as grid map (grid map), it may represent any suitable information that the user wishes to navigate. 携帯装置に表示される仮想デスクトップの情報はボックス92で表現される。 Information of the virtual desktop displayed on the mobile device is represented by box 92. この例では携帯装置の並進運動は仮想デスクトップ90を介してナビゲートするのに使用される。 Translation of the mobile device in this example is used to navigate through the virtual desktop 90. 例えば、仮想デスクトップ90の情報を通じて右から左にナビゲートするために、ユーザは携帯装置を右から左に動かす。 For example, to navigate from right to left through the information of the virtual desktop 90, the user moves to the left the portable device from the right. 図示の例はスクラッビングプロセスを行うように装置を右に動かすことを示しているが、特定の実施例の携帯装置はスクラッビングプロセスを行うのに適切な如何なる手法で動かされてよいことが理解されるべきである。 The illustrated example shows that moving to the right device to perform the scrubbing process, the portable device of specific embodiments will be understood that there may be moved by any suitable technique for performing the scrubbing process it should.

上述したように、ボックス92は装置に現在表示されている仮想デスクトップ90の情報を示す。 As described above, box 92 indicates the information of the virtual desktop 90 that is currently being displayed on the device. ユーザがボックス94で表現される情報を見ることを望むならば、そのユーザは携帯装置を左から右に動かせばよい。 If the user wants to see the information that is represented by box 94, the user should be moved to the right of the portable device from the left. 本実施例に関し、ユーザが装置を右に動かしたことすると、ボックス94に含まれている仮想デスクトップ90の情報が装置に表示される。 In the context of the present embodiment, when that the user moves the device to the right, the information of the virtual desktop 90 contained in the box 94 is displayed on the device. また、ユーザの腕がユーザの右側に伸びきった状態になると、仮想デスクトップ90の装置情報のディスプレイにボックス94の右側にあるものを見るために、ユーザは歩き出さなければならない或いは更に右に動かさなければならない。 Further, when the arm of the user is in a state in which stretched to the right of the user, to see what the right of the box 94 on the display of the device information of the virtual desktop 90, the user moved more or must issue walk right There must be. そのような場合に、装置が更に右に動かされるように、更なる右への歩行や移動をユーザが実行できなかった場合或いは望まなかった場合、ユーザは、携帯装置のモーション検知機能を選択的に不使用にし、装置を左に動かし、装置のモーション検知機能を選択的に再び使用可能にし、そして装置を右に動かし、ボックス94の右側の情報を表示する。 In such a case, if the apparatus is not further be moved to the right, desired or if the user is unable to perform the walking or movement to the further right, the user may selectively motion detection function of the portable device in the non-use, moving the device to the left, to enable motion detection device selectively again and move the device to the right, to view the right information box 94. この手法では、ユーザはボックス96に含まれている仮想デスクトップ90の情報を表示することができ、ボックス96の更に右側のボックス98に含まれている情報を表示するのにそのプロセスが反復される。 In this approach, the user can view the information of the virtual desktop 90 contained in the box 96, the process is repeated to display the further information included in the right side of the box 98 of the box 96 .

限られた物理的な空間の中で仮想デスクトップ内で更に大きな動きを可能にするために、装置のモーション検知機能を不使用にして再び使用可能に選択することは、(装置の入力に関するキーによること、特定のジェスチャーや動き(例えば、ある円弧状の動き)に従って装置を動かすことによること又は装置画面を軽くたたく(タッピングする)ことのような)様々な如何なる方法ででも実行可能にされてよい。 To enable limited physical larger movements in the virtual desktop in space, selecting the motion detection function of the device can be used again in the non-use, in accordance with the key for the input of (device it, certain gestures and movements (for example, arcuate movement) may be executable even in accordance tapping it or device screen by moving the device (tapping) things like) different in any way . ユーザの起こす他の如何なる動作(アクション)でも、この目的のためにモーション検知機能を不使用に及び使用可能にするのに使用されてよい。 But users of causing any other operation (action), may be used to to to and usable not use motion detection for this purpose. 特定の実施例は、装置のモーション検知機能を不使用に及び使用可能にするのに複数のアクションを許容する。 Particular embodiments allow multiple actions motion detection function of the device for the on and available unused. 更に、装置のモーション検知機能を不使用にするユーザのアクションは、モーション検知機能を使用可能にするユーザのアクションと異なっていてもよい。 Furthermore, the action of the user to not use the motion detection function of the device may be different from the actions of a user to enable motion detection. このスクラッビングプロセスは、マップナビゲーション、メニューナビゲーション及びリストのスクロールのような適切な如何なるアプリケーションで実行されてもよい。 This scrubbing process, map navigation may be performed in any suitable application, such as the scrolling of the menu navigation and list.

図9は特定の実施例による上述の図8に関連するスクラッビングプロセスのステップを示すフローチャートである。 Figure 9 is a flow chart illustrating the steps of scrubbing processes associated with FIG. 8 described above according to a particular embodiment. フローチャートはステップ100から始まり、仮想ディスプレイ90のボックス92で表示する情報からボックス94の情報へ進むために、携帯装置が右に動かされる。 The flowchart begins at step 100, to advance from the information displayed in the box 92 of the virtual display 90 to the information in box 94, the portable device is moved to the right. 上述したように、ユーザは更にボックス94の右側の情報を表示することを望むかもしれないが、装置を更に右に動かすための物理的空間は使い果たされているかもしれない。 As described above, the user might wish to further display the right information box 94, might physical space for moving the device further to the right is exhausted. かくてユーザはステップ102で装置のモーション検知機能を不使用にする。 Thus the user is to not use the motion detection function of the device at step 102. そのような不使用を実行するために、装置に付いているボタンを押すこと或いは特定のジェスチャーに従って装置を動かすことのような適切な如何なるユーザアクションがなされてもよい。 To perform such unused, any appropriate user action may be made, such as moving the device in accordance with that or specific gesture press the button on the device. ステップ104では、ユーザは装置を左に動かし、そのユーザがより多くの物理的空間を用意できるようにし、モーション検知機能が再び使用可能になった場合にその物理的空間を通じてユーザは装置を右に動かす。 In step 104, the user moves the device to the left, the user will be able to prepare more physical space, through its physical space when motion detection is again available user the right device move.

ステップ106ではユーザは装置のモーション検知機能を使用可能にする。 In step 106 the user to enable the motion detection function of the device. 再び、そのように使用可能にすることは適切な如何なるユーザアクションにより実行されてよく、そのようなユーザアクションは、ステップ102でモーション検知機能を付しようにしたときに実行されたユーザアクションと異なってもよい。 Again, such usable to may be performed by any suitable user action, such user actions, different from the user actions executed when so designated by the motion detection in step 102 it may be. モーション検知機能が使用可能にされたので、ステップ108でユーザは装置を右に動かし、装置に表示される情報を、ボックス94の情報からボックス96の情報に変える。 Since motion detection is enabled, the user moves the device to the right in step 108, the information displayed on the device, changing the information in box 94 in the information box 96. ステップ110では装置を右側へ更に動かすことの要否が確認される。 Necessity of the step 110 in the device moved further to the right is confirmed. (例えば、仮想ディスプレイ90のボックス98における情報を表示するために)更なる移動が必要ならば、本プロセスはステップ102に戻り、装置のモーション検知機能が再び不使用にされる。 (E.g., in order to display the information in box 98 of the virtual display 90) if necessary further movement, the process returns to step 102, the motion detection function of the device is in the non-use again. 更なる動きが一切不要ならば、本プロセスは終了する。 If further movement is not required at all, this process is terminated. 上述したようにスクラッビングプロセスは、モーション入力をサポートする装置の適切な如何なるアプリケーションで使用されてよく、装置はその機能を使用するために適切な如何なる方法で動かされてもよい。 Scrubbing process as described above may be used in any suitable application device that supports motion input, the device may be moved in any suitable manner in order to use its functions.

上述したように、装置の特定の運動(例えば、特定のジェスチャー)が、そのような動きの間にディスプレイに示される情報を変えないことを装置に通知するために、スクラッビングプロセスで使用されてもよい。 As described above, the specific movement of the device (e.g., a particular gesture) is, in order to notify the device that it does not alter the information shown on the display during such movement, it is used in scrubbing process good. このことはユーザが装置を或る位置に戻すことを可能にする(ディスプレイに示される情報を更に変更するためにユーザはその位置から装置を動かす。)。 This is enables the user to return the device to a location (user to further change the information shown on the display moves the device from its position.). 例えば、装置が或る基準参照(ベースリファレンス)位置にあり、その位置からの装置の動きが表示情報を変える。 For example, device is in a certain standard reference (base reference) position, movement of the device from that position change the display information. 或る特定の所定の運動(例えば、円弧状の動き)が使用され、その動きが完了するまで動きに応じて表示情報を変えないように装置に通知してよい。 Certain predetermined motion (for example, arcuate motion) is used, it may notify the apparatus so as not to change the display information in response to the movement until the movement is completed. 所定の運動が完了すると、基準参照位置がリセットされ、基準参照位置からの装置の更なる動きが表示情報を変えるようにしてもよい。 When a predetermined movement has been completed, standard reference position is reset, further movement of the apparatus from a standard reference position may be changed display information. 基準参照位置は、装置のモーション検出素子により受信されたモーションデータのベースライン成分で表現される装置のベースライン方向を識別する。 Standard reference position identifies the baseline direction of the device represented by the baseline component of the motion data received by the motion detection device of the apparatus. 特定の実施例では、基準参照位置からの動きにより決定されるようなジェスチャーが受け取られ、装置に表示される情報を変える特定のコマンドを実行する。 In certain embodiments, the gesture as determined by the movement from the standard reference position is received, executes a specific command to change the information displayed on the device.

上述した様々な実施例に関して説明されたように、特定の実施例による携帯装置は複数のタイプの又はモードの入力を使用して装置を操作してもよい。 As described with respect to various embodiments described above, may operate the unit using a mobile device an input of a plurality of types or modes according to a particular embodiment. そのような入力モードは、並進入力モード及びジェスチャー入力モードのようなモーション入力モードを含む。 Such input mode includes motion input modes such as translation input mode and the gesture input mode. 複数の入力モードはしばしば互いに組み合わせて使用されてもよく、場合によっては携帯装置は一度に或る1つのモードタイプを認識するように設定されてもよい。 A plurality of input modes are often may be used in combination with each other, the portable device as the case may be configured to recognize certain one mode type at a time. 或る状況では、携帯装置は或る特定の時点で複数のタイプの不動入力(non-motion input)及び唯1つのタイプのモーション入力(例えば、並進及びジェスチャー)に基づく機能に設定されてもよい。 In some situations, a mobile device more than one type of immobile input at some particular point in time (non-motion input The) and only one type of motion input (e.g., translation and gestures) may be set to the basis functions .

複数の入力モードを認識する携帯装置のこの柔軟性を促進するために、特定の実施例では、入力モードを切り替えるために或るトリガが使用される。 To facilitate this flexibility of a plurality of recognizing the mobile device an input mode, in certain embodiments, certain triggers are used to switch the input mode. 例えばユーザは入力モードを切り替えるために特定のキーを押す或いは装置を或る方法で(例えば、特定のジェスチャーで)動かす。 For example, the user moves a particular keystroke to switch an input mode or a device in some way (e.g., a particular gesture). 装置のアプリケーションが複数のタイプのモーション入力に基づいて認識及び機能する例では、並進モーション入力モード及びジェスチャー入力モードを切り替えるために、特定のキーが押される或いは特定のジェスチャーがその装置を利用して形成される。 In the example application of the device to recognize and function based on motion input multiple types, in order to switch the translational motion input mode and the gesture input mode, a specific key is pressed or specific gesture by utilizing the device It is formed. また、トリガは、或るアプリケーションから別のものへの単なる切り替わりや、或る表示画像から別のものへの切り替わりを含んでもよい。 The trigger is simply switched or from one application to another, may include a switch from one display image to another. 場合によっては、あるトリガで不動入力モード及びモーション入力モードを切り替えてもよい。 In some cases, it may switch the stationary input mode and motion input mode is triggered. 異なるモーション入力モード間のような異なる入力モード間で切替を行うために、特定の如何なるユーザアクションでもトリガとして使用されてよい。 In order to perform switching between a different input modes as between different motion input mode it may be used as a trigger in any particular user action. 或る実施例では、音声コマンドや装置に関する物理的なアクション(例えば、装置やスクリーンを軽くたたくこと)が入力モードを切り替えるのに使用されてもよい。 In some embodiments, physical actions on voice commands and devices (e.g., tapping the device or screen) may be used to switch the input mode.

特定の実施例では、装置のモーション検知機能を使用可能にするユーザアクションは、装置の振る舞いに別様に影響するかもしれない他の情報を含んでもよい。 In particular embodiments, user actions to enable the motion detection function of the device may include other information that may affect differently on the behavior of the device. 例えば、並進運動検出を使用可能にする或る動きをユーザが行った場合に、それは、モーション検知機能を使用可能にするのにユーザが別のモーションを行う場合よりも、その装置を動きに対して高感度にしてよい。 For example, when a certain motion to enable translational movement detecting user performs, it is than when the user performs a different motion to enable the motion detection function, to move the device it may be the high sensitivity Te. 使用可能にする動きは、ユーザの身元やコンテキストを示すジェスチャーを含んでもよく、それによりユーザの好みのような様々な動作設定に従事できる。 Movement to enable may include a gesture indicating a user identity and context, thereby engaged in various operational settings, such as user preferences.

上述したように、特定の実施例は、携帯装置の様々な機能、タスク及び動作を制御するためのモーション入力を受信する機能を含み、そのプロセスで装置に表示される情報を変えるのに使用されてもよい。 As described above, particular embodiments, various functions of the portable device includes a function of receiving motion input for controlling the tasks and operations, it is used to change the information displayed on the device in the process it may be. 場合によっては、そのようなモーション入力は、単なる並進形式の入力とは異なり、ジェスチャー形式のものでもよい。 In some cases, such motion input, unlike inputs of mere translation format may be of gesture type. ジェスチャー入力は或るアプリケーションの多次元メニュー又はグリッドを通じてナビゲートするのに使用されてもよい。 Gesture input may be used to navigate through a multi-dimensional menu or grid of a certain application. 例えば、スクラッビングプロセスに関して上述されたように、携帯装置のディスプレイは、ディスプレイに表示可能な情報量(例えば、メニューオプション、マップ情報)より少ない(小さい)かもしれない。 For example, as described above with respect scrubbing process, the display of the portable device, the amount of information that can be displayed on a display (e.g., a menu option, the map information) may be less than (smaller). これは狭く深いメニュー構造を招く。 This leads to a narrow and deep menu structure. 多くの場合に、狭く深いメニュー構造よりも広くて浅いメニュー構造が好ましいかもしれない。 In many cases, shallow menu structure may be preferred wider than narrow and deep menu structure. なぜなら、 This is because,
ユーザは機能が位置する場所に関する多くの情報を覚えなくて済むからである。 User because it is not necessary to remember a lot of information about where the feature is located.

図10Aは特定の実施例によるジェスチャー入力を用いるナビゲーションメニュー例を示す。 Figure 10A shows a navigation menu example using the gesture input according to a particular embodiment. 図示の例では、携帯装置は仮想的なデスクトップ120を通じてナビゲートするのに使用される。 In the illustrated example, the portable device is used to navigate through the virtual desktop 120. 仮想的なデスクトップ120は選択用のメニューカテゴリ122を有するメニューツリーを含む。 Virtual desktop 120 includes a menu tree having a menu category 122 for selection. 各メニューカテゴリ122は選択用の各自の副次的なカテゴリ(サブカテゴリ)を含んでよい。 Each menu category 122 may include their secondary categories for selection (subcategories). 或る実施例では、メニューカテゴリ122は、機能のカテゴリを含み、メニュー選択各々のサブカテゴリはそのようなカテゴリ各々の下での実際の機能を含む。 In some embodiments, menu category 122 includes a category of functions, menu selection each subcategory includes actual function under such categories respectively. 他の例では、メニューカテゴリは名詞(例えば、「フォルダ」、「ドキュメント(書類)」、「画像」)から成り、サブカテゴリは動詞(例えば、「移動する」、「貼り付ける」、「切り取る」)から成る。 In another example, consists of the menu category noun (for example, "Folder", "document (document)", "image"), sub-category verb (for example, "move", "paste", "cut out") consisting of. 携帯装置がセルラ電話を構成するならば、メニューカテゴリ122は「呼び出し」、「電話帳」、「メッセージ」、「立案者(プランナ)」、「音」、「設定」その他の項目を含んでもよい。 If the portable device constitutes a cellular phone, the menu category 122 "call", "Phone Book", "message", "planners (planner)", "sound", may include other items "Settings" . 各メニューカテゴリ122は、メニューカテゴリ122が選択されるとアクセスされるかもしれない機能を含んでもよい。 Each menu category 122 may include functionality that may be accessed menu category 122 is selected. 2つのメニューレベルが図10Aに示されているが、モーションインターフェースナビゲーションに関する多次元デスクトップ又は情報表示は、レベル数をいくつでも使用しながら、選択肢(例えば、メニュー)をいくつ含んでもよいことが理解されるべきである。 Although two menu levels are shown in FIG. 10A, the multi-dimensional desktop or information displayed about the motion interface navigation, while using the number of level any number, choice (e.g., a menu) is to be understood that may include any number of is Rubeki.

図示の例では、メニューカテゴリ122eが選択され、メニューカテゴリ122eのサブカテゴリ124が選択できるように表示されている。 In the illustrated example, the selected menu category 122e, are displayed so as to select subcategories 124 of menu category 122e is. ボックス126,128は携帯層でユーザに表示される情報を表現する。 Box 126, 128 represent information that is displayed to the user on a mobile layer. 図示されるように、仮想的なデスクトップ120は、一度に装置に表示可能なものより多くの情報又はメニューを含む。 As illustrated, the virtual desktop 120 includes a number of information or menu than can be displayed on the device at a time. ユーザはと口絵のジェスチャーに従って装置を動かし、仮想デスクトップにわたって又はそれを通じてナビゲートする。 The user and move the device in accordance with gestures frontispiece, or through navigate across the virtual desktop. ジェスチャーは様々なメニューレベルを通じてナビゲートするために及びメニュー選択を行うために使用されてもよい。 Gesture may be used to perform in order to navigate and menu selections through various menu levels. 一例として、ユーザは、装置10を時計回りに動かし(130)、仮想デスクトップ120上で右に所定量だけ進めてもよい(例えば、ボックス126の情報からボックス128の情報へ動かす。)。 As an example, the user moves the device 10 in the clockwise direction (130) may be advanced by a predetermined amount to the right on the virtual desktop 120 (moving e.g., from the information of box 126 to information box 128.). 特定のメニューカテゴリ122は離れるジェスチャー(132)により又は下げるジェスチャーにより選択され(例えば、メニューカテゴリ122eを選択するため)、選択用のサブカテゴリ124を表示してもよい。 Particular menu category 122 is selected by the gesture lowering or by gesture (132) away (e.g., to select a menu category 122e), it may be displayed subcategory 124 for selection. 同様に仮想デスクトップ120から持ち上げるように動かし、ユーザは装置10を反時計回りに動かしてもよい(134)。 Likewise moved to lift from the virtual desktop 120, the user may move the device 10 in the counterclockwise direction (134). 場合によってはナビゲーションは次の4つのジェスチャーを通じてなされてもよい:前進ジェスチャー、後退ジェスチャー、左ジェスチャー及び右ジェスチャー。 Sometimes navigation may be done through the following four gestures: forward gestures, backward gesture, left gesture and right gesture. 或る実施例では、垂直方向のモーションベクトルを有するジェスチャーがナビゲーションに使用されてもよい。 In some embodiments, the gesture having a vertical motion vector may be used for navigation.

特定の実施例では、他に使用されるジェスチャーの鏡像であるジェスチャーが使用され、他のジェスチャーによってなされるものと逆の機能を実行させてもよい。 In certain embodiments, are used gestures a mirror image of the gesture that is used for other, it may be executed ones and inverse function made by other gestures. 例えば、ユーザに向かうモーションがズーム(拡大)であり、ユーザから離れる動きである逆のモーションはズームアウト(縮小)でもよい。 For example, a motion zoom toward the user (enlargement), the reverse motion is a motion away from the user may be zoomed out (reduced). 逆の機能に対応付けられる鏡像又は逆転のジェスチャーは、学習及び利用しやすい装置用モーションユーザインターフェースを形成する。 Mirror image or reverse gesture associated with the opposite function form learning and accessible device for motion user interface.

場合によっては、ディスプレイ中央でのメニュー項目が選択用に強調されてもよいし、他の場合には特定のジェスチャーは、複数の表示された選択支中の、ユーザが選択を希望するメニュー選択肢を示す。 In some cases, to the menu items in the display center may be highlighted for selection, certain gestures in other cases, the plurality of displayed selection 支中, the menu choices the user wishes to select show. ジェスチャーを利用してユーザがナビゲートするメニューその他の情報は、様々な如何なる方法で携帯装置に示されてもよいことが理解されるべきである。 Menu and other information which the user navigates using the gesture should be may be indicated to the mobile device in a variety of any method is understood. 或る実施例では、1つのレベル情報のみが(即ち、1つのメニューレベルが)一度に表示され、サブレベル又は高いレベルは、選択によりそれらが利用可能にされるまで表示されない。 In some embodiments, only one level information (i.e., one menu level) is displayed at a time, the sub-level or high level is not displayed until they are made available by selection.

図10Bは仮想デスクトップを介してユーザがナビゲートすることを可能にする機能のような様々な機能を実行するのに使用されるジェスチャー例を示す。 Figure 10B shows a gesture example the user through the virtual desktop are used to perform various functions, such as features that allow to navigate. 図示の例のジェスチャーは、デスクトップで上方向に進むための「上昇(アップ)」ジェスチャー133、下に進むための「下降(ダウン)」ジェスチャー135、左に進むための「左(レフト)」ジェスチャー136、右に進むための「右(ライト)」ジェスチャー137、ユーザに向かう方向に進むための「入(イン)」ジェスチャー138及びユーザから離れるように進むための「出(アウト)」ジェスチャー139を含む。 Gestures of the illustrated example, "increase (up) 'to proceed upwards on the desktop gesture 133," down (Down) "to proceed under gesture 135, to proceed to the left" left (left) "gesture 136, a "right (write)" gesture 137, "oN (in)" to proceed toward the user 'out (out) "to advance away from the gesture 138 and user gesture 139 to proceed to the right including. これらは特定の実施例に関するジェスチャー及びコマンドの具体例に過ぎず、他の実施例は、デスクトップを通じたナビゲーションを行うため又は携帯装置で特定の機能を実行するために、様々なコマンドに対応付けられる同様なジェスチャー又は異なるジェスチャーを含んでよいことが理解されるべきである。 These are only examples of gestures and commands of specific embodiments, other embodiments, in order to perform certain functions in or mobile device for performing the navigation through the desktop, associated with the various commands it should be understood that it may comprise a similar gesture or different gestures.

図11は本発明の特定の実施例によるモーション入力を用いるナビゲーションマップ例を示す。 Figure 11 shows a navigation map example of using the motion input according to a particular embodiment of the present invention. 図11は16個の部分に分割された情報グリッドを表現する仮想デスクトップ140を含み、各部分は文字(A,B,C,...,P)で参照される。 Figure 11 includes a virtual desktop 140 to represent the 16 information grid that is divided into portions, each portion character (A, B, C, ..., P) are referenced in. 仮想デスクトップの一部は特定の実施例を説明するためだけの参照文字を用いて見分けられ、他の実施例による仮想デスクトップの一部分は参照文字又はそれ以外のもので装置のアプリケーションの中で区別されてもされなくてもよい。 Some of the virtual desktop discernable using only the reference characters for the purpose of describing particular embodiments, the portion of the virtual desktop in accordance with another embodiment is distinguished in the device at those reference characters or otherwise application it may or may not be. 仮想デスクトップ140は、特定の携帯装置で一度に表示可能な量より多くの情報を含む。 Virtual desktop 140, contains more information than the amount that can be displayed at one time on a particular mobile device. 仮想デスクトップ140は、適切な如何なる情報を表現してもよく、その情報はストリートマップのようにユーザが携帯装置を用いてナビゲートすることを希望する情報である。 Virtual desktop 140 may represent any suitable information, the information is information desired to navigate using the user mobile device like a street map. ユーザは、携帯装置で情報の様々な部分を表示するために仮想デスクトップ140を通じてナビゲートすることを希望し、仮想デスクトップ140の情報の或る部分を更に明確に見るために仮想デスクトップ140の中でズームすること(及びズームアウトすること)−即ち、表示される情報の粒度を変えること−を望むかもしれない。 The user wishes to navigate through the virtual desktop 140 to display various pieces of information in the portable device, in the virtual desktop 140 to see certain pieces of information of the virtual desktop 140 more clearly to zoom (and possible to zoom out) - that is, changing the size of the information displayed - may wish.

図示の例では、ボックス142は携帯装置10で現在表示されている情報を表す。 In the illustrated example, box 142 represents the information currently displayed on the mobile device 10. ボックス142は仮想デスクトップ140の一部分A,B,E,Fを含む。 Box 142 includes a portion A of the virtual desktop 140, B, E, and F. 特定の実施例では、ユーザが装置に表示されるデスクトップ140の情報を例えばボックスC,D,G,Hの情報に変えることを望むならば、そのユーザはモーション入力を利用して装置のディスプレイを表現するボックス142を必要な量だけ右に動かす(図示の例では、右に2つの部分だけ動かす。)。 In certain embodiments, the user information, for example, box C of desktop 140 to be displayed on the device, D, G, if it is desired to change the information of H, a display of the user device by using the motion input moving to the right the required amount box 142 to represent (in the illustrated example, moving only two parts to the right.). そのようなモーション入力は並進入力(携帯装置10を右に適用可能な量だけ動かし、表示される情報を変更すること)又はジェスチャー入力(ある機能に対応付けられる特定のジェスチャーに従って携帯装置を動かすこと)を含む。 Moving the mobile device in accordance with such motion input translational input specific gesture associated with the (moving amount applicable to the right mobile device 10, displayed are altering the information) or gesture input (a feature )including. 一例として、或るジェスチャーは1つの部分だけ表示を右に動かすことに対応付けられ、別のジェスチャーは2つの部分だけ表示を右に動かすことに対応付けられてもよい。 As an example, one gesture associated with moving to the right display only one part, another gesture may be associated with moving to the right display only two parts. かくて並進入力又はジェスチャー入力を用いて、ユーザはデスクトップ140をナビゲートできる。 Using translation input or gesture input Thus, the user can navigate the desktop 140.

例えば、並進入力又はジェスチャー入力を通じて、携帯装置10はユーザが表示される情報に対して(そのような情報をより鮮明に見るために)ズームインすることを可能にする。 For example, through the translation input or gesture input, the mobile device 10 enables the information to the user is displayed that (such information in order to see more clearly) zooms. ジェスチャー入力を用いる例のように、装置に表示される情報が16個の部分の内4つ(例えば、部分A,D,E,Fを表示するボックス142)を含んでいたならば、ユーザは4つのジェスチャーの1つを用いて、表示される4つの部分の1つにズームインしてもよい(4つのジェスチャーの各々は1つの部分でのズームインに対応付けられる。)。 As an example of using the gesture input, four of the information 16 portion displayed on the device (e.g., part A, D, E, box 142 for displaying F) if contained, the user four using one gesture, four may be zoomed in one of the parts to be displayed (each of the four gesture associated with the zoom in one portion.). 部分Bにズームインするよう対応付けられるジェスチャーに従ってユーザが携帯装置を動かしたならば、その装置はボックス144(部分B1,B2,B3,B4,B5,B6,B7,B8,B9)により表示される情報を表示するかもしれない(ボックス144は仮想デスクトップ140の部分Bの情報を拡大図で集合的に形成する)。 If the user in accordance with gesture associated to zoom in part B moves the portable device, the device is indicated by box 144 (portion B1, B2, B3, B4, B5, B6, B7, B8, B9) may display information (box 144 is collectively formed in an enlarged view the information of a portion B of the virtual desktop 140). かくて部分Bの情報は、より大きく且つより鮮明に表示される。 Information portion B and thus is larger and more clearly displayed. 装置でボックス144の情報を見る場合に、適切に対応付けられたジェスチャーを用いてユーザは現在表示されている特定の部分を更に拡大又は縮小してもよい。 When the view information box 144 in the apparatus, the user may be further enlarged or reduced specific portion currently being displayed using appropriately the associated gesture. 部分B2を拡大することに対応付けられたジェスチャーに従ってユーザ装置が携帯装置を動かしたならば(そのジェスチャーは、ボックス142の情報が表示されたときに部分Bを拡大するのに使用されたのと同じジェスチャーでもよい。)、その装置はボックス146(部分B2a,B2b,B2c,B2d,B2e,B2f,B2g,B2h,B2i)の情報を表示する。 If the user equipment in accordance with the gesture associated with expanding the part B2 moves the portable device (the gesture to that used to expand the portion B when the information box 142 is displayed may be the same gestures.), the apparatus box 146 (portion B2a, B2b, B2c, B2d, B2e, B2f, B2g, B2h, displays information B2i). ユーザは特定の部分を拡大した場合に仮想デスクトップを通じてナビゲートしてもよい。 The user may navigate through the virtual desktop when expanded a specific part. 例えば、部分Bに関してズームインした場合に(ボックス144の情報を表示し)、ユーザは並進又はジェスチャー入力を用いて仮想デスクトップを通じて(装置を)動かし、部分B以外の部分の拡大図を見てもよい。 For example, (display information box 144) when zoomed regard portion B, the user (the apparatus) through the virtual desktop using a translation or gesture input moving, may look at the enlarged view of a portion other than the portion B . 例えば、ボックス144の情報を見る場合に、ユーザは、表示されている情報を右に動かすジェスチャーを行い、ディスプレイ全体が仮想デスクトップ140の部分Cの情報のみを示すようにしてもよい(即ち、部分C1,C2,C3,C4,C5,C6,C7,C8,C9を示す部分Cに拡大する。)。 For example, when viewing the information box 144, the user performs a gesture to move to the right the displayed information, the entire display may be indicated only information part C of the virtual desktop 140 (i.e., the portion C1, C2, C3, C4, C5, C6, C7, C8, to expand the portion C shown a C9.). モーション入力を用いる適切な如何なる手法ででもユーザは仮想デスクトップ140の情報を通じて(進行及びズームイン/アウト双方を用いて)ナビゲートしてよいことが理解されるべきである。 Even in any suitable technique using a motion input user should be may navigate (using progression and zoom in / out both) through information of the virtual desktop 140 is understood.

上述したように、仮想デスクトップを介して(又は特定のレベルを通じて)ナビゲートすること及び多次元デスクトップの異なるレベル又は次元の間で又はそれを通じてナビゲーションすることの双方に適切な如何なるジェスチャーが使用されてもよい。 As described above, by any suitable gesture may be used to both to navigation in or through between with different levels or dimensions of it and multidimensional desktop navigating (or through a certain level) via the virtual desktop it may be. 更に、或る実施例でのジェスチャーのような運動は、多次元デスクトップを通じたナビゲーションに使用されてもよく、不動アクションは次元の間で選択又はナビゲーションを行うのに使用されてもよい。 Furthermore, the motion such as gestures in some embodiments, may be used to navigate through a multi-dimensional desktop, immobility action may be used to make a selection or navigation among the dimensions. そのような不動アクションはキー押下による装置入力を含む。 Such immobility action includes an apparatus input by key depression. かくて移動及び不動アクションの組み合わせが、特定の実施例で多次元仮想デスクトップ又はメニューナビゲーションに使用されてもよい。 The combination of mobile and immobile action thus may be used in the multi-dimensional virtual desktop or menu navigation in particular embodiments.

特定の実施例は、多次元グリッド、メニュー、カレンダその他の階層的アプリケーションのような何らかの適切なアプリケーションを通じてジェスチャー形式のナビゲーションを可能にする。 Particular embodiments multidimensional grid, menu, to allow navigation gesture format through any suitable application such as a calendar other hierarchical application. 例えば、カレンダーアプリケーションでは、或るジェスチャーが、月のような1つのレベルの中でナビゲートするために使用され、他のジェスチャーが、年、月、日、時間及びイベントの間のようなレベル間をナビゲートするのに使用されてもよい。 For example, the calendar application, certain gestures are used to navigate within a single level, such as the moon, other gestures, year, month, day, between levels, such as between times and events the may also be used to navigate. 更に、そのようなジェスチャーナビゲーションを利用する携帯装置で実行される様々なアプリケーションは様々なジェスチャーを利用してもよい。 Furthermore, various applications executed on the mobile device utilizing such gestures navigation may utilize a variety of gestures. かくて特定のナビゲーションジェスチャーは、使用する特定のアプリケーションに応じて異なってもよい。 Thus specific navigation gesture may be different depending on the particular application. 或る実施例では、ジェスチャーベースの運動を単に利用するのではなく、並進ベースのインターフェースが、仮想デスクトップの多次元情報を介するナビゲーションに使用されてもよい。 In some embodiments, rather than simply utilizing a gesture-based movement, translation-based interface may be used for navigation through the multi-dimensional information of the virtual desktop. 例えば、x及びy軸に沿う運動が或る階層の或るレベル内を進行するのに使用され、z軸に沿う運動が階層レベル間を進行するのに使用されてもよい。 For example, is used to movement along the x and y-axis travels a certain level within a certain hierarchy, movement along the z-axis may be used to proceed between hierarchical levels.

他の例は、施設に関する電話帳、アルファベット文字、名前、連絡先の詳細(例えば、オフィス、セルラ及び家庭の電話番号、電子メール等)及び動作(アクション)を用いて、或る階層の様々なレベル全てに対するコンタクトを開始することを含む。 Another example is the telephone directory on the facility, letters of the alphabet, name, contact details (for example, office, cellular and home phone number, e-mail, etc.) using and operation (action), a variety of some hierarchy It includes initiating contact to all levels. この例では、その階層は情報(名詞)及びアクション(動作)を含んでよい。 In this example, the hierarchy may include information (noun) and action (operation). あるものはこの例を2軸だけに対応付け、例えばy軸は階層の或るレベル内での選択に使用され、x軸はレベル間を移動するのに使用される。 Some are associated with this example only two axes, for example the y-axis is used to select within a certain level of the hierarchy, x-axis is used to move between levels. z軸はアクションを確認するのに使用され、アクションの不適切な実行を防ぐことを支援する。 z-axis is used to confirm the action, to help prevent the improper execution of the action.

場合によっては、横切るレベル数は、特に並進ベースのナビゲーションでは、動きの大きさに依存してもよい。 In some cases, the level number of crossing, particularly in translation based navigation may depend on the magnitude of the motion. 装置を少しだけ動かすことは、一度に1レベル進行させ、装置を大きく動かすことは一度に複数レベル進行させてもよい。 Moving the device slightly in one level is allowed to proceed at a time, moving large equipment may be multiple levels of progress at a time. 運動の大きさが大きいほど、より多くのレベルを一度に進める。 The larger the magnitude of the motion, advancing more levels at a time. ジェスチャーベースのモーション入力に適用されるように、階層中の異なるレベル数を一度にナビゲートするために、異なるジェスチャーが使用されてもよい。 As applied to a gesture-based motion input, a different number of levels of the hierarchy to navigate at a time, different gestures may be used. これらのジェスチャーは、同じ動きで異なる大きさでもよいし、完全に異なる動きでもよい。 These gestures may be in a different size same motion, or in a completely different movement.

多次元デスクトップ又は情報ディスプレイを介するモーションインターフェースナビゲーションを利用することは、メニューを平坦化することを可能にする。 Utilizing motion interface navigation through a multi-dimensional desktop or information display, makes it possible to flatten the menu. なぜなら、大きすぎて装置のディスプレイに合わない仮想デスクトップの特定のメニュー又は寸法にわたってユーザは容易にナビゲートできるからである。 This is because the user over a specific menu or size of the virtual desktop that do not fit on the display of the device is too large because easily navigate. メニューの平坦化の結果、ユーザにはより少ない情報の記憶しか要求されずに済み、ユーザにとっての装置の機能性及び能力を増進する。 Result of planarization of the menu, only the storage of less information the user requires without being required to enhance the functionality and capabilities of the device for the user.

上述したように、特定の実施例では携帯装置は、モーション入力を用いてユーザが仮想デスクトップを介してナビゲートすることを可能にする。 As described above, the portable device is in a particular embodiment, it allows the user to navigate through the virtual desktop with a motion input. 場合によっては、ユーザはカーソルを使って携帯装置に表示される情報の上をナビゲートしてもよい。 Optionally, the user over the information displayed on the portable device with the cursor may navigate. 例えば、或る情報が装置に表示され、ユーザはモーション入力を用いて装置のディスプレイ近辺でカーソルを動かして表示されている特定の項目を選択し、或る機能を実行してもよい。 For example, some information is displayed on the device, the user selects a particular item that is displayed by moving the cursor around the display device using the motion input, may perform certain functions. 場合によっては、モーション入力がカーソルを動かすのに使用され、(ボタン押下のような)不動アクションが、そのカーソルで現在示されている項目を選択するのに使用されてもよい。 In some cases, motion input is used to move the cursor, immobility action (such as button press) may be used to select an item that is currently indicated by the cursor. ジェスチャー及び並進運動入力の双方が、カーソルナビゲーションの様々な例で使用されてもよいことが理解されるべきである。 Both gestures and translation inputs, it should be may be used in various examples of cursor navigation is understood.

特定の実施例では、表示される情報が装置に関して固定され、カーソルは空間内に固定されたままであり、装置の動きはその情報に対してカーソルをナビゲートするのに使用されてもよい。 In certain embodiments, the information displayed is fixed with respect to the apparatus, the cursor remains fixed in space, motion of the device may be a cursor on that information to navigate. 図12Aは、その形式のモーション入力カーソルナビゲーションを利用する様子を示す。 Figure 12A shows how to use the motion input cursor navigation in that format. ディスプレイ147は携帯装置のディスプレイを示す。 Display 147 shows the display of the mobile device. このカーソルナビゲーション例を説明するために、ディスプレイは表示される情報を示すようにグリッドに分割される。 To illustrate this cursor navigation example, the display is divided into a grid to indicate information that is displayed. グリッドは部分A−Pを含む。 The grid includes a portion A-P. ディスプレイ147は部分C,D,G,Hの間にカーソル148を含む。 Display 147 parts include C, D, G, the cursor 148 between H. 上述したようにこの例では、表示される情報は、その装置が動かされる場合に、装置に対して固定され、カーソルは空間的に固定されている。 In this example, as described above, information displayed, if the device is moved is fixed relative to the device, the cursor is spatially fixed. しかしながら、表示される情報に対するカーソルの(相対的な)位置はモーション入力に従って変化する。 However, (relative) position of the cursor relative to the information displayed will change according to the motion input. 装置が右に並進させられると、右運動149に従って、カーソルは装置の並進運動とは逆の運動により進められる。 When the device is translated to the right, in accordance with the right movement 149, the cursor is advanced in the reverse movement with translational movement of the device.

ディスプレイ150は、右運動149に従って装置が動かされた後の可能なディスプレイを示し、今カーソル148は部分A,B,E,Fの間にある。 Display 150, shows a possible display after the apparatus is moved in accordance with the right movement 149, is now the cursor 148 parts A, B, E, between the F. この例は並進ベースの入力であるので、装置の運動の大きさ(この例では、右側への運動の大きさ)は、表示される情報に対するカーソルの動きの大きさに直接的に影響することが理解されるべきである。 Since this example is a translational base input (in this example, the size of the movement to the right) the magnitude of the motion of the device is directly affected by the magnitude of movement of the cursor with respect to information displayed There is to be understood. 携帯装置が運動151に従って動かされた後に、ディスプレイ152は別のディスプレイを示し、カーソルは部分I,J,M,Nの間にある。 After the mobile device is moved in accordance with movement 151, the display 152 shows an alternative display, the cursor is between part I, J, M, N. 明らかに、カーソルは、空間的に固定された間々なので、表示される情報に関して下側に(相対的に)動いている。 Obviously, the cursor, so mom spatially fixed, moving (relatively) in the lower for information to be displayed. 携帯装置が左運動153に従って動かされた後に、ディスプレイ154が更に示され、今カーソル148はK,L,O,Pの間にある。 After the portable device is moved according to the left movement 153, a display 154 is further shown, now the cursor 148 is K, L, O, during the P. 明らかにカーソルは表示情報に対して右に(相対的に)動いている。 Clearly, the cursor is moving (relatively) to the right with respect to the display information. かくてこの形式のカーソルナビゲーションでは、装置の運動はその情報でのカーソルの位置を変える。 Cursor navigation format Kakuteko, movement of the device changes the position of the cursor in the information. この方式の例では、表示される情報の特定の場所を指し示すように、スタイラスを用いる代わりに、携帯装置が動かされる。 In the example of this method, to point to the specific location of the information displayed, instead of using the stylus, the portable device is moved.

カーソルナビゲーションプロセスのどの時点ででも、カーソルで現在示される情報に従ってある機能を選択又は実行するのにユーザは如何なる形式の入力(例えば、ジェスチャー、キー押下等)を利用してもよい。 But at any point of the cursor navigation process, the user to select or perform functions that are in accordance with the information indicated currently by the cursor may be used to enter any form (e.g., gesture, key presses, etc.). 例えば、ディスプレイ152に関し、ユーザは特定のジェスチャーを利用して又はボタンを押下して、カーソル148で現在示されている部分I,J,M,N間の情報に基づいて、ズームイン、選択又は他の機能を実行してもよい。 For example, relates to a display 152, the user presses the button or by using a specific gesture, based on the partial I, J, M, information between N that is currently indicated by the cursor 148, zoom, selection or other You may perform functions.

図12Aに関して上述したように、特定の実施例は、装置の運動とは逆の運動方向にカーソルを並進させ、表示される情報に対するカーソルの相対的な位置を動かす。 As described above with respect to FIG. 12A, the specific examples, the movement of the device to translate the cursor in the opposite direction of movement, moving the relative position of the cursor relative to the information displayed. 一実施例では、装置の入力モーションは3つの軸の各々に沿う運動成分に分解され、それらの内2つは装置のディスプレイに平行である(例えば、x軸及びy軸)。 In one embodiment, the input motion apparatus is decomposed into motion component along each of three axes, two of which are parallel to the display device (e.g., x-axis and y-axis). x軸及びy軸の面内での装置の運動はそのような運動に基づいて装置内で表示されるが、カーソルは、x軸方向及びy軸方向の合成運動と逆向きの並進ベクトルに従って同時に動かされ、空間内でのカーソルの位置を実質的に維持する。 Although exercise device in the plane of the x-axis and y-axis are displayed in the device based on such motion, the cursor is at the same time according to the translation vector of the synthetic movement in the opposite direction from the x-axis and y-axis directions wheeled substantially maintains the position of the cursor in the space. 場合によっては、カーソルがその並進ベクトルに従ってディスプレイの端を過ぎて移動することになる場合は、そのベクトルはディスプレイ内にカーソルを維持するように減縮される。 Optionally, the cursor may become possible to move past the edge of the display in accordance with the translation vector, the vector is Genchijimi to maintain the cursor in the display. そのような減縮は、ディスプレイ端から所定の距離の範疇にカーソルを維持するように、並進ベクトルの1以上の成分を減らすことを含む。 Such Genchijimi so as to maintain the cursor from the display end to the category of a predetermined distance, including reducing the one or more components of the translation vector.

表示される情報の部分A−Pへの分割は上述の実施例を図示及び説明するためにのみなされ、特定の実施例の携帯装置で表示される情報はそのような分割や他のタイプのリファレンス情報を含まなくてもよいことが理解されるべきである。 The division into parts A-P of the information displayed is made only to illustrate and explain the embodiments described above, specific examples of information displayed on a mobile device references such division or other types that may not include the information is to be understood.

図12Bは、特定の実施例による別の形式のモーション入力カーソルナビゲーションを示す。 Figure 12B shows the motion input cursor navigation another type according to a particular embodiment. この例では、カーソルはディスプレイに関して固定された場所にとどまり、モーション入力は装置のディスプレイより大きな仮想的なデスクトップ上でナビゲーションを行うために使用される。 In this example, the cursor remains in the location fixed with respect to the display, motion input is used to perform navigation on large virtual desktop than the display of the device. 図12Bは仮想的なデスクトップ158を含み、そのデスクトップは、携帯装置でモーション入力を用いてユーザがナビゲーションする情報(例えば、市街地図)を含む。 Figure 12B includes a virtual desktop 158, the desktop includes information that the user navigates using the motion input by the portable device (e.g., city map). 仮想デスクトップ158は、特定の携帯装置に一度に表示可能な情報よりも多くを含む。 Virtual desktop 158 includes more than displayable information at one time to a particular mobile device. このカーソルナビゲーション例を説明するために、仮想デスクトップ158はグリッドに分割され、デスクトップで示される情報を区別する。 To illustrate this cursor navigation example, the virtual desktop 158 is divided into a grid, distinguish information shown on the desktop. グリッドは6つの行(A−F)及び7つの列(1−7)を含む。 Grid includes six rows (A-F) and seven columns (1-7). グリッドの一部分はここの例では行の文字及び列の番号で特定される(例えば、部分B7又はD2)。 The grid portion is here example identified by a number of letters and column of the row (e.g., partial B7 or D2). 行及び列番号により参照される部分に仮想デスクトップ158を分割することは、実施例を図示及び説明するためにのみなされ、特定の実施例の仮想的デスクトップはそのような分割や他のタイプのリファレンス情報を含まなくてもよいことが理解されるべきである。 It has been made only to illustrate and explain the embodiments, the virtual desktop such division or other types of reference specific embodiments which divide the virtual desktop 158 to the portion to be referenced by the row and column number that may not include the information is to be understood.

ボックス160は携帯装置で現在表示されている仮想デスクトップ158の情報を示す。 Box 160 indicates the information of the virtual desktop 158 that is currently displayed on the mobile device. ディスプレイ161はボックス160を示す携帯装置のディスプレイを示す。 Display 161 shows the display of the mobile device that indicates the box 160. また、ディスプレイ161は部分B2,B3,C2,C3の交点に位置するカーソル159を含む。 The display 161 includes a cursor 159 located in portion B2, B3, C2, C3 intersection of. 上述したように、ユーザがモーション入力を用いて仮想デスクトップ周囲で動かす場合に(即ち、装置に表示される情報を変えるために動かす場合に)、カーソルはディスプレイに関して固定された位置に残る。 As described above, (when that is, to move in order to change the information displayed on the device) If the user moves the virtual desktop around using the motion input, the cursor remains in a fixed position with respect to the display. しかしながら、携帯装置で表示される仮想的デスクトップの情報に対するカーソルの(相対的な)位置は変化する。 However, the cursor for information of the virtual desktop displayed by a portable device (relative) position may vary. 例えば、ユーザはモーション入力を用いて、装置で表示されている情報をボックス162で表示されるものに変える。 For example, a user may use a motion input changes to those displaying the information displayed by the device box 162. 装置で表示される情報は(部分B5,B6,C5,C6に)変わり;カーソル159は装置のディスプレイ上で(例えば、この例ではディスプレイの中央に)固定されたままであり、ディスプレイ163に示されるように仮想デスクトップ158の情報に関して、カーソルの相対的位置が変わるようにする。 The information displayed in device (the portion B5, B6, C5, C6) changes; cursor 159 on the device display (e.g., the center of the display in this example) remains fixed, as shown in the display 163 for information on the virtual desktop 158 as, so that the relative position of the cursor changes. ユーザが、モーション入力を用いて、装置で表示されている情報をボックス164で表示されるものに変えることを望むならば、装置で表示される情報は、ディスプレイ165に示されるように部分E3,E4,F3,F4に変わる。 The user uses the motion input, if it is desired to change to those displaying the information displayed by the device in box 164, information displayed in device, part E3 as shown in display 165, E4, F3, changes to F4. カーソル159はディスプレイ中央に示される部分の間にある。 The cursor 159 is between the portion shown in the display center. なぜならディスプレイに対するその位置は本実施例では固定されたままだからである。 Because its position relative to the display is because remain fixed in this embodiment.

かくて、図12Bに関して説明されたカーソルナビゲーションの形式によれば、カーソルは装置ディスプレイに対して固定された位置にのこり、仮想デスクトップの情報に対するカーソル位置が変わる。 Thus, according to the description format of the cursor navigation with respect to FIG. 12B, the cursor remains in a fixed position relative to the apparatus the display, changes the cursor position to the information of the virtual desktop. 図12Aに関して図示及び説明した実施例に関して述べたように、ナビゲーションプロセスのどの時点ででも、ユーザは、カーソルで現在示されている情報に従って或る機能を選択する或いは実行するために、如何なる形式の入力(例えば、ジェスチャー、キー押下等)でも使用してよい。 As described with respect to the embodiment shown and described with respect to FIG. 12A, but at any point of the navigation process, the user, in order to select for or executes some function in accordance with information that is currently shown by the cursor, any type of input (e.g., gesture, key presses, etc.) even be used. 例えば、ディスプレイ163に関し、カーソル159で現在示されている部分B5,B6,C5,C6の情報に基づいてズームイン、選択又は何らかの他の機能を実行するためにユーザは特定のジェスチャーを使用し或いはボタンを押下する。 For example, it relates to a display 163, a user in order to perform zooming, selection or some other function based on information of the partial B5, B6, C5, C6 that are currently indicated by the cursor 159 using a specific gesture or buttons pressing a.

ジェスチャー又はキー押下のような特定の如何なる入力も、装置でのカーソルナビゲーションモードを切り替えるのに使用されてよいことが理解されるべきである。 Any particular input, such as a gesture or key press is also to be understood that may be used to switch the cursor navigation mode in the device. 例えば、図12Aの並進制御カーソルモードと図12Bの固定カーソルモードの間でユーザは切替を行ってもよい。 For example, a user between the fixed cursor mode translational control cursor mode and Figure 12B of Figure 12A may be switched.

上述したように、特定の実施例は、特定の機能又は動作を実行するために或るジェスチャーに従ってユーザが携帯装置を動かすことを許容する。 As described above, particular embodiments, the user allows the movement of the portable device according to one gesture to perform a specific function or operation. しかしながら場合によっては、ユーザは、意図される特定のジェスチャーに従って装置を動かしていないかもしれない。 However in some cases, the user might not move the device in accordance with the particular gesture intended. その結果装置はその動きを意図されるジェスチャーとして認識できないかもしれない。 Consequently device may not be recognized as a gesture that is intended for its movement. ユーザによる装置の特定の動きが特定のジェスチャーとして認識されることを示すため、或る実施例の携帯装置はその動きが実際にジェスチャーとして認識されたことをユーザに通知するフィードバックを用意する。 To indicate that the particular movement of the device by the user is recognized as a specific gesture, the portable device of one embodiment to provide a feedback to inform the user that the movement is recognized as actual gesture.

このフィードバックは、音声、ビープ、トーン又は音楽のような音声フォーマット、装置ディスプレイ上の指標のような視覚的フォーマット、振動型のフォーマット、又は適切な他の何らかのフィードバックフォーマットを含んでもよい。 This feedback sound, beep, tone or voice formats such as music, visual format, such as an indicator on the device display, vibration type format, or other suitable may include some feedback format. 音声フィードバックはユーザインターフェースのスピーカ又は装置10のヘッドフォンジャックを通じて用意されてもよいし、バイブレーションフィードバックは装置10のユーザインターフェースバイブレーション生成モジュールを介して用意されてもよい。 Audio feedback may be provided through the headphone jack of the speaker or device 10 of the user interface, vibration feedback may be provided via the user interface vibration generation module of the device 10. 聴覚的な、視覚的な及び振動的なフィードバックは複数のフィードバックインジケータに機能を提供するように変形されてよい。 Auditory, visual and vibration feedback may be modified to provide a functionality to a plurality of feedback indicator. 一例として、振動フィードバックは、或る持続期間にわたって周波数及び振幅を単独に又は様々な組み合わせで時間と共に変化させてもよい。 As an example, vibration feedback, the frequency and amplitude may be varied with time alone or in various combinations over a duration. フィードバックの豊富さ及び複雑さは、音声フィードバックと組み合わせて振動フィードバックを使用するように、様々なタイプの組み合わせで次々とフィードバックを使用することで拡張されてもよい。 Richness and complexity of the feedback, to use vibration feedback in combination with audio feedback may be extended by the use of one after another feedback in various types of combinations. 場合によっては、1以上の認識されたジェスチャーがそれら自身の各自のフィードバックを有するように、フィードバックはジェスチャー固有でもよい。 In some cases, as one or more of the recognized gesture has its own feedback themselves, the feedback may be a gesture specific. 例えば、或るジェスチャーが認識された場合、装置は特定のトーンで又は特定の回数だけビープ音を鳴らしてもよく、1以上の他のジェスチャーが認識される場合、ビープ音又はビープ回数は異なってもよい。 For example, when a certain gesture is recognized, the device may be sounded only beep particular tone or a certain number of times, when one or more other gesture is recognized, beep or beep number different it may be. オーディオフィードバックを用いることは、速やかな視覚的な画面での表明や機能を有しないジェスチャー(例えば、セルラ電話で何らかの電話番号を呼び出すこと等)にとって特に有意義かもしれない。 The use of the audio feedback, gesture no representation or function in rapid visual screen (e.g., such as calling any telephone numbers in a cellular phone) may be particularly meaningful to. 或る実施例では、別のタイプのフィードバックがコンテキスト又はアプリケーション固有でもよい。 In some embodiments, another type of feedback may be a context or application specific. 様々な状況(コンテキスト)は、装置状態(何のアプリケーションが着目され又は使用されているか、バッテリレベル、利用可能なメモリ、(静かな又はサイレントモードのような)ユーザにより規定された状態等)を含んでよい。 Various situations (contexts) is (what applications are being or are used noted, battery level, available memory, (such as quiet or silent mode), or the like state as defined by the user) device state including may. 例えば、携帯装置はジェスチャー入力に応じて振動的なフィードバックを利用してもよいし、オーディオフィードバックでサイレントモードではそれ以外が使用されてもよい。 For example, the portable device may utilize a vibrating feedback in response to the gesture input, in the silent mode in the audio feedback may be used otherwise. このフィードバックプロセスは、コンピュータ又は他の素子の携帯モーション入力装置により使用されてもよい。 The feedback process may be used by the portable motion input device of a computer or other device.

上述のジェスチャー認識に関するフィードバックと同様に、特定の実施例での携帯装置は、装置がジェスチャー入力モードにあった場合において、特定のユーザの動きがジェスチャーとして認識されなかった場合にユーザにフィードバックを与える。 Similar to the feedback on the gesture recognition described above, the mobile device in a particular embodiment, when the device was in the gesture input mode, provide feedback to the user when a movement of a particular user has not been recognized as a gesture . 例えば、或る動きがジェスチャーであることを意図するように見えるが、装置に既知の特定のジェスチャーに決めることができなかった場合、失敗を示す音を鳴らしてもよい。 For example, it seems to be intended that some motion is gesture, if it can not be determined in a known specific gesture device may emit a tone indicating failure. これは、所望の動作又は機能を実行するために、その装置に意図されるジェスチャーに従って装置を更に動かす必要のあることをユーザに通知する。 This is to perform the desired operation or function, and notifies the user that needs to further move the device in accordance with the gesture which is intended to the device. 或る動きが認識されなかったことをユーザに通知するフィードバックは、音声で、視覚に、振動で又は他の適切なフォーマットでなされてもよく、特定の動きが特定のジェスチャーとして装置により認識される場合に通知されるものと異なるフィードバックである。 Feedback certain movement to notify the user that has not been recognized, a voice, visual, may be made by a vibration or other suitable format, particular movement is recognized by the device as a particular gesture it is notified by those with different feedback when. ユーザの意向がジェスチャーを入力することであったか否かを確認するために、携帯装置10は、動きがジェスチャーであるように意図されることを示す或る動きの特徴を調べててもよい。 For the user's intention to confirm whether or not was to enter the gesture, the portable device 10 may examine certain movement characteristics indicating that the motion is intended to be a gesture. そのような特徴は、例えば、動きの振幅、閾値を上回る運動の経過時間、加速の回数及び間隔等を含んでもよい。 Such features include, for example, movement of the amplitude, the elapsed time of the exercise above a threshold may include a number of acceleration and spacing, and the like. 特定のジェスチャーが装置により認識されなかったならば、ジェスチャーによるフィードバックのシステムが、意図されるジェスチャーを決めるのに使用される。 If a particular gesture has not been recognized by the device, a feedback system by the gesture is used to determine the gesture is intended. 例えば、音声フィードバックは携帯装置で決定される見込みを示し、ユーザは意図されるジェスチャーを選択するために音声メニューをナビゲートするようにジェスチャーを利用してもよい。 For example, the audio feedback represents the likelihood that is determined by the mobile device, the user may utilize gesture voice menus to navigate to select a gesture intended.

特定の実施例では、オーディオ又は振動のフィードバックのシステムは、視覚的ディスプレイ12に頼らずに、ユーザが携帯装置10を動作させることを可能にする。 In certain embodiments, the system of audio or vibration feedback, without relying on the visual display 12 allows a user to operate the portable device 10. 例えば、或る実施例では携帯装置は音声の、視覚的な、又は振動的なフィードバックを、仮想的デスクトップのメニューその他の情報をナビゲートするユーザにもたらす。 For example, the mobile device in one embodiment of the speech, visual, or vibration feedback, resulting in the menu and other information of the virtual desktop to the user to navigate. つまり、ユーザのモーション入力で組み合わせられるこの装置のフィードバックは、ユーザと装置との間のある種の「対話(conversation)」として機能する。 In other words, the feedback of the apparatus to be combined with the motion input by the user functions as a "dialogue (conversation)" Certain between the user and the device. 上述したように、複数のタイプの及び複雑なフィードバックが使用されてもよい。 As described above, a plurality of types of and complex feedback may be used. フィードバックプロセスは、装置ディスプレイを眺めることが簡易でなく、安全でなく又は実用的でない環境で(例えば、運転中に又は暗い環境の中で)特に有利である。 Feedback process, device display rather simple a view of the safe, not or impractical in the environment (e.g., in a while driving or dark environment) is particularly advantageous.

オーディオの、視覚的な及び振動的なフィードバックのようなフィードバックは並進運動入力に関する実施例で使用されてよいことも理解されるべきである。 Audio feedback such as visual and vibration feedback should also be appreciated that it may be employed in embodiments about translation input. 例えば、並進入力を用いて、ユーザが仮想デスクトップの端に又は制限に達した場合に、フィードバックインジケータが与えられてもよい。 For example, using the translation input, if the user has been reached or limited to the edge of the virtual desktop may be feedback indicator is given.

図13はモーション入力に応答するフィードバックを利用するプロセスを示す特定の実施例によるフローチャート170である。 Figure 13 is a flow chart 170 according to a particular embodiment of a process to utilize the feedback in response to motion input. 本プロセスのステップ172では、未処理モーションデータが携帯装置10で受信される。 In step 172 of this process, raw motion data is received by the mobile device 10. 上述したように、未処理データは加速度計、ジャイロ、カメラ、距離測定器その他の適切な如何なる運動検出素子の如何なる組み合わせによって受信されてもよい。 As described above, raw data accelerometer, gyroscope, camera, may be received by any combination of the distance measuring instrument other any suitable motion detection device. ステップ174では、未処理モーションデータが処理され、装置の運動を示すモーション検出出力を生成する。 At step 174, unprocessed motion data is processed to generate a motion detection output indicative of motion of the device. そのような処理は様々なフィルタリング技術や複数の検出素子からのデータの融合を含んでもよい。 Such treatment may comprise a fusion of data from a variety of filtering techniques and a plurality of detection elements.

ステップ176では、装置の状態が検査される。 In step 176, the state of the device is examined. なぜなら、或る実施例では、特定の動きに対するフィードバックはその動きが受信された場合の装置の状態に依存するからである。 This is because, in some embodiments, feedback on particular movement is dependent on the state of the apparatus when the motion is received. 上述したように、装置状態の具体例は、着目する又は使用する特定のアプリケーション、バッテリレベル、利用可能なメモリ及び特定のモード(例えば、サイレントモード)等を含んでよい。 As described above, specific examples of the apparatus state, the focused or a specific application that uses the battery level, available memory and the particular mode (e.g., silent mode) may comprise the like. ステップ178ではモーション検出器出力が装置の状態に関して分析される。 In step 178 the motion detector output is analyzed with respect to the state of the device. ステップ180では、モーション検出器出力で示された運動が有意義である或いは特定の装置状態の下で認識可能であるか否かが確認される。 In step 180, whether movement indicated by the motion detector output is recognizable under a is or a specific device status meaningful is confirmed. 例えば、特定のジェスチャーが或るアプリケーション(例えば、カレンダーアプリケーション)では或る機能を実行し、そのジェスチャーは別のアプリケーションでは何らの機能も与えなくてもよい。 For example, certain applications a particular gesture (e.g., calendar application) running in certain functions may or may not also given the gesture is no function in another application. ジェスチャーが認識可能である又は装置の状態の下で有意義であった場合には、ステップ182にてフィードバックが与えられる。 If the gesture was significant under conditions recognizable as or apparatus, feedback is given at step 182. 上述したように特定の実施例ではフィードバックは音声の、視覚的な又は振動的なフォーマットでもよい。 Feedback in certain embodiments as described above the sound may be a visual or vibration formats. 場合によっては、フィードバックは、装置がその装置上対の下でジェスチャーを認識したことの単なる指標でもよい。 Optionally, feedback may be a simple indication that the device has recognized the gesture under the device on pairs. 他の例では、例えば、ユーザが(1以上の機能を実行するために一連の入力を用意する)装置の特定のアプリケーションを使用していたならば、フィードバックは付加的な入力を求める更なるクエリ(query)でもよい。 In other instances, for example, if you used the specific application of the apparatus (prepared for a series of input to perform one or more functions) users, feedback further seek additional input query (query) may be used. ステップ184では、装置はモーション入力及び装置状態に従って振る舞い、本プロセスはステップ172に戻り、更なる未処理データが受信される。 In step 184, device behavior, the process according to the motion input and device state returns to step 172, a further raw data is received.

ステップ180で、モーション検出器出力により示されるモーションが特定の装置状態の下で有意義でも認識可能でもないことが確認されたならば、プロセスはステップ186に進む。 In step 180, if it is motion indicated by the motion detector output nor recognizable even meaningful under specific device state is confirmed, the process proceeds to step 186. ステップ186では、そのモーションが特定の閾レベルを上回っているか否かが確認される。 In step 186, whether the motion is above a certain threshold level is confirmed. この確認は例えば特定のモーション入力が或るジェスチャーであることを意図していたか否かを判断することによりなされてもよい。 This confirmation may be made by determining whether or not intended to be a certain gesture particular motion input, for example. 上述したように、この判断の閾値特性は、モーション入力の振幅、モーション入力の経過時間、モーションの加速に関する回数及び間隔等を含んでよい。 As described above, the threshold characteristics of this determination, the amplitude of the motion input, the elapsed time of the motion input may include the number and spacing concerning acceleration of the motion. モーション入力が特定の閾値を上回っていなかったことが確認されると、プロセスはステップ172に戻り、更なる未処理モーションデータが受信される。 When the motion input did not exceed a certain threshold is confirmed, the process returns to step 172, a further raw motion data is received. しかしながら、或るジェスチャーが意図されていたがその装置状態の下では認識されなかった又は有意義でなかった、という具合にモーション入力が閾値を上回っていたならば、ステップ188でフィードバックがなされる。 However, although certain gesture was intended if its Under device status was not unrecognized or meaningful, motion input to the degree that it was above the threshold, the feedback in step 188 is made. そのフィードバックは、音声の、視覚的な及び/又は振動的なフィードバックを含んでよく、そのジェスチャーが認識されなかった又は有意義でなかったことを示してよい。 Its feedback voice, visual and / or may comprise vibration feedback may indicate that the gesture was not unrecognized or meaningful. 特定の実施例では、フィードバックは意図されたジェスチャーに関する問い合わせ(クエリ)を含んでもよいし、或いは意図される可能性のあるいくつものジェスチャーをユーザに提供し、その中からユーザがモーションで意図した特定のジェスチャーを選択してもよい。 In certain embodiments, the feedback provides may include a query about intended gesture (query), or the intended several gestures that might be to the user, the user from their intended Motion particular the gesture may be selected. 特定の実施例は上述したステップのいくつかを含まないかもしれないし(例えば、或る実施例はステップ186の閾値判定を含まないかもしれない。)、他の実施例は追加的なステップを又は同じステップを異なる順序で含むかもしれないことが理解されるべきである。 It certain embodiments may not include some of the steps described above (e.g., some embodiments may not include a threshold determination in step 186.), Other embodiments additional steps or you may include the same steps in a different order is to be understood. 上記により示唆されるように、特定の実施例は多くのアプリケーション及び手法のどれによるモーション入力フィードバック(例えば、フィードバック「対話」を含む)を利用してもよく、フィードバックシステムの種類及び複雑さは様々な実施例で大きく異なってよい。 As suggested by the above, specific examples which by motion input feedback (e.g., including feedback "dialogue") for many applications and techniques may be utilized, the type and complexity of the feedback system various it may vary greatly Do embodiment.

上述したように、特定の実施例による携帯装置は、ジェスチャーモーション入力を受け取り、その装置で動作する如何なる数のアプリケーションの如何なる数の機能でも制御する。 As described above, the mobile apparatus according to a particular embodiment, receive gesture motion input, controlled in any number of functions of any number of applications running on that device. ジェスチャーを用いる或るアプリケーションはモバイルコマース(mCommerce)−エムコマース−アプリケーションを含んでもよく、そのアプリケーションでは携帯装置10のようなモバイル装置は、商用の又は消費者購買のような様々な取引を行うために使用される。 The certain applications using gesture mobile commerce (mCommerce) - M Commerce - may comprise an application, mobile devices such as portable device 10 in its application, to perform various transactions, such as commercial or consumer purchasing They are used to. 多くのエムコマースアプリケーションはある種の認証形式を利用し、個人識別番号(PIN)、クレジットカード情報及び/又はモバイル装置の所有権等に関してユーザを認証する。 Many M-commerce applications using a certain form of authentication of personal identification number (PIN), to authenticate the user as to ownership, etc. credit card information and / or mobile device. しかしながら多くの形式の認証は「漏洩又はリーク」のおそれがある。 However, many forms of authentication, there is a possibility of "leaky or leakage". それらは故意に又は偶発的に同時使用されるおそれがある。 They are at risk of being simultaneously used deliberately or accidentally. 別の形式の認証はユーザの書いた署名であり、署名はそのようなリークの問題による被害を受けにくい。 Another form of authentication is a signature written by a user, the signature is less susceptible to damage caused by such a leak of the problem. なぜなら偽造をなすことは一般に困難であり且つ発見されやすいからである。 This is because it makes counterfeiting is because generally a difficult is and found easily. 特定の実施例は、携帯装置を介するエムコマースの又は他の取引の認証形式としてユーザの署名を受け取るために、モーション入力を利用する。 Particular embodiments in order to receive the signature of the user as a form of authentication or other transactions M-commerce via the mobile device utilizes a motion input.

筆記された署名はジェスチャーの2次元記録として処理されてよい。 Written signature may be treated as a two-dimensional record of the gesture. モーション入力機能を備えた携帯装置を用いる場合、ユーザの署名は3次元的でもよく、その場合は「空間的な署名」を構成する。 When using a mobile device having motion input function, the user's signature may be a three-dimensional, in which case the constitutes "spatial signature". 更に、装置で受信される他の形式の入力と組み合わされる場合、ユーザの署名は何次元になってもよい(建生場、4次元、5次元又はそれより多くの次元でさえよい。)。 Furthermore, when combined with the input of other types received in the apparatus, the user's signature may become what dimensional (Tateo field, four-dimensional, may even five-dimensional or more dimensions.). 例えば、装置を用いて空間的に「描かれ」且つモーション検出器22で検出された3次元ジェスチャーは、キー押下その他の入力と組み合わせられ、署名の次元数を増やしてもよい。 For example, spatially "drawn" and three-dimensional gestures detected by the motion detector 22 using the apparatus is combined with a keypress or other input may be increased the number of dimensions of the signatures.

これらの空間的な署名は、携帯装置のモーション検出器22により追跡され、記録され且つ分析されることが可能である。 These spatial signatures are tracked by the motion detector 22 of the mobile device, it can be recorded and analyzed. これらは、有効な認証形式として機能するモーション検出素子数を変えることで、精度を変えながら記録可能である。 These, by changing the number of motion detection device to function as effective form of authentication, can be recorded while changing the accuracy. ユーザの空間的署名は、ユーザの従来の2次元的に書かれた署名に基づく3次元的な形式で構成されてもよいし、或いは彼又は彼女の署名としてユーザが携帯装置に記録する適切な他の如何なるジェスチャーで構成されてもよい。 Spatial signature of the user is appropriate may be configured by three-dimensional form based on a conventional 2-dimensional signature written by the user, or he or user as her signature recorded in the portable device it may be configured in any other gesture.

或る実施例では、空間的署名を認識するプロセスはパターン認識及び学習アルゴリズムを含んでもよい。 In some embodiments, the process recognizes the spatial signature may include pattern recognition and learning algorithms. そのプロセスは署名に関連するキーの加速の相対的なタイミングを分析してもよい。 The process may analyze the relative timing of the acceleration keys associated with the signature. これらは、動きの始まり及び終わり、運動の曲がり具合及び他の運動属性に関連する。 These are, the end and the beginning of the movement, related to the condition and other movement attribute the curvature of the movement. 或る例では、署名運動の或るポイントのデータセットの或るハッシュが記憶され、以後の署名は認証用にそのハッシュと比較される。 In an embodiment, certain hash of the data set of a certain point petition is stored, subsequent signature is compared with the hash for authentication. 更にこれは、署名が固有であるか否かを確認することで署名が真正であるか否かを判断する。 Furthermore This signature signature by checking whether the unique determines whether it is authentic. 例えば、特定の実施例では、署名は、初期の又は参照位置に対する装置の特定の動きを比較することで(例えば、装置10の署名検出モジュールにより)検出されるかもしれない。 For example, in certain embodiments, the signature, by comparing the specific movement of the device to the initial or reference position (e.g., by the signature detection module of the apparatus 10) may be detected. そのような比較は、その運動の加速シーケンスを記憶済みの空間的署名の所定の加速シーケンスと比較することでなされてもよい。 Such comparisons may be made by comparing the acceleration sequence of the movement and the stored spatial signatures of predetermined acceleration sequence. この判定はユーザの入力モーション署名の大きさによらずなされてよい。 This determination may be made regardless of the size of the input motion signature of the user.

或る実施例では、装置は、初期地点から運動している装置の位置が空間署名に合致するか否かを確認することで装置の動きが署名に合致するか否かを検出できる。 In some embodiments, the device, the position of the device in motion from the initial point can be detected whether the movement of the device by checking whether matching the spatial signature matches the signature.

図14はエムコマース取引の認証として空間署名を使用するシステム例200を示す。 Figure 14 illustrates an example system 200 that uses the spatial signatures as an authentication Em commerce transactions. システム200は携帯装置10、エムコマースアプリケーション202、認証装置204及び通信ネットワーク206を含む。 System 200 includes a portable device 10, M-commerce application 202, the authentication device 204 and the communication network 206. エムコマースアプリケーション202は、ユーザの携帯装置と商取引するための適切な如何なるアプリケーションで構成されてよい。 M-commerce application 202 may comprise any suitable application for transaction with the user of the mobile device. そのような取引は、ウェブサイトによる会社その他のユーザの品物又はサービス等に関する消費者購買、オンライン支払、口座(アカウント)管理又は適切な他の如何なる商取引を含んでもよい。 Such transactions, consumer purchases related to the goods or services, etc. of a company or any other user by the web site, online payment, account (account) may also include a management or any other suitable commerce. 認証装置204は、エムコマース取引を完了するために携帯装置10のユーザによる空間的署名入力を認証又は確認する。 Authentication apparatus 204, a spatial signature input by a user of the portable device 10 to authenticate or verify to complete the M-commerce transactions. 認証装置204はエムコマース取引の認証用に1以上のユーザの1以上の空間署名を記憶してよい。 Authentication unit 204 may store one or more spatial signature of one or more users for authentication Em commerce transactions. 或る実施例では、認証装置は携帯装置10の中に、エムコマースアプリケーション202の中に又は適切な他の如何なる場所に設けられてもよい。 In some embodiments, the authentication device in the portable device 10 may be provided on or in any other suitable location in the M-commerce application 202. 通信ネットワーク206は、システム200の要素間で情報又はデータを伝送することができ、広域ネットワーク(WAN)、公衆交換電話網(PSTN)、ローカルエリアネットワーク(LAN)、インターネット及び/又はグローバルディストリビュートネットワーク(例えば、イントラネット、エクストラネット又は他の形式の無線/有線通信網等)の1以上を含んでよい。 Communication network 206 may transmit the information or data between components of the system 200, a wide area network (WAN), a Public Switched Telephone Network (PSTN), a local area network (LAN), the Internet and / or a global distributed network (e.g., an intranet, extranet or other type of wireless / wired communication network, etc.) may include one or more. 通信ネットワーク206は、ルータ、ハブ、スイッチ、ゲートウエー若しくは他のハードウエア、ソフトウエア又は組み込まれたロジックの適切な如何なる組み合わせを含んでもよく、それらはシステム200内で情報交換又はデータ交換を行う多数の通信プロトコルのどれでも実行できるものである。 Communication network 206, routers, hubs, switches, gateways, or other hardware may include any suitable combination of software or embedded logic, a number of them to exchange information or data exchange in the system 200 it is those that can run any of the communication protocol.

動作中に、エムコマースアプリケーション202の取引を行うためにユーザが携帯装置10を使用する場合、ユーザはモーション入力を利用し、例えばユーザの3次元署名に応じて装置を動かすことで、認証署名を通知してもよい。 During operation, when using the user mobile device 10 in order to perform a transaction of M-commerce application 202, the user utilizes the motion input, for example by moving the apparatus according to the three-dimensional signature of the user, the authentication signature it may be notified. 一例として、ユーザはクレジットカードの代わりにポイントオブパーチェス(例えば、店舗)でユーザのセルラ電話を使用してもよい。 As an example, the user credit card instead point of par chess (e.g., store) may be used the user's cellular phone. 輸送及び処理される必要のある書類用紙に署名する代わりに、ユーザはそのユーザの空間署名に従って装置10を動かすだけでよい。 Instead of signing the document sheets that need to be transported and processed, the user need only move the device 10 according to the spatial signature of the user. 上述したように、ユーザの署名は或る実施例では3より多くの次元を含んでもよい。 As described above, the user's signature may include many dimensions than 3 in some embodiments. 署名は携帯装置10又は他のモバイル装置を用いてユーザにより事前に記録されていてもよく、その記録された署名は、携帯装置10に、エムコマースアプリケーション202に、認証装置204に又は適切な他の場所に(例えば、複数のエムコマースユーザの署名用の署名格納データベース等に)格納されてもよい。 Signature may be recorded in advance by the user using the mobile device 10 or other mobile device, the recorded signature to the mobile device 10, the M-commerce applications 202, or other suitable to the authentication device 204 the location (e.g., the signature storage database for signing of a plurality of M-commerce users, etc.) may be stored.

携帯装置10の運動はその装置で処理され、その運動を示すモーション出力がエムコマースアプリケーション202に伝送されてもよい。 Movement of the portable device 10 is processed by the device, a motion output indicative of the motion may be transmitted to the M-commerce application 202. エムコマースアプリケーション202はそのモーション出力を確認(装置10で受信されたモーション入力がエムコマースの取引を希望するユーザの署名であったことの確認)用に認証装置204に通知してもよい。 M-commerce application 202 may notify the authentication device 204 for (signature is a thing confirmation of the user motion input received by the device 10 wishes to deal M-Commerce) confirmation motion output. 認証装置204がユーザの署名を確認すると、エムコマースアプリケーションはそのユーザとの取引を確定してよい。 If the authentication device 204 to verify the signature of the user, M-commerce application may confirm the transaction with the user. 上述したように、認証装置204は、特定の実施例では携帯装置10内に又はエムコマースアプリケーション202に設けられてもよく、装置10に、エムコマースアプリケーション202に又は他の適切などこかに格納された確認用署名にアクセスしてもよい。 As mentioned above storage, the authentication device 204 may be provided on or M-commerce application 202 to the mobile device 10 in certain embodiments, the device 10, the M-commerce applications 202 or other suitable somewhere You may access the confirmation signature that is.

エムコマースでないアプリケーションでは、例えばその装置を利用してプライベートな又はセキュアなデータを送信するような機能を実行するのに電子セキュリティが望まれるような場合に、認証は携帯装置によってなされてもよい。 The non-M-commerce application, for example, using the device to perform functions such as sending a private or secure data in the case that electronic security is desired, the authentication may be done by the mobile device. 携帯装置10を用いてデータ又は他の情報を送信することを望んでいるユーザは、暗号化プロセスで彼らの署名を利用してもよい。 Users wishing to transmit data or other information by using a portable device 10 may utilize their signature in the encryption process. 空間署名は、ネットワークを介して通信するデータを保護するための様々な手法のどれで使用されてもよく、パブリックキー/プライベートキー暗号化システムに関して使用されてもよい。 Spatial signatures may be used in any of a variety of techniques for protecting data communicated over a network, it may be used in connection with public / private key encryption system. 例えば、或る実施例では、携帯装置はモーション入力を介して受信したユーザの署名を認証し、伝送データを暗号化するのにそれ自身のプライベートキーを利用してもよい。 For example, in some embodiments, the mobile device authenticates the signature of the user received via the motion input, the transmitted data may utilize its own private key to encrypt. 他の例では、データが携帯装置10に伝送され、意図される受取人は、解読データを受けるために空間署名を入力しなければならないようにしてもよい。 In another example, the data is transmitted to the portable device 10, payee contemplated is may not need to enter spatial signatures to receive the decrypted data. 或る実施例では、データは携帯装置10に無線接続されたコンピュータと通信されてもよく、意図される受取人は、データ解読用にユーザの署名をそのコンピュータに伝送する手段として携帯装置10を利用しなければならない。 In some embodiments, the data may be communicated with the wireless computer connected to the portable device 10, payee contemplated is a portable device 10 as a means for transmitting the signature of the user to the computer for data decryption It must be used. 更に、特定の実施例では、署名モーションが単に認証用に使用されるのではなく、装置の動きが暗号鍵を生成するように、ユーザの空間署名自体が暗号鍵を表してもよい。 Furthermore, in certain embodiments, the signature motion rather than simply being used for authentication, such that movement of the device generates an encryption key, spatial signatures themselves users may represent the encryption key. 場合によっては、署名を等価なプライベートキーに変換することで、装置は加速度の組み合わせを署名として認識してもよい。 In some cases, to convert the signature into an equivalent private key, the device may recognize the combination of acceleration as a signature. 携帯装置は取引の認証プロセスの一部としてプライベートキーを利用してもよい。 The portable device may utilize the private key as part of the authentication process of the transaction.

特定の実施例では、空間署名は建物やイベントへの物理的なアクセスを管理するのに使用されてもよい。 In certain embodiments, spatial signatures may be used to manage physical access to buildings and events. 例えば、装置のユーザによる署名入力は、或るイベントに関して内金を支払って予約したことをIDで確認するように(will-call)、入ることが許可された人々のリストに対して検査されてもよい。 For example, a signature input by a user of the device that has reserved paid deposit regard certain event to confirm ID (will-call), is checked against a list of people that have been allowed to enter it may be.

特定の実施例では、ユーザは携帯装置のモーション入力を利用し、オーディオ/ビデオ機器、家庭用機器及び装置、コンピュータ装置又は(携帯装置で制御可能な)他の如何なる装置のような他の装置を制御してもよい。 In certain embodiments, the user utilizes the motion input of the portable device, audio / video devices, household appliances and equipment, other devices such as a computer device or (controllable by the mobile device) any other device control may be. セルラー、ブルートゥース及び802.11プロトコルを含む多数の無線又は有線プロトコルのどれでもそれを利用して、装置10の通信インターフェース20を介して装置は携帯装置10によって制御されてよい。 Cellular, any of a number of wireless or wired protocols including Bluetooth and 802.11 protocols using the same apparatus via the communication interface 20 of the device 10 may be controlled by the mobile device 10. 或る実施例では、装置10は、無線又は有線通信を介して、ネットワークを介して他の装置を制御するのにモーション入力を受けてもよい。 In some embodiments, device 10 via a wireless or wired communication may be subjected to motion input to control other devices through a network. かくて装置10のモーション入力により制御される装置は、例えば同じ部屋の中でも或いは地域を越えて、装置10に対してどこに設けられてもよい。 Thus the apparatus which is controlled by a motion input device 10, for example beyond the even or regions in the same room may be provided anywhere the apparatus 10.

一例として、携帯装置10がブルートゥースで動作するセルラ電話であった場合に、セルラ電話の特定のジェスチャー又は他の動きは、パワーポイントのプレゼンテーションを行うために部屋を超えてラップトップのような他の装置を制御するためのコマンドを無線通信してもよい。 As an example, if the portable device 10 is a cellular telephone operating in the Bluetooth, a particular gesture or other movement of the cellular phone, another device such as a laptop beyond room to perform Power Point presentation it may wirelessly communicate commands to control. 携帯装置10のモーション入力を介して制御される他の装置は、テレビジョン、ラジオ、ステレオ機器、衛視受信器、ケーブルボックス、DVDプレーヤ、ディジタルビデオレコーダ、ライト、空調機器、ヒーター、サーモスタット、セキュリティシステム、台所機器(オーブン、冷蔵庫、フリーザ、電子レンジ、コーヒーメーカー、ブレッドメーカー、トースター等)、PDA、デスクトップ及びラップトップPC、コンピュータ周辺機器、プロジェクタ、無線制御車両、ボート、航空機及び他の任意の装置を含んでよい。 Other devices controlled through the motion input of the portable device 10, television, radio, stereo equipment, guards at parliament receiver, cable box, DVD player, digital video recorder, lights, air-conditioning equipment, heaters, thermostats, security systems , kitchen appliances (oven, refrigerator, freezer, microwave oven, coffee maker, bread maker, toaster, etc.), PDA, desktop and laptop PC, computer peripheral equipment, projector, radio control vehicle, boat, aircraft and any other equipment it may include. 他の例として、通勤者が或る方法でその人のセルラ電話を揺さぶり、通勤者が家に到着する前に家の中のヒーターを起動させるよう知らせてもよい。 As another example, commuters can shake a person's cellular phone in a certain way, commuters may be informed so as to start the heater in the house before you arrive at the house. 或る実施例では、携帯装置は、他の装置に通知するためのコマンド又は意図される機能を決定するために、未処理データを受信及び処理してもよい。 In some embodiments, the portable device, in order to determine the command or intended function for notifying the other apparatus may receive and process the raw data. 他の実施例では、携帯装置のモーション検出器は、装置10の動きを通じて装置10により制御される1以上の装置に通知するように、モーション検出素子から受信した未処理データを出力する。 In another embodiment, a motion detector of the portable device, to notify the one or more devices that are controlled by the device 10 through the movement of the device 10, and outputs the raw data received from the motion detection device. その結果、装置10により制御される様々な装置が、装置10による同じ未処理データを様々に処理してよい。 As a result, various devices are controlled by the device 10 may process various the same raw data by device 10. 例えば、装置10の特定のジェスチャーは、装置10により制御される様々な装置の異なる機能を実行させてもよい。 For example, a particular gesture of the device 10 may be executed different functions various devices to be controlled by the device 10.

図15は、装置10のモーション入力を通じて複数の他の装置を携帯装置10が制御するシステム例220を示す。 Figure 15 illustrates an example system 220 for controlling the portable device 10 a plurality of other devices through the motion input device 10. システム220は、無線又は有線リンクを通じて結合された携帯装置10、ラップトップ222及び遠隔装置224を有し、通信ネットワーク226を介して携帯装置10に結合される。 System 220, the portable device 10 is coupled via a wireless or wired link, a laptop 222 and remote device 224, is coupled to the portable device 10 via the communication network 226. 携帯装置10は、加速度計、カメラ、距離測定器及び/又はジャイロのようなモーション検出素子を通じて、装置の特定の動きに関する未処理モーションデータを受信する。 Portable device 10 is an accelerometer, a camera, distance measuring device and / or through the motion detection device such as a gyro, receives the raw motion data for a particular movement of the device. 未処理モーションデータは携帯装置で処理される。 Raw motion data is processed in a portable device. ジェスチャーデータベース及びジェスチャーマッピングデータベースのような特定のデータベースは、装置の制御モジュールにより追跡される運動に基づいて、合致するジェスチャー及び意図される機能を決定するためにアクセスされる。 Specific database, such as gesture database and gesture mapping database, based on the motion tracked by the control module of the device, is accessed to determine the functions gesture matches and intended. 意図される機能は、ラップトップ222又は遠隔装置224のような、携帯装置10により制御される他の装置に関するものかもしれない。 Intended function, such as a laptop 222 or remote device 224, may relate to other devices controlled by the mobile device 10. 従って、モーション入力は、装置10から制御される装置(非制御装置)へ通知される前提とする操作信号に関するインターフェースである。 Therefore, motion input is an interface relating to the operation signal that assumes to be notified to the device to be controlled from the unit 10 (non-control). 他の実施例では、装置10に関する特定のモーション入力を単に示す未処理データ又は他のデータは、装置10で機能を決定せずに、ラップトップ222及び/又は遠隔装置224に直接的に送信されてもよい。 In other embodiments, simply raw data or other data indicating the particular motion input to apparatus 10, without determining the function in device 10, directly sent to the laptop 222 and / or remote device 224 it may be. これらの例では、ラップトップ222及び/又は遠隔装置224は、未処理モーションデータに基づいて実行されるべき意図される1以上の機能又は動作を判定するために携帯装置10から受信した未処理モーションデータを自ら処理してもよい。 In these examples, the laptop 222 and / or remote device 224, raw motion received from the portable device 10 to determine one or more functions or operations that are intended to be performed on the basis of the raw motion data data may be treated themselves. 或る実施例では、装置10のユーザは、モーション又は他の装置を介して、携帯装置10がそのような適用可能な他の装置の意図される機能又は未処理モーションデータを通知すべきことを装置10に通知する。 In some embodiments, the user of the device 10, through the motion or other device, the portable device 10 that it should indicate the function or raw motion data is intended for such other applicable device to notify the apparatus 10. 携帯装置10により制御される2つの装置が示されているが、特定の実施例は上述したようなモーション入力を介して携帯装置10により制御される様々なタイプの装置をいくつ含んでもよいことが理解されるべきである。 Two devices to be controlled by the mobile device 10 are shown, that the specific embodiments which may include any number of devices of various types that are controlled by the portable device 10 through the motion input as described above it should be understood.

上述したように、特定の実施例は、携帯装置10のモーション入力を介して、他のローカルの又はリモートの装置のような他の装置を制御する機能を含む。 As described above, the specific examples, through the motion input of the portable device 10 includes a function of controlling other devices such as other local or remote device. 或る実施例では、携帯装置10のユーザは、装置10の特定のモーション入力が制御用に意図されている他の装置を選択する。 In some embodiments, the user of the portable device 10 selects the other device specific motion input device 10 is intended to control. 例えば、ユーザは携帯装置10のユーザ入力14を用いて(例えば、ボタンを押すことで又はトラックボールを動かすことで)、ローカルの又はリモートの装置を選択し、該他の装置に望まれる機能又は動作に対応付けられている特定の運動に従って装置10を動かす前に制御する。 For example, a user using the user input 14 of the portable device 10 (e.g., by moving the in or trackball pressing a button) to select the local or remote device, function or desired for said other device controlled before moving the device 10 according to the particular motion associated with the operation. しかしながら特定の実施例ではユーザは特定のジェスチャーに従って携帯装置を動かし、装置10のモーション入力を介してその時点で制御されるように他の装置(例えば、他のローカルの又はリモートの装置)を選択してもよい。 However moving the mobile device in accordance with the user specific gesture in certain embodiments, select another device to be controlled at that time through the motion input device 10 (e.g., other local or remote device) it may be. かくて特定の実施例は携帯装置10により制御される他の装置のジェスチャーモーション選択機能をもたらす。 Thus particular examples and results in the gesture motion selection functions of the other devices controlled by the portable device 10.

携帯装置10は装置選択ジェスチャーを検出するよう動作する装置選択モジュールを含み、ユーザが特定の装置を選択することを望んでいることを確認してもよい。 Portable device 10 includes a device selection module operable to detect a device selection gesture may confirm that the user wants to select a particular device. 制御可能な各々の装置は、それ自身のジェスチャーコマンドマップを有してよく、そのマップは、装置10を用いて入力されるジェスチャーと制御可能な装置のコマンドとを対応付ける。 Controllable each device can have its own gesture command map, the map associates the command gesture and controllable devices that are entered using the device 10. 携帯装置の制御モジュールは、制御用に選択された制御可能な装置に対応する特定のコマンドマップを選択する。 Control module of the mobile device selects a particular command map corresponding to the controllable device selected for control. 或る実施例では、装置10はデバイスロケータを含み、デバイスロケータは、複数のリモート装置の各々について、携帯装置から各リモート装置への方角を検出するように動作可能である。 In some embodiments, apparatus 10 includes a device locator device locator for each of the plurality of remote devices, is operable from a mobile device to detect direction of the respective remote devices. この場合、制御するリモート装置を選択するために、ユーザが制御することを望む特定のリモート装置の方角で、ユーザは携帯装置を動かしてもよい。 In this case, in order to select the remote device for controlling, in a direction of a specific remote device that the user desires to control, the user may move the portable device.

装置10のモーション入力は他の装置のそのような制御に使用されてよいが、他のタイプの入力(例えば、入力14を用いること)が、ジェスチャー入力による制御用に選択された他のローカルの又はリモートの装置を制御するために使用されてもよい。 Motion input device 10 may be used for such control of other devices, other types of input (e.g., using input 14), selected for control by gesture input the other local or it may be used to control the remote device. 他の実施例では、様々なジェスチャー各々が異なる装置を制御するように対応付けられてよい。 In other embodiments, it may be a variety of gestures, each associated to control the different devices. 他の実施例では、装置10は制御する可能性のある他の装置と使用する特定のジェスチャーとを表示し、ユーザが装置10を介してまもなく制御することを望む他の装置に関するユーザの選択肢を示してもよい。 In another embodiment, displaying a specific gesture for use with other devices that might apparatus 10 controls the user options for other devices that the user wants to soon controlled via the device 10 it may indicate. 本発明による携帯装置は、携帯装置により制御されるローカルの又はリモートの装置の1以上に関する何らかの特定のジェスチャー選択方法を用いてよい。 Portable device according to the present invention may be used any particular gesture selection method for one or more local or remote device controlled by the portable device.

上述したように、特定の実施例は、モーション検出器22を介して装置の運動を検出できる携帯装置を含み、検出した運動に従う何らかの手法で装置の振る舞いを変える。 As described above, the specific embodiment includes a portable device capable of detecting the movement of the device through the motion detector 22, changing the behavior of the device in some way according to the detected movement. 或る実施例では、携帯装置10は、それらの特定の環境をモデル化し、そのような環境に基づいてそれらの振る舞いを以後修正することができる。 In some embodiments, the portable device 10 is modeled their particular environment can be modified subsequent to their behavior based on such environment. 携帯装置の環境のモデリングと装置の特定のモーションを検出することとの間の1つの違いは、前者には関連する推論法が存在するが、後者ではそのような推論法は無いことである。 One difference between the detecting certain motion of the portable device environment modeling and apparatus is the former associated reasoning method is present, such reasoning method the latter is no. 一例として、携帯装置が特定のジェスチャーに従って動かされ、その挙動を変える場合、特定の動きを検知又は検出し、検出された動きに基づいて反応するように考えられる。 As an example, the portable device is moved according to a particular gesture, when changing its behavior, senses or detects a particular motion is believed to react on the basis of the detected motion. 一方、携帯装置がテーブル上でうつぶせに置かれていることを確認し、それに応じて反応する場合、それはその環境をモデリングしていると考えられる。 On the other hand, to verify that the portable device is placed face down on the table, to react accordingly, it is considered to model the environment. 他の例として、携帯装置が左に動き、そのような動きに基づいて自身の振る舞いを変えるとき、それはモーションを検出し、反応していると考えられる。 As another example, the mobile device moves to the left, when changing their behavior based on such motion, it detects the motion is considered that the reaction was. 装置が自由落下していることを自身で見出し、差し迫った地面との衝突から生き延びるために電源をオフにする場合、それは環境をモデリングしていると考えられる。 If the device is found in itself that it falls freely, to turn off the power to survive the impact with the imminent ground, it is considered to model the environment. 更なる区別は、環境モデリングはユーザ入力に速やかに応答することを要しないが、特定のモーションのようなイベント検出は一般にそのような速やかな応答を要する。 A further distinction is environmental modeling is not necessary to respond quickly to user input, the event detection such as a specific motion generally requires such rapid response. かくて環境モデリングはモーションのパターン(又はそれが欠けていること)を検知又は検出すること、検出内容を所定の環境条件群と照合すること、及びモデル化した環境に基づいて装置の挙動を修正することを含む。 Nuclear environment modeling to detect or detect motion of the pattern (or that it lacks), a collating the detected result with a predetermined environmental condition group, and the behavior of the apparatus on the basis of the modeling environment modified including that. モデル化された環境に基づいて実行される振る舞いも、使用する又は着目する特定のアプリケーションに基づいて異なってよい。 Behavior to be executed based on the modeled environment, may vary based on the particular application to or interest used. 場合によっては、装置は、モデル化された環境に基づいて特定のモーションに対する感度を変えてもよい。 Optionally, the device may change the sensitivity to certain motions based on the modeled environment.

一例として携帯装置は、加速度計又は他のモーション検出素子を介して、ほぼ水平な面上で静止していることを認識してもよい。 Portable device as an example, through an accelerometer or other motion sensing device may recognize that it is stationary on a substantially horizontal plane. そのような認識は、或る面に垂直な加速度が変化無く1gであり、装置が動いていない又は静止していることを確認することで得られてもよい。 Such recognition is a vertical acceleration without change to a certain surface 1g, it may be obtained by verifying that the device is not not or still moving. 装置は、ユーザの手の中で止まっていることとテーブル上にあることを区別できてもよい。 Apparatus may be distinguished from that on that a table has stopped in a user's hand. 例えば、ユーザの手は一般に装置を完全に止めて保持することはできないからである。 For example, the user's hand is because generally can not be held completely stop device. その結果、装置は近似的に水平な面上で静止しているという認識に従って、所定の方法で動作してもよい。 As a result, the device in accordance with recognition that is stationary on the approximately horizontal surface, may operate in a predetermined manner. 例えば、テーブル上に横たわっているように携帯装置が認識したならば、携帯装置は或る所定期間の間その場所で横たわっていた後に電源を落としてもよい。 For example, if the portable device as lying on the table is recognized, the portable device may be powered down after lying in its place between certain predetermined period. 別の例として、振動モードのセルラ電話は、それがテーブルの上にあるように認識すると、呼び出し時に又は(電話機の振動を引き起こす)他の何らかのイベントの際に、より穏やかに振動させてもよい。 As another example, the cellular telephone of the vibration mode, when it is recognized to be on the table, (causing vibration of the phone) or when calling upon some other event, may be more gentle vibration . 或る実施例では、装置はテーブルに横たわっているときの方向を認識し、「うつぶせの(face down)」位置で横たわっている場合に或る方法で振る舞い(例えば、電源を落とし)、うつぶせでない位置で横たわっていた場合に別の方法で振る舞ってもよい。 In some embodiments, the device recognizes the direction in which lying on the table, the behavior in some cases way lying at the position "the prone (face down)" (e.g., powered down), do not prone it may behave in a different way when lying in position. 携帯装置10がセルラ電話を構成するならば、呼び出し時にスピーカモードに入り、テーブル上で「あおむけ(face up)」の位置にユーザが置いたことを呼び出し時に認識してもよい。 If the portable device 10 constitute the cellular telephone enters the speaker mode during call may recognize when calling that put the user at the position of "supine (face Stay up-)" on the table. 一方、セルラ電話が呼び出され、テーブル上でうつぶせに置かれていた場合、セルラ電話はミュートモードに入ってもよい。 On the other hand, the cellular telephone is called, if it was placed face down on the table, the cellular phone may enter the mute mode.

他の例として、携帯装置10は短期間の間ほぼ0gであり自由落下していることを認識し、地面又は他の面との差し迫った衝突に起因するダメージを減らすように振る舞ってもよい。 As another example, the mobile device 10 recognizes that the free fall is approximately 0g short period of time, may behave to reduce the damage caused by the impending collision with the ground or other surface. そのような動作は、例えば、チップ及び/又はハードドライブの電源を落とすこと、レンズをリトラクト(撤収)すること、カバーで覆うこと、又は他の何らかの装置の挙動を含んでよい。 Such operations, for example, lowering the power to the chip and / or a hard drive, a lens retraction (withdrawal) to be, be covered with a cover, or behavior may include some other device. 特定の実施例では、携帯式でない装置又は入力用のモーションを検出しない装置は、それらの環境をモデル化することができ、モデル化された環境に基づいて動作することができる。 In certain embodiments, it does not detect motion for a portable non device or input device, can be modeled their environment, may operate on the basis of the modeled environment. 更なる例として、加速度パターンが検出され、携帯装置10が運動状態(環境)にあること(例えば、車両の中や列車でユーザにより保持されていること)を認識してもよいし、そのような環境の中で装置のより良いパフォーマンスを可能にするように感度、閾値及び/又は他の様々な特性を調整してもよい。 As a further example, the acceleration pattern is detected, the portable device 10 is in motion (environment) (e.g., that are held by a user in a vehicle or train) may be aware of, such sensitivity to allow better performance of the device in the environment, may adjust the threshold and / or various other properties.

他の例では、携帯装置10はディジタルカメラを構成してよい。 In another example, the portable device 10 may constitute a digital camera. モーション検出素子により、カメラはそれが三脚に据えられているか否か或いは撮影時にユーザが持っているか否かを確認してもよい。 The motion detection device, the camera may check whether it user has at whether or photography are laid on a tripod. カメラはその判断に基づいて写真に対するシャッタースピードを設定してもよい(例えば、三脚に設けられていたならば遅いシャッタースピードにし、ユーザが持っていた場合には速いシャッタースピードにする。)。 The camera may be set shutter speed for photograph based on the determination (e.g., if was provided on the tripod and a slow shutter speed, if the user had to fast shutter speed.).

携帯装置10が、PCのような別の装置と同期するためのクレイドル(cradle)を用いる場合、装置10はその静止状態(又はサポート状態)及び特定の向きに基づいてそれがクレイドル中にあることを認識してよい。 It portable device 10, when using a cradle (cradle) for synchronizing with another device, such as a PC, device 10 is based on the its rest state (or support state) and specific orientation it is in the cradle the may be recognized. 装置はクレイドル中にある状態に応じて動作又は機能してよい(例えば、関連するPCに同期してよい。)。 Device may operate or function according to the state that is in the cradle (e.g., may be synchronized with the associated PC.).

図16は特定の実施例による環境モデリングプロセスを示すフローチャート230である。 Figure 16 is a flow chart 230 illustrating an environment modeling process according to a particular embodiment. ステップ232では、未処理モーションデータが携帯装置10で受信される。 At step 232, unprocessed motion data is received by the mobile device 10. 上述したように未処理モーションデータは加速度計、ジャイロ、カメラ、距離測定器又は適切な他の何らかのモーション検出素子の如何なる組み合わせから受信されてもよい。 Raw motion data accelerometer as described above, the gyro, camera, may be received from any combination of the distance measuring instrument, or by any other suitable motion detection device. ステップ234では、未処理モーションデータがモーション検出出力を生成するよう処理され、その出力から装置の運動及び方向がステップ236で決定される。 At step 234, unprocessed motion data is processed to generate a motion detection output, motion and direction of the device from the output is determined at step 236. ボックス237は、ボックス237aのz軸回りの回転、ボックス237bのx軸に沿う並進、ボックス237cの特定の角度α,θ,ωに向く方向、及びボックス237nの静止等のような装置の運動及び向きの例を示す。 Box 237, z-axis of rotation of the box 237a, translation along the x-axis of the box 237b, a particular angle of box 237 c alpha, theta, exercise equipment such as stationary such direction, and the box 237n facing ω and It shows an example of the direction. これらは装置の運動及び向きの例示に過ぎず、ステップ236では判定されるいくつの運動が使用されてもよい。 These are merely illustrative of the movement and orientation of the device, a number of movements is determined at step 236 may be used. 或る実施例では、判定された方向は重力に対する装置の方向をなすかもしれない。 In some embodiments, the determined direction may make the orientation of the device relative to gravity.

ステップ238では、携帯装置10はステップ236で判定した運動及び方向に基づいて自身の環境を判定する。 In step 238, the mobile device 10 determines its environment based on movement and direction determined in step 236. ボックス239は、ボックス239aのテーブルに対してうつぶせ、ボックス239bの落下中、ボックス239cの列車内及びボックス239dの手の中等のような装置の環境の例を示す。 Box 239, prone respect box 239a table, during the fall of box 239b, an example of a device of the environment, such as a secondary hand train and box 239d of box 239c. ステップ236で判定された運動及び方向に基づいて、環境はいくつでも判定されてもよい。 Based on the determined motion and the direction in step 236, the environment may be determined any number. 特定の例では、環境決定は、運動/方向の履歴のような装置の履歴に基づいてもよい。 In a particular example, the environment determination may be based on device history such as movement / direction history. 例えば、セルラ電話のスピーカモード機能を使用する場合、短い鳴音(例えば、テーブルに電話を仰向けに置いているユーザにより引き起こされた短い鳴音)後の呼び出しの最中に水平が検出された場合、装置は静かな期間を検出してよい。 For example, when using the speaker mode function of the cellular phone, short ringing (e.g., a short ringing caused by the user has placed on its back a call to the table) if the horizontal is detected during the call after , the device may detect a quiet period. 電話機は鳴音していることを検出でき、静かに重力に垂直な位置にあることが、鳴音が生じていないことと別の意味を持ってもよい。 Phone can detect that it is ringing, quietly be in a position perpendicular to gravity, may have a meaning and another that sounding has not occurred. かくて環境の決定は装置の動作及び方向並びにその履歴に基づいてもよい。 Determination of environment thus may be based on the operation and direction, as well as its history of the device. 履歴は、装置の以前の運動/方向その他の装置の履歴に関する他の如何なる情報を含んでもよい。 History may include any other information about the history of a previous motion / direction other devices of the apparatus.

ステップ240では、決定された環境が特定の動作(振る舞い)に対応付けられる。 In step 240, the determined environment associated with the particular operation (behavior). 対応付けられた振る舞いは、決定された環境に加えて、ある時点で装置を用いる特定のユーザやある時点で使用中の又は着目する特定のアプリケーションに関する所望の特性のような、いくつの要因に依存してもよい。 Behavior associated, in addition to the determined environment, such as the desired properties for a particular application or the focused in use by a particular user or a certain time of use of the device at some point, depending on a number of factors it may be. 例えば、特定のモデル化された環境に従う振る舞いは、ボックス241aの携帯装置のミュート機能を使用可能にすること、ボックス241bの衝突から生き残るように装置のチップの電源を落とすこと、及びボックス241nの装置のモーション起動閾値を増やすこと等を含んでもよい。 For example, the behavior in accordance with certain of the modeled environment, enabling the muting function of the portable device box 241a, powering down of the tip of the device to survive the collision box 241b, and apparatus boxes 241n it like to increase the motion activation threshold value may include. ボックス241に示されるミュート動作は、セルラ電話機の環境が呼び出し中にテーブル上でうつぶせになっていた場合に実行されてもよい。 Muting operation shown in box 241, it may be executed when the cellular telephone environment had become prone on the table during the call. ボックス241bのチップ電源遮断動作は、携帯装置10の環境が装置の自由落下を示す場合に行われてよい。 Chip power-off operation in box 241b, the environment of the portable device 10 may be performed to indicate free fall of the device. ボックス241nのモーション起動閾値を増やす動作は、携帯装置の環境が車両や列車内にあり、ユーザのモーション入力を意図される入力として記録するためにより大きな運動閾値が必要とされる場合に行われてよい。 Operation to increase the motion start threshold in box 241n is located environment of the portable device in the vehicle or train, it is performed when a large motor threshold are needed to record as an input the intended motion input by the user good. 特定の実施例は、1以上のモデル化された環境に対応付けられる振る舞いをいくつでも含んでよい。 Particular embodiments may include behavior that is associated with one or more modeled environment any number. ステップ242では、携帯装置が、ステップ240で環境が対応付けられた振る舞いに従って動作する。 In step 242, the mobile device operates in accordance with the behavior of the environment are correlated in step 240.

上述したように、ユーザは特定のジェスチャーに従って携帯装置を動かし、装置が所望の機能、動作又はタスクを実行するよう促す。 As described above, the user moves the portable device according to a specific gesture, prompts device to perform a desired function, operation or task. 特定の実施例では、装置のモーション入力として使用されるジェスチャーは、アルファベット文字、象徴的な絵又は他の如何なる英数字、絵文字又は表現物のような前もって用意しているシンボルで構成されてよい。 In certain embodiments, the gesture that is used as motion input devices, alphabetic characters, iconic picture or any other alphanumeric may be configured in advance prepared to have a symbol such as pictograms or representations thereof. 例えば、モーション入力に使用されるジェスチャーは、何らかの言語でアルファベットの上側及び下側、アラビア数字、ローマ数字及び簡略記号をまねてもよい。 For example, the gesture used for motion input, the upper and lower alphabet in any language, Arabic numerals may imitate the Roman numerals and mnemonic. 事前のジェスチャーは、他のローカルの及びリモートの装置に対しても携帯入力装置用に使用されてよい。 Pre gestures may be used for portable input device for other local and remote devices. 携帯装置入力に事前のジェスチャーを利用することは、ジェスチャーモーションインターフェースに関してユーザがプロセスを学習することを促す。 Taking advantage of the pre-of gesture to a mobile device input prompts the user to learn the process with respect to gesture motion interface.

図17は特定の機能に対応付けられるジェスチャー例を示す。 Figure 17 shows a gesture example associated with the specific function. 例えば、携帯装置10がセルラ電話を構成する場合、ユーザは装置10をハート型に動かし(250)、そのユーザのガールフレンド、ボーイフレンド又は配偶者を呼び出してもよいし、家の形に動かし(252)、ユーザの家に電話してもよい。 For example, when the portable device 10 constitute a cellular phone, the user moves the device 10 to the heart-shaped (250), the user of the girlfriend, may be calling a boyfriend or spouse, moving in the shape of a house ( 252), may be the phone to the user's home. 他の例では、携帯装置が、ファイル又はデータを管理するアプリケーションを実行するPDAその他の装置を構成する場合、Cの形のジェスチャー(254)で装置を動かすことは、データをコピーするコマンドでもよいし、Oの形のジェスチャー(256)はファイルを開くコマンドでもよいし、Dの形のジェスチャー(258)はデータを削除するコマンドでもよいし、Xの形のジェスチャー(260)はファイル又はアプリケーションを終了するコマンドでもよい。 In another example, the portable device, to configure the PDA other devices executing an application for managing files or data, moving the device in the gesture in the form of C (254) may be a command to copy the data and gestures in the form of O (256) is may be a command to open a file, gestures in the form of D (258) is may be a command to delete data, gesture in the form of X (260) is a file or application it may be a command to quit. ジェスチャーとそれらに意図される機能又は動作との間の論理的な関係(例えば、“O”とファイルを開くこと(open)との関係)は、ユーザのやりとり及び学習を更に促す。 Gestures and logical relationships between the functions or operations are intended to them (e.g., the relationship between "O" and open the file with (open)) further encourage interaction and learning of the user.

先在するシンボルはいくつでも、携帯装置の機能、動作又はタスクのいくつでもそれを実行するコマンドと同様にモーション入力のジェスチャーに使用されてよい。 Symbols preexisting Any number, function of the mobile device, may be used for gestures Similarly motion input a command to perform any number of its operation or task. 概して2次元では多くのジェスチャーが先在している。 Generally the two-dimensional many gestures are preexisting. 携帯装置はそのようなジェスチャーを認識してもよい。 The portable device may recognize such a gesture. 場合によっては、例えば、携帯装置10は特定の次元に関する受信をディセーブルにし、ユーザが2次元ジェスチャーを入力しようとしている場合に、3次元中の何らかの動きが受信されないように又は消去されるようにし、その2次元ジェスチャーの認識を促してもよい。 In some cases, for example, the portable device 10 is received for a particular dimension disabled, so the user when trying to enter a two-dimensional gesture, any movement in three dimensions is or erased as not received it may prompt the recognition of the two-dimensional gesture. 場合によっては、携帯装置10は、先在する2次元ジェスチャーに基づく3次元ジェスチャーを受信してもよい。 Optionally, portable device 10 may receive a 3D gesture based on 2-dimensional gesture preexisting. 3次元ジェスチャーを受信及び検出することは、例えば、モーション入力として使用されるジェスチャーの数及びタイプを増やすことによって、装置の性能を高める。 Receiving and detecting a three-dimensional gesture, for example, by increasing the number and types of gestures that are used as motion input, enhance the performance of the device.

図18は先在するシンボルジェスチャー(文字“O”)をモーション入力とする利用例を示すフローチャートである。 Figure 18 is a flow chart showing an example of usage of the symbol gesture (character "O") motion input preexisting. ステップ272に示されるように、ユーザは携帯装置を文字“O”の形に動かす。 As shown in step 272, the user moves the mobile device in the form of letter "O". ステップ274では、携帯装置はモーション検出素子から“O”の動きに関する未処理モーションデータを受信し、ステップ276でそのような未処理モーションデータを処理し、装置の実際のモーションを判定する。 In step 274, the mobile device receives the raw motion data relating to the movement of the "O" from the motion detection device, processes such raw motion data at step 276, determines the actual motion of the device. ステップ278では携帯装置10はジェスチャーデータベース280にアクセスし、そのデータベースは、そのモーションとジェスチャー“O”とを対応付けるために、装置により認識可能な複数のジェスチャーを含む。 Step 278 the mobile device 10, it accesses the gesture database 280, the database, in order to associate its motion and gesture "O", including a plurality of gestures that can be recognized by the device. ジェスチャーデータベースの複数のジェスチャーはそれぞれ一連の加速運動により規定されてもよい。 A plurality of gestures gesture database may be defined by respective series of accelerated motion. 装置の実際のモーションは、ジェスチャーデータベースのジェスチャーの1つの一連の加速運動と照合される。 The actual motion of the device are matched to one of a series of accelerated motion gesture gesture database. ステップ282では、携帯装置10は昨日データベース284(又はジェスチャーマッピングデータベース)にアクセスすることでジェスチャー“O”を特定の機能に対応付け、機能データベースは装置で動作する1以上のアプリケーションで実行される複数の機能を含む。 In step 282, associating to the mobile device 10 is a particular feature of the gesture "O" by accessing yesterday database 284 (or gesture mapping database), function database is executed in one or more applications running on devices plurality including the function. 特定の実施例では、ジェスチャー及び機能データベースは装置のメモリ18内で構成されてもよい。 In certain embodiments, the gesture and function database may be constructed in the memory 18 of the device. ジェスチャー“O”に対応付けられた特定の機能は、その時点でユーザにより使用されている又は着目する特定のアプリケーションに依存してもよい。 Gesture "O" specific function associated with may depend on the particular application for which or interest is used by the user at that time. 例えば、或るアプリケーションでは“O”はファイルを開くコマンドを構成するが、別のアプリケーションでは或る番号を呼び出すコマンドを構成してもよい。 For example, although the "O" some applications constitutes a command to open a file may constitute the command to invoke a certain number in another application. 場合によっては、1つのジェスチャーが装置の全てのアプリケーションに対して同じ機能に対応付けられてもよい。 In some cases, a single gesture may be associated with the same functionality for all applications of the device. ステップ286では、ファイルを開くことのような対応付けられた機能に従って装置が動作する。 In step 286, device operates according to the corresponding Tagged functions such as opening a file.

上述したように、携帯装置10でモーション入力に使用されるジェスチャーは、使用している又は着目している特定のアプリケーション、アプリケーションに関する特定の装置状態、或いは特定のモデル化された環境又はそれらの任意の組み合わせ若しくは他の任意のコンテキストのような特定の状況に基づいて異なる意味(例えば、機能、動作、タスク等)を持っていてもよい。 As described above, the gesture used in the motion input by the portable device 10, the particular application that is from or interest using a specific device status related applications, or particular modeled environment or any any different meanings based on the particular circumstances, such as context combinations or other (e.g., function, operation, task, etc.) may have a. 例えば、特定のジェスチャーは、装置でウェブブラウザが動作している場合に、ページをスクロールアップするコマンドとして関連付けてもよいし、カレンダープログラムが動作している場合に、そのジェスチャーは別の日を調べるコマンドとして対応付けられてもよい。 For example, a particular gesture, if the web browser is running on the device, may be associated as a command to scroll up the page, if the calendar program is running, the gesture is examining another day it may be associated as a command. 使用するアプリケーションのような、状況に依存して異なるコマンドに特定のジェスチャーを対応付ける機能は、装置の機能性を大きく向上させる。 Ability to associate a particular gesture, the different commands depending on the situation as an application to be used, significantly improve the functionality of the device.

或る実施例では、ジェスチャーが状況に依存して異なるコマンドにマッピングされるならば、携帯装置は、より簡易なモーション検出素子を利用することができる。 In some embodiments, if the gesture is mapped to a different command depending on the situation, the mobile device can utilize a simpler motion detection device. 一例として、携帯装置は特定のモーション検出素子を含み、携帯装置が20個の異なるジェスチャーを認識及び区別することしかできないようにしてもよい。 As an example, the portable device includes a specific motion detection device, the portable device may not only be able to recognize and distinguish between 20 different gestures. 各ジェスチャーが4つの異なるアプリケーションの各々について異なる機能に対応付けられる場合、20個の固有のジェスチャーしか認識できない能力でも、その装置に関して80個もの異なる機能(アプリケーション毎に20個ずつ)を用意できる。 If each gesture is associated with a different function for each of the four different applications, even in 20-specific gesture can only cognitive ability, can provide a 80 of different functions for that device (20 each of each application). 各ジェスチャーが自身の機能に関連付けられていた場合は、着目しているアプリケーションが何であろうと;装置全体の能力は低減され、いくつかのジェスチャーは何らかのアプリケーションで使用されにくくなるかもしれない。 If the gesture is associated with its own function, whatever the application of interest is; ability of the entire device is reduced, some gestures may become difficult to use in some applications. 複雑な素子をより少なく利用する能力は、状況に応じてジェスチャーを複数の機能に対応付ける結果、より少ないジェスチャーの間で認識及び区別を行うことができ、その能力は装置で使用される素子のコストを減らす恩恵をもたらし、装置を制御するのに必要なジェスチャーを物理的に学習するタスクを簡易化することもできる。 The ability to less use of complicated devices, as a result of associating a gesture to a plurality of functions depending on the situation, it is possible to carry out the recognition and distinguishing between less gesture, the cost of the device that ability to be used in the apparatus It benefited reduce, it is also possible to simplify the task of physically learning the gesture required to control the device. 上述したように、ジェスチャーは、使用中のアプリケーションに、装置の状態に、モデル化した環境に又は他の状況に依存して異なる機能に、動作に又はタスクに対応付けられてよい。 As mentioned above, gesture, the application in use, the state of the apparatus, the different functions depending on the modeling environment, or other circumstances, may correspond to the operation or task. 場合によっては、ジェスチャーは特定のアプリケーションの状態に依存して異なる機能に対応付けられる。 Optionally, the gesture is associated with different functions depending on the state of a particular application. 例えば、ワードプロセシングプログラムの場合に、或るジェスチャーはプログラムのある状態(例えば、メニュー状態)で或る機能を有するが、ワードプロセシングプログラムの別の状態(例えば、書類編集状態)では同じジェスチャーが異なる機能を有してもよい。 For example, in the case of a word processing program, the state some gestures of a program (e.g., a menu state) have a certain function in a different state of word processing program (e.g., documents editing state) are different in the same gestures function may have. この場合、ジェスチャー機能の対応関係に関連するコマンドマップは、そのような状態毎のジェスチャーマッピングを含んでいてもよい。 In this case, the command map associated with correspondence between the gesture function may include a gesture mapping for each such condition.

図19は特定の実施例によるコンテキストベースのジェスチャーマッピングを利用するフローチャート290である。 Figure 19 is a flow chart 290 that utilizes context-based gesture mapping according to a particular embodiment. 図示の例では、或るジェスチャーは着目するアプリケーションに基づいて決められる様々な機能を有する。 In the illustrated example, one gesture has a variety of functions that are determined based on the focused application. ステップ292では、携帯装置10は、特定のジェスチャー運動の未処理モーションデータを受信し、装置の実際のモーションを決めるようにステップ294でそのような未処理データを処理する。 In step 292, the portable device 10 receives the raw motion data of a particular gesture motion, processing such raw data in step 294 to determine the actual motion of the device. ステップ296では、携帯装置10は例えばジェスチャーデータベースにアクセスすることでモーションをジェスチャーに対応付ける。 In step 296, the portable device 10 associates the gesture motion by accessing, for example, the gesture database. ステップ298では携帯装置10はどのアプリケーションに着目しているかを判定する。 Step 298 the mobile device 10, determines whether the focus on which application. 例えば、装置が4つの異なるアプリケーションを実行することができたとすると、その4つのどれに着目しているか或いはその時点でどれが使用されているかが確認される。 For example, if the device is able to perform four different applications, of which none of four or point thereof which in being focused or being used is confirmed. 装置は、着目しているアプリケーションに従ってそのジェスチャーに関連付けられている機能を実行する。 Device performs the function associated with that gesture in accordance with an application of interest. そのような機能の確認は、或る実施例では機能データベースにアクセスすることで達成されてもよく、そのデータベースはジェスチャーデータベース中のジェスチャーを機能に関連付けるので、ジェスチャーマッピングデータベースと呼ばれてもよい。 The identification of such features may in some embodiments be achieved by accessing the function database, so that database associates gestures in the gesture database functions may be called a gesture mapping database. 図示の例では、アプリケーション1に着目していたならば、ステップ300aで機能1を装置が実行し;アプリケーション2に着目していたならば、ステップ300bで機能2を装置が実行し;アプリケーション3に着目していたならば、ステップ300cで機能3を装置が実行し;そしてアプリケーション4に着目していたならば、ステップ300dで機能4を装置が実行する。 In the illustrated example, if has been focused on the application 1, device functionality 1 in step 300a executes; if was focused on the application 2, a functional second device is executed in step 300b; the application 3 if it has been focused, and execution unit functions 3 in step 300c; and if has been focused on the application 4, device functionality 4 at step 300d is executed.

状況依存型のジェスチャーマッピングの更なる例として、電話機能及びPDA機能を備えた携帯装置は4つのアプリケーション(電話アプリケーション、カレンダーアプリケーション、ファイル管理アプリケーション及び電子メールアプリケーション)を実行してよいとする。 As a further example of a gesture mapping situational, the mobile device having a telephone function and PDA features four applications a (telephone application, a calendar application, a file management application and e-mail applications) may perform. 文字“S”をまねるジェスチャー入力は、着目しているアプリケーションに依存して異なる機能を有するかもしれない。 Gesture input to mimic the letter "S" is, may have a different function depending on the application of interest. 例えば、電話アプリケーションに着目していた場合、ジェスチャー入力“S”を受信することは、“S”のジェスチャーに指定された特定の番号を呼び出すコマンドである。 For example, if you have focused on a telephone application, it receives a gesture input "S" is a command to call a specific number designated gesture of "S". カレンダーアプリケーションに着目していた場合、ジェスチャー入力“S”を受信することは、カレンダーの9月にスクロールするコマンドである。 If you have been paying attention to the calendar application, to receive a gesture input "S" is a command to scroll in September of the calendar. ファイル管理アプリケーションに着目していた場合、ジェスチャー入力“S”を受信することは、ファイルを保存するコマンドである。 If you have been paying attention to the file management application, to receive a gesture input "S" is a command to save the file. 電子メールアプリケーションに着目していた場合、ジェスチャー入力“S”を受信することは、電子メールを送信するコマンドである。 If you have been paying attention to the e-mail application, to receive a gesture input "S" is a command to send an e-mail. 特定の実施例は、状況に依存する様々な機能にジェスチャーを対応付ける能力に関して高い柔軟性をもたらす。 Particular embodiments provide high flexibility with respect to the ability to associate gestures to the various features that depend on the situation.

上述したように、ある時点での特定の状況に依存してジェスチャーは様々な機能を有してよい。 As described above, the gesture depending on the specific situation at some point may have a variety of functions. 特定の実施例では、予め定めたジェスチャーに装置の機能をユーザが割り当てることを許容するように携帯装置が仕立てられる(カスタマイズされる)。 In certain embodiments, the portable device (customized) is tailored to permit the user to assign the function of the device to a predetermined gesture. 使用中のアプリケーションに、装置の状態に又はモデル化された環境に依存して異なる機能をジェスチャーが有するように、その機能は状況依存性である。 The application in use, the depending on the state of the device or modeled environment different functions to have gestures, their functions are context-dependent. 特定の実施例における携帯装置は、同じ装置の様々なユーザが、様々な機能を同じジェスチャーに割り当てることを許容してもよく、そのような機能も上述の状況依存型である。 Portable device in a specific embodiment, the various users of the same device may be allowed to allocate various functions to the same gesture, such functions are also context-sensitive above.

例えば、携帯装置10は様々な時点で多くの様々なユーザにより使用されるかもしれない。 For example, the mobile device 10 might be used by many different users at different times. 各ユーザは同じジェスチャーについて異なる機能を割り当てるかもしれない。 Each user may assign different functions for the same gesture. 携帯装置がジェスチャー入力を受信する場合、ユーザが装置に実行するよう求める機能を確認するために、その時点でどのユーザがその装置を使用しているかを知る必要がある。 If the portable apparatus receives the gesture input, in order to confirm the function of asking the user to run the unit, it is necessary to know which user at that point using that device. 装置は様々な如何なる手法でユーザを確認してもよい。 Device may check the user in a variety of any technique. 或る実施例では、ユーザはユーザ名及びパスワードを用いて又はそれ以外の方法で使用前に装置にログインするかもしれない。 In some embodiments, a user may log into the system before use in or otherwise using the user name and password. 他の実施例では、携帯装置は或る手法(装置を用いてユーザがジェスチャーをなすように、ユーザがモーション入力用に装置を動かす手法)に基づいてユーザを確認できるかもしれない。 In another embodiment, (so that the user makes a gesture using the apparatus, method the user moves the device for motion input) mobile device certain techniques may be able to verify the user based on. 上述したように、各ユーザは、装置で着目するアプリケーションに基づくように、状況に依存してコマンドをジェスチャーに割り当ててもよい。 As described above, each user, to be based on the application of interest in the apparatus, it may be assigned a command gesture depending on the context. 特定のユーザに基づいて機能をジェスチャーに対応付ける携帯装置の機能は、装置の性能及び柔軟性を高め、このことは装置が特定数のジェスチャーしか認識及び区別できない場合に特に有利である。 Function of the mobile device to be associated with the gesture functions based on a specific user, enhance the performance and flexibility of the apparatus, which is particularly advantageous if the device can only recognize and distinguish a certain number of gestures.

図20は特定の実施例によるユーザベースのジェスチャーマッピングを利用するフローチャート310を示す。 Figure 20 shows a flowchart 310 for using a user-based gesture mapping according to a particular embodiment. 図示の例では、ジェスチャーは装置を用いるユーザに基づいて割り当てられる様々な機能を有する。 In the illustrated example, the gesture has various functions assigned based on the user using the apparatus. ステップ312では、携帯装置10が特定のジェスチャー運動の未処理モーションデータを受信し、ステップ314でそのような未処理モーションデータを処理し、装置の実際のモーションを判定する。 In step 312, the portable device 10 receives the raw motion data of a particular gesture motion, and process such raw motion data at step 314, determines the actual motion of the device. ステップ316では、携帯装置10は例えばジェスチャーデータベースにアクセスすることでモーションをジェスチャーに対応付ける。 In step 316, the portable device 10 associates the gesture motion by accessing, for example, the gesture database. ステップ318では携帯装置10はどのユーザがその装置を利用しているかを確認する。 Portable device 10 in step 318 which the user confirms whether the utilizing the device. そのような確認は例えばシステムの履歴(ユーザが使用前に装置にログインした履歴)を通じて行われてよい。 Such confirmation may be performed through example system history (history of user logs into device prior to use). 携帯装置10は更に他の適切な方法を通じて現在のユーザを判定してもよい。 Mobile device 10 may determine the current user through still other suitable methods. ステップ320では、その装置を利用しているユーザに基づいて、装置はジェスチャー入力に割り当てられている機能を実行する。 In step 320, based on the user using the device, the device executes a function assigned to the gesture input. 4つのユーザの可能性があるプロセスを記述する図示の例では、ユーザ1が装置を利用していたならば、ステップ320aで装置は機能1を実行し;ユーザ2が装置を利用していたならば、ステップ320bで装置は機能2を実行し;ユーザ3が装置を利用していたならば、ステップ320cで装置は機能3を実行し;ユーザ4が装置を利用していたならば、ステップ320dで装置は機能4を実行する。 In four examples of possible illustration describing a process where there is a user, if the user 1 have utilized device, device in step 320a performs the function 1; if user 2 have utilized devices if, apparatus in step 320b performs the function 2; if the user 3 have utilized devices, apparatus in step 320c performs the function 3; if user 4 have utilized devices, step 320d in device performs the function 4.

上述したように、或る実施例では、装置を使用しているユーザ及び状況の双方に基づいてジェスチャーは様々な機能に割り当てられてよい。 As described above, in some embodiments, the gesture on the basis of both the user and situation using device may be assigned a variety of functions. この状況では、上述で説明されたフローチャート310は、その時点での状況(コンテクスト)を判定する追加のステップを有してもよい(例えば、フローチャート290のステップ298は着目しているアプリケーションを確認する。)。 In this condition, the flowchart 310 described in above, may have an additional step of determining the status (context) at that time (e.g., step 298 of flowchart 290 confirms the application in question .). 所定のジェスチャーにより実行するよう望まれる特定の機能は、その時点で装置を使用しているユーザ及びその状況(例えば、その時点で着目している特定のアプリケーション等)の双方に依存する。 Particular function desired to execute the predetermined gesture is dependent on both the user and the situation is using device at that time (for example, a particular application, such as of interest at that time).

以前に説明されたように、或る実施例はモーション入力用のジェスチャーとして先在するシンボルを受信する機能を備えた携帯装置を有する。 As explained previously, one embodiment includes a portable apparatus having a function of receiving a symbol preexisting as a gesture for motion input. そのような実施例に加えて他の実施例は、ユーザについて、機能及び/又はキーにマッピングするそれら自身のジェスチャーを作成する能力を備えてもよい。 Other embodiments In addition to such embodiment, the user may be provided with the ability to create a gesture their own mapping function and / or key. そのジェスチャーは、ユーザの作成したシンボルその他の運動の如何なるもので構成されてもよく、装置が実行できる1以上の特定の機能、動作又はタスクに関し、ユーザがモーション入力として使用することを希望するものである。 Its gesture may be configured in any of the user created symbols other motor, device one or more specific functions that can be performed relates to operations or tasks, that the user wishes to use as a motion input it is. ユーザは何らかの個人的な意味を有する動き(モーション)を作成し、ユーザがモーションコマンド又は意図する機能を更に覚えやすくすることができる。 The user can some personal meaning to create a movement (motion) with the user to easily further remember the function of the motion command or intention.

図21はユーザの作成したジェスチャーに対する割当プロセスを示す特定の実施例によるフローチャート330である。 Figure 21 is a flow chart 330 according to the particular embodiment illustrated the allocation process for a gesture that created the user. ステップ332では、ジェスチャーの作成に関する指示がユーザから受信される。 In step 332, an instruction for creating a gesture is received from a user. その指示は(例えば、キー、トラックボール、モーション等のような)適切な入力フォーマットのどれを使用してもよく様々な手法のどれで受信されてもよい。 Its indication which of (e.g., key, trackball, such motion, etc.) suitable input format may be received by any well various techniques be used. ユーザはユーザの作成したジェスチャーに従って装置を動かし、そのユーザの作成したジェスチャーに関する未処理モーションデータがステップ334で携帯装置で受信される。 The user moves the apparatus in accordance with gestures created by the users, raw motion data relating to the gesture that was created for the user is received by the mobile device at step 334. 未処理モーションデータは、装置の安定化後の基準参照位置から位置の記録を中止する指示が受信されるまでの一連の加速度運動で構成されてよい。 Raw motion data may be a series of accelerated motion until an instruction to stop the recording position from the standard reference position after stabilization device is received. ユーザの作成したジェスチャーを記録することの開始及び終了の指示は、動的な指示又は不動の指示(例えば、キー押下及びキーの開放)を含んでよい。 Start and end of an instruction to record the gestures created by the users, dynamic instruction or stationary indication (e.g., release of the key depression and key) may include. 未処理モーションデータはステップ336で処理される。 Raw motion data is processed in step 336. ステップ338では、モーションは例えばジェスチャーデータベースでジェスチャーとして格納される。 In step 338, the motion is stored as gestures gesture database, for example. 特定の実施例では、ジェスチャー生成の指示は、ユーザの作成したジェスチャーに従ってユーザが装置を動かした後に受信されてもよい。 In certain embodiments, an indication of the gesture generation may be received after the user moves the apparatus in accordance with gestures created by the users. 例えば、ユーザはユーザの作成したジェスチャー(現在その装置にとっては認識できない)に従って装置を動かしてもよい。 For example, the user may move the device in accordance with gestures created by the user (not recognized for currently the device). 認識されてないジェスチャーを特定の機能に備えて格納することをユーザが希望するか否かを判定するために、装置はユーザに問い合わせを行う。 To be stored comprises a recognized not gestures to a particular function for the user to determine whether desired device queries the user. ユーザは肯定的に応答し、ユーザはそのジェスチャーを将来のモーション入力に使用可能にしてもよい。 User affirmatively respond, the user may enable the gesture to future motion input.

ステップ340では、ジェスチャーに関する機能マッピング情報がユーザから受信される。 In step 340, functional mapping information for the gesture is received from a user. 機能マッピング情報は、ユーザの作成した命令するジェスチャーに対応することが望まれる装置の機能、動作又はタスクを含んでよい。 Maker information, the function of the device it is desired to correspond to the gesture commands created by the user may include an operation or task. 特定の実施例では、そのような機能マッピング情報は、或るジェスチャーが命令する一連の機能(例えば、マクロ)で構成されてもよい。 In certain embodiments, such functionality mapping information, a set of functions that certain gesture commands (e.g., macro) may be constituted by. ユーザは着目するアプリケーションに応じて様々な機能をジェスチャーに割り当ててもよい。 The user may assign the gesture different functions depending on the focused application. 場合によっては、ユーザは装置の様々なキー又はキーストロークに様々なジェスチャーを対応付けることを望むかもしれない。 Optionally, the user may wish to associate the various gestures to different keys or keystrokes device. 一連の機能をジェスチャーに対応付けることの一例は、長い文字列をジェスチャーに対応付けることを含む(例えば、電話番号が複数のポーズを含む場合)。 One example of associating a series of functions in the gesture involves associating a long string in a gesture (e.g., if a phone number including a plurality of pause). ステップ342では、機能マッピング情報が例えば機能データベースに又はジェスチャーマッピングデータベースに格納される。 In step 342, it is stored in the function mapping information for example the function database or gesture mapping database.

上述したように、ユーザにとって、1以上のジェスチャーに関して、ジェスチャーが入力として使用されるたびに携帯装置10を同じ精度で動かすことは困難かもしれない。 As described above, for the user, with respect to one or more gestures, it may be difficult to move the portable device 10 whenever a gesture is used as input in the same accuracy. 特定の実施例はジェスチャー入力に関する精度を変えることを許容する。 Particular embodiments allow for varying the precision about gesture input. 精度は、装置により認識されたジェスチャーと、装置によりアクセスされたジェスチャーデータベースに含まれているジェスチャーとで一致をなすのにどの程度正確にジェスチャーが実行されなければならないかを規定する。 Accuracy defines the gesture recognized by the device, or must how accurately the gesture is performed to form a match between gestures that are included in the access gesture database by the apparatus. ユーザの生成したモーションがジェスチャーデータベース中のジェスチャーに近接することを必要とすればするほど、そのようなジェスチャーモーションを成功裏に実行することが困難になる。 More motion generated users to be required to close the gesture in the gesture database, it is difficult to perform such a gesture motion successfully. 上述したように、特定の実施例では、検出された運動の一連の加速度とジェスチャーデータベース中のジェスチャーのものとを照合することで、運動がジェスチャーデータベースのジェスチャーと照合される。 As described above, in certain embodiments, by matching those of the gesture in a series of acceleration and gesture database of detected motion, the motion is matched with the gesture of the gesture database.

認識に必要なジェスチャーの精度が高まるにつれて、別意に認識可能なジェスチャーを(同程度の煩雑さで)より多く有するかもしれない。 As increasing the accuracy of the gesture required for recognition, it may have more than a recognizable gesture to another meaning (at comparable complexity). 一例として、必要とされる精度がゼロであった場合、装置は単独のジェスチャーしか認識できないが、それを簡易に認識するであろう。 As an example, if the required accuracy is zero, the device is not only able to recognize a single gesture, will recognize it easily. なぜならユーザの行ったものは何でもそのジェスチャーとして認識されるからである。 Because those made by the user since recognized as anything that gesture. しかしながら、必要とされる精度が無限大であったならば、それはジェスチャーを形成するユーザにとって仮想的で不可能であるが、そのジェスチャーは装置によって認識され、その装置は、無数のジェスチャーをほんの極微量の違いでそれらを見分けながらサポートできる。 However, if the required accuracy was infinite, but it is impossible a virtual for the user to form the gesture, the gesture is recognized by the device, the device just pole countless gestures while distinguish them in a small amount of the difference it can be supported. 精度の条件が特別に適用される分野の1つは、空間署名の分野である。 One area where the accuracy requirements are particularly applicable is in the field of spatial signatures. 空間署名では、精度レベルはセキュリティレベルに大きく関係するからである。 In the spatial signature, because the accuracy level is largely related to the security level.

特定の実施例では、ジェスチャー入力に関して携帯装置10に必要とされる精度は変化させられてよい。 In certain embodiments, the accuracy required for the portable device 10 with respect to the gesture input may be varied. 異なる精度レベルは、異なるユーザ、「ジェスチャー空間」の異なる領域(例えば、似たようなジェスチャーは認識するのに高い精度で実行することを要するが、非常に独創的なジェスチャーは実行の際に同程度に多くの精度を要しないかもしれない。)、署名のような様々な個々のジェスチャー、及び或るジェスチャーに対応付けられる様々な機能(例えば、より重要な機能は、認識されるそれら各自のジェスチャー入力に関して、より高い精度を要するかもしれない。)に必要とされるかもしれない。 Different accuracy levels, different users, different regions of "gesture space" (e.g., although gesture similar required to run at high accuracy to recognize a very unique gestures same to run may not require a lot of precision degree.), the various individual, such as a signature gestures, and various functions associated with the certain gesture (e.g., more important functions, recognized each of them respect gesture input may be required to may require a higher accuracy.). 更に、或る実施例では、ユーザは、1以上のジェスチャー空間中のジェスチャー又は全部又は一部のジェスチャーについて必要な精度レベルを設定できてもよい。 Further, in some embodiments, the user may be set the accuracy level required for gesture or all or part of a gesture in one or more gestures space. 一例として、ユーザは、空間署名に関して要求される精度を、そのユーザの他のジェスチャーに関するものより高く設定し、空間署名入力のセキュリティを高めてもよい。 As an example, the user, the precision required with respect to the spatial signature, is set higher than that for other gestures of the user may increase the security of the spatial signature input.

上述したように、特定の実施例では、意図されるジェスチャーに従って装置がユーザにより或る経路に沿って動かされる場合に、ジェスチャーは装置の一連の加速度を検出することで認識されてよい。 As described above, in certain embodiments, when the device is moved along a certain path by the user in accordance with gesture to be intended, the gesture may be recognized by detecting the series of acceleration of the device. ジェスチャーデータベース中のジェスチャーに対して、装置により照合された一連の加速度が一致した場合に、認識がなされる。 Relative gesture in the gesture database, when the series of acceleration is verified by the device matches, recognition is made.

或る実施例では、携帯装置10で認識可能な各ジェスチャー又はジェスチャーデータベース中の各ジェスチャーは、3次元座標の行列を含んでもよい。 In some embodiments, the gesture of the gesture or in the gesture database that can be recognized by the mobile device 10 may include a matrix of three-dimensional coordinates. 更に、ジェスチャー入力として意図されるユーザの動きは、3次元座標の行列を含んでよい。 In addition, the user motion to be intended as a gesture input may comprise a matrix of three-dimensional coordinates. 携帯装置10は、その運動の行列を認識可能なジェスチャー(ジェスチャーデータベース中の各ジェスチャー)の各行列と比較し、意図されるジェスチャーを判定してもよい。 Portable device 10 compares the matrix of the movement and each matrix recognizable gestures (each gesture in the gesture database), it may be determined gesture intended. 運動の行列が意図されるジェスチャーの行列の各地点(座標)と関連するようにユーザが装置を動かすならば、ユーザは、完全な精度で意図されるジェスチャーを入力するように考えられる。 If the user to be associated with each point of the matrix gestures matrix of motion is intended (coordinates) moves the device, the user is considered to enter the gesture intended by the full precision. ジェスチャー入力に必要な精度が少なくなると、ユーザのジェスチャーの運動とジェスチャー認識用のジェスチャーデータベース中の意図されるジェスチャーとの間の許容可能な差分が大きくなる。 When less precision required for gesture input, allowable difference between the intended gestures in the gesture database for motion and gesture recognition of the user's gesture is increased.

図22は精度レベルを変える携帯装置を利用する3つのジェスチャー入力を示す。 Figure 22 shows three gesture input utilizing portable device to change the level of precision. 図示の例では、意図されるジェスチャーは“O”を構成する。 In the illustrated example, the gesture is intended to constitute a "O". ジェスチャー運動350は完全な“O”、即ち意図されるジェスチャーに対して100%の精度としての入力である。 Gesture movement 350 is input as a full "O", i.e., 100% precision for the intended gesture. ジェスチャー運動352は、完全な“O”を形成しない場合であり、100%より低い精度の入力である。 Gesture motion 352 is a case of not forming a complete "O", which is the input of less than 100% accurate. ジェスチャー354はジェスチャー運動352より低い精度の入力である。 Gesture 354 is an input lower than the gesture motion 352 accuracy. ジェスチャー“O”の入力に対する精度条件は、精度レベルの変更を受け入れる携帯装置で設定される。 Accuracy requirements for the input gesture "O" is set by the mobile device that accepts change level of accuracy. ジェスチャー運動350だけがジェスチャー“O”として認識されるように、ジェスチャー運動350及び352双方がジェスチャー“O”として認識されるように、又はジェスチャー運動350,352,354全てがジェスチャー“O”として認識されるように、精度レベルが設定されてよい。 As only the gesture motion 350 is recognized as a gesture "O" recognition, as the gesture motion 350 and 352 both are recognized as the gesture "O", or a gesture motion 350, 352, 354 all the gesture "O" as is, the accuracy level may be set. 上述したように、精度条件を高くすると、追加的な認識可能なジェスチャーに利用可能な空間が増える。 As described above, the higher the accuracy requirements, space available increases to additional recognizable gestures. 例えば、例えば、携帯装置10の精度レベルが、ジェスチャー運動350だけがジェスチャー“O”として認識されるように設定されていたならば、ジェスチャー運動352,354は別個のジェスチャーとして認識されてよい。 For example, for example, the accuracy level of the portable device 10 is, if only the gesture motion 350 is set to be recognized as a gesture "O", the gesture motion 352 and 354 may be recognized as a separate gesture.

特定の実施例では、携帯装置はユーザの個人的な正確さに基づいて、特定の機能を実行するために認識されるジェスチャーを変えてよい。 In certain embodiments, the portable device based on personal accuracy of the user may change the gesture is recognized to perform a specific function. このようにして、携帯装置はジェスチャーマッピングの動的な学習機能を有する。 In this way, the portable device has a dynamic learning function gesture mapping. 例えば、ジェスチャーデータベース中の特定のジェスチャーが特定の機能に対応付けられ、そのジェスチャーを入力するためのユーザの反復的な試みが一貫した方法では精度不足であった場合に、携帯装置はジェスチャーデータベース中のジェスチャーを、そのユーザの矛盾してないジェスチャー運動に変え、ユーザの首尾一貫したジェスチャー入力が特定の機能に対応付けられるようにしてもよい。 For example, certain gestures in the gesture database associated with a particular function, if repetitive attempts of the user for inputting the gesture was insufficient accuracy in a consistent manner, the portable device is in the gesture database of gestures, changed to the gesture motion is not consistent for the user, may be consistent gesture input of the user is associated with a particular function.

一例として、或る特定のジェスチャーが四角い運動で構成され、そのジェスチャーについて行われたユーザのモーションが一貫して(例えば、複数の連続的な回数で)三角の運動を何度も行っていた場合、携帯装置は意図されるジェスチャーと実際のユーザの運動とのその一貫した相違を認識し、望まれる機能に対応するジェスチャーデータベース中の意図されるジェスチャーを、ユーザの実際の一貫した動き(例えば、三角運動)に変える。 As an example, when the configuration in square motion certain gestures, and user motion is consistent performed for the gesture (e.g., a plurality of consecutive number of times) was also subjected to motion of the triangle again , mobile device recognizes the consistent differences between the motion of the actual user and gesture intended, the intended gestures in the gesture database corresponding to the desired function, the actual consistent movement of a user (e.g., change in a triangular motion). かくてそのような変更がなされた後は、ユーザが三角のジェスチャーを入力する時はいつでも、以前に四角のジェスチャーに対応付けられた機能が命令される。 After such changes have been made thus whenever the user inputs gestures triangular, functions associated with the square gesture is commanded previously. 装置は、如何なる入力形式でもそれを介して例えばユーザとの双方向通信により、様々な如何なる手法で意図されるジェスチャーを決定してもよい。 Apparatus, the two-way communication with the also through it at any input format for example, the user may determine a gesture intended by various any way. 特定の実施例では、このようにユーザ入力の特徴を動的に学習することがユーザ固有に適用されてよい。 In certain embodiments, the thus dynamically learn the characteristics of a user type may be applied to a user-specific. 例えば上述の例で、別のユーザは同じ携帯装置を用いて同じ機能を命令するのに四角いジェスチャーを依然として入力してもよい。 For example, in the above example, another user may still enter the square gesture to command the same function with the same mobile device.

上述したように、意図されるジェスチャーに関するユーザ運動の精度が高いと、機能に対応付けるのに利用可能なジェスチャー数が増える。 As described above, when the accuracy of user motion about the gesture is intended gesture number of available increases to associate the function. 或る実施例では、携帯装置は、ユーザの正確さが時と共に高まることを認識し、その結果その装置は利用可能なジェスチャーを増やしてもよい。 In some embodiments, the mobile device recognizes that the accuracy of the user is increased over time, so that the apparatus may be increased available gestures. 入力に利用可能なジェスチャーを増やすことは、ジェスチャー入力を通じて通信可能な機能も増進させるかもしれない。 Increasing the gesture available input might also enhance communicable functionality through gesture input.

一例として、ジェスチャーを入力するためのユーザの個人的な正確さは、携帯装置で認識される所定のジェスチャー数をユーザが入力できることだけにしてよいかもしれない。 As an example, personal accuracy of a user for entering gesture might be only to the user a predetermined gesture number recognized by the mobile device can enter. しかしながら時間がたつにつれてユーザの個人的な正確さは増えるかもしれない。 However it might increase personal correctness of the user over time. この増加は携帯装置で認識されるかもしれないし、その結果その装置は、ジェスチャー入力としてユーザが利用してよいジェスチャーを追加可能にしてよい。 It might This increase is recognized in the mobile device, so that the apparatus, the user as a gesture input may allow additional gestures that may be utilized. 一例では、ジェスチャーを追加可能にすることは、ユーザの精度が或る特定の閾値又は所定の精度レベルを超えて増えた場合になされる。 In one example, allowing additional gestures is performed when the accuracy of the user is increased beyond a certain threshold or predetermined level of accuracy Ru certain. ユーザの精度が増やされるので、ユーザがこれらの追加的なジェスチャーを入力しようとすることを携帯装置は認識することができる。 Since the user of the accuracy is increased, the user can portable device that you try to enter additional gestures of these are recognized. 上述したように、ユーザによる入力に追加的なジェスチャーを用意することは、各ジェスチャーが様々な機能に対応付けられるので、ジェスチャー入力を通じてユーザが指令できる機能数も増やすかもしれない。 As described above, to prepare additional gestures input by the user, since each gesture is associated with the various functions, the user may increase a function number that can issue through gesture input.

特定の実施例では携帯装置は装置のノイズ閾値をユーザが設定すること及び変えることを許容してよい。 Portable device in certain embodiments may allow the and changing setting user noise threshold of the device. ノイズ閾値は、ユーザの意図されるモーション入力とみなすために検出されなければならない装置の運動の大きさである。 Noise threshold is a magnitude of movement of the device must be detected to be regarded as a motion input intended by the user. 例えば、ノイズ閾値が低く設定されていたとすると、装置の最少に小さなモーションでもモーション入力として装置によりみなされるかもしれない。 For example, the noise threshold is assumed to have been set low, may be considered by the device as a motion input even a small motion to a minimum of equipment. しかしながら、ノイズ閾値が高く設定されていたならば、そのユーザにより意図される入力がモーションと考えられるには(それに先だって)より大きな装置の運動が必要とされる。 However, if the noise threshold is set high, the input intended by the user is to be considered a motion is required motion of the larger device than (and prior). 例えばユーザが車ででこぼこ道を走っていたとすると、ユーザはノイズ閾値を高く設定し、道のでこぼこに起因して装置が動いた場合に、そのような動きが意図されるモーション入力として装置に認識されないようにすることを望むかもしれない。 For example, if the user and was running rough road in a car, the user can set a high noise threshold, if the device due to rough road is moved, recognized device as a motion input such movement is contemplated You may wish to not be.

特定の実施例では、ノイズ閾値はモデル化された環境に基づいて装置で自動的に変化してもよい。 In certain embodiments, the noise threshold may be automatically changed by the device based on the modeled environment. 例えばその環境が車での移動中であるように装置が確認した場合、装置はノイズ閾値を自動的に増やし、車に起因する小さな動きがユーザの意図したモーションとして表明されないようにしてもよい。 For example if the environment has confirmed device as is moving in a car, the device automatically increases the noise threshold, small movements due to the car may not be expressed as intended by the user motion.

図23はここで説明される多数の特徴を用いるジェスチャー認識プロセスを示す特定の実施例によるフローチャート370である。 Figure 23 is a flow chart 370 according to a particular embodiment showing a gesture recognition process using a number of features described herein. ステップ372では特定のジェスチャー運動の未処理モーションデータが受信される。 In step 372 the received specific gesture motion of raw motion data. 未処理モーションデータはステップ374で処理され、装置の実際の運動が確認される。 Raw motion data is processed at step 374, the actual movement of the device is verified. そのような処理は複数の検出又は検知素子によるデータに関する様々な選別技法(フィルタリング)及び融合を含んでもよい。 Such processing may include a variety of sorting techniques (filtering) and fusion about the data by a plurality of detection or sensing element. 実際の運動とジェスチャーとの対応付けは、ユーザ設定データベース388にアクセスすることを含んでよく、そのデータベースはユーザデータ(例えば、ユーザの正確さ、ノイズ特性又は閾値、ユーザの作成したジェスチャー、及びその他のユーザ識別子381を含むユー他特定のデータ又は情報より成る)を含んでよい。 Correspondence between the actual movement and gesture may include accessing a user configuration database 388, the database user data (e.g., user accuracy, noise characteristics or threshold, the gesture was created by the user, and other of consisting Yu other specific data or information including a user identifier 381) may include. 例えば携帯装置の様々なユーザは様々な設定及びモーション入力特性を有するので、ユーザ固有の情報は重要である。 For example, since different users of the mobile devices have various settings and motion input characteristics, user-specific information is important. 例えば、年配の人は、ジェスチャー入力時に若い人よりも正確さに欠けるかもしれないので、年配の人はより少ないジェスチャーを利用してもよい。 For example, a person of the elderly, since it may lack in accuracy than the young people at the time of gesture input, older people may utilize fewer gesture. 更に、より熟練した人はジェスチャー入力を通じてより多くの機能を使いこなせるかであろう。 In addition, it will do more skilled people are literate more features through gesture input.

ユーザ設定データベース378は、その時点で利用可能なジェスチャーを決める際の要因である環境モデル情報も含んでよい。 User configuration database 378 may also include environmental model information is a factor in determining the gesture available at the time. 上述したように、環境モデリングを通じて、装置は、ジェスチャー認識でその環境が与える傾向のある影響及び環境を内部的に示すことができる。 As described above, through environmental modeling, the device can indicate the effects and environmental tends to give its environment gesture recognition internally. 例えば、ユーザが列車内にいるとき、装置はノイズ閾レベルを自動的に挙げてもよい。 For example, when the user is in a train, the device may include a noise threshold level automatically. 考察するジェスチャー近傍でジェスチャー空間がどの程度混雑しているかに依存して、装置は要求される精度を減らしてもよい。 Depending on whether the gesture spatial gestures neighborhood of consideration is how crowded, may be reduced precision device is required. 実際のモーションとジェスチャーとの対応付けは、ジェスチャーデータベース382にアクセスすることを含んでもよい。 Correspondence between the actual motion and gesture may include accessing the gesture database 382.

ステップ384では、ジェスチャーが装置の機能に対応付けられる。 In step 384, the gesture is associated with the function of the device. このステップは、ジェスチャー及び機能間の関係(情報)を含む機能マッピングデータベース386にアクセスすることを含んでよい。 This step may include accessing the function mapping database 386 that contains the relationship between gesture and function (information). 異なるユーザは、複数の機能及び異なるユーザの作成した機能にジェスチャーをマッピングする対応関係を有していてもよい。 Different users may have a relationship that maps gestures to a plurality of functions and different users made by function. かくて機能マッピングデータベース386は、特定のジェスチャーを1以上の機能に対応付けるのに適用可能な、ユーザ固有のマッピング命令又は特徴、ユーザの作成した機能(例えば、マクロ及び/又は電話番号)及び他の如何なる機能情報をも含んでよい。 Thus functionally mapping database 386, applicable to associate a particular gesture to one or more functions, user-specific mapping instructions or features, functions created by the user (e.g., macro and / or telephone number) and other it may include any feature information. 或る実施例ではジェスチャーは個々のキーストローク(キー打ち)に対応付けられてもよい。 Gesture in certain embodiments may be associated with the individual keystrokes (keystroke). ユーザの身元(識別子)381もこのステップでアクセスされてよい。 User identity (ID) 381 may also be accessed in this step. 更に、装置の状況(コンテキスト)情報388もアクセスされてよく、そのジェスチャーで使用されてよい。 Further, it may also be accessed situation (context) information 388 of the device may be used in the gesture. 状況情報は、環境モデル情報389、着目しているアプリケーションの情報390及び装置状態情報391(例えば、時間及び日付情報、位置情報、バッテリ状態及びモード情報(例えば、サイレントモード))等を含んでもよい。 Status information, environmental model information 389, focused to have application information 390 and device status information 391 (e.g., time and date information, location information, battery status and mode information (e.g., silent mode)), or the like . ステップ392では、装置は適切に対応付けられた1以上の機能を実行し、例えば、ステップ392aで機能1を、ステップ392bで機能2を、ステップ392cで機能3を実行してよい。 In step 392, the device performs properly one or more functions associated with, for example, the function 1 in step 392a, the function in step 392b 2, may perform the function 3 in step 392c.

上述したように特定の実施例では携帯装置10はここで説明される多くの機能を備えたセルラ電話機を構成してもよい。 The portable device 10 in particular embodiments as described above may constitute a cellular telephone with many functions described herein. 例えば、モーション入力機能を備えたセルラ電話機は上述したようなパターンメニューに対してモーション入力を使用してもよい。 For example, a cellular phone having motion input function may be used motion input to the pattern menu as described above. セルラ電話機は、自由落下中であること、セルラ電話機がうつぶせであること又は仰向けであること等のような装置状態及び環境を検出し、ミュート、スピーカ電話及びパワーオフ等のような動作を対応付けてもよい。 Cellular telephones, it is in free fall, to detect the device status and environment such as it is possible or supine is prone is a cellular telephone, the mute, the operation such as a speaker phone, and power-off association it may be. 装置状態の他の検出法は、その電話機がミュート不使用又はスピーカフォン状態にあることの検出を含んでもよい。 Other detection methods of the device status may include detecting that the phone is muted unused or speakerphone state. セルラ電話機は(例えば、身振りによる素早いダイヤルにより)ダイヤルを制御し又は装置のキーパッドをロック/アンロックしてもよい。 Cellular telephones (e.g., the quick dial by gesture) may lock / unlock the keypad controls the dial or device. 例えば、家に電話するために時計回りに、職場に電話するのに反時計回りに及び大切な人に電話するのにハート型に装置が動かされてもよい。 For example, in a clockwise direction in order to call home, heart-shaped to the device may be moved to the phone to people in a counter-clockwise and important to the phone in the workplace. ユーザはカスタマイズされたジェスチャーのマッピングに対してセルラ電話機をプログラムしてもよい。 User may program the cellular telephone against mapping customized gesture.

特定の実施例では、携帯装置10はディジタルカメラを構成し、ここで説明された機能の少なくともいくつかに対してモーション入力を使用する。 In certain embodiments, the portable device 10 constitute a digital camera, using the motion input for at least some of the functions described herein. 例えば、モーション入力機能を備えたディジタルカメラは上述したようなメニューを平坦化するためにモーション入力を用いてよい。 For example, a digital camera may use the motion input to planarize menu as described above having a motion input function. モーションは、ユーザが静止画又は動画を拡大(及び縮小)し、より円滑でより直感的な機能でより詳しく調べるために使用されてもよい。 Motion user still or expanded video to (and reduced), it may be used to investigate in more detail in a more intuitive features more smoothly. モーションは写真又は映像クリップの多数のサムネイルをズームイン及びズームアウトするのに使用され、1以上の検討するものを選びやすくしてもよい。 Motion is used to zoom in and out a number of thumbnail pictures or video clips may easily choose the one to consider one or more. 仮想的なデスクトップは、カメラを並進させることで又はジェスチャー入力を使用することで、多くのディジタル写真やビデオクリップをレビューするために、或いは多くのディジタル写真やビデオクリップの多数のサムネイルをレビューするのに使用されてもよい。 Virtual desktop, the use of the or gesture input that translating the camera, in order to review a number of digital pictures and video clips, or to review a number of thumbnail many digital photos and video clips it may be used. フラッシュ設定、焦点タイプ及び光検出モード等のような、ディジタル静止画及び動画カメラの様々な設定を変更するように、ジェスチャー及び単独のモーションが、他のインターフェース機構と組み合わせて又は単独で使用されてもよい。 Flash setting, such as focus type and light detection mode, to change the various settings of the digital still image and a moving camera, gestures and single motion, is used in combination with other interface mechanism or alone it may be. 更に、自由落下が検出され、差し迫った衝突によるダメージから何らかの手法でカメラ自身を保護するように誘導してもよい。 Moreover, free fall is detected, may be induced to protect the camera itself by some method from damage due to impending collision. そのような保護はカメラの全部又は一部の電源を落とすこと、レンズカバーを閉じること及びレンズを引っ込めること等を含んでよい。 Such protection powering down of all or part of the camera, may include such retracting the closing and lens of the lens cover.

特定の実施例では、携帯装置10はディジタル腕時計を構成し、ここで説明された機能の少なくともいくつかに対するモーション入力を利用してもよい。 In certain embodiments, the portable device 10 constitute a digital wrist watch, may be used motion input for at least some of the functions described herein. 例えば、モーション入力機能を備えたディジタル腕時計は、上述したメニューを平坦化するためにモーション入力を利用してもよい。 For example, a digital watch with a motion input function may utilize motion input to planarize menu described above. 或る実施例では、腕時計を軽くたたくこと(タッピング)又は特定のジェスチャーが腕時計をサイレントモードにするのに使用されてもよい。 In some embodiments, tapping the watch (tapping) or specific gesture may be used to watch the silent mode. タップ、回転、並進及び他のより複雑なジェスチャーを通じて他の機能がアクセスされてもよい。 Tap, rotation, other functions may be accessed through translation and other more complex gestures. これらの機能は、時間帯を変更すること、腕時計を設定すること(例えば、時間を設定すること、他の調整可能な設定を行うこと)、モードを変更すること(例えば、時間、アラーム、ストップウォッチ等)、バックライトを起動すること、ストップウォッチを使用すること(ストップウォッチを開始、停止及び分割(splitting)等すること)及び他のタイマーを開始したり止めたりすること等を含む。 These features, changing the time zone, setting the watch (e.g., setting the time, to perform the other adjustable settings), changing the mode (e.g., time, alarm, stop Watch, etc.), activating the backlight, using a stopwatch (start the stopwatch, stop and dividing (splitting), and the like to or stop or start the to, etc.) and other timers.

特定の実施例では、モーション検出はディスプレイと別でもよい。 In certain embodiments, motion detection may be separate and display. 例えば、ディスプレイが眼鏡やコンタクトに設けられ、携帯装置の他の部分がユーザの体に分散され、ディスプレイがモーション入力装置又は素子と物理的に同じ要素の一部でないようにしてもよい。 For example, display is provided on the glasses or contact other parts of the mobile device is distributed to the body of the user, may be a display is not part of the motion input device or devices in the same physical element.

上述したように、特定の実施例で行われる様々な方法、フローチャート及びプロセスを特定の図面は示していた。 As described above, various methods are performed in a particular embodiment, the specific drawing flowcharts and process showed. 本発明の範囲から逸脱せずに様々な実施例の中で、ステップは如何なる順序でなされてもよいこと、特定の方法、フローチャート又はプロセス中のステップは他の方法、フローチャート又はプロセスと組み合わせられてよく、或いは同一の方法、フローチャート又はプロセス中の他のステップと組み合わせられてよいことが理解されるべきである。 Among the various embodiments without departing from the scope of the present invention, the step that may be made in any order, the steps in a particular way, flowchart or process in combination with other methods, flowcharts or process well, or should the same way, it may be combined with other steps in the flowchart or process is understood.

以上本発明が特定の実施例に関して詳細に説明されてきたが、様々な他の変更、置換及び代替が本発明の範囲及び精神から逸脱せずにそれらになされてよいことが理解されるべきである。 Although the present invention has have been described in detail with respect to specific embodiments, it should various other changes, be substitutions, and alterations may be made thereto without departing from the scope and spirit of the present invention will be understood is there. 例えば、本発明は携帯装置10に含まれる様々な素子に関連して説明されてきたが、これらの要素は特定のアークテクチャ又は要請に応じて組み合わせられ、編成され又は設けられてよい。 For example, the present invention has been described in connection with various elements included in the portable device 10, these elements are combined according to the specific architectural or request may be organized or arranged. 更に、これらの要素のどれでもが適切ならば別個の外部素子として用意されてもよい。 Further, any of these elements may be provided as separate external device if appropriate. 本発明はそれらの内的な要素に加えてこれらの外的な要素配置にも及ぶ大きな柔軟性も想定している。 The present invention contemplates also great flexibility also extends to these external elements arranged in addition to their internal elements.

多くの他の変更、置換、変形、代替及び修正が当業者に確認され、本発明は特許請求の範囲の発明範囲及び精神の中にそのような変更、置換、変形、代替及び修正の全てを包含するよう意図される。 Many other changes, substitutions, variations, alternatives and modifications are confirmed by those skilled in the art, the present invention is such changes within the invention scope and spirit of the appended claims, substitutions, variations, all alternatives and modifications It is meant to encompass.

特定の実施例によるモーションインターフェース機能を備えた携帯装置を示す図である。 It is a diagram illustrating a portable apparatus having a motion interface function according to a particular embodiment. 特定の実施例による図1の携帯装置のモーション検出器を示す図である。 It is a diagram illustrating a motion detector of the portable device of FIG. 1 according to a particular embodiment. 特定の実施例による図1の携帯装置のモーション検出素子の利用例を示す図である。 Is a diagram showing an example of usage of a motion detection device of the portable device of FIG. 1 according to a particular embodiment. 特定の実施例によるモーション検出機能を備えた携帯装置例を示す図である。 It is a diagram illustrating a mobile device example in which a motion detection function according to a particular embodiment. 特定の実施例による携帯装置の支配的な運動の選択及び増幅の様子を例示する図である。 It is a diagram illustrating a state of dominant motion of selection and amplification of a mobile apparatus according to a particular embodiment. 特定の実施例による好ましいモーション選択を説明するためのフローチャートである。 It is a flowchart illustrating a preferred motion selection according to a particular embodiment. 特定の実施例による携帯装置の基準点を設定するためのフローチャートを示す。 It shows a flowchart for setting a reference point of a mobile apparatus according to a particular embodiment. 仮想的なデスクトップナビゲーションに関する特定の実施例での携帯装置によるスクラッビング機能を例示する図である。 It is a diagram illustrating a scrubbing function by the mobile device in a particular embodiment relating to a virtual desktop navigation. 特定の実施例による図8のスクラッビングプロセスを示すフローチャートである。 Is a flowchart illustrating the scrubbing process of Figure 8 according to a particular embodiment. 特定の実施例によるジェスチャー入力を用いるナビゲーションメニュー例を示す図である。 It is a diagram showing a navigation menu example using the gesture input according to a particular embodiment. 特定の実施例による携帯装置で様々な機能を実行するのに使用されるジェスチャー例を示す図である。 It is a diagram showing a gesture example that is used to perform a variety of functions in the mobile apparatus according to a particular embodiment. 特定の実施例によるモーション入力を用いるナビゲーションマップ例を示す図である。 It is a diagram illustrating a navigation map example of using the motion input according to a particular embodiment. 特定の実施例による或る形式のモーション入力カーソルナビゲーションを示す図である。 It is a diagram illustrating a motion input cursor navigation some form according to a particular embodiment. 特定の実施例による別の形式のモーション入力カーソルナビゲーションを示す図である。 It is a diagram illustrating a motion input cursor navigation another type according to a particular embodiment. モーション入力に応答するフィードバックを利用するプロセスを利用する特定の実施例によるフローチャートである。 It is a flowchart according to a particular embodiment utilizing a process utilizing feedback responsive to motion input. 特定の実施例による携帯装置で空間署名を使用するシステム例を示す図である。 It is a diagram illustrating an example system that uses a spatial signature a mobile apparatus according to a particular embodiment. 携帯装置のモーション入力が複数の他の装置を制御する特定の実施例によるシステム例を示す図である。 Motion input of the portable device is a diagram showing an example system according to a particular embodiment for controlling a plurality of other devices. 特定の実施例による携帯装置の環境モデリングプロセスを示すフローチャートである。 Is a flowchart illustrating an environment modeling process of the portable device according to a particular embodiment. 特定の実施例による携帯装置の様々な機能に対応付けられるジェスチャー例を示す図である。 It is a diagram showing a gesture example associated with the various functions of the mobile apparatus according to a particular embodiment. 先在するシンボルジェスチャーを利用する特定の実施例によるフローチャートである。 It is a flowchart according to a particular embodiment utilizing the symbol gesture preexisting. 特定の実施例によるコンテキストベースのジェスチャーマッピングを利用するフローチャートである。 Is a flow chart utilizing the context-based gesture mapping according to a particular embodiment. 特定の実施例によるユーザベースのジェスチャーマッピングを利用するフローチャートである。 Is a flow chart that utilizes user based gestures mapping according to a particular embodiment. ユーザの作成したジェスチャーに対する割当プロセスを示す特定の実施例によるフローチャートである。 It is a flowchart according to a particular embodiment illustrating the allocation process for a user made by gesture. 精度レベルを変える携帯装置を利用する特定の実施例による3つのジェスチャー入力を示す図である。 It is a diagram showing three gesture input according to a particular embodiment utilizing a portable device to change the level of precision. 多数の特徴を利用するジェスチャー認識プロセスを示す特定の実施例によるフローチャートである。 It is a flowchart according to a particular embodiment showing a gesture recognition process utilizing a number of features.

Claims (27)

  1. モーションコントロール携帯装置であって、 A motion control portable device,
    第1の軸に沿う加速度を検出する第1の加速度計と、 A first accelerometer for detecting acceleration along a first axis,
    前記第1の軸に垂直な第2の軸に沿う加速度を検出する第2の加速度計と、 A second accelerometer for detecting acceleration along a second axis perpendicular to said first axis,
    前記第1の軸及び前記第2の軸の少なくとも一方の回りの回転成分を検出するチルト検出素子と、 A tilt detection device for detecting at least one rotation about the component of the first axis and the second axis,
    現在の画像を表示するディスプレイと、 A display for displaying the current image,
    前記第1の加速度計、前記第2の加速度計及び前記チルト検出素子を用いて3次元での当該装置の運動を追跡するモーション追跡モジュールと、 And motion tracking module that tracks the movement of the device in the first accelerometer, 3 dimensions using the second accelerometer and the tilt detection device,
    前記現在の画像を生成し、当該装置の運動に応じて前記現在の画像を変更するコントローラと、 Wherein generating a current image, and a controller for changing the current image in response to said movement of the device,
    を有することを特徴とするモーションコントロール携帯装置。 Motion control portable apparatus characterized by having a.
  2. 前記ディスプレイが表示面を有し、 It said display having a display surface,
    前記第1及び前記第2の軸が前記表示面に実質的に平行である ことを特徴とする請求項1記載のモーションコントロール携帯装置。 Motion Control portable device according to claim 1, wherein said first and said second axis is substantially parallel to the display surface.
  3. 前記チルト検出素子が、前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を検出する第3の加速度計を有し、 The tilt detection device has a third accelerometer for detecting acceleration along the first axis and the third axis is perpendicular to a vertical with the second axis,
    前記モーション追跡モジュールが、前記第3の加速度計で測定された加速度に基づいて、前記第1の軸及び第2の軸のなす面内の並進と、前記第1の軸及び前記第2の軸の少なくとも一方の回りの成分を有する回転とを区別する ことを特徴とする請求項1記載のモーションコントロール携帯装置。 The motion tracking module, the third on the basis of the measured acceleration with an accelerometer, and translation of the plane formed of the first and second axes, the first axis and the second axis motion control portable device according to claim 1, wherein the discriminating between the rotation having at least one of around components.
  4. 前記チルト検出素子が、 The tilt detection device,
    前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を検出する第3の加速度計と、 A third accelerometer for detecting acceleration along a third axis perpendicular both the second axis is perpendicular to the first axis,
    ビデオストリームを生成するカメラと、 And a camera to generate a video stream,
    前記ビデオストリームに基づいて運動方向を検出するビデオ分析モジュールと、 A video analysis module that detects the movement direction based on the video stream,
    を有することを特徴とする請求項1記載のモーションコントロール携帯装置。 Motion Control portable device according to claim 1, wherein a.
  5. 前記チルト検出素子が、前記ビデオストリーム中の対象物と当該装置間の距離を含む距離情報を決定する距離測定器を有し、 The tilt detection device has a distance measuring device for determining the distance information including a distance between the object and the apparatus in the video stream,
    前記ビデオ分析モジュールが、前記距離を用いて前記距離に関する並進運動の大きさを判定する ことを特徴とする請求項4記載のモーションコントロール携帯装置。 The video analysis module, motion control portable device according to claim 4, wherein the determining the size of the translation related to the distance using the distance.
  6. 前記チルト検出素子が、 The tilt detection device,
    第1のビデオストリームを生成し、前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う第1方向の焦点に合わせられた第1のカメラと、 Generating a first video stream, a first camera adapted to the focal point of the first axis and both the second axis be perpendicular first direction along a third axis perpendicular,
    第2のビデオストリームを生成し、前記第3の軸に沿う第1方向とは逆の第2方向の焦点に合わせられた第2のカメラと、 A second camera adapted to the focal point of the second direction opposite the first direction to generate a second video stream, along the third axis,
    前記第1のビデオストリーム及び前記第2のビデオストリームに基づいて、当該装置の運動方向を検出するビデオ分析モジュールと、 Based on said first video stream and the second video stream, a video analysis module that detects the movement direction of the device,
    を有することを特徴とする請求項1記載のモーションコントロール携帯装置。 Motion Control portable device according to claim 1, wherein a.
  7. 前記チルト検出素子が、前記第3の軸に沿う加速度を検出する第3の加速度計を更に有する ことを特徴とする請求項6記載のモーションコントロール携帯装置。 The tilt detection device, the third third of detecting the acceleration along the axis of motion control portable device according to claim 6, further comprising an accelerometer for.
  8. 前記ビデオ分析モジュールが、 The video analysis module,
    前記第1のビデオストリーム中の対象物の第1エッジを検出し、 Detecting the first edge of the object under the first video stream,
    前記第2のビデオストリーム中の対象物の第2のエッジを検出し、 Detecting a second edge of the object under the second video stream,
    前記第1エッジ及び前記第2エッジの動きを確認し、 Check the movement of the first edge and the second edge,
    前記第1エッジの動き及び前記第2エッジの動きの間の相違を判定し、 Determining the difference between the motion of the motion and the second edge of the first edge,
    該相違に基づいて傾斜成分及び並進成分を判定する ことを特徴とする請求項6記載のモーションコントロール携帯装置。 Motion Control portable device according to claim 6, wherein the determining tilt components and translation components based on the difference.
  9. 当該装置の第1の位置に関する当該装置の動きにより規定されるジェスチャーを複数含むジェスチャーデータベースと、 And gestures database including a plurality of gestures defined by the first motion of the device about the location of the device,
    ジェスチャー各々と対応するコマンドとを対応付けるジェスチャーマッピングデータベースと、 And gestures mapping database for associating the command corresponding to the gesture, respectively,
    を更に有し、前記コントローラが、追跡した当該装置の動きとジェスチャーを比較して受信したジェスチャーを確認し、受信したジェスチャーに対応付けられる関連するコマンドを確認し、確認されたコマンドを実行して前記現在の画像を修正する ことを特徴とする請求項1記載のモーションコントロール携帯装置。 Further comprising a, the controller checks the gesture received by comparing the movements and gestures tracked the device, check the associated command associated with the received gesture, and executes the confirmation command motion control portable device according to claim 1, wherein the modifying the current image.
  10. 前記モーション追跡モジュールが、当該装置の動きに基づいて、前記第1の軸及び前記第2の軸のなす面内での当該装置の並進運動を確認するよう更に動作し、 The motion tracking module is based on the motion of the device, further operable to confirm the translation of the device in the plane formed of the first axis and the second axis,
    前記現在の画像はより大きな画像の小区分であり、 The current image is a small division of a larger image,
    前記コントローラは、並進運動に起因する当該蔵置の位置に基づいて、より大きな画像中の別の小区分を表示するように現在の画像を連続的に修正する ことを特徴とする請求項1記載のモーションコントロール携帯装置。 The controller, based on the position of the container storage due to translational motion, according to claim 1, wherein the continuously modify the current image to display another subsection of the larger the image motion control the portable device.
  11. 前記モーション追跡モジュールは、前記第1の加速度計により検出された加速度及び前記第2の加速度計により検出された加速度のうち或るノイズ閾値より小さく現れるものを無視するよう動作する ことを特徴とする請求項1記載のモーションコントロール携帯装置。 The motion tracking module is characterized in that operate to ignore what appears smaller than a certain noise threshold of the acceleration detected by the first acceleration and is detected by the accelerometer of the second accelerometer motion control portable apparatus according to claim 1.
  12. 携帯装置を制御する方法であって、 A method for controlling a portable device,
    第1の軸に沿う加速度を第1の加速度を用いて検出するステップと、 Detecting acceleration along a first axis using a first accelerometer,
    前記第1の軸に垂直な第2の軸に沿う加速度を第2の加速度を用いて検出するステップと、 Detecting by using the second acceleration acceleration along a second axis perpendicular to said first axis,
    前記第1の軸及び前記第2の軸の少なくとも一方の回りの回転成分をチルト検出素子を用いて検出するステップと、 Detecting using a tilt detection element at least one rotation about the component of the first axis and the second axis,
    前記第1の加速度計、前記第2の加速度計及び前記チルト検出素子を用いて3次元での当該装置の運動を追跡するステップと、 And tracking the movement of the device in three dimensions using the first accelerometer, the second accelerometer and the tilt detection device,
    前記装置のディスプレイを用いて前記現在の画像を生成し、当該装置の追跡した運動に応じて前記現在の画像を変更するステップと、 A step of the above using an apparatus display generates current image, the change of the current image according to tracked motion of the device,
    を有することを特徴とする方法。 Method characterized by having a.
  13. 前記ディスプレイが表示面を有し、 It said display having a display surface,
    前記第1及び前記第2の軸が前記表示面に実質的に平行である ことを特徴とする請求項12記載の方法。 The method of claim 12, wherein said first and said second axis is substantially parallel to the display surface.
  14. 前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を、前記チルト検出素子の第3の加速度計を用いて検出するステップと、 A step of acceleration along the first axis perpendicular at a by the second third axis perpendicular both axes, detected using a third accelerometer of the tilt detection device,
    前記第3の加速度計で測定された加速度に基づいて、前記第1の軸及び第2の軸のなす面内の並進と、前記第1の軸及び前記第2の軸の少なくとも一方の回りの成分を有する回転とを区別するステップと、 Based on the third acceleration measured by accelerometers, and translation in the plane formed of the first and second axes, at least one of about the first axis and the second axis and distinguishing step rotation and having components,
    を有することを特徴とする請求項12記載の方法。 The method of claim 12, wherein the having.
  15. 前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を、前記チルト検出素子の第3の加速度計を用いて検出するステップと、 A step of acceleration along the first axis perpendicular at a by the second third axis perpendicular both axes, detected using a third accelerometer of the tilt detection device,
    当該装置のカメラで生成したビデオストリームを監視するステップと、 A step of monitoring a video stream generated by the camera of the device,
    前記ビデオストリームに基づいて運動方向を検出するステップと、 Detecting a movement direction based on the video stream,
    を有することを特徴とする請求項12記載の方法。 The method of claim 12, wherein the having.
  16. 前記ビデオストリーム中の対象物と当該装置間の距離を含む距離情報を決定するステップと、 Determining distance information including a distance between the object and the apparatus in the video stream,
    前記距離を用いて当該装置の並進運動の大きさを判定するステップと、 Determining a magnitude of translation of the device using the distance,
    ことを特徴とする請求項15記載の方法。 The method of claim 15, wherein a.
  17. 当該装置の第1のカメラにより生成された第1のビデオストリームを監視し、前記第1のカメラは前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う第1方向の焦点に合わせられており、 Monitoring the first video stream generated by a first camera of the device, the first camera along a third axis perpendicular both the second axis is perpendicular to the first axis and aligned with the focal point of the first direction,
    当該装置の第2のカメラにより生成された第2のビデオストリームを監視し、前記第2のカメラは前記第3の軸に沿う第1方向とは逆の第2方向の焦点に合わせられており、 Monitoring the second video stream generated by the second camera of the device, the second camera from the first direction along the third axis is aligned with the focal point of the second direction opposite ,
    前記第1のビデオストリーム及び前記第2のビデオストリームに基づいて、当該装置の運動方向を検出する、 Said first video stream and based on the second video stream, for detecting the direction of movement of the apparatus,
    ことを特徴とする請求項12記載の方法。 The method of claim 12, wherein a.
  18. 前記第1のビデオストリーム中の対象物の第1エッジを検出し、 Detecting the first edge of the object under the first video stream,
    前記第2のビデオストリーム中の対象物の第2のエッジを検出し、 Detecting a second edge of the object under the second video stream,
    前記第1エッジ及び前記第2エッジの動きを確認し、 Check the movement of the first edge and the second edge,
    前記第1エッジの動き及び前記第2エッジの動きの間の相違を判定し、 Determining the difference between the motion of the motion and the second edge of the first edge,
    該相違に基づいて傾斜成分及び並進成分を判定する ことを特徴とする請求項17記載の方法。 The method of claim 17, wherein the determining tilt components and translation components based on the difference.
  19. 当該装置の第1の位置に関する当該装置の動きにより規定されるジェスチャーを複数含むジェスチャーデータベースと追跡した当該装置の動きとを比較し、 Comparing the motion of the first of said devices to track the gesture database comprising a plurality of gestures defined by the movement of the device about the location of the device,
    受信したジェスチャーに対応付けられるコマンドを確認し、 Check the command associated with the received gesture,
    確認されたコマンドを実行して前記現在の画像を修正する ことを特徴とする請求項12記載の方法。 The method of claim 12, wherein modifying the current image the running check command.
  20. コンピュータ読み取り可能な媒体に組み込まれる、携帯装置を制御するための論理装置であって、 Incorporated in a computer readable medium, a logic device for controlling the mobile device,
    第1の軸に沿う加速度を第1の加速度を用いて検出するステップと、 Detecting acceleration along a first axis using a first accelerometer,
    前記第1の軸に垂直な第2の軸に沿う加速度を第2の加速度を用いて検出するステップと、 Detecting by using the second acceleration acceleration along a second axis perpendicular to said first axis,
    前記第1の軸及び前記第2の軸の少なくとも一方の回りの回転成分をチルト検出素子を用いて検出するステップと、 Detecting using a tilt detection element at least one rotation about the component of the first axis and the second axis,
    前記第1の加速度計、前記第2の加速度計及び前記チルト検出素子を用いて3次元での当該装置の運動を追跡するステップと、 And tracking the movement of the device in three dimensions using the first accelerometer, the second accelerometer and the tilt detection device,
    前記装置のディスプレイを用いて前記現在の画像を生成し、当該装置の追跡した運動に応じて前記現在の画像を変更するステップと、 A step of the above using an apparatus display generates current image, the change of the current image according to tracked motion of the device,
    をコンピュータに実行させることを特徴とする論理装置。 Logic for causing a computer to execute the.
  21. 前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を、前記チルト検出素子の第3の加速度計を用いて検出するステップと、 A step of acceleration along the first axis perpendicular at a by the second third axis perpendicular both axes, detected using a third accelerometer of the tilt detection device,
    前記第3の加速度計で測定された加速度に基づいて、前記第1の軸及び第2の軸のなす面内の並進と、前記第1の軸及び前記第2の軸の少なくとも一方の回りの成分を有する回転とを区別するステップと、 Based on the third acceleration measured by accelerometers, and translation in the plane formed of the first and second axes, at least one of about the first axis and the second axis and distinguishing step rotation and having components,
    をコンピュータに実行させることを特徴とする請求項20記載の論理装置。 Logic device according to claim 20, wherein the causing a computer to execute the.
  22. 前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う加速度を、前記チルト検出素子の第3の加速度計を用いて検出するステップと、 A step of acceleration along the first axis perpendicular at a by the second third axis perpendicular both axes, detected using a third accelerometer of the tilt detection device,
    当該装置のカメラで生成したビデオストリームを監視するステップと、 A step of monitoring a video stream generated by the camera of the device,
    前記ビデオストリームに基づいて運動方向を検出するステップと、 Detecting a movement direction based on the video stream,
    をコンピュータに実行させることを特徴とする請求項20記載の論理装置。 Logic device according to claim 20, wherein the causing a computer to execute the.
  23. 前記ビデオストリーム中の対象物と当該装置間の距離を含む距離情報を決定するステップと、 Determining distance information including a distance between the object and the apparatus in the video stream,
    前記距離を用いて当該装置の並進運動の大きさを判定するステップと、 Determining a magnitude of translation of the device using the distance,
    をコンピュータに実行させることを特徴とする請求項20記載の論理装置。 Logic device according to claim 20, wherein the causing a computer to execute the.
  24. 当該装置の第1のカメラにより生成された第1のビデオストリームを監視し、前記第1のカメラは前記第1の軸と垂直であって前記第2の軸とも垂直な第3の軸に沿う第1方向の焦点に合わせられており、 Monitoring the first video stream generated by a first camera of the device, the first camera along a third axis perpendicular both the second axis is perpendicular to the first axis and aligned with the focal point of the first direction,
    当該装置の第2のカメラにより生成された第2のビデオストリームを監視し、前記第2のカメラは前記第3の軸に沿う第1方向とは逆の第2方向の焦点に合わせられており、 Monitoring the second video stream generated by the second camera of the device, the second camera from the first direction along the third axis is aligned with the focal point of the second direction opposite ,
    前記第1のビデオストリーム及び前記第2のビデオストリームに基づいて、当該装置の運動方向を検出する、 Said first video stream and based on the second video stream, for detecting the direction of movement of the apparatus,
    ことをコンピュータに実行させる特徴とする請求項20記載の論理装置。 Logic device according to claim 20, wherein causing the computer to execute the.
  25. 前記第1のビデオストリーム中の対象物の第1エッジを検出し、 Detecting the first edge of the object under the first video stream,
    前記第2のビデオストリーム中の対象物の第2のエッジを検出し、 Detecting a second edge of the object under the second video stream,
    前記第1エッジ及び前記第2エッジの動きを確認し、 Check the movement of the first edge and the second edge,
    前記第1エッジの動き及び前記第2エッジの動きの間の相違を判定し、 Determining the difference between the motion of the motion and the second edge of the first edge,
    該相違に基づいて傾斜成分及び並進成分を判定する ことをコンピュータに実行させることを特徴とする請求項24記載の論理装置。 Logic device according to claim 24, wherein the executing the determining tilt components and translation components based on the difference in the computer.
  26. 当該装置の第1の位置に関する当該装置の動きにより規定されるジェスチャーを複数含むジェスチャーデータベースと追跡した当該装置の動きとを比較し、 Comparing the motion of the first of said devices to track the gesture database comprising a plurality of gestures defined by the movement of the device about the location of the device,
    受信したジェスチャーに対応付けられるコマンドを確認し、 Check the command associated with the received gesture,
    確認されたコマンドを実行して前記現在の画像を修正する ことをコンピュータに実行させることをと特徴とする請求項20記載の論理装置。 Logic device according to claim 20, wherein the running check commands and features and a be executed to modify the current image the to the computer.
  27. モーションコントロール携帯装置であって、 A motion control portable device,
    第1の軸に沿う加速度を第1の加速度を用いて検出する手段と、 It means for detecting acceleration along a first axis using a first accelerometer,
    前記第1の軸に垂直な第2の軸に沿う加速度を検出する手段と、 Means for detecting acceleration along a second axis perpendicular to said first axis,
    前記第1の軸及び前記第2の軸の少なくとも一方の回りの回転成分を検出する手段と、 It means for detecting at least one rotation about the component of the first axis and the second axis,
    前記第1の軸に沿う加速度、前記第2の軸に沿う加速度及び前記回転成分に基づいて、3次元での当該装置の運動を追跡する手段と、 Means for tracking the movement of the acceleration along the first axis, based on the acceleration and the rotational component along said second axis, the apparatus in three dimensions,
    前記装置のディスプレイを用いて前記現在の画像を生成し、当該装置の追跡した運動に応じて前記現在の画像を変更する手段と、 Wherein generating a current image using a display of the device, and means for changing the current image in response to said motion tracking of the device,
    を有することを特徴とするモーションコントロール携帯装置。 Motion control portable apparatus characterized by having a.
JP2007504983A 2004-03-23 2005-03-07 Identification of tilt and translation components of the portable device Pending JP2007531113A (en)

Priority Applications (19)

Application Number Priority Date Filing Date Title
US10807561 US7903084B2 (en) 2004-03-23 2004-03-23 Selective engagement of motion input modes
US10807566 US7173604B2 (en) 2004-03-23 2004-03-23 Gesture identification of controlled devices
US10807557 US7365735B2 (en) 2004-03-23 2004-03-23 Translation controlled cursor
US10807565 US7301527B2 (en) 2004-03-23 2004-03-23 Feedback based user interface for motion controlled handheld devices
US10807558 US7280096B2 (en) 2004-03-23 2004-03-23 Motion sensor engagement for a handheld device
US10807567 US7365737B2 (en) 2004-03-23 2004-03-23 Non-uniform gesture precision
US10807588 US7176888B2 (en) 2004-03-23 2004-03-23 Selective engagement of motion detection
US10807568 US7180501B2 (en) 2004-03-23 2004-03-23 Gesture based navigation of a handheld user interface
US10807564 US7180500B2 (en) 2004-03-23 2004-03-23 User definable gestures for motion controlled handheld devices
US10807589 US7301529B2 (en) 2004-03-23 2004-03-23 Context dependent gesture response
US10807560 US7365736B2 (en) 2004-03-23 2004-03-23 Customizable gesture mappings for motion controlled handheld devices
US10807563 US7301526B2 (en) 2004-03-23 2004-03-23 Dynamic adaptation of gestures for motion controlled handheld devices
US10807571 US7176887B2 (en) 2004-03-23 2004-03-23 Environmental modeling for motion controlled handheld devices
US10807572 US20050212760A1 (en) 2004-03-23 2004-03-23 Gesture based user interface supporting preexisting symbols
US10807569 US7301528B2 (en) 2004-03-23 2004-03-23 Distinguishing tilt and translation motion components in handheld devices
US10807559 US7176886B2 (en) 2004-03-23 2004-03-23 Spatial signatures
US10807570 US7180502B2 (en) 2004-03-23 2004-03-23 Handheld device with preferred motion selection
US10807562 US20050212753A1 (en) 2004-03-23 2004-03-23 Motion controlled remote controller
PCT/US2005/007409 WO2005103863A3 (en) 2004-03-23 2005-03-07 Distinguishing tilt and translation motion components in handheld devices

Publications (1)

Publication Number Publication Date
JP2007531113A true true JP2007531113A (en) 2007-11-01

Family

ID=35005698

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007504983A Pending JP2007531113A (en) 2004-03-23 2005-03-07 Identification of tilt and translation components of the portable device
JP2008192455A Active JP4812812B2 (en) 2004-03-23 2008-07-25 Identification of tilt and translation components of the portable device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2008192455A Active JP4812812B2 (en) 2004-03-23 2008-07-25 Identification of tilt and translation components of the portable device

Country Status (4)

Country Link
EP (1) EP1728142B1 (en)
JP (2) JP2007531113A (en)
KR (1) KR100853605B1 (en)
WO (1) WO2005103863A3 (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193656A (en) * 2006-01-20 2007-08-02 Kddi Corp Personal identification device
JP2010011431A (en) * 2008-05-27 2010-01-14 Toshiba Corp Wireless communication apparatus
WO2010010929A1 (en) * 2008-07-23 2010-01-28 株式会社セガ Game device, method for controlling game, game control program and computer readable recording medium storing program
JP2010067142A (en) 2008-09-12 2010-03-25 British Virgin Islands CyWee Group Ltd Inertia sensing device
JP2010118060A (en) * 2008-11-14 2010-05-27 Samsung Electronics Co Ltd Method for operating ui based on motion sensor and mobile terminal using the same
JP2011018161A (en) * 2009-07-08 2011-01-27 Nec Corp Portable terminal, and application operation method in portable terminal
JP2011526192A (en) * 2008-06-27 2011-10-06 マイクロソフト コーポレーション Dynamic selection of the sensitivity of the tilt function
JP2012502344A (en) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー.Extreme Reality Ltd. How to provide an image sensor based human-machine interface of the system and software
JP2012506100A (en) * 2008-10-15 2012-03-08 インベンセンス,インク.Invensense,Inc. Mobile device with a gesture recognition
JP2012507802A (en) * 2008-10-29 2012-03-29 インベンセンス,インク.Invensense,Inc. Control and access the content using motion processing on the mobile terminal
JP2012510109A (en) * 2008-11-24 2012-04-26 クアルコム,インコーポレイテッド Shown how to select an application, to activate
JP2012165073A (en) * 2011-02-03 2012-08-30 Sony Corp Controller, control method, and program
JP2012530958A (en) * 2009-06-19 2012-12-06 アルカテル−ルーセント Gestures on the touch-sensitive input device for closing the window or application
JP2012244264A (en) * 2011-05-17 2012-12-10 Funai Electric Co Ltd Image forming device
JP2013500523A (en) * 2009-07-23 2013-01-07 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for controlling the mobile device and consumer electronic devices
JP2013101649A (en) * 2012-12-26 2013-05-23 Japan Research Institute Ltd Terminal device and computer program
JP2013157959A (en) * 2012-01-31 2013-08-15 Toshiba Corp Portable terminal apparatus, voice recognition processing method for the same, and program
JP2013536660A (en) * 2010-08-31 2013-09-19 ヴォルフガング・ブレンデル Wireless remote control by the position sensor system
WO2013157630A1 (en) * 2012-04-20 2013-10-24 株式会社ニコン Electronic apparatus and motion detection method
US8587417B2 (en) 2008-07-15 2013-11-19 Immersion Corporation Systems and methods for mapping message contents to virtual physical properties for vibrotactile messaging
JP2014508366A (en) * 2011-03-14 2014-04-03 ムラタ エレクトロニクス オサケユキチュア Devices and systems pointing method, therefore
JP2014168522A (en) * 2013-03-01 2014-09-18 Toshiba Corp X-ray diagnostic apparatus
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US8878896B2 (en) 2005-10-31 2014-11-04 Extreme Reality Ltd. Apparatus method and system for imaging
US8928654B2 (en) 2004-07-30 2015-01-06 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
JP2015005197A (en) * 2013-06-21 2015-01-08 カシオ計算機株式会社 Information processing apparatus, information processing method, and program
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US9177220B2 (en) 2004-07-30 2015-11-03 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US9347968B2 (en) 2011-07-04 2016-05-24 Nikon Corporation Electronic device and input method
JP2017174446A (en) * 2009-03-12 2017-09-28 イマージョン コーポレーションImmersion Corporation Systems and methods for using textures in graphical user interface widgets

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050222801A1 (en) 2004-04-06 2005-10-06 Thomas Wulff System and method for monitoring a mobile computing product/arrangement
US7822513B2 (en) 2005-07-27 2010-10-26 Symbol Technologies, Inc. System and method for monitoring a mobile computing product/arrangement
CN100547524C (en) 2005-12-27 2009-10-07 财团法人工业技术研究院 Input device of interactive equipment
EP1806643B1 (en) 2006-01-06 2014-10-08 Drnc Holdings, Inc. Method for entering commands and/or characters for a portable communication device equipped with a tilt sensor
CN100429610C (en) 2006-01-19 2008-10-29 宏达国际电子股份有限公司 Intuition type screen controller
KR100667853B1 (en) 2006-01-25 2007-01-11 삼성전자주식회사 Apparatus and method for scrolling screen in portable device and recording medium storing program for performing the method thereof
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
JP4747874B2 (en) * 2006-02-14 2011-08-17 パナソニック電工株式会社 Remote control devices and remote control system
US7796052B2 (en) 2006-03-29 2010-09-14 Honeywell International Inc. One button multifunction key fob for controlling a security system
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
JP2007286812A (en) * 2006-04-14 2007-11-01 Sony Corp Portable electronic equipment, user interface control method, and program
US8594742B2 (en) * 2006-06-21 2013-11-26 Symbol Technologies, Inc. System and method for monitoring a mobile device
US20080030456A1 (en) * 2006-07-19 2008-02-07 Sony Ericsson Mobile Communications Ab Apparatus and Methods for Providing Motion Responsive Output Modifications in an Electronic Device
US20080030464A1 (en) * 2006-08-03 2008-02-07 Mark Sohm Motion-based user interface for handheld
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
JP5023073B2 (en) * 2006-12-06 2012-09-12 アルプス電気株式会社 Motion sensing program and an electronic compass with it
CN100576160C (en) 2007-04-13 2009-12-30 昆盈企业股份有限公司 Method for controlling control computer windows page rolling and computer input equipment
US7884805B2 (en) * 2007-04-17 2011-02-08 Sony Ericsson Mobile Communications Ab Using touches to transfer information between devices
US8250921B2 (en) 2007-07-06 2012-08-28 Invensense, Inc. Integrated motion processing unit (MPU) with MEMS inertial sensing and embedded digital electronics
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
US8219936B2 (en) 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8942764B2 (en) * 2007-10-01 2015-01-27 Apple Inc. Personal media device controlled via user initiated movements utilizing movement based interfaces
US7934423B2 (en) 2007-12-10 2011-05-03 Invensense, Inc. Vertically integrated 3-axis MEMS angular accelerometer with integrated electronics
DE102007060007A1 (en) 2007-12-13 2009-06-18 BSH Bosch und Siemens Hausgeräte GmbH An operating device for a household appliance, a household appliance with a control device, and a method for operating a domestic appliance
KR20090065040A (en) 2007-12-17 2009-06-22 삼성전자주식회사 Dual pointing device and method based on 3-d motion and touch sensors
US8952832B2 (en) 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
KR101482115B1 (en) * 2008-07-07 2015-01-13 엘지전자 주식회사 Controlling a Mobile Terminal with a Gyro-Sensor
KR101524616B1 (en) * 2008-07-07 2015-06-02 엘지전자 주식회사 Controlling a Mobile Terminal with a Gyro-Sensor
KR101899506B1 (en) * 2009-01-29 2018-09-20 임머숀 코퍼레이션 Systems and methods for interpreting physical interactions with a graphical user interface
KR101482121B1 (en) * 2008-08-04 2015-01-13 엘지전자 주식회사 Controlling a Mobile Terminal Capable of Web Browsing
KR101061363B1 (en) * 2008-08-26 2011-09-01 팅크웨어(주) Specialized 3-D control system and method in a navigation system
US20110054833A1 (en) * 2009-09-02 2011-03-03 Apple Inc. Processing motion sensor data using accessible templates
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
KR101646671B1 (en) * 2009-12-10 2016-08-08 삼성전자주식회사 Portable electronic apparatus and control method thereof
FR2954533A1 (en) * 2009-12-21 2011-06-24 Air Liquide Portable terminal i.e. hand-held computer, for transmitting information or orders in industrial area, has gyroscope measuring orientation parameters of case, and accelerometer measuring acceleration parameters of case during movements
JP5413250B2 (en) * 2010-03-05 2014-02-12 ソニー株式会社 Image processing apparatus, image processing method, and program
DE102010020925B4 (en) 2010-05-10 2014-02-27 Faro Technologies, Inc. A method of optically scanning and measuring an environment
KR101219292B1 (en) 2010-06-16 2013-01-18 (주)마이크로인피니티 Hand-held device including a display and method for navigating objects on the display
CN102298162B (en) * 2010-06-28 2014-03-05 深圳富泰宏精密工业有限公司 Backlight regulating system and method
US8972467B2 (en) 2010-08-31 2015-03-03 Sovanta Ag Method for selecting a data set from a plurality of data sets by means of an input device
US8767019B2 (en) 2010-08-31 2014-07-01 Sovanta Ag Computer-implemented method for specifying a processing operation
CN102647504B (en) * 2011-02-16 2013-07-17 三星电子(中国)研发中心 Method for controlling applications in mobile phone
JP5762885B2 (en) * 2011-08-29 2015-08-12 京セラ株式会社 Apparatus, method, and program
WO2013086414A1 (en) * 2011-12-07 2013-06-13 Visa International Service Association Method and system for signature capture
JP2013154767A (en) * 2012-01-30 2013-08-15 Mitsubishi Electric Corp Onboard meter editing apparatus
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
KR101772384B1 (en) * 2012-03-25 2017-08-29 인텔 코포레이션 Orientation sensing computing devices
CN103576847B (en) * 2012-08-09 2016-03-30 腾讯科技(深圳)有限公司 Obtain account information of the apparatus and method
DE102012109481A1 (en) 2012-10-05 2014-04-10 Faro Technologies, Inc. An apparatus for optical scanning and measuring an environment
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US20140139454A1 (en) * 2012-11-20 2014-05-22 Samsung Electronics Company, Ltd. User Gesture Input to Wearable Electronic Device Involving Movement of Device
JP6042753B2 (en) * 2013-03-18 2016-12-14 株式会社Nttドコモ Terminal equipment and operation unlock method
KR20150026056A (en) * 2013-08-30 2015-03-11 삼성전자주식회사 An electronic device with curved bottom and operating method thereof
CN105612476A (en) * 2013-10-08 2016-05-25 Tk控股公司 Self-calibrating tactile haptic multi-touch, multifunction switch panel
CN105706024A (en) * 2013-10-24 2016-06-22 苹果公司 Wristband device input using wrist movement
KR20160001228A (en) * 2014-06-26 2016-01-06 엘지전자 주식회사 Mobile terminal and method for controlling the same
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102014013678B3 (en) 2014-09-10 2015-12-03 Faro Technologies, Inc. A method of optically scanning and measuring an environment of a hand scanner and controlling by gestures
DE102014013677B4 (en) 2014-09-10 2017-06-22 Faro Technologies, Inc. A method of optically scanning and measuring an environment of a hand scanner and split-screen
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
JP2017528714A (en) * 2014-09-10 2017-09-28 ファロ テクノロジーズ インコーポレーテッド Control methods and three-dimensional measuring device for the optical measurement of the three-dimensional coordinates
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9746930B2 (en) 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
CN108369451A (en) * 2015-12-18 2018-08-03 索尼公司 Information processing device, information processing method, and program
DK201670609A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
DE102016114376A1 (en) * 2016-08-03 2018-02-08 Denso Corporation Feedback-supported remote control for vehicle doors

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728591A (en) * 1993-05-13 1995-01-31 Toshiba Corp Space manipulation mouse system and space operation pattern input method
JPH0798630A (en) * 1993-09-28 1995-04-11 Towa Electron Kk Three-dimensional position input device
JP3792832B2 (en) * 1997-05-07 2006-07-05 富士重工業株式会社 Stereo camera of the adjusting device
EP1717679B1 (en) * 1998-01-26 2016-09-21 Apple Inc. Method for integrating manual input
JP3022558B1 (en) * 1998-05-21 2000-03-21 日本電信電話株式会社 Three-dimensional display method and apparatus
JP2000097637A (en) * 1998-09-24 2000-04-07 Olympus Optical Co Ltd Attitude position detecting device
JP2000132305A (en) * 1998-10-23 2000-05-12 Olympus Optical Co Ltd Operation input device
US6288704B1 (en) 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
WO2001086920A3 (en) * 2000-05-12 2002-05-02 Zvi Lapidot Apparatus and method for the kinematic control of hand-held devices
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
WO2003001340A2 (en) * 2001-06-22 2003-01-03 Motion Sense Corporation Gesture recognition system and method
GB2378878B (en) * 2001-06-28 2005-10-05 Ubinetics Ltd A handheld display device

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8928654B2 (en) 2004-07-30 2015-01-06 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US9177220B2 (en) 2004-07-30 2015-11-03 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US9131220B2 (en) 2005-10-31 2015-09-08 Extreme Reality Ltd. Apparatus method and system for imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US8878896B2 (en) 2005-10-31 2014-11-04 Extreme Reality Ltd. Apparatus method and system for imaging
JP2007193656A (en) * 2006-01-20 2007-08-02 Kddi Corp Personal identification device
JP2010011431A (en) * 2008-05-27 2010-01-14 Toshiba Corp Wireless communication apparatus
JP2011526192A (en) * 2008-06-27 2011-10-06 マイクロソフト コーポレーション Dynamic selection of the sensitivity of the tilt function
US8866602B2 (en) 2008-07-15 2014-10-21 Immersion Corporation Systems and methods for mapping message contents to virtual physical properties for vibrotactile messaging
US9134803B2 (en) 2008-07-15 2015-09-15 Immersion Corporation Systems and methods for mapping message contents to virtual physical properties for vibrotactile messaging
US10019061B2 (en) 2008-07-15 2018-07-10 Immersion Corporation Systems and methods for haptic message transmission
US9612662B2 (en) 2008-07-15 2017-04-04 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
US8638301B2 (en) 2008-07-15 2014-01-28 Immersion Corporation Systems and methods for transmitting haptic messages
US8587417B2 (en) 2008-07-15 2013-11-19 Immersion Corporation Systems and methods for mapping message contents to virtual physical properties for vibrotactile messaging
US8976112B2 (en) 2008-07-15 2015-03-10 Immersion Corporation Systems and methods for transmitting haptic messages
US9063571B2 (en) 2008-07-15 2015-06-23 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
WO2010010929A1 (en) * 2008-07-23 2010-01-28 株式会社セガ Game device, method for controlling game, game control program and computer readable recording medium storing program
JP2013175242A (en) * 2008-09-04 2013-09-05 Extreme Reality Ltd Israel Method system and software for providing image sensor based human machine interfacing
JP2012502344A (en) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー.Extreme Reality Ltd. How to provide an image sensor based human-machine interface of the system and software
JP2010067142A (en) 2008-09-12 2010-03-25 British Virgin Islands CyWee Group Ltd Inertia sensing device
JP2012506100A (en) * 2008-10-15 2012-03-08 インベンセンス,インク.Invensense,Inc. Mobile device with a gesture recognition
JP2012507802A (en) * 2008-10-29 2012-03-29 インベンセンス,インク.Invensense,Inc. Control and access the content using motion processing on the mobile terminal
KR101568128B1 (en) * 2008-11-14 2015-11-12 삼성전자주식회사 Method ui operation of the motion sensor and the base station using the same.
JP2010118060A (en) * 2008-11-14 2010-05-27 Samsung Electronics Co Ltd Method for operating ui based on motion sensor and mobile terminal using the same
US9679400B2 (en) 2008-11-24 2017-06-13 Qualcomm Incorporated Pictoral methods for application selection and activation
JP2012510109A (en) * 2008-11-24 2012-04-26 クアルコム,インコーポレイテッド Shown how to select an application, to activate
US9501694B2 (en) 2008-11-24 2016-11-22 Qualcomm Incorporated Pictorial methods for application selection and activation
JP2017174446A (en) * 2009-03-12 2017-09-28 イマージョン コーポレーションImmersion Corporation Systems and methods for using textures in graphical user interface widgets
JP2012530958A (en) * 2009-06-19 2012-12-06 アルカテル−ルーセント Gestures on the touch-sensitive input device for closing the window or application
JP2011018161A (en) * 2009-07-08 2011-01-27 Nec Corp Portable terminal, and application operation method in portable terminal
US9030404B2 (en) 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
JP2013500523A (en) * 2009-07-23 2013-01-07 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for controlling the mobile device and consumer electronic devices
US9024865B2 (en) 2009-07-23 2015-05-05 Qualcomm Incorporated Method and apparatus for controlling mobile and consumer electronic devices
US9000887B2 (en) 2009-07-23 2015-04-07 Qualcomm Incorporated Method and apparatus for communicating control information by a wearable device to control mobile and consumer electronic devices
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
JP2013536660A (en) * 2010-08-31 2013-09-19 ヴォルフガング・ブレンデル Wireless remote control by the position sensor system
US8994516B2 (en) 2011-02-03 2015-03-31 Sony Corporation Control device, control method, and program
JP2012165073A (en) * 2011-02-03 2012-08-30 Sony Corp Controller, control method, and program
JP2014508366A (en) * 2011-03-14 2014-04-03 ムラタ エレクトロニクス オサケユキチュア Devices and systems pointing method, therefore
US9372549B2 (en) 2011-03-14 2016-06-21 Murata Electronics Oy Pointing method, a device and system for the same
JP2012244264A (en) * 2011-05-17 2012-12-10 Funai Electric Co Ltd Image forming device
US9347968B2 (en) 2011-07-04 2016-05-24 Nikon Corporation Electronic device and input method
JP2013157959A (en) * 2012-01-31 2013-08-15 Toshiba Corp Portable terminal apparatus, voice recognition processing method for the same, and program
WO2013157630A1 (en) * 2012-04-20 2013-10-24 株式会社ニコン Electronic apparatus and motion detection method
JP2013101649A (en) * 2012-12-26 2013-05-23 Japan Research Institute Ltd Terminal device and computer program
JP2014168522A (en) * 2013-03-01 2014-09-18 Toshiba Corp X-ray diagnostic apparatus
JP2015005197A (en) * 2013-06-21 2015-01-08 カシオ計算機株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date Type
KR100853605B1 (en) 2008-08-22 grant
JP4812812B2 (en) 2011-11-09 grant
KR20060134119A (en) 2006-12-27 application
JP2008299866A (en) 2008-12-11 application
WO2005103863A2 (en) 2005-11-03 application
WO2005103863A3 (en) 2006-01-26 application
EP1728142A2 (en) 2006-12-06 application
EP1728142B1 (en) 2010-08-04 grant

Similar Documents

Publication Publication Date Title
US20100079405A1 (en) Touch Screen Device, Method, and Graphical User Interface for Moving On-Screen Objects Without Using a Cursor
US20110273379A1 (en) Directional pad on touchscreen
US20100310136A1 (en) Distinguishing right-hand input and left-hand input based on finger recognition
US20090195513A1 (en) Interactive multimedia control module
US20130016129A1 (en) Region-Specific User Input
US8532675B1 (en) Mobile communication device user interface for manipulation of data items in a physical space
US20150135108A1 (en) Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US20100315358A1 (en) Mobile terminal and controlling method thereof
US20080152263A1 (en) Data transfer using hand-held device
US20130169545A1 (en) Cooperative displays
US20090167508A1 (en) Tactile feedback in an electronic device
US8743069B2 (en) Receiving input at a computing device
US20130016103A1 (en) User input combination of touch and user position
CN102402661A (en) Multiple-access-level lock screen
US20150012581A1 (en) Method for function control and electronic device thereof
US20140201675A1 (en) Method and mobile device for providing recommended items based on context awareness
CN102239460A (en) Movement recognition as input mechanism
US20120200513A1 (en) Operating method of terminal based on multiple inputs and portable terminal supporting the same
US20140066017A1 (en) Method of unlocking mobile terminal, and the mobile terminal
CN101329600A (en) Motion control system
US7180502B2 (en) Handheld device with preferred motion selection
US7280096B2 (en) Motion sensor engagement for a handheld device
US7365736B2 (en) Customizable gesture mappings for motion controlled handheld devices
US7176886B2 (en) Spatial signatures
US7176888B2 (en) Selective engagement of motion detection

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Written amendment

Effective date: 20080725

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081216