JP2013542470A - Method and system for controlling the user interface of a device using human exhalation - Google Patents

Method and system for controlling the user interface of a device using human exhalation Download PDF

Info

Publication number
JP2013542470A
JP2013542470A JP2012528957A JP2012528957A JP2013542470A JP 2013542470 A JP2013542470 A JP 2013542470A JP 2012528957 A JP2012528957 A JP 2012528957A JP 2012528957 A JP2012528957 A JP 2012528957A JP 2013542470 A JP2013542470 A JP 2013542470A
Authority
JP
Japan
Prior art keywords
interface
user interface
exhalation
processing module
operable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012528957A
Other languages
Japanese (ja)
Inventor
ボナ,ピエール
Original Assignee
ノヴォディジット・ソシエテ・ア・レスポンサビリテ・リミテ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/813,292 external-priority patent/US20110010112A1/en
Application filed by ノヴォディジット・ソシエテ・ア・レスポンサビリテ・リミテ filed Critical ノヴォディジット・ソシエテ・ア・レスポンサビリテ・リミテ
Publication of JP2013542470A publication Critical patent/JP2013542470A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B81MICROSTRUCTURAL TECHNOLOGY
    • B81BMICROSTRUCTURAL DEVICES OR SYSTEMS, e.g. MICROMECHANICAL DEVICES
    • B81B7/00Microstructural systems; Auxiliary parts of microstructural devices or systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01FMEASURING VOLUME, VOLUME FLOW, MASS FLOW OR LIQUID LEVEL; METERING BY VOLUME
    • G01F1/00Measuring the volume flow or mass flow of fluid or fluent solid material wherein the fluid passes through a meter in a continuous flow
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

人間の呼気を使用してデバイスのユーザインタフェースを制御するための方法およびシステムのある態様は、埋め込み型のマイクロ・エレクトロ・メカニカル・システム(MEMS)検知および処理モジュールを備えるデバイスを含むことができる。MEMS検知および処理モジュールは、ユーザによる人間の呼気の排出によって引き起こされた動きを検出することができる。人間の呼気の排出によって引き起こされた動きの検出に応答して、1つまたは複数の制御信号が生成されうる。生成された制御信号は、デバイスのユーザインタフェースを制御することができ、ユーザインタフェース内でナビゲーション、および/または、コンポーネントの選択を可能にすることができる。  Certain aspects of a method and system for controlling the user interface of a device using human exhalation can include a device with an implantable micro electro mechanical system (MEMS) sensing and processing module. The MEMS sensing and processing module can detect movement caused by the exhalation of human breath by the user. One or more control signals may be generated in response to detecting motion caused by the exhalation of human breath. The generated control signals can control the user interface of the device and can allow navigation and / or component selection within the user interface.

Description

関連出願の相互参照/参照による組み込み
[0001]本出願は、2008年3月26日出願の米国特許出願第12/056,164号、現在の米国特許第7,739,061号の継続である、2010年6月10日出願の米国特許出願第12/813,292号の一部継続出願である。
Incorporation of related applications by cross-reference / reference
[0001] This application is a continuation of US Patent Application No. 12 / 056,164, filed March 26, 2008, current US Patent No. 7,739,061, US Patent Application No. 12 / This is a continuation-in-part of 813,292.

[0002]本出願は、2009年9月11日出願の米国仮特許出願第61/241,376号、および、2009年9月14日出願の米国仮特許出願第61/242,201号を参照し、その優先権を主張し、その権利を主張するものである。   [0002] This application refers to US Provisional Patent Application No. 61 / 241,376 filed on September 11, 2009, and US Provisional Patent Application No. 61 / 242,201 filed on September 14, 2009, the priority of which is hereby incorporated by reference. Claims the right and claims that right.

[0003]本出願はまた、
2008年3月26日出願の米国特許出願第12/055,999号、
2008年3月26日出願の米国特許出願第12/056,203号、
2008年3月26日出願の米国特許出願第12/056,171号、
2008年3月26日出願の米国特許出願第12/056,061号、および
2008年3月26日出願の米国特許出願第12/056,187号をも参照する。
[0003] This application also includes
US patent application Ser. No. 12 / 055,999, filed Mar. 26, 2008,
US patent application Ser. No. 12 / 056,203, filed Mar. 26, 2008,
US patent application Ser. No. 12 / 056,171 filed Mar. 26, 2008,
Reference is also made to US patent application Ser. No. 12 / 056,061 filed Mar. 26, 2008 and US Patent Application No. 12 / 056,187 filed Mar. 26, 2008.

[0004]上記の参照された出願の各々は、参照により全体として本明細書に組み込まれる。
連邦政府による資金提供を受けた研究開発
[0005]該当なし
マイクロフィッシュ/著作権参照
[0006]該当なし
[0007]本発明のある実施形態は、コンピュータまたは電子システムの制御に関する。より詳細には、本発明のある実施形態は、人間の呼気を使用してデバイスのユーザインタフェースを制御するための方法およびシステムに関する。
[0004] Each of the above referenced applications is incorporated herein by reference in its entirety.
Research and development funded by the federal government
[0005] N / A Microfish / Copyright Reference
[0006] N / A
[0007] Certain embodiments of the invention relate to the control of a computer or electronic system. More particularly, certain embodiments of the invention relate to a method and system for controlling a user interface of a device using human exhalation.

[0008]移動通信は、人々が通信する方法を変え、移動電話は、贅沢品から日常生活の不可欠な要素へと変わってきた。移動電話の使用は、今日、場所または技術によって妨げられるよりもむしろ、社会情勢によって必要とされる。   [0008] Mobile communications have changed the way people communicate, and mobile phones have changed from luxury goods to indispensable elements of everyday life. The use of mobile phones is required today by social conditions rather than being hampered by location or technology.

[0009]音声接続は、通信する基本的ニーズを満たし、移動音声接続は、日常生活の構造にさらに深く浸透し続けているが、インターネットを介したサービスへの移動アクセスは、移動通信革命における次のステップとなっている。現在、大抵の移動デバイスは、インターネットを介して提供されたサービスにユーザがアクセスすることを可能にする、ユーザインタフェースを装備している。例えば、いくつかの移動デバイスはブラウザを有する場合があり、ユーザインタフェースのナビゲーションおよび/または制御を可能にするために、ソフトウェアおよび/またはハードウェアボタンが設けられる場合がある。スマートフォンなど、いくつかの移動デバイスは、デバイスがもう片方の手で保持されながら、ユーザが片方の手でタッチすることを介してユーザインタフェースをナビゲートまたは制御することを可能にする、タッチスクリーン機能を装備している。   [0009] Voice connections meet the basic needs of communication, and mobile voice connections continue to penetrate deeper into everyday life structures, but mobile access to services over the Internet is the next in the mobile communications revolution. It is a step. Currently, most mobile devices are equipped with a user interface that allows users to access services provided over the Internet. For example, some mobile devices may have a browser, and software and / or hardware buttons may be provided to allow navigation and / or control of the user interface. Some mobile devices, such as smartphones, have a touch screen feature that allows the user to navigate or control the user interface via touching with one hand while the device is held with the other hand Equipped with.

[0010]従来の手法および伝統的な手法のさらなる限定および欠点は、図面を参照して、本出願の残りにおいて述べられるような、本発明によるそのようなシステムの比較を通じて、当業者には明らかになるであろう。   [0010] Further limitations and shortcomings of conventional and traditional approaches will become apparent to those skilled in the art through comparison of such systems according to the present invention, as described in the remainder of this application, with reference to the drawings. It will be.

[0011]特許請求の範囲においてより完全に述べられるように、実質的に、図面の少なくとも1つにおいて図示され、かつ/または、それに関連して記載されるような、人間の呼気を使用してデバイスのユーザインタフェースを制御するためのシステムおよび/または方法。   [0011] As described more fully in the claims, substantially using human breath, as illustrated and / or described in connection with at least one of the drawings. A system and / or method for controlling a user interface of a device.

[0012]本発明の様々な利点、態様および新規な特徴、ならびに、その例示された実施形態の詳細は、以下の説明および図面からより十分に理解されよう。   [0012] Various advantages, aspects, and novel features of the present invention, as well as details of illustrated embodiments thereof, will be more fully understood from the following description and drawings.

[0013]本発明の一実施形態による、人間の呼気を使用して複数のデバイスのユーザインタフェースを制御するための例示的システムのブロック図である。[0013] FIG. 2 is a block diagram of an exemplary system for controlling user interfaces of multiple devices using human exhalation, according to one embodiment of the invention. [0014]本発明の一実施形態による、人間の呼気を検出するための例示的検知モジュールのブロック図である。[0014] FIG. 4 is a block diagram of an exemplary sensing module for detecting human exhalation, according to one embodiment of the invention. [0015]本発明の一実施形態による、人間の呼気を使用してデバイスのユーザインタフェースを制御するための例示的システムの別の実施形態のブロック図である。[0015] FIG. 4 is a block diagram of another embodiment of an exemplary system for controlling a user interface of a device using human exhalation according to an embodiment of the present invention. [0016]本発明の一実施形態による、制御されているデバイスとインタラクトする例示的プロセッサのブロック図である。[0016] FIG. 4 is a block diagram of an exemplary processor interacting with a device being controlled, according to one embodiment of the invention. [0017]本発明の一実施形態による、2つ以上のデバイス間で情報のサイドローディングを行うための例示的システムのブロック図である。[0017] FIG. 2 is a block diagram of an exemplary system for sideloading information between two or more devices, according to one embodiment of the invention. [0018]本発明の一実施形態による、デバイスに埋め込まれた例示的MEMS検知および処理モジュールを例示する図である。[0018] FIG. 4 illustrates an exemplary MEMS sensing and processing module embedded in a device, according to one embodiment of the invention. [0019]本発明の一実施形態による、USBインタフェースを介してデバイスに通信的に結合されるスタンドアロンデバイス上に位置する、例示的MEMS検知および処理モジュールを例示する図である。[0019] FIG. 6 illustrates an exemplary MEMS sensing and processing module located on a stand-alone device that is communicatively coupled to a device via a USB interface, according to one embodiment of the invention. [0020]本発明の一実施形態による、スタイラス上に位置する例示的MEMS検知および処理モジュールを例示する図である。[0020] FIG. 6 illustrates an exemplary MEMS sensing and processing module located on a stylus, according to one embodiment of the invention. [0021]本発明の一実施形態による、軍人用のヘッドセット上に位置する例示的MEMS検知および処理モジュールを例示する図である。[0021] FIG. 5 illustrates an exemplary MEMS sensing and processing module located on a military headset, according to one embodiment of the invention. [0022]本発明の一実施形態による、座席装置のヘッドレスト上に位置する例示的MEMS検知および処理モジュールを例示する図である。[0022] FIG. 6 illustrates an exemplary MEMS sensing and processing module located on a headrest of a seating device, according to one embodiment of the invention. [0023]本発明の一実施形態による、自動車の内部に位置する例示的MEMS検知および処理モジュールを例示する図である。[0023] FIG. 6 illustrates an exemplary MEMS sensing and processing module located inside an automobile, according to one embodiment of the invention. [0024]本発明の一実施形態による、取り外し可能アイウェア上に位置する例示的MEMS検知および処理モジュールを例示する図である。[0024] FIG. 5 illustrates an exemplary MEMS sensing and processing module located on removable eyewear, according to one embodiment of the invention. [0025]本発明の一実施形態による、ネックセット上に位置する例示的MEMS検知および処理モジュールを例示する図である。[0025] FIG. 6 illustrates an exemplary MEMS sensing and processing module located on a neckset, according to one embodiment of the invention. [0026]本発明の一実施形態による、クリップ上に位置する例示的MEMS検知および処理モジュールを例示する図である。[0026] FIG. 6 illustrates an exemplary MEMS sensing and processing module located on a clip, according to one embodiment of the invention. [0027]本発明の一実施形態による、布地に埋め込まれた例示的MEMS検知および処理モジュールを例示する図である。[0027] FIG. 6 illustrates an exemplary MEMS sensing and processing module embedded in a fabric, according to one embodiment of the invention. [0028]本発明の一実施形態による、区画ユーザインタフェース(sectional user interface)を介して制御されうる例示的電子デバイスを例示する図である。[0028] FIG. 6 illustrates an example electronic device that may be controlled via a partition user interface according to one embodiment of the invention. [0029]本発明の一実施形態による、区画ユーザインタフェースのいくつかの例示的構成を例示する図である。[0029] FIG. 4 illustrates several example configurations of a partition user interface, according to one embodiment of the invention. [0030]本発明の一実施形態による、区画ユーザインタフェースのいくつかの例示的固定領域を例示する図である。[0030] FIG. 6 illustrates several exemplary fixed areas of a partition user interface, according to one embodiment of the invention. [0031]本発明の一実施形態による、区画ユーザインタフェースのいくつかの例示的コンテンツ領域を例示する図である。[0031] FIG. 6 illustrates several example content areas of a partition user interface, according to one embodiment of the invention. [0032]本発明の一実施形態による、呼吸および触覚入力を介して電子デバイスの区画ユーザインタフェースとインタラクトすることを例示する図である。[0032] FIG. 6 illustrates interacting with a compartment user interface of an electronic device via respiratory and haptic input, according to one embodiment of the present invention. [0033]本発明の一実施形態による、スクロール時のカテゴリおよび/またはアイコンのシーケンスの指示を提供することができる、例示的区画ユーザインタフェースを例示する図である。[0033] FIG. 6 illustrates an example partition user interface that can provide an indication of a category and / or icon sequence when scrolling, according to an embodiment of the invention. [0034]本発明の一実施形態による、呼吸および触覚入力を介して例示的区画ユーザインタフェースとインタラクトすることを例示する図である。[0034] FIG. 6 illustrates interacting with an example compartment user interface via respiratory and haptic input, according to one embodiment of the present invention. [0035]本発明の一実施形態による、スクロール時のカテゴリおよび/またはアイコンのシーケンスの指示を提供することができる、別の例示的区画ユーザインタフェースを例示する図である。[0035] FIG. 6 illustrates another exemplary partition user interface that can provide an indication of a category and / or icon sequence when scrolling, according to an embodiment of the invention. [0036]本発明の一実施形態による、呼吸および触覚入力を利用して、ユーザインタフェースを介してアプリケーションを起動することを例示する図である。[0036] FIG. 6 illustrates launching an application via a user interface utilizing respiration and haptic input, according to one embodiment of the invention. [0037]本発明の一実施形態による、電子デバイス上で実行するアプリケーションとの例示的インタラクションを例示する図である。[0037] FIG. 6 illustrates an exemplary interaction with an application executing on an electronic device, according to one embodiment of the invention. [0038]本発明の一実施形態による、電子デバイス上で実行するアプリケーションとの例示的インタラクションを例示する図である。[0038] FIG. 6 illustrates an exemplary interaction with an application executing on an electronic device, according to one embodiment of the invention. [0039]本発明の一実施形態による、MEMS検知および処理モジュールならびにホストシステムとインタラクトする、例示的ユーザインタフェースのブロック図である。[0039] FIG. 6 is a block diagram of an exemplary user interface interacting with a MEMS sensing and processing module and a host system, according to one embodiment of the invention. [0040]人間の呼気を使用してデバイスを制御する信号を処理するための例示的ステップを例示するフローチャートである。[0040] FIG. 6 is a flow chart illustrating exemplary steps for processing signals to control a device using human exhalation. [0041]本発明の一実施形態による、人間の呼気を使用してデバイスのユーザインタフェースを制御するための例示的ステップを例示するフローチャートである。[0041] FIG. 6 is a flow chart illustrating exemplary steps for controlling the user interface of a device using human exhalation according to one embodiment of the invention. [0042]本発明の一実施形態による、情報のサイドローディングを行うための例示的ステップを例示するフローチャートである。[0042] FIG. 6 is a flowchart illustrating exemplary steps for performing sideloading of information, in accordance with one embodiment of the present invention.

[0043]本発明のある態様は、人間の呼気を使用してデバイスのユーザインタフェースを制御するための方法およびシステムにおいて見出されうる。本発明の例示的態様は、埋め込み型のマイクロ・エレクトロ・メカニカル・システム(MEMS)検知および処理モジュールを備えるデバイスを備えることができる。MEMS検知および処理モジュールは、ユーザによる人間の呼気の排出によって引き起こされた動きを検出することができる。人間の呼気の排出によって引き起こされた動きの検出に応答して、1つまたは複数の制御信号が生成されうる。生成された制御信号は、デバイスのユーザインタフェースを制御するために利用される場合があり、ユーザインタフェース内でナビゲーション、および/または、コンポーネントの選択を可能にすることができる。生成された1つまたは複数の制御信号は、制御されているデバイスへ、外部メモリインタフェース、汎用非同期送受信器(UART)インタフェース、拡張シリアル・ペリフェラル・インタフェース(eSPI)、汎用入出力(GPIO)インタフェース、パルス符号変調(PCM)および/もしくはIC間サウンド(IS)インタフェース、集積回路間(IC)バスインタフェース、ユニバーサルシリアルバス(USB)インタフェース、ブルートゥースインタフェース、ジグビーインタフェース、IrDAインタフェース、ならびに/または、無線USB(W−USB)インタフェースのうち、1つまたは複数を介して通信されうる。人間の呼気の排出は、オープンスペースにおいて生じる場合があり、その排出によって引き起こされた動きの検出は、チャネルを使用せずに生じる場合がある。ユーザインタフェースの1つの例示的実施形態は、グラフィカルユーザインタフェース(GUI)である。 [0043] Certain aspects of the present invention may be found in methods and systems for controlling the user interface of a device using human exhalation. Exemplary aspects of the invention can comprise a device comprising an implantable micro electro mechanical system (MEMS) sensing and processing module. The MEMS sensing and processing module can detect movement caused by the exhalation of human breath by the user. One or more control signals may be generated in response to detecting motion caused by the exhalation of human breath. The generated control signals may be utilized to control the user interface of the device and may allow navigation and / or component selection within the user interface. The generated control signal or signals are sent to the device being controlled by an external memory interface, a general purpose asynchronous transceiver (UART) interface, an extended serial peripheral interface (eSPI), a general purpose input / output (GPIO) interface, Pulse code modulation (PCM) and / or inter-IC sound (I 2 S) interface, inter-integrated circuit (I 2 C) bus interface, universal serial bus (USB) interface, Bluetooth interface, ZigBee interface, IrDA interface, and / or The wireless USB (W-USB) interface can communicate via one or more. Human exhalation may occur in open space, and detection of movement caused by the exhalation may occur without using a channel. One exemplary embodiment of a user interface is a graphical user interface (GUI).

[0044]図1Aは、本発明の一実施形態による、人間の呼気を使用して複数のデバイスのユーザインタフェースを制御するための例示的システムのブロック図である。図1Aを参照すると、ユーザ102、ならびに、マルチメディアデバイス106a、携帯電話/スマートフォン/データフォン106b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106c、表示デバイス106d、および/または、テレビ(TV)/ゲームコンソール/他のプラットフォーム106eなど、複数の制御されるデバイスが図示される。マルチメディアデバイス106a、携帯電話/スマートフォン/データフォン106b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106c、表示デバイス106d、および/または、テレビ(TV)/ゲームコンソール/他のプラットフォーム106eなど、複数の制御されるデバイスの各々は、埋め込み型のマイクロ・エレクトロ・メカニカル・システム(MEMS)検知および処理モジュール104を備えることができる。   [0044] FIG. 1A is a block diagram of an exemplary system for controlling user interfaces of multiple devices using human exhalation, according to one embodiment of the invention. Referring to FIG. 1A, a user 102 and a multimedia device 106a, cell phone / smartphone / data phone 106b, personal computer (PC), laptop or notebook computer 106c, display device 106d, and / or television (TV) ) / Game console / other platforms 106e, etc. Multimedia device 106a, mobile phone / smartphone / dataphone 106b, personal computer (PC), laptop or notebook computer 106c, display device 106d, and / or television (TV) / game console / other platform 106e, etc. Each of the plurality of controlled devices can include an embedded micro electro mechanical system (MEMS) sensing and processing module 104.

[0045]マルチメディアデバイス106aは、ユーザインタフェース107aを備えることができ、携帯電話/スマートフォン/データフォン106bは、ユーザインタフェース107bを備えることができ、パーソナルコンピュータ(PC)、ラップトップまたはノートブックコンピュータ106cは、ユーザインタフェース107cを備えることができる。加えて、表示デバイス106dは、ユーザインタフェース107dを備えることができ、テレビ(TV)/ゲームコンソール/他のプラットフォーム106eは、ユーザインタフェース107eを備えることができる。複数の制御されるデバイスの各々は、例えば、サイドローディング、もしくは、ピアツーピア接続を介したローディング、および/または、ネットワーク接続を介して、ならびに、有線および/もしくは無線通信によって、情報のローディングを行うために、複数の他のデバイス108に有線または無線で接続されうる。例示的な他のデバイス108には、ゲームコンソール、没入型もしくは3Dリアリティデバイス、および/または、テレマティックデバイスが含まれうる。テレマティックデバイスは、統合された計算、無線通信および/または全地球的航法衛星システムデバイスを備えるデバイスを指し、ネットワークを介した情報の送信、受信および/または格納を可能にする。ユーザインタフェースは、1つまたは複数の入力、例えば、空気などの流体の排出、ボタン押下などの触覚入力、ボイスコマンドなどのオーディオ入力、ならびに/または、加速度計および/もしくはジャイロスコープによって検出されたものなど、電子デバイス202の動きによって、制御されているデバイスとインタラクトすることを可能にすることができる。   [0045] The multimedia device 106a can include a user interface 107a, and the mobile phone / smartphone / dataphone 106b can include a user interface 107b, and can be a personal computer (PC), laptop or notebook computer 106c. May include a user interface 107c. In addition, the display device 106d can include a user interface 107d, and the television (TV) / game console / other platform 106e can include a user interface 107e. Each of the plurality of controlled devices, for example, for loading information via sideloading or loading via a peer-to-peer connection and / or via a network connection and by wired and / or wireless communication In addition, it can be connected to a plurality of other devices 108 in a wired or wireless manner. Other exemplary devices 108 may include game consoles, immersive or 3D reality devices, and / or telematic devices. A telematic device refers to a device comprising integrated computing, wireless communications and / or a global navigation satellite system device, allowing transmission, reception and / or storage of information over a network. The user interface may be one or more inputs, eg, a fluid input such as air, a tactile input such as a button press, an audio input such as a voice command, and / or detected by an accelerometer and / or gyroscope Etc., movement of the electronic device 202 may allow interaction with the device being controlled.

[0046]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。MEMS検知および処理モジュール104は、人間の呼気の排出によって生成された運動エネルギーを検知するように、かつ、それに応じて1つまたは複数の制御信号を生成するように動作可能でありうる、1つまたは複数のセグメントまたは部材を備えることができる。生成された1つまたは複数の制御信号は、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、PC、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、表示デバイス106dのユーザインタフェース107d、TV/ゲームコンソール/他のプラットフォーム106eのユーザインタフェース107e、ならびに、移動マルチメディアプレイヤおよび/もしくはリモートコントローラのユーザインタフェースなど、複数のデバイスのうち1つまたは複数のユーザインタフェースを制御するように動作可能でありうる。ユーザインタフェースの1つの例示的実施形態は、グラフィカルユーザインタフェース(GUI)である。プログラムおよび/またはアプリケーションを含む、ディスプレイ上に提示されたいかなる情報および/またはデータも、ユーザインタフェースの一部でありうる。2008年3月26日出願の米国特許出願第12/055,999号は、例示的MEMS検知および処理モジュールを開示し、参照により全体として本明細書に組み込まれる。   [0046] The MEMS sensing and processing module 104 may comprise suitable logic, circuitry, interfaces and / or code that may be operable to detect movement caused by the exhalation of human breath by the user 102. it can. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The MEMS detection and processing module 104 may be operable to detect kinetic energy generated by the exhalation of human breath and to generate one or more control signals accordingly. Or it can comprise a plurality of segments or members. The generated one or more control signals are the user interface 107a of the multimedia device 106a, the user interface 107b of the mobile phone / smartphone / dataphone 106b, the user interface 107c of the PC, laptop or notebook computer 106c, display device Control one or more user interfaces of multiple devices, such as user interface 107d of 106d, user interface 107e of TV / game console / other platform 106e, and mobile multimedia player and / or remote controller user interface May be operable to One exemplary embodiment of a user interface is a graphical user interface (GUI). Any information and / or data presented on the display, including programs and / or applications, can be part of the user interface. US patent application Ser. No. 12 / 055,999, filed Mar. 26, 2008, discloses an exemplary MEMS sensing and processing module and is incorporated herein by reference in its entirety.

[0047]本発明の一実施形態によれば、人間の呼気の排出によって引き起こされた動きの検出は、チャネルを使用せずに生じる場合がある。人間の呼気の排出によって引き起こされた動きの検出は、オープンスペースへの人間の呼気の排出に応答することができ、この排出が次いで検知される。   [0047] According to one embodiment of the present invention, detection of motion caused by the exhalation of human exhalation may occur without using a channel. Detection of movement caused by the exhalation of human exhalation can be responsive to the expulsion of human exhalation into an open space, which is then detected.

[0048]本発明の別の実施形態によれば、MEMS検知および処理モジュール104は、生成された1つまたは複数の制御信号を介して、ハンドヘルドデバイス、例えば、マルチメディアデバイス106a、携帯電話/スマートフォン/データフォン106b、PC、ラップトップもしくはノートブックコンピュータ106c、表示デバイス106d、および/または、TV/ゲームコンソール/他のプラットフォーム106eなど、複数のデバイスのより多くのものの1つのユーザインタフェース内でナビゲートするように動作可能でありうる。MEMS検知および処理モジュール104は、生成された1つまたは複数の制御信号を介して、複数のデバイスのユーザインタフェース内で、1つまたは複数のコンポーネントを選択するように動作可能でありうる。生成された1つまたは複数の制御信号は、1つまたは複数の有線および/または無線信号を備えることができる。   [0048] According to another embodiment of the present invention, the MEMS sensing and processing module 104 may communicate the handheld device, eg, multimedia device 106a, mobile phone / smartphone, via the generated one or more control signals. / Navigating in one user interface of more of multiple devices, such as data phone 106b, PC, laptop or notebook computer 106c, display device 106d, and / or TV / game console / other platform 106e May be operable to The MEMS sensing and processing module 104 may be operable to select one or more components within the user interface of the plurality of devices via the generated one or more control signals. The generated one or more control signals may comprise one or more wired and / or wireless signals.

[0049]本発明の別の実施形態によれば、ハンドヘルドデバイス、例えば、マルチメディアデバイス106a、および/または、携帯電話/スマートフォン/データフォン106b、および/または、PC、ラップトップもしくはノートブックコンピュータ106cなど、複数のデバイスのうち1つまたは複数は、別のデバイス108から、ユーザインタフェースを定義する1つまたは複数の入力を受信するように動作可能でありうる。他のデバイス108は、PC、ラップトップもしくはノートブックコンピュータ106c、ならびに/または、ハンドヘルドデバイス、例えば、マルチメディアデバイス106a、および/もしくは、携帯電話/スマートフォン/データフォン106bのうち、1つまたは複数であってもよい。この点について、データは、他のデバイス108から携帯電話/スマートフォン/データフォン106bへ転送されてもよく、このデータは、携帯またはPCSサービスプロバイダなど、サービスプロバイダを介して、携帯電話/スマートフォン/データフォン106bによってリモートアクセスされうる、メディアコンテンツに関連付けまたはマッピングされてもよい。メディアコンテンツに関連付けまたはマッピングされる、転送されたデータは、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107bをカスタマイズするために利用されてもよい。この点について、1つまたは複数の受信された入力に関連付けられたメディアコンテンツは、制御されているデバイスのユーザインタフェースの一体部分になりうる。関連付けおよび/またはマッピングは、他のデバイス108、および/または、1つの携帯電話/スマートフォン/データフォン106bのいずれかにおいて行われうる。関連付けおよび/またはマッピングが他のデバイス108上で行われる場合、関連付けかつ/またはマッピングされたデータは、他のデバイス108から携帯電話/スマートフォン/データフォン106bへ転送されてもよい。   [0049] According to another embodiment of the present invention, a handheld device, such as a multimedia device 106a, and / or a cell phone / smartphone / data phone 106b, and / or a PC, laptop or notebook computer 106c Etc., one or more of the plurality of devices may be operable to receive one or more inputs defining another user interface from another device 108. Other devices 108 may be one or more of a PC, laptop or notebook computer 106c, and / or handheld device, eg, multimedia device 106a and / or cell phone / smartphone / dataphone 106b. There may be. In this regard, data may be transferred from other devices 108 to the cell phone / smart phone / data phone 106b, which may be transferred to the cell phone / smart phone / data via a service provider, such as a cell phone or PCS service provider. It may be associated or mapped to media content that may be remotely accessed by phone 106b. The transferred data associated or mapped to the media content may be utilized to customize the user interface 107b of the mobile phone / smartphone / dataphone 106b. In this regard, the media content associated with one or more received inputs can be an integral part of the user interface of the device being controlled. The association and / or mapping may be done either on the other device 108 and / or one mobile phone / smartphone / dataphone 106b. If the association and / or mapping is performed on the other device 108, the associated and / or mapped data may be transferred from the other device 108 to the mobile phone / smartphone / dataphone 106b.

[0050]本発明の例示的実施形態では、他のデバイス108から携帯電話/スマートフォン/データフォン106bへ転送されたアイコンは、携帯電話/スマートフォン106bのサービスプロバイダを介して、携帯電話/スマートフォン/データフォン106bによってリモートアクセスされうる、RSSフィード、HTMLおよびXMLなどのマークアップ言語など、メディアコンテンツに関連付けまたはマッピングされてもよい。したがって、ユーザ102がMEMS検知および処理モジュール104上で息を吹くとき、MEMS検知および処理モジュール104によって生成された制御信号は、そのアイコンにナビゲートし、そのアイコンを選択することができる。そのアイコンが選択された後、RSSフィードまたはマークアップ言語には、携帯電話/スマートフォン/データフォン106bのサービスプロバイダを介してアクセス可能であり、対応するRSSフィードまたはマークアップ言語コンテンツは、ユーザインタフェース107b上に表示されうる。2008年3月26日出願の米国特許出願第12/056,187号は、デバイスのユーザインタフェースをカスタマイズするための例示的方法およびシステムを開示し、参照により全体として本明細書に組み込まれる。   [0050] In an exemplary embodiment of the invention, the icons transferred from the other device 108 to the mobile phone / smartphone / dataphone 106b are transmitted to the mobile phone / smartphone / data via the service provider of the mobile phone / smartphone 106b. It may be associated or mapped to media content, such as RSS feeds, markup languages such as HTML and XML, which may be remotely accessed by the phone 106b. Thus, when the user 102 blows on the MEMS sensing and processing module 104, the control signal generated by the MEMS sensing and processing module 104 can navigate to and select that icon. After the icon is selected, the RSS feed or markup language can be accessed via the mobile phone / smartphone / dataphone 106b service provider, and the corresponding RSS feed or markup language content can be accessed by the user interface 107b. Can be displayed above. US patent application Ser. No. 12 / 056,187, filed Mar. 26, 2008, discloses an exemplary method and system for customizing the user interface of a device and is hereby incorporated by reference in its entirety.

[0051]動作において、ユーザ102はオープンスペースに息を吐き出すことができ、吐き出された呼気または空気は、MEMS検知および処理モジュール104内の、1つまたは複数のセンサ、検知部材および/または検知セグメントなど、1つまたは複数の検出デバイスまたは検出器によって検知されうる。MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。1つまたは複数の電気、光および/または磁気信号は、人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104内の1つまたは複数の検出デバイスまたは検出器によって生成されうる。MEMS検知および処理モジュール104内のプロセッサファームウェアは、様々なアルゴリズムを利用する1つまたは複数の検出デバイス(複数可)または検出器(複数可)からの、受信された電気、光および/または磁気信号を処理するように、かつ、制御されているデバイス、例えば、マルチメディアデバイス106aへの1つまたは複数の制御信号を生成するように動作可能でありうる。生成された1つまたは複数の制御信号は、有線および/または無線信号を介して、制御されているデバイス、例えば、マルチメディアデバイス106aへ通信されうる。制御されているデバイス内のプロセッサは、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、表示デバイス106dのユーザインタフェース107d、TV/ゲームコンソール/他のプラットフォーム106eのユーザインタフェース107e、ならびに、移動マルチメディアプレイヤおよび/もしくはリモートコントローラのユーザインタフェースなど、制御されているデバイスのユーザインタフェースを制御するために、通信された制御信号を利用することができる。   [0051] In operation, the user 102 can exhale into an open space, and the exhaled breath or air is one or more sensors, sensing members, and / or sensing segments within the MEMS sensing and processing module 104. Etc., which may be sensed by one or more detection devices or detectors. The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. The one or more electrical, optical and / or magnetic signals are one or more detection devices or detectors in the MEMS sensing and processing module 104 in response to detecting motion caused by the exhalation of human breath. Can be generated. The processor firmware in the MEMS sensing and processing module 104 receives received electrical, optical and / or magnetic signals from one or more detection device (s) or detector (s) that utilize various algorithms. And may be operable to generate one or more control signals to the device being controlled, eg, multimedia device 106a. The generated one or more control signals may be communicated to the controlled device, eg, multimedia device 106a, via wired and / or wireless signals. The processor in the device being controlled includes a user interface 107a of the multimedia device 106a, a user interface 107b of a mobile phone / smartphone / dataphone 106b, a user interface 107c of a personal computer (PC), laptop or notebook computer 106c, To control the user interface of the device being controlled, such as the user interface 107d of the display device 106d, the user interface 107e of the TV / game console / other platform 106e, and the user interface of the mobile multimedia player and / or remote controller In addition, the communicated control signal can be used.

[0052]図1Bは、本発明の一実施形態による、人間の呼気を検出するための例示的検出デバイスまたは検出器のブロック図である。図1Bを参照すると、ユーザ102および検知モジュール110が図示される。検知モジュール110は、センサ制御チップ109および複数のセンサ、例えば、111a、111b、111cおよび111dを備えることができる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、検知モジュール110は、図1Bに示された数より多いかまたは少ない、センサまたは検知部材もしくはセグメントを備えることができる。したがって、任意の数の検出器およびソースが、所望のサイズ、感度および所望の分解能に従って利用されてもよい。同様に、ソースおよび検出器のタイプには、可視光以外の他の検知機構が含まれうる。例えば、圧電、超音波、ホール効果、静電、および/または、永久もしくは電磁石センサは、センサ制御チップ109へ通信される信号を生成するために、歪められたMEMS部材によってアクティベートされうる。   [0052] FIG. 1B is a block diagram of an exemplary detection device or detector for detecting human expiration, according to one embodiment of the invention. Referring to FIG. 1B, a user 102 and a detection module 110 are illustrated. The detection module 110 can include a sensor control chip 109 and a plurality of sensors, for example, 111a, 111b, 111c, and 111d. Nevertheless, the present invention may not be so limited, and without limiting the scope of the present invention, the sensing module 110 may have more or fewer sensors or sensing members than shown in FIG. A segment can be provided. Thus, any number of detectors and sources may be utilized according to the desired size, sensitivity and desired resolution. Similarly, source and detector types may include other sensing mechanisms other than visible light. For example, piezoelectric, ultrasonic, Hall effect, electrostatic, and / or permanent or electromagnet sensors can be activated by a distorted MEMS member to generate a signal that is communicated to the sensor control chip 109.

[0053]検知モジュール110は、例えば、電気化学センサまたは任意の他のタイプの呼気解析センサであってもよい。複数のセンサまたは検知部材もしくはセグメント111a〜dは、ユーザ102の呼気からの様々な速度の空気の流れの検出を可能にすることができる、1つまたは複数のMEMSデバイスの一体部分であってもよい。複数のセンサまたは検知部材もしくはセグメント111a〜dは、ユーザ102による人間の呼気の排出によって引き起こされた運動エネルギーおよび/または動きを検出するように動作可能でありうる。センサ制御チップ109は、人間の呼気の排出によって引き起こされた運動エネルギーおよび/または動きの検出に応答して、プロセッサへ通信されうる電気、光および/または磁気信号を生成するように動作可能でありうる。   [0053] The sensing module 110 may be, for example, an electrochemical sensor or any other type of breath analysis sensor. The plurality of sensors or sensing members or segments 111a-d may be an integral part of one or more MEMS devices that may allow detection of air flow at various velocities from the user 102 exhalation. Good. The plurality of sensors or sensing members or segments 111a-d may be operable to detect kinetic energy and / or movement caused by the exhalation of human exhalation by the user 102. The sensor control chip 109 is operable to generate electrical, optical and / or magnetic signals that can be communicated to the processor in response to detection of kinetic energy and / or movement caused by human exhalation. sell.

[0054]図1Cは、本発明の一実施形態による、人間の呼気を使用してデバイスのユーザインタフェースを制御するための例示的システムの別の実施形態のブロック図である。図1Cを参照すると、ユーザ102、および、マルチメディアデバイス106a、携帯電話/スマートフォン/データフォン106b、PC、ラップトップもしくはノートブックコンピュータ106c、表示デバイス106d、および/または、TV/ゲームコンソール/他のプラットフォーム106eなど、制御されているデバイス106が図示される。制御されているデバイス106は、情報のサイドローディングを行うために、複数の他のデバイス108に有線および/または無線で接続されうる。制御されているデバイス106は、MEMS検知および処理モジュール104ならびにユーザインタフェース107を備えることができる。   [0054] FIG. 1C is a block diagram of another embodiment of an exemplary system for controlling the user interface of a device using human exhalation, according to one embodiment of the present invention. Referring to FIG. 1C, the user 102 and multimedia device 106a, cell phone / smartphone / data phone 106b, PC, laptop or notebook computer 106c, display device 106d, and / or TV / game console / other A device 106 being controlled, such as platform 106e, is illustrated. The controlled device 106 may be wired and / or wirelessly connected to a plurality of other devices 108 for side loading of information. The device 106 being controlled can include a MEMS sensing and processing module 104 and a user interface 107.

[0055]MEMS検知および処理モジュール104は、検知モジュール110、処理モジュール112および受動デバイス113を備えることができる。レジスタ、コンデンサおよび/またはインダクタが含まれうる受動デバイス113は、MEMS処理検知および処理モジュール104の基板材料内に埋め込まれてもよい。処理モジュール112は、例えば、ASICを備えることができる。検知モジュール110は一般に、検出デバイスまたは検出器と呼ばれる場合があり、ユーザ102による人間の呼気の排出によって引き起こされた運動エネルギーおよび/または動きを検出するように動作可能でありうる、1つまたは複数のセンサ、検知部材および/または検知セグメントを備えることができる。検知モジュール110は、人間の呼気の排出によって引き起こされた運動エネルギーおよび/または動きの検出に応答して、処理モジュール112へ通信されうる電気、光および/または磁気信号を生成するように動作可能でありうる。   [0055] The MEMS detection and processing module 104 may comprise a detection module 110, a processing module 112, and a passive device 113. Passive devices 113, which may include resistors, capacitors and / or inductors, may be embedded within the substrate material of the MEMS process sensing and processing module 104. The processing module 112 can comprise, for example, an ASIC. The sensing module 110, commonly referred to as a sensing device or detector, may be operable to detect kinetic energy and / or movement caused by the exhalation of human breath by the user 102. Sensors, sensing members and / or sensing segments. The sensing module 110 is operable to generate electrical, optical and / or magnetic signals that can be communicated to the processing module 112 in response to detection of kinetic energy and / or movement caused by the exhalation of human breath. It is possible.

[0056]処理モジュール112は、検知モジュール110から、生成された電気信号を受信するように、かつ、制御されているデバイス106への1つまたは複数の制御信号を生成するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。この点について、処理モジュール112は、検知された信号を1つまたは複数のデジタル信号へ変換するように動作可能でありうる、1つまたは複数のアナログ−デジタルコンバータを備えることができ、この1つまたは複数のデジタル信号は、1つまたは複数の制御信号を生成するために利用されうる。生成された1つまたは複数の制御信号は、制御されているデバイス106のユーザインタフェース107を制御するように動作可能でありうる。   [0056] The processing module 112 is operable to receive the generated electrical signal from the sensing module 110 and to generate one or more control signals to the device 106 being controlled. Appropriate logic, circuitry, interfaces and / or code may be provided. In this regard, the processing module 112 may comprise one or more analog-to-digital converters that may be operable to convert the sensed signal into one or more digital signals. Alternatively, a plurality of digital signals can be utilized to generate one or more control signals. The generated one or more control signals may be operable to control the user interface 107 of the device 106 being controlled.

[0057]したがって、MEMS検知および処理モジュール104からの生成された1つまたは複数の信号は、ユーザインタフェース107を制御するために利用されうる。本発明の例示的実施形態では、MEMS検知および処理モジュール104によって生成された1つまたは複数の信号は、ユーザインタフェース107内の項目が選択かつ/または操作可能であるように、制御されているデバイス106上でポインタを制御するように動作可能でありうる。本発明の例示的実施形態では、制御されているデバイスは、他のデバイス108から1つまたは複数の入力を受信するように動作可能であってもよく、この1つまたは複数の入力は、ユーザインタフェース107をカスタマイズまたは定義するために利用されうる。他のデバイス108は、PC、ラップトップもしくはノートブックコンピュータ106c、ならびに/または、ハンドヘルドデバイス、例えば、マルチメディアデバイス106a、および/もしくは、携帯電話/スマートフォン/データフォン106bのうち、1つまたは複数であってもよい。この点について、他のデバイス108は、制御されているデバイス106のタイプに類似しても、それとは異なってもよい。本発明のいくつかの実施形態では、他のデバイス108内のプロセッサは、データを、制御されているデバイス106によってリモートアクセス可能であるメディアコンテンツに関連付けまたはマッピングするように動作可能でありうる。本発明の他の実施形態では、制御されているデバイス106内のプロセッサは、データを、制御されているデバイス106によってリモートアクセス可能であるメディアコンテンツに関連付けまたはマッピングするように動作可能でありうる。2008年3月26日出願の米国特許出願第12/056,187号は、デバイスのユーザインタフェースをカスタマイズするための例示的方法およびシステムを開示し、参照により全体として本明細書に組み込まれる。   [0057] Accordingly, the generated signal or signals from the MEMS sensing and processing module 104 may be utilized to control the user interface 107. In an exemplary embodiment of the invention, the one or more signals generated by MEMS sensing and processing module 104 are controlled so that items in user interface 107 are selectable and / or operable. It may be operable to control the pointer on 106. In an exemplary embodiment of the invention, the device being controlled may be operable to receive one or more inputs from other devices 108, where the one or more inputs are It can be used to customize or define the interface 107. Other devices 108 may be one or more of a PC, laptop or notebook computer 106c, and / or handheld device, eg, multimedia device 106a and / or cell phone / smartphone / dataphone 106b. There may be. In this regard, other devices 108 may be similar to or different from the type of device 106 being controlled. In some embodiments of the present invention, processors in other devices 108 may be operable to associate or map data to media content that is remotely accessible by the controlled device 106. In other embodiments of the invention, the processor in the controlled device 106 may be operable to associate or map data to media content that is remotely accessible by the controlled device 106. US patent application Ser. No. 12 / 056,187, filed Mar. 26, 2008, discloses an exemplary method and system for customizing the user interface of a device and is hereby incorporated by reference in its entirety.

[0058]図1Dは、本発明の一実施形態による、制御されているデバイスとインタラクトする例示的プロセッサのブロック図である。図1Dを参照すると、マルチメディアデバイス106a、携帯電話/スマートフォン/データフォン106b、PC、ラップトップもしくはノートブックコンピュータ106c、表示デバイス106d、および/または、TV/ゲームコンソール/他のプラットフォーム106eなど、制御されているデバイス106が図示される。制御されているデバイス106は、処理モジュール112、通信モジュール120、プロセッサ122、メモリ123、ファームウェア124、ディスプレイ126、および、ユーザインタフェース128を備えることができる。処理モジュール112は、ASICであってもよく、1つまたは複数のアナログ−デジタルコンバータ(ADC)114、プロセッサファームウェア116、および、通信モジュール118を備えることができる。制御されているデバイス106は、例えば、サイドローディング、もしくは、ピアツーピア接続を介したローディング、および/または、ネットワーク接続を介して、ならびに、有線および/もしくは無線通信によって、情報のローディングを行うために、複数の他のデバイス108に有線および/または無線で接続されうる。   [0058] FIG. 1D is a block diagram of an exemplary processor interacting with a controlled device, according to one embodiment of the invention. Referring to FIG. 1D, control such as multimedia device 106a, mobile phone / smartphone / dataphone 106b, PC, laptop or notebook computer 106c, display device 106d, and / or TV / game console / other platform 106e Device 106 is shown. The device 106 being controlled can comprise a processing module 112, a communication module 120, a processor 122, a memory 123, firmware 124, a display 126, and a user interface 128. The processing module 112 may be an ASIC and may include one or more analog-to-digital converters (ADC) 114, processor firmware 116, and a communication module 118. The device 106 being controlled may perform information loading, for example, via side loading or loading via a peer-to-peer connection and / or via a network connection and via wired and / or wireless communication. It can be connected to multiple other devices 108 in a wired and / or wireless manner.

[0059]処理モジュール112は、検知モジュール110からデジタル検知信号および/またはアナログ検知信号を受信するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。ADC114は、生成されたアナログ検知信号を検知モジュール110から受信するように、かつ、受信された信号をデジタル信号に変換するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。   [0059] The processing module 112 may comprise suitable logic, circuitry, interfaces, and / or code that may be operable to receive digital and / or analog sensing signals from the sensing module 110. The ADC 114 may be operable to receive the generated analog sensing signal from the sensing module 110 and to convert the received signal to a digital signal, suitable logic, circuitry, interface and / or code. Can be provided.

[0060]プロセッサファームウェア116は、1つまたは複数の制御信号を生成するために、複数のアルゴリズムを利用して、ADC114からのデジタル信号、および/または、検知モジュール110からのデジタル検知信号を受信かつ処理するように動作可能でありうる、適切なロジック、回路および/またはコードを備えることができる。例えば、プロセッサファームウェア116は、検知モジュール110の出力を読み取り、格納、較正、フィルタリング、モデル化(modelize)、計算かつ/または比較するように動作可能でありうる。プロセッサファームウェア116はまた、特定のユーザ102の呼吸パターンに適合するように、人工知能(AI)アルゴリズムを組み込むように動作可能であってもよい。プロセッサファームウェア116は、受信されたデジタル信号の処理に基づいて、制御されているデバイス106への1つまたは複数の制御信号を生成するように動作可能でありうる。生成された1つまたは複数の制御信号は、例えば、制御されているデバイス106内のスクロール、ズーミングおよび/または3−Dナビゲーションなど、制御されているデバイス106のユーザインタフェースを制御するように動作可能でありうる。   [0060] The processor firmware 116 utilizes a plurality of algorithms to receive a digital signal from the ADC 114 and / or a digital sensing signal from the sensing module 110 to generate one or more control signals. Appropriate logic, circuitry and / or code may be provided that may be operable to process. For example, the processor firmware 116 may be operable to read, store, calibrate, filter, modelize, calculate and / or compare the output of the sensing module 110. The processor firmware 116 may also be operable to incorporate artificial intelligence (AI) algorithms to adapt to a particular user's 102 breathing pattern. The processor firmware 116 may be operable to generate one or more control signals to the device 106 being controlled based on the processing of the received digital signals. The generated control signal or signals are operable to control the user interface of the controlled device 106, such as, for example, scrolling, zooming and / or 3-D navigation within the controlled device 106. It can be.

[0061]通信モジュール118は、生成された1つまたは複数の制御信号を受信し、かつ通信モジュール120へ通信するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。通信モジュール118および120は、複数のインタフェースをサポートすることができる。例えば、通信モジュール118および120は、外部メモリインタフェース、汎用非同期送受信器(UART)インタフェース、拡張シリアル・ペリフェラル・インタフェース(eSPI)、汎用入出力(GPIO)インタフェース、パルス符号変調(PCM)および/もしくはIC間サウンド(IS)インタフェース、集積回路間(IC)バスインタフェース、ユニバーサルシリアルバス(USB)インタフェース、ブルートゥースインタフェース、ジグビーインタフェース、IrDAインタフェース、ならびに/または、無線USB(W−USB)インタフェースをサポートすることができる。 [0061] The communication module 118 comprises appropriate logic, circuitry, interfaces and / or code that may be operable to receive the generated one or more control signals and communicate to the communication module 120. be able to. Communication modules 118 and 120 may support multiple interfaces. For example, the communication modules 118 and 120 may include external memory interfaces, general purpose asynchronous transceiver (UART) interfaces, extended serial peripheral interfaces (eSPI), general purpose input / output (GPIO) interfaces, pulse code modulation (PCM) and / or ICs. Inter-sound (I 2 S) interface, inter-integrated circuit (I 2 C) bus interface, universal serial bus (USB) interface, Bluetooth interface, ZigBee interface, IrDA interface, and / or wireless USB (W-USB) interface Can be supported.

[0062]通信モジュール120は、有線および/または無線信号を介して、通信された制御信号を受信するように動作可能でありうる。プロセッサ122は、受信された1つまたは複数の制御信号を利用して、ユーザインタフェース128および/またはディスプレイ126を制御するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。メモリは、制御されているデバイス106上のデータを格納するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。ファームウェア124は、受信された制御信号を機能的コマンドに変換するために、複数のドライバおよびオペレーティングシステム(OS)ライブラリを備えることができる。ファームウェア124は、ローカル機能をマッピングするように、かつ、ユーザインタフェース128を制御するために、受信された制御信号を、ユーザカスタマイゼーションフィーチャ、アプレットおよび/またはプラグインなど、互換性のあるデータに変換するように動作可能でありうる。   [0062] The communication module 120 may be operable to receive communicated control signals via wired and / or wireless signals. The processor 122 may utilize appropriate logic, circuitry, interfaces and / or code that may be operable to control the user interface 128 and / or the display 126 utilizing the received one or more control signals. Can be provided. The memory can comprise suitable logic, circuitry, interfaces and / or code that can be operable to store data on the device 106 being controlled. Firmware 124 may comprise a plurality of drivers and an operating system (OS) library to convert received control signals into functional commands. Firmware 124 converts received control signals into compatible data, such as user customization features, applets and / or plug-ins, to map local functions and to control user interface 128. May be operable.

[0063]制御されているデバイス106は、別のデバイス108から、ユーザインタフェース128を定義する1つまたは複数の入力を受信するように動作可能でありうる。他のデバイス108は、ユーザインタフェース129およびプロセッサ125を備えることができる。他のデバイス108は、PC、ラップトップもしくはノートブックコンピュータ106c、ならびに/または、ハンドヘルドデバイス、例えば、マルチメディアデバイス106a、および/もしくは、携帯電話/スマートフォン/データフォン106bのうち、1つまたは複数であってもよい。この点について、データは、他のデバイス108から、携帯電話/スマートフォン/データフォン106bなど、制御されているデバイスへ転送されてもよく、このデータは、携帯またはPCSサービスプロバイダなど、サービスプロバイダを介して、携帯電話/スマートフォン/データフォン106bによってリモートアクセスされうる、メディアコンテンツに関連付けまたはマッピングされてもよい。メディアコンテンツに関連付けまたはマッピングされる、転送されたデータは、携帯電話/スマートフォン/データフォン106bなど、制御されているデバイスのユーザインタフェース128をカスタマイズするために利用されうる。この点について、1つまたは複数の受信された入力に関連付けられたメディアコンテンツは、制御されているデバイス106のユーザインタフェース128の一体部分になりうる。   [0063] The device 106 being controlled may be operable to receive one or more inputs defining a user interface 128 from another device 108. Other devices 108 can include a user interface 129 and a processor 125. Other devices 108 may be one or more of a PC, laptop or notebook computer 106c, and / or handheld device, eg, multimedia device 106a and / or cell phone / smartphone / dataphone 106b. There may be. In this regard, data may be transferred from another device 108 to a controlled device, such as a mobile phone / smartphone / dataphone 106b, which is routed through a service provider, such as a mobile or PCS service provider. And may be associated or mapped to media content that may be remotely accessed by the mobile phone / smartphone / dataphone 106b. The transferred data associated or mapped to the media content can be utilized to customize the user interface 128 of the device being controlled, such as cell phone / smart phone / data phone 106b. In this regard, media content associated with one or more received inputs can be an integral part of the user interface 128 of the device 106 being controlled.

[0064]本発明のいくつかの実施形態では、他のデバイス108内のプロセッサ125は、データを、制御されているデバイス106によってリモートアクセス可能であるメディアコンテンツに関連付けまたはマッピングするように動作可能でありうる。本発明の他の実施形態では、制御されているデバイス106内のプロセッサ122は、データを、制御されているデバイス106によってリモートアクセス可能であるメディアコンテンツに関連付けまたはマッピングするように動作可能でありうる。   [0064] In some embodiments of the invention, the processor 125 in the other device 108 is operable to associate or map data to media content that is remotely accessible by the device 106 being controlled. It is possible. In other embodiments of the invention, the processor 122 in the controlled device 106 may be operable to associate or map data to media content that is remotely accessible by the controlled device 106. .

[0065]図1Eは、本発明の一実施形態による、2つ以上のデバイス間で情報のサイドローディングを行うための例示的システムのブロック図である。図1Eを参照すると、キャリアネットワーク124、複数の移動電話130a、130b、130cおよび130dなど、複数の制御されているデバイス106、インターネットなどのネットワーク134に接続されたPC、ラップトップまたはノートブックコンピュータ132が図示される。ネットワーク134は、ウェブサーバ136、無線キャリアポータル138、ウェブポータル140および/またはデータベース142に結合されうる。複数の制御されているデバイス106の各々は、ユーザインタフェースを有することができる。例えば、移動電話130aは、ユーザインタフェース131aを有することができ、移動電話130bは、ユーザインタフェース131bを有することができ、移動電話130cは、ユーザインタフェース131cを有することができ、移動電話130dは、ユーザインタフェース131dを有することができる。PC、ラップトップまたはノートブックコンピュータ132は、ユーザインタフェース133を有することができる。   [0065] FIG. IE is a block diagram of an exemplary system for sideloading information between two or more devices, according to one embodiment of the invention. Referring to FIG. 1E, a carrier network 124, a plurality of mobile phones 130a, 130b, 130c and 130d, such as a plurality of controlled devices 106, a PC, laptop or notebook computer 132 connected to a network 134 such as the Internet. Is illustrated. Network 134 may be coupled to web server 136, wireless carrier portal 138, web portal 140 and / or database 142. Each of the plurality of controlled devices 106 may have a user interface. For example, the mobile phone 130a can have a user interface 131a, the mobile phone 130b can have a user interface 131b, the mobile phone 130c can have a user interface 131c, and the mobile phone 130d can be a user An interface 131d can be included. The PC, laptop or notebook computer 132 can have a user interface 133.

[0066]キャリアネットワーク124は、無線アクセスキャリアネットワークであってもよい。例示的キャリアネットワークには、2G、2.5G、3G、4G、IEEE802.11、IEEE802.16、ならびに/または、ボイス、ビデオおよび/もしくはデータ通信を扱うことが可能な適切なネットワークが含まれうる。複数の制御されているデバイス106は、キャリアネットワーク124に無線接続されうる。移動電話130aなど、制御されているデバイスの1つは、例えば、ピアツーピア(P2P)ネットワークを介して、複数の移動電話130b、130cおよび130dに接続されうる。移動電話130aなど、制御されているデバイスは、有線または無線ネットワークを介して、PC、ラップトップまたはノートブックコンピュータ132に通信的に結合されうる。例えば、移動電話130aは、赤外線(IR)リンク、光リンク、USBリンク、無線USB、ブルートゥースリンクおよび/またはジグビーリンクを介して、PC、ラップトップまたはノートブックコンピュータ132に通信的に結合されうる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、他の有線および/または無線リンクが利用されうる。PC、ラップトップまたはノートブックコンピュータ132は、有線または無線ネットワークを介して、ネットワーク134、例えば、インターネットネットワーク134に通信的に結合されうる。複数の移動電話130a、130b、130cおよび130dなど、複数の制御されているデバイスは、インターネットネットワーク134に無線接続されうる。   [0066] The carrier network 124 may be a radio access carrier network. Exemplary carrier networks may include 2G, 2.5G, 3G, 4G, IEEE 802.11, IEEE 802.16, and / or suitable networks capable of handling voice, video and / or data communications . A plurality of controlled devices 106 may be wirelessly connected to the carrier network 124. One of the devices being controlled, such as mobile phone 130a, may be connected to a plurality of mobile phones 130b, 130c and 130d via, for example, a peer-to-peer (P2P) network. A device being controlled, such as mobile phone 130a, may be communicatively coupled to a PC, laptop or notebook computer 132 via a wired or wireless network. For example, the mobile phone 130a can be communicatively coupled to a PC, laptop or notebook computer 132 via an infrared (IR) link, an optical link, a USB link, a wireless USB, a Bluetooth link and / or a ZigBee link. Nevertheless, the invention may not be so limited and other wired and / or wireless links may be utilized without limiting the scope of the invention. A PC, laptop or notebook computer 132 may be communicatively coupled to a network 134, eg, an Internet network 134, via a wired or wireless network. A plurality of controlled devices, such as a plurality of mobile phones 130a, 130b, 130c and 130d, may be wirelessly connected to the Internet network 134.

[0067]ウェブサーバ136は、例えば、インターネットネットワーク134を介して、PC、ラップトップまたはノートブックコンピュータ132上にインストールされたクライアントまたはウェブブラウザから、HTTPおよび/またはFTP要求を受信するように、かつ、例えば、HTML文書およびリンクされたオブジェクトなど、任意選択のデータコンテンツと共に、HTTP応答を生成するように動作可能でありうる、適切なロジック、回路および/またはコードを備えることができる。   [0067] The web server 136 is configured to receive HTTP and / or FTP requests from, for example, a client or web browser installed on a PC, laptop, or notebook computer 132 via the Internet network 134, and Appropriate logic, circuitry and / or code may be provided that may be operable to generate an HTTP response with optional data content such as, for example, HTML documents and linked objects.

[0068]無線キャリアポータル138は、移動デバイス、例えばそのような移動電話130aを介して、インターネットネットワーク134上の情報へのアクセスのポイントとしての機能を果たすように動作可能でありうる、適切なロジックおよび/またはコードを備えることができる。無線キャリアポータル138は、例えば、モバイルウェブページを介して単一の機能を提供するように動作可能でありうる、例えば、ウェブサイトであってもよい。   [0068] The wireless carrier portal 138 is suitable logic that may be operable to serve as a point of access to information on the Internet network 134 via a mobile device, such as a mobile phone 130a. And / or a code. The wireless carrier portal 138 may be, for example, a website that may be operable to provide a single function via, for example, a mobile web page.

[0069]ウェブポータル140は、インターネット134上の情報へのアクセスのポイントとしての機能を果たすように動作可能でありうる、適切なロジックおよび/またはコードを備えることができる。ウェブポータル140は、例えば、ウェブページまたはサイトを介して単一の機能を提供するように動作可能でありうる、サイトであってもよい。ウェブポータル140は、電子メール、ニュース、株価、インフォテインメントおよび様々な他の特集記事など、多様なソースからの情報を統一された方法で提示することができる。データベース142は、例えば、レコードまたはデータの構造化された集まりを格納するように動作可能でありうる、適切なロジック、回路および/またはコードを備えることができる。データベース142は、ソフトウェアを利用して、データの格納を編成するように動作可能でありうる。   [0069] The web portal 140 may include suitable logic and / or code that may be operable to serve as a point of access to information on the Internet 134. Web portal 140 may be a site that may be operable to provide a single function via, for example, a web page or site. The web portal 140 can present information from a variety of sources, such as email, news, stock prices, infotainment, and various other feature articles in a unified manner. Database 142 may comprise suitable logic, circuitry, and / or code that may be operable, for example, to store a structured collection of records or data. Database 142 may be operable to organize the storage of data utilizing software.

[0070]本発明の一実施形態によれば、移動電話130aなど、制御されているデバイスは、PC、ラップトップまたはノートブックコンピュータ132など、別のデバイスから、ユーザインタフェース128を定義する1つまたは複数の入力を受信するように動作可能でありうる。制御されているデバイス106内の1つまたは複数のプロセッサ122は、1つまたは複数の受信された入力に関連付けられたコンテンツが、移動電話130aなど、制御されているデバイスのユーザインタフェース128の一体部分になりうるように、移動電話130aなど、制御されているデバイスのユーザインタフェース128をカスタマイズするように動作可能でありうる。移動電話130aは、キャリアネットワーク124からではなく、PC、ラップトップまたはノートブックコンピュータ132から直接コンテンツにアクセスするように動作可能でありうる。キャリアネットワーク124からではなく、PC、ラップトップまたはノートブックコンピュータ132から直接、カスタマイズされた情報をアップロードかつ/またはダウンロードするこの方法は、サイドローディングと呼ばれる場合がある。   [0070] According to one embodiment of the present invention, the device being controlled, such as mobile phone 130a, may define one or more user interfaces 128 from another device, such as a PC, laptop or notebook computer 132. It may be operable to receive multiple inputs. The one or more processors 122 in the controlled device 106 may be an integral part of the user interface 128 of the device being controlled, such as the mobile phone 130a, with the content associated with the one or more received inputs. Can be operable to customize the user interface 128 of a device being controlled, such as mobile phone 130a. Mobile phone 130a may be operable to access content directly from a PC, laptop or notebook computer 132 rather than from the carrier network 124. This method of uploading and / or downloading customized information directly from a PC, laptop or notebook computer 132 rather than from the carrier network 124 may be referred to as side loading.

[0071]本発明の一実施形態によれば、ユーザインタフェース128は、ユーザ102によって作成、修正かつ/または編成されうる。この点について、ユーザ102は、ユーザインタフェース128、および/または、1つもしくは複数のコンテンツコンポーネントに対して、利用されるべきコンテンツを選び、選択し、作成し、配置し、操作し、かつ/または編成することができる。例えば、ユーザ102は、画面上でコンテンツコンポーネントを編成することができ、背景および/またはアイコン画像のための個人の写真など、コンテンツを選ぶことができる。加えて、ユーザ102は、コンテンツコンポーネントがアクティベートされるか、または、ユーザ102に提示される方法を作成かつ/または修正することができる。例えば、ユーザ102は、ユーザインタフェース128のためのアイコンおよび/または背景を作成、インポートかつ/または編集することができる。したがって、ユーザ102は、ユーザ102がアイコンを介して機能を有効にするか、またはアクティベートすることができるように、アイコンを機能に関連付けかつ/またはマッピングすることができる。例示的アイコンは、ハイパーリンク、ブックマーク、プログラム/アプリケーション、ショートカット、ウィジェット、RSSもしくはマークアップ言語フィードもしくは情報、および/または、お気に入りの仲間(favorite buddies)など、機能を有効にすることができる。   [0071] According to one embodiment of the invention, the user interface 128 may be created, modified and / or organized by the user 102. In this regard, the user 102 may select, select, create, arrange, manipulate, and / or select content to be utilized for the user interface 128 and / or one or more content components. Can be organized. For example, the user 102 can organize content components on the screen and can select content such as personal photos for backgrounds and / or icon images. In addition, the user 102 can create and / or modify the manner in which the content component is activated or presented to the user 102. For example, the user 102 can create, import and / or edit icons and / or backgrounds for the user interface 128. Thus, the user 102 can associate and / or map an icon to a function so that the user 102 can enable or activate the function via the icon. Exemplary icons can enable features such as hyperlinks, bookmarks, programs / applications, shortcuts, widgets, RSS or markup language feeds or information, and / or favorite buddies.

[0072]加えて、ユーザ102は、ユーザインタフェース128内でコンテンツコンポーネントを編成かつ/または配置することができる。例えば、アイコンは、カテゴリによってグループに編成されうる。コンテンツコンポーネントなど、アイコンのグループは、例えば、アフィニティバンク(affinity banks)と呼ばれる場合がある。本発明のいくつかの実施形態では、他のデバイス108内のプロセッサ125は、データを、制御されているデバイス106によってリモートアクセス可能であるメディアコンテンツに関連付けまたはマッピングするように動作可能でありうる。本発明の他の実施形態では、制御されているデバイス106内のプロセッサ122は、データを、制御されているデバイス106によってリモートアクセス可能であるメディアコンテンツに関連付けまたはマッピングするように動作可能でありうる。例えば、プロセッサ122は、ユーザ102がアイコンを介して機能を有効にするか、またはアクティベートすることができるように、かつ、ユーザインタフェース128内でコンテンツコンポーネントを編成かつ/または配置することができるように、アイコンを機能に関連付けかつ/またはマッピングするように動作可能でありうる。   In addition, user 102 can organize and / or arrange content components within user interface 128. For example, icons can be organized into groups by category. A group of icons, such as content components, may be referred to as affinity banks, for example. In some embodiments of the invention, the processor 125 in the other device 108 may be operable to associate or map data to media content that is remotely accessible by the device 106 being controlled. In other embodiments of the invention, the processor 122 in the controlled device 106 may be operable to associate or map data to media content that is remotely accessible by the controlled device 106. . For example, the processor 122 can enable the user 102 to enable or activate functionality via an icon and can organize and / or arrange content components within the user interface 128. , May be operable to associate and / or map icons to functions.

[0073]ユーザインタフェース128および/またはコンテンツコンポーネントの作成、修正および/または編成は、移動電話130aなど、制御されているデバイス上で行われてもよく、かつ/または、PC、ラップトップもしくはノートブックコンピュータ132など、別のデバイス上で行われてもよい。この点について、PC、ラップトップもしくはノートブックコンピュータ132など、別のデバイス上で作成、修正かつ/または編成されうるユーザ画面および/またはオーディオは、移動電話130aなど、制御されているデバイスへサイドローディングされうる。加えて、サイドローディングされたユーザインタフェース128は、移動電話130aなど、制御されているデバイス上で修正かつ/または編成されうる。例えば、ユーザインタフェース128は、PC、ラップトップまたはノートブックコンピュータ132から移動電話130aへサイドローディングされてもよく、移動電話130a上でカスタマイズされうる。1つまたは複数のツールは、ユーザインタフェース128および/またはオーディオもしくは視覚的コンテンツコンポーネントの作成、修正および/または編成を可能にすることができる。   [0073] Creation, modification, and / or organization of user interface 128 and / or content components may be performed on a controlled device, such as mobile phone 130a, and / or a PC, laptop, or notebook. It may be performed on another device, such as computer 132. In this regard, user screens and / or audio that can be created, modified, and / or organized on another device, such as a PC, laptop, or notebook computer 132, are sideloaded to a controlled device, such as mobile phone 130a. Can be done. In addition, the sideloaded user interface 128 can be modified and / or organized on a controlled device, such as the mobile phone 130a. For example, the user interface 128 may be sideloaded from a PC, laptop or notebook computer 132 to the mobile phone 130a and can be customized on the mobile phone 130a. One or more tools may allow creation, modification, and / or organization of user interface 128 and / or audio or visual content components.

[0074]図2Aは、本発明の一実施形態による、デバイスに埋め込まれた例示的MEMS検知および処理モジュールを例示する図である。図2Aを参照すると、ユーザ102、および、携帯電話/スマートフォン/データフォン106bなど、制御されているデバイスが図示される。携帯電話/スマートフォン/データフォン106bは、ユーザインタフェース107b、および、埋め込み型のMEMS検知および処理モジュール104を備えることができる。本発明の一実施形態では、ユーザ102は、オープンスペースへ、かつ、MEMS検知および処理モジュール104上へ息を吐き出すことが可能にされてもよい。   [0074] FIG. 2A is a diagram illustrating an exemplary MEMS sensing and processing module embedded in a device, according to one embodiment of the invention. Referring to FIG. 2A, a user 102 and a device being controlled, such as a cell phone / smartphone / data phone 106b, is illustrated. The cell phone / smart phone / data phone 106b may include a user interface 107b and an embedded MEMS detection and processing module 104. In one embodiment of the invention, the user 102 may be allowed to exhale into open space and onto the MEMS sensing and processing module 104.

[0075]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。MEMS検知および処理モジュール104は、人間の呼気の排出によって生成された運動エネルギーを検知するように、かつ、それに応じて1つまたは複数の制御信号を生成するように動作可能でありうる、1つまたは複数のセグメントまたは部材を備えることができる。生成された1つまたは複数の制御信号は、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107bを制御するように動作可能でありうる。本発明の別の実施形態によれば、MEMS検知および処理モジュール104は、インタラクティブキオスクまたはパネル、例えば、ATMマシンに埋め込まれてもよい。ユーザ102は、例えば、インタラクティブキオスクのユーザインタフェースにアクセスし、かつ/または、それとインタラクトするために、インタラクティブキオスクに埋め込まれるMEMS検知および処理モジュール104で、一吹きの空気を吹きかけることが可能にされてもよい。   [0075] The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The MEMS detection and processing module 104 may be operable to detect kinetic energy generated by the exhalation of human breath and to generate one or more control signals accordingly. Or it can comprise a plurality of segments or members. The generated one or more control signals may be operable to control the user interface 107b of the mobile phone / smartphone / dataphone 106b. According to another embodiment of the present invention, the MEMS sensing and processing module 104 may be embedded in an interactive kiosk or panel, eg, an ATM machine. The user 102 is enabled to blow a blow of air with the MEMS detection and processing module 104 embedded in the interactive kiosk, for example, to access and / or interact with the interactive kiosk user interface. Also good.

[0076]図2Bは、本発明の一実施形態による、USBインタフェースを介してデバイスに通信的に結合されるスタンドアロンデバイス上に位置する、例示的MEMS検知および処理モジュールを例示する図である。図2Bを参照すると、スタンドアロンデバイス262、および、PC、ラップトップまたはノートブックコンピュータ132など、別のデバイスが図示される。スタンドアロンデバイス262は、例えば、テーブルまたはデスクトップ263上の、任意の適切な表面上に配置されうる。スタンドアロンデバイス262は、曲げやすい支持構造264を備えることができる。支持構造264は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。それにもかかわらず、本発明はそのように限定されない場合があり、MEMS検知および処理モジュール104は、スタンドアロンデバイス262上の他の場所、例えば、スタンドアロンデバイス262の基部内に位置することができる。それにもかかわらず、本発明はこの点で限定されない場合があり、スタンドアロンデバイス262内またはその上のMEMS検知および処理モジュール104の場所は、しかるべく変わる場合がある。MEMS検知および処理モジュール104は、例えば、USBインタフェース265を介して、PC、ラップトップまたはノートブックコンピュータ132に通信的に結合されうる。   [0076] FIG. 2B is a diagram illustrating an exemplary MEMS sensing and processing module located on a stand-alone device that is communicatively coupled to the device via a USB interface, according to one embodiment of the invention. Referring to FIG. 2B, a stand-alone device 262 and another device such as a PC, laptop or notebook computer 132 are illustrated. Stand-alone device 262 may be placed on any suitable surface, for example on a table or desktop 263. Stand-alone device 262 may include a support structure 264 that is pliable. The support structure 264 can comprise, for example, a MEMS sensing and processing module 104 located at one end. Nevertheless, the present invention may not be so limited, and the MEMS sensing and processing module 104 may be located elsewhere on the stand-alone device 262, for example within the base of the stand-alone device 262. Nevertheless, the present invention may not be limited in this regard, and the location of the MEMS sensing and processing module 104 in or on the stand-alone device 262 may vary accordingly. The MEMS detection and processing module 104 can be communicatively coupled to a PC, laptop, or notebook computer 132 via, for example, a USB interface 265.

[0077]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気からの空気などの流体の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。MEMS検知および処理モジュール104は、人間の呼気の排出によって生成された運動エネルギーを検知するように、かつ、それに応じて1つまたは複数の制御信号を生成するように動作可能でありうる、1つまたは複数のセグメントまたは部材を備えることができる。生成された1つまたは複数の制御信号は、PC、ラップトップまたはノートブックコンピュータ132など、別の制御されるデバイスに通信されうる。生成された1つまたは複数の制御信号は、PC、ラップトップまたはノートブックコンピュータ132のユーザインタフェース133を制御するように動作可能でありうる。   [0077] The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the discharge of fluid, such as air, from human exhalation, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The MEMS detection and processing module 104 may be operable to detect kinetic energy generated by the exhalation of human breath and to generate one or more control signals accordingly. Or it can comprise a plurality of segments or members. The generated one or more control signals can be communicated to another controlled device, such as a PC, laptop or notebook computer 132. The generated one or more control signals may be operable to control the user interface 133 of the PC, laptop or notebook computer 132.

[0078]図2Cは、本発明の一実施形態による、スタイラス上に位置する例示的MEMS検知および処理モジュールを例示する図である。図2Cを参照すると、ユーザ102、および、携帯電話/スマートフォン/データフォン106bなど、制御されているデバイスが図示される。携帯電話/スマートフォン/データフォン106bは、ユーザインタフェース107bおよびスタイラス202を備えることができる。スタイラス202は、引き込み可能、折り畳み可能、1つもしくは複数の軸を中心に回転可能、かつ/または、曲げやすい場合があり、携帯電話/スマートフォン/データフォン106bの本体内に納めることが可能である。それにもかかわらず、本発明の範囲を限定することなく、スタイラス202は、携帯電話/スマートフォン/データフォン106bの本体にクリップでとめることが可能な、折り曲げ可能なデバイスであってもよい。   [0078] FIG. 2C is a diagram illustrating an exemplary MEMS sensing and processing module located on a stylus, according to one embodiment of the invention. Referring to FIG. 2C, a user 102 and a device being controlled, such as a mobile phone / smartphone / dataphone 106b, is illustrated. The cell phone / smart phone / data phone 106b may include a user interface 107b and a stylus 202. The stylus 202 may be retractable, foldable, rotatable about one or more axes, and / or bendable, and may fit within the body of the cell phone / smartphone / dataphone 106b. . Nevertheless, without limiting the scope of the present invention, the stylus 202 may be a foldable device that can be clipped to the body of the cell phone / smartphone / dataphone 106b.

[0079]スタイラス202は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。本発明の一実施形態では、ユーザ102は、スタイラス202を引き込めて、オープンスペースへ、かつ、MEMS検知および処理モジュール104上へ息を吐き出すことが可能にされてもよい。   [0079] The stylus 202 may comprise, for example, a MEMS sensing and processing module 104 located at one end. In one embodiment of the present invention, the user 102 may be allowed to retract the stylus 202 to exhale into the open space and onto the MEMS sensing and processing module 104.

[0080]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。MEMS検知および処理モジュール104は、人間の呼気の排出によって生成された運動エネルギーを検知するように、かつ、それに応じて1つまたは複数の制御信号を生成するように動作可能でありうる、1つまたは複数のセグメントまたは部材を備えることができる。生成された1つまたは複数の制御信号は、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107bを制御するように動作可能でありうる。   [0080] The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The MEMS detection and processing module 104 may be operable to detect kinetic energy generated by the exhalation of human breath and to generate one or more control signals accordingly. Or it can comprise a plurality of segments or members. The generated one or more control signals may be operable to control the user interface 107b of the mobile phone / smartphone / dataphone 106b.

[0081]図2Dは、本発明の一実施形態による、軍人用のヘッドセット上に位置する例示的MEMS検知および処理モジュールを例示する図である。図2Dを参照すると、ユーザ102が図示される。ユーザ102は、取り外し可能ヘルメット208を着けることができる。取り外し可能ヘルメット208は、取り外し可能アイウェア204、取り外し可能マイクロフォン206、および、取り外し可能ヘッドセット210を備えることができる。取り外し可能ヘッドセット210は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。   [0081] FIG. 2D is a diagram illustrating an exemplary MEMS sensing and processing module located on a military headset, according to one embodiment of the invention. Referring to FIG. 2D, the user 102 is illustrated. The user 102 can wear a removable helmet 208. The removable helmet 208 can include removable eyewear 204, a removable microphone 206, and a removable headset 210. The removable headset 210 can comprise, for example, a MEMS sensing and processing module 104 located at one end.

[0082]取り外し可能アイウェア204は、例えば、暗視および/または赤外線視機能を備えることができる。取り外し可能マイクロフォン206は、例えば、他のユーザと通信するために利用されうる。本発明の一実施形態では、ユーザ102は、オープンスペースへ息を吐き出すことが可能にされてもよく、MEMS検知および処理モジュール104は、息を吐くことを検知または検出するように動作可能でありうる。息を吐くことは、ユーザ102の鼻孔および/または口から生じる場合がある。   [0082] The removable eyewear 204 may comprise, for example, night vision and / or infrared vision capabilities. The removable microphone 206 can be utilized, for example, to communicate with other users. In one embodiment of the present invention, the user 102 may be allowed to exhale into an open space and the MEMS sensing and processing module 104 is operable to detect or detect exhalation. sell. Exhaling may result from the user's 102 nostrils and / or mouth.

[0083]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。生成された1つまたは複数の制御信号は、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、および/または、表示デバイス106dのユーザインタフェース107dなど、制御されているデバイスのユーザインタフェースを制御するように動作可能でありうる。   [0083] The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The generated control signal or signals are transmitted to the user interface 107a of the multimedia device 106a, the user interface 107b of the mobile phone / smartphone / dataphone 106b, the user interface of the personal computer (PC), laptop or notebook computer 106c. 107c and / or may be operable to control the user interface of the device being controlled, such as user interface 107d of display device 106d.

[0084]図2Eは、本発明の一実施形態による、座席装置のヘッドレスト上に位置する例示的MEMS検知および処理モジュールを例示する図である。図2Eを参照すると、座席装置220が図示される。座席装置220は、ヘッドレスト222、背もたれ226を備えることができる。ヘッドレスト222は、取り外し可能ヘッドセット224を備えることができる。ユーザ102は、座席装置220に座ることが可能にされてもよい。   [0084] FIG. 2E is a diagram illustrating an exemplary MEMS sensing and processing module located on a headrest of a seating device, according to one embodiment of the invention. Referring to FIG. 2E, the seat device 220 is illustrated. The seat device 220 can include a headrest 222 and a backrest 226. The headrest 222 can include a removable headset 224. User 102 may be allowed to sit on seat device 220.

[0085]取り外し可能ヘッドセット224は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。本発明の一実施形態では、ユーザ102は、オープンスペースへ、かつ、MEMS検知および処理モジュール104上へ息を吐き出すことが可能にされてもよい。一実施形態では、座席装置220は、例えば、乗用車または任意の他の自動車もしくは車両の内部に位置することができる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、MEMS検知および処理モジュール104は、他の場所に位置することができる。   [0085] The removable headset 224 may comprise, for example, the MEMS sensing and processing module 104 located at one end. In one embodiment of the invention, the user 102 may be allowed to exhale into open space and onto the MEMS sensing and processing module 104. In one embodiment, the seat device 220 can be located, for example, inside a passenger car or any other automobile or vehicle. Nevertheless, the present invention may not be so limited, and the MEMS sensing and processing module 104 may be located elsewhere without limiting the scope of the present invention.

[0086]MEMS検知および処理モジュール104は、座席装置220に着席させられたユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。生成された1つまたは複数の制御信号は、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、表示デバイス106dのユーザインタフェース107d、ならびに/または、オーディオおよび/もしくはビデオプレイヤなど、マルチメディアプレイヤのユーザインタフェースなど、制御されているデバイスのユーザインタフェースを制御するように動作可能でありうる。   [0086] The MEMS detection and processing module 104 may be operable to detect movement caused by the expulsion of human exhalation by the user 102 seated in the seating device 220. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The generated control signal or signals are transmitted to the user interface 107a of the multimedia device 106a, the user interface 107b of the mobile phone / smartphone / dataphone 106b, the user interface of a personal computer (PC), laptop or notebook computer 106c. 107c, user interface 107d of display device 106d, and / or a user interface of a multimedia player, such as an audio and / or video player, may be operable to control the user interface of the device being controlled.

[0087]図2Fは、本発明の一実施形態による、自動車の内部に位置する例示的MEMS検知および処理モジュールを例示する図である。図2Fを参照すると、自動車230が図示される。自動車230は、バイザー232およびハンドル234を備えることができる。   [0087] FIG. 2F is a diagram illustrating an exemplary MEMS sensing and processing module located inside an automobile, according to one embodiment of the invention. Referring to FIG. 2F, an automobile 230 is illustrated. The automobile 230 can include a visor 232 and a handle 234.

[0088]本発明の一実施形態では、バイザー232は、曲げやすい支持構造233を備えることができる。支持構造233は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。本発明の別の実施形態では、ハンドル234は、曲げやすい支持構造235を備えることができる。支持構造235は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、MEMS検知および処理モジュール104は、自動車230内の他の場所に位置することができる。   [0088] In one embodiment of the invention, the visor 232 may comprise a support structure 233 that is easy to bend. The support structure 233 can comprise, for example, a MEMS sensing and processing module 104 located at one end. In another embodiment of the invention, the handle 234 can include a support structure 235 that is pliable. The support structure 235 can comprise, for example, a MEMS sensing and processing module 104 located at one end. Nevertheless, the present invention may not be so limited, and the MEMS sensing and processing module 104 may be located elsewhere in the automobile 230 without limiting the scope of the present invention.

[0089]例えば、限定なしに、ユーザ102は、ハンドル234の後ろの座席に着席させられてもよく、処理モジュール104はハンドル234上に搭載される。ユーザ102は、ハンドル234の後ろの座席に着席させられてもよい。ユーザ102は、オープンスペースへ、かつ、MEMS検知および処理モジュール104上へ息を吐き出すことが可能にされてもよい。MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、表示デバイス106dのユーザインタフェース107d、ならびに/または、オーディオおよび/もしくはビデオプレイヤもしくはナビゲーション(例えば、GPS)デバイスなど、マルチメディアもしくは他のデバイスのユーザインタフェースなど、制御されているデバイスのユーザインタフェースを制御するために、1つまたは複数の制御信号を生成するように動作可能でありうる。   [0089] For example, without limitation, the user 102 may be seated in a seat behind the handle 234, and the processing module 104 is mounted on the handle 234. User 102 may be seated in a seat behind handle 234. User 102 may be allowed to exhale into open space and onto MEMS sensing and processing module 104. The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human exhalation, the MEMS sensing and processing module 104 performs a user interface 107a of the multimedia device 106a, a user interface 107b of the mobile phone / smartphone / dataphone 106b, a personal computer ( PC), laptop or notebook computer 106c user interface 107c, display device 106d user interface 107d, and / or multimedia and other devices such as audio and / or video players or navigation (eg, GPS) devices One or more controls to control the user interface of the device being controlled, such as the user interface It may be operable to generate an issue.

[0090]図2Gは、本発明の一実施形態による、取り外し可能アイウェア上に位置する例示的MEMS検知および処理モジュールを例示する図である。図2Gを参照すると、ユーザ102が図示される。ユーザ102は、例えば、取り外し可能ゴーグルまたは任意の他のタイプのアイウェア240を着けることができる。取り外し可能アイウェア240は、取り外し可能ヘッドセット242を備えることができる。取り外し可能ヘッドセット242は、曲げやすく、かつ/または、歪めることが可能であってもよい。取り外し可能ヘッドセット242は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。本発明の一実施形態では、ユーザ102は、オープンスペースへ、かつ、MEMS検知および処理モジュール104上へ息を吐き出すことが可能にされてもよい。   [0090] FIG. 2G is a diagram illustrating an exemplary MEMS sensing and processing module located on removable eyewear, according to one embodiment of the invention. Referring to FIG. 2G, the user 102 is illustrated. The user 102 can wear, for example, removable goggles or any other type of eyewear 240. The removable eyewear 240 can comprise a removable headset 242. The removable headset 242 may be pliable and / or distortable. The removable headset 242 can comprise, for example, the MEMS sensing and processing module 104 located at one end. In one embodiment of the invention, the user 102 may be allowed to exhale into open space and onto the MEMS sensing and processing module 104.

[0091]MEMS検知および処理モジュール104は、座席装置102に着席させられたユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、表示デバイス106dのユーザインタフェース107d、ならびに/または、オーディオおよび/もしくはビデオプレイヤなど、マルチメディアプレイヤのユーザインタフェースなど、制御されているデバイスのユーザインタフェースを制御するために、1つまたは複数の制御信号を生成するように動作可能でありうる。   [0091] The MEMS detection and processing module 104 may be operable to detect movement caused by the expulsion of human breath by a user 102 seated in the seating device 102. In response to detecting motion caused by the exhalation of human exhalation, the MEMS sensing and processing module 104 performs a user interface 107a of the multimedia device 106a, a user interface 107b of the mobile phone / smartphone / dataphone 106b, a personal computer ( PC), user interface 107c of a laptop or notebook computer 106c, user interface 107d of a display device 106d, and / or a user interface of a multimedia player such as an audio and / or video player, etc. It may be operable to generate one or more control signals to control the interface.

[0092]図2Hは、本発明の一実施形態による、ネックセット上に位置する例示的MEMS検知および処理モジュールを例示する図である。図2Hを参照すると、取り外し可能ネックセット250が図示される。取り外し可能ネックセット250は、フレキシブルプリント回路基板(PCB)254、ならびに、処理および/または通信回路252を備えることができる。フレキシブルPCB254は、例えば、一端に位置するMEMS検知および処理モジュール104を備えることができる。   [0092] FIG. 2H is a diagram illustrating an exemplary MEMS sensing and processing module located on a neckset, according to one embodiment of the invention. Referring to FIG. 2H, a removable neck set 250 is illustrated. The removable neck set 250 can include a flexible printed circuit board (PCB) 254 and processing and / or communication circuitry 252. The flexible PCB 254 can include, for example, a MEMS sensing and processing module 104 located at one end.

[0093]処理および/または通信回路252は、バッテリと、電圧調整器と、1つもしくは複数のスイッチと、1つもしくは複数の発光ダイオード(LED)と、液晶ディスプレイ(LCD)と、レジスタ、コンデンサ、インダクタなど、他の受動デバイスと、ブルートゥースなど、1つもしくは複数の無線通信プロトコルを扱うことが可能な通信チップと、および/または、1つもしくは複数の有線インタフェースとを備えることができる。本発明の例示的実施形態では、処理および/または通信回路252は、PCB内にパッケージ化されうる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、処理および/または通信回路252は、他のコンポーネントおよび回路を備えることができる。   [0093] The processing and / or communication circuit 252 includes a battery, a voltage regulator, one or more switches, one or more light emitting diodes (LEDs), a liquid crystal display (LCD), a resistor, a capacitor. , Other passive devices such as inductors, communication chips capable of handling one or more wireless communication protocols, such as Bluetooth, and / or one or more wired interfaces. In an exemplary embodiment of the invention, processing and / or communication circuit 252 may be packaged in a PCB. Nevertheless, the invention may not be so limited, and the processing and / or communication circuit 252 may comprise other components and circuits without limiting the scope of the invention.

[0094]本発明の一実施形態では、ユーザ102は、自分の首の周りにネックセット250を着け、かつ、オープンスペースに息を吐き出すことが可能にされてもよく、MEMS検知および処理モジュール104は、息を吐くことを検知または検出するように動作可能でありうる。息を吐くことは、ユーザ102の鼻孔および/または口から生じる場合がある。   [0094] In one embodiment of the present invention, the user 102 may be allowed to wear the neck set 250 around his neck and exhale into an open space, and the MEMS detection and processing module 104. May be operable to detect or detect exhalation. Exhaling may result from the user's 102 nostrils and / or mouth.

[0095]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、フレキシブルPCB254を介して、処理および/または通信回路252への1つまたは複数の制御信号を生成するように動作可能でありうる。処理および/または通信回路252は、生成された1つまたは複数の制御信号を処理し、かつ、マルチメディアデバイス106a、携帯電話/スマートフォン/データフォン106b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106c、および/または、表示デバイス106dなど、制御されているデバイスへ通信するように動作可能でありうる。制御されているデバイス内の1つまたは複数のプロセッサは、通信された制御信号を利用して、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、および/または、表示デバイス106dのユーザインタフェース107dなど、制御されているデバイスのユーザインタフェースを制御するように動作可能でありうる。   [0095] The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human breath, MEMS sensing and processing module 104 generates one or more control signals to processing and / or communication circuit 252 via flexible PCB 254. May be operable. The processing and / or communication circuit 252 processes the generated control signal or signals and is a multimedia device 106a, mobile phone / smartphone / dataphone 106b, personal computer (PC), laptop or notebook Computer 106c and / or display device 106d may be operable to communicate with a controlled device. One or more processors in the device being controlled utilize the communicated control signals to utilize the user interface 107a of the multimedia device 106a, the user interface 107b of the mobile phone / smartphone / dataphone 106b, the personal computer ( PC), a user interface 107c of a laptop or notebook computer 106c, and / or a user interface 107d of a display device 106d, may be operable to control the user interface of the device being controlled.

[0096]図2Iは、本発明の一実施形態による、クリップ上に位置する例示的MEMS検知および処理モジュールを例示する図である。図2Iを参照すると、ユーザ102およびクリップ272が図示される。クリップ272は、衣類の任意の適切な一部に、例えば、シャツの襟、コートの折り返し、またはポケットに配置されうる。クリップ272は、例えば、曲げやすい支持構造274を備えることができる。クリップ272が例示されるが、支持構造274を添付するために、他の適切な取り付け構造が利用されうる。支持構造274は、MEMS検知および処理モジュール104を備えることができ、その後ろの方は、例えば、支持構造274の一端またはその上の任意のところに位置することができる。本発明の他の例示的実施形態では、支持構造274が利用されなくてもよく、MEMS検知および処理モジュール104は、クリップ272または他の適切な取り付け構造に取り付けられてもよい。   [0096] FIG. 2I is a diagram illustrating an exemplary MEMS sensing and processing module located on a clip, according to one embodiment of the present invention. Referring to FIG. 2I, user 102 and clip 272 are illustrated. The clip 272 can be placed on any suitable part of the garment, such as a shirt collar, coat wrap, or pocket. The clip 272 can include a support structure 274 that is easy to bend, for example. Although a clip 272 is illustrated, other suitable attachment structures may be utilized to attach the support structure 274. The support structure 274 can comprise the MEMS sensing and processing module 104, the back of which can be located, for example, at one end of the support structure 274 or anywhere above it. In other exemplary embodiments of the present invention, support structure 274 may not be utilized and MEMS sensing and processing module 104 may be attached to clip 272 or other suitable attachment structure.

[0097]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。MEMS検知および処理モジュール104は、人間の呼気の排出によって生成された運動エネルギーを検知するように、かつ、それに応じて1つまたは複数の制御信号を生成するように動作可能でありうる、1つまたは複数のセグメントまたは部材を備えることができる。生成された1つまたは複数の制御信号は、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107bを制御可能であってもよい。   [0097] The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The MEMS detection and processing module 104 may be operable to detect kinetic energy generated by the exhalation of human breath and to generate one or more control signals accordingly. Or it can comprise a plurality of segments or members. The generated one or more control signals may be capable of controlling the user interface 107b of the mobile phone / smartphone / dataphone 106b.

[0098]図2Jは、本発明の一実施形態による、布地に埋め込まれた例示的MEMS検知および処理モジュールを例示する図である。図2Jを参照すると、ユーザ102および布地276が図示される。布地276は、衣類の任意の適切な一部、例えば、シャツの襟、コートの折り返し、またはポケットであってもよい。布地276は、埋め込み型のMEMS検知および処理モジュール104を備えることができ、その後ろの方は、例えば、布地276 274内またはその上の任意のところに位置することができる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、MEMS検知および処理モジュール104は、ユーザ102の上着または下着上の他の場所に配置されうる。この点について、MEMS検知および処理モジュール104は、MEMS検知および処理モジュール104が布地276内に配置または織り合わせ可能であるように、曲げやすくなるように製作されうる。   [0098] FIG. 2J is a diagram illustrating an exemplary MEMS sensing and processing module embedded in a fabric, according to one embodiment of the invention. Referring to FIG. 2J, user 102 and fabric 276 are illustrated. The fabric 276 may be any suitable piece of clothing, such as a shirt collar, coat wrap, or pocket. The fabric 276 can include an embedded MEMS sensing and processing module 104, the back of which can be located anywhere within or on the fabric 276 274, for example. Nevertheless, the present invention may not be so limited, and without limiting the scope of the present invention, the MEMS sensing and processing module 104 is located elsewhere on the user's 102 outerwear or underwear. sell. In this regard, the MEMS sensing and processing module 104 can be made to be flexible so that the MEMS sensing and processing module 104 can be placed or interwoven within the fabric 276.

[0099]MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。MEMS検知および処理モジュール104は、人間の呼気の排出によって生成された運動エネルギーを検知するように、かつ、それに応じて1つまたは複数の制御信号を生成するように動作可能でありうる、1つまたは複数のセグメントまたは部材を備えることができる。生成された1つまたは複数の制御信号は、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107bを制御可能であってもよい。   [0099] The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The MEMS detection and processing module 104 may be operable to detect kinetic energy generated by the exhalation of human breath and to generate one or more control signals accordingly. Or it can comprise a plurality of segments or members. The generated one or more control signals may be capable of controlling the user interface 107b of the mobile phone / smartphone / dataphone 106b.

[00100]図3Aは、本発明の一実施形態による、区画ユーザインタフェースを介して制御されうる例示的電子デバイスを例示する図である。図3Aを参照すると、タッチスクリーンディスプレイ304を備える電子デバイス302が図示される。この点について、タッチスクリーンディスプレイが例示のために利用されるが、本発明の範囲から逸脱することなく、電子デバイス302は、タッチスクリーンでないディスプレイ、ならびに、トラックボール、1つもしくは複数の多機能ボタン、および/または、キーボードなど、1つまたは複数の入力デバイスを備えることができる。   [00100] FIG. 3A is a diagram illustrating an exemplary electronic device that may be controlled via a partition user interface, according to one embodiment of the invention. With reference to FIG. 3A, an electronic device 302 comprising a touch screen display 304 is illustrated. In this regard, a touch screen display is utilized for illustration, but without departing from the scope of the present invention, the electronic device 302 can be a non-touch screen display, as well as a trackball, one or more multifunction buttons. And / or one or more input devices, such as a keyboard.

[00101]電子デバイス302は、グラフィカルユーザインタフェース(GUI)など、ユーザインタフェースを備えることができ、それにより、ユーザが電子デバイス302上で様々なアプリケーションおよび/または機能中をナビゲートし、これらを起動することを可能にすることができる。この点について、ユーザインタフェースは、息を吐くことなどの呼吸入力、ボタン押下などの触覚入力、ボイスコマンドなどのオーディオ動作、ならびに/または、加速度計および/もしくはジャイロスコープによって検出されたものなど、電子デバイス302の動きを介して、電子デバイスとインタラクトすることを可能にすることができる。この点について、ユーザインタフェースは、入力方法のうち1つまたは複数の任意の組み合わせを介して、電子デバイス302とインタラクトすることを可能にすることができる。さらに、ユーザインタフェースは、1つまたは複数の入力方法のエラーおよび/または失敗を検出し、かつ、デフォルトとして1つまたは複数の他の入力方法にするように動作可能でありうる。このように、ユーザインタフェースとインタラクトすることは、特定の入力方法の失敗および/または欠如によって重大な影響を受ける可能性はない。   [00101] The electronic device 302 can include a user interface, such as a graphical user interface (GUI), that allows the user to navigate through and launch various applications and / or functions on the electronic device 302. Can be made possible. In this regard, the user interface may be electronic, such as breathing input such as exhaling, tactile input such as button presses, audio actions such as voice commands, and / or those detected by accelerometers and / or gyroscopes. It may be possible to interact with an electronic device via movement of the device 302. In this regard, the user interface can allow interaction with the electronic device 302 via any combination of one or more of the input methods. Further, the user interface may be operable to detect errors and / or failures of one or more input methods and default to one or more other input methods. Thus, interacting with the user interface may not be significantly affected by the failure and / or lack of a particular input method.

[00102]電子デバイス302のユーザインタフェースは、電子デバイス302の状況および/または機能についての情報を表示し、かつ/または、電子デバイス302上の1つまたは複数のアプリケーションによって生成された情報および/またはコンテンツを表示することができる。本発明の様々な実施形態では、電子デバイス302の電源をオンにすると、ユーザインタフェースのホームスクリーンが表示または提示されうる。本発明の様々な実施形態では、電子デバイス302は、携帯電話、スマートフォン、無線電話、ノートブックコンピュータ、パーソナルメディアプレイヤ、携帯情報端末、マルチメディアデバイス、ハンドヘルドデバイスおよび/または多機能移動デバイスのうち、1つまたは複数を備えることができる。   [00102] The user interface of the electronic device 302 displays information about the status and / or function of the electronic device 302 and / or information generated by one or more applications on the electronic device 302 and / or Content can be displayed. In various embodiments of the present invention, when the electronic device 302 is turned on, a home screen of the user interface may be displayed or presented. In various embodiments of the present invention, the electronic device 302 is a mobile phone, smartphone, wireless phone, notebook computer, personal media player, personal digital assistant, multimedia device, handheld device and / or multifunction mobile device, One or more may be provided.

[00103]ユーザインタフェースは、1つまたは複数の固定ゾーン311を備える固定領域310、1つまたは複数の制御ゾーン315を備える制御領域314、および、1つまたは複数のコンテンツゾーン319を備えるコンテンツ領域318のうち、1つまたは複数に区画されうる。この点について、領域310、314および318の各々は、存在するとき、任意のサイズおよび/または形状であってもよく、ディスプレイ304の任意の場所(複数可)にあってもよい。また、領域310、314および320の存在、サイズ、形状および場所(複数可)は、電子デバイス302のユーザによって構成(すなわち、パーソナライズまたはカスタマイズ)されうる。例えば、電子デバイス302は、ユーザが右利きであるか左利きであるかなど、プリファレンスに基づいて、ユーザインタフェースの領域を構成するために、ユーザが実行可能である、ユーザ・インタフェース・カスタマイゼーション・アプリケーションを備えることができる。この点について、ユーザインタフェースの例示的構成306a、306bおよび306cが図3Bに例示される。   [00103] The user interface includes a fixed area 310 comprising one or more fixed zones 311, a control area 314 comprising one or more control zones 315, and a content area 318 comprising one or more content zones 319. Of these, it may be partitioned into one or more. In this regard, each of the regions 310, 314, and 318, when present, may be any size and / or shape and may be in any location (s) of the display 304. Also, the presence, size, shape, and location (s) of regions 310, 314, and 320 can be configured (ie, personalized or customized) by the user of electronic device 302. For example, the electronic device 302 is a user interface customization application that can be executed by a user to configure areas of the user interface based on preferences, such as whether the user is right-handed or left-handed. Can be provided. In this regard, exemplary user interface configurations 306a, 306b, and 306c are illustrated in FIG. 3B.

[00104]固定領域310は、制御領域314内の状態および/またはアクティビティとは無関係に、情報を表示することができる。固定領域310内に表示されうる例示的情報には、日付、時刻、天気、予定表のアポイントメント、RSS(または、XMLもしくは他のマークアップ言語)フィード、最近の電子メールコンタクト、および/または、最近の電話コンタクトが含まれうる。しかし、上記のものは、固定領域310内に表示されうる情報の例にすぎず、本発明はそのように限定されない場合がある。加えて、固定領域310のサイズ、形状および/または場所は、何の機能および/またはアプリケーションが電子デバイス302上で実行中であるかに応じて、変わる場合がある。さらに、固定領域310内に表示される情報のタイプおよび/または量は、電子デバイス302のユーザによってカスタマイズされうる。この点について、図3Cは、いくつかの例示的固定領域310a、310bおよび310cを例示する。   [00104] The fixed area 310 may display information independent of the state and / or activity in the control area 314. Exemplary information that may be displayed in the fixed area 310 includes date, time, weather, calendar appointments, RSS (or XML or other markup language) feeds, recent email contacts, and / or recent Phone contacts. However, the above is merely an example of information that can be displayed in the fixed area 310, and the present invention may not be so limited. In addition, the size, shape, and / or location of the anchoring region 310 may vary depending on what functions and / or applications are being executed on the electronic device 302. Further, the type and / or amount of information displayed in the fixed area 310 can be customized by the user of the electronic device 302. In this regard, FIG. 3C illustrates a number of exemplary fixation regions 310a, 310b, and 310c.

[00105]制御領域314は、電子デバイス302上で所望の情報が表示されうる、かつ/または、所望のアプリケーションおよび/もしくは機能が起動されうるように、電子デバイス302を制御することを可能にすることができる。この点について、ユーザインタフェースのテキスト、画像、リンクおよび/またはアイコンなど、オブジェクトをスクロール、選択、操作し、または別の方法でオブジェクトに作用するために、呼吸および/または触覚入力が利用されうる。この点について、呼吸および触覚入力を利用してユーザインタフェースのオブジェクトとインタラクトすることの追加の詳細が、図3Eに関して後述される。加えて、制御領域314内に表示される情報のタイプおよび/または量は、電子デバイス302のユーザによってカスタマイズされうる。さらに、制御領域314のサイズ、形状および/または場所は、何の機能および/またはアプリケーションが電子デバイス302上で実行中であるかに応じて、変わる場合がある。   [00105] The control area 314 allows the electronic device 302 to be controlled such that desired information can be displayed on the electronic device 302 and / or desired applications and / or functions can be activated. be able to. In this regard, breathing and / or tactile input can be utilized to scroll, select, manipulate, or otherwise interact with the object, such as text, images, links and / or icons of the user interface. In this regard, additional details of interacting with user interface objects using respiration and haptic input are described below with respect to FIG. 3E. In addition, the type and / or amount of information displayed in the control area 314 can be customized by the user of the electronic device 302. Further, the size, shape and / or location of the control region 314 may vary depending on what functions and / or applications are running on the electronic device 302.

[00106]コンテンツ領域318は、制御領域314内の状態および/またはアクティビティによって決まる場合のある情報を表示することができる。例えば、コンテンツ領域318内の情報は、制御領域内のアクティブアイコンによって決まる場合がある。この点について、アクティブアイコンは、(呼気および/または触覚入力を介して)そこにナビゲートされたが、「クリック」(例えば、タッチスクリーン上のタップ、ボタン押下、または、空気の一吹き)を介して選択されてはいない、アイコンでありうる。本発明の1つの例示的実施形態では、アクティブアイコンは、ウェブサイトにリンクされてもよく、コンテンツ領域318は、そのウェブサイトからのRSSフィードを表示することができる。本発明の別の例示的実施形態では、アクティブアイコンは、電子メールクライアントを起動するためのショートカットであってもよく、コンテンツ領域318は、1つまたは複数の最近の電子メールメッセージを表示することができる。この点について、コンテンツ領域318内に表示される例示的情報には、RSSまたはXMLフィード、画像、予定表、最近の通話、最近のテキスト、および/または、最近の電子メールが含まれうる。しかし、上記のものは、単なる例にすぎず、本発明はそのように限定されない。加えて、コンテンツ領域318内に表示される情報は、電子デバイス302のユーザによってカスタマイズ可能でありうる。さらに、コンテンツ領域318のサイズ、形状および/または場所は、何の機能および/またはアプリケーションが電子デバイス302上で実行中であるかに応じて、変わる場合がある。この点について、図3Dは、少数の例示的コンテンツ領域318a、318bおよび318cを例示する。   [00106] The content area 318 may display information that may depend on the state and / or activity in the control area 314. For example, the information in the content area 318 may be determined by an active icon in the control area. In this regard, the active icon has been navigated there (via exhalation and / or tactile input), but a “click” (eg, a tap on the touch screen, a button press, or a blow of air). It can be an icon that has not been selected via. In one exemplary embodiment of the invention, the active icon may be linked to a website and the content area 318 can display an RSS feed from that website. In another exemplary embodiment of the present invention, the active icon may be a shortcut for launching an email client and the content area 318 may display one or more recent email messages. it can. In this regard, exemplary information displayed in the content area 318 may include RSS or XML feeds, images, calendars, recent calls, recent text, and / or recent email. However, the above is merely an example, and the present invention is not so limited. In addition, the information displayed in content area 318 may be customizable by the user of electronic device 302. Further, the size, shape and / or location of the content area 318 may vary depending on what functions and / or applications are running on the electronic device 302. In this regard, FIG. 3D illustrates a small number of example content regions 318a, 318b, and 318c.

[00107]本発明の様々な実施形態では、ディスプレイ304はタッチスクリーンであってもよく、触覚入力に対して限定された応答を有する場合のある固定領域310および/またはコンテンツ領域318とは対照的に、制御領域314は、様々な範囲の触覚入力に応答することができる。例えば、制御領域314は、触覚動作、タッチの回数、および/または、タッチの持続時間に応答することができるが、固定領域310およびコンテンツ領域318は、複数のタッチ(例えば、ダブルタップ)に応答することができる。このように、制御領域314に割り振り可能なディスプレイ304の量を限定することで、ユーザがアイコンをナビゲートかつ選択するために到達可能である必要があるエリアの量を減らし、よって、電子デバイス302の片手操作を容易にすることができる。加えて、固定領域310およびコンテンツ領域318の触覚応答性を限定することで、不注意の動作および/または選択(すなわち、不注意の「クリック」)を減らすることができる。   [00107] In various embodiments of the invention, display 304 may be a touch screen, as opposed to fixed area 310 and / or content area 318, which may have a limited response to haptic input. In addition, the control region 314 can respond to various ranges of haptic input. For example, the control area 314 can respond to tactile movements, the number of touches, and / or the duration of the touch, while the fixed area 310 and the content area 318 respond to multiple touches (eg, a double tap). can do. In this way, limiting the amount of display 304 that can be allocated to control area 314 reduces the amount of area that the user needs to be reachable to navigate and select icons, and thus electronic device 302. Can be easily operated with one hand. In addition, limiting the tactile responsiveness of the fixed region 310 and the content region 318 can reduce inadvertent actions and / or selections (ie, inadvertent “clicks”).

[00108]固定領域310および/またはコンテンツ領域318内の情報は、画像、テキスト、リンクおよび/またはアイコンなど、1つまたは複数のオブジェクトの形式で表示されうる。本発明の様々な実施形態では、固定領域310および/またはコンテンツ領域318内のオブジェクトは、触覚および/または呼吸入力を介して選択可能でありうる。しかし、不注意のクリックを防ぐために、固定領域310および/またはコンテンツ領域318の応答は、上記のように限定されてもよい。加えて、本発明の様々な実施形態では、コンテンツ領域318内のオブジェクトは、それらが選択可能になりうるように、制御領域314にスクロールされてもよい。例えば、呼吸入力が利用されて、オブジェクトがコンテンツ領域318から制御領域314へスクロールされ、制御領域310への触覚入力を介してそのオブジェクトが選択可能であるようにすることができる。   [00108] Information in fixed area 310 and / or content area 318 may be displayed in the form of one or more objects, such as images, text, links, and / or icons. In various embodiments of the present invention, objects in the fixed area 310 and / or the content area 318 may be selectable via tactile and / or respiratory input. However, in order to prevent inadvertent clicks, the response of the fixed area 310 and / or the content area 318 may be limited as described above. In addition, in various embodiments of the present invention, objects in content area 318 may be scrolled to control area 314 so that they can be selected. For example, breathing input can be used to scroll an object from content area 318 to control area 314 so that the object can be selected via tactile input to control area 310.

[00109]このように、電子デバイス302の区画ユーザインタフェースは、伝統的なグラフィカルユーザインタフェースを上回る利点を提供することができる、汎用コンテンツアクセスマネージャ(universal content access manager)(UCAM)として説明されうる。1つの利点は、UCAMの構成可能性(すなわち、カスタマイゼーションまたはパーソナライゼーション)が、従来のグラフィカルユーザインタフェースを有する類似のデバイスよりも、電子デバイス302の有用性および/または使いやすさを大幅に増大させることができる、ということでありうる。この点について、各区画内のオブジェクトは、シーケンス化、並置化、スーパーインポーズ、オーバーレイ、または、ユーザが所望の情報、アプリケーションおよび/もしくは機能に高速にアクセスすることができるような別の方法での位置決めおよび/もしくは編成が行われうる。別の利点は、UCAMを1つまたは複数の領域に区画することができることで、従来のグラフィカルユーザインタフェースを有する類似のデバイスよりも、電子デバイス302の有用性および/または使いやすさを大幅に増大させることができる、ということでありうる。この点について、各領域の一部は、様々な入力タイプに応答するように、または応答しないように構成されてもよく、そこに表示される情報および/またはオブジェクトに関してアクティブ(例えば、リアルタイムで更新される)またはパッシブ(例えば、ユーザによって変更されるまで静的に表示される)であるように構成されてもよい。UCAMの別の利点は、様々なプラットフォームとの互換性でありうる。この点について、ユーザは、ユーザが同じ方法でユーザの電子デバイスのすべてとインタラクトすることができるように、UCAMを複数の自分の電子デバイス上にロードすることができる。   [00109] Thus, the partition user interface of the electronic device 302 can be described as a universal content access manager (UCAM), which can provide advantages over traditional graphical user interfaces. One advantage is that UCAM configurability (ie, customization or personalization) greatly increases the usefulness and / or ease of use of electronic device 302 over similar devices having a traditional graphical user interface. Can be. In this regard, the objects within each compartment can be sequenced, juxtaposed, superimposed, overlayed, or otherwise as the user can quickly access the desired information, applications and / or functions. Positioning and / or knitting can be performed. Another advantage is that the UCAM can be partitioned into one or more regions, greatly increasing the usability and / or ease of use of the electronic device 302 over similar devices having a traditional graphical user interface. It can be that In this regard, a portion of each region may be configured to respond to or not respond to various input types and may be active (eg, updated in real time) with respect to information and / or objects displayed therein. May be configured to be passive) (eg, displayed statically until changed by the user). Another advantage of UCAM may be compatibility with various platforms. In this regard, the user can load the UCAM onto multiple his / her electronic devices so that the user can interact with all of the user's electronic devices in the same way.

[00110]図3Bは、本発明の一実施形態による、区画ユーザインタフェースのいくつかの例示的構成を例示する図である。図3Bを参照すると、例示的ユーザインタフェース構成306a、306bおよび306cが図示され、各々は、1つまたは複数の固定ゾーン311を備える固定領域310、1つまたは複数の制御ゾーン315を備える制御領域314、および、1つまたは複数のコンテンツゾーン319を備えるコンテンツ領域318を有する。この点について、固定領域310、制御領域314およびコンテンツ領域318のサイズ、形状および/または場所は、ユーザプリファレンスに基づいて、ならびに/または、電子デバイス302上で実行する機能および/もしくはアプリケーションに基づいて構成されうる。   [00110] FIG. 3B is a diagram illustrating several example configurations of a partition user interface, according to one embodiment of the invention. With reference to FIG. 3B, exemplary user interface configurations 306 a, 306 b, and 306 c are illustrated, each of a fixed area 310 comprising one or more fixed zones 311, a control area 314 comprising one or more control zones 315. And a content area 318 comprising one or more content zones 319. In this regard, the size, shape and / or location of fixed area 310, control area 314 and content area 318 may be based on user preferences and / or based on functions and / or applications executing on electronic device 302. Can be configured.

[00111]図3Cは、本発明の一実施形態による、区画ユーザインタフェースのいくつかの例示的固定領域を例示する図である。図3Cを参照すると、固定領域310a、310bおよび310cが図示される。この点について、固定領域310aの各々は、1つまたは複数のオブジェクト312を備えることができる。加えて、各オブジェクト312に割り振られる固定領域310の部分は、任意の形状および/またはサイズになるように構成されうる。例示的オブジェクト312は、日付、時刻、天気情報、予定表のアポイントメント、RSSもしくはXMLフィード、最近の電子メールコンタクト、および/または、最近の電話コンタクトに対応可能であるテキスト、画像、リンクおよび/またはアイコンを備えることができる。   [00111] FIG. 3C is a diagram illustrating several exemplary fixed areas of a partition user interface, according to one embodiment of the present invention. Referring to FIG. 3C, fixed regions 310a, 310b and 310c are illustrated. In this regard, each of the fixed areas 310 a can comprise one or more objects 312. In addition, the portion of the fixed area 310 allocated to each object 312 can be configured to have any shape and / or size. Exemplary objects 312 include text, images, links, and / or dates, times, weather information, calendar appointments, RSS or XML feeds, recent email contacts, and / or recent phone contacts. An icon can be provided.

[00112]図3Dは、本発明の一実施形態による、区画ユーザインタフェースのいくつかの例示的コンテンツ領域を例示する図である。この点について、本発明の様々な実施形態では、ユーザは、表示されるオブジェクトの数、表示されるオブジェクトのサイズ、および、表示されるオブジェクトの順序など、コンテンツ領域318の属性を構成することができる。例えば、コンテンツ領域318は、各アイコン、各アイコンのグループ、および/または、各ユーザについて異なる属性を有するようにカスタマイズされうる。このように、コンテンツ領域318内に表示されうる情報のタイプの指示、ならびに、コンテンツ領域318のカスタマイズ可能性を提供するために、例示的コンテンツ領域318a、318bおよび318cが描かれる。   [00112] FIG. 3D is a diagram illustrating several exemplary content areas of a partition user interface, according to one embodiment of the present invention. In this regard, in various embodiments of the present invention, the user may configure the attributes of the content area 318, such as the number of objects displayed, the size of objects displayed, and the order of objects displayed. it can. For example, the content area 318 may be customized to have different attributes for each icon, each group of icons, and / or each user. In this manner, exemplary content regions 318a, 318b, and 318c are drawn to provide an indication of the type of information that can be displayed in content region 318 and the customizability of content region 318.

[00113]コンテンツ領域318は、例えば、デジタル写真を備えるフォルダまたはウェブサイトでありうる、アクティブアイコンに対応することができる。したがって、オブジェクト320、...、320は、フォルダまたはウェブサイトにアップロードされた最新の4つの写真に対応することができる。コンテンツ領域318bは、例えば、ソーシャルネットワーキングウェブサイトへのリンクでありうる、アクティブアイコンに対応することができる。したがって、オブジェクト322、...、322は、ソーシャルネットワーキングサイト上の1つまたは複数のプロファイル上で発生した最新の「N」個のイベントに対応することができる。別の例では、コンテンツ領域318bは、例えば、電子メールクライアントを起動することができるアクティブアイコンに対応することができ、オブジェクト322、...、322は、送信または受信された最新の「N」個の電子メールに対応することができる。コンテンツ領域318cは、例えば、ウェブブラウザを起動するためのショートカットでありうる、アクティブアイコンに対応することができる。したがって、オブジェクト324および324は、お気に入りおよび/または最近訪問したウェブページへのリンクでありうる。別の実施形態では、MEMS検知および処理モジュール104は、制御領域314の1つまたは複数の部分をアクティベートすることによって、制御されているデバイス106のユーザインタフェースとのインタラクションを修正するように動作可能でありうる。例えば、ユーザ102は、制御されているデバイス106上のモバイルゲームのオプションまたはメニューをスクロールするために、背景自動スクロールの速度を制御することが可能にされてもよい。 [00113] The content area 318 can correspond to an active icon, which can be, for example, a folder or website with digital photos. Therefore, the objects 320 1 ,. . . , 320 4, it is possible to correspond to the latest of the four photos that have been uploaded to a folder or Web site. The content area 318b can correspond to an active icon, which can be, for example, a link to a social networking website. Therefore, the objects 322 1 ,. . . 322 N may correspond to the latest “N” events that occurred on one or more profiles on the social networking site. In another example, content area 318b can correspond to, for example, an active icon that can launch an email client, such as objects 322 1 ,. . . 322 N may correspond to the latest “N” emails sent or received. The content area 318c can correspond to, for example, an active icon, which can be a shortcut for starting a web browser. Thus, objects 324 1 and 324 2 can be favorites and / or links to recently visited web pages. In another embodiment, the MEMS detection and processing module 104 is operable to modify the interaction with the user interface of the device 106 being controlled by activating one or more portions of the control area 314. It is possible. For example, the user 102 may be allowed to control the speed of background auto-scrolling in order to scroll through mobile game options or menus on the device 106 being controlled.

[00114]図3Eは、本発明の一実施形態による、呼吸および触覚入力を介して電子デバイスの区画ユーザインタフェースとインタラクトすることを例示する。図3Eを参照すると、アクティブアイコンエリア328を備えることができる、制御領域314aが図示される。図3Eに描かれた制御領域314aは、制御領域314の例示的構成であり、本発明は、描かれた実施形態に限定されない。本発明の様々な実施形態では、アイコンは様々な方法で表されてもよく、画像および/もしくはテキストなど、視覚情報を備えることができ、かつ/または、音色、歌および/もしくはスピーチなど、オーディオ情報を備えることができる。   [00114] FIG. 3E illustrates interacting with a compartment user interface of an electronic device via respiratory and haptic input, according to one embodiment of the invention. Referring to FIG. 3E, a control area 314a that can include an active icon area 328 is illustrated. The control region 314a depicted in FIG. 3E is an exemplary configuration of the control region 314, and the present invention is not limited to the depicted embodiment. In various embodiments of the present invention, icons may be represented in a variety of ways, may comprise visual information, such as images and / or text, and / or audio, such as tones, songs and / or speech. Information can be provided.

[00115]アクティブアイコンエリア328は、コンテンツ領域318内に表示される情報、ならびに、電子デバイス302が触覚および/または呼吸入力にどのように応答することができるかを、少なくとも部分的に決定することができる。この点について、コンテンツ領域318は、図3Aおよび図3Dについて記載されたように、アクティブアイコンエリア328内にあるアイコンに対応する情報を表示することができる。さらに、「クリック」(例えば、タッチスクリーンのタップ、ボタン押下、または、空気の一吹き)が行われると、アクティブアイコンエリア328内のアイコンに関連付けられたアプリケーションまたは機能が起動されうる。   [00115] The active icon area 328 determines, at least in part, the information displayed in the content area 318 and how the electronic device 302 can respond to tactile and / or respiratory inputs. Can do. In this regard, the content area 318 can display information corresponding to icons within the active icon area 328 as described with respect to FIGS. 3A and 3D. Further, when a “click” (eg, touch screen tap, button press, or air blow) is performed, an application or function associated with the icon in the active icon area 328 may be activated.

[00116]本発明の様々な実施形態では、アイコンは、カテゴリでグループ化可能であり、各カテゴリは、1つまたは複数のアイコンを備えることができる。この点について、カテゴリの数および/または各カテゴリのアイコンの数は、ユーザによって構成されうる。この点について、図3Eに描かれた例示的実施形態では、カテゴリ00、10、...、90の10個のカテゴリがあり、各カテゴリは、アイコン1、2、...、9の9つのアイコンを備える。例示的カテゴリには、電話およびメッセージング、ニュース、マルチメディア、音楽、写真およびビデオが含まれうる。加えて、固定ゾーン310内に表示される情報および/またはオブジェクトは、どのカテゴリがアクティブであるかに基づいて決定されうる。   [00116] In various embodiments of the present invention, icons can be grouped by category, and each category can comprise one or more icons. In this regard, the number of categories and / or the number of icons in each category can be configured by the user. In this regard, in the exemplary embodiment depicted in FIG. 3E, categories 00, 10,. . . , 90, and each category has icons 1, 2,. . . , 9 icons. Exemplary categories may include telephone and messaging, news, multimedia, music, photos and videos. In addition, the information and / or objects displayed in the fixed zone 310 can be determined based on which category is active.

[00117]本発明の様々な実施形態では、各アイコンは、どの機能および/またはアプリケーションがそのアイコンに関連付け可能であるかを示すために、ユーザによって構成可能な記述テキスト、画像(複数可)および/またはオーディオを備えることができる。   [00117] In various embodiments of the present invention, each icon is descriptive text, image (s) and user configurable to indicate which functions and / or applications can be associated with the icon. Audio can be provided.

[00118]本発明の様々な実施形態では、ディスプレイ304の、ユーザによって構成可能な背景画像が各カテゴリに関連付け可能であり、どのカテゴリが現在選択されているかを示すことができる。所望のアイコンをアクティブアイコンエリア328内に配置するために、ユーザは、触覚および/または呼吸入力を利用してカテゴリ間をスクロールし、呼吸および/または触覚入力を利用してアイコン間をスクロールすることができる。この点について、スクロールの速度、方向および/または持続時間は、触覚および/または呼吸入力のタイプ、持続時間、強さ、方向および/または回数に基づいて決定されうる。   [00118] In various embodiments of the present invention, a user configurable background image on display 304 can be associated with each category and can indicate which category is currently selected. To place the desired icon in the active icon area 328, the user scrolls between categories using tactile and / or respiratory input and scrolls between icons using respiratory and / or tactile input. Can do. In this regard, the speed, direction and / or duration of scrolling can be determined based on the type, duration, strength, direction and / or number of tactile and / or respiratory inputs.

[00119]本発明の例示的実施形態では、ユーザは、触覚入力を利用してカテゴリ間をスクロールし、呼吸入力を利用してアイコン間をスクロールすることができる。例えば、ユーザは、制御領域314内で自分の親指の位置をシフトさせることによって、または、トラックボールを回転させることによって、カテゴリ00、10、...、90をスクロールすることができ、ユーザは、息を吐き出すことによって、アクティブカテゴリ326内のアイコンをスクロールすることができる。ユーザは、電子デバイス302に表示された背景画像が所望のカテゴリに対応するまで、カテゴリをスクロールすることができる。ユーザは、アクティブアイコンエリア328内のアイコンが所望の機能および/もしくはアプリケーションに対応し、かつ/または、結果としてコンテンツエリア318内で所望の情報および/もしくはオブジェクトになるまで、アイコンをスクロールすることができる。   [00119] In an exemplary embodiment of the invention, a user can scroll between categories using tactile input and scroll between icons using breathing input. For example, the user can shift categories 00, 10,... By shifting the position of their thumb within the control area 314 or by rotating the trackball. . . , 90 and the user can scroll the icons in the active category 326 by exhaling. The user can scroll through the categories until the background image displayed on the electronic device 302 corresponds to the desired category. The user may scroll the icons until the icons in the active icon area 328 correspond to the desired function and / or application and / or result in the desired information and / or objects in the content area 318. it can.

[00120]図3Fは、スクロール時のカテゴリおよび/またはアイコンのシーケンスの指示を提供することができる、例示的区画ユーザインタフェースを例示する。この点について、アイコンおよび/またはカテゴリは、最初(例えば、左端または上)および最後(例えば、右端または下)のアイコンおよび/またはカテゴリがある直線形式で、スクロールすることができる。別法として、アイコンおよび/またはカテゴリは、どのアイコンおよび/またはカテゴリがスクロールの初めにアクティブであるかに関わらず、いずれかの方向にスクロールすることによって、すべてのアイコンおよび/またはカテゴリがアクセスされうる循環形式で、スクロールすることができる。アイコンおよび/またはカテゴリがスクロールする形式にもかかわらず、次および/または前のアイコンおよび/またはカテゴリの指示をスクロールシーケンスでユーザに提供することが望ましい場合がある。したがって、本発明の様々な態様は、次および/または前のアイコンおよび/またはカテゴリの指示を固定領域310、制御領域314および/またはコンテンツ領域318内に表示することを、可能にすることができる。この点について、この指示により、最速かつ/または最も効率的な方法で所望のアイコンおよび/またはカテゴリに到達するために、アイコンおよび/またはカテゴリをどの方向にスクロールするべきであるかを、ユーザが決定できるようにすることができる。例えば、固定領域310、制御領域314および/またはコンテンツ領域318の一部(複数可)は、スクロールシーケンスにおける次のアイコン(複数可)および/または1つのカテゴリ/複数のカテゴリの半透明画像(複数可)によってオーバーレイされうる。この点について、半透明性は、ユーザが次および/または前のアイコン(複数可)および/または1つのカテゴリ/複数のカテゴリを識別するために十分不透明に、かつ、固定領域310内およびコンテンツ領域318内の情報が大きく遮られないように十分透明にすることができる。   [00120] FIG. 3F illustrates an example partition user interface that can provide an indication of a category and / or icon sequence when scrolling. In this regard, the icons and / or categories can be scrolled in a linear fashion with the first (eg, leftmost or top) and last (eg, rightmost or bottom) icons and / or categories. Alternatively, icons and / or categories can be accessed by scrolling in either direction, regardless of which icon and / or category is active at the beginning of the scroll. You can scroll in a recursive format. Regardless of the manner in which icons and / or categories scroll, it may be desirable to provide the user with an indication of the next and / or previous icons and / or categories in a scrolling sequence. Accordingly, various aspects of the present invention may allow the next and / or previous icon and / or category indications to be displayed in the fixed area 310, the control area 314, and / or the content area 318. . In this regard, this instruction allows the user to determine in which direction the icons and / or categories should be scrolled in order to reach the desired icon and / or category in the fastest and / or most efficient manner. Can be determined. For example, the fixed area 310, the control area 314, and / or the portion (s) of the content area 318 may include the next icon (s) and / or one category / multiple category translucent image (s) in the scroll sequence. Yes). In this regard, translucency is sufficiently opaque for the user to identify the next and / or previous icon (s) and / or one category / multiple categories, and within the fixed area 310 and the content area. The information in 318 can be made sufficiently transparent so as not to be greatly obstructed.

[00121]図3Fに描かれた本発明の例示的実施形態では、アイコンおよびカテゴリは、「風車」または「スロットマシン」の形式でスクロールされうる。この点について、1つ前のカテゴリ340の2つ前のアイコン330b、1つ前のアイコン330a、現在のアイコン330、1つ次のアイコン330c、および、2つ次のアイコン330dの半透明画像が、ユーザインタフェース上にオーバーレイされうる。同様に、アクティブカテゴリ326の2つ前のアイコン332b、1つ前のアイコン332a、現在のアイコン332、1つ次のアイコン332c、および、2つ次のアイコン332dの半透明画像が、ユーザインタフェース上にオーバーレイされうる。同様に、1つ次のカテゴリ342の2つ前のアイコン334b、1つ前のアイコン334a、現在のアイコン334、1つ次のアイコン334c、および、2つ次のアイコン334dの半透明画像が、ユーザインタフェース上にオーバーレイされうる。   [00121] In the exemplary embodiment of the invention depicted in FIG. 3F, icons and categories may be scrolled in the form of "windmills" or "slot machines". In this regard, the translucent images of the previous icon 330b, the previous icon 330a, the current icon 330, the first icon 330c, and the second icon 330d of the previous category 340 are displayed. Can be overlaid on the user interface. Similarly, the translucent images of the previous icon 332b, the previous icon 332a, the current icon 332, the first icon 332c, and the second icon 332d of the active category 326 are displayed on the user interface. Can be overlaid. Similarly, the translucent images of the second previous icon 334b, the previous icon 334a, the current icon 334, the first icon 334c, and the second icon 334d of the first category 342 are: It can be overlaid on the user interface.

[00122]図3Gは、本発明の一実施形態による、呼吸および触覚入力を介して例示的区画ユーザインタフェースとインタラクトすることを例示する。図3Gを参照すると、ユーザが触覚および呼吸入力を介して例示的区画ユーザインタフェースとインタラクトすることが図示される。   [00122] FIG. 3G illustrates interacting with an exemplary compartment user interface via respiratory and haptic input, according to one embodiment of the invention. Referring to FIG. 3G, it is illustrated that a user interacts with an example compartment user interface via haptic and respiratory inputs.

[00123]ユーザインタフェースの領域340は、制御領域であってもよく、呼吸入力によって移動され、かつ、領域340内の親指のタップによって選択されうる、要素を表示することができる。図3Gの矢印344は、領域340内の親指のシフト(すなわち、親指のわずかなドラッグ)を介してアイコンのカテゴリがスクロールされうることを例示するために利用される。   [00123] Area 340 of the user interface may be a control area and may display elements that can be moved by breathing input and selected by a thumb tap in area 340. The arrow 344 in FIG. 3G is utilized to illustrate that the category of icons can be scrolled through a thumb shift (ie, a slight drag of the thumb) within the region 340.

[00124]領域342内に表示される情報および/またはオブジェクトは、ユーザが次および前のアイコンのプレビューを見ることを可能にする、スーパーインポーズされた透明シートでありうる。領域342内に表示される情報および/またはオブジェクトは、固定にされてもよく、または、変化および/もしくは更新することができる。領域342内に表示されるいくつかのオブジェクトは、親指のタップを介して選択可能にすることができる。   [00124] The information and / or objects displayed in region 342 may be a superimposed transparency sheet that allows the user to see a preview of the next and previous icons. Information and / or objects displayed in region 342 may be fixed or may be changed and / or updated. Some objects displayed in region 342 may be selectable via a thumb tap.

[00125]したがって、呼吸および触覚入力と、それらの入力に対する明確に定義された応答との組み合わせによって、領域340および342を備える区画ユーザインタフェースは、従来のユーザインタフェースと比較して、曖昧さが除かれたソリューションを提供することができる。この点について、区画ユーザインタフェースは、電子デバイス、ならびに、コンテンツのマルチレイヤおよび/または多次元の表示の構成可能(すなわち、カスタマイズまたはパーソナライズされた)かつ予測可能な制御を可能にすることができる。   [00125] Thus, by combining breathing and tactile inputs and well-defined responses to those inputs, a partitioned user interface comprising regions 340 and 342 is less ambiguous compared to conventional user interfaces. Provided solutions. In this regard, the partition user interface can allow configurable (ie, customized or personalized) and predictable control of electronic devices and multi-layer and / or multi-dimensional displays of content.

[00126]図3Hは、スクロール時のカテゴリおよび/またはアイコンのシーケンスの指示を提供することができる、別の例示的区画ユーザインタフェースを例示する。図3Hに描かれた本発明の例示的実施形態では、アイコンおよびカテゴリは「フリップブック」形式でスクロールされうる。この点について、アクティブカテゴリ326の2つ前のアイコン332b、1つ前のアイコン332a、現在のアイコン332、1つ次のアイコン332c、および、2つ次のアイコン332dの半透明画像が、ユーザインタフェース上にオーバーレイされうる。   [00126] FIG. 3H illustrates another example partition user interface that may provide an indication of a category and / or icon sequence when scrolling. In the exemplary embodiment of the invention depicted in FIG. 3H, icons and categories may be scrolled in a “flipbook” format. In this regard, the translucent images of the second previous icon 332b, the previous icon 332a, the current icon 332, the first icon 332c, and the second icon 332d of the active category 326 are displayed in the user interface. Can be overlaid on top.

[00127]図4Aは、本発明の一実施形態による、触覚および呼吸入力を利用して、ユーザインタフェースを介してアプリケーションを起動することを例示する。図4Aを参照すると、所望のアイコンにナビゲートし、そのアイコンに関連付けられたアプリケーションを起動するための動作の例示的シーケンスを描く、例示的スクリーンショット410a、410b、410cおよび410dが図示される。   [00127] FIG. 4A illustrates launching an application via a user interface utilizing haptic and respiratory inputs according to one embodiment of the invention. Referring to FIG. 4A, exemplary screenshots 410a, 410b, 410c, and 410d are illustrated that depict an exemplary sequence of operations for navigating to a desired icon and launching an application associated with that icon.

[00128]この動作のシーケンスは、スクリーンショット410aによって描かれた状態の電子デバイス302から開始することができる。この点について、スクリーンショット410aでは、アイコン402が、制御領域314aのアクティブアイコンエリア328内に存在することができる。したがって、斜めのストライプの背景画像は、アイコン402が属することができるカテゴリに対応することができる。加えて、コンテンツ領域318a内のオブジェクト402、...、402は、アイコン402に対応することができる。 [00128] This sequence of operations may begin with the electronic device 302 as depicted by the screen shot 410a. In this regard, in the screen shot 410a, the icon 402 can be present in the active icon area 328 of the control area 314a. Accordingly, the background image of the diagonal stripe can correspond to the category to which the icon 402 can belong. In addition, the objects 402 1 ,. . . , 402 4 may correspond to the icon 402.

[00129]続いて、ユーザは、親指のシフトまたはトラックボールの回転など、触覚動作を介して、カテゴリのシーケンスをスクロールすることができる。この点について、ユーザは、ドットの背景画像に関連付けられたカテゴリを探索することができる。したがって、ユーザがドットの背景画像に達するとき、デバイスは、スクリーンショット410bに描かれた状態でありうる。スクリーンショット410bでは、アイコン404が、制御領域314bのアクティブアイコンエリア328内に存在することができ、コンテンツ領域318b内のオブジェクト404、...、404は、アイコン404に対応することができる。 [00129] Subsequently, the user can scroll through the sequence of categories via a haptic action, such as a thumb shift or a trackball rotation. In this regard, the user can search for a category associated with the dot background image. Thus, when the user reaches the dot background image, the device may be in the state depicted in screenshot 410b. In screenshot 410b, icon 404 can be present in active icon area 328 of control area 314b, and objects 404 1 ,. . . 404 N can correspond to the icon 404.

[00130]続いて、ユーザは、1回または複数回息を吐くなど、呼吸入力を介して、ドットの背景画像を有するカテゴリのアイコンをスクロールすることができる。この点について、ユーザは、デバイスが、スクリーンショット410cに描かれた状態になるまで、アイコンのシーケンスをスクロールすることができる。スクリーンショット410cでは、所望の機能またはアプリケーションに対応するアイコン406が、制御領域314cのアクティブアイコンエリア328内に存在することができる。したがって、コンテンツ領域418c内のオブジェクト406、...、406は、アイコン406に対応することができる。 [00130] Subsequently, the user can scroll through categories of icons having a background image of dots via a breathing input, such as exhaling one or more times. In this regard, the user can scroll through the sequence of icons until the device is in the state depicted in screenshot 410c. In the screenshot 410c, an icon 406 corresponding to the desired function or application may be present in the active icon area 328 of the control area 314c. Therefore, the objects 406 1 ,. . . , 406 N can correspond to the icon 406.

[00131]このように、スクリーンショット410cでは、ユーザは、自分の所望のアイコンであるアイコン406に達している場合があり、タッチスクリーンのタップまたはボタン押下など、触覚入力を介して、アイコン406を選択することによって、所望のアプリケーションおよび/または機能を起動することができる。図4A、410dに描かれた本発明の例示的実施形態では、ウェブページがアイコン406に関連付け可能であり、アイコン406を選択すると、ウェブブラウザが起動することができ、スクリーンショット410dに描かれたように、ウェブページがフルスクリーンで表示されうる。   [00131] Thus, in screenshot 410c, the user may have reached icon 406, which is his desired icon, and icon 406 is displayed via tactile input, such as a touch screen tap or button press. By selecting, a desired application and / or function can be activated. In the exemplary embodiment of the present invention depicted in FIGS. 4A, 410d, a web page can be associated with icon 406, and selecting icon 406 can launch a web browser, depicted in screenshot 410d. As such, the web page can be displayed full screen.

[00132]図4Bは、本発明の一実施形態による、電子デバイス上で実行するアプリケーションとの例示的インタラクションを例示する。図4Bを参照すると、本発明の態様は、呼吸および触覚入力の組み合わせを介して、ズームイン(拡大)および/またはズームアウト(縮小)を可能にすることができる。例えば、電子デバイス302上で実行するウェブブラウザは、フルウェブページ422を表示中である場合があり、ユーザは、ウェブページの一部424をズームインすることを望む場合がある。したがって、ユーザは、触覚入力を利用して、ズームの基準点(複数可)を制御し、呼吸入力を利用して、ズームの方向および/または量を制御することができる。例えば、ユーザは、タッチスクリーン上の基準点をタッチすることができ、息を吐き出すことによって、その基準点に基づいてズームインまたはアウトすることができる。この点について、ズームの方向および/または量は、例えば、息を吐く強さ、持続時間、方向および/または回数によって制御されうる。   [00132] FIG. 4B illustrates an exemplary interaction with an application executing on an electronic device, according to one embodiment of the invention. Referring to FIG. 4B, aspects of the present invention may allow zooming in (enlargement) and / or zooming out (reduction) via a combination of breathing and haptic input. For example, a web browser running on the electronic device 302 may be displaying a full web page 422 and the user may wish to zoom in on a portion 424 of the web page. Thus, the user can use the haptic input to control the zoom reference point (s) and the breathing input to control the zoom direction and / or amount. For example, the user can touch a reference point on the touch screen and can zoom in or out based on that reference point by exhaling. In this regard, the direction and / or amount of zoom can be controlled, for example, by exhaling intensity, duration, direction and / or number of times.

[00133]図4Cは、本発明の一実施形態による、電子デバイス上で実行するアプリケーションとのインタラクションを例示する。図4Cを参照すると、本発明の態様は、呼吸および触覚入力の組み合わせを介したスクロールを可能にすることができる。例示的アプリケーションには、ウェブブラウザ、メディアプレイヤ、スチルカメラ、ビデオカメラ、および、ファイルシステムブラウザが含まれうる。例えば、ウェブブラウザは、ウェブページ424の一部を表示中である場合があり、ユーザは、そのウェブページの別の一部428にスクロールすることを望む場合がある。したがって、ユーザは、呼吸入力を利用して、粗いスクロールを行い、触覚入力を利用して、きめの細かいスクロールを行うことができる。例えば、ユーザは、自分がスクロールすることを望む方向に息を吐き出して、ウェブページの一部426に達し、次いで、トラックボールの回転を介して、ウェブページの位置をきめ細かく調整して、ウェブページの一部428が表示されるようにすることができる。   [00133] FIG. 4C illustrates interaction with an application executing on an electronic device, according to one embodiment of the invention. Referring to FIG. 4C, aspects of the present invention can enable scrolling through a combination of breathing and haptic input. Exemplary applications may include web browsers, media players, still cameras, video cameras, and file system browsers. For example, the web browser may be displaying a portion of the web page 424 and the user may wish to scroll to another portion 428 of the web page. Therefore, the user can perform coarse scrolling using the respiratory input, and can perform fine scrolling using the tactile input. For example, the user exhales in the direction he wants to scroll to reach part 426 of the web page, and then fine tune the position of the web page via the rotation of the trackball to Part 428 may be displayed.

[00134]図5は、本発明の一実施形態による、MEMS検知および処理モジュールならびにホストシステムとインタラクトする、例示的ユーザインタフェースのブロック図である。図5を参照すると、制御されているデバイス106が図示される。制御されているデバイス106は、通信モジュール502、ユーザインタフェース504およびホストインタフェース506、複数のドライバおよび/またはライブラリ506、518、520および522、ならびに、複数のアプレット508、510、512および514を備えることができる。ユーザインタフェース504は、例えば、グラフィカルユーザインタフェース(GUI)でありうる。   [00134] FIG. 5 is a block diagram of an exemplary user interface interacting with a MEMS sensing and processing module and a host system, according to one embodiment of the invention. Referring to FIG. 5, the device 106 being controlled is illustrated. The device 106 being controlled comprises a communication module 502, a user interface 504 and a host interface 506, a plurality of drivers and / or libraries 506, 518, 520 and 522, and a plurality of applets 508, 510, 512 and 514. Can do. The user interface 504 can be, for example, a graphical user interface (GUI).

[00135]通信モジュール502は、ドライバ、および/または、ヒューマンインタフェースデバイス(HID)など、インタフェースとしての機能を果たすように動作可能なMEMS検知および処理モジュール104から、1つまたは複数の信号を受信するように動作可能でありうる、適切なロジック、回路、インタフェースおよび/またはコードを備えることができる。例えば、受信された信号が、サポートされたHIDプロファイルに準拠しない、すなわち、その信号が、サポートされたHIDクラスでない場合、受信された信号は、制御されているデバイス106上で処理するために、カスタムの空気排出ドライバまたは空気検出ドライバなど、ドライバに渡されうる。受信された信号は、そのドライバを使用して、制御されているデバイス106内で処理されうる。1つまたは複数の信号は、ユーザ102による人間の呼気の排出によって引き起こされた空気の動きの検出に応答して、生成されうる。通信モジュール502は、有線および/または無線信号を介して、MEMS検知および処理モジュール104から1つまたは複数の信号を受信するように動作可能でありうる。通信モジュール502は、複数のドライバ、インタフェースおよび/またはHIDプロファイルをサポートすることができる。例えば、通信モジュール120は、外部メモリインタフェース、汎用非同期送受信器(UART)インタフェース、拡張シリアル・ペリフェラル・インタフェース(eSPI)、汎用入出力(GPIO)インタフェース、パルス符号変調(PCM)および/もしくはIC間サウンド(IS)インタフェース、集積回路間(IC)バスインタフェース、ユニバーサルシリアルバス(USB)インタフェースおよび/もしくはHIDプロファイル、ブルートゥースインタフェースおよび/もしくはHIDプロファイル、ジグビーインタフェースおよび/もしくはHIDプロファイル、IrDAインタフェースおよび/もしくはHIDプロファイル、ならびに/または、無線USB(W−USB)インタフェースおよび/もしくはHIDプロファイルをサポートすることができる。 [00135] The communication module 502 receives one or more signals from the MEMS sensing and processing module 104 operable to serve as an interface, such as a driver and / or a human interface device (HID). Appropriate logic, circuitry, interfaces and / or code may be provided that may be operable. For example, if the received signal does not conform to a supported HID profile, i.e., the signal is not a supported HID class, the received signal is processed for processing on the controlled device 106. It can be passed to the driver, such as a custom air exhaust driver or air detection driver. The received signal can be processed in the device 106 being controlled using that driver. One or more signals may be generated in response to detecting air movement caused by the exhalation of human exhalation by the user 102. The communication module 502 may be operable to receive one or more signals from the MEMS sensing and processing module 104 via wired and / or wireless signals. The communication module 502 can support multiple drivers, interfaces and / or HID profiles. For example, the communication module 120 may include an external memory interface, a universal asynchronous transceiver (UART) interface, an extended serial peripheral interface (eSPI), a general purpose input / output (GPIO) interface, pulse code modulation (PCM) and / or inter-IC sound. (I 2 S) interface, inter-integrated circuit (I 2 C) bus interface, universal serial bus (USB) interface and / or HID profile, Bluetooth interface and / or HID profile, ZigBee interface and / or HID profile, IrDA interface and / Or HID profile and / or wireless USB (W-USB) interface and / or HID profile Can support files.

[00136]ユーザ102は、1つまたは複数の受信された信号を介して、制御されているデバイス106のGUI504とインタフェースすることが可能にされてもよい。受信された1つまたは複数の信号は、例えば、無線USB HIDクラスおよび/またはジグビーHIDクラスなど、1つもしくは複数のドライバ、ユニバーサルシリアルバス(USB)HIDクラス、および/または、無線プロトコルHIDクラスに準拠することができる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、1つまたは複数のドライバおよび/または他の無線プロトコルHIDクラスが利用されうる。現在、ブルートゥースは、USB HIDクラスを利用する。さらに、受信された信号が、サポートされたHIDプロファイルに準拠しない、すなわち、その信号が、サポートされたHIDクラスでない場合、受信された信号は、制御されているデバイス106上で処理するために、カスタムの空気排出ドライバまたは空気検出ドライバなど、ドライバに渡されうる。受信された信号は、そのドライバを使用して、制御されているデバイス106内で処理されうる。   [00136] The user 102 may be enabled to interface with the GUI 504 of the device 106 being controlled via one or more received signals. The received one or more signals may be sent to one or more drivers, universal serial bus (USB) HID class, and / or wireless protocol HID class, for example, wireless USB HID class and / or ZigBee HID class. Can be compliant. Nevertheless, the invention may not be so limited, and one or more drivers and / or other wireless protocol HID classes may be utilized without limiting the scope of the invention. Currently, Bluetooth uses the USB HID class. Further, if the received signal does not conform to a supported HID profile, i.e., the signal is not a supported HID class, the received signal is processed for processing on the controlled device 106. It can be passed to the driver, such as a custom air exhaust driver or air detection driver. The received signal can be processed in the device 106 being controlled using that driver.

[00137]通信モジュール502は、受信された1つまたは複数の信号をHIDプロファイルにフォーマットするように動作可能でありうる。HIDプロファイルは、制御されているデバイス106のGUI504とインタフェースすることを可能にすることができる、1つまたは複数のドライバおよび/またはライブラリ516〜522を備えることができる。1つまたは複数のドライバおよび/またはライブラリ516〜522は、制御されているデバイス106による、MEMS検知および処理モジュール104との通信の開始、確立および/または終了のうち、1つまたは複数を可能にすることができる。HIDプロファイルは、ブルートゥースなど、有線および/または無線リンクを介して、MEMS検知および処理モジュール104など、HIDを使用するためのプロトコル、手順および/または使用シナリオを定義することができる。制御されているデバイス106は、MEMS検知および処理モジュール104など、HIDを発見するためにサービス発見プロトコル(SDP)を使用することができる、ブルートゥーススタックなど、無線プロトコルスタックをホストすることができる。   [00137] The communication module 502 may be operable to format the received one or more signals into an HID profile. The HID profile may comprise one or more drivers and / or libraries 516-522 that may allow to interface with the GUI 504 of the device 106 being controlled. One or more drivers and / or libraries 516-522 allow one or more of the controlled device 106 to initiate, establish, and / or terminate communication with the MEMS sensing and processing module 104. can do. The HID profile may define protocols, procedures and / or usage scenarios for using HID, such as MEMS detection and processing module 104, via wired and / or wireless links, such as Bluetooth. The device 106 being controlled can host a wireless protocol stack, such as a Bluetooth stack, which can use a service discovery protocol (SDP) to discover HIDs, such as the MEMS detection and processing module 104.

[00138]制御されているデバイス106のより多くのものの1つのユーザインタフェースはまた、ボタンまたはキーによりアクティベートされる機能モードに基づいて、アクティベートかつ修正されうる。機能モードには、MEMS検知および処理モジュール104に埋め込まれたファームウェア、ならびに、制御されているデバイス106上にインストールされた1つまたは複数のアプリケーション、ドライバ、および/またはライブラリの一部が含まれうる。機能モードは、MEMS検知および処理モジュール104から、かつ/または、制御されているデバイス106上の1つまたは複数の刺激を介して、アクティベートされうる。1つまたは複数の刺激には、空気の一吹き、タッチ、オーディオ、視覚、ジェスチャーおよび/または他の刺激が含まれうる。   [00138] One user interface of more of the devices 106 being controlled can also be activated and modified based on the functional mode activated by a button or key. Functional modes may include firmware embedded in the MEMS detection and processing module 104 and a portion of one or more applications, drivers, and / or libraries installed on the device 106 being controlled. . The functional mode may be activated from the MEMS sensing and processing module 104 and / or via one or more stimuli on the device 106 being controlled. The one or more stimuli may include a blow of air, touch, audio, vision, gestures and / or other stimuli.

[00139]本発明の一実施形態によれば、制御されているデバイス106は、MEMS検知および処理モジュール104など、HIDから、それがアクティベートされる前に、クラスドライバおよび/またはライブラリ516〜522に対する記述子など、デバイス情報を受信するように動作可能でありうる。ドライバおよび/またはライブラリ516〜522は、制御されているデバイス106上の制御を可能にするために、記述子を利用してデバイス特性を決定するように動作可能でありうる。   [00139] According to one embodiment of the present invention, the device 106 being controlled is from the HID, such as the MEMS detection and processing module 104, to the class driver and / or library 516-522 before it is activated. It may be operable to receive device information, such as a descriptor. Drivers and / or libraries 516-522 may be operable to determine device characteristics utilizing descriptors to allow control on the device 106 being controlled.

[00140]例えば、ライブラリである変数#1 516は、MEMS検知および処理モジュール104など、HID上への人間の呼気の排出の方向を検出し、かつ、それに応じて、受信された信号を、ユーザインタフェース504の1つまたは複数のコンポーネントを制御する方向信号に変換するように動作可能でありうる。ライブラリである運動量#1 518は、ユーザ102によって吐き出された空気の一吹きを検出し、かつ、それに応じて、MEMS検知および処理モジュール104からの対応する受信された信号を利用して、ユーザインタフェース504の1つまたは複数のメニューをスクロールし、特定の期間後にスローダウンするように動作可能でありうる。例えば、ライブラリである運動量#1 518は、ある時間内の人間の呼気を吹く反復回数、または、ある時間内の人間の呼気を吹く方向の組み合わせ、または、ユーザ102によって吐き出された人間の呼気の一吹きの速い左−右−左のシーケンスを検出するように、かつ、制御されているデバイス106のユーザインタフェースを通じてアクティベートかつ/または切り替えるための制御信号を生成するように動作可能でありうる。例えば、空気の一吹きをMEMS検知および処理モジュール104に吹きかけることによって、スクロールの方向および速度は、MEMS検知および処理モジュール104の表面を左下から右上へと渡る空気の流れに基づいて、決定されうる。MEMS検知および処理モジュール104は、結果としてユーザインタフェースの対応する2軸スクロールとなりうる制御信号を生成することができ、スクロールの速度は、MEMS検知および処理モジュール104上の空気の流れ、または、空気の流れの圧力の強さを検知する持続時間に基づいて、決定されうる。別の実施形態では、スクロールインタラクション後のある期間内のMEMS検知および処理モジュール104に対する1回または複数回の固定された空気の一吹きは、スクロールの結果として可視のエリアへのズームインを可能にすることができる、ズーム機能モードとして処理されうる。ユーザ102は、MEMS検知および処理モジュール104に対して再度空気を一吹きし、スクロール機能モードに戻ることによって、ズーム機能モードを終了することが可能にされてもよい。   [00140] For example, the library variable # 1 516 detects the direction of the exhalation of human exhalation on the HID, such as the MEMS sensing and processing module 104, and the received signal accordingly to the user One or more components of interface 504 may be operable to convert to direction signals that control. The library, momentum # 1 518, detects a blow of air exhaled by the user 102 and uses the corresponding received signal from the MEMS sensing and processing module 104 accordingly to utilize the user interface. 504 may be operable to scroll through one or more menus and slow down after a certain period of time. For example, the library momentum # 1 518 may be a combination of the number of iterations of blowing human exhalation within a certain time period, or a combination of directions of blowing human exhalation within a certain period of time, It may be operable to detect a quick blow-off left-right-left sequence and to generate a control signal for activation and / or switching through the user interface of the device 106 being controlled. For example, by blowing a blow of air over the MEMS sensing and processing module 104, the scroll direction and speed can be determined based on the air flow across the surface of the MEMS sensing and processing module 104 from the lower left to the upper right. . The MEMS sensing and processing module 104 can generate a control signal that can result in a corresponding two-axis scrolling of the user interface, where the speed of the scroll is determined by the air flow on the MEMS sensing and processing module 104 or the air flow. It can be determined based on the duration of sensing the strength of the flow pressure. In another embodiment, one or more fixed air blows to the MEMS sensing and processing module 104 within a period after scroll interaction allows zooming in to an area visible as a result of scrolling. Can be processed as a zoom function mode. The user 102 may be allowed to exit the zoom function mode by blowing another air to the MEMS detection and processing module 104 and returning to the scroll function mode.

[00141]ライブラリであるブール#1 520は、MEMS検知および処理モジュール104から受信された信号を利用して、ユーザインタフェース504内の1つまたは複数のメニューおよび/またはアイコンを選択するように動作可能でありうる。ライブラリであるブール#2 522もまた、MEMS検知および処理モジュール104から受信された信号を利用して、ユーザインタフェース504内の1つまたは複数のメニューおよび/またはアイコンを選択するように動作可能でありうる。ライブラリであるブール#2 522はまた、特定の期間内に受信された人間の呼気の一吹きのシーケンスに基づいて、機能モードを決定するように動作可能でもありうる。例えば、ある期間内に受信された何回かの人間の呼気の一吹きは、ユーザインタフェース504内で、機能モードをスクロール機能モードから拡大機能モードに切り替えることができる。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、他のドライバおよび/またはライブラリが利用されうる。   [00141] The library Boolean # 1 520 is operable to select one or more menus and / or icons in the user interface 504 utilizing signals received from the MEMS sensing and processing module 104. It can be. Library Boolean # 2 522 is also operable to utilize the signals received from MEMS sensing and processing module 104 to select one or more menus and / or icons in user interface 504. sell. Library Boolean # 2 522 may also be operable to determine a functional mode based on a sequence of human exhalation breaths received within a particular time period. For example, several blows of human breath received within a period of time can switch the function mode from the scroll function mode to the expanded function mode in the user interface 504. Nevertheless, the invention may not be so limited, and other drivers and / or libraries may be utilized without limiting the scope of the invention.

[00142]制御されているデバイス106は、1つまたは複数のアプレット508〜514を利用して、MEMS検知および処理モジュール104など、検出デバイスとインタフェースするように動作可能でありうる。アプレット508〜514は、例えば、ウェブブラウザなど、別のプログラムのコンテキストで実行するように動作可能でありうる、ソフトウェアコンポーネント、コードおよび/またはプログラムを備えることができる。例えば、アプレットであるUIスキン#1 508は、風車としての機能を果たすことができるソフトウェアコンポーネント、コードおよび/またはプログラムを備えることができ、その風車で、複数のアイコンがユーザインタフェース504の背景で循環することができる。ユーザ102は、制御されているデバイス106のユーザインタフェース504の背景から、1つまたは複数のアイコンを選択するように促されてもよい。アプレットであるUIスキン#2 510は、例えば、GUI504上に表示されているアイコンにユーザ102が空気を吹きかけるとき、ユーザインタフェース504上の1つまたは複数のアイコンを粉々に分解することを可能にすることができる、ソフトウェアコンポーネント、コードおよび/またはプログラムを備えることができる。別の実施形態では、アプレットの1つは、例えば、アクティベーション時に、ユーザインタフェース504の1つまたは複数のコンポーネントの間で切り替えることができる、ソフトウェアコンポーネント、コードおよび/またはプログラムを備えることができる。   [00142] The controlled device 106 may be operable to interface with a detection device, such as the MEMS sensing and processing module 104, utilizing one or more applets 508-514. Applets 508-514 may comprise software components, code and / or programs that may be operable to execute in the context of another program, such as, for example, a web browser. For example, the applet UI skin # 1 508 can include software components, code and / or programs that can act as a windmill, where multiple icons circulate in the background of the user interface 504. can do. The user 102 may be prompted to select one or more icons from the background of the user interface 504 of the device 106 being controlled. UI skin # 2 510, which is an applet, allows one or more icons on user interface 504 to be shattered, for example, when user 102 blows air over icons displayed on GUI 504. Software components, code and / or programs can be provided. In another embodiment, one of the applets can comprise software components, code and / or programs that can be switched between one or more components of the user interface 504, for example upon activation.

[00143]別の実施形態では、アプレットの1つは、3−Dフリップブックとしての機能を果たすことができるソフトウェアコンポーネント、コードおよび/またはプログラムを備えることができ、その3−Dフリップブックで、ユーザ102は、GUI504上のブックに空気を吹きかけて、そのブック内の1つまたは複数のページをめくることが可能にされてもよい。アプレットであるFaves#1 512は、ユーザ102がGUI504上のユーザまたは友人の2つ以上の写真に空気を吹きかけるとき、GUI504上のそのユーザまたは友人の2つ以上の写真を単一の写真にモーフィングすることを可能にすることができる、ソフトウェアコンポーネント、コードおよび/またはプログラムを備えることができる。アプレットであるスクロール機能514は、GUI504上の複数のメニュー、ページおよび/またはアイコンをスクロールすることを可能にすることができる、ソフトウェアコンポーネント、コードおよび/またはプログラムを備えることができる。制御されているデバイス106のGUI504は、アプレット508〜514によって生成された1つまたは複数の出力に基づいて、MEMS検知および処理モジュール104とインタフェースするように動作可能でありうる。   [00143] In another embodiment, one of the applets can comprise software components, code and / or programs that can serve as a 3-D flipbook, in which the 3-D flipbook: User 102 may be allowed to blow a book on GUI 504 to turn one or more pages in the book. The applet Faves # 1 512 morphs two or more photos of a user or friend on the GUI 504 into a single photo when the user 102 blows air on two or more photos of the user or friend on the GUI 504 Software components, code and / or programs can be provided that can be made possible. The scroll function 514, which is an applet, can comprise software components, code and / or programs that can allow scrolling through multiple menus, pages and / or icons on the GUI 504. The GUI 504 of the device 106 being controlled may be operable to interface with the MEMS sensing and processing module 104 based on one or more outputs generated by the applets 508-514.

[00144]ホストコンピュータインタフェース(HCI)506は、例えば、コントローラ管理、リンク確立および/または維持のために、制御されているデバイス106内のディスプレイ、他のハードウェアおよび/またはプロセッサへのインタフェースを備えることができる。HCIトランスポート層は、HCIコマンドを、制御されているデバイス106内の他のハードウェアへ配信するように動作可能でありうる。   [00144] The host computer interface (HCI) 506 comprises an interface to a display, other hardware and / or processor in the device 106 being controlled, eg, for controller management, link establishment and / or maintenance. be able to. The HCI transport layer may be operable to deliver HCI commands to other hardware within the device 106 being controlled.

[00145]本発明の一実施形態によれば、MEMS検知および処理モジュール104は、制御されているデバイス106上で複数の機能モードを有効にするために利用されうる。例えば、MEMS検知および処理モジュール104は、多次元軸で文書をスクロールすることを可能にするためのスクロール機能モードと、文書のズームインおよびズームアウトを可能にし、または、指向性拡大を可能にし、テキストの本文内でカーソルを移動させるためのズーム機能モードと、ポイントおよびクリック機能モードであって、クリックが、MEMS検知および処理モジュール104上で1回または複数回空気を一吹きする例示的実施形態でありうる機能モードと、ポインタを項目上で停止させることによってユーザインタフェース128上のその項目をドラッグすること、その項目をドラッグすること、および、次いでMEMS検知および処理モジュール104上で再度空気を一吹きすることによってその項目をドロップすることを可能にするための、ドラッグアンドドロップ機能モードとを有効にするように動作可能でありうる。   [00145] According to one embodiment of the present invention, the MEMS detection and processing module 104 can be utilized to enable multiple functional modes on the device 106 being controlled. For example, the MEMS detection and processing module 104 allows a scrolling function mode to allow document scrolling in multi-dimensional axes, and allows zooming in and out of the document, or enabling directional magnification and text In an exemplary embodiment, a zoom function mode for moving the cursor within the body of the text, and a point and click function mode, where the click blows air one or more times over the MEMS detection and processing module 104 Possible functional modes and dragging the item on the user interface 128 by stopping the pointer over the item, dragging the item, and then blowing again on the MEMS sensing and processing module 104 Drop the item by For enabling it may be operable to enable a drag-and-drop function mode.

[00146]例えば、MEMS検知および処理モジュール104は、1つまたは複数の次元で、ゲームおよび他のマルチメディアアプリケーション内でキャラクタおよび/もしくはアバターを動かすこと、ゲームおよび他のアプリケーション内で自動スクロール速度を制御することによって背景を移動させるか、もしくは、他のスーパーインポーズされた要素を移動させること、ゲームプレイを中断することなく、オプションのリストをスクロールして選択し、ゲーム内で射撃中に武器を交換すること、ならびに/または、より多くの同時入力を可能にするために、呼気によって操作されるべき具体的な制御をマッピングすることに基づいて、ゲーム内でカスタマイズ可能な入力を既存のコントローラに追加することを行うように動作可能でありうる。例えば、MEMS検知および処理モジュール104は、キーボード、マウスもしくは任意の他の入力デバイスによるマルチモーダル入力を可能にすること、タッチスクリーンによるマルチモーダル入力を可能にすること、仮想要素の動作など、GUIベースのインタラクションのためのボイスおよび/もしくはスピーチによるマルチモーダル入力を可能にすること、ならびに/または、ジェスチャーおよび/もしくは動作追跡によるマルチモーダル入力を可能にすることを行うように動作可能でありうる。   [00146] For example, the MEMS detection and processing module 104 moves characters and / or avatars in games and other multimedia applications in one or more dimensions, and auto-scrolling speeds in games and other applications. Move the background by controlling or moving other superimposed elements, scroll through the list of options without interrupting gameplay, and weapons while shooting in the game And / or existing controllers that can be customized in-game based on mapping specific controls to be manipulated by exhalation to allow more simultaneous input May be operable to do that in addition to . For example, the MEMS sensing and processing module 104 is GUI based, such as enabling multimodal input with a keyboard, mouse or any other input device, enabling multimodal input with a touch screen, virtual element operation, etc. May be operable to allow multimodal input with voice and / or speech for interaction and / or enable multimodal input with gesture and / or motion tracking.

[00147]本発明の別の実施形態によれば、MEMS検知および処理モジュール104は、オーディオ−ビデオデバイスにおけるオーディオレベルもしくはボリュームの設定、前方もしくは後方へのトラックのスキップ、および/または、電話のボイスメールメッセージのスキップなど、非GUIの可変機能の制御を可能にすること、データ入力中にアイコン、アプリケーション、ウィンドウもしくはウィジェットを閲覧すること、ならびに/または、図2Fに例示されたように、ユーザの両手をハンドル上に置いたまま、ナビゲーションシステムもしくは車内のダッシュボードおよびエンターテインメントシステムとインタラクトすることを行うように動作可能でありうる。   [00147] According to another embodiment of the present invention, the MEMS detection and processing module 104 may set audio levels or volumes in audio-video devices, skip tracks forward or backward, and / or telephone voice. Allows control of non-GUI variable functions, such as skipping mail messages, browsing icons, applications, windows or widgets during data entry and / or as illustrated in FIG. 2F It may be operable to interact with a navigation system or an in-car dashboard and entertainment system, with both hands on the steering wheel.

[00148]本発明の別の実施形態によれば、MEMS検知および処理モジュール104は、仮想現実環境およびゲーム内で火、ろうそく、風車、シャボン玉、または、漂うほこりを吹くなど、現実のインタラクションの模倣を可能にし、音楽の再生中に、フィルタ、ピッチまたはソースなど、オーディオおよび/またはビデオパラメータを修正するように動作可能でありうる。例えば、MEMS検知および処理モジュール104は、例えば、図2Dに開示されたようなヘッドマウントディスプレイにおいてコンテンツをスクロールもしくはズームすること、大型ディスプレイもしくはビデオプロジェクタとリモートでインタラクトすること、ならびに/または、動作の方向および/もしくは速度を調整することによって、玩具もしくは電子デバイスを制御すること、グラフィックスデザイン編集アプリケーションにおいて、他の入力を描画もしくは提供中に線幅などのパラメータを設定することなど、機能モードを有効にすることによって、企業、法執行、自国の保安、医学的な緊急事態、軍事オペレーションにおいて、ウェアラブル機器のハンズフリー操作を可能にするように動作可能でありうる。   [00148] According to another embodiment of the present invention, the MEMS detection and processing module 104 can be used for real-world interaction, such as blowing fire, candles, windmills, soap bubbles, or drifting dust in virtual reality environments and games. It may be operable to allow imitation and modify audio and / or video parameters, such as filters, pitch or source, during music playback. For example, the MEMS detection and processing module 104 may be used to scroll or zoom content on a head mounted display such as that disclosed in FIG. 2D, interact remotely with a large display or video projector, and / or Function modes such as controlling toys or electronic devices by adjusting direction and / or speed, setting parameters such as line width while drawing or providing other input in graphics design editing applications By enabling, it may be operable to allow hands-free operation of wearable devices in companies, law enforcement, home security, medical emergencies, and military operations.

[00149]それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、MEMS検知および処理モジュールは他のアプリケーションで利用されうる。   [00149] Nevertheless, the present invention may not be so limited, and the MEMS sensing and processing module may be utilized in other applications without limiting the scope of the present invention.

[00150]本発明の一実施形態によれば、GUI504とインタフェースする人間すなわちユーザ102は、制御されているデバイス106上のいかなる特定のオペレーティングシステム(OS)プラットフォームについても不可知であってもよい。例えば、制御されているデバイス106は、iPhoneまたはBlackberryフォンなど、移動電話上で、Windows OS、Symbian OS、Android OS、Palm OS、または、他のオペレーティングシステムのうち、任意の1つまたは複数のものにおいて実行中である場合がある。それにもかかわらず、本発明はそのように限定されない場合があり、本発明の範囲を限定することなく、他のオペレーティングシステムが利用されうる。   [00150] According to one embodiment of the invention, a human or user 102 that interfaces with the GUI 504 may be ignorant of any particular operating system (OS) platform on the device 106 being controlled. For example, the controlled device 106 may be any one or more of a Windows OS, a Symbian OS, an Android OS, a Palm OS, or other operating system on a mobile phone, such as an iPhone or Blackberry phone. May be running. Nevertheless, the present invention may not be so limited, and other operating systems may be utilized without limiting the scope of the present invention.

[00151]図6は、人間の呼気を使用してデバイスを制御する信号を処理するための例示的ステップを例示するフローチャートである。図6を参照すると、例示的ステップは、ステップ602で開始することができる。ステップ604で、1つまたは複数の信号が、MEMS検知および処理モジュール104など、ヒューマンインタフェースデバイス(HID)としての機能を果たすように動作可能な検出デバイスから受信されうる。検出デバイスは、制御されるデバイスに埋め込まれうるマイクロ・エレクトロ・メカニカル・システム(MEMS)検出器を備えることができる。1つまたは複数の信号は、人間の呼気の排出によって引き起こされた空気の動きの検出に応答して、生成されうる。ステップ606で、制御されているデバイス106は、受信された1つまたは複数の信号をHIDプロファイルにフォーマットするように動作可能でありうる。HIDプロファイルは、制御されているデバイス106のGUI504とインタフェースすることを可能にすることができる、1つまたは複数のドライバおよび/またはライブラリ516〜522を備えることができる。ステップ608で、1つまたは複数のドライバおよび/またはライブラリ516〜522は、制御されているデバイス106による、MEMS検知および処理モジュール104との通信の開始、確立および/または終了のうち、1つまたは複数を可能にすることができる。ステップ610で、制御されているデバイス106内の1つまたは複数のアプレット508〜514は、MEMS検知および処理モジュール104など、検出デバイスとインタフェースするように動作可能でありうる。ステップ612で、ユーザ102は、1つまたは複数のアプレット508〜514を利用して、1つまたは複数の受信された信号を介して、制御されているデバイス106のグラフィカルユーザインタフェース(GUI)128とインタフェースすることが可能にされてもよい。制御は次いで、終了ステップ514へ移る。   [00151] FIG. 6 is a flowchart illustrating exemplary steps for processing signals to control a device using human exhalation. With reference to FIG. 6, an exemplary step may begin at step 602. At step 604, one or more signals may be received from a detection device operable to act as a human interface device (HID), such as the MEMS sensing and processing module 104. The detection device can comprise a micro electro mechanical system (MEMS) detector that can be embedded in the controlled device. One or more signals may be generated in response to detecting air movement caused by the exhalation of human breath. At step 606, the controlled device 106 may be operable to format the received signal or signals into an HID profile. The HID profile may comprise one or more drivers and / or libraries 516-522 that may allow to interface with the GUI 504 of the device 106 being controlled. At step 608, one or more drivers and / or libraries 516-522 may select one or more of the initiation, establishment and / or termination of communication with the MEMS sensing and processing module 104 by the controlled device 106. Multiple can be allowed. At step 610, one or more applets 508-514 in the device 106 being controlled may be operable to interface with a detection device, such as the MEMS sensing and processing module 104. At step 612, the user 102 utilizes one or more applets 508-514 to communicate with the graphical user interface (GUI) 128 of the device 106 being controlled via one or more received signals. It may be possible to interface. Control then passes to end step 514.

[00152]図7Aは、本発明の一実施形態による、人間の呼気を使用してデバイスのユーザインタフェースを制御するための例示的ステップを例示するフローチャートである。図7Aを参照すると、例示的ステップは、ステップ702で開始することができる。ステップ704で、MEMS検知および処理モジュール104内の検知モジュール110は、例えば、ユーザ102による人間の呼気の排出によって引き起こされた、周囲空気の組成など、組成における動きまたは変化を検出するように動作可能でありうる。ステップ306で、検知モジュール110は、人間の呼気の排出によって引き起こされた動きの検出に応答して、1つまたは複数の電気、光および/または磁気信号を生成するように動作可能でありうる。ステップ708で、プロセッサファームウェア116は、様々なアルゴリズムを利用して、検知モジュール110から受信された電気、磁気および/または光信号を処理するように動作可能でありうる。プロセッサファームウェア116はまた、特定のユーザ102の呼吸パターンに適合するように、人工知能(AI)アルゴリズムを組み込むように動作可能であってもよい。   [00152] FIG. 7A is a flowchart illustrating exemplary steps for controlling the user interface of a device using human exhalation, according to one embodiment of the present invention. With reference to FIG. 7A, an exemplary step may begin at step 702. At step 704, the sensing module 110 in the MEMS sensing and processing module 104 is operable to detect movements or changes in composition, such as, for example, ambient air composition caused by the exhalation of human breath by the user 102. It can be. At step 306, the sensing module 110 may be operable to generate one or more electrical, light and / or magnetic signals in response to detecting motion caused by the exhalation of human breath. At step 708, processor firmware 116 may be operable to process electrical, magnetic and / or optical signals received from sensing module 110 utilizing various algorithms. The processor firmware 116 may also be operable to incorporate artificial intelligence (AI) algorithms to adapt to a particular user's 102 breathing pattern.

[00153]ステップ710で、プロセッサファームウェア116は、検知モジュール110から受信された電気、光および/または磁気信号の処理に基づいて、制御されているデバイス106への1つまたは複数の制御信号を生成するように動作可能でありうる。ステップ712で、生成された1つまたは複数の制御信号は、マルチメディアデバイス106aのユーザインタフェース107a、携帯電話/スマートフォン/データフォン106bのユーザインタフェース107b、パーソナルコンピュータ(PC)、ラップトップもしくはノートブックコンピュータ106cのユーザインタフェース107c、表示デバイス106dのユーザインタフェース107d、TV/ゲームコンソール/他のプラットフォーム106eのユーザインタフェース107e、ならびに、移動マルチメディアプレイヤおよび/もしくはリモートコントローラのユーザインタフェースなど、制御されているデバイス106のユーザインタフェース128を制御するように動作可能でありうる。制御は次いで、終了ステップ714へ移る。   [00153] At step 710, the processor firmware 116 generates one or more control signals to the device 106 being controlled based on the processing of the electrical, optical and / or magnetic signals received from the sensing module 110. May be operable to In step 712, the generated one or more control signals are sent to the user interface 107a of the multimedia device 106a, the user interface 107b of the mobile phone / smartphone / dataphone 106b, a personal computer (PC), a laptop or notebook computer. 106c user interface 107c, display device 106d user interface 107d, TV / game console / user interface 107e user interface 107e, and mobile multimedia player and / or remote controller user interface 106 The user interface 128 may be operable to control the user interface 128. Control then passes to end step 714.

[00154]図7Bは、本発明の一実施形態による、情報のサイドローディングを行うための例示的ステップを例示するフローチャートである。図7Bを参照すると、例示的ステップは、ステップ752で開始することができる。ステップ754で、移動電話130aなど、制御されているデバイス106は、PC、ラップトップまたはノートブックコンピュータ132など、別のデバイス108から、データおよび/またはメディアコンテンツを受信するように動作可能でありうる。ステップ756で、移動電話130aなど、制御されているデバイス106は、インターネット134など、ネットワークからデータおよび/またはメディアコンテンツを検索するように動作可能でありうる。例えば、検索されたデータおよび/またはメディアコンテンツには、RSSフィード、URLおよび/またはマルチメディアコンテンツが含まれうる。   [00154] FIG. 7B is a flowchart illustrating exemplary steps for performing sideloading of information according to one embodiment of the invention. With reference to FIG. 7B, an exemplary step may begin at step 752. At step 754, a controlled device 106, such as mobile phone 130a, may be operable to receive data and / or media content from another device 108, such as a PC, laptop or notebook computer 132. . At step 756, the controlled device 106, such as the mobile phone 130a, may be operable to retrieve data and / or media content from a network, such as the Internet 134. For example, retrieved data and / or media content may include RSS feeds, URLs, and / or multimedia content.

[00155]ステップ758で、ラップトップ、PCおよび/またはノートブック132が、受信されたデータおよび/またはメディアコンテンツ、ならびに、検索されたデータおよび/またはメディアコンテンツの関連付けおよび/またはマッピングを行うことができるかどうかが判定されうる。関連付けまたはマッピングがラップトップ、PCおよび/またはノートブック132上で行われる場合、制御はステップ760へ移る。ステップ760で、ラップトップ、PCおよび/またはノートブック132内の1つまたは複数のプロセッサは、受信かつ検索されたデータおよび/またはメディアコンテンツを、アイコンまたはグループに関連付けかつ/またはマッピングするように動作可能でありうる。例えば、ラップトップ、PCおよび/またはノートブック132は、ユーザ102がアイコンを介して機能を有効にするか、またはアクティベートすることができるように、アイコンを機能に関連付けかつ/またはマッピングするように動作可能でありうる。例示的アイコンは、ハイパーリンク、ブックマーク、ショートカット、ウィジェット、RSSフィードおよび/またはお気に入りの仲間など、機能を有効にすることができる。ステップ762で、ラップトップ、PCおよび/またはノートブック132は、関連付けられたアイコンまたはグループを、移動電話130aなど、制御されているデバイス106へ通信するように動作可能でありうる。制御は次いで、ステップ766へ移る。   [00155] At step 758, the laptop, PC, and / or notebook 132 may associate and / or map the received data and / or media content and the retrieved data and / or media content. Whether it can be determined. If the association or mapping is done on the laptop, PC and / or notebook 132, control passes to step 760. At step 760, one or more processors in the laptop, PC, and / or notebook 132 operate to associate and / or map received and retrieved data and / or media content to an icon or group. It may be possible. For example, a laptop, PC and / or notebook 132 operates to associate and / or map an icon to a function so that the user 102 can activate or activate the function via the icon. It may be possible. Exemplary icons can enable features such as hyperlinks, bookmarks, shortcuts, widgets, RSS feeds and / or favorite buddies. At step 762, the laptop, PC and / or notebook 132 may be operable to communicate the associated icon or group to the device 106 being controlled, such as the mobile phone 130a. Control then passes to step 766.

[00156]関連付けまたはマッピングがラップトップ、PCおよび/またはノートブック132上で行われない場合、制御はステップ764へ移る。ステップ764で、移動電話130aなど、制御されているデバイス106内の1つまたは複数のプロセッサは、受信かつ検索されたデータおよび/またはメディアコンテンツを、アイコンまたはグループに関連付けかつ/またはマッピングするように動作可能でありうる。例えば、移動電話130aは、ユーザ102がアイコンを介して機能を有効にするか、またはアクティベートすることができるように、アイコンを機能に関連付けかつ/またはマッピングするように動作可能でありうる。   [00156] If the association or mapping is not performed on the laptop, PC, and / or notebook 132, control passes to step 764. At step 764, one or more processors in controlled device 106, such as mobile phone 130a, associate and / or map the received and retrieved data and / or media content to an icon or group. It may be operable. For example, the mobile phone 130a may be operable to associate and / or map an icon to a function so that the user 102 can enable or activate the function via the icon.

[00157]ステップ766で、移動電話130aなど、制御されているデバイス106は、受信されたデータおよび/またはメディアコンテンツに関連付けられたコンテンツが、移動電話130aなど、制御されているデバイスのユーザインタフェース131aの一体部分になりうるように、関連付けられたアイコンまたはグループをカスタマイズするように動作可能でありうる。ユーザインタフェース131aは、ユーザ102によって修正かつ/または編成されうる。この点について、ユーザ102は、ユーザインタフェース131aに対して利用されるべきコンテンツ、および/または、1つもしくは複数のコンテンツコンポーネントを選び、作成し、配置し、かつ/または編成することができる。例えば、ユーザ102は、画面上でコンテンツコンポーネントを編成することができ、背景および/またはアイコン画像のために、個人の写真など、コンテンツを選ぶことができる。加えて、ユーザ102は、コンテンツコンポーネントがアクティベートされるか、または、ユーザ102に提示される方法を作成かつ/または修正することができる。例えば、ユーザ102は、ユーザインタフェース128のためのアイコンおよび/または背景を作成、インポートかつ/または編集することができる。制御は次いで、終了ステップ768へ移る。   [00157] At step 766, the controlled device 106, such as the mobile phone 130a, receives the content associated with the received data and / or media content, the user interface 131a of the controlled device, such as the mobile phone 130a. May be operable to customize the associated icon or group. User interface 131a may be modified and / or organized by user 102. In this regard, the user 102 can select, create, arrange, and / or organize content to be utilized for the user interface 131a and / or one or more content components. For example, the user 102 can organize content components on the screen and can select content, such as personal photos, for the background and / or icon images. In addition, the user 102 can create and / or modify the manner in which the content component is activated or presented to the user 102. For example, the user 102 can create, import and / or edit icons and / or backgrounds for the user interface 128. Control then passes to end step 768.

[00158]本発明の一実施形態によれば、人間の呼気を使用してデバイスのユーザインタフェースを制御するための方法およびシステムは、埋め込み型のマイクロ・エレクトロ・メカニカル・システム(MEMS)検知および処理モジュール104(図1A)を備える、デバイス106(図1A)を備えることができる。MEMS検知および処理モジュール104は、ユーザ102による人間の呼気の排出によって引き起こされた動きを検出するように動作可能でありうる。人間の呼気の排出によって引き起こされた動きの検出に応答して、MEMS検知および処理モジュール104は、1つまたは複数の制御信号を生成するように動作可能でありうる。生成された1つまたは複数の制御信号は、マルチメディアデバイス106a、携帯電話/スマートフォン/データフォン106b、PC、ラップトップまたはノートブックコンピュータ106c、表示デバイス106d、TV/ゲームコンソール/他のプラットフォーム106e、移動マルチメディアプレイヤおよび/またはリモートコントローラなど、デバイス106のユーザインタフェース128を制御するために利用されうる。   [00158] According to one embodiment of the present invention, a method and system for controlling the user interface of a device using human exhalation is provided for implantable micro electro mechanical system (MEMS) sensing and processing. A device 106 (FIG. 1A) can be provided, including a module 104 (FIG. 1A). The MEMS sensing and processing module 104 may be operable to detect movement caused by the exhalation of human breath by the user 102. In response to detecting motion caused by the exhalation of human breath, the MEMS sensing and processing module 104 may be operable to generate one or more control signals. The generated control signal or signals may include multimedia device 106a, mobile phone / smartphone / dataphone 106b, PC, laptop or notebook computer 106c, display device 106d, TV / game console / other platform 106e, It can be utilized to control the user interface 128 of the device 106, such as a mobile multimedia player and / or a remote controller.

[00159]本発明の例示的実施形態では、人間の呼気の排出によって引き起こされた動きの検出は、チャネルを使用せずに生じる場合がある。人間の呼気の排出によって引き起こされた動きの検出は、人間の呼気がオープンスペースへ、かつ、検出を可能にするMEMS検知および処理モジュール104内の1つまたは複数の検出器上へ吐き出されることに応答することができる。   [00159] In an exemplary embodiment of the invention, detection of motion caused by the expulsion of human exhalation may occur without using a channel. The detection of movement caused by the exhalation of human exhalation is that the human exhalation is exhaled into open space and onto one or more detectors in the MEMS sensing and processing module 104 that allows detection. Can respond.

[00160]本発明の別の実施形態によれば、MEMS検知および処理モジュール104は、生成された1つまたは複数の制御信号を介して、制御されているデバイス106のより多くのものの1つのユーザインタフェース内でナビゲートするように動作可能でありうる。MEMS検知および処理モジュール104は、生成された1つまたは複数の制御信号を介して、制御されているデバイス106のユーザインタフェース128内で1つまたは複数のコンポーネントを選択するように動作可能でありうる。生成された1つまたは複数の制御信号は、制御されているデバイスへ、外部メモリインタフェース、汎用非同期送受信器(UART)インタフェース、拡張シリアル・ペリフェラル・インタフェース(eSPI)、汎用入出力(GPIO)インタフェース、パルス符号変調(PCM)および/もしくはIC間サウンド(IS)インタフェース、集積回路間(IC)バスインタフェース、ユニバーサルシリアルバス(USB)インタフェース、ブルートゥースインタフェース、ジグビーインタフェース、IrDAインタフェース、ならびに/または、無線USB(W−USB)インタフェースのうち、1つまたは複数を介して通信されうる。 [00160] According to another embodiment of the present invention, the MEMS detection and processing module 104 can be used to generate one user of more of the devices 106 being controlled via the generated one or more control signals. It may be operable to navigate within the interface. The MEMS sensing and processing module 104 may be operable to select one or more components within the user interface 128 of the device 106 being controlled via the generated one or more control signals. . The generated control signal or signals are sent to the device being controlled by an external memory interface, a general purpose asynchronous transceiver (UART) interface, an extended serial peripheral interface (eSPI), a general purpose input / output (GPIO) interface, Pulse code modulation (PCM) and / or inter-IC sound (I 2 S) interface, inter-integrated circuit (I 2 C) bus interface, universal serial bus (USB) interface, Bluetooth interface, ZigBee interface, IrDA interface, and / or The wireless USB (W-USB) interface can communicate via one or more.

[00161]MEMS検知および処理モジュール104は、デバイス106による通信の開始、確立および/または終了のうち、1つまたは複数を可能にするように動作可能でありうる。MEMS検知および処理モジュール104は、人間の呼気の排出もしくは空気などの流体の排出、ボタン押下などの触覚入力、ボイスコマンドなどのオーディオ入力、ならびに/または、加速度計および/もしくはジャイロスコープによって検出されたものなど、制御されているデバイス106の動きのうち、1つまたは複数に基づいて、制御されているデバイス106のユーザインタフェース128内でインタラクションを可能にするように動作可能でありうる。   [00161] The MEMS detection and processing module 104 may be operable to allow one or more of the initiation, establishment and / or termination of communications by the device 106. The MEMS sensing and processing module 104 is detected by a human expiratory or fluid expelling such as air, a tactile input such as a button press, an audio input such as a voice command, and / or an accelerometer and / or a gyroscope Based on one or more of the movements of the device 106 being controlled, such as those, may be operable to allow interaction within the user interface 128 of the device 106 being controlled.

[00162]本発明の別の実施形態によれば、MEMS検知および処理モジュール104は、制御されているデバイス106のより多くのものの1つのユーザインタフェース128内で、1つまたは複数のアナログおよび/またはデジタル機能を制御するために、制御信号を生成するように動作可能でありうる。MEMS検知および処理モジュール104は、超低圧での空気の一吹きを全方向的に検出するように動作可能でありうる。MEMS検知および処理モジュール104は、スクロール、パン、ズームおよび/またはクリック機能モードなど、直観的な機能モードを可能にすること、意図的でないコンテンツの選択を防止すること、および/または、コンテンツが遮られることを最小限にすることを行うように動作可能でありうる。   [00162] In accordance with another embodiment of the present invention, the MEMS sensing and processing module 104 may include one or more analogs and / or within one user interface 128 of more of the devices 106 being controlled. It may be operable to generate control signals to control digital functions. The MEMS sensing and processing module 104 may be operable to detect omnidirectional air blows at ultra-low pressures. The MEMS detection and processing module 104 enables intuitive functional modes, such as scrolling, panning, zooming and / or clicking functional modes, prevents unintentional content selection, and / or blocks content. It may be operable to do what is minimized.

[00163]ハンドヘルドデバイス、例えば、マルチメディアデバイス106a、および/または、携帯電話/スマートフォン/データフォン106b、および/または、PC、ラップトップもしくはノートブックコンピュータ106cなど、複数のデバイスのうち1つまたは複数は、別のデバイス108から、ユーザインタフェース128を定義する1つまたは複数の入力を受信するように動作可能でありうる。他のデバイス108は、PC、ラップトップもしくはノートブックコンピュータ106c、ならびに/または、ハンドヘルドデバイス、例えば、マルチメディアデバイス106a、および/もしくは、携帯電話/スマートフォン/データフォン106bのうち、1つまたは複数であってもよい。この点について、データは、他のデバイス108から携帯電話/スマートフォン/データフォン106bへ転送されてもよく、このデータは、携帯またはPCSサービスプロバイダなど、サービスプロバイダを介して、携帯電話/スマートフォン/データフォン106bによってリモートアクセスされうる、メディアコンテンツに関連付けまたはマッピングされてもよい。メディアコンテンツに関連付けまたはマッピングされる、転送されたデータは、携帯電話/スマートフォン/データフォン106bのユーザインタフェースをカスタマイズするために利用されうる。この点について、1つまたは複数の受信された入力に関連付けられたメディアコンテンツは、制御されているデバイス106のユーザインタフェース128の一体部分になりうる。   [00163] One or more of a plurality of devices, such as a handheld device, eg, a multimedia device 106a and / or a cell phone / smartphone / dataphone 106b and / or a PC, laptop or notebook computer 106c May be operable to receive one or more inputs defining a user interface 128 from another device 108. Other devices 108 may be one or more of a PC, laptop or notebook computer 106c, and / or handheld device, eg, multimedia device 106a and / or cell phone / smartphone / dataphone 106b. There may be. In this regard, data may be transferred from other devices 108 to the cell phone / smart phone / data phone 106b, which may be transferred to the cell phone / smart phone / data via a service provider, such as a cell phone or PCS service provider. It may be associated or mapped to media content that may be remotely accessed by phone 106b. The transferred data associated or mapped to the media content can be utilized to customize the mobile phone / smartphone / dataphone 106b user interface. In this regard, media content associated with one or more received inputs can be an integral part of the user interface 128 of the device 106 being controlled.

[00164]本発明は、呼気の排出に限定されない。したがって、本発明の様々な例示的実施形態では、MEMSは、空気など、任意のタイプの流体の排出を検出するように動作可能であってもよく、流体のソースは、動物、機械および/またはデバイスであってもよい。   [00164] The present invention is not limited to exhalation. Thus, in various exemplary embodiments of the invention, the MEMS may be operable to detect the discharge of any type of fluid, such as air, and the source of fluid may be an animal, machine and / or It may be a device.

[00165]本発明の他の実施形態は、機械および/またはコンピュータによって実行可能な少なくとも1つのコード部を有し、それにより、機械および/またはコンピュータに、人間の呼気を使用してデバイスのユーザインタフェースを制御するための本明細書に記載されたようなステップを行わせる、機械コードおよび/またはコンピュータプログラムを格納した、非一時的なコンピュータ可読媒体および/もしくは記憶媒体、ならびに/または、非一時的な機械可読媒体および/もしくは記憶媒体を提供することができる。   [00165] Other embodiments of the present invention have at least one code portion executable by a machine and / or computer, thereby allowing the machine and / or computer to use a device for human device breathing. Non-transitory computer readable and / or storage media and / or non-transitory storing machine code and / or computer programs that cause the steps as described herein to control the interface Machine-readable media and / or storage media can be provided.

[00166]したがって、本発明の態様は、ハードウェア、ソフトウェア、ファームウェア、または、それらの組み合わせで実現されうる。本発明は、少なくとも1つのコンピュータシステムにおいて集中形式で、または、異なる要素がいくつかの相互接続されたコンピュータシステムにわたって拡散される分散形式で、実現されうる。本明細書に記載された方法を実行するように適合されたあらゆる種類のコンピュータシステムまたは他の装置が適している。ハードウェア、ソフトウェアおよびファームウェアの典型的な組み合わせは、ロードされ、実行されるとき、本明細書に記載された方法を実行するようにコンピュータシステムを制御する、コンピュータプログラムを有する汎用コンピュータシステムであってもよい。   [00166] Thus, aspects of the invention may be implemented in hardware, software, firmware, or a combination thereof. The invention can be implemented in a centralized form in at least one computer system or in a distributed form in which different elements are spread across several interconnected computer systems. Any type of computer system or other apparatus adapted to carry out the methods described herein is suitable. A typical combination of hardware, software and firmware is a general purpose computer system having a computer program that, when loaded and executed, controls the computer system to perform the methods described herein. Also good.

[00167]本発明の一実施形態は、ボードレベル製品として、単一チップの特定用途向け集積回路(ASIC)として、または、別々のコンポーネントとしてシステムの他の部分と共に単一チップ上に集積された様々なレベルで実装されうる。システムの集積度は、主として、速度およびコストを考慮することによって決定される。現代のプロセッサの高性能性のため、市販のプロセッサを利用することが可能であり、市販のプロセッサは、本システムのASIC実装の外部で実装されうる。別法として、プロセッサがASICコアまたは論理ブロックとして使用可能である場合、市販のプロセッサは、ファームウェアとして実装された様々な機能と共に、ASICデバイスの一部として実装されうる。   [00167] One embodiment of the present invention is integrated on a single chip as a board level product, as a single chip application specific integrated circuit (ASIC), or as a separate component with the rest of the system. Can be implemented at various levels. The degree of system integration is determined primarily by considering speed and cost. Due to the high performance of modern processors, a commercially available processor can be used, which can be implemented outside the ASIC implementation of the system. Alternatively, if the processor is usable as an ASIC core or logic block, a commercially available processor can be implemented as part of an ASIC device, with various functions implemented as firmware.

[00168]本発明はまた、コンピュータプログラム製品に組み込み可能でもあり、このコンピュータプログラム製品は、本明細書に記載された方法の実装を可能にするすべての特徴を備え、コンピュータシステムにロードされるとき、これらの方法を実行することができる。本コンテキストにおけるコンピュータプログラムは、例えば、情報処理機能を有するシステムに直接的に、または、次のもの、すなわち、a)別の言語、コードまたは表記への変換、b)異なる材料形態での再現、のいずれかもしくは両方の後に、特定の機能を行わせるように意図された一組の命令の、任意の言語、コードまたは表記による任意の表現を意味することができる。しかし、当業者の理解の範囲内のコンピュータプログラムの他の意味もまた、本発明によって企図される。   [00168] The present invention is also embeddable in a computer program product, which has all the features that enable the implementation of the methods described herein when loaded into a computer system. These methods can be performed. The computer program in this context can be, for example, directly on a system with information processing functions, or a) conversion to another language, code or notation, b) reproduction in different material forms, After either or both can mean any representation in any language, code or notation of a set of instructions intended to perform a particular function. However, other meanings of computer programs within the understanding of those skilled in the art are also contemplated by the present invention.

[00169]本発明は、ある実施形態を参照して記載されたが、本発明の範囲から逸脱することなく、様々な変更を行うことができ、均等物で代用可能であることは、当業者には理解されよう。加えて、本発明の範囲から逸脱することなく、本発明の教示に特定の状況または材料を適合させるように、多くの修正が行われうる。したがって、本発明は、開示された特定の実施形態に限定されないこと、および、本発明は、添付の特許請求の範囲の範囲内に含まれるすべての実施形態を含むことが意図される。   [00169] Although the present invention has been described with reference to certain embodiments, those skilled in the art will recognize that various modifications can be made and equivalents can be substituted without departing from the scope of the invention. Will be understood. In addition, many modifications may be made to adapt a particular situation or material to the teachings of the invention without departing from the scope of the invention. Accordingly, the invention is not limited to the specific embodiments disclosed, and the invention is intended to include all embodiments included within the scope of the appended claims.

Claims (30)

インタラクション(interaction)のための方法であって、
埋め込み型のマイクロ・エレクトロ・メカニカル・システム(MEMS)検知および処理モジュールを備えるデバイスにおいて、
前記MEMS検知および処理モジュールによって、人間の呼気(breath)の排出8expulsion)によって引き起こされた動きを検出するステップと、
前記検出に応答して、前記デバイスのユーザインタフェースを制御するために、1つまたは複数の制御信号を生成するステップとを備える方法。
A method for interaction,
In a device comprising an embedded micro electro mechanical system (MEMS) sensing and processing module,
Detecting movement caused by human breath exhalation (8 expulsion) by the MEMS sensing and processing module;
Generating one or more control signals to control a user interface of the device in response to the detection.
前記デバイスは、パーソナルコンピュータ(PC)、ラップトップ、ノートブックコンピュータ、テレビ(TV)、ゲームコンソール、表示デバイスおよび/またはハンドヘルドデバイスのうち、1つまたは複数を備える、請求項1に記載の方法。   The method of claim 1, wherein the device comprises one or more of a personal computer (PC), laptop, notebook computer, television (TV), game console, display device and / or handheld device. 前記ハンドヘルドデバイスは、移動電話、移動マルチメディアプレイヤ、ナビゲーションデバイスおよび/またはリモートコントローラのうち、1つまたは複数を備える、請求項2に記載の方法。   The method of claim 2, wherein the handheld device comprises one or more of a mobile phone, a mobile multimedia player, a navigation device and / or a remote controller. 前記人間の呼気の前記排出によって引き起こされた前記動きを検出する前記ステップは、チャネル(channel)を使用せずに生じる、請求項1に記載の方法。   The method of claim 1, wherein the step of detecting the movement caused by the exhalation of the human exhalation occurs without using a channel. 前記人間の呼気の前記排出によって引き起こされた前記動きを検出する前記ステップは、前記人間の呼気がオープンスペースへ、かつ、前記検出を可能にする前記MEMS検知および処理モジュール内の1つまたは複数の検出器上へ(onto)、吐き出されることに応答する、請求項1に記載の方法。   The step of detecting the movement caused by the exhalation of the human exhalation includes one or more of the MEMS sensing and processing modules in the MEMS sensing and processing module that allow the human exhalation to and into the open space. The method of claim 1, wherein the method is responsive to being exhaled onto the detector. 前記生成された1つまたは複数の制御信号を前記デバイスへ、外部メモリインタフェース、汎用非同期送受信器(UART)インタフェース、拡張シリアル・ペリフェラル・インタフェース(eSPI)、汎用入出力(GPIO)インタフェース、パルス符号変調(PCM)および/もしくはIC間サウンド(IS)インタフェース、集積回路間(IC)バスインタフェース、ユニバーサルシリアルバス(USB)インタフェース、ブルートゥースインタフェース、ジグビーインタフェース、IrDAインタフェース、ならびに/または、無線USB(W−USB)インタフェースのうち、1つまたは複数を介して通信するステップを備える、請求項1に記載の方法。 The generated control signal or signals to the device as an external memory interface, general purpose asynchronous transceiver (UART) interface, extended serial peripheral interface (eSPI), general purpose input / output (GPIO) interface, pulse code modulation (PCM) and / or inter-IC sound (I 2 S) interface, inter-integrated circuit (I 2 C) bus interface, universal serial bus (USB) interface, Bluetooth interface, ZigBee interface, IrDA interface, and / or wireless USB The method of claim 1, comprising communicating via one or more of (W-USB) interfaces. 前記生成された1つまたは複数の制御信号を介して、前記ユーザインタフェース内でナビゲートするステップを備える、請求項1に記載の方法。   The method of claim 1, comprising navigating within the user interface via the generated one or more control signals. 前記生成された1つまたは複数の制御信号を介して、前記ユーザインタフェース内で1つまたは複数のコンポーネントを選択するステップを備える、請求項1に記載の方法。   The method of claim 1, comprising selecting one or more components within the user interface via the generated one or more control signals. 前記デバイスによる通信の開始、確立および/または終了のうち、1つまたは複数を可能にするステップを備える、請求項1に記載の方法。   The method of claim 1, comprising enabling one or more of initiation, establishment and / or termination of communication by the device. 前記人間の呼気の前記排出、触覚入力、オーディオ入力、および/または、前記デバイスの動きのうち、1つまたは複数に基づいて、前記デバイスの前記ユーザインタフェース内でインタラクションを可能にするステップを備える、請求項1に記載の方法。   Enabling interaction within the user interface of the device based on one or more of the exhalation, tactile input, audio input, and / or movement of the device of the human breath. The method of claim 1. インタラクションのための少なくとも1つのコード部を有するコンピュータプログラムを格納した非一時的な機械可読記憶媒体であって、前記少なくとも1つのコード部は、
埋め込み型のマイクロ・エレクトロ・メカニカル・システム(MEMS)検知および処理モジュールを備えるデバイスにおいて、
前記MEMS検知および処理モジュールによって、人間の呼気の排出によって引き起こされた動きを検出するステップと、
前記検出に応答して、前記デバイスのユーザインタフェースを制御するために、1つまたは複数の制御信号を生成するステップとを備えるステップを、機械に行わせるために前記機械によって実行可能である、非一時的な機械可読記憶媒体。
A non-transitory machine-readable storage medium storing a computer program having at least one code part for interaction, wherein the at least one code part comprises:
In a device comprising an embedded micro electro mechanical system (MEMS) sensing and processing module,
Detecting, by the MEMS sensing and processing module, movement caused by exhalation of human breath;
In response to the detection, the method comprising: generating one or more control signals to control a user interface of the device; A temporary machine-readable storage medium.
前記デバイスは、パーソナルコンピュータ(PC)、ラップトップ、ノートブックコンピュータ、テレビ(TV)、ゲームコンソール、表示デバイスおよび/またはハンドヘルドデバイスのうち、1つまたは複数を備える、請求項11に記載の非一時的な機械可読記憶媒体。   The non-transitory of claim 11, wherein the device comprises one or more of a personal computer (PC), laptop, notebook computer, television (TV), game console, display device and / or handheld device. Machine-readable storage medium. 前記ハンドヘルドデバイスは、移動電話、移動マルチメディアプレイヤ、ナビゲーションデバイスおよび/またはリモートコントローラのうち、1つまたは複数を備える、請求項12に記載の非一時的な機械可読記憶媒体。   The non-transitory machine-readable storage medium of claim 12, wherein the handheld device comprises one or more of a mobile phone, a mobile multimedia player, a navigation device, and / or a remote controller. 前記人間の呼気の前記排出によって引き起こされた前記動きを検出する前記ステップは、チャネルを使用せずに生じる、請求項11に記載の非一時的な(non-transitory)機械可読記憶媒体。   The non-transitory machine-readable storage medium of claim 11, wherein the step of detecting the movement caused by the exhalation of the human exhalation occurs without using a channel. 前記人間の呼気の前記排出によって引き起こされた前記動きを検出する前記ステップは、前記人間の呼気がオープンスペースへ、かつ、前記検出を可能にする前記MEMS検知および処理モジュール内の1つまたは複数の検出器上へ、吐き出されることに応答する、請求項11に記載の非一時的な機械可読記憶媒体。   The step of detecting the movement caused by the exhalation of the human exhalation includes one or more of the MEMS sensing and processing modules in the MEMS sensing and processing module that allow the human exhalation to and into the open space. The non-transitory machine-readable storage medium of claim 11, responsive to being exhaled onto the detector. 前記少なくとも1つのコード部は、前記生成された1つまたは複数の制御信号を前記デバイスへ、外部メモリインタフェース、汎用非同期送受信器(UART)インタフェース、拡張シリアル・ペリフェラル・インタフェース(eSPI)、汎用入出力(GPIO)インタフェース、パルス符号変調(PCM)および/もしくはIC間サウンド(IS)インタフェース、集積回路間(IC)バスインタフェース、ユニバーサルシリアルバス(USB)インタフェース、ブルートゥースインタフェース、ジグビーインタフェース、IrDAインタフェース、ならびに/または、無線USB(W−USB)インタフェースのうち、1つまたは複数を介して通信するためのコードを備える、請求項11に記載の非一時的な機械可読記憶媒体。 The at least one code unit sends the generated one or more control signals to the device to an external memory interface, a general purpose asynchronous transceiver (UART) interface, an extended serial peripheral interface (eSPI), a general purpose input / output (GPIO) interface, pulse code modulation (PCM) and / or inter-IC sound (I 2 S) interface, inter-integrated circuit (I 2 C) bus interface, universal serial bus (USB) interface, Bluetooth interface, ZigBee interface, IrDA The non-transitory machine-readable storage medium of claim 11, comprising code for communicating via one or more of an interface and / or a wireless USB (W-USB) interface. 前記少なくとも1つのコード部は、前記生成された1つまたは複数の制御信号を介して、前記ユーザインタフェース内でナビゲートするためのコードを備える、請求項11に記載の非一時的な機械可読記憶媒体。   The non-transitory machine-readable storage of claim 11, wherein the at least one code portion comprises code for navigating within the user interface via the generated one or more control signals. Medium. 前記少なくとも1つのコード部は、前記生成された1つまたは複数の制御信号を介して、前記ユーザインタフェース内で1つまたは複数のコンポーネントを選択するためのコードを備える、請求項11に記載の非一時的な機械可読記憶媒体。   12. The non-code of claim 11, wherein the at least one code portion comprises code for selecting one or more components within the user interface via the generated one or more control signals. A temporary machine-readable storage medium. 前記少なくとも1つのコード部は、前記デバイスによる通信の開始、確立および/または終了のうち、1つまたは複数を可能にするためのコードを備える、請求項11に記載の非一時的な機械可読記憶媒体。   The non-transitory machine readable storage of claim 11, wherein the at least one code portion comprises code for enabling one or more of initiation, establishment and / or termination of communication by the device. Medium. 前記少なくとも1つのコード部は、前記人間の呼気の前記排出、触覚入力、オーディオ入力、および/または、前記デバイスの動きのうち、1つまたは複数に基づいて、前記デバイスの前記ユーザインタフェース内でインタラクションを可能にするためのコードを備える、請求項11に記載の非一時的な機械可読記憶媒体。   The at least one code portion interacts within the user interface of the device based on one or more of the exhalation of the human breath, haptic input, audio input, and / or movement of the device. The non-transitory machine-readable storage medium of claim 11, comprising code for enabling インタラクションのためのシステムであって、
埋め込み型のマイクロ・エレクトロ・メカニカル・システム(MEMS)検知および処理モジュールを備えるデバイスにおいて使用するための、1つまたは複数のプロセッサおよび/または回路を備え、前記1つまたは複数のプロセッサおよび/または回路は、
前記MEMS検知および処理モジュールによって、人間の呼気の排出によって引き起こされた動きを検出すること、および
前記検出に応答して、前記デバイスのユーザインタフェースを制御するために、1つまたは複数の制御信号を生成することを行うように動作可能である、システム。
A system for interaction,
One or more processors and / or circuits for use in a device comprising an embedded micro electro mechanical system (MEMS) sensing and processing module, said one or more processors and / or circuits Is
One or more control signals are detected by the MEMS sensing and processing module to detect movement caused by the exhalation of human breath and to control the user interface of the device in response to the detection. A system that is operable to do generating.
前記デバイスは、パーソナルコンピュータ(PC)、ラップトップ、ノートブックコンピュータ、テレビ(TV)、ゲームコンソール、表示デバイスおよび/またはハンドヘルドデバイスのうち、1つまたは複数を備える、請求項21に記載のシステム。   The system of claim 21, wherein the device comprises one or more of a personal computer (PC), a laptop, a notebook computer, a television (TV), a game console, a display device and / or a handheld device. 前記ハンドヘルドデバイスは、移動電話、移動マルチメディアプレイヤ、ナビゲーションデバイスおよび/またはリモートコントローラのうち、1つまたは複数を備える、請求項22に記載のシステム。   23. The system of claim 22, wherein the handheld device comprises one or more of a mobile phone, a mobile multimedia player, a navigation device and / or a remote controller. 前記人間の呼気の前記排出によって引き起こされた前記動きの前記検出は、チャネルを使用せずに生じる、請求項21に記載のシステム。   The system of claim 21, wherein the detection of the movement caused by the exhalation of the human exhalation occurs without using a channel. 前記人間の呼気の前記排出によって引き起こされた前記動きの前記検出は、前記人間の呼気がオープンスペースへ、かつ、前記検出を可能にする前記MEMS検知および処理モジュール内の1つまたは複数の検出器上へ吐き出されることに応答する、請求項21に記載のシステム。   The detection of the movement caused by the exhalation of the human exhalation is one or more detectors in the MEMS sensing and processing module that allow the human exhalation to go into the open space and the detection. The system of claim 21 responsive to being exhaled up. 前記1つまたは複数のプロセッサおよび/または回路は、前記生成された1つまたは複数の制御信号を前記デバイスへ、外部メモリインタフェース、汎用非同期送受信器(UART)インタフェース、拡張シリアル・ペリフェラル・インタフェース(eSPI)、汎用入出力(GPIO)インタフェース、パルス符号変調(PCM)および/もしくはIC間サウンド(IS)インタフェース、集積回路間(IC)バスインタフェース、ユニバーサルシリアルバス(USB)インタフェース、ブルートゥースインタフェース、ジグビーインタフェース、IrDAインタフェース、ならびに/または、無線USB(W−USB)インタフェースのうち、1つまたは複数を介して通信するように動作可能である、請求項21に記載のシステム。 The one or more processors and / or circuits send the generated one or more control signals to the device to an external memory interface, a universal asynchronous transceiver (UART) interface, an extended serial peripheral interface (eSPI). ), General purpose input / output (GPIO) interface, pulse code modulation (PCM) and / or inter-IC sound (I 2 S) interface, inter-integrated circuit (I 2 C) bus interface, universal serial bus (USB) interface, Bluetooth interface 24. The system of claim 21, wherein the system is operable to communicate via one or more of: a ZigBee interface, an IrDA interface, and / or a wireless USB (W-USB) interface. . 前記1つまたは複数のプロセッサおよび/または回路は、前記生成された1つまたは複数の制御信号を介して、前記ユーザインタフェース内でナビゲートするように動作可能である、請求項21に記載のシステム。   The system of claim 21, wherein the one or more processors and / or circuits are operable to navigate within the user interface via the generated one or more control signals. . 前記1つまたは複数のプロセッサおよび/または回路は、前記生成された1つまたは複数の制御信号を介して、前記ユーザインタフェース内で1つまたは複数のコンポーネントを選択するように動作可能である、請求項21に記載のシステム。   The one or more processors and / or circuits are operable to select one or more components within the user interface via the generated one or more control signals. Item 22. The system according to Item 21. 前記1つまたは複数のプロセッサおよび/または回路は、前記デバイスによる通信の開始、確立および/または終了のうち、1つまたは複数を可能にするように動作可能である、請求項21に記載のシステム。   The system of claim 21, wherein the one or more processors and / or circuits are operable to allow one or more of initiation, establishment and / or termination of communication by the device. . 前記1つまたは複数のプロセッサおよび/または回路は、前記人間の呼気の前記排出、触覚入力、オーディオ入力、および/または、前記デバイスの動きのうち、1つまたは複数に基づいて、前記デバイスの前記ユーザインタフェース内でインタラクションを可能にするように動作可能である、請求項21に記載のシステム。   The one or more processors and / or circuits may be configured such that the device's one or more of the exhalation of the human breath, tactile input, audio input, and / or movement of the device, The system of claim 21, wherein the system is operable to allow interaction within a user interface.
JP2012528957A 2009-09-11 2010-09-13 Method and system for controlling the user interface of a device using human exhalation Pending JP2013542470A (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US24137609P 2009-09-11 2009-09-11
US61/241,376 2009-09-11
US24220109P 2009-09-14 2009-09-14
US61/242,201 2009-09-14
US12/813,292 US20110010112A1 (en) 1999-02-12 2010-06-10 Method and System for Controlling a User Interface of a Device Using Human Breath
US12/813,292 2010-06-10
PCT/US2010/048646 WO2011032096A2 (en) 2009-09-11 2010-09-13 Method and system for controlling a user interface of a device using human breath

Publications (1)

Publication Number Publication Date
JP2013542470A true JP2013542470A (en) 2013-11-21

Family

ID=43733125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012528957A Pending JP2013542470A (en) 2009-09-11 2010-09-13 Method and system for controlling the user interface of a device using human exhalation

Country Status (5)

Country Link
EP (1) EP2475969A4 (en)
JP (1) JP2013542470A (en)
KR (1) KR20130022401A (en)
CN (1) CN102782459A (en)
WO (1) WO2011032096A2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242610A (en) * 2012-05-17 2013-12-05 Denso Corp Display device for vehicle
JP2015219560A (en) * 2014-05-14 2015-12-07 凸版印刷株式会社 Terminal device, display control method and program
CN112153269A (en) * 2019-06-27 2020-12-29 京东方科技集团股份有限公司 Picture display method, device and medium applied to electronic equipment and electronic equipment
WO2021153214A1 (en) * 2020-01-31 2021-08-05 ソニーグループ株式会社 Information processing device and information processing method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164997B2 (en) * 2012-01-19 2015-10-20 Microsoft Technology Licensing, Llc Recognizing cloud content
JP2014063344A (en) * 2012-09-21 2014-04-10 Sharp Corp Portable terminal device, display program, and recording medium
CN104000719B (en) * 2013-02-22 2016-08-17 陈青越 A kind of network airflow sensor remotely controls massaging tool system
CN104536556B (en) * 2014-09-15 2021-01-15 联想(北京)有限公司 Information processing method and electronic equipment
CN107481491B (en) * 2016-07-20 2019-09-20 宝沃汽车(中国)有限公司 The control system and mobile terminal of electric appliance
KR20180023617A (en) 2016-08-26 2018-03-07 삼성전자주식회사 Portable device for controlling external device and audio signal processing method thereof
CN106354504B (en) * 2016-08-29 2020-08-11 北京小米移动软件有限公司 Message display method and device
KR102266426B1 (en) * 2020-01-10 2021-06-16 이종민 Smartphone control method using breath
CN111627371A (en) * 2020-05-27 2020-09-04 北京无线电测量研究所 Electronic product with double display screens
CN111625146B (en) * 2020-05-27 2023-08-04 北京无线电测量研究所 Electronic product with double touch screens
CN111588955A (en) * 2020-05-27 2020-08-28 北京无线电测量研究所 Breathing machine shows accuse terminal
WO2023036810A1 (en) * 2021-09-07 2023-03-16 PI-A Creative Systems Ltd Method for detecting user input to a breath input configured user interface

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177992A (en) * 2002-11-22 2004-06-24 Panasonic Mobile Communications Co Ltd Mobile terminal with wind pressure sensor, and program executable by mobile terminal with wind pressure sensor
US20080177404A1 (en) * 1999-02-12 2008-07-24 Pierre Bonnat Method and System for Controlling a User Interface of a Device Using Human Breath

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6213955B1 (en) * 1998-10-08 2001-04-10 Sleep Solutions, Inc. Apparatus and method for breath monitoring
US6449496B1 (en) * 1999-02-08 2002-09-10 Qualcomm Incorporated Voice recognition user interface for telephone handsets
WO2000048066A1 (en) * 1999-02-12 2000-08-17 Pierre Bonnat Method and device for monitoring an electronic or computer system by means of a fluid flow
US9116544B2 (en) * 2008-03-26 2015-08-25 Pierre Bonnat Method and system for interfacing with an electronic device via respiratory and/or tactual input
US20110178613A9 (en) * 2000-02-14 2011-07-21 Pierre Bonnat Method And System For Processing Signals For A MEMS Detector That Enables Control Of A Device Using Human Breath
US7580540B2 (en) * 2004-12-29 2009-08-25 Motorola, Inc. Apparatus and method for receiving inputs from a user
US7587277B1 (en) * 2005-11-21 2009-09-08 Miltec Corporation Inertial/magnetic measurement device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080177404A1 (en) * 1999-02-12 2008-07-24 Pierre Bonnat Method and System for Controlling a User Interface of a Device Using Human Breath
JP2004177992A (en) * 2002-11-22 2004-06-24 Panasonic Mobile Communications Co Ltd Mobile terminal with wind pressure sensor, and program executable by mobile terminal with wind pressure sensor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242610A (en) * 2012-05-17 2013-12-05 Denso Corp Display device for vehicle
JP2015219560A (en) * 2014-05-14 2015-12-07 凸版印刷株式会社 Terminal device, display control method and program
CN112153269A (en) * 2019-06-27 2020-12-29 京东方科技集团股份有限公司 Picture display method, device and medium applied to electronic equipment and electronic equipment
CN112153269B (en) * 2019-06-27 2022-04-29 京东方科技集团股份有限公司 Picture display method, device and medium applied to electronic equipment and electronic equipment
WO2021153214A1 (en) * 2020-01-31 2021-08-05 ソニーグループ株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
EP2475969A2 (en) 2012-07-18
KR20130022401A (en) 2013-03-06
CN102782459A (en) 2012-11-14
WO2011032096A2 (en) 2011-03-17
WO2011032096A3 (en) 2014-03-20
EP2475969A4 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
US9753533B2 (en) Method and system for controlling a user interface of a device using human breath
JP2013542470A (en) Method and system for controlling the user interface of a device using human exhalation
US11692840B2 (en) Device, method, and graphical user interface for synchronizing two or more displays
US10762716B1 (en) Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
JP5324643B2 (en) Method and system for interfacing with electronic devices via respiratory input and / or tactile input
US7739061B2 (en) Method and system for controlling a user interface of a device using human breath
JP6528009B2 (en) Device, method and graphical user interface for providing tactile feedback
US8701015B2 (en) Method and system for providing a user interface that enables control of a device via respiratory and/or tactual input
US9250443B2 (en) Head mounted display apparatus and contents display method
US9965035B2 (en) Device, method, and graphical user interface for synchronizing two or more displays
JP5900393B2 (en) Information processing apparatus, operation control method, and program
US20130254714A1 (en) Method and apparatus for providing floating user interface
KR20210029307A (en) Devices, methods, and graphical user interfaces for providing feedback during interaction with an intensity-sensitive button
WO2013058546A1 (en) Display apparatus and contents display method
EP4320506A2 (en) Systems, methods, and user interfaces for interacting with multiple application views
EP2538308A2 (en) Motion-based control of a controllled device
AU2023237162A1 (en) User interfaces with variable appearances
US20230391194A1 (en) Customized user interfaces
WO2023235567A2 (en) Customized user interfaces
CN117280310A (en) Apparatus, method and graphical user interface for adjusting the provision of notifications
WO2013058545A1 (en) Electronic book apparatus and user interface providing method of the same

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130909

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140901