JP2015531139A - 手姿勢制御を伴う入力デバイス - Google Patents
手姿勢制御を伴う入力デバイス Download PDFInfo
- Publication number
- JP2015531139A JP2015531139A JP2015528992A JP2015528992A JP2015531139A JP 2015531139 A JP2015531139 A JP 2015531139A JP 2015528992 A JP2015528992 A JP 2015528992A JP 2015528992 A JP2015528992 A JP 2015528992A JP 2015531139 A JP2015531139 A JP 2015531139A
- Authority
- JP
- Japan
- Prior art keywords
- input object
- user input
- touch
- dimensional space
- gesture detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本願は、2012年8月27日出願の米国仮特許出願第61/693,617号からの優先権を主張し、その米国仮特許出願は、本明細書で十分に述べられるように、参照によってその全体が本明細書によって援用される。
本開示ならびにそれの種々の特徴および利点は、添付図面で図示され、下記の説明で詳述される、例示的であり、したがって、非限定的な実施形態を参照して、より十分に説明される。しかしながら、発明を実施するための形態および具体的例は、好ましい実施形態を示すが、限定ではなく例証としてのみ挙げられることが、理解されるべきである。既知のプログラミング技法、コンピュータソフトウェア、ハードウェア、オペレーティングプラットフォーム、および、プロトコルの説明は、本開示の詳細を不必要に曖昧にしないよう省略され得る。基礎的な発明概念の精神および/または範囲内の種々の置換、改変、追加、および/または、再構成が、本開示から当業者に明白である。
下記でさらに詳細に議論されるように、種々の実施形態は、手姿勢を検知し、電子デバイスを制御するために手姿勢を使用する。したがって、そのような手姿勢を検知するために使用され得るシステムを最初に説明することが有用であり得る。そのような検知のためのシステムおよび方法についての追加の詳細は、本明細書で完全に記載されるように、それの全体において参照によって本明細書に援用される2011年12月9日出願の「Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch−sensitive surface and contact−free detection means」と題される、同一出願人による同時係属中の米国特許出願第13/315,739号で説明されている。
上記のように、実施形態は、電子デバイス100の手姿勢制御のために、特定すると、電子デバイスを制御するように、ジェスチャまたは手の姿勢あるいは配向等の位置と関連付けられる特徴的なパラメータを使用して、上記で説明されるようなセンサシステムを利用し得る。ここで図8を参照すると、そのような方法を適用するための例示的な環境を図示する略図が、示されている。タッチ感応性モジュール200、ならびに、手501および関連する指500が、示されている。指500は、タッチ感応性モジュール200の接触領域またはタッチ位置210に触れる。接触領域210は、3次元座標における点を画定する。特定すると、接触領域210は、座標(x1,y1,0)を有する点Aを画定する。手501は、座標(x2,y2,z2)を有するBにおいて重心を有する。重心は、センサについての「集中」点であり、カメラベースのセンサについては、これは、典型的に、幾何学的中心であり、容量および音響センサについては、この中心点は、典型的に、上記で議論されるような距離測定および三辺測量の結果である。重心Bは、タッチ感応性モジュール200に対する仰角αと、方位角βと呼ばれるタッチ感応性表面上の角度とを画定する。
それぞれの文の中で意味を成さない文字が抑制されることができる。
2番目の文字としては大文字がない。
終止符の後の最初の文字としては常に大文字である。
Claims (32)
- ジェスチャ検知方法であって、前記ジェスチャ検知方法は、
入力オブジェクトのタッチ位置を検知することと、
前記タッチ位置、および、入力オブジェクトの位置の特徴的なパラメータに応じて、入力モードを選択することと、
前記特徴的なパラメータの計算後、または、それぞれのタッチの解放に従ってのいずれかで、入力文字を入力することと
を含む、ジェスチャ検知方法。 - 入力モードは、3次元センサシステムのパラメータ変化の検知時に切り替えられる、請求項1に記載のジェスチャ検知方法。
- 前記パラメータは、タッチを行う入力オブジェクトの仰角レベルによって判定される、請求項1に記載のジェスチャ検知方法。
- 前記入力オブジェクトは、手であり、前記パラメータは、モバイルデバイスを保持する前記手から指を持ち上げることによって判定される、請求項1に記載のジェスチャ検知方法。
- 前記入力オブジェクトは、手であり、前記パラメータは、前記タッチを行う前記手の方位角によって判定される、請求項1に記載のジェスチャ検知方法。
- 第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する、請求項3に記載のジェスチャ検知方法。
- 第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する、請求項5に記載のジェスチャ検知方法。
- ジェスチャ検知システムであって、前記ジェスチャ検知システムは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、ジェスチャ検知システム。 - 前記入力デバイスまたは前記接続されたシステムは、グラフィカルユーザインターフェースを含む、請求項8に記載のジェスチャ検知システム。
- 前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、請求項9に記載のジェスチャ検知システム。
- 前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、請求項9に記載のジェスチャ検知システム。
- 前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置を判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、請求項9に記載のジェスチャ検知システム。
- 前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、請求項9に記載のジェスチャ検知システム。
- タイプされたテキストと、前記ユーザ入力オブジェクトの3次元空間における前記位置との検知に応答してアクセス可能な辞書をさらに備える、請求項9に記載のジェスチャ検知システム。
- 前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、請求項14に記載のジェスチャ検知システム。
- 電子デバイスであって、前記電子デバイスは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
前記入力デバイスを使用して選択を表示するための表示デバイスと、
前記タッチ感応性表面に対するユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、電子デバイス。 - 前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、請求項16に記載の電子デバイス。
- 前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することとを含む、請求項16に記載の電子デバイス。
- 前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、請求項16に記載の電子デバイス。
- 前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、請求項16に記載の電子デバイス。
- タイプされたテキストと前記パラメータとの検知に応答してアクセス可能な辞書をさらに備える、請求項16に記載の電子デバイス。
- 前記コントローラは、前記パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、請求項21に記載の電子デバイス。
- 方法であって、前記方法は、
タッチ位置を検知することと、
3次元空間におけるユーザ入力オブジェクトの位置関連パラメータを検知することと、
前記タッチ位置および前記位置関連パラメータに基づいて、電子デバイスの動作モードを選択することと
を含む、方法。 - 前記動作モードは、前記位置関連パラメータに基づいて、グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することを含む、請求項23に記載の方法。
- 前記位置関連パラメータは、前記ユーザ入力オブジェクトの方位角を含む、請求項23に記載の方法。
- 前記位置関連パラメータは、前記ユーザ入力オブジェクトの仰角を含む、請求項23に記載の方法。
- 3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、請求項26に記載の方法。
- 3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、請求項25に記載の方法。
- 前記動作モードを選択することは、前記位置関連パラメータに基づいて前記グラフィカルユーザインターフェース上の1つ以上の制御を選択することを含む、請求項23に記載の方法。
- タイプされたテキストと前記位置関連パラメータとの検知に応答して、辞書にアクセスすることをさらに含む、請求項23に記載の方法。
- 前記位置関連パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供することをさらに含む、請求項30に記載の方法。
- 第1の位置情報および第2の位置情報は、イベント駆動型多重化を使用して判定される、請求項30に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261693617P | 2012-08-27 | 2012-08-27 | |
US61/693,617 | 2012-08-27 | ||
US13/975,579 US9552068B2 (en) | 2012-08-27 | 2013-08-26 | Input device with hand posture control |
US13/975,579 | 2013-08-26 | ||
PCT/EP2013/067746 WO2014033138A1 (en) | 2012-08-27 | 2013-08-27 | Input device with hand posture control |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017236749A Division JP6522726B2 (ja) | 2012-08-27 | 2017-12-11 | 手姿勢制御を伴う入力デバイス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015531139A true JP2015531139A (ja) | 2015-10-29 |
JP2015531139A5 JP2015531139A5 (ja) | 2016-10-13 |
Family
ID=50147554
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015528992A Withdrawn JP2015531139A (ja) | 2012-08-27 | 2013-08-27 | 手姿勢制御を伴う入力デバイス |
JP2017236749A Active JP6522726B2 (ja) | 2012-08-27 | 2017-12-11 | 手姿勢制御を伴う入力デバイス |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017236749A Active JP6522726B2 (ja) | 2012-08-27 | 2017-12-11 | 手姿勢制御を伴う入力デバイス |
Country Status (7)
Country | Link |
---|---|
US (1) | US9552068B2 (ja) |
EP (1) | EP2888653A1 (ja) |
JP (2) | JP2015531139A (ja) |
KR (1) | KR102137687B1 (ja) |
CN (1) | CN104662508A (ja) |
TW (1) | TWI614645B (ja) |
WO (1) | WO2014033138A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
DE102012219736A1 (de) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10281987B1 (en) * | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
TWI507920B (zh) * | 2014-08-20 | 2015-11-11 | Quanta Comp Inc | 電子裝置及避免多個輸入裝置互相干擾的方法 |
US10039975B2 (en) | 2015-01-13 | 2018-08-07 | Disney Enterprises, Inc. | Techniques for representing imaginary participants in an immersive play environment |
US10265621B2 (en) | 2015-01-20 | 2019-04-23 | Disney Enterprises, Inc. | Tracking specific gestures relative to user movement |
US9855497B2 (en) | 2015-01-20 | 2018-01-02 | Disney Enterprises, Inc. | Techniques for providing non-verbal speech recognition in an immersive playtime environment |
WO2016121708A1 (ja) * | 2015-01-26 | 2016-08-04 | Necソリューションイノベータ株式会社 | 入力システム、入力装置、入力方法、および、記録媒体 |
US10108292B2 (en) * | 2015-04-22 | 2018-10-23 | Microchip Technology Incorporated | Capacitive sensor system with multiple transmit electrodes |
USD788048S1 (en) * | 2015-06-16 | 2017-05-30 | Fibar Group S.A. | Touch-less swipe controller |
CN106027104A (zh) * | 2016-07-08 | 2016-10-12 | 杭州联络互动信息科技股份有限公司 | 一种使用手腕佩戴的智能设备执行通讯操作的方法及装置 |
CN106598470A (zh) * | 2016-12-27 | 2017-04-26 | 努比亚技术有限公司 | 一种触控操作方法及装置 |
WO2018119728A1 (zh) * | 2016-12-28 | 2018-07-05 | 英华达(上海)科技有限公司 | 电子设备的输入方法及系统 |
KR102635976B1 (ko) * | 2016-12-30 | 2024-02-13 | 에스엘 주식회사 | 제스처 인식 장치 |
CN106873870A (zh) * | 2017-01-06 | 2017-06-20 | 珠海格力电器股份有限公司 | 一种终端交互方法及其装置、终端及电子设备 |
US10788935B2 (en) * | 2017-03-13 | 2020-09-29 | Microsoft Technology Licensing, Llc | Multiplexing capacitance sensing and display functionality |
CN111033452B (zh) * | 2017-09-04 | 2024-04-09 | 株式会社和冠 | 空间位置指示系统 |
CN113849093A (zh) * | 2021-09-28 | 2021-12-28 | 联想(北京)有限公司 | 一种控制方法、装置及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010033158A (ja) * | 2008-07-25 | 2010-02-12 | Sony Corp | 情報処理装置及び情報処理方法 |
JP2011008424A (ja) * | 2009-06-24 | 2011-01-13 | Sharp Corp | 電子機器、動作モード設定方法、およびプログラム |
US20120068941A1 (en) * | 2010-09-22 | 2012-03-22 | Nokia Corporation | Apparatus And Method For Proximity Based Input |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US6597345B2 (en) | 2000-03-03 | 2003-07-22 | Jetway Technologies Ltd. | Multifunctional keypad on touch screen |
US9274551B2 (en) * | 2005-02-23 | 2016-03-01 | Zienon, Llc | Method and apparatus for data entry input |
US20090021491A1 (en) * | 2006-02-23 | 2009-01-22 | Pioneer Corporation | Operation input device |
DE102007020873A1 (de) | 2007-04-26 | 2008-10-30 | Ident Technology Ag | Sensoreinrichtung, sowie Verfahren zur Generierung von hinsichtlich der Position oder Positionsänderung von Gliedmaßen indikativen Signalen |
KR100838818B1 (ko) * | 2007-08-13 | 2008-06-17 | 홍성찬 | 문자입력장치 |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
US20100271331A1 (en) * | 2009-04-22 | 2010-10-28 | Rachid Alameh | Touch-Screen and Method for an Electronic Device |
US9323398B2 (en) * | 2009-07-10 | 2016-04-26 | Apple Inc. | Touch and hover sensing |
US9632622B2 (en) * | 2009-07-16 | 2017-04-25 | Apple Inc. | Ground detection for touch sensitive device |
DE102010007455A1 (de) | 2010-02-10 | 2011-08-11 | Ident Technology AG, 82234 | System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum |
CN102859477B (zh) | 2010-04-16 | 2016-11-16 | 微晶片科技德国公司 | Tft显示器、oled接口及用于在安置于显示器上游的空间区域中检测边沿的空间位置的方法 |
US9323379B2 (en) | 2011-12-09 | 2016-04-26 | Microchip Technology Germany Gmbh | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means |
US8436828B1 (en) * | 2012-01-27 | 2013-05-07 | Google Inc. | Smart touchscreen key activation detection |
US9298295B2 (en) * | 2012-07-25 | 2016-03-29 | Facebook, Inc. | Gestures for auto-correct |
-
2013
- 2013-08-26 US US13/975,579 patent/US9552068B2/en active Active
- 2013-08-27 KR KR1020157007366A patent/KR102137687B1/ko active IP Right Grant
- 2013-08-27 CN CN201380050335.8A patent/CN104662508A/zh active Pending
- 2013-08-27 EP EP13753626.4A patent/EP2888653A1/en active Pending
- 2013-08-27 WO PCT/EP2013/067746 patent/WO2014033138A1/en active Application Filing
- 2013-08-27 TW TW102130737A patent/TWI614645B/zh active
- 2013-08-27 JP JP2015528992A patent/JP2015531139A/ja not_active Withdrawn
-
2017
- 2017-12-11 JP JP2017236749A patent/JP6522726B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010033158A (ja) * | 2008-07-25 | 2010-02-12 | Sony Corp | 情報処理装置及び情報処理方法 |
JP2011008424A (ja) * | 2009-06-24 | 2011-01-13 | Sharp Corp | 電子機器、動作モード設定方法、およびプログラム |
US20120068941A1 (en) * | 2010-09-22 | 2012-03-22 | Nokia Corporation | Apparatus And Method For Proximity Based Input |
Also Published As
Publication number | Publication date |
---|---|
EP2888653A1 (en) | 2015-07-01 |
TW201413538A (zh) | 2014-04-01 |
KR102137687B1 (ko) | 2020-07-27 |
CN104662508A (zh) | 2015-05-27 |
WO2014033138A1 (en) | 2014-03-06 |
US9552068B2 (en) | 2017-01-24 |
JP2018055718A (ja) | 2018-04-05 |
US20140055396A1 (en) | 2014-02-27 |
TWI614645B (zh) | 2018-02-11 |
JP6522726B2 (ja) | 2019-05-29 |
KR20150047577A (ko) | 2015-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6522726B2 (ja) | 手姿勢制御を伴う入力デバイス | |
KR102007651B1 (ko) | 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체 | |
JP6109847B2 (ja) | 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス | |
KR102120930B1 (ko) | 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스 | |
AU2014307237B2 (en) | Method and apparatus for recognizing grip state in electronic device | |
EP2332023B1 (en) | Two-thumb qwerty keyboard | |
KR102139526B1 (ko) | 전자 장치의 화면상에 표시되는 복수의 객체들을 실행하는 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 | |
US9201521B2 (en) | Storing trace information | |
US9665177B2 (en) | User interfaces and associated methods | |
US20140331146A1 (en) | User interface apparatus and associated methods | |
KR20090046881A (ko) | 3차원 터치 패드 입력 장치 | |
KR101611866B1 (ko) | 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법 | |
CN109933252B (zh) | 一种图标移动方法及终端设备 | |
US8810529B2 (en) | Electronic device and method of controlling same | |
KR20140105331A (ko) | 터치 스크린 상에서 객체 디스플레이를 제어하는 휴대 단말 및 방법 | |
US20120206381A1 (en) | Electronic device and method of controlling same | |
EP2487570B1 (en) | Electronic device and method of controlling same | |
KR101366433B1 (ko) | 전자 디바이스 및 이의 제어 방법 | |
US20150242004A1 (en) | Touch-sensitive input device having a logo displayed thereon for use in a mobile electronic device | |
KR20140027839A (ko) | 전자장치에서 화면표시 제어 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160825 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170801 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171211 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20171218 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20171220 |