JP6338829B2 - 多重入力処理方法及び装置 - Google Patents
多重入力処理方法及び装置 Download PDFInfo
- Publication number
- JP6338829B2 JP6338829B2 JP2013133458A JP2013133458A JP6338829B2 JP 6338829 B2 JP6338829 B2 JP 6338829B2 JP 2013133458 A JP2013133458 A JP 2013133458A JP 2013133458 A JP2013133458 A JP 2013133458A JP 6338829 B2 JP6338829 B2 JP 6338829B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- input
- user input
- attribute
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 18
- 230000033001 locomotion Effects 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 28
- 238000012937 correction Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 22
- 230000003993 interaction Effects 0.000 claims description 8
- 238000010422 painting Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 52
- 230000001133 acceleration Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
110 タッチスクリーン
111 タッチパネル
111a 手タッチパネル
111b ペンタッチパネル
112 表示パネル
120 キー入力部
130 格納部
140 無線通信部
150 オーディオ処理部
160 センサー部
170 制御部
180 カメラ
MIC マイク
SPK スピーカー
Claims (10)
- 外部との相互作用のためのインターフェースを有する装置での多重入力処理方法において、
前記インターフェースのうち1つから第1ユーザ入力を検出する段階と、
前記第1ユーザ入力に応答して対象物を描画する機能を実行する段階と、
前記インターフェースのうち他の1つから前記対象物の属性に対する変更を指示する第2ユーザ入力を検出する段階と、
前記第2ユーザ入力に応答して、描画されている前記対象物の属性を変更する段階と、
を含み、
前記対象物の属性を変更する段階は、
前記第2ユーザ入力として音声情報を分析し、ユーザによる前記対象物の属性に対する変更内容を認識する段階と、
前記変更内容の認識時点から前記第2ユーザ入力が検出された時点まで遡って、既に描画された前記対象物の属性を変更する段階と、
次の第2ユーザ入力が検出されるまで、前記変更内容の認識時点以後に描画される前記対象物に対して、前記属性の変更を反映する段階と、
を含むことを特徴とする多重入力処理方法。 - 前記第1ユーザ入力を検出する段階は、前記インターフェースのうち1つであるタッチスクリーンからユーザジェスチャーを検出するものであり、
前記機能を実行する段階は、前記ユーザジェスチャーに応答してグラフィック作業と関連した機能を実行するものであり、
前記第2ユーザ入力を検出する段階は、前記インターフェースのうち1つであるマイクから音声情報を検出し、ユーザによる前記対象物の属性に対する変更内容を認識することを特徴とする請求項1に記載の多重入力処理方法。 - 前記グラフィック作業は、文字書き込み、ドローイング、ペインティング及び消去のうちいずれか1つであることを特徴とする請求項2に記載の多重入力処理方法。
- 前記第1ユーザ入力は、タッチスクリーンに対するユーザのジェスチャー、マイクを通じて入力された音声情報及びセンサー部で感知したモーション(motion)情報のうちいずれか1つであり、
前記第2ユーザ入力は、タッチスクリーンに対するユーザのジェスチャー、マイクを通じて入力された音声情報及びセンサー部で感知したモーション(motion)情報のうち他の1つであることを特徴とする請求項1に記載の多重入力処理方法。 - 外部との相互作用のためのインターフェースと、
前記インターフェースを制御する制御部と、を含み、
前記制御部は、前記インターフェースのうち1つから第1ユーザ入力を検出し、前記第1ユーザ入力に応答して対象物を描画する機能を実行し、前記インターフェースのうち他の1つから前記対象物の属性に対する変更を指示する第2ユーザ入力を検出し、前記第2ユーザ入力に応答して、描画されている前記対象物の属性を変更し、
前記制御部は、
前記第2ユーザ入力として音声情報を分析し、ユーザによる前記対象物の属性に対する変更内容を認識し、前記変更内容の認識時点から前記第2ユーザ入力が検出された時点まで遡って、既に描画された前記対象物の属性を変更し、次の第2ユーザ入力が検出されるまで、前記変更内容の認識時点以後に描画される前記対象物に対して、前記属性の変更を反映することを特徴とする多重入力処理装置。 - 前記インターフェースは、少なくともタッチスクリーンとマイクを含み、
前記制御部は、前記第1ユーザ入力として、前記タッチスクリーンから検出されたユーザジェスチャーに応答してグラフィック作業によって前記対象物を描画する機能を実行し、前記機能を実行するとき、前記第2ユーザ入力として、前記マイクから音声情報を検出してユーザによる前記対象物の属性に対する変更内容を認識し、前記変更内容に基づいて前記グラフィック作業によって描画された前記対象物の属性を変更することを特徴とする請求項5に記載の多重入力処理装置。 - 前記タッチスクリーンは、手ジェスチャーを感知する手タッチパネルと、ペンジェスチャーを感知するペンタッチパネルと、表示パネルを含むことを特徴とする請求項6に記載の多重入力処理装置。
- 前記グラフィック作業は、前記ペンジェスチャーまたは前記手ジェスチャーによる文字書き込み、ドローイング、ペインティング及び消去のうちいずれか1つであることを特徴とする請求項7に記載の多重入力処理装置。
- 音声認識サーバーと連結可能な無線通信部をさらに含み、
前記制御部は、前記音声情報を含む音声認識要請メッセージを前記音声認識サーバーに伝送するように前記無線通信部を制御し、前記無線通信部を通じて前記音声認識サーバーから音声情報の処理結果を含む応答メッセージを受信し、既に行われたグラフィック作業による前記対象物に対して補正が必要であるか否かを決定し、前記補正が必要な場合、前記グラフィック作業による前記対象物に対する補正必要部分を算出し、前記補正必要部分に前記処理結果を反映することを特徴とする請求項8に記載の多重入力処理装置。 - 外部との相互作用のためのインターフェースを有する装置で具現される記録媒体において、
前記インターフェースのうち1つから第1ユーザ入力を検出する段階と、
前記第1ユーザ入力に応答して対象物を描画する機能を実行する段階と、
前記インターフェースのうち他の1つから前記対象物の属性に対する変更を指示する第2ユーザ入力を検出する段階と、
前記第2ユーザ入力に応答して、描画されている前記対象物の属性を変更する段階と、
を含み、
前記対象物の属性を変更する段階は、
前記第2ユーザ入力として音声情報を分析し、ユーザによる前記対象物の属性に対する変更内容を認識する段階と、
前記変更内容の認識時点から前記第2ユーザ入力が検出された時点まで遡って、既に描画された前記対象物の属性を変更する段階と、
次の第2ユーザ入力が検出されるまで、前記変更内容の認識時点以後に描画される前記対象物に対して、前記属性の変更を反映する段階と、
を含むように構成された記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120071229A KR102003255B1 (ko) | 2012-06-29 | 2012-06-29 | 다중 입력 처리 방법 및 장치 |
KR10-2012-0071229 | 2012-06-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014010836A JP2014010836A (ja) | 2014-01-20 |
JP6338829B2 true JP6338829B2 (ja) | 2018-06-06 |
Family
ID=48832743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013133458A Active JP6338829B2 (ja) | 2012-06-29 | 2013-06-26 | 多重入力処理方法及び装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9286895B2 (ja) |
EP (2) | EP3693837A1 (ja) |
JP (1) | JP6338829B2 (ja) |
KR (1) | KR102003255B1 (ja) |
CN (1) | CN103529934B (ja) |
AU (1) | AU2013204564B2 (ja) |
WO (1) | WO2014003365A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9123340B2 (en) * | 2013-03-01 | 2015-09-01 | Google Inc. | Detecting the end of a user question |
US9612664B2 (en) * | 2014-12-01 | 2017-04-04 | Logitech Europe S.A. | Keyboard with touch sensitive element |
US10444977B2 (en) * | 2014-12-05 | 2019-10-15 | Verizon Patent And Licensing Inc. | Cellphone manager |
CN104778003B (zh) * | 2015-03-23 | 2019-06-14 | 惠州Tcl移动通信有限公司 | 一种输入轨迹识别方法及其可穿戴设备 |
CN104811800A (zh) * | 2015-04-24 | 2015-07-29 | 无锡天脉聚源传媒科技有限公司 | 视频分辨率修改方法及装置 |
KR102369126B1 (ko) | 2015-07-10 | 2022-03-02 | 삼성전자주식회사 | 메모 기능을 제공하는 전자 장치 및 그 방법 |
US10387034B2 (en) | 2015-09-03 | 2019-08-20 | Microsoft Technology Licensing, Llc | Modifying captured stroke information into an actionable form |
US10210383B2 (en) | 2015-09-03 | 2019-02-19 | Microsoft Technology Licensing, Llc | Interacting with an assistant component based on captured stroke information |
KR20170046958A (ko) * | 2015-10-22 | 2017-05-04 | 삼성전자주식회사 | 전자 장치 및 그의 음성 인식을 이용한 기능 실행 방법 |
US10838502B2 (en) * | 2016-03-29 | 2020-11-17 | Microsoft Technology Licensing, Llc | Sharing across environments |
CN105872402A (zh) * | 2016-06-15 | 2016-08-17 | 深圳Tcl新技术有限公司 | 智能电视的拍照方法及系统 |
US10079015B1 (en) * | 2016-12-06 | 2018-09-18 | Amazon Technologies, Inc. | Multi-layer keyword detection |
CN107295192B (zh) * | 2017-07-13 | 2020-03-24 | Oppo广东移动通信有限公司 | 解锁控制方法及相关产品 |
CN109976557A (zh) * | 2017-12-27 | 2019-07-05 | 田雪松 | 一种电磁笔 |
EP3721428A4 (en) * | 2018-03-08 | 2021-01-27 | Samsung Electronics Co., Ltd. | INTERACTIVE RESPONSE PROCESS BASED ON INTENTIONS, AND ASSOCIATED ELECTRONIC DEVICE |
JP7240134B2 (ja) * | 2018-10-29 | 2023-03-15 | 京セラ株式会社 | 情報表示装置、電子ペン、表示制御方法、及び表示制御プログラム |
JP7228365B2 (ja) * | 2018-10-29 | 2023-02-24 | 京セラ株式会社 | 情報表示装置、電子ペン、表示制御方法、及び表示制御プログラム |
US20210382684A1 (en) * | 2018-10-29 | 2021-12-09 | Kyocera Corporation | Information display apparatus, electronic device, electronic pen, system, method and program |
JP7257126B2 (ja) * | 2018-10-29 | 2023-04-13 | 京セラ株式会社 | 情報表示装置、電子ペン、表示制御方法、及び表示制御プログラム |
DE102018132794A1 (de) * | 2018-12-19 | 2020-06-25 | Patty's Gmbh | Verfahren zur Eingabe von Befehlen für eine elektronische Einrichtung |
US11741951B2 (en) * | 2019-02-22 | 2023-08-29 | Lenovo (Singapore) Pte. Ltd. | Context enabled voice commands |
WO2021010562A1 (en) * | 2019-07-15 | 2021-01-21 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
CN110536094A (zh) * | 2019-08-27 | 2019-12-03 | 上海盛付通电子支付服务有限公司 | 一种在视频通话过程中传递信息的方法与设备 |
CN110688044B (zh) * | 2019-09-30 | 2021-04-13 | 联想(北京)有限公司 | 一种输入方法及电子设备 |
CN114281182A (zh) * | 2020-09-17 | 2022-04-05 | 华为技术有限公司 | 人机交互方法、装置和系统 |
US11935519B2 (en) * | 2020-10-15 | 2024-03-19 | Google Llc | Preserving speech hypotheses across computing devices and/or dialog sessions |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS601675B2 (ja) * | 1977-05-18 | 1985-01-16 | 豊道 中野 | 発声の解析方式 |
JP2599019B2 (ja) * | 1990-06-28 | 1997-04-09 | 三洋電機株式会社 | ペン入力装置 |
JPH06131437A (ja) * | 1992-10-20 | 1994-05-13 | Hitachi Ltd | 複合形態による操作指示方法 |
JPH0764694A (ja) | 1993-08-30 | 1995-03-10 | Sharp Corp | 手振れ防止ペン入力システム |
JPH087121A (ja) * | 1994-06-22 | 1996-01-12 | Hitachi Ltd | 情報処理装置、および、属性変更方法 |
JPH09190268A (ja) * | 1996-01-11 | 1997-07-22 | Canon Inc | 情報処理装置およびその方法 |
JPH1011089A (ja) * | 1996-06-24 | 1998-01-16 | Nippon Soken Inc | 赤外線検出素子を用いた入力装置 |
US6073036A (en) * | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US7447637B1 (en) | 1998-12-23 | 2008-11-04 | Eastern Investments, Llc | System and method of processing speech within a graphic user interface |
JP4632389B2 (ja) * | 2001-02-22 | 2011-02-16 | キヤノン株式会社 | 電子黒板装置およびその制御方法 |
EP1970799B1 (en) * | 2007-03-15 | 2017-08-16 | LG Electronics Inc. | Electronic device and method of controlling mode thereof and mobile communication terminal |
DE102008051756A1 (de) * | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
KR101413473B1 (ko) * | 2007-11-20 | 2014-07-01 | 엘지전자 주식회사 | 이동 단말기 및 그의 키 입력 방법 |
US8405621B2 (en) | 2008-01-06 | 2013-03-26 | Apple Inc. | Variable rate media playback methods for electronic devices with touch interfaces |
JP5170771B2 (ja) * | 2009-01-05 | 2013-03-27 | 任天堂株式会社 | 描画処理プログラム、情報処理装置、情報処理システムおよび情報処理制御方法 |
JP2011018228A (ja) * | 2009-07-09 | 2011-01-27 | Casio Computer Co Ltd | 情報処理端末およびプログラム |
WO2011045805A1 (en) * | 2009-10-16 | 2011-04-21 | Hewlett-Packard Development Company, L.P. | Gesture processing |
US20110119216A1 (en) * | 2009-11-16 | 2011-05-19 | Microsoft Corporation | Natural input trainer for gestural instruction |
KR101623213B1 (ko) | 2009-12-24 | 2016-05-31 | 삼성전자주식회사 | 펜 입력 장치 및 방법 |
US20110167339A1 (en) | 2010-01-06 | 2011-07-07 | Lemay Stephen O | Device, Method, and Graphical User Interface for Attachment Viewing and Editing |
US20110179381A1 (en) * | 2010-01-21 | 2011-07-21 | Research In Motion Limited | Portable electronic device and method of controlling same |
EP2348392A1 (en) | 2010-01-21 | 2011-07-27 | Research In Motion Limited | Portable electronic device and method of controlling same |
KR20110112980A (ko) | 2010-04-08 | 2011-10-14 | 삼성전자주식회사 | 터치 감지 장치 및 방법 |
US20110310005A1 (en) * | 2010-06-17 | 2011-12-22 | Qualcomm Incorporated | Methods and apparatus for contactless gesture recognition |
US8972903B2 (en) | 2010-07-08 | 2015-03-03 | Apple Inc. | Using gesture to navigate hierarchically ordered user interface screens |
US9159298B2 (en) * | 2010-09-08 | 2015-10-13 | Lg Electronics Inc. | Terminal and contents sharing method for terminal |
JP5688677B2 (ja) * | 2010-10-04 | 2015-03-25 | 日本電気株式会社 | 音声入力支援装置 |
JP5584603B2 (ja) * | 2010-12-06 | 2014-09-03 | 富士通テン株式会社 | 情報提供システムおよび情報提供装置 |
US9086794B2 (en) * | 2011-07-14 | 2015-07-21 | Microsoft Technology Licensing, Llc | Determining gestures on context based menus |
US9483109B2 (en) * | 2012-07-12 | 2016-11-01 | Spritz Technology, Inc. | Methods and systems for displaying text using RSVP |
US20140272843A1 (en) * | 2013-03-15 | 2014-09-18 | HealthTechApps, Inc. | Cognitive evaluation and development system with content acquisition mechanism and method of operation thereof |
US9218811B2 (en) * | 2013-06-28 | 2015-12-22 | Google Technology Holdings LLC | Electronic device and method for managing voice entered text using gesturing |
US20150058462A1 (en) * | 2013-08-23 | 2015-02-26 | Samsung Electronics Co., Ltd. | Content delivery system with content navigation mechanism and method of operation thereof |
-
2012
- 2012-06-29 KR KR1020120071229A patent/KR102003255B1/ko active IP Right Grant
-
2013
- 2013-04-12 AU AU2013204564A patent/AU2013204564B2/en not_active Ceased
- 2013-05-16 US US13/895,729 patent/US9286895B2/en active Active
- 2013-06-21 WO PCT/KR2013/005481 patent/WO2014003365A1/en active Application Filing
- 2013-06-24 EP EP20167205.2A patent/EP3693837A1/en active Pending
- 2013-06-24 EP EP13173435.2A patent/EP2680110B1/en active Active
- 2013-06-26 JP JP2013133458A patent/JP6338829B2/ja active Active
- 2013-06-28 CN CN201310264276.6A patent/CN103529934B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP3693837A1 (en) | 2020-08-12 |
AU2013204564B2 (en) | 2016-01-21 |
EP2680110A1 (en) | 2014-01-01 |
EP2680110B1 (en) | 2020-05-13 |
US20140006033A1 (en) | 2014-01-02 |
US9286895B2 (en) | 2016-03-15 |
KR102003255B1 (ko) | 2019-07-24 |
CN103529934A (zh) | 2014-01-22 |
WO2014003365A1 (en) | 2014-01-03 |
CN103529934B (zh) | 2018-08-21 |
KR20140003875A (ko) | 2014-01-10 |
AU2013204564A1 (en) | 2014-01-16 |
JP2014010836A (ja) | 2014-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6338829B2 (ja) | 多重入力処理方法及び装置 | |
US11024003B2 (en) | Method and mobile device for displaying image | |
TWI545496B (zh) | 用於調整控制件外觀之裝置、方法及圖形使用者介面 | |
KR20160069286A (ko) | 이동 단말기 및 그 제어 방법 | |
KR20130133980A (ko) | 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치 | |
KR101962774B1 (ko) | 애플리케이션과 연관된 신규 메시지를 처리하기 위한 방법 및 장치 | |
US10691333B2 (en) | Method and apparatus for inputting character | |
US20150346973A1 (en) | Seamlessly enabling larger ui | |
US20160041960A1 (en) | Method and device for controlling the same | |
KR20140028223A (ko) | 주소록 제공 방법 및 장치 | |
EP3413176A1 (en) | Mobile terminal and method for controlling the same | |
KR101985888B1 (ko) | 전자 게시판 제공 방법 및 장치 | |
KR102191376B1 (ko) | 이미지 표시 방법 및 휴대 단말 | |
KR102076193B1 (ko) | 이미지 표시 방법 및 휴대 단말 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20141226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160613 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171003 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180306 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6338829 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |