JP5722696B2 - 電子機器、制御方法及び制御プログラム - Google Patents
電子機器、制御方法及び制御プログラム Download PDFInfo
- Publication number
- JP5722696B2 JP5722696B2 JP2011105723A JP2011105723A JP5722696B2 JP 5722696 B2 JP5722696 B2 JP 5722696B2 JP 2011105723 A JP2011105723 A JP 2011105723A JP 2011105723 A JP2011105723 A JP 2011105723A JP 5722696 B2 JP5722696 B2 JP 5722696B2
- Authority
- JP
- Japan
- Prior art keywords
- character string
- image
- displayed
- function
- contact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Description
また、本発明は、その電子機器の制御方法及び制御プログラムを提供することを目的とする。
レシーバ14は、携帯電話機1のユーザの通話相手が発した音声を出力するために用いられる。
また、文字列又は画像が文字列又はその画像に対する接触状態に応じて文字列又は画像の選択の仕方を決定してもよい。そして、文字列又は画像の選択の仕方に応じてそれぞれ異なる機能を起動させると共に、起動された機能において選択された文字列又は画像を利用させてもよい。例えば、表示部11に表示される文字列や画像を指等により右から左になぞったり、左から右になぞったりするといった接触状態に応じて文字列又は画像の選択の仕方を決定する。また、表示部11に表示される文字列や画像を指等により所定値以上の速度でなぞったり所定値未満の速度でなぞったりするといった接触状態に応じて文字列又は画像の選択の仕方を決定する。さらに、表示部11に表示される文字列や画像を指等によりなぞってから所定時間以上経過した後になぞりを解除したり、所定時間未満でなぞりを解除するといった接触状態に応じて文字列又は画像の選択の仕方を決定する。なお、文字列や画像の選択の仕方は、上記の一例に限定されることはない。
このような携帯電話機1は、少ない操作によって容易に機能を起動させることができる。
なお、起動される機能は、予め設定されている。したがって、起動される機能は、上述した例に限定されることはない。
また、制御部17は、指によって選択する範囲を間違えた場合を考慮して、起動された機能についての画面から文字列を選択する画面に戻った際は、文字列の選択を解除することが可能である。
ステップS101において、制御部17は、検出部12の検出結果に基づいて、タッチパネル10(表示部11)に指やタッチペン等の接触物が接触したことを検出する。
また、制御部17は、画像に描かれている人物等のオブジェクトを特定し、オブジェクトの輪郭をタッチした際は、その輪郭に応じた機能を起動させることも可能である。
制御部17は、検出部12により接触が検出されることに応じて文字列又は画像の少なくとも一部が選択された場合に、その文字列又はその画像に対する接触の移動速度に応じてそれぞれ異なる機能を起動させることが好ましい。例えば、制御部17には、しきい値が予め設定されている。そして、タッチパネル10(表示部11)に表示される文字列を選択するために、指によってタッチパネル10をなぞるときの一文字当たりの速度がしきい値以上の場合には、制御部17は、第1機能(第1アプリケーション)を起動する。一方、指によってタッチパネル10をなぞるときの一文字当たりの速度がしきい値未満の場合には、制御部17は、第1機能とは異なる第2機能(第2アプリケーション)を起動する。
また、文字列又は画像は、複数選択されてもよい。
また、しきい値は、複数設定されることが可能である。この場合、制御部17は、3つ以上の機能のうち移動速度に応じていずれか1つの機能を起動する。
ステップS201において、制御部17は、上述したしきい値としてのドラッグ時間が設定される。
また、文字列又は画像は、複数選択されることが可能である。
これにより、携帯電話機1は、指等によってなぞる時間を変えるだけで、起動されるアプリケーションを容易に選択することができる。また、携帯電話機1は、少ない操作によってアプリケーションを起動することができる。
また、文字列又は画像は、複数選択されることが可能である。
これにより、携帯電話機1は、タッチパネル10に接触する時間を変えるだけで、起動されるアプリケーションを容易に選択することができる。また、携帯電話機1は、少ない操作によってアプリケーションを起動することができる。
制御部17は、検出部12により接触が検出されることに応じて文字列又は画像の少なくとも一部が選択された場合に、表示部11において接触が検出された文字列又は画像が表示されていた領域に応じてさらに異なる機能を起動させることが好ましい。
ステップS301において、制御部17は、検出部12の検出結果に基づいて、タッチパネル10(表示部11)に指やタッチペン等の接触物が接触したことを検出する。
また、制御部17は、接触(ドラッグ)の終点が上画面領域であるか下画面領域であるかに基づいて、それぞれ異なる機能を起動させてもよい。
また、制御部17は、表示部11に画像が表示されている状態において、検出部12により接触が検出されることに応じて画像が表示されている領域の少なくとも一部の領域が選択された場合に、一部の領域が前記画像の表示されている領域の中でいずれの領域であるかに応じてさらに異なる機能を起動させることが好ましい。
上述した実施形態では、タッチパネル10(表示部11)に接触された指等の移動方向若しくは移動時間に対応する機能、又は、タッチパネル10(表示部11)に対する指等の接触位置等に対応する機能を起動させる例について説明した。しかしながら、本発明は、この実施形態に限定されることはなく、例えば、選択された文字列を文字認識することにより、適当な機能を起動させることが可能である。例えば、制御部17は、指によってタッチパネル10(表示部11)に表示される文字列が選択された場合に、その選択された文字列について文字認識を行う。そして、制御部17は、文字認識の結果、選択された文字列が3桁、10桁及び11桁のいずれかから構成される数字の場合には、選択された文字列が電話番号であると判断して、電話機能を起動させる。また、制御部17は、文字認識の結果、選択された文字列が英字から構成される場合、又は、選択された文字列が英字及び数字から構成される場合には、選択された文字列がURLであると判断して、ウェブ機能を起動して、選択された文字列をURLとして入力させる。
10 タッチパネル
11 表示部
12 検出部
17 制御部
Claims (10)
- 文字列又は画像を表示する表示部と、
自機の全体を制御する制御部と、を備え、
前記制御部は、
前記表示された文字列又は画像に対する連続する接触の始点を検出部により検出し、
当該始点となる接触が検出されることに応じて当該表示された文字列又は画像において複数の領域を決定し、
前記表示された文字列又は画像に対する連続する接触の終点を検出部により検出し、
当該終点が当該複数の領域のいずれか一つで検出されると、
当該終点が検出された領域に応じて決定される機能に対して当該表示された文字列又は画像に関連するデータを提供する電子機器。 - 前記制御部は、前記連続する接触の移動方向に応じて前記表示された文字列又は画像において複数の領域の位置を決定する請求項1に記載の電子機器。
- 前記制御部は、前記接触の移動速度に応じて、前記終点が検出された領域に応じて決定される機能を変更し、当該変更後の機能に対して前記表示された文字列又は画像に関連するデータを提供する請求項1又は2に記載の電子機器。
- 前記制御部は、前記連続する接触が解除されるまでに要した時間の長さに応じて、前記終点が検出された領域に応じて決定される機能を変更し、当該変更後の機能に対して前記表示された文字列又は画像に関連するデータを提供する請求項1から3のいずれか1項に記載の電子機器。
- 前記制御部は、前記複数の領域の境界が、前記表示された文字列又は画像において位置するよう決定する請求項1から4のいずれか1項に記載の電子機器。
- 前記制御部は、前記連続する接触が文字列において検出されるか画像において検出されるかに応じて、前記終点が検出された領域に応じて決定される機能を変更し、当該変更後の機能に対して前記表示された文字列又は画像に関連するデータを提供する請求項1から5のいずれか1項に記載の電子機器。
- 前記制御部は、前記表示部に文字列が表示されている状態において、前記検出部により接触が検出されることに応じて前記文字列の少なくとも一部が選択された場合に、選択された前記文字列の種類に応じてさらに異なる機能を起動させる請求項1から6のいずれか1項に記載の電子機器。
- 前記制御部は、前記表示部により文字列が表示されている状態において、前記連続する接触が検出される文字列が数字列であるか数字列以外の文字列であるかに応じて、前記終点が検出された領域に応じて決定される機能を変更し、当該変更後の機能に対して前記表示された文字列又は画像に関連するデータを提供する請求項1から7のいずれか1項に記載の電子機器。
- 表示部に表示された文字列又は画像に対する連続する接触の始点及び終点を検出する第1工程と、
当該始点となる接触が検出されることに応じて当該表示された文字列又は画像において複数の領域を決定する第2工程と、
前記表示部に表示された文字列又は画像に対する連続する接触の終点を検出する第3工程と、
当該終点が当該複数の領域のいずれか一つで検出されると、当該終点が検出された領域に応じて決定される機能に対して当該表示された文字列又は画像に関連するデータを提供する第4工程と、を備える制御方法。 - 表示部に表示された文字列又は画像に対する連続する接触の始点を検出する第1工程と、
当該始点となる接触が検出されることに応じて当該表示された文字列又は画像において複数の領域を決定する第2工程と、
前記表示部に表示された文字列又は画像に対する連続する接触の終点を検出する第3工程と、
当該終点が当該複数の領域のいずれか一つで検出されると、当該終点が検出された領域に応じて決定される機能に対して当該表示された文字列又は画像に関連するデータを提供する第4工程と、をコンピュータによって実現するための制御プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011105723A JP5722696B2 (ja) | 2011-05-10 | 2011-05-10 | 電子機器、制御方法及び制御プログラム |
US13/468,501 US8963860B2 (en) | 2011-05-10 | 2012-05-10 | Electronic device, control method, and control program |
US14/602,819 US10082938B2 (en) | 2011-05-10 | 2015-01-22 | Electronic device, control method, and control program |
US14/602,852 US10073597B2 (en) | 2011-05-10 | 2015-01-22 | Electronic device, control method, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011105723A JP5722696B2 (ja) | 2011-05-10 | 2011-05-10 | 電子機器、制御方法及び制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012238124A JP2012238124A (ja) | 2012-12-06 |
JP5722696B2 true JP5722696B2 (ja) | 2015-05-27 |
Family
ID=47141565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011105723A Active JP5722696B2 (ja) | 2011-05-10 | 2011-05-10 | 電子機器、制御方法及び制御プログラム |
Country Status (2)
Country | Link |
---|---|
US (3) | US8963860B2 (ja) |
JP (1) | JP5722696B2 (ja) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US8823713B2 (en) * | 2008-11-18 | 2014-09-02 | Sharp Kabushiki Kaisha | Information processing apparatus |
JP5310389B2 (ja) * | 2009-08-27 | 2013-10-09 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP5722696B2 (ja) * | 2011-05-10 | 2015-05-27 | 京セラ株式会社 | 電子機器、制御方法及び制御プログラム |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
JP6039387B2 (ja) * | 2012-12-04 | 2016-12-07 | シャープ株式会社 | 表示装置 |
KR102014778B1 (ko) * | 2012-12-14 | 2019-08-27 | 엘지전자 주식회사 | 텍스트 메시징 서비스를 제공하는 디지털 디바이스 및 그 제어 방법 |
CN113470640B (zh) | 2013-02-07 | 2022-04-26 | 苹果公司 | 数字助理的语音触发器 |
JP6476662B2 (ja) * | 2013-09-20 | 2019-03-06 | 株式会社デンソーウェーブ | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
CN104090648B (zh) * | 2014-05-21 | 2017-08-25 | 中兴通讯股份有限公司 | 数据录入方法及终端 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
WO2016115700A1 (en) * | 2015-01-21 | 2016-07-28 | Motorola Solutions, Inc. | Method and apparatus for controlling user interface elements on a touch screen |
WO2016130387A1 (en) * | 2015-02-13 | 2016-08-18 | Microsoft Technology Licensing, Llc | Manipulation of content items |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112860501B (zh) * | 2021-03-17 | 2022-10-21 | 惠州Tcl移动通信有限公司 | 检测方法、检测装置、存储介质及移动终端 |
WO2024063346A1 (ko) * | 2022-09-20 | 2024-03-28 | 삼성전자주식회사 | 텍스트를 표시하기 위한 전자 장치 및 그 방법 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10247988A (ja) * | 1997-03-06 | 1998-09-14 | Sharp Corp | 通信機能付き情報処理装置 |
JPH10301869A (ja) * | 1997-04-28 | 1998-11-13 | Matsushita Electric Ind Co Ltd | 電子メール装置 |
JP4441966B2 (ja) * | 1999-12-21 | 2010-03-31 | 富士通株式会社 | 手書き文字入力装置及びそれを実現するためのプログラムを記録した記録媒体 |
US7629966B2 (en) * | 2004-12-21 | 2009-12-08 | Microsoft Corporation | Hard tap |
JP2007200243A (ja) | 2006-01-30 | 2007-08-09 | Kyocera Corp | 携帯端末装置、携帯端末装置の制御方法及びプログラム |
JP5080773B2 (ja) * | 2006-09-28 | 2012-11-21 | 京セラ株式会社 | 携帯端末及びその制御方法 |
US7900145B2 (en) * | 2006-11-08 | 2011-03-01 | Yahoo! Inc. | System and method for synchronizing data |
JP2008134918A (ja) * | 2006-11-29 | 2008-06-12 | Seiko Epson Corp | 画像処理装置及び画像処理決定方法 |
TWI399671B (zh) * | 2007-01-19 | 2013-06-21 | Lg Electronics Inc | 透過觸碰輸入裝置之資訊輸入 |
KR20090065919A (ko) * | 2007-12-18 | 2009-06-23 | 삼성전자주식회사 | 메뉴 조작 시스템 및 방법 |
KR20090085470A (ko) * | 2008-02-04 | 2009-08-07 | 삼성전자주식회사 | 아이템 또는 바탕화면에서 복수의 터치방식을 감지하는터치 ui 제공방법 및 이를 적용한 멀티미디어 기기 |
US8730173B2 (en) * | 2008-09-26 | 2014-05-20 | Kyocera Corporation | Electronic device with predictive candidate selection based on character input |
TW201028901A (en) * | 2009-01-23 | 2010-08-01 | Au Optronics Corp | Method for detecting gestures on liquid crystal display apparatus with touch input function |
JP5261217B2 (ja) * | 2009-01-30 | 2013-08-14 | キヤノン株式会社 | 表示装置および表示方法 |
JP5326678B2 (ja) * | 2009-03-09 | 2013-10-30 | トヨタ自動車株式会社 | ナビゲーション装置 |
US20100235784A1 (en) * | 2009-03-16 | 2010-09-16 | Bas Ording | Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display |
US8253712B2 (en) * | 2009-05-01 | 2012-08-28 | Sony Ericsson Mobile Communications Ab | Methods of operating electronic devices including touch sensitive interfaces using force/deflection sensing and related devices and computer program products |
KR101640463B1 (ko) | 2009-05-19 | 2016-07-18 | 삼성전자 주식회사 | 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기 |
JP5310389B2 (ja) | 2009-08-27 | 2013-10-09 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US8390583B2 (en) * | 2009-08-31 | 2013-03-05 | Qualcomm Incorporated | Pressure sensitive user interface for mobile devices |
KR20110104620A (ko) * | 2010-03-17 | 2011-09-23 | 삼성전자주식회사 | 휴대용 단말기에서 문자 입력 방법 및 장치 |
US9069416B2 (en) * | 2010-03-25 | 2015-06-30 | Google Inc. | Method and system for selecting content using a touchscreen |
JP5722696B2 (ja) * | 2011-05-10 | 2015-05-27 | 京セラ株式会社 | 電子機器、制御方法及び制御プログラム |
-
2011
- 2011-05-10 JP JP2011105723A patent/JP5722696B2/ja active Active
-
2012
- 2012-05-10 US US13/468,501 patent/US8963860B2/en not_active Expired - Fee Related
-
2015
- 2015-01-22 US US14/602,852 patent/US10073597B2/en not_active Expired - Fee Related
- 2015-01-22 US US14/602,819 patent/US10082938B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012238124A (ja) | 2012-12-06 |
US10082938B2 (en) | 2018-09-25 |
US20150169199A1 (en) | 2015-06-18 |
US20150169198A1 (en) | 2015-06-18 |
US20120287067A1 (en) | 2012-11-15 |
US8963860B2 (en) | 2015-02-24 |
US10073597B2 (en) | 2018-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5722696B2 (ja) | 電子機器、制御方法及び制御プログラム | |
US8791918B2 (en) | Character input device, character-input control method, storing character input program | |
JP5529616B2 (ja) | 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体 | |
US20100207870A1 (en) | Device and method for inputting special symbol in apparatus having touch screen | |
JP2000278391A (ja) | 背面手書き入力機能を有する携帯電話機 | |
US20130135200A1 (en) | Electronic Device and Method for Controlling Same | |
US9298364B2 (en) | Mobile electronic device, screen control method, and storage medium strong screen control program | |
JP5547466B2 (ja) | 携帯電子機器及び携帯電子機器の制御方法 | |
JP2013232026A (ja) | 携帯情報端末 | |
US20120218207A1 (en) | Electronic device, operation control method, and storage medium storing operation control program | |
CN103092412A (zh) | 移动终端和移动终端操作对象的显示方法 | |
JP5758277B2 (ja) | 携帯型電子機器 | |
JP5653062B2 (ja) | 情報処理装置、操作入力装置、情報処理システム、情報処理方法、プログラム及び情報記憶媒体 | |
JP2012208614A (ja) | 携帯電子機器 | |
US9014762B2 (en) | Character input device, character input method, and character input program | |
KR101261227B1 (ko) | 가상 키보드 입력 장치 및 그의 데이터 입력 방법 | |
JP2015138515A (ja) | 情報端末装置 | |
JP2002297291A (ja) | キー入力装置、キー入力方法及び携帯型電子機器 | |
JP5978104B2 (ja) | 情報表示装置および情報表示方法 | |
KR101625187B1 (ko) | 대형화면을 갖는 휴대단말기에서의 터치제어방법 | |
JP2012084086A (ja) | 携帯電子機器、携帯電子機器の制御方法及びプログラム | |
KR101149892B1 (ko) | 휴대용 단말기, 그의 문자 입력 방법 | |
KR20140013610A (ko) | 터치패널을 갖는 개인휴대단말기의 작동방법 | |
KR20140020570A (ko) | 터치패널을 갖는 개인휴대단말기의 작동방법 | |
KR20140024762A (ko) | 터치패널을 갖는 개인휴대단말기의 작동방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5722696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |