WO2013125103A1 - タッチパネル入力装置及びその制御方法 - Google Patents

タッチパネル入力装置及びその制御方法 Download PDF

Info

Publication number
WO2013125103A1
WO2013125103A1 PCT/JP2012/078665 JP2012078665W WO2013125103A1 WO 2013125103 A1 WO2013125103 A1 WO 2013125103A1 JP 2012078665 W JP2012078665 W JP 2012078665W WO 2013125103 A1 WO2013125103 A1 WO 2013125103A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
display
detected
unit
contact
Prior art date
Application number
PCT/JP2012/078665
Other languages
English (en)
French (fr)
Inventor
是一 嶋
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP12869135.9A priority Critical patent/EP2818984B1/en
Priority to US14/379,863 priority patent/US20150338975A1/en
Priority to JP2014500867A priority patent/JP6044631B2/ja
Publication of WO2013125103A1 publication Critical patent/WO2013125103A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display

Definitions

  • the present invention relates to a touch panel input device and a control method thereof.
  • touch panels are installed in devices such as smartphones, and the usage scene is expanding.
  • the applicable range of the touch panel will be used not only for checking messages belonging to consumers and entertainment, but also for mission critical operations related to finance and life.
  • As a typical operation of such a touch panel when a user recognizes an object (button or selectable area) displayed on the screen and touches the object (or the area) with a finger or the like, software is displayed. It is possible to recognize that it is a selection operation and execute an action previously associated with the object.
  • Patent Documents 1 and 2 disclose a technique for enlarging and displaying a contacted area or displaying a pointer when a touch operation is performed on the touch panel.
  • FIGS. 1a to 1d are diagrams for explaining a normal operation in a general touch panel input device.
  • the button information 111 on the pop-up displayed by some operation from the normal screen is displayed.
  • a pointer 121 is displayed on the button information 111.
  • the emergency call transmission operation is performed because the button information 111 is an emergency call button.
  • an emergency call transmission screen 112 is displayed, and an operation intended by the user is performed.
  • FIGS. 2a to 2d are diagrams for explaining a malfunction in a general touch panel input device.
  • the button information 111 on the pop-up displayed by some operation from the normal screen is displayed.
  • a pointer 121 is displayed on the button information 111.
  • the pop-up automatically disappears after a certain period of time, so that the display on the display 110 switches autonomously.
  • the button information 111 by the pop-up may disappear as shown in FIG. 2c until the user visually recognizes the screen and the finger 102 touches the touch panel 120. Therefore, although the user wanted to make an emergency call, as shown in FIG. 2d, the user presses the “5” key for voice call displayed in the area where the button information 111 was displayed on the display 110. Will be executed.
  • the operation intended by the user will not be executed correctly.
  • the pop-up is a general user interface of the current smartphone, and it is difficult to construct without using the pop-up, and usability and visibility are impaired.
  • auxiliary information of an object cannot be displayed until the object on the screen is touched. Or, simultaneously with the contact, an action associated with the object is executed, and the auxiliary information of the object cannot be displayed.
  • the present invention has been made in view of the problems of the above-described technology, and a touch panel input device capable of preventing a malfunction due to display switching in a touch panel input device in which display is switched autonomously, and control thereof. It aims to provide a method. It is another object of the present invention to provide a touch panel input device capable of displaying auxiliary information of a displayed object and a control method thereof.
  • the present invention provides: A display unit that displays information, a touch panel unit that is provided on the display unit and detects the proximity and contact operation of a contact body, and controls the display of information on the display unit, and is detected by the touch panel unit
  • a touch panel input device having a control unit that receives an input according to a contact operation, and wherein the control unit autonomously switches display on the display unit.
  • the control unit detects the contact until the contact is not detected after the contact of the contact body is detected by the touch panel unit after the proximity is detected. The display on the display unit is not switched.
  • a display unit that displays information
  • a touch panel unit that is provided on the display unit and detects the proximity and contact operation of a contact body, and controls the display of information on the display unit, and is detected by the touch panel unit.
  • a touch panel input device having a control unit that receives an input corresponding to the contact operation performed, When the proximity of the contact body is detected by the touch panel unit, the control unit performs a guide display of the operation when the proximity of the touch panel unit is detected.
  • a display unit that displays information
  • a touch panel unit that is provided on the display unit and detects the proximity and contact operation of a contact body, and controls the display of information on the display unit, and is detected by the touch panel unit.
  • a control unit that receives an input corresponding to the contact operation performed, and the control unit is a method of controlling a touch panel input device that autonomously switches display on the display unit, When the proximity of the contact body is detected by the touch panel unit, the display on the display unit is detected until the contact is not detected after the contact of the contact body is detected by the touch panel unit after the proximity is detected. Do not switch.
  • a display unit that displays information
  • a touch panel unit that is provided on the display unit and detects the proximity and contact operation of a contact body, and controls the display of information on the display unit, and is detected by the touch panel unit.
  • a control method for a touch panel input device having a control unit that receives an input corresponding to a contact operation performed, When the proximity of the contact body is detected by the touch panel unit, a guide display of an operation when the proximity of the touch panel unit is detected is detected.
  • the display on the display unit when the proximity of the contact body is detected by the touch panel unit, the display on the display unit is not switched until the contact is not detected after the contact is detected by the touch panel unit after the proximity is detected. Because it is configured, after the user tries to specify the object displayed on the display unit, and the contact body such as a finger is brought close to the touch panel unit, the display on the display unit is not switched until the contact of the contact body is not detected. Accordingly, it is possible to prevent malfunction due to display switching in the touch panel input device in which the display is switched autonomously.
  • the operation when the proximity of the touch panel unit is detected is guided to display, so that auxiliary information of the displayed object is displayed. Can do.
  • FIG. 3 is a block diagram showing an embodiment of the touch panel input device of the present invention.
  • the present embodiment is a smartphone 1 having a touch panel 20 serving as an input unit, a display 10 serving as a display unit, a touch panel / display control unit 30, a processing unit 50, and a memory 40.
  • the touch panel 20 and the display 10 are illustrated as being shifted from each other, the touch panel 20 is actually superposed on the display 10 in practice.
  • the display 10 is composed of liquid crystal or the like, and displays information such as images under the control of the touch panel / display control unit 30. Moreover, it has white LED60 as a backlight light source.
  • the touch panel 20 detects the proximity and contact operation when the proximity and contact operation is performed by a contact body such as a finger.
  • a contact body such as a finger.
  • the memory 40 stores information.
  • the processing unit 50 controls operations such as a communication function in the smartphone 1 by program control.
  • the touch panel / display control unit 30 controls the display of information on the display 10 based on an instruction from the processing unit 50 and receives an input corresponding to the contact operation detected by the touch panel 10. Further, the touch panel / display control unit 30 autonomously switches the display on the display 10 when the timer ends or an interruption such as an incoming voice call occurs.
  • the control of the touch panel 20 has two states: contact with the touch panel 20 (contact is detected with a finger) and proximity (detects the approach of the finger and comes out of the mode simultaneously with the contact).
  • 4 and 5 are diagrams for explaining a mechanism for detecting the proximity of the contact body and the contact operation on the touch panel 20 shown in FIG.
  • the touch panel / display control unit 30 shown in FIG. 3 has a mechanism capable of detecting the coordinates (x, y) of the touch panel 20 as shown in FIG. 4 in the two states described above.
  • the condition for determining whether the operation on the touch panel 20 is a contact operation or a proximity operation depends on the distance h from the touch panel 20 to the finger 2.
  • a threshold value of a certain capacitance is determined, and when the detected capacitance is equal to or greater than the threshold value, it is determined as a proximity operation, and when it is less than the threshold value, it is determined as a contact operation.
  • FIG. 6a is a diagram showing a state of operation on the touch panel 20 shown in FIG. 6B is a diagram illustrating a display method on the display 10 in accordance with an operation on the touch panel 20 illustrated in FIG.
  • the radius r of the pointer displayed on the display 10 is changed according to the distance h, and the selection in the state where the finger 2 is close to the touch panel 20 It is possible to make it easier to do. This is because the pointer radius r decreases when the distance h decreases, the pointer radius r increases when the distance h decreases, and the pointer radius r (or even if the distance h changes). Any method that does not change the dot) may be used.
  • FIG. 7 is a flowchart for explaining the operation of the smartphone 1 shown in FIG. 8a to 8d are diagrams illustrating an example of the operation of the smartphone 1 illustrated in FIG.
  • the smartphone 1 shown in FIG. 3 is operating as shown in FIG. 8a, and the button information 11 is displayed on the display 10 as shown in FIG.
  • the touch panel / display control unit 30 causes the touch panel 20 to be activated. It is determined whether or not a proximity operation has been detected (step 2).
  • step 3 If a proximity operation is detected on the touch panel 20, screen drawing is prohibited and the display on the display 10 is not switched (step 3). At this time, a pointer 21 is displayed on the button information 11 as shown in FIG.
  • the finger 2 can be brought into contact with the area where the button information 11 is displayed while the button information 11 is still displayed on the display 10 as shown in FIG.
  • the operation according to is performed.
  • an emergency call transmission screen 12 corresponding to the operation is displayed.
  • the touch operation on the button information 11 is performed, since the finger 2 is not touching the touch panel 20 (step 4), the screen drawing is permitted (step 5), and the display on the display 10 is switched. (Step 6).
  • the touch of the finger 2 is detected by the touch panel 20 after the proximity is detected.
  • the button information 11 that is an object to be designated by the user does not disappear until no contact is detected after the operation.
  • 9a to 9d are diagrams showing other examples of the operation of the smartphone 1 shown in FIG.
  • the display information 13a is displayed on the display 10 of the smartphone 1 shown in FIG. 3 as shown in FIG. 9a, and the button information 11 is displayed on the display 10 as shown in FIG.
  • the touch panel / display control unit 30 causes the touch panel 20 to It is then determined whether a proximity operation has been detected.
  • the screen drawing is prohibited, and the button information that the finger 2 is close to among the information displayed on the display 10 as shown in FIG. 9c. Only the display information 13a displayed in the other area is switched to the display information 13b.
  • the finger 2 can be brought into contact with the area where the button information 11 is displayed in a state where the button information 11 is displayed on the display 10, and an operation corresponding to the touch operation on the button information 11 is performed. Is called. Then, as shown in FIG. 9d, the transmission information 12a corresponding to the operation is displayed. At this time, after the touch operation on the button information 11 is performed, the finger 2 is not in contact with the touch panel 20, so the button information 11 disappears and the display on the display 10 is switched.
  • 10a to 10c are diagrams illustrating another example of the operation of the smartphone 1 illustrated in FIG.
  • the unit for which the display is not switched is to detect the coordinates (x, y) where the finger 2 is close to the touch panel 10 and only the buttons displayed on the coordinates. It is also possible to switch screens other than buttons.
  • the display information 13a is displayed on the display 10 of the smartphone 1 shown in FIG. 3, and the button information 11 is displayed on the display 10 in response to a request from the processing unit 50.
  • the touch panel 20 detects a proximity operation on the touch panel 20 / display control unit 30. It is judged whether or not.
  • the finger 2 can be brought into contact with the area where the instruction information 11a is displayed in a state where the instruction information 11a of the button information 11 is displayed on the display 10, and according to the contact operation with respect to the instruction information 11a. Operation is performed. Then, as shown in FIG. 10c, an emergency call transmission screen 12 corresponding to the operation is displayed. At this time, since the finger 2 is not in contact with the touch panel 20 after the contact operation with respect to the instruction information 11a is performed, the instruction information 11a disappears and the display 10 is switched.
  • the smartphone 1 not only the smartphone 1 but also a device having a large display area such as a tablet or a personal computer, in a state where a plurality of windows are displayed, the coordinates (x, y) where the contact body is close are detected, It is also conceivable that only the window including the coordinates does not switch display as described above.
  • FIG. 11a and 11b are diagrams showing an example of the operation in the touch panel input device of the present invention.
  • this window may be extinguished when the proximity state is lost.
  • 12a to 12c are diagrams for explaining an example of the operation in the other embodiment of the smartphone 1 shown in FIG.
  • the display information 13a including the numeric keypad of the telephone number is displayed on the display 10 of the smartphone 1 shown in FIG.
  • the pointer 21 displayed on the display 10 stays at the coordinates (x, y) of the same object on the display 10 for a certain period of time, as shown in FIG.
  • the Tips display 16 is made. This may be a pop-up or a balloon.
  • the user is informed that a phone number is input when a single press is performed, and that the function is a function for displaying a JKL in the phone book by a long press.
  • a mouse such as a general personal computer has a function of displaying the guide of the object as Tips without selection.
  • Tips is displayed using the proximity state of the touch panel and the close (X, Y) coordinates. Accordingly, it is possible to realize a function of displaying a key guide without operating the touch panel.
  • FIGS. 13a to 13c are diagrams for explaining another example of the operation in the other embodiment of the smartphone 1 shown in FIG.
  • the display information 13b including a plurality of items is displayed on the display 10 of the smartphone 1 shown in FIG. 3 as shown in FIG. 13a, the display as shown in FIG.
  • the pointer 21 displayed at 10 stays at the coordinates (x, y) of the same object on the display 10 for a certain period of time, as shown in FIG. It is also possible to display.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ディスプレイ10における表示が自立的に切り替えられる構成において、タッチパネル20にて接触体の近接が検知された場合は、当該近接が検知されてからタッチパネル20にて接触体の接触が検知された後に当該接触が検知されなくなるまでディスプレイ10における表示を切り替えない。

Description

タッチパネル入力装置及びその制御方法
 本発明は、タッチパネル入力装置及びその制御方法に関する。
 タッチパネルは、スマートフォンをはじめとするデバイスに多数搭載されており、利用シーンが広がっている。タッチパネルの適応範囲は、コンシューマやエンターテイメントに属するメッセージの確認のみならず、今後は金融や生命に関わるようなミッションクリティカルな操作にも用いられる。このようなタッチパネルの代表的な動作としては、利用者が画面上に表示されるオブジェクト(ボタンや選択可能領域)を目で認識し、そのオブジェクト(またはその領域)を指等で触れると、ソフトウェアによって選択操作であると認識し、そのオブジェクトに予め対応づけられた動作を実行することが挙げられる。
 ここで、タッチパネルに対する接触操作を行った場合に、その接触した領域を拡大表示したり、ポインタを表示したりする技術が、例えば、特許文献1,2に開示されている。
特開2007-280316号公報 特開2009-26155号公報
 上述したようなタッチパネルを用いた入力装置においては、自立的に画面表示を切り替えない通常の静的な画面を表示している場合は、利用者がオブジェクトを目で認識して、それを接触する時系列的な順番に誤りは生じない。
 ところが、ポップアップやボタンがタイマーにより一定時間後に自動的に消滅したり、音声着信等の割り込みが発生して画面の表示が音声着信に自立的に切り替えられたりするような画面を表示している場合は、利用者がオブジェクトを目で認識し、指等で接触するまでの間に、タイマーの終了や、音声着信等の割り込みが発生すると、指が接触するのが、意図した「前の画面のオブジェクト」ではなく、タイマー終了や割り込みの後に発生した新しい画面に表示されている「後の画面のオブジェクト」となってしまう。
 そのため、本来はポップアップ上のボタン類のオブジェクトを利用者が指定したつもりになっているにも関わらず、実際にはポップアップが消えた後に表示されている画面上のオブジェクトを指定してしまい、意図した動作と異なってしまう。特に、誤った画面上に配置されたボタンが、ユーザーデータの消去や緊急通報発信の機能の場合、利用者にとって致命的な誤操作になり得る。このため、ミッションクリティカルなシステム上でのタッチパネル操作には、ユーザインタフェースの面において誤操作を潜在的に引き起こす欠陥が潜在する。
 以下に、その具体例について説明する。
 図1a~図1dは、一般的なタッチパネル入力装置における通常動作を説明するための図である。
 図1aに示すようなディスプレイ110上にタッチパネル120が配置されたタッチパネル入力装置においては、図1bに示すように、通常画面から何らかの操作で表示するポップアップ上のボタン情報111が表示された状態にて、そのボタン情報111に指102を近づけていくと、ボタン情報111上にポインタ121が表示される。そして、図1cに示すように、指102がボタン情報111に接触すると、ボタン情報111が緊急発信ボタンであることにより、緊急通報発信動作が行われる。その後、図1dに示すように、緊急通報発信画面112が表示され、利用者が意図した動作が行われる。
 図2a~図2dは、一般的なタッチパネル入力装置における誤動作を説明するための図である。
 図2aに示すようなディスプレイ110上にタッチパネル120が配置されたタッチパネル入力装置において、図2bに示すように、通常画面から何らかの操作で表示するポップアップ上のボタン情報111が表示された状態にて、そのボタン情報111に指102を近づけていくと、ボタン情報111上にポインタ121が表示される。ところが、このポップアップが無操作で放置されると、タイマー機能を用いてタイムアップした場合、一定時間後にポップアップが自動的に消滅することにより、ディスプレイ110における表示が自立的に切り替わる仕様のものがある。そのような仕様のものにおいては、利用者が画面を視認してタッチパネル120上に指102が接触するまでの間に、図2cに示すようにポップアップによるボタン情報111が消えてしまう場合がある。そのため、利用者としては緊急発信を行いたかったのに、図2dに示すように、ディスプレイ110にてボタン情報111が表示されていた領域に表示されている、音声発信の“5”キーを押した動作が実行されてしまう。
 このような動作が行われると、利用者が意図した動作が正しく実行されないこととなる。これを解決するにはポップアップを用いない画面を構築することが考えられる。ところが、ポップアップは、現状のスマートフォンの一般的なユーザインタフェースであり、ポップアップを用いず構築することが困難であり、また、ユーザビリティや視認性を損ねてしまう。
 また、一般的なパーソナルコンピュータ等においては、ユーザインタフェースとして、マウスとキーボードを主体とする操作体系において、画面上のオブジェクトの上にマウスのカーソルを配置すると(選択せずmouse overの状態)、そのオブジェクトの補助情報が表示される。ところが、タッチパネルを主体とする操作体系においては、画面上のオブジェクトに接触するまでオブジェクトの補助情報を表示することができない。または、接触と同時に、オブジェクトに対応づけられた動作が実行されてしまい、オブジェクトの補助情報を表示することができない。
 そのため、タッチパネルの利用者にとって、オブジェクトをタッチすることに対して動作を予測できないことや誤操作を行う可能性があることによりストレスを与えてしまうという問題点がある。
 本発明は、上述したような技術が有する問題点に鑑みてなされたものであって、自立的に表示が切り替わるタッチパネル入力装置において表示の切り替わりによる誤動作を防止することができるタッチパネル入力装置及びその制御方法を提供することを目的とする。また、表示されたオブジェクトの補助情報を表示することができるタッチパネル入力装置及びその制御方法を提供することを目的とする。
 上記目的を達成するために本発明は、
 情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有し、前記制御部が、前記ディスプレイ部における表示を自立的に切り替えるタッチパネル入力装置において、
 前記制御部は、前記タッチパネル部にて接触体の近接が検知された場合、当該近接が検知されてから前記タッチパネル部にて前記接触体の接触が検知された後に当該接触が検知されなくなるまで前記ディスプレイ部における表示を切り替えないことを特徴とする。
 また、情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有するタッチパネル入力装置において、
 前記制御部は、前記タッチパネル部にて接触体の近接が検知された場合、前記タッチパネル部の当該近接が検知された領域に接触した場合の動作をガイド表示することを特徴とする。
 また、情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有し、前記制御部が、前記ディスプレイ部における表示を自立的に切り替えるタッチパネル入力装置の制御方法であって、
 前記タッチパネル部にて接触体の近接が検知された場合、当該近接が検知されてから前記タッチパネル部にて前記接触体の接触が検知された後に当該接触が検知されなくなるまで前記ディスプレイ部における表示を切り替えない。
 また、情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有するタッチパネル入力装置の制御方法であって、
 前記タッチパネル部にて接触体の近接が検知された場合、前記タッチパネル部の当該近接が検知された領域に接触した場合の動作をガイド表示する。
 本発明は、タッチパネル部にて接触体の近接が検知された場合、近接が検知されてからタッチパネル部にて接触体の接触が検知された後に接触が検知されなくなるまでディスプレイ部における表示が切り替わらない構成としたため、利用者がディスプレイ部に表示されたオブジェクトを指定しようとしてタッチパネル部に指等の接触体を近接させた後は、接触体の接触が検知されなくなるまでディスプレイ部における表示が切り替わらないことになり、それにより、自立的に表示が切り替わるタッチパネル入力装置において表示の切り替わりによる誤動作を防止することができる。
 また、タッチパネル部にて接触体の近接が検知された場合、タッチパネル部の近接が検知された領域に接触した場合の動作をガイド表示する構成としたため、表示されたオブジェクトの補助情報を表示することができる。
一般的なタッチパネル入力装置における通常動作を説明するための図である。 一般的なタッチパネル入力装置における通常動作を説明するための図である。 一般的なタッチパネル入力装置における通常動作を説明するための図である。 一般的なタッチパネル入力装置における通常動作を説明するための図である。 一般的なタッチパネル入力装置における誤動作を説明するための図である。 一般的なタッチパネル入力装置における誤動作を説明するための図である。 一般的なタッチパネル入力装置における誤動作を説明するための図である。 一般的なタッチパネル入力装置における誤動作を説明するための図である。 本発明のタッチパネル入力装置の実施の一形態を示すブロック図である。 図3に示したタッチパネルにおける接触体の近接及び接触操作の検知の仕組みを説明するための図である。 図3に示したタッチパネルにおける接触体の近接及び接触操作の検知の仕組みを説明するための図である。 図3に示したタッチパネルに対する操作の状態を示す図である。 図3に示したタッチパネルに対する操作に応じたディスプレイにおける表示方法を示す図である。 図3に示したスマートフォンの動作を説明するためのフローチャートである。 図3に示したスマートフォンの動作の一例を示す図である。 図3に示したスマートフォンの動作の一例を示す図である。 図3に示したスマートフォンの動作の一例を示す図である。 図3に示したスマートフォンの動作の一例を示す図である。 図3に示したスマートフォンの動作の他の例を示す図である。 図3に示したスマートフォンの動作の他の例を示す図である。 図3に示したスマートフォンの動作の他の例を示す図である。 図3に示したスマートフォンの動作の他の例を示す図である。 図3に示したスマートフォンの動作の他の例を示す図である。 図3に示したスマートフォンの動作の他の例を示す図である。 図3に示したスマートフォンの動作の他の例を示す図である。 本発明のタッチパネル入力装置における動作の一例を示す図である。 本発明のタッチパネル入力装置における動作の一例を示す図である。 図3に示したスマートフォンの他の実施の形態における動作の一例を説明するための図である。 図3に示したスマートフォンの他の実施の形態における動作の一例を説明するための図である。 図3に示したスマートフォンの他の実施の形態における動作の一例を説明するための図である。 図3に示したスマートフォンの他の実施の形態における動作の他の例を説明するための図である。 図3に示したスマートフォンの他の実施の形態における動作の他の例を説明するための図である。 図3に示したスマートフォンの他の実施の形態における動作の他の例を説明するための図である。
 以下に、本発明の実施の形態について図面を参照して説明する。
 図3は、本発明のタッチパネル入力装置の実施の一形態を示すブロック図である。
 本形態は図3に示すように、入力手段となるタッチパネル20と、表示手段となるディスプレイ10と、タッチパネル/ディスプレイ制御部30と、処理部50と、メモリ40とを有したスマートフォン1である。なお、タッチパネル20とディスプレイ10とは、互いにずれて図示されているが、実際には、ディスプレイ10上にタッチパネル20が物理的に重ね合わされた構造となっている。
 ディスプレイ10は、液晶等から構成されており、タッチパネル/ディスプレイ制御部30の制御によって画像等の情報を表示する。また、バックライト光源として白色LED60を有している。
 タッチパネル20は、指等の接触体による近接及び接触操作が行われた場合にその近接及び接触操作を検知する。例えば、静電容量方式によるものを用いることが考えられる。
 メモリ40は、情報を記憶するものである。
 処理部50は、プログラム制御によってスマートフォン1における通信機能等の動作を制御する。
 タッチパネル/ディスプレイ制御部30は、処理部50からの指示に基づいて、ディスプレイ10における情報の表示を制御するとともに、タッチパネル10にて検知された接触操作に応じた入力を受け付ける。また、タッチパネル/ディスプレイ制御部30は、タイマーの終了や、音声着信等の割り込みが発生した場合に、ディスプレイ10における表示を自立的に切り替える。タッチパネル20の制御においては、タッチパネル20に対する接触(指で接触を感知)と、近接(指の接近を感知し接触と同時にモードから外れる)との2つの状態を持つ。
 図4及び図5は、図2に示したタッチパネル20における接触体の近接及び接触操作の検知の仕組みを説明するための図である。
 図3に示したタッチパネル/ディスプレイ制御部30は、上述した2つの状態において、図4に示すように、タッチパネル20の座標(x,y)を検出できる仕組みを具備している。タッチパネル20に対する操作が接触操作であるか近接操作であるかを判断する条件は、タッチパネル20から指2までの距離hに依存する。
 例えばタッチパネル20が静電容量方式のものである場合は、図5に示すように、静電容量と距離hとは相関の関係にある。そのため、一定の静電容量の閾値を決めて、検出された静電容量がその閾値以上の場合は近接操作と判断し、閾値未満の場合は接触操作と判断する。これは、一般的な静電容量方式で接触操作と近接操作とを判断する手法である。
 図6aは、図3に示したタッチパネル20に対する操作の状態を示す図である。図6bは、図3に示したタッチパネル20に対する操作に応じたディスプレイ10における表示方法を示す図である。
 図6aに示すようにタッチパネル20に指2が近接した場合、タッチパネル20から指2までの距離hに応じてディスプレイ10に表示するポインタの形状を変化させる。
 例えば、図6bに示すように、近接操作と判断された状態において、距離hに応じてディスプレイ10上に表示するポインタの半径rを変化させ、指2がタッチパネル20に近接している状態における選択を行いやすくすることが考えられる。これは、距離hが短くなった場合にポインタの半径rを小さくする手法、距離hが短くなった場合にポインタの半径rを大きくする手法、距離hが変化してもポインタの半径r(またはドット)が変化しない手法、何れで実施してもよい。
 以下に、上記のように構成されたスマートフォン1の動作について説明する。
 図7は、図3に示したスマートフォン1の動作を説明するためのフローチャートである。図8a~図8dは、図3に示したスマートフォン1の動作の一例を示す図である。
 図8aに示すように図3に示したスマートフォン1が動作しており、処理部50からの要求によって、図8bに示すように、ディスプレイ10にてボタン情報11が表示されている状態において、タイマーの終了や、音声着信等の割り込みが発生することにより、ディスプレイ10における表示を自立的に切り替える画面描画要求が処理部50にて発生すると(ステップ1)、タッチパネル/ディスプレイ制御部30において、タッチパネル20にて近接操作が検知されているかどうかが判断される(ステップ2)。
 そして、タッチパネル20にて近接操作が検知されている場合は、画面描画が禁止状態とされ、ディスプレイ10における表示が切り替わらない(ステップ3)。なおこの際、図8bに示すように、ボタン情報11上にポインタ21が表示されている。
 これにより、図8cに示すようにディスプレイ10上にてボタン情報11が表示されたままの状態で、ボタン情報11が表示された領域に指2を接触させることができ、ボタン情報11に対する接触操作に応じた動作が行われる。そして、図8dに示すように、その動作に応じた緊急通報発信画面12が表示されることになる。この際、ボタン情報11に対する接触操作が行われた後は、指2がタッチパネル20に接触していないため(ステップ4)、画面描画が許可状態とされ(ステップ5)、ディスプレイ10の表示が切り替わることになる(ステップ6)。
 このように、本形態においては、タッチパネル/ディスプレイ制御部30の制御によって、タッチパネル20にて指2の近接が検知された場合、近接が検知されてからタッチパネル20にて指2の接触が検知された後に接触が検知されなくなるまで、利用者が指定しようとするオブジェクトとなるボタン情報11が消滅しない。それにより、タッチパネル10に表示されたボタン情報11を指定するために指2がタッチパネル10に近接したときと、その後、指2がタッチパネル10に接触したときとで、ディスプレイ20における画面表示に相違が無くなり、図2c及び図2dにて示したような誤操作を回避することができる。
 図9a~図9dは、図3に示したスマートフォン1の動作の他の例を示す図である。
 図9a~図9dに示すように、タッチパネル20に表示された情報のうち、指2が接触するボタン情報11以外の領域に表示された情報を切り替えることも考えられる。
 図9aに示すように図3に示したスマートフォン1のディスプレイ10に表示情報13aが表示されており、処理部50からの要求によって、図9bに示すように、ディスプレイ10にてボタン情報11が表示されている状態において、タイマーの終了等の割り込みが発生することにより、ディスプレイ10における表示を自立的に切り替える画面描画要求が処理部50にて発生すると、タッチパネル/ディスプレイ制御部30において、タッチパネル20にて近接操作が検知されているかどうかが判断される。
 そして、タッチパネル20にて近接操作が検知されている場合は、画面描画が禁止状態とされ、図9cに示すように、ディスプレイ10に表示された情報のうち、指2が近接しているボタン情報11のみが切り替わらず、その他の領域に表示された表示情報13aのみが表示情報13bに切り替わる。
 これにより、ディスプレイ10上にてボタン情報11が表示されたままの状態で、ボタン情報11が表示された領域に指2を接触させることができ、ボタン情報11に対する接触操作に応じた動作が行われる。そして、図9dに示すように、その動作に応じた発信情報12aが表示されることになる。この際、ボタン情報11に対する接触操作が行われた後は、指2がタッチパネル20に接触していないため、ボタン情報11が消滅してディスプレイ10の表示が切り替わることになる。
 図10a~図10cは、図3に示したスマートフォン1の動作の他の例を示す図である。
 図10a~図10cに示すように、表示を切り替えないものとする単位は、タッチパネル10に指2が近接している座標(x,y)を検知し、その座標上に表示されたボタンのみにして、ボタン以外の画面を切り替えることも考えられる。
 図10aに示すように図3に示したスマートフォン1のディスプレイ10に表示情報13aが表示されており、処理部50からの要求によって、ディスプレイ10にてボタン情報11が表示されている状態において、タイマーの終了等の割り込みが発生することにより、ディスプレイ10における表示を自立的に切り替える画面描画要求が処理部50にて発生すると、タッチパネル/ディスプレイ制御部30において、タッチパネル20にて近接操作が検知されているかどうかが判断される。
 そして、タッチパネル20にて近接操作が検知されている場合は、画面描画が禁止状態とされ、図10bに示すように、ディスプレイ10に表示された情報のうち、指2が近接しているボタン情報11に含まれる指示情報11aのみが切り替わらず、ボタン情報11のその他の部分が消滅するとともに、ボタン情報11以外の領域に表示された表示情報13aが表示情報13bに切り替わる。
 これにより、ディスプレイ10上にてボタン情報11の指示情報11aが表示されたままの状態で、指示情報11aが表示された領域に指2を接触させることができ、指示情報11aに対する接触操作に応じた動作が行われる。そして、図10cに示すように、その動作に応じた緊急通報発信画面12が表示されることになる。この際、指示情報11aに対する接触操作が行われた後は、指2がタッチパネル20に接触していないため、指示情報11aが消滅してディスプレイ10の表示が切り替わることになる。
 また、スマートフォン1に限らず、タブレットやパーソナルコンピュータ等のディスプレイの面積が広いデバイスにおいて、複数のウィンドウが表示されている状態で、接触体が近接している座標(x,y)を検知し、その座標を含むウィンドウのみについて、上記同様に表示の切り替えを行わない構成とすることも考えられる。
 図11a及び図11bは、本発明のタッチパネル入力装置における動作の一例を示す図である。
 図11aに示すように、タッチパネル入力装置のディスプレイ上に複数のウィンドウ14a~14cが表示されている状態において、割り込み等が発生した場合、図11bに示すように、指が近接していてポインタ21が表示されているウィンドウ14aのみについて表示を切り替えず、他のウィンドウ14b,14cをウィンドウ14d,14eに切り替えることも考えられる。
 これにより、ディスプレイに表示された情報が割り込み等で切り替えられても、接触するウィンドウのみが残り、利用者は所望の選択が可能となる。また、この場合においても、近接状態ではなくなると、このウィンドウを消滅させてもよい。
 (他の実施の形態)
 本形態においては、図3に示した構成を有するスマートフォン1において、タッチパネル/ディスプレイ制御部30が、タッチパネル20にて接触体の近接が検知された場合、タッチパネル20の近接が検知された領域に接触した場合の動作をガイド表示する。
 図12a~図12cは、図3に示したスマートフォン1の他の実施の形態における動作の一例を説明するための図である。
 図12aに示すように図3に示したスマートフォン1のディスプレイ10に電話番号のテンキーからなる表示情報13aが表示されている状態において、利用者の指が近接することによって、図12bに示すようにディスプレイ10に表示されたポインタ21が、ディスプレイ10上の同一のオブジェクトの座標(x,y)に一定時間滞留した場合、図12cに示すように、そのオブジェクトに接触した場合の動作のガイド表示となるTips表示16がなされる。これはポップアップでもよく、吹き出しでもよい。本例では、単押ししたときに電話番号が入力されることと、長押しで電話帳のJKLを表示する機能であることを、利用者に伝えている。
 タッチパネル20のキーは、選択しないと動作が不明なことが多い。一方、一般的なパーソナルコンピュータ等のマウスでは、選択しなくても、そのオブジェクトのガイドをTipsとして表示する機能がある。この機能を具備するために、タッチパネルの近接状態と、近接した(X,Y)座標を用いて、Tipsを表示させる。これにより、タッチパネルの操作を行うことなく、キーのガイドを表示する機能を実現することができる。
 図13a~図13cは、図3に示したスマートフォン1の他の実施の形態における動作の他の例を説明するための図である。
 図13aに示すように図3に示したスマートフォン1のディスプレイ10に複数の項目からなる表示情報13bが表示されている状態において、利用者の指が近接することによって、図13bに示すようにディスプレイ10に表示されたポインタ21が、ディスプレイ10上の同一のオブジェクトの座標(x,y)に一定時間滞留した場合、図13cに示すように、そのサマリー表示17をしたり、1階層下の項目を表示したりすることも考えられる。
 また、電子メールの一覧を表示している場合において、電子メールの本文をTipsとして表示したり、電話帳の一覧で表示した場合は、その1階層下の項目を表示したり、設定内容を表示させることも考えられる。
 以上、実施例を参照して本願発明を説明したが、本願発明は上記実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2012年2月20日に出願された日本出願特願2012-33968を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (6)

  1.  情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有し、前記制御部が、前記ディスプレイ部における表示を自立的に切り替えるタッチパネル入力装置において、
     前記制御部は、前記タッチパネル部にて接触体の近接が検知された場合、当該近接が検知されてから前記タッチパネル部にて前記接触体の接触が検知された後に当該接触が検知されなくなるまで前記ディスプレイ部における表示を切り替えないことを特徴とするタッチパネル入力装置。
  2.  請求項1に記載のタッチパネル入力装置において、
     前記制御部は、前記タッチパネル部にて接触体の近接が検知された場合、前記タッチパネル部にて前記接触体の接触が検知されなくなるまで、前記ディスプレイ部における表示のうち、前記近接が検知された領域の表示のみを切り替えないタッチパネル入力装置。
  3.  請求項1に記載のタッチパネル入力装置において、
     前記制御部は、前記ディスプレイ部に複数のウィンドウが表示されている状態にて前記タッチパネル部にて接触体の近接が検知された場合、前記タッチパネル部にて前記接触体の接触が検知されなくなるまで、前記ディスプレイ部における表示のうち、前記近接が検知された領域に表示されたウィンドウのみを切り替えないタッチパネル入力装置。
  4.  情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有するタッチパネル入力装置において、
     前記制御部は、前記タッチパネル部にて接触体の近接が検知された場合、前記タッチパネル部の当該近接が検知された領域に接触した場合の動作をガイド表示することを特徴とするタッチパネル入力装置。
  5.  情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有し、前記制御部が、前記ディスプレイ部における表示を自立的に切り替えるタッチパネル入力装置の制御方法であって、
     前記タッチパネル部にて接触体の近接が検知された場合、当該近接が検知されてから前記タッチパネル部にて前記接触体の接触が検知された後に当該接触が検知されなくなるまで前記ディスプレイ部における表示を切り替えないタッチパネル入力装置の制御方法。
  6.  情報を表示するディスプレイ部と、前記ディスプレイ部上に設けられ、接触体の近接及び接触操作を検知するタッチパネル部と、前記ディスプレイ部における情報の表示を制御するとともに、前記タッチパネル部にて検知された接触操作に応じた入力を受け付ける制御部とを有するタッチパネル入力装置の制御方法であって、
     前記タッチパネル部にて接触体の近接が検知された場合、前記タッチパネル部の当該近接が検知された領域に接触した場合の動作をガイド表示するタッチパネル入力装置の制御方法。
PCT/JP2012/078665 2012-02-20 2012-11-06 タッチパネル入力装置及びその制御方法 WO2013125103A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12869135.9A EP2818984B1 (en) 2012-02-20 2012-11-06 Touch panel input device and control method for same
US14/379,863 US20150338975A1 (en) 2012-02-20 2012-11-06 Touch panel input device and control method of the touch panel input device
JP2014500867A JP6044631B2 (ja) 2012-02-20 2012-11-06 タッチパネル入力装置及びその制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012033968 2012-02-20
JP2012-033968 2012-02-20

Publications (1)

Publication Number Publication Date
WO2013125103A1 true WO2013125103A1 (ja) 2013-08-29

Family

ID=49005304

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/078665 WO2013125103A1 (ja) 2012-02-20 2012-11-06 タッチパネル入力装置及びその制御方法

Country Status (4)

Country Link
US (1) US20150338975A1 (ja)
EP (2) EP3179347A1 (ja)
JP (1) JP6044631B2 (ja)
WO (1) WO2013125103A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119875A (ja) * 2012-12-14 2014-06-30 Nec Saitama Ltd 電子機器、操作入力装置、操作入力処理方法およびプログラム
WO2015083264A1 (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置及び表示制御方法
JP2018206072A (ja) * 2017-06-05 2018-12-27 京セラドキュメントソリューションズ株式会社 表示装置及び表示制御プログラム
JP2022038783A (ja) * 2020-08-27 2022-03-10 Necパーソナルコンピュータ株式会社 情報処理装置及びその通知制御方法並びに通知制御プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10915234B2 (en) * 2016-06-01 2021-02-09 Motorola Mobility Llc Responsive, visual presentation of informational briefs on user requested topics

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280316A (ja) 2006-04-12 2007-10-25 Xanavi Informatics Corp タッチパネル入力装置
JP2009026155A (ja) 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
JP2010152827A (ja) * 2008-12-26 2010-07-08 Brother Ind Ltd 入力装置
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
JP2011175613A (ja) * 2010-01-29 2011-09-08 Brother Industries Ltd 入力装置および入力制御プログラム
JP2011253468A (ja) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
JP2012133523A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0575944A (ja) * 1991-09-10 1993-03-26 Sony Corp テレビジヨン受像機
US6084582A (en) * 1997-07-02 2000-07-04 Microsoft Corporation Method and apparatus for recording a voice narration to accompany a slide show
US20050110756A1 (en) * 2003-11-21 2005-05-26 Hall Bernard J. Device and method for controlling symbols displayed on a display device
KR20070121180A (ko) * 2006-06-21 2007-12-27 삼성전자주식회사 인쇄 문서의 미리보기 방법
KR101452765B1 (ko) * 2008-05-16 2014-10-21 엘지전자 주식회사 근접 터치를 이용한 이동통신 단말기 및 그 정보 입력방법
US8525802B2 (en) * 2008-03-31 2013-09-03 Lg Electronics Inc. Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
US9030418B2 (en) * 2008-06-24 2015-05-12 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
KR101504201B1 (ko) * 2008-07-02 2015-03-19 엘지전자 주식회사 이동단말기 및 그의 키패드 표시방법
JP5471137B2 (ja) * 2009-08-05 2014-04-16 ソニー株式会社 表示装置、表示方法及びプログラム
JP2011134273A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011134272A (ja) * 2009-12-25 2011-07-07 Sony Corp 情報処理装置、情報処理方法およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280316A (ja) 2006-04-12 2007-10-25 Xanavi Informatics Corp タッチパネル入力装置
JP2009026155A (ja) 2007-07-20 2009-02-05 Toshiba Corp 入力表示装置および移動無線端末装置
JP2010152827A (ja) * 2008-12-26 2010-07-08 Brother Ind Ltd 入力装置
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
JP2011175613A (ja) * 2010-01-29 2011-09-08 Brother Industries Ltd 入力装置および入力制御プログラム
JP2011253468A (ja) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
JP2012133523A (ja) * 2010-12-21 2012-07-12 Sony Corp 表示制御装置、表示制御方法、及び、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2818984A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014119875A (ja) * 2012-12-14 2014-06-30 Nec Saitama Ltd 電子機器、操作入力装置、操作入力処理方法およびプログラム
WO2015083264A1 (ja) * 2013-12-05 2015-06-11 三菱電機株式会社 表示制御装置及び表示制御方法
CN105814530A (zh) * 2013-12-05 2016-07-27 三菱电机株式会社 显示控制装置及显示控制方法
JPWO2015083264A1 (ja) * 2013-12-05 2017-03-16 三菱電機株式会社 表示制御装置及び表示制御方法
CN105814530B (zh) * 2013-12-05 2018-11-13 三菱电机株式会社 显示控制装置及显示控制方法
JP2018206072A (ja) * 2017-06-05 2018-12-27 京セラドキュメントソリューションズ株式会社 表示装置及び表示制御プログラム
JP2022038783A (ja) * 2020-08-27 2022-03-10 Necパーソナルコンピュータ株式会社 情報処理装置及びその通知制御方法並びに通知制御プログラム
JP7216053B2 (ja) 2020-08-27 2023-01-31 Necパーソナルコンピュータ株式会社 情報処理装置及びその通知制御方法並びに通知制御プログラム

Also Published As

Publication number Publication date
US20150338975A1 (en) 2015-11-26
EP2818984A1 (en) 2014-12-31
JPWO2013125103A1 (ja) 2015-07-30
JP6044631B2 (ja) 2016-12-14
EP2818984B1 (en) 2017-10-25
EP3179347A1 (en) 2017-06-14
EP2818984A4 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
US10175878B2 (en) Electronic apparatus
US10198163B2 (en) Electronic device and controlling method and program therefor
JP5604004B2 (ja) タッチ入力の移行
WO2012164765A1 (ja) 携帯端末、そのキー操作制御方法およびプログラム
US9875005B2 (en) Method of unlocking electronic device by displaying unlocking objects at randomized/user-defined locations and related computer readable medium thereof
WO2009090704A1 (ja) 携帯端末
JP6044631B2 (ja) タッチパネル入力装置及びその制御方法
JP5846129B2 (ja) 情報処理端末およびその制御方法
US9658714B2 (en) Electronic device, non-transitory storage medium, and control method for electronic device
TWI659353B (zh) 電子設備以及電子設備的工作方法
CN107621899B (zh) 信息处理装置、误操作抑制方法以及计算机可读存储介质
WO2014002633A1 (ja) 処理装置、動作制御方法及びプログラム
EP3211510B1 (en) Portable electronic device and method of providing haptic feedback
JP2012113645A (ja) 電子機器
KR101140508B1 (ko) 터치스크린을 이용한 휴대단말기의 문자입력방법
JP7163755B2 (ja) 表示入力装置
US20150106764A1 (en) Enhanced Input Selection
KR101237127B1 (ko) 슬라이딩을 이용한 터치스크린용 키패드 커서 이동방법
JP2012208637A (ja) 表示装置、表示方法およびプログラム
US10353494B2 (en) Information processing apparatus and method for controlling the same
JP6801590B2 (ja) タッチパネル装置
WO2013111188A1 (ja) 情報処理装置および情報処理方法
WO2014041595A1 (ja) 表示装置、表示方法およびプログラム
JP2018132954A (ja) 情報処理装置、情報処理方法、情報処理プログラム及びコンピュータ読み取り可能な記録媒体
KR20150052905A (ko) 터치스크린을 구비하는 디스플레이 장치 및 그의 스크린 키패드 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12869135

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2012869135

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012869135

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014500867

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14379863

Country of ref document: US