JP2012027940A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2012027940A
JP2012027940A JP2011220863A JP2011220863A JP2012027940A JP 2012027940 A JP2012027940 A JP 2012027940A JP 2011220863 A JP2011220863 A JP 2011220863A JP 2011220863 A JP2011220863 A JP 2011220863A JP 2012027940 A JP2012027940 A JP 2012027940A
Authority
JP
Japan
Prior art keywords
touch panel
contact
display
icon
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011220863A
Other languages
Japanese (ja)
Inventor
Hajime Suzukawa
元 鈴川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011220863A priority Critical patent/JP2012027940A/en
Publication of JP2012027940A publication Critical patent/JP2012027940A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve operability of continuous operations for a plurality of touch panels.SOLUTION: A personal computer comprises two touch panels 15 and 17. A CPU 111 sets a processing mode corresponding to a specific operation when the specific operation to one touch panel 15 is detected by a touch panel driver 202. After the processing mode is set, the CPU 111 performs processing corresponding to the processing mode according to operation for the other touch panel 17, and causes an LCD 16 to display processing result.

Description

本発明は、タッチパネルを有した電子機器に関する。   The present invention relates to an electronic device having a touch panel.

従来、マルチディスプレイシステムに複数のタッチパネルを取り付けた場合にも統合的に操作することが可能なタッチパネル装置が知られている(特許文献1)。   Conventionally, a touch panel device that can be operated in an integrated manner even when a plurality of touch panels is attached to a multi-display system is known (Patent Document 1).

特許文献1に記載されたタッチパネル装置は、タッチパネルの押下位置を示す物理座標をタッチパネルコントローラを介してタッチパネルドライバに伝送し、このタッチパネルドライバによりタッチパネル物理座標をホストコンピュータのオペレーティングシステムに適応した仮想座標に変換する。従来技術によるタッチパネル装置は、座標変換に際して、2枚のタッチパネルに対して仮想座標の記憶領域を割り付けることにより、2枚のタッチパネルを統合的に操作することを可能にしている。   The touch panel device described in Patent Document 1 transmits physical coordinates indicating a pressed position of a touch panel to a touch panel driver via a touch panel controller, and the touch panel driver converts the touch panel physical coordinates to virtual coordinates adapted to the operating system of the host computer. Convert. The touch panel device according to the prior art allocates a virtual coordinate storage area to two touch panels during coordinate conversion, thereby enabling the two touch panels to be operated in an integrated manner.

特開平11−161426号公報JP-A-11-161426

しかしながら、従来技術は、2枚のタッチパネルを統合的に操作することを可能にしているが、個々にタッチパネルを操作する場合を想定しているに過ぎない。   However, although the conventional technology makes it possible to operate two touch panels in an integrated manner, it only assumes a case where the touch panels are individually operated.

一般に、タッチパネルに対する操作には、特定の位置で押下(ポイント)するだけでなく、押下したまま移動させる場合がある。例えば、マウスなどのポインティングデバイスで用いられるドラッグアンドドロップ操作のように、ディスプレイに表示されたオブジェクト(フォルダやファイルを表すアイコン、メニュー、ボタン等)を押下してそのまま移動させてから離すことにより、オブジェクトの移動を指示することができる。   In general, an operation on the touch panel may be not only pressed (pointed) at a specific position but also moved while being pressed. For example, like a drag and drop operation used with a pointing device such as a mouse, by pressing and moving an object (icon representing a folder or file, menu, button, etc.) displayed on the display, and then releasing it, The movement of the object can be instructed.

しかしながら、2つのタッチパネルが独立して構成されている場合、2つのタッチパネルの間を連続して、オブジェクトを押下したまま移動させることができない。このため従来では、例えば一方のタッチパッドへの操作によって、オブジェクトを指定してコマンドメニューを表示させ、このコマンドメニューから移動などのコマンドを指定した後に、他方のタッチパッドに対して移動先となる位置を押下(ポイント)するといった操作が必要となっていた。すなわち、1つのタッチパネルを使用する場合と比較して操作性が悪くなってしまう。   However, when the two touch panels are configured independently, the object cannot be moved while being pressed continuously between the two touch panels. For this reason, conventionally, for example, an operation is performed on one touch pad to display a command menu by designating an object, and a command such as movement is designated from the command menu, and then the destination is moved to the other touch pad. An operation of pressing (pointing) the position is necessary. That is, the operability is deteriorated as compared with the case of using one touch panel.

本発明は上述の事情を考慮してなされたものであり、オブジェクトの位置を移動させる操作の操作性を向上させることが可能な電子機器を提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an electronic apparatus capable of improving the operability of an operation for moving the position of an object.

上述の課題を解決するため、本発明は、ディスプレイと、タッチパネルと、前記タッチパネルに対する、前記ディスプレイに表示されたオブジェクトを指定する特定の操作を検出する検出手段と、前記特定の操作後、前記特定の操作により指定された前記オブジェクトの表示位置を入力する入力手段と、前記入力手段により入力された表示位置に前記オブジェクトを表示する表示手段とを具備する。   In order to solve the above-described problems, the present invention provides a display, a touch panel, a detection unit that detects a specific operation for designating an object displayed on the display, and the specific operation after the specific operation. Input means for inputting the display position of the object specified by the operation, and display means for displaying the object at the display position input by the input means.

本発明によれば、複数のタッチパネルに対して連続する操作の操作性を向上させることができる。   According to the present invention, it is possible to improve the operability of continuous operations on a plurality of touch panels.

本実施形態における電子機器の構成を示す外観図。1 is an external view illustrating a configuration of an electronic device according to an embodiment. 本実施形態におけるパーソナルコンピュータのシステム構成を示すブロック図。The block diagram which shows the system configuration | structure of the personal computer in this embodiment. 本実施形態におけるタッチパネルに関係するソフトウェアの関係の一例を示す図。The figure which shows an example of the relationship of the software relevant to the touchscreen in this embodiment. 本実施形態における第1の方法により処理モードを設定する処理を示すフローチャート。The flowchart which shows the process which sets a process mode with the 1st method in this embodiment. 本実施形態におけるLCDに表示されたフォルダを表すアイコンの一例を示す図。The figure which shows an example of the icon showing the folder displayed on LCD in this embodiment. 本実施形態における第1の方法による操作を説明するための図。The figure for demonstrating operation by the 1st method in this embodiment. 本実施形態における第2の方法により処理モードを設定する処理を示すフローチャート。The flowchart which shows the process which sets a process mode with the 2nd method in this embodiment. 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。The figure which shows the example of a display of the icon in LCD for demonstrating the 2nd method in this embodiment. 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。The figure which shows the example of a display of the icon in LCD for demonstrating the 2nd method in this embodiment. 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。The figure which shows the example of a display of the icon in LCD for demonstrating the 2nd method in this embodiment. 本実施形態における第2の方法を説明するためのLCDにおけるアイコンの表示例を示す図。The figure which shows the example of a display of the icon in LCD for demonstrating the 2nd method in this embodiment. 本実施形態における第3の方法により処理モードを設定する処理を示すフローチャート。10 is a flowchart showing processing for setting a processing mode by a third method according to the embodiment. 本実施形態における第3の方法による操作を説明するための図。The figure for demonstrating operation by the 3rd method in this embodiment. 本実施形態における第4の方法により処理モードを設定する処理を示すフローチャート。The flowchart which shows the process which sets a process mode with the 4th method in this embodiment. 本実施形態における第4の方法を説明するためのLCDにおけるアイコンの表示例を示す図。The figure which shows the example of a display of the icon in LCD for demonstrating the 4th method in this embodiment. 本実施形態における第4の方法を説明するためのLCDにおけるアイコンの表示例を示す図。The figure which shows the example of a display of the icon in LCD for demonstrating the 4th method in this embodiment. 本実施形態における第5の方法により処理モードを設定する処理を示すフローチャート。The flowchart which shows the process which sets a processing mode with the 5th method in this embodiment. 本実施形態における圧力センサが装着されたタッチパネルの側面図。The side view of the touch panel with which the pressure sensor in this embodiment was mounted | worn.

以下、図面を参照して、本発明の実施形態を説明する。
図1は、本実施形態における電子機器の構成を示す外観図である。この電子機器は、例えば、ノートブック型の携帯型パーソナルコンピュータ10として実現されている。本実施形態におけるパーソナルコンピュータ10は、外部電源(AC電源)による駆動だけでなく、バッテリ駆動が可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an external view illustrating a configuration of an electronic device according to the present embodiment. This electronic device is realized as, for example, a notebook portable personal computer 10. The personal computer 10 in this embodiment can be driven not only by an external power source (AC power source) but also by a battery.

図1は、パーソナルコンピュータ10の開状態における斜視図である。パーソナルコンピュータ10は、第1のディスプレイユニット11と、第2のディスプレイユニット12とがヒンジ機構により連結されて構成されている。   FIG. 1 is a perspective view of the personal computer 10 in an open state. The personal computer 10 is configured by connecting a first display unit 11 and a second display unit 12 by a hinge mechanism.

第1のディスプレイユニット11には、LCD(Liquid Crystal Display)14から構成される表示装置が組み込まれている。LCD14の表示画面は、第1のディスプレイユニット11のほぼ中央に位置されている。また、LCD14の表示画面には、透過型のタッチパネル15が重ね合わされている。このため、LCD14において表示された各種オブジェクト(フォルダやファイルを表すアイコン、メニュー、ボタン等)が、タッチパネル15を介して視認することができる。また、LCD14において表示されたオブジェクトを指先やペンなどを用いて直接的に指示(ポイント)することにより、オブジェクトの位置に該当する座標データをタッチパネル15から入力することができる。   The first display unit 11 incorporates a display device composed of an LCD (Liquid Crystal Display) 14. The display screen of the LCD 14 is located approximately at the center of the first display unit 11. A transparent touch panel 15 is superimposed on the display screen of the LCD 14. For this reason, various objects (icons representing folders and files, menus, buttons, etc.) displayed on the LCD 14 can be viewed via the touch panel 15. In addition, by directly pointing (pointing) an object displayed on the LCD 14 using a fingertip or a pen, coordinate data corresponding to the position of the object can be input from the touch panel 15.

第2のディスプレイユニット12は、第1のディスプレイユニット11と同様に構成されている。すなわち、第2のディスプレイユニット12には、LCD16が組み込まれている。LCD16の表示画面には、透過型のタッチパネル17が重ね合わされている。なお、タッチパネル15,17には、それぞれ圧力センサ15a,17aを装着することができる(図18参照)。   The second display unit 12 is configured in the same manner as the first display unit 11. That is, the LCD 16 is incorporated in the second display unit 12. A transmissive touch panel 17 is superimposed on the display screen of the LCD 16. Note that pressure sensors 15a and 17a can be mounted on the touch panels 15 and 17, respectively (see FIG. 18).

第2のディスプレイユニット12は、第1のディスプレイユニット11に対して、ヒンジ機構によって開放位置と閉塞位置との間を回動自在となっている。ヒンジ機構は、例えば第1のディスプレイユニット11と第2のディスプレイユニット12との角度を180°として平面状にすることができる。これにより、第1のディスプレイユニット11と第2のディスプレイユニット12とをテーブル等に載置して、1台のタッチパネルと同様にして使用することができる。   The second display unit 12 is rotatable with respect to the first display unit 11 between an open position and a closed position by a hinge mechanism. For example, the hinge mechanism can be formed in a planar shape with the angle between the first display unit 11 and the second display unit 12 being 180 °. Thereby, the 1st display unit 11 and the 2nd display unit 12 can be mounted in a table etc., and can be used similarly to one touch panel.

第1のディスプレイユニット11は、コンピュータ本体であり、筐体内に主要なユニットが搭載されている。また、第1のディスプレイユニット11の側面部には、パワーオン/オフするためのパワーボタンスイッチ18や各種端子が設けられている。また、第1のディスプレイユニット11の底部には、バッテリ142(図2に示す)が脱着可能となっている。第1のディスプレイユニット11には、電源コネクタ(図示せず)が設けられており、ACアダプタ143(図2に示す)を接続することができる。   The first display unit 11 is a computer main body, and main units are mounted in a housing. Further, a power button switch 18 for turning on / off power and various terminals are provided on the side surface of the first display unit 11. A battery 142 (shown in FIG. 2) is detachable from the bottom of the first display unit 11. The first display unit 11 is provided with a power connector (not shown) and can be connected to an AC adapter 143 (shown in FIG. 2).

図2は、本実施形態におけるパーソナルコンピュータ10のシステム構成を示すブロック図である。
パーソナルコンピュータ10は、図2に示すように、CPU111、ノースブリッジ114、主メモリ115、グラフィクスプロセッシングユニット(GPU)116、サウスブリッジ117、BIOS−ROM120、ハードディスクドライブ(HDD)121、光ディスクドライブ(ODD)122、エンベデッドコントローラIC(EC)140、電源回路141等を備えている。
FIG. 2 is a block diagram showing a system configuration of the personal computer 10 in the present embodiment.
As shown in FIG. 2, the personal computer 10 includes a CPU 111, a north bridge 114, a main memory 115, a graphics processing unit (GPU) 116, a south bridge 117, a BIOS-ROM 120, a hard disk drive (HDD) 121, and an optical disk drive (ODD). 122, an embedded controller IC (EC) 140, a power supply circuit 141, and the like.

CPU111は、パーソナルコンピュータ10の動作を制御するために設けられたプロセッサであり、HDD121から主メモリ115にロードされる、オペレーティングシステム(OS)200および各種アプリケーションプログラム201等を実行する。また、CPU111は、タッチパネル15,17を制御するためのタッチパネルドライバ202を実行する。   The CPU 111 is a processor provided to control the operation of the personal computer 10 and executes an operating system (OS) 200 and various application programs 201 that are loaded from the HDD 121 to the main memory 115. Further, the CPU 111 executes a touch panel driver 202 for controlling the touch panels 15 and 17.

さらに、CPU111は、BIOS−ROM120に格納されたシステムBIOS(Basic Input Output System)も実行する。システムBIOSはハードウェア制御のためのプログラムである。   Further, the CPU 111 also executes a system BIOS (Basic Input Output System) stored in the BIOS-ROM 120. The system BIOS is a program for hardware control.

ノースブリッジ114はCPU111のローカルバスとサウスブリッジ117との間を接続するブリッジデバイスである。ノースブリッジ114には、主メモリ115をアクセス制御するメモリコントローラも内蔵されている。   The north bridge 114 is a bridge device that connects the local bus of the CPU 111 and the south bridge 117. The north bridge 114 also includes a memory controller that controls access to the main memory 115.

GPU116は、パーソナルコンピュータ10のディスプレイモニタとして使用されるLCD14,15を制御する表示コントローラである。GPU116は、ノースブリッジ114を介してCPU111から送信される描画要求に基づいてビデオメモリ(VRAM)116Aにフレーム群を描画するための表示処理(グラフィクス演算処理)を実行する。   The GPU 116 is a display controller that controls the LCDs 14 and 15 used as a display monitor of the personal computer 10. The GPU 116 executes display processing (graphics calculation processing) for drawing a frame group in the video memory (VRAM) 116A based on a drawing request transmitted from the CPU 111 via the north bridge 114.

サウスブリッジ117は、HDD121および光ディスクドライブ(ODD)122を制御するためのIDE(Integrated Drive Electronics)コントローラやSerial ATAコントローラを内蔵している。   The south bridge 117 includes an IDE (Integrated Drive Electronics) controller and a Serial ATA controller for controlling the HDD 121 and the optical disk drive (ODD) 122.

エンベデッドコントローラIC(EC)140は、電力管理およびタッチパネル15,17を制御するためのコントローラとが集積された1チップマイクロコンピュータである。EC140は、ユーザによるパワーボタンスイッチ18の操作に応じてパーソナルコンピュータ10をパワーオン/パワーオフする機能を有している。パーソナルコンピュータ10のパワーオン/パワーオフの制御は、EC140と電源回路141との共同動作によって実行される。   The embedded controller IC (EC) 140 is a one-chip microcomputer in which a power management and a controller for controlling the touch panels 15 and 17 are integrated. The EC 140 has a function of powering on / off the personal computer 10 in accordance with the operation of the power button switch 18 by the user. The power-on / power-off control of the personal computer 10 is executed by the joint operation of the EC 140 and the power supply circuit 141.

電源回路141は、コンピュータ本体11に装着されたバッテリ142、またはACアダプタ143を介して接続された外部電源から電源供給を受けて、各コンポーネントへの動作電源を生成して供給する。電源回路141には、電源マイコン144が設けられている。電源マイコン144は、各コンポーネントとバッテリ142に対する電源供給(充放電)や、バッテリ142の充電状態を監視する。電源回路141は、バッテリ142とACアダプタ143とが接続されている場合、外部電源によりバッテリ142を充電する。   The power supply circuit 141 receives power supply from the battery 142 attached to the computer main body 11 or an external power supply connected via the AC adapter 143, and generates and supplies operation power to each component. The power supply circuit 141 is provided with a power supply microcomputer 144. The power supply microcomputer 144 monitors power supply (charging / discharging) to each component and the battery 142 and a charging state of the battery 142. When the battery 142 and the AC adapter 143 are connected, the power supply circuit 141 charges the battery 142 with an external power supply.

図3は、本実施形態におけるタッチパネル15,17に関係するソフトウェアの関係の一例を示す図である。図3では、タッチパネルドライバ202によって、ユーザのタッチパネル15,17に対する操作を制御する例を示している。なお、OS200あるいはアプリケーションプログラム201によって、同様の制御を実行するように構成しても良い。   FIG. 3 is a diagram illustrating an example of a software relationship related to the touch panels 15 and 17 in the present embodiment. FIG. 3 shows an example in which a user's operation on the touch panels 15 and 17 is controlled by the touch panel driver 202. Note that the same control may be executed by the OS 200 or the application program 201.

タッチパネル15,17は、タッチパネルドライバ202により制御される。タッチパネルドライバ202には、接触検出部203、操作検出部204、及びモード設定部205が設けられている。   The touch panels 15 and 17 are controlled by the touch panel driver 202. The touch panel driver 202 is provided with a contact detection unit 203, an operation detection unit 204, and a mode setting unit 205.

接触検出部203は、ユーザの操作によるタッチパネル15,17に対する接触を検出して、接触位置の座標データを検出する。接触検出部203は、タッチパネル15,17に対して同時に複数の位置において接触されている場合に、この複数の位置の座標データを検出することができる。   The contact detection unit 203 detects contact with the touch panels 15 and 17 by a user operation, and detects coordinate data of the contact position. The contact detection unit 203 can detect the coordinate data of the plurality of positions when the touch panel 15 and 17 are simultaneously touched at the plurality of positions.

操作検出部204は、接触検出部203により検出された接触位置のデータをもとに、処理モードを指定する特定の操作を検出する。処理モードとしては、例えばLCD14,16において表示されたオブジェクトに対する移動やコピーなどがある。操作検出部204は、接触検出部203により接触が検出された位置に、移動やコピーの対象とするオブジェクト(フォルダやアイコン等)が存在し、特定の操作があったことが判定された場合に、同オブジェクトに対する処理の処理モードが指定されたものと判定する。なお、操作検出部204は、接触検出部203により接触が検出された位置にオブジェクトが存在するかを、OS200に問い合わせて判定することができるものとする。   The operation detection unit 204 detects a specific operation for designating a processing mode based on the data on the contact position detected by the contact detection unit 203. The processing mode includes, for example, movement or copying for the object displayed on the LCDs 14 and 16. The operation detection unit 204 determines that an object (folder, icon, etc.) to be moved or copied exists at a position where contact is detected by the contact detection unit 203 and that a specific operation has been performed. , It is determined that the processing mode of the processing for the object is designated. Note that the operation detection unit 204 can determine whether an object exists at a position where contact is detected by the contact detection unit 203 by inquiring the OS 200.

操作検出部204には、操作判定部204a、時間判定部204b、接触面積判定部204c、移動領域判定部204d、圧力判定部204eが含まれる。   The operation detection unit 204 includes an operation determination unit 204a, a time determination unit 204b, a contact area determination unit 204c, a moving region determination unit 204d, and a pressure determination unit 204e.

操作判定部204aは、タッチパネル15,17に接触されている第1の位置と第2の位置とを、LCD14,16に表示されたオブジェクトに対応する位置に移動させ、第1の位置と第2の位置の移動先における距離を特定範囲内に含まれるようにする操作を判定する。例えば、表示されたオブジェクトに対応する位置において、オブジェクトを摘むような操作をすることで、処理モードを指定することができる。   The operation determination unit 204a moves the first position and the second position that are in contact with the touch panels 15 and 17 to positions corresponding to the objects displayed on the LCDs 14 and 16, and the first position and the second position. The operation of making the distance at the destination of the position of the position within the specific range is determined. For example, the processing mode can be designated by performing an operation of picking up an object at a position corresponding to the displayed object.

時間判定部204bは、タッチパネル15,17に接触されている位置がLCD14,16に表示されたオブジェクトに対応する位置であり、接触時間が一定時間以上である操作を判定する。   The time determination unit 204b determines an operation in which the position in contact with the touch panels 15 and 17 corresponds to the object displayed on the LCDs 14 and 16 and the contact time is equal to or longer than a certain time.

接触面積判定部204cは、タッチパネル15,17に接触されている位置がLCD14,16に表示されたオブジェクトに対応する位置であり、接触面積を規定値以上とする操作、あるいは接触面積の増加率が規定値以上する操作を判定する。   The contact area determination unit 204c is a position corresponding to the object displayed on the LCDs 14 and 16 where the position touched by the touch panels 15 and 17 is an operation for increasing the contact area to a predetermined value or a rate of increase of the contact area. The operation that exceeds the specified value is determined.

移動領域判定部204dは、タッチパネル15,17に対して、LCD14,16に表示されたオブジェクトに対応する第1の位置が接触され、接触された状態のまま第1の位置を同じタッチパネルの予め設定された特定範囲内の第2の位置に移動させる操作、いわゆるドラッグ操作によりオブジェクトを特定範囲内にまで移動させる操作を判定する。   The movement area determination unit 204d touches the touch panels 15 and 17 with the first position corresponding to the object displayed on the LCDs 14 and 16, and sets the first position in the same touch panel in the touched state. The operation for moving the object to the specified range is determined by an operation for moving the object to the second position within the specified range, that is, a so-called drag operation.

圧力判定部204eは、タッチパネル15,17のそれぞれに装着された圧力センサ15a,17aにより検出された圧力値を読み取り、タッチパネル15,17により検出される接触の圧力が一定値以上である操作を判定する。   The pressure determination unit 204e reads the pressure values detected by the pressure sensors 15a and 17a attached to the touch panels 15 and 17, respectively, and determines an operation in which the contact pressure detected by the touch panels 15 and 17 is equal to or greater than a certain value. To do.

モード設定部205は、操作検出部204によって検出された操作に応じて処理モードを設定する。例えば、操作検出部204によって検出された操作がオブジェクトの移動のための操作である場合には移動モードを設定する。モード設定部205は、処理モードが設定された後に検出されるタッチパネル15,17に対する操作に応じて、OS200(あるいはアプリケーションプログラム201)に対して処理モード応じた処理の実行を要求する。   The mode setting unit 205 sets a processing mode according to the operation detected by the operation detection unit 204. For example, when the operation detected by the operation detection unit 204 is an operation for moving an object, the movement mode is set. The mode setting unit 205 requests the OS 200 (or the application program 201) to execute processing corresponding to the processing mode in response to an operation on the touch panels 15 and 17 detected after the processing mode is set.

OS200及びアプリケーションプログラム201は、タッチパネルドライバ202によって検出されたタッチパネル15,17に対する操作に応じた処理を実行する。OS200は、LCD14,16において表示されているオブジェクト(フォルダやファイルを表すアイコン、メニュー、ボタン、アプリケーション毎の表示ウィンドウ等)の表示位置を管理しており、タッチパネルドライバ202において検出されたタッチパネル15,17に対して接触された位置にオブジェクトが存在しているかを、タッチパネルドライバ202からの問い合わせに応じて通知することができる。   The OS 200 and the application program 201 execute processing corresponding to the operation on the touch panels 15 and 17 detected by the touch panel driver 202. The OS 200 manages the display position of the objects (icons representing folders and files, menus, buttons, display windows for each application, etc.) displayed on the LCDs 14, 16, and the touch panel 15, detected by the touch panel driver 202. In response to an inquiry from the touch panel driver 202, it is possible to notify whether an object exists at a position touched with respect to 17.

また、OS200及びアプリケーションプログラム201は、タッチパネルドライバ202(接触検出部203)によって検出された、タッチパネル15,17に対して同時に接触されている複数の位置の座標データをもとにした処理を実行することができる。   In addition, the OS 200 and the application program 201 execute processing based on coordinate data of a plurality of positions that are detected by the touch panel driver 202 (contact detection unit 203) and are simultaneously in contact with the touch panels 15 and 17. be able to.

なお、図3では、タッチパネル15,17に対するユーザの操作をタッチパネルドライバ202により判定して、処理モードを設定しているが、OS200あるいはアプリケーションプログラム201によりユーザの操作を判定し、この判定された操作に応じた処理モードを設定するようにしても良い。この場合、タッチパネルドライバ202は、タッチパネル15,17に対するユーザの操作によって検出された座標データをOS200に通知する処理を実行する。   In FIG. 3, the user's operation on the touch panels 15 and 17 is determined by the touch panel driver 202 and the processing mode is set. However, the user's operation is determined by the OS 200 or the application program 201, and the determined operation is determined. It is also possible to set a processing mode according to the above. In this case, the touch panel driver 202 executes processing for notifying the OS 200 of coordinate data detected by a user operation on the touch panels 15 and 17.

次に、本実施形態におけるパーソナルコンピュータ10の動作について説明する。
パーソナルコンピュータ10は、OS200の制御により、例えば2つのLCD14,16において、1画面を表示することもできるし、それぞれに独立した画面(例えばアプリケーション毎の画面)を表示することもできる。以下の説明では、LCD14,16において1画面を表示し、一方のLCD14に表示されたフォルダ(あるいはファイル)を、タッチパネル15,17に対する操作によって他方のLCD16に移動させる場合を例にする。
Next, the operation of the personal computer 10 in this embodiment will be described.
The personal computer 10 can display one screen on the two LCDs 14 and 16, for example, under the control of the OS 200, and can display independent screens (for example, screens for each application). In the following description, an example is shown in which one screen is displayed on the LCDs 14 and 16 and a folder (or file) displayed on one LCD 14 is moved to the other LCD 16 by an operation on the touch panels 15 and 17.

本実施形態におけるパーソナルコンピュータ10では、次に説明する第1〜第5の方法により処理モード(移動モード)を設定して、フォルダ(ファイル)を移動する処理を実行することができる。ただし、本実施形態におけるパーソナルコンピュータ10は、第1〜第5の何れか1つの方法により処理モードを設定できるようにしても良いし、任意の組合せによる2以上の方法により処理モードを設定できるようにしても良い。   In the personal computer 10 according to the present embodiment, the processing mode (movement mode) can be set by the first to fifth methods described below, and processing for moving a folder (file) can be executed. However, the personal computer 10 in the present embodiment may be able to set the processing mode by any one of the first to fifth methods, or can set the processing mode by two or more methods in any combination. Anyway.

(1)オブジェクトをつまむ操作により処理モードを設定する方法(第1の方法)。
図4は、第1の方法により処理モードを設定する処理を示すフローチャートである。図5は、LCD14に表示されたフォルダを表すアイコンAの一例を示している。
(1) A method of setting a processing mode by an operation of pinching an object (first method).
FIG. 4 is a flowchart showing processing for setting a processing mode by the first method. FIG. 5 shows an example of an icon A representing a folder displayed on the LCD 14.

ユーザは、例えばLCD14に表示されたアイコンAの位置に合わせて、アイコンAを摘むために親指と人差し指によって、タッチパネル15に接触したものとする。   For example, it is assumed that the user touches the touch panel 15 with a thumb and an index finger in order to pick the icon A in accordance with the position of the icon A displayed on the LCD 14.

この場合、接触検出部203は、タッチパネル15に対する2ヶ所における接触を検出する(ステップA1、Yes)。操作判定部204aは、接触検出部203によって検出されたタッチパネル15に対する2ヶ所の接触位置が、予め決められた一定値以上、離れているかを判別する。なお、一定値は、例えば処理対象とするオブジェクト(アイコン等)の最大幅より大きい値が設定されているものとする。また、2ヶ所の接触位置の上限とする値が設定されていても良い。例えば、ユーザの指では操作することができない値を設定しておき、この値を超える距離を越える2ヶ所で接触が検出された場合には、この接触を無効とする。   In this case, the contact detection unit 203 detects contact at two places on the touch panel 15 (step A1, Yes). The operation determination unit 204a determines whether the two contact positions on the touch panel 15 detected by the contact detection unit 203 are separated by a predetermined value or more. It is assumed that the constant value is set to a value larger than the maximum width of the object (icon or the like) to be processed, for example. Moreover, the value used as the upper limit of two contact positions may be set. For example, a value that cannot be operated with the user's finger is set, and when contact is detected at two locations exceeding the distance exceeding this value, this contact is invalidated.

操作判定部204aは、離れた2ヶ所での接触が検出されると(ステップA2、Yes)、この2ヶ所の接触位置が特定範囲内に移動されるかを監視する。   When contact is detected at two distant locations (step A2, Yes), the operation determining unit 204a monitors whether the contact positions at the two locations are moved within a specific range.

図5には、アイコンAに対して入力された2ヶ所の接触位置(ポイントP1a,P2a)を示している。ポイントP1aは、例えば親指の接触位置に対応し、ポイントP2aが人差し指の接触位置に対応する。   FIG. 5 shows two contact positions (points P1a and P2a) input to the icon A. For example, the point P1a corresponds to the contact position of the thumb, and the point P2a corresponds to the contact position of the index finger.

ここで、ユーザが、親指と人差し指をタッチパネル15に接触させたまま摘む操作、すなわち親指と人差し指とを近づける操作をすると、図6に示すように、接触検出部203により検出されるポイントP1aがポイントP1bに移動され、ポイントP2aがポイントP2bに移動される。   Here, when the user performs an operation of picking the thumb and index finger while touching the touch panel 15, that is, an operation of bringing the thumb and index finger close to each other, the point P1a detected by the contact detection unit 203 is a point as shown in FIG. The point P2a is moved to the point P2b.

操作判定部204aは、ポイントP1bとポイントP2bの2ヶ所の接触位置が特定範囲内にあるかを判別する。ここでは、移動先のポイントP1bとポイントP2bが予め決められた一定値Hの距離内にまで移動され、かつポイントP1bとポイントP2bの位置に、移動処理の対象とするオブジェクトが存在しているかを判別する。操作判定部204aは、移動先のポイントP1bあるいはポイントP2bの位置にオブジェクトが存在するかをOS200に問い合わせる。なお、OS200は、ポイントP1bあるいはポイントP2bがアイコンAの表示位置と一致しなくても、アイコンAの周辺であれば存在するものと判別する。   The operation determination unit 204a determines whether the two contact positions of the point P1b and the point P2b are within a specific range. Here, it is determined whether or not the destination point P1b and the point P2b are moved within a predetermined distance H, and an object to be moved exists at the position of the point P1b and the point P2b. Determine. The operation determination unit 204a inquires of the OS 200 whether an object exists at the position of the destination point P1b or point P2b. Note that the OS 200 determines that the point P1b or the point P2b exists around the icon A even if it does not match the display position of the icon A.

ここで、オブジェクト(ここではアイコンA)が存在していることがOS200により通知されると(ステップA3、Yes)、モード設定部205は、アイコンAに対する移動モードを設定する(ステップA4)。   When the OS 200 notifies that an object (here icon A) exists (step A3, Yes), the mode setting unit 205 sets a movement mode for the icon A (step A4).

OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたアイコンAの表示形態(例えば、表示色)を変更する。   The OS 200 changes the display form (for example, display color) of the icon A displayed on the LCD 14 so that the user can recognize that the movement mode has been set by the mode setting unit 205.

移動モードが設定された後、タッチパネル15,17に対する接触が接触検出部203により検出されると(ステップA5、Yes)、OS200は、接触検出部203により検出された位置に、移動モードが設定されたアイコンAの表示位置を移動させる処理を実行する(ステップA6)。例えば、アイコンAに対して移動モードが設定された後、タッチパネル17に対して指が接触されると、タッチパネル17の接触位置に対応するLCD16の表示位置にアイコンAを移動させる。   After the movement mode is set, when contact with the touch panels 15 and 17 is detected by the contact detection unit 203 (step A5, Yes), the OS 200 sets the movement mode at the position detected by the contact detection unit 203. A process of moving the display position of the icon A is executed (step A6). For example, after the movement mode is set for the icon A, when the finger touches the touch panel 17, the icon A is moved to the display position of the LCD 16 corresponding to the touch position of the touch panel 17.

なお、モード設定部205は、移動モードを設定した後、移動先を示す位置の指定がない場合(ステップA5、No)、移動モードを解除するものとする。例えば、移動モードを設定した後、予め決められた一定時間以上(例えば5秒以上)、タッチパネル15,17に対する接触がない場合には、移動モードを解除する。   Note that after setting the movement mode, the mode setting unit 205 cancels the movement mode if there is no designation of a position indicating the movement destination (step A5, No). For example, after the movement mode is set, the movement mode is canceled when there is no contact with the touch panels 15 and 17 for a predetermined time or longer (for example, 5 seconds or more).

このようにして、第1の方法では、LCD14に表示されたアイコンAの表示位置に合わせて、タッチパネル15に対して2ヶ所の位置を指定する摘む操作をすることで移動モードを設定することができる。そして、移動モードを設定した後は、移動先とする位置をタッチパネル17に対して接触するだけで指定できる。つまり、2つのタッチパネル15,17に対して、移動対象とするオブジェクト(アイコンA)の指定と、移動先の指定とを連続して操作する必要がある場合であっても、コマンドメニューを表示させてコマンドを指定するといった操作をする必要がないので、良好な操作性を提供することができる。   In this manner, in the first method, the movement mode can be set by performing an operation of specifying two positions on the touch panel 15 in accordance with the display position of the icon A displayed on the LCD 14. it can. After setting the movement mode, it is possible to specify the position to be moved simply by touching the touch panel 17. That is, the command menu is displayed on the two touch panels 15 and 17 even when it is necessary to continuously operate the designation of the object to be moved (icon A) and the designation of the movement destination. Therefore, it is not necessary to perform an operation such as designating a command, so that it is possible to provide good operability.

なお、移動モードが設定されたアイコンAの移動先として、タッチパネル17に対してだけでなく、当然ながらタッチパネル15に対して行うことも可能である。   It should be noted that not only the touch panel 17 but also the touch panel 15 can be used as the destination of the icon A for which the movement mode is set.

(2)オブジェクトを一定時間継続して選択する操作により処理モードを設定する方法(第2の方法)。
図7は、第2の方法により処理モードを設定する処理を示すフローチャートである。図8〜図11は、第2の方法を説明するためのLCD14,16におけるアイコンの表示例を示している。
(2) A method of setting a processing mode by an operation of continuously selecting an object for a certain time (second method)
FIG. 7 is a flowchart showing processing for setting a processing mode by the second method. 8 to 11 show icon display examples on the LCDs 14 and 16 for explaining the second method.

ユーザは、例えばLCD14に表示されたアイコンBの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップB1、Yes)。   For example, it is assumed that the user touches the touch panel 15 in accordance with the position of the icon B displayed on the LCD 14. The contact detection unit 203 detects contact with the touch panel 15 (step B1, Yes).

時間判定部204bは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクト(ここではアイコンB)が存在していることがOS200により通知されると、時間判定部204bは、ユーザがアイコンBを継続して選択している時間を測定するために時間カウントを開始する(ステップB2)。   The time determination unit 204b inquires of the OS 200 whether an object exists at the position detected by the contact detection unit 203. Here, when the OS 200 notifies that the object (here, the icon B) exists, the time determination unit 204b counts the time to measure the time during which the user continues to select the icon B. Is started (step B2).

時間判定部204bは、タッチパネル15のアイコンBに対応する位置において継続して接触されている場合(ステップB3、Yes)、予め決められた一定時間(例えば2秒)が経過したかを判別する。ここで、一定時間が経過したと判別された場合、モード設定部205は、アイコンBに対する移動モードを設定する(ステップB5)。   The time determination unit 204b determines whether a predetermined time (for example, 2 seconds) has elapsed when the contact is continuously made at the position corresponding to the icon B on the touch panel 15 (Yes in Step B3). Here, when it is determined that the predetermined time has elapsed, the mode setting unit 205 sets the movement mode for the icon B (step B5).

OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたアイコンBの表示形態(例えば、表示色)を変更する。   The OS 200 changes the display form (for example, display color) of the icon B displayed on the LCD 14 so that the user can recognize that the movement mode has been set by the mode setting unit 205.

例えば、図8に示すように、アイコンBに対して、一定時間以上、指を接触させておくことにより、アイコンBに対して移動モードが設定される。図9は、移動モードに移行された状態を示している。図9に示すように、移動モードが設定されることにより、移動先とする位置を任意に指定することができる。   For example, as illustrated in FIG. 8, the movement mode is set for the icon B by keeping the finger in contact with the icon B for a certain time or more. FIG. 9 shows a state that has been shifted to the movement mode. As shown in FIG. 9, by setting the movement mode, it is possible to arbitrarily specify a position as a movement destination.

以下、移動モードが設定された後の処理(ステップB5〜B7)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。   Hereinafter, the processing after the movement mode is set (steps B5 to B7) will not be described in detail because the same processing as the steps A4 to A6 described in the first method is executed.

図10は、アイコンBの移動先として、タッチパネル17に対して接触された状態を示している。OS200は、この接触位置に対応するLCD16の表示位置に、図11に示すように、移動後のアイコンCを表示させる。   FIG. 10 shows a state where the touch panel 17 is touched as the destination of the icon B. The OS 200 displays the moved icon C at the display position of the LCD 16 corresponding to the contact position, as shown in FIG.

このようにして、第2の方法では、処理対象とするアイコンBに対して、一定時間以上、選択し続ける(タッチパネル15に対して接触し続ける)だけで移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。   In this way, in the second method, the movement mode can be set only by continuing to select (continue to touch the touch panel 15) the icon B to be processed for a certain time or longer. Hereinafter, it is possible to provide the same operability as the first method.

(3)オブジェクトを選択する操作によるタッチパネルへの接触面積に基づいて処理モードを設定する方法(第3の方法)。
図12は、第3の方法により処理モードを設定する処理を示すフローチャートである。
(3) A method of setting a processing mode based on an area of contact with the touch panel by an operation of selecting an object (third method).
FIG. 12 is a flowchart showing processing for setting a processing mode by the third method.

ユーザは、例えばLCD14に表示されたアイコンの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップC1、Yes)。   For example, it is assumed that the user touches the touch panel 15 in accordance with the position of the icon displayed on the LCD 14. The contact detection unit 203 detects contact with the touch panel 15 (step C1, Yes).

接触面積判定部204cは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクトが存在していることがOS200により通知されると、接触面積判定部204cは、例えば一定時間毎(例えば0.5秒毎)にタッチパネル15に接触されている面積を検出する(ステップC2)。   The contact area determination unit 204c inquires of the OS 200 whether an object exists at the position detected by the contact detection unit 203. Here, when the OS 200 notifies that the object exists, the contact area determination unit 204c detects the area that is in contact with the touch panel 15 at regular intervals (for example, every 0.5 seconds), for example (see FIG. Step C2).

接触面積判定部204cは、ここで検出された接触面積を記録しておく(ステップC3)。そして、接触面積判定部204cは、今回検出された接触面積と、前回の検出により記録された接触面積(初期値は0)とを比較して、接触面積の増加率を算出する(ステップC4)。   The contact area determination unit 204c records the contact area detected here (step C3). Then, the contact area determination unit 204c compares the contact area detected this time with the contact area recorded by the previous detection (initial value is 0), and calculates the increase rate of the contact area (step C4). .

増加率が予め決められた規定値以上でない場合(ステップC5、No)、接触面積判定部204cは、接触検出部203によりタッチパネル15への接触が検出されていれば(ステップC6、Yes)、前述と同様にして、一定時間毎に接触面積の検出と増加率の算出を繰り返して実行する(ステップC2〜C6)。   When the increase rate is not equal to or greater than a predetermined value determined in advance (step C5, No), the contact area determination unit 204c determines that the contact detection unit 203 detects contact with the touch panel 15 (step C6, Yes). In the same manner as described above, the detection of the contact area and the calculation of the increase rate are repeated at regular time intervals (steps C2 to C6).

例えば、LCD14に表示されたアイコンを選択するために指先によってタッチパネル15に接触した場合、図13(A)に示すように、接触面積Aは狭くなる。その後、指の腹をタッチパネル15に押しつけることにより、図13(B)に示すように、接触面積Bは広くなる。   For example, when the touch panel 15 is touched by a fingertip to select an icon displayed on the LCD 14, the contact area A is narrowed as shown in FIG. Thereafter, by pressing the belly of the finger against the touch panel 15, the contact area B is widened as shown in FIG.

モード設定部205は、接触面積判定部204cによって、タッチパネル15に対する接触面積の増加率が規定値以上となったことが判別されると、接触位置に対応するオブジェクト(アイコン)に対する移動モードを設定する(ステップC7)。   When the contact area determination unit 204c determines that the increase rate of the contact area with respect to the touch panel 15 is equal to or greater than a specified value, the mode setting unit 205 sets a movement mode for the object (icon) corresponding to the contact position. (Step C7).

OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたオブジェクト(アイコン)の表示形態(例えば、表示色)を変更する。   The OS 200 changes the display form (for example, display color) of the object (icon) displayed on the LCD 14 so that the user can recognize that the movement mode has been set by the mode setting unit 205.

以下、移動モードが設定された後の処理(ステップC7〜C9)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。   Hereinafter, the processing after the movement mode is set (steps C7 to C9) will not be described in detail because the same processing as the steps A4 to A6 described in the first method is executed.

このようにして、第3の方法では、処理対象とするオブジェクト(アイコン等)に対して、最初の接触時の面積より広い面積で接触するように接触状態を変化させるだけで移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。   In this way, in the third method, the movement mode is set only by changing the contact state so that the object (icon or the like) to be processed is in contact with an area larger than the area at the time of the first contact. be able to. Hereinafter, it is possible to provide the same operability as the first method.

なお、前述した説明では、タッチパネル15に対する接触面積の増加率が規定値以上である場合に移動モードを設定しているが、単純に、タッチパネル15に対する接触面積が規定値以上である場合に、移動モードを設定するようにしても良い。   In the above description, the movement mode is set when the increase rate of the contact area with respect to the touch panel 15 is equal to or greater than the specified value. However, when the contact area with respect to the touch panel 15 is equal to or greater than the specified value, the movement mode is simply set. A mode may be set.

(4)オブジェクトを特定の領域(範囲)に移動させる操作により処理モードを設定する方法(第4の方法)。
図14は、第4の方法により処理モードを設定する処理を示すフローチャートである。図15及び図16は、第4の方法を説明するためのLCD14におけるアイコンの表示例を示している。
(4) A method of setting a processing mode by an operation of moving an object to a specific area (range) (fourth method).
FIG. 14 is a flowchart showing processing for setting a processing mode by the fourth method. FIG. 15 and FIG. 16 show icon display examples on the LCD 14 for explaining the fourth method.

ユーザは、例えばLCD14に表示されたアイコンDの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップD1、Yes)。   For example, it is assumed that the user touches the touch panel 15 in accordance with the position of the icon D displayed on the LCD 14. The contact detection unit 203 detects contact with the touch panel 15 (step D1, Yes).

移動領域判定部204dは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクト(アイコンD)が存在していることがOS200により通知されると、移動領域判定部204dは、このアイコンDを選択するために接触された位置が、タッチパネル15に接触された状態のまま移動され、タッチパネル15に対して設定されている特定の領域内にまで移動されているかを判定する(ステップD2〜D4)。すなわち、ドラッグ操作によって、アイコンDを選択している位置が特定の領域内にまで移動されているかを判定する。   The movement area determination unit 204d inquires of the OS 200 whether an object exists at the position detected by the contact detection unit 203. Here, when the OS 200 notifies that the object (icon D) exists, the moving area determination unit 204d is in a state where the position touched to select the icon D is touched on the touch panel 15 It is determined whether it has been moved to a specific area set for the touch panel 15 (steps D2 to D4). That is, it is determined whether the position where the icon D is selected has been moved to a specific area by the drag operation.

アイコンDを選択している位置が特定の領域内にまで移動されていると判定されると(ステップD3、Yes)、モード設定部205は、接触位置に対応するアイコンDに対する移動モードを設定する(ステップD5)。   If it is determined that the position where the icon D is selected has been moved to a specific area (step D3, Yes), the mode setting unit 205 sets the movement mode for the icon D corresponding to the contact position. (Step D5).

OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたオブジェクト(アイコン)の表示形態(例えば、表示色)を変更する。   The OS 200 changes the display form (for example, display color) of the object (icon) displayed on the LCD 14 so that the user can recognize that the movement mode has been set by the mode setting unit 205.

以下、移動モードが設定された後の処理(ステップD5〜D7)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。   Hereinafter, the processing after the movement mode is set (steps D5 to D7) will not be described in detail because the same processing as steps A4 to A6 described in the first method is executed.

図15では、アイコンDが選択されてドラッグされている状態を示している。移動領域判定部204dは、図16に示すように、タッチパネル15に対して設定されている特定の領域E1にまでアイコンDを選択している接触位置が移動されているかを判定する。   FIG. 15 shows a state where the icon D is selected and dragged. As illustrated in FIG. 16, the movement area determination unit 204 d determines whether the contact position where the icon D is selected has been moved to a specific area E <b> 1 set for the touch panel 15.

図16に示す例では、タッチパネル15に対しては、LCD16(タッチパネル17)と連結されている側の辺に沿って特定の領域E1が設定されている。また、タッチパネル17に対しては、LCD14(タッチパネル15)と連結されている側の辺に沿って特定の領域E2が設定されている。   In the example illustrated in FIG. 16, a specific area E <b> 1 is set for the touch panel 15 along the side connected to the LCD 16 (touch panel 17). For the touch panel 17, a specific area E2 is set along the side connected to the LCD 14 (touch panel 15).

これにより、LCD14に表示されていたアイコンDをLCD16の表示領域に移動させるために、LCD16の方向にドラッグ操作をすることにより、特定の領域E1にまでアイコンDを到達させることができる。すなわち、アイコンの表示位置を移動させるための既存のドラッグ操作をすることで移動モードを設定することができる。   Thereby, in order to move the icon D displayed on the LCD 14 to the display area of the LCD 16, the icon D can reach the specific area E <b> 1 by performing a drag operation in the direction of the LCD 16. That is, the movement mode can be set by performing an existing drag operation for moving the icon display position.

なお、図16に示す特定の領域E1,E2は一例であって、タッチパネル15,17の任意の場所に特定の領域を設定することができる。   Note that the specific areas E1 and E2 shown in FIG. 16 are examples, and the specific areas can be set at arbitrary locations on the touch panels 15 and 17.

また、処理モード別に独立した特定の領域をタッチパネル15,17に複数設定しておくようにしても良い。例えば、移動モード設定用の特定の領域と、コピーモード設定用の特定の領域を設けておく。これにより、オブジェクトの移動先となった特定の領域に応じて、処理モードを設定することが可能となる。   Further, a plurality of specific areas independent for each processing mode may be set on the touch panels 15 and 17. For example, a specific area for setting the movement mode and a specific area for setting the copy mode are provided. As a result, the processing mode can be set according to the specific area to which the object is moved.

このようにして、第4の方法では、処理対象とするオブジェクト(アイコン等)をタッチパネル15,17に対して設定された特定の領域E1,E2に移動させる操作をすることにより移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。   In this way, in the fourth method, the movement mode is set by performing an operation of moving the object (icon or the like) to be processed to the specific areas E1 and E2 set on the touch panels 15 and 17. be able to. Hereinafter, it is possible to provide the same operability as the first method.

(5)タッチパネル15,17に対する一定値以上の圧力の操作により処理モードを設定する方法(第5の方法)。
図17は、第5の方法により処理モードを設定する処理を示すフローチャートである。第5の方法により処理モードを設定できるようにするために、パーソナルコンピュータ10には、圧力センサ15a,17aが装着されたタッチパネル15,17を実装する。
(5) A method of setting a processing mode by operating a pressure higher than a certain value on the touch panels 15 and 17 (fifth method).
FIG. 17 is a flowchart showing processing for setting a processing mode by the fifth method. In order to be able to set the processing mode by the fifth method, the personal computer 10 is equipped with touch panels 15 and 17 equipped with pressure sensors 15a and 17a.

図18は、圧力センサ15a,17aが装着されたタッチパネル15,17の側面図を示している。図18に示すように、タッチパネル15,17と密着させた圧力センサ15a,17aが装着されていることにより、タッチパネル15,17に対する接触の圧力を圧力センサ15a,17aによって検出することができる。   FIG. 18 shows a side view of the touch panels 15 and 17 to which the pressure sensors 15a and 17a are attached. As shown in FIG. 18, pressure sensors 15 a and 17 a that are in close contact with the touch panels 15 and 17 are attached, so that the pressure of contact with the touch panels 15 and 17 can be detected by the pressure sensors 15 a and 17 a.

ユーザは、例えばLCD14に表示されたアイコンの位置に合わせて、タッチパネル15に接触したものとする。接触検出部203は、タッチパネル15に対する接触を検出する(ステップE1、Yes)。   For example, it is assumed that the user touches the touch panel 15 in accordance with the position of the icon displayed on the LCD 14. The contact detection unit 203 detects contact with the touch panel 15 (step E1, Yes).

移動領域判定部204dは、接触検出部203により検出された位置にオブジェクトが存在するかをOS200に問い合わせる。ここで、オブジェクト(アイコンD)が存在していることがOS200により通知されると、圧力判定部204eは、圧力センサ15a,17aからの検出信号を読み取り(ステップE2)、圧力が予め決められた規定値以上となっているかを判定する(ステップE2〜E4)。   The movement area determination unit 204d inquires of the OS 200 whether an object exists at the position detected by the contact detection unit 203. Here, when the OS 200 notifies that the object (icon D) exists, the pressure determination unit 204e reads the detection signals from the pressure sensors 15a and 17a (step E2), and the pressure is determined in advance. It is determined whether the value is equal to or greater than a specified value (steps E2 to E4).

ユーザがアイコンを選択するためにタッチパネル15に接触して圧力を加えると、圧力判定部204eは、圧力センサ15a,17aによって検出された圧力が規定値以上となったことを判定する(ステップE3、Yes)。モード設定部205は、接触位置に対応するアイコンに対する移動モードを設定する(ステップE5)。   When the user touches the touch panel 15 to select an icon and applies pressure, the pressure determination unit 204e determines that the pressure detected by the pressure sensors 15a and 17a is equal to or higher than a specified value (step E3, Yes). The mode setting unit 205 sets a movement mode for the icon corresponding to the contact position (step E5).

OS200は、モード設定部205により移動モードが設定されたことをユーザが認識できるように、LCD14に表示されたオブジェクト(アイコン)の表示形態(例えば、表示色)を変更する。   The OS 200 changes the display form (for example, display color) of the object (icon) displayed on the LCD 14 so that the user can recognize that the movement mode has been set by the mode setting unit 205.

以下、移動モードが設定された後の処理(ステップE5〜E7)については、第1の方法において説明したステップA4〜A6と同様の処理を実行するものとして詳細な説明を省略する。   Hereinafter, the processing after the movement mode is set (steps E5 to E7) will not be described in detail because the same processing as steps A4 to A6 described in the first method is executed.

このようにして、第5の方法では、処理対象とするオブジェクト(アイコン等)をタッチパネル15,17に対して一定値以上の圧力で操作をすることにより移動モードを設定することができる。以下、第1の方法と同様の操作性を提供することが可能である。   Thus, in the fifth method, the movement mode can be set by operating an object (icon or the like) to be processed on the touch panel 15 or 17 with a pressure equal to or higher than a certain value. Hereinafter, it is possible to provide the same operability as the first method.

なお、前述した第1〜第5の方法は、アイコンに対して移動モードを設定するための方法として説明しているが、第1〜第5の方法のそれぞれに対応して、異なる処理モードが設定されるようにしても良い。例えば、第1の方法による操作がされた場合には移動モードを設定し、第2の方法による操作がされた場合にはコピーモードを設定する。他の方法に対しても、別の処理モードが設定されるようにする。この場合、何れの方法に対して、何れの処理モードが設定されるかを、例えばユーティリティプログラムによる処理によって、ユーザの指定によって予め設定できるようにしても良い。   The first to fifth methods described above have been described as methods for setting a movement mode for an icon. However, different processing modes correspond to the first to fifth methods. It may be set. For example, the movement mode is set when an operation by the first method is performed, and the copy mode is set when an operation by the second method is performed. Another processing mode is set for other methods. In this case, for which method, which processing mode is set may be set in advance by a user's designation, for example, by processing using a utility program.

なお、前述した説明では、タッチパネルドライバ202により処理モードを設定しているが、OS200がタッチパネルドライバ202により検出された座標データをもとに、タッチパネル15,17に対するユーザの操作を判定し、この判定された操作に応じた処理モードを設定するようにしても良い。さらに、タッチパネルドライバ202により検出された座標データをもとに、アプリケーションプログラム201が処理モードを設定して、OS200あるいはアプリケーションプログラム201において処理モードに応じた処理を実行するようにしても良い。   In the above description, the processing mode is set by the touch panel driver 202, but the OS 200 determines the user's operation on the touch panels 15 and 17 based on the coordinate data detected by the touch panel driver 202, and this determination. A processing mode corresponding to the operated operation may be set. Furthermore, based on the coordinate data detected by the touch panel driver 202, the application program 201 may set a processing mode, and the OS 200 or the application program 201 may execute processing according to the processing mode.

また、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に構成要素を適宜組み合わせてもよい。   Further, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine a component suitably in different embodiment.

10…パーソナルコンピュータ、11…コンピュータ本体、14,16…LCD、15,17…タッチパネル、111…CPU、115…主メモリ、116…GPU、116A…VRAM、140…EC/KBC、201…アプリケーションプログラム、202…タッチパネルドライバ、141…電源回路、142…バッテリ、143…ACアダプタ、144…電源マイコン。   DESCRIPTION OF SYMBOLS 10 ... Personal computer, 11 ... Computer main body, 14, 16 ... LCD, 15, 17 ... Touch panel, 111 ... CPU, 115 ... Main memory, 116 ... GPU, 116A ... VRAM, 140 ... EC / KBC, 201 ... Application program, 202 ... Touch panel driver, 141 ... Power supply circuit, 142 ... Battery, 143 ... AC adapter, 144 ... Power supply microcomputer.

Claims (6)

ディスプレイと、
タッチパネルと、
前記タッチパネルに対する、前記ディスプレイに表示されたオブジェクトを指定する特定の操作を検出する検出手段と、
前記特定の操作後、前記特定の操作により指定された前記オブジェクトの表示位置を入力する入力手段と、
前記入力手段により入力された表示位置に前記オブジェクトを表示する表示手段と
を具備する電子機器。
Display,
A touch panel;
Detecting means for detecting a specific operation for designating an object displayed on the display with respect to the touch panel;
An input means for inputting a display position of the object designated by the specific operation after the specific operation;
Electronic equipment comprising display means for displaying the object at a display position input by the input means.
前記検出手段は、
前記タッチパネルに接触されている第1の位置と第2の位置とを前記ディスプレイに表示された前記オブジェクトに対応する位置に移動させ、前記第1の位置と前記第2の位置の移動先における距離を特定範囲内に含まれるようにする操作を検出する請求項1記載の電子機器。
The detection means includes
The first position and the second position that are in contact with the touch panel are moved to a position corresponding to the object displayed on the display, and the distance between the first position and the second position at the destination is moved. The electronic device according to claim 1, wherein an operation for causing the value to fall within a specific range is detected.
前記検出手段は、
前記タッチパネルに接触されている位置が前記ディスプレイに表示された前記オブジェクトに対応する位置であり、接触時間が一定時間以上である操作を検出する請求項1記載の電子機器。
The detection means includes
The electronic device according to claim 1, wherein the position in contact with the touch panel is a position corresponding to the object displayed on the display, and an operation in which a contact time is a predetermined time or longer is detected.
前記検出手段は、
前記タッチパネルに接触されている位置が前記ディスプレイに表示された前記オブジェクトに対応する位置であり、接触面積を規定値以上とする操作を検出する請求項1記載の電子機器。
The detection means includes
The electronic device according to claim 1, wherein a position in contact with the touch panel is a position corresponding to the object displayed on the display, and an operation for setting a contact area to a specified value or more is detected.
前記検出手段は、
前記タッチパネルに対して、前記ディスプレイに表示された前記オブジェクトに対応する第1の位置が接触され、接触された状態のまま前記第1の位置を前記タッチパネルに対して予め設定された特定範囲内の第2の位置に移動させる操作を検出する請求項1記載の電子機器。
The detection means includes
A first position corresponding to the object displayed on the display is brought into contact with the touch panel, and the first position is within a specific range set in advance with respect to the touch panel while being in contact with the touch panel. The electronic device according to claim 1, wherein an operation for moving the second position is detected.
前記タッチパネルに対する接触の圧力を検出する圧力センサをさらに具備し、
前記検出手段は、
前記タッチパネルに接触されている位置が前記ディスプレイに表示された前記オブジェクトに対応する位置であり、前記圧力センサにより検出される接触の圧力が一定値以上である操作を検出する請求項1記載の電子機器。
A pressure sensor for detecting a pressure of contact with the touch panel;
The detection means includes
2. The electronic device according to claim 1, wherein a position in contact with the touch panel is a position corresponding to the object displayed on the display, and an operation in which a contact pressure detected by the pressure sensor is equal to or higher than a predetermined value is detected. machine.
JP2011220863A 2011-10-05 2011-10-05 Electronic apparatus Pending JP2012027940A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011220863A JP2012027940A (en) 2011-10-05 2011-10-05 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011220863A JP2012027940A (en) 2011-10-05 2011-10-05 Electronic apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009282109A Division JP4843706B2 (en) 2009-12-11 2009-12-11 Electronics

Publications (1)

Publication Number Publication Date
JP2012027940A true JP2012027940A (en) 2012-02-09

Family

ID=45780706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011220863A Pending JP2012027940A (en) 2011-10-05 2011-10-05 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2012027940A (en)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041264A (en) * 2013-08-22 2015-03-02 シャープ株式会社 Information processing device, information processing method, and program
JP2015519656A (en) * 2012-05-09 2015-07-09 アップル インコーポレイテッド Device, method and graphical user interface for moving and dropping user interface objects
US9602729B2 (en) 2015-06-07 2017-03-21 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9612741B2 (en) 2012-05-09 2017-04-04 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US9619076B2 (en) 2012-05-09 2017-04-11 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
JP6246882B1 (en) * 2016-10-26 2017-12-13 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, image display method, and image display program
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
JP2019012573A (en) * 2018-10-24 2019-01-24 シャープ株式会社 Information processing device, information processing method, and program
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
JP2021015617A (en) * 2016-09-06 2021-02-12 アップル インコーポレイテッドApple Inc. Device, method, and graphical user interface for providing tactile feedback
JP2022115355A (en) * 2021-01-28 2022-08-09 レノボ・シンガポール・プライベート・リミテッド Information processor and input control method therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173271A (en) * 1997-08-28 1999-03-16 Sharp Corp Instructing device and processor and storage medium
JP2002525705A (en) * 1998-09-15 2002-08-13 エリクソン インコーポレイテッド Apparatus and method for moving an object on a touch screen display
JP2002304256A (en) * 2001-04-06 2002-10-18 Sony Corp Information processor
JP2004185258A (en) * 2002-12-03 2004-07-02 Hitachi Ltd Information processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173271A (en) * 1997-08-28 1999-03-16 Sharp Corp Instructing device and processor and storage medium
JP2002525705A (en) * 1998-09-15 2002-08-13 エリクソン インコーポレイテッド Apparatus and method for moving an object on a touch screen display
JP2002304256A (en) * 2001-04-06 2002-10-18 Sony Corp Information processor
JP2004185258A (en) * 2002-12-03 2004-07-02 Hitachi Ltd Information processor

Cited By (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10386960B1 (en) 2011-08-05 2019-08-20 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10649571B1 (en) 2011-08-05 2020-05-12 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10656752B1 (en) 2011-08-05 2020-05-19 P4tents1, LLC Gesture-equipped touch screen system, method, and computer program product
US10664097B1 (en) 2011-08-05 2020-05-26 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10338736B1 (en) 2011-08-05 2019-07-02 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10345961B1 (en) 2011-08-05 2019-07-09 P4tents1, LLC Devices and methods for navigating between user interfaces
US10365758B1 (en) 2011-08-05 2019-07-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10540039B1 (en) 2011-08-05 2020-01-21 P4tents1, LLC Devices and methods for navigating between user interface
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9971499B2 (en) 2012-05-09 2018-05-15 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
JP2015519656A (en) * 2012-05-09 2015-07-09 アップル インコーポレイテッド Device, method and graphical user interface for moving and dropping user interface objects
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US9823839B2 (en) 2012-05-09 2017-11-21 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9612741B2 (en) 2012-05-09 2017-04-04 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US9619076B2 (en) 2012-05-09 2017-04-11 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10191627B2 (en) 2012-05-09 2019-01-29 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10114546B2 (en) 2012-05-09 2018-10-30 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US9996233B2 (en) 2012-12-29 2018-06-12 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10101887B2 (en) 2012-12-29 2018-10-16 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10175879B2 (en) 2012-12-29 2019-01-08 Apple Inc. Device, method, and graphical user interface for zooming a user interface while performing a drag operation
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10185491B2 (en) 2012-12-29 2019-01-22 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or enlarge content
US9857897B2 (en) 2012-12-29 2018-01-02 Apple Inc. Device and method for assigning respective portions of an aggregate intensity to a plurality of contacts
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9965074B2 (en) 2012-12-29 2018-05-08 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
JP2015041264A (en) * 2013-08-22 2015-03-02 シャープ株式会社 Information processing device, information processing method, and program
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268341B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645709B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268342B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10067645B2 (en) 2015-03-08 2018-09-04 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10222980B2 (en) 2015-03-19 2019-03-05 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9602729B2 (en) 2015-06-07 2017-03-21 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US9916080B2 (en) 2015-06-07 2018-03-13 Apple Inc. Devices and methods for navigating between user interfaces
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9706127B2 (en) 2015-06-07 2017-07-11 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10209884B2 (en) 2015-08-10 2019-02-19 Apple Inc. Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
JP2021015617A (en) * 2016-09-06 2021-02-12 アップル インコーポレイテッドApple Inc. Device, method, and graphical user interface for providing tactile feedback
JP2018072986A (en) * 2016-10-26 2018-05-10 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, image display method and image display program
US10585510B2 (en) 2016-10-26 2020-03-10 Lenovo (Singapore) Pte. Ltd. Apparatus, systems, and methods for transferring objects between multiple display units
JP6246882B1 (en) * 2016-10-26 2017-12-13 レノボ・シンガポール・プライベート・リミテッド Information processing apparatus, image display method, and image display program
JP2019012573A (en) * 2018-10-24 2019-01-24 シャープ株式会社 Information processing device, information processing method, and program
JP7216126B2 (en) 2021-01-28 2023-01-31 レノボ・シンガポール・プライベート・リミテッド Information processing device and its input control method
JP2022115355A (en) * 2021-01-28 2022-08-09 レノボ・シンガポール・プライベート・リミテッド Information processor and input control method therefor

Similar Documents

Publication Publication Date Title
JP2012027940A (en) Electronic apparatus
JP4843706B2 (en) Electronics
JP4865053B2 (en) Information processing apparatus and drag control method
JP5490508B2 (en) Device having touch sensor, tactile sensation presentation method, and tactile sensation presentation program
US8681115B2 (en) Information processing apparatus and input control method
US20110296329A1 (en) Electronic apparatus and display control method
JP4163713B2 (en) Information processing apparatus and touchpad control method
JP5237980B2 (en) Coordinate input device, coordinate input method, and computer executable program
JP4956644B2 (en) Electronic device and input control method
JP2010218422A (en) Information processing apparatus and method for controlling the same
JP5887807B2 (en) Information processing apparatus, information processing method, and computer program
JP6162299B1 (en) Information processing apparatus, input switching method, and program
US20140285461A1 (en) Input Mode Based on Location of Hand Gesture
JP2011248465A (en) Information processing apparatus and display control method
JP2011134127A (en) Information processor and key input method
JP4892068B2 (en) Information processing apparatus and image display method
JP6293209B2 (en) Information processing apparatus, erroneous operation suppression method, and program
JP5458130B2 (en) Electronic device and input control method
TWI468989B (en) Input command based on hand gesture
JP2012064232A (en) Information processor and drag control method
JP5996079B1 (en) Information processing apparatus, software keyboard display method, and program
TW201331818A (en) Electronic apparatus and method for controlling the same
KR20080063537A (en) Media device having touch sensor, and control method for the same
JP2011054213A (en) Information processor and control method
JP2014157402A (en) Display device, electronic apparatus, display method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130423