JP2013011983A - Electronic apparatus, control method and control program - Google Patents

Electronic apparatus, control method and control program Download PDF

Info

Publication number
JP2013011983A
JP2013011983A JP2011143341A JP2011143341A JP2013011983A JP 2013011983 A JP2013011983 A JP 2013011983A JP 2011143341 A JP2011143341 A JP 2011143341A JP 2011143341 A JP2011143341 A JP 2011143341A JP 2013011983 A JP2013011983 A JP 2013011983A
Authority
JP
Japan
Prior art keywords
display
unit
display unit
detected
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011143341A
Other languages
Japanese (ja)
Other versions
JP5815303B2 (en
Inventor
Haruyoshi Oshime
晴義 押目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011143341A priority Critical patent/JP5815303B2/en
Priority to US13/467,833 priority patent/US20120287065A1/en
Publication of JP2013011983A publication Critical patent/JP2013011983A/en
Priority to US14/518,763 priority patent/US20150035781A1/en
Application granted granted Critical
Publication of JP5815303B2 publication Critical patent/JP5815303B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to intuitively perform operation for moving or transferring an object without conflict with another operation.SOLUTION: A portable telephone terminal (electronic apparatus) 1 includes: a display unit 32a for displaying an object; a touch sensor (detection unit) 32b for detecting positions of a first object and a second object on the display unit 32a; and a control unit 22 for, when the positions of the first object and the second object detected by the touch sensor 32b are in the vicinity of the object displayed on the display unit 32a, changing the display of the object. The control unit 22 selects an object of which a display is changed and, when a predetermined operation is detected by the touch sensor 32b on a position other than a display area of the object on the display unit 32a, moves or transfers the selected object to the position.

Description

本発明は、電子機器、制御方法および制御プログラムに関する。   The present invention relates to an electronic device, a control method, and a control program.

近年、携帯電話端末等の電子機器の多くがタッチパネルを備えるようになっている。利用者は、電子機器が備えるタッチパネルに表示されるオブジェクトに対して、指またはスタイラス等でタッチ操作を行うことにより、オブジェクトに関する処理を直感的に実行することができる。特許文献1では、長押しまたは短押し等を行ってから各種のタッチ操作を行うことにより、タッチ操作によって実行される処理を切り替える技術が開示されている。   In recent years, many electronic devices such as mobile phone terminals are provided with a touch panel. A user can intuitively execute processing related to an object by touching the object displayed on the touch panel included in the electronic device with a finger or a stylus. Patent Document 1 discloses a technique for switching processing executed by a touch operation by performing various touch operations after performing a long press or a short press.

特開2010−97326号公報JP 2010-97326 A

タッチパネルは、オブジェクトに対する直感的な操作を可能にする反面で、検出できるタッチ操作の種類が限られる。このため、オブジェクトの移動や転記のためのタッチ操作が、他のタッチ操作と競合する場合がある。特許文献1で開示されている技術のように、他の操作を組み合わせることによって、それぞれのタッチ操作に割り当てる処理を増やし、競合を回避することも可能であるが、関連のない操作を組み合わせると操作の直感性が失われるおそれがある。   While the touch panel enables intuitive operations on objects, the types of touch operations that can be detected are limited. For this reason, a touch operation for moving or posting an object may conflict with another touch operation. As in the technique disclosed in Patent Document 1, it is possible to increase the processing assigned to each touch operation by combining other operations and avoid conflicts. The intuition may be lost.

本発明は、上記に鑑みてなされたものであって、他の操作と競合することなく、利用者がオブジェクトを移動または転記させる操作を直感的に実行することができる電子機器、制御方法および制御プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an electronic apparatus, a control method, and a control that allow a user to intuitively execute an operation of moving or transcribing an object without competing with other operations. The purpose is to provide a program.

本発明に係る電子機器は、1つの態様において、オブジェクトを表示する表示部と、前記表示部上での第1の物体および第2の物体の位置を検出する検出部と、前記検出部によって検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させる制御部とを備える。   In one aspect, an electronic device according to the present invention is detected by a display unit that displays an object, a detection unit that detects positions of the first object and the second object on the display unit, and the detection unit. And a control unit that changes the display of the object when the positions of the first object and the second object are in the vicinity of the object displayed on the display unit.

また、本発明に係る電子機器の他の態様において、前記制御部は、表示を変化させた前記オブジェクトを選択し、その後、前記オブジェクトの表示領域以外の前記表示部上の位置で所定の動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該位置へ移動または転記する。   In another aspect of the electronic apparatus according to the present invention, the control unit selects the object whose display has been changed, and then performs a predetermined operation at a position on the display unit other than the display area of the object. When detected by the detection unit, the selected object is moved or transferred to the position.

また、本発明に係る制御方法は、1つの態様において、表示部を備える電子機器によって実行される制御方法であって、前記表示部にオブジェクトを表示するステップと、前記表示部上での第1の物体および第2の物体の位置を検出するステップと、検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップとを含む。   The control method according to the present invention is, in one aspect, a control method executed by an electronic device including a display unit, the step of displaying an object on the display unit, and a first on the display unit Detecting the positions of the object and the second object, and when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit Changing the display of.

また、本発明に係る制御プログラムは、1つの態様において、表示部を備える電子機器に、前記表示部にオブジェクトを表示するステップと、前記表示部上での第1の物体および第2の物体の位置を検出するステップと、検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップとを実行させる。   In one aspect, the control program according to the present invention includes a step of displaying an object on the display unit on an electronic device including the display unit, and the first object and the second object on the display unit. Detecting a position; and changing the display of the object when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit. Let it run.

本発明は、他の操作と競合することなく、利用者がオブジェクトを移動または転記させる操作を直感的に実行することができるという効果を奏する。   The present invention has an effect that a user can intuitively execute an operation of moving or transcribing an object without competing with other operations.

図1は、本実施例に係る携帯電話端末の外観を示す正面図である。FIG. 1 is a front view showing an appearance of the mobile phone terminal according to the present embodiment. 図2は、本実施例に係る携帯電話端末の機能的な構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the mobile phone terminal according to the present embodiment. 図3は、オブジェクトの移動操作について説明するための図である。FIG. 3 is a diagram for explaining an object moving operation. 図4は、オブジェクトの移動操作について説明するための図である。FIG. 4 is a diagram for explaining an object moving operation. 図5は、指をタッチパネルに接触させてオブジェクトの移動先を確定させる移動操作について説明するための図である。FIG. 5 is a diagram for explaining a moving operation for determining a moving destination of an object by bringing a finger into contact with the touch panel. 図6は、指をタッチパネルに接触させてオブジェクトの移動先を確定させる移動操作について説明するための図である。FIG. 6 is a diagram for explaining a moving operation for determining a moving destination of an object by bringing a finger into contact with the touch panel. 図7は、移動(転記)処理の処理手順を示すフローチャートである。FIG. 7 is a flowchart showing the processing procedure of the movement (transcription) processing. 図8は、移動先がコンテナオブジェクトである場合の移動操作について説明するための図である。FIG. 8 is a diagram for explaining the movement operation when the movement destination is a container object. 図9は、他の選択動作について説明するための図である。FIG. 9 is a diagram for explaining another selection operation. 図10は、他の選択動作について説明するための図である。FIG. 10 is a diagram for explaining another selection operation. 図11は、撮影部を検出部として用いる携帯電話端末の外観を示す正面図である。FIG. 11 is a front view showing an external appearance of a mobile phone terminal using the photographing unit as a detection unit.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、電子機器の一例として携帯電話端末について説明するが、本発明の適用対象は携帯電話端末に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA(Personal Data Assistance)、ポータブルナビゲーション装置、パソコン、ゲーム機等に対しても本発明は適用できる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. In the following, a mobile phone terminal will be described as an example of an electronic device. However, the application target of the present invention is not limited to a mobile phone terminal. For example, PHS (Personal Handyphone System), PDA (Personal Data Assistance), The present invention can also be applied to portable navigation devices, personal computers, game machines, and the like.

まず、図1および図2を参照しながら、本実施例に係る携帯電話端末(電子機器)1の構成について説明する。図1は、携帯電話端末1の外観を示す正面図である。図2は、携帯電話端末1の機能的な構成を示すブロック図である。   First, the configuration of a mobile phone terminal (electronic device) 1 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a front view showing the appearance of the mobile phone terminal 1. FIG. 2 is a block diagram showing a functional configuration of the mobile phone terminal 1.

図1および図2に示すように、携帯電話端末1は、操作部13と、マイク15と、レシーバ16と、制御部22と、記憶部24と、通信部26と、音声処理部30と、タッチパネル32とを有する。操作部13、マイク15、レシーバ16、およびタッチパネル32は、携帯電話端末1の正面に一部が露出する。   As shown in FIGS. 1 and 2, the mobile phone terminal 1 includes an operation unit 13, a microphone 15, a receiver 16, a control unit 22, a storage unit 24, a communication unit 26, an audio processing unit 30, A touch panel 32. The operation unit 13, the microphone 15, the receiver 16, and the touch panel 32 are partially exposed on the front surface of the mobile phone terminal 1.

操作部13は、物理的なボタンを有し、押下されたボタンに対応する信号を制御部22へ出力する。なお、図1に示す例では、操作部13は1つのボタンのみを有しているが、操作部13が有するボタンの数は任意でよい。   The operation unit 13 includes physical buttons and outputs a signal corresponding to the pressed button to the control unit 22. In the example illustrated in FIG. 1, the operation unit 13 includes only one button, but the number of buttons included in the operation unit 13 may be arbitrary.

マイク15は、外部の音声を取得する。レシーバ16は、通話時に通話相手の音声を出力する。音声処理部30は、マイク15から入力される音声をデジタル信号化して制御部22へ出力する。また、音声処理部30は、制御部22から入力されるデジタル信号を復号してレシーバ16へ出力する。   The microphone 15 acquires external sound. The receiver 16 outputs the other party's voice during a call. The sound processing unit 30 converts the sound input from the microphone 15 into a digital signal and outputs the digital signal to the control unit 22. In addition, the audio processing unit 30 decodes the digital signal input from the control unit 22 and outputs the decoded digital signal to the receiver 16.

通信部26は、アンテナ26aを有し、基地局によって割り当てられるチャネルを介して、基地局との間にCDMA(Code Division Multiple Access)方式等による無線信号回線を確立する。通信部26は、基地局との間に確立された無線信号回線を通じて、他の装置との間で電話通信および情報通信を行う。   The communication unit 26 includes an antenna 26a, and establishes a radio signal line by a CDMA (Code Division Multiple Access) method or the like with a base station via a channel assigned by the base station. The communication unit 26 performs telephone communication and information communication with other devices through a radio signal line established with the base station.

タッチパネル32は、文字、図形、画像等の各種の情報を表示するとともに、表示されたアイコン、ボタン、文字入力領域等の所定領域に対する入力操作を検出する。タッチパネル32は、表示部32aと、タッチセンサ32bとを重畳して構成される。   The touch panel 32 displays various types of information such as characters, graphics, and images, and detects an input operation on a predetermined area such as a displayed icon, button, or character input area. The touch panel 32 is configured by superimposing a display unit 32a and a touch sensor 32b.

表示部32aは、液晶ディスプレイ(Liquid Crystal Display)または有機EL(Organic Electro−Luminescence)パネル等の表示装置を備え、制御部22から入力される制御信号に従って各種の情報を表示する。   The display unit 32 a includes a display device such as a liquid crystal display (LCD) or an organic EL (Organic Electro-Luminescence) panel, and displays various information according to a control signal input from the control unit 22.

タッチセンサ32bは、タッチパネル32の表面に対して行われる入力操作を検出し、検出した入力操作に応じた信号を制御部22へ出力する。すなわち、タッチセンサ32bは、利用者の操作を検出する検出部として機能する。タッチセンサ32bが各種操作を検出する方式は、例えば、静電容量方式、光学方式、または赤外線方式である。タッチセンサ32bによって検出される操作には、タップ操作、ダブルタップ操作、ロングタップ操作、スイープ(スワイプ)操作、フリック操作等が含まれる。   The touch sensor 32 b detects an input operation performed on the surface of the touch panel 32 and outputs a signal corresponding to the detected input operation to the control unit 22. That is, the touch sensor 32b functions as a detection unit that detects a user operation. The method by which the touch sensor 32b detects various operations is, for example, a capacitance method, an optical method, or an infrared method. The operations detected by the touch sensor 32b include a tap operation, a double tap operation, a long tap operation, a sweep (swipe) operation, a flick operation, and the like.

タップ操作とは、指をタッチパネル32に接触させた後すぐにタッチパネル32から離す操作である。ダブルタップ操作とは、指をタッチパネル32に接触させた後すぐにタッチパネル32から離す動作を2回繰り返す操作である。ロングタップ操作とは、指をタッチパネル32に接触させ、指がタッチパネル32に接触した状態を一定時間保った後に指をタッチパネル32から離す操作である。スイープ操作とは、指をタッチパネル32に接触させたままで移動させる操作である。スイープ操作は、タッチパネル32に表示されている何らかのオブジェクトがその操作に追随して移動する場合、ドラッグ操作と呼ばれることがある。フリック操作とは、指をタッチパネル32に接触させた後、何かを素早く払うように指を一方方向に高速で移動させる操作である。   The tap operation is an operation of releasing a finger from the touch panel 32 immediately after contacting the touch panel 32. The double tap operation is an operation of repeating the operation of releasing the finger from the touch panel 32 immediately after the finger is brought into contact with the touch panel 32 twice. The long tap operation is an operation of bringing a finger into contact with the touch panel 32 and releasing the finger from the touch panel 32 after keeping the finger in contact with the touch panel 32 for a certain period of time. The sweep operation is an operation of moving the finger while keeping the finger in contact with the touch panel 32. The sweep operation is sometimes referred to as a drag operation when an object displayed on the touch panel 32 moves following the operation. The flick operation is an operation of moving the finger in one direction at a high speed so as to quickly pay something after the finger is brought into contact with the touch panel 32.

制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムおよびデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリおよび記憶部24に対してデータの読み書きを行ったり、表示部32a等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータおよびタッチセンサ32b等から入力される信号がパラメータまたは判定条件の一部として利用される。   The control unit 22 includes a CPU (Central Processing Unit) that is a calculation unit and a memory that is a storage unit, and implements various functions by executing programs using these hardware resources. Specifically, the control unit 22 reads out the program and data stored in the storage unit 24 and expands them in the memory, and causes the CPU to execute instructions included in the program expanded in the memory. The control unit 22 reads / writes data from / to the memory and the storage unit 24 and controls the operation of the display unit 32a and the like according to the execution result of the instruction by the CPU. When the CPU executes an instruction, data expanded in the memory and a signal input from the touch sensor 32b or the like are used as a parameter or a part of the determination condition.

記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置を含み、各種のプログラムおよびデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。なお、記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24aは、記憶媒体に記憶される。また、制御プログラム24aは、通信部26による無線通信によってサーバ装置等の他の装置から取得することとしてもよい。   The storage unit 24 includes a nonvolatile storage device such as a flash memory, and stores various programs and data. The program stored in the storage unit 24 includes a control program 24a. In addition, the memory | storage part 24 may be comprised by the combination of portable storage media, such as a memory card, and the reading / writing apparatus which reads / writes with respect to a storage medium. In this case, the control program 24a is stored in a storage medium. The control program 24a may be acquired from another device such as a server device by wireless communication by the communication unit 26.

制御プログラム24aは、携帯電話端末1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、利用者の操作を検出し、検出された操作に応じた処理を行う機能が含まれる。   The control program 24 a provides functions related to various controls for operating the mobile phone terminal 1. The functions provided by the control program 24a include a function of detecting a user operation and performing a process according to the detected operation.

次に、図3から図6を参照しながら、制御プログラム24aが提供する機能に基づいて実行される制御の例について説明する。図3および図4は、オブジェクトの移動操作について説明するための図である。図3は、タッチパネル32の正面からみた移動操作の流れを図示している。図4は、タッチパネル32の側方からみた移動操作の流れを図示している。なお、図4では、移動されるオブジェクトの位置が模式的に示されているが、タッチパネル32を側方からみた場合に、必ずしもこのようにオブジェクトの位置が分かるわけではない。   Next, an example of control executed based on the function provided by the control program 24a will be described with reference to FIGS. 3 and 4 are diagrams for explaining an object moving operation. FIG. 3 illustrates a flow of a moving operation as viewed from the front surface of the touch panel 32. FIG. 4 illustrates a flow of a moving operation viewed from the side of the touch panel 32. In FIG. 4, the position of the object to be moved is schematically shown. However, when the touch panel 32 is viewed from the side, the position of the object is not necessarily understood in this way.

図3および図4に示すステップS11では、アイコンIC1を含む複数のアイコンが配置された標準画面(デスクトップ、ホーム画面、または壁紙ともいう)がタッチパネル32に表示されている。アイコンは、プログラムまたはデータに対応する画像を含むオブジェクトである。携帯電話端末1は、アイコンに対してタップ操作等の所定の操作が検出されると、アイコンに対応する処理を開始させる。   In step S11 shown in FIGS. 3 and 4, a standard screen (also referred to as a desktop, home screen, or wallpaper) on which a plurality of icons including the icon IC1 are arranged is displayed on the touch panel 32. An icon is an object including an image corresponding to a program or data. When a predetermined operation such as a tap operation is detected for the icon, the mobile phone terminal 1 starts processing corresponding to the icon.

利用者は、アイコンIC1を他の場所へ移動させたい場合、ステップS12に示すように、指F1および指F2をアイコンIC1の近傍でタッチパネル32に接触させ、さらに、指F1および指F2をアイコンIC1の表示領域の中心に近づける。携帯電話端末1は、アイコンIC1等の選択可能なオブジェクトの近傍でタッチパネル32に接触した2つの物体がオブジェクトの表示領域の中心に近づくのが検出されると、ステップS13に示すように、そのオブジェクトを選択状態にする。   When the user wants to move the icon IC1 to another location, as shown in step S12, the user brings the finger F1 and the finger F2 into contact with the touch panel 32 in the vicinity of the icon IC1, and further, the finger F1 and the finger F2 are moved to the icon IC1. Move closer to the center of the display area. When the cellular phone terminal 1 detects that two objects in contact with the touch panel 32 near the selectable object such as the icon IC1 approach the center of the display area of the object, as shown in step S13, the object To the selected state.

そして、携帯電話端末1は、オブジェクトの表示態様を変更し、それによって、オブジェクトが選択状態になったことを利用者に通知する。選択状態になったことの通知は、例えば、オブジェクトの全体または外周の色または明るさを変更することによって実現される。このような視覚的な通知に代えて、あるいは、このような視覚的な通知に加えて、音または振動による通知を行ってもよい。   Then, the mobile phone terminal 1 changes the display mode of the object, thereby notifying the user that the object has been selected. The notification of the selection state is realized, for example, by changing the color or brightness of the entire object or the outer periphery of the object. Instead of such visual notification, or in addition to such visual notification, notification by sound or vibration may be performed.

利用者は、アイコンIC1が選択状態になったことを確認すると、ステップS14に示すように、指F1および指F2を、間隔を保ったままで、タッチパネル32から離し、アイコンIC1の移動先へ向けて移動させる。   When the user confirms that the icon IC1 has been selected, as shown in step S14, the finger F1 and the finger F2 are separated from the touch panel 32 while maintaining the interval, and the icon IC1 is moved to the destination. Move.

携帯電話端末1は、いずれかのオブジェクトを選択状態にした場合に、タッチパネル32の感度を高める。そのため、携帯電話端末1は、タッチパネル32から離れて移動する指F1および指F2の位置を検出することができる。例えば、タッチセンサ32bの検出方式が静電容量方式の場合、タッチパネル32は、感度を高めることにより、指F1との距離Dが数cmあってもタッチパネル32上の指F1の位置を検出することができる。   The cellular phone terminal 1 increases the sensitivity of the touch panel 32 when any object is selected. Therefore, the mobile phone terminal 1 can detect the positions of the finger F1 and the finger F2 that move away from the touch panel 32. For example, when the detection method of the touch sensor 32b is a capacitance method, the touch panel 32 detects the position of the finger F1 on the touch panel 32 even when the distance D to the finger F1 is several cm by increasing sensitivity. Can do.

携帯電話端末1は、オブジェクトを選択状態に遷移させた複数の物体が間隔を保ちながらタッチパネル32から離れて移動するのを検出すると、物体の移動に追随するように、オブジェクトに対応する画像IM1をタッチパネル32に表示する。画像IM1は、例えば、対応するオブジェクトと同一の外観を有する画像、対応するオブジェクトを半透明で表示する画像、または対応する画像と略同じ大きさの枠である。このように画像IM1を表示することにより、利用者は、アイコンIC1の移動先の位置を正確に知ることができる。なお、画像IM1ではなく、アイコンIC1そのものを物体の移動に追随して移動させてもよい。   When the mobile phone terminal 1 detects that a plurality of objects whose objects have been changed to the selected state move away from the touch panel 32 while maintaining an interval, the mobile phone terminal 1 displays an image IM1 corresponding to the object so as to follow the movement of the object. Display on the touch panel 32. The image IM1 is, for example, an image having the same appearance as the corresponding object, an image that displays the corresponding object in a translucent manner, or a frame that is approximately the same size as the corresponding image. By displaying the image IM1 in this way, the user can accurately know the position of the destination of the icon IC1. Note that instead of the image IM1, the icon IC1 itself may be moved following the movement of the object.

利用者は、指F1および指F2が目的地に到達すると、ステップS15に示すように、指F1および指F2の間隔を拡げる。携帯電話端末1は、移動していた物体の間隔が所定の距離よりも拡がったことを検出すると、それらの物体の中心付近に選択状態のオブジェクトを移動させ、オブジェクトの選択状態を解除する。また、携帯電話端末1は、タッチパネル32の感度を元に戻す。その結果、ステップS16に示すように、アイコンIC1は、利用者が意図した位置に移動される。なお、ここでいう所定の距離とは、例えば、移動すべきオブジェクトのサイズに、指が無意識のうちに拡がりうる距離を加算した距離である。   When the finger F1 and the finger F2 reach the destination, the user widens the interval between the finger F1 and the finger F2, as shown in step S15. When the cellular phone terminal 1 detects that the distance between the moving objects is larger than a predetermined distance, the cellular phone terminal 1 moves the selected object to the vicinity of the center of those objects and cancels the selected state of the object. In addition, the mobile phone terminal 1 restores the sensitivity of the touch panel 32. As a result, as shown in step S16, the icon IC1 is moved to the position intended by the user. The predetermined distance here is, for example, a distance obtained by adding a distance that the finger can unconsciously expand to the size of the object to be moved.

このように、本実施例では、利用者は、オブジェクトの近傍で指をタッチパネル32に接触させ、さらに、指をオブジェクトの表示領域の中心に近づけることにより、移動させたいオブジェクトを選択することができる。かかる動作は、現実のオブジェクトを摘んで選択する動作と類似しており、利用者にとって直感的で分かりやすい。   As described above, in this embodiment, the user can select an object to be moved by bringing the finger into contact with the touch panel 32 in the vicinity of the object and further bringing the finger close to the center of the display area of the object. . Such an operation is similar to the operation of picking and selecting a real object, and is intuitive and easy to understand for the user.

また、本実施例では、利用者は、オブジェクトを選択した指を間隔を保ったままでタッチパネル32から離して移動させ、目的の場所で指の間隔を拡げることにより、選択したオブジェクトを目的の場所へ移動させることができる。かかる動作は、現実のオブジェクトを持ち上げて運び、目的の場所に落とす動作と類似しており、利用者にとって直感的で分かりやすい。   In this embodiment, the user moves the selected object to the target location by moving the selected finger away from the touch panel 32 while maintaining the interval, and widening the finger interval at the target location. Can be moved. Such an operation is similar to an operation of lifting and carrying a real object and dropping it to a target location, and is intuitive and easy for the user to understand.

また、標準画面では、タップ操作は、オブジェクトに対応する処理の起動等に割り当てられ、スイープ操作は、標準画面の他のページへの遷移等に割り当てられることが多いが、本実施例の移動操作は、検出される指の動作がこれらの従来の操作時の動作と重複しない。このため、本実施例に係る制御方法は、従来の操作と競合することなく、オブジェクトを移動させるための操作を実現することができる。   On the standard screen, the tap operation is assigned to start processing corresponding to the object, and the sweep operation is often assigned to transition to another page of the standard screen. The finger movements detected do not overlap with those of the conventional operation. For this reason, the control method according to the present embodiment can realize an operation for moving an object without competing with a conventional operation.

また、本実施例では、オブジェクトを選択状態にした物体がタッチパネル32から離れて目的の位置まで移動している間だけタッチパネル32の感度が高められる。このため、タッチパネル32から離れて移動する物体の位置を検出することを可能にしつつ、感度を高めることによる消費電力の増大を抑制することができる。   In the present embodiment, the sensitivity of the touch panel 32 is increased only while the object in which the object is selected moves away from the touch panel 32 to the target position. For this reason, while making it possible to detect the position of an object that moves away from the touch panel 32, an increase in power consumption due to an increase in sensitivity can be suppressed.

携帯電話端末1は、図3および図4に示した動作以外の動作もオブジェクトの移動操作として受け付ける。例えば、携帯電話端末1は、オブジェクトが選択状態にした指をタッチパネル32から離して移動させた後、指をタッチパネル32に接触させてオブジェクトの移動先を確定させる動作も移動操作として受け付ける。   The cellular phone terminal 1 accepts operations other than the operations shown in FIGS. 3 and 4 as object movement operations. For example, the mobile phone terminal 1 accepts as an operation of moving the finger selected by the object away from the touch panel 32 and then bringing the finger into contact with the touch panel 32 to determine the destination of the object.

図5および図6は、指をタッチパネル32に接触させてオブジェクトの移動先を確定させる移動操作について説明するための図である。図5は、タッチパネル32の正面からみた移動操作の流れを図示している。図6は、タッチパネル32の側方からみた移動操作の流れを図示している。なお、図6では、移動されるオブジェクトの位置が模式的に示されているが、タッチパネル32を側方からみた場合に、必ずしもこのようにオブジェクトの位置が分かるわけではない。   FIG. 5 and FIG. 6 are diagrams for explaining a moving operation for making a finger touch the touch panel 32 to determine the destination of the object. FIG. 5 illustrates a flow of a moving operation as viewed from the front surface of the touch panel 32. FIG. 6 illustrates a flow of a moving operation viewed from the side of the touch panel 32. In FIG. 6, the position of the object to be moved is schematically shown. However, when the touch panel 32 is viewed from the side, the position of the object is not necessarily understood in this way.

ステップS21からステップS24は、既に説明したステップS11からステップS14と同様であるので説明を省略する。利用者は、タッチパネル32から離れて移動する指F1および指F2が目的地に到達すると、ステップS25に示すように、指F1および指F2の少なくとも一方をタッチパネル32に接触させる。   Steps S21 to S24 are the same as steps S11 to S14 that have already been described, and a description thereof will be omitted. When the finger F1 and the finger F2 moving away from the touch panel 32 reach the destination, the user brings at least one of the finger F1 and the finger F2 into contact with the touch panel 32 as shown in step S25.

携帯電話端末1は、移動していた物体がタッチパネル32に再び接触したことを検出すると、それらの物体の中心付近に選択状態のオブジェクトを移動させ、オブジェクトの選択状態を解除する。また、携帯電話端末1は、タッチパネル32の感度を元に戻す。その結果、ステップS26に示すように、アイコンIC1は、利用者が意図した位置に移動される。   When the mobile phone terminal 1 detects that the moving object has come into contact with the touch panel 32 again, the mobile phone terminal 1 moves the selected object to the vicinity of the center of those objects and cancels the selected state of the object. In addition, the mobile phone terminal 1 restores the sensitivity of the touch panel 32. As a result, as shown in step S26, the icon IC1 is moved to the position intended by the user.

このように、本実施例では、利用者は、オブジェクトを選択した指をタッチパネル32から離して移動させ、目的の場所で指をタッチパネル32に再び接触させることにより、選択したオブジェクトを目的の場所へ移動させることができる。かかる動作は、現実のオブジェクトを持ち上げて運び、目的の場所に置く動作と類似しており、利用者にとって直感的で分かりやすい。また、かかる動作は、従来の操作時の動作と重複しない。   As described above, in this embodiment, the user moves the finger that has selected the object away from the touch panel 32, and makes the finger touch the touch panel 32 again at the target location, thereby moving the selected object to the target location. Can be moved. Such an operation is similar to the operation of lifting and carrying a real object and placing it at a target location, and is intuitive and easy for the user to understand. Further, such an operation does not overlap with the operation during the conventional operation.

なお、図3から図6では、オブジェクトの移動操作について説明したが、上記の操作によって、オブジェクトが移動されるのではなく、オブジェクトが転記されることとしてもよい。操作によってオブジェクトが移動されるか転記されるかについては、利用者が予め行った設定に基づいて決定してもよいし、場面に応じて決定してもよい。場面に応じた決定は、タッチパネル32に表示されている画面に応じて行われてもよいし、利用者が同時または事前に行う他の操作(操作部13の押下等)に応じて行われてもよい。   3 to 6, the object moving operation has been described, but the object may be transferred instead of being moved by the above operation. Whether the object is moved or transcribed by the operation may be determined based on a setting made in advance by the user or may be determined according to the scene. The determination according to the scene may be made according to the screen displayed on the touch panel 32 or according to other operations (such as pressing the operation unit 13) performed simultaneously or in advance by the user. Also good.

次に、図7を参照しながら、移動(転記)処理の処理手順について説明する。図7は、移動(転記)処理の処理手順を示すフローチャートである。図7に示す処理手順は、制御部22が制御プログラム24aを実行することによって実現される。図7に示す処理手順は、オブジェクトの操作に関する他の処理手順と並行して実行されてもよい。   Next, the processing procedure of the movement (transcription) process will be described with reference to FIG. FIG. 7 is a flowchart showing the processing procedure of the movement (transcription) processing. The processing procedure shown in FIG. 7 is realized by the control unit 22 executing the control program 24a. The processing procedure shown in FIG. 7 may be executed in parallel with other processing procedures related to the operation of the object.

図7に示すように、制御部22は、まず、ステップS101として、オブジェクトを表示する。そして、制御部22は、ステップS102として、タッチパネル32によって、第1の物体および第2の物体が検出されたかを判定する。第1の物体および第2の物体は、例えば、利用者の指である。   As shown in FIG. 7, the control unit 22 first displays an object as step S101. And control part 22 judges whether the 1st object and the 2nd object were detected by touch panel 32 as Step S102. The first object and the second object are, for example, user's fingers.

第1の物体および第2の物体が検出された場合(ステップS102,Yes)、制御部22は、ステップS103として、選択動作が検出されたかを判定する。選択動作とは、表示されているオブジェクトを選択するための動作である。選択動作は、例えば、移動または転記したいオブジェクトの近傍で複数の指をタッチパネル32に接触させ、指をオブジェクトの表示領域の中心に近づける動作である。   When the first object and the second object are detected (step S102, Yes), the control unit 22 determines whether a selection operation is detected as step S103. The selection operation is an operation for selecting a displayed object. The selection operation is, for example, an operation in which a plurality of fingers are brought into contact with the touch panel 32 in the vicinity of an object to be moved or transcribed and the fingers are brought close to the center of the object display area.

選択動作が検出された場合(ステップS103,Yes)、制御部22は、ステップS104として、選択動作が検出された位置に表示されているオブジェクトを選択状態にする。そして、制御部22は、ステップS105として、第1の物体および第2の物体がタッチパネル32から離れてもそれらの位置を検出できるように、タッチパネル(検出部)32の感度を上げる。   When the selection operation is detected (Yes at Step S103), the control unit 22 sets the object displayed at the position where the selection operation is detected, as Step S104. And control part 22 raises the sensitivity of touch panel (detection part) 32 so that those positions can be detected even if the 1st object and the 2nd object leave touch panel 32 as Step S105.

続いて、制御部22は、ステップS106として、第1の物体および第2の物体の現在位置を取得する。現在位置を取得できた場合(ステップS107,Yes)、制御部22は、ステップS108として、選択状態のオブジェクトに対応する画像を現在位置に表示させる。そして、制御部22は、ステップS109として、確定動作が検出されたかを判定する。   Subsequently, in step S106, the control unit 22 acquires the current positions of the first object and the second object. When the current position can be acquired (step S107, Yes), the control unit 22 displays an image corresponding to the selected object at the current position as step S108. And control part 22 judges whether a definite operation was detected as Step S109.

確定動作とは、オブジェクトの移動先を確定するための動作である。確定動作は、例えば、第1の物体および第2の物体の間隔を所定の距離よりも拡げる動作、またはタッチパネル32から離れて移動する第1の物体および第2の物体を再びタッチパネル32に接触させる動作である。   The confirmation operation is an operation for confirming the movement destination of the object. The confirming operation is, for example, an operation of expanding the interval between the first object and the second object beyond a predetermined distance, or bringing the first object and the second object moving away from the touch panel 32 into contact with the touch panel 32 again. Is the action.

確定動作が検出されない場合(ステップS109,No)、制御部22は、ステップS106以降を再実行する。確定動作が検出された場合、すなわち、オブジェクトの移動先が確定した場合(ステップS109,Yes)、制御部22は、ステップS110として、現在位置に他のオブジェクトが表示されているかを判定する。   When the confirming operation is not detected (No at Step S109), the control unit 22 re-executes Step S106 and the subsequent steps. When the confirming operation is detected, that is, when the movement destination of the object is confirmed (step S109, Yes), the control unit 22 determines whether another object is displayed at the current position as step S110.

現在位置に他のオブジェクトが表示されていない場合(ステップS110,No)、制御部22は、ステップS111として、選択状態のオブジェクトを現在位置へ移動または転記する。そして、制御部22は、ステップS112として、オブジェクトの選択状態を解除し、ステップS113として、タッチパネル(検出部)32の感度を元に戻す。   When no other object is displayed at the current position (No at Step S110), the control unit 22 moves or transfers the selected object to the current position as Step S111. In step S112, the control unit 22 cancels the object selection state, and in step S113, the sensitivity of the touch panel (detection unit) 32 is restored.

続いて、制御部22は、ステップS114として、操作終了が検出されたかを判定する。操作終了は、例えば、操作部13に対する所定の操作が行われた場合に検出されてもよいし、タッチパネル32に対する所定の操作が行われた場合に検出されてもよい。操作終了が検出された場合(ステップS114,Yes)、制御部22は、移動(転記)処理を終了させる。操作終了が検出されない場合(ステップS114,No)、制御部22は、ステップS102以降を再実行する。   Subsequently, in step S114, the control unit 22 determines whether the operation end is detected. The operation end may be detected, for example, when a predetermined operation is performed on the operation unit 13 or may be detected when a predetermined operation is performed on the touch panel 32. When the operation end is detected (step S114, Yes), the control unit 22 ends the movement (transcription) process. When the operation end is not detected (No at Step S114), the control unit 22 re-executes Step S102 and the subsequent steps.

ステップS102で第1の物体および第2の物体が検出されない場合(ステップS102,No)、またはステップS103で選択動作が検出されない場合(ステップS103,No)、制御部22は、ステップS114以降を実行する。   When the first object and the second object are not detected in step S102 (step S102, No), or when the selection operation is not detected in step S103 (step S103, No), the control unit 22 executes step S114 and subsequent steps. To do.

ステップS107で第1の物体および第2の物体の現在位置を取得できない場合(ステップS107,No)、制御部22は、オブジェクトの移動または転記をキャンセルして、ステップS112以降を実行する。第1の物体および第2の物体の現在位置を取得できない場合には、第1の物体および第2の物体がタッチパネル32から離れ過ぎた場合が含まれる。   When the current positions of the first object and the second object cannot be acquired in step S107 (No in step S107), the control unit 22 cancels the movement or transcription of the object and executes step S112 and subsequent steps. The case where the current positions of the first object and the second object cannot be acquired includes the case where the first object and the second object are too far from the touch panel 32.

また、ステップS110で現在位置に他のオブジェクトが表示されている場合にも(ステップS110,Yes)、制御部22は、オブジェクトの移動または転記をキャンセルして、ステップS112以降を実行する。   Also, when another object is displayed at the current position in step S110 (step S110, Yes), the control unit 22 cancels the movement or transcription of the object, and executes step S112 and subsequent steps.

上述してきたように、本実施例では、タッチパネルを用いた従来の操作と競合することなく、直感的な操作により、オブジェクトの移動または転記を実現することができる。   As described above, in this embodiment, the object can be moved or transcribed by an intuitive operation without competing with the conventional operation using the touch panel.

なお、上記の実施例で示した本発明の態様は、本発明の要旨を逸脱しない範囲で任意に変更することができる。例えば、上記の実施例で示した制御プログラム24aは、複数のモジュールに分割されていてもよいし、他のプログラムと統合されていてもよい。   In addition, the aspect of this invention shown by said Example can be arbitrarily changed in the range which does not deviate from the summary of this invention. For example, the control program 24a shown in the above embodiment may be divided into a plurality of modules or may be integrated with other programs.

また、上記の実施例では、アイコンを移動または転記する例を示したが、本発明を用いて移動または転記されるオブジェクトはアイコンに限定されない。本発明を用いることにより、例えば、各種編集画面内の文字、図形、または画像等の編集要素、もしくは、ゲーム中のトランプまたは駒等のアイテムを移動または転記できるようにしてもよい。   Moreover, although the example which moves or transcribe | transfers an icon was shown in said Example, the object moved or transcribed using this invention is not limited to an icon. By using the present invention, for example, editing elements such as characters, graphics, or images in various editing screens, or items such as playing cards or pieces in a game may be moved or transcribed.

また、上記の実施例では、2次元のオブジェクトを移動または転記する例を示したが、本発明を用いて立体的に3次元表示されたオブジェクトを移動または転記できるようにしてもよい。オブジェクトの立体表示は、両眼の視差を利用して実現される。立体表示を実現する方式は、眼鏡を利用する方式でもよいし、裸眼で実現可能な方式でもよい。オブジェクトが立体表示される場合、指がタッチパネル32に接触していなくても選択動作および確定動作が検出されることが好ましい。   In the above-described embodiment, an example in which a two-dimensional object is moved or transcribed has been shown. However, an object displayed in a three-dimensional manner using the present invention may be moved or transcribed. The stereoscopic display of the object is realized using binocular parallax. The method for realizing the stereoscopic display may be a method using glasses or a method that can be realized with the naked eye. When the object is stereoscopically displayed, it is preferable that the selection operation and the confirmation operation are detected even if the finger is not in contact with the touch panel 32.

また、上記の実施例では、指F1および指F2が間隔を保った状態でオブジェクトの選択、移動(転記)を行ったが、指F1および指F2を接触させた状態でオブジェクトの選択、移動(転記)を行ってもよい。   In the above-described embodiment, the object is selected and moved (transcribed) with the finger F1 and the finger F2 kept spaced from each other. However, the object is selected and moved with the finger F1 and the finger F2 in contact ( (Posting) may be performed.

また、上記の実施例では、利用者が、選択動作を行った後、目的の位置まで指をタッチパネルから離して移動させることとしたが、利用者が、目的の位置まで指をタッチパネルに接触させたままで移動させて確定動作を行った場合に、オブジェクトが移動または転記されてもよい。   In the above embodiment, the user moves the finger away from the touch panel to the target position after performing the selection operation. However, the user touches the touch panel to the target position. The object may be moved or transcribed when it is moved as it is and the confirmation operation is performed.

また、上記の実施例では、オブジェクトが選択状態になったときにオブジェクトの表示態様を変更することとしたが、オブジェクトを選択状態にした指がタッチパネルから離れたときにもオブジェクトの表示態様を変更してよい。例えば、指の上昇にともなってオブジェクトがめくれ上がる様子をアニメーション表示してもよい。また、タッチパネルが立体表示に対応している場合、オブジェクトを選択状態にした指がタッチパネルから離れるまではオブジェクトが基底面上に置かれ、指の上昇にともなってオブジェクトが浮き上がるように立体表示してもよい。   In the above embodiment, the display mode of the object is changed when the object is selected. However, the display mode of the object is also changed when the finger that has selected the object is separated from the touch panel. You can do it. For example, an animation may be displayed in which the object turns up as the finger is raised. Also, if the touch panel supports 3D display, the object is placed on the base until the finger with the selected object is released from the touch panel, and the object is displayed in 3D as the finger is lifted. Also good.

また、上記の実施例では、オブジェクトに対する操作を指で行うこととしたが、手等の身体の他の部位、または先端に静電気を帯びた棒等の道具を用いてオブジェクトを操作することとしてもよい。   In the above embodiment, the operation on the object is performed with a finger. However, the object may be operated using a tool such as a stick charged with static electricity on another part of the body such as a hand or the tip. Good.

また、上記の実施例では、移動先に他のオブジェクトがある場合にはオブジェクトの移動または転記をキャンセルすることとしたが、移動先に存在するオブジェクトがコンテナオブジェクトである場合には、コンテナオブジェクト内への移動または転記を実行してもよい。コンテナオブジェクトとは、他のオブジェクトを格納可能なオブジェクト、例えば、フォルダまたはゴミ箱である。   In the above embodiment, when there is another object at the destination, the movement or transcription of the object is canceled. However, when the object existing at the destination is a container object, Move or post to may be performed. A container object is an object that can store other objects, for example, a folder or a trash can.

図8は、移動先がコンテナオブジェクトである場合の移動操作について説明するための図である。ステップS31からステップS34は、タッチパネル32上にフォルダアイコンIC2がさらに表示されていることを除いて、既に説明したステップS11からステップS14と同一である。フォルダアイコンIC2は、他のアイコンを格納することができるコンテナオブジェクトである。   FIG. 8 is a diagram for explaining the movement operation when the movement destination is a container object. Steps S31 to S34 are the same as steps S11 to S14 already described, except that the folder icon IC2 is further displayed on the touch panel 32. The folder icon IC2 is a container object that can store other icons.

利用者は、タッチパネル32から離れて移動する指F1および指F2が目的地であるフォルダアイコンIC2の上に到達すると、ステップS35に示すように、確定動作を実行する。携帯電話端末1は、コンテナオブジェクト上で確定動作を検出すると、選択状態のオブジェクトの選択状態を解除し、コンテナオブジェクトに格納する。また、携帯電話端末1は、タッチパネル32の感度を元に戻す。その結果、ステップS36に示すように、アイコンIC1は、フォルダアイコンIC2に格納され、表示されなくなる。   When the finger F1 and the finger F2 moving away from the touch panel 32 reach the destination folder icon IC2, the user performs a confirming operation as shown in step S35. When the mobile phone terminal 1 detects the confirming operation on the container object, the mobile phone terminal 1 cancels the selected state of the selected object and stores it in the container object. In addition, the mobile phone terminal 1 restores the sensitivity of the touch panel 32. As a result, as shown in step S36, the icon IC1 is stored in the folder icon IC2 and is not displayed.

また、上記の実施例では、オブジェクトの近傍で指をタッチパネルに接触させ、指をオブジェクトの表示領域の中心へ近づける動作が選択動作として検出されることとしたが、本発明において検出される選択動作は、かかる動作に限定されない。   Further, in the above embodiment, the operation of bringing a finger into contact with the touch panel near the object and bringing the finger closer to the center of the display area of the object is detected as the selection operation. However, the selection operation detected in the present invention Is not limited to such an operation.

図9は、他の選択動作について説明するための図である。図9に示すステップS41では、既に説明したステップS11と同様に、アイコンIC1を含む複数のアイコンが配置された標準画面がタッチパネル32に表示されている。利用者は、アイコンIC1を他の場所へ移動させたい場合、ステップS42に示すように、指F1、指F2および指F3をアイコンIC1の近傍でタッチパネル32に接触させ、さらに、指F1、指F2および指F3をアイコンIC1の表示領域の中心に近づける。   FIG. 9 is a diagram for explaining another selection operation. In step S41 shown in FIG. 9, a standard screen on which a plurality of icons including the icon IC1 are arranged is displayed on the touch panel 32, as in step S11 already described. When the user wants to move the icon IC1 to another place, as shown in step S42, the user brings the finger F1, the finger F2, and the finger F3 into contact with the touch panel 32 in the vicinity of the icon IC1, and further, the finger F1, the finger F2 The finger F3 is brought close to the center of the display area of the icon IC1.

携帯電話端末1は、アイコンIC1等の選択可能なオブジェクトの近傍でタッチパネル32に接触した3つ以上の物体がオブジェクトの表示領域の中心に近づくのが検出されると、ステップS43に示すように、そのオブジェクトを選択状態にする。それ以降のステップS44からステップS46は、既に説明したステップS14からステップS16と同様であるので説明を省略する。   When the mobile phone terminal 1 detects that three or more objects that have touched the touch panel 32 in the vicinity of a selectable object such as the icon IC1 approach the center of the display area of the object, as shown in step S43, Make the object selected. Subsequent steps S44 to S46 are the same as steps S14 to S16 which have already been described, and thus description thereof will be omitted.

図10は、他の選択動作について説明するための図である。図10に示すステップS51では、既に説明したステップS11と同様に、アイコンIC1を含む複数のアイコンが配置された標準画面がタッチパネル32に表示されている。利用者は、アイコンIC1を他の場所へ移動させたい場合、ステップS52に示すように、指F1および指F2をアイコンIC1の近傍でタッチパネル32に接触させ、さらに、指F2を静止させたままで指F1を指F2に近づける。   FIG. 10 is a diagram for explaining another selection operation. In step S51 shown in FIG. 10, a standard screen on which a plurality of icons including the icon IC1 are arranged is displayed on the touch panel 32, as in step S11 already described. When the user wants to move the icon IC1 to another location, as shown in step S52, the user brings the finger F1 and the finger F2 into contact with the touch panel 32 in the vicinity of the icon IC1, and further keeps the finger F2 stationary. Move F1 closer to finger F2.

携帯電話端末1は、アイコンIC1等の選択可能なオブジェクトの近傍または表示領域内でタッチパネル32に接触した複数の物体の一部が静止し、その他が静止している物体に近づくのが検出されると、ステップS53に示すように、そのオブジェクトを選択状態にする。それ以降のステップS54からステップS56は、既に説明したステップS14からステップS16と同様であるので説明を省略する。   The mobile phone terminal 1 detects that a part of a plurality of objects that have touched the touch panel 32 in the vicinity of the selectable object such as the icon IC1 or the like in the display area, and the other approaches a stationary object. Then, as shown in step S53, the object is selected. Subsequent steps S54 to S56 are the same as steps S14 to S16 already described, and thus the description thereof is omitted.

図9および図10に示すように、携帯電話端末1は、3本以上の指を用いた操作、または一方の指を静止させた操作を選択動作として受け付けてよい。タッチパネルを用いた従来の操作には、2つの指を同時に逆方向にスイープして画面を拡大縮小させる操作(ピンチ操作)が含まれるが、図9および図10に示した選択動作は、従来の2つの指を用いる操作と判別可能である。   As shown in FIGS. 9 and 10, the cellular phone terminal 1 may accept an operation using three or more fingers or an operation with one finger stationary as a selection operation. The conventional operation using the touch panel includes an operation (pinch operation) for simultaneously enlarging and reducing the screen by sweeping two fingers in the opposite directions at the same time. The selection operation shown in FIGS. It can be distinguished from an operation using two fingers.

その他、携帯電話端末1は、例えば、予めオブジェクトの大きさに合うように拡げた複数の指を、オブジェクトを囲む(挟む)ような配置でタッチパネルに接触させる動作を選択動作として受け付けてもよい。すなわち、携帯電話端末1は、オブジェクトの表示領域の中心に指を近づける動作を伴うことなく、オブジェクトの近傍に複数の指を接触させる動作を選択動作として受け付けてもよい。また、携帯電話端末1は、オブジェクトの近傍に複数の指を所定の時間以上継続して接触させる動作を選択動作として受け付けてもよい。   In addition, for example, the cellular phone terminal 1 may accept, as the selection operation, an operation in which a plurality of fingers that have been expanded in advance to fit the size of the object are brought into contact with the touch panel in an arrangement that surrounds (pinches) the object. That is, the cellular phone terminal 1 may accept an operation of bringing a plurality of fingers in contact with the vicinity of the object as a selection operation without an operation of bringing the finger close to the center of the display area of the object. In addition, the mobile phone terminal 1 may accept an operation in which a plurality of fingers are kept in contact with the vicinity of the object for a predetermined time or more as a selection operation.

また、上記実施例では、表示されるオブジェクトに対する操作を検出するためにタッチセンサを検出部として用いる例を示したが、検出部はこれに限られない。例えば、撮影部を検出部として用いてもよい。図11を参照しながら、撮影部を検出部として用いる例について説明する。図11は、撮影部を検出部として用いる携帯電話端末(電子機器)2の外観を示す正面図である。図11に示すように、携帯電話端末2は、撮影部40および撮影部42を備える点において携帯電話端末1と異なる。   Moreover, although the example which uses a touch sensor as a detection part in order to detect operation with respect to the displayed object was shown in the said Example, a detection part is not restricted to this. For example, an imaging unit may be used as the detection unit. An example in which the photographing unit is used as a detection unit will be described with reference to FIG. FIG. 11 is a front view showing an external appearance of a mobile phone terminal (electronic device) 2 using the photographing unit as a detection unit. As shown in FIG. 11, the mobile phone terminal 2 is different from the mobile phone terminal 1 in that it includes a photographing unit 40 and a photographing unit 42.

撮影部40および42は、CCD(Charge Coupled Device Image Sensor)またはCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮影する。そして、撮影部40および42は、撮影した画像を信号に変換して制御部22へ出力する。撮影部40および42は、タッチパネル32に表示されるオブジェクトを操作する物体を検出する検出部としても機能する。   The imaging units 40 and 42 electronically capture an image using an image sensor such as a charge coupled device image sensor (CCD) or a complementary metal oxide semiconductor (CMOS). The photographing units 40 and 42 convert the photographed images into signals and output the signals to the control unit 22. The imaging units 40 and 42 also function as a detection unit that detects an object that operates an object displayed on the touch panel 32.

携帯電話端末2は、複数の撮影部を備えるため、他の指等が障害となってオブジェクトを操作する物体を撮影できない事態の発生を抑止できる。なお、携帯電話端末2が備える撮影部の数は、2つに限定されない。また、撮影部40および42は、立体視空間内のどこに指等の物体が位置していてもその物体を撮影することができるように画角や配置が設定されていることが好ましい。また、撮影部40および42は、可視光の画像を取得する装置であってもよいし、赤外線等の不可視光の画像を取得する装置であってもよい。   Since the mobile phone terminal 2 includes a plurality of photographing units, it is possible to suppress the occurrence of a situation in which an object that manipulates the object cannot be photographed due to an obstacle of another finger or the like. Note that the number of photographing units included in the mobile phone terminal 2 is not limited to two. In addition, it is preferable that the photographing units 40 and 42 have an angle of view and an arrangement so that an object such as a finger can be photographed wherever the object is located in the stereoscopic space. Further, the imaging units 40 and 42 may be a device that acquires an image of visible light, or may be a device that acquires an image of invisible light such as infrared rays.

1、2 携帯電話端末
13 操作部
15 マイク
16 レシーバ
22 制御部
24 記憶部
24a 制御プログラム
26 通信部
30 音声処理部
32 タッチパネル
32a 表示部
32b タッチセンサ(検出部)
40、42 撮影部(検出部)
1, 2 Mobile phone terminal 13 Operation unit 15 Microphone 16 Receiver 22 Control unit 24 Storage unit 24a Control program 26 Communication unit 30 Voice processing unit 32 Touch panel 32a Display unit 32b Touch sensor (detection unit)
40, 42 Imaging unit (detection unit)

Claims (15)

オブジェクトを表示する表示部と、
前記表示部上での第1の物体および第2の物体の位置を検出する検出部と、
前記検出部によって検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させる制御部と
を備えることを特徴とする電子機器。
A display for displaying objects;
A detection unit for detecting positions of the first object and the second object on the display unit;
A control unit that changes the display of the object when the positions of the first object and the second object detected by the detection unit are in the vicinity of the object displayed on the display unit. Electronic equipment characterized by
前記制御部は、表示を変化させた前記オブジェクトを選択し、
その後、前記オブジェクトの表示領域以外の前記表示部上の位置で所定の動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該位置へ移動または転記することを特徴とする請求項1に記載の電子機器。
The control unit selects the object whose display has been changed,
Thereafter, when a predetermined motion is detected by the detection unit at a position on the display unit other than the display region of the object, the selected object is moved or transferred to the position. Item 2. The electronic device according to Item 1.
前記制御部は、前記オブジェクトを選択した後、前記所定の動作が検出されるまで、前記オブジェクトまたは前記オブジェクトに対応する画像を、前記検出部によって検出される前記第1の物体および前記第2の物体の位置に追従させることを特徴とする請求項2に記載の電子機器。   The control unit, after selecting the object, until the predetermined motion is detected, the object or an image corresponding to the object, the first object and the second object detected by the detection unit The electronic apparatus according to claim 2, wherein the electronic apparatus is made to follow a position of an object. 前記制御部は、前記第1の物体および前記第2の物体が前記表示部に接触し、かつ、前記第1の物体および前記第2の物体の位置が前記表示部に表示された前記オブジェクトの近傍であることが前記検出部によって検出された場合に前記オブジェクトを選択し、
その後、前記第1の物体および前記第2の物体が前記表示部と離れて移動し、他の位置で前記第1の物体および前記第2の物体の少なくとも一方が前記表示部と接触する動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該他の位置へ移動または転記することを特徴とする請求項2または3に記載の電子機器。
The control unit is configured such that the first object and the second object are in contact with the display unit, and the positions of the first object and the second object are displayed on the display unit. When the detection unit detects that the object is near, the object is selected,
Thereafter, the first object and the second object move away from the display unit, and at least one of the first object and the second object contacts the display unit at another position. 4. The electronic apparatus according to claim 2, wherein, when detected by the detection unit, the selected object is moved or transferred to the other position. 5.
前記制御部は、前記第1の物体および前記第2の物体が前記表示部に接触し、かつ、前記第1の物体および前記第2の物体の位置が前記表示部に表示された前記オブジェクトの近傍であることが前記検出部によって検出された場合に前記オブジェクトを選択し、
その後、前記表示部と離れて移動する前記第1の物体と前記第2の物体との間の距離が、前記表示部上の他の位置において所定の距離よりも拡がる動作が前記検出部によって検出された場合に、選択されている前記オブジェクトを当該他の位置へ移動または転記することを特徴とする請求項2または3に記載の電子機器。
The control unit is configured such that the first object and the second object are in contact with the display unit, and the positions of the first object and the second object are displayed on the display unit. When the detection unit detects that the object is near, the object is selected,
Thereafter, the detection unit detects an operation in which the distance between the first object and the second object moving away from the display unit is larger than a predetermined distance at another position on the display unit. 4. The electronic device according to claim 2, wherein when the object is selected, the selected object is moved or transferred to the other position. 5.
前記制御部は、前記オブジェクトを選択してから、前記オブジェクトを移動または転記するまで前記検出部の感度を高めることを特徴とする請求項4または5に記載の電子機器。   The electronic device according to claim 4, wherein the control unit increases sensitivity of the detection unit until the object is moved or transcribed after the object is selected. 前記制御部は、前記表示部と離れて移動する前記第1の物体および前記第2の物体を前記検出部が検出しなくなった場合に、前記オブジェクトの表示を元に戻すことを特徴とする請求項4から6のいずれか1項に記載の電子機器。   The said control part returns the display of the said object, when the said detection part stops detecting the said 1st object and the said 2nd object which move away from the said display part, It is characterized by the above-mentioned. Item 7. The electronic device according to any one of Items 4 to 6. 前記制御部は、前記所定の動作が検出された位置に他のオブジェクトが表示されていれる場合は、選択されている前記オブジェクトを当該位置へ移動または転記しないことを特徴とする請求項2から7のいずれか1項に記載の電子機器。   The control unit does not move or transfer the selected object to the position when another object is displayed at the position where the predetermined motion is detected. The electronic device according to any one of the above. 前記制御部は、前記所定の動作が検出された位置が、他のオブジェクトを格納可能なコンテナオブジェクトの表示領域に含まれる場合に、選択されている前記オブジェクトを当該コンテナオブジェクト内に移動または転記することを特徴とする請求項2から8のいずれか1項に記載の電子機器。   The control unit moves or transcribes the selected object into the container object when the position where the predetermined motion is detected is included in a display area of a container object that can store another object. The electronic device according to claim 2, wherein the electronic device is an electronic device. 前記制御部は、前記オブジェクトの近傍において、前記第1の物体および前記第2の物体の位置が前記オブジェクトの表示領域の中心に近付いていることが前記検出部によって検出された場合に、前記オブジェクトの表示を変化させることを特徴とする請求項1から9のいずれか1項に記載の電子機器。   In the vicinity of the object, the control unit detects the object when the detection unit detects that the positions of the first object and the second object are approaching the center of the display area of the object. The electronic device according to claim 1, wherein the display is changed. 前記検出部は、前記表示部上での第3の物体の位置をさらに検出し、
前記制御部は、前記オブジェクトの近傍において、前記第1の物体、前記第2の物体および前記第3の物体の位置が前記オブジェクトの表示領域の中心に近付いていることが前記検出部によって検出された場合に、前記オブジェクトの表示を変化させることを特徴とする請求項1から10のいずれか1項に記載の電子機器。
The detection unit further detects the position of the third object on the display unit,
In the control unit, the detection unit detects that the positions of the first object, the second object, and the third object are close to the center of the display area of the object in the vicinity of the object. The electronic device according to claim 1, wherein the display of the object is changed when it is detected.
前記制御部は、前記オブジェクトの表示領域内において、前記第1の物体の位置が、前記オブジェクトの表示領域内または近傍で静止している前記第2の物体の位置に近付いていることが前記検出部によって検出された場合に、前記オブジェクトの表示を変化させることを特徴とする請求項1から11のいずれか1項に記載の電子機器。   The control unit detects that the position of the first object is approaching the position of the second object that is stationary in or near the display area of the object in the display area of the object. The electronic device according to claim 1, wherein the display of the object is changed when detected by the unit. 前記表示部は、所定の領域内においてオブジェクトを立体的に表示し、
前記検出部は、前記所定の領域内での第1の物体および第2の物体の位置を検出することを特徴とする請求項1から12のいずれか1項に記載の電子機器。
The display unit displays an object three-dimensionally within a predetermined area,
The electronic device according to claim 1, wherein the detection unit detects the positions of the first object and the second object in the predetermined region.
表示部を備える電子機器によって実行される制御方法であって、
前記表示部にオブジェクトを表示するステップと、
前記表示部上での第1の物体および第2の物体の位置を検出するステップと、
検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップと
を含むことを特徴とする制御方法。
A control method executed by an electronic device including a display unit,
Displaying an object on the display unit;
Detecting the positions of the first object and the second object on the display unit;
And changing the display of the object when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit. Method.
表示部を備える電子機器に、
前記表示部にオブジェクトを表示するステップと、
前記表示部上での第1の物体および第2の物体の位置を検出するステップと、
検出された前記第1の物体および前記第2の物体の位置が、前記表示部に表示された前記オブジェクトの近傍である場合に前記オブジェクトの表示を変化させるステップと
を実行させることを特徴とする制御プログラム。
In electronic devices equipped with a display unit,
Displaying an object on the display unit;
Detecting the positions of the first object and the second object on the display unit;
Changing the display of the object when the detected positions of the first object and the second object are in the vicinity of the object displayed on the display unit. Control program.
JP2011143341A 2011-05-10 2011-06-28 Electronic device, control method, and control program Expired - Fee Related JP5815303B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011143341A JP5815303B2 (en) 2011-06-28 2011-06-28 Electronic device, control method, and control program
US13/467,833 US20120287065A1 (en) 2011-05-10 2012-05-09 Electronic device
US14/518,763 US20150035781A1 (en) 2011-05-10 2014-10-20 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011143341A JP5815303B2 (en) 2011-06-28 2011-06-28 Electronic device, control method, and control program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2015187172A Division JP2016001508A (en) 2015-09-24 2015-09-24 Electronic apparatus, control method and control program
JP2015187173A Division JP5977415B2 (en) 2015-09-24 2015-09-24 Electronic device, control method, and control program

Publications (2)

Publication Number Publication Date
JP2013011983A true JP2013011983A (en) 2013-01-17
JP5815303B2 JP5815303B2 (en) 2015-11-17

Family

ID=47685828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011143341A Expired - Fee Related JP5815303B2 (en) 2011-05-10 2011-06-28 Electronic device, control method, and control program

Country Status (1)

Country Link
JP (1) JP5815303B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127753A (en) * 2011-12-19 2013-06-27 Sharp Corp Input method for information processor and information processor
JP2015219751A (en) * 2014-05-19 2015-12-07 株式会社デンソーウェーブ Operation unit of air conditioner
WO2017164107A1 (en) * 2016-03-25 2017-09-28 ヤマハ株式会社 Device and method for setting parameter

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311668A (en) * 1994-05-19 1995-11-28 Hitachi Ltd Window and icon operating method and system using same
JPH1028276A (en) * 1996-07-10 1998-01-27 Hitachi Ltd Image-display device, image-transmitting device, image-display system and image-display method
JP2000293467A (en) * 1999-04-09 2000-10-20 Canon Inc Data processor and its method and storage medium for storing computer readable program
JP2001228971A (en) * 2000-02-15 2001-08-24 Newcom:Kk Touch panel system to be operated at plural indicating positions
JP2001356878A (en) * 2000-06-14 2001-12-26 Hitachi Ltd Icon control method
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
JP2010140300A (en) * 2008-12-12 2010-06-24 Sharp Corp Display, control method, control program and recording medium
WO2010089980A1 (en) * 2009-02-06 2010-08-12 パナソニック株式会社 Image display device
WO2010098050A1 (en) * 2009-02-25 2010-09-02 日本電気株式会社 Interface for electronic device, electronic device, and operation method, operation program, and operation system for electronic device
JP2011108152A (en) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd Three-dimensional input display device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311668A (en) * 1994-05-19 1995-11-28 Hitachi Ltd Window and icon operating method and system using same
JPH1028276A (en) * 1996-07-10 1998-01-27 Hitachi Ltd Image-display device, image-transmitting device, image-display system and image-display method
JP2000293467A (en) * 1999-04-09 2000-10-20 Canon Inc Data processor and its method and storage medium for storing computer readable program
JP2001228971A (en) * 2000-02-15 2001-08-24 Newcom:Kk Touch panel system to be operated at plural indicating positions
JP2001356878A (en) * 2000-06-14 2001-12-26 Hitachi Ltd Icon control method
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same
JP2010140300A (en) * 2008-12-12 2010-06-24 Sharp Corp Display, control method, control program and recording medium
WO2010089980A1 (en) * 2009-02-06 2010-08-12 パナソニック株式会社 Image display device
WO2010098050A1 (en) * 2009-02-25 2010-09-02 日本電気株式会社 Interface for electronic device, electronic device, and operation method, operation program, and operation system for electronic device
JP2011108152A (en) * 2009-11-20 2011-06-02 Fujitsu Toshiba Mobile Communications Ltd Three-dimensional input display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013127753A (en) * 2011-12-19 2013-06-27 Sharp Corp Input method for information processor and information processor
JP2015219751A (en) * 2014-05-19 2015-12-07 株式会社デンソーウェーブ Operation unit of air conditioner
US10473347B2 (en) 2014-05-19 2019-11-12 Denso Wave Incorporated Method and apparatus for commanding temperatures targeted by air conditioner
WO2017164107A1 (en) * 2016-03-25 2017-09-28 ヤマハ株式会社 Device and method for setting parameter

Also Published As

Publication number Publication date
JP5815303B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
JP6159078B2 (en) Apparatus, method, and program
US9423952B2 (en) Device, method, and storage medium storing program
JP5762944B2 (en) Apparatus, method, and program
JP5715042B2 (en) Apparatus, method, and program
US9268481B2 (en) User arrangement of objects on home screen of mobile device, method and storage medium thereof
US9703382B2 (en) Device, method, and storage medium storing program with control for terminating a program
US9542019B2 (en) Device, method, and storage medium storing program for displaying overlapped screens while performing multitasking function
US20130167090A1 (en) Device, method, and storage medium storing program
US9785324B2 (en) Device, method, and storage medium storing program
US20130086523A1 (en) Device, method, and storage medium storing program
JP2013084233A (en) Device, method, and program
JP6058790B2 (en) Apparatus, method, and program
US20130162574A1 (en) Device, method, and storage medium storing program
JP5805685B2 (en) Electronic device, control method, and control program
JP5858896B2 (en) Electronic device, control method, and control program
JP5815303B2 (en) Electronic device, control method, and control program
JP6096100B2 (en) Electronic device, control method, and control program
JP6088358B2 (en) Apparatus, control method, and program
JP5977415B2 (en) Electronic device, control method, and control program
JP6553681B2 (en) Smartphone, control method, and program
JP2016001508A (en) Electronic apparatus, control method and control program
JP6393303B2 (en) Apparatus, control method, and program
KR20140035081A (en) Menu control method in mobile terminal
JP2013134709A (en) Device, method, and program
JP2020035484A (en) Electronic apparatus, character input control method, and character input program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150924

R150 Certificate of patent or registration of utility model

Ref document number: 5815303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees