JP2016134154A - Electronic apparatus and coordinate determination program - Google Patents

Electronic apparatus and coordinate determination program Download PDF

Info

Publication number
JP2016134154A
JP2016134154A JP2015010716A JP2015010716A JP2016134154A JP 2016134154 A JP2016134154 A JP 2016134154A JP 2015010716 A JP2015010716 A JP 2015010716A JP 2015010716 A JP2015010716 A JP 2015010716A JP 2016134154 A JP2016134154 A JP 2016134154A
Authority
JP
Japan
Prior art keywords
coordinates
proximity
contact
coordinate
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015010716A
Other languages
Japanese (ja)
Inventor
笠間 晃一朗
Koichiro Kasama
晃一朗 笠間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015010716A priority Critical patent/JP2016134154A/en
Publication of JP2016134154A publication Critical patent/JP2016134154A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus and the like capable of allowing a user to select a desired operation coordinates.SOLUTION: A portable terminal includes: an acquisition section; a determination section; and a determination section 31E. The acquisition section acquires a proximity coordinate when a proximity operation is made on a touch panel first, and then acquires a contact coordinate when a contact operation is made thereon. When the proximity coordinate and the contact coordinate are different from each other, the determination section determines whether or not the acceleration of the portable terminal which is obtained based on the acceleration of the portable terminal from a point, when the proximity coordinate is acquired to a point when the contact coordinate is acquired, is made in a predetermined direction with respect to a movement direction from the proximity coordinate to the contact coordinate. When the acceleration of the portable terminal body is made in the predetermined direction, the determination section 31E determines the proximity coordinate as the operation coordinate.SELECTED DRAWING: Figure 2

Description

本発明は、電子機器及び座標決定プログラムに関する。   The present invention relates to an electronic device and a coordinate determination program.

近年、例えば、タブレット端末やスマートフォン等の電子機器には、タッチパネル画面上に操作指が触れることなく、非接触の状態の操作、すなわち近接操作を検知するホバーリング機能がある。電子機器は、例えば、ホバーリング機能を使用し、タッチパネル画面上の近接操作検知時点の近接座標を取得し、取得した近接座標を操作座標に決定し、近接座標に対応したコマンドを実行する。また、電子機器は、タッチパネル画面上の近接操作検知時点の近接座標を取得した後、タッチパネル画面上の接触状態の接触操作検知時点の接触座標を取得する場合もある。そして、電子機器は、取得した接触座標を操作座標に決定し、接触座標に対応したコマンドを実行する。   In recent years, for example, electronic devices such as tablet terminals and smartphones have a hovering function that detects a non-contact operation, that is, a proximity operation without touching an operation finger on a touch panel screen. The electronic device uses, for example, a hovering function, acquires proximity coordinates when a proximity operation is detected on the touch panel screen, determines the acquired proximity coordinates as operation coordinates, and executes a command corresponding to the proximity coordinates. In addition, the electronic device may acquire the contact coordinates at the time when the touch operation is detected on the touch panel screen after acquiring the close coordinates at the time when the touch operation is detected on the touch panel screen. Then, the electronic device determines the acquired contact coordinates as operation coordinates, and executes a command corresponding to the contact coordinates.

更に、電子機器は、近接操作時点の近接座標取得から接触操作時点の接触座標取得までの間に電子機器本体に揺れが生じた場合、揺れの大小に関係なく、揺れによる接触操作の発生と判断し、接触操作検知前の近接座標を操作座標として扱う技術も知られている。   Furthermore, when the electronic device shakes between the proximity coordinate acquisition at the time of the proximity operation and the contact coordinate acquisition at the time of the contact operation, the electronic device determines that the contact operation due to the shake occurs regardless of the magnitude of the shake. A technique is also known in which proximity coordinates before contact operation detection is handled as operation coordinates.

特開2011−257899号公報JP2011-257899A

しかしながら、電子機器では、例えば、近接座標取得から接触座標取得までの間に電子機器本体の揺れが微小の場合でも、近接座標を操作座標として扱うことになる。つまり、電子機器は、利用者が意図して接触操作を実行したにも関わらず、接触操作直前に電子機器本体の揺れが生じた場合、接触操作検知前の近接座標を操作座標として扱うことになるため、誤入力の要因となる。   However, in the electronic device, for example, even when the electronic device body shakes very little between the acquisition of the proximity coordinate and the acquisition of the contact coordinate, the proximity coordinate is handled as the operation coordinate. In other words, the electronic device treats the proximity coordinates before detecting the contact operation as the operation coordinates when the electronic device main body shakes immediately before the contact operation even though the user intentionally performed the contact operation. Therefore, it becomes a factor of erroneous input.

一つの側面では、接触操作直前に利用者が意図しない電子機器の移動が発生した場合でも、利用者が意図した操作座標を選択できる電子機器及び座標決定プログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide an electronic device and a coordinate determination program that can select an operation coordinate intended by a user even when a movement of the electronic device not intended by the user occurs immediately before the touch operation.

一つの態様では、取得部と、判定部と、決定部とを有する。取得部は、タッチパネル上の近接操作時の近接座標を取得した後、接触操作時の接触座標を取得する。判定部は、近接座標と接触座標とが異なる場合に、近接座標取得から接触座標取得までの間の当該電子機器本体の加速度で得た当該電子機器の加速度方向が、近接座標から接触座標への移動方向に対して所定の方向であるかを判定する。決定部は、電子機器本体の加速度方向が前記所定の方向である場合に、近接座標を、操作コマンドを実行する操作座標として決定する。   In one mode, it has an acquisition part, a judgment part, and a determination part. An acquisition part acquires the contact coordinate at the time of contact operation, after acquiring the proximity coordinate at the time of proximity operation on a touch panel. When the proximity coordinate and the contact coordinate are different, the determination unit determines that the acceleration direction of the electronic device obtained from the acceleration of the electronic device body from the proximity coordinate acquisition to the contact coordinate acquisition is from the proximity coordinate to the contact coordinate. It is determined whether the direction is a predetermined direction with respect to the moving direction. The determining unit determines the proximity coordinate as the operation coordinate for executing the operation command when the acceleration direction of the electronic device main body is the predetermined direction.

一つの側面として、接触操作直前に利用者が意図しない電子機器の移動が発生した場合でも、利用者が意図した操作座標を選択できる。   As one aspect, even when the movement of the electronic device unintended by the user occurs immediately before the touch operation, the operation coordinates intended by the user can be selected.

図1は、本実施例の携帯端末の一例を示す説明図である。FIG. 1 is an explanatory diagram illustrating an example of a mobile terminal according to the present embodiment. 図2は、サブプロセッサ及びアプリCPUの機能構成の一例を示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of a functional configuration of the sub processor and the application CPU. 図3は、タッチパネル側面の観点から近接座標及び接触座標の位置関係の一例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an example of the positional relationship between the proximity coordinates and the contact coordinates from the viewpoint of the touch panel side surface. 図4は、タッチパネル平面の観点から近接座標及び接触座標の位置関係の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of the positional relationship between the proximity coordinates and the contact coordinates from the viewpoint of the touch panel plane. 図5は、端末加速度方向と座標移動方向との関係の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of the relationship between the terminal acceleration direction and the coordinate movement direction. 図6は、座標決定処理に関わる携帯端末側のサブプロセッサ及びアプリCPUの処理動作の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of processing operations of the sub-processor and the application CPU on the mobile terminal side related to the coordinate determination process. 図7は、座標決定プログラムを実行する電子機器の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of an electronic device that executes the coordinate determination program.

以下、図面に基づいて、本願の開示する電子機器及び座標決定プログラムの実施例を詳細に説明する。尚、本実施例により、開示技術が限定されるものではない。また、以下に示す実施例は、矛盾を起こさない範囲で適宜組み合わせても良い。   Hereinafter, embodiments of an electronic device and a coordinate determination program disclosed in the present application will be described in detail based on the drawings. The disclosed technology is not limited by the present embodiment. Moreover, you may combine suitably the Example shown below in the range which does not cause contradiction.

図1は、本実施例の携帯端末1の一例を示す説明図である。図1に示す携帯端末1は、例えば、タブレット端末やスマートフォン等の電子機器である。携帯端末1は、スピーカ11と、マイク12と、LCD(Liquid Crystal Display)13と、タッチパネル14と、カメラ15と、ブルートゥース16と、GPS(Global Positioning System)17とを有する。携帯端末1は、無線部18と、WLAN(Wireless Local Area Network)無線部19と、通信CPU(Central Processing Unit)20と、ISP(Imaging Signal Processor)21と、音声DSP(Digital Signal Processor)22とを有する。更に、携帯端末1は、振動部23と、地磁気センサ24と、加速度センサ25と、ジャイロセンサ26と、静電容量センサ27と、サブプロセッサ28とを有する。更に、携帯端末1は、不揮発性メモリ29と、RAM(Random Access Memory)30と、アプリCPU31とを有する。   FIG. 1 is an explanatory diagram illustrating an example of the mobile terminal 1 according to the present embodiment. The mobile terminal 1 shown in FIG. 1 is an electronic device such as a tablet terminal or a smartphone. The mobile terminal 1 includes a speaker 11, a microphone 12, an LCD (Liquid Crystal Display) 13, a touch panel 14, a camera 15, Bluetooth 16, and a GPS (Global Positioning System) 17. The portable terminal 1 includes a wireless unit 18, a wireless local area network (WLAN) wireless unit 19, a communication CPU (Central Processing Unit) 20, an ISP (Imaging Signal Processor) 21, an audio DSP (Digital Signal Processor) 22, Have Further, the mobile terminal 1 includes a vibration unit 23, a geomagnetic sensor 24, an acceleration sensor 25, a gyro sensor 26, a capacitance sensor 27, and a sub processor 28. Furthermore, the mobile terminal 1 includes a nonvolatile memory 29, a RAM (Random Access Memory) 30, and an application CPU 31.

スピーカ11及びマイク12は、例えば、音声を入出力するインタフェースである。LCD13は、各種情報を画面表示する出力インタフェースである。タッチパネル14は、LCD13の画面上のタッチ操作を入力する入力インタフェースである。カメラ15は、例えば、静止画像や動画像を得る撮像機能である。ブルートゥース16は、近距離無線通信機能を司るインタフェースである。GPS17は、GPS衛星を使用して携帯端末1自体の現在位置を測定するシステムである。   The speaker 11 and the microphone 12 are interfaces that input and output audio, for example. The LCD 13 is an output interface that displays various information on the screen. The touch panel 14 is an input interface for inputting a touch operation on the screen of the LCD 13. The camera 15 has an imaging function for obtaining a still image or a moving image, for example. The Bluetooth 16 is an interface that manages a short-range wireless communication function. The GPS 17 is a system that measures the current position of the mobile terminal 1 itself using a GPS satellite.

無線部18は、通常の遠距離無線機能を司るインタフェースである。WLAN無線部19は、WLAN機能を司るインタフェースである。通信CPU20は、各種通信機能を司るCPUである。ISP21は、画像信号処理を司るプロセッサである。音声DSP22は、音声信号処理を司るプロセッサである。振動部23は、例えば、メール着信や音声着信等を利用者に報知すべく、例えば、着信信号等の信号に応じて設定周期で振動するバイブレーション機能である。   The wireless unit 18 is an interface that controls a normal long-distance wireless function. The WLAN radio unit 19 is an interface that controls the WLAN function. The communication CPU 20 is a CPU that controls various communication functions. The ISP 21 is a processor that controls image signal processing. The audio DSP 22 is a processor that controls audio signal processing. The vibration unit 23 is a vibration function that vibrates at a set cycle according to a signal such as an incoming signal, for example, in order to notify the user of an incoming mail or voice call.

サブプロセッサ28は、外付けのプロセッサである。地磁気センサ24は、例えば、携帯端末1の方位を検出するセンサである。加速度センサ25は、携帯端末1自体の所定軸方向、例えば、x軸、y軸及びz軸の3軸方向の加速度を検出するセンサである。ジャイロセンサ26は、例えば、3軸の角速度を検出するセンサである。静電容量センサ27は、タッチパネル14上の静電容量を検出するセンサである。サブプロセッサ28は、例えば、加速度センサ25のセンサ結果である携帯端末1本体の加速度を収集する。更に、サブプロセッサ28は、静電容量センサ27のセンサ結果に基づき、例えば、ホバーリング機能を利用したタッチパネル14上の非接触状態の近接操作や接触状態の接触操作を検知する。尚、ホバーリング機能は、タッチパネル14から軽く離れた非接触の状態でなぞることでタッチパネル14の操作を検知する操作機能である。更に、サブプロセッサ28は、静電容量センサ27のセンサ結果に基づき、タッチパネル14上の近接操作検知時点の近接座標や接触操作検知時点の接触座標を取得する。尚、座標は、タッチパネル14上の水平方向のx軸及びy軸、鉛直方向のz軸の(x、y、z)で表現する。   The sub processor 28 is an external processor. The geomagnetic sensor 24 is, for example, a sensor that detects the orientation of the mobile terminal 1. The acceleration sensor 25 is a sensor that detects acceleration in a predetermined axial direction of the mobile terminal 1 itself, for example, three axial directions of the x axis, the y axis, and the z axis. The gyro sensor 26 is, for example, a sensor that detects a triaxial angular velocity. The capacitance sensor 27 is a sensor that detects the capacitance on the touch panel 14. For example, the sub-processor 28 collects the acceleration of the mobile terminal 1 main body, which is the sensor result of the acceleration sensor 25. Furthermore, the sub processor 28 detects, for example, a non-contact proximity operation or a contact operation on the touch panel 14 using the hovering function based on the sensor result of the capacitance sensor 27. The hovering function is an operation function that detects an operation of the touch panel 14 by tracing in a non-contact state that is lightly separated from the touch panel 14. Furthermore, the sub processor 28 acquires the proximity coordinates at the time of detecting the proximity operation on the touch panel 14 and the contact coordinates at the time of detecting the contact operation based on the sensor result of the capacitance sensor 27. The coordinates are expressed by (x, y, z) of the horizontal x-axis and y-axis on the touch panel 14 and the vertical z-axis.

不揮発性メモリ29は、例えば、座標決定プログラム等の各種プログラムを記憶する領域である。RAM30は、各種情報を記憶する領域である。アプリCPU31は、携帯端末1全体を制御する。バス32は、携帯端末1内部のアプリCPU31やRAM30等の各種部位を相互に接続する。   The nonvolatile memory 29 is an area for storing various programs such as a coordinate determination program. The RAM 30 is an area for storing various information. The application CPU 31 controls the entire mobile terminal 1. The bus 32 connects various parts such as the application CPU 31 and the RAM 30 in the mobile terminal 1 to each other.

図2は、サブプロセッサ28及びアプリCPU31の機能構成の一例を示す説明図である。尚、サブプロセッサ28及びアプリCPU31は、不揮発性メモリ29に記憶された座標決定プログラムを読み出し、読み出された座標決定プログラムに基づき各種プロセスを機能として構成するものである。図2に示すサブプロセッサ28は、近接取得部28A、接触取得部28B及び加速度検出部28Cを機能として実行するものである。また、アプリCPU31は、第1の判定部31A、第2の判定部31B、第3の判定部31C、第4の判定部31D及び決定部31Eを機能として実行するものである。   FIG. 2 is an explanatory diagram illustrating an example of functional configurations of the sub processor 28 and the application CPU 31. The sub processor 28 and the application CPU 31 read out the coordinate determination program stored in the nonvolatile memory 29 and configure various processes as functions based on the read coordinate determination program. The sub processor 28 shown in FIG. 2 executes the proximity acquisition unit 28A, the contact acquisition unit 28B, and the acceleration detection unit 28C as functions. The application CPU 31 executes the first determination unit 31A, the second determination unit 31B, the third determination unit 31C, the fourth determination unit 31D, and the determination unit 31E as functions.

近接取得部28Aは、ホバーリング機能を起動した場合、静電容量センサ27を通じて、タッチパネル14上の近接操作を検知した場合に近接操作検知時点の座標を近接座標として取得する。近接取得部28Aは、取得した近接座標及び、近接操作検知時点の検知時刻をRAM30に保持する。接触取得部28Bは、静電容量センサ27を通じて、タッチパネル14上の接触操作を検知した場合に接触操作検知時点の座標を接触座標として取得し、その接触座標をRAM30内に保持する。加速度検出部28Cは、近接座標を取得したタイミングから加速度センサ25を通じて加速度をサンプリングし、加速度のサンプリングデータをRAM30に保持する。   When the hovering function is activated, the proximity acquisition unit 28A acquires the coordinates at the time of detecting the proximity operation as the proximity coordinates when the proximity operation on the touch panel 14 is detected through the capacitance sensor 27. The proximity acquisition unit 28A holds the acquired proximity coordinates and the detection time at the time of detection of the proximity operation in the RAM 30. When the contact operation on the touch panel 14 is detected through the capacitance sensor 27, the contact acquisition unit 28B acquires the coordinates at the time of detection of the contact operation as the contact coordinates, and holds the contact coordinates in the RAM 30. The acceleration detection unit 28C samples the acceleration through the acceleration sensor 25 from the timing when the proximity coordinates are acquired, and holds the acceleration sampling data in the RAM 30.

図3は、タッチパネル14側面の観点から近接座標及び接触座標の位置関係の一例を示す説明図、図4のタッチパネル14平面の観点から近接座標及び接触座標の位置関係の一例を示す説明図である。タッチパネル14の平面の水平方向をx軸及びy軸、鉛直方向をz軸で表現する。近接取得部28Aは、図3の(A)及び図4の(A)に示すようにタッチパネル14表面に操作指Fが接触しない非接触の状態で操作する近接操作を検知した場合、近接操作で検知した時点の近接座標(x1、y1、z1)を取得する。接触取得部28Bは、図3の(B)及び図4の(B)に示すようにタッチパネル14表面に操作指Fが接触した接触状態で操作する接触操作を検知した場合、接触操作で検知した時点の接触座標(x2,y2、z2)を取得する。   3 is an explanatory diagram illustrating an example of the positional relationship between the proximity coordinates and the contact coordinates from the viewpoint of the side surface of the touch panel 14, and an explanatory diagram illustrating an example of the positional relationship between the proximity coordinates and the contact coordinates from the viewpoint of the plane of the touch panel 14 in FIG. . The horizontal direction of the plane of the touch panel 14 is expressed by the x axis and the y axis, and the vertical direction is expressed by the z axis. When the proximity acquisition unit 28A detects a proximity operation that is operated in a non-contact state where the operation finger F does not contact the surface of the touch panel 14 as shown in FIGS. 3A and 4A, the proximity acquisition unit 28A performs the proximity operation. The proximity coordinates (x1, y1, z1) at the time of detection are acquired. When the contact acquisition unit 28B detects a contact operation operated in a contact state in which the operation finger F is in contact with the surface of the touch panel 14 as illustrated in FIGS. 3B and 4B, the contact acquisition unit 28B detects the contact operation. The contact coordinates (x2, y2, z2) at the time are acquired.

第1の判定部31Aは、近接操作検知時点の検知時刻から所定時間を経過したか否かを判定する。尚、所定時間は、例えば、3秒間とする。第1の判定部31Aは、近接操作の検知時刻から所定時間を経過した場合、近接操作検知から接触操作を検知するまでの間の時間がかかり過ぎるため、近接操作から接触操作へのホバーリング機能による操作でないと判断する。第1の判定部31Aは、近接操作の検知時刻から所定時間を経過しなかった場合、接触操作の検知待ちの監視動作を継続する。   The first determination unit 31A determines whether or not a predetermined time has elapsed from the detection time when the proximity operation is detected. The predetermined time is, for example, 3 seconds. The first determination unit 31A has a hovering function from the proximity operation to the contact operation because it takes too much time from the proximity operation detection to the contact operation when a predetermined time has elapsed from the detection time of the proximity operation. It is determined that this is not an operation. 31 A of 1st determination parts continue the monitoring operation | movement waiting for detection of contact operation, when predetermined time has not passed from the detection time of proximity | contact operation.

第2の判定部31Bは、近接座標及び接触座標に基づき、近接座標から接触座標への座標移動方向を算出する。例えば、第2の判定部31Bは、近接座標(x1、y1、z1)及び接触座標(x2、y2、z2)の内、x軸の値の移動量(x2−x1)とy軸の値の移動量(y2−y1)とで座標移動方向を算出する。更に、第2の判定部31Bは、近接座標(x1、y1)と接触座標(x2、y2)とをx軸及びy軸の値で比較し、近接座標と接触座標とが異なるか否かを判定する。第2の判定部31Bは、近接座標と接触座標とが同一の場合、すなわち(x1=x2)及び(y1=y2)の場合、近接操作及び接触操作が同一座標の操作と判断する。第2の判定部31Bは、近接座標(x1、y1)と接触座標(x2、y2)とで異なる場合、すなわち(x1≠x2)及び(y1≠y2)の場合、近接操作と接触操作とが異なる座標の操作と判断する。   The second determination unit 31B calculates a coordinate movement direction from the proximity coordinates to the contact coordinates based on the proximity coordinates and the contact coordinates. For example, the second determination unit 31B calculates the movement amount (x2-x1) of the x-axis value and the y-axis value among the proximity coordinates (x1, y1, z1) and the contact coordinates (x2, y2, z2). The coordinate movement direction is calculated from the movement amount (y2−y1). Further, the second determination unit 31B compares the proximity coordinates (x1, y1) and the contact coordinates (x2, y2) with the values of the x-axis and the y-axis, and determines whether the proximity coordinates and the contact coordinates are different. judge. When the proximity coordinates and the contact coordinates are the same, that is, (x1 = x2) and (y1 = y2), the second determination unit 31B determines that the proximity operation and the contact operation are operations of the same coordinate. In the case where the proximity coordinates (x1, y1) and the contact coordinates (x2, y2) are different, that is, in the case of (x1 ≠ x2) and (y1 ≠ y2), the second determination unit 31B performs the proximity operation and the contact operation. Judged as an operation with different coordinates.

第3の判定部31Cは、近接座標と接触座標とが異なる場合、近接座標(x1、y1、z1)取得から接触座標(x2、y2、z2)取得までの加速度のサンプリングデータをRAM30から読み出し、加速度のサンプリングデータから端末加速度を算出する。尚、端末加速度は、操作指が近接座標から接触座標へ到達するまでの間に発生した携帯端末1の加速度である。第3の判定部31Cは、加速度のサンプリングデータからx軸及びy軸の値の二乗和(x+y)の平方根で端末加速度を算出する。更に、第3の判定部31Cは、算出した端末加速度が所定値以上であるか否かを判定する。その結果、第3の判定部31Cは、算出した端末加速度が所定値以上の場合、近接座標から接触座標まで移動する程度の携帯端末1自体への外力が発生したと判断する。尚、所定値は、近接座標から接触座標に移動する程度の加速度である。 When the proximity coordinates and the contact coordinates are different, the third determination unit 31C reads acceleration sampling data from the proximity coordinates (x1, y1, z1) acquisition to the contact coordinates (x2, y2, z2) acquisition from the RAM 30, The terminal acceleration is calculated from the acceleration sampling data. Note that the terminal acceleration is the acceleration of the mobile terminal 1 generated until the operating finger reaches the contact coordinates from the proximity coordinates. The third determination unit 31C calculates the terminal acceleration using the square root of the sum of squares of the x-axis and y-axis values (x 2 + y 2 ) from the acceleration sampling data. Furthermore, the third determination unit 31C determines whether or not the calculated terminal acceleration is equal to or greater than a predetermined value. As a result, when the calculated terminal acceleration is equal to or greater than a predetermined value, the third determination unit 31C determines that an external force has been generated on the mobile terminal 1 itself so as to move from the proximity coordinates to the contact coordinates. Note that the predetermined value is an acceleration that moves to the contact coordinates from the proximity coordinates.

第4の判定部31Dは、端末加速度の端末加速度方向と、座標移動方向とを比較し、端末加速度方向が座標移動方向に対して所定の方向である、例えば、座標移動方向と同一方向であるか否かを判定する。第4の判定部31Dは、端末加速度方向のx軸及びy軸の値の符号“+”及び“−”と、座標移動方向のx軸及びy軸の値の符号“+”及び“−”とを比較する。図5は、端末加速度方向と座標移動方向との関係の一例を示す説明図である。図5に示す端末加速度方向のx軸及びy軸の値の符号は“+”である。また、座標移動方向のx軸及びy軸の値の符号も“+”である。つまり、第4の判定部31Dは、端末加速度方向(+x3、+y3)の符号(+、+)と、座標移動方向(+x4、+y4)の符号(+、+)とが一致しているため、端末加速度方向と座標移動方向とが同一方向と判定する。その結果、第4の判定部31Dは、端末加速度方向と座標移動方向とが同一方向の場合、接触操作が利用者の意図せぬ携帯端末1自体の外力発生によるものと判断する。   The fourth determination unit 31D compares the terminal acceleration direction of the terminal acceleration with the coordinate movement direction, and the terminal acceleration direction is a predetermined direction with respect to the coordinate movement direction, for example, the same direction as the coordinate movement direction. It is determined whether or not. The fourth determination unit 31D includes the signs “+” and “−” of the x-axis and y-axis values in the terminal acceleration direction, and the signs “+” and “−” of the x-axis and y-axis values in the coordinate movement direction. And compare. FIG. 5 is an explanatory diagram illustrating an example of the relationship between the terminal acceleration direction and the coordinate movement direction. The signs of the x-axis and y-axis values in the terminal acceleration direction shown in FIG. 5 are “+”. Also, the signs of the x-axis and y-axis values in the coordinate movement direction are also “+”. That is, since the sign (+, +) of the terminal acceleration direction (+ x3, + y3) and the sign (+, +) of the coordinate movement direction (+ x4, + y4) match in the fourth determination unit 31D. It is determined that the terminal acceleration direction and the coordinate movement direction are the same direction. As a result, when the terminal acceleration direction and the coordinate movement direction are the same direction, the fourth determination unit 31D determines that the contact operation is due to an external force generated by the mobile terminal 1 itself that is not intended by the user.

第4の判定部31Dは、例えば、端末加速度方向(+x3、+y3)の符号(+x、+y)と、座標移動方向(+x4、−y4)の符号(+x、−y)とが一致しなかった場合、端末加速度方向と座標移動方向とが同一方向でないと判定する。その結果、第4の判定部31Dは、端末加速度方向と座標移動方向とが同一方向でない場合、接触操作が携帯端末1自体の外力発生によるものではないと判断する。   For example, the fourth determination unit 31D does not match the sign (+ x, + y) of the terminal acceleration direction (+ x3, + y3) and the sign (+ x, -y) of the coordinate movement direction (+ x4, -y4). In this case, it is determined that the terminal acceleration direction and the coordinate movement direction are not the same direction. As a result, if the terminal acceleration direction and the coordinate movement direction are not the same direction, the fourth determination unit 31D determines that the contact operation is not due to the generation of an external force of the mobile terminal 1 itself.

決定部31Eは、第4の判定部31Dで端末加速度方向と座標移動方向とが同一方向の場合、接触操作が利用者の意図せぬ携帯端末1自体の外力発生によるものと判断し、接触操作検知前の近接座標を操作座標として決定する。その結果、アプリCPU31は、近接座標に対応する操作コマンドを実行する。   When the fourth determination unit 31D determines that the terminal acceleration direction and the coordinate movement direction are the same direction, the determination unit 31E determines that the contact operation is caused by an external force generated by the mobile terminal 1 itself that is not intended by the user. The proximity coordinates before detection are determined as operation coordinates. As a result, the application CPU 31 executes an operation command corresponding to the proximity coordinates.

決定部31Eは、第4の判定部31Dで加速度方向と座標移動方向とが同一方向でない場合、接触操作が携帯端末1の外力発生によるものでないと判断し、接触操作検知時点の接触座標を操作座標として決定する。その結果、アプリCPU31は、接触座標に対応する操作コマンドを実行する。   The determination unit 31E determines that the contact operation is not due to the generation of an external force of the mobile terminal 1 when the acceleration direction and the coordinate movement direction are not the same in the fourth determination unit 31D, and operates the contact coordinates when the contact operation is detected. Determine as coordinates. As a result, the application CPU 31 executes an operation command corresponding to the contact coordinates.

次に本実施例の携帯端末1の動作について説明する。図6は、座標決定処理に関わる携帯端末1側のサブプロセッサ28及びアプリCPU31の処理動作の一例を示すフローチャートである。図6に示す座標決定処理は、ホバーリング機能の使用中に近接座標取得後に接触座標を取得し、例えば、端末加速度方向と座標移動方向とが同一方向の場合に接触操作検知前の近接座標を操作座標として決定する処理である。   Next, the operation of the mobile terminal 1 of this embodiment will be described. FIG. 6 is a flowchart illustrating an example of processing operations of the sub processor 28 and the application CPU 31 on the portable terminal 1 side related to the coordinate determination process. The coordinate determination process shown in FIG. 6 acquires the contact coordinates after acquiring the proximity coordinates while using the hovering function. For example, when the terminal acceleration direction and the coordinate movement direction are the same direction, the proximity coordinates before detecting the contact operation are obtained. This is a process for determining operation coordinates.

図6においてアプリCPU31は、ホバーリング機能を起動したか否かを判定する(ステップS11)。尚、ホバーリング機能は、例えば、タッチパネル14上の設定操作で起動するものである。アプリCPU31は、ホバーリング機能を起動した場合(ステップS11肯定)、ホバーリング機能の停止要求を検出したか否かを判定する(ステップS12)。尚、停止要求は、例えば、タッチパネル14上の停止操作で要求するものである。   In FIG. 6, the application CPU 31 determines whether or not the hovering function is activated (step S11). The hovering function is activated by a setting operation on the touch panel 14, for example. When the application CPU 31 activates the hovering function (Yes at Step S11), the application CPU 31 determines whether or not a stop request for the hovering function is detected (Step S12). The stop request is made by a stop operation on the touch panel 14, for example.

サブプロセッサ28内の近接取得部28Aは、ホバーリング機能の停止要求を検出しなかった場合(ステップS12否定)、静電容量センサ27を通じて、タッチパネル14上の近接操作を検知したか否かを判定する(ステップS13)。近接取得部28Aは、タッチパネル14上の近接操作検知時点の近接座標を取得した場合(ステップS13肯定)、近接操作検知時点の近接座標(x1、y1、z1)を取得する(ステップS14)。   When the proximity acquisition unit 28A in the sub-processor 28 does not detect the hovering function stop request (No at Step S12), the proximity acquisition unit 28A determines whether the proximity operation on the touch panel 14 is detected through the capacitance sensor 27. (Step S13). When the proximity acquisition unit 28A acquires the proximity coordinates at the time when the proximity operation is detected on the touch panel 14 (Yes at Step S13), the proximity acquisition unit 28A acquires the proximity coordinates (x1, y1, z1) at the time when the proximity operation is detected (Step S14).

近接取得部28Aは、近接座標を取得した後、取得した近接座標及び近接操作の検知時刻をRAM30内に保持する(ステップS15)。サブプロセッサ28内の加速度検知部28Cは、近接座標及び近接操作の検知時刻をRAM30内に保持した後、加速度センサ25で検出した携帯端末1の加速度をサンプリングしてRAM30内に順次保持する(ステップS16)。   After acquiring the proximity coordinates, the proximity acquisition unit 28A holds the acquired proximity coordinates and the detection time of the proximity operation in the RAM 30 (step S15). The acceleration detection unit 28C in the sub processor 28 holds the proximity coordinates and the detection time of the proximity operation in the RAM 30, and then samples the acceleration of the portable terminal 1 detected by the acceleration sensor 25 and sequentially holds it in the RAM 30 (step). S16).

サブプロセッサ28内の接触取得部28Bは、タッチパネル14への接触操作を検知したか否かを判定する(ステップS17)。アプリCPU31内の第1の判定部31Aは、タッチパネル14上の接触操作を検知しなかった場合(ステップS17否定)、近接座標の検知時刻から所定時間、例えば、3秒間を経過したか否かを判定する(ステップS18)。   The contact acquisition unit 28B in the sub processor 28 determines whether or not a contact operation on the touch panel 14 has been detected (step S17). If the first determination unit 31A in the application CPU 31 does not detect the touch operation on the touch panel 14 (No at Step S17), the first determination unit 31A determines whether or not a predetermined time, for example, 3 seconds has elapsed since the proximity coordinate detection time. Determination is made (step S18).

第1の判定部31Aは、近接操作の検知時刻から所定時間を経過した場合(ステップS18肯定)、ホバーリング機能の停止要求を検出したか否かを判定すべく、ステップS12に移行する。また、第1の判定部31Aは、近接操作の検知時刻から所定時間を経過しなかった場合(ステップS18否定)、加速度のサンプリング保持を継続すべく、ステップS16に移行する。   If a predetermined time has elapsed from the detection time of the proximity operation (Yes at Step S18), the first determination unit 31A proceeds to Step S12 to determine whether or not a stop request for the hovering function has been detected. If the predetermined time has not elapsed since the detection time of the proximity operation (No at Step S18), the first determination unit 31A proceeds to Step S16 in order to continue sampling of acceleration.

サブプロセッサ28内の接触取得部28Bは、タッチパネル14への接触操作を検知した場合(ステップS17肯定)、タッチパネル14上の接触操作検知時点の接触座標(x2、y2、z2)を取得する(ステップS19)。アプリCPU31内の第2の判定部31Bは、取得した近接座標及び接触座標に基づき、x軸及びy軸の移動量(x2−x1)、(y2−y1)で座標移動方向を算出する(ステップS20)。   When the contact acquisition unit 28B in the sub-processor 28 detects a contact operation on the touch panel 14 (Yes at Step S17), the contact acquisition unit 28B acquires the contact coordinates (x2, y2, z2) when the contact operation is detected on the touch panel 14 (Step S17). S19). Based on the acquired proximity coordinates and contact coordinates, the second determination unit 31B in the application CPU 31 calculates the coordinate movement direction using the movement amounts (x2-x1) and (y2-y1) of the x-axis and the y-axis (Step 2). S20).

アプリCPU31内の第2の判定部31Bは、近接座標と接触座標とのx軸及びy軸の値を比較し(ステップS21)、近接座標(x1、y1)と接触座標(x2、y2)とが異なるか否かを判定する(ステップS22)。第2の判定部31Bは、近接座標と接触座標とが異なる場合(ステップS22肯定)、近接座標取得から接触座標取得までの間でサンプリングした加速度をRAM30内から取得する(ステップS23)。   The second determination unit 31B in the application CPU 31 compares the x-axis and y-axis values of the proximity coordinates and the contact coordinates (step S21), and the proximity coordinates (x1, y1) and the contact coordinates (x2, y2) Are different from each other (step S22). When the proximity coordinate and the contact coordinate are different (Yes at Step S22), the second determination unit 31B acquires the acceleration sampled between the proximity coordinate acquisition and the contact coordinate acquisition from the RAM 30 (Step S23).

アプリCPU31内の第3の判定部31Cは、近接座標取得から接触座標取得までの加速度からx軸及びy軸の値の二乗和(x+y)の平方根で端末加速度を算出する(ステップS24)。第3の判定部31Cは、端末加速度が所定値以上であるか否かを判定する(ステップS25)。アプリCPU31内の第4の判定部31Dは、端末加速度が所定値以上の場合(ステップS25肯定)、端末加速度のx軸及びy軸の値の各符号と座標移動方向のx軸及びy軸の値の各符号とを比較する(ステップS26)。第4の判定部31Dは、端末加速度の符号と座標移動方向の符号とが一致したか否かを判定する(ステップS27)。 The third determination unit 31C in the application CPU 31 calculates the terminal acceleration using the square root of the sum of squares of the x-axis and y-axis values (x 2 + y 2 ) from the acceleration from the proximity coordinate acquisition to the contact coordinate acquisition (step S24). ). The third determination unit 31C determines whether or not the terminal acceleration is greater than or equal to a predetermined value (step S25). When the terminal acceleration is greater than or equal to a predetermined value (Yes at Step S25), the fourth determination unit 31D in the application CPU 31 determines the signs of the x-axis and y-axis values of the terminal acceleration and the x-axis and y-axis of the coordinate movement direction. The signs of the values are compared (step S26). The fourth determination unit 31D determines whether or not the sign of the terminal acceleration matches the sign of the coordinate movement direction (step S27).

アプリCPU31内の決定部31Eは、端末加速度の符号と座標移動方向の符号とが一致した場合(ステップS27肯定)、つまり、端末加速度の方向が座標移動方向と同一方向の場合、接触操作検知前の近接座標を操作座標として決定する(ステップS28)。その結果、携帯端末1は、接触操作が利用者の意図せぬ携帯端末1自体の外力発生によるものと判断し、接触操作検知前の近接座標を操作座標として決定し、近接座標に対応する操作コマンドを実行する。例えば、図4の(B)に示すように、近接座標が“5”の文字入力、接触座標が“6”の文字入力の場合、アプリCPU31は、近接座標を操作座標として決定するため、近接座標に対応した“5”の文字入力の操作コマンドを実行することになる。そして、アプリCPU31は、ホバーリング機能の停止要求を検出したか否かを判定すべく、ステップS12に移行する。   When the sign of the terminal acceleration matches the sign of the coordinate movement direction (Yes at step S27), that is, when the direction of the terminal acceleration is the same direction as the coordinate movement direction, the determination unit 31E in the application CPU 31 detects the contact operation. Are determined as operation coordinates (step S28). As a result, the mobile terminal 1 determines that the contact operation is due to an external force generated by the mobile terminal 1 itself that is not intended by the user, determines the proximity coordinates before detecting the contact operation as the operation coordinates, and performs an operation corresponding to the proximity coordinates. Execute a command. For example, as shown in FIG. 4B, in the case of the character input with the proximity coordinate “5” and the character input with the contact coordinate “6”, the application CPU 31 determines the proximity coordinate as the operation coordinate. The operation command for character input “5” corresponding to the coordinates is executed. Then, the application CPU 31 proceeds to step S12 in order to determine whether or not a stop request for the hovering function has been detected.

決定部31Eは、近接座標と接触座標とが異ならない場合(ステップS22否定)、接触操作検知時点の接触座標を操作座標として決定する(ステップS29)。その結果、携帯端末1は、近接座標と接触座標とが同一座標のため、接触操作検知時点の接触座標を操作座標として決定し、接触座標に対応する操作コマンドを実行する。アプリCPU31は、図4の(B)に示すように、接触座標を操作座標として決定するため、接触座標に対応した“6”の文字入力の操作コマンドを実行することになる。アプリCPU31は、ホバーリング機能の停止要求を検出したか否かを判定すべく、ステップS12に移行する。   When the proximity coordinate and the contact coordinate are not different (No at Step S22), the determination unit 31E determines the contact coordinate at the time of detecting the contact operation as the operation coordinate (Step S29). As a result, since the proximity coordinates and the contact coordinates are the same, the mobile terminal 1 determines the contact coordinates at the time of detecting the contact operation as the operation coordinates, and executes an operation command corresponding to the contact coordinates. As shown in FIG. 4B, the application CPU 31 executes a character input operation command of “6” corresponding to the contact coordinates in order to determine the contact coordinates as the operation coordinates. The application CPU 31 proceeds to step S12 in order to determine whether or not a hovering function stop request has been detected.

決定部31Eは、端末加速度が所定値以上でない場合(ステップS25否定)、接触操作検知時点の接触座標を操作座標として決定すべく、ステップS29に移行する。その結果、携帯端末1は、端末加速度が所定値以上でないため、接触操作検知時点の接触座標を操作座標として決定し、接触座標に対応する操作コマンドを実行する。   If the terminal acceleration is not equal to or greater than the predetermined value (No at Step S25), the determination unit 31E proceeds to Step S29 in order to determine the contact coordinates at the time of detecting the contact operation as the operation coordinates. As a result, since the terminal acceleration is not equal to or greater than the predetermined value, the mobile terminal 1 determines the contact coordinates at the time of detecting the contact operation as the operation coordinates, and executes an operation command corresponding to the contact coordinates.

決定部31Eは、端末加速度の符号と座標移動方向の符号とが一致しなかった場合(ステップS27否定)、接触操作検知時点の接触座標を操作座標として決定すべく、ステップS29に移行する。その結果、携帯端末1は、端末加速度方向と座標移動方向とが同一方向でないため、接触操作検知時点の接触座標を操作座標として決定し、接触座標に対応する操作コマンドを実行する。   When the sign of the terminal acceleration and the sign of the coordinate movement direction do not match (No at Step S27), the determination unit 31E proceeds to Step S29 in order to determine the contact coordinates at the time of detecting the contact operation as the operation coordinates. As a result, since the terminal acceleration direction and the coordinate movement direction are not the same direction, the mobile terminal 1 determines the contact coordinates at the time of detecting the contact operation as the operation coordinates, and executes an operation command corresponding to the contact coordinates.

アプリCPU31は、ホバーリング機能の停止要求を検出した場合(ステップS12肯定)、ホバーリング機能を停止し(ステップS30)、図6に示す処理動作を終了する。近接取得部28Aは、近接操作を検知しなかった場合(ステップS13否定)、ホバーリング機能の停止要求を検出したか否かを判定すべく、ステップS12に移行する。   When the application CPU 31 detects a stop request for the hovering function (Yes at Step S12), the application CPU 31 stops the hovering function (Step S30), and ends the processing operation illustrated in FIG. When the proximity acquisition unit 28A does not detect the proximity operation (No at Step S13), the proximity acquisition unit 28A proceeds to Step S12 in order to determine whether or not a stop request for the hovering function is detected.

座標決定処理を実行するアプリCPU31は、近接操作検知時点の近接座標と接触操作検知時点の接触座標とに基づき座標移動方向を算出する。更に、アプリCPU31は、近接座標取得から接触座標取得までの間の加速度から端末加速度を算出する。更に、アプリCPU31は、近接座標と接触座標とが異なり、端末加速度が所定値以上、かつ、端末加速度のx軸及びy軸の値の符号と、座標移動方向のx軸及びy軸の値の符号とが一致した場合、接触操作検知前の近接座標を操作座標として決定する。その結果、携帯端末1は、接触操作が利用者の意図せぬ携帯端末1自体の外力発生によるものと判断し、接触操作検知前の近接座標を操作座標として決定し、近接座標に対応する操作コマンドを実行できる。   The application CPU 31 that executes the coordinate determination process calculates the coordinate movement direction based on the proximity coordinates at the time of detecting the proximity operation and the contact coordinates at the time of detecting the contact operation. Furthermore, the application CPU 31 calculates the terminal acceleration from the acceleration from the proximity coordinate acquisition to the contact coordinate acquisition. Furthermore, the application CPU 31 differs from the proximity coordinates and the contact coordinates, the terminal acceleration is equal to or greater than a predetermined value, the sign of the x-axis and y-axis values of the terminal acceleration, and the x-axis and y-axis values of the coordinate movement direction. When the codes match, the proximity coordinates before detecting the touch operation are determined as the operation coordinates. As a result, the mobile terminal 1 determines that the contact operation is due to an external force generated by the mobile terminal 1 itself that is not intended by the user, determines the proximity coordinates before detecting the contact operation as the operation coordinates, and performs an operation corresponding to the proximity coordinates. Can execute commands.

アプリCPU31は、近接座標と接触座標とが同一の場合、接触操作検知時点の接触座標を操作座標として決定する。その結果、携帯端末1は、近接座標と接触座標とが同一座標のため、接触操作検知時点の接触座標に対応する操作コマンドを実行できる。   When the proximity coordinates and the contact coordinates are the same, the application CPU 31 determines the contact coordinates at the time of detecting the contact operation as the operation coordinates. As a result, the portable terminal 1 can execute the operation command corresponding to the contact coordinates at the time of detecting the contact operation because the proximity coordinates and the contact coordinates are the same coordinates.

アプリCPU31は、端末加速度が所定値未満の場合、接触操作検知時点の接触座標を操作座標として決定する。その結果、携帯端末1は、端末加速度が所定値未満のため、接触操作検知時点の接触座標に対応する操作コマンドを実行できる。   When the terminal acceleration is less than the predetermined value, the application CPU 31 determines the contact coordinates at the time of detecting the contact operation as the operation coordinates. As a result, since the terminal acceleration is less than the predetermined value, the mobile terminal 1 can execute an operation command corresponding to the contact coordinates at the time of detecting the contact operation.

アプリCPU31は、端末加速度のx軸及びy軸の値の符号と座標移動方向のx軸及びy軸の値の符号とが一致しなかった場合、接触操作検知時点の接触座標を操作座標として決定する。その結果、携帯端末1は、端末加速度方向と座標移動方向とが同一方向でないため、接触操作検知時点の接触座標に対応する操作コマンドを実行できる。   If the sign of the x-axis and y-axis values of the terminal acceleration does not match the sign of the x-axis and y-axis values of the coordinate movement direction, the application CPU 31 determines the contact coordinates at the time of detecting the touch operation as the operation coordinates. To do. As a result, since the terminal acceleration direction and the coordinate movement direction are not the same direction, the mobile terminal 1 can execute an operation command corresponding to the contact coordinates at the time of detecting the contact operation.

本実施例の携帯端末1は、近接操作検知後に接触操作を検知すると、近接座標と接触座標とが異なり、端末加速度が所定値以上、端末加速度方向が座標移動方向と同一の場合、接触操作検知前の近接座標を操作座標として決定する。その結果、携帯端末1は、接触操作直前に利用者が意図しない携帯端末1自体の外力による移動が発生した場合でも、利用者が意図した操作座標を選択できるため、誤入力を抑制できる。   When the mobile terminal 1 of this embodiment detects a contact operation after detecting the proximity operation, the proximity coordinate is different from the contact coordinate, the terminal acceleration is equal to or greater than a predetermined value, and the terminal acceleration direction is the same as the coordinate movement direction. The previous proximity coordinate is determined as the operation coordinate. As a result, the mobile terminal 1 can select the operation coordinates intended by the user even when movement due to the external force of the mobile terminal 1 itself that is not intended by the user occurs immediately before the contact operation, and thus it is possible to suppress erroneous input.

例えば、携帯端末1は、車内等で揺れが発生する状況下で、ホバーリング機能を利用して文字を入力する場合でも、文字の誤入力を確実に防止できる。つまり、近接座標から接触座標への移動が携帯端末1自体の揺れによって発生した場合でも、ユーザが意図的に近接座標から接触座標への移動したものでないと判定できるため、文字の誤入力を確実に防止できる。   For example, the mobile terminal 1 can reliably prevent erroneous input of characters even when characters are input using the hovering function in a situation where shaking occurs in a vehicle or the like. That is, even when the movement from the proximity coordinates to the contact coordinates occurs due to the shaking of the mobile terminal 1 itself, it can be determined that the user has not intentionally moved from the proximity coordinates to the contact coordinates, so that erroneous input of characters is ensured. Can be prevented.

尚、上記実施例では、近接座標と接触座標とが異なり、端末加速度が所定値以上、端末加速度方向が座標移動方向と同一の場合、近接座標を操作座標として決定する。しかしながら、近接座標と接触座標とが異なり、端末加速度方向が座標移動方向と同一の場合に、近接座標を操作座標として決定しても良い。その結果、携帯端末1は、接触操作直前に利用者が意図せぬ携帯端末1自体の外力による移動が発生した場合でも、利用者が意図した操作座標を選択できる。   In the above embodiment, when the proximity coordinate and the contact coordinate are different, the terminal acceleration is equal to or greater than a predetermined value, and the terminal acceleration direction is the same as the coordinate movement direction, the proximity coordinate is determined as the operation coordinate. However, when the proximity coordinate and the contact coordinate are different and the terminal acceleration direction is the same as the coordinate movement direction, the proximity coordinate may be determined as the operation coordinate. As a result, the mobile terminal 1 can select the operation coordinates intended by the user even when movement by the external force of the mobile terminal 1 itself unintended by the user occurs immediately before the contact operation.

上記実施例では、第1の判定部31Aで近接操作を検知した検知時刻が所定時間、例えば3秒間を経過したか否かを判定するようにしたが、所定時間は3秒間に限定されるものではなく、適宜変更可能である。また、検知時刻が所定時間を経過したか否かを判定するようにしたが、検知時刻ではなく、近接座標を取得した時刻であっても良い。   In the above embodiment, it is determined whether or not the detection time at which the first determination unit 31A detects the proximity operation has passed a predetermined time, for example, 3 seconds, but the predetermined time is limited to 3 seconds. Instead, it can be changed as appropriate. Further, although it is determined whether or not the detection time has passed a predetermined time, it may be the time when the proximity coordinates are acquired instead of the detection time.

第4の判定部31Dで端末加速度方向のx軸及びy軸の値の符号と、座標移動方向のx軸及びy軸の値の符号とが同一であるか否かに基づき、端末加速度方向が座標移動方向と同一方向であるか否かを判定した。しかしながら、符号比較に限定されるものではなく、適宜変更可能である。   Based on whether the signs of the x-axis and y-axis values in the terminal acceleration direction and the signs of the x-axis and y-axis values in the coordinate movement direction are the same in the fourth determination unit 31D, the terminal acceleration direction is determined. It was determined whether or not the direction was the same as the coordinate movement direction. However, the present invention is not limited to the code comparison and can be changed as appropriate.

アプリCPU31は、端末加速度方向が座標移動方向と同一方向の場合、近接座標を操作座標として決定した。しかしながら、アプリCPU31は、端末加速度方向が座標移動方向と同一方向に限定されるものではなく、例えば、端末加速度方向が座標移動方向と逆方向である場合に、近接座標を操作座標として決定するようにしても良い。   When the terminal acceleration direction is the same as the coordinate movement direction, the application CPU 31 determines the proximity coordinate as the operation coordinate. However, the application CPU 31 does not limit the terminal acceleration direction to the same direction as the coordinate movement direction. For example, when the terminal acceleration direction is opposite to the coordinate movement direction, the application CPU 31 determines the proximity coordinate as the operation coordinate. Anyway.

また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。   In addition, each component of each part illustrated does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured.

更に、各装置で行われる各種処理機能は、CPU(Central Processing Unit)(又はMPU(Micro Processing Unit)、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部又は任意の一部を実行するようにしても良い。また、各種処理機能は、CPU(又はMPU、MCU等のマイクロ・コンピュータ)で解析実行するプログラム上、又はワイヤードロジックによるハードウェア上で、その全部又は任意の一部を実行するようにしても良いことは言うまでもない。   Furthermore, various processing functions performed in each device are performed on a CPU (Central Processing Unit) (or a microcomputer such as an MPU (Micro Processing Unit), MCU (Micro Controller Unit), etc.) in whole or in part. You may make it perform. Various processing functions may be executed entirely or arbitrarily on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or hardware based on wired logic. Needless to say.

ところで、本実施例で説明した各種の処理は、予め用意されたプログラムを端末装置内のCPU等のプロセッサで実行させることによって実現できる。そこで、以下では、上記実施例と同様の機能を有するプログラムを実行する電子機器の一例を説明する。図7は、座標決定プログラムを実行する電子機器の一例を示す説明図である。   By the way, the various processes described in the present embodiment can be realized by causing a program prepared in advance to be executed by a processor such as a CPU in the terminal device. Therefore, in the following, an example of an electronic device that executes a program having the same function as in the above embodiment will be described. FIG. 7 is an explanatory diagram illustrating an example of an electronic device that executes the coordinate determination program.

図7に示す座標決定プログラムを実行する電子機器100は、タッチパネル110と、第1の検出部120と、第2の検出部130と、ROM140と、RAM150と、CPU160とを有する。更に、タッチパネル110、第1の検出部120、第2の検出部130、ROM140、RAM150及びCPU160は、バス170を介して接続される。第1の検出部120は、タッチパネル110上の非接触状態の近接操作や接触状態の接触操作を検知する。第2の検出部130は、電子機器100本体の加速度を検出する。   The electronic device 100 that executes the coordinate determination program illustrated in FIG. 7 includes a touch panel 110, a first detection unit 120, a second detection unit 130, a ROM 140, a RAM 150, and a CPU 160. Furthermore, the touch panel 110, the first detection unit 120, the second detection unit 130, the ROM 140, the RAM 150, and the CPU 160 are connected via a bus 170. The first detection unit 120 detects a non-contact state proximity operation or a contact state contact operation on the touch panel 110. The second detection unit 130 detects the acceleration of the electronic device 100 main body.

そして、ROM140には、上記実施例と同様の機能を発揮する座標決定プログラムが予め記憶されている。ROM140は、座標決定プログラムとして取得プログラム140A、判定プログラム140B及び決定プログラム140Cが記憶されている。尚、ROM140ではなく、図示せぬドライブでコンピュータ読取可能な記録媒体に座標決定プログラムが記録されていても良い。また、記録媒体としては、例えば、CD−ROM、DVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ等でも良い。   The ROM 140 stores in advance a coordinate determination program that exhibits the same function as in the above embodiment. The ROM 140 stores an acquisition program 140A, a determination program 140B, and a determination program 140C as coordinate determination programs. The coordinate determination program may be recorded on a computer-readable recording medium instead of the ROM 140. The recording medium may be, for example, a portable recording medium such as a CD-ROM, a DVD disk, or a USB memory, or a semiconductor memory such as a flash memory.

そして、CPU160は、取得プログラム140AをROM140から読み出し、取得プロセス150AとしてRAM150上で機能する。更に、CPU160は、判定プログラム140BをROM140から読み出し、判定プロセス150BとしてRAM150上で機能する。更に、CPU160は、決定プログラム140CをROM140から読み出し、決定プロセス150CとしてRAM150上で機能する。   The CPU 160 reads the acquisition program 140A from the ROM 140, and functions on the RAM 150 as the acquisition process 150A. Further, the CPU 160 reads the determination program 140B from the ROM 140, and functions on the RAM 150 as the determination process 150B. Further, the CPU 160 reads the determination program 140C from the ROM 140, and functions on the RAM 150 as the determination process 150C.

CPU160は、タッチパネル110上の近接操作時の近接座標を取得した後、接触操作時の接触座標を取得する。CPU160は、近接座標と接触座標とが異なる場合に、近接座標取得から接触座標取得までの間の当該電子機器100本体の加速度で得た当該電子機器100の加速度方向が、近接座標から接触座標への移動方向に対して所定の方向であるかを判定する。CPU160は、電子機器100本体の加速度方向が所定の方向である場合に、近接座標を、操作コマンドを実行する操作座標として決定する。その結果、接触操作直前に利用者が意図しない電子機器の移動が発生した場合でも、利用者が意図した操作座標を選択できる。   CPU160 acquires the contact coordinate at the time of contact operation, after acquiring the proximity coordinate at the time of proximity operation on the touch panel 110. FIG. When the proximity coordinate and the contact coordinate are different, the CPU 160 determines that the acceleration direction of the electronic device 100 obtained from the acceleration of the electronic device 100 body from the proximity coordinate acquisition to the contact coordinate acquisition is changed from the proximity coordinate to the contact coordinate. It is determined whether the direction is a predetermined direction with respect to the moving direction. When the acceleration direction of the main body of the electronic device 100 is a predetermined direction, the CPU 160 determines the proximity coordinates as operation coordinates for executing the operation command. As a result, even when the movement of the electronic device unintended by the user occurs immediately before the contact operation, the operation coordinates intended by the user can be selected.

以上、本実施例を含む実施の形態に関し、更に以下の付記を開示する。   As described above, the following supplementary notes are further disclosed regarding the embodiment including the present example.

(付記1)タッチパネル上の近接操作時の近接座標を取得した後、接触操作時の接触座標を取得する取得部と、
前記近接座標と前記接触座標とが異なる場合に、前記近接座標取得から前記接触座標取得までの間の当該電子機器本体の加速度で得た当該電子機器の加速度方向が、前記近接座標から前記接触座標への移動方向に対して所定の方向であるかを判定する判定部と、
前記電子機器本体の加速度方向が前記所定の方向である場合に、前記近接座標を、操作コマンドを実行する操作座標として決定する決定部と
を有することを特徴とする電子機器。
(Supplementary Note 1) An acquisition unit that acquires the contact coordinates at the time of the contact operation after acquiring the proximity coordinates at the time of the proximity operation on the touch panel;
When the proximity coordinates are different from the contact coordinates, the acceleration direction of the electronic device obtained from the acceleration of the electronic device main body from the proximity coordinate acquisition to the contact coordinate acquisition is calculated from the proximity coordinates to the contact coordinates. A determination unit for determining whether the direction is a predetermined direction with respect to the moving direction;
An electronic apparatus comprising: a determination unit that determines the proximity coordinates as operation coordinates for executing an operation command when an acceleration direction of the electronic apparatus main body is the predetermined direction.

(付記2)前記近接座標取得から前記接触座標取得までの間の当該電子機器本体の加速度が所定閾値以上であるか否かを判定する加速度判定部を有し、
前記決定部は、
前記電子機器本体の加速度方向が前記所定の方向である場合、かつ、前記電子機器本体の加速度が前記所定閾値以上の場合に、前記操作座標として前記接触座標を決定することを特徴とする付記1に記載の電子機器。
(Additional remark 2) It has the acceleration determination part which determines whether the acceleration of the said electronic device main body from the said proximity coordinate acquisition to the said contact coordinate acquisition is more than a predetermined threshold value,
The determination unit
The contact coordinates are determined as the operation coordinates when the acceleration direction of the electronic device main body is the predetermined direction and when the acceleration of the electronic device main body is equal to or greater than the predetermined threshold. The electronic device as described in.

(付記3)タッチパネルを有する電子機器内のプロセッサに、
タッチパネル上の近接操作時の近接座標を取得した後、接触操作時の接触座標を取得し、
前記近接座標と前記接触座標とが異なる場合に、前記近接座標取得から前記接触座標取得までの間の当該電子機器本体の加速度で得た当該電子機器の加速度方向が、前記近接座標から前記接触座標への移動方向に対して所定の方向であるかを判定し、
前記電子機器本体の加速度方向が前記所定の方向である場合に、前記近接座標を、操作コマンドを実行する操作座標として決定する
処理を実行させることを特徴とする座標決定プログラム。
(Supplementary note 3) In a processor in an electronic device having a touch panel,
After obtaining the proximity coordinates for the proximity operation on the touch panel, obtain the contact coordinates for the contact operation,
When the proximity coordinates are different from the contact coordinates, the acceleration direction of the electronic device obtained from the acceleration of the electronic device main body from the proximity coordinate acquisition to the contact coordinate acquisition is calculated from the proximity coordinates to the contact coordinates. Determine whether the direction of movement is a predetermined direction
When the acceleration direction of the said electronic device main body is the said predetermined direction, the coordinate determination program which performs the process which determines the said proximity coordinate as an operation coordinate which performs an operation command is performed.

(付記4)タッチパネルを有する電子機器が、
タッチパネル上の近接操作時の近接座標を取得した後、接触操作時の接触座標を取得し、
前記近接座標と前記接触座標とが異なる場合に、前記近接座標取得から前記接触座標取得までの間の当該電子機器本体の加速度で得た当該電子機器の加速度方向が、前記近接座標から前記接触座標への移動方向に対して所定の方向であるかを判定し、
前記電子機器本体の加速度方向が前記所定の方向である場合に、前記近接座標を、操作コマンドを実行する操作座標として決定する
処理を実行することを特徴とする座標決定方法。
(Appendix 4) An electronic device having a touch panel is
After obtaining the proximity coordinates for the proximity operation on the touch panel, obtain the contact coordinates for the contact operation,
When the proximity coordinates are different from the contact coordinates, the acceleration direction of the electronic device obtained from the acceleration of the electronic device main body from the proximity coordinate acquisition to the contact coordinate acquisition is calculated from the proximity coordinates to the contact coordinates. Determine whether the direction of movement is a predetermined direction
When the acceleration direction of the electronic device main body is the predetermined direction, a process for determining the proximity coordinates as operation coordinates for executing an operation command is executed.

1 携帯端末
14 タッチパネル
28A 近接取得部
28B 接触取得部
28C 加速度検出部
31A 第1の判定部
31B 第2の判定部
31C 第3の判定部
31D 第4の判定部
31E 決定部
1 mobile terminal 14 touch panel 28A proximity acquisition unit 28B contact acquisition unit 28C acceleration detection unit 31A first determination unit 31B second determination unit 31C third determination unit 31D fourth determination unit 31E determination unit

Claims (3)

タッチパネル上の近接操作時の近接座標を取得した後、接触操作時の接触座標を取得する取得部と、
前記近接座標と前記接触座標とが異なる場合に、前記近接座標取得から前記接触座標取得までの間の当該電子機器本体の加速度で得た当該電子機器の加速度方向が、前記近接座標から前記接触座標への移動方向に対して所定の方向であるかを判定する判定部と、
前記電子機器本体の加速度方向が前記所定の方向である場合に、前記近接座標を、操作コマンドを実行する操作座標として決定する決定部と
を有することを特徴とする電子機器。
After obtaining the proximity coordinates at the time of the proximity operation on the touch panel, an acquisition unit for acquiring the contact coordinates at the time of the contact operation,
When the proximity coordinates are different from the contact coordinates, the acceleration direction of the electronic device obtained from the acceleration of the electronic device main body from the proximity coordinate acquisition to the contact coordinate acquisition is calculated from the proximity coordinates to the contact coordinates. A determination unit for determining whether the direction is a predetermined direction with respect to the moving direction;
An electronic apparatus comprising: a determination unit that determines the proximity coordinates as operation coordinates for executing an operation command when an acceleration direction of the electronic apparatus main body is the predetermined direction.
前記近接座標取得から前記接触座標取得までの間の当該電子機器本体の加速度が所定閾値以上であるか否かを判定する加速度判定部を有し、
前記決定部は、
前記電子機器本体の加速度方向が前記所定の方向である場合、かつ、前記電子機器本体の加速度が前記所定閾値以上の場合に、前記操作座標として前記接触座標を決定することを特徴とする請求項1に記載の電子機器。
An acceleration determination unit that determines whether or not an acceleration of the electronic device main body from the proximity coordinate acquisition to the contact coordinate acquisition is equal to or greater than a predetermined threshold;
The determination unit
The contact coordinates are determined as the operation coordinates when the acceleration direction of the electronic device main body is the predetermined direction and when the acceleration of the electronic device main body is equal to or greater than the predetermined threshold. 1. The electronic device according to 1.
タッチパネルを有する電子機器内のプロセッサに、
タッチパネル上の近接操作時の近接座標を取得した後、接触操作時の接触座標を取得し、
前記近接座標と前記接触座標とが異なる場合に、前記近接座標取得から前記接触座標取得までの間の当該電子機器本体の加速度で得た当該電子機器の加速度方向が、前記近接座標から前記接触座標への移動方向に対して所定の方向であるかを判定し、
前記電子機器本体の加速度方向が前記所定の方向である場合に、前記近接座標を、操作コマンドを実行する操作座標として決定する
処理を実行させることを特徴とする座標決定プログラム。
To a processor in an electronic device having a touch panel,
After obtaining the proximity coordinates for the proximity operation on the touch panel, obtain the contact coordinates for the contact operation,
When the proximity coordinates are different from the contact coordinates, the acceleration direction of the electronic device obtained from the acceleration of the electronic device main body from the proximity coordinate acquisition to the contact coordinate acquisition is calculated from the proximity coordinates to the contact coordinates. Determine whether the direction of movement is a predetermined direction
When the acceleration direction of the said electronic device main body is the said predetermined direction, the coordinate determination program which performs the process which determines the said proximity coordinate as an operation coordinate which performs an operation command is performed.
JP2015010716A 2015-01-22 2015-01-22 Electronic apparatus and coordinate determination program Pending JP2016134154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015010716A JP2016134154A (en) 2015-01-22 2015-01-22 Electronic apparatus and coordinate determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015010716A JP2016134154A (en) 2015-01-22 2015-01-22 Electronic apparatus and coordinate determination program

Publications (1)

Publication Number Publication Date
JP2016134154A true JP2016134154A (en) 2016-07-25

Family

ID=56464466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015010716A Pending JP2016134154A (en) 2015-01-22 2015-01-22 Electronic apparatus and coordinate determination program

Country Status (1)

Country Link
JP (1) JP2016134154A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217477A (en) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp Input device
JP2010224750A (en) * 2009-03-23 2010-10-07 Victor Co Of Japan Ltd Electronic apparatus with touch panel
JP2011257899A (en) * 2010-06-08 2011-12-22 Pioneer Electronic Corp Touch panel input system
US20140025263A1 (en) * 2011-02-19 2014-01-23 Volkswagen Ag Method and Device for Providing a User Interface, in Particular in a Vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217477A (en) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp Input device
JP2010224750A (en) * 2009-03-23 2010-10-07 Victor Co Of Japan Ltd Electronic apparatus with touch panel
JP2011257899A (en) * 2010-06-08 2011-12-22 Pioneer Electronic Corp Touch panel input system
US20140025263A1 (en) * 2011-02-19 2014-01-23 Volkswagen Ag Method and Device for Providing a User Interface, in Particular in a Vehicle

Similar Documents

Publication Publication Date Title
US9513714B2 (en) Methods and apparatuses for gesture-based user input detection in a mobile device
US10162466B2 (en) Portable device and method of modifying touched position
US20150149941A1 (en) Mobile terminal and display control method
KR20140139241A (en) Method for processing input and an electronic device thereof
US9696337B2 (en) MEMS-based proximity sensor device and method
CN107025002B (en) Terminal application control method and device and terminal
US20140047259A1 (en) Methods and Apparatus for Mobile Device Power Management Using Accelerometer Data
JP6185031B2 (en) Portable device, control method and control program
JP2013157959A (en) Portable terminal apparatus, voice recognition processing method for the same, and program
US20150242100A1 (en) Detecting intentional rotation of a mobile device
JP6568821B2 (en) Portable electronic device, security control method, and security control program
US10606471B2 (en) Electronic device that communicates with a movement detection apparatus including a barometric pressure sensor
US20130257788A1 (en) Selective accelerometer data processing methods and apparatus
US20150325207A1 (en) Mobile terminal device, and display control method
US9992325B2 (en) Mobile electronic device, control method, and computer program
JP2018037819A (en) Electronic apparatus, control method, and program
JP2016134154A (en) Electronic apparatus and coordinate determination program
US20180136742A1 (en) Information processing device, electronic apparatus, method of controlling information processing device, and control program
US9335845B2 (en) Selective accelerometer data processing methods and apparatus
JP2017207953A (en) Information processing device, electronic apparatus, method for controlling information processing device, and control program
TW201427378A (en) System and method of hanging up a phone
US10401968B2 (en) Determining digit movement from frequency data
JP6779707B2 (en) Electronics, control methods, and control programs
JP6093477B1 (en) Electronics
JP2011044862A (en) Portable terminal system, portable terminal control method, and portable terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190205