JP6373722B2 - Portable terminal and control method - Google Patents

Portable terminal and control method Download PDF

Info

Publication number
JP6373722B2
JP6373722B2 JP2014220495A JP2014220495A JP6373722B2 JP 6373722 B2 JP6373722 B2 JP 6373722B2 JP 2014220495 A JP2014220495 A JP 2014220495A JP 2014220495 A JP2014220495 A JP 2014220495A JP 6373722 B2 JP6373722 B2 JP 6373722B2
Authority
JP
Japan
Prior art keywords
contact position
line
respect
display unit
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014220495A
Other languages
Japanese (ja)
Other versions
JP2016092440A (en
Inventor
晃徳 和田
晃徳 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2014220495A priority Critical patent/JP6373722B2/en
Publication of JP2016092440A publication Critical patent/JP2016092440A/en
Application granted granted Critical
Publication of JP6373722B2 publication Critical patent/JP6373722B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Description

本出願は、携帯端末及び制御方法に関する。   The present application relates to a mobile terminal and a control method.

従来、タッチスクリーンを備える電子機器では、タッチスクリーン上に表示されるインタフェースに対し、利用者が入力を誤ってしまう場合がある。このような問題に対して、タッチスクリーンに対して実際に感知されたタッチ入力点の位置の調整を行うことにより、データ入力の正確さを向上させる技術が知られている(特許文献1参照)。   Conventionally, in an electronic device including a touch screen, a user may make an input error with respect to an interface displayed on the touch screen. In order to solve such a problem, a technique for improving the accuracy of data input by adjusting the position of a touch input point actually sensed with respect to the touch screen is known (see Patent Document 1). .

特開平10−91318号公報Japanese Patent Laid-Open No. 10-91318

上記特許文献1に開示の技術は、利用者の入力に関する特定の傾向に応じて、タッチ入力点の位置を調整するものであるので、誤入力が特定の傾向によらないものである場合、特に振動に起因する場合にはタッチ入力点の位置の調整が難しいという問題がある。   Since the technique disclosed in Patent Literature 1 adjusts the position of the touch input point according to a specific tendency related to user input, particularly when an erroneous input is not based on a specific tendency. When it is caused by vibration, there is a problem that it is difficult to adjust the position of the touch input point.

上記のことから、ユーザ入力の位置をより正確に調整することができる携帯端末及び制御方法を提供する必要がある。   From the above, it is necessary to provide a portable terminal and a control method that can adjust the position of user input more accurately.

1つの態様に係る携帯端末は、表示部と、前記表示部に対応する接触位置を検出する接触位置検出部と、前記表示部に対する視線位置を検出する視線位置検出部と、前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際の前記表示部に対する視線位置に基づいて前記表示部に対する接触位置を補正する制御部とを有する。   A portable terminal according to one aspect includes a display unit, a contact position detection unit that detects a contact position corresponding to the display unit, a line-of-sight position detection unit that detects a line-of-sight position with respect to the display unit, and a contact with the display unit When a difference occurs between the position and the line-of-sight position with respect to the display unit when the contact position is detected, based on the line-of-sight position with respect to the display unit when the contact position is detected And a control unit that corrects a contact position with respect to the display unit.

1つの態様に係る制御方法は、表示部を有する携帯端末に実行させる制御方法であって、表示部に対応する接触の位置を検出するステップと、前記表示部に対する視線の位置を検出するステップと、前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際の前記表示部に対する視線位置に基づいて前記表示部に対する接触位置を補正するステップとを含む。   A control method according to one aspect is a control method that is executed by a portable terminal having a display unit, the step of detecting a position of contact corresponding to the display unit, and the step of detecting the position of a line of sight with respect to the display unit. When a difference occurs between the contact position with respect to the display unit and the line-of-sight position with respect to the display unit when the contact position is detected, the display unit with respect to the display unit when the contact position is detected is detected. Correcting the contact position with respect to the display unit based on the line-of-sight position.

図1は、実施形態1に係るスマートフォンの機能構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the first embodiment. 図2は、実施形態1に係るスマートフォンにより実行される処理の例を説明するための図である。FIG. 2 is a diagram for explaining an example of processing executed by the smartphone according to the first embodiment. 図3は、実施形態1に係るスマートフォンにより実行される処理の例を説明するための図である。FIG. 3 is a diagram for explaining an example of processing executed by the smartphone according to the first embodiment. 図4は、実施形態1に係るスマートフォンにより実行される処理の例を説明するための図である。FIG. 4 is a diagram for explaining an example of processing executed by the smartphone according to the first embodiment. 図5は、実施形態1に係るスマートフォンによる処理の流れを示すフローチャートである。FIG. 5 is a flowchart illustrating a flow of processing by the smartphone according to the first embodiment. 図6は、実施形態1に係るスマートフォンによる処理の流れを示すフローチャートである。FIG. 6 is a flowchart illustrating a process flow of the smartphone according to the first embodiment. 図7は、実施形態1に係るスマートフォンによる処理の流れを示すフローチャートである。FIG. 7 is a flowchart illustrating a process flow by the smartphone according to the first embodiment. 図8は、実施形態1に係るスマートフォンによる処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing a flow of processing by the smartphone according to the first embodiment. 図9は、実施形態2に係るスマートフォンの機能構成を示すブロック図である。FIG. 9 is a block diagram illustrating a functional configuration of the smartphone according to the second embodiment. 図10は、実施形態2に係るスマートフォンによる処理の流れを示すフローチャートである。FIG. 10 is a flowchart illustrating a process flow of the smartphone according to the second embodiment.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、本発明に係る携帯端末の一例として、スマートフォンについて説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of the portable terminal which concerns on this invention.

(実施形態1)
図1を参照しつつ、実施形態に係るスマートフォン1の機能構成の一例を説明する。図1は、実施形態1に係るスマートフォンの機能構成を示すブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
(Embodiment 1)
An example of a functional configuration of the smartphone 1 according to the embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the first embodiment. In the following description, the same code | symbol may be attached | subjected to the same component. Furthermore, duplicate descriptions may be omitted.

図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、赤外線照射部13と、コネクタ14と、加速度センサ15と、方位センサ16とを備える。   As shown in FIG. 1, the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller 10. A speaker 11, a camera 12, an infrared irradiation unit 13, a connector 14, an acceleration sensor 15, and an orientation sensor 16.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。タッチスクリーンディスプレイ2は、表示部の一例である。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2 </ b> A and the touch screen 2 </ b> B may be arranged, for example, may be arranged side by side, or may be arranged apart from each other. When the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B. The touch screen display 2 is an example of a display unit.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like. The screen including characters, images, symbols, graphics, and the like displayed on the display 2A includes a screen called a lock screen, a screen called a home screen, and an application screen displayed during execution of the application. The home screen may be called a desktop, a standby screen, an idle screen, a standard screen, an application list screen, or a launcher screen.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2B(タッチスクリーンディスプレイ2)に接触したときのタッチスクリーン2B上の位置(以下、接触位置と表記する)を検出することができる。タッチスクリーン2Bは、タッチスクリーン2Bに対する指の接触を、接触位置とともにコントローラ10に通知する。タッチスクリーン2Bは、接触位置検出部の一例である。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B is a position (hereinafter referred to as a contact position) on the touch screen 2B when a plurality of fingers, a pen, a stylus pen or the like (hereinafter simply referred to as “finger”) contacts the touch screen 2B (touch screen display 2). Can be detected. The touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B together with the contact position. The touch screen 2B is an example of a contact position detection unit.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。   The controller 10 (smart phone 1) has at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The type of gesture is determined based on the one. The gesture is an operation performed on the touch screen 2B (touch screen display 2) using a finger. The gestures that the controller 10 (smart phone 1) determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。   The button 3 receives an operation input from the user. The number of buttons 3 may be singular or plural.

照度センサ4は、照度を検出する。照度は、照度センサ4の測定面の単位面積に入射する光束の値である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。   The illuminance sensor 4 detects illuminance. The illuminance is the value of the light beam incident on the unit area of the measurement surface of the illuminance sensor 4. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2A is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards. Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide PDA), WiMAX (Worldwide Interoperability Pc). ) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like. Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network). As a communication standard of WPAN, for example, there is ZigBee (registered trademark). The communication unit 6 may support one or more of the communication standards described above.

レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 is a sound output unit. The receiver 7 outputs the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラム(図示略)とが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び基本プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background, and a control program (not shown) that supports the operation of the application. An application executed in the foreground displays a screen on the display 2A, for example. The control program includes an OS, for example. The application and the basic program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、視線位置検出プログラム9A、接触位置補正プログラム9B、電話アプリケーション9C、設定データ9Zなどを記憶する。   The storage 9 stores a line-of-sight position detection program 9A, a contact position correction program 9B, a telephone application 9C, setting data 9Z, and the like.

視線位置検出プログラム9Aは、タッチスクリーンディスプレイ2に対する利用者の視線位置を検出するための機能を提供する。なお、視線位置は、利用者の眼球内にある瞳孔の中心位置を起点として直線的に延伸する視線がタッチスクリーンディスプレイ2と交差するときのタッチスクリーンディスプレイ2上の位置に該当する。   The line-of-sight position detection program 9A provides a function for detecting the line-of-sight position of the user with respect to the touch screen display 2. The line-of-sight position corresponds to a position on the touch screen display 2 when a line of sight extending linearly starting from the center position of the pupil in the user's eyeball intersects the touch screen display 2.

視線位置検出プログラム9Aは、例えば、利用者の画像に対して角膜反射法に基づくアルゴリズムを適用することにより、上記視線位置を検出する。具体的には、視線位置検出プログラム9Aは、利用者の画像を取得する際に、赤外線照射部13から赤外線を照射させる。視線位置検出プログラム9Aは、取得した利用者の画像から、瞳孔の位置と赤外線の角膜反射の位置をそれぞれ特定する。視線位置検出プログラム9Aは、瞳孔の位置と赤外線の角膜反射の位置の位置関係に基づいて、利用者の視線の方向を特定する。視線位置検出プログラム9Aは、瞳孔の位置が角膜反射の位置よりも目尻側にあれば、視線の方向は目尻側であると判定し、瞳孔の位置が角膜反射の位置よりも目頭側にあれば、視線の方向は目頭側であると判定する。視線位置検出プログラム9Aは、例えば、虹彩の大きさに基づいて、利用者の眼球とタッチスクリーンディスプレイ2との距離を算出する。視線位置検出プログラム9Aは、利用者の視線の方向と、利用者の眼球とタッチスクリーンディスプレイ2との距離とに基づいて、利用者の眼球内にある瞳孔の中心位置から、瞳孔を起点とする視線がタッチスクリーンディスプレイ2と交差するときのタッチスクリーンディスプレイ2上の位置である視線位置を検出する。   The line-of-sight position detection program 9A detects the line-of-sight position, for example, by applying an algorithm based on the corneal reflection method to the user's image. Specifically, the line-of-sight position detection program 9 </ b> A irradiates infrared rays from the infrared irradiation unit 13 when acquiring a user image. The line-of-sight position detection program 9 </ b> A specifies the position of the pupil and the position of infrared corneal reflection from the acquired user image. The line-of-sight position detection program 9A specifies the direction of the line of sight of the user based on the positional relationship between the position of the pupil and the position of infrared corneal reflection. The line-of-sight position detection program 9A determines that the direction of the line of sight is closer to the corner of the eye if the position of the pupil is closer to the corner of the eye than the position of corneal reflection. The direction of the line of sight is determined to be the eye side. The line-of-sight position detection program 9A calculates the distance between the user's eyeball and the touch screen display 2 based on the size of the iris, for example. The gaze position detection program 9A starts from the pupil from the center position of the pupil in the user's eyeball based on the direction of the user's gaze and the distance between the user's eyeball and the touch screen display 2. A visual line position that is a position on the touch screen display 2 when the visual line intersects the touch screen display 2 is detected.

上記の例では、視線位置検出プログラム9Aが、角膜反射法を利用した処理を実行することにより、利用者の視線位置を検出する場合を説明したが、この例には限られない。例えば、視線位置検出プログラム9Aが、利用者の画像について画像認識処理を実行することにより、上記視線位置を検出するようにしてもよい。例えば、視線位置検出プログラム9Aは、利用者の画像から、利用者の眼球を含む所定の領域を抽出し、目頭と虹彩との位置関係に基づいて視線方向を特定し、特定した視線方向と、利用者の眼球からタッチスクリーンディスプレイ2までの距離とに基づいて上記視線位置を検出する。あるいは、視線位置検出プログラム9Aは、利用者がタッチスクリーンディスプレイ2上の表示領域各所を閲覧しているときの複数の眼球の画像を参照画像としてそれぞれ蓄積しておき、参照画像と、判定対象として取得される利用者の眼球の画像とを照合することにより、上記視線位置を検出する。視線位置検出プログラム9Aは、接触位置検出部の一例である。   In the above example, the case has been described in which the line-of-sight position detection program 9A detects the line-of-sight position of the user by executing processing using the cornea reflection method, but the present invention is not limited to this example. For example, the line-of-sight position detection program 9A may detect the line-of-sight position by executing an image recognition process on the user's image. For example, the line-of-sight position detection program 9A extracts a predetermined region including the user's eyeball from the user's image, specifies the line-of-sight direction based on the positional relationship between the eye and the iris, The line-of-sight position is detected based on the distance from the user's eyeball to the touch screen display 2. Alternatively, the line-of-sight position detection program 9A accumulates a plurality of eyeball images as a reference image when the user is browsing various display areas on the touch screen display 2, and the reference image and the determination target are stored. The line-of-sight position is detected by collating the acquired image of the user's eyeball. The line-of-sight position detection program 9A is an example of a contact position detection unit.

接触位置補正プログラム9Bは、タッチスクリーンディスプレイ2に対する接触位置と当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置に基づいてタッチスクリーンディスプレイ2に対する接触位置を補正するための機能を提供する。   The contact position correction program 9B detects the contact position when there is a difference between the contact position with respect to the touch screen display 2 and the line-of-sight position with respect to the touch screen display 2 when the contact position is detected. A function for correcting the contact position with respect to the touch screen display 2 based on the line-of-sight position with respect to the touch screen display 2 when broken.

具体的に説明すると、接触位置補正プログラム9Bは、タッチスクリーンディスプレイ2に対する接触位置とタッチスクリーンディスプレイ2に対する視線位置とが完全一致しない場合には、接触位置と視線位置との間に差分が生じたと判定する。あるいは、接触位置補正プログラム9Bは、タッチスクリーンディスプレイ2に対する接触位置とタッチスクリーンディスプレイ2に対する視線位置とが一致しない場合、接触位置と視線位置との間の距離を検出し、検出した距離が閾値を超える場合には、接触位置と視線位置との間に差分が生じたと判定してもよい。   More specifically, the contact position correction program 9B indicates that when the contact position with respect to the touch screen display 2 and the line-of-sight position with respect to the touch screen display 2 do not completely match, a difference has occurred between the contact position and the line-of-sight position. judge. Alternatively, when the contact position with respect to the touch screen display 2 and the line-of-sight position with respect to the touch screen display 2 do not match, the contact position correction program 9B detects the distance between the contact position and the line-of-sight position, and the detected distance is a threshold value. When exceeding, you may determine with the difference having arisen between the contact position and the gaze position.

接触位置補正プログラム9Bは、接触位置と視線位置との間に差分が生じたと判定すると、接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する上記視線位置を、補正後の接触位置として決定する。あるいは、接触位置補正プログラム9Bは、接触位置と視線位置との間に差分が生じたと判定すると、タッチスクリーンディスプレイ2に対する接触位置と当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する上記視線位置とを結ぶ線上の所定位置を補正後の接触位置に決定する。あるいは、接触位置補正プログラム9Bは、接触位置と視線位置との間に差分が生じたと判定すると、タッチスクリーンディスプレイ2に表示される画面に含まれる複数の操作対象の中から、上記視線位置に対応する操作対象を1つ特定し、特定した操作対象がタッチスクリーンディスプレイ2に表示されている位置を補正後の上記接触位置として決定する。   When the contact position correction program 9B determines that a difference has occurred between the contact position and the line-of-sight position, the line-of-sight position with respect to the touch screen display 2 when the contact position is detected is determined as the corrected contact position. To do. Alternatively, when the contact position correction program 9B determines that a difference has occurred between the contact position and the line-of-sight position, the contact position with respect to the touch screen display 2 and the touch screen display 2 when the contact position is detected are described above. A predetermined position on a line connecting the line-of-sight position is determined as a corrected contact position. Alternatively, when the contact position correction program 9B determines that a difference has occurred between the contact position and the line-of-sight position, the contact position correction program 9B corresponds to the line-of-sight position among a plurality of operation targets included in the screen displayed on the touch screen display 2. One operation target is specified, and a position where the specified operation target is displayed on the touch screen display 2 is determined as the corrected contact position.

電話アプリケーション9Cは、無線通信による通話のための通話機能を提供する。電話アプリケーション9Cにより提供される機能には、通話を実行するための画面をタッチスクリーンディスプレイ2に表示する機能が含まれる。   The telephone application 9C provides a telephone call function for a telephone call by wireless communication. The functions provided by the telephone application 9C include a function for displaying a screen for executing a call on the touch screen display 2.

設定データ9Zは、制御プログラム、視線位置検出プログラム9A及び接触位置補正プログラム9Bによる機能に基づいて実行される処理に用いられる各種データを含んで構成される。設定データ9Zは、例えば、利用者の眼球に関する各種データを含んでよい。設定データ9Zは、例えば、補正後の上記接触位置を決定するために用いるパラメータを含んでよい。   The setting data 9Z includes various data used for processing executed based on the functions of the control program, the line-of-sight position detection program 9A, and the contact position correction program 9B. The setting data 9Z may include, for example, various data related to the user's eyeball. The setting data 9Z may include, for example, parameters used for determining the corrected contact position.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−Chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。コントローラ10は、制御部の一例である。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor. It is not limited. The controller 10 controls various operations of the smartphone 1 to realize various functions. The controller 10 is an example of a control unit.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、スピーカ11、及び赤外線照射部13を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、加速度センサ15、及び方位センサ16を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the microphone 8, the speaker 11, and the infrared irradiation unit 13, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. Examples of the detection unit include, but are not limited to, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the acceleration sensor 15, and the azimuth sensor 16.

コントローラ10は、視線位置検出プログラム9Aを実行することにより、上記視線位置を検出する処理を実行する。コントローラ10は、接触位置補正プログラム9Bを実行することにより、次の処理を実行する。すなわち、コントローラ10は、タッチスクリーンディスプレイ2に対する接触位置と当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置に基づいてタッチスクリーンディスプレイ2に対する接触位置を補正する。   The controller 10 executes the process of detecting the line-of-sight position by executing the line-of-sight position detection program 9A. The controller 10 executes the following process by executing the contact position correction program 9B. That is, the controller 10 detects the contact position when there is a difference between the contact position with respect to the touch screen display 2 and the line-of-sight position with respect to the touch screen display 2 when the contact position is detected. The contact position with respect to the touch screen display 2 is corrected based on the line-of-sight position with respect to the touch screen display 2 at the time.

以下、図2〜図4を用いて、実施形態1に係るスマートフォン1により実行される処理の例を説明する。図2〜図4は、実施形態1に係るスマートフォン1により実行される処理の例を説明するための図である。図2及び図3に示す目100は、スマートフォン1を操作する利用者の目に該当する。図2及び図3に示す指200は、スマートフォン1を操作する利用者の指に該当する。   Hereinafter, the example of the process performed by the smart phone 1 which concerns on Embodiment 1 is demonstrated using FIGS. 2-4 is a figure for demonstrating the example of the process performed by the smart phone 1 which concerns on Embodiment 1. FIG. The eyes 100 shown in FIGS. 2 and 3 correspond to the eyes of the user who operates the smartphone 1. The finger 200 shown in FIGS. 2 and 3 corresponds to the finger of the user who operates the smartphone 1.

図2に示すように、スマートフォン1は、タッチスクリーンディスプレイ2に対する接触位置P1と、タッチスクリーンディスプレイ2に対する視線位置P2との間に差分があるかを判定する(ステップS11)。視線位置P2は、タッチスクリーン2Bにより接触位置P1の検出が行われた際の利用者の視線位置に対応する。   As shown in FIG. 2, the smartphone 1 determines whether there is a difference between the contact position P1 with respect to the touch screen display 2 and the line-of-sight position P2 with respect to the touch screen display 2 (step S11). The line-of-sight position P2 corresponds to the line-of-sight position of the user when the contact position P1 is detected by the touch screen 2B.

スマートフォン1は、判定の結果、接触位置P1と視線位置P2との間に差分がある場合、接触位置P1の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置P2を、補正後の接触位置P3として決定する(ステップS12)。スマートフォン1は、利用者によって実際に操作された接触位置P1に対応する処理を実行するのではなく、補正後の接触位置P3に対応する処理を実行する。   When the smartphone 1 determines that there is a difference between the contact position P1 and the line-of-sight position P2, as a result of the determination, the smartphone 1 detects the line-of-sight position P2 with respect to the touch screen display 2 when the contact position P1 is detected. P3 is determined (step S12). The smartphone 1 does not execute processing corresponding to the contact position P1 actually operated by the user, but executes processing corresponding to the corrected contact position P3.

図3に示すように、スマートフォン1は、タッチスクリーンディスプレイ2に対する接触位置P1と、タッチスクリーンディスプレイ2に対する視線位置P2との間に差分があるかを判定する(ステップS21)。   As illustrated in FIG. 3, the smartphone 1 determines whether there is a difference between the contact position P1 with respect to the touch screen display 2 and the line-of-sight position P2 with respect to the touch screen display 2 (step S21).

スマートフォン1は、判定の結果、接触位置P1と視線位置P2との間に差分がある場合、タッチスクリーンディスプレイ2に対する接触位置P1と当該接触位置P1の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置P2とを結ぶ線上の所定位置を、補正後の接触位置P3として決定する(ステップS22)。図3に示す例では、スマートフォン1は、例えば、接触位置P1と視線位置P2とを結ぶ線分の中点を、補正後の接触位置P3に決定する。スマートフォン1は、利用者によって実際に操作された接触位置P1に対応する処理を実行するのではなく、補正後の接触位置P3に対応する処理を実行する。   If the smartphone 1 determines that there is a difference between the contact position P1 and the line-of-sight position P2, the touch position P1 with respect to the touch screen display 2 and the touch screen display 2 when the contact position P1 is detected are detected. A predetermined position on the line connecting the line-of-sight position P2 is determined as the corrected contact position P3 (step S22). In the example illustrated in FIG. 3, the smartphone 1 determines, for example, the midpoint of a line segment connecting the contact position P1 and the line-of-sight position P2 as the corrected contact position P3. The smartphone 1 does not execute processing corresponding to the contact position P1 actually operated by the user, but executes processing corresponding to the corrected contact position P3.

図4に示すように、スマートフォン1は、タッチスクリーンディスプレイ2に電話アプリケーション9Cの画面50を表示する(ステップS31)。画面50に含まれる複数のキーは、操作対象の一例である。   As shown in FIG. 4, the smartphone 1 displays the screen 50 of the telephone application 9C on the touch screen display 2 (step S31). The plurality of keys included in the screen 50 is an example of an operation target.

続いて、スマートフォン1は、タッチスクリーンディスプレイ2に表示される画面50に対する接触位置P1と、タッチスクリーンディスプレイ2に対する視線位置P2との間に差分があるかを判定する(ステップS32)。   Subsequently, the smartphone 1 determines whether there is a difference between the contact position P1 with respect to the screen 50 displayed on the touch screen display 2 and the line-of-sight position P2 with respect to the touch screen display 2 (step S32).

スマートフォン1は、判定の結果、接触位置P1と視線位置P2との間に差分がある場合、複数の操作対象として画面50に含まれる複数のキーの中から視線位置P2に対応するキーを1つ特定し、特定したキーがタッチスクリーンディスプレイ2に表示されている位置を補正後の接触位置P3として決定する(ステップS33)。図4に示す例では、スマートフォン1は、視線位置P2に対応するキー50kを特定し、特定したキー50kが表示されている位置を補正後の接触位置P3に決定する。スマートフォン1は、利用者によって実際に操作された接触位置P1に対応する処理を実行するのではなく、補正後の接触位置P3に対応する処理を実行する。その結果、例えば、画面50には数字の「5」が表示される。   If there is a difference between the contact position P1 and the line-of-sight position P2 as a result of the determination, the smartphone 1 selects one key corresponding to the line-of-sight position P2 from among a plurality of keys included in the screen 50 as a plurality of operation targets. The position where the identified key is identified and displayed on the touch screen display 2 is determined as the corrected contact position P3 (step S33). In the example illustrated in FIG. 4, the smartphone 1 specifies the key 50k corresponding to the line-of-sight position P2, and determines the position where the specified key 50k is displayed as the corrected contact position P3. The smartphone 1 does not execute processing corresponding to the contact position P1 actually operated by the user, but executes processing corresponding to the corrected contact position P3. As a result, for example, the number “5” is displayed on the screen 50.

スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。   The speaker 11 is a sound output unit. The speaker 11 outputs the sound signal transmitted from the controller 10 as sound. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other.

カメラ12は、撮影した画像を電気信号へ変換する。カメラ12は、ディスプレイ2Aに面している物体を撮影するインカメラである。カメラ12は、例えば、タッチスクリーンディスプレイ2に視線を向ける利用者の眼球の画像を撮影する。カメラ12は、インカメラ及びアウトカメラを切り換えて利用可能なカメラユニットとしてスマートフォン1に実装されてもよい。赤外線照射部13は、カメラ12により実行される撮影に同期して、赤外線を照射する。   The camera 12 converts the captured image into an electrical signal. The camera 12 is an in camera that captures an object facing the display 2A. For example, the camera 12 captures an image of the eyeball of the user who turns his / her line of sight toward the touch screen display 2. The camera 12 may be mounted on the smartphone 1 as a camera unit that can be used by switching between the in-camera and the out-camera. The infrared irradiation unit 13 irradiates infrared rays in synchronization with photographing performed by the camera 12.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), and an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.

加速度センサ15は、スマートフォン1に作用する加速度の方向及び大きさを検出する。方位センサ16は、例えば、地磁気の向きを検出し、地磁気の向きに基づいて、スマートフォン1の向き(方位)を検出する。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects, for example, the direction of geomagnetism, and detects the direction (azimuth) of the smartphone 1 based on the direction of geomagnetism.

スマートフォン1は、上記の各機能部の他、GPS受信機、及びバイブレータを備えてもよい。GPS受信機は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。バイブレータは、スマートフォン1の一部又は全体を振動させる。バイブレータは、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。図1には示していないが、バッテリなど、スマートフォン1の機能を維持するために当然に用いられる機能部はスマートフォン1に実装される。   The smartphone 1 may include a GPS receiver and a vibrator in addition to the above functional units. The GPS receiver receives a radio signal in a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10. The vibrator vibrates a part or the whole of the smartphone 1. The vibrator includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. Although not shown in FIG. 1, functional units such as a battery that are naturally used to maintain the functions of the smartphone 1 are mounted on the smartphone 1.

図5〜図8を参照しつつ、実施形態1に係るスマートフォン1による処理の流れを説明する。図5〜図8は、実施形態1に係るスマートフォン1による処理の流れを示すフローチャートである。図5〜図8に示す処理は、コントローラ10が、ストレージ9に記憶されている視線位置検出プログラム9A、及び接触位置補正プログラム9Bなどを実行することにより実現される。   The flow of processing by the smartphone 1 according to the first embodiment will be described with reference to FIGS. 5-8 is a flowchart which shows the flow of the process by the smart phone 1 which concerns on Embodiment 1. FIG. The processing illustrated in FIGS. 5 to 8 is realized by the controller 10 executing the line-of-sight position detection program 9A, the contact position correction program 9B, and the like stored in the storage 9.

図5を用いて、実施形態1に係るスマートフォン1による基本的な処理の流れを説明する。図5に示すように、コントローラ10は、タッチスクリーンディスプレイ2に対する視線位置が検出されたかを判定する(ステップS101)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出されない場合には(ステップS101,No)、ステップS101の処理手順を繰り返す。   A basic processing flow by the smartphone 1 according to the first embodiment will be described with reference to FIG. As illustrated in FIG. 5, the controller 10 determines whether a line-of-sight position with respect to the touch screen display 2 has been detected (step S <b> 101). As a result of the determination, if the line-of-sight position with respect to the touch screen display 2 is not detected (No at Step S101), the controller 10 repeats the processing procedure at Step S101.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出された場合には(ステップS101,Yes)、タッチスクリーンディスプレイ2に対する接触位置が検出されたかを判定する(ステップS102)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出されない場合には(ステップS102,No)、ステップS102の処理手順を繰り返す。   On the other hand, when the line-of-sight position with respect to the touch screen display 2 is detected as a result of the determination (step S101, Yes), the controller 10 determines whether the contact position with respect to the touch screen display 2 has been detected (step S102). When the contact position on the touch screen display 2 is not detected as a result of the determination (No at Step S102), the controller 10 repeats the processing procedure at Step S102.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出された場合には(ステップS102,Yes)、ステップS101で検出された視線位置と、ステップS102で検出された接触位置との間に差分があるかを判定する(ステップS103)。   On the other hand, when the contact position on the touch screen display 2 is detected as a result of the determination (step S102, Yes), the controller 10 determines the line-of-sight position detected in step S101 and the contact position detected in step S102. It is determined whether there is a difference between them (step S103).

コントローラ10は、判定の結果、ステップS101で検出された視線位置と、ステップS102で検出された接触位置との間に差分がある場合には(ステップS103,Yes)、ステップS101で検出された視線位置に基づいて、ステップS102で検出された接触位置の補正を実行する(ステップS104)。   As a result of the determination, if there is a difference between the line-of-sight position detected in step S101 and the contact position detected in step S102 (step S103, Yes), the controller 10 detects the line-of-sight detected in step S101. Based on the position, correction of the contact position detected in step S102 is executed (step S104).

続いて、コントローラ10は、ステップS104における補正後の接触位置に基づく処理を実行し(ステップS105)、図5に示す処理を終了する。   Subsequently, the controller 10 executes a process based on the corrected contact position in step S104 (step S105), and ends the process shown in FIG.

上記ステップS103において、コントローラ10は、判定の結果、ステップS101で検出された視線位置と、ステップS102で検出された接触位置との間に差分がない場合には(ステップS103,No)、ステップS102で検出された接触位置に基づく処理を実行し(ステップS106)、図5に示す処理を終了する。   In step S103, if there is no difference between the line-of-sight position detected in step S101 and the contact position detected in step S102 as a result of the determination (step S103, No), the controller 10 performs step S102. The process based on the contact position detected in step S106 is executed (step S106), and the process shown in FIG.

上記図5に示す処理において、ステップS101の処理手順と、ステップS102の処理手順は、順序が逆であってもよい。また、上記図5に示す処理において、タッチスクリーンディスプレイ2に対する視線位置が検出されない状態で、接触位置だけが先に検出された場合には、接触位置に基づいて処理を実行するような設定に変更可能としてもよい。   In the processing shown in FIG. 5, the order of the processing procedure in step S101 and the processing procedure in step S102 may be reversed. Further, in the process shown in FIG. 5, when only the contact position is detected first without detecting the line-of-sight position with respect to the touch screen display 2, the setting is changed to execute the process based on the contact position. It may be possible.

図6を用いて、上記図2に対応するスマートフォン1による処理の流れを説明する。図6に示すように、コントローラ10は、タッチスクリーンディスプレイ2に対する視線位置が検出されたかを判定する(ステップS201)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出されない場合には(ステップS201,No)、ステップS201の処理手順を繰り返す。   The flow of processing by the smartphone 1 corresponding to FIG. 2 will be described with reference to FIG. As illustrated in FIG. 6, the controller 10 determines whether a line-of-sight position with respect to the touch screen display 2 has been detected (step S201). As a result of the determination, when the line-of-sight position with respect to the touch screen display 2 is not detected (No at Step S201), the controller 10 repeats the processing procedure at Step S201.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出された場合には(ステップS201,Yes)、タッチスクリーンディスプレイ2に対する接触位置が検出されたかを判定する(ステップS202)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出されない場合には(ステップS202,No)、ステップS202の処理手順を繰り返す。   On the other hand, when the line-of-sight position with respect to the touch screen display 2 is detected as a result of the determination (step S201, Yes), the controller 10 determines whether the contact position with respect to the touch screen display 2 has been detected (step S202). When the contact position on the touch screen display 2 is not detected as a result of the determination (No at Step S202), the controller 10 repeats the processing procedure at Step S202.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出された場合には(ステップS202,Yes)、ステップS201で検出された視線位置と、ステップS202で検出された接触位置との間に差分があるかを判定する(ステップS203)。   On the other hand, when the contact position on the touch screen display 2 is detected as a result of the determination (step S202, Yes), the controller 10 determines the line-of-sight position detected in step S201 and the contact position detected in step S202. It is determined whether there is a difference between (step S203).

コントローラ10は、判定の結果、ステップS201で検出された視線位置と、ステップS202で検出された接触位置との間に差分がある場合には(ステップS203,Yes)、ステップS201で検出された視線位置を、補正後の接触位置として決定する(ステップS204)。これにより、例えば、指がキーボード上にある視線位置を遮らないように、視線位置から離れた箇所を接触位置とすることができる。   As a result of the determination, if there is a difference between the line-of-sight position detected in step S201 and the contact position detected in step S202 (step S203, Yes), the controller 10 detects the line-of-sight detected in step S201. The position is determined as the corrected contact position (step S204). Thereby, for example, a position away from the line-of-sight position can be set as the contact position so that the finger does not block the line-of-sight position on the keyboard.

続いて、コントローラ10は、ステップS204における補正後の接触位置に基づく処理を実行し(ステップS205)、図6に示す処理を終了する。   Subsequently, the controller 10 executes processing based on the corrected contact position in step S204 (step S205), and ends the processing shown in FIG.

上記ステップS203において、コントローラ10は、判定の結果、ステップS201で検出された視線位置と、ステップS202で検出された接触位置との間に差分がない場合には(ステップS203,No)、ステップS202で検出された接触位置に基づく処理を実行し(ステップS206)、図6に示す処理を終了する。   In step S203, if the controller 10 determines that there is no difference between the line-of-sight position detected in step S201 and the contact position detected in step S202 (No in step S203), the controller 10 determines in step S202. The process based on the contact position detected in step S206 is executed (step S206), and the process shown in FIG.

図7を用いて、上記図3に対応するスマートフォン1による処理の流れを説明する。図7に示すように、コントローラ10は、タッチスクリーンディスプレイ2に対する視線位置が検出されたかを判定する(ステップS301)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出されない場合には(ステップS301,No)、ステップS301の処理手順を繰り返す。   The flow of processing by the smartphone 1 corresponding to FIG. 3 will be described with reference to FIG. As illustrated in FIG. 7, the controller 10 determines whether a line-of-sight position with respect to the touch screen display 2 has been detected (step S301). As a result of the determination, when the line-of-sight position with respect to the touch screen display 2 is not detected (No at Step S301), the controller 10 repeats the processing procedure at Step S301.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出された場合には(ステップS301,Yes)、タッチスクリーンディスプレイ2に対する接触位置が検出されたかを判定する(ステップS302)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出されない場合には(ステップS302,No)、ステップS302の処理手順を繰り返す。   On the other hand, when the line-of-sight position with respect to the touch screen display 2 is detected as a result of the determination (step S301, Yes), the controller 10 determines whether the contact position with respect to the touch screen display 2 has been detected (step S302). When the contact position on the touch screen display 2 is not detected as a result of the determination (No at Step S302), the controller 10 repeats the processing procedure at Step S302.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出された場合には(ステップS302,Yes)、ステップS301で検出された視線位置と、ステップS302で検出された接触位置との間に差分があるかを判定する(ステップS303)。   On the other hand, when the contact position on the touch screen display 2 is detected as a result of the determination (step S302, Yes), the controller 10 determines the line-of-sight position detected in step S301 and the contact position detected in step S302. Whether there is a difference between them is determined (step S303).

コントローラ10は、判定の結果、ステップS301で検出された視線位置と、ステップS302で検出された接触位置との間に差分がある場合には(ステップS303,Yes)、ステップS301で検出された視線位置と、ステップS302で検出された接触位置とを結ぶ線上の所定位置を、補正後の接触位置として決定する(ステップS304)。   As a result of the determination, if there is a difference between the line-of-sight position detected in step S301 and the contact position detected in step S302 (step S303, Yes), the controller 10 detects the line-of-sight detected in step S301. A predetermined position on a line connecting the position and the contact position detected in step S302 is determined as a corrected contact position (step S304).

続いて、コントローラ10は、ステップS304における補正後の接触位置に基づく処理を実行し(ステップS305)、図7に示す処理を終了する。   Subsequently, the controller 10 executes a process based on the corrected contact position in step S304 (step S305), and ends the process shown in FIG.

上記ステップS303において、コントローラ10は、判定の結果、ステップS301で検出された視線位置と、ステップS302で検出された接触位置との間に差分がない場合には(ステップS303,No)、ステップS302で検出された接触位置に基づく処理を実行し(ステップS306)、図7に示す処理を終了する。   In step S303, if the controller 10 determines that there is no difference between the line-of-sight position detected in step S301 and the contact position detected in step S302 (step S303, No), step S302 is performed. The process based on the contact position detected in step S306 is executed (step S306), and the process shown in FIG.

図8を用いて、上記図4に対応するスマートフォン1による処理の流れを説明する。図8に示すように、コントローラ10は、タッチスクリーンディスプレイ2に対する視線位置が検出されたかを判定する(ステップS401)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出されない場合には(ステップS401,No)、ステップS401の処理手順を繰り返す。   The flow of processing by the smartphone 1 corresponding to FIG. 4 will be described using FIG. As illustrated in FIG. 8, the controller 10 determines whether a line-of-sight position with respect to the touch screen display 2 has been detected (step S401). As a result of the determination, if the line-of-sight position with respect to the touch screen display 2 is not detected (No at Step S401), the controller 10 repeats the processing procedure at Step S401.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出された場合には(ステップS401,Yes)、タッチスクリーンディスプレイ2に対する接触位置が検出されたかを判定する(ステップS402)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出されない場合には(ステップS402,No)、ステップS402の処理手順を繰り返す。   On the other hand, when the line-of-sight position with respect to the touch screen display 2 is detected as a result of the determination (step S401, Yes), the controller 10 determines whether the contact position with respect to the touch screen display 2 has been detected (step S402). When the contact position on the touch screen display 2 is not detected as a result of the determination (No at Step S402), the controller 10 repeats the processing procedure at Step S402.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出された場合には(ステップS402,Yes)、ステップS401で検出された視線位置と、ステップS402で検出された接触位置との間に差分があるかを判定する(ステップS403)。   On the other hand, when the contact position on the touch screen display 2 is detected as a result of the determination (step S402, Yes), the controller 10 determines the line-of-sight position detected in step S401 and the contact position detected in step S402. Whether there is a difference between them is determined (step S403).

コントローラ10は、判定の結果、ステップS401で検出された視線位置と、ステップS402で検出された接触位置との間に差分がある場合には(ステップS403,Yes)、タッチスクリーンディスプレイ2に表示される複数の操作対象の中から視線位置に対応する操作対象を1つ特定し、特定した操作対象の表示位置を補正後の接触位置として決定する(ステップS404)。   If there is a difference between the line-of-sight position detected in step S401 and the contact position detected in step S402 as a result of the determination (step S403, Yes), the controller 10 is displayed on the touch screen display 2. One operation target corresponding to the line-of-sight position is specified from the plurality of operation targets, and the display position of the specified operation target is determined as the corrected contact position (step S404).

続いて、コントローラ10は、ステップS404における補正後の接触位置に基づく処理を実行し(ステップS405)、図8に示す処理を終了する。   Subsequently, the controller 10 executes a process based on the corrected contact position in step S404 (step S405), and ends the process shown in FIG.

上記ステップS403において、コントローラ10は、判定の結果、ステップS401で検出された視線位置と、ステップS402で検出された接触位置との間に差分がない場合には(ステップS403,No)、ステップS402で検出された接触位置に基づく処理を実行し(ステップS406)、図8に示す処理を終了する。   In step S403, if there is no difference between the line-of-sight position detected in step S401 and the contact position detected in step S402 as a result of the determination (step S403, No), the controller 10 performs step S402. The process based on the contact position detected in step S406 is executed (step S406), and the process shown in FIG.

上記の実施形態1では、スマートフォン1は、タッチスクリーンディスプレイ2に対する接触位置と当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置に基づいてタッチスクリーンディスプレイ2に対する接触位置を補正する。このため、実施形態1によれば、利用者による入力の位置をより正確に調整することができる。   In the first embodiment, when the smartphone 1 has a difference between the contact position on the touch screen display 2 and the line-of-sight position on the touch screen display 2 when the contact position is detected, the smartphone 1 The contact position with respect to the touch screen display 2 is corrected based on the line-of-sight position with respect to the touch screen display 2 when the detection is performed. For this reason, according to Embodiment 1, the position of the input by a user can be adjusted more correctly.

(実施形態2)
図9を参照しつつ、実施形態2に係るスマートフォン1の機能構成の一例を説明する。
図9は、実施形態2に係るスマートフォン1の機能構成を示すブロック図である。実施形態2に係るスマートフォン1の機能構成は、以下に説明する点が実施形態1とは異なる。
(Embodiment 2)
An example of a functional configuration of the smartphone 1 according to the second embodiment will be described with reference to FIG.
FIG. 9 is a block diagram illustrating a functional configuration of the smartphone 1 according to the second embodiment. The functional configuration of the smartphone 1 according to the second embodiment is different from that of the first embodiment in the points described below.

ストレージ9は、閾値データ9Dをさらに記憶する。閾値データは、コントローラ10により実行される処理に用いられる。閾値データ9Dは、スマートフォン1に作用する振動の大きさを判定するためのデータである。ここで、振動の大きさとは、単位時間内に発生した最大振幅のことである。   The storage 9 further stores threshold data 9D. The threshold data is used for processing executed by the controller 10. The threshold data 9D is data for determining the magnitude of vibration that acts on the smartphone 1. Here, the magnitude of vibration is the maximum amplitude generated within a unit time.

接触位置補正プログラム9Bは、タッチスクリーンディスプレイ2に対する接触位置と当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置との間に差分が生じた場合に、当該接触位置の検出が行われた際のスマートフォン1に作用する振動の大きさが所定の閾値以上であるかを判定する機能をさらに提供する。接触位置補正プログラム9Bは、判定の結果、スマートフォン1に作用する振動の大きさが所定の閾値以上である場合には上記接触位置を補正し、スマートフォン1に作用する振動の大きさが所定の閾値以上ではない場合には上記接触位置を補正しない機能をさらに提供する。   The contact position correction program 9B detects the contact position when a difference occurs between the contact position with respect to the touch screen display 2 and the line-of-sight position with respect to the touch screen display 2 when the contact position is detected. The function which determines whether the magnitude | size of the vibration which acts on the smart phone 1 at the time of being performed is more than a predetermined threshold value is further provided. As a result of the determination, the contact position correction program 9B corrects the contact position when the magnitude of vibration acting on the smartphone 1 is equal to or greater than a predetermined threshold, and the magnitude of vibration acting on the smartphone 1 is a predetermined threshold. If not, the function of not correcting the contact position is further provided.

コントローラ10は、接触位置補正プログラム9Bを実行することにより、以下の処理を実行する。コントローラ10は、加速度センサ15の検出結果に基づいて、スマートフォン1に作用する振動の大きさを計測する。コントローラ10は、タッチスクリーンディスプレイ2に対する接触位置と当該接触位置の検出が行われた際のタッチスクリーンディスプレイ2に対する視線位置との間に差分が生じた場合、スマートフォン1に作用する振動の大きさが所定の閾値以上であるかを判定する。コントローラ10は、判定の結果、スマートフォン1に作用する振動の大きさが所定の閾値以上である場合には上記接触位置を補正し、スマートフォン1に作用する振動の大きさが所定の閾値以上ではない場合には上記接触位置を補正しない。   The controller 10 executes the following processing by executing the contact position correction program 9B. The controller 10 measures the magnitude of vibration acting on the smartphone 1 based on the detection result of the acceleration sensor 15. When a difference occurs between the touch position on the touch screen display 2 and the line-of-sight position on the touch screen display 2 when the touch position is detected, the controller 10 determines the magnitude of vibration acting on the smartphone 1. It is determined whether or not a predetermined threshold value is exceeded. If the magnitude of vibration acting on the smartphone 1 is equal to or greater than a predetermined threshold as a result of the determination, the controller 10 corrects the contact position, and the magnitude of vibration acting on the smartphone 1 is not equal to or greater than the predetermined threshold. In this case, the contact position is not corrected.

図10を参照しつつ、実施形態2に係るスマートフォン1による処理の流れを説明する。図10は、実施形態2に係るスマートフォン1による処理の流れを示すフローチャートである。図10に示す処理は、コントローラ10が、ストレージ9に記憶されている視線位置検出プログラム9A、及び接触位置補正プログラム9Bなどを実行することにより実現される。図10に示す処理は、ステップS504及びステップS507の処理手順が、実施形態1に係るスマートフォン1による処理(例えば、図5に示す処理)とは異なる。   The flow of processing by the smartphone 1 according to the second embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing a flow of processing by the smartphone 1 according to the second embodiment. The processing shown in FIG. 10 is realized by the controller 10 executing a line-of-sight position detection program 9A, a contact position correction program 9B, and the like stored in the storage 9. The processing shown in FIG. 10 is different from the processing performed by the smartphone 1 according to the first embodiment (for example, the processing shown in FIG. 5) in the processing procedures of step S504 and step S507.

図10に示すように、コントローラ10は、タッチスクリーンディスプレイ2に対する視線位置が検出されたかを判定する(ステップS501)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出されない場合には(ステップS501,No)、ステップS501の処理手順を繰り返す。   As illustrated in FIG. 10, the controller 10 determines whether a line-of-sight position with respect to the touch screen display 2 has been detected (step S501). As a result of the determination, when the line-of-sight position with respect to the touch screen display 2 is not detected (step S501, No), the controller 10 repeats the processing procedure of step S501.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する視線位置が検出された場合には(ステップS501,Yes)、タッチスクリーンディスプレイ2に対する接触位置が検出されたかを判定する(ステップS502)。コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出されない場合には(ステップS502,No)、ステップS502の処理手順を繰り返す。   On the other hand, when the line-of-sight position with respect to the touch screen display 2 is detected as a result of the determination (step S501, Yes), the controller 10 determines whether the contact position with respect to the touch screen display 2 has been detected (step S502). When the contact position on the touch screen display 2 is not detected as a result of the determination (No at Step S502), the controller 10 repeats the processing procedure at Step S502.

一方、コントローラ10は、判定の結果、タッチスクリーンディスプレイ2に対する接触位置が検出された場合には(ステップS502,Yes)、ステップS501で検出された視線位置と、ステップS502で検出された接触位置との間に差分があるかを判定する(ステップS503)。   On the other hand, when the contact position on the touch screen display 2 is detected as a result of the determination (step S502, Yes), the controller 10 determines the line-of-sight position detected in step S501 and the contact position detected in step S502. Whether there is a difference between them is determined (step S503).

コントローラ10は、判定の結果、ステップS501で検出された視線位置と、ステップS502で検出された接触位置との間に差分がある場合には(ステップS503,Yes)、スマートフォン1に作用する振動の大きさが閾値以上であるかを判定する(ステップS504)。   If there is a difference between the line-of-sight position detected in step S501 and the contact position detected in step S502 as a result of the determination (step S503, Yes), the controller 10 determines the vibration acting on the smartphone 1. It is determined whether the size is greater than or equal to a threshold value (step S504).

コントローラ10は、判定の結果、スマートフォン1に作用する振動の大きさが閾値以上である場合には(ステップS504,Yes)、ステップS501で検出された視線位置に基づいて、ステップS502で検出された接触位置の補正を実行する(ステップS505)。   As a result of the determination, if the magnitude of vibration acting on the smartphone 1 is equal to or greater than the threshold value (Yes in step S504), the controller 10 is detected in step S502 based on the line-of-sight position detected in step S501. The contact position is corrected (step S505).

続いて、コントローラ10は、ステップS505における補正後の接触位置に基づく処理を実行し(ステップS506)、図10に示す処理を終了する。   Subsequently, the controller 10 executes a process based on the corrected contact position in step S505 (step S506), and ends the process shown in FIG.

上記ステップS504において、コントローラ10は、判定の結果、スマートフォン1に作用する振動の大きさが閾値以上ではない場合には(ステップS504,No)、ステップS502で検出された接触位置に基づく処理を実行せずに(ステップS507)、図10に示す処理を終了する。すなわち、コントローラ10は、スマートフォン1に対して所定の大きさの振動が作用している場合には、視線位置と接触位置とのずれが利用者の誤操作によるものであると判定し、接触位置に基づく処理を行わない。   In step S504, when the magnitude of vibration acting on the smartphone 1 is not equal to or greater than the threshold value as a result of the determination (step S504, No), the controller 10 executes processing based on the contact position detected in step S502. Without (step S507), the process shown in FIG. That is, the controller 10 determines that the deviation between the line-of-sight position and the contact position is due to an erroneous operation by the user when a predetermined magnitude of vibration is applied to the smartphone 1, and Do not perform processing based on.

上記ステップS503において、コントローラ10は、判定の結果、ステップS501で検出された視線位置と、ステップS502で検出された接触位置との間に差分がない場合には(ステップS503,No)、ステップS502で検出された接触位置に基づく処理を実行し(ステップS508)、図10に示す処理を終了する。   In step S503, if there is no difference between the line-of-sight position detected in step S501 and the contact position detected in step S502 as a result of the determination (step S503, No), the controller 10 performs step S502. The process based on the contact position detected in step S508 is executed (step S508), and the process shown in FIG.

実施形態2によれば、スマートフォン1は、自機に対して所定の大きさの振動が作用している場合には接触位置の補正を行って、補正後の接触位置に基づく処理を実行する。一方、スマートフォン1は、自機に対して所定の大きさの振動が作用していない場合には、接触位置に基づく処理を実行しない。このため、実施形態2によれば、振動などの環境要因に基づく利用者の誤操作と単なる誤操作と区別して、利用者による入力の位置調整を状況に応じて実行することができる。   According to the second embodiment, the smartphone 1 performs a process based on the corrected contact position by correcting the contact position when vibration of a predetermined magnitude is acting on the own device. On the other hand, the smartphone 1 does not execute the process based on the contact position when the vibration of a predetermined magnitude is not acting on the own device. Therefore, according to the second embodiment, it is possible to distinguish the user's erroneous operation based on environmental factors such as vibration and the simple erroneous operation, and to perform the input position adjustment by the user according to the situation.

上記の実施形態では、添付の請求項に係る装置の例として、スマートフォン1について説明したが、添付の請求項に係る装置は、スマートフォン1に限定されない。添付の請求項に係る装置は、タッチスクリーンを有する電子機器であれば、スマートフォン以外の装置であってもよい。   In said embodiment, although the smart phone 1 was demonstrated as an example of the apparatus which concerns on an attached claim, the apparatus which concerns on an attached claim is not limited to the smart phone 1. FIG. The device according to the appended claims may be a device other than a smartphone as long as it is an electronic device having a touch screen.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 視線位置検出プログラム
9B 接触位置補正プログラム
9C 電話アプリケーション
9D 閾値データ
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
13 赤外線照射部
14 コネクタ
15 加速度センサ
16 方位センサ
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Gaze position detection program 9B Contact position correction program 9C Telephone application 9D Threshold data 9Z Setting data 10 Controller 11 Speaker 12 Camera 13 Infrared irradiation unit 14 Connector 15 Acceleration sensor 16 Direction sensor

Claims (5)

表示部と、
画像を取得する画像取得部と、
前記表示部に対応する接触位置を検出する接触位置検出部と、
前記画像取得部により取得された画像に基づいて前記表示部に対する視線位置を検出する視線位置検出部と、
前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際の前記表示部に対する視線位置に基づいて前記表示部に対する接触位置を補正する制御部と
を有し、
前記制御部は、前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置との間に差分が生じた場合に、当該接触位置の検出が行われた際の自機に作用する振動の大きさが所定の閾値以上であるかを判定し、
判定の結果、自機に作用する振動の大きさが所定の閾値以上である場合には前記表示部に対する接触位置を補正し、自機に作用する振動の大きさが所定の閾値以上ではない場合には前記表示部に対する接触位置を補正しない携帯端末。
A display unit;
An image acquisition unit for acquiring images;
A contact position detection unit for detecting a contact position corresponding to the display unit;
A line-of-sight position detection unit that detects a line-of-sight position with respect to the display unit based on the image acquired by the image acquisition unit;
When there is a difference between the contact position with respect to the display unit and the line-of-sight position with respect to the display unit when the contact position is detected, the line of sight with respect to the display unit when the contact position is detected have a control unit for correcting a contact position with respect to the display unit based on the position,
When the control unit detects the contact position when there is a difference between the contact position with respect to the display unit and the line-of-sight position with respect to the display unit when the contact position is detected Determine whether the magnitude of the vibration acting on the aircraft is greater than or equal to a predetermined threshold,
As a result of the determination, when the magnitude of vibration acting on the own machine is greater than or equal to a predetermined threshold, the position of contact with the display unit is corrected, and the magnitude of vibration acting on the own machine is not greater than or equal to the predetermined threshold The mobile terminal does not correct the contact position with respect to the display unit .
前記制御部は、前記接触位置の検出が行われた際の前記表示部に対する視線位置を、補正後の前記接触位置として決定する請求項1に記載の携帯端末。   The mobile terminal according to claim 1, wherein the control unit determines a line-of-sight position with respect to the display unit when the contact position is detected as the corrected contact position. 前記制御部は、前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置とを結ぶ線上の所定位置を、補正後の前記接触位置として決定する請求項1に記載の携帯端末。   The control unit determines a predetermined position on a line connecting a contact position with respect to the display unit and a line-of-sight position with respect to the display unit when the contact position is detected as the corrected contact position. The portable terminal as described in. 前記表示部は、複数の操作対象を含む画面を表示し、
前記制御部は、前記複数の操作対象の中から前記視線位置に対応する操作対象を1つ特定し、特定した操作対象が前記表示部に表示されている位置を補正後の前記接触位置として決定する請求項1に記載の携帯端末。
The display unit displays a screen including a plurality of operation targets,
The control unit identifies one operation target corresponding to the line-of-sight position from the plurality of operation targets, and determines the position where the identified operation target is displayed on the display unit as the corrected contact position The mobile terminal according to claim 1.
表示部と画像取得部とを有する携帯端末に実行させる制御方法であって、
前記表示部に対応する接触の位置を検出するステップと、
前記画像取得部により取得された画像に基づいて前記表示部に対する視線の位置を検出するステップと、
前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際の前記表示部に対する視線位置に基づいて前記表示部に対する接触位置を補正するステップと
を含み、
前記接触位置を補正するステップは、前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置との間に差分が生じた場合に、当該接触位置の検出が行われた際の自機に作用する振動の大きさが所定の閾値以上であるかを判定し、
判定の結果、自機に作用する振動の大きさが所定の閾値以上である場合には前記表示部に対する接触位置を補正し、自機に作用する振動の大きさが所定の閾値以上ではない場合には前記表示部に対する接触位置を補正しない制御方法。
A control method to be executed by a mobile terminal having a display unit and an image acquisition unit,
Detecting a position of contact corresponding to the display unit;
Detecting the position of the line of sight with respect to the display unit based on the image acquired by the image acquisition unit;
When there is a difference between the contact position with respect to the display unit and the line-of-sight position with respect to the display unit when the contact position is detected, the line of sight with respect to the display unit when the contact position is detected look including a step of correcting the contact position of the display unit based on the position,
The step of correcting the contact position includes detecting the contact position when a difference occurs between the contact position with respect to the display unit and the line-of-sight position with respect to the display unit when the contact position is detected. Determine whether the magnitude of the vibration acting on the aircraft when it is performed is greater than or equal to a predetermined threshold,
As a result of the determination, when the magnitude of vibration acting on the own machine is greater than or equal to a predetermined threshold, the position of contact with the display unit is corrected, and the magnitude of vibration acting on the own machine is not greater than or equal to the predetermined threshold The control method which does not correct | amend the contact position with respect to the said display part .
JP2014220495A 2014-10-29 2014-10-29 Portable terminal and control method Active JP6373722B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014220495A JP6373722B2 (en) 2014-10-29 2014-10-29 Portable terminal and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014220495A JP6373722B2 (en) 2014-10-29 2014-10-29 Portable terminal and control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018135343A Division JP6560410B2 (en) 2018-07-18 2018-07-18 Mobile terminal and control method

Publications (2)

Publication Number Publication Date
JP2016092440A JP2016092440A (en) 2016-05-23
JP6373722B2 true JP6373722B2 (en) 2018-08-15

Family

ID=56017201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014220495A Active JP6373722B2 (en) 2014-10-29 2014-10-29 Portable terminal and control method

Country Status (1)

Country Link
JP (1) JP6373722B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018020368A1 (en) * 2016-07-29 2018-02-01 Semiconductor Energy Laboratory Co., Ltd. Display method, display device, electronic device, non-temporary memory medium, and program
CN113504063B (en) * 2021-06-30 2022-10-21 南京航空航天大学 Three-dimensional space touch screen equipment visualization test method based on multi-axis mechanical arm

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11353118A (en) * 1998-06-08 1999-12-24 Ntt Data Corp Information input device
JP2012203671A (en) * 2011-03-25 2012-10-22 Nec Casio Mobile Communications Ltd Electronic apparatus, information generation method and program
JP2014085954A (en) * 2012-10-25 2014-05-12 Kyocera Corp Portable terminal device, program and input operation accepting method
JP6043586B2 (en) * 2012-10-29 2016-12-14 京セラ株式会社 Electronic device, line-of-sight input program, and line-of-sight input method
US9007321B2 (en) * 2013-03-25 2015-04-14 Sony Corporation Method and apparatus for enlarging a display area

Also Published As

Publication number Publication date
JP2016092440A (en) 2016-05-23

Similar Documents

Publication Publication Date Title
WO2016136837A1 (en) Wearable device, control method and control program
JP6140217B2 (en) Electronic device, control method, and control program
JP6568821B2 (en) Portable electronic device, security control method, and security control program
JP6618416B2 (en) Portable electronic device, security control method, and security control program
JP6373722B2 (en) Portable terminal and control method
WO2016031583A1 (en) Portable electronic device, control method, and control program
JP6141352B2 (en) Electronic equipment and control program
JP6416598B2 (en) Portable terminal and control method
JP6215277B2 (en) Portable device, control method and control program
JP6243835B2 (en) Portable electronic device and control method
JP6560410B2 (en) Mobile terminal and control method
JP2016136351A (en) Electronic apparatus and control method
JP6396202B2 (en) Electronic device and display control method
JP6261546B2 (en) Portable device, control method and control program
JP6062484B2 (en) Electronic device, control method, and control program
JP6151875B1 (en) Portable device
JP2017022535A (en) Electronic apparatus, control method, and control program
JP6399944B2 (en) Electronic device, control method, and control program
JP6495149B2 (en) Electronic device, control method, and control program
JP6464046B2 (en) Electronic device, control method, and control program
JP2016103105A (en) Portable terminal and control method therefor
US10447640B2 (en) Communication device, control method, and control program
JP2017021468A (en) Electronic apparatus, image processing method, and image processing program
JP2019032846A (en) Electronic apparatus and display control method
JP6152334B2 (en) Electronic device, control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180718

R150 Certificate of patent or registration of utility model

Ref document number: 6373722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150