JP5947999B2 - Method, electronic device and computer program for improving operation accuracy for touch screen - Google Patents

Method, electronic device and computer program for improving operation accuracy for touch screen Download PDF

Info

Publication number
JP5947999B2
JP5947999B2 JP2014023035A JP2014023035A JP5947999B2 JP 5947999 B2 JP5947999 B2 JP 5947999B2 JP 2014023035 A JP2014023035 A JP 2014023035A JP 2014023035 A JP2014023035 A JP 2014023035A JP 5947999 B2 JP5947999 B2 JP 5947999B2
Authority
JP
Japan
Prior art keywords
finger
coordinates
target
touch
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014023035A
Other languages
Japanese (ja)
Other versions
JP2015149036A (en
Inventor
晶彦 水谷
晶彦 水谷
泰史 塚本
泰史 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2014023035A priority Critical patent/JP5947999B2/en
Publication of JP2015149036A publication Critical patent/JP2015149036A/en
Application granted granted Critical
Publication of JP5947999B2 publication Critical patent/JP5947999B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、タッチスクリーンに対する操作精度を向上する技術に関し、特に小型のタッチスクリーンの操作精度を向上する技術に関する。   The present invention relates to a technique for improving the operation accuracy for a touch screen, and more particularly to a technique for improving the operation accuracy of a small touch screen.

電子機器が搭載するタッチスクリーンは、ディスプレイと透明なタッチパネルの積層構造を採用しており、指や電子ペンでディスプレイが表示するオブジェクトに対して直接入力指示ができるためユーザの直感的な操作を可能にする。指は電子ペンに比べてタッチ面に接触する面積(接触領域)が大きい。静電容量型のタッチパネルでは、ディスプレイの表面に接触している指の接触領域の幾何学的な中心や重心の座標を計算して座標を認識する。   The touch screen mounted on the electronic device employs a laminated structure of a display and a transparent touch panel, and direct input instructions can be given to objects displayed on the display with a finger or electronic pen, enabling intuitive operation by the user To. The finger has a larger area (contact area) in contact with the touch surface than the electronic pen. In a capacitive touch panel, the coordinates are recognized by calculating the coordinates of the geometric center and the center of gravity of the contact area of the finger in contact with the display surface.

ユーザはタッチスクリーンの検出原理を理解しているため指の接触領域の中心を目的とするオブジェクトに位置付けるようにタッチ操作をする。しかし、接触領域には指のサイズや接触圧力に応じた面積的な広がりがあり、かつ指の裏側に存在するためユーザは目的とするオブジェクトが小さいほど的確な操作することが困難になる。非特許文献1は、現在のタッチスクリーンに発生する構造的なエラー・オフセットについての研究成果を発表している。同文献には、以下のことを記載している。   Since the user understands the detection principle of the touch screen, the user performs a touch operation so that the center of the contact area of the finger is positioned on the target object. However, the contact area has an area spread according to the size of the finger and the contact pressure, and exists on the back side of the finger, so that it becomes difficult for the user to perform an accurate operation as the target object is smaller. Non-Patent Document 1 has published research results on structural error offsets that occur in current touch screens. This document describes the following.

静電容量型のタッチセンサでは、ユーザがオブジェクトを指示するときには、指の爪の中央部分を基準にしているため、接触領域からデバイスが検出する座標とユーザが意図して指を位置付けようとする座標との間にオフセットが発生する。接触領域は、タッチスクリーンに対する指の角度および圧力により変化するため、ユーザが意図するオブジェクトをタッチスクリーンが正確に検出するためにはターゲットのサイズを大きくする必要がある。したがって指の接触領域の中心でターゲットを検出するデバイスよりも、カメラを利用して撮影した指の画像から座標を検出するデバイスの方が正確にユーザの意図する位置を検出できることを報告している。   In the capacitive touch sensor, when the user designates an object, the center part of the fingernail is used as a reference, so the coordinates detected by the device from the contact area and the user intends to position the finger. An offset occurs between the coordinates. Since the contact area changes depending on the angle and pressure of the finger with respect to the touch screen, the size of the target needs to be increased in order for the touch screen to accurately detect the object intended by the user. Therefore, it has been reported that a device that detects coordinates from a finger image captured using a camera can detect a position intended by a user more accurately than a device that detects a target at the center of a finger contact area. .

特許文献1は、コンピュータの表示装置のベゼルに2つの魚眼レンズ・カメラを搭載して、三角測量の原理で指の指示位置を検出するタッチパネルを開示する。特許文献2は、タッチスクリーンの周囲に配置した4個のカメラで指を撮影してタッチミスを低減するタッチパネル装置を開示する。カメラがタッチスクリーンに接近する指を撮影した画像から指の面積を推定し、指の面積が所定値より大きい場合はGUIの部品を拡大して表示し、小さい場合は拡大しないで表示する。いずれの場合も指が接近していない場合はタッチスクリーンにGUIが表示されない。   Patent Document 1 discloses a touch panel in which two fisheye lenses / cameras are mounted on a bezel of a display device of a computer and a finger pointing position is detected based on the principle of triangulation. Patent Document 2 discloses a touch panel device that reduces touch errors by photographing fingers with four cameras arranged around a touch screen. The area of the finger is estimated from an image obtained by photographing the finger approaching the touch screen by the camera. If the finger area is larger than a predetermined value, the GUI component is enlarged and displayed. In either case, when the finger is not approaching, the GUI is not displayed on the touch screen.

特開2010−282463号公報JP 2010-282463 A 特開2011−134111号公報JP 2011-134111 A

Christian Holz and Patrick Baudisch,"Understanding Touch",[online],2011年,[平成26年1月18日検索],インターネット〈URL:http://www.christianholz.net/2011-chi11-holz-baudisch-understanding_touch.pdf〉Christian Holz and Patrick Baudisch, "Understanding Touch", [online], 2011, [searched January 18, 2014], Internet <URL: http://www.christianholz.net/2011-chi11-holz-baudisch -understanding_touch.pdf>

非特許文献1が指摘するように、カメラを利用した入力デバイスで従来の静電容量型のタッチスクリーンよりも精度の高い操作をすることができるとしても、携帯式電子機器に指を真上から撮影するようなカメラを搭載することは困難である。特許文献1のように画像だけで座標を検出する場合は、2台のカメラを搭載する必要がある。特許文献2の方法では、指の接近前にアイコンが表示されないためアイコンが多くなると指を接近させたときに目的とするアイコンが表示されないことも予想され、さらに常時画面にアイコンを表示しておきたい場合には採用できない。   As Non-Patent Document 1 points out, even if an input device using a camera can be operated with higher accuracy than a conventional capacitive touch screen, the finger is placed directly above the portable electronic device. It is difficult to mount a camera for taking pictures. In the case of detecting coordinates only by an image as in Patent Document 1, it is necessary to mount two cameras. In the method of Patent Document 2, since icons are not displayed before the finger approaches, if the number of icons increases, it is expected that the target icon will not be displayed when the finger is approached, and icons are always displayed on the screen. If you want to, you can not employ.

タブレット端末およびスマートフォンには、ユーザの顔および風景を切り換えて撮影することができる1台のカメラを標準的に搭載する。また近年のノートブック型パーソナル・コンピュータ(ノートPC)では、ユーザの顔を撮影することができる1台のカメラとタッチスクリーンを搭載するものがある。そして、このような携帯式電子機器においてコスト上昇を抑制しながらタッチスクリーンの操作精度を向上することが求められている。   A tablet terminal and a smartphone are typically equipped with one camera that can switch and shoot a user's face and landscape. Some recent notebook personal computers (notebook PCs) are equipped with a single camera and a touch screen that can photograph a user's face. In such portable electronic devices, it is required to improve the operation accuracy of the touch screen while suppressing an increase in cost.

そこで本発明の目的は、電子機器が実装するタッチスクリーンの操作精度を向上する方法を提供することにある。さらに本発明の目的は、電子機器が実装するタッチスクリーンのオブジェクトを小さくする方法を提供することにある。さらに本発明の目的は、そのような方法を採用した電子機器およびコンピュータ・プログラムを提供することにある。   Therefore, an object of the present invention is to provide a method for improving the operation accuracy of a touch screen mounted on an electronic device. Another object of the present invention is to provide a method for reducing the size of a touch screen object mounted on an electronic device. Furthermore, the objective of this invention is providing the electronic device and computer program which employ | adopted such a method.

本発明の1つの態様では、電子機器がタッチ面に対する指の接触領域から座標を検出するタッチスクリーンを搭載する。電子機器がタッチスクリーンに対するタッチ操作に応じて検出座標を生成する。電子機器はカメラでタッチ操作をしている指を撮影する。つづいて電子機器は指の撮影画像から特定した指の姿勢に基づいて補正量を計算し、検出座標と補正量から計算したターゲット座標を出力する。   In one aspect of the present invention, the electronic device includes a touch screen that detects coordinates from a contact area of a finger with respect to the touch surface. The electronic device generates detected coordinates in response to a touch operation on the touch screen. The electronic device takes a picture of a finger touching with the camera. Subsequently, the electronic device calculates a correction amount based on the posture of the finger specified from the photographed image of the finger, and outputs target coordinates calculated from the detected coordinates and the correction amount.

その結果、タッチ操作をする指の姿勢に起因して発生したオフセットを補正して操作精度を向上することができる。また、タッチ操作の対象となるオブジェクトを小さくすることができる。電子機器は、スマートフォン、タブレット端末、またはノートPCのいずれかとすることができる。タッチスクリーンは静電容量式、FTIR(Frustrated Total Internal Reflection)式、または抵抗式のいずれかとすることができる。カメラを広角レンズ・カメラまたは魚眼レンズ・カメラとすれば、顔と指の両方の撮影に利用でき、かつ、タッチスクリーンの縁枠がタッチ面と同じ平面にあってもタッチ操作する指を撮影することができる。   As a result, it is possible to improve the operation accuracy by correcting the offset generated due to the posture of the finger performing the touch operation. In addition, the object to be touched can be reduced. The electronic device can be either a smartphone, a tablet terminal, or a notebook PC. The touch screen can be either a capacitance type, a FTIR (Frustrated Total Internal Reflection) type, or a resistance type. If the camera is a wide-angle lens camera or fish-eye lens camera, it can be used for both face and finger photography, and even if the edge frame of the touch screen is on the same plane as the touch surface, the finger to be touched can be photographed. Can do.

補正量の計算においては、ターゲット座標を指の所定の位置に想定した視線ターゲットの真下に設定することができる。このとき視線ターゲットをタッチ面に対する指の投影が形成する指の幅の中心線上でかつ指の底部より指先側に設定することができる。さらに補正量の計算においては、検出座標を撮影画像が含む指の特徴的部位の真下に想定することができる。このとき指の特徴的部位を爪の底部に設けることができる。補正量の計算においては、撮影画像から特定した指の軸とタッチ面が形成するピッチ角を計算することができる。このとき、カメラと検出座標の距離を計算して撮影画像から特定した爪の長さを計算することができる。カメラと検出座標の距離を計算することでカメラは1台にすることができる。   In the calculation of the correction amount, the target coordinates can be set directly below the line-of-sight target assumed at a predetermined position of the finger. At this time, the line-of-sight target can be set on the center line of the width of the finger formed by the projection of the finger on the touch surface and closer to the fingertip side than the bottom of the finger. Furthermore, in the calculation of the correction amount, it is possible to assume the detection coordinates immediately below the characteristic part of the finger included in the captured image. At this time, the characteristic part of the finger can be provided at the bottom of the nail. In the calculation of the correction amount, the pitch angle formed by the finger axis and the touch surface specified from the captured image can be calculated. At this time, the distance between the camera and the detected coordinate can be calculated to calculate the length of the nail specified from the captured image. One camera can be obtained by calculating the distance between the camera and the detected coordinates.

また、補正量の計算においては、撮影画像から特定した指の軸の回りのロール角を計算することができる。このとき、カメラと検出座標の距離を計算して、撮影画像から特定したタッチ面に対する指の高さを計算することができる。上記の構成においてピッチ方向の傾斜とロール方向の回転は同時に発生していてもよい。本発明はスマートフォンまたはタブレット端末のような小型の電子機器に搭載するタッチスクリーンに適用すると特に有効である。   Further, in the calculation of the correction amount, the roll angle around the finger axis specified from the photographed image can be calculated. At this time, the distance between the camera and the detected coordinates can be calculated, and the height of the finger relative to the touch surface specified from the captured image can be calculated. In the above configuration, the pitch direction inclination and the roll direction rotation may occur simultaneously. The present invention is particularly effective when applied to a touch screen mounted on a small electronic device such as a smartphone or a tablet terminal.

本発明の他の態様は、電子機器にユーザが入力を意図するターゲット座標とタッチスクリーンが検出する検出座標の差に相当するオフセットをOFSとし、指の姿勢に対応する変数をuとする関数をf(u)とし、係数をrとした式(a)を用意する。
OFS=r×f(u) (a)
Another aspect of the present invention is a function in which an offset corresponding to a difference between a target coordinate that a user intends to input to an electronic device and a detected coordinate detected by a touch screen is OFS, and a variable corresponding to a finger posture is u. Formula (a) is prepared, where f (u) is the coefficient and r is the coefficient.
OFS = r × f (u) (a)

つづいてタッチスクリーンが検出座標を生成し、カメラでタッチ操作をしている指を撮影する。つづいて指の撮影画像から特定した指の姿勢に基づいて計算した変数uの値を式(a)に代入してオフセット値を計算し、検出座標とオフセット値から計算したターゲット座標を出力する。係数rは、あらかじめ複数の被験者に平均的に適用できる値を登録しておいてもよいし、個別のユーザに適用できる値を登録しておいてもよい。   Subsequently, the touch screen generates detected coordinates, and the finger that is touching with the camera is photographed. Subsequently, the offset value is calculated by substituting the value of the variable u calculated based on the posture of the finger specified from the photographed image of the finger into the equation (a), and the target coordinate calculated from the detected coordinate and the offset value is output. As the coefficient r, a value that can be averagely applied to a plurality of subjects may be registered in advance, or a value that can be applied to individual users may be registered.

変数uをピッチ角βとし、ピッチ方向のオフセットをΔyとし、係数rを係数pとしたときに式(a)は、
Δy=p×cosβ (b)
とすることができる。また、変数uをロール角γとしピッチ方向のオフセットをΔxとし、係数rを係数qとしたときに式(a)は、
Δx=q×tanγ (c)
とすることができる。
When the variable u is the pitch angle β, the offset in the pitch direction is Δy, and the coefficient r is the coefficient p, the equation (a) is
Δy = p × cos β (b)
It can be. When the variable u is the roll angle γ, the offset in the pitch direction is Δx, and the coefficient r is the coefficient q, the equation (a) is
Δx = q × tan γ (c)
It can be.

係数rは、タッチスクリーンにターゲット・オブジェクトを表示し、ターゲット・オブジェクトに対するタッチ操作に応答して検出した検出座標とターゲット・オブジェクトの座標の差からオフセット値を計算し、撮影画像から変数uの値を計算し、オフセット値と変数uの値を式(a)に代入して計算することができる。よって、指の形状や視線ターゲットの位置がユーザごとに異なっていても、ユーザごとに係数rを計算することで精度の高い補正をすることができる。   The coefficient r displays the target object on the touch screen, calculates an offset value from the difference between the detected coordinates detected in response to the touch operation on the target object and the coordinates of the target object, and calculates the value of the variable u from the captured image. Can be calculated by substituting the offset value and the value of the variable u into equation (a). Therefore, even if the finger shape and the position of the line-of-sight target are different for each user, it is possible to perform highly accurate correction by calculating the coefficient r for each user.

本発明により、電子機器が実装するタッチスクリーンの操作精度を向上する方法を提供することができた。さらに本発明により、電子機器が実装するタッチスクリーンのオブジェクトを小さくする方法を提供することができた。さらに本発明により、そのような方法を採用した電子機器およびコンピュータ・プログラムを提供することにある。   According to the present invention, a method for improving the operation accuracy of a touch screen mounted on an electronic device can be provided. Furthermore, according to the present invention, it is possible to provide a method for reducing an object of a touch screen mounted on an electronic device. It is a further object of the present invention to provide an electronic device and a computer program that employ such a method.

スマートフォン10およびタブレット端末20のタッチスクリーン11、21を指でタッチ操作するときの様子を説明する図である。It is a figure explaining a mode when touch-operating the touch screens 11 and 21 of the smart phone 10 and the tablet terminal 20 with a finger. 指によるタッチ操作においてオフセットが発生する様子を説明する図である。It is a figure explaining a mode that offset occurs in touch operation by a finger. タッチスクリーン11が検出した座標を補正する方法を説明するための図である。It is a figure for demonstrating the method of correct | amending the coordinate which the touch screen 11 detected. タッチスクリーン11が検出した座標を補正する方法を説明するための図である。It is a figure for demonstrating the method of correct | amending the coordinate which the touch screen 11 detected. x−y直交座標上のオフセットΔx、Δyから、ヨー角αに応じてX−Y直交座標上のターゲット座標を生成する方法を説明する図である。It is a figure explaining the method to produce | generate the target coordinate on a XY rectangular coordinate according to the yaw angle (alpha) from offset (DELTA) x, (DELTA) y on a xy rectangular coordinate. スマートフォン10のハードウェアの構成を説明するための図である。FIG. 3 is a diagram for explaining a hardware configuration of a smartphone 10. 座標補正システム200の機能ブロック図である。2 is a functional block diagram of a coordinate correction system 200. FIG. 座標補正システム200の動作を説明するためのフローチャートである。5 is a flowchart for explaining the operation of the coordinate correction system 200. 座標補正システム200の他の動作を説明するためのフローチャートである。10 is a flowchart for explaining another operation of the coordinate correction system 200. 座標補正システム200の他の動作を説明するための図である。6 is a diagram for explaining another operation of the coordinate correction system 200. FIG.

図1は、本実施の形態にかかる携帯式電子機器の一例であるスマートフォン10およびタブレット端末20のタッチスクリーン11、21を指で操作するときの様子を説明する図である。スマートフォン10およびタブレット端末20は、タッチスクリーン11、21の周囲を囲む縁枠15、25にカメラ・モジュール13、23を搭載している。スマートフォン10には1本の指でタッチ操作をするシングルタッチ操作の様子を例示し、タブレット端末20には複数の指でタッチ操作をするマルチタッチ操作の様子を例示している。タッチ操作をするタッチスクリーン11、21の表面をタッチ面11a、21aという。   FIG. 1 is a diagram for explaining a state when the touch screens 11 and 21 of the smartphone 10 and the tablet terminal 20 that are examples of the portable electronic device according to the present embodiment are operated with a finger. The smartphone 10 and the tablet terminal 20 have camera modules 13 and 23 mounted on edge frames 15 and 25 surrounding the touch screens 11 and 21. The smartphone 10 illustrates a single touch operation with a single finger, and the tablet terminal 20 illustrates a multi-touch operation with a plurality of fingers. The surfaces of the touch screens 11 and 21 that perform the touch operation are referred to as touch surfaces 11a and 21a.

図2は、タッチ面11aに対するタッチ操作に構造的なオフセットが発生する様子を説明するための図である。ユーザはタッチスクリーン11に表示されている矩形状のアイコン111に対して指150でタッチ操作をする。ユーザは、タッチスクリーン11が指150とタッチ面が接触する接触領域109の中心で座標を検出することを知っているため、アイコン111の中心に接触領域109の中心が位置するようにタッチ操作をする。ここでアイコン111の中心部はユーザが指を位置付ける際の目標となる座標であり、これをターゲット座標105ということにする。   FIG. 2 is a diagram for explaining how a structural offset occurs in the touch operation on the touch surface 11a. The user touches the rectangular icon 111 displayed on the touch screen 11 with the finger 150. Since the user knows that the touch screen 11 detects the coordinates at the center of the contact area 109 where the finger 150 and the touch surface contact, the touch operation is performed so that the center of the contact area 109 is positioned at the center of the icon 111. To do. Here, the central portion of the icon 111 is a target coordinate when the user positions the finger, and this is referred to as a target coordinate 105.

しかし、日常的なタッチ操作の経験から、アイコン111の面積が小さいときに、アイコン111が選択されない場合があることが判っている。非特許文献1の研究では、このときユーザは暗黙のうちに爪151の表面の中央部をターゲット座標105に位置付けていると指摘している。ユーザがターゲット座標105に指を位置付ける際に意識しないで目印にしていると想定した爪151または皮膚の表面の所定の位置を視線ターゲット155ということにする。このときターゲット座標105は視線ターゲット155からタッチ面に下ろした垂線上に存在すると想定する。   However, it is known from the experience of daily touch operations that the icon 111 may not be selected when the area of the icon 111 is small. In the research of Non-Patent Document 1, it is pointed out that the user implicitly positions the center of the surface of the nail 151 at the target coordinate 105 at this time. A predetermined position on the surface of the nail 151 or the skin that is assumed to be a marker without being conscious when the user positions the finger at the target coordinates 105 is referred to as a line-of-sight target 155. At this time, it is assumed that the target coordinates 105 are present on a perpendicular line from the line-of-sight target 155 to the touch surface.

ただし本発明は、視線ターゲット155が爪151の中心に存在すると想定する場合だけでなく、視線ターゲット155の位置に個人差がある場合でも補正することができる。ここで、タッチスクリーン11が検出する座標を検出座標107ということにする。検出座標107は、タッチスクリーン11の原理として接触領域109の幾何学的な重心または中心であるため、検出座標107とターゲット座標105の間には指の形状および姿勢に起因してオフセットOFSが発生する。   However, the present invention can correct not only when it is assumed that the line-of-sight target 155 is present at the center of the nail 151 but also when there is an individual difference in the position of the line-of-sight target 155. Here, the coordinates detected by the touch screen 11 are referred to as detected coordinates 107. Since the detection coordinate 107 is the geometric gravity center or center of the contact area 109 as a principle of the touch screen 11, an offset OFS is generated between the detection coordinate 107 and the target coordinate 105 due to the shape and posture of the finger. To do.

オフセットOFSがアイコン111のサイズに対して大きい場合は、アイコン111に対するタッチ操作は失敗するか隣接するオブジェクトに誤って行うことになる。視線ターゲット155はユーザの意識の中に潜む存在であるが、検出座標107からシフトした位置にターゲット座標105が発生する原因を作っており、その位置を想定することでオフセットOFSを計算するという側面において本実施の形態の原理を構成する。   When the offset OFS is larger than the size of the icon 111, the touch operation on the icon 111 fails or is erroneously performed on an adjacent object. Although the line-of-sight target 155 is hidden in the user's consciousness, the cause of the target coordinate 105 occurring at a position shifted from the detected coordinate 107 is created, and the offset OFS is calculated by assuming the position. The principle of the present embodiment is configured in FIG.

図3、図4は、カメラ・モジュール13が撮影した画像のデータ(画像データ)を使ってタッチスクリーン11が検出した座標を補正する方法を説明するための図である。図3では矩形状のタッチスクリーン11の短辺と長辺に沿ってX−Y直交座標を定義している。タッチスクリーン11は、指150の接触領域109から計算した検出座標107をシステムにX−Y直交座標で出力する。検出座標107は、カメラ・モジュール13から距離dの位置に存在する。距離dは後に説明するように、1台のカメラ・モジュール13が撮影した指の画像データから爪の長さs、爪の幅nおよび指の高さh1などを計算するために利用する。   3 and 4 are diagrams for explaining a method of correcting coordinates detected by the touch screen 11 using image data (image data) taken by the camera module 13. In FIG. 3, XY orthogonal coordinates are defined along the short side and the long side of the rectangular touch screen 11. The touch screen 11 outputs the detected coordinates 107 calculated from the contact area 109 of the finger 150 to the system in XY orthogonal coordinates. The detected coordinate 107 exists at a distance d from the camera module 13. As will be described later, the distance d is used to calculate the nail length s, the nail width n, the finger height h1, and the like from finger image data captured by one camera module 13.

図3では、指150の長さ方向にy軸を設定して指のx−y直交座標を定義している。指のy軸とタッチスクリーン11のY軸が作る角度をヨー角αという。図4は、タッチ操作に関連する指150の範囲として、指先から第1関節付近までを示している。図4において、指の断面を楕円形とみなしたときに、その中心を指150の長さ方向(y軸方向)に通過するラインを指の軸160ということにする。   In FIG. 3, the y-axis is set in the length direction of the finger 150 to define the xy orthogonal coordinates of the finger. An angle formed by the y axis of the finger and the Y axis of the touch screen 11 is referred to as a yaw angle α. FIG. 4 shows the range of the finger 150 related to the touch operation from the fingertip to the vicinity of the first joint. In FIG. 4, when the cross section of the finger is regarded as an ellipse, a line passing through the center of the finger in the length direction (y-axis direction) of the finger 150 is referred to as a finger axis 160.

図4(A)、図4(C)は指の軸160がタッチ面11aと平行になるようにタッチ面11a上に指が置かれた状態を真上から視た平面図である。図4(A)は爪151の正面を示し、図4(C)は指150が指の軸を160中心にして右方向(ロール方向)にわずかに回転した様子を示している。図4(A)において、タッチ面11aに対する投影において、爪の底部157を通過してタッチ面11aに平行なライン154と皮膚の両側の表面がそれぞれ交差する位置が形成する長さを指の幅w1と定義する。   4A and 4C are plan views of a state in which the finger is placed on the touch surface 11a so that the finger axis 160 is parallel to the touch surface 11a, as viewed from directly above. 4A shows the front of the nail 151, and FIG. 4C shows the finger 150 slightly rotated rightward (roll direction) about the finger axis 160. In FIG. 4A, in the projection onto the touch surface 11a, the length formed by the position where the line 154 passing through the bottom portion 157 of the nail and the surface on both sides of the skin intersects with the surface of the both sides of the skin is formed. Define as w1.

タッチ面11aに対する投影にいて、指の軸160に垂直な方向の爪151の長さを爪の幅nと定義する。爪の底部157における指の幅w1の中心を指の幅の中心162といい、爪の幅nの中心を爪の幅の中心168と定義する。タッチ面11aに対する投影において指の幅の中心162を通る線と指の軸160は一致するとみなし、指の底部157において指の幅の中心162と爪の幅の中心168は一致するとみなす。   In the projection onto the touch surface 11a, the length of the nail 151 in the direction perpendicular to the finger axis 160 is defined as a nail width n. The center of the finger width w1 at the bottom 157 of the nail is referred to as the finger width center 162, and the center of the nail width n is defined as the nail width center 168. In projection onto the touch surface 11a, the line passing through the finger width center 162 and the finger axis 160 are considered to coincide with each other, and the finger width center 162 and the nail width center 168 are assumed to coincide with each other at the finger bottom 157.

タッチ面11aに対する投影において、爪の底部157を通過してタッチ面11aに平行なライン154から指150の皮膚の先端または爪151の先端までの指の軸160上での長さを爪の長さsとする。一例としてタッチ面11aに対する投影において、指の軸160と爪の長さの中心線152が交差する位置に対応する爪151の表面を視線ターゲット155と想定する。タッチ面11aに対する投影において、指の幅の中心162を通り指の軸160に平行にy軸を定義し、指の幅の中心162を通ってライン154に平行にx軸を定義する。x−y直交座標はタッチ面11aに平行になる。   In the projection on the touch surface 11a, the length on the finger axis 160 from the line 154 passing through the bottom 157 of the nail and parallel to the touch surface 11a to the tip of the skin of the finger 150 or the tip of the nail 151 is the length of the nail. S. As an example, in the projection onto the touch surface 11a, the surface of the nail 151 corresponding to the position where the finger axis 160 and the center line 152 of the nail length intersect is assumed to be the line-of-sight target 155. In the projection onto the touch surface 11a, the y-axis is defined parallel to the finger axis 160 through the finger width center 162, and the x-axis is defined parallel to the line 154 through the finger width center 162. The xy orthogonal coordinates are parallel to the touch surface 11a.

図4(C)では、タッチ面11aに対する投影において、爪の底部157を通過してタッチ面11aに平行なライン154と皮膚の両端の表面がそれぞれ交差する位置が形成する長さを指の幅w2と定義する。指の幅w1、w2はいずれもタッチ面11aに対する皮膚の投影のなかで爪の底部157を通過するライン154が形成する幅に相当する。指の形状から指の幅w1は、指の幅w2の最大値に相当する。爪の底部157を通過するライン154における指の幅w2の中心が位置する皮膚または爪の表面を指の幅の中心164ということにする。   In FIG. 4C, in the projection onto the touch surface 11a, the length formed by the position where the line 154 passing through the bottom portion 157 of the nail and the surfaces of both ends of the skin intersect with each other forms the width of the finger. It is defined as w2. Both the finger widths w1 and w2 correspond to the width formed by the line 154 passing through the bottom 157 of the nail in the projection of the skin onto the touch surface 11a. The finger width w1 from the finger shape corresponds to the maximum value of the finger width w2. The surface of the skin or the nail where the center of the finger width w2 in the line 154 passing through the bottom 157 of the nail is located is referred to as the finger width center 164.

本実施の形態における補正量の計算においては、ロール角γの大きさにかかわらず指150がロール方向に回転したときに指の幅w2を適用する。図4(A)に対応させてタッチ面11aに対する投影において指の軸160と爪の長さの中心線152が交差する位置に対応する爪151または皮膚の表面を、視線ターゲット155と想定する。タッチ面11aに対する投影において、指の幅の中心164を通り指の軸160に平行にy軸を定義し、指の幅の中心164を通りライン154に平行にx軸を定義する。この場合もx−y直交座標はタッチ面11aに平行になる。   In the calculation of the correction amount in the present embodiment, the finger width w2 is applied when the finger 150 rotates in the roll direction regardless of the roll angle γ. Assume that a line of sight target 155 corresponds to the nail 151 or the surface of the skin corresponding to the position where the finger axis 160 and the center line 152 of the length of the nail intersect in the projection onto the touch surface 11a corresponding to FIG. In the projection onto the touch surface 11a, the y-axis is defined parallel to the finger axis 160 through the finger width center 164, and the x-axis is defined parallel to the line 154 through the finger width center 164. Also in this case, the xy orthogonal coordinates are parallel to the touch surface 11a.

図4(B)は、ロール方向に回転していない指150をx軸方向から視た側面図である。指の幅の中心162を通過して指の軸160に平行に爪151の表面を沿うライン156はタッチ面11aに対してピッチ方向に傾斜している。ライン156とタッチ面11aが形成する角度をピッチ角βという。なお、ライン156と指の軸160は平行として扱うことができるため、ピッチ角βをタッチ面11aと指の軸160との間の角度で定義することもできる。さらにピッチ角βは、タッチ面11aとそれに対向する指150の裏側の皮膚との間の角度で定義してもよい。   FIG. 4B is a side view of the finger 150 not rotating in the roll direction as viewed from the x-axis direction. A line 156 that passes through the center 162 of the finger width and extends along the surface of the nail 151 in parallel with the finger axis 160 is inclined in the pitch direction with respect to the touch surface 11a. An angle formed by the line 156 and the touch surface 11a is referred to as a pitch angle β. Since the line 156 and the finger axis 160 can be treated as parallel, the pitch angle β can also be defined by the angle between the touch surface 11 a and the finger axis 160. Further, the pitch angle β may be defined as an angle between the touch surface 11a and the skin on the back side of the finger 150 facing the touch surface 11a.

ここで図4(B)において、視線ターゲット155は図4(A)と同様に、タッチ面11aに対する投影において指の軸160と爪の長さの中心線152が交差する位置に対応する爪151の表面に想定する。ただし、視線ターゲット155は、ライン156上で指の底部157より先端側の爪151の表面に想定してもよい。また、指の幅の中心162からタッチ面11aに下ろした垂線上に検出座標107が存在すると想定する。このとき、視線ターゲット155の真下にあるターゲット座標105と、想定した検出座標107の間にはy軸方向のオフセットΔyが発生している。オフセットΔyは、ピッチ角βと爪の長さsから、式(1)で計算することができる。
Δy=(s/2)×cosβ (1)
Here, in FIG. 4B, the line-of-sight target 155 is the nail 151 corresponding to the position where the finger axis 160 and the center line 152 of the nail length intersect in the projection onto the touch surface 11a, as in FIG. 4A. Assuming the surface of However, the line-of-sight target 155 may be assumed on the surface of the nail 151 on the tip side of the finger bottom 157 on the line 156. In addition, it is assumed that the detection coordinate 107 exists on a perpendicular line extending from the center 162 of the finger width to the touch surface 11a. At this time, an offset Δy in the y-axis direction is generated between the target coordinate 105 immediately below the line-of-sight target 155 and the assumed detection coordinate 107. The offset Δy can be calculated by the equation (1) from the pitch angle β and the claw length s.
Δy = (s / 2) × cos β (1)

図4(D)は、図4(C)のx軸を含みタッチ面11aに垂直な平面で指150を切断したときの断面を指先から視た断面図である。このとき、爪の中心168は、図4(A)のタッチ面11aに対する鉛直方向からロール角γだけ回転している。このとき指150は断面が完全な円形ではないため、検出座標107がターゲット座標105からx軸方向にシフトする。図4(B)と同様に視線ターゲット155の真下にターゲット座標105を設定し、ロール角γだけ回転した位置での爪の幅の中心168の真下に検出座標107を想定する。ただし、視線ターゲット155は、タッチ面11aに対する投影において、指の幅の中心164を通過しかつ指の底部157より先端側の爪151の表面または皮膚に想定してもよい。このとき検出座標107とターゲット座標105の間にはx軸方向のオフセットΔxが発生している。   FIG. 4D is a cross-sectional view of the cross section when the finger 150 is cut along a plane perpendicular to the touch surface 11a including the x axis in FIG. At this time, the nail center 168 is rotated by the roll angle γ from the vertical direction with respect to the touch surface 11a in FIG. At this time, since the finger 150 is not completely circular in cross section, the detection coordinate 107 is shifted from the target coordinate 105 in the x-axis direction. As in FIG. 4B, the target coordinate 105 is set just below the line-of-sight target 155, and the detected coordinate 107 is assumed just below the center 168 of the nail width at the position rotated by the roll angle γ. However, the line-of-sight target 155 may be assumed to be on the surface or skin of the nail 151 passing through the center 164 of the finger width and on the tip side of the finger bottom 157 in the projection onto the touch surface 11a. At this time, an offset Δx in the x-axis direction is generated between the detected coordinate 107 and the target coordinate 105.

オフセットΔxは、ロール角γとロール状態でのタッチ面11aに対する指の高さh1から式(2)で計算することができる。
Δx=(h1/2)×tanγ (2)
オフセットΔxの方向はロール方向に一致するが、指の可動範囲の特質から通常はユーザからみて右手の指は右回転で左手の指は左回転になる。
The offset Δx can be calculated from the roll angle γ and the height h1 of the finger with respect to the touch surface 11a in the roll state using Equation (2).
Δx = (h1 / 2) × tan γ (2)
The direction of the offset Δx coincides with the roll direction, but from the viewpoint of the nature of the movable range of the finger, the right finger is normally rotated to the right and the left hand is rotated to the left as viewed from the user.

指150がピッチ方向に傾斜し、かつ、ロール方向に回転しているときは、タッチ面11aに対する投影において、指の軸160と爪の長さの中心線152が交差する位置に対応する爪151または皮膚の表面に視線ターゲット155を設定し、画像から抽出したピッチ角βとロール角γからオフセットΔy、Δxをそれぞれ計算することができる。オフセットΔx、Δyは、x−y直交座標上の値であるが、タッチスクリーン11はX−Y直交座標上の値を出力する必要がある。   When the finger 150 is inclined in the pitch direction and is rotated in the roll direction, the nail 151 corresponding to the position where the finger axis 160 and the center line 152 of the nail length intersect in the projection onto the touch surface 11a. Alternatively, the line-of-sight target 155 is set on the surface of the skin, and the offsets Δy and Δx can be calculated from the pitch angle β and the roll angle γ extracted from the image, respectively. The offsets Δx and Δy are values on the xy orthogonal coordinates, but the touch screen 11 needs to output values on the XY orthogonal coordinates.

指150のy軸がタッチスクリーン11のY軸に対してヨー角αだけ傾斜しているときは、図5に示すように式(3)、(4)でオフセットΔx、ΔyをX−Y直交座標上のターゲット座標(X,Y)に投影して検出座標(X,Y)を補正することができる。
=X−Δx×cosα (3)
=Y+Δy×cosα (4)
When the y-axis of the finger 150 is tilted by the yaw angle α with respect to the Y-axis of the touch screen 11, the offsets Δx and Δy are orthogonal to each other in the formulas (3) and (4) as shown in FIG. The detected coordinates (X 0 , Y 0 ) can be corrected by projecting on the target coordinates (X 1 , Y 1 ) on the coordinates.
X 1 = X 0 −Δx × cos α (3)
Y 1 = Y 0 + Δy × cos α (4)

図6は、スマートフォン10のハードウェアの構成を説明するための図である。スマートフォン10は、CPU51、システム・メモリ53、I/Oインターフェース55、SSD57、タッチスクリーン11、無線モジュール59およびカメラ・モジュール13などの要素を含む。スマートフォン10を構成する多くのハードウェアは周知であるため、本発明の理解に必要な範囲で説明する。SSD57は、座標補正システム200(図7)の主要な要素を構成するソフトウェアを格納する。   FIG. 6 is a diagram for explaining a hardware configuration of the smartphone 10. The smartphone 10 includes elements such as a CPU 51, a system memory 53, an I / O interface 55, an SSD 57, a touch screen 11, a wireless module 59, and a camera module 13. Since many pieces of hardware constituting the smartphone 10 are well known, they will be described within the scope necessary for understanding the present invention. The SSD 57 stores software that constitutes a main element of the coordinate correction system 200 (FIG. 7).

タッチスクリーン11は、液晶や有機ELなどのディスプレイと透明なタッチパネルを積層した構造で、ディスプレイに表示したオブジェクトに対して指でタッチ操作をするとタッチパネルが指の座標を検出して検出座標107を出力する。本発明は、静電容量型、FTIR型または抵抗膜型といったような、指150が接触した接触領域109の中心または重心の座標を出力するタイプのタッチスクリーンに適用することができる。このようなタイプのタッチパネルを含むタッチスクリーンは、図2で説明したようにターゲット座標105と検出座標107との間に構造的なオフセットを発生させる。   The touch screen 11 has a structure in which a display such as a liquid crystal display or an organic EL and a transparent touch panel are stacked. When a touch operation is performed on an object displayed on the display with a finger, the touch panel detects the finger coordinate and outputs a detection coordinate 107. To do. The present invention can be applied to a touch screen that outputs the coordinates of the center or the center of gravity of the contact area 109 with which the finger 150 is in contact, such as a capacitance type, an FTIR type, or a resistance film type. A touch screen including this type of touch panel generates a structural offset between the target coordinates 105 and the detection coordinates 107 as described with reference to FIG.

カメラ・モジュール13は、CMOSまたはCCDなどのイメージ・センサおよびイメージ・シグナル・プロセッサなどを含んでいる。カメラ・モジュール13は、魚眼レンズまたは超広角レンズを搭載しており、水平方向が360度で垂直方向が180度の半球状の被写体を撮影することができる。本実施の形態におけるカメラ・モジュール13の台数は1台でよい。したがって、カメラ・モジュール13は、ユーザの顔や風景を撮影するためにスマートフォン10が標準的に搭載するカメラ・モジュールと共用することができる。   The camera module 13 includes an image sensor such as a CMOS or a CCD and an image signal processor. The camera module 13 is equipped with a fisheye lens or an ultra-wide-angle lens, and can photograph a hemispherical object having a horizontal direction of 360 degrees and a vertical direction of 180 degrees. The number of camera modules 13 in this embodiment may be one. Therefore, the camera module 13 can be shared with a camera module that is normally mounted on the smartphone 10 in order to photograph a user's face and landscape.

スマートフォン10は縁枠15とタッチ面11aが同一平面上に存在するいわゆるフルフラット・ディスプレイ方式を採用している。多くのタブレット端末もフルフラット・ディスプレイ方式を採用する。カメラ・モジュール13は魚眼レンズまたは超広角レンズを搭載しているためフルフラット・ディスプレイの縁枠15に実装してもタッチ操作をするユーザの顔と指を同時に撮影することができる。縁枠にレンズの軸がタッチ操作をする指に向くようにカメラ・モジュールを実装できる場合は、標準レンズ・カメラまたは広角レンズ・カメラを採用することもできる。   The smartphone 10 employs a so-called full flat display system in which the edge frame 15 and the touch surface 11a are on the same plane. Many tablet devices also use the full flat display method. Since the camera module 13 is equipped with a fisheye lens or an ultra-wide-angle lens, even if it is mounted on the edge frame 15 of the full flat display, the face and finger of the user who performs the touch operation can be photographed simultaneously. If the camera module can be mounted on the edge frame so that the lens axis faces the finger that performs the touch operation, a standard lens camera or a wide-angle lens camera can also be employed.

図7は座標補正システム200の構成を説明するための機能ブロック図である。画像データ取得部201、補正量演算部203、登録部204、座標取得部205、アプリケーション実行部207および画像データ出力部209は、図6に示したCPU51、システム・メモリ53などのハードウェアとSSD57が格納するソフトウェアの協働により構成している。カメラ・モジュール13は動作を開始すると、タッチ操作をしている指150およびユーザの顔の画像を含んだ画像データを一例として30fpsのフレーム・レートで画像データ取得部201に転送する。タッチスクリーン13は、所定のサンプリング周期でタッチ面11aに指150が接触している間、接触領域109から検出座標107を生成して座標取得部205に出力する。   FIG. 7 is a functional block diagram for explaining the configuration of the coordinate correction system 200. The image data acquisition unit 201, the correction amount calculation unit 203, the registration unit 204, the coordinate acquisition unit 205, the application execution unit 207, and the image data output unit 209 include the hardware such as the CPU 51 and the system memory 53 illustrated in FIG. Is configured by the cooperation of the software stored. When the operation starts, the camera module 13 transfers the image data including the image of the finger 150 performing the touch operation and the face of the user to the image data acquisition unit 201 as an example at a frame rate of 30 fps. The touch screen 13 generates the detection coordinates 107 from the contact area 109 and outputs the detection coordinates 107 to the coordinate acquisition unit 205 while the finger 150 is in contact with the touch surface 11a at a predetermined sampling cycle.

画像データ取得部201は、座標取得部205からタッチスクリーン11が生成した検出座標107を受け取ったときにカメラ・モジュール13に画像データの転送開始の指示をする。また、検出座標107を所定の時間だけ受け取らないときにカメラ・モジュール13に画像データの転送終了の指示をする。画像データ取得部201は、カメラ・モジュール13から受け取った画像データと座標取得部205から受け取った検出座標107を組にした補正データを補正量演算部203に送る。   When receiving the detected coordinates 107 generated by the touch screen 11 from the coordinate acquisition unit 205, the image data acquisition unit 201 instructs the camera module 13 to start transferring image data. Further, when the detected coordinates 107 are not received for a predetermined time, the camera module 13 is instructed to end the transfer of image data. The image data acquisition unit 201 sends correction data obtained by combining the image data received from the camera module 13 and the detected coordinates 107 received from the coordinate acquisition unit 205 to the correction amount calculation unit 203.

補正量演算部203は、オブジェクト認識機能および必要に応じて顔認識機能を備えている。補正量演算部203は、受け取った補正データから図3に示した距離dを計算する。補正量演算部203は距離dを計算し、オブジェクト認識機能を使って、指150のヨー角α、ピッチ角β、ロール角γ、爪の長さs、爪の幅n、タッチ操作をしたときの指の幅w1、w2、および指の高さh1などを計算する。補正量演算部203は、ユーザの顔を認識して現在タッチ操作をしているユーザの識別子および指の識別子とともに、タッチ操作をしている指の姿勢で変化しない爪の長さs、爪の幅nを登録部204に登録する。   The correction amount calculation unit 203 has an object recognition function and, if necessary, a face recognition function. The correction amount calculation unit 203 calculates the distance d shown in FIG. 3 from the received correction data. When the correction amount calculation unit 203 calculates the distance d and performs a touch operation using the object recognition function, the yaw angle α, pitch angle β, roll angle γ, nail length s, nail width n of the finger 150 The finger widths w1 and w2 and the finger height h1 are calculated. The correction amount calculation unit 203 recognizes the user's face and the identifier of the user who is currently performing the touch operation and the identifier of the finger, the nail length s that does not change depending on the posture of the finger that is performing the touch operation, The width n is registered in the registration unit 204.

補正量演算部203は、新しいユーザがタッチ操作をするたびに爪の長さs、爪の幅nを登録部204に登録する。補正量演算部203は、式(1)〜(4)を使ってオフセットΔx、Δyを計算し、さらにターゲット座標105を計算して座標取得部205が画像データ取得部201に検出座標107を送る際に付加したタイムスタンプとともに座標取得部205に送る。   The correction amount calculation unit 203 registers the nail length s and the nail width n in the registration unit 204 every time a new user performs a touch operation. The correction amount calculation unit 203 calculates offsets Δx and Δy using equations (1) to (4), further calculates the target coordinates 105, and the coordinate acquisition unit 205 sends the detected coordinates 107 to the image data acquisition unit 201. The time stamp added at the time is sent to the coordinate acquisition unit 205.

他の例では、補正量演算部203は後に説明する式(5)、(6)を保有し、アプリケーション実行部207からの指示を受けて補正に必要なデータの登録処理をする。座標取得部205は、タッチスクリーン11から所定のサンプリング周期で生成された検出座標107を受け取るたびにタイムスタンプを付加して画像データ取得部201に送る。タイムスタンプはシステムが保持している時刻情報で、座標補正システム200の各要素が共有できるようになっている。   In another example, the correction amount calculation unit 203 holds formulas (5) and (6) which will be described later, and receives data from the application execution unit 207 to register data necessary for correction. The coordinate acquisition unit 205 adds a time stamp and sends it to the image data acquisition unit 201 every time it receives the detection coordinates 107 generated at a predetermined sampling period from the touch screen 11. The time stamp is time information held by the system and can be shared by each element of the coordinate correction system 200.

座標取得部205は、補正量演算部203から検出座標107を関連付けたタイムスタンプに対応するターゲット座標105を受け取ったときは、当該ターゲット座標105をアプリケーション実行部207に送る。座標取得部205は、補正量演算部203から検出座標107を関連付けたタイムスタンプに対応するターゲット座標105を受け取らないときは当該タイムスタンプを関連付けた検出座標107をアプリケーション実行部207に送る。   When the coordinate acquisition unit 205 receives the target coordinate 105 corresponding to the time stamp associated with the detected coordinate 107 from the correction amount calculation unit 203, the coordinate acquisition unit 205 sends the target coordinate 105 to the application execution unit 207. When the coordinate acquisition unit 205 does not receive the target coordinate 105 corresponding to the time stamp associated with the detection coordinate 107 from the correction amount calculation unit 203, the coordinate acquisition unit 205 transmits the detection coordinate 107 associated with the time stamp to the application execution unit 207.

アプリケーション実行部207は、タッチスクリーン11にソフトウェア・キーボードを表示する文書入力プログラム、ハイパーリンクが埋め込まれた画像を表示するWebブラウザ、ホーム画面にアイコンを表示するOSのインターフェース・プログラムなどを含む。アプリケーション実行部207はさらに、補正量演算部203を通じて登録部204に補正に必要なデータの登録をする登録プログラムを含む。   The application execution unit 207 includes a document input program that displays a software keyboard on the touch screen 11, a Web browser that displays an image in which a hyperlink is embedded, an OS interface program that displays an icon on a home screen, and the like. The application execution unit 207 further includes a registration program for registering data necessary for correction in the registration unit 204 through the correction amount calculation unit 203.

アプリケーション実行部207のプログラムは、それぞれ自らがタッチスクリーン11に表示するオブジェクトの座標を認識している。アプリケーション実行部207は、画像データ出力部209にタッチスクリーン11に表示するための画像データを出力する。アプリケーション実行部207は、自らが表示したタッチスクリーン11のオブジェクトに対して行われたタッチ操作に対応する検出座標107またはターゲット座標105を座標取得部205から受け取ってそれに応じた動作をする。画像データ出力部209は、アプリケーション実行部207から受け取った画像データを表示形式のデータに変換してタッチスクリーン11に出力する。   Each program of the application execution unit 207 recognizes the coordinates of the object displayed on the touch screen 11. The application execution unit 207 outputs image data to be displayed on the touch screen 11 to the image data output unit 209. The application execution unit 207 receives the detected coordinate 107 or the target coordinate 105 corresponding to the touch operation performed on the object of the touch screen 11 displayed by the application execution unit 207 from the coordinate acquisition unit 205 and performs an operation corresponding thereto. The image data output unit 209 converts the image data received from the application execution unit 207 into display format data and outputs the data to the touch screen 11.

つぎに、座標補正システム200の動作を図8のフローチャートを参照して説明する。ブロック301では、アプリケーション実行部207がタッチスクリーン11にタッチ操作の対象となるオブジェクトを含む画像を表示している。アプリケーション実行部207は事前に爪151の表面をカメラ・モジュール13に向けるようにユーザに促して爪151を正面から撮影し、高い精度で測定した爪の長さsおよび爪の幅nを登録部204に登録しておいてもよい。   Next, the operation of the coordinate correction system 200 will be described with reference to the flowchart of FIG. In block 301, the application execution unit 207 displays an image including an object to be touched on the touch screen 11. The application execution unit 207 prompts the user to direct the surface of the nail 151 toward the camera module 13 in advance to photograph the nail 151 from the front, and registers the nail length s and nail width n measured with high accuracy. 204 may be registered.

ブロック303で指150がタッチ面11aに接触してタッチ操作が開始される。タッチ操作は、タッチした位置で指150をリリースするタップ操作と、タッチした状態を維持しながら指を移動させるスライド操作を含む。座標補正システム200はスライド操作のときは、その軌跡に沿ってタッチスクリーン11が生成した検出座標107を補正することができる。指150の接触を検出したタッチスクリーン11はブロック305で、所定のサンプリング周期で検出座標107の出力を開始する。検出座標107を受け取るたびに座標取得部205は、受け取った検出座標107にタイムスタンプを付加して画像データ取得部201に送る。検出座標107を受け取った画像データ取得部201はブロック307でカメラ・モジュール13に画像データの転送を指示する。   In block 303, the finger 150 contacts the touch surface 11a, and the touch operation is started. The touch operation includes a tap operation for releasing the finger 150 at the touched position and a slide operation for moving the finger while maintaining the touched state. The coordinate correction system 200 can correct the detected coordinates 107 generated by the touch screen 11 along the locus during a slide operation. The touch screen 11 that has detected the contact of the finger 150 starts outputting the detected coordinates 107 at a predetermined sampling period in block 305. Each time the detection coordinate 107 is received, the coordinate acquisition unit 205 adds a time stamp to the received detection coordinate 107 and sends it to the image data acquisition unit 201. The image data acquisition unit 201 that has received the detected coordinates 107 instructs the camera module 13 to transfer image data in block 307.

指示を受けたカメラ・モジュール13は所定のフレーム・レートでユーザの顔と指150を撮影した画像データの転送を開始する。カメラ・モジュール13のフレーム・レートとタッチスクリーン11の検出座標107の転送周期は同期している必要はないが、画像データ取得部201はブロック309で、検出座標107のタイムスタンプに最も近い時刻で取得した画像データと当該検出座標107を組にした補正データをタイムスタンプとともに補正量演算部203に送る。補正データを受け取った補正量演算部203はブロック311で、顔認識機能を使って現在タッチ操作をしているユーザの指150の爪の長さsおよび爪の幅nなどの爪のサイズを登録部204が登録しているか否かを判断する。スマートフォン10が同一のユーザだけで使用する場合はこの手順は省略してもよい。   Upon receiving the instruction, the camera module 13 starts transferring image data obtained by photographing the user's face and the finger 150 at a predetermined frame rate. The frame rate of the camera module 13 and the transfer cycle of the detection coordinates 107 of the touch screen 11 do not need to be synchronized, but the image data acquisition unit 201 is the block 309 and has a time closest to the time stamp of the detection coordinates 107. Correction data obtained by combining the acquired image data and the detected coordinates 107 together with a time stamp is sent to the correction amount calculation unit 203. Upon receipt of the correction data, the correction amount calculation unit 203 registers the nail size such as the nail length s and nail width n of the finger 150 of the user who is currently touching using the face recognition function in block 311. It is determined whether the unit 204 is registered. When the smartphone 10 is used only by the same user, this procedure may be omitted.

登録しているときはブロック317に移行し、登録していないときはブロック313に移行する。補正量演算部203はブロック313で検出座標107から計算した距離dとオブジェクト認識機能を使って、画像データから爪のサイズの計算が可能か否かを判断する。補正量演算部203はピッチ角βが小さい状態の指150をy軸方向から撮影している画像からは、爪の長さsを正確に計算することができない。また、x軸方向から撮影している画像からは、爪の幅nを正確に計算することができない。   If registered, the process proceeds to block 317, and if not registered, the process proceeds to block 313. The correction amount calculation unit 203 determines whether the nail size can be calculated from the image data by using the distance d calculated from the detected coordinates 107 in block 313 and the object recognition function. The correction amount calculation unit 203 cannot accurately calculate the nail length s from an image obtained by photographing the finger 150 in a state where the pitch angle β is small from the y-axis direction. Also, the nail width n cannot be accurately calculated from an image taken from the x-axis direction.

爪のサイズを計算できない場合はブロック351に移行する。座標取得部205はブロック351で、補正量演算部203から検出座標107に関連付けたタイムスタンプに対応するターゲット座標105を受け取らないときはブロック351で検出座標107をアプリケーション実行部207に送る。この場合は、本発明の効果が得られない状態でタッチ操作が処理されるが、補正がされないことによる操作の中断は発生しない。爪のサイズの計算ができる場合は、ブロック315で補正量演算部203は登録部204に計算した爪のサイズを登録してブロック317に移行する。   If the nail size cannot be calculated, the process moves to block 351. When the coordinate acquisition unit 205 does not receive the target coordinate 105 corresponding to the time stamp associated with the detected coordinate 107 from the correction amount calculation unit 203 at block 351, the coordinate acquisition unit 205 sends the detected coordinate 107 to the application execution unit 207 at block 351. In this case, the touch operation is processed in a state where the effects of the present invention cannot be obtained, but the operation is not interrupted due to the fact that the correction is not performed. If the nail size can be calculated, the correction amount calculation unit 203 registers the nail size calculated in the registration unit 204 in block 315 and proceeds to block 317.

補正量演算部203はブロック317でオブジェクト認識機能を使って、画像データからピッチ角βの計算が可能か否かを判断する。カメラ・モジュール13がy軸方向から指150を撮影している場合はピッチ角βを正確に計算することができない場合がある。所定の精度でピッチ角βの計算が可能な場合はブロック319に移行し、計算できない場合はブロック353に移行する。座標取得部205はブロック353で、所定の検出座標107に関連付けたタイムスタンプに対応するターゲット座標105を受け取らないときは検出座標107をアプリケーション実行部207に送る   In block 317, the correction amount calculation unit 203 uses the object recognition function to determine whether the pitch angle β can be calculated from the image data. When the camera module 13 is photographing the finger 150 from the y-axis direction, the pitch angle β may not be accurately calculated. If the pitch angle β can be calculated with a predetermined accuracy, the process proceeds to block 319, and if not, the process proceeds to block 353. When the coordinate acquisition unit 205 does not receive the target coordinate 105 corresponding to the time stamp associated with the predetermined detection coordinate 107 in block 353, the coordinate acquisition unit 205 sends the detection coordinate 107 to the application execution unit 207.

補正量演算部203はブロック319でオブジェクト認識機能を使って、画像データからロール角γの計算が可能か否かを判断する。カメラ・モジュール13がx軸方向から指150を撮影している場合はロール角γを正確に計算することができない場合がある。所定の精度でロール角γの計算が可能な場合はブロック321に移行し、計算できない場合はブロック353に移行する。   In block 319, the correction amount calculation unit 203 uses the object recognition function to determine whether the roll angle γ can be calculated from the image data. When the camera module 13 is photographing the finger 150 from the x-axis direction, the roll angle γ may not be accurately calculated. If the roll angle γ can be calculated with a predetermined accuracy, the process proceeds to block 321; otherwise, the process proceeds to block 353.

補正量演算部203はブロック321でオブジェクト認識機能を使って指の高さh1を計算する。補正量演算部203はブロック323で式(1)、(2)に爪の長さs、指の高さh1、ピッチ角β、およびロール角γを代入してオフセットΔx、Δyを計算する。補正量演算部203はさらに、画像データから計算したヨー角αを式(3)、(4)に代入してターゲット座標105を計算する。   In block 321, the correction amount calculation unit 203 calculates the finger height h <b> 1 using the object recognition function. The correction amount calculation unit 203 calculates offsets Δx and Δy in block 323 by substituting the nail length s, the finger height h1, the pitch angle β, and the roll angle γ into equations (1) and (2). The correction amount calculation unit 203 further calculates the target coordinate 105 by substituting the yaw angle α calculated from the image data into the equations (3) and (4).

補正量演算部203はブロック325でタイムスタンプを付加したターゲット座標105を座標取得部205に送る。座標取得部205は、すでに取得していた同一のタイムスタンプの検出座標107に代えて、ターゲット座標105をアプリケーション実行部207に送る。スライド操作の場合はブロック327からブロック305に戻ってタッチスクリーン13が検出座標107を出力する間、ブロック305からの手順を繰り返す。図1(B)に示したようにマルチタッチ操作を行う場合は、上記の手順で各指についてターゲット座標105を計算することができる。   The correction amount calculation unit 203 sends the target coordinates 105 to which the time stamp is added in the block 325 to the coordinate acquisition unit 205. The coordinate acquisition unit 205 sends the target coordinate 105 to the application execution unit 207 instead of the detection coordinate 107 of the same time stamp that has already been acquired. In the case of a slide operation, the procedure returns from block 327 to block 305 and the procedure from block 305 is repeated while the touch screen 13 outputs the detected coordinates 107. When a multi-touch operation is performed as shown in FIG. 1B, the target coordinates 105 can be calculated for each finger by the above procedure.

つぎに座標補正システム200が検出座標107を補正する他の方法を説明する。図8の手順では、視線ターゲット155を爪の中心に設定し、さらに検出座標107の位置を図4(B)、(C)に示すように指の特徴部に関係づけることで多数のユーザに平均的に満足のいくターゲット座標105を生成することができる。しかし、ユーザの指の形状による検出座標107と指の特徴部との関係、押圧力の強さによる指の変形の度合い、および視線ターゲット155の位置などはユーザごとに異なるため必ずしも満足する結果を得られないユーザまたはより精度の高いターゲット座標105を求めるユーザも存在する。   Next, another method in which the coordinate correction system 200 corrects the detected coordinates 107 will be described. In the procedure of FIG. 8, the line-of-sight target 155 is set at the center of the nail, and the position of the detection coordinate 107 is related to the finger feature as shown in FIGS. Target coordinates 105 that are satisfactory on average can be generated. However, since the relationship between the detected coordinates 107 according to the shape of the user's finger and the characteristic portion of the finger, the degree of deformation of the finger due to the strength of the pressing force, the position of the line-of-sight target 155, and the like vary from user to user, the results are not necessarily satisfactory. There are also users who cannot obtain or who seek the target coordinates 105 with higher accuracy.

式(1)、(2)で計算したオフセットΔy、Δxに誤差が生じる原因は、画像データから計算したピッチ角βおよびロール角γの精度に加えて、爪の長さsおよび指の高さh1の計算が当該ユーザにとって適切でないことが挙げられる。図9は、画像データから爪の長さsおよび指の高さh1を計算したり、視線ターゲット155の位置および検出座標107と指の特徴的部位の関係を想定したりしないで補正する座標補正システム200の動作を説明するフローチャートである。   In addition to the accuracy of the pitch angle β and roll angle γ calculated from the image data, the cause of the error in the offsets Δy and Δx calculated by the equations (1) and (2) is the nail length s and the finger height. The calculation of h1 is not appropriate for the user. FIG. 9 is a coordinate correction for correcting without calculating the nail length s and the finger height h1 from the image data, or assuming the relationship between the position of the line-of-sight target 155 and the detected coordinates 107 and the characteristic part of the finger. 3 is a flowchart illustrating the operation of the system 200.

ここでは、アプリケーション実行部207を構成する登録プログラムが、式(5)、式(6)における係数p、qを、ユーザが行うキャリブレーションのためのタッチ操作から計算した値で推定する。
Δy=p×cosβ (5)
Δx=q×tanγ (6)
Here, the registration program constituting the application execution unit 207 estimates the coefficients p and q in the equations (5) and (6) with values calculated from the touch operation for calibration performed by the user.
Δy = p × cos β (5)
Δx = q × tan γ (6)

ブロック401でアプリケーション実行部207の登録プログラムが動作して補正量演算部203と座標取得部205に登録動作をするように指示する。アプリケーション実行部207はブロック403で、タッチスクリーン11の所定のターゲット座標105に図10に示すクロス・ライン501aを表示し、さらに所定の指でクロス・ライン501aをターゲットとするタッチ操作をすることを示すプロンプトを表示する。   In block 401, the registration program of the application execution unit 207 operates to instruct the correction amount calculation unit 203 and the coordinate acquisition unit 205 to perform the registration operation. In block 403, the application execution unit 207 displays the cross line 501a shown in FIG. 10 at a predetermined target coordinate 105 of the touch screen 11, and further performs a touch operation targeting the cross line 501a with a predetermined finger. Prompt to show.

タッチ操作のときの指の押圧力により係数p、qは変化するためプロンプトには、ユーザが通常操作をするときの力でタッチ操作をすることを促すメッセージを含むようにすることが望ましい。ブロック405でユーザがクロス・ライン501aをターゲットとするタッチ操作をする。このときユーザは図4に示した視線ターゲット155を目印にしないかもしれないが、そのようなユーザにとって図9の手順は有効である。また、指の特徴的な部位と検出座標107の関係が、図4(B)、(D)で示した関係とは異なるユーザにとっても図9の手順は有効である。   Since the coefficients p and q change depending on the pressure of the finger during the touch operation, it is desirable that the prompt includes a message that prompts the user to perform the touch operation with the force of the normal operation. In block 405, the user performs a touch operation targeting the cross line 501a. At this time, the user may not mark the line-of-sight target 155 shown in FIG. 4, but the procedure of FIG. 9 is effective for such a user. The procedure of FIG. 9 is also effective for a user whose relationship between the characteristic part of the finger and the detected coordinates 107 is different from the relationship shown in FIGS.

ブロック407でアプリケーション実行部207は、クロス・ライン501aの座標であるターゲット座標105を補正量演算部203に転送する。ブロック409でタッチスクリーン11がクロス・ライン501aをターゲットとするタッチ操作に応じて検出座標107を座標取得部205に送る。座標取得部205が検出座標107にタイムスタンプを付加して画像データ取得部201に送ると、カメラ・モジュール13が画像データの転送を開始する。   In block 407, the application execution unit 207 transfers the target coordinates 105, which are the coordinates of the cross line 501a, to the correction amount calculation unit 203. In block 409, the touch screen 11 sends the detected coordinates 107 to the coordinate acquisition unit 205 in response to a touch operation targeting the cross line 501a. When the coordinate acquisition unit 205 adds a time stamp to the detected coordinates 107 and sends it to the image data acquisition unit 201, the camera module 13 starts to transfer the image data.

ブロック411で補正量演算部203は、画像データからヨー角α、ピッチ角β、ロール角γを計算し、検出座標107とターゲット座標105からオフセットΔx、Δyを計算する。ブロック413で補正量演算部203はピッチ角β、ロール角γ、オフセットΔx、Δyを式(5)、(6)に代入して係数p、qを計算する。つづいて補正量演算部203は指の識別子とともに係数p、qを登録部204に登録する。ブロック415で補正量演算部203から登録の終了通知を受け取ったアプリケーション実行部207は、ブロック403に戻ってクロス・ライン501bを表示して同じ手順を繰り返す。   In block 411, the correction amount calculation unit 203 calculates the yaw angle α, pitch angle β, and roll angle γ from the image data, and calculates the offsets Δx and Δy from the detected coordinates 107 and the target coordinates 105. In block 413, the correction amount calculation unit 203 calculates the coefficients p and q by substituting the pitch angle β, roll angle γ, and offsets Δx and Δy into equations (5) and (6). Subsequently, the correction amount calculation unit 203 registers the coefficients p and q in the registration unit 204 together with the finger identifier. Upon receiving the registration end notification from the correction amount calculation unit 203 in block 415, the application execution unit 207 returns to block 403, displays the cross line 501b, and repeats the same procedure.

すべてのクロス・ライン501a〜501fに対する登録が終了すると、ブロック417でアプリケーション実行部207はブロック403に戻って次の指を示すプロンプトを表示して同じ手順を繰り返す。すべての指の登録が終了するとアプリケーション実行部207はブロック419で、指ごとの6個の係数p、qの平均値または中央値を計算してユーザの顔を示す識別子および指の識別子とともに登録部204に登録する。ブロック421で登録処理が終了すると、補正量演算部203はそれ以降の各検出座標107について、画像データから計算した指の姿勢を示すピッチ角β、ロール角γと、登録部204に登録した係数p、qの平均値または中央値を式(5)、(6)に代入して、オフセットΔx、Δyを計算することができる。   When registration for all the cross lines 501a to 501f is completed, in block 417, the application execution unit 207 returns to block 403, displays a prompt indicating the next finger, and repeats the same procedure. When the registration of all the fingers is completed, the application execution unit 207 calculates the average value or median value of the six coefficients p and q for each finger in block 419 and registers the registration unit together with the identifier indicating the user's face and the finger identifier. 204. When the registration process is completed in block 421, the correction amount calculation unit 203 for each subsequent detection coordinate 107, the pitch angle β indicating the posture of the finger calculated from the image data, the roll angle γ, and the coefficient registered in the registration unit 204 By substituting the average value or median value of p and q into the equations (5) and (6), the offsets Δx and Δy can be calculated.

補正量演算部203が図9の手順で係数p、qを登録して式(5)、(6)を使用する場合は、図8のブロック311〜315、321の手順を省略することができる。式(5)、(6)では、視線ターゲット155の位置の想定および検出座標107と指の特徴的部位との関係を想定する必要がない。式(5)、(6)では式(1)、(2)を使うときに想定した2つの関係は表面に出てこないが、図9の登録手順において計算した係数p、qがこれらの想定を含んでいる。   When the correction amount calculation unit 203 registers the coefficients p and q in the procedure of FIG. 9 and uses the equations (5) and (6), the procedure of blocks 311 to 315 and 321 in FIG. 8 can be omitted. . In Expressions (5) and (6), it is not necessary to assume the position of the line-of-sight target 155 and the relationship between the detection coordinates 107 and the characteristic part of the finger. In equations (5) and (6), the two relationships assumed when using equations (1) and (2) do not appear on the surface, but the coefficients p and q calculated in the registration procedure of FIG. Is included.

これまで本発明について図面に示した特定の実施の形態をもって説明してきたが、本発明は図面に示した実施の形態に限定されるものではなく、本発明の効果を奏する限り、これまで知られたいかなる構成であっても採用することができることはいうまでもないことである。   Although the present invention has been described with the specific embodiments shown in the drawings, the present invention is not limited to the embodiments shown in the drawings, and is known so far as long as the effects of the present invention are achieved. It goes without saying that any configuration can be adopted.

10 スマートフォン
11 タッチスクリーン
11a タッチ面
105 ターゲット座標
107 検出座標
109 接触領域
111 アイコン
150 指
151 爪
152 爪の長さの中心線
154 爪の底部を通過してタッチ面に平行なライン
155 視線ターゲット
157 爪の底部
160 指の軸
162 指の幅の中心
164 指の幅の中心
168 爪の幅の中心
α ヨー角
β ピッチ角
γ ロール角
w1、w2 指の幅
s 爪の長さ
n 爪の幅
10 Smartphone 11 Touch screen 11a Touch surface 105 Target coordinate 107 Detection coordinate 109 Contact area 111 Icon 150 Finger 151 Nail 152 Centerline 154 of the length of the nail A line 155 passing through the bottom of the nail and parallel to the touch surface 155 Line-of-sight target 157 Nail Bottom 160 finger axis 162 finger width center 164 finger width center 168 nail width center α yaw angle β pitch angle γ roll angle w1, w2 finger width s nail length n nail width

Claims (18)

タッチ面に対する指の接触領域から座標を検出するタッチスクリーンを搭載する電子機器に、
前記タッチスクリーンに対するタッチ操作に応じて検出座標を生成するステップと、
カメラで前記タッチ操作をしている指の爪を撮影するステップと、
前記カメラの撮影画像から前記爪の所定の位置に設定した視線ターゲットの位置を特定するステップと、
前記視線ターゲットに関連付けた位置にターゲット座標を設定するステップと、
前記ターゲット座標と前記検出座標から計算した補正量で前記検出座標を補正するステップと
を有する処理を実行させるためのコンピュータ・プログラム。
For electronic devices equipped with a touch screen that detects coordinates from the contact area of the finger against the touch surface,
Generating detection coordinates in response to a touch operation on the touch screen;
Photographing a fingernail performing the touch operation with a camera;
Identifying the position of the line-of-sight target set at a predetermined position of the nail from a captured image of the camera;
Setting target coordinates at a position associated with the line-of-sight target;
A computer program for executing a process comprising: correcting the detected coordinates with a correction amount calculated from the target coordinates and the detected coordinates .
前記ターゲット座標を前記視線ターゲットの真下に設定する請求項1に記載のコンピュータ・プログラム。 The computer program according to claim 1 for setting the target coordinates directly below the line of sight targets. 前記視線ターゲットを前記タッチ面に対する指の投影が形成する指の幅の中心線上でかつ爪の底部より指先側に設定する請求項1に記載のコンピュータ・プログラム。 The computer program according to claim 1 , wherein the line-of-sight target is set on a center line of a finger width formed by projection of the finger on the touch surface and closer to the fingertip side than the bottom of the nail. 前記検出座標を補正するステップが、前記検出座標を前記撮影画像が含む指の特徴的部位の真下に想定するステップ含む請求項1に記載のコンピュータ・プログラム。 The computer program according to claim 1 , wherein the step of correcting the detected coordinates includes a step of assuming the detected coordinates immediately below a characteristic part of a finger included in the captured image. 前記検出座標を補正するステップが、前記撮影画像から特定した指の軸と前記タッチ面が形成するピッチ角を計算するステップを含む請求項1に記載のコンピュータ・プログラム。 The computer program according to claim 1 , wherein the step of correcting the detected coordinates includes a step of calculating a pitch angle formed by a finger axis specified from the captured image and the touch surface. 前記視線ターゲットの位置を特定するステップが、前記カメラと前記検出座標の距離を計算して前記爪の長さを計算するステップを含む請求項1に記載のコンピュータ・プログラム。 The computer program according to claim 1 , wherein the step of identifying the position of the line-of-sight target includes a step of calculating a distance between the camera and the detection coordinates to calculate a length of the nail. 前記検出座標を補正するステップが、前記撮影画像から特定した指の軸の回りのロール角を計算するステップを含む請求項1に記載のコンピュータ・プログラム。 The computer program according to claim 1 , wherein the step of correcting the detected coordinates includes a step of calculating a roll angle around a finger axis specified from the captured image. 前記検出座標を補正するステップが、前記カメラと前記検出座標の距離を計算して前記撮影画像から特定した前記タッチ面に対する指の高さを計算するステップを含む請求項1に記載のコンピュータ・プログラム。 The computer program according to claim 1 , wherein the step of correcting the detected coordinates includes a step of calculating a height of a finger with respect to the touch surface specified from the captured image by calculating a distance between the camera and the detected coordinates. . タッチ面に対する指の接触領域から座標を検出するタッチスクリーンを搭載する電子機器に、
前記タッチスクリーンにターゲット・オブジェクトを表示するステップと、
前記ターゲット・オブジェクトのターゲット座標と前記タッチスクリーンが検出する検出座標の差に相当する指の長さ方向のオフセットをΔyとし、タッチ操作をする指のピッチ角をβとし、係数をとした式(a)を用意するステップと、
Δy=p×cosβ (a)
前記ターゲット・オブジェクトに対するタッチ操作に応じて検出座標を生成するステップと、
カメラで前記タッチ操作をしている指を撮影するステップと、
指の撮影画像から特定した指の姿勢に基づいて計算したピッチ角βと、前記ターゲット座標と前記検出座標から計算したオフセットΔyを式(a)に代入して前記係数pを計算するステップと
を有する処理を実行させるためのコンピュータ・プログラム。
For electronic devices equipped with a touch screen that detects coordinates from the contact area of the finger against the touch surface,
Displaying a target object on the touch screen;
Said fingers the target coordinates of the target object touch screen corresponding to the difference between the detected coordinates of detecting an offset in the longitudinal direction and [Delta] y, the pitch angle of the finger for the touch operation and beta, and the coefficient p Formula Preparing (a);
Δy = p × cos β (a)
Generating detection coordinates in response to a touch operation on the target object ;
Photographing a finger performing the touch operation with a camera;
Substituting the pitch angle β calculated based on the finger posture specified from the photographed image of the finger and the offset Δy calculated from the target coordinates and the detected coordinates into the equation (a), and calculating the coefficient p; A computer program for executing a process having:
前記ターゲット座標と前記タッチスクリーンが検出する検出座標の差に相当する指の幅方向のオフセットをΔxとし、タッチ操作をする指のロール角をγとし、係数をqとした式(b)を用意するステップと、Formula (b) is prepared in which the offset in the width direction of the finger corresponding to the difference between the target coordinates and the detected coordinates detected by the touch screen is Δx, the roll angle of the finger performing the touch operation is γ, and the coefficient is q. And steps to
Δx=q×tanγ (b)Δx = q × tan γ (b)
指の撮影画像から特定した指の姿勢に基づいて計算したロール角γと、前記ターゲット座標と前記検出座標から計算したオフセットΔxを式(b)に代入して前記係数qを計算するステップと  Substituting the roll angle γ calculated based on the finger posture specified from the photographed image of the finger and the offset Δx calculated from the target coordinates and the detected coordinates into the equation (b), and calculating the coefficient q;
を有する請求項9に記載のコンピュータ・プログラム。The computer program according to claim 9.
請求項1から請求項10のいずれかに記載のコンピュータ・プログラムを記録した記録媒体。The recording medium which recorded the computer program in any one of Claims 1-10. 請求項11に記載の記録媒体を搭載する電子機器。The electronic device carrying the recording medium of Claim 11. タッチ面に対する指の接触領域から座標を検出して検出座標を出力するタッチスクリーンと、
タッチ操作をする指を撮影して画像データを出力することが可能なカメラと、
前記画像データから爪の所定の位置に設定した視線ターゲットの位置を特定し、該視線ターゲットに関連付けた位置にターゲット座標を設定し、該ターゲット座標と前記検出座標から補正量を計算する補正量演算部と
を有する電子機器。
A touch screen that detects coordinates from the contact area of the finger with respect to the touch surface and outputs detected coordinates;
A camera capable of shooting a finger performing a touch operation and outputting image data;
The image data identifies the position of the gaze target set at a predetermined position of the nail from, and set the target coordinates to the location associated with the visual axis target, calculating the detected coordinates or al correction amount and the target coordinate correction amount An electronic device having a calculation unit.
前記タッチスクリーンが静電容量式である請求項13に記載の電子機器。 The electronic device according to claim 13, wherein the touch screen is a capacitance type . 前記カメラが広角レンズ・カメラまたは魚眼レンズ・カメラである請求項13に記載の電子機器。   The electronic device according to claim 13, wherein the camera is a wide-angle lens camera or a fish-eye lens camera. 前記カメラを前記タッチスクリーンの周辺のいずれかの枠縁に1台だけ実装した請求項15に記載の電子機器。   The electronic apparatus according to claim 15, wherein only one camera is mounted on any frame edge around the touch screen. 前記補正量演算部が前記補正量を計算しないときにアプリケーション実行部に前記検出座標を出力する座標取得部を有する請求項13に記載の電子機器。 The electronic apparatus according to claim 13, further comprising: a coordinate acquisition unit that outputs the detected coordinates to an application execution unit when the correction amount calculation unit does not calculate the correction amount . カメラと、タッチ面に対する指の接触領域から検出座標を出力するタッチスクリーンを搭載した電子機器が前記検出座標を補正する方法であって、
前記タッチスクリーンに対するタッチ操作に応じて検出座標を受け取るステップと、
前記タッチ操作をしている指の爪を撮影した前記カメラから画像データを受け取るステップと、
前記画像データから前記爪の所定の位置に設定した視線ターゲットの位置を特定するステップと、
前記視線ターゲットに関連付けた位置にターゲット座標を設定するステップと、
前記ターゲット座標と前記検出座標から補正量を計算するステップと、
を有する方法。
An electronic device equipped with a camera and a touch screen that outputs detection coordinates from a contact area of a finger with respect to a touch surface is a method of correcting the detection coordinates,
Receiving detected coordinates in response to a touch operation on the touch screen;
Receiving image data from the camera that captured the fingernail performing the touch operation;
Identifying the position of the line-of-sight target set at a predetermined position of the nail from the image data;
Setting target coordinates at a position associated with the line-of-sight target;
Calculating a correction amount from the target coordinates and the detected coordinates ;
Having a method.
JP2014023035A 2014-02-10 2014-02-10 Method, electronic device and computer program for improving operation accuracy for touch screen Active JP5947999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014023035A JP5947999B2 (en) 2014-02-10 2014-02-10 Method, electronic device and computer program for improving operation accuracy for touch screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014023035A JP5947999B2 (en) 2014-02-10 2014-02-10 Method, electronic device and computer program for improving operation accuracy for touch screen

Publications (2)

Publication Number Publication Date
JP2015149036A JP2015149036A (en) 2015-08-20
JP5947999B2 true JP5947999B2 (en) 2016-07-06

Family

ID=53892319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014023035A Active JP5947999B2 (en) 2014-02-10 2014-02-10 Method, electronic device and computer program for improving operation accuracy for touch screen

Country Status (1)

Country Link
JP (1) JP5947999B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5993511B1 (en) * 2015-10-15 2016-09-14 株式会社東海理化電機製作所 Operating device
KR102380930B1 (en) * 2021-12-27 2022-03-30 한국해양과학기술원 Sharing system and method of marine pollution information using smart device
CN114596582B (en) * 2022-02-28 2023-03-17 北京伊园未来科技有限公司 Augmented reality interaction method and system with vision and force feedback

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005913A (en) * 2001-06-18 2003-01-10 Tokai Rika Co Ltd Touch operating position detecting device
JP3867039B2 (en) * 2002-10-25 2007-01-10 学校法人慶應義塾 Hand pattern switch device
JP2007264808A (en) * 2006-03-27 2007-10-11 Nikon Corp Display input device and imaging apparatus
JP4609557B2 (en) * 2008-08-29 2011-01-12 ソニー株式会社 Information processing apparatus and information processing method
JP2010257089A (en) * 2009-04-22 2010-11-11 Xiroku:Kk Optical position detection apparatus
JP2012038025A (en) * 2010-08-05 2012-02-23 Canon Inc Display device, control method for display device, and program
JP5912929B2 (en) * 2012-07-03 2016-04-27 株式会社Nttドコモ Display device, processing method, and program

Also Published As

Publication number Publication date
JP2015149036A (en) 2015-08-20

Similar Documents

Publication Publication Date Title
EP2846308A2 (en) Pointing direction detecting device and its method, program and computer readable-medium
US10310675B2 (en) User interface apparatus and control method
US8670023B2 (en) Apparatuses and methods for providing a 3D man-machine interface (MMI)
JP5802247B2 (en) Information processing device
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
WO2011146070A1 (en) System and method for reporting data in a computer vision system
US20150241968A1 (en) Method for Processing Information and Electronic Device
JP5947999B2 (en) Method, electronic device and computer program for improving operation accuracy for touch screen
CN113867562B (en) Touch screen point reporting correction method and device and electronic equipment
US20130215085A1 (en) Controlling Method Applied to A Sensing System
US9389780B2 (en) Touch-control system
US9041689B1 (en) Estimating fingertip position using image analysis
TW201523425A (en) Desktop-like device and method for displaying user interface
US9323346B2 (en) Accurate 3D finger tracking with a single camera
TW201222365A (en) Optical screen touch system and method thereof
US20160309086A1 (en) Electronic device and method
JP6643825B2 (en) Apparatus and method
JP2018063555A (en) Information processing device, information processing method, and program
JP2018116346A (en) Input control device, display device, and input control method
JP6709022B2 (en) Touch detection device
JP6514889B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
JP2014049023A (en) Input device
TWI566128B (en) Virtual control device
TWI697827B (en) Control system and control method thereof
US10275146B2 (en) Virtual navigation apparatus, navigation method, and non-transitory computer readable medium thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160604

R150 Certificate of patent or registration of utility model

Ref document number: 5947999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250