JP5947999B2 - Method, electronic device and computer program for improving operation accuracy for touch screen - Google Patents
Method, electronic device and computer program for improving operation accuracy for touch screen Download PDFInfo
- Publication number
- JP5947999B2 JP5947999B2 JP2014023035A JP2014023035A JP5947999B2 JP 5947999 B2 JP5947999 B2 JP 5947999B2 JP 2014023035 A JP2014023035 A JP 2014023035A JP 2014023035 A JP2014023035 A JP 2014023035A JP 5947999 B2 JP5947999 B2 JP 5947999B2
- Authority
- JP
- Japan
- Prior art keywords
- finger
- coordinates
- target
- touch
- touch screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000004590 computer program Methods 0.000 title claims description 14
- 210000000282 nail Anatomy 0.000 claims description 67
- 238000012937 correction Methods 0.000 claims description 64
- 238000004364 calculation method Methods 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 6
- 210000004905 finger nail Anatomy 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012546 transfer Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000008685 targeting Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 210000000078 claw Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
Description
本発明は、タッチスクリーンに対する操作精度を向上する技術に関し、特に小型のタッチスクリーンの操作精度を向上する技術に関する。 The present invention relates to a technique for improving the operation accuracy for a touch screen, and more particularly to a technique for improving the operation accuracy of a small touch screen.
電子機器が搭載するタッチスクリーンは、ディスプレイと透明なタッチパネルの積層構造を採用しており、指や電子ペンでディスプレイが表示するオブジェクトに対して直接入力指示ができるためユーザの直感的な操作を可能にする。指は電子ペンに比べてタッチ面に接触する面積(接触領域)が大きい。静電容量型のタッチパネルでは、ディスプレイの表面に接触している指の接触領域の幾何学的な中心や重心の座標を計算して座標を認識する。 The touch screen mounted on the electronic device employs a laminated structure of a display and a transparent touch panel, and direct input instructions can be given to objects displayed on the display with a finger or electronic pen, enabling intuitive operation by the user To. The finger has a larger area (contact area) in contact with the touch surface than the electronic pen. In a capacitive touch panel, the coordinates are recognized by calculating the coordinates of the geometric center and the center of gravity of the contact area of the finger in contact with the display surface.
ユーザはタッチスクリーンの検出原理を理解しているため指の接触領域の中心を目的とするオブジェクトに位置付けるようにタッチ操作をする。しかし、接触領域には指のサイズや接触圧力に応じた面積的な広がりがあり、かつ指の裏側に存在するためユーザは目的とするオブジェクトが小さいほど的確な操作することが困難になる。非特許文献1は、現在のタッチスクリーンに発生する構造的なエラー・オフセットについての研究成果を発表している。同文献には、以下のことを記載している。 Since the user understands the detection principle of the touch screen, the user performs a touch operation so that the center of the contact area of the finger is positioned on the target object. However, the contact area has an area spread according to the size of the finger and the contact pressure, and exists on the back side of the finger, so that it becomes difficult for the user to perform an accurate operation as the target object is smaller. Non-Patent Document 1 has published research results on structural error offsets that occur in current touch screens. This document describes the following.
静電容量型のタッチセンサでは、ユーザがオブジェクトを指示するときには、指の爪の中央部分を基準にしているため、接触領域からデバイスが検出する座標とユーザが意図して指を位置付けようとする座標との間にオフセットが発生する。接触領域は、タッチスクリーンに対する指の角度および圧力により変化するため、ユーザが意図するオブジェクトをタッチスクリーンが正確に検出するためにはターゲットのサイズを大きくする必要がある。したがって指の接触領域の中心でターゲットを検出するデバイスよりも、カメラを利用して撮影した指の画像から座標を検出するデバイスの方が正確にユーザの意図する位置を検出できることを報告している。 In the capacitive touch sensor, when the user designates an object, the center part of the fingernail is used as a reference, so the coordinates detected by the device from the contact area and the user intends to position the finger. An offset occurs between the coordinates. Since the contact area changes depending on the angle and pressure of the finger with respect to the touch screen, the size of the target needs to be increased in order for the touch screen to accurately detect the object intended by the user. Therefore, it has been reported that a device that detects coordinates from a finger image captured using a camera can detect a position intended by a user more accurately than a device that detects a target at the center of a finger contact area. .
特許文献1は、コンピュータの表示装置のベゼルに2つの魚眼レンズ・カメラを搭載して、三角測量の原理で指の指示位置を検出するタッチパネルを開示する。特許文献2は、タッチスクリーンの周囲に配置した4個のカメラで指を撮影してタッチミスを低減するタッチパネル装置を開示する。カメラがタッチスクリーンに接近する指を撮影した画像から指の面積を推定し、指の面積が所定値より大きい場合はGUIの部品を拡大して表示し、小さい場合は拡大しないで表示する。いずれの場合も指が接近していない場合はタッチスクリーンにGUIが表示されない。 Patent Document 1 discloses a touch panel in which two fisheye lenses / cameras are mounted on a bezel of a display device of a computer and a finger pointing position is detected based on the principle of triangulation. Patent Document 2 discloses a touch panel device that reduces touch errors by photographing fingers with four cameras arranged around a touch screen. The area of the finger is estimated from an image obtained by photographing the finger approaching the touch screen by the camera. If the finger area is larger than a predetermined value, the GUI component is enlarged and displayed. In either case, when the finger is not approaching, the GUI is not displayed on the touch screen.
非特許文献1が指摘するように、カメラを利用した入力デバイスで従来の静電容量型のタッチスクリーンよりも精度の高い操作をすることができるとしても、携帯式電子機器に指を真上から撮影するようなカメラを搭載することは困難である。特許文献1のように画像だけで座標を検出する場合は、2台のカメラを搭載する必要がある。特許文献2の方法では、指の接近前にアイコンが表示されないためアイコンが多くなると指を接近させたときに目的とするアイコンが表示されないことも予想され、さらに常時画面にアイコンを表示しておきたい場合には採用できない。 As Non-Patent Document 1 points out, even if an input device using a camera can be operated with higher accuracy than a conventional capacitive touch screen, the finger is placed directly above the portable electronic device. It is difficult to mount a camera for taking pictures. In the case of detecting coordinates only by an image as in Patent Document 1, it is necessary to mount two cameras. In the method of Patent Document 2, since icons are not displayed before the finger approaches, if the number of icons increases, it is expected that the target icon will not be displayed when the finger is approached, and icons are always displayed on the screen. If you want to, you can not employ.
タブレット端末およびスマートフォンには、ユーザの顔および風景を切り換えて撮影することができる1台のカメラを標準的に搭載する。また近年のノートブック型パーソナル・コンピュータ(ノートPC)では、ユーザの顔を撮影することができる1台のカメラとタッチスクリーンを搭載するものがある。そして、このような携帯式電子機器においてコスト上昇を抑制しながらタッチスクリーンの操作精度を向上することが求められている。 A tablet terminal and a smartphone are typically equipped with one camera that can switch and shoot a user's face and landscape. Some recent notebook personal computers (notebook PCs) are equipped with a single camera and a touch screen that can photograph a user's face. In such portable electronic devices, it is required to improve the operation accuracy of the touch screen while suppressing an increase in cost.
そこで本発明の目的は、電子機器が実装するタッチスクリーンの操作精度を向上する方法を提供することにある。さらに本発明の目的は、電子機器が実装するタッチスクリーンのオブジェクトを小さくする方法を提供することにある。さらに本発明の目的は、そのような方法を採用した電子機器およびコンピュータ・プログラムを提供することにある。 Therefore, an object of the present invention is to provide a method for improving the operation accuracy of a touch screen mounted on an electronic device. Another object of the present invention is to provide a method for reducing the size of a touch screen object mounted on an electronic device. Furthermore, the objective of this invention is providing the electronic device and computer program which employ | adopted such a method.
本発明の1つの態様では、電子機器がタッチ面に対する指の接触領域から座標を検出するタッチスクリーンを搭載する。電子機器がタッチスクリーンに対するタッチ操作に応じて検出座標を生成する。電子機器はカメラでタッチ操作をしている指を撮影する。つづいて電子機器は指の撮影画像から特定した指の姿勢に基づいて補正量を計算し、検出座標と補正量から計算したターゲット座標を出力する。 In one aspect of the present invention, the electronic device includes a touch screen that detects coordinates from a contact area of a finger with respect to the touch surface. The electronic device generates detected coordinates in response to a touch operation on the touch screen. The electronic device takes a picture of a finger touching with the camera. Subsequently, the electronic device calculates a correction amount based on the posture of the finger specified from the photographed image of the finger, and outputs target coordinates calculated from the detected coordinates and the correction amount.
その結果、タッチ操作をする指の姿勢に起因して発生したオフセットを補正して操作精度を向上することができる。また、タッチ操作の対象となるオブジェクトを小さくすることができる。電子機器は、スマートフォン、タブレット端末、またはノートPCのいずれかとすることができる。タッチスクリーンは静電容量式、FTIR(Frustrated Total Internal Reflection)式、または抵抗式のいずれかとすることができる。カメラを広角レンズ・カメラまたは魚眼レンズ・カメラとすれば、顔と指の両方の撮影に利用でき、かつ、タッチスクリーンの縁枠がタッチ面と同じ平面にあってもタッチ操作する指を撮影することができる。 As a result, it is possible to improve the operation accuracy by correcting the offset generated due to the posture of the finger performing the touch operation. In addition, the object to be touched can be reduced. The electronic device can be either a smartphone, a tablet terminal, or a notebook PC. The touch screen can be either a capacitance type, a FTIR (Frustrated Total Internal Reflection) type, or a resistance type. If the camera is a wide-angle lens camera or fish-eye lens camera, it can be used for both face and finger photography, and even if the edge frame of the touch screen is on the same plane as the touch surface, the finger to be touched can be photographed. Can do.
補正量の計算においては、ターゲット座標を指の所定の位置に想定した視線ターゲットの真下に設定することができる。このとき視線ターゲットをタッチ面に対する指の投影が形成する指の幅の中心線上でかつ指の底部より指先側に設定することができる。さらに補正量の計算においては、検出座標を撮影画像が含む指の特徴的部位の真下に想定することができる。このとき指の特徴的部位を爪の底部に設けることができる。補正量の計算においては、撮影画像から特定した指の軸とタッチ面が形成するピッチ角を計算することができる。このとき、カメラと検出座標の距離を計算して撮影画像から特定した爪の長さを計算することができる。カメラと検出座標の距離を計算することでカメラは1台にすることができる。 In the calculation of the correction amount, the target coordinates can be set directly below the line-of-sight target assumed at a predetermined position of the finger. At this time, the line-of-sight target can be set on the center line of the width of the finger formed by the projection of the finger on the touch surface and closer to the fingertip side than the bottom of the finger. Furthermore, in the calculation of the correction amount, it is possible to assume the detection coordinates immediately below the characteristic part of the finger included in the captured image. At this time, the characteristic part of the finger can be provided at the bottom of the nail. In the calculation of the correction amount, the pitch angle formed by the finger axis and the touch surface specified from the captured image can be calculated. At this time, the distance between the camera and the detected coordinate can be calculated to calculate the length of the nail specified from the captured image. One camera can be obtained by calculating the distance between the camera and the detected coordinates.
また、補正量の計算においては、撮影画像から特定した指の軸の回りのロール角を計算することができる。このとき、カメラと検出座標の距離を計算して、撮影画像から特定したタッチ面に対する指の高さを計算することができる。上記の構成においてピッチ方向の傾斜とロール方向の回転は同時に発生していてもよい。本発明はスマートフォンまたはタブレット端末のような小型の電子機器に搭載するタッチスクリーンに適用すると特に有効である。 Further, in the calculation of the correction amount, the roll angle around the finger axis specified from the photographed image can be calculated. At this time, the distance between the camera and the detected coordinates can be calculated, and the height of the finger relative to the touch surface specified from the captured image can be calculated. In the above configuration, the pitch direction inclination and the roll direction rotation may occur simultaneously. The present invention is particularly effective when applied to a touch screen mounted on a small electronic device such as a smartphone or a tablet terminal.
本発明の他の態様は、電子機器にユーザが入力を意図するターゲット座標とタッチスクリーンが検出する検出座標の差に相当するオフセットをOFSとし、指の姿勢に対応する変数をuとする関数をf(u)とし、係数をrとした式(a)を用意する。
OFS=r×f(u) (a)
Another aspect of the present invention is a function in which an offset corresponding to a difference between a target coordinate that a user intends to input to an electronic device and a detected coordinate detected by a touch screen is OFS, and a variable corresponding to a finger posture is u. Formula (a) is prepared, where f (u) is the coefficient and r is the coefficient.
OFS = r × f (u) (a)
つづいてタッチスクリーンが検出座標を生成し、カメラでタッチ操作をしている指を撮影する。つづいて指の撮影画像から特定した指の姿勢に基づいて計算した変数uの値を式(a)に代入してオフセット値を計算し、検出座標とオフセット値から計算したターゲット座標を出力する。係数rは、あらかじめ複数の被験者に平均的に適用できる値を登録しておいてもよいし、個別のユーザに適用できる値を登録しておいてもよい。 Subsequently, the touch screen generates detected coordinates, and the finger that is touching with the camera is photographed. Subsequently, the offset value is calculated by substituting the value of the variable u calculated based on the posture of the finger specified from the photographed image of the finger into the equation (a), and the target coordinate calculated from the detected coordinate and the offset value is output. As the coefficient r, a value that can be averagely applied to a plurality of subjects may be registered in advance, or a value that can be applied to individual users may be registered.
変数uをピッチ角βとし、ピッチ方向のオフセットをΔyとし、係数rを係数pとしたときに式(a)は、
Δy=p×cosβ (b)
とすることができる。また、変数uをロール角γとしピッチ方向のオフセットをΔxとし、係数rを係数qとしたときに式(a)は、
Δx=q×tanγ (c)
とすることができる。
When the variable u is the pitch angle β, the offset in the pitch direction is Δy, and the coefficient r is the coefficient p, the equation (a) is
Δy = p × cos β (b)
It can be. When the variable u is the roll angle γ, the offset in the pitch direction is Δx, and the coefficient r is the coefficient q, the equation (a) is
Δx = q × tan γ (c)
It can be.
係数rは、タッチスクリーンにターゲット・オブジェクトを表示し、ターゲット・オブジェクトに対するタッチ操作に応答して検出した検出座標とターゲット・オブジェクトの座標の差からオフセット値を計算し、撮影画像から変数uの値を計算し、オフセット値と変数uの値を式(a)に代入して計算することができる。よって、指の形状や視線ターゲットの位置がユーザごとに異なっていても、ユーザごとに係数rを計算することで精度の高い補正をすることができる。 The coefficient r displays the target object on the touch screen, calculates an offset value from the difference between the detected coordinates detected in response to the touch operation on the target object and the coordinates of the target object, and calculates the value of the variable u from the captured image. Can be calculated by substituting the offset value and the value of the variable u into equation (a). Therefore, even if the finger shape and the position of the line-of-sight target are different for each user, it is possible to perform highly accurate correction by calculating the coefficient r for each user.
本発明により、電子機器が実装するタッチスクリーンの操作精度を向上する方法を提供することができた。さらに本発明により、電子機器が実装するタッチスクリーンのオブジェクトを小さくする方法を提供することができた。さらに本発明により、そのような方法を採用した電子機器およびコンピュータ・プログラムを提供することにある。 According to the present invention, a method for improving the operation accuracy of a touch screen mounted on an electronic device can be provided. Furthermore, according to the present invention, it is possible to provide a method for reducing an object of a touch screen mounted on an electronic device. It is a further object of the present invention to provide an electronic device and a computer program that employ such a method.
図1は、本実施の形態にかかる携帯式電子機器の一例であるスマートフォン10およびタブレット端末20のタッチスクリーン11、21を指で操作するときの様子を説明する図である。スマートフォン10およびタブレット端末20は、タッチスクリーン11、21の周囲を囲む縁枠15、25にカメラ・モジュール13、23を搭載している。スマートフォン10には1本の指でタッチ操作をするシングルタッチ操作の様子を例示し、タブレット端末20には複数の指でタッチ操作をするマルチタッチ操作の様子を例示している。タッチ操作をするタッチスクリーン11、21の表面をタッチ面11a、21aという。
FIG. 1 is a diagram for explaining a state when the
図2は、タッチ面11aに対するタッチ操作に構造的なオフセットが発生する様子を説明するための図である。ユーザはタッチスクリーン11に表示されている矩形状のアイコン111に対して指150でタッチ操作をする。ユーザは、タッチスクリーン11が指150とタッチ面が接触する接触領域109の中心で座標を検出することを知っているため、アイコン111の中心に接触領域109の中心が位置するようにタッチ操作をする。ここでアイコン111の中心部はユーザが指を位置付ける際の目標となる座標であり、これをターゲット座標105ということにする。
FIG. 2 is a diagram for explaining how a structural offset occurs in the touch operation on the
しかし、日常的なタッチ操作の経験から、アイコン111の面積が小さいときに、アイコン111が選択されない場合があることが判っている。非特許文献1の研究では、このときユーザは暗黙のうちに爪151の表面の中央部をターゲット座標105に位置付けていると指摘している。ユーザがターゲット座標105に指を位置付ける際に意識しないで目印にしていると想定した爪151または皮膚の表面の所定の位置を視線ターゲット155ということにする。このときターゲット座標105は視線ターゲット155からタッチ面に下ろした垂線上に存在すると想定する。
However, it is known from the experience of daily touch operations that the
ただし本発明は、視線ターゲット155が爪151の中心に存在すると想定する場合だけでなく、視線ターゲット155の位置に個人差がある場合でも補正することができる。ここで、タッチスクリーン11が検出する座標を検出座標107ということにする。検出座標107は、タッチスクリーン11の原理として接触領域109の幾何学的な重心または中心であるため、検出座標107とターゲット座標105の間には指の形状および姿勢に起因してオフセットOFSが発生する。
However, the present invention can correct not only when it is assumed that the line-of-
オフセットOFSがアイコン111のサイズに対して大きい場合は、アイコン111に対するタッチ操作は失敗するか隣接するオブジェクトに誤って行うことになる。視線ターゲット155はユーザの意識の中に潜む存在であるが、検出座標107からシフトした位置にターゲット座標105が発生する原因を作っており、その位置を想定することでオフセットOFSを計算するという側面において本実施の形態の原理を構成する。
When the offset OFS is larger than the size of the
図3、図4は、カメラ・モジュール13が撮影した画像のデータ(画像データ)を使ってタッチスクリーン11が検出した座標を補正する方法を説明するための図である。図3では矩形状のタッチスクリーン11の短辺と長辺に沿ってX−Y直交座標を定義している。タッチスクリーン11は、指150の接触領域109から計算した検出座標107をシステムにX−Y直交座標で出力する。検出座標107は、カメラ・モジュール13から距離dの位置に存在する。距離dは後に説明するように、1台のカメラ・モジュール13が撮影した指の画像データから爪の長さs、爪の幅nおよび指の高さh1などを計算するために利用する。
3 and 4 are diagrams for explaining a method of correcting coordinates detected by the
図3では、指150の長さ方向にy軸を設定して指のx−y直交座標を定義している。指のy軸とタッチスクリーン11のY軸が作る角度をヨー角αという。図4は、タッチ操作に関連する指150の範囲として、指先から第1関節付近までを示している。図4において、指の断面を楕円形とみなしたときに、その中心を指150の長さ方向(y軸方向)に通過するラインを指の軸160ということにする。
In FIG. 3, the y-axis is set in the length direction of the
図4(A)、図4(C)は指の軸160がタッチ面11aと平行になるようにタッチ面11a上に指が置かれた状態を真上から視た平面図である。図4(A)は爪151の正面を示し、図4(C)は指150が指の軸を160中心にして右方向(ロール方向)にわずかに回転した様子を示している。図4(A)において、タッチ面11aに対する投影において、爪の底部157を通過してタッチ面11aに平行なライン154と皮膚の両側の表面がそれぞれ交差する位置が形成する長さを指の幅w1と定義する。
4A and 4C are plan views of a state in which the finger is placed on the
タッチ面11aに対する投影にいて、指の軸160に垂直な方向の爪151の長さを爪の幅nと定義する。爪の底部157における指の幅w1の中心を指の幅の中心162といい、爪の幅nの中心を爪の幅の中心168と定義する。タッチ面11aに対する投影において指の幅の中心162を通る線と指の軸160は一致するとみなし、指の底部157において指の幅の中心162と爪の幅の中心168は一致するとみなす。
In the projection onto the
タッチ面11aに対する投影において、爪の底部157を通過してタッチ面11aに平行なライン154から指150の皮膚の先端または爪151の先端までの指の軸160上での長さを爪の長さsとする。一例としてタッチ面11aに対する投影において、指の軸160と爪の長さの中心線152が交差する位置に対応する爪151の表面を視線ターゲット155と想定する。タッチ面11aに対する投影において、指の幅の中心162を通り指の軸160に平行にy軸を定義し、指の幅の中心162を通ってライン154に平行にx軸を定義する。x−y直交座標はタッチ面11aに平行になる。
In the projection on the
図4(C)では、タッチ面11aに対する投影において、爪の底部157を通過してタッチ面11aに平行なライン154と皮膚の両端の表面がそれぞれ交差する位置が形成する長さを指の幅w2と定義する。指の幅w1、w2はいずれもタッチ面11aに対する皮膚の投影のなかで爪の底部157を通過するライン154が形成する幅に相当する。指の形状から指の幅w1は、指の幅w2の最大値に相当する。爪の底部157を通過するライン154における指の幅w2の中心が位置する皮膚または爪の表面を指の幅の中心164ということにする。
In FIG. 4C, in the projection onto the
本実施の形態における補正量の計算においては、ロール角γの大きさにかかわらず指150がロール方向に回転したときに指の幅w2を適用する。図4(A)に対応させてタッチ面11aに対する投影において指の軸160と爪の長さの中心線152が交差する位置に対応する爪151または皮膚の表面を、視線ターゲット155と想定する。タッチ面11aに対する投影において、指の幅の中心164を通り指の軸160に平行にy軸を定義し、指の幅の中心164を通りライン154に平行にx軸を定義する。この場合もx−y直交座標はタッチ面11aに平行になる。
In the calculation of the correction amount in the present embodiment, the finger width w2 is applied when the
図4(B)は、ロール方向に回転していない指150をx軸方向から視た側面図である。指の幅の中心162を通過して指の軸160に平行に爪151の表面を沿うライン156はタッチ面11aに対してピッチ方向に傾斜している。ライン156とタッチ面11aが形成する角度をピッチ角βという。なお、ライン156と指の軸160は平行として扱うことができるため、ピッチ角βをタッチ面11aと指の軸160との間の角度で定義することもできる。さらにピッチ角βは、タッチ面11aとそれに対向する指150の裏側の皮膚との間の角度で定義してもよい。
FIG. 4B is a side view of the
ここで図4(B)において、視線ターゲット155は図4(A)と同様に、タッチ面11aに対する投影において指の軸160と爪の長さの中心線152が交差する位置に対応する爪151の表面に想定する。ただし、視線ターゲット155は、ライン156上で指の底部157より先端側の爪151の表面に想定してもよい。また、指の幅の中心162からタッチ面11aに下ろした垂線上に検出座標107が存在すると想定する。このとき、視線ターゲット155の真下にあるターゲット座標105と、想定した検出座標107の間にはy軸方向のオフセットΔyが発生している。オフセットΔyは、ピッチ角βと爪の長さsから、式(1)で計算することができる。
Δy=(s/2)×cosβ (1)
Here, in FIG. 4B, the line-of-
Δy = (s / 2) × cos β (1)
図4(D)は、図4(C)のx軸を含みタッチ面11aに垂直な平面で指150を切断したときの断面を指先から視た断面図である。このとき、爪の中心168は、図4(A)のタッチ面11aに対する鉛直方向からロール角γだけ回転している。このとき指150は断面が完全な円形ではないため、検出座標107がターゲット座標105からx軸方向にシフトする。図4(B)と同様に視線ターゲット155の真下にターゲット座標105を設定し、ロール角γだけ回転した位置での爪の幅の中心168の真下に検出座標107を想定する。ただし、視線ターゲット155は、タッチ面11aに対する投影において、指の幅の中心164を通過しかつ指の底部157より先端側の爪151の表面または皮膚に想定してもよい。このとき検出座標107とターゲット座標105の間にはx軸方向のオフセットΔxが発生している。
FIG. 4D is a cross-sectional view of the cross section when the
オフセットΔxは、ロール角γとロール状態でのタッチ面11aに対する指の高さh1から式(2)で計算することができる。
Δx=(h1/2)×tanγ (2)
オフセットΔxの方向はロール方向に一致するが、指の可動範囲の特質から通常はユーザからみて右手の指は右回転で左手の指は左回転になる。
The offset Δx can be calculated from the roll angle γ and the height h1 of the finger with respect to the
Δx = (h1 / 2) × tan γ (2)
The direction of the offset Δx coincides with the roll direction, but from the viewpoint of the nature of the movable range of the finger, the right finger is normally rotated to the right and the left hand is rotated to the left as viewed from the user.
指150がピッチ方向に傾斜し、かつ、ロール方向に回転しているときは、タッチ面11aに対する投影において、指の軸160と爪の長さの中心線152が交差する位置に対応する爪151または皮膚の表面に視線ターゲット155を設定し、画像から抽出したピッチ角βとロール角γからオフセットΔy、Δxをそれぞれ計算することができる。オフセットΔx、Δyは、x−y直交座標上の値であるが、タッチスクリーン11はX−Y直交座標上の値を出力する必要がある。
When the
指150のy軸がタッチスクリーン11のY軸に対してヨー角αだけ傾斜しているときは、図5に示すように式(3)、(4)でオフセットΔx、ΔyをX−Y直交座標上のターゲット座標(X1,Y1)に投影して検出座標(X0,Y0)を補正することができる。
X1=X0−Δx×cosα (3)
Y1=Y0+Δy×cosα (4)
When the y-axis of the
X 1 = X 0 −Δx × cos α (3)
Y 1 = Y 0 + Δy × cos α (4)
図6は、スマートフォン10のハードウェアの構成を説明するための図である。スマートフォン10は、CPU51、システム・メモリ53、I/Oインターフェース55、SSD57、タッチスクリーン11、無線モジュール59およびカメラ・モジュール13などの要素を含む。スマートフォン10を構成する多くのハードウェアは周知であるため、本発明の理解に必要な範囲で説明する。SSD57は、座標補正システム200(図7)の主要な要素を構成するソフトウェアを格納する。
FIG. 6 is a diagram for explaining a hardware configuration of the
タッチスクリーン11は、液晶や有機ELなどのディスプレイと透明なタッチパネルを積層した構造で、ディスプレイに表示したオブジェクトに対して指でタッチ操作をするとタッチパネルが指の座標を検出して検出座標107を出力する。本発明は、静電容量型、FTIR型または抵抗膜型といったような、指150が接触した接触領域109の中心または重心の座標を出力するタイプのタッチスクリーンに適用することができる。このようなタイプのタッチパネルを含むタッチスクリーンは、図2で説明したようにターゲット座標105と検出座標107との間に構造的なオフセットを発生させる。
The
カメラ・モジュール13は、CMOSまたはCCDなどのイメージ・センサおよびイメージ・シグナル・プロセッサなどを含んでいる。カメラ・モジュール13は、魚眼レンズまたは超広角レンズを搭載しており、水平方向が360度で垂直方向が180度の半球状の被写体を撮影することができる。本実施の形態におけるカメラ・モジュール13の台数は1台でよい。したがって、カメラ・モジュール13は、ユーザの顔や風景を撮影するためにスマートフォン10が標準的に搭載するカメラ・モジュールと共用することができる。
The
スマートフォン10は縁枠15とタッチ面11aが同一平面上に存在するいわゆるフルフラット・ディスプレイ方式を採用している。多くのタブレット端末もフルフラット・ディスプレイ方式を採用する。カメラ・モジュール13は魚眼レンズまたは超広角レンズを搭載しているためフルフラット・ディスプレイの縁枠15に実装してもタッチ操作をするユーザの顔と指を同時に撮影することができる。縁枠にレンズの軸がタッチ操作をする指に向くようにカメラ・モジュールを実装できる場合は、標準レンズ・カメラまたは広角レンズ・カメラを採用することもできる。
The
図7は座標補正システム200の構成を説明するための機能ブロック図である。画像データ取得部201、補正量演算部203、登録部204、座標取得部205、アプリケーション実行部207および画像データ出力部209は、図6に示したCPU51、システム・メモリ53などのハードウェアとSSD57が格納するソフトウェアの協働により構成している。カメラ・モジュール13は動作を開始すると、タッチ操作をしている指150およびユーザの顔の画像を含んだ画像データを一例として30fpsのフレーム・レートで画像データ取得部201に転送する。タッチスクリーン13は、所定のサンプリング周期でタッチ面11aに指150が接触している間、接触領域109から検出座標107を生成して座標取得部205に出力する。
FIG. 7 is a functional block diagram for explaining the configuration of the coordinate
画像データ取得部201は、座標取得部205からタッチスクリーン11が生成した検出座標107を受け取ったときにカメラ・モジュール13に画像データの転送開始の指示をする。また、検出座標107を所定の時間だけ受け取らないときにカメラ・モジュール13に画像データの転送終了の指示をする。画像データ取得部201は、カメラ・モジュール13から受け取った画像データと座標取得部205から受け取った検出座標107を組にした補正データを補正量演算部203に送る。
When receiving the detected coordinates 107 generated by the
補正量演算部203は、オブジェクト認識機能および必要に応じて顔認識機能を備えている。補正量演算部203は、受け取った補正データから図3に示した距離dを計算する。補正量演算部203は距離dを計算し、オブジェクト認識機能を使って、指150のヨー角α、ピッチ角β、ロール角γ、爪の長さs、爪の幅n、タッチ操作をしたときの指の幅w1、w2、および指の高さh1などを計算する。補正量演算部203は、ユーザの顔を認識して現在タッチ操作をしているユーザの識別子および指の識別子とともに、タッチ操作をしている指の姿勢で変化しない爪の長さs、爪の幅nを登録部204に登録する。
The correction
補正量演算部203は、新しいユーザがタッチ操作をするたびに爪の長さs、爪の幅nを登録部204に登録する。補正量演算部203は、式(1)〜(4)を使ってオフセットΔx、Δyを計算し、さらにターゲット座標105を計算して座標取得部205が画像データ取得部201に検出座標107を送る際に付加したタイムスタンプとともに座標取得部205に送る。
The correction
他の例では、補正量演算部203は後に説明する式(5)、(6)を保有し、アプリケーション実行部207からの指示を受けて補正に必要なデータの登録処理をする。座標取得部205は、タッチスクリーン11から所定のサンプリング周期で生成された検出座標107を受け取るたびにタイムスタンプを付加して画像データ取得部201に送る。タイムスタンプはシステムが保持している時刻情報で、座標補正システム200の各要素が共有できるようになっている。
In another example, the correction
座標取得部205は、補正量演算部203から検出座標107を関連付けたタイムスタンプに対応するターゲット座標105を受け取ったときは、当該ターゲット座標105をアプリケーション実行部207に送る。座標取得部205は、補正量演算部203から検出座標107を関連付けたタイムスタンプに対応するターゲット座標105を受け取らないときは当該タイムスタンプを関連付けた検出座標107をアプリケーション実行部207に送る。
When the coordinate
アプリケーション実行部207は、タッチスクリーン11にソフトウェア・キーボードを表示する文書入力プログラム、ハイパーリンクが埋め込まれた画像を表示するWebブラウザ、ホーム画面にアイコンを表示するOSのインターフェース・プログラムなどを含む。アプリケーション実行部207はさらに、補正量演算部203を通じて登録部204に補正に必要なデータの登録をする登録プログラムを含む。
The
アプリケーション実行部207のプログラムは、それぞれ自らがタッチスクリーン11に表示するオブジェクトの座標を認識している。アプリケーション実行部207は、画像データ出力部209にタッチスクリーン11に表示するための画像データを出力する。アプリケーション実行部207は、自らが表示したタッチスクリーン11のオブジェクトに対して行われたタッチ操作に対応する検出座標107またはターゲット座標105を座標取得部205から受け取ってそれに応じた動作をする。画像データ出力部209は、アプリケーション実行部207から受け取った画像データを表示形式のデータに変換してタッチスクリーン11に出力する。
Each program of the
つぎに、座標補正システム200の動作を図8のフローチャートを参照して説明する。ブロック301では、アプリケーション実行部207がタッチスクリーン11にタッチ操作の対象となるオブジェクトを含む画像を表示している。アプリケーション実行部207は事前に爪151の表面をカメラ・モジュール13に向けるようにユーザに促して爪151を正面から撮影し、高い精度で測定した爪の長さsおよび爪の幅nを登録部204に登録しておいてもよい。
Next, the operation of the coordinate
ブロック303で指150がタッチ面11aに接触してタッチ操作が開始される。タッチ操作は、タッチした位置で指150をリリースするタップ操作と、タッチした状態を維持しながら指を移動させるスライド操作を含む。座標補正システム200はスライド操作のときは、その軌跡に沿ってタッチスクリーン11が生成した検出座標107を補正することができる。指150の接触を検出したタッチスクリーン11はブロック305で、所定のサンプリング周期で検出座標107の出力を開始する。検出座標107を受け取るたびに座標取得部205は、受け取った検出座標107にタイムスタンプを付加して画像データ取得部201に送る。検出座標107を受け取った画像データ取得部201はブロック307でカメラ・モジュール13に画像データの転送を指示する。
In
指示を受けたカメラ・モジュール13は所定のフレーム・レートでユーザの顔と指150を撮影した画像データの転送を開始する。カメラ・モジュール13のフレーム・レートとタッチスクリーン11の検出座標107の転送周期は同期している必要はないが、画像データ取得部201はブロック309で、検出座標107のタイムスタンプに最も近い時刻で取得した画像データと当該検出座標107を組にした補正データをタイムスタンプとともに補正量演算部203に送る。補正データを受け取った補正量演算部203はブロック311で、顔認識機能を使って現在タッチ操作をしているユーザの指150の爪の長さsおよび爪の幅nなどの爪のサイズを登録部204が登録しているか否かを判断する。スマートフォン10が同一のユーザだけで使用する場合はこの手順は省略してもよい。
Upon receiving the instruction, the
登録しているときはブロック317に移行し、登録していないときはブロック313に移行する。補正量演算部203はブロック313で検出座標107から計算した距離dとオブジェクト認識機能を使って、画像データから爪のサイズの計算が可能か否かを判断する。補正量演算部203はピッチ角βが小さい状態の指150をy軸方向から撮影している画像からは、爪の長さsを正確に計算することができない。また、x軸方向から撮影している画像からは、爪の幅nを正確に計算することができない。
If registered, the process proceeds to block 317, and if not registered, the process proceeds to block 313. The correction
爪のサイズを計算できない場合はブロック351に移行する。座標取得部205はブロック351で、補正量演算部203から検出座標107に関連付けたタイムスタンプに対応するターゲット座標105を受け取らないときはブロック351で検出座標107をアプリケーション実行部207に送る。この場合は、本発明の効果が得られない状態でタッチ操作が処理されるが、補正がされないことによる操作の中断は発生しない。爪のサイズの計算ができる場合は、ブロック315で補正量演算部203は登録部204に計算した爪のサイズを登録してブロック317に移行する。
If the nail size cannot be calculated, the process moves to block 351. When the coordinate
補正量演算部203はブロック317でオブジェクト認識機能を使って、画像データからピッチ角βの計算が可能か否かを判断する。カメラ・モジュール13がy軸方向から指150を撮影している場合はピッチ角βを正確に計算することができない場合がある。所定の精度でピッチ角βの計算が可能な場合はブロック319に移行し、計算できない場合はブロック353に移行する。座標取得部205はブロック353で、所定の検出座標107に関連付けたタイムスタンプに対応するターゲット座標105を受け取らないときは検出座標107をアプリケーション実行部207に送る
In
補正量演算部203はブロック319でオブジェクト認識機能を使って、画像データからロール角γの計算が可能か否かを判断する。カメラ・モジュール13がx軸方向から指150を撮影している場合はロール角γを正確に計算することができない場合がある。所定の精度でロール角γの計算が可能な場合はブロック321に移行し、計算できない場合はブロック353に移行する。
In
補正量演算部203はブロック321でオブジェクト認識機能を使って指の高さh1を計算する。補正量演算部203はブロック323で式(1)、(2)に爪の長さs、指の高さh1、ピッチ角β、およびロール角γを代入してオフセットΔx、Δyを計算する。補正量演算部203はさらに、画像データから計算したヨー角αを式(3)、(4)に代入してターゲット座標105を計算する。
In
補正量演算部203はブロック325でタイムスタンプを付加したターゲット座標105を座標取得部205に送る。座標取得部205は、すでに取得していた同一のタイムスタンプの検出座標107に代えて、ターゲット座標105をアプリケーション実行部207に送る。スライド操作の場合はブロック327からブロック305に戻ってタッチスクリーン13が検出座標107を出力する間、ブロック305からの手順を繰り返す。図1(B)に示したようにマルチタッチ操作を行う場合は、上記の手順で各指についてターゲット座標105を計算することができる。
The correction
つぎに座標補正システム200が検出座標107を補正する他の方法を説明する。図8の手順では、視線ターゲット155を爪の中心に設定し、さらに検出座標107の位置を図4(B)、(C)に示すように指の特徴部に関係づけることで多数のユーザに平均的に満足のいくターゲット座標105を生成することができる。しかし、ユーザの指の形状による検出座標107と指の特徴部との関係、押圧力の強さによる指の変形の度合い、および視線ターゲット155の位置などはユーザごとに異なるため必ずしも満足する結果を得られないユーザまたはより精度の高いターゲット座標105を求めるユーザも存在する。
Next, another method in which the coordinate
式(1)、(2)で計算したオフセットΔy、Δxに誤差が生じる原因は、画像データから計算したピッチ角βおよびロール角γの精度に加えて、爪の長さsおよび指の高さh1の計算が当該ユーザにとって適切でないことが挙げられる。図9は、画像データから爪の長さsおよび指の高さh1を計算したり、視線ターゲット155の位置および検出座標107と指の特徴的部位の関係を想定したりしないで補正する座標補正システム200の動作を説明するフローチャートである。
In addition to the accuracy of the pitch angle β and roll angle γ calculated from the image data, the cause of the error in the offsets Δy and Δx calculated by the equations (1) and (2) is the nail length s and the finger height. The calculation of h1 is not appropriate for the user. FIG. 9 is a coordinate correction for correcting without calculating the nail length s and the finger height h1 from the image data, or assuming the relationship between the position of the line-of-
ここでは、アプリケーション実行部207を構成する登録プログラムが、式(5)、式(6)における係数p、qを、ユーザが行うキャリブレーションのためのタッチ操作から計算した値で推定する。
Δy=p×cosβ (5)
Δx=q×tanγ (6)
Here, the registration program constituting the
Δy = p × cos β (5)
Δx = q × tan γ (6)
ブロック401でアプリケーション実行部207の登録プログラムが動作して補正量演算部203と座標取得部205に登録動作をするように指示する。アプリケーション実行部207はブロック403で、タッチスクリーン11の所定のターゲット座標105に図10に示すクロス・ライン501aを表示し、さらに所定の指でクロス・ライン501aをターゲットとするタッチ操作をすることを示すプロンプトを表示する。
In
タッチ操作のときの指の押圧力により係数p、qは変化するためプロンプトには、ユーザが通常操作をするときの力でタッチ操作をすることを促すメッセージを含むようにすることが望ましい。ブロック405でユーザがクロス・ライン501aをターゲットとするタッチ操作をする。このときユーザは図4に示した視線ターゲット155を目印にしないかもしれないが、そのようなユーザにとって図9の手順は有効である。また、指の特徴的な部位と検出座標107の関係が、図4(B)、(D)で示した関係とは異なるユーザにとっても図9の手順は有効である。
Since the coefficients p and q change depending on the pressure of the finger during the touch operation, it is desirable that the prompt includes a message that prompts the user to perform the touch operation with the force of the normal operation. In
ブロック407でアプリケーション実行部207は、クロス・ライン501aの座標であるターゲット座標105を補正量演算部203に転送する。ブロック409でタッチスクリーン11がクロス・ライン501aをターゲットとするタッチ操作に応じて検出座標107を座標取得部205に送る。座標取得部205が検出座標107にタイムスタンプを付加して画像データ取得部201に送ると、カメラ・モジュール13が画像データの転送を開始する。
In
ブロック411で補正量演算部203は、画像データからヨー角α、ピッチ角β、ロール角γを計算し、検出座標107とターゲット座標105からオフセットΔx、Δyを計算する。ブロック413で補正量演算部203はピッチ角β、ロール角γ、オフセットΔx、Δyを式(5)、(6)に代入して係数p、qを計算する。つづいて補正量演算部203は指の識別子とともに係数p、qを登録部204に登録する。ブロック415で補正量演算部203から登録の終了通知を受け取ったアプリケーション実行部207は、ブロック403に戻ってクロス・ライン501bを表示して同じ手順を繰り返す。
In
すべてのクロス・ライン501a〜501fに対する登録が終了すると、ブロック417でアプリケーション実行部207はブロック403に戻って次の指を示すプロンプトを表示して同じ手順を繰り返す。すべての指の登録が終了するとアプリケーション実行部207はブロック419で、指ごとの6個の係数p、qの平均値または中央値を計算してユーザの顔を示す識別子および指の識別子とともに登録部204に登録する。ブロック421で登録処理が終了すると、補正量演算部203はそれ以降の各検出座標107について、画像データから計算した指の姿勢を示すピッチ角β、ロール角γと、登録部204に登録した係数p、qの平均値または中央値を式(5)、(6)に代入して、オフセットΔx、Δyを計算することができる。
When registration for all the
補正量演算部203が図9の手順で係数p、qを登録して式(5)、(6)を使用する場合は、図8のブロック311〜315、321の手順を省略することができる。式(5)、(6)では、視線ターゲット155の位置の想定および検出座標107と指の特徴的部位との関係を想定する必要がない。式(5)、(6)では式(1)、(2)を使うときに想定した2つの関係は表面に出てこないが、図9の登録手順において計算した係数p、qがこれらの想定を含んでいる。
When the correction
これまで本発明について図面に示した特定の実施の形態をもって説明してきたが、本発明は図面に示した実施の形態に限定されるものではなく、本発明の効果を奏する限り、これまで知られたいかなる構成であっても採用することができることはいうまでもないことである。 Although the present invention has been described with the specific embodiments shown in the drawings, the present invention is not limited to the embodiments shown in the drawings, and is known so far as long as the effects of the present invention are achieved. It goes without saying that any configuration can be adopted.
10 スマートフォン
11 タッチスクリーン
11a タッチ面
105 ターゲット座標
107 検出座標
109 接触領域
111 アイコン
150 指
151 爪
152 爪の長さの中心線
154 爪の底部を通過してタッチ面に平行なライン
155 視線ターゲット
157 爪の底部
160 指の軸
162 指の幅の中心
164 指の幅の中心
168 爪の幅の中心
α ヨー角
β ピッチ角
γ ロール角
w1、w2 指の幅
s 爪の長さ
n 爪の幅
10
Claims (18)
前記タッチスクリーンに対するタッチ操作に応じて検出座標を生成するステップと、
カメラで前記タッチ操作をしている指の爪を撮影するステップと、
前記カメラの撮影画像から前記爪の所定の位置に設定した視線ターゲットの位置を特定するステップと、
前記視線ターゲットに関連付けた位置にターゲット座標を設定するステップと、
前記ターゲット座標と前記検出座標から計算した補正量で前記検出座標を補正するステップと
を有する処理を実行させるためのコンピュータ・プログラム。 For electronic devices equipped with a touch screen that detects coordinates from the contact area of the finger against the touch surface,
Generating detection coordinates in response to a touch operation on the touch screen;
Photographing a fingernail performing the touch operation with a camera;
Identifying the position of the line-of-sight target set at a predetermined position of the nail from a captured image of the camera;
Setting target coordinates at a position associated with the line-of-sight target;
A computer program for executing a process comprising: correcting the detected coordinates with a correction amount calculated from the target coordinates and the detected coordinates .
前記タッチスクリーンにターゲット・オブジェクトを表示するステップと、
前記ターゲット・オブジェクトのターゲット座標と前記タッチスクリーンが検出する検出座標の差に相当する指の長さ方向のオフセットをΔyとし、タッチ操作をする指のピッチ角をβとし、係数をpとした式(a)を用意するステップと、
Δy=p×cosβ (a)
前記ターゲット・オブジェクトに対するタッチ操作に応じて検出座標を生成するステップと、
カメラで前記タッチ操作をしている指を撮影するステップと、
指の撮影画像から特定した指の姿勢に基づいて計算したピッチ角βと、前記ターゲット座標と前記検出座標から計算したオフセットΔyを式(a)に代入して前記係数pを計算するステップと
を有する処理を実行させるためのコンピュータ・プログラム。 For electronic devices equipped with a touch screen that detects coordinates from the contact area of the finger against the touch surface,
Displaying a target object on the touch screen;
Said fingers the target coordinates of the target object touch screen corresponding to the difference between the detected coordinates of detecting an offset in the longitudinal direction and [Delta] y, the pitch angle of the finger for the touch operation and beta, and the coefficient p Formula Preparing (a);
Δy = p × cos β (a)
Generating detection coordinates in response to a touch operation on the target object ;
Photographing a finger performing the touch operation with a camera;
Substituting the pitch angle β calculated based on the finger posture specified from the photographed image of the finger and the offset Δy calculated from the target coordinates and the detected coordinates into the equation (a), and calculating the coefficient p; A computer program for executing a process having:
Δx=q×tanγ (b)Δx = q × tan γ (b)
指の撮影画像から特定した指の姿勢に基づいて計算したロール角γと、前記ターゲット座標と前記検出座標から計算したオフセットΔxを式(b)に代入して前記係数qを計算するステップと Substituting the roll angle γ calculated based on the finger posture specified from the photographed image of the finger and the offset Δx calculated from the target coordinates and the detected coordinates into the equation (b), and calculating the coefficient q;
を有する請求項9に記載のコンピュータ・プログラム。The computer program according to claim 9.
タッチ操作をする指を撮影して画像データを出力することが可能なカメラと、
前記画像データから爪の所定の位置に設定した視線ターゲットの位置を特定し、該視線ターゲットに関連付けた位置にターゲット座標を設定し、該ターゲット座標と前記検出座標から補正量を計算する補正量演算部と
を有する電子機器。 A touch screen that detects coordinates from the contact area of the finger with respect to the touch surface and outputs detected coordinates;
A camera capable of shooting a finger performing a touch operation and outputting image data;
The image data identifies the position of the gaze target set at a predetermined position of the nail from, and set the target coordinates to the location associated with the visual axis target, calculating the detected coordinates or al correction amount and the target coordinate correction amount An electronic device having a calculation unit.
前記タッチスクリーンに対するタッチ操作に応じて検出座標を受け取るステップと、
前記タッチ操作をしている指の爪を撮影した前記カメラから画像データを受け取るステップと、
前記画像データから前記爪の所定の位置に設定した視線ターゲットの位置を特定するステップと、
前記視線ターゲットに関連付けた位置にターゲット座標を設定するステップと、
前記ターゲット座標と前記検出座標から補正量を計算するステップと、
を有する方法。 An electronic device equipped with a camera and a touch screen that outputs detection coordinates from a contact area of a finger with respect to a touch surface is a method of correcting the detection coordinates,
Receiving detected coordinates in response to a touch operation on the touch screen;
Receiving image data from the camera that captured the fingernail performing the touch operation;
Identifying the position of the line-of-sight target set at a predetermined position of the nail from the image data;
Setting target coordinates at a position associated with the line-of-sight target;
Calculating a correction amount from the target coordinates and the detected coordinates ;
Having a method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014023035A JP5947999B2 (en) | 2014-02-10 | 2014-02-10 | Method, electronic device and computer program for improving operation accuracy for touch screen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014023035A JP5947999B2 (en) | 2014-02-10 | 2014-02-10 | Method, electronic device and computer program for improving operation accuracy for touch screen |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015149036A JP2015149036A (en) | 2015-08-20 |
JP5947999B2 true JP5947999B2 (en) | 2016-07-06 |
Family
ID=53892319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014023035A Active JP5947999B2 (en) | 2014-02-10 | 2014-02-10 | Method, electronic device and computer program for improving operation accuracy for touch screen |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5947999B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5993511B1 (en) * | 2015-10-15 | 2016-09-14 | 株式会社東海理化電機製作所 | Operating device |
KR102380930B1 (en) * | 2021-12-27 | 2022-03-30 | 한국해양과학기술원 | Sharing system and method of marine pollution information using smart device |
CN114596582B (en) * | 2022-02-28 | 2023-03-17 | 北京伊园未来科技有限公司 | Augmented reality interaction method and system with vision and force feedback |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003005913A (en) * | 2001-06-18 | 2003-01-10 | Tokai Rika Co Ltd | Touch operating position detecting device |
JP3867039B2 (en) * | 2002-10-25 | 2007-01-10 | 学校法人慶應義塾 | Hand pattern switch device |
JP2007264808A (en) * | 2006-03-27 | 2007-10-11 | Nikon Corp | Display input device and imaging apparatus |
JP4609557B2 (en) * | 2008-08-29 | 2011-01-12 | ソニー株式会社 | Information processing apparatus and information processing method |
JP2010257089A (en) * | 2009-04-22 | 2010-11-11 | Xiroku:Kk | Optical position detection apparatus |
JP2012038025A (en) * | 2010-08-05 | 2012-02-23 | Canon Inc | Display device, control method for display device, and program |
JP5912929B2 (en) * | 2012-07-03 | 2016-04-27 | 株式会社Nttドコモ | Display device, processing method, and program |
-
2014
- 2014-02-10 JP JP2014023035A patent/JP5947999B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015149036A (en) | 2015-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2846308A2 (en) | Pointing direction detecting device and its method, program and computer readable-medium | |
US10310675B2 (en) | User interface apparatus and control method | |
US8670023B2 (en) | Apparatuses and methods for providing a 3D man-machine interface (MMI) | |
JP5802247B2 (en) | Information processing device | |
WO2014106219A1 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
WO2011146070A1 (en) | System and method for reporting data in a computer vision system | |
US20150241968A1 (en) | Method for Processing Information and Electronic Device | |
JP5947999B2 (en) | Method, electronic device and computer program for improving operation accuracy for touch screen | |
CN113867562B (en) | Touch screen point reporting correction method and device and electronic equipment | |
US20130215085A1 (en) | Controlling Method Applied to A Sensing System | |
US9389780B2 (en) | Touch-control system | |
US9041689B1 (en) | Estimating fingertip position using image analysis | |
TW201523425A (en) | Desktop-like device and method for displaying user interface | |
US9323346B2 (en) | Accurate 3D finger tracking with a single camera | |
TW201222365A (en) | Optical screen touch system and method thereof | |
US20160309086A1 (en) | Electronic device and method | |
JP6643825B2 (en) | Apparatus and method | |
JP2018063555A (en) | Information processing device, information processing method, and program | |
JP2018116346A (en) | Input control device, display device, and input control method | |
JP6709022B2 (en) | Touch detection device | |
JP6514889B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD | |
JP2014049023A (en) | Input device | |
TWI566128B (en) | Virtual control device | |
TWI697827B (en) | Control system and control method thereof | |
US10275146B2 (en) | Virtual navigation apparatus, navigation method, and non-transitory computer readable medium thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160604 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5947999 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |