JP2020091509A - 情報入力装置 - Google Patents

情報入力装置 Download PDF

Info

Publication number
JP2020091509A
JP2020091509A JP2018226226A JP2018226226A JP2020091509A JP 2020091509 A JP2020091509 A JP 2020091509A JP 2018226226 A JP2018226226 A JP 2018226226A JP 2018226226 A JP2018226226 A JP 2018226226A JP 2020091509 A JP2020091509 A JP 2020091509A
Authority
JP
Japan
Prior art keywords
information
input
touch
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018226226A
Other languages
English (en)
Other versions
JP7178888B2 (ja
Inventor
謙太郎 新倉
Kentaro Niikura
謙太郎 新倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2018226226A priority Critical patent/JP7178888B2/ja
Priority to US16/595,942 priority patent/US20200174641A1/en
Priority to EP19209123.9A priority patent/EP3663897B1/en
Priority to CN201911147813.2A priority patent/CN111258443B/zh
Publication of JP2020091509A publication Critical patent/JP2020091509A/ja
Priority to US17/177,961 priority patent/US11455061B2/en
Application granted granted Critical
Publication of JP7178888B2 publication Critical patent/JP7178888B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】高精度なタッチ操作を実現可能な情報入力装置を提供する。【解決手段】情報入力装置1は、入力要求情報を表示するための第1の面(表示面2a)と、入力要求情報を入力するための第2の面(タッチ面4a)と、入力者の視点を検出する検出部(検出装置5)と、第2の面に入力された情報を検出された入力者の視点に応じて第1の面の情報に変換する補正部7と、を備える。情報入力装置1は、さらに、第1の面と第2の面との間の距離情報を保持する記憶装置6を備える。【選択図】図1

Description

本開示は、情報入力装置に関し、特に、タッチ面と表示面とを有する情報入力装置に適用可能である。
タッチパネルなどのタッチ検出装置を液晶表示装置等の表示装置の表示画面の上に装着し、あるいは、タッチ検出装置と表示装置の表示画面とを一体化し、表示装置の表示画面に各種の情報入力用のボタン画像等を表示させることによって、情報入力を可能とするタッチ検出機能付き表示装置がある。このようなタッチ検出機能付き表示装置は、たとえば、タブレット型コンピュータやスマートフォンのような携帯情報端末や、カーナビゲーション装置、ゲーム機器、自動販売機、電子案内掲示板機器などに使用されている。
特開2017−199062号公報 特開2018−60404号公報
タッチ検出機能付き表示装置では、タッチ検出を行うタッチ面とボタン画像などを表示する表示面とが異なっている。つまり、デバイスの構造的に、タッチ面と表示面が奥行方向(表示面に対して垂直方向)で必ずしも一致していない。そのため、デバイス構造や操作者の視点によっては「操作者から見た表示面に対する指の位置(期待値)」と「タッチデバイスが検出したタッチポイントの座標(検出値)」とが一致しない場合がある。これは、特に、操作者の視点と操作者の指とを結んだ直線が表示面に対して垂直から外れるほど、期待値と検出値のズレが大きくなる。このズレは、操作者への違和感やストレスの原因となる可能性が有る。
また、タッチ面が曲面によって構成された場合、タッチ面の上に保護パネルが設けられる場合、また、表示面とタッチ面との間に空間または放熱や衝撃吸収を目的とした層がある場合など、指と表示面が離れるほど、期待値と検出値のズレが大きくなり、操作に違和感や支障を来たす可能性がある。
本開示の課題は、高精度なタッチ操作を実現可能な情報入力装置を提供することにある。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本開示のうち代表的なものの概要を簡単に説明すれば下記の通りである。
すなわち、情報入力装置は、入力要求情報を表示するための第1の面と、入力要求情報を入力するための第2の面と、入力者の視点を検出する検出部と、前記第2の面に入力された情報を検出された前記入力者の視点に応じて前記第1の面の情報に変換する補正部と、を備える。
上記情報入力装置によれば、高精度なタッチ操作を実現することができる。
実施態様に係る情報入力装置の概略構成を示す図である。 実施例1に係る情報入力装置の構成を示す図である。 操作者の入力状態の例を示す図である。 方位角(γ)の算出方法を説明する図である。 仰角(θ)の算出方法を説明する図である。 仰角(θ)の算出方法を説明する図である。 記憶装置に格納される距離マップの一例を示す図である。 タッチ座標における距離情報の計算例を説明する図である。 タッチ座標P(x1、y1、D)を座標P’(x2、y2、0)へ補正する方法を示す図である。 実施例2に係る情報入力装置の概略構成を示す図である。 実施例2に係る情報入力装置の構成例を示す図である。 実施例3に係る情報入力装置の表示面の表示例を示す図である。 利用優先度を意識した空間的なタッチ面を説明する図である。 図13を上側から見た場合の空間的なタッチ面を説明する図である。 実施例3に係る情報入力装置の構成を示す図である。
以下、実施形態、および、実施例について、図面を用いて説明する。ただし、以下の説明において、同一構成要素には同一符号を付し繰り返しの説明を省略することがある。なお、図面は説明をより明確にするため、実際の態様に比べ、模式的に表される場合があるが、あくまで一例であって、本発明の解釈を限定するものではない。
(実施形態)
図1は、実施態様に係る情報入力装置の概略構成を示す図である。情報入力装置1は、表示装置2と、タッチ検出装置3と、保護層4と、検出装置5と、記憶装置6、補正部7と、を含む。
表示装置2は、入力要求情報を表示するための表示面(第1の面)2aを有する。表示装置2は、たとえば、液晶表示装置や有機EL表示装置等の表示装置により構成することができる。入力要求情報は、たとえば、ボタン、アイコン、あるいは、リンク先を表示する文字列などとすることができる。
タッチ検出装置3は、指やペンによるタッチ操作を検出する手段である。タッチ検出装置3は、タッチパネル、タッチセンサ、タッチデバイス等により構成することができる。
保護層4は、タッチ検出装置3を保護するための保護膜である。保護層4は、入力要求情報を入力するためのタッチ面(第2の面)4aを有する。保護層4は、アクリル樹脂やガラスなどで構成することができる。タッチ検出装置3は、タッチ面4aに対する操作者(入力者)Aの指の位置Afを検出する。この例では、タッチ座標Pが、タッチ検出装置3によって検出された実際の検出値に対応する。
検出装置5は、操作者(入力者)Aの視点の方向Aeや操作者Aの顔や目の位置を検出する手段である。検出装置5は、カメラなどの撮像装置等により構成することができる。
記憶装置6は、タッチ面4aと表示面2aとの間の複数点の距離情報dを距離マップとして、予め保持する記憶手段である。記憶装置6は、たとえば、EEPROM、EPROM、ROM、フラッシュメモリ等の不揮発性記憶装置により構成することができる。なお、距離情報dは、情報入力装置1の設計時に、設計値として事前に生成して記憶装置6へ格納するのが良い。
補正部7は、検出装置5により取得した操作者の視点(顔や目の位置)の情報と、記憶装置6からのタッチ面4aと表示面2aの距離情報dとに基づいて、タッチ検出装置3により検出されたタッチ座標Pを、タッチ座標P’へ座標補正する。タッチ座標P’は、情報入力装置1が設けられたシステムに入力される。タッチ座標P’は、操作者Aから見たタッチ座標P’(期待値)である。
次に、情報入力装置1の動作について説明する。表示装置2の表示面2aの座標P’の位置に、入力要求情報としてボタンが表示されている場合を例として説明する。
操作者Aは、座標P’の位置に表示されたボタンを押す場合、まず、視線をボタンに向け、その後、指先でタッチ面4aを押す。この場合、一般的には、操作者Aの視点の方向Aeの延長線上に、ボタンが表示されており、そのボタンの位置に指先を移動させる。したがって、操作者Aの指先の位置Afも、また、操作者Aの視点の方向Aeの延長線上にあることになる。
ここで、図1に示すように、タッチ面4aと表示面2aとの間が離れており、操作者Aの視線の方向Aeが表示面2aの垂直方向から傾いていると、操作者Aが座標P’の位置に表示されたボタンを押そうとしても、タッチ検出装置3では、操作者Aの指先の位置Afを、座標Pとして検出することになる。したがって、操作者Aは、座標P’の位置に表示されたボタンを選択できないということが起こる。
実施形態においては、補正部7が、検出装置5により取得した操作者の視点(顔や目の位置)の情報と、記憶装置6からの距離情報dとに基づいて、タッチ検出装置3により検出されたタッチ座標Pを、タッチ座標P’へ座標補正する。これにより、高精度なタッチ操作を実現することができる。また、操作者への違和感やストレスを解消することができる。また、タッチ面が曲面によって構成された場合であっても、操作に違和感や支障を来たす可能性を低減できる。
図2は、実施例1に係る情報入力装置の構成を示す図である。図3は、操作者の入力状態の例を示す図である。
情報入力装置1は、表示装置2と、表示情報生成部21と、タッチ検出装置3と、検出装置(カメラ)5と、記憶装置6、補正部7と、を含む。補正部7は、画像認識部71と、視点方向算出部72と、座標補正部73と、を含む。なお、保護層4は省略されている。また、表示装置2、タッチ検出装置3、検出装置5および記憶装置6は、実施態様と同じであり、その説明は省略する。
画像認識部71は、検出装置5から操作者Aの顔、目等の撮影画像CIMGが入力される。撮影画像CIMGは、たとえば、水平座標Xと垂直座標Yとによって構成されており、画像を構成する複数の画素は水平座標Xと垂直座標Yとによって識別することができる。画像認識部71は、撮影画像CIMGから操作者Aの顔、目等を検出するとともに、画像上の顔や目の座標情報を抽出する。この座標情報によって、顔や目の中心の座標情報、顔や目の大きさの情報を得ることができる。空間における操作者Aの顔の位置を求めるために、単眼カメラであればカメラからの入力画像に写る顔の大きさから距離(奥行)を判断しても良い。また、ToF(Time of Flight)カメラのような、物体の画像情報とその物体の距離情報とを同時に得ることが可能な技術を使っても良い。また、カメラ以外の方法(赤外線、音声や超音波など)を利用してもよいし、または、カメラ以外の方法(音声や超音波など)とカメラとを併用しても良い。
視点方向算出部72は、画像認識部71から画像上の顔や目の座標情報を入力され、顔や目の座標情報から操作者の視点方向を算出する。たとえば、図3に示す状態の場合、視点方向算出部72は、操作者Aの視点方向を方位角(γ)と仰角(θ)として算出する。視点方向算出部72により算出された方位角(γ)と仰角(θ)は、(θ、γ)として座標補正部73へ入力される。
座標補正部73は、タッチ検出装置3で検出されたタッチ座標Pに基づいて、記憶装置6に格納された距離マップを参照し、タッチ面4aと表示面2aの距離情報dを得る。たとえば、図3に示す状態の場合、座標補正部73は、タッチ検出装置3で検出されたタッチ座標P(x1,y1)に基づいて、記憶装置6に格納された距離マップを参照し、タッチ面4aと表示面2aの距離情報d(x1,y1)を得る。なお、この明細書では、タッチ座標P(x1,y1)、タッチ面4aと表示面2aの距離情報d(x1,y1)の場合、表示面2aに対する操作者Aの指の空間座標を、(x1,y1,d)として表すこととする。座標補正部73は、操作者Aの視点方向(θ、γ)から、操作者の指の空間座標(x1,y1,d)を延長した表示面2a上の点P’(x2、y2)を補正後の座標として算出する。
表示情報生成部21は、補正後の座標点P’(x2、y2)に基づいて、表示装置2の表示情報DIにおいて座標(x2、y2)に表示される入力要求情報(ボタン)BTを選択する。これにより、操作者Aに違和感およびストレスを感じさせることなく、操作者Aが意図した入力要求情報(ボタン)BTを選択できる。
次に、視点方向算出部72による方位角(γ)と仰角(θ)の算出方法の一例を説明する。
図4は、方位角(γ)の算出方法を説明する図である。図5および図6は、仰角(θ)の算出方法を説明する図である。図5は撮影画像の平面図を示しており、図6は図5を横方向から見た場合の側面図である。ここでは、スマートフォンの様に、表示面2aと、検出装置5であるカメラが近接設置され、表示面2aの法線方向とカメラ(5)の視界が平行な場合、表示面2aの中央にカメラ(5)も存在すると近似した場合、視点方向算出は簡略化が可能である。
まず、図4または図5に示す撮影画像が、操作者Aのタッチ動作にしたがって、カメラ(5)から画像認識部71に入力されたものとする。画像認識部71は、撮影画像から、操作者Aの顔もしくは目の座標情報(中心や大きさ)を抽出する。視点方向算出部72は、撮影画像の中心(cx, cy)から、「顔」もしくは「両目」の中心座標(tx, ty)の方向(方位角(γ))と、距離を角度換算した値(仰角(θ))と、を求める。これは、例えば、以下の式により、表示面2aに対する顔および目の方向を示す情報に変換(近似)できる。
図4を参照し、方位角(γ)は、以下の式1および式2によって求めることができる。
γ≒ atan( (ty - cy) / (tx - cx) ) × 180 ÷ PI (式1)
= atan( (ty - cy) / (tx - cx) ) × 180 ÷ PI +180 (式2)
ここで、式1は、(tx - cx)が正の場合における式である。式2は、(tx - cx)が負の場合における式である。PIは、円周率である。
図5および図6を参照し、仰角(θ)は、以下の式3によって求めることができる。
θ ≒ (K ÷ 2) × L ÷ S (式3)
ここで、図5および図6に示すように、Kはカメラの対角画角である。Lは、撮影画像の中心(cx, cy)と「顔」もしくは「両目」の中心座標(tx, ty)との間の距離を示す。Sは、撮影画像の中心(cx, cy)と撮影画像の角との間の距離である。
次に、座標補正部73によるタッチ面4aと表示面2aの距離情報Dの算出方法の一例を説明する。ここでは、記憶装置6に、表示面2aとタッチ面4aの距離情報(距離マップ)がメッシュ状に保持している場合の算出例を説明する。
図7は、記憶装置6に格納される距離マップの一例を示す図である。この例では、記憶装置6に、表示面2aとタッチ面4aの距離情報を、X方向に4点、Y方向に4点、計16点で、メッシュ状に保持している場合を示している。メッシュ状の各点d[x、y](x=0、1、2、3、y=0、1、2、3)において、表示面2aとタッチ面4aと間の距離情報dを格納している。なお、記憶装置6に格納される距離情報(距離マップ)は、図7に限定されない。距離情報は、計算式やCADデータの様な値として保持してもよい。
図8は、タッチ座標における距離情報の計算例を説明する図である。この例では、記憶装置6が図7に示す距離情報(距離マップ)を格納している場合における距離情報の計算例を示している。図8において、操作者Aの指がタッチ面4aのタッチ座標P(xs、ys)に接触した場合を例として説明する。この例では、タッチ面4aの4点(d(x、y)、d(x+1,y)、d(x、y+1)、d(x+1、y+1))で構成される矩形形状の面の中に、操作者Aの指がタッチし、その座標をタッチ座標P(xs、ys)としている。
この場合、タッチ座標P(xs、ys)に対応する表示面2aとタッチ面4aと間の距離情報Dは、以下の式4によって計算できる。
D = {dt1 × (1-b)} + {dt2 × b}
= {(d[x,y] × (1-a) + d[x+1, y] × a) × (1-b)}
+ {(d[x,y+1] × (1-a) + d[x+1, y+1] × a) × b} (式4)
次に、式1〜式3で求めた視点方向(θ, γ)と、式4で求めた距離情報Dとを用いて、タッチ座標P(x1、y1、D)を操作者Aから見たタッチポイントの座標P’(x2、y2、0)へ補正する方法を説明する。
図9は、タッチ座標P(x1、y1、D)を座標P’(x2、y2、0)へ補正する方法を示す図である。ここで、タッチ座標P(x1、y1、D)は、操作者Aの指のタッチ面2aの上での空間座標を示している。また、座標P’(x2、y2、0)は、操作者Aから見た場合の表示面2aの空間座標を示している。座標P(x1、y1、0)は視差補正前の座標であり、座標P’(x2、y2、0)は視差補正後の座標である。
座標P(x1、y1、D)は、以下の式5−式7により、座標P’(x2、y2、0)へ補正することができる。
m = D × sin(θ) ÷ cos(θ) (式5)
x2 = m × cos(γ) + x1 (式6)
y2 = m × sin(γ) + y1 (式7)
ここで、mは、視差を考慮した場合の表示面2aの上における移動距離である。
実施例1によれば、補正部7が、検出装置5により取得した操作者の視点(顔や目の位置)の情報(方位角(γ)と仰角(θ))と、記憶装置6からの距離情報dとに基づいて、タッチ検出装置3により検出されたタッチ面4a上のタッチ座標Pを、表示面2a上のタッチ座標P’へ座標補正する。これにより、高精度なタッチ操作を実現することができる。また、操作者への違和感やストレスを解消することができる。また、タッチ面が曲面によって構成された場合であっても、操作に違和感や支障を来たす可能性を低減できる。
図10は、実施例2に係る情報入力装置の概略構成を示す図である。図10に示す情報入力装置1aは、実施態様または実施例1の応用例である。図10が、図1と異なる部分は、図10において、タッチ検出装置30、タッチ面40aを有する保護膜40、検出装置50が設けられている点である。つまり、図10に示す情報入力装置1aは、1つの表示装置2に対して設けられた複数のタッチ検出装置3、30と、複数の操作者を検出する複数の検出装置(カメラA、B)5、50と、を含み、たとえば、操作者Aからのタッチ検出装置3に対するタッチ入力と、操作者Bからのタッチ検出装置30に対するタッチ入力とを可能とする。
記憶装置6は、タッチ面4aと表示面2aとの間の複数点の距離情報dを含む距離マップと、タッチ面40aと表示面2aとの間の複数点の距離情報dを含む距離マップと、を格納する。
検出装置(カメラA)5は、操作者Aの視点の方向や操作者Aの顔や目の位置を検出する手段である。検出装置(カメラB)50は、操作者Bの視点の方向や操作者Bの顔や目の位置を検出する手段である。
補正部7は、検出装置5、50により取得した操作者A、Bの視点(顔や目の位置)の情報と、記憶装置6からのタッチ面4a、40aと表示面2aの距離情報dとに基づいて、タッチ検出装置3、30により検出されたタッチ座標Pa(X1a,Y1a,Z1a)、Pb(X1b,Y1b,Z1b)を、タッチ座標Pa’(X2a,Y2a,0)、Pb’(X2b,Y2b,0)へ座標補正する。つまり、情報入力装置1aでは、実施態様または実施例1と同様に、タッチ面4aにおける操作者Aの指のタッチ座標Pa(X1a,Y1a,Z1a)を、表示装置2の表示面2a上のタッチ座標Pa’(X2a,Y2a,0)へ補正する。また、タッチ面40aにおける操作者Bの指のタッチ座標Pb(X1b,Y1b,Z1b)を、表示装置2の表示面2a上のタッチ座標Pb’(X2b,Y2b,0)へ補正する。他の構成は、実施態様または実施例1と同じであるので、説明は省略する。
図11は、実施例2に係る情報入力装置の構成例を示す図である。図11に示す情報入力装置1aが図1と異なる点は、図11において、検出装置(カメラB)50の撮影画像が画像認識部71へ入力される点と、タッチ検出装置30の検出結果が座標補正部73へ入力される点である。他の構成は、図2と同じであるので、説明は省略する。
画像認識部71は、実施例1で説明された操作者Aの顔や目の座標情報を抽出する機能の他、と同様に、検出装置(カメラB)50の撮影画像に対する認識機能を行い、画像上の操作者Bの顔や目の座標情報を抽出する機能も有する。
視線方向算出部72は、操作者Aの視点方向を方位角(γ)と仰角(θ)として算出する機能の他、操作者Bの視点方向を方位角(γ)と仰角(θ)として算出する機能も有する。
座標補正部73は、操作者Aの指のタッチ座標Pa(X1a,Y1a,Z1a)を表示装置2の表示面2a上のタッチ座標Pa’(X2a,Y2a,0)へ補正する機能の他、タッチ面40aにおける操作者Bの指のタッチ座標Pb(X1b,Y1b,Z1b)を表示装置2の表示面2a上のタッチ座標Pb’(X2b,Y2b,0)へ補正する機能も有する。したがって、複数の検出装置(カメラA、B)5、50は、操作者Aの入力なのか、操作者Bの入力なのか、を識別する識別部としての役割を有する。
なお、図11の補正部7は、タッチ検出装置3と検出装置5、および、タッチ検出装置30と検出装置50に共用される構成であるが、補正部7の構成は図11に限定されない。たとえば、2つの補正部7を設け、一方の補正部をタッチ検出装置3と検出装置5に割り当て、他方の補正部をタッチ検出装置30と検出装置50に割り当てることも可能である。
実施例2によれば、複雑なタッチ面への対応と視差を考慮した入力により、1つの表示デバイス(表示面2a)へ複数の操作者A、Bが互いの操作を邪魔せずにアクセス可能な情報入力装置を提供できる。実施例2の情報入力装置を有するシステムでは、操作者A,Bのどちらの操作であるのかを識別および把握したマルチタッチ制御を実現できる。
複数者(複数指)によるタッチ操作の識別はマルチタッチ技術でも可能であるが、どのタッチが誰のタッチなのかの判断はできないという課題があった。本実施例の情報入力装置1aを利用したシステムであれば、タッチ面が操作者毎に分離および識別が可能である。そのため、同じ表示装置に対するタッチ操作であっても、それが誰のタッチ操作によるものかを、システムが把握しながら所望のサービスを提供することが可能である。
しかも、補正部7が、検出装置5、50により取得した操作者A,Bの視点(顔や目の位置)の情報と、記憶装置6からの距離情報dとに基づいて、タッチ検出装置3、30により検出されたタッチ座標Pa、Pbを、タッチ座標Pa’、Pb’へ座標補正する。これにより、高精度なタッチ操作を実現することができる。また、操作者A,Bへの違和感やストレスを解消することができる。また、タッチ面が曲面によって構成された場合であっても、操作に違和感や支障を来たす可能性を低減できる。
図12は、実施例3に係る情報入力装置の表示面の表示例を示す図である。実施態様、実施例1および実施例2では、操作者Aの指Afがタッチ面4aに触れることを前提とした構成であったが、それに限定されない。たとえば、カーナビゲーション装置に搭載されているモーションコントロールの様なタッチ面が表示面の法線方向の空間の一部に構成されるようなものであってもよい。つまり、本実施例は、物理的なタッチ面がなく、カメラからの撮影画像の画像認識などにより、空間の指の位置からタッチ操作を実現するような非接触型の情報入力装置への応用例である。
この場合、記憶装置6に保持している距離マップを活用し、表示装置2の表示面2aに表示する入力要求情報の内容に応じて、タッチ(押下)判定の空間的な奥行きを変えるものである。これにより、操作者に対して操作性の向上を提供できる。また、誤操作による誤入力を防止することができる。実施例1〜2のように固定的な距離マップを記憶装置6に持つのではなく、表示内容から動的に距離情報(距離マップ)を生成することで、操作者Aに操作させたい入力要求情報の空間的なタッチ面を操作者Aに対して近距離に設定する。これにより、操作者Aに対する操作性を向上させることができる。一方、操作者Aにあまり操作させたくない入力要求情報や操作する必要がない入力要求情報の空間的なタッチ面を操作者Aに対して遠距離に設定して、誤操作を抑制する。
図12は、表示装置2の表示面2aにおける表示画像を示している。表示画面は、この例では、「よろしいですか?」と言う応答を求める文字列と、入力要求情報とされる第1ボタンBT1,第2ボタンBT2および第3ボタンBT3と、を含む。たとえば、第1ボタンBT1は「Yes」の表示があり、第2ボタンBT2は「No」の表示があり、第3ボタンBT3は「最初からやり直す」の表示がある。ボタンは、一例であり、文字列、図形、あるいは、アイコンでもよい。
図12の様な表示画像の場合、一般的に、第1ボタンBT1および第2ボタンBT2の利用の優先度が高い傾向にあり、第3ボタンBT3の利用の優先度は、第1ボタンBT1および第2ボタンBT2のそれより低いと考えられる。なお、「利用の優先度が高い」は「操作者Aに操作させたい」へ、また、「利用の優先度が低い」は「操作者Aにあまり操作させたくない」と、言い換えてもよい。
図13は、利用優先度を意識した空間的なタッチ面を説明する図である。図14は、図13を上側から見た場合の空間的なタッチ面を説明する図である。図13および図14に示されるように、利用優先度の高い、第1ボタンBT1の空間的なタッチ面(第1タッチ面)TBT1と第2ボタンBT2の空間的なタッチ面TBT2とは、表示装置2の表示面2aから、距離DT1の空間に存在している。一方、利用優先度の低い、第3ボタンBT3の空間的なタッチ面(第2タッチ面)TBT3は、表示装置2の表示面2aから、距離DT2の空間に存在している。距離DT2は、距離DT1より、短くされている(DT2<DT1)。操作者Aの指Afの位置から見た場合、第1ボタンBT1の空間的なタッチ面TBT1と第2ボタンBT2の空間的なタッチ面TBT2とは、第3ボタンBT3の空間的なタッチ面TBT3より、操作者Aの指Afの位置に近く配置される。したがって、操作者Aには、第1ボタンBT1および第2ボタンBT2が選択しやすい状態になっており、第3ボタンBT3は、第1ボタンBT1および第2ボタンBT2と比較して、選択しにくい状態になっている。
図15は、実施例3に係る情報入力装置の構成を示す図である。情報入力装置1bは、表示装置2と、表示情報生成部21と、タッチ検出装置3と、検出装置(カメラ)5と、記憶装置6、画像認識部74と、を含む。検出装置(カメラ)5は、カメラに限定されず、カメラ以外の方法(赤外線、音声や超音波など)を利用してもよい。
検出装置(カメラ)5は、操作者Aの指Afの位置を撮影し、撮影画像を画像認識部71へ入力する。画像認識部74は、入力された撮影画像から指Afの位置の座標を認識し、タッチ検出装置3へ入力する。
表示情報生成部21は、表示装置2に表示する表示画像を生成する。ここでは、表示画像には、図12で説明されたような、「よろしいですか?」と言う応答を求める文字列や、入力要求情報(第1入力要求情報、第2入力要求情報)とされる第1ボタンBT1、第2ボタンBT2および第3ボタンBT3が含まれるものとする。表示情報生成部21は、表示画像に、入力要求情報とされる第1ボタンBT1、第2ボタンBT2および第3ボタンBT3が含まれる場合、記憶装置6に対して、第1ボタンBT1、第2ボタンBT2および第3ボタンBT3の空間的なタッチ面TBT1、TBT2、TBT3の距離情報(DT1、DT2、DT3)を格納する。なお、距離情報は、表示装置2に表示する表示画像に依存して変更される。
タッチ検出装置3は、画像認識部74から入力された撮影画像から指Afの位置の座標と、表示画像の現在表示されている第1ボタンBT1、第2ボタンBT2および第3ボタンBT3の空間的なタッチ面TBT1、TBT2、TBT3の距離情報(DT1、DT2、DT3)とに基づいて、操作者Aの選択した第1ボタンBT1、第2ボタンBT2または第3ボタンBT3を判定する。この判定結果は、表示情報生成部21へ入力される。これにより、表示情報生成部21は、操作者Aの選択した第1ボタンBT1、第2ボタンBT2または第3ボタンBT3の選択情報を、情報入力装置1bを備えるシステムへ入力する。
このような構成とすることで、操作者に対して操作性の向上を提供できる。また、誤操作による誤入力を防止することができる。
なお、実施例3はカーナビゲーション装置に限定されない。自動車のフロントガラスに文字や図形等を表示するヘッドアップディスプレイ技術に対しても応用可能である。たとえば、フロントガラスに、自動運転等において複数の車両から追従する車両を選択させるような場合、あるいは、トリップメータの変更やリセットを行うような場合などに利用可能である。
以上、本発明者によってなされた発明を実施例に基づき具体的に説明したが、本発明は、上記実施形態および実施例に限定されるものではなく、種々変更可能であることはいうまでもない。
1,1a、1b:情報入力装置
2:表示装置
2a:表示面(第1の面)
3:タッチ検出装置
4、40:保護層
4a、40a:タッチ面(第2の面)
5:検出装置
6:記憶装置
7:補正部
21:表示情報生成部
71、74:画像認識部
72:視点方向算出部
73:座標補正部

Claims (12)

  1. 入力要求情報を表示するための第1の面と、
    入力要求情報を入力するための第2の面と、
    入力者の視点を検出する検出部と、
    前記第2の面に入力された情報を検出された前記入力者の視点に応じて前記第1の面の情報に変換する補正部と、
    を備える、情報入力装置。
  2. 請求項1において、
    前記第1の面と前記第2の面との間の距離情報を保持する記憶装置を備える、情報入力装置。
  3. 請求項2において、
    前記第2の面上に入力された前記情報に対応する前記第2の面のタッチ座標を前記補正部へ入力するタッチ検出装置を含み、
    前記補正部は、前記記憶装置の前記距離情報と、前記検出部によって検出された前記入力者の視点に応じて、前記タッチ座標を、前記第1の面上の前記情報へ変換する、情報入力装置。
  4. 請求項3において、
    前記補正部は、
    前記検出部の撮影画像から前記入力者の顔および目を認識する画像認識部と、
    前記画像認識部の認識結果から前記入力者の前記視点の方向を算出する視点方向算出部と、
    座標補正部と、を含み、
    前記座標補正部は、
    前記視点の方向と前記記憶装置の前記距離情報とに基づいて、前記タッチ座標を前記第1の面上の前記情報へ変換する、情報入力装置。
  5. 入力要求情報を表示するための第1の面と、
    入力要求情報を入力するための複数の第2の面と、
    複数の入力者の視点を検出する検出部と、
    前記複数の第2の面に入力された情報をそれぞれ検出された前記複数の入力者の視点に応じて前記第1の面の情報に変換する補正部と、
    を備える、情報入力装置。
  6. 請求項5において、さらに、
    前記第1の面と前記複数の第2の面との間の距離情報を保持する記憶装置を備える、情報入力装置。
  7. 請求項6において、
    前記複数の第2の面上に入力された前記情報に対応する前記第2の面の複数のタッチ座標を前記補正部へ入力する複数のタッチ検出装置を含み、
    前記補正部は、前記記憶装置の前記距離情報と、前記検出部によって検出された前記複数の入力者の視点に応じて、前記タッチ座標を、前記第1の面上の前記情報へ変換する、情報入力装置。
  8. 請求項7において、
    前記補正部は、
    前記検出部の撮影画像から前記複数の入力者のそれぞれの顔および目を認識する画像認識部と、
    前記画像認識部の認識結果から前記複数の入力者のそれぞれの前記視点の方向を算出する視点方向算出部と、
    座標補正部と、を含み、
    前記座標補正部は、
    前記複数の入力者のそれぞれの前記視点の方向と前記記憶装置の前記距離情報とに基づいて、前記複数のタッチ座標を前記第1の面上の前記情報へ変換する、情報入力装置。
  9. 入力要求情報を表示するための第1の面と、
    入力要求情報を入力するための第2の面と、
    入力者を識別する識別部と、
    前記第2の面により入力された情報を識別された前記入力者に応じて前記第1の面により表示された情報に変換する補正部と、
    を備える、情報入力装置。
  10. 請求項9において、
    前記識別部は、カメラを含む、情報入力装置。
  11. 表示面を有する表示装置と、
    前記表示面に、第1入力要求情報と、第2入力要求情報と、を表示させることが可能な表示情報生成部と、
    記憶装置と、
    入力者の指の位置を検出する検出部と、
    前記検出部により検出された前記指の位置がタッチ面にタッチしたか否かを検出するタッチ検出装置と、を含み、
    前記タッチ面は、前記第1入力要求情報の第1タッチ面と、前記第2入力要求情報の第2タッチ面と、を含み、
    前記記憶装置は、前記第1タッチ面と前記表示面との間の第1距離情報と、前記第2タッチ面と前記表示面との間の第2距離情報と、を格納し、
    前記第2距離情報は、前記第1距離情報より、短くされ、
    前記表示情報生成部が、前記表示面に、前記第1入力要求情報と前記第2入力要求情報とを表示させた時、前記第2タッチ面は、前記表示面と前記第1タッチ面との間に位置する、情報入力装置。
  12. 請求項11において、
    前記第1距離情報と前記第2距離情報は、前記表示情報生成部が、前記表示面に、前記第1入力要求情報と前記第2入力要求情報とを表示させる場合、前記表示情報生成部が前記記憶装置に格納する、情報入力装置。
JP2018226226A 2018-12-03 2018-12-03 情報入力装置 Active JP7178888B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018226226A JP7178888B2 (ja) 2018-12-03 2018-12-03 情報入力装置
US16/595,942 US20200174641A1 (en) 2018-12-03 2019-10-08 Information input device
EP19209123.9A EP3663897B1 (en) 2018-12-03 2019-11-14 Information input device
CN201911147813.2A CN111258443B (zh) 2018-12-03 2019-11-21 信息输入装置
US17/177,961 US11455061B2 (en) 2018-12-03 2021-02-17 Information input device including a touch surface and a display surface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018226226A JP7178888B2 (ja) 2018-12-03 2018-12-03 情報入力装置

Publications (2)

Publication Number Publication Date
JP2020091509A true JP2020091509A (ja) 2020-06-11
JP7178888B2 JP7178888B2 (ja) 2022-11-28

Family

ID=68581567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018226226A Active JP7178888B2 (ja) 2018-12-03 2018-12-03 情報入力装置

Country Status (4)

Country Link
US (2) US20200174641A1 (ja)
EP (1) EP3663897B1 (ja)
JP (1) JP7178888B2 (ja)
CN (1) CN111258443B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171182A1 (ja) * 2022-03-09 2023-09-14 マクセル株式会社 入力装置およびエレベータシステム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4152128B1 (en) * 2021-09-17 2024-01-03 Bayerische Motoren Werke Aktiengesellschaft Control unit for improving a user touch control, method and computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014147715A1 (ja) * 2013-03-18 2014-09-25 株式会社 東芝 情報処理装置、制御方法およびプログラム
JP2015114682A (ja) * 2013-12-09 2015-06-22 小島プレス工業株式会社 タッチパネル装置
JP2017027206A (ja) * 2015-07-17 2017-02-02 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
JP2017191563A (ja) * 2016-04-15 2017-10-19 株式会社デンソー 情報処理装置及び表示システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296304A (ja) * 1998-04-10 1999-10-29 Ricoh Co Ltd 画面表示入力装置及び視差補正方法
JP2009110275A (ja) * 2007-10-30 2009-05-21 Sharp Corp 表示入力装置及びその視差補正方法
US8890819B2 (en) * 2009-03-31 2014-11-18 Mitsubishi Electric Corporation Display input device and vehicle-mounted information equipment
JP2011165141A (ja) * 2010-02-15 2011-08-25 Sharp Corp 電子機器および電子機器の制御方法
WO2011114590A1 (ja) * 2010-03-16 2011-09-22 シャープ株式会社 位置入力装置、位置入力システム、位置入力方法、位置入力プログラム及びコンピュータ読み取り可能な記録媒体
CN102812420B (zh) * 2010-03-18 2016-01-20 富士胶片株式会社 立体显示装置和立体成像装置、用于上述装置的优势眼判定方法
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
JP2014049023A (ja) * 2012-09-03 2014-03-17 Sharp Corp 入力装置
EP2713244A1 (en) * 2012-10-01 2014-04-02 Alcatel Lucent Touchscreen device with parallax error compensation
TWI483152B (zh) * 2012-10-25 2015-05-01 Acer Inc 觸碰位置補償方法及裝置
US9280234B1 (en) * 2013-06-25 2016-03-08 Amazon Technologies, Inc. Input correction for touch screens
US20160196002A1 (en) * 2013-09-04 2016-07-07 Sharp Kabushiki Kaisha Display device
DE102013217772A1 (de) * 2013-09-05 2015-03-05 Robert Bosch Gmbh Daten- und/oder Kommunikationsgerät sowie Verfahren zu dessen Steuerung
KR102224478B1 (ko) * 2014-04-15 2021-03-08 엘지전자 주식회사 터치 센서티브 플렉서블 디스플레이 디바이스 및 그 제어 방법
CN104298412A (zh) * 2014-11-10 2015-01-21 上海摩软通讯技术有限公司 移动终端及其触摸屏操作校准方法
US9778792B2 (en) * 2015-11-12 2017-10-03 Dell Products L.P. Information handling system desktop surface display touch input compensation
JP2017134709A (ja) * 2016-01-29 2017-08-03 富士通株式会社 電子機器、電子機器の制御プログラム及びその方法
JP6504107B2 (ja) 2016-04-25 2019-04-24 京セラドキュメントソリューションズ株式会社 操作入力装置、画像形成装置及び操作入力方法
JP2018060404A (ja) 2016-10-06 2018-04-12 株式会社ジャパンディスプレイ 表示装置およびタッチ操作の補正方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014147715A1 (ja) * 2013-03-18 2014-09-25 株式会社 東芝 情報処理装置、制御方法およびプログラム
JP2015114682A (ja) * 2013-12-09 2015-06-22 小島プレス工業株式会社 タッチパネル装置
JP2017027206A (ja) * 2015-07-17 2017-02-02 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
JP2017191563A (ja) * 2016-04-15 2017-10-19 株式会社デンソー 情報処理装置及び表示システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171182A1 (ja) * 2022-03-09 2023-09-14 マクセル株式会社 入力装置およびエレベータシステム

Also Published As

Publication number Publication date
CN111258443B (zh) 2024-06-07
US11455061B2 (en) 2022-09-27
US20210165551A1 (en) 2021-06-03
JP7178888B2 (ja) 2022-11-28
CN111258443A (zh) 2020-06-09
US20200174641A1 (en) 2020-06-04
EP3663897B1 (en) 2023-11-01
EP3663897A1 (en) 2020-06-10

Similar Documents

Publication Publication Date Title
KR102079097B1 (ko) 투명 디스플레이를 이용한 증강현실 구현 장치 및 그 방법
US8890819B2 (en) Display input device and vehicle-mounted information equipment
US20160267887A1 (en) Display control apparatus, display control method, and program
KR102463712B1 (ko) 가상 터치 인식 장치 및 그의 인식 오류 보정 방법
US20110157236A1 (en) Head-mounted display
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
US10168769B2 (en) Input apparatus, input method, and program
US20130009956A1 (en) Display control apparatus, display control method, and program
EP3465398B1 (en) Privacy user interactive apparatus, electronic apparatus having the same, and user interactive method for protecting privacy
US11455061B2 (en) Information input device including a touch surface and a display surface
US10296098B2 (en) Input/output device, input/output program, and input/output method
TWI499938B (zh) 觸控系統
KR20160072306A (ko) 스마트 펜 기반의 콘텐츠 증강 방법 및 시스템
US9300908B2 (en) Information processing apparatus and information processing method
JP2006302029A (ja) 表示装置制御プログラム、表示装置制御方法、表示装置
JP2017084136A (ja) ジェスチャ入力装置
US11231774B2 (en) Method for executing operation action on display screen and device for executing operation action
JP2014049023A (ja) 入力装置
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
US11899834B2 (en) Information processing device and method
JP7179334B2 (ja) ジェスチャ認識装置及びジェスチャ認識装置用プログラム
JP2007310477A (ja) 画面操作装置および画面操作方法ならびにこの画面操作装置に用いられる表示入力装置
JP2022118501A (ja) 表示システム、表示装置とその制御方法及びプログラム
TWI566128B (zh) 虛擬觸控裝置
KR20070036438A (ko) 입체 영상기의 입력 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221115

R150 Certificate of patent or registration of utility model

Ref document number: 7178888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150