JP6898021B2 - 操作入力装置、操作入力方法、及びプログラム - Google Patents

操作入力装置、操作入力方法、及びプログラム Download PDF

Info

Publication number
JP6898021B2
JP6898021B2 JP2020504657A JP2020504657A JP6898021B2 JP 6898021 B2 JP6898021 B2 JP 6898021B2 JP 2020504657 A JP2020504657 A JP 2020504657A JP 2020504657 A JP2020504657 A JP 2020504657A JP 6898021 B2 JP6898021 B2 JP 6898021B2
Authority
JP
Japan
Prior art keywords
operation input
aerial projection
sensor
sensor device
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020504657A
Other languages
English (en)
Other versions
JPWO2019171635A1 (ja
Inventor
夏美 鈴木
夏美 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Publication of JPWO2019171635A1 publication Critical patent/JPWO2019171635A1/ja
Application granted granted Critical
Publication of JP6898021B2 publication Critical patent/JP6898021B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Description

本発明は、空中に表示された画面へのタッチによる入力操作を可能にする、操作入力装置、及び操作入力方法に関し、更には、これらを実現するためのプログラムに関する。
近年、操作用の画面を空中に投影し、ユーザが空中に投影された画面(以下「空中投影面」と表記する)をタッチすることによって、操作入力を行えるようにする、操作装置が提案されている(例えば、特許文献1参照)。特許文献1によって提案されている操作装置は、表示装置と、表示装置の画面を空中に結像する画像結像プレートと、カメラと、距離センサと、制御ユニットとで構成されている。
このうち、画像結像プレートは、特定の位置にある画像の放つ光を、画像結像プレートから見て反対側の同じ距離の位置に集めて、同じ画像を形成する機能を備えている(例えば、特許文献2参照)。このため、表示装置に表示された画面から放たれた光が、画像結像プレートを通過すると、画面は空中に投影されることになる。
また、上記特許文献1に開示された操作装置では、カメラは、空中投影面とユーザの指とを撮影し、撮影画像を制御ユニットに入力する。距離センサは、それからユーザの指先までの距離を測定し、測定した距離を制御ユニットに入力する。
制御ユニットは、まず、撮影画像に映ったユーザの指先の画像上の位置と、距離センサで測定された距離とを、換算式に代入して、ユーザの指の空中投影面での座標を算出する。また、このときに用いられる換算式は、空中投影面の位置座標と、カメラの情報(位置、画角、焦点距離等)とから、予め定められている。
続いて、制御ユニットは、算出した座標に基づいて、ユーザの指と空中投影面に表示された操作用のアイコンとの重なりを判定し、判定結果に基づいて、ユーザによる入力操作を特定する。このような構成により、ユーザは、空中に表示された画面をタッチすることで、入力操作を行うことができる。
特開2017−62709号公報 特開2012−14194号公報
しかしながら、上記特許文献1に開示された操作装置には、ユーザの指先が空中の操作画面よりも奥に位置してしまうと、空中投影面におけるユーザの指の接触位置の座標を正確に検出できなくなるという問題がある。
具体的には、ユーザの指先が空中の空中投影面よりも奥に位置してしまうと、距離センサによって測定された距離は、ユーザが意図している接触位置での距離よりも短くなってしまう。この結果、例えば、空中投影面の中心位置での距離が最も短くなるように、距離センサが設置されているとすると、上述した換算式により、空中投影面におけるユーザの指の座標は、実際よりも画面の中央側に移動してしまう。
本発明の目的の一例は、上記問題を解消し、ユーザが、空中に表示された画面をタッチして、入力操作を行う場合において、ユーザの誤操作によるタッチ位置の検出精度の低下を抑制し得る、操作入力装置、操作入力方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における操作入力装置は、
操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、制御装置と、を備え
前記センサ装置は、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力し、
前記制御装置は、
前記センサデータから、前記物体の前記空中投影面における位置を検出し、
更に、前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定し、そして、設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、
ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における操作入力方法は、
操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、コンピュータと、を用い、前記センサ装置が、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力する、操作入力方法であって、
(a)前記コンピュータによって、前記センサデータから、前記物体の前記空中投影面における位置を検出するステップと、
(b)前記コンピュータによって、前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定する、ステップと、
(c)前記コンピュータによって、設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、ステップと、を有する、
ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、コンピュータと、を備え、前記センサ装置が、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力する、操作入力装置において、
前記コンピュータに、
(a)前記センサデータから、前記物体の前記空中投影面における位置を検出するステップと、
(b)前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定する、ステップと、
(c)設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、ステップと、を実行させる、
ことを特徴とする。
以上のように、本発明によれば、ユーザが、空中に表示された画面をタッチして、入力操作を行う場合において、ユーザの誤操作によるタッチ位置の検出精度の低下を抑制することができる。
図1は、本発明の実施の形態における操作入力装置の構成を示す構成図である。 図2は、本発明の実施の形態における操作入力装置に用いられるセンサ装置の機能を説明する図である。 図3は、本発明の実施の形態における操作入力装置に備えられたセンサ装置のセンシング結果の一例を示す図である。 図4は、本発明の実施の形態における操作入力装置の動作を示すフロー図である。 図5は、本発明の実施の形態における操作入力装置の制御装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
以下、本発明の実施の形態における、操作入力装置、操作入力方法、及びプログラムについて、図1〜図5を参照しながら説明する。
[装置構成]
最初に、本実施の形態における操作入力装置の構成について説明する。図1は、本発明の実施の形態における操作入力装置の構成を示す構成図である。
図1に示す、本実施の形態における操作入力装置100は、空中に表示された画面へのタッチによる入力操作を可能にする装置である。図1に示すように、操作入力装置100は、表示装置10と、光学プレート20と、センサ装置30と、制御装置40とを備えている。
表示装置10は、入力用の操作画面を表示する。光学プレート20は、操作画面を空中に投影して空中投影面21を生成する。センサ装置30は、空中投影面21に接触する物体50の3次元空間上での位置を検出するための装置である。図1の例では、物体50は、操作入力を行うユーザの指である。
センサ装置30は、空中投影面21の背面側に配置されている。センサ装置30は、センシングエリアにおける物体50の2次元座標を特定するための情報と、センサ装置30から物体50までの深度とを含む、センサデータを出力する。
制御装置40は、操作入力特定部41と、図形設定部42と、深度補正部43とを備えている。操作入力特定部41は、センサ装置30が出力したセンサデータから、物体50の、空中投影面21における位置を検出する。そして、操作入力特定部41は、検出した物体50の位置に応じて、操作画面に対して行われた操作入力を特定する。
また、図形設定部42は、センサデータから、物体50の一部分が、空中投影面21のセンサ装置30側に位置していることを検出すると、センサデータにおいて、この物体の一部分を囲む図形を設定する。深度補正部43は、図形設定部42が設定した図形の外縁の深度を用いて、物体50の空中投影面21における位置を補正する。
このように、本実施の形態では、例えば、ユーザの指先が空中投影面よりも奥に位置してしまった場合に、指の位置が補正される。このため、本実施の形態によれば、ユーザが、空中に表示された操作画面をタッチして、入力操作を行う場合において、ユーザの誤操作によってタッチ位置の検出精度が低下してしまう事態が回避される。
続いて、図2及び図3を用いて、本実施の形態における操作入力装置100の構成及び機能についてより詳細に説明する。図2は、本発明の実施の形態における操作入力装置に用いられるセンサ装置の機能を説明する図である。図3は、本発明の実施の形態における操作入力装置に備えられたセンサ装置のセンシング結果の一例を示す図である。
まず、本実施の形態において、表示装置10は、液晶表示装置等である。光学プレート20としては、上述した特許文献2に開示された画像結像プレートが用いられている。光学プレート20は、表示装置10の画面に表示された画像の放つ光を、画像結像プレートから見て反対側の同じ距離の位置に集めて、同じ画像を形成する機能を備えている。
センサ装置30は、本実施の形態では、デプスセンサである。デプスセンサは、センシングを行うと、センシングによって得られた画像の画像データと、画像の画素毎に付加された深度(デプス)とを、センサデータとして出力する。また、本実施の形態においては、センサ装置30として、カメラと距離センサとで構成された装置が用いられていても良い。
そして、センサデータに含まれる画像データによれば、センシングエリアにおける物体50の2次元座標を特定することが可能となる。具体的には、図2に示すように、センサデータに含まれる画像データによれば、物体50における、画像の垂直方向(V軸方向)の位置と、画像の水平方向(H軸方向)の位置とが特定可能となる。また、センサデータに含まれる深度によれば、物体50とセンサ装置30とのZ軸方向における距離の特定が可能となる。Z軸は、センサ装置30のセンシング面の法線に沿った軸である。
制御装置40において、操作入力特定部41は、本実施の形態では、センサデータを受け取ると、画像データと、画像の画素毎に付加された各深度とから、物体50の最も先端側(センサ装置30側)の部分の3次元空間での位置を特定する。そして、操作入力特定部41は、特定した位置を、空中投影面21上の位置に換算する。
具体的には、操作入力特定部41は、まず、物体の50の最も先端側の部分を抽出する。そして、操作入力特定部41は、センサデータから、抽出した部分の3次元空間での位置、即ち、X軸上の座標、Y軸上の座標、及び深度を特定する。
そして、図2に示すように、空中投影面21での垂直方向(Y軸方向)及び水平方向(X軸方向)と、センサ装置30におけるV軸方向、H軸方向及びZ軸方向との位置関係は、予め決まっている。従って、操作入力特定部41は、この位置関係から求められる換算式に、物体50の最も先端側の部分の3次元空間での位置を代入することによって、物体50の、空中投影面21の垂直方向における位置と、空中投影面21の水平方向における位置とを検出する。
図形設定部42は、物体50の一部分が、空中投影面21のセンサ装置30側に位置していると(図2において破線で示された状態)、センサデータから、そのことを検出する。具体的には、図形設定部42は、センサデータから、物体50の最も先端側の部分のZ座標(深度)が閾値以上であるかどうかを判定する。判定の結果、閾値以上でない(閾値より小さい)場合は、図形設定部42は、物体50の一部分は、空中投影面21のセンサ装置30側に位置しいていると判定する。
また、閾値は、物体50の位置に応じて設定される。例えば、図2において、物体50が空中投影面21の上側にあるときの閾値は、物体50が空中投影面21の下方側にあるときの閾値に比べて小さい値となる。
また、図4に示すように、図形設定部42は、本実施の形態では、センサデータにおいて物体50の最も先端側の部分を囲む矩形を設定する。このように矩形を設定するのは、空中投影面21のX軸方向とセンサデータのH軸方向とは一致するが、空中投影面21のY軸方向とセンサデータのV軸方向とは一致せず、物体50の一部分が空中投影面21のセンサ装置30側に位置すると、Y軸方向の位置に誤差が生じるからである。
深度補正部43は、本実施の形態では、設定された矩形の、V軸方向側にある2辺のうちのいずれか一辺における深度を用いて、操作入力特定部41が検出した、物体50の、空中投影面21の垂直方向における位置を補正する。
また、V軸方向側にある2辺のうちのいずれの辺の深度を用いるかは、物体50の位置に応じて決定される。例えば、センサ装置30のセンシング面の中央を通る法線と空中投影面21との交点よりも、物体50が垂直方向において下側にあるときは、V軸方向において上側の辺の深度によって補正が行われる。一方、物体50が、この交点よりも垂直方向において上側にあるときは、V軸方向において下側の辺の深度によって補正が行われる。
更に、空中投影面21とセンサ装置30との位置関係に応じては、H軸方向側にある辺が用いられても良い。更に、これらの位置関係によっては、矩形以外の図形が設定されても良い。また、これらの位置関係に応じて、物体50の空中投影面21の水平方向における位置のみが補正される態様であっても良いし、垂直方向及び水平方向の両方向における位置が補正される態様であっても良い。
[装置動作]
次に、本実施の形態における操作入力装置100の動作について図4を用いて説明する。図4は、本発明の実施の形態における操作入力装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図3を参酌する。また、本実施の形態では、操作入力装置100を動作させることによって、操作入力方法が実施される。よって、本実施の形態における操作入力方法の説明は、以下の操作入力装置100の動作説明に代える。
まず、センサ装置30は、設定間隔をおいて、センサデータを連続して出力しているとする。制御装置40は、センサデータが出力されてくると、その度に、これを受け取り、以下の処理を実行する。
図4に示すように、最初に、制御装置40において、操作入力特定部41は、センサデータに含まれる画像データと各深度とから、物体50の最も先端側(センサ装置30側)の部分を抽出する(ステップA1)。
次に、操作入力特定部41は、ステップA1で特定した部分の3次元空間での位置を特定し、特定した位置から、物体50の最も先端側の部分の空中投影面21上の位置を検出する(ステップA2)。
具体的には、操作入力特定部41は、センサデータから、抽出した部分の3次元空間での位置、即ち、X軸上の座標、Y軸上の座標、及び深度を特定する。そして、操作入力特定部41は、位置関係から求められる換算式に、特定した3次元空間での位置を代入し、物体50の最も先端側の部分の、空中投影面21の垂直方向における位置と、空中投影面21の水平方向における位置とを検出する。
次に、図形設定部42は、センサデータから、物体50の最も先端側の部分のZ座標(深度)が閾値以上であるかどうかを判定する(ステップA3)。
ステップA3の判定の結果、Z座標が閾値以上である場合は、図形設定部42は、そのことを操作入力特定部41に通知する。これにより、操作入力特定部41は、ステップA2で検出した位置に基づいて、ユーザの操作入力を特定する(ステップA4)。
一方、ステップA3の判定の結果、Z座標が閾値以上でない(閾値より小さい)場合は、物体の最も先端側の部分は、空中投影面21のセンサ装置30側に位置している。従って、図3に示すように、図形設定部42は、センサデータにおいて物体50の最も先端側の部分を囲む矩形を設定する(ステップA5)。
次に、深度補正部43は、物体50の位置に応じて、設定された矩形の一辺を選択し、選択した一辺における深度を用いて、ステップA2で検出された、物体50の最も先端側の部分の空中投影面21上の位置を補正する(ステップA6)。
ステップA6が実行されると、深度補正部43は、位置が補正されたことを操作入力特定部41に通知する。これにより、操作入力特定部41は、補正後の位置に基づいて、ユーザの操作入力を特定する(ステップA4)。
上述のステップA1からA4は、操作入力装置100の起動が停止されるまで、繰り返し実行される。
以上のように本実施の形態では、ユーザの指先といった物体50が、空中投影面21よりも奥に位置してしまった場合は、物体50の空中投影面21上の位置が補正される。従って、本実施の形態によれば、ユーザが空中投影面21上の操作画面をタッチして入力操作を行う場合において、ユーザが誤操作を行っても、タッチ位置の検出精度の低下が抑制される。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1〜A6を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における操作入力装置100の制御装置40を実現することができる。この場合、コンピュータのプロセッサは、操作入力特定部41、図形設定部42、及び深度補正部43として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、操作入力特定部41、図形設定部42、及び深度補正部43のいずれかとして機能しても良い。
ここで、本実施の形態におけるプログラムを実行することによって、操作入力装置100の制御装置40を実現するコンピュータについて図5を用いて説明する。図5は、本発明の実施の形態における操作入力装置の制御装置を実現するコンピュータの一例を示すブロック図である。
図5に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
なお、本実施の形態における制御装置40は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、制御装置40は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記15)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、制御装置と、を備え
前記センサ装置は、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力し、
前記制御装置は、
前記センサデータから、前記物体の前記空中投影面における位置を検出し、
更に、前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定し、そして、設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、
ことを特徴とする操作入力装置。
(付記2)
付記1に記載の操作入力装置であって、
前記制御装置は、前記センサデータにおいて、前記物体の一部分を囲む矩形を設定し、前記矩形のいずれか一辺における深度を用いて、前記物体の、前記空中投影面の垂直方向における位置、及び前記空中投影面の水平方向における位置のうちの一方又は両方を補正する、
ことを特徴とする操作入力装置。
(付記3)
付記2に記載の操作入力装置であって、
前記一辺は、前記空中投影面と前記センサ装置との位置関係に基づいて設定されている、
ことを特徴とする操作入力装置。
(付記4)
付記1〜3のいずれかに記載の操作入力装置であって、
前記制御装置は、前記センサデータにおける、前記物体の最も前記センサ装置側の部分の深度が閾値よりも小さい場合に、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していると判定する、
ことを特徴とする操作入力装置。
(付記5)
付記1〜4のいずれかに記載の操作入力装置であって、
前記センサ装置が、デプスセンサである、
ことを特徴とする操作入力装置。
(付記6)
操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、コンピュータと、を用い、前記センサ装置が、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力する、操作入力方法であって、
(a)前記コンピュータによって、前記センサデータから、前記物体の前記空中投影面における位置を検出するステップと、
(b)前記コンピュータによって、前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定する、ステップと、
(c)前記コンピュータによって、設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、ステップと、を有する、
ことを特徴とする操作入力方法。
(付記7)
付記6に記載の操作入力方法であって、
前記(c)のステップにおいて、前記センサデータにおいて、前記物体の一部分を囲む矩形を設定し、前記矩形のいずれか一辺における深度を用いて、前記物体の、前記空中投影面の垂直方向における位置、及び前記空中投影面の水平方向における位置のうちの一方又は両方を補正する、
ことを特徴とする操作入力方法。
(付記8)
付記7に記載の操作入力方法であって、
前記(c)のステップにおいて、前記一辺は、前記空中投影面と前記センサ装置との位置関係に基づいて設定されている、
ことを特徴とする操作入力方法。
(付記9)
付記6〜8のいずれかに記載の操作入力方法であって、
前記(b)のステップにおいて、前記センサデータにおける、前記物体の最も前記センサ装置側の部分の深度が閾値よりも小さい場合に、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していると判定する、
ことを特徴とする操作入力方法。
(付記10)
付記6〜9のいずれかに記載の操作入力方法であって、
前記センサ装置が、デプスセンサである、
ことを特徴とする操作入力方法。
(付記11)
操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、コンピュータと、を備え、前記センサ装置が、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力する、操作入力装置において、
前記コンピュータに、
(a)前記センサデータから、前記物体の前記空中投影面における位置を検出するステップと、
(b)前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定する、ステップと、
(c)設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、ステップと、
を実行させる、プログラム。
(付記12)
付記11に記載のプログラムであって、
前記(c)のステップにおいて、前記センサデータにおいて、前記物体の一部分を囲む矩形を設定し、前記矩形のいずれか一辺における深度を用いて、前記物体の、前記空中投影面の垂直方向における位置、及び前記空中投影面の水平方向における位置のうちの一方又は両方を補正する、
ことを特徴とするプログラム
(付記13)
付記12に記載のプログラムであって、
前記(c)のステップにおいて、前記一辺は、前記空中投影面と前記センサ装置との位置関係に基づいて設定されている、
ことを特徴とするプログラム
(付記14)
付記11〜13のいずれかに記載のプログラムであって、
前記(b)のステップにおいて、前記センサデータにおける、前記物体の最も前記センサ装置側の部分の深度が閾値よりも小さい場合に、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していると判定する、
ことを特徴とするプログラム
(付記15)
付記11〜14のいずれかに記載のプログラムであって、
前記センサ装置が、デプスセンサである、
ことを特徴とするプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年3月7日に出願された日本出願特願2018−41162を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように、本発明によれば、ユーザが、空中に表示された画面をタッチして、入力操作を行う場合において、ユーザの誤操作によるタッチ位置の検出精度の低下を抑制することができる。本発明は、空中投影面での入力が行われる各種装置において有用である。
10 表示装置
20 光学プレート
21 空中投影面
30 センサ装置
40 制御装置
41 操作入力特定部
42 図形設定部
43 深度補正部
50 物体
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (15)

  1. 操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、制御装置と、を備え
    前記センサ装置は、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力し、
    前記制御装置は、
    前記センサデータから、前記物体の前記空中投影面における位置を検出し、
    更に、前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定し、そして、設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、
    ことを特徴とする操作入力装置。
  2. 請求項1に記載の操作入力装置であって、
    前記制御装置は、前記センサデータにおいて、前記物体の一部分を囲む矩形を設定し、前記矩形のいずれか一辺における深度を用いて、前記物体の、前記空中投影面の垂直方向における位置、及び前記空中投影面の水平方向における位置のうちの一方又は両方を補正する、
    ことを特徴とする操作入力装置。
  3. 請求項2に記載の操作入力装置であって、
    前記一辺は、前記空中投影面と前記センサ装置との位置関係に基づいて設定されている、
    ことを特徴とする操作入力装置。
  4. 請求項1〜3のいずれかに記載の操作入力装置であって、
    前記制御装置は、前記センサデータにおける、前記物体の最も前記センサ装置側の部分の深度が閾値よりも小さい場合に、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していると判定する、
    ことを特徴とする操作入力装置。
  5. 請求項1〜4のいずれかに記載の操作入力装置であって、
    前記センサ装置が、デプスセンサである、
    ことを特徴とする操作入力装置。
  6. 操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、コンピュータと、を用い、前記センサ装置が、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力する、操作入力方法であって、
    (a)前記コンピュータによって、前記センサデータから、前記物体の前記空中投影面における位置を検出するステップと、
    (b)前記コンピュータによって、前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定する、ステップと、
    (c)前記コンピュータによって、設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、ステップと、を有する、
    ことを特徴とする操作入力方法。
  7. 請求項6に記載の操作入力方法であって、
    前記(c)のステップにおいて、前記センサデータにおいて、前記物体の一部分を囲む矩形を設定し、前記矩形のいずれか一辺における深度を用いて、前記物体の、前記空中投影面の垂直方向における位置、及び前記空中投影面の水平方向における位置のうちの一方又は両方を補正する、
    ことを特徴とする操作入力方法。
  8. 請求項7に記載の操作入力方法であって、
    前記(c)のステップにおいて、前記一辺は、前記空中投影面と前記センサ装置との位置関係に基づいて設定されている、
    ことを特徴とする操作入力方法。
  9. 請求項6〜8のいずれかに記載の操作入力方法であって、
    前記(b)のステップにおいて、前記センサデータにおける、前記物体の最も前記センサ装置側の部分の深度が閾値よりも小さい場合に、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していると判定する、
    ことを特徴とする操作入力方法。
  10. 請求項6〜9のいずれかに記載の操作入力方法であって、
    前記センサ装置が、デプスセンサである、
    ことを特徴とする操作入力方法。
  11. 操作画面を表示する表示装置と、前記操作画面を空中に投影して空中投影面を生成する光学プレートと、前記空中投影面に接触する物体の3次元空間での位置を検出するためのセンサ装置と、前記操作画面に対して行われた操作入力を特定する、コンピュータと、を備え、前記センサ装置が、センシングエリアにおける前記物体の2次元座標を特定するための情報と、当該センサ装置から前記物体までの深度とを含む、センサデータを出力する、操作入力装置において、
    前記コンピュータに、
    (a)前記センサデータから、前記物体の前記空中投影面における位置を検出するステップと、
    (b)前記センサデータから、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していることを検出すると、前記センサデータにおいて、前記物体の一部分を囲む図形を設定する、ステップと、
    (c)設定した前記図形の外縁における前記深度を用いて、前記物体の前記空中投影面における位置を補正する、ステップと、
    を実行させる、プログラム。
  12. 請求項11に記載のプログラムであって、
    前記(c)のステップにおいて、前記センサデータにおいて、前記物体の一部分を囲む矩形を設定し、前記矩形のいずれか一辺における深度を用いて、前記物体の、前記空中投影面の垂直方向における位置、及び前記空中投影面の水平方向における位置のうちの一方又は両方を補正する、
    ことを特徴とするプログラム
  13. 請求項12に記載のプログラムであって、
    前記(c)のステップにおいて、前記一辺は、前記空中投影面と前記センサ装置との位置関係に基づいて設定されている、
    ことを特徴とするプログラム
  14. 請求項11〜13のいずれかに記載のプログラムであって、
    前記(b)のステップにおいて、前記センサデータにおける、前記物体の最も前記センサ装置側の部分の深度が閾値よりも小さい場合に、前記物体の一部分が、前記空中投影面の前記センサ装置側に位置していると判定する、
    ことを特徴とするプログラム
  15. 請求項11〜14のいずれかに記載のプログラムであって、
    前記センサ装置が、デプスセンサである、
    ことを特徴とするプログラム
JP2020504657A 2018-03-07 2018-09-18 操作入力装置、操作入力方法、及びプログラム Active JP6898021B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018041162 2018-03-07
JP2018041162 2018-03-07
PCT/JP2018/034490 WO2019171635A1 (ja) 2018-03-07 2018-09-18 操作入力装置、操作入力方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019171635A1 JPWO2019171635A1 (ja) 2021-02-12
JP6898021B2 true JP6898021B2 (ja) 2021-07-07

Family

ID=67846002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020504657A Active JP6898021B2 (ja) 2018-03-07 2018-09-18 操作入力装置、操作入力方法、及びプログラム

Country Status (3)

Country Link
JP (1) JP6898021B2 (ja)
CN (1) CN111886567B (ja)
WO (1) WO2019171635A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023016352A1 (zh) * 2021-08-13 2023-02-16 安徽省东超科技有限公司 定位感测方法、定位感测装置及输入终端设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131785A (ja) * 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
WO2009131128A1 (ja) * 2008-04-22 2009-10-29 Fujishima Tomohiko 光学結像装置及びそれを用いた光学結像方法
JP5353596B2 (ja) * 2009-09-18 2013-11-27 セイコーエプソン株式会社 投写型表示装置、キーストン補正方法
JP5560771B2 (ja) * 2010-02-26 2014-07-30 セイコーエプソン株式会社 画像補正装置、画像表示システム、画像補正方法
JP2012073659A (ja) * 2010-09-01 2012-04-12 Shinsedai Kk 操作判定装置、指先検出装置、操作判定方法、指先検出方法、操作判定プログラム、及び、指先検出プログラム
JP5197777B2 (ja) * 2011-02-01 2013-05-15 株式会社東芝 インターフェイス装置、方法、およびプログラム
CN103620535B (zh) * 2011-06-13 2017-06-27 西铁城时计株式会社 信息输入装置
WO2013124901A1 (ja) * 2012-02-24 2013-08-29 日立コンシューマエレクトロニクス株式会社 光学投射型表示装置、携帯端末、プログラム
US9122916B2 (en) * 2013-03-14 2015-09-01 Honda Motor Co., Ltd. Three dimensional fingertip tracking
CN105593787B (zh) * 2013-06-27 2019-07-05 视力移动科技公司 用于与数字设备交互的直接指向检测的系统和方法
JP2015060296A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 空間座標特定装置
CN105765494B (zh) * 2013-12-19 2019-01-22 麦克赛尔株式会社 投影型影像显示装置和投影型影像显示方法
CN103677274B (zh) * 2013-12-24 2016-08-24 广东威创视讯科技股份有限公司 一种基于主动视觉的互动投影方法及系统
JP6510213B2 (ja) * 2014-02-18 2019-05-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システム、半導体集積回路、および画像補正方法
CN104375639A (zh) * 2014-07-17 2015-02-25 深圳市钛客科技有限公司 一种空中感应设备
CN104375638A (zh) * 2014-07-17 2015-02-25 深圳市钛客科技有限公司 感知设备、移动终端及空中感知系统
EP3239816A4 (en) * 2014-12-26 2018-07-25 Nikon Corporation Detection device, electronic instrument, detection method, and program
JPWO2016121708A1 (ja) * 2015-01-26 2017-11-24 Necソリューションイノベータ株式会社 入力システム、入力装置、入力方法、および、プログラム
JP2017062709A (ja) * 2015-09-25 2017-03-30 新光商事株式会社 ジェスチャー操作装置

Also Published As

Publication number Publication date
WO2019171635A1 (ja) 2019-09-12
JPWO2019171635A1 (ja) 2021-02-12
CN111886567B (zh) 2023-10-20
CN111886567A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
US10310675B2 (en) User interface apparatus and control method
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
JP5802247B2 (ja) 情報処理装置
US10042426B2 (en) Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium
JP2014143548A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
WO2010017711A1 (zh) 一种图形触摸命令的执行方法、装置及移动终端
JP7300304B2 (ja) ペン状態検出回路及びペン状態検出方法
US10185399B2 (en) Image processing apparatus, non-transitory computer-readable recording medium, and image processing method
US20150294439A1 (en) Information processing device, image projection device and image processing method
US10146331B2 (en) Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates
JP6898021B2 (ja) 操作入力装置、操作入力方法、及びプログラム
EP3032380A1 (en) Image projection apparatus, and system employing interactive input-output capability
JP2018018308A (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP6555958B2 (ja) 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6643825B2 (ja) 装置及び方法
JP2018063555A (ja) 情報処理装置、情報処理方法及びプログラム
JP2016153996A (ja) 座標取得システム、ディスプレイ装置、座標取得方法およびプログラム
US20140201687A1 (en) Information processing apparatus and method of controlling information processing apparatus
US10044904B2 (en) Apparatus, image reading method, and storage medium for reading an image of a target object
JP7452917B2 (ja) 操作入力装置、操作入力方法及びプログラム
TWI522871B (zh) 光學觸控系統之物件影像之處理方法
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
WO2021258506A1 (zh) 分区触控方法、装置、电子设备及存储介质
JP2017117372A (ja) 操作装置とその制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210603

R150 Certificate of patent or registration of utility model

Ref document number: 6898021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150