JP2007141177A - 操作入力装置 - Google Patents
操作入力装置 Download PDFInfo
- Publication number
- JP2007141177A JP2007141177A JP2005337677A JP2005337677A JP2007141177A JP 2007141177 A JP2007141177 A JP 2007141177A JP 2005337677 A JP2005337677 A JP 2005337677A JP 2005337677 A JP2005337677 A JP 2005337677A JP 2007141177 A JP2007141177 A JP 2007141177A
- Authority
- JP
- Japan
- Prior art keywords
- operation position
- user
- area
- translucent screen
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】撮影手段から入力した画像を基にユーザの入力操作位置を特定する処理が簡単で、しかもより的確にその操作位置を特定することができる操作入力装置を提供する。
【解決手段】操作入力装置は、半透明スクリーン2にプロジェクタ3で選択ボタンを表示し、半透明スクリーン2の背面2aをカメラ5で撮影し、その撮影画像の輝度変化を見て操作位置を検出する。カメラ5の撮影画像の輝度が変化した際、その時点での輝度と、プロジェクタ3の散乱光C1の差ベクトルを求め、その差ベクトルが環境光C2と平行であるものについては影として、操作位置検出対象から除外する。そして、影部分を除去した後の画像データから輝度変化を見て、輝度変化の大きい部分をユーザの指や手と認識して操作位置を導出する。
【選択図】図4
【解決手段】操作入力装置は、半透明スクリーン2にプロジェクタ3で選択ボタンを表示し、半透明スクリーン2の背面2aをカメラ5で撮影し、その撮影画像の輝度変化を見て操作位置を検出する。カメラ5の撮影画像の輝度が変化した際、その時点での輝度と、プロジェクタ3の散乱光C1の差ベクトルを求め、その差ベクトルが環境光C2と平行であるものについては影として、操作位置検出対象から除外する。そして、影部分を除去した後の画像データから輝度変化を見て、輝度変化の大きい部分をユーザの指や手と認識して操作位置を導出する。
【選択図】図4
Description
本発明は、ユーザが機器を稼働させる際に行う操作を、撮影画像を用いて検出する操作入力装置に関する。
従来、カーナビゲーションシステム等の車載機器への入力操作を検出する操作入力装置として、例えば車両に配設された画面へのタッチ操作をタッチセンサで検出するタッチ操作入力装置が使用されている。この種のタッチ操作入力装置としては、例えば画面の入力操作位置を絶対位置で検出する絶対位置検出式のものや、或いは画面への入力操作時の操作量及び操作方向を相対位置で検出する相対位置検出式のものがある。
しかし、このタッチ操作入力装置は、ユーザによる画面へのタッチ操作をタッチセンサで検出するものであるため、ユーザが指等で触れる接触部分においてタッチセンサが劣化する問題は否めない。従って、操作入力装置の耐久性を向上するために、この種のタッチセンサを用いずにユーザの入力操作を検出可能な入力操作装置が望まれていた。
そこで、特許文献1〜3等には、スクリーンにプロジェクタ等で各種選択ボタンを映し出し、そのスクリーンをカメラで撮影して、ユーザによるスクリーン上の選択ボタンの操作を、カメラからの撮影画像を基に検出するカメラ撮影式の操作入力装置が開示されている。この種のカメラ撮影式の操作入力装置を使用すれば、ユーザが指等でセンサに触れる等の操作が必要ないことから、その接触部分におけるセンサの劣化等の問題が生じず、操作入力装置の高い耐久性が確保される。
特開平2−132510号公報
特開2002−157079号公報
特開平4−271423号公報
しかし、特許文献1の技術については、操作入力装置が入力操作の操作位置を特定するに際して、カメラで取り込んだ画像データ(画像信号)の2値化処理、細線化処理、画像端点の検出処理等の複雑で多工程に亘る画像処理が必要となるため、その操作位置特定処理の煩雑化を招く。よって、入力操作が行なわれてから操作位置が特定されるまでに時間を要する場合があり、入力操作から実際に操作入力装置が稼働するまでに間が生じて、スムーズな操作感覚を確保できない場合がある。また、特許文献2に関しても、画像データのピクセル変換、ピクセル変化の傾向分析、物件動作の移行判断等の画像処理が必要となるため、特許文献1と同様の問題が生じる。
次いで、特許文献3は、指示目標物体を指し示す先端点と、指示操作を行う際の基準位置となる基準点との直線をとり、この直線上の先端にある位置を指示目標物体として検出する技術である。しかし、この技術においては基準点のキャリブレーションが必要であるため、特許文献1,2と同様に操作位置指定処理の煩雑化を招く。また、この種のキャリブレーションが必要であるとすると、面倒な作業をユーザに課すことになり、操作入力装置の使い勝手をよくするためには、この種の作業を不要にしたい要望もある。特に、この技術を車載機器に用いた場合、運転者にキャリブレーションを毎回課すのは酷であり、実用には向かない。
本発明の目的は、撮影手段から入力した画像を基にユーザの入力操作位置を特定する処理が簡単で、しかもより的確にその操作位置を特定することができる操作入力装置を提供することにある。
前記問題点を解決するために、本発明によれば、半透明スクリーンと、前記半透明スクリーンの表示面に背面側から表示物を投影する投影手段と、前記半透明スクリーンを背面側から撮影する撮影手段と、前記撮影手段で取得した画像データの輝度と、前記投影手段が前記投影時に出す光のうち当該スクリーンで散乱する散乱光の輝度との間の差を求め、当該差と、前記半透明スクリーンの表示面側から入力する環境光の輝度とを比較することにより、前記画像データから影部分を除去する影除去手段と、前記影部分を除去した前記画像データの輝度の変化を基に、前記半透明スクリーンの表示面におけるユーザの操作位置を検出する操作位置検出手段と、前記操作位置検出手段が検出した前記操作位置と、前記投影手段が投影した前記表示物の座標位置とを比較し、これら位置が一致したことを条件に前記表示物に応じた処理を実行させる実行手段とを備えたことを要旨とする。
この構成によれば、半透明スクリーンの背面側から投影手段が各種表示物を投影することによって、半透明スクリーンの表示面(正面)には、各種機器を作動操作させる際に選択操作される選択ボタン等が表示される。この表示物としては、例えば機器の電源オンボタン、作動モードの選択ボタン、電源オフボタン等がある。機器を作動させるには、ユーザが半透明スクリーン上の所望の表示物を指等で触れることによって、入力操作を行うことになる。
ところで、半透明スクリーンは背面が撮影手段によって常時撮影され、その画像データが操作位置検出手段に転送される。ここで、半透明スクリーンの表示物に指や手などをかざした際には、投影手段から投影された光がユーザの指や手などで反射し、その反射光が撮影手段に向かう過程で拡散するため、指(手)が半透明スクリーンに近い部位ほど輝度(画素値)が高くなる。よって、操作位置検出手段は、撮影手段から取得した画像データを用い、輝度が大きく変化した部分をユーザによる操作位置として検出する。そして、操作位置検出手段が検出した操作位置と、投影手段が投影した表示物との座標位置とが実行手段によって比較され、これら両位置が一致した際には、その操作位置にある表示物に応じた処理が実行手段によって実行される。
従って、本発明においては、ユーザが半透明スクリーンの表示体を選択操作する際に半透明スクリーンに生じる輝度の変化を見て入力操作位置を判断するという簡単な手法で、ユーザによる入力操作位置を特定することが可能となる。このため、入力操作が行われてから操作位置を特定するまでに要する処理時間を短く済ますことが可能となり、入力操作が行われてからその操作に応じた処理が稼働するまでに間が生じ難くなって、スムーズな操作間隔を確保することも可能となる。
しかし、輝度の変化を見て操作位置を検出する手法を用いた場合、例えば半透明スクリーンに影が映ると、その影の部分においても輝度が変化することから、ただ単に輝度変化を見て検出する手法では、影部分まで操作位置として検出してしまう問題が生じ、操作位置の誤検出に繋がる。しかし、本発明においては、撮影手段が取得した画像データから影部分を除去する影除去手段を設けたので、半透明スクリーンに影が生じたとしても、この影部分が操作入力位置対象から除外されるため、操作位置の誤検出が生じ難くなり、操作入力装置の位置検出の信頼性が向上する。
本発明によれば、前記影除去手段は、前記画像データの前記輝度と前記散乱光の前記輝度との間の差ベクトルを求め、当該差ベクトルと、前記環境光の前記輝度におけるベクトルとの成す角度が、影判断の基準となる閾値以下の部分を影として認識し、その部分を操作位置検出の対象から除外することを要旨とする。
この構成によれば、各種光の輝度をベクトルに見立てた精度の高い手法で、操作位置を検出することが可能となる。
この構成によれば、各種光の輝度をベクトルに見立てた精度の高い手法で、操作位置を検出することが可能となる。
本発明によれば、前記操作位置検出手段は、前記画像データの前記輝度の変化値と、前記表示面への接触判断の基準となる第2閾値とを比較し、前記変化値が前記第2閾値以上となる領域を前記ユーザが前記表示面に触れている接触領域として検出し、前記操作位置を複数検出した際、前記画像データの輝度の変化値から求まる特性値の最も高い操作位置を、ユーザが意図する操作位置として特定することを要旨とする。
この構成によれば、ユーザが半透明スクリーンに触れて入力操作を行う際、ユーザが意図しない部位が半透明スクリーンに触れて、複数箇所で同時に入力操作が行なわれる場合がある。しかし、このように複数の操作位置でユーザが半透明スクリーンに触れても、各操作位置の輝度に関して特性値(例えば、操作方向における位置、半透明スクリーンに触れた際の接触面積等)が最も高いものを、ユーザが意図する入力位置として検出する。よって、同時入力が生じても、ユーザが意図しない操作位置を入力位置として検出し難くなる。
本発明によれば、前記操作位置検出手段は、前記操作位置を複数検出した際、前記ユーザが前記表示物を選択操作する際の操作方向に対し、当該操作方向の最先端に位置する前記接触領域を前記操作位置として特定することを要旨とする。
この構成によれば、ユーザが半透明スクリーンに触れて入力操作を行う際には、例えば手の最先端部位(例えば人差し指の先端)で半透明スクリーンを触るが、この入力操作においては、この操作部位以外の部位も同時に半透明スクリーンに触れてしまう場合がある。しかし、このような同時入力が生じても、これら複数ある接触領域のうち操作方向の最先端に位置するものを、ユーザが入力操作として行った部位の接触領域として認識する。よって、操作方向の最先端に位置するものは、ユーザが意図して入力する操作位置である確率が高いため、より的確に操作位置を選別することが可能となる。
本発明によれば、前記操作位置検出手段は、前記半透明スクリーンの区画域である第1領域及び第2領域の各々において、前記変化値が前記2閾値よりも低い値の第3閾値以上で、かつ当該第2閾値よりも低い値となる領域を前記ユーザの操作部位の画像として認識し、前記第1領域に表示される第1操作部位画像と、前記第2領域に表示される第2操作部位画像との各々で重心を算出し、これら重心を通るとともに前記第2操作部位画像の重心から前記第1操作部位画像の重心に向かう先端方向ベクトルを前記操作方向として算出することを要旨とする。
この構成によれば、先端方向ベクトルはその時々の入力操作の際に、その操作部位の操作方向に応じて適宜算出されるため、例えば先端方向ベクトルを固定値データとした場合に比べて、先端方向ベクトルの精度がよくなる。従って、ユーザが入力を行うに際して同時入力が発生しても、ユーザが意図しない間違った接触領域を、ユーザが入力操作として行った部位の接触領域として認識し難くなり、誤入力発生防止に一層効果がある。
本発明によれば、前記操作位置検出手段は、前記接触領域を前記先端方向ベクトルに写像することによって、複数の前記接触領域の中から最先端に位置する接触領域を特定することを要旨とする。
この構成によれば、複数の接触領域が存在する場合、これら接触領域を先端方向ベクトルに写像して接触領域の位置を比較するため、複数の接触領域から最先端に位置するものを選別する際の精度が高まり、このことも誤入力発生防止に一層効果がある。
本発明によれば、撮影手段から入力した画像を基にユーザの入力操作位置を特定する処理が簡単で、しかもより的確にその操作位置を特定することができる。
以下、本発明を具体化した操作入力装置の一実施形態を図1〜図8に従って説明する。
図1及び図2に示すように、車両のセンタークラスター1には、光を半透過可能な半透明スクリーン2が取り付けられている。半透明スクリーン2は、本例において例えば像性能を有する拡散性のプラスティック材のシートから成るとともに、形状としては四角形の平板形状を成している。
図1及び図2に示すように、車両のセンタークラスター1には、光を半透過可能な半透明スクリーン2が取り付けられている。半透明スクリーン2は、本例において例えば像性能を有する拡散性のプラスティック材のシートから成るとともに、形状としては四角形の平板形状を成している。
図2に示すように、半透明スクリーン2の背面2aには、半透明スクリーン2に画像を投影するプロジェクタ3が車体に取付固定されている。プロジェクタ3は、RGB各々のフィルタを通した光を合成して画像を投影する装置であって、例えば液晶プロジェクタが使用されている。プロジェクタ3は、カーナビゲーションシステム、空調システム及びオーディオシステム等の車載機器を作動させる際に操作する各種選択ボタン4を、半透明スクリーン2の背面から半透明スクリーン2の表面に投影する。このため、半透明スクリーン2の表面は、各種選択ボタン4が表向き状態で表示された表示面2bとなり、操作入力装置の操作パネルとして機能する。なお、プロジェクタ3が投影手段に相当し、選択ボタン4が表示体に相当する。
半透明スクリーン2の背面2aには、背面2a側から半透明スクリーン2を撮影するカメラ5がプロジェクタ3に並設状態で車体に固着されている。カメラ5は、画像を可視光で撮影可能なCMOS(Complementary Metal Oxide Semiconductor)カメラ等が使用され、半透明スクリーン2の背面2aの全域を撮影可能である。本例においては、半透明スクリーン2に表示された選択ボタン4のタッチ操作が、カメラ5で取得した画像データの輝度(例えば、輝度K)の変化を見ることで検出されるため、カメラ5で取得した撮影画像は輝度Kの変化が見られれば充分であることから、カメラ5の画素数は例えば数十万画素程度あればよい。なお、カメラ5が撮影手段に相当する。
図3に示すように、車両には、操作入力装置を統括制御する操作位置検出回路6が搭載されている。操作位置検出回路6は、ユーザが選択ボタン4をタッチ操作する際のその操作位置Pxを算出し、半透明スクリーン2上のどの選択ボタン4がタッチ操作されたかを判定する。操作位置検出回路6には、車載機器を制御する車載機器制御回路7が接続されている。車載機器制御回路7は、操作位置検出回路6からの指令に基づき各種車載機器を作動させる。
操作位置検出回路6は、同検出回路6のメイン制御を司るCPU(Ce ntral processing Unit)8と、各種プログラム及びデータ群を記憶したROM(Read-Only Memory)9と、プログラム実行時においてCPU8の作業領域となるRAM(Random Access Memory)10と、各種データの入出口となるインターフェース11とを備えている。これらデバイスは、操作位置検出回路6内のバス12を通じて相互接続されている。なお、CPU8が影除去手段、操作位置検出手段及び実行手段を構成する。
プロジェクタ3及びカメラ5は、各々の配線ケーブルを介してインターフェース11に接続されている。インターフェース11には、カメラ5から取り込んだ画像データDaのノイズを除去可能なノイズ除去回路13が接続されている。インターフェース11は、カメラ5から取り込んだ画像データDaをノイズ除去回路13に送り、ノイズ除去回路13でノイズを除去した後に、画像データDaをCPU8やRAM10へ転送する。
ROM9には、ユーザが表示面2b上の選択ボタン4を選択操作する際のその操作位置Pxを検出する操作位置検出プログラムが記憶されている。この操作位置検出プログラムは、カメラ5で取り込んだ画像データDaに影除去処理を施して画像データDaから影部分を除去し、影除去後の画像データDaを基に操作位置算出処理を施してユーザの操作位置(X−Y座標位置)Pxを検出するプログラムである。
車両のエンジンスイッチ(図示略)がACC位置やIG位置に操作されると、その操作を検出したCPU8は、ROM9の操作位置検出プログラムを立ち上げて操作位置検出処理を開始する。このとき、CPU8は、インターフェース11を介してプロジェクタ3に起動開始指令及び表示データDbを出力する。プロジェクタ3は、操作位置検出回路6から起動開始指令を入力すると起動を開始し、同じく操作位置検出回路6から入力する表示データDbに基づく表示画面(即ち、選択ボタン4)を半透明スクリーン2に投影する。
CPU8は、プロジェクタ3に起動開始指令を出力するのと同様に、インターフェース11を介してカメラ5にも起動開始指令を出力する。カメラ5は、操作位置検出回路6から起動開始指令を入力すると起動を開始し、半透明スクリーン2を背面2aから撮影して、その画像データDaを操作位置検出回路6に出力する。カメラ5は、CPU8から起動開始指令を受け取る度に数十〜数百μsの時間範囲で画像撮影を行い、起動開始指令を連続的に受け取ることで、連続画像を操作位置検出回路6に出力する。
CPU8は、カメラ5が出力した画像データDaを、ノイズ除去回路13を介して取り込み、ノイズ除去後の画像データDaを用いて撮影画像の輝度Kを逐次算出する。ところで、ユーザが半透明スクリーン2を表示面2b側からタッチ操作すると、プロジェクタ3から投影される光は指や手などで反射し、その反射光が拡散することから、指や手が半透明スクリーン2に近い部分ほど撮影画像の輝度Kが高く(光が明るく)なる。よって、CPU8は、ユーザが選択ボタン4に触れていない通常時における輝度K0と、輝度変化が生じた際の輝度Kxとの差分Mを算出し、差分Mが閾値Ma以上となる部分をユーザの指や手などとして切り出し、ユーザの操作位置Pxを算出する。なお、差分Mが変化値に相当する。
CPU8は、算出した操作位置Pxと、各選択ボタン4の座標位置とを比較し、操作位置Pxが選択ボタン4の座標位置に重なったと判断すると、選択ボタン4がタッチ操作されたと認識して、その旨を通知する作動要求信号Ssを車載機器制御回路7に出力する。
車載機器制御回路7は、操作位置検出回路6から作動要求信号Ssを入力すると、この作動要求信号Ssに応じた車載機器を作動させる。例えば、半透明スクリーン2でカーナビゲーションシステムの電源オンボタンが選択操作された場合には、カーナビゲーションシステムを起動させ、カーナビゲーションシステムの起動下で行き先入力ボタンが選択操作された場合には、カーナビゲーションシステムの作動モードを行き先入力モードに切り換える。
次に、操作位置算出時にCPU8が行う影除去処理の詳細を説明する。
半透明スクリーン2の背面2aをカメラ5で撮影し、カメラ5の撮影画像の画像変化からユーザの操作位置Pxを検出するシステムにおいては、カメラ5が取得する光として図4に示す3つの光がある。即ち、この3つの光としては、プロジェクタ3が半透明スクリーン2に投影した光のうち背面2aで散乱する散乱光C1と、半透明スクリーン2の表示面2bを照らす環境光(太陽光や車内灯の光)C2と、半透明スクリーン2に指や手などをかざした際にこの指や手で反射するプロジェクタ3の反射光C3の3つがある。
半透明スクリーン2の背面2aをカメラ5で撮影し、カメラ5の撮影画像の画像変化からユーザの操作位置Pxを検出するシステムにおいては、カメラ5が取得する光として図4に示す3つの光がある。即ち、この3つの光としては、プロジェクタ3が半透明スクリーン2に投影した光のうち背面2aで散乱する散乱光C1と、半透明スクリーン2の表示面2bを照らす環境光(太陽光や車内灯の光)C2と、半透明スクリーン2に指や手などをかざした際にこの指や手で反射するプロジェクタ3の反射光C3の3つがある。
ここで、散乱光C1、環境光C2及び反射光C3等の光は、色の3原色であるRGBの組み合わせからなるものである。従って、散乱光C1、環境光C2及び反射光C3の3光線をRGB空間にベクトルとして表すと、図5に示すように、RGBの原点を基点に各々輝度Kの大きさに応じた方向及び長さを有するベクトル(散乱光ベクトルB1、環境光ベクトルB2、反射光ベクトルB3)で表示される。
また、カメラ5の撮影画像で分類すべき画像種類は、大きく分けて以下の3つがある。即ち、図6に示すように、カメラ5に指や手などが映っていない通常部分14aと、半透明スクリーン2の表示面2bに指や手をかざした際にその部分を映し出す指部分(手を含むが便宜上、指部分と言う)14bと、半透明スクリーン2に指や手などをかざした際に指や手などの影部分を撮影した影部分14cの3種類である。
このうち、半透明スクリーン2に指や手などがかざされていなければ、環境光C2が半透明スクリーン2の背面2a側へ透過することから、撮影画像の通常部分14aには、散乱光C1と環境光C2とを足した光(通常部分:散乱光C1+環境光C2)が映し出される。また、半透明スクリーン2に指や手などをかざした場合、指や手などで環境光C2は遮られるものの、指(手)と表示面2bとの距離が近ければ、プロジェクタ3の光が指や手などで反射することから、撮影画像の指部分14bには、散乱光C1と反射光C3とを足した光(指部分:散乱光C1+反射光C3)が映し出される。更に、半透明スクリーン2に影が生じた場合、その影部分においては指や手などが半透明スクリーン2に近づいているわけではないので、プロジェクタ3の光が指や手などで反射する現象が起きないことから、撮影画像の影部分14cには、散乱光C1のみに起因する光(影部分:散乱光C1)となる。
ここで、本例においては、ユーザが選択ボタン4に触れていない通常時における輝度K0と、輝度変化が生じた際の輝度Kxとの差分Mを算出し、差分Mが閾値Ma以上となる部分をユーザの指や手などとして切り出す処理を経て操作位置Pxを検出する手法を用いている。ところが、この手法を用いた場合、影部分14cにおいても輝度Kの変化が生じることから、ただ単に差分Mをとるだけでは、影部分14cも指として認識してしまい、操作位置Pxの検出に際して誤検出が生じてしまう。
そこで、本例においては、以下の手法を用いて撮影画像の影部分14cを操作位置検出対象から外している。まず、散乱光C1、環境光C2及び反射光C3の3光線のうちの散乱光C1は、投影する画像から既知である。このため、撮影画像の通常部分14aは、上述したように散乱光C1と環境光C2とを足した光であることから、撮影画像から散乱光C1を引けば、環境光C2の値を求めることが可能である。
よって、撮影画像の輝度Kが変化した際、その時点での撮影画像の輝度Kxと、散乱光C1の輝度Kc1との間の差ベクトルBx(図5参照)を求め、この差ベクトルBxが環境光ベクトルB2と平行であれば、その時に入力した画像は影であると認識することが可能である。即ち、指部分14bの光は散乱光C1と反射光C3とを加えた光であるため、もし撮影画像の光が指部分14bの光であれば、その光から散乱光C1を引いた差ベクトルBxは、反射光ベクトルB1となるため、差ベクトルBxが環境光ベクトルB2に対し角度を持った値となるはずである。従って、CPU8は、撮影画像の輝度Kが変化した際、差ベクトルBxと環境光ベクトルB2との成す角度θが、影判断の基準となる閾値θa以下であれば、その部分の画像を影と認識して操作位置検出対象から外すようにする。
次に、CPU8が行う操作位置算出処理の詳細を説明する。
図3及び図7に示すように、半透明スクリーン2上で選択ボタン4を表現する各ドットのX−Y座標位置(x,y)は、選択ボタン4の表示サイズや、プロジェクタ3の設置位置及び設置角度に基づく選択ボタン4の表示位置等によって決まる。よって、操作位置検出プログラムにこの座標位置(x,y)に関する座標位置データを組み込んでおけば、CPU8は表示データDbをプロジェクタ3に投影させる際、各選択ボタン4が半透明スクリーン2上でどの座標位置(x,y)に位置しているかを認識することが可能である。
図3及び図7に示すように、半透明スクリーン2上で選択ボタン4を表現する各ドットのX−Y座標位置(x,y)は、選択ボタン4の表示サイズや、プロジェクタ3の設置位置及び設置角度に基づく選択ボタン4の表示位置等によって決まる。よって、操作位置検出プログラムにこの座標位置(x,y)に関する座標位置データを組み込んでおけば、CPU8は表示データDbをプロジェクタ3に投影させる際、各選択ボタン4が半透明スクリーン2上でどの座標位置(x,y)に位置しているかを認識することが可能である。
カメラ5から撮影画像を取得したCPU8は、ユーザが選択ボタン4に触れていない通常時における輝度K0と、輝度変化が生じた際の輝度Kxとの間の差分Mを算出し、その差分Mが接触判定閾値Ka以上(M≧Kaが成立)となる領域を判別する。この接触判定閾値Kaは、差分Mがこの値以上となれば、ユーザが半透明スクリーン2に触れていると判断可能な値に設定されている。よって、CPU8は、差分Mが接触判定閾値Ka以上となる領域を、ユーザが半透明スクリーン2に触れている接触領域15として判別する。
CPU8は、この接触判定閾値Kaを用いた判別とともに、差分Mが接触判定閾値Kaよりも小さく手領域判定閾値Kb以上となる範囲(Kb≦M<Kaが成立)となる領域を判別する。この手領域判定閾値Kbは、図8に示すように接触判定閾値Kaよりも低い値として設定された閾値であり、差分MがKb≦M<Kaの範囲内にあれば、その部分が入力操作を行っているユーザの手であると判断可能な値に設定されている。CPU8は、差分Mが接触判定閾値Kaよりも小さく手領域判定閾値Kb以上となる範囲となる領域を、ユーザの手が位置する手領域16として判別する。なお、接触判定閾値Kaが第2閾値に相当し、手領域判定閾値Kbが第3閾値に相当する。
ここで、図7に示すように、ユーザが例えば人差し指で選択ボタン4を操作する際、人差し指以外の手の部分が半透明スクリーン2に同時に触れてしまうと、接触領域15が複数検出されてしまうことになる。このように、入力操作が複数箇所で同時に行なわれてしまうと、ユーザの意図しない選択ボタン4が入力操作されることになるため、このような状況下においては、これら複数の接触領域15a,15b…のうち人差し指に相当する接触領域15aを選別する必要がある。
そこで、CPU8は以下の手順によって接触領域15を選別する。まず前提条件として、予めCPU8は、半透明スクリーン2の背面2aのうちプロジェクタ3が選択ボタン4を投影している領域をボタン投影領域E1として認識している。本例においてプロジェクタ3は半透明スクリーン2の中央上部寄りに各種選択ボタン4を投影しているため、この領域がボタン投影領域E1となっている。また、本例においては半透明スクリーン2の背面全体をカメラ5の撮影領域としており、CPU8はこのカメラ撮影領域とボタン投影領域E1との差の部分を差領域E2として認識している。なお、ボタン投影領域E1が第1領域に相当し、差領域E2が第2領域に相当する。
続いて、CPU8は、ユーザが半透明スクリーン2を操作する際の手の操作方向(以下、先端方向ベクトルBkと記す)を算出する。この先端方向ベクトルBkの算出処理として、CPU8は先程算出した手領域16をボタン投影領域E1と差領域E2とで区分し、ボタン投影領域E1の手領域である第1手領域16aにおいて重心G1を算出し、差領域E2の手領域である第2手領域16bおいて重心G2を算出する。重心G1,G2は半透明スクリーン2の画素単位の値として算出され、重心座標を(xg,yg)、画像データDaから得られた手領域16a(16b)の画素数をn、各画素のx座標値をxk、各画素のy座標値をykとすると次式によって求められる。
続いて、CPU8は、重心G1と重心G2を通るとともに、差領域E2の重心G2からボタン投影領域E1の重心G1に向かうベクトルを先端方向ベクトルBkとして算出する。即ち、2点の座標が分かれば、この座標を減算すればベクトルが算出可能であるため、本例においては重心G1から重心G2を減算することによって先端方向ベクトルBk(=G1−G2)を算出する。
先端方向ベクトルBkの算出後、CPU8は接触領域15が複数ある場合、各接触領域15a,15b…の写像をとることによって、接触領域15a,15b…を先端方向ベクトルBk上に置き換える。写像をとる手順として、各手領域16a,16bで重心G1,G2を算出した場合と同様の手順で、CPU8は各々の接触領域15a,15b…において重心Gs1,Gs2,…をとる。続いて、CPU8はこれら重心Gs1,Gs2,…から先端方向ベクトルBkに下ろした垂線の足の座標を接触点Ps1,Ps2…として算出する。これら接触点Ps1,Ps2…も、半透明スクリーン2の画素単位の値として算出される。CPU8は、これら接触点Ps1,Ps2…の中から先端方向ベクトルBkに対して最先端に位置する接触点(本例はPs1)を、ユーザが意図する操作位置Pxとして選別する。なお、先端方向ベクトルBk上の座標位置が特性値に相当する。
CPU8は、選別した操作位置Pxと、半透明スクリーン2に表示された選択ボタン4の座標位置(x,y)とを比較する。ところで、1つの選択ボタン4は複数のドットから成り立っているため、CPU8は操作位置Pxがこれら座標位置(x,y)のどれかに重なっていれば、それをユーザが選択した選択ボタン4と選定し、その選択ボタン4に応じた作動要求信号Ssを車載機器制御回路7に出力する。車載機器制御回路7は、操作位置検出回路6から作動要求信号Ssを入力すると、その作動要求信号Ssに基づき車載機器を作動させる。
従って、本例においては、ユーザが半透明スクリーン2の選択ボタン4を操作する際には、半透明スクリーン2に輝度Kの変化が生じるため、この輝度Kの変化(差分M)を見て入力操作時の操作位置Pxを判断するという簡単な手法で、ユーザによる半透明スクリーン2上の操作位置Pxを認識することが可能となる。このように、入力操作が行なわれてから操作位置Pxが特定されるまでにCPU8が行う処理が簡単になれば、その分だけ操作位置判定に要する時間が短く済むことになり、入力操作から車載機器作動までに間が生じ難くなって、スムーズな操作感覚が確保される。
また、本例のように輝度Kの差分Mをとって操作位置Pxを検出する手法を用いたとしても、カメラ5で取り込んだ撮影画像から影部分14cの光を除去するので、影部分を指や手として切り出し難くなる。よって、撮影画像中の影部分14cを指や手として認識し難くなり、操作位置Pxを検出する際に誤検出が生じ難くなる。
更に、ユーザが半透明スクリーン2に触れて入力操作を行う際、ユーザが意図しない指や手等が半透明スクリーン2に触れて、複数の箇所で接触領域15が生じる場合がある。ところで、ユーザが選択ボタン4を操作する際には人差し指の先端を用いて行うため、これら接触領域15a,15b…のうち先端方向ベクトルBkの最先端位置にあるものを操作位置Pxとして選別すれば、それはユーザが意図する操作位置Pxである確率が高い。従って、より的確にユーザの操作位置Pxを選別することが可能となる。
本実施形態の構成によれば、以下に記載の効果を得ることができる。
(1)半透明スクリーン2上に生じる輝度Kの変化(差分M)を見るという簡単な手法で、ユーザが選択ボタン4を操作する際の操作位置Pxを認識することができる。従って、選択ボタン4の入力操作が行なわれてから操作位置Pxを特定するまでの処理が簡単になり、操作位置判定に要する処理時間の短時間化、スムーズな操作感覚の確保、CPU8の処理負担軽減等の効果を得ることができる。また、本例のように輝度Kの差分Mをとって操作位置Pxを検出する手法を用いたとしても、カメラ5で取り込んだ撮影画像から影部分14cの光を除去するので、操作位置Pxを検出する際に誤検出を生じ難くすることができる。
(1)半透明スクリーン2上に生じる輝度Kの変化(差分M)を見るという簡単な手法で、ユーザが選択ボタン4を操作する際の操作位置Pxを認識することができる。従って、選択ボタン4の入力操作が行なわれてから操作位置Pxを特定するまでの処理が簡単になり、操作位置判定に要する処理時間の短時間化、スムーズな操作感覚の確保、CPU8の処理負担軽減等の効果を得ることができる。また、本例のように輝度Kの差分Mをとって操作位置Pxを検出する手法を用いたとしても、カメラ5で取り込んだ撮影画像から影部分14cの光を除去するので、操作位置Pxを検出する際に誤検出を生じ難くすることができる。
(2)ユーザが選択ボタン4を選択するに際して複数箇所で半透明スクリーン2に触れたとしても、これら複数の接触領域15a,15b…のうち先端方向ベクトルBkの最先端に位置するものがユーザの意図する操作位置Pxとして選択される。従って、ユーザが選択ボタン4の選択に際して、意図しない箇所で半透明スクリーン2に触れても、より的確にユーザの操作位置Pxを選別することができる。
(3)ユーザが選択ボタン4を操作する際には人差し指の先端を用いて行なうため、接触領域15が複数存在する場合、これら接触領域15a,15b…のうち先端方向ベクトルBkの最先端位置にあるものを操作位置Pxとして選別すれば、それはユーザが意図する操作位置Pxである確率が高い。よって、本例はそれをユーザが意図する操作位置Pxとして指定するので、より的確にユーザの操作位置Pxを選別することができる。
(4)先端方向ベクトルBkは、操作位置Pxを指定するに際して毎回算出されるため、例えばこのベクトルを固定値データとした場合に比べて、ベクトル値の精度がよくなる。従って、この先端方向ベクトルBkを用いて操作位置Pxを選別した場合に、ユーザが入力操作として行わなかった接触領域15を操作位置Pxとして選別し難くなり、誤入力発生防止に効果が高い。
(5)2つの重心G1,G2をとる領域が、半透明スクリーン2中央上部寄りの領域であるボタン投影領域E1と、このボタン投影領域E1及びカメラ撮影領域の差領域E2とである。従って、ユーザが半透明スクリーン2の選択ボタン4を操作する際には、手が2つの領域に亘って映り易いため、例えば1つの領域にのみ手が映って2つの重心G1,G2が算出できないような状況になり難い。
(6)複数の接触領域15a,15b…が生じた場合、これら接触領域15a,15b…を先端方向ベクトルBkに写像して、最先端に位置する接触領域15aを選別する。従って、これら接触領域15a,15b…のうち先端方向ベクトルBkに対して最先端に位置するものを選別する際の精度が一層向上し、誤入力発生防止効果に一層寄与する。
なお、本実施形態は上記構成に限定されず、以下の態様に変更してもよい。
・ 影除去処理は、輝度Kが変化した時の測定値と散乱光C1との差ベクトルBxを求め、それを環境光ベクトルB2と比較するベクトルを用いた手法に限定されず、例えばベクトルを用いずに、輝度そのものの値を用いて影か否かを判別してもよい。
・ 影除去処理は、輝度Kが変化した時の測定値と散乱光C1との差ベクトルBxを求め、それを環境光ベクトルB2と比較するベクトルを用いた手法に限定されず、例えばベクトルを用いずに、輝度そのものの値を用いて影か否かを判別してもよい。
・ プロジェクタ3に赤外線光源を並設するとともに、半透明スクリーン2の背面のうち差領域E2部分に赤外線塗料を塗布し、ボタン投影領域E1の画像は可視光で取得して、差領域E2の画像は赤外線で取得するようにしてもよい。このとき、カメラ5は可視光のみ受光可能なものではなく、赤外線も受光可能なものを用いる必要がある。この場合、ボタン投影領域E1と差領域E2とで各々用いる光の種類が異なるため、領域分けが明確になり、精度よく重心G1,G2を算出することができる。
・ 複数の接触領域15a,15b…が存在する場合、そのうちユーザが意図するものを選ぶ方法は、先端方向ベクトルBkの最先端に位置するものを操作位置Pxとして選別する方法に限定されない。例えば、各接触領域15a,15b…において接触面積を算出し、この中から接触面積が最も大きいものを、ユーザが意図する操作位置Pxとして算出してもよい。
・ 先端方向ベクトルBkは、操作位置Pxを算出する際、その度に毎回求めることに限定されず、ユーザの存在する方向が特定できる場合には固定値データでもよい。
・ 第1領域はボタン投影領域E1に限定されず、第2領域はカメラ撮影領域及びボタン投影領域E1の差をとった差領域E2であることに限定されず、自由に変更してもよい。
・ 第1領域はボタン投影領域E1に限定されず、第2領域はカメラ撮影領域及びボタン投影領域E1の差をとった差領域E2であることに限定されず、自由に変更してもよい。
・ 本例の操作入力装置は、車載用であることに限定されず、例えば映像機器、オーディオ、デジタルカメラ、電話機、パーソナルコンピュータ、プリンタ等の入力パネルとして使用してもよい。
次に、上記実施形態及び別例から把握できる技術的思想について、それらの効果とともに以下に追記する。
(1)請求項5又は6において、前記第1領域は、前記投影手段による前記表示物の投影領域であり、前記第2領域は、前記撮影手段の撮影領域と前記投影領域との差の領域である。この場合、第1領域を表示体の表示領域、第2領域を撮影領域及び表示領域の差の領域とすると、例えば第1領域が半透明スクリーンの中央寄り領域となり、第2領域が第1領域の周囲を囲む周縁の領域となる。このような位置関係があれば、先端方向ベクトルを算出する際に必要となる2点が同一領域に位置してしまう状況になり難く、先端方向ベクトルの算出に際して好ましい領域分布となる。
(1)請求項5又は6において、前記第1領域は、前記投影手段による前記表示物の投影領域であり、前記第2領域は、前記撮影手段の撮影領域と前記投影領域との差の領域である。この場合、第1領域を表示体の表示領域、第2領域を撮影領域及び表示領域の差の領域とすると、例えば第1領域が半透明スクリーンの中央寄り領域となり、第2領域が第1領域の周囲を囲む周縁の領域となる。このような位置関係があれば、先端方向ベクトルを算出する際に必要となる2点が同一領域に位置してしまう状況になり難く、先端方向ベクトルの算出に際して好ましい領域分布となる。
(2)請求項5又は6のいずれかにおいて、前記先端方向ベクトルは固定値データである。この場合、先端方向ベクトルを逐一計算によって求める必要がないため、画面の操作位置算出時において操作位置検出手段にかかる処理負担を軽減することが可能となる。
(3)請求項5又は6のいずれかにおいて、前記半透明スクリーンの背面には赤外線光源が設けられ、前記半透明スクリーンの背面のうち前記第2領域に対応する領域には赤外線透過材が設けられ、前記操作位置検出手段は、可視光で受ける領域を前記第1領域として判定し、赤外線で受ける領域を前記第2領域として判定する。この場合、第1領域と第2領域とでは受ける光の種類が違うため、第1領域と第2領域と各領域を明確に区分けして認識することが可能となり、これら領域を取り違える領域誤判定が生じ難くなる。
2…半透明スクリーン、2a…背面、2b…表示面、3…投影手段としてのプロジェクタ、4…表示物としての選択ボタン、5…撮影手段としてのカメラ、8…影除去手段、操作位置検出手段及び実行手段を構成するCPU、14c…影部分、15(15a〜15f)…接触領域、16a…第1操作部位画像としての第1手領域、16b…第2操作部位画像としての第2手領域、Da…画像データ、K…輝度、C1…散乱光、C2…環境光、Bx…差ベクトル、Px…操作位置、(x、y)…座標位置、θ…角度、θa…閾値、M…変化値としての差分、Ka…第2閾値としての接触判定閾値、Kb…第3閾値としての手領域判定閾値、Bk…操作方向としての先端方向ベクトル、E1…第1領域としてのボタン投影領域、E2…第2領域としての差領域、G1,G2…重心。
Claims (6)
- 半透明スクリーンと、
前記半透明スクリーンの表示面に背面側から表示物を投影する投影手段と、
前記半透明スクリーンを背面側から撮影する撮影手段と、
前記撮影手段で取得した画像データの輝度と、前記投影手段が前記投影時に出す光のうち当該スクリーンで散乱する散乱光の輝度との間の差を求め、当該差と、前記半透明スクリーンの表示面側から入力する環境光の輝度とを比較することにより、前記画像データから影部分を除去する影除去手段と、
前記影部分を除去した前記画像データの輝度の変化を基に、前記半透明スクリーンの表示面におけるユーザの操作位置を検出する操作位置検出手段と、
前記操作位置検出手段が検出した前記操作位置と、前記投影手段が投影した前記表示物の座標位置とを比較し、これら位置が一致したことを条件に前記表示物に応じた処理を実行させる実行手段と
を備えたことを特徴とする操作入力装置。 - 前記影除去手段は、影部分を除去した前記画像データの前記輝度と前記散乱光の前記輝度との間の差ベクトルを求め、当該差ベクトルと、前記環境光の前記輝度におけるベクトルとの成す角度が、影判断の基準となる閾値以下の部分を影として認識し、その部分を操作位置検出の対象から除外することを特徴とする請求項1に記載の操作入力装置。
- 前記操作位置検出手段は、前記画像データの前記輝度の変化値と、前記表示面への接触判断の基準となる第2閾値とを比較し、前記変化値が前記第2閾値以上となる領域を前記ユーザが前記表示面に触れている接触領域として検出し、前記操作位置を複数検出した際、前記画像データの輝度の変化値から求まる特性値の最も高い操作位置を、ユーザが意図する操作位置として特定することを特徴とする請求項1又は2に記載の操作入力装置。
- 前記操作位置検出手段は、前記操作位置を複数検出した際、前記ユーザが前記表示物を選択操作する際の操作方向に対し、当該操作方向の最先端に位置する前記接触領域を前記操作位置として特定することを特徴とする請求項3に記載の操作入力装置。
- 前記操作位置検出手段は、前記半透明スクリーンの区画域である第1領域及び第2領域の各々において、前記変化値が前記2閾値よりも低い値の第3閾値以上で、かつ当該第2閾値よりも低い値となる領域を前記ユーザの操作部位の画像として認識し、前記第1領域に表示される第1操作部位画像と、前記第2領域に表示される第2操作部位画像との各々で重心を算出し、これら重心を通るとともに前記第2操作部位画像の重心から前記第1操作部位画像の重心に向かう先端方向ベクトルを前記操作方向として算出することを特徴とする請求項4に記載の操作入力装置。
- 前記操作位置検出手段は、前記接触領域を前記先端方向ベクトルに写像することによって、複数の前記接触領域の中から最先端に位置する接触領域を特定することを特徴とする請求項5に記載の操作入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005337677A JP2007141177A (ja) | 2005-11-22 | 2005-11-22 | 操作入力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005337677A JP2007141177A (ja) | 2005-11-22 | 2005-11-22 | 操作入力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007141177A true JP2007141177A (ja) | 2007-06-07 |
Family
ID=38203922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005337677A Pending JP2007141177A (ja) | 2005-11-22 | 2005-11-22 | 操作入力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007141177A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009217543A (ja) * | 2008-03-11 | 2009-09-24 | Brother Ind Ltd | 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム |
JP2009251827A (ja) * | 2008-04-03 | 2009-10-29 | Denso Corp | 位置検出装置 |
JP2010055578A (ja) * | 2008-08-29 | 2010-03-11 | Sharp Corp | 画像解析装置、画像解析方法、撮像装置、画像解析プログラムおよび記録媒体 |
JP2010140321A (ja) * | 2008-12-12 | 2010-06-24 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
WO2011055498A1 (en) * | 2009-11-05 | 2011-05-12 | Sony Corporation | Electronic device and method of controlling electronic device |
JP2011118533A (ja) * | 2009-12-01 | 2011-06-16 | Tokyo Denki Univ | タッチ位置入力装置及びタッチ位置入力方法 |
JP2012118473A (ja) * | 2010-12-03 | 2012-06-21 | Fujitsu Ltd | プロジェクタ装置、位置検出プログラム、画像供給方法及びプロジェクタシステム |
JP2013214308A (ja) * | 2008-07-17 | 2013-10-17 | Nec Corp | 情報処理装置、プログラム及び情報処理方法 |
CN104020894A (zh) * | 2013-02-28 | 2014-09-03 | 现代自动车株式会社 | 用于识别触摸的显示装置 |
KR101488287B1 (ko) | 2011-09-20 | 2015-02-02 | 현대자동차주식회사 | 터치 인식 디스플레이 장치 |
-
2005
- 2005-11-22 JP JP2005337677A patent/JP2007141177A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009217543A (ja) * | 2008-03-11 | 2009-09-24 | Brother Ind Ltd | 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム |
JP4670879B2 (ja) * | 2008-03-11 | 2011-04-13 | ブラザー工業株式会社 | 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム |
JP2009251827A (ja) * | 2008-04-03 | 2009-10-29 | Denso Corp | 位置検出装置 |
US10656824B2 (en) | 2008-07-17 | 2020-05-19 | Nec Corporation | Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method |
US9933932B2 (en) | 2008-07-17 | 2018-04-03 | Nec Corporation | Information processing apparatus having a contact detection unit capable of detecting a plurality of contact points, storage medium having program recorded thereon, and object movement method |
JP2013214308A (ja) * | 2008-07-17 | 2013-10-17 | Nec Corp | 情報処理装置、プログラム及び情報処理方法 |
JP2010055578A (ja) * | 2008-08-29 | 2010-03-11 | Sharp Corp | 画像解析装置、画像解析方法、撮像装置、画像解析プログラムおよび記録媒体 |
JP2010140321A (ja) * | 2008-12-12 | 2010-06-24 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
CN102687498A (zh) * | 2009-11-05 | 2012-09-19 | 索尼公司 | 电子设备和控制电子设备的方法 |
US8854523B2 (en) | 2009-11-05 | 2014-10-07 | Sony Corporation | Photographing apparatus, photographing control method and photographing control program for providing enhanced photos and animations |
WO2011055498A1 (en) * | 2009-11-05 | 2011-05-12 | Sony Corporation | Electronic device and method of controlling electronic device |
JP2011118533A (ja) * | 2009-12-01 | 2011-06-16 | Tokyo Denki Univ | タッチ位置入力装置及びタッチ位置入力方法 |
JP2012118473A (ja) * | 2010-12-03 | 2012-06-21 | Fujitsu Ltd | プロジェクタ装置、位置検出プログラム、画像供給方法及びプロジェクタシステム |
US8827460B2 (en) | 2010-12-03 | 2014-09-09 | Fujitsu Limited | Projector system and device, recording medium storing position detection program, and image providing method |
KR101488287B1 (ko) | 2011-09-20 | 2015-02-02 | 현대자동차주식회사 | 터치 인식 디스플레이 장치 |
CN104020894A (zh) * | 2013-02-28 | 2014-09-03 | 现代自动车株式会社 | 用于识别触摸的显示装置 |
CN104020894B (zh) * | 2013-02-28 | 2019-06-28 | 现代自动车株式会社 | 用于识别触摸的显示装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007141177A (ja) | 操作入力装置 | |
US8085243B2 (en) | Input device and its method | |
JP4771183B2 (ja) | 操作装置 | |
JP5412227B2 (ja) | 映像表示装置、および、その表示制御方法 | |
JP2003114755A (ja) | 座標入力装置 | |
JP2008250774A (ja) | 情報機器操作装置 | |
CN1694056A (zh) | 操作输入装置及操作输入方法 | |
US20120293555A1 (en) | Information-processing device, method thereof and display device | |
JP2006209359A (ja) | 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム | |
WO2006013783A1 (ja) | 入力装置 | |
JP4626860B2 (ja) | 操作装置 | |
CN105511691B (zh) | 光学式触控感测装置及其触控信号判断方法 | |
WO2014103217A1 (ja) | 操作装置、及び操作検出方法 | |
JP2007080187A (ja) | 操作入力装置 | |
US20130215085A1 (en) | Controlling Method Applied to A Sensing System | |
JP2020135096A (ja) | 表示方法、表示装置、及び、インタラクティブプロジェクター | |
JP2010083206A (ja) | 車載用電子機器操作装置 | |
JP2010072840A (ja) | 画像表示方法、画像表示装置及びそれを用いた操作装置 | |
JP5772804B2 (ja) | 操作デバイス、及び操作デバイスの操作教示方法 | |
JP4157577B2 (ja) | 座標入力装置 | |
JP2003280813A (ja) | ポインティングデバイス、ポインタ制御装置、ポインタ制御方法及びその方法を記録した記録媒体 | |
JP6452658B2 (ja) | 情報処理装置、およびその制御方法ならびにプログラム | |
CN110489026A (zh) | 一种手持输入设备及其指示图标的消隐控制方法和装置 | |
WO2014181587A1 (ja) | 携帯端末装置 | |
JP2017027311A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 |