JP2007310789A - インタフェースデバイス - Google Patents
インタフェースデバイス Download PDFInfo
- Publication number
- JP2007310789A JP2007310789A JP2006141384A JP2006141384A JP2007310789A JP 2007310789 A JP2007310789 A JP 2007310789A JP 2006141384 A JP2006141384 A JP 2006141384A JP 2006141384 A JP2006141384 A JP 2006141384A JP 2007310789 A JP2007310789 A JP 2007310789A
- Authority
- JP
- Japan
- Prior art keywords
- information
- interface device
- projection
- unit
- housing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】情報の表示や操作に十分な表示面積を確保しつつ、装置本体の小型化に資することのできるインタフェースデバイスを提供する。
【解決手段】利用者に対して提示する情報を表示出力するとともに、利用者の目視において、筐体の所定一部が、表示出力している情報上で接触している位置を検出し、検出した位置の情報に基づく所定処理を実行する。
【選択図】図1
【解決手段】利用者に対して提示する情報を表示出力するとともに、利用者の目視において、筐体の所定一部が、表示出力している情報上で接触している位置を検出し、検出した位置の情報に基づく所定処理を実行する。
【選択図】図1
Description
本発明は、例えば携帯端末に対して利用者の指示操作を伝達するインタフェースデバイスに関する。
近年では、携帯型のデバイスの小型化がますます進んでいる。一方で、こうした携帯型のデバイスの小型化に反して、表示画面の面積は大きいものが望まれている。このため、携帯型のデバイスを開発するメーカーでは、この互いに相反する要望をどのように実現するかが課題となっている。
こうした背景の下、例えばある製品では、ディスプレイを完全に排したものもある。また、携帯電話機などでは、折り畳み式とするなどして、携帯時の小型化とディスプレイサイズの確保とを満足しようとしている。
しかしながら、例えばディスプレイを排したものでは、子細な操作が行い得ない。また、携帯電話機のように折り畳み式とした場合でも、折り畳まれた状態での面積を超えるディスプレイサイズは確保できず、小型化の要望との関係で、必ずしも利用者が満足するサイズのディスプレイを搭載できていないのが現状である。
本発明は上記実情に鑑みて為されたもので、情報の表示や操作に十分な表示面積を確保しつつ、装置本体の小型化に資することのできるインタフェースデバイスを提供することを、その目的の一つとする。
上記従来例の問題点を解決するための本発明は、インタフェースデバイスであって、利用者に対して提示する情報を表示出力する手段と、利用者の目視において、筐体の所定一部が、前記表示出力している情報上で接触している位置を検出する手段と、を含み、前記検出した位置の情報に基づく所定処理を実行することを特徴としている。
また、本発明の一態様に係るインタフェースデバイスは、利用者に対して提示する情報を投影表示する表示手段と、前記投影された映像上、筐体の所定一部が接触している位置を表す情報を取得する手段と、を含み、前記取得した位置の情報に基づく所定処理を実行することを特徴としている。
ここで、前記筐体の移動に関する情報を取得する手段をさらに含み、前記表示手段は、前記取得した筐体の移動に関する情報に基づいて、映像の投影位置を補正することとしてもよい。また、前記筐体の姿勢に関する情報を取得する手段をさらに含み、前記表示手段は、前記取得した筐体の姿勢に関する情報に基づいて、映像の投影範囲を補正することとしてもよい。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係るインタフェースデバイス1は、例えば、図1に示すように、全体としてペンの形状をなし、筒型の形状の筐体10を有し、その先端部には、ペン先となる円錐形部分Pが形成されている。
また、このインタフェースデバイス1は、図2に示すように、制御部11と、記憶部12と、通信部13と、投影部14と、センサ部15と、操作部16とを含んで構成され、本体2との間で例えばブルートゥース等の無線通信手段、またはケーブル等の有線通信手段を介して相互に情報を送受する。
制御部11は、CPU等であり、記憶部12に格納されたプログラムに従って動作する。本実施の形態の制御部11は、本体2側から受信した表示対象の情報を投影部14を制御して投影表示する。この制御部11は、センサ部15の出力から筐体の移動や姿勢に関する情報を検出して、当該情報に基づき、投影表示に関する制御を行う(投影制御処理)。
さらにこの制御部11は、投影した情報上でユーザが筐体の円錐形部分Pで指示した位置を検出して、当該位置に関する情報を本体2側へ送信する処理(ユーザインタフェース処理)を実行する。これらの制御部11による処理の内容については、後に詳しく述べる。
記憶部12は、RAMや、EEPROM(電気的消去可能ROM)等のメモリ素子を含んで構成される。この記憶部12には、制御部11によって実行されるプログラムが格納されている。また、この記憶部12は、制御部11のワークメモリとしても動作する。
通信部13は、例えばブルートゥース等の無線通信手段であり、制御部11から入力される指示に従って、情報を本体2側へ送信する。また、この通信部13は、本体2側から受信される情報を制御部11に出力する。
投影部14は、例えば、プロジェクタであり、図3に例示するように、投光部31と、マイクロミラー部32と、ミラー33と、対物レンズ系34とを含んで構成される。投光部31は、例えば白色LEDと、カラーフィルタとを含んでなる。ここでカラーフィルタは、円盤形状をなし、それぞれ内周60度の角度を有する扇型の、赤(R)、緑(G)、青(B)の三色のフィルタを組み合わせたものである。このカラーフィルタは、モータMによって略定速で回転駆動され、これによりマイクロミラー部32に対して、略一定の周期で、上記三色の光が順次入射される。
マイクロミラー部32は、少なくとも一軸の方向に回転駆動可能な複数のミラーをマトリクス状に配列したもので、例えばディジタル・マイクロミラー・デバイス(DMD)として知られるものである。このマイクロミラー部32の各ミラーは、制御部11が出力する映像信号に従って駆動制御され、R,G,Bの各色の光が入射するタイミングに合わせて、各色の映像信号に対応する反射光パターンを形成する。このマイクロミラー部32の制御動作は、マイクロミラー・デバイスを用いたプロジェクタにおいて広く用いられているので、ここでの詳細な説明を省略する。
ミラー33は、マイクロミラー部32が形成した反射光パターンを対物レンズ系34へと導く。対物レンズ系34は、ミラー部33が導く反射光パターンを円環形状の投影像に変換する第1対物レンズ系34aと、この円環形状の投影像から、筐体の円錐形部分Pを中心とした円形状の投影面全体に拡大した投影像を形成する円環状のレンズを備えた第2対物レンズ系34bと、を含む。ここで、円環状レンズの断面形状は、例えば、魚眼レンズの断面形状と略等しいものとする。
本実施の形態では、この投影部14により、制御部11が生成した画像データが、ペン先となる円錐形部分Pの周辺に投影されることとなる。
さらに投影部14の別の例は、図4に示すように、投光部31′と、プリズム36と、反射型液晶パネル(LCoSなど)37と、窓部38とを含む。この例では、投光部31′は、例えばレーザーダイオードを含む。図4では、複数のレーザーダイオードにより投光部31′を構成しているが、単数であってもよい。プリズム36は、投光部31′であるレーザーダイオードの光線を、反射型液晶パネル37の表面に略垂直に導くとともに、反射型液晶パネル37の表面で反射された光線を窓部38を通じて投影面側へ導く。なお、反射型液晶パネル37では、制御部11が出力する映像信号を表示出力しておく。この例では、投光部31′としてレーザーダイオードを用いているので、投影面と、筐体10との距離や角度が変わっても、投影面にて結像させることができ、映像がぼけることがない。また、光学部品の数を少なくできる。さらに、この場合は、円錐形部分P周辺に映像を投影可能とするよう、投影部14を、円錐形部分Pを取り囲んで複数設けてもよい。
センサ部15は、図3に示す撮像センサ41と、筐体10の傾きを検出する傾斜センサ42とを含んで構成される。ここで撮像センサ41は、CCDやCMOS等の素子を含んだセンサであり、投影部14が投影している映像の少なくとも一部、ないしは、投影部14から投影された像が結像するスクリーンとなる部分の映像を継続的に撮像し、撮像して得た撮像信号に基づいて、筐体10が、スクリーンに対して平行移動したときの移動量に関する情報を出力する(図におけるX,Y軸方向の各移動量が出力される)。なお、この撮像センサ41は、筐体10の円錐形部分Pがスクリーンとなる面との距離が所定の範囲内になったときに、当該面の映像がCCDやCMOS等のセンサ面に結像して、撮像が開始される。このようなセンサは、オプティカルマウスなどにおいて広く用いられているので具体的な構成例の説明を省略する。
傾斜センサ42は、筐体10がペン先となる円錐形部分Pの頂点(すなわちここでの投影部14の投影方向)を中心として、傾いている角度を検出するもので、例えば図5に示すように、筐体10を投影部14の投影面に平行な面における両軸(図におけるX,Y軸)方向に配置する。これらの各傾斜センサ42a,bは、それぞれZ−X面内の傾きと、Z−Y面内の傾きを検出して、その検出結果を制御部11に出力する。
この傾斜センサ42は、例えば、ジャイロセンサや加速度センサなどを用いることができる。また、撮像センサ41により撮像された映像に含まれる対象物の相対的運動から筐体の傾斜が検出できる場合は、傾斜センサ42は必ずしも必要ではない。このような撮像センサ41としては、例えば、光学推移センサ(Optical Tranlation Sensor;[online]、[2006年5月19日検索]、インターネット<URL: http://www.otmtech.com/otm.asp>)などがある。
操作部16は、例えば、筐体10表面に設けられたスイッチであり、利用者が押下操作すると、押下されたことを表す信号を制御部11に出力する。
[投影制御処理]
ここで制御部11の処理の内容について述べる。まず制御部11の投影制御処理について説明する。本実施の形態の制御部11は、投影するべき画像のデータを、通信部13を介して本体2側から受信し、当該画像データに従って、投影部14のマイクロミラー部32を制御する。
ここで制御部11の処理の内容について述べる。まず制御部11の投影制御処理について説明する。本実施の形態の制御部11は、投影するべき画像のデータを、通信部13を介して本体2側から受信し、当該画像データに従って、投影部14のマイクロミラー部32を制御する。
制御部11は、また、センサ部15の撮像センサ41から、筐体10の移動方向に係る情報を取得して、投影する画像データを補正する。
制御部11は、例えば操作部16から押下されたことを表す信号の入力を受けると、投影部14を制御して、画像データの投影を開始する。そして撮像センサ41が筐体10の移動量に関する情報を出力すると、投影された映像上で、ペン先となる円錐形部分Pが示している位置が検出した移動量だけ移動しても、映像がそれに伴って移動しないよう、画像データを平行移動する。例えば筐体10がX軸方向にxだけ移動し、Y軸方向にyだけ移動したときには、画像データを、X軸方向に−αxだけ移動し、Y軸方向に−αyだけ移動する。ここでαは、筐体10の移動量に対する画像データの移動量の比を表すパラメータであり、実験的に定めることができる。
これにより本来であれば、筐体10をスクリーン上で移動すると、スクリーンに筐体10側から投影される映像も、筐体10の移動に伴って平行移動する。しかし、ここでは筐体10の移動量を検出して、制御部11が画像データを当該移動量に応じた量だけ平行移動して、映像がスクリーン上で移動しないよう制御しているので、筐体10のペン先部分が映像上で移動可能となる。
また、この制御部11は、傾斜センサ42から入力される信号に基づいて、筐体の姿勢に関する情報として、Z−X面、及びZ−Y面での筐体10の傾斜角度を検出し、当該傾斜角度の情報に基づいて、投影するべき画像のデータを台形補正する。すなわち各軸について図6に示す台形の辺の角度θを、対応する軸の傾斜角度によって定める。これにより、筐体10が傾いても、投影される映像が正面視した映像となるよう制御される。
[ユーザインタフェース処理]
さらにこの制御部11は、ユーザインタフェース処理として、ペン先である円錐形部分P(本発明の所定一部に相当する)が投影した映像上で示している座標位置の情報を検出し、本体2側に送信出力する。ここで座標位置は次のように取得する。例えば、当初は、画像データのうち、投影位置の中心を円錐形部分Pが指している座標値(x0,y0)をペン先の位置座標として設定しておき、撮像センサ41が生成する移動量の情報に基づく画像データの平行移動量(αx,αy)だけペン先が移動したものとする(x0+αx,y0+αy)。その後、この移動先から同じように、撮像センサ41が生成する移動量の情報に基づく画像データの平行移動量だけペン先が移動したものとして、座標情報を逐次更新して出力する。これにより、利用者の目視における、筐体の所定一部が表示出力している情報上で接触している位置に関する情報が取得される。
さらにこの制御部11は、ユーザインタフェース処理として、ペン先である円錐形部分P(本発明の所定一部に相当する)が投影した映像上で示している座標位置の情報を検出し、本体2側に送信出力する。ここで座標位置は次のように取得する。例えば、当初は、画像データのうち、投影位置の中心を円錐形部分Pが指している座標値(x0,y0)をペン先の位置座標として設定しておき、撮像センサ41が生成する移動量の情報に基づく画像データの平行移動量(αx,αy)だけペン先が移動したものとする(x0+αx,y0+αy)。その後、この移動先から同じように、撮像センサ41が生成する移動量の情報に基づく画像データの平行移動量だけペン先が移動したものとして、座標情報を逐次更新して出力する。これにより、利用者の目視における、筐体の所定一部が表示出力している情報上で接触している位置に関する情報が取得される。
また、制御部11は、操作部16が押下されたことを表す信号を出力すると、その押下の状態(押下したままであるか、放されたか)を表す情報を本体2へと送信出力する。
[本体2側の処理]
本体2側では、インタフェースデバイス1側に対して表示するべき画像のデータを送信する。なお、この画像データは、例えば1/30秒ごとに、全画面の情報を送出してもよいし、MPEG(Motion Picture Experts Group)における処理と同様に、当初は全画面分の情報を送出し、その後は、各フレームごとに差分の画像データが生じるごとに、当該差分の画像データを送出することとしてもよい。この場合、インタフェースデバイス1側の制御部11では、差分の画像データを、現在表示している画像データに加算したデータを生成して、投影する画像データの内容を更新する。
本体2側では、インタフェースデバイス1側に対して表示するべき画像のデータを送信する。なお、この画像データは、例えば1/30秒ごとに、全画面の情報を送出してもよいし、MPEG(Motion Picture Experts Group)における処理と同様に、当初は全画面分の情報を送出し、その後は、各フレームごとに差分の画像データが生じるごとに、当該差分の画像データを送出することとしてもよい。この場合、インタフェースデバイス1側の制御部11では、差分の画像データを、現在表示している画像データに加算したデータを生成して、投影する画像データの内容を更新する。
また本体2は、ペン先の座標情報を受信すると、ポインティングデバイスによるポインタ(マウスカーソル)の移動位置としてこの座標情報を記憶する。そして、操作部16の押下の状態を表す情報を受信すると、当該状態に応じて所定処理を実行する。
例えば、操作部16のボタンが押下された状態で、ペン先の座標情報が変更されると、マウスのドラッグ操作が行われたと同様の処理を実行し、操作部16のボタンが開放されたことを表す情報が受信されると、マウスのボタンが開放されたのと同様の処理を実行する。
具体例を挙げると、ファイルアイコンを表示している状態で、ファイルアイコンの表示領域内において操作部16のボタンが押下され、押下されたままの状態で、ペン先の座標情報が変更されると、当該ファイルアイコンの表示位置を当該ペン先の座標情報に従って移動して表示する。そして操作部16のボタンが開放されたことを表す情報を受信すると、その時点でのペン先の座標情報に従って、ファイルアイコンの表示位置を移動して表示する。これは、マウスを用いて、ファイルアイコンをドラッグする操作と同様のものである。
すなわち、本体2は、このインタフェースデバイス1をディスプレイとして用いるとともに、マウスのようなポインティングデバイスとしても認識し、その操作の内容に係る情報を受信して、処理を実行するのである。
[メニュー操作]
また、本実施の形態のインタフェースデバイス1においては、ペン先となる円錐形部分P(筐体10の所定部分)がスクリーンとなる投影対象に接触しているか否かを検出する手段を備えてもよい。この場合、例えば、円錐形部分Pを含む筐体の先端部を筐体本体部とは独立の部材として形成し、筐体本体部に形成したガイド部に当該先端部を挿入して支持させるとともに、当該先端部を筐体本体部から外側(投影対象側)へと付勢する弾性体(コイルばねなど)を設けておき、先端部が、弾性体を押し込んで筐体本体部の内側へ所定量だけ入り込んだときに、オンとなるスイッチを設けておくこととすればよい。
また、本実施の形態のインタフェースデバイス1においては、ペン先となる円錐形部分P(筐体10の所定部分)がスクリーンとなる投影対象に接触しているか否かを検出する手段を備えてもよい。この場合、例えば、円錐形部分Pを含む筐体の先端部を筐体本体部とは独立の部材として形成し、筐体本体部に形成したガイド部に当該先端部を挿入して支持させるとともに、当該先端部を筐体本体部から外側(投影対象側)へと付勢する弾性体(コイルばねなど)を設けておき、先端部が、弾性体を押し込んで筐体本体部の内側へ所定量だけ入り込んだときに、オンとなるスイッチを設けておくこととすればよい。
このようにすると、ペン先である先端部を投影対象に接触させた状態で、操作部16のボタンを押下したときと、ペン先である先端部を投影対象から放して、操作部16のボタンを押下したときとで、制御部11や本体2に異なる処理を実行させることができるようになる。
例えば制御部11は、先端部が投影対象に接触しているか否かを表す情報を、操作部16の操作を表す情報とともに本体2側へ送出する。本体2側では、ペン先である先端部を投影対象に接触させた状態で、操作部16のボタンが押下されたときには、上述のようにマウスにおけるクリックやドラッグ操作が行われたものとして処理を行う、また、ペン先である先端部が投影対象から離れた状態で操作部16のボタンが押下されたときには、別の処理、例えばメニューを表示することとしてもよい。
この際、メニューは、ペン先によって選択しやすいよう、現在のペン先の位置を中心とした円周上にメニューの項目を配列して表示する(図6)。利用者は、このメニューの項目から一つに、選択的にペン先を接触させる。制御部11は、ペン先が接触すると、その旨の情報を本体2へと送出する。本実施の形態では、ペン先が投影対象から離れた状態であっても、撮像センサ41が投影対象の映像を撮像可能である限り、ペン先の移動量に関する情報が生成されて出力されている。従って、本体2では、ペン先が接触した時点での座標情報を参照して、どのメニュー項目の表示範囲内に、ペン先があるかを識別し、どのメニュー項目が選択されたかを認識する。
[フリーハンドでの描画支援]
さらに本実施の形態の制御部11は、フリーハンドで描画される画像などを整形する処理を実行し、描画操作を支援することとしてもよい。すなわち制御部11は、逐次的に検出されるペン先の移動位置に基づいて、利用者の描画しようとする図形を予測して、当該予測した図形に対応する線分を投影する画像データに合成する。
さらに本実施の形態の制御部11は、フリーハンドで描画される画像などを整形する処理を実行し、描画操作を支援することとしてもよい。すなわち制御部11は、逐次的に検出されるペン先の移動位置に基づいて、利用者の描画しようとする図形を予測して、当該予測した図形に対応する線分を投影する画像データに合成する。
この処理は、例えば、判断条件と図形を表す情報とを関連づけて記憶部12に格納しておき、制御部11は、逐次的に検出されるペン先の移動位置が記憶部12に格納されている判断条件のいずれかに合致したときに、当該合致した判断条件に関連づけられた情報で表される図形を画像データに合成する。具体例として、判断条件は、移動量しきい値βだけX軸方向に移動したときに、Y軸方向の変動量しきい値がγ未満であるとし、この判断条件に対しては、X軸に平行な直線を表す情報を関連づけておく。利用者が、この移動量しきい値βを超えてX軸方向に略平行な(Y軸方向の変動量が変動量しきい値γ未満であるような)線分を描画すると、制御部11は、ペン先の座標情報のうち、Y軸の値yをもちいて、Y=yなる線分を画像データに合成する。これにより、X軸に平行な線分が投影表示され、利用者は、この投影された線分に沿ってペン先を移動すれば直線を描画できることとなり、操作性を向上できる。
また、制御部11は、利用者の指示によって、定規(ルーラー)としての線分を表示させてもよい。
[文字認識]
さらに、制御部11は、ペン先の移動パターンに基づいて、予め定めた文字形状パターンとの照合により、文字認識処理を実行してもよい。この処理は、手書き文字認識処理として広く知られた処理を利用できる。
さらに、制御部11は、ペン先の移動パターンに基づいて、予め定めた文字形状パターンとの照合により、文字認識処理を実行してもよい。この処理は、手書き文字認識処理として広く知られた処理を利用できる。
[計算処理]
この場合において、制御部11は、数値と演算子(例えば四則演算子や、括弧、平方根記号などの数式記号を含む)とからなる文字列を認識した後に、イコール記号が入力されたことを認識すると、ここまでに入力された数式を演算して、その結果を、イコール記号の右側に表示してもよい。また、制御部11は、これら文字認識の結果や計算結果等を本体2側に送信してもよい。
この場合において、制御部11は、数値と演算子(例えば四則演算子や、括弧、平方根記号などの数式記号を含む)とからなる文字列を認識した後に、イコール記号が入力されたことを認識すると、ここまでに入力された数式を演算して、その結果を、イコール記号の右側に表示してもよい。また、制御部11は、これら文字認識の結果や計算結果等を本体2側に送信してもよい。
[投影範囲の制限]
本実施の形態のインタフェースデバイス1は、以上のように構成されているので、その投影対象としては、机上にあるものに限られず、例えば、手のひらなど、不定形のものであっても構わない。従って、例えば電車などの移動中に、立ったままで本体2を取り出すことなく、本体2に対する操作を行うことも可能となる。しかしながら、電車などの公共交通機関では、座席に着席した他者の前に立つことも多く、この状態で本実施の形態のインタフェースデバイス1を利用する場合、手のひらのように不定形の領域に映像を投影させると、投影範囲がこの投影対象の外側にはみ出て、着席中の他者に投影光が当たり、情報が見られてしまうことも考えられる。そこで、本実施の形態のインタフェースデバイス1は、投影対象の形状を認識する手段をさらに備えて、当該認識した形状の外側に相当する領域については、画像データをオフ(光が投影されない状態のデータ)とするよう制御してもよい。
本実施の形態のインタフェースデバイス1は、以上のように構成されているので、その投影対象としては、机上にあるものに限られず、例えば、手のひらなど、不定形のものであっても構わない。従って、例えば電車などの移動中に、立ったままで本体2を取り出すことなく、本体2に対する操作を行うことも可能となる。しかしながら、電車などの公共交通機関では、座席に着席した他者の前に立つことも多く、この状態で本実施の形態のインタフェースデバイス1を利用する場合、手のひらのように不定形の領域に映像を投影させると、投影範囲がこの投影対象の外側にはみ出て、着席中の他者に投影光が当たり、情報が見られてしまうことも考えられる。そこで、本実施の形態のインタフェースデバイス1は、投影対象の形状を認識する手段をさらに備えて、当該認識した形状の外側に相当する領域については、画像データをオフ(光が投影されない状態のデータ)とするよう制御してもよい。
ここで投影対象の形状を認識する手段としては、図7に例示するように、例えば赤外光など、可視光外の光を、投影対象方向に投射する光源51と、この赤外光(可視光外の光)を撮像可能な少なくとも一つの撮像素子52とを備えればよい。ここで光源51は、対物レンズを通じて、投影部14による投影範囲より広範囲に赤外光等を投射する。また、一つの撮像素子52によっては、筐体10の一部の陰になって撮影できない場所がある場合は、撮像素子52を複数設けて、それぞれの撮像素子52にて撮像された結果を合成し、投影対象全体を撮像するようにしてもよい。
この場合、投影対処の形状に沿って、可視光外の光の反射量が異なることとなるので、撮像素子によって撮像した映像から輪郭抽出の画像処理を実行して投影対象の形状を識別できる。
制御部11は、この投影対象の形状の領域で、投影する画像データを切り取り、外側を黒画素(光の投影がないデータ)とする。なお、撮像素子が撮像した画像については、傾斜センサ42の出力に応じて、その画像を正面視の状態に補正してから、投影対象の形状を識別する処理を実行してもよい。
[拡大縮小]
また本実施の形態において制御部11は、表示するべき画像データとして本体2側から受信した画像データの全体を常時表示する必要は必ずしもない。例えば文字認識などによって文字入力を行う場合があること等に配慮して、画像データのうち、文字入力に係る部分を拡大して表示してもよい。
また本実施の形態において制御部11は、表示するべき画像データとして本体2側から受信した画像データの全体を常時表示する必要は必ずしもない。例えば文字認識などによって文字入力を行う場合があること等に配慮して、画像データのうち、文字入力に係る部分を拡大して表示してもよい。
この場合、本体2は、文字入力を受け入れる状態となると(例えば文字入力用のインタフェース内にカーソルが移動すると)、インタフェースデバイス1に対して、文字入力が開始されたことを示す情報を送信し、キャレット(文字の挿入点を表す案内)の表示位置を表すキャレット座標情報を送信する。
インタフェースデバイス1は、文字入力が開始されたことを示す情報と、キャレット座標情報とを受信すると、ペン先となる円錐形部分Pが投影対象に接触している間、キャレット座標情報に基づき、表示するべき画像データのうち、キャレット座標情報を中心とした所定範囲2を表示範囲として、この表示範囲内の画像データを投影範囲に拡大して投影表示する。なお表示範囲のX、Y軸方向のサイズの比は、元の画像データの比としておく。
このとき制御部11は、当該表示範囲の元の画像データに対する拡大比率rを記憶しておく。そして、筐体10が移動したときに、その移動量(x,y)に対して画像データを移動せず、元の画像データ内での表示範囲を、キャレット座標情報の移動量に基づいて移動させる。
また、制御部11は、筐体10が移動している間は、ペン先が(αrx,αry)だけ移動したことを表す情報を本体2側に出力する。
また、ペン先となる円錐形部分Pが投影対象から離れると、その時点で投影対象に対して光源51が投光した可視光外の光により照射される部分を撮像素子52にて撮像して、当該照射されている部分の外接矩形を、画像処理によって検出し、そのサイズを初期矩形サイズとして記憶する。この外接矩形の検出は、一般的な画像処理であるので、ここでの詳細な説明を省略する。
そして、制御部11は、ペン先となる円錐形部分Pが投影対象から離れている間、投影対象に対して光源51が投光した可視光外の光により照射される部分を撮像素子52にて撮像して、当該照射されている部分の外接矩形を、画像処理によって検出し、そのサイズの情報を繰り返し取得する。そして、取得したサイズの情報と初期矩形サイズとの比に対応して、表示範囲のサイズを、その拡大比率をrから「1」(元の画像データのサイズとなる)の範囲で変化させる。この間も、制御部11は、画像データを平行移動せず、筐体10の移動量(x,y)に対して、元の画像データ内での表示範囲を、X軸方向に−αrx、y軸方向に−αryだけそれぞれ移動させる。なお、表示範囲の一辺が元の画像データの辺に一致したときは、当該辺を超えた移動を規制するよう制御する。
また、制御部11は、この処理の過程で手書きされた文字の認識結果を本体2側へ送信出力することとしてもよい。
このようにすると、利用者がインタフェースデバイス1を操作して、本体2に対して文字列入力を指示したときに、当該文字列入力部分が拡大表示され、当該入力部分において手書きした文字が認識されて本体2側に送信される。また、書き続けていけば、文字列の方向(キャレットの移動方向)に表示範囲が移動して、入力が支援される。さらに、利用者がインタフェースデバイス1を投影面から放せば、入力している部分の周辺が表示されるようになり、書込んだ全体を確認できるようになるとともに、書き込み位置を移動する操作をすることが可能となる。
[その他の変形例]
なお、ここまでの説明において、ペン先である円錐形部分Pには、色材(インキや鉛筆の芯など)を供給する機構が設けられてもよい。これにより、実際、投影面に描画することができるようになる。また、この色材の供給機構は、利用者の操作により、色材の供給の開始・停止を制御できるように、投影面に向かって突出する状態と、筐体内に収納された状態との間で移動可能となっていてもよい。かかる機構のボールペンなどは広く知られているので、ここでの詳細な説明を省略する。
なお、ここまでの説明において、ペン先である円錐形部分Pには、色材(インキや鉛筆の芯など)を供給する機構が設けられてもよい。これにより、実際、投影面に描画することができるようになる。また、この色材の供給機構は、利用者の操作により、色材の供給の開始・停止を制御できるように、投影面に向かって突出する状態と、筐体内に収納された状態との間で移動可能となっていてもよい。かかる機構のボールペンなどは広く知られているので、ここでの詳細な説明を省略する。
さらに、本実施の形態の説明では、本体2は、インタフェースデバイス1と別体に設けられ、無線にて通信をしているものとして説明したが、このインタフェースデバイス1と本体2とは、一つの筐体10内に収納されて、有線にて接続されてもよい。この場合、さらに、制御部11が本体2の動作を実行しても構わない。
また、ここでは投影部14として、ディジタル・ミラー・デバイスを用いた例について説明したが、液晶スクリーンを透過したパターンを投影する方式であってもよいし、その他の方式であってもよい。
[利用例]
本実施の形態のインタフェースデバイス1は、これにより、例えば本体2としての携帯電話機と通信し、電子メールの入力操作、送信操作に利用されてもよい。
本実施の形態のインタフェースデバイス1は、これにより、例えば本体2としての携帯電話機と通信し、電子メールの入力操作、送信操作に利用されてもよい。
また、携帯型音楽再生デバイスを本体2として、再生する楽曲の選択操作、音量等の調整操作に供されてもよい。
このように本実施の形態では、情報の表示や操作に十分な表示面積を確保しつつ、装置本体の小型化に資することができる。
1 インタフェースデバイス、2 本体、10 筐体、11 制御部、12 記憶部、13 通信部、14 投影部、15 センサ部、16 操作部、31,31′,51 投光部、32 マイクロミラー部、33 ミラー、34 対物レンズ系、36 プリズム、37 反射型液晶パネル、38 窓部、41 撮像センサ、42 傾斜センサ、52 撮像素子。
Claims (4)
- 利用者に対して提示する情報を表示出力する手段と、
利用者の目視において、筐体の所定一部が、前記表示出力している情報上で接触している位置を検出する手段と、
を含み、
前記検出した位置の情報に基づく所定処理を実行することを特徴とするインタフェースデバイス。 - 利用者に対して提示する情報を投影表示する表示手段と、
前記投影された映像上、筐体の所定一部が接触している位置を表す情報を取得する手段と、
を含み、
前記取得した位置の情報に基づく所定処理を実行することを特徴とするインタフェースデバイス。 - 請求項2に記載のインタフェースデバイスにおいて、
前記筐体の移動に関する情報を取得する手段をさらに含み、
前記表示手段は、前記取得した筐体の移動に関する情報に基づいて、映像の投影位置を補正することを特徴とするインタフェースデバイス。 - 請求項2または3に記載のインタフェースデバイスにおいて、
前記筐体の姿勢に関する情報を取得する手段をさらに含み、
前記表示手段は、前記取得した筐体の姿勢に関する情報に基づいて、映像の投影範囲を補正することを特徴とするインタフェースデバイス。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006141384A JP2007310789A (ja) | 2006-05-22 | 2006-05-22 | インタフェースデバイス |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006141384A JP2007310789A (ja) | 2006-05-22 | 2006-05-22 | インタフェースデバイス |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007310789A true JP2007310789A (ja) | 2007-11-29 |
Family
ID=38843561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006141384A Pending JP2007310789A (ja) | 2006-05-22 | 2006-05-22 | インタフェースデバイス |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007310789A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271910A (ja) * | 2008-04-08 | 2009-11-19 | Seiko Epson Corp | 指示装置及び情報投射システム |
WO2010055686A1 (ja) * | 2008-11-14 | 2010-05-20 | Yoshida Kenji | ドットパターン読み取り機能を備えたマウス |
JP2010134894A (ja) * | 2008-11-06 | 2010-06-17 | Hideo Yamamori | ペン型ポインティングデバイス |
-
2006
- 2006-05-22 JP JP2006141384A patent/JP2007310789A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009271910A (ja) * | 2008-04-08 | 2009-11-19 | Seiko Epson Corp | 指示装置及び情報投射システム |
JP2010134894A (ja) * | 2008-11-06 | 2010-06-17 | Hideo Yamamori | ペン型ポインティングデバイス |
WO2010055686A1 (ja) * | 2008-11-14 | 2010-05-20 | Yoshida Kenji | ドットパターン読み取り機能を備えたマウス |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10198870B2 (en) | Information processing apparatus, information processing system, and information processing method | |
US8350896B2 (en) | Terminal apparatus, display control method, and display control program | |
US7176881B2 (en) | Presentation system, material presenting device, and photographing device for presentation | |
KR102098277B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
EP2956843B1 (en) | Human-body-gesture-based region and volume selection for hmd | |
US20090295712A1 (en) | Portable projector and method of operating a portable projector | |
JP6372487B2 (ja) | 情報処理装置、制御方法、プログラム、および記憶媒体 | |
JP6251957B2 (ja) | 表示装置、頭部装着型表示装置および表示装置の制御方法 | |
US10234955B2 (en) | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program | |
JP5258399B2 (ja) | 画像投影装置及びその制御方法 | |
JP6036217B2 (ja) | 表示装置、頭部装着型表示装置および表示装置の制御方法 | |
US20230071534A1 (en) | Image Projection Device | |
JP2006146803A (ja) | 操作装置及び遠隔操作システム | |
KR102159767B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
JP2007310789A (ja) | インタフェースデバイス | |
JP4871226B2 (ja) | 認識装置および認識方法 | |
JP2016126687A (ja) | ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム | |
US20220244788A1 (en) | Head-mounted display | |
JP2010272078A (ja) | 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法 | |
JP6528193B2 (ja) | 電子機器 | |
US20150070459A1 (en) | Information processing apparatus and information processing method | |
JP2018054880A (ja) | 表示装置、情報処理装置および情報処理方法 | |
JPH07234755A (ja) | 座標入力手段および情報処理装置 | |
JP2007279869A (ja) | プロジェクター、プロジェクター用リモコンおよびポインターシステム | |
KR20200111144A (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |