JPWO2014041938A1 - 情報入力装置 - Google Patents
情報入力装置 Download PDFInfo
- Publication number
- JPWO2014041938A1 JPWO2014041938A1 JP2014535455A JP2014535455A JPWO2014041938A1 JP WO2014041938 A1 JPWO2014041938 A1 JP WO2014041938A1 JP 2014535455 A JP2014535455 A JP 2014535455A JP 2014535455 A JP2014535455 A JP 2014535455A JP WO2014041938 A1 JPWO2014041938 A1 JP WO2014041938A1
- Authority
- JP
- Japan
- Prior art keywords
- input
- user
- image
- information input
- foot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0334—Foot operated pointing devices
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
被検出対象を追尾して入力用画像の投影位置を変化させ、入力用画像への情報入力を検出することを可能とする情報入力装置を提供することを目的とする。入力用画像を投影する投影部と、入力用画像の投影位置を変更する投影位置変更部と、ユーザの足の位置を検知する検知センサと、検知センサにより検知されたユーザの足の位置を入力用画像が追尾するように投影位置変更部を制御し且つユーザの足による入力操作を判定して入力用画像による情報入力を検出する制御部を有することを特徴とする情報入力装置。
Description
本発明は情報入力装置に関し、特に投影された入力用画像を用いた情報入力装置に関する。
例えば、テレビ、ビデオ等を操作するための情報入力を行うために、リモコン等の情報入力装置を利用することが一般的に行われている。しかしながら、いざ利用しようとすると、リモコン等の置き場所が不明であったりして、利用したい時に、利用できないといった不具合があった。
そこで、情報入力機器自体を操作することなく、シンプルで分かり易く、且つ大多数の人が直感的に操作できるような情報入力装置が求められていた。
ところで、映像投射装置から複数の入力キーを有する操作部を示す映像を投影し、この映像上における指の動きを画像認識処理により検出して、入力キーに対する押下げ操作がなされた判別する情報入力装置が知られている(例えば、特許文献1参照)。
特許文献1において、映像上の指の動きは、撮像部で読取った映像から、エッジ検出によって指を判別した上で、指の上から下への動き、即ち映像が投影されている面に対する指の接触を検出している。
また、プロジェクタをユーザが身に着け、プロジェクタが投影するダイアルパッドを手のひらで受け、手のひらに投影されたダイアルパッドをユーザの指先に装着された器具で指し示すと、指し示されたダイアルパッドに対応した入力がなされる、装着可能なジェスチャーインタフェイスが知られている(例えば、特許文献2参照)。
特許文献2に記載のジェスチャーインタフェイスでは、カメラが撮像した画像をコンピュータが画像解析して、ユーザの指先に装着した器具の動きを追跡し、ダイアルパッドに対応した入力があるか否かが判断されている。また、プロジェクタからの画像は、ミラーで反射されてから投影されるため、ミラーの位置をユーザがマニュアルで変更することによって、投影場所を変更することができる。
さらに、画像を投影可能な所定の領域内で、手のひらを検出し、検出した手のひらに、星、俳句、図鑑の内容を投影するシステムが知られている(例えば、非特許文献1参照)。非特許文献1に記載のシステムでは、プロジェクタの投影方向は、固定されているが、常に所定領域全体に投影を行っているので、検出された手のひらの部分にのみ画像を表示させるようにしている。
さらに、譜面が表示される表示パネルにおいて、譜面をめくる指示をペダルで行うことを可能とする電子譜面台が知られている(例えば、特許文献3)。特許文献3に記載のシステムでは、電子譜面台にケーブルで接続された実際のペダルによって、楽譜をめくる指示を行っている。
「手のひらインタフェース:画像処理を用いた公共空間におけるパーソナルな情報提示システム」、情報処理学会論文誌 vol.49、No.7 2528−2538、2008年7月
しかしながら、映像のエッジを検出することによって指の動きを判断すると、人間の指以外の物体を指と誤って認識したり、物を持っている場合に持っている物の先を指と誤って認識したり、するという不具合があった。
また、特許文献2に記載のジェスチャーインタフェイスでは、ユーザがプロジェクタ等を含む装置を身に着けなければならず通常のリモコンと比較しても、操作が煩わしいという不具合があった。
さらに、特許文献2に記載のジェスチャーインタフェイスでは、プロジェクタが固定されているため、ミラーによって投影位置はマニュアルで変更することはできるが、投影位置に手のひらを持っていかなければ、手のひらにダイアルパッドを投影することができないという不具合もあった。
また、非特許文献1に記載のシステムでは、プロジェクタの投影方向が固定されているので、検出された手のひらに画像を表示するためには、所定の領域全体を投影可能な大型プロジェクタを利用しなければならなかった。
また、特許文献3に記載のシステムでは、入力指示を行うためのペダルは電子譜面台の本体とケーブルで接続されているため、ケーブルが邪魔になったり、ユーザが移動してペダルから離れてしまうと、入力指示を行うことが困難になったりする、という不具合があった。
そこで、本発明は、上記の不具合を解消することを可能とした情報入力装置を提供することを目的とする。
また、本発明は、ユーザの足を追尾して入力用画像の投影位置を変更させ、ユーザの足による入力用画像への情報入力を検出することを可能とする情報入力装置を提供することを目的とする。
また、本発明は、ユーザの足の位置を追尾して、入力用画像をユーザの足近傍に表示することを可能とする情報入力装置を提供することを目的とする。
また、本発明は、特定の装置を身に着けることなく、ユーザの足を利用して、入力操作を行うことを可能とした情報入力装置を提供することを目的とする。
情報入力装置は、入力用画像を投影する投影部と、入力用画像の投影位置を変更する投影位置変更部と、ユーザの足の位置を検知する検知センサと、検知センサにより検知されたユーザの足の位置を入力用画像が追尾するように投影位置変更部を制御し、且つユーザの足による入力操作を判定して、入力用画像による情報入力を検出する制御部とを有することを特徴とする。
上記の情報入力装置では、検知センサは深度センサを含み、制御部は深度センサからの深度データに基づいて、入力用画像を投影する被投影面からユーザの足までの距離を算出し、算出された距離に基づいてユーザの足による入力操作を判定することが好ましい。
上記の情報入力装置では、制御部は、距離に基づいて、ユーザの足先によるタップを検出し、入力操作がなされたか否かの判定を行うことが好ましい。
上記の情報入力装置では、制御部は、投影された入力用画面上において、ユーザの足による入力操作がなされたと判定された場合に、入力用画像による情報入力を検出することが好ましい。
上記の情報入力装置では、制御部は、投影された前記入力用画面の周囲において、ユーザの足による入力操作がなされたと判定された場合に、入力用画像による情報入力を検出することが好ましい。
上記の情報入力装置では、制御部は、入力用画像による情報入力に対応した操作信号を外部の機器へ出力することが好ましい。
上記の情報入力装置では、制御部は、所定時間以内に所定回数の入力操作があったと判定された場合には、操作信号を外部の機器へ出力しないように制御することが好ましい。
上記の情報入力装置では、制御部は、検知センサからの検知データを用いて、検知領域内の物体を特定し、特定された物体の曲率からユーザの足を検知することが好ましい。
上記の情報入力装置では、入力用画像は、ダミースイッチを照らすための光スポットであることが好ましい。
情報入力装置では、ユーザの足を検出してユーザの足を追尾するように入力用画像を投影し、検出したユーザの足の動作に基づいて、入力用画像への情報入力を行うことができるので、特定の装置を身に着けることなく、簡単且つ容易に情報入力を行うことが可能となった。
以下図面を参照して、情報入力装置について説明する。但し、本発明の技術的範囲はそれらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。なお図面の説明において、同一または相当要素には同一の符号を付し、重複する説明は省略する。また説明のため部材の縮尺は適宜変更している。
図1は、情報入力装置1を楽器の演奏の適用した事例を示す図である。
情報入力装置1は、照射検知装置10及び制御装置50等から構成されている。ユーザが演奏する楽器60はコード66で制御装置50と接続されている。楽器60(例えば、エレキギター又はエレクトリックアコースティックギター)からの楽音信号は、制御装置50によって所定の効果を付与されて、修正楽音信号としてアンプ61へ入力され、アンプ61と接続されたスピーカ62から出力される。
譜面台65の下部には照射検知装置10が配置され、照射検知装置10はケーブル67で制御装置50と接続されている。照射検知装置10が、ステージ、床又は地面等において、検知を行う検知領域80内に、エフェクター画像81を投影している。ユーザが投影されたエフェクター画像81の投影箇所において、実際にエフェクターを利用するように靴の先端位置をタップ(上下動)させると、照射検知装置10がそれを検知し、制御装置50が楽器60からの楽音信号にエフェクターと同様の効果を付与してアンプ61へ出力する。
上記のように、図1に示す例では、実際に存在しないが、ユーザの靴の先端位置に投影されたエフェクター画像81を利用して、実際のエフェクターと同様に、楽器60からの楽音信号に効果付与を行うことが可能となる。
図2は照射検知装置10の外観を示す斜視図であり、図3は情報入力装置1の概略構成を示すブロック図である。
照射検知装置10は、検知部20、照射部30及び雲台40等を含んで構成され、譜面台65に固定されており、透明なプラスチック材料から構成されるドーム型のカバー11で覆われている。
検知部20は、RGB撮像部21、赤外線カメラ22及び赤外線照射光発光部23等を含んで構成されている。RGB撮像部21は、検知領域内の画像を撮像し、撮像した画像のピクセル毎のRGBデータ及び位置座標データを出力する。赤外線カメラ22は、赤外線照射光発光部23から照射された赤外線が検知領域80内に存在する物体から反射する反射光を受光し、撮像した画像のピクセル毎の深度データ(赤外線カメラ22とピクセルとの間の距離に対応したデータ)を出力する。なお、RGB撮像部21と赤外線カメラ22は、同じ検知領域80で同じ解像度を有するように設定されているものとする。
照射部30は、RGB各色光発光レーザーを用いた超小型プロジェクタから構成され、雲台40の第2回転部43に取り付けられている。制御装置50から受信した画像データに応じて、照射部30は入力用画像を含む入力用画像70を検知領域80(ステージ、床又は地面等)上に投影する。なお、所定の入力用画像70を投影することが可能であれば、RGB各色光発光レーザーを用いた超小型プロジェクタ以外の照射部を利用することができる。
雲台40は、基部41、第1モータ45によってθ方向に回転する第1回転部42及び第2モータ46によってφ方向に回転する第2回転部43等を含んで構成されている。
制御装置50は、CPU51、RAM52、ROM53、及び、検知部20、照射部30、雲台40及び披操作装置(例えば、楽器60及びアンプ61)との間でデータの送受信を行うためのI/O54、効果付与部55等から構成される。図1に示す例では、制御装置50は、照射部30が、検知領域80内に投影した入力用画像70をユーザが靴の先端位置でタップしたことを検出して、楽器60からの楽音信号に所定の効果を付与した修正楽音信号をアンプ61へ出力する。
制御装置50は、制御データに基づいて第1モータ45及び第2モータ46を制御して、入力用画像70を検知領域80上の所望の位置に投影することができるように構成されている。なお、制御装置50は、HD等の他の記録媒体を有していても良い。制御装置50が、第1モータ45を制御して第1回転部42をθ方向に回転させると、入力用画像70が矢印Aの方向に移動する。また、制御装置50が、第2モータ46を制御して第2回転部43をφ方向に回転させると、入力用画像70が矢印Bの方向に移動する。
図3に示す、RGBデータ、位置座標データ、深度データ、画像データ及び制御データを照射検知装置10と制御装置50との間でやり取りするための信号線がケーブル67に内蔵されている。なお、照射検知装置10と制御部50との間のデータの送受信を無線で行うようにしても良い。
図4は、初期設定のための制御フローの一例を示す図である。
図4に示す制御フローは、制御装置50のROM53に予め記憶されたプログラムに従って、制御装置50のCPU51が、検知部20、照射部30及び雲台40を制御して実行するものである。
制御装置50は、検知部20のRGB撮像部21が撮像した画像に基づいて、自動的に被投影面における検知領域80の位置を指定する(S10)。指定された検知領域80の範囲を示す位置座標データは、RAM52等に記録される。また、制御装置50は、検知部20からのRGBデータに基づいて、検知領域80の背景色(例えば、ステージ、床、地面等の色)を特定し、RAM52等に記録する。
図5は、RGB撮像部21が撮像した画像の一例を示す図である。
図5の例では、制御装置50がC1〜C4の4点を指定することによって、その範囲内の検知領域80が指定されている。検知領域80には、少なくともユーザの靴の先端位置の位置が含まれるように設定する必要がある。そこで、照射部30から検知領域80の範囲を床等に示しながら、検知領域80の範囲の大きさを指定するようにしても良い。初期設定時にPC等を制御装置50に接続し、PC等を利用して検知領域80の大きさを指定するようにしても良い。
次に、制御装置50は、検知部20から深度データを取得し(S11)、被投影面として指定された検知領域80に含まれる全てのピクセルについて、ピクセル毎の位置座標データ及び深度データを取得し、RAM52へ記録する(S12)。
図6は、検知領域80における深度データを説明するための図である。
図6に示すように、検知部20の直下にある検知領域80上の点D1と検知部20から離れた位置にある点D2では、同じ検知領域80上でありながら、検知部20からの深度データに差が出てしまう。そこで、検知領域80の全てのピクセルについて、位置座標データ及び深度データを予め取得して記録するようにした。
次に、制御装置50は、照射部30に所定の画像データを送信して基準投影画像71を検知領域80上に投射させ、雲台40に所定の制御データを送信して雲台40を制御して基準投影画像71を移動させる(S13)。
基準投影画像71は、図5に示すように、円形の枠内に表示された5つの黒点である。なお、図5に示す基準投影画像71は、一例であって、他の画像を利用することもできる。また、図5における基準投影画像71−1は、雲台40の直下であって、本例における基準位置に投影されたものである。なお、雲台40と検知領域80との位置関係及び投影画像の基準位置等は、状況に応じて適宜定めることが可能である。
次に、制御装置50は、検知部20からのRGBデータ及び位置座標データを取得する(S14)。さらに、制御装置50は、5つの黒点を利用して、基準投影画像71の位置を特定し、雲台40へ送信した制御データと、特定された基準投影画像71の位置座標データとの関係をRAM52上に構成されたデータテーブルに記録する(S15)。
制御装置50は、上述したS13〜S15を、所定の時間間隔で基準投影画像71を移動させながら、検知領域80の全てをカバーするように繰り返し行う(S16)。図5においては、基準投影画像71−2〜71−7を示したが、上記は一例であって、位置を特定するために基準投影画像を移動させる1回の移動量等は適宜定めることができる。
制御装置50は、S13〜S16を所定回数繰り返すことによって、検知領域80の全領域について、基準投影画像71の位置座標データと制御データと対応関係を表すデータテーブルを完成させ(S17)、一連の動作を終了する。
制御装置50は、S17で完成したデータテーブルを利用することによって、指定された検知領域80上の任意の位置に、雲台40を制御して入力用画像70を移動させることが可能となる。逆に、制御装置50は、データテーブルを利用することによって、現在投影している入力用画像70の検知領域80上での位置を特定することもできる。
図7は、照射部30が投影する入力用画像の例を示す図である。
図7(a)に示す入力用画像70には、ペダル型のエフェクター画像81が含まれている。点線71で囲ったペダル部分において、ユーザの靴の先端位置がタップ(上下動)した場合には、制御装置50は、ペダルが踏まれた場合と同様な入力操作がなされたと判断する。
図7(b)に示す入力用画像70´には、プッシュスイッチ型のエフェクター画像81´が含まれている。点線72で囲ったプッシュスイッチ部分において、ユーザの靴の先端位置がタップした場合には、制御装置50は、プッシュスイッチが踏まれた場合と同様な入力操作がなされたと判断する。
図7(c)に示す入力用画像70´´には、マルチタイプ型のエフェクター画像81´´が含まれている。点線73〜76で囲ったスイッチ部分及び点線77で囲ったペダル部分において、ユーザの靴の先端位置がタップした場合には、制御装置50は、各スイッチ又はペダルが踏まれた場合と同様な入力操作がなされたと判断する。
図7(a)〜図7(c)に示す入力用画像は一例であって、照射部30は、制御装置50からの画像データに基づいて、様々な種類の入力用画像を投影することが可能である。
制御装置50は、照射部30へ送信する画像データに基づいて、入力用画像に含まれる入力ボタンの種類及び入力用画像内の配置位置を判断することができる。さらに、制御装置50は、雲台40へ送信した制御データ及び図4のS17で作成したデータテーブルに基づいて、入力用画像の検知領域80内の位置を特定することができる。したがって、制御装置は、照射部30へ送信する画像データ及び雲台40へ送信した制御データに基づいて、各入力ボタンの検知領域80内の位置を特定することができる。
図8は、情報入力装置1における制御フローの一例を示す図である。
図8に示す制御フローは、制御装置50のROM53に予め記憶されたプログラムに従って、制御装置50のCPU51が、検知部20、照射部30及び雲台40を制御して実行するものである。図8に示す制御フローは、所定の時間間隔(例えば、100ms毎)で繰り返し実行される。
最初に、制御装置50は、照射部30へ送信した画像データ及び雲台40へ送信した制御データを取得する(S20)。次に、制御装置50は、検知部20からRGBデータ、位置座標データ及び深度データを取得する(S21)。なお、S20とS21の順番は逆であっても良い。
次に、制御装置50は、S21で取得したRGBデータ及び位置座標データに基づいて、靴の先端位置を特定し、S21で取得した深度データ基づいて、特定した靴の先端位置の深度データを取得する(S22)。
図9は、制御装置50がS21で取得したRGBデータに基づいた画像例である。
図9において、検知領域80内には、譜面台65の三脚部、ユーザの右足68の一部、ユーザの左足69の一部、楽器60と制御装置50とを接続するコード66の一部が写り込んでいる。制御装置50は、予め記憶されている検知領域80の背景色(図4のS10参照)と、S21で取得したRGBデータを比較することによって、背景色とは異なる部分をグルーピングして物体として識別する。例えば、図9の例では、譜面台65の三脚部、ユーザの右足68の一部、ユーザの左足69の一部、楽器60と制御装置50とを接続するコード66の一部の4つの物体を識別する。
次に、制御装置50は、公知の識別方法に基づいて、各物体の最端部を特定する。図9の例では、点P1、点P4、点P7、点P10、及び点P13の5点がそれに該当する。次に、特定した最端部から、同じ物体の周辺部上で、予め定められた距離だけ左右に離れた2つの点を特定する。例えば、点P1に関しては、点P2及び点P3が該当し、他の4つの最端部の点についても同様に特定される。
次に、制御装置50は、各物体について、最端部の点と、その左右の2点の合計3点から、公知の計算方向に基づいて、物体の端部における曲率を計算する。例えば、点P1、P2及びP3から曲率を求める。通常、足元にある物体で、端部の曲率が小さいものが、靴の端部であるので、所定の閾値を設定することで、物体が靴の端部であるか否かを識別することが可能である。図9の例では、上記の識別方法に基づいて、ユーザの右足68に関して点P4が靴の先端位置と特定され、ユーザの左足69に関して点P1が靴の先端位置と特定される。なお、譜面台65及びコード66は、靴の先端位置とは特定されない。
次に、制御装置50は、靴の先端位置として特定された点P1及びP4の深度データを合わせて取得し、靴の先端位置の位置座標データ及び深度データをセットにしてRAM52等に記憶する(S23)。
次に、制御装置50は、照射部30を制御して、入力用画像70をS23で特定した靴の先端位置の位置座標データに基づいて、靴の先端位置を追尾するように移動させて表示する(S24)。
図10は、入力用画像70の追尾を説明するための図である。
在る時点で、ユーザの右足68aが矢印Eの方向に移動して右足68bの位置となった場合、それに応じて、制御装置50は、入力用画像70aを矢印Fの方向に移動して、入力用画像70bとなるように照射部30を制御する。図10の例では、入力用画像70は、図7(a)に示したヘダル型のエフェクターの画像81であり、靴の先端位置P4に対応して、ペダル部分が投影されるように制御されている。
次に、制御装置50は、入力操作がなされたか否かの判定を行う(S25)。入力操作がなされたか否かの判定は、靴の先端位置が(踵を軸として)タップしたか否かによって行う。
図11は、靴の先端位置のタップを説明するための図である。
制御装置50は、S23において記憶された前回の靴の先端位置の位置座標データと、今回S22で特定された靴の先端位置の位置座標データとがほぼ同じ場合、S23において記憶された前回の靴の先端位置の深度データと、今回S22で特定された靴の先端位置の深度データとの距離(又は差異)を演算により求める。前記距離が、所定の閾値(例えば、5cm)以上あった場合、制御装置50は、靴の先端位置がタップした、即ち、入力操作が行われたと判定する。
図11の例では、ユーザの右足68aの先端位置P4が、右足68cの先端位置P4´へ距離Sだけ移動した場合、距離Sが閾値より大きかった場合には、入力操作があったものと判定される。なお、上記の判定手法は、ユーザの足先によって入力操作が行われたか否かを判断する一例であって、これに限定されるものではない。
S25において入力操作があったと判定された場合、制御装置50は、S20で取得した画像データ及びS24で変更した制御データに基づいて、入力用画像70に含まれる入力ボタンの検知領域80内の位置を特定する(S26)。
次に、制御装置50は、S25において入力操作があったと判定された靴の先端位置に対応する入力用画像70に含まれる入力ボタン(図7(a)において点線71で囲ったペダル部分)を特定する(S27)。次に、制御装置50は、入力操作された入力ボタンに対応した処理を実行して(S28)、一連の処理を終了する。S25において、入力操作が行われなかったと判定された場合も同様に、一連の処理が終了される。図1のシステムでは、入力操作に応じた処理に該当するのは、制御装置50の効果付与部55によって楽器60からの楽音信号に所定の効果を付与するような修正処理を行うことである。
即ち、エレキギターからの音色を変更するエフェクターを入力用画像70として表示した場合には(図7(a)参照)、ユーザは検知領域80の何処で、靴の先端位置を上下動させてもエフェクターを動作させたのと同じ効果を得ることが可能となる。
上述した情報入力装置1では、ユーザの靴の先端位置を特定して、ユーザの靴の先端位置を追尾するように入力用画像70を投影し、ユーザの靴の先端位置のタップを検出して入力操作と判定している。したがって、楽器を演奏しているユーザは、単に、靴の先端を、所望の位置でタップさせるだけで、所望の入力操作を行うことができ、演奏中にエフェクターの位置を探す必要がなくなる。また、入力用画像70は、自由に設計することができるので、所望の入力操作を容易に行うことができる(図7(a)〜図7(c)参照)。
上記の例では、楽器からの楽音信号を処理する機能を足で操作するようにしたが、本発明に係る情報入力装置は、上記のような操作に限定されるものではない。例えば、本発明に係る情報入力装置では、手が塞がった状態で、ネットワーク接続を行うような入力操作等に応用することが可能である。
上記の例では、ユーザの靴の先端位置を検出して、ユーザの靴の先端位置の動作に応じて入力操作がなされたか否かの判定を行った。しかしながら、検出するユーザの足の部位は、靴の先端位置だけなく、靴の踵、靴全体の形状、膝やくるぶしの部分等であって良く、靴の先端位置に限定されるものではない。
上記の例では、ユーザの靴の先端位置の深度データと検知領域の深度データとの差(距離)が所定の閾値を超えて上下に移動したことを検出して、ユーザの足がタップしたとの判定を行った。しかしながら、ユーザの足を利用した入力操作はこのような検知領域80のステージ、床及び地面等を基準として、上〜下又は下〜上への靴の先端位置の移動だけでなく、例えば、靴の先端位置が、上〜下〜上等に移動した場合に初めてタップをしたと判定しても良い。さらに、靴の先端位置の速度や変化量に応じて、タップをしたと判定するようにしても良い。
上記の例では、靴の先端位置を追尾するように入力用画像を投影した。しかしながら、常に、靴の先端位置を追尾するように入力用画像を投影すると、逆にタップがしにくくなる場合もあるので、靴の先端位置が所定距離以上移動したときに初めて、入力用画像が靴の先端位置を追尾するように制御しても良い。
上記の例では、靴の先端位置によるタップを検出した場合には、タップによる入力操作に応じた操作信号を制御装置50の外部機器(例えば、アンプ61)へ出力するようにした。しかしながら、足の先端位置の微妙な上下動を全て検出すると、チャタリングのような状況が発生することから、所定時間内(例えば、1s)に、複数回(3回)以上のタップが検出された場合に、操作入力が無かったと判定するようにしても良い。
図12は、足による入力の他の例を示す図である。
図12は、図9と同様に、制御装置50がS21で取得したRGBデータに基づいた画像例である。図12では、ダミースイッチ90が、検知領域80で検知されている。ダミースイッチ90は、実体はあるが、ユーザが足によるクリック感を得るためだけの単なるスイッチであり、他の装置との接続及び情報の授受は行わない。
図8に示した制御フローでは、靴の先端位置をリアルタイムで検出し、それを追尾するように、入力用画像70を移動させて表示した。しかしながら、図12に示す例では、制御部50は、ダミースイッチ90を検出し、ダミースイッチ90のスイッチ位置である中心部P20で、靴の先端位置がタップした場合に、入力操作が行われたと判定する。ダミースイッチ90の形状の情報及びそのスイッチ位置の情報は、予め制御装置50のROM53等に記録されており、制御装置50は、図8の制御フローにおけるS22でダミースイッチ90を検出し、その中心部P20を特定することができる。
なお、ダミースイッチ90の検出は、最初の1回だけ(通常、一旦スイッチを置いてしまえば、以後ダミースイッチを移動させる必要性は低い)としても良いし、所定の時間間隔で繰り返し行う(ユーザが足でダミースイッチを移動させてしまう可能性がある)ようにしても良い。
また、図12に示すようなダミースイッチ90を利用する場合には、あえて入力用画像70を投影する必要はないが、ユーザがその場所を確認し易くするための、光スポット91を、検出したダミースイッチ90が存在する場所に投影するようにしても良い。さらに、検知領域80内に、ダミースイッチが複数ある場合、ダミースイッチを相互に識別するために、ダミースイッチを照らす光スポットの外形形状をダミースポットに応じて変化(丸、四角、三角等)させても良い。また、各ダミースイッチの近傍に異なった数字、マーク、所定の説明情報等を投影するようにしても良い。
図13は情報入力装置1における制御フローの他の例を示す図であり、図14及び図15は図13に示す制御フローを説明するための図である。
図13に示す制御フローは、制御装置50のROM53に予め記憶されたプログラムに従って、制御装置50のCPU51が、検知部20、照射部30及び雲台40を制御して実行するものである。図13に示す制御フローは、所定の時間間隔(例えば、100ms毎)で繰り返し実行される。また、図13に示す制御フローの内、S30〜S33は、図8に示すS20〜S23と同様であるので、その説明を省略する。
次に、制御装置50は、靴の先端位置がダブルタップしたか否かの判定を行う(S34)。ダブルタップしたか否かは、図8のS25で操作入力がなされたか否かを判定する際に考慮した「靴の先端位置のタップ」が(図11参照)、所定時間以内(例えば、2秒以内)に、2回行われたか否かにより行う。
S34においてダブルタップがあったと判定された場合、制御装置50は、照射部30を制御して、入力用画像100をS33で特定した靴の先端位置の位置座標データに基づいて、靴の先端位置を追尾するように、その直上に表示する(S35)。
図14は、ユーザの右足68の先端位置P4が認識されていた状態で、ダブルタップが行われた場合に、右足68の直上に入力用画像100が表示された状態を示している。なお、図14に示す入力用画像100は一例であって、それに限定されるものではなく、他の入力用画像を利用することも可能である。
入力用画像100は、インジケータ部110及び4つのアイコン111〜114を有しており、各アイコンに所定の処理内容が予め割り付けられている。さらに、入力用画像100の4つのアイコンが表示された領域を含み、入力用画像100の周囲に外部にまで広がる領域1〜4が対応付けられている(図14及び図15参照)。なお、入力用画像100と領域1〜4の位置関係は、予め定められているものとする。また、例えば、アイコン112には「制御装置50の効果付与部55によって楽器60からの楽音信号に所定の効果を付与するような入力」が割り付けられ、アイコン114には「終了操作」が割り付けられているものとする。
次に、制御装置50は、入力操作がなされたか否かの判定を行う(S36)。入力操作がなされたか否かの判定は、図8のS25と同様であるので、説明を省略する。
S36において入力操作があったと判定された場合、制御装置50は、S35で表示された入力用画像100の位置データ、S30で取得した入力用画像100自体の表示データ、及び、入力用画像100に含まれるアイコンに対応付けられている領域の位置データに基づいて、検知領域80内における領域1〜4の範囲を特定する(S37)。
次に、制御装置50は、S25において入力操作があったと判定された靴の先端位置に対応する領域を特定し、領域に対応するアイコンを特定し、アイコンに対応した情報入力内容を特定する(S38)。また、制御装置50は、特定したアイコンを入力用画像100のインジケータ110内に表示する。
図15は、操作入力が行われたと判定された状態の一例を示している。図15の場合、入力操作が行われたと判定された時の靴の先端位置P4は領域2内であるので、アイコン112に対する入力操作が行われたと認識され、インジケータ110にはアイコン112が表示されている。
次に、制御装置50は、S38で特定された情報入力内容が「終了操作」か否かの判定を行い(S39)、「終了操作」でない場合には、入力操作されたアイコンに対応した処理を実行する(S40)。
制御装置50は、S39において、S38で特定された情報入力内容が「終了操作」であると判定された場合には、入力用画像100を消去して(S41)、一連の処理を終了する。前述したように、S38で特定された領域が領域4(アイコン114)の場合、「終了処理」であると判定される。
図8に示す制御フローでは、図7及び図12に示すような入力用画像の入力ボタンの位置で、入力操作を行う必要があった。これに対して、図13に示す制御フローでは、図15に示す様に、入力用画像100の各アイコンに対応した領域で、入力操作を行えば、対応するアイコンに予め割り当てられた処理を行うような情報入力を行うことが可能となる。したがって、図13に示す制御フローでは、入力用画像の入力ボタン自体をタップしなくても、入力用画像の周囲の所定の領域内でタップを行えば良いので、靴の先端位置の移動距離が短くて済み、入力操作がより容易となる。
上記の例では、図15に示す様に、入力用画像100に含まれる各アイコン111〜114に対応した領域1〜4を、アイコンから放射状に入力用画像100の周囲に、その外側に伸延させた。しかしながら、上記の例は一例であって、アイコンに対応する領域であると容易に認識できるのであれば、他の方法であっても良い。例えば、アイコンを一列に配列して表示し、それぞれのアイコンの直下まで、各アイコンに対応した領域を伸延させても良い。
上記の例では、ユーザが靴の先端で、踵を軸としてダブルタップした場合(図13のS34参照)に、入力用画像100を靴の先端位置を追尾するように表示させた。しかしながら、他の方法で、最初に入力用画像100を表示させるようにしても良い。例えば、入力操作と同様に、シングルタップであっても良い。また、入力用画像100を、最初からホームポジション(図14のH参照)に表示させておき、ダブルタップした位置に靴の先端位置を追尾するように入力用画像100を移動させるように制御しても良い。その場合、終了操作(図13のS41参照)に伴って、入力用画像100を消去するのではなく、ホームポジションに戻るように制御することがより好ましい。さらに、ホームポジションにおける入力用画像100は、実際に入力操作を行う場合と同じ形状や大きさでなくても良く、例えば、縮小して表示しても良い。
上記の例では、ユーザが靴の先端で、踵を軸としてダブルタップした場合(図13のS34参照)に、入力用画像100を靴の先端位置を追尾するように表示させた。しかしながら、一旦入力用画像100を表示させた後にも、靴の先端位置の位置座標を取得し続け、再度ユーザがダブルタップした場合には、再度ダブルタップした靴の先端位置を追尾するように、入力用画像100を移動させても良い。
1 情報入力装置
20 検知部
21 RGB撮像部
22 赤外線カメラ
23 赤外線照射発光部
30 照射部
40 雲台
45 第1モータ
46 第2モータ
50 制御装置
51 CPU
52 RAM
53 ROM
54 I/O
70、70´、70´´、100 入力用画像
90 ダミースイッチ
20 検知部
21 RGB撮像部
22 赤外線カメラ
23 赤外線照射発光部
30 照射部
40 雲台
45 第1モータ
46 第2モータ
50 制御装置
51 CPU
52 RAM
53 ROM
54 I/O
70、70´、70´´、100 入力用画像
90 ダミースイッチ
Claims (9)
- 入力用画像を投影する投影部と、
前記入力用画像の投影位置を変更する投影位置変更部と、
ユーザの足の位置を検知する検知センサと、
前記検知センサにより検知されたユーザの足の位置を前記入力用画像が追尾するように前記投影位置変更部を制御し、且つユーザの足による入力操作を判定して、前記入力用画像による情報入力を検出する制御部と、
を有することを特徴とする情報入力装置。 - 前記検知センサは、深度センサを含み、
前記制御部は、前記深度センサからの深度データに基づいて、前記入力用画像を投影する被投影面からユーザの足までの距離を算出し、算出された距離に基づいてユーザの足による入力操作を判定する、請求項1に記載の情報入力装置。 - 前記制御部は、前記距離に基づいて、ユーザの足先によるタップを検出し、入力操作がなされたか否かの判定を行う、請求項2に記載の情報入力装置。
- 前記制御部は、投影された前記入力用画面上において、ユーザの足による入力操作がなされたと判定された場合に、前記入力用画像による情報入力を検出する、請求項1〜3の何れか一項に記載の情報入力装置。
- 前記制御部は、投影された前記入力用画面の周囲において、ユーザの足による入力操作がなされたと判定された場合に、前記入力用画像による情報入力を検出する、請求項1〜3の何れか一項に記載の情報入力装置。
- 前記制御部は、前記入力用画像による情報入力に対応した操作信号を外部の機器へ出力する、請求項1〜5の何れか一項に記載の情報入力装置。
- 前記制御部は、所定時間以内に所定回数の入力操作があったと判定された場合には、前記操作信号を外部の機器へ出力しないように制御する、請求項6に記載の情報入力装置。
- 前記制御部は、前記検知センサからの検知データを用いて、検知領域内の物体を特定し、特定された物体の曲率から、ユーザの足を検知する、請求項1〜7の何れか一項に記載の情報入力装置。
- 前記入力用画像は、ダミースイッチを照らすための光スポットである、請求項1に記載の情報入力装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012200745 | 2012-09-12 | ||
JP2012200745 | 2012-09-12 | ||
JP2013085898 | 2013-04-16 | ||
JP2013085898 | 2013-04-16 | ||
PCT/JP2013/071796 WO2014041938A1 (ja) | 2012-09-12 | 2013-08-12 | 情報入力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2014041938A1 true JPWO2014041938A1 (ja) | 2016-08-18 |
Family
ID=50278063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014535455A Pending JPWO2014041938A1 (ja) | 2012-09-12 | 2013-08-12 | 情報入力装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2014041938A1 (ja) |
WO (1) | WO2014041938A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019141184A (ja) * | 2018-02-16 | 2019-08-29 | 長田電機工業株式会社 | 歯科治療椅子 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10983604B2 (en) * | 2018-05-16 | 2021-04-20 | Alcon Inc. | Foot controlled cursor |
CN109917913A (zh) * | 2019-03-01 | 2019-06-21 | 南京云家物联网研究院有限公司 | 虚拟投影开关及工作方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3804212B2 (ja) * | 1997-09-18 | 2006-08-02 | ソニー株式会社 | 情報入力装置 |
JPWO2009141855A1 (ja) * | 2008-05-23 | 2011-09-22 | 新世代株式会社 | 入力システム、入力方法、コンピュータプログラム、及び、記録媒体 |
JP5053188B2 (ja) * | 2008-06-18 | 2012-10-17 | 株式会社リコー | 入力装置及び画像形成装置 |
JP5534432B2 (ja) * | 2010-06-28 | 2014-07-02 | Kddi株式会社 | 情報端末装置 |
US9229584B2 (en) * | 2011-06-13 | 2016-01-05 | Citizen Holdings Co., Ltd. | Information input apparatus |
-
2013
- 2013-08-12 JP JP2014535455A patent/JPWO2014041938A1/ja active Pending
- 2013-08-12 WO PCT/JP2013/071796 patent/WO2014041938A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019141184A (ja) * | 2018-02-16 | 2019-08-29 | 長田電機工業株式会社 | 歯科治療椅子 |
Also Published As
Publication number | Publication date |
---|---|
WO2014041938A1 (ja) | 2014-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7623115B2 (en) | Method and apparatus for light input device | |
US10511778B2 (en) | Method and apparatus for push interaction | |
JP5256269B2 (ja) | データ生成装置、データ生成装置の制御方法、及びプログラム | |
JP5598490B2 (ja) | 演奏装置、方法及びプログラム | |
WO2012173001A1 (ja) | 情報入力装置 | |
US10015402B2 (en) | Electronic apparatus | |
JP4590328B2 (ja) | 入力データ処理プログラムおよび情報処理装置 | |
JP5254906B2 (ja) | 電子機器 | |
TW200933452A (en) | Apparatus and method for tracking a light pointer | |
US20110300939A1 (en) | Input for computer device using pattern-based computer vision | |
JPH0844490A (ja) | インターフェイス装置 | |
JP2013069224A (ja) | 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム | |
JP2004246578A (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
WO2012172548A1 (en) | Method for translating a movement and an orientation of a predefined object into a computer generated data | |
JP2004078977A (ja) | インターフェイス装置 | |
JP5976787B2 (ja) | レーザー・ダイオード・モード | |
WO2014041938A1 (ja) | 情報入力装置 | |
US20130082923A1 (en) | Optical pointer control system and method therefor | |
JP2005063225A (ja) | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム | |
JP6561400B2 (ja) | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 | |
JP5306780B2 (ja) | 入力装置 | |
JP2005300971A (ja) | 操作支援システム、及び操作支援方法 | |
JP2000056916A (ja) | ハンドポインティング装置 | |
US20220375362A1 (en) | Virtual tutorials for musical instruments with finger tracking in augmented reality | |
JP2015094828A (ja) | 画像投影方法、情報入力装置及びプログラム |