JP6210466B1 - Information input device - Google Patents
Information input device Download PDFInfo
- Publication number
- JP6210466B1 JP6210466B1 JP2016213096A JP2016213096A JP6210466B1 JP 6210466 B1 JP6210466 B1 JP 6210466B1 JP 2016213096 A JP2016213096 A JP 2016213096A JP 2016213096 A JP2016213096 A JP 2016213096A JP 6210466 B1 JP6210466 B1 JP 6210466B1
- Authority
- JP
- Japan
- Prior art keywords
- palm
- information input
- image
- input device
- detection unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】電子機器の操作にあたり、リモコンのような特別の装置のみならず、操作用の画像を投影するスクリーン等の専用の投影対象も不要であり、かつ、ユーザーが片手のみで他の電子機器を操作することを可能にする。【解決手段】人の手のひらPを検知可能な検知部3と、手のひらPに、電子機器20を操作するための複数の処理に対応した複数の選択肢画像(ボタンB)を含む情報入力用画像を投影するプロジェクタ5と、検知部3およびプロジェクタ5を制御する制御部1と、を備える情報入力装置10であって、制御部1は、所定のタイミングにおいて検知部3が検知した手のひらPの位置に対応した絶対位置を記憶し、プロジェクタ5は、絶対位置を基準として情報入力用画像を投影し、検知部3が、手のひらPの中心に所定の選択肢画像が投影された状態から、手のひらPによる所定の動作を検知したとき、制御部1は、当該所定の選択肢画像(ボタンB)が選択されたと判定し、選択した選択肢画像(ボタンB)に対応する処理を電子機器20に送信する。【選択図】図9When operating an electronic device, not only a special device such as a remote controller but also a dedicated projection target such as a screen for projecting an operation image is unnecessary, and the other electronic device can be operated by a user with only one hand. It is possible to operate. An information input image including a plurality of option images (buttons B) corresponding to a plurality of processes for operating an electronic device 20 on a palm P and a palm P capable of detecting a human palm P. An information input device 10 that includes a projector 5 to project, a detection unit 3 and a control unit 1 that controls the projector 5, wherein the control unit 1 is positioned at a palm P detected by the detection unit 3 at a predetermined timing. The corresponding absolute position is stored, the projector 5 projects an information input image with the absolute position as a reference, and the detection unit 3 projects a predetermined option image on the center of the palm P from the predetermined position by the palm P. Is detected, the control unit 1 determines that the predetermined option image (button B) is selected, and performs processing corresponding to the selected option image (button B). To send. [Selection] Figure 9
Description
本開示は、電子機器を操作する情報入力装置に関する。 The present disclosure relates to an information input device that operates an electronic device.
従来より、ユーザーが種々の電子機器を操作する場合、操作のための情報入力にはリモコン等の情報入力装置を利用することが一般的に行われている。リモコン等は置き場所が不明となることも多く、ユーザーが不便さを感じることも多い。 Conventionally, when a user operates various electronic devices, an information input device such as a remote control is generally used to input information for the operation. The location of the remote control is often unknown, and the user often feels inconvenient.
そこで、リモコン等の機器を用いず情報入力を行うことができる種々の装置が提案されている。例えば、特許文献1〜4は、投影装置からの照射光が投影される被投影面を検知する検知部を備えた情報入力装置を開示している。この照射光により、被投影面上に電子機器を操作する操作入力のための情報入力用画像が投影される。ユーザーは、情報入力用画像をタッチ操作等することにより、電子機器を操作することができる。
Therefore, various devices capable of inputting information without using a device such as a remote controller have been proposed. For example,
特に特許文献1〜4においては、被投影面として手のひらを用いることを想定しており、ユーザーはスクリーンの如き専用の投影対象を用意することなく、電子機器を操作することが可能となっている。
In particular, in
特許文献1〜4の情報入力装置は、専用の投影対象なしで、情報入力用画像を手のひらに投影することが可能となっている。しかしながら、投影面を手のひらにした場合、情報入力用画像を投影する面積が制限されることになる。また、手のひらを単に投影面として用いることを前提としており、情報の入力にはもう一方の手による操作が必須となる。よって、従来の情報入力装置には依然として不便な面が存在している。
The information input devices of
本開示は、専用の投影対象を用意せず、また、ユーザーの片手のみで簡易な操作入力を可能とする情報入力装置に関する。 The present disclosure relates to an information input apparatus that does not prepare a dedicated projection target and enables simple operation input with only one hand of a user.
本開示の情報入力装置は、人の手のひらを検知可能な検知部と、手のひらに、電子機器を操作するための複数の処理に対応した複数の選択肢画像を含む情報入力用画像を投影する投影装置と、前記検知部および前記投影装置を制御する制御部と、を備える情報入力装置であって、前記制御部は、所定のタイミングにおいて前記検知部が検知した手のひらの位置に対応した絶対位置を記憶し、前記投影装置は、前記絶対位置を基準として前記情報入力用画像を投影し、前記検知部が、手のひらの中心に所定の選択肢画像が投影された状態から、手のひらによる所定の動作を検知したとき、前記制御部は、当該所定の選択肢画像が選択されたと判定し、選択した選択肢画像に対応する処理を前記電子機器に送信し、前記制御部は、前記投影装置から前記絶対位置に至る方向に沿って積層された複数の情報入力用画像を生成し、前記投影装置は、前記方向に沿って積層された複数の情報入力用画像を投影する。 An information input device according to the present disclosure includes a detection unit capable of detecting a palm of a person, and a projection device that projects an information input image including a plurality of option images corresponding to a plurality of processes for operating an electronic device on the palm. And a control unit that controls the detection unit and the projection device, wherein the control unit stores an absolute position corresponding to a palm position detected by the detection unit at a predetermined timing. Then, the projection device projects the information input image based on the absolute position, and the detection unit detects a predetermined operation by the palm from a state in which the predetermined option image is projected at the center of the palm. when the control unit transmits determines that the predetermined option images is selected, a process that corresponds to a selection image selected to the electronic device, the control unit, or the projection device Wherein generating a plurality of information input image that is stacked along a direction leading to an absolute position, the projection device projects a plurality of information input image that is laminated along the direction.
本開示の情報入力装置によれば、電子機器の操作にあたり、リモコンのような特別の装置のみならず、操作用の画像を投影するスクリーン等の専用の投影対象も不要であり、かつ、ユーザーが片手のみで他の電子機器を操作することが可能となり、より簡易な操作入力が可能となる。 According to the information input device of the present disclosure, when operating an electronic device, not only a special device such as a remote controller but also a dedicated projection target such as a screen for projecting an operation image is unnecessary, and a user can Other electronic devices can be operated with only one hand, and simpler operation input is possible.
以下、適宜図面を参照しながら、本開示に係る情報入力装置を具体的に開示した実施形態(以下、「本実施形態」という)を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, an embodiment (hereinafter referred to as “the present embodiment”) that specifically discloses an information input apparatus according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
以下、本開示を実施するための好適な本実施形態について、図面を参照して詳細に説明する。 Hereinafter, preferred embodiments for carrying out the present disclosure will be described in detail with reference to the drawings.
(基本構成)
図1は、本開示の情報入力装置の一実施形態のブロック図である。情報入力装置10は、制御部1と、検知部3と、プロジェクタ(投影装置)5とを含む。情報入力装置10はリモコン等の装置を必要とすることなく、電子機器20の操作をするための情報をユーザーが入力するための装置である。電子機器20の種類は特に限定されず、室内の照明システム、空調システム、静止画、動画、音声などの種々のコンテンツを再生・記録するコンテンツ機器等、種々の機器が含まれる。情報入力装置10と電子機器20をインターネット等の通信回線で接続することにより、電子機器20を遠隔地から操作することも可能となる。
(Basic configuration)
FIG. 1 is a block diagram of an embodiment of an information input device of the present disclosure. The
制御部1は、情報入力装置10の全体動作を司るプロセッサ、コンピュータ装置であり、検知部3、プロジェクタ5と別体の装置として設けてもよいし、検知部3またはプロジェクタ5内に設けられてもよいが、検知部3、プロジェクタ5を制御可能である。また、制御部1は、メモリなどの図示せぬ記憶装置を有しており、情報入力装置10を動作させる種々のプログラムや、検知部3が検知した対象物の座標、その他の情報を記憶可能である。
The
検知部3は、例えば赤外線発光装置と赤外線カメラを含む赤外線方式の深度センサーである。赤外線発光装置が空間に赤外線を照射し、赤外線カメラが、空間内に存在する対象物からの赤外線の反射光を受光して撮像し、赤外線画像の画素毎の位置座標データ(x,y)と、各画素に対応する撮像された物体までの距離を示す深度データ(d)とを、制御部1に出力する。ただし、対象物そのものの位置と距離を把握できる装置であれば、検知部3の種類は特に限定されない。
The
図2に示すように、本開示における検知対象である対象物は、少なくとも人(ユーザー)が手を拡げて形成される手のひらP(いわゆる「パー」の状態)を含む。制御部1は、予め個人差を考慮した手のひらの画像パターンを所定の記憶部に記憶しており、検知部3が撮像した赤外線画像と、当該画像パターンを比較し、所定の条件を満たしたとき(赤外線画像と画像パターンの差が所定値以下になった時)、手のひらPが検知されたと判定する。そして、制御部1は、当該手のひらPの位置座標データと、深度データをプロジェクタ5に出力する。
As shown in FIG. 2, an object that is a detection target in the present disclosure includes at least a palm P (so-called “par” state) formed by a person (user) spreading his / her hand. The
プロジェクタ5は、制御部1から受信した手のひらPの位置座標データと、深度データに基づき、本開示における対象物である手のひらに対して可視光を照射し、画像を投影する投影装置であり、その種類は特に限定されない。図2に示すように、プロジェクタ5は、検知部3が検知した手のひらPに対し、可視光を投影することによって、電子機器20を操作する操作情報を入力するための情報入力用画像を手のひらPの上に形成する。本実施形態では、複数の円形の画像である複数のボタンBを含む情報入力用画像が形成されている。後述するように、各ボタンBは、電子機器20を操作するための複数の処理(スイッチオン、種々のモード切り替え等)に対応した複数の選択肢画像に対応する。
The
(動作の概要)
図3〜図6は、本開示の情報入力装置10による入力処理動作を示す概念図である。図3(a)は、空間における手のひらPを検知する一連の動作を示す。情報入力装置10の電源オン等をトリガーとして、検知部3は赤外線の照射を開始する(図3(a)(1))。検知部3が手のひらPを検知した後(図3(a)(2))、制御部1は、手のひらPは追跡すべき対象物であることを判断し、プロジェクタ5に対し可視光の照射を指示し、追跡ポインタCを形成する様に可視光を手のひらPに対し照射する(図3(a)(3))。
なお、手のひらPを検知する特定空間を、ユーザーが予め認識している場合には、追跡ポインタCを照射しなくてもよい。
(Overview of operation)
3 to 6 are conceptual diagrams illustrating an input processing operation by the
In addition, when the user recognizes the specific space for detecting the palm P in advance, the tracking pointer C may not be irradiated.
図3(b)は、選択肢画像であるボタンBを形成する一連の動作を示す。追跡ポインタCの照射後、制御部1は検知部3に対し、対象物を補足するよう指示し、検知部3が対象物である手のひらPの位置座標データ、深度データを補足し続ける(図3(b)(1))。この後、時系列を示す矢印A1に沿うように、ユーザーが手を握り、形状が握りこぶしF(いわゆる「グー」の状態)に変化し、さらに手を拡げて手のひらPを形成し、検知部3が補足し続けている位置座標データ、深度データに基づき、この一連の動作を検知する(図3(b)(2))。制御部1は、検知したこの動作により、ユーザーが電子機器20を操作する準備ができたと判断し、情報入力用画像を構成する複数のボタンBを手のひらPの上に形成する(図3(b)(3))。このとき制御部1は、図3(b)(2)の動作タイミングにおいて検知部3が検知した手のひらの空間内の位置を絶対位置として、図示せぬ記憶装置に記憶した上で、ボタンBを投影する。「絶対位置」は、図3(b)(2)に示すような所定のタイミングにおいて検知部3が検知した手のひらPの位置に対応し、検知部3が検知し得る空間内の絶対的な位置座標に対応する。よって、絶対位置は、手のひらPが移動しても、変動することはない。なお、限られた範囲内においては、絶対位置を、手のひらPの移動に少し追従するようにしてもよい。
FIG. 3B shows a series of operations for forming the button B that is an option image. After irradiation of the tracking pointer C, the
図4(a)は特定のボタンを選択する一連の動作の一例を示す。複数のボタンBが手のひらPの上に形成された状態で(図4(a)(1))、ユーザーが手のひらPを水平方向(横方向)に動かす(図4(a)(2))。そして、特定のボタンBFが手のひらPの中心に位置したところで、手のひらPを止めると、ユーザーが当該ボタンBFの選択を要望していると制御部1は判定し、当該ボタンBFが選択された選択ボタン(選択肢画像)と判定する(図4(a)(3))。
FIG. 4A shows an example of a series of operations for selecting a specific button. With the plurality of buttons B formed on the palm P (FIGS. 4A and 1), the user moves the palm P in the horizontal direction (lateral direction) (FIGS. 4A and 2). When the specific button BF is located at the center of the palm P, when the palm P is stopped, the
図4(b)は、図4(a)とは異なる、特定のボタンを選択する一連の動作の他の例を示す。複数のボタンBが手のひらPの上に形成された状態で(図4(b)(1))、ユーザーが手のひらPを上下方向(高さ方向)A2にスライドさせる(図4(b)(2))。このとき、手のひらPは、例えば手のひらP1で示す上の高さや、手のひらP2で示す下の高さに移動する。そして、それぞれの高さで表示されるボタンは、ボタンB1、B2で示す如く変化する。すなわち、制御部1は、上下方向に沿って積層された複数の情報入力用画像を生成し、プロジェクタ5が、上下方向に沿って積層された複数の情報入力用画像を投影する。
なお、図5に示すように、手のひらP上に複数のボタンBが最初に形成されたとき(初期時)には、手のひらPの中央付近には、選択可能なボタンBを配置しないことが望ましい(図5(a)参照)。手のひらPの中央付近のボタンは、初期時にユーザーが意図せずに選択してしまうことが多いため、初期時の形成では手のひらPの中央付近に選択可能なボタンBを配置せずに、空きスペースや、メッセージ等を表示する領域とする。なお、初期時の形成以外では、手のひらPの中央付近に選択可能なボタンBを配置してもよい。
FIG. 4B shows another example of a series of operations for selecting a specific button, which is different from FIG. With the plurality of buttons B formed on the palm P (FIG. 4B (1)), the user slides the palm P in the vertical direction (height direction) A2 (FIGS. 4B and 2). )). At this time, the palm P moves, for example, to an upper height indicated by a palm P1 or a lower height indicated by a palm P2. The buttons displayed at the respective heights change as indicated by buttons B1 and B2. That is, the
As shown in FIG. 5, when a plurality of buttons B are first formed on the palm P (initial time), it is desirable not to arrange the selectable button B near the center of the palm P. (See FIG. 5 (a)). The buttons near the center of the palm P are often selected unintentionally by the user at the initial stage. Therefore, in the initial formation, the selectable button B is not arranged near the center of the palm P, and an empty space is provided. Or an area for displaying a message or the like. Other than the initial formation, a selectable button B may be arranged near the center of the palm P.
以降は、図4(a)(2)、図4(a)(3)で示した動作をそれぞれの高さで行うことにより、制御部1はボタンBFを選択ボタンとして判定することができる(図5(b)参照)。すなわち、手のひらP、P1、P2で示すそれぞれの高さで、ユーザーが手のひらを水平方向にスライドさせる(図4(a)(2))。特定のボタンBFが手のひらの中心に位置したところで、手のひらを止めると、ユーザーが当該ボタンBFの選択を要望していると制御部1は判定し、当該ボタンBFを選択ボタンとして判定する(図4(a)(3))。
Thereafter, the
図6(a)は、選択した選択ボタンBFに対応する処理の実行決定を行う一連の動作を示す。ボタンBFを選択ボタンとして判定した後(図6(a)(1))、ユーザーが手のひらを握り、握りこぶしFを形造ることにより、制御部1はボタンBFの最終的な選択を判定し、その後、握りこぶしFの状態から手のひらを開くと、当該ボタンBFの示す処理動作の実行命令を、電子機器20に送信する(図6(a)(2)、図6(a)(3))。尚、最終的な選択がなされたことをユーザーに視覚的に知らせるため、ボタンBFの表示態様を変更させてもよい。
FIG. 6A shows a series of operations for determining execution of a process corresponding to the selected selection button BF. After determining the button BF as a selection button (FIGS. 6A and 1), the
図6(b)は情報入力装置10による入力処理動作の終了を命ずる動作の一例を示す。ユーザーが手のひらPを下に向けて垂直にすることにより、制御部1は入力処理動作の終了を判定する。図6(c)は終了を瞑する動作の他の例であり、ユーザーが手のひらPを数回上下に動かすような動作の後(図6(c)(1))、本動作を停止するような手のひらPの所定の動作を検知したとき(図6(c)(2))、制御部1は入力処理動作の終了を判定する。プロジェクタ5は、複数のボタンBを含む情報入力用画像の投影を停止する。もちろん、終了判定の動作は特には現令されない。また、手のひらPが、検知部3が検知し得る検知エリアから外れた場合も、制御部1は入力処理動作の終了を判定してよい。ただし、例えばボタンの投影が終了しても、電子機器20によるコンテンツの再生は継続してもよい。再生(動作)したコンテンツを終了する場合は、例えば他の終了用のボタンを選択するようにしてもよい。
FIG. 6B shows an example of an operation for instructing the end of the input processing operation by the
(入力処理動作)
図7は、情報入力装置10による入力処理動作の一例のフロー図である。本フロー図は、専ら、図4(a)に示す特定のボタンを選択する動作を含む処理ステップを示し、手のひらPを上下方向に動かさず、水平方向にのみ動かしてボタンBFを選択ボタンとして判定する(図4(a)(3))、いわば2次元の選択処理を示す。
(Input processing operation)
FIG. 7 is a flowchart of an example of an input processing operation by the
まず検知部3は、手のひらが検知されるまで検知を続行し(ステップS1;No)、手のひらを検知すると(ステップS1;Yes)、検知を受けた制御部1からの指示により、プロジェクタ5が手のひらへ追跡ポインタを投影し、検知部3は、手のひらの移動に連れて移動する追跡ポインタを追跡する(ステップS2)。ここまでが、図3(a)、図3(b)(1)の動作に該当する。
First, the
次に検知部3が、図3(b)(2)に示すような手のひらの何らかの動作(ジェスチャ)の検知を行い、何ら動作を検知しない場合は、ステップS1に戻り、再度手のひらの検知を開始する(ステップS3;No)。一方、検知部3が、図3(b)(2)に示すような手のひらの動作を検知した場合は(ステップS3;Yes)、手のひらへ選択肢画像である複数のボタンBを投影する(ステップS4)。ここでは、ボタンBを含む情報入力用画像が、特定の絶対位置を基準として投影される(図3(b)(3))。尚、ボタンBを投影することを決定する動作は、図3(b)(2)に示す手を握り締めて拡げる動作には限定されず、他の所定の動作であってもよい。
Next, the
そして、検知部3が再度手のひらの検知を行い、ここで検知されなかった場合は、制御部1は手のひらの検知が失敗したと判定し、ステップS1に戻り、再度手のひらの検知を開始する(ステップS5;No)。一方、検知部3が、再度手のひらの検知を行い、手のひらを検知した場合は(ステップS5;Yes)、制御部1は、次に手のひらの何らかの動作の有無を判定する(ステップS6)。ここで、検知部3が、図3(b)(2)に示すような手のひらの動作を検知した場合は(ステップS6;Yes)、制御部1は再度ボタンBを含む情報入力用画像の絶対位置を決定すべきと判定し、ステップS4へ戻る。一方、検知部3が手のひらの何らかの動作を検知しない場合は(ステップS6;No)、制御部1は手のひらの中心と投影した特定のボタンBとの位置が、所定の時間以上合致したか否かの判定を行い、合致しない場合は、ステップS5に戻り、再度手のひらの検知を行う(ステップS7;No)。一方、制御部1が、手のひらの中心と投影した特定のボタンBとの位置が所定の時間以上合致したと判定した場合は(ステップS7;Yes)、図4(a)(3)に示すように、当該特定のボタンの表示を変更し、選択ボタンBFの表示をする(ステップS8)。
And the
さらに検知部3は、手のひらの何らかの動作(ジェスチャ)の検知を行い、手のひらの何らかの動作を検知しない場合は、ステップS5に戻り、再度手のひらの検知を開始する(ステップS9;No)。一方、検知部3が、図6(a)(1)に示すような手のひらの何らかの動作を検知した場合は(ステップS9;Yes)、図6(a)(3)に示すように選択ボタンBFの表示を変更する(ステップS10)。そして、制御部1が、当該選択ボタンBFに割り当てられた処理の実行命令を電子機器20に送信し(ステップS11)、処理が終了する。
Furthermore, the
図8は、情報入力装置10による入力処理動作の他の例のフロー図である。本フロー図は、図7におけるステップS7、ステップS8の代わりにステップS71〜ステップS82を実施する。すなわち、図4(b)、図4(a)(2)、図4(a)(3)に示す特定のボタンを選択する動作を含む処理ステップを示し、手のひらPを水平方向のみならず上下方向にも動かして、ボタンBFを選択ボタンとして判定する(図4(a)(3))、いわば3次元の選択処理を示す。
FIG. 8 is a flowchart of another example of the input processing operation by the
すなわち、検知部3が手のひらの何らかの動作(ジェスチャ)を検知しない場合は(ステップS6;No)、制御部1は手のひらの中心と投影したボタンとの位置が、特定の高さにおける平面内で合致したか否かの判定を行い、合致しない場合は、ステップS5に戻り、再度手のひらの検知を行う(ステップS71;No)。一方、制御部1が、平面内で手のひらの中心と投影したボタンとの位置が合致したと判定した場合は(ステップS71;Yes)、ボタンの表示を変更する(ステップS8)。さらに制御部1は手のひらと投影したボタンとの位置が、上下方向において合致したか否かの判定を行い、合致しない場合は、ステップS5に戻り、再度手のひらの検知を行う(ステップS81;No)。一方、制御部1が、上下方向において手のひらと投影したボタンとの位置が合致したと判定した場合は(ステップS71;No)、ボタンの表示を変更する(ステップS82)。なお、図8の入力処理動作のフローにおいては、ステップ71とステップ81の順番を入れ替えてもよい。
That is, when the
図9は、本開示に係る情報入力装置10の主たる特徴点について説明した概念図である。図9(a)に示すように、情報入力装置10は手のひらPをカバーするような広い範囲に複数の選択肢画像である複数のボタンBを表示させることができ、ユーザーに対し操作の選択肢を与えることができる。また、図9(a)と図9(b)との比較から明らかなように、たとえ手のひらPが移動しても、情報入力装置10は手のひらPの動きに追従しないように、ボタンBの如き選択肢画像を含む情報入力用画像を空間の絶対位置を基準として投影させることができる。この結果、手のひらPには選択すべき選択ボタンBFと、他のボタンBが同時に並んで投影されることになり、ユーザーは、容易に、安定的にボタンBを選択することが可能となる。
FIG. 9 is a conceptual diagram illustrating main feature points of the
また、手のひらPの中心に位置したボタンBFと隣接した他のボタンBも手のひらPに投影されている。よって、ユーザーは、ボタンBFと他のボタンB比較しながら、ボタンBFを選択することが可能であり、ユーザーは、容易な操作で要望する処理に対応したボタンを選択することが可能となる。さらに、手のひらPを握るような何らかの動作(ジェスチャ)によって、選択したボタンを最終的決定することができ、片手のみで選択処理を終了させることができるため、利便性を向上させることができる。尚、手のひらPの「中心」とは厳密には規定されないが、ユーザーが手のひらの中心であると認識できる所定の範囲を持った位置であり、ユーザーが手のひらを動かすことにより、当該所定範囲の位置に選択肢画像(ボタンB)を位置させることができればよい。 Further, another button B adjacent to the button BF located at the center of the palm P is also projected onto the palm P. Therefore, the user can select the button BF while comparing the button BF with another button B, and the user can select a button corresponding to a desired process with an easy operation. Furthermore, the selected button can be finally determined by some action (gesture) such as grasping the palm P, and the selection process can be completed with only one hand, so that convenience can be improved. Although the "center" of the palm P is not strictly defined, it is a position having a predetermined range that the user can recognize as the center of the palm, and the position of the predetermined range by moving the palm by the user It suffices if the option image (button B) can be positioned on the screen.
また、図9では表れていないが、情報入力装置10から見た手のひらPの上下位置(高さ位置)に応じても、情報入力用画像の内容を変化させることが可能である。このため、電子機器20の操作のバリエーションを更に拡充することが可能となる。
Although not shown in FIG. 9, the content of the information input image can be changed also according to the vertical position (height position) of the palm P viewed from the
(応用例)
図10は、情報入力装置10の応用例の一つを説明する概念図である。図4(b)に示した例では、ユーザーは、手のひらの上下方向(高さ方向)に応じて種類の異なる情報入力用画像(およびそれに含まれる選択肢画像)を選択することができるが、何の目印もない場合、上下に他の情報入力用画像が存在するか否かを判断することは困難であると考えられる。よって、高さ方向に他の情報入力用画像が存在するか否かをユーザーに通知する何らかの手段が存在することが望ましい。
(Application examples)
FIG. 10 is a conceptual diagram illustrating one application example of the
図10(a)は、最初に表示される画像であるボタンBに加え、上下方向に他のボタンを含む情報入力用画像が存在する場合は、画像を重ねて表示することにより、ユーザーに高さ方向において複数のボタンが存在することを知らせる例である。本例では、ボタンBの上方向にはボタンB1、下方向にはボタンB2、B3が互いに積層された状態で表示されており、制御部1は、上下方向に沿って積層された複数の選択肢画像であるボタンB、B1、B2、B3の積層状態を表示する積層状態表示画像Baを生成し、プロジェクタ5が積層状態表示画像Baを投影している。ユーザーは直感的に上下方向に手のひらPを移動させることにより、他のボタンも選択可能であることを把握することができ、利便性が向上する。
FIG. 10 (a) shows that when there is an information input image including other buttons in the vertical direction in addition to the button B, which is the image displayed first, the image is displayed in an overlapping manner so that the user can This is an example informing that there are a plurality of buttons in the vertical direction. In this example, the button B1 is displayed with the button B1 in the upward direction and the buttons B2 and B3 are stacked in the downward direction, and the
尚、積層状態表示画像BaにおけるボタンB1、B2、B3はあくまで他のボタンの存在を知らせる役割を果たすのであり、積層状態表示画像Baの一部であって、この手のひらの位置では選択できるボタンはボタンBのみであり、ボタンB1、B2、B3を選択することはできない。ユーザーは、積層状態表示画像Baを見て、図4(b)の要領で手のひらを上下に移動させることにより、ボタンB1、B2、B3を選択することができる。 Note that the buttons B1, B2, and B3 in the stacked state display image Ba play a role of notifying the existence of other buttons, and are a part of the stacked state display image Ba. The buttons that can be selected at the palm position are as follows. Only button B is available, and buttons B1, B2, and B3 cannot be selected. The user can select the buttons B1, B2, and B3 by looking at the stacked state display image Ba and moving the palm up and down as shown in FIG. 4B.
図10(b)は、最初に表示される画像であるボタンBにおいて、上下方向に他のボタンが存在する旨を知らせるメッセージ(文字など)を表示することにより、ユーザーに高さ方向において複数のボタンが存在することを知らせる例である。すなわち制御部1は、上下方向に沿って積層された複数の選択肢画像であるボタンの各々の積層順序を表示する積層順序情報であるメッセージBbを生成し、プロジェクタ5が、ボタンBの各々においてメッセージBbを表示する。本例では「1/4 Movie 1」のメッセージBbが表示されているが、このメッセージにより、ユーザーは、映画を選択するボタンBの上下方向において合計4個のボタンが存在し、本ボタンBは下から1番目のボタンであることを把握することができる。ユーザーは直感的に高さ方向に手のひらPを移動させることにより、他のボタンも選択可能であることを把握することができ、利便性が向上する。
FIG. 10B shows a message (characters or the like) informing the user that there is another button in the vertical direction on the button B, which is the image displayed first, thereby displaying a plurality of messages in the height direction. This is an example of informing that a button exists. In other words, the
図10(c)は、最初に表示される情報入力用画像である厚みの表現されたボタンBに加え、上下方向に他のボタンが存在する場合は、異なる形状の画像を重ねて表示することにより、ユーザーに上下方向において複数のボタンが存在することを知らせる例である。ボタンBの上方向には弦形状のボタンBx、下方向には弦形状のボタンByが互いに重畳した状態で表示されている。ユーザーはボタンBの位置から、例えば上方向に手のひらPを移動させることにより、現在選択している円形のボタンBが弦形状に変形しつつ、下の弦形状のボタンByに重なり、上の弦形状のボタンBxが高さ方向の中央に位置するとともに厚みのある円形に変形して選択されたことを示す。このように選択肢画像を選択の有無により変形させることにより、ユーザーは特定の選択肢画像の選択を直感的に理解することができ、利便性が向上する。 In FIG. 10C, in addition to the button B expressing the thickness that is the first information input image displayed, when other buttons exist in the vertical direction, images of different shapes are displayed in an overlapping manner. In this example, the user is notified that there are a plurality of buttons in the vertical direction. A string-shaped button Bx is displayed in the upper direction of the button B, and a string-shaped button By is displayed in a superimposed state in the lower direction. The user moves the palm P upward from the position of the button B, for example, so that the currently selected circular button B is deformed into a string shape and overlaps the lower string-shaped button By, and the upper string The shape button Bx is located at the center in the height direction and is selected by being transformed into a thick circle. In this way, by transforming the option image depending on the presence or absence of the selection, the user can intuitively understand the selection of the specific option image, and the convenience is improved.
尚、情報入力用画像および選択肢画像(ボタン)の積層状態を示す態様は、図10(a)〜(c)のものには特に限定されない。また、図4(b)、図10(a)〜(c)においては、複数の情報入力用画像が上下方向(高さ方向)に沿って積層され、ユーザーが上下方向に手のひらを移動させることにより、各情報入力用画像および選択肢画像を選択する例を示している。ただし、情報入力装置10が、側面の壁などに設置されることもあり、複数の情報入力用画像が積層される方向は上下方向(高さ方向)には限定されず、水平方向、斜め方向などであってもよい。一般化すれば、制御部1は、プロジェクタ5から検知部3が検知した絶対位置に至る方向に沿って積層された複数の情報入力用画像を生成すればよく、プロジェクタ5がこの方向に沿って積層された複数の情報入力用画像を投影すればよい。
In addition, the aspect which shows the lamination | stacking state of the information input image and the choice image (button) is not specifically limited to the thing of Fig.10 (a)-(c). 4B and 10A to 10C, a plurality of information input images are stacked in the vertical direction (height direction), and the user moves the palm in the vertical direction. Thus, an example of selecting each information input image and option image is shown. However, the
図11は、情報入力装置10の応用例の一つを説明する概念図である。図9のように、ボタンBの如き情報入力用画像の投影範囲が手のひらPの周辺のみに限定される場合、ユーザーは投影された全ての情報入力用画像を直感的に把握することができる。しかしながら、投影範囲が手のひらPの周辺のみに限定されると、一面(平面)内で投影する情報入力用画像の数、種類は限定されてしまう。一方、投影範囲を広げてしまうと、手のひらPの周辺以外であって、手のひらPに投影されない情報入力用画像、選択肢画像を直感的に把握することは困難となる。
FIG. 11 is a conceptual diagram illustrating one application example of the
図11は、一面内における情報入力用画像の投影範囲が手のひらのサイズを超える領域に渡るように広く、多数の選択肢画像が形成される場合に、プロジェクタ5による投影範囲および手のひらの位置を知らせる位置表示画像を投影することにより、ユーザーが容易に投影範囲を把握することができる例を示す概念図である。図11(a)の例では、プロジェクタ5が選択肢画像群である情報入力用画像の投影範囲を示す横方向の両矢印A3である位置表示画像を投影する例を示す。手のひらが情報入力用画像内のどの位置にあるかを示す横方向の両矢印A3を手のひらPに投影することにより、ユーザーは情報入力用画像の投影範囲が手のひらPの左右両側に広がっており、左右方向に他の選択可能な選択肢画像(ボタンB)が存在することを直感的に把握することができる。図11(b)の例では、プロジェクタ5が投影範囲を示す左方向の矢印A4を手のひらPに投影する例を示す。画像群の投影範囲が手のひらPの左側に広がっているため、左方向の矢印A4を示すことにより、ユーザーは左方向に他の選択可能なボタンが存在することを直感的に把握することができる。尚、画像群の端からの距離を、矢印の長さで表現するなどしてもよい。
FIG. 11 shows a position where the projection range of the information input image in one surface is wide so as to cover an area exceeding the size of the palm, and the projection range by the
位置表示画像は矢印には限定されず、他の文字や、図形、記号などであってもよく、特に限定はされない。投影範囲は手のひらPの前後や斜め範囲に広がってもよく、広がりの範囲に応じた位置表示画像が生成される。 The position display image is not limited to an arrow, and may be other characters, figures, symbols, etc., and is not particularly limited. The projection range may extend before and after the palm P or in an oblique range, and a position display image corresponding to the spread range is generated.
図12は、手のひらPの高さ方向の位置に合わせて、情報入力用画像および選択肢画像のサイズを決定する例を示す概念図である。図12(a)は、基本例であり、光学の原則論により、手のひらPの上下移動(矢印A5)に追従して選択肢画像であるボタンBのサイズが変化している。これに対し、図12(b)に示すように、制御部1は、検知部3が検知したプロジェクタ5から手のひらPまでの距離に基づき、手のひらPの上下移動(矢印A6)とは独立して、ボタンBのサイズを最適なもの、例えば高さに関わらず一定にすることができる。制御部1は、手のひらPまでの距離に基づき最適な情報入力用画像および選択肢画像のサイズを算出し、そのようなサイズの情報入力用画像および選択肢画像を出力する様に、プロジェクタ5に指示を出力する。このような制御を行うことにより、手のひらPの高さ方向の位置に関わらず、最適な情報入力用画像および選択肢画像のサイズを維持することができる。
FIG. 12 is a conceptual diagram illustrating an example in which the size of the information input image and the option image is determined in accordance with the position of the palm P in the height direction. FIG. 12A is a basic example, and the size of the button B, which is an option image, changes following the vertical movement of the palm P (arrow A5) according to the principle of optics. On the other hand, as shown in FIG. 12B, the
最適な情報入力用画像および選択肢画像のサイズの決定方法は特に限定されない。上述した様に、制御部1は、検知部3から手のひらPまでの距離に基づき最適な情報入力用画像および選択肢画像のサイズを算出することもできる。また、制御部1は、検知部3が取得した手のひらPの平面サイズ(面積)に基づき、最適な情報入力用画像および選択肢画像のサイズを算出することもできる。具体的には、制御部1は、手のひらPまでの距離と、手のひらPの平面サイズ(面積)から、情報入力用画像および選択肢画像のサイズを変更するが、例えば、算出した手のひらPのサイズ(面積)の80%のサイズ(面積)の情報入力用画像および選択肢画像を投影してもよい。具体的には、図13に示すように、手のひらPのサイズ(面積)は、指以外の面積で算出してもよく、例えば指の付け根Qを認識し、指の付け根Qの位置を基準として手のひらPのサイズを算出することができる(図13(a1)、(a2)参照)。また、指の付け根Qを認識し、この付け根に接する外接円の面積で手のひらPのサイズを算出してもよい(図13(b1)、(b2)参照)。また、予め検知部3から手のひらPまでの距離に対応した情報入力用画像および選択肢画像のサイズを算出しておき、この距離のみに依存して情報入力用画像および選択肢画像のサイズを変更して投影してもよく、このような処理により制御部1の処理負担を軽減することができる。
The method for determining the optimum information input image and option image size is not particularly limited. As described above, the
図14は、手のひらPの傾き角度に合わせて、入力用画像の形状を決定する例を示す概念図である。図14(a)は、基本例であり、光学の原則論により、下位置の手のひらPがプロジェクタ5に対して傾いており、その傾き角度に応じて、情報入力用画像に含まれる選択肢画像であるボタンBの形状が変化している。具体的には、ボタンBが、横方向に伸びて手のひらPからはみ出てしまっている。尚、手のひらPがプロジェクタ5に対して傾いていない場合とは、プロジェクタ5の照射項の照射軸に対し、手のひらPが直交する様に配置されている場合である。
FIG. 14 is a conceptual diagram illustrating an example in which the shape of the input image is determined in accordance with the inclination angle of the palm P. FIG. 14A is a basic example, and the palm P in the lower position is inclined with respect to the
これに対し、図14(b)に示すように、情報入力装置10は、検知部3が検知したプロジェクタ5に対する手のひらPの傾き角度および手のひらPまでの距離に基づき、ボタンBの形状を最適なもの、例えば傾き角度に関わらず一定にすることができる。制御部1は、手のひらPの傾き角度に基づき最適な情報入力用画像の形状を算出し、そのような形状の情報入力用画像を出力する様に、プロジェクタ5に指示を出力する。このような制御を行うことにより、手のひらPの傾き角度に関わらず、最適な情報入力用画像の形状を維持することができる。
On the other hand, as shown in FIG. 14B, the
図15は、手のひらPの高さ方向の位置に合わせて、情報入力用画像および選択肢画像のピントを決定する例を示す概念図である。図15(a)は、基本例であり、光学の原則論により、手のひらPの上下移動(矢印A7)に追従してピントがずれることになる。本例では、最適なピントが下位置の手のひらPに対して与えられているため、上位置の手のひらPではピントがボケてしまっている。 FIG. 15 is a conceptual diagram illustrating an example of determining the focus of the information input image and the option image in accordance with the position of the palm P in the height direction. FIG. 15A is a basic example, and the focus is shifted following the vertical movement (arrow A7) of the palm P according to the principle of optics. In this example, since the optimum focus is given to the palm P at the lower position, the palm P at the upper position is out of focus.
これに対し、図15(b)に示すように、情報入力装置10は、検知部3が検知したプロジェクタ5から手のひらPまでの距離に基づき、手のひらPの上下移動(矢印A8)とは独立して、常に最適なプロジェクタ5のピントを決定することができる。制御部1は、手のひらPまでの距離に基づき最適なピントを算出し、そのようなピントの情報入力用画像および選択肢画像を出力する様に、プロジェクタ5に指示を出力する。このような制御を行うことにより、手のひらPの高さ方向の位置に関わらず、最適なピントの情報入力用画像および選択肢画像を維持することができる。
On the other hand, as shown in FIG. 15B, the
ピントの設定方法は特に限定されない。上述した様に、制御部1は、プロジェクタ5から手のひらPまでの距離に基づき最適なピントを算出することもできる(アクティブ方式)。また、制御部1は、検知部3がRGBカメラを備える場合、レンズを通過した光に基づき最適なピントを算出することもできる(パッシブ方式)。
なお、手のひらPの高さ方向の位置に合わせて、情報入力用画像および選択肢画像のピントを決定する処理は、図12で説明した手のひらPの高さ方向の位置に合わせて情報入力用画像および選択肢画像のサイズを決定する処理や、図14で説明した手のひらPの傾き角度に合わせて入力用画像の形状を決定する処理を組み合わせてもよい。
The focus setting method is not particularly limited. As described above, the
Note that the process of determining the focus of the information input image and the option image in accordance with the position of the palm P in the height direction is the same as the information input image and the position of the palm P described in FIG. The process of determining the size of the option image and the process of determining the shape of the input image in accordance with the inclination angle of the palm P described in FIG. 14 may be combined.
図16は、情報入力装置10の応用例の一つを説明する概念図である。ユーザーの手のひらの位置によっては、情報入力用画像および選択肢画像の見え方が変わるため、その位置に応じて情報入力用画像および選択肢画像の表示方向をユーザーが見やすい方向に変更することが望ましい。例えば図16(a)に示すように、選択肢画像が円形のボタンBの場合、矢印A9で示す周方向に回転させ、表示方向を決定することが考えられる。
FIG. 16 is a conceptual diagram illustrating one application example of the
このため、検知部3が、手のひらに加え、ユーザーの肘部、肩部、頭部等の他の人体部分を形状から検知し、当該他の人体部分と手のひらを結ぶ直線軸を算出する。制御部1は、この直線軸を基準として、情報入力用画像の適切な表示方向を決定し、この表示方向を持つ情報入力用画像をプロジェクタ5が投影する。例えば直線軸が手のひらと頭部を結ぶものである場合、情報入力用画像は、直線軸と略平行にまたは略垂直になるような表示方向に配置されるのがよい。例えば直線軸が手のひらと肩部を結ぶものである場合、情報入力用画像は、手のひらが左右いずれの手かを認識した上で、直線軸から0〜60°程度の範囲での回転させた表示方向に配置されるのがよい。もちろん表示方向は一義的に規定されるものではなく、装置の種類、設置場所、ユーザーの特性など種々の要因により適宜決定される。
For this reason, in addition to the palm, the
図16(b)は、検知部3が手のひらP、頭部H、肩部Sを認識した状況において、制御部1が手のひらPと頭部Hを結ぶ直線軸AX1および手のひらPと肩部Sを結ぶ直線軸AX2の二つの直線軸を決定し、この二つの直線軸から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。図16(c)は、検知部3が手のひらP、肩部Sを認識した状況において、制御部1が手のひらPと肩部Sを結ぶ直線軸AX2を決定し、この直線軸から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。図16(d)は、検知部3が手のひらP、頭部Hを認識した状況において、制御部1が手のひらPと頭部Hを結ぶ直線軸AX1を決定し、この直線軸から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。
FIG. 16B shows a situation in which the
図16(e)は、検知部3が手のひらP、肩部S、特に両肩を認識した状況において、制御部1が両肩を結ぶ直線軸AX3を決定し、直線軸AX3を二等分する点が頭部Hの位置であると仮定して手のひらPと頭部Hを結ぶ直線軸AX1を決定し、直線軸AX1から情報入力用画像であるボタンBの表示方向を決定する概念図を示す。帽子や髪型等で頭部Hの認識が困難な場合に有用な方法である。
FIG. 16E shows that in the situation where the
図16(f)は、検知部3が手のひらP、肩部S、特に両肩を認識した状況において、手のひらPが両肩の内側か外側にあるかを認識できるため、内側にある場合と外側にある場合とで表示方向を変更している。本例では、手のひらPが両肩の内側にある場合、表示方向は体に対して正対するように設定される、一方、手のひらPが両肩の外側にある場合、図16(e)と同様の方法で、直線軸AX3、直線軸AX1を決定し、直線軸AX1から情報入力用画像であるボタンBの表示方向を決定する。
FIG. 16 (f) shows the case where the palm P is inside or outside both shoulders in the situation where the
本処理においては、上述した通り、検知部3が手のひらに加え、様々な他の人体部分を検知し、制御部1が、手のひらと他の人体部分との相対位置関係に基づき、情報入力用画像の向きを決定することができる。尚、検知部3が、ユーザーの直上に位置していなくても、空間的にユーザーの直上に位置している状況に変換して用いることができる。また、肩部の認識方法は骨格推定でも、上体塊推定でも良い。また、肘部を用いて表示方向を決定してもよい。また、椅子や、表示器など、使用環境によって人間の体の向きが限定される場合や、椅子の回転角度等を検出することにより体の認識以外でも向きを推定出来る場合は、その手段を用いて表示角度を変えてもよい。
In this process, as described above, the
図17は、高さ方向において情報入力用画像を投影する範囲を規定する概念を示す概念図である。検知部3が検知した頭部Hまたは肩部Sから手のひらPまでの相対距離(相対高さ)を制御部1が算出し、相対距離を基準として、プロジェクタ5が情報入力用画像を投影する範囲を規定する。例えば、肩部Sから手のひらPまでの相対距離を用いる場合(肩部基準)、手のひらPが肩部Sの高さ以下にある場合に情報入力用画像を投影すると決定することができ(距離D1)、さらに手のひらPが肩部Sの高さから600mm下の範囲までで情報入力用画像を投影すると決定することができる(距離D2)。頭部Hから手のひらPまでの相対距離を用いる場合(頭部基準)、肩部基準に対して150mm加算して計算する(距離D3、D4)。
FIG. 17 is a conceptual diagram showing a concept for defining a range in which an information input image is projected in the height direction. The
本処理において、高さの基準を決める方向の角度は、図17のように重力方向(鉛直方向)には限定されず、例えばリクライニング式の椅子に腰かけた場合などを考慮し、上体の傾斜角度を基準として算出することもできる。すなわち、検知部3が、手のひら以外の他の人体部分を検知し、制御部1が、手のひらと他の人体部分との相対位置関係に基づき、情報入力用画像を投影する範囲を決定することができる。また、本処理においては、検知部3が、ユーザーの直上に位置していなくても(一般的な監視カメラ等)、空間的に本処理の状況に変換して用いることができる。また、クライニング式の椅子に腰かけた場合などは、頭部Hまたは肩部Sではなく、床、椅子の座面高さ等を認識、または事前設定しておき、情報入力用画像を投影する範囲を規定してもよく、高さの基準となるものは限定されない。
In this process, the angle of the direction for determining the height reference is not limited to the gravitational direction (vertical direction) as shown in FIG. 17, and for example, when the user sits on a reclining chair, the upper body tilts. It is also possible to calculate based on the angle. That is, the
図18は、プロジェクタ5から照射する照射光と手のひらPが垂直に交わらない場合、すなわち、手のひらPに対し情報入力用画像を投影する投影角度が90°でない場合の処理の概念を示す概念図である。図18(a)に示すように、検知部3が手のひらPの傾き角度cを検知し、傾き角度に合わせて、例えば図14(b)で示した方法で情報入力用画像の形状を補正処理する。
FIG. 18 is a conceptual diagram showing a processing concept when the irradiation light irradiated from the
また、手のひらPの移動が検知された場合、傾き角度cを用いて、制御部1は、移動方向について分解演算を行う。すなわち、手のひらPの平面方向aへの移動では投影位置は変化させず、制御部1は平面内でのボタンBの選択処理であると判断する。一方、手のひらPの奥行方向bへの移動では、ボタンBの投影位置そのものを変更する(図18(b)参照)。
これらの補正処置によって、プロジェクタ5から照射する照射光と手のひらPが垂直に交わらない場合でも、図4(b)のように、ユーザーが手のひらPに対して垂直方向にスライドさせることで、それぞれの高さで表示されるボタンが、ボタンB1、B2で示す如く変化する。
Further, when the movement of the palm P is detected, the
Even if the irradiation light emitted from the
手のひらPの傾き角度cを拡大すると投影画像の不鮮明化、手認識の困難化等が生じるため、傾き角度60°を上限とし、それ以上の傾き角度の場合、制御部1は傾き角度60°を最大角度として用いて処理する。また、手のひらPの傾き角度cに対して厳密に描画・演算処理を行うが、演算力・表示のチラつきが生じる場合、例えば5°、10°、15°毎のステップで演算を行う。
If the tilt angle c of the palm P is enlarged, the projected image becomes unclear and the hand recognition becomes difficult. Therefore, the tilt angle is set to 60 ° as the upper limit, and when the tilt angle is larger than that, the
尚、手のひらによる動作(ジェスチャ)には種々のものが考えられ、上述の実施形態を含め、特定のものに限定はされない。例えば、テーブル等の所定の対象物に、手のひらに投影したボタンなどの情報入力用画像をこぼすようなジェスチャが考えられる。ボタンの投影箇所を、こぼし先の対象物に移動し、表示される情報入力用画像の数やサイズを変更して表示してもよい。 Various actions (gestures) by the palm are conceivable and are not limited to specific ones including the above-described embodiment. For example, a gesture that spills an information input image such as a button projected on the palm of a predetermined object such as a table can be considered. The projected part of the button may be moved to the object to be spilled and displayed by changing the number and size of the information input images to be displayed.
また、電子機器20による処理の実行開始後に、電子機器(ディスプレイ等)に注意が向くように、ビーム等を別途投影する様にしてもよい。具体的には、手のひらPに投射されているボタンBを、電子機器の方向に移動させてもよいし、手のひらPに投射されているボタンBを、電子機器の方向を示す矢印を表示させる様にしてもよい。
In addition, after the execution of processing by the
また、特定の情報入力用画像をちぎるような動作により処理を決定してもよいし、手のひらを傾けることで、情報入力用画像が流れていくように遷移する様にしてもよい。 Further, the processing may be determined by an operation that tears a specific information input image, or the information input image may be changed to flow by tilting the palm.
上述の形態では、片方の手のみで操作を完結させる例を説明した。ただし、他方の手で情報入力用画像をタッチして決定することも可能である。ただし、他方の手の指によって片方の手のひらが隠れてしまい、手のひらの高さと指との高さの差が正確に測れないと言った不都合は生じ得る。このような不都合を解消するため、例えば、情報入力用画像を表示する前に手の平の表面の凹凸を記録し、情報入力用画像を表示する領域より外側で、かつ指にかからない領域を3点以上、観測点とし、この観測点を計測することで手のひらの傾きを検出する。記録した表面の凹凸と、手のひらの傾きにより、手のひらの表面の高さを逐次補正することができる。また、手のひらの血の赤色をVGA(Video Graphics Array)カメラで観測してもよい。 In the above-described embodiment, the example in which the operation is completed with only one hand has been described. However, it is also possible to make a decision by touching the information input image with the other hand. However, there may be a disadvantage that the palm of one hand is hidden by the finger of the other hand, and the difference between the height of the palm and the height of the finger cannot be measured accurately. In order to eliminate such inconvenience, for example, the unevenness of the palm surface is recorded before displaying the information input image, and three or more areas outside the area where the information input image is displayed and which do not touch the finger are displayed. Then, the observation point is detected, and the inclination of the palm is detected by measuring the observation point. The height of the surface of the palm can be sequentially corrected based on the recorded surface irregularities and the inclination of the palm. Further, the red blood of the palm may be observed with a VGA (Video Graphics Array) camera.
また、検知部3とプロジェクタ5との構成、位置等に関しては、種々の関係が考えられる。例えば、プロジェクタ5の投影画角にかからない位置に検知部3を配置したり、検知部3の検知領域にかからない位置にプロジェクタ5を配置することが考えられる。プロジェクタ5の情報入力用画像を投影する投影面と検知部3が検知する面を同一面に配置してもよい。
Various relationships are conceivable regarding the configuration, position, and the like of the
また、プロジェクタ5と検知部3を、同一パーツで固定してもよく、プロジェクタ5の光軸と検知部の軸を同一方向に配置してもよい。また、検知部3のアスペクト比とプロジェクタ5のアスペクト比を合わせてもよい。
Further, the
また、プロジェクタ5と検知部3を校正する校正方法として、例えば何らかの校正アナウンスにより、対角点を表示し、ユーザーに対角点2点の中心に手をかざしてもらうことにより、手の検出位置と、投影位置を照合し、校正することが考えられる。また、画像認識によりポインタ中心と手のひらの中心のズレを認識し、調整してもよい。また、特徴的な構造物(イス等)に対して調整してもよい。
Further, as a calibration method for calibrating the
本開示の情報入力装置によれば、電子機器の操作にあたり、リモコンのような特別の装置のみならず、操作用の画像を投影するスクリーン等の専用の投影対象も不要であり、かつ、ユーザーが片手のみで他の電子機器を操作することが可能となり、より簡易な操作入力が可能となる。 According to the information input device of the present disclosure, when operating the electronic device, not only a special device such as a remote controller but also a dedicated projection target such as a screen for projecting an operation image is unnecessary, and the user Other electronic devices can be operated with only one hand, and simpler operation input is possible.
また、本開示の情報入力装置によれば、基本的に手のひらに情報入力画像を投影するが、手のひらのサイズに制限されることなく情報入力画像を投影することができ、多様な電子機器の操作処理が可能となる。 Further, according to the information input device of the present disclosure, the information input image is basically projected on the palm, but the information input image can be projected without being limited by the size of the palm, and various electronic devices can be operated. Processing is possible.
また、本開示の情報入力装置によれば、手のひらの検知後、特定のタイミング、特に特定の手のひらの動作(ジェスチャ)によって、情報入力画像を投影する絶対位置を画定することができる。よって、任意の位置(空間)を投影位置とすることができ、専用の投影対象が不要となる。また、ユーザーが手のひらを動かしても、投影位置は追従しないため、ユーザーは選択したい情報入力画像の選択肢画像に、手のひらを動かすことができる。 Further, according to the information input device of the present disclosure, the absolute position at which the information input image is projected can be defined by a specific timing, in particular, a specific palm operation (gesture) after the palm is detected. Therefore, an arbitrary position (space) can be set as the projection position, and a dedicated projection target is not required. Further, even if the user moves the palm, the projection position does not follow, so the user can move the palm to the option image of the information input image to be selected.
また、本開示の情報入力装置によれば、特定の選択肢画像を手のひらの中心に位置する様に手を動かした後、所定の動作によりその選択肢画像の選択が決定される。よって、投影位置の設定、選択肢画像の選択及び決定を、同じ手で行うことができ、ユーザーの片手のみで電子機器を簡易に操作することが可能となる。また、従来のように、選択肢画像の決定を、もう一方の手で指す動作にした場合のような複雑な検出処理をする必要がないため、より確実に、より簡易に決定処理を行うことができる。 Further, according to the information input device of the present disclosure, after moving a hand so that a specific option image is positioned at the center of the palm, selection of the option image is determined by a predetermined operation. Therefore, setting of the projection position and selection and determination of option images can be performed with the same hand, and the electronic apparatus can be easily operated with only one hand of the user. Further, unlike the conventional case, it is not necessary to perform a complicated detection process as in the case where the selection image is determined with the other hand, so that the determination process can be performed more reliably and easily. it can.
以上、図面を参照して本開示に係る情報入力装置の実施形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although the embodiment of the information input device according to the present disclosure has been described above with reference to the drawings, the present disclosure is not limited to the example. It is obvious for those skilled in the art that various modifications, modifications, substitutions, additions, deletions, and equivalents can be conceived within the scope of the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
本開示の情報入力装置は、専用の投影対象を用意せずに、電子機器を簡易かつ的確に操作する用途に有用である。 The information input device of the present disclosure is useful for applications in which an electronic apparatus is easily and accurately operated without preparing a dedicated projection target.
1 制御部
3 検知部
5 プロジェクタ(投影装置)
10 情報入力装置
20 電子機器
B ボタン(選択肢画像)
F 握りこぶし
H 頭部
P 手のひら
Q 指の付け根
S 肩部
DESCRIPTION OF
10
F Fist H Head P Palm Q Finger base S Shoulder
Claims (12)
手のひらに、電子機器を操作するための複数の処理に対応した複数の選択肢画像を含む情報入力用画像を投影する投影装置と、
前記検知部および前記投影装置を制御する制御部と、
を備える情報入力装置であって、
前記制御部は、所定のタイミングにおいて前記検知部が検知した手のひらの位置に対応した絶対位置を記憶し、
前記投影装置は、前記絶対位置を基準として前記情報入力用画像を投影し、
前記検知部が、手のひらの中心に所定の選択肢画像が投影された状態から、手のひらによる所定の動作を検知したとき、前記制御部は、当該所定の選択肢画像が選択されたと判定し、選択した選択肢画像に対応する処理を前記電子機器に送信し、
前記制御部は、前記投影装置から前記絶対位置に至る方向に沿って積層された複数の情報入力用画像を生成し、前記投影装置は、前記方向に沿って積層された複数の情報入力用画像を投影する、情報入力装置。 A detection unit capable of detecting the palm of a person,
A projection device that projects an information input image including a plurality of option images corresponding to a plurality of processes for operating an electronic device on a palm;
A control unit for controlling the detection unit and the projection device;
An information input device comprising:
The control unit stores an absolute position corresponding to the palm position detected by the detection unit at a predetermined timing;
The projection device projects the information input image based on the absolute position,
When the detection unit detects a predetermined action by the palm from a state where the predetermined option image is projected at the center of the palm, the control unit determines that the predetermined option image is selected, and the selected option Send processing corresponding to the image to the electronic device ,
The control unit generates a plurality of information input images stacked along a direction from the projection device to the absolute position, and the projection device stores a plurality of information input images stacked along the direction. An information input device that projects .
前記制御部は、前記方向に沿って積層された複数の選択肢画像の積層状態を表示する積層状態表示画像を生成し、
前記投影装置は、前記積層状態表示画像を投影する、情報入力装置。 The information input device according to claim 1,
The control unit generates a stacked state display image that displays a stacked state of a plurality of option images stacked along the direction,
The projection device is an information input device that projects the stacked state display image.
前記制御部は、前記方向に沿って積層された複数の選択肢画像の各々の積層順序を表示する積層順序情報を生成し、
前記投影装置は、選択肢画像の各々において前記積層順序情報を表示する、情報入力装置。 The information input device according to claim 1 ,
The control unit generates stacking order information that displays the stacking order of each of the plurality of option images stacked along the direction,
The projection device is an information input device that displays the stacking order information in each of the option images.
前記投影装置は、一面内おいて、手のひらのサイズを超える領域に前記情報入力用画像を投影する、情報入力装置。 The information input device according to claim 1,
The information input device projects the information input image onto an area exceeding the size of a palm in one plane.
前記検知部が手のひらによる所定の動作がされたことを検知したとき、前記投影装置は前記情報入力用画像の投影を停止する、情報入力装置。 The information input device according to claim 1,
The information input device, wherein the projection device stops projecting the information input image when the detection unit detects that a predetermined operation by a palm is performed.
前記投影装置は、初期時に前記手のひらに投影する際には、少なくとも前記選択肢画像は前記手のひらの中央付近以外に投射する、情報入力装置。 The information input device according to claim 1,
When the projection device projects the image onto the palm at an initial stage, at least the option image is projected outside the vicinity of the center of the palm.
前記検知部は、前記投影装置から手のひらまでの距離を検知し、
前記制御部は、前記距離に基づき、前記情報入力用画像のサイズを決定する、情報入力装置。 The information input device according to claim 1,
The detection unit detects a distance from the projection device to a palm;
The control unit is an information input device that determines a size of the information input image based on the distance.
前記検知部は、前記投影装置に対する手のひらの傾き角度を検知し、
前記制御部は、前記傾き角度に基づき、前記情報入力用画像の形状を決定する、情報入力装置。 The information input device according to claim 1,
The detection unit detects a tilt angle of a palm relative to the projection device;
The control unit is an information input device that determines a shape of the information input image based on the tilt angle.
前記検知部は、前記投影装置から手のひらまでの距離を検知し、
前記制御部は、前記距離に基づき、前記投影装置のピントを決定する、情報入力装置。 The information input device according to claim 1,
The detection unit detects a distance from the projection device to a palm;
The control unit is an information input device that determines a focus of the projection device based on the distance.
前記検知部は、手のひら以外の他の人体部分を検知し、
前記制御部は、手のひらと他の人体部分との相対位置関係に基づき、前記情報入力用画像の向きを決定する、情報入力装置。 The information input device according to claim 1,
The detection unit detects a human body part other than the palm,
The said control part is an information input device which determines the direction of the said image for information input based on the relative positional relationship of a palm and another human body part.
前記検知部は、手のひら以外の他の人体部分を検知し、
前記制御部は、手のひらと他の人体部分との相対位置関係に基づき、前記情報入力用画像を投影する範囲を決定する、情報入力装置。 The information input device according to claim 1,
The detection unit detects a human body part other than the palm,
The said control part is an information input device which determines the range which projects the said image for information input based on the relative positional relationship of a palm and another human body part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016213096A JP6210466B1 (en) | 2016-10-31 | 2016-10-31 | Information input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016213096A JP6210466B1 (en) | 2016-10-31 | 2016-10-31 | Information input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6210466B1 true JP6210466B1 (en) | 2017-10-11 |
JP2018073170A JP2018073170A (en) | 2018-05-10 |
Family
ID=60040417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016213096A Active JP6210466B1 (en) | 2016-10-31 | 2016-10-31 | Information input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6210466B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447052A (en) * | 2019-01-09 | 2019-03-08 | 东浓智能科技(上海)有限公司 | A kind of vena metacarpea identification device being accurately positioned palm position and its implementation |
CN111093066A (en) * | 2019-12-03 | 2020-05-01 | 耀灵人工智能(浙江)有限公司 | Dynamic plane projection method and system |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020235035A1 (en) | 2019-05-22 | 2020-11-26 | マクセル株式会社 | Head-mounted display |
EP3764199A1 (en) * | 2019-07-12 | 2021-01-13 | Bayerische Motoren Werke Aktiengesellschaft | Methods, apparatuses and computer programs for controlling a user interface |
JP2021099721A (en) * | 2019-12-23 | 2021-07-01 | トヨタ紡織株式会社 | Input device for vehicle |
JP7375611B2 (en) | 2020-02-28 | 2023-11-08 | 日本精機株式会社 | operating device |
JP7328409B2 (en) * | 2020-09-24 | 2023-08-16 | Necプラットフォームズ株式会社 | Control device, control method, information input system and program |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004208089A (en) * | 2002-12-26 | 2004-07-22 | Casio Comput Co Ltd | Projector, imaging device, and program for trapezoid correction |
US20100199232A1 (en) * | 2009-02-03 | 2010-08-05 | Massachusetts Institute Of Technology | Wearable Gestural Interface |
JP2012089079A (en) * | 2010-10-22 | 2012-05-10 | Honda Access Corp | Vehicle input-output device |
WO2012129649A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Gesture recognition by shadow processing |
US20120249409A1 (en) * | 2011-03-31 | 2012-10-04 | Nokia Corporation | Method and apparatus for providing user interfaces |
WO2012173001A1 (en) * | 2011-06-13 | 2012-12-20 | シチズンホールディングス株式会社 | Information input device |
US20130086531A1 (en) * | 2011-09-29 | 2013-04-04 | Kabushiki Kaisha Toshiba | Command issuing device, method and computer program product |
US20140177909A1 (en) * | 2012-12-24 | 2014-06-26 | Industrial Technology Research Institute | Three-dimensional interactive device and operation method thereof |
JP2016029532A (en) * | 2014-07-25 | 2016-03-03 | 小島プレス工業株式会社 | User interface |
WO2016047043A1 (en) * | 2014-09-25 | 2016-03-31 | パナソニックIpマネジメント株式会社 | Projection device |
US20160282951A1 (en) * | 2013-06-27 | 2016-09-29 | Futureplay Inc. | Method and Device for Determining User Input on Basis of Visual Information on User's Fingernails or Toenails |
-
2016
- 2016-10-31 JP JP2016213096A patent/JP6210466B1/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004208089A (en) * | 2002-12-26 | 2004-07-22 | Casio Comput Co Ltd | Projector, imaging device, and program for trapezoid correction |
US20100199232A1 (en) * | 2009-02-03 | 2010-08-05 | Massachusetts Institute Of Technology | Wearable Gestural Interface |
JP2012089079A (en) * | 2010-10-22 | 2012-05-10 | Honda Access Corp | Vehicle input-output device |
WO2012129649A1 (en) * | 2011-03-31 | 2012-10-04 | Smart Technologies Ulc | Gesture recognition by shadow processing |
US20120249409A1 (en) * | 2011-03-31 | 2012-10-04 | Nokia Corporation | Method and apparatus for providing user interfaces |
WO2012173001A1 (en) * | 2011-06-13 | 2012-12-20 | シチズンホールディングス株式会社 | Information input device |
US20130086531A1 (en) * | 2011-09-29 | 2013-04-04 | Kabushiki Kaisha Toshiba | Command issuing device, method and computer program product |
US20140177909A1 (en) * | 2012-12-24 | 2014-06-26 | Industrial Technology Research Institute | Three-dimensional interactive device and operation method thereof |
US20160282951A1 (en) * | 2013-06-27 | 2016-09-29 | Futureplay Inc. | Method and Device for Determining User Input on Basis of Visual Information on User's Fingernails or Toenails |
JP2016029532A (en) * | 2014-07-25 | 2016-03-03 | 小島プレス工業株式会社 | User interface |
WO2016047043A1 (en) * | 2014-09-25 | 2016-03-31 | パナソニックIpマネジメント株式会社 | Projection device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447052A (en) * | 2019-01-09 | 2019-03-08 | 东浓智能科技(上海)有限公司 | A kind of vena metacarpea identification device being accurately positioned palm position and its implementation |
CN111093066A (en) * | 2019-12-03 | 2020-05-01 | 耀灵人工智能(浙江)有限公司 | Dynamic plane projection method and system |
Also Published As
Publication number | Publication date |
---|---|
JP2018073170A (en) | 2018-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6210466B1 (en) | Information input device | |
US20220121344A1 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
US20220261112A1 (en) | Systems, devices, and methods for touch-free typing | |
US10139929B2 (en) | Information handling system interactive totems | |
JP6371475B2 (en) | Eye-gaze input device, eye-gaze input method, and eye-gaze input program | |
US9804733B2 (en) | Dynamic cursor focus in a multi-display information handling system environment | |
US9753591B2 (en) | Capacitive mat information handling system display and totem interactions | |
US9983717B2 (en) | Disambiguation of false touch inputs at an information handling system projected user interface | |
US9323343B2 (en) | Information processing method and information processing apparatus | |
JP2019087279A (en) | Systems and methods of direct pointing detection for interaction with digital device | |
US20160316186A1 (en) | Continuous Calibration of an Information Handling System Projected User Interface | |
JP6372487B2 (en) | Information processing apparatus, control method, program, and storage medium | |
US10139854B2 (en) | Dynamic display resolution management for an immersed information handling system environment | |
US11635827B2 (en) | Control device, display device, program, and detection method | |
US11243640B2 (en) | Information handling system modular capacitive mat with extension coupling devices | |
US20160314727A1 (en) | Information Handling System Projected Work Space Calibration | |
US9791979B2 (en) | Managing inputs at an information handling system by adaptive infrared illumination and detection | |
US9921644B2 (en) | Information handling system non-linear user interface | |
KR101330531B1 (en) | Method of virtual touch using 3D camera and apparatus thereof | |
JP7294350B2 (en) | Information processing device, information processing method, and program | |
US20160313822A1 (en) | Context Based Peripheral Management for Interacting with an Information Handling System | |
US20210287330A1 (en) | Information processing system, method of information processing, and program | |
US20160313820A1 (en) | Adaptable Input Active Zones at an Information Handling System Projected User Interface | |
JP2015094828A (en) | Image projection method, information input device and program | |
JP4712754B2 (en) | Information processing apparatus and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170904 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6210466 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |